jueves, 24 de abril de 2014


Simuladores cuánticos para recrear sistemas físicos innacesibles: biológicos, fenomenos naturales complejos, o particulas a velocidades relativistas.

Investigadores de la Universidad del País Vasco trabajan en el diseño de simuladores cuánticos para el estudio de la dinámica de sistemas físicos complejos; recrean por ejemplo el comportamiento a escala microscópica de sistemas biológicos, cuánticos, e incluso de partículas en movimiento a la velocidad de la luz. Una de las tecnologías que utilizan es la de iones atrapados, que consiste en aislar átomos individuales en un entorno controlado, de forma que no exista ninguna interferencia con el entorno, e interactuar con ellos mediante láseres. (Fuente: Departamento de Química Física de la Universidad del País Vasco/EHU)

Los simuladores cuánticos recrean el comportamiento a escala microscópica de sistemas biológicos, cuánticos, e incluso de partículas en movimiento a la velocidad de la luz. El conocimiento exacto de estos sistemas dará lugar a aplicaciones, desde células fotovoltaicas más eficientes hasta fármacos más específicos.

El grupo de investigación del Departamento de Química Física de la Universidad del País Vasco/EHU trabaja en el diseño de varios de estos simuladores cuánticos para el estudio de la dinámica de sistemas físicos complejos.

La mecánica cuántica es la herramienta matemática que nos permite describir los procesos físicos que ocurren a escala microscópica; es capaz de predecir de forma satisfactoria la estabilidad de átomos y moléculas, la reactividad de los diferentes compuestos químicos, o el resultado de la interacción entre radiación y materia. Todas ellas son situaciones que constituyen la base de nuestro mundo físico y que no encuentran explicación dentro del marco de la física clásica.

"Los procesos físicos que ocurren a nivel cuántico obedecen a modelos matemáticos tan sofisticados que no pueden ser analizados mediante los ordenadores actuales, debido a las limitaciones computacionales de éstos", explica en la nota de prensa de la UPV el doctor Jorge Casanova, investigador del Departamento de Química Física de la Universidad. Una posible solución al problema de la complejidad computacional de los sistemas físicos consiste en utilizar una plataforma o tecnología cuántica como simulador.

Los simuladores cuánticos superan la limitación de los ordenadores convencionales. Entre las diferentes tecnologías a estudiar para el desarrollo de simuladores cuánticos eficientes, este grupo de investigación de la UPV/EHU se ha centrado en la tecnología de iones atrapados.

"Esencialmente, el funcionamiento de estos sistemas consiste en aislar átomos individuales en un entorno controlado, de forma que no exista ninguna interferencia con el entorno. Posteriormente, se incide en ellos mediante láseres, y se consigue realizar operaciones, como excitar o desexcitar los electrones de esos átomos. De esta forma, se les hace comportarse como el sistema que queremos estudiar", detalla Casanova, autor principal del trabajo.

Basándose en esta tecnología de iones atrapados, Casanova y sus colaboradores han diseñado varios protocolos para el desarrollo de simulaciones cuánticas controladas. "Nosotros somos físicos teóricos; trabajamos diseñando los procesos que posteriormente sucederán en un experimento determinado. Nos basamos en las leyes de la mecánica cuántica, que son las que rigen esos sistemas, y proponemos ideas que posteriormente son verificadas en los laboratorios con los que trabajamos en colaboración", explica el investigador.

Diversas situaciones físicas

En el transcurso de la investigación, el equipo de la UPV/EHU ha diseñado protocolos de simulación cuántica para varias situaciones físicas. El primero fue un simulador de sistemas relativistas, es decir, de partículas que se mueven a velocidades cercanas a la de la luz. "Este experimento no es trivial, porque los iones utilizados están quietos, y sin embargo, conseguimos que se comportasen como si estuvieran moviéndose a la velocidad de la luz".

El experimento planteado por este grupo del Departamento de Química Física se llevó a cabo en Austria, "y tuvo bastante repercusión internacional, porque, hasta el momento, este ha sido el experimento en el que se ha conseguido el mayor nivel de control cuántico sobre los estados de movimiento iónicos a nivel mundial", comenta Casanova.

Tras el éxito obtenido, siguieron proponiendo simuladores cuánticos para otro tipo de sistemas, como los sistemas de fermiones y bosones en interacción. "Esto es muy importante", señala Casanova, porque en la naturaleza esencialmente existen dos tipos de partículas: unas son fermiones (en los átomos, por ejemplo, los electrones) y las otras son bosones (como los fotones o partículas de luz, o el bosón de Higgs). Los fermiones tienen espín semientero (1/2, 3/2, etc.) y los bosones lo tienen entero (0, 1, 2...).

"Nuestra idea fue diseñar el sistema en estudio de forma artificial, de manera que tengamos acceso a extraer la información de él. El problema de estos sistemas es que sus dinámicas son tan complejas que no se puede tener acceso a ellas a través de los cómputos realizados en ordenadores clásicos, es decir; conocemos bien las ecuaciones que describen su dinámica, pero no podemos resolverlas", comenta.

Más adelante plantearon otros dos tipos de simuladores. Por un lado, diseñaron simuladores de modelos de teoría cuántica de campos. Estas teorías "son las que describen los procesos más fundamentales, como las colisiones entre haces de partículas que suceden en los aceleradores, que también son muy complejas", aclara Casanova.

Química cuántica

Y, por otro, se centraron en la simulación de modelos de química cuántica. "Esta es una propuesta que tenemos en colaboración con el personal de investigación de la Universidad de Harvard (EE.UU.), allí diseñamos un protocolo específico para modelos de moléculas de química cuántica". También propusieron la fusión de un simulador cuántico con un ordenador cuántico, "un nuevo concepto para aumentar la versatilidad de las simulaciones cuánticas; lo que hicimos fue crear un marco matemático que dota a los simuladores con el acceso a un mayor número de tareas".

Casanova explica el interés, desde el punto de vista tecnológico, de todos estos simuladores cuánticos: "Toda la industria farmacéutica, la industria química y de materiales, e incluso la energética busca diseñar moléculas que sean más eficientes para una determinada función. Por ejemplo, las células fotovoltaicas, las que utilizamos para captar la energía solar, actualmente solo atrapan el 20% de la energía que les llega. Entonces, un modelo de moléculas más eficientes en la captura de energía solar incrementaría el aprovechamiento energético de esas células fotovoltaicas. Para eso debes ser capaz de diseñar moléculas, y saber cómo se van a comportar".

"Yo creo que en un periodo de unos 5-10 años seremos capaces de diseñar moléculas específicas para determinados procesos, como la captura de energía solar, o incluso para diseñar materiales y medicamentos. En el momento en que seamos capaces de entender sistemas complejos, seremos capaces de predecir su comportamiento, y de diseñar nueva tecnología basada en ese conocimiento".

jueves, 10 de abril de 2014


El intercambio de información entre partículas subatómicas inspira un nuevo modelo económico altermativo muy eficaz.
Una simulación realizada por científicos de la Universidad de Múnich muestra que garantizaría una alta liquidez, amplia distribución de la riqueza y estabilidad económica ilimitada. (Fuente: LMU-Universidad de Munich)

La forma en que las partículas subatómicas intercambian energía ha inspirado un modelo económico alternativo que, según simulaciones informáticas realizadas por físicos de la Universidad de Múnich, generaría las siguientes ventajas: una alta liquidez, una amplia distribución de la riqueza, y garantías de una estabilidad económica. Entre las características llamativas de este modelo están su aleatoriedad, que convierte la deuda en moneda, y que sustituye a los bancos por un sistema de agentes que cooperan desde el anonimato. Para su funcionamiento resultará esencial Internet.

En la actualidad, tomar prestado y prestar dinero son interacciones económicas esenciales, aunque no carentes de riesgo. A menudo, los créditos han desempeñado un papel importante en las crisis financieras a gran escala. Lo hemos visto, por ejemplo, en el colapso inmobiliario de nuestro propio país.

Los economistas se enfrentan por ello al dificultoso reto de mantener la liquidez al mismo tiempo que la estabilidad financiera. Esto implica tanto una oferta monetaria constante como una economía controlada.

Buscando la manera de lograr este objetivo, un equipo de investigadores de la LMU Munich acudió a la “econofísica”, un novedoso campo de investigación que traslada teorías y métodos originalmente desarrollados por físicos a la comprensión y resolución de problemas económicos. Matthias Schmitt, Andreas Schacker y Dieter Braun, de dicha Universidad, han publicado los resultados de su investigación en el New Journal of Physics.

Dinero y antidinero

En dicho artículo proponen lo siguiente: que la noción tradicional de crédito sea sustituida por un nuevo concepto que implica dos tipos de divisas: el dinero y el “antidinero”. Ambos conceptos ya existen en el sistema bancario actual, pero ahora al “antidinero” se le dan nuevos matices.

Según publica la revista Physorg, como dinero se entendería en el nuevo sistema exactamente lo mismo que siempre: monedas, liquidez.

La novedad radica en el concepto de “antidinero”, que ya no sería simplemente lo que hoy se entiende como “deuda”, sino que pasaría a ser una divisa distinta al dinero, explican los científicos en el New Journal of Physics. Por tanto, dinero y antidinero se diferenciarían entre sí del mismo modo que lo hacen el yen, la libra y el euro.

Como divisas distintas, el dinero y el antidinero tendrían un tipo de cambio constantemente cambiante, que resultaría esencial. El propósito de este tipo de cambio sería prevenir la inflación‎ (o devaluación del dinero) que se produce con las concesiones y solicitudes de préstamos.

Es bien sabido que el crédito tradicional produce inflación, por el aumento de la oferta monetaria, y que esto condiciona a todos los participantes del mercado financiero. De este modo, las consecuencias de los créditos locales pueden afectar a toda la economía.

Préstamos de dinero y antidinero

Dieter Braun ha explicado a Tendencias21 que, con estas dos monedas distintas, los intercambios económicos se harían de la siguiente forma: Para empezar, los créditos ya no serían facilitados por los bancos, sino que el dinero y el antidinero se solicitarían a personas que formen parte del sistema monetario.

Éstas cederían a otras, también participantes de dicho sistema, tanto dinero como antidinero. “Los bancos ya no tendrían que dar préstamos, sino que todo el mundo podría hacerlo, aunque la reunión de muchas personas implicadas en el sistema monetario y la gestión de contactos entre ellas podrían ser dos de las tareas futuras de los bancos”, añade Braun.

El prestatario, por su parte, recibiría el dinero y el antidinero, con un sello electrónico que marca una fecha. Pero no tendría que pagar al prestamista su deuda, sino que transferiría antidinero y dinero al sistema (para otras personas), dentro de la fecha señalada.

En el proceso jugaría además un papel clave la relación entre dinero y antidinero o el tipo de cambio entre ambos, pues las transferencias de dinero y antidinero a una tasa de cambio determinada permitirían a los agentes obtener liquidez.

Se produciría un intercambio continuo: el que lo necesitase recibiría de otras personas dinero y antidinero; y aquellos que cediesen dinero y antidinero obtendrían más o menos liquidez, en función de la tasa de cambio.

Si alguien compra una casa, por ejemplo, a posteriori tendrá más antidinero (deuda) que dinero. Perderá si el antidinero se vuelve menos valioso, y ganará si el dinero se vuelve más valioso. Por el contario, si vende una casa y obtiene dinero, perderá en el escenario contrario.

Según Braun y su equipo, este dinamismo favorecería el equilibrio entre dos estrategias, la de conservar más dinero o la de conservar más antidinero, y propiciaría que una parte del sistema apostase por futuras inversiones, mientras otra se ocupa de vender inversiones pasadas.

Todo sería completamente simétrico y se haría a tiempo real, al contrario que con las tasas de interés actuales, que requieren contratos a largo plazo que provocan retrasos en la economía.

De la economía a la física

Como hemos dicho, el funcionamiento de este sistema económico se asimilaría a la manera en que las partículas subatómicas intercambian energía. De hecho, la solución propuesta está basada en estructuras de la física de la energía y de la ley de la conversación‎, e inspirada en el teorema de Noether‎ (que expresa que cualquier simetría diferenciable, proveniente de un sistema físico, tiene su correspondiente ley de conservación). Además, ha sido analizada por los científicos con un método de la física llamado de “transferencias aleatorias”.

En esta simulación, los agentes intercambiaron al azar dinero y antidinero. La aleatoriedad de estos intercambios fue reflejo de un hecho constatado: que los entornos económicos y el futuro de las inversiones son difíciles de predecir.

Los resultados obtenidos mostraron que la economía monetaria de dinero y antidinero ofrece ventajas tales como una alta liquidez, una amplia distribución de la riqueza, y estabilidad económica.

“Para nosotros, esto parece lo suficientemente interesante como para seguir estudiando en esta dirección y como para probar la estabilidad del sistema, en primer lugar en entornos de la teoría de juegos (con algoritmos). Después la idea se desarrollará y podría pasar a probarse en entornos reales. El enfoque aún está en su primera infancia”, nos explica Braun.

El investigador añade que en el nuevo sistema jugará un papel importante Internet, porque la criptografía permitirá mantener a los agentes en el anonimato, y aún así mantener un registro de las operaciones para garantizar que las unidades de dinero y antidinero son devueltas por los operadores anteriores. “Creo que sólo Internet podría proteger este sistema monetario simétrico”, concluye Braun.

Otros ejemplos de econofísica

La econofísica está proporcionando una interesante perspectiva de la economía en los últimos años. Así, desde la teoría de la percolación (que se refiere al paso lento de fluidos a través de los materiales porosos) se han explicado las fluctuaciones en los mercados o, desde modelos de infarto cardíaco y dinámica de placas tectónicas, se han explicado las caídas en las bolsas de valores.

La econofísica también se preocupa por explicar fenómenos de escalamiento y autosimilares, como las leyes de potencias, en la distribución de la riqueza; y estudia la existencia de caos determinista en los patrones de las transacciones económicas. Esta disciplina surgió en los años 1990, principalmente en el entorno del prestigiado Instituto Santa Fe de Nuevo México, que se especializa al estudio de los sistemas complejos.

Una rama de estudio emparentada con ella es la Sociofísica, que estudia fenómenos sociales desde la óptica de los sistemas complejos y la dinámica no lineal. Desde esta rama se ha establecido, por ejemplo, que los extremismos que amenazan la convivencia social son el resultado de una crisis de valores.

lunes, 7 de abril de 2014


Posible rastro de materia oscura en nuevos mapas del centro de la galaxia
Aparece un foco excesivo de rayos gamma de origen desconocido, los astrónomos lo atribuyen a esta extraña materia (Fuente: NASA)

Nuevos mapas realizados a partir de datos registrados por el telescopio espacial de la NASA Fermi, revelan que, en el centro de nuestra galaxia, hay un exceso de rayos gamma no atribuible a fuentes conocidas. Los astrónomos afirman que dicho exceso podría estar causado por la misteriosa materia oscura, aunque advierten que serán necesarios nuevos análisis y registros para validar su interpretación.

Es una materia de composición desconocida que, además, no emite la suficiente radiación electromagnética como para ser observada directamente con los medios técnicos actuales; pero se calcula que constituye el 85% del universo. Se trata de la llamada “materia oscura”; y ha sido deducida por los especialistas a partir de los efectos gravitacionales que causa en la materia visible del cosmos, como la de las estrellas o las galaxias.

El pasado mes de febrero de 2014, unos 190 expertos en el tema de todo el mundo se reunieron en un simposio celebrado en la Universidad de California en Los Ángeles (UCLA) para poner en común las últimas novedades en las investigaciones sobre materia oscura. Entonces, se expusieron los resultados de varios análisis que indican que dicha misteriosa materia sí existe, aunque no pueda verse ni registrarse.

David Cline, organizador del encuentro, profesor de física de la UCLA y uno de los expertos en materia oscura del mundo, explicó poco después del simposio para Tendencias21 que la prueba estaría en un “exceso” registrado en cierto tipo de datos.

Según el investigador: “La materia oscura puede auto-aniquilarse, y producir rayos gamma de alta energía. El detector del Fermi (telescopio espacial de la NASA), a su vez, puede detectar esos rayos gamma”. Lo que se ha detectado es que “hay un exceso de rayos gamma‎ procedente del Centro Galáctico”, señaló Cline.

Los mapas del hallazgo

Los rayos gamma son un tipo de radiación electromagnética que puede ser producida por elementos radiactivos o por procesos subatómicos de diversos elementos cósmicos, entre ellos la materia oscura.

Los rayos gamma de alta energía que se producen en el centro de nuestra galaxia pueden ser explicados en parte a partir de fuentes conocidas, como la interacción de sistemas binarios, púlsares aislados de restos de supernovas o partículas que chocan con el gas interestelar. Pero existe un exceso de rayos gamma procedentes de dicho centro de origen desconocido -como señala Cline- que, además, es consistente con las predicciones sobre materia oscura.

Ese exceso de rayos gamma no adjudicado a causas conocidas, es lo que ha registrado el Telescopio Espacial de Rayos Gamma Fermi antes mencionado, un observatorio espacial de la NASA diseñado para estudiar las fuentes de rayos gamma del universo, con el objeto de detallar mapas de las mismas.

Esos nuevos mapas, desarrollados por investigadores del Fermi National Accelerator Laboratory (Fermilab), del Harvard-Smithsonian Center for Astrophysics (CfA), del MIT y de la Universidad de Chicago, han permitido ahora "analizar ese exceso (de rayos gamma) y probar si las explicaciones más convencionales, como la presencia de púlsares no descubiertos o colisiones de rayos cósmicos en nubes de gas, pueden explicarlo", señala Dan Hooper, astrofísico y autor principal del presente estudio, en un comunicado de la NASA.

"La señal (de rayos gamma) que hemos encontrado no puede ser explicada por las alternativas propuestas actualmente y está en estrecho acuerdo con las predicciones de modelos muy simples de materia oscura", continúa Hooper.

Deducción por descarte

Aunque nadie conoce la verdadera naturaleza de la materia oscura, los científicos creen que existen unas partículas llamadas WIMP (“partículas masivas que interactúan débilmente”) que la conforman.

Se ha teorizado que, en sus interacciones y colisiones, las WIMP se aniquilan mutuamente o producen una partícula intermedia, que rápidamente se descompone. Ambas reacciones provocarían una producción de rayos gamma, que es lo que parece que ha detectado el Telescopio Fermi.

Cuando los astrónomos restaron, de los datos de este observatorio, todas las fuentes de rayos gamma conocidas del centro de la galaxia, siguió existiendo en este una emisión de rayos gamma sobrante.

Se trata de un exceso de entre uno y tres mil millones de electrónvoltios (GeV) –casi mil millones de veces mayor que el de la luz visible-, que se extiende hacia el exterior por lo menos 5.000 años luz a partir del centro galáctico, especifica la NASA.

Hooper y sus colegas han concluido que este exceso se ajustaría a la producción de rayos gamma que conllevaría la aniquilación de partículas de materia oscura (WIMP) con una masa de entre 31 y 40 GeV. Sin embargo, los investigadores advierten que serán necesarios nuevos análisis y registros –astronómicos, pero también en aceleradores de partículas como el LHC- para validar la interpretación de datos realizada.

Durante los últimos años, este equipo ha rastreado galaxias enanas en busca de pistas de materia oscura. Sus resultados han permitido establecer límites estrictos sobre los rangos de masas y las tasas de interacción para muchas de las WIMPs teóricamente propuestas, e incluso eliminar algunos modelos teóricos sobre estas partículas.





miércoles, 2 de abril de 2014


Microbios genéticamente transformados causaron la gran extinción masiva en el Pérmico-Triásico
Una teoría de científicos del MIT sobre la causa de la extinción masiva y sugiere que podríamos estar corriendo un importante riesgo (Fuente: MIT, T21)

Investigadores del MIT han encontrado evidencias de que la mayor extinción masiva de la Tierra fue producida por unos microorganismos que emiten metano. Transformados genéticamente en el momento preciso, estos microbios provocaron con sus emisiones un cambio climático y la acidificación de los océanos, con consecuencias catastróficas. Ambas circunstancias se están reproduciendo en la actualidad como consecuencia de la acción humana.

Los microbios Methanosarcina, género de microorganismos del dominio Archaea, producen un gas, el metano, conocido por ser uno de los gases que provoca el efecto invernadero, pero también porque constituye hasta el 97% del gas natural.

Aunque para ver a estos diminutos microorganismos hace falta un microscopio, podrían tener un poder de destrucción portentoso pues, según científicos del Instituto Tecnológico de Massachusetts (MIT) (EEUU) esta especie habría causado la mayor extinción masiva acaecida en la Tierra, la Extinción masiva del Pérmico-Triásico (PT).

Hace 252 millones de años, el 95% de las especies marinas y el 70% de las especies de vertebrados terrestres de nuestro planeta desaparecieron. Hasta ahora, esta extinción global se había achacado a asteroides o a explosiones volcánicas, pero la causa podría estar en algo mucho más pequeño.

Los investigadores del MIT aseguran que las evidencias de este hecho son abundantes y generales. En aquella época, de manera repentina, se produjo un florecimiento explosivo de Methanorsacina en los océanos, lo que conllevó un lanzamiento a la atmósfera de enormes cantidades de metano. Y esto a su vez cambió radicalmente el clima y la química de los mares.

Los microbios no trabajaron solos, sino que los volcanes fueron sus cómplices. Por una parte, las Methanorsacina habían desarrollado una nueva capacidad, que les permitió utilizar una rica fuente de carbono orgánico; pero también aprovecharon un elemento para su eclosión, el níquel, emitido por un vulcanismo masivo en ese momento de la historia terrestre.

Tres conjuntos de evidencias

El MIT publica que estas conclusiones están basadas en tres conjuntos independientes de evidencias. Por un lado, existe una evidencia geoquímica que muestra un aumento exponencial del dióxido de carbono (CO2) en los océanos en la Extinción masiva del Pérmico-Triásico (PT).

Por otro lado, está la evidencia genética de un cambio en las Methanosarcina en aquel momento, que permitió a estos microbios convertirse en un importante productor de metano a partir de la acumulación del carbono orgánico presente en el agua.

Por último, los sedimentos analizados muestran un aumento repentino en la cantidad de níquel depositada exactamente en ese tiempo.

Los depósitos de carbono muestran que algo causó un repunte significativo de la cantidad de gases que contienen carbono -dióxido de carbono o metano- cuando se dio la extinción masiva. Algunos investigadores han sugerido que estos gases podrían haber sido expulsados por las mismas erupciones volcánicas que crearon los “traps siberianos”, una gran formación de roca volcánica originada durante la extinción masiva del Pérmico-Triásico.

Sin embargo, los cálculos realizados por el equipo del MIT han señalado que estas erupciones no resultaron suficientes como para explicar ese carbono observado en los sedimentos. Y, lo que es más importante, los cambios en el tiempo registrados en la cantidad de carbono no se ajustan al modelo volcánico.

"Una inyección inicial rápida del dióxido de carbono de un volcán sería seguido por una disminución gradual", explica Fournier. "En cambio, vemos lo contrario: un aumento rápido y continuo, lo que sugiere que hubo una expansión microbiana”.

Y añade: “El crecimiento de las poblaciones microbianas es de los pocos fenómenos capaces de aumentar la producción de carbono de manera exponencial y muy rápida”.

La clave genética

El análisis genómico de la Methanorsacina ha arrojado luz sobre lo que en realidad sucedió: Estos microorganismos adquirieron un medio particularmente rápido de toma de metano, gracias a la transferencia de genes de otro microbio, una transferencia que se produjo más o menos a finales del Pérmico.

Esta adquisición genética permitió que los microbios se expandiesen de manera exponencial con el consumo veloz de la gran reserva de carbono orgánico que encontraban en los sedimentos oceánicos.

Pero las Methanorsacina no habrían sido capaces de proliferar tan prodigiosamente si no hubiesen contado con la suficiente cantidad de nutrientes minerales adecuados.

En este caso, fue el níquel, algo que se ha demostrado gracias al análisis de sedimentos de China, en los que se refleja el aumento drástico de este elemento tras las erupciones de Siberia que, ya se sabía, produjeron algunos de los depósitos más grandes del mundo de níquel. Esto proporcionó el combustible para el crecimiento explosivo de la Methanosarcina.

Consecuencias catastróficas en el pasado… ¿y en el futuro?

Todo este proceso conllevó las siguientes consecuencias: La explosión de metano, provocada por los microbios, habría incrementado los niveles de dióxido de carbono en los océanos, lo que resultó en una acidificación de las aguas, similar a la acidificación que podría ocasionar el cambio climático inducido por el hombre.

De hecho, se ha calculado ya que las emisiones sin control de CO2 como consecuencia de las actividades humanas están provocando una alteración del grado de acidez del mar que podría acabar con los ecosistemas hoy conocidos.

Según el último estudio realizado sobre calidad de las aguas por el Programa Internacional Geosfera-Biosfera, presentado en noviembre de 2013 en Polonia, de momento la acidificación oceánica podría hacer desaparecer al 30% de las especies marinas en 75 años. Además, si no cambian las tendencias de la contaminación antropogénica, este efecto habrá aumentado un 170% a finales de este mismo siglo.

Otros estudios han señalado asimismo que la acidificación de los mares se está produciendo en la actualidad de una manera más rápida que en cualquier otro momento de la historia terrestre. Los microorganismos nos muestran, por tanto, hasta qué punto el problema del cambio climático demanda ya una solución acuciante, tal y como han asegurado los expertos del IPCC en su informe más reciente.

Sobre las extinciones masivas

Una extinción masiva es un período en el cual desaparece un número muy grande de especies. La extinción masiva más conocida de la historia de nuestro planeta tuvo lugar hace 65 millones de años, y provocó la desaparición de los dinosaurios.

Las otras tuvieron lugar hace 444 millones de años, 360 millones de años, 252 millones de años y 210 millones de años. Como se ha dicho, la más grave fue la de hace 252 millones de años, ya que provocó la desaparición del 53% de las familias biológicas marinas, el 84% de los géneros marinos y aproximadamente el 70% de las especies terrestres (incluyendo plantas, insectos y vertebrados).

Algunos especialistas piensan que estamos a las puertas otra extinción masiva, que será causada por el ser humano que, en su crecimiento, recorta las posibilidades biológicas y la diversidad natural. Al mismo tiempo, sin embargo, es la única especie con la capacidad de corregir este impacto humano sobre la naturaleza.