Mostrando entradas con la etiqueta Química y Clima. Mostrar todas las entradas
Mostrando entradas con la etiqueta Química y Clima. Mostrar todas las entradas

jueves, 4 de julio de 2024

Los humos de los barcos y el calentamiento global


El 3 de diciembre de 1972, dos geólogos de la americana Brown University escribieron una carta al Presidente Nixon. En el escrito le mostraban su preocupación de que la actual época interglaciar estuviera llegando a su fin, iniciándose una nueva glaciación. Literalmente le decían que el que se estuviera produciendo “un deterioro global del clima, en un orden de magnitud mayor que cualquier otro experimentado hasta ahora por la humanidad civilizada, es una posibilidad muy real y, de hecho, podría producirse muy pronto”. Que unos geólogos hablen de que algo se pueda producir muy pronto es casi de chiste, teniendo en cuenta que para ellos la escala más habitual son miles o millones de años, pero la carta se tomó en serio en la Casa Blanca y, de hecho, implicó la puesta en marcha de programas de investigación al respecto.

Eran tiempos en los que los estudios sobre la evolución del clima eran menos habituales que ahora y la Climatología una Ciencia incipiente que se repartían meteorólogos y geólogos. Y unos y otros, desde los años cuarenta, venían observando periodos de mal tiempo y bajas temperaturas. Con la perspectiva que dan unos cuantos años más, eso tiene un cierto reflejo en la figura que aparece debajo, donde puede apreciarse que, tras un calentamiento entre 1900 y los primeros cuarenta, el gráfico parece cambiar con un cierto enfriamiento de unos treinta años para luego volver a subir decididamente.
A pesar del reflejo que la carta tuvo en los medios y en la posterior proliferación de trabajos científicos, hoy sabemos que fue una falsa alarma. Enseguida, diversas sociedades científicas y organismos internacionales desviaron la atención hacia lo que hoy llamamos calentamiento global, ocasionado por las continuas emisiones de CO2 de origen antropogénico (humano). Y también sabemos que ese corto periodo de enfriamiento se debió, probablemente, al efecto que sobre la radiación solar que llega a la Tierra tiene la presencia en la atmósfera de los llamados aerosoles, partículas sólidas o líquidas que se encuentran suspendidas, en estado estacionario, en el aire. Sin esa presencia sobre nuestras cabezas, el calentamiento global hubiera sido más evidente antes.

Ese hecho quedó confirmado (véase esta entrada de setiembre pasado) con lo que podíamos llamar el “experimento Pinatubo”. Pinatubo es un volcán filipino que, en 1991, inyectó en las capas de la atmósfera, entre otras muchas sustancias, millones de toneladas de dióxido de azufre (SO2) que, en la capa intermedia o estratosfera, se transformaron en aerosoles de sulfato. Cada una de esas partículas actuaron como barreras que impedían la llegada de la luz del Sol a muchas regiones del planeta, con lo que la temperatura global de la Tierra disminuyó en más de medio grado en los dos años subsiguientes a la erupción.

Y viene esto a cuento porque, desde el 1 de enero de 2020, están en vigor las nuevas normas de la Organización Marítima Internacional (OMI), normas que regulan el contenido en azufre del combustible que usa el transporte marítimo internacional, reduciéndolo del 3,5 % al 0,5 %. El objetivo fundamental de estas medidas es mejorar la calidad del aire y, de rebote, la salud pública ya que, al disminuir la posibilidad de que ese azufre se convierta en aerosoles, se evitan enfermedades respiratorias y cardiovasculares. Pero, como efecto derivado de esa disminución y en un proceso contrario al de las emisiones del Pinatubo, algunos climatólogos están especulando con que pudiera ser la causante del inusual calentamiento global experimentado en 2023, estimado en 0,2 ºC.

La cosa parece lejos de estar clara, porque en estos últimos meses/años están confluyendo una serie de posibles causas del fenómeno. Además del crecimiento global de las emisiones de CO2, que ahí sigue, y de los combustibles de bajo contenido en azufre que acabo de explicar, este año hemos tenido un El Niño bastante fuerte, estamos prácticamente en el máximo del ciclo 25 de la actividad del Sol y está también el hecho de las ingentes cantidades de vapor de agua que inyectó el volcán Hunga Tonga, del que hablábamos en la misma entrada mencionada arriba sobre el Pinatubo.

Todo ello ha hecho que, en los últimos meses, hayan aparecido artículos científicos y artículos de opinión de científicos muy relevantes en el Panel Intergubernamental del Cambio Climático (IPCC), como Hansen, Schmidt o Hausfather. En ellos hacen incidencia en los factores mencionados en el párrafo anterior y, en los dos primeros casos, cuestionan de forma distinta las capacidades de los modelos climáticos para reproducir estas anomalías de temperaturas que nos han sorprendido. Son debates, también recogidos en redes sociales, entre reconocidos climatólogos que demuestran que la Ciencia de todo esto dista de estar del todo establecida. Debates que seguro no interesan a la mayoría de mis lectores pero, al menos, estáis al loro de lo de las emisiones sin azufre de los buques y sus probables consecuencias.

Además, como os recuerdo de vez en cuando para que no se os olvide, el Blog es mío y en él procuro dejar constancia, a modo de diario, de las cosas que me preocupan.

La música de hoy es un extracto de tres minutos de una de las escenas de la Sinfonía Alpina de Richard Strauss. Una vez más con la Filarmónica de Berlín, dirigida esta vez por el grandullón y disfrutón Andris Nelsons que, en la grabación, tenía 37 años. Fijaros, en los primeros diez segundos, en el espectador que está detrás del músico de los platillos…

Buen verano!!!

Leer mas...

domingo, 2 de junio de 2024

La mariposa del mar y la acidificación de los océanos

Uno de los iconos de la llamada acidificación de los océanos, un proceso derivado del aumento de la concentración de dióxido de carbono (CO2) en la atmósfera como consecuencia de la quema de combustibles fósiles, son las llamadas mariposas del mar (cuyo nombre científico es Thecosomata), pertenecientes al grupo de los pterópodos, unos minúsculos caracoles de mar que son capaces de nadar en el mismo (cual mariposas en el aire) gracias a unas delicadas alas (ver foto arriba) que emergen de la concha que les protege. El pequeño tamaño y la extrema delgadez, tanto de las alas como de las paredes de la concha (con espesores inferiores al diámetro de un cabello humano), es la causa fundamental de ese carácter icónico, al entenderse que son extremadamente vulnerables a dicha acidificación que acabaría disolviendo unas y otra. Aunque, como siempre, la vida real tiene más matices.

En una breve nota en Nature en el año 2003, y en el subtítulo de la misma, Caldeira y Wickett introdujeron el término acidificación para explicar el hecho de que, como consecuencia de la mayor disolución del CO2 en los océanos, el agua de los mismos iría rebajando su pH, ese número que nos dice si una disolución es ácida (menos que 7) o básica (más de 7). El agua de mar anda ahora en torno a 8.0 y es, por tanto, básica pero el hecho de que vaya disminuyendo está en el origen del término acidificación, que fue el principal causante de que me enganchara al seguimiento del cambio climático y sus implicaciones, dada la cercanía del tema con mis tareas como profesor de Química Física.

El término se convirtió enseguida en viral en la literatura científica relacionada. Incluyendo la de agencias gubernamentales como la americana NOAA (National Oceanic and Atmospheric Administration) que, poco después, nos alertaba con este documento y la gráfica que veis a continuación, de que cuando la concentración del CO2 disuelto en el mar subiera al doble de la que había en tiempos preindustriales (línea azul), el pH (línea roja) bajaría de 8,17 a 7,83.
No deja de ser algo sorprendente que esa gráfica (con precisión de dos decimales en el valor del pH) siga colgada de la web de una agencia tan prestigiosa como la NOAA, a pesar de las críticas que ha recibido por ello. La figura arranca con valores de pH en 1850, algo que la misma NOAA considera imposible conocer porque, en esa época y varias décadas después, no existían ni el concepto de pH ni instrumentos para medirlo. Y en cuanto a los valores en 2100, en el otro extremo de la gráfica, se trata de extrapolaciones muy arriesgadas, dadas las cortas series históricas de datos experimentales de las que se dispone, medidos mediante las técnicas que la Agencia establece como fiables.

Dejando de lado estos comentarios quisquillosos de un jubilata al que le gusta bucear en la literatura porque tiene tiempo para ello, lo cierto es que, en estos veinte últimos años, he ido acumulando mucha información sobre la acidificación y, paralelamente, sobre el comportamiento de nuestra sutil mariposa del mar en esos medios más “acidificados”.

Una de las cosas que he aprendido leyendo artículos como este de Nature es que, a pesar de que los esqueletos óseos de la mariposa de mar estén constituidos por carbonato cálcico, que se disolvería en el agua de mar a partir de un cierto valor de pH, la superficie de esos esqueletos en contacto directo con el mar no es carbonato cálcico. De la misma forma que la pintura exterior de un coche sirve para proteger a la estructura metálica de la carrocería frente a la corrosión ambiental, el carbonato cálcico del esqueleto de los pterópodos lleva un revestimiento orgánico superficial denominado periostracum que le protege del efecto “corrosivo” del agua de mar.

Es verdad que ese revestimiento puede dañarse por muchas razones, entre ellas el ataque de su principal enemigo, otro miembro de los pterópodos (los llamados ángeles del mar) que atrapan a las mariposas con sus tentáculos antes de inmovilizarlas y comérselas. Si el ataque falla y la mariposa escapa, puede que se lleve un recuerdo de su atacante en la delgada capa del periostracum. Esa herida puede hacer que carbonato cálcico bajo ella quede expuesto al agua de mar de bajo pH y se produzca su disolución progresiva.

Pero las mariposas del mar pueden ser minúsculas pero no por ello dejan de ser unas resistentes. En el mismo artículo de Nature arriba mencionado, se demuestra que son capaces de regenerar la capa de periostracum y restablecer así sus defensas contra el pH del medio marino. Un comportamiento que resulta fascinante en seres tan minúsculos.

La otra cuestión resulta algo más difícil de explicar pero voy a ver si lo consigo sin abusar de vuestra paciencia. Cuando el mar se acidifica y el pH se hace menor, disminuye la concentración de iones carbonato disueltos en al agua de mar, en beneficio de la formación de los iones bicarbonato. Si la formación de las conchas se entiende como la precipitación progresiva de carbonato cálcico sobre ellas, una disminución de iones carbonato en el agua implicaría que el proceso de calcificación fuera más lento y, por debajo de cierta concentración de carbonato en el agua, prácticamente inexistente. Lo que es particularmente grave en los ejemplares juveniles.

Pero aquí también la cosa es algo más complicada. La existencia de esa capa orgánica protectora de la concha o periostracum hace poco creíble que se produzca esa precipitación directa del carbonato cálcico como forma de hacer crecer las conchas. Parece que la hipótesis que se está abriendo paso es que, en realidad, es el CO2 disuelto en el agua de mar el que atraviesa ese revestimiento orgánico y una vez dentro (entre él y el esqueleto, en el llamado fluido calcificante), se transforma en bicarbonato mediante la acción de enzimas. Un complicado mecanismo posterior transforma en ese fluido los bicarbonatos en carbonatos que, en presencia de iones calcio, forman las capas de carbonato cálcico de las conchas por debajo del periostracum.

Una hipótesis que, por ahora, necesita ser confirmada en más de un extremo. Así que la Ciencia de todo esto no es, ni mucho menos, un asunto cerrado y tiene implicaciones en las que sería largo entrar. Sobre todo porque ya me he pasado un poco de las mil palabras, que suele ser mi límite para una entrada.

Y para acompañar al delicado aleteo de nuestras mariposas, un poco de música: Leonard Bernstein otra vez (se me nota el sesgo) pero, en esta ocasión, como compositor. El vals de su Divertimento para orquesta con Gustavo Dudamel dirigiendo a la Filarmónica de Berlín.

Leer mas...

miércoles, 15 de noviembre de 2023

Osos polares y pingüinos emperador

Hace unos pocos años, era habitual ver vídeos de National Geographic, que mostraban a magníficos osos polares intentando desesperadamente saltar de un témpano de hielo a otro en el Océano Ártico. Las imágenes se aderezaban con comentarios (entre otros) de David Attenborough sobre el futuro de los osos polares en el contexto del cambio climático y el deshielo del Océano Ártico. En diciembre de 2017 y en este contexto, se hizo viral un vídeo de un pobre oso esquelético que, posteriormente, la propia National Geographic reconoció que era un viejo oso enfermo a punto de fallecer.

Creo que algunas de las reacciones a ese vídeo, y el propio reconocimiento de la revista, dieron inicio al declive de la hipótesis subyacente en todos esos reportajes previos. Y que no es otra que el deshielo del Océano Ártico, debido al cambio climático, dificulta cada vez más la caza de focas para los osos polares. En consecuencia, pasan hambre y corren el peligro de desaparecer.

A menudo, estos documentales sobre el medio ambiente son deprimentes a pesar de sus magníficas fotografías, porque siempre nos transmiten el sombrío mensaje de la extinción de las especies y la destrucción de la naturaleza. Sin embargo, sabemos que tanto los activistas medioambientales como sus oponentes (por ejemplo, los pueblos que habitan esas extremas latitudes y que viven en contacto con las poblaciones de osos) suelen exagerar sus percepciones. Los mensajes de unos y otros tienden a tener sus raíces más en intereses políticos que en la ciencia y es difícil conocer la verdad de lo que está pasando.

Este vuestro Búho tenía la mosca detrás de la oreja sobre el asunto desde que, de forma casual, caí en el Blog que Susan Crockford, una Doctora en Zoología que ha dedicado más de dos décadas al estudio de la ecología y la evolución de los osos polares. No siempre me ha gustado el tono agresivo con el que la Dra. Crockford escribe sus post, pero como me conozco su tormentosa historia académica, tampoco me extraña.

Además de seguir a la Crockford, yo había buscado por mi cuenta información al respecto en diversas fuentes. Y casi todas coincidían en que mientras que en la década de los setenta, la población de osos polares en el Ártico había caído hasta una cifra preocupante de entre 5000 y 8000 individuos , esa población se había recuperado posteriormente y, ya en 2008, las cifras oscilaban entre 22 000 y 26 000 ejemplares, un aumento del 300% en tres décadas.

Y la razón no es otra que, en 1973, se promulgó una prohibición mundial de la caza de osos polares. Como los osos polares solo se encuentran en cuatro países y todos ellos son países prósperos, la aplicación de esta prohibición tuvo bastante éxito. El resultado fue el aumento del 300% arriba mencionado. Es un ejemplo más que demuestra que los animales son lo suficientemente resistentes como para soportar las variaciones naturales de su hábitat, pero no pueden hacer frente fácilmente a la matanza indiscriminada por parte del hombre, utilizando armas de alta tecnología.

Y cuando yo ya tenía toda esa información en mi mano y casi coincidiendo con el video viral que mencionaba arriba (2017), compré y leí el libro de la Crockford titulado Polar Bear Facts and Myths: A Science Summary for All Ages. El libro se estructura sobre la base de 18 afirmaciones relacionadas con los osos polares que, para esa época, eran habituales en los medios de comunicación, mostrando cuáles de esas afirmaciones responden a hechos reales y cuáles son simples leyendas.

Desde entonces se han producido cada vez menos noticia sobre los osos polares en los medios y RRSS, excepto algunas que describen enfrentamientos entre ellos y los humanos que viven cerca de sus lares. Pero me da la sensación de que, desde el punto de vista de los activistas climáticos, el objetivo osos polares se da por amortizado. De hecho, un artículo publicado el 30 de agosto por The Guardian (conocido por sus tesis pro activas sobre el calentamiento global), lo declara hasta en el título. Y a mi me ha bastado leerlo para darme cuenta de que otros expertos en osos polares, consultados por el periódico, no están muy lejos de las ideas de la Crockford.

Esa declaración de The Guardian no parece casual cuando, en esos mismos días de agosto de 2023, el interés se había focalizado en las colonias de pingüinos emperador que viven en el otro extremo del globo, en las proximidades del continente antártico. Un artículo publicado el día 24 de ese mes hablaba de la muerte de hasta 10.000 polluelos de esa especie en los últimos meses, artículo que tuvo una amplia repercusión en todos los grandes medios de comunicación y redes sociales, como base para extender la idea de que esa especie está en peligro de extinción.

Pero como ya hizo hace unos años en el caso de los osos polares y el tiempo parece haberle dado la razón, la Dra. Crockford, en su tono habitual, parece discrepar. Resumiendo lo dicho en una entrada en su Blog el pasado 27 de agosto (las negritas son mías):

A pesar de la expectación suscitada la semana pasada por el artículo recientemente publicado por Peter Fretwell y sus colegas, no existe ningún fundamento ecológico plausible para proponer que el fracaso reproductivo de una sola temporada en cuatro pequeñas colonias de pingüinos emperador (Aptenodytes fosteri), debido a las condiciones de La Niña -fenómenos no relacionados con las emisiones de dióxido de carbono- sean signos de una futura "cuasi extinción" de la especie. Ninguna de las 282.150 parejas reproductoras de emperadores adultos que se calcula existen frente a la Península Antártica se perdieron en 2022 y los polluelos nacidos en varias docenas de otras colonias de emperadores alrededor del continente antártico sobrevivieron, lo que significa que se trató de un pequeño bache en el camino y no de una catástrofe para la especie.

Falta por ver ahora, si el asunto de los pingüinos evoluciona de manera similar al de los osos polares o, en este caso, la Crockford ha metido la pata. Cosas a seguir para un jubilado a tiempo completo, como un servidor.

Leer mas...

viernes, 27 de octubre de 2023

Sobre la Captura Directa de CO2 desde el Aire

El Informe Especial sobre Calentamiento Global de 1,5 ºC (2018), preparado por el IPCC, a instancia de la Conferencia de Naciones Unidas sobre Cambio Climático de 2015, estableció que, para lograr el objetivo de no sobrepasar ese límite de temperatura con respecto a la llamada época preindustrial, debemos conseguir, para el año 2050, el llamado NetZero en lo que a emisiones de gases de efecto invernadero (GEI) se refiere. Un empeño que el propio informe reconoce que es bastante complicado y que necesita de “reducciones de emisiones ambiciosas” y “cambios rápidos, profundos y sin precedentes en todos los aspectos de la sociedad”.
Además de intentar no emitir más GEIs (fundamentalmente CO2) a la atmósfera, el informe recomienda otras actuaciones como, por ejemplo, la captura directa en el propio lugar de la emisión del CO2 producido por grandes emisores del mismo, como es el caso de acerías, cementeras o industrias químicas. Como las cantidades a captar son grandes hay que pensar en qué hacer posteriormente con ese CO2, de lo que enseguida hablaremos.Pero no debemos olvidar un problema inherente al hecho de que llevemos muchos años vertiendo CO2. Dado su ciclo de vida en la atmósfera, seguirá habiendo en ella, durante mucho tiempo, una cantidad de CO2 superior a la deseable para llegar a alcanzar los objetivos que se propusieron en 2015 en Paris. Así que necesitamos, adicionalmente, eliminar cantidades importantes del CO2 que actualmente ya se encuentran en la atmósfera.

Para hacerlo hay soluciones o métodos que podemos llamar naturales como plantar más árboles, auténticos sumideros de ese gas. O, aun mejor, gestionar eficientemente todo lo que tiene que ver con el suelo, los bosques y los cultivos. Pero los cálculos parecen indicar que eso tampoco sería suficiente. Así que, de esa necesidad de hacer algo más, surge la tecnología denominada Captura Directa de Aire, también conocida por sus siglas en inglés, DAC.

Explicado de forma sencilla, la cosa consistente en capturar grandes cantidades de aire por medio de esa especie de ventiladores invertidos que veis en la foto que ilustra esta entrada, eliminar el CO2 presente en él (que como sabéis, solo supone el 0,04% del aire), devolver el aire sin dióxido de carbono a la atmósfera y utilizar el CO2 así obtenido en diversas aplicaciones (p.e. en la fabricación de combustibles sintéticos para aviación, fabricación de plásticos, etc.) o, al igual que el capturado en grandes emisores que mencionaba arriba, almacenarlo geológicamente.

Evidentemente, todo esto parece demasiado sencillo para que sea verdad. Se necesita buscar esos lugares geológicos donde almacenarlo (y donde lo más probable es que haya oposición ciudadana) y buscar nuevas aplicaciones de empleo de ese CO2 para no acumularlo sin fin . Y, si al final le damos un uso, se necesitarán extensas redes de gaseoductos para distribuir ese CO2 a los lugares que vayan a emplearlo, además de adecuados estudios sobre la viabilidad económica de todo ello.

Pero uno ha sido profesor de Termodinámica durante muchos años. Y, en el caso de la DAC, hay un aspecto ligado a la energía del proceso que me intrigaba. Incluso había pergeñado una serie de cálculos al respecto cuando, de repente, me encontré con un artículo que confirmaba mis hipótesis (o, al menos, el autor pensaba en similares términos a los míos). Estaba en el blog The Climate Brinck, alojado en Substack (la plataforma a la que me estoy aficionando un montón). Un blog que comparten dos climatólogos muy conocidos y próximos al IPCC (Andrew Dessler y Zeke Hausfather) aunque, en lo relativo al artículo del que estamos hablando, el autor es el primero.

La Termodinámica permite simular muchos procesos que ocurren en la Naturaleza de forma muy simplificada. Y con la peculiaridad de que, al hacerlo, se puede evaluar la forma más eficiente, en términos energéticos, del proceso simulado. Y así, en el caso de la tecnología DAC, ésta puede modelarse en dos procesos diferenciados. Uno implica la separación del CO2 desde el aire que lo contiene y el otro comprimirlo hasta una presión alrededor de 100 veces la presión atmosférica, que sería la adecuada para almacenarlo en algún depósito geológico. Los que conocen algo de Termodinámica saben que, para hacerlo, hay que definir los llamados estados iniciales y finales del proceso, la trayectoria reversible entre ambos, funciones de estado que, como la energía libre de Gibbs, cuantifican la energía implicada en el proceso y cosas similares. Pero eso se queda para los profesores que quieran usar la entrada a la que me estoy refiriendo para plantear un problema sencillo de Termo a sus estudiantes.

El resultado, en el caso de la separación, es que necesitaríamos 500 kilojoules (kJ) para separar 1 kilo de CO2 del aire. Si quisiéramos eliminar los cuarenta mil millones de toneladas de CO2 que actualmente se emiten cada año, necesitaríamos del orden de 2x10(19) J cada año, lo que corresponde a la energía suministrada durante ese año por el equivalente de 300 presas Hoover, una presa gigantesca situada en el curso del río Colorado. O la proporcionada anualmente por 350 centrales nucleares como la de Almaraz. Y si ahora calculamos la energía necesaria para comprimir todo ese gas a 100 atmósferas, necesitaríamos un 50% adicional de la energía anterior. En total, y si hacemos los cálculos necesitaríamos aproximadamente el 6% de toda la energía consumida anualmente por la humanidad. O, en términos de potencia eléctrica, alrededor de un Teravatio (TW).

Pero, y esto es lo más importante, ese es el valor más pequeño que puede esperarse en virtud de las simplificaciones termodinámicas que hemos realizado para obtenerlo. De ahí hacia arriba, todo dependerá de los procesos realmente implicados. Algunas de las compañías que están liderando la investigación en este campo estiman que ese gasto energético podría multiplicarse por diez. Y, evidentemente, solo podría hacerse a partir de energías renovables como la eólica, la fotovoltaica, la hidroeléctrica, la geotérmica, etc. Porque, si tuviéramos que usar combustibles fósiles para obtener la energía necesaria, sería la pescadilla que se muerde la cola.

Así que no es extraño que Dressler termine su entrada diciendo que aunque su intención “no es abogar a favor o en contra de la DAC, los beneficios que de ella se derivarían serían de tanto calado como los obstáculos técnicos, económicos o industriales a abordar”. Y, como buen seguidor de las conclusiones del IPCC, argumenta que “nuestra prioridad debe ser descarbonizar nuestra economía”.

Lo que, visto lo visto por el momento, no es tampoco una cuestión baladí.

Leer mas...

sábado, 2 de septiembre de 2023

Dos erupciones volcánicas con consecuencias dispares en el clima

En 1991, la erupción del volcán Pinatubo en las Filipinas inyectó en la atmósfera, entre otras muchas sustancias, unos seis millones de toneladas de dióxido de azufre que llegaron a la estratosfera (entre 10 y 50 km por encima de la superficie terrestre) y que, transformados en aerosoles de sulfato, impidieron la llegada de la luz del Sol a muchas regiones del planeta durante bastante tiempo. La temperatura global de la Tierra disminuyó en más de medio grado en los dos años subsiguientes a la erupción principal (hubo varias).

Pinatubo fue un “experimento” que confirmó que el calentamiento global producido desde mediados del siglo XIX hubiera sido más importante si no fuera por las partículas, en forma de aerosoles, inyectadas en la troposfera (hasta diez kilómetros por encima de la superficie terrestre) y, en este caso, derivadas de la creciente actividad industrial. Partículas de polvo, sal marina, humo, carbón y sobre todo sulfato amónico, generado por reacción de anhídrido sulfuroso y amoníaco. Estas partículas contribuyen, como hemos mencionado, a reenviar al espacio exterior una parte de la energía radiante del sol que, de esa forma, no llega a la superficie y no puede participar del posterior efecto invernadero.

Esa erupción del Pinatubo fue también la causa de que el Premio Nobel de Química de 1995, Paul J. Crutzen, propusiera en 2006 una radical estrategia frente al calentamiento global. Crutzer sugirió inyectar en la estratosfera compuestos de azufre como el anhídrido sulfuroso, el ácido sulfhídrico u otras moléculas con azufre adecuadas para producir aerosoles de sulfato. Aunque se sigue mencionando esa propuesta en libros recientes sobre el CO2 y el cambio climático, lo cierto es que nadie parece dispuesto a afrontar los posibles efectos secundarios de esa estrategia, que se suele unir a la de la captura de CO2 (de la que algún día hablaremos por estos lares) bajo el término Geoingeniería.

Mientras que la mayoría de las grandes erupciones volcánicas se caracterizan por esas emisiones de dióxido de azufre, que enfrían el planeta temporalmente, la erupción del volcán Hunga Tonga-Hunga Ha’apai (Tonga para los amigos) el 15 de enero de 2022 fue inusual porque, a diferencia de la del Pinatubo, liberó a la estratosfera una gran cantidad de vapor de agua (146 millones de toneladas). Tonga inyectó también 0,42 millones de toneladas de dióxido de azufre, muy lejos de las cifras del Pinatubo.

Y precisamente por la gran cantidad de vapor de agua inyectada, el caso del Tonga tendría que tener efectos diferentes a los del Pinatubo en lo que al calentamiento global se refiere. Esas 146 millones de toneladas de vapor de agua aumentaron el contenido del mismo en la estratosfera entre un 10 y un 15 %. Es bien sabido que el vapor de agua es un potente gas de efecto invernadero y, al contrario de los aerosoles de sulfato del Pinatubo, debiera, en el caso del Tonga, contribuir a un adicional calentamiento de nuestro planeta. Ello hace que el volcán Tonga sea particularmente interesante para su estudio científico en el contexto de otras erupciones recientes.

Aunque solo ha pasado un año y ocho meses desde la erupción del Tonga, si uno pone en el buscador de bibliografía ISI Web of Science “Tonga eruption”, la búsqueda le devuelve del orden de 310 documentos científicos, aunque muchos de ellos tienen que ver con el estudio del maremoto que la erupción originó y con otras consecuencias de la misma en el entorno atmosférico, terrestre y marítimo cercano. Si uno acota la búsqueda a “Tonga and climate change” solo aparecen quince artículos posteriores a la erupción.

Uno de ellos ha llamado la atención de algunos medios debido a su título que, como hemos visto hace poco en otro caso, había sido cuidadosamente elegido: “La erupción del Tonga aumenta la posibilidad de una anomalía temporal de la temperatura superficial por encima de 1.5 ºC”. No sobrepasar esta última cifra, como sabéis, es uno de los objetivos de los Acuerdos de París de 2015. El título del artículo ha generado en las redes una cierta discusión sobre si las temperaturas de julio han llegado donde han llegado, a nivel global, merced a la suma del efecto del Tonga con el inicio de una nueva fase de El Niño.

Aunque ha pasado muy poco tiempo para que se puedan sacar conclusiones definitivas. Un artículo en la conocida web CarbonBrief analizaba no hace mucho el posible efecto de la erupción en el calentamiento global, entrevistando a varios de los autores de los artículos publicados hasta entonces. El primer autor del artículo que acabamos de mencionar recalcaba que, a pesar de lo que se pudiera deducir del título de su artículo, “Tonga solo está contribuyendo una cantidad muy pequeña a la anomalía de la temperatura de la superficie hoy en día. No veremos el impacto de Tonga en los eventos de cambio climático como sequías o inundaciones, el efecto es simplemente demasiado pequeño".

Pero hay otro posible efecto del vapor de agua inyectado por Tonga en la estratosfera que preocupa a los científicos. Y es cómo afecte esa inyección al agujero de ozono sobre la Antártida. En esencia, el ozono puede degradarse cuando en la época del invierno austral se forman nubes de cristales de agua sobre cuya superficie el ozono puede reaccionar con átomos de cloro provenientes de los clorofluorocarbonos (CFCs) que, aunque restringidos por el protocolo de Montreal en 1985 siguen estando en la estratosfera porque se descomponen muy lentamente. Si en ella hay más vapor de agua por la erupción, más nubes de cristales podrán formarse y habrá más "sitios" sobre los que la degradación del ozono pueda producirse, como explican científicos de la NASA en este artículo de la revista Space.

La gráfica de la derecha (que podéis aumentar clicando sobre ella), muestra que el tamaño del agujero de ozono ha crecido en los años más recientes. De hecho, su extensión el pasado 5 de octubre de 2022 fue la más alta desde el año 2015, aunque ello no interrumpe una tendencia general a la baja, debido a las variaciones interanuales que se producen en función de lo más o menos fríos que sean los inviernos australes.

Y, además, el proceso correspondiente a 2023 no parece haber empezado muy bien, si hacemos caso a la linea roja de la misma figura, en la que la parte discontinua son predicciones que los científicos adelantan unos pocos días. ¿Está ya haciendo la erupción del Tonga su efecto?. Una búsqueda bibliográfica en la ISI WEB of Science bajo los términos "Tonga eruption and ozone hole" no me ha proporcionado más que un artículo fechado en setiembre del 2022, en el que solo en las conclusiones, se puede encontrar una fugaz alusión a que el vapor de agua del Tonga juegue un importante papel en la degradación de la capa de ozono. Tendremos que esperar a octubre para ver el efecto en la curva de este año.

Así que, por el momento y como en otras ocasiones os digo, “ver venir…”

Leer mas...

lunes, 31 de julio de 2023

Alarma que algo queda

El fin de semana de las pasadas elecciones del 23J, una amiga del alma nos hacía llegar su ansiedad por el devenir de las mismas y por una noticia que empezaba entonces a circular por los medios (ella trabaja en uno). Noticia que tenía que ver con un artículo firmado por dos investigadores del Instituto de Matemáticas de la Universidad de Copenhague, bajo el título "Advertencia de un próximo colapso de la Circulación de Retorno Meridional del Atlántico". Lo de las elecciones dejó inmediatamente de ser un problema para mi amiga pero no así lo del colapso. Y estos últimos días he buscado varios argumentos para rebajar su preocupación y son los que voy a resumir en esta entrada.

Rara vez he escrito en el Blog sobre el llamado cambio climático. Solo en temas que me son más próximos, como la denominada acidificación de los océanos, con un fuerte componente químico, me atrevo a compartir lo que yo entiendo. Mi formación de base es la que es, así que a estas alturas de mi provecta edad no me puedo reconvertir en climatólogo (ni siquiera amateur). Pero no oculto que, desde 2009 y dentro de mis posibilidades, sigo todo lo que publica el Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC en su acrónimo en inglés). Y particularmente me interesa lo que publica su Grupo de Trabajo I, encargado de evaluar los conocimientos científicos relativos al cambio climático, tanto en forma de datos experimentales como en predicciones a futuro, simuladas con modelos climáticos. Y si cualquier periodista puede montar un artículo sobre temas complejos de los que no es especialista en cuestión de horas, un servidor, que no tiene sus urgencias, también.

La Circulación de Retorno Meridional del Atlántico (AMOC en su acrónimo inglés) hace referencia, explicado de forma sencilla, a una corriente oceánica que traslada superficialmente aguas calientes hacia latitudes altas del Océano Atlántico y una vez que allí se enfrían bajan, circulando a mayor profundidad, hacia zonas más caliente, donde se vuelven a calentar. Según los autores del artículo mencionado arriba, el colapso de esa circulación se podría producir tan pronto como 2025, aunque extienden la probabilidad hasta 2095. Las consecuencias serían de magnitud sustancial y a nivel global y van desde un significativo enfriamiento del Atlántico Norte (hasta 8ºC) hasta cambios importantes en los regímenes de lluvia en ciertas regiones, además de otros muchos cambios con implicaciones para los ecosistemas. Y sabemos eso porque, gracias a los registros geológicos y otros indicadores, tenemos constancia de que este fenómeno ya se produjo hace unos pocos miles de años y adivinamos las consecuencias serias que tuvo. Así que la ansiedad de mi amiga, que era la primera vez que oía hablar de la AMOC, estaba justificada.

Pero las reacciones de otros científicos relevantes en el estudio de la AMOC a esa alarmante noticia no se han hecho esperar. Jochem Marotzke, Director del Max Plank Institute de Hamburgo, tras sorprenderse de que el trabajo hubiera pasado la revisión por pares en una revista del Grupo Nature y se haya publicado, entendía que "la aseveración de que habrá un colapso de la corriente del océano dentro de este siglo, tiene pies de barro. Aunque los cálculos matemáticos están hechos de manera profesional, los requisitos previos para llevar a cabo esos cálculos son altamente dudosos".

Penny Holliday, Investigadora Principal del OSNAP, un programa internacional de investigación sobre la AMOC, tras reconocer la severidad de lo que ocurriría si tal colapso se produjera, decía que "el título del artículo es más sensacionalista que lo que se puede leer dentro de él". En similares términos, en mayor o menor medida y en declaraciones más técnicas, se han manifestado la gran mayoría de los catorce relevantes científicos consultados por el Science Media Centre, en su intento de clarificar la noticia para el gran público. Algunos de ellos recalcan además algo que los propios autores reconocen en su artículo. Y que no es otra cosa que sus conclusiones contradicen lo publicado en agosto de 2021 en el Sexto Informe del IPCC y, más concretamente, en el noveno capítulo del informe del Grupo de Trabajo I. Si queréis mayor detalle podéis consultar, en el enlace anterior, el último párrafo de la sección 9.2.31 en la página 1239.

Pero tras ese Sexto Informe, la información se va acumulando y los expertos la tendrán que revisar de cara al Séptimo Informe previsto para 2028/2029. Y entre esa información, además del artículo que ha dado origen a esta entrada, habrá muchos más. Por ejemplo, el publicado en febrero de este mismo año por un grupo liderado por Zeke Hausfather. Ese artículo revisaba la literatura existente sobre los llamados elementos de inflexión climática (tipping elements), componentes del sistema de la Tierra que pueden responder de forma no lineal al cambio climático y alcanzar los llamados tipping points (o puntos sin retorno). Entre los diez tipping elements que estudian en esa revisión está la propia AMOC, la génesis de metano por el permafrost o la muerte de la selva amazónica, entre otros. Y el colapso de la AMOC sería un punto sin retorno de ese elemento.

Hausfather es un conocido científico tanto por su relevante participación en el último IPCC (ha sido el impulsor del abandono del escenario climático más extremo, el RCP 8.5), como por su activismo en las redes sociales. En el apartado 2.1 de su artículo se encuentra una detallada revisión de lo que se sabe a este respecto sobre la AMOC. En el subapartado 2.1.2 los autores explican que "Mientras que las evaluaciones de si la AMOC se está debilitando actualmente siguen estando sujetas a cierta incertidumbre, la comunidad investigadora está en gran medida de acuerdo en que un colapso completo de la AMOC a corto plazo es un evento de baja probabilidad".

La pregunta del millón es, ¿por qué un ejercicio matemático puramente teórico, con premisas dudosas según los entendidos, es difundido y tenido en cuenta en todos los medios de los países occidentales y la revisión de Hausfather, que revisaba diez diferentes procesos potencialmente catastróficos, no ha salido en ninguno?.

Pues yo lo tengo bastante claro. El título del artículo de Hausfather y colaboradores es meramente explicativo y anodino: "Mecanismos e impactos de los elementos de inflexión del sistema terrestre" y en su Abstract se dice que su revisión bibliográfica de estudios sobre el tema "sugieren que la mayoría de los elementos de inflexión no poseen el potencial de un cambio futuro abrupto dentro de unos años, y algunos de esos elementos pueden no mostrar un comportamiento de no retorno, sino que responden de manera más predecible y directa a la magnitud del cambio climático". Lo cual no llama mucho la atención. Por el contrario, el artículo que asustó a mi amiga, ya en su título, avisa de un próximo colapso de la AMOC, estableciendo más adelante un intervalo entre 2025 y 2095 de que eso ocurra. Y 2025 está a la vuelta de la esquina.

Como me decía un periodista amigo, que ha escrito sobre el asunto esta pasada semana en su periódico, y al que le comenté que el titular de su información me parecía algo sensacionalista, "pues mi titular será sensacionalista, pero cuando el artículo publicado por los daneses viene ya con esas afirmaciones de fábrica es muy difícil parar la maquinaria". Y así vamos, unas veces por el título o contenido de los artículos y otras por las notas de las oficinas de prensa de las Universidades e Instituciones, siempre hay espacio para reclamar la atención inmediata de los medios.

¿Quiere esto decir que lo publicado por el IPCC o por Hausfather va a misa?. Pues no. Los sistemas caóticos son eso, caóticos, y nadie puede asegurar que en un momento no deriven en una situación incontrolable. Lo mismo que me hizo ver un cardiólogo hace años después de someterme a unas pruebas de esfuerzo: "han salido bien pero eso no quiere decir que cuando empieces a bajar las escaleras de mi consulta no pueda darte un infarto".

P.D. Al día siguiente de la publicación de esta entrada, en el programa Boulevard de Radio Euskadi se entrevistaba a la investigadora senior del artículo sobre el colapso de la AMOC, Susanne Ditlevsen, quien, por cierto, habla bien castellano. Puedes oír la entrevista a partir del minuto 2:20:00 en este enlace. En mi opinión, se han dado cuenta de que han alarmado excesivamente a la población y en la entrevista trata de rebajar esa alarma. Pero que cada cual saque sus conclusiones.

Leer mas...

jueves, 22 de junio de 2023

La "arqueología" del nivel del mar

Como alguna vez ya he contado por aquí, vivimos a escasos 400 metros de la playa de La Concha, algo que la Búha aprovecha para darse un baño siempre que el agua no baje de 17 grados (yo soy incompatible con la arena). Así que, en la época en la que estamos, es habitual que nos interesemos sobre la temperatura del agua en el mar, la presencia de algas o sobre el horario de las mareas y si estas suben mucho o poco. En lo tocante a esto último, y para quien no lo sepa, esos movimientos del agua del mar se miden con un aparato llamado mareógrafo. Sus datos, considerados a largo plazo, se han convertido en una herramienta indispensable para evaluar la evolución del nivel del mar a lo largo de escalas temporales de décadas o, incluso, siglos.

En una entrada reciente ya hablamos de las posibles repercusiones que el calentamiento global haya podido tener en el pasado o vaya a tener en el inmediato futuro en ese magnífico arenal que es La Concha. Hace unos días, me llegó una noticia sobre la publicación por científicos españoles de un artículo sobre la evolución histórica de los mareógrafos costeros españoles, lo que me ha hecho tirar del hilo y encontrar sin querer una interesante historia sobre viejos mareógrafos que me apetece contar.

En Donosti no hay ningún mareógrafo que esté registrado en la página que la NOAA americana (National Oceanic and Atmospheric Administration) dedica a estos asuntos. Tampoco aparece en la de su homólogo europeo conocido bajo el acrónimo PSMSL (Permanent Service for Mean Sea Level). Pero en esta última base de datos europea se pueden encontrar los de dos mareógrafos situados en el cercano puerto de Pasajes. Desgraciadamente el primitivo mareógrafo pasaitarra solo estuvo en servicio entre 1948 y 1963 y el que ahora gestiona el Centro Tecnológico AZTI solo tiene datos desde el año 2007. Así que hay que ir algo más lejos para obtener series más largas. Los dos mareógrafos más cercanos están en Sokoa (cerca de San Juan de Luz) y en Santander. En el PSMSL el de Sokoa aparece como operativo desde 1942 y el de Santander desde 1943. Si queremos datos aún más antiguos podemos fijarnos en el mareógrafo de Brest, en la Bretaña francesa con datos desde 1807.

Pero tanto el mareógrafo de Sokoa como el de Santander tienen una historia mucho más larga que la que parecen indicar los datos contenidos en las bases de datos antes mencionadas. Y hace unos pocos días he localizado un artículo que trata de ir más atrás en el tiempo en el historial del mareógrafo de Sokoa (de ahí lo de "arqueología" en el título de la entrada). Ese mareógrafo ha pasado por diversas etapas desde su instalación, en el mismo sitio que está ahora, nada menos que en el año 1875. Entre ese año y finales de mayo de 1920, existen registros de sus medidas, usando para ello un flotador que, al subir y bajar la marea, transmitía su movimiento a una pluma que escribía sobre un papel. Ese tipo de mareógrafo era conocido por el nombre de su fabricante (Chazalon). Después se produce un parón en los registros hasta 1942, cuando se reiniciaron las medidas pero solo durante dos años. En diciembre de 1950 se instala el flotador que en esos años se había hecho habitual, el Brillie, para ser sustituido, posteriormente, con los medidores actuales por radar.

En conjunto tenemos una más o menos continuada serie de medidas, salpicadas con las interrupciones mencionadas, incluido el período de la segunda guerra mundial, donde los alemanes instalaron otro mareógrafo al otro lado de la bahía de Sokoa y cuyos registros se encontraron en Brest al final de la guerra. En el artículo que menciono, los investigadores se han tomado el trabajo de digitalizar los archivos existente anteriores a 1942 y tratar de reconciliarlos con los existentes en épocas más modernas. Además, los han comparado con los existentes en Brest y con una similar reconstrucción de los datos de Santander realizada en un artículo de 2021, que abarca a los allí registrados desde 1872. Y de esa comparación surge un razonable acuerdo entre los archivos de los tres mareógrafos. Tomando un período común entre en 1900 y 2018, la subida del nivel del mar en Sokoa ha sido 2.1 (±0.1) milímetros por año, en Brest 1.5 (±0.1) y en Santander 2.0 (±0.1), con un comportamiento que puede considerarse como lineal (véase aquí la serie histórica completa de Brest).

Unos resultados que no dejan de sorprenderme por su similitud en cuanto a valor medio y desviación estándar. Porque si uno navega un poco en las página de la NOAA o el PSMSL constata que el mar no sube igual en todos los sitios. Por ejemplo, aunque en la mayoría de los mareógrafos se constata un aumento continuo en el nivel del mar, en sitios como Helsinki el nivel del mar está bajando a una velocidad de -2.2 mm/año. El que ocurran estas diferencias tan sorprendentes se puede explicar sobre la base de otros factores diferentes a la propia fusión del hielo en los polos y el progresivo calentamiento del agua. Entre esos factores están los movimientos geológicos del entorno donde está el mareógrafo, que elevan o bajan el terreno, aportes hidrológicos de ríos próximos, extracción de aguas subterráneas que compactan el terreno, etc. Así que las variaciones de estación a estación pueden ser importantes, aunque no parece ser el caso de las que estamos considerando.

Tengo la casi certeza de que las cosas van a seguir más o menos igual hasta que me muera y no voy a ver una transformación radical del arenal donostiarra. Si llego a los cien (que no espero) la subida en La Concha en 2052 andaría por los 6 centímetros con respecto al nivel actual. Aunque el artículo que menciono al principio sostiene (igual que el último informe del IPCC de 2021) que, a nivel global, la subida del nivel del mar se está acelerando en los últimos años y ahora estaríamos en un valor por encima de los 3.0 mm/año. Una parte de esa afirmación se basa en las medidas que, desde 1993, se están realizando con satélites.

No soy quien para discutir con climatólogos sobre estas cosas. Pero como experimentador viejo que sí soy, algo de estadística conozco y, a la vista de series históricas de casi 120 años que dan las coincidentes velocidades medias y las estrechas desviaciones estándar que vemos en los casos de Brest, Santander y Sokoa, preferiría ver series igual de largas, provenientes de satélites, para comprobar esa aceleración. Pero, como en otras cosas, ya no me queda tiempo.

Leer mas...

martes, 17 de enero de 2023

Hidrógeno blanco

Hace más de dos años escribí una entrada sobre el hidrógeno verde. En esa entrada se asignaban otros colores al hidrógeno, colores que tenían que ver con los procesos por los que se produce este gas, ahora otra vez considerado como posible panacea de nuestros problemas energéticos. A pesar de que el hidrógeno sea incoloro, basta poner en Google "los colores del hidrógeno" para llegar a una serie de documentos en los que se bautiza al hidrógeno como gris (el más habitual,  obtenido a partir del gas natural y el metano en él contenido). O negro o marrón para el que se obtiene de carbón o petróleo. O azul que, en una primera etapa, se produce igual que el gris para, en una segunda fase, capturar el CO2, obtenido como subproducto del proceso, mediante técnicas denominadas de captura y almacenamiento de carbono (CCS en su acrónimo en inglés). El hidrógeno verde, la estrella emergente del momento, ya vimos que se obtiene mediante la electrólisis del agua que quiere decir que vamos a romper los enlaces que unen los dos hidrógenos del agua con el oxígeno y obtener así ambos gases por separado.

El problema es que para llevar a cabo esa electrólisis del agua se necesitan grandes cantidades de energía y, para asignar al hidrógeno ese adjetivo de verde, debemos extraer esa energía sin emitir gases de efecto invernadero, por lo que se emplean energías provenientes de instalaciones eólicas o solares (aunque, a veces, al hidrógeno que se obtiene por la vía solar se le etiqueta de amarillo). Otras fuentes de energía que no producen gases de efecto invernadero puede también emplearse para electrolizar el agua. Y así, hablamos de hidrógeno rosa, púrpura o rojo, según los gustos de cada cual, para denotar al hidrógeno producido por electrólisis con ayuda de la energía proveniente de una central nuclear. Y completaríamos la paleta con el llamado hidrógeno turquesa a partir de un proceso llamado pirólisis del metano que produce directamente hidrógeno y carbono sólido.

La necesidad de obtener hidrógeno radica en que, como yo decía en una frase de la entrada arriba mencionada, "aunque el hidrógeno está por todos los lados en la naturaleza en forma combinada, rara vez se encuentra puro". Bueno, pues ha llegado el momento de matizar esa afirmación, añadiendo un color más a la larga paleta de colores que se han asignado en los últimos años a nuestro hidrógeno: el blanco que, ya os adelanto, es el que se obtiene de forma directa de determinados yacimientos existentes en la Tierra. Es una historia muy interesante de la que comencé a tirar del hilo gracias a la lectura de uno de esos documentos en los que se habla de los colores del hidrógeno. Encontré en él una referencia a un yacimiento situado en la República de Malí, en Africa Occidental, del que fluye de forma natural un gas que es básicamente hidrógeno puro (un 98%) acompañado de un 1 % de nitrógeno y un 1 % de metano.

En un lugar conocido como Bourakebougou, al perforar en 1987 un terreno a la búsqueda de un pozo de agua, se produjo una explosión de gas provocada por un cigarro que andaba fumando un operario que resultó gravemente herido. El incidente ocurrió cuando se alcanzó una profundidad de 112 m. El pozo se tapó con cemento por si las moscas, pero se volvió a abrir en 2011, como experiencia piloto en la producción de hidrógeno, pues ensayos previos de una compañía petrolífera de la propia Malí demostraron que el gas que emanaba de ese pozo era, como acabo de decir, casi hidrógeno puro. En una etapa posterior se utilizó ese hidrógeno como forma de suministrar electricidad a la aldea cercana. El proyecto resultó ser un éxito y ha durado años.

Pero como ha mostrado un largo review de Viacheslav Zgonnik publicado en la revista Earth-Science Reviews en febrero de 2020, se sabe, desde hace tiempo, que hay lugares en la Tierra en los que se producen emisiones de gases que contienen hidrógeno en muy variables concentraciones. El artículo detalla un mapa mundial de los sitios en los que se sabe que el hidrógeno fluye de la tierra de forma natural. En algunos casos, como el de un yacimiento cerca de Antalya, Turquía, que se conoce desde los tiempos de los griegos, el gas que sale es fundamentalmente metano, pero lleva hasta un 11% de hidrógeno. Por poner otro ejemplo, en la isla de Luzón en Filipinas, hay una emanación que contiene un 60% de hidrógeno y que está ardiendo desde los tiempos de la colonización de esa parte de la Tierra por los españoles. Y con mayor o menor proporción de hidrógeno, sin alcanzar el contenido del gas de Malí, se pueden citar innumerables casos repartidos a lo largo y ancho de la superficie continental y de las plataformas marinas. Muchas de estas observaciones se han llevado a cabo fundamentalmente a partir de los años setenta y, en muchos casos, sería complicado obtener de esos yacimientos producciones de hidrógeno como las que vamos a necesitar en un proceso de descarbonización.

Pero es que muchos de esos descubrimientos han sido casuales y, solo muy recientemente, pequeñas compañías han empezado a buscar y evaluar el potencial real de estos "pozos" de hidrógeno, como es el caso de la compañía francesa en la que trabaja el autor del review. ¿Por qué esa actividad no ha empezado antes?. Pues en parte porque es ahora cuando empiezan a descubrirse yacimientos con tamaño y pureza en hidrógeno, susceptibles de utilizarse como fuente de hidrógeno directa. Pero hay otras razones, muy interesantes para un químico como yo. En la mayoría de yacimientos de gas natural, donde suele aparecer hidrogeno muchas veces, la técnica analítica empleada para medir la composición de esos gases ha sido la cromatografía de gases, muchas veces utilizando hidrógeno como vehículo para pasar la mezcla a investigar por una columna que separa los diferentes componentes de la muestra. Eso implica que es difícil detectar hidrógeno en esa muestra, por estar en cantidades ridículas con respecto al que introducimos como gas portador.

Nos falta mucho por investigar sobre cómo se genera ese hidrógeno en las entrañas de la Tierra. Solo así podremos focalizar adecuadamente la labor de los geólogos a la búsqueda de yacimientos importantes. O saber si, al contrario de los yacimientos de combustibles fósiles, generados y acumulados por eventos previos, las emisiones de hidrógeno provienen de procesos que están ocurriendo de forma continua a diversas profundidades. Procesos como la descomposición de agua catalizada por hierro o, simplemente, hidrógeno que está ahí (en la corteza y en el manto) desde la propia formación de la Tierra y que, poco a poco, por su gran difusividad, va ascendiendo. Lo que está claro es que si encontráramos, y aprovecháramos, esos yacimientos, el hidrógeno dejaría de ser un vector de energía (ahora lo tenemos que producir para luego convertirlo en energía), para pasar a ser un combustible en toda regla y, probablemente, renovable.

Vamos a ver cómo evoluciona esto. Quizás todo se quede en nada por no disponer de yacimientos importantes. O quizás estemos solo en un estado muy preliminar, como les ocurrió a los pioneros de las primeras perforaciones a la búsqueda de petróleo. O a los que empezaron a usar las técnicas de fracking de forma decidida (de los que mucha gente se reía) y hoy nos están resolviendo el problema creado por los delirios de Putin, mandándonos buques con gas natural licuado.

Leer mas...

miércoles, 30 de noviembre de 2022

El CO2 y el volcán Mauna Loa


La figura que ilustra esta entrada es la evolución de la concentración de CO2 en la atmósfera desde finales de los años cincuenta, medida en una recóndita estación meteorológica, a más de 3000 metros de altura, construida en la falda del volcán Mauna Loa, en la llamada Isla Grande (o Hawai) del archipiélago hawaiano. Es probable que estos días hayáis visto en los medios que el citado volcán ha entrado en erupción, con espectaculares imágenes de la misma. Lo que ha traído como consecuencia que hoy, cuando he entrado en la página web que actualiza día a día la curva de la figura, me he encontrado con que el día 28 de noviembre la concentración de CO2 fue 417,31 ppm, mientras que la del día 29 no estaba disponible porque se habían suspendido las mediciones a causa de la erupción del volcán.

La gráfica que se muestra arriba se conoce como gráfica Keeling en honor al científico, Charles David Keeling, que comenzó a medir la concentración de CO2 en la atmósfera a mediados de los cincuenta, como proyecto postdoctoral, en el Departamento de Geoquímica del Instituto Tecnológico de California (Caltech). Comenzó tomando muestras de aire y agua en recónditos lugares de Estados Unidos, volviendo con ellas a los laboratorios del Caltech para medir las concentraciones de CO2. Keeling se sorprendió al ver que esas concentraciones aumentaban por la noche y disminuían durante el día, con una concentración vespertina casi constante de 310 partes por millón (ppm), independientemente del lugar en el que se habían capturado las muestras. Pronto comprendió que esos cambios se deben a que durante el día las plantas toman CO2 de la atmósfera para realizar la fotosíntesis con ayuda de la luz solar. 

En 1956, la Oficina Meteorológica de Estados Unidos (hoy incluida en la Administración Nacional Oceánica y Atmosférica, NOAA), así como otras organizaciones americanas y europeas, estaban preparando programas de investigación para el Año Geofísico Internacional, a celebrar entre 1957 y 1958. La Oficina Meteorológica tenía previsto medir la concentración de CO2 atmosférico en lugares remotos para establecer una línea base de la misma. Keeling propuso a la Oficina Meteorológica y al llamado Instituto Scripps, en la Jolla, California, el uso de una nueva herramienta analítica, un analizador de gases por infrarrojos que, a diferencia del aparato que él venía utilizando, permitía realizar mediciones de CO2 de forma continua en muestras de aire. Después de diversos intentos con el aparato en cuestión en la Antártida y a bordo de barcos y aviones, la primera lectura en Mauna Loa se llevó a cabo el 29 de marzo de 1958, estableciendo la concentración atmosférica de CO2 en esa fecha en 313 ppm.

Dadas las difíciles condiciones en las que se realizaron las primeras mediciones (cortes de luz, problemas logísticos), los datos de 1958 fueron un tanto erráticos pero Keeling no cejó en el empeño y cuando tuvo las medidas del año 1959 completo, quedó claro el comportamiento que se sigue viendo en la gráfica que ilustra esta entrada. En ella se ve una sucesión de pequeños picos, con máximos en torno al mes de mayo y mínimos en noviembre. De nuevo la fotosíntesis tiene algo que ver. Las plantas absorben CO2 en el proceso de fotosíntesis durante el periodo de crecimiento de sus hojas, que va de abril a agosto, reduciendo así los niveles de CO2 atmosférico durante esos meses, mientras que en otoño e invierno, las plantas pierden hojas, capturan menos CO2 y el carbono almacenado en los tejidos vegetales y los suelos se libera a la atmósfera, lo que aumenta las concentraciones del mencionado gas.

Con la curva de Keeling actualizada en la mano nadie puede negar lo obvio. La concentración del CO2 en la atmósfera ha ido creciendo paulatinamente desde las 313 ppm en los inicios de la estación de Mauna Loa (un 0,03% del gas en la atmósfera), a los 417 de este noviembre, a un ritmo que, además, parece acelerarse. Y todo indica que ese crecimiento no tiene precedentes en muchos años atrás, aunque para ello haya que echar mano de medidas que analizan el CO2 atrapado a diferentes profundidades en el hielo permanente de la Antártida y que corresponden a su concentración en épocas pretéritas. Esas medidas muestran que, desde hace 800.000 años (antes de que apareciera el Homo sapiens), el CO2 parece haber variado, llegando incluso a valores muy bajos (150 ppm) que, probablemente, dificultaron la fotosíntesis de las plantas entonces existentes. Pero en los últimos 2000 años, esa concentración parece haberse mantenido constante en unas 280 ppm hasta el advenimiento de la Revolución industrial, cuando empezó a crecer generando el aumento posterior detectado por Keeling en los cincuenta.

Estas reconstrucciones paleoclimáticas, medidas indirectas de una magnitud en el pasado, interesantes para el estudio del clima en el futuro, se llaman Proxies en inglés e Indicadores climáticos en castellano. Hay otros como los anillos en cortes de troncos de árboles centenarios que permiten reconstruir las temperaturas del pasado. O las concentraciones de boro-11 en conchas y caparazones de animales marinos que permiten reconstruir el pH del agua del océano en épocas pretéritas. Pero, todo hay que decirlo, el uso de los proxies ha estado envuelto en diversas polémicas (a veces bastante agrias) entre climatólogos. Cosa que no puede pasar con datos tan contrastados como los obtenidos por la estación de Mauna Loa y otros concordantes medidos en otras estaciones a lo largo y ancho del mundo.

Ahora, la carretera que lleva a la estación se ha visto cortada por un río de lava proveniente de la erupción y los científicos andan a la carrera trasladando los equipos a lugares seguros. Cuánto tiempo durará la incidencia y qué implicaciones tendrá en las medidas futuras es un poco una incógnita. Pero el espíritu del concienzudo y testarudo Keeling andará en el ambiente para solucionarlo. Mientras tanto, esas otras estaciones que acabo de mencionar seguirán con su trabajo.

Leer mas...

jueves, 31 de marzo de 2022

El cuestionado "suicidio" de los peces Nemo

El pasado 28 de febrero se hizo pública la segunda de las entregas previstas del Sexto Informe del Panel Intergubernamental del Cambio Climático (IPCC AR6 en sus siglas en inglés). Ese Sexto Informe acabará teniendo tres partes bien diferenciadas correspondientes a cada uno de los tres Grupos de Trabajo del IPCC. La primera entrega, la del Grupo I, relacionada con la Ciencia básica del Cambio Climático, apareció el 6 de agosto de 2021. La entrega del Grupo II, arriba mencionada, tiene que ver con la evaluación de la vulnerabilidad de los sistemas socioeconómicos y naturales al cambio climático. Y la entrega del Grupo III, que se producirá a lo largo de este año, tiene que ver con las opciones para mitigar el cambio climático mediante la limitación o prevención de las emisiones de gases de efecto invernadero.

Se trata, en todos los casos, de documentos prolijos de miles de páginas cada uno, no fáciles de entender por un profano (interesado) como este vuestro Búho. Por ello, al igual que en informes anteriores, mi interés suele centrarse, por aquello de mi formación química, en lo que tiene que ver con uno de los efectos atribuidos al cambio climático y que se conoce como acidificación de los océanos. Sobre el tema ya hay en el Blog una entrada hace cuatro años que podéis visitar si queréis poneros al día. Pero contada en plan resumen, si la concentración de CO2 en la atmósfera va aumentando (algo sobre lo que no hay duda alguna), la concentración en el agua de mar irá aumentando paralelamente (la ley de Henry que todo estudiante de Química ve en primer curso) y, en virtud de una serie de equilibrios químicos en los que no entraré, el pH del mar, ahora ligeramente básico (8.1) irá tendiendo a números menores, "acidificándose". Lo que puede tener variadas consecuencias de todo tipo en los organismos que viven en el mar.

Pero he de confesar que en cuanto apareció la entrega del Grupo II, me faltó tiempo para buscar las conclusiones del informe sobre una de esas posibles consecuencias de la acidificación, que tiene que ver con las alteraciones en el comportamiento de los peces cuando el pH va cambiando. Y el resultado de mi búsqueda acelerada es lo que os voy a contar en esta entrada. Tiempo habrá para ver si extraigo (y cuento) otras cosas interesantes sobre el tema de la acidificación en los próximos meses.

A principios de 2009, un grupo australiano de la Universidad de Cook, liderado por Philip L. Munday, publicaba en la revista PNAS un artículo que resumía los resultados obtenidos con peces payaso (Amphiprion ocellaris), conocidos popularmente como peces Nemo, una especie que vive en los corales. Cuando se les sometía en tanques de laboratorio a una serie de experiencias a pH más bajos que los que se dan ahora en el mar (entre 7.6 y 7.8), pero que potencialmente podrían darse en 2100 o incluso más adelante, se obtenían resultados inquietantes. Ya el propio resumen del artículo mencionado explicaba que el pH a esos niveles perjudicaba la discriminación olfativa de esos peces en estado larvario y hacía que esas larvas se sintieran fuertemente atraídas por una serie de moléculas químicas producidas por sus propios depredadores (una especie de suicidio inducido), algo que no ocurría a los niveles actuales del pH. El resumen del artículo acababa alertando de que si eso ocurría con diversas especies habría consecuencias potencialmente profundas para la diversidad marina y, consiguientemente, para las pesquerías. El grupo ha publicado desde entonces una veintena de artículos sobre ese tema y sus principales conclusiones fueron incluidas en el Quinto Informe del IPCC, hecho público en 2014.

Pero en enero de 2020 y en la revista Nature, otro grupo australiano, este de la Universidad Deakin en Geelong, liderado por Timothy Clark, publicaba un artículo en el que daba cuenta de que, tras intentar repetir durante tres años los experimentos de laboratorio del Munday y colaboradores, ello les había resultado imposible. El título de este nuevo artículo no podía ser más explícito a la hora de llevar la contraria al primero de la serie de Munday. Traducido al castellano decía: La acidificación de los océanos no afecta al comportamiento de los peces de arrecife de coral. La polvareda científica que se generó fue de órdago y tuvo eco importante en las principales revistas científicas. Véase, por ejemplo, como lo contaba la prestigiosa Science.

Así que en cuanto pude descargarme la entrega del Grupo de Trabajo II me fui directamente al índice para tratar de encontrar qué partido había tomado el IPCC al respecto. Pues bien, perdida en el apartado 3.3.2, encontré la respuesta a mis afanes: En el caso de los peces, los estudios de laboratorio sobre las consecuencias sensoriales y de comportamiento de la acidificación del océano mostraron resultados mixtos. (Rossi et al., 2018; Nagelkerken et al., 2019; Stiasny et al., 2019; Velez et al., 2019; Clark et al., 2020; Munday et al., 2020). Los dos últimos artículos mencionados en la lista de autores y años (los subrayado son míos) hacen referencia al publicado por Clark y colaboradores en Nature y la respuesta de Munday y los suyos en la misma revista, defendiendo la veracidad de sus resultados con uñas y dientes.

Estaréis conmigo en que llamar resultados mixtos a conclusiones completamente antagónicas es de una diplomacia vaticana, impropia de una genuina controversia científica. Como se suele decir siempre al final de los artículos, se necesitan más estudios....

Leer mas...

lunes, 31 de enero de 2022

PCR y RCP

Cada uno de los dos acrónimos que aparecen en el título dan lugar al otro si se leen al revés. Es lo que en términos lingüísticos se conoce como semipalíndromos o bifrontes. El primero de ellos (PCR) está muy de moda con la pandemia que nos asola. No voy a entrar en muchos detalles sobre él porque, entre otras cosas, cuando yo estudiaba Química, la Bioquímica no estaba en el Plan de Estudios y siempre ha sido una de mis carencias. Pero sí puedo decir que PCR hace referencia a una técnica por la que el genoma del malvado virus, en forma de ADN, se amplifica mediante la Reacción en Cadena de la Polimerasa (de ahí el acrónimo PCR en inglés). Cuando una célula cualquiera se divide duplica su ADN gracias a una enzima, la ADN polimerasa. La PCR es un proceso diseñado para repetir esta síntesis cíclicamente en un tubo de ensayo hasta conseguir multiplicar (o amplificar) millones de veces el ADN que hemos extraído del contagiado, lo que permite detectar la presencia del virus rápida y eficazmente.

Lo de RPC es una cosa bien distinta, que tiene que ver con las cosas del clima. Este acrónimo toma sus iniciales del término en inglés Representative Concentration Pathway o, en castellano, Trayectoria de Concentración Representativa, un nombre ciertamente oscuro en primera instancia pero que espero poder aclarar debidamente.

Los dos últimos informes (el Quinto y el Sexto) del Panel Intergubernamental del Cambio Climático (IPCC) contienen proyecciones a futuro, realizadas mediante modelos climáticos, sobre el impacto del calentamiento global que se viene observando en una serie de variables del clima de aquí a 2100. Para establecer esas proyecciones, los modelos necesitan definir la posible evolución de las emisiones a la atmósfera del CO2 y otros gases de efecto invernadero hasta esa fecha y, consiguientemente, el progresivo aumento de la concentración de esos gases en la misma. Para ello plantean diferentes escenarios posibles, cada uno de ellos con una evolución determinada de las concentraciones de CO2 en la atmósfera hasta el final de este siglo.

En el Quinto Informe del IPCC (publicado en 2014) se introdujeron así cuatro posibles escenarios (o posibles trayectorias de la concentración de gases de efecto invernadero) denominados RCP 2.6, RCP 4.5, RCP 6 y RCP 8.5, donde el número tras el acrónimo viene a dar una idea del previsible calentamiento de la Tierra en el 2100 en vatios por metro cuadrado. La gráfica que ilustra esta entrada (y que podéis ampliar clicando en ella) presenta esos escenarios. Los números 2.6, 4.5, 6 y 8.5 están escogidos un poco arbitrariamente para representar así diferentes grados de calentamiento en función de las concentraciones de gases de efecto invernadero que se vayan acumulando. De hecho, en la literatura más reciente se han usado otros como los RCP 1.9, RCP 3.4 y RCP 7.0.

Desde ese año 2014, muchas de las proyecciones a futuro que hayáis ido leyendo en los medios y las redes están basados en el escenario RCP 8.5 que, básicamente, asume que las emisiones van a seguir al ritmo actual (escenario BAU o business as usual, suelen decir los expertos). Pero a medida que se fue aproximando la fecha de la aparición del Sexto Informe del IPCC (agosto de 2021), empezó a estar claro que los científicos implicados se estaban replanteando el asunto de los diferentes escenarios posibles. Por solo poner un ejemplo, en este artículo publicado en Nature hace ahora casi dos años exactos, firmado por dos científicos (Hausfather y Peters) que han tenido un papel significado en la elaboración del Sexto Informe, queda claro que los escenarios RCP 8.5 y el RCP 7.0 son considerados "altamente improbable" o "improbable", respectivamente. Mientras, otros como el RCP 6.0 o el RCP 4.5 se consideran más probables. Este cambio de opinión no ha pasado desapercibido para otras grandes revistas científicas, como es el caso de Science.

Todo esto tiene su repercusión en las proyecciones que los modelos hagan para 2100 en cosas como las temperaturas de la Tierra o los océanos, el nivel del mar, etc. Por ejemplo, el escenario 8.5 proyecta una subida de temperatura de cinco grados centígrados de aquí a fin de siglo, mientras el 4.5 deja esa subida en la mitad. El RCP 1.9, por otro lado, sería el escenario deseable para alcanzar los objetivos de los Acuerdos de París. Y algo similar ocurre con la subida del nivel del mar, previsible en una situación en la que los hielos sobre los continentes (glaciares, Groenlandia y la Antártida) se van fundiendo al subir la temperatura y, además, esa temperatura más alta dilata el agua líquida resultante. Para los mismos escenarios que acabo de mencionar en el caso de la temperatura, la Tabla 9.9 del capítulo 9 del Sexto Informe del IPCC recoge subidas del nivel del mar (en 2100) de 38 cm en el escenario RCP 1.9, 44 cm en el RCP 4.5 y poco más de un metro en el caso del RCP 8.5.

El asunto del aumento del nivel del mar siempre me ha resultado interesante. No en vano vivo a escasos 400 metros de La Concha y cuando hay mareas vivas el arenal desaparece. Si se tienen en cuenta las medidas registradas en los mareógrafos más próximos a Donosti, localizados en Santander, en San Juan de Luz y en Brest, Bretaña (aunque algo más lejano es el que más datos tiene, desde 1805), el nivel del mar en mi pueblo ha subido en el último siglo unos 20 centímetros, a una velocidad prácticamente constante de 2 mm/año aunque, a nivel global, las últimas medidas con satélites parecen indicar un valor superior (3.7 mm/año). Es decir, que de aquí a 2100, el agua en La Concha puede subir en una horquilla entre 16 y 30 centímetros.

El pasado 26 de octubre, el Diario Vasco informaba que "Euskadi se prepara para una subida del nivel del mar de hasta un metro". Algo que no era sino el fiel reflejo de la presentación pública, unos días antes, del Plan de Transición Energética y Cambio Climático del Gobierno Vasco. En la página 19 de ese Plan se establecen índices de riesgo para cuatro amenazas climáticas, entre ellas las inundaciones debidas a la subida del nivel del mar en ciertas zonas de Euskadi. Pero en el título de la gráfica ilustrativa de esos índices de riesgo, se dice expresamente que están obtenidos “a partir de proyecciones del escenario RCP 8.5".

Uno podría pensar que nuestro Gobierno se quiere poner en plan muy previsor y prefiere el peor y más improbable de los escenarios (también el más costoso de remediar). O, pensando mal, que no les ha dado tiempo o no han querido adecuar el Plan a lo que en agosto ya aparecía en el Sexto Informe del IPCC.

A uno ya no le quedan muchos años para comprobar qué escenario va a funcionar mejor, pero mientras mis neuronas me dejen seguir el asunto voy a estar atento al tema.

Leer mas...

martes, 30 de noviembre de 2021

Amoniaco "verde" y fertilizantes

No soy muy de utilizar el calificativo "verde". Me pasa como con todo lo que lleva el prefijo "sin". Me parecen herramientas perversas del marketing. Aún y así, en este Blog hemos hablado de plásticos "verdes", hidrógeno "verde", catalizadores "verdes", etcétera. Pues hoy toca hablar del amoniaco "verde" que, en los últimos tiempos, aparece mucho en artículos y publicaciones relacionadas con el progresivo abandono de tecnologías que necesiten del uso de combustibles fósiles y emitan CO2 a la atmósfera. El asunto del amoniaco en un mundo que busca esa descarbonización tiene varias derivadas, porque implica hablar no solo de su producción de cara a la obtención de fertilizantes sino, y esto quizás sorprenda a alguien, en su empleo incluso como combustible. Pero tiempo habrá de volver sobre esto último.

Puestos a descarbonizar el mundo habría que centrarse, sobre todo, en eliminar la quema de combustibles fósiles que mueve el transporte por tierra, mar y aire, emitiendo CO2. O los combustibles a los que pegamos fuego como forma de obtener energía para calentar nuestros edificios o todo lo que algunos sectores industriales necesitan calentar. En este último caso, piénsese, por ejemplo, en los distintos procesos de fundición de metales o en la producción de cemento. Para tener alternativas a todo ello necesitamos aún de un largo trabajo, por mucho que algunos dirigentes políticos no lo expliquen con claridad.

Pero, además, hay emisiones importantes de CO2 que tienen que ver con el propio proceso de producción de materiales y sustancias fundamentales para nuestro modo de vida. La fabricación de cemento, de nuevo, es un buen ejemplo. Un proceso que empieza con el calentamiento a más de 1300ºC de carbonato cálcico (caliza) y arcilla para obtener lo que los técnicos llaman clinker. En ese proceso el carbonato cálcico se descompone y produce óxido de calcio sólido y CO2, que se suma así al que se genera como consecuencia de calentar el horno a esas elevadas temperaturas.

También se genera (y se emite) CO2 en muchos procesos ligados a la industria química, siendo el caso del amoniaco (NH3) el más significativo. A lo largo y ancho de todo el mundo, más de 170 millones de toneladas de amoniaco son fabricadas cada año y más del 80% de esa producción se emplean en la obtención de fertilizantes como el nitrato amónico o la urea (el resto se usa en explosivos, plásticos, productos de limpieza,....). Tanto los fertilizantes arriba mencionados como el propio amoniaco, que se usa como tal en países como USA y Canadá ya en forma gaseosa o mezclado con agua, han sido y están siendo fundamentales en la labor de alimentar a la creciente población mundial.

Los humanos (y otros seres vivos) necesitamos aminoácidos y proteínas para que nuestro cuerpo funcione. En esas moléculas hay nitrógeno, una parte importante del cual (lo que depende mucho de  nuestro tipo de alimentación) lo conseguimos comiendo plantas. Esas plantas consiguen el nitrógeno a través de sus raíces, merced a compuestos nitrogenados existentes en el suelo. Si no los reponemos con fertilizantes naturales (restos de plantas, purines, guano, etc.) o fertilizantes de síntesis, la tierra se agota en esos nutrientes y las plantas no crecen.

Aunque en el aire hay todo el nitrógeno que queramos, ni nosotros ni la inmensa mayoría de las plantas somos capaces de convertir ese nitrógeno en algo utilizable por nuestros organismos. Hay estimaciones que valoran en más de tres mil millones de almas las que no podrían hoy sobrevivir si unos químicos alemanes llamados Fritz Haber y Carl Bosch, no hubieran conseguido, a principios del siglo XX, "fijar" el nitrógeno de la atmósfera, haciéndolo reaccionar con hidrógeno y transformándolo en otra molécula sencilla, el amoniaco. Sin su ayuda, la tierra estaría literalmente agotada en nutrientes con nitrógeno si, usando sólo fuentes de nitrógeno "naturales", tuviera que suministrar la dieta de casi ocho mil millones de humanos.

Pero desde la perspectiva actual, mas de cien años después de su implantación, el proceso Haber-Bosch está en el punto de mira de nuestras urgentes pretensiones de descarbonización. La producción de amoniaco gracias a dicho proceso no es "verde", ya que la síntesis de los 170 millones de toneladas de ese compuesto genera una gran cantidad de CO2. Se estima que, actualmente, la producción de amoniaco supone el 1,8% de las emisiones totales de dióxido de carbono. Algo que puede parecer un pequeño porcentaje, pero no es poco si consideramos que se trata de uno solo de los muchos procesos industriales que pueblan nuestra actividad. De hecho, junto con la producción de acero, de cemento (ya citado) y de etileno, el proceso de obtención de amoniaco es uno de los cuatro "grandes" entre los procesos industriales que mas CO2 mandan a la atmósfera.

Y, como en el caso del cemento, lo hace por dos motivos. Por un lado, la reacción del nitrógeno con el hidrógeno para dar amoniaco necesita de temperaturas y presiones elevadas para que se obtenga un rendimiento razonable, lo que a día de hoy implica el uso de energía derivada de la quema de combustibles fósiles para conseguirlo. Pero también, y sobre todo, porque para llevar a cabo el proceso necesitamos disponer, antes que nada, de la materia prima de la reacción, esto es, nitrógeno e hidrógeno. El primero es fácil porque está en el aire en cantidades inagotables pero no es el caso del hidrógeno, que no está como tal en la Tierra sino en forma de compuestos como el agua o los hidrocarburos.

Y de hecho, el 80% de las emisiones de CO2 atribuibles al proceso de Haber-Bosch no provienen del propio proceso, sino de la necesidad previa de disponer de hidrógeno que, en la actualidad, se obtiene casi en su totalidad a partir de la reacción del metano (contenido en el gas natural) con vapor de agua, produciendo el hidrógeno buscado y CO2 como subproducto. Con esta precisión entenderéis bien por qué andan ahora los agricultores tan alterados con la subida de precio de los fertilizantes. La razón no es otra que la subida en el precio del gas natural, que conlleva subidas en el precio del hidrógeno, en el precio del amoniaco y, al final, en los fertilizantes.

El hidrógeno así obtenido se suele denominar hidrógeno marrón, por aquello de que es un producto derivado de un proceso "sucio" que contamina la atmósfera con CO2. El llamado hidrógeno azul está basado en el mismo proceso pero procurando capturar el CO2 resultante del mismo, una tecnología aún en fase de desarrollo denominada Captura y Almacenamiento de Carbono (CCS en inglés) que consume importantes cantidades de energía. Si esa energía la sacamos de la quema de combustibles fósiles sería la pescadilla que se muerde la cola, al volver a producir CO2. Y finalmente el hidrógeno "verde" que implicaría obtener el hidrógeno a partir de la llamada electrolisis o descomposición del agua en sus elementos hidrógeno y oxígeno que, de nuevo, requiere energía en cantidades respetables.

Y solo si esa energía (o la de la CCS) la sacamos de una potencial combinación de energías sin emisiones de CO2 como la nuclear, la eólica, la luz del sol (fotovoltaica), los pantanos (hidroeléctrica) o las enormes cantidades de energía acumuladas en volcanes y en el interior de la tierra (geotérmica), podremos bautizar al hidrógeno como "verde". Y, consiguientemente, podría utilizarse en la síntesis de un amoniaco "verde" o casi (que no todo es tan sencillo como lo he resumido).

La última idea, sin embargo, no es ciencia ficción. Iberdrola y Fertiberia han lanzado a bombo y platillo su colaboración en un proyecto que debería empezar a funcionar pronto en Puertollano (Ciudad Real), donde Iberdrola invertiría en una "granja" solar para producir electricidad que, en parte, emplearía en obtener oxígeno e hidrógeno descomponiendo agua por electrolisis. Para obviar el problema de la intermitencia (las celdas solares solo producen electricidad de día y si hay sol) instalarían también una batería como forma de acumular la energía sobrante en días de sol y usarla cuando no hay sol. Fertiberia usaría el hidrógeno así obtenido para fabricar amoniaco y el oxígeno para fabricar ácido nítrico, utilizando también la energía proveniente de la granja solar. Ambos compuestos químicos se usarían después para fabricar nitrato amónico, un fertilizante habitual. Un diagrama ilustrativo de las diferentes implicaciones del proyecto lo podéis ver aquí.

Por supuesto, esto es sólo un pequeño paso que no va a cambiar radicalmente el panorama. La nueva instalación solo produciría alrededor de 720 toneladas de hidrógeno "verde" al año, lo suficiente como para producir aproximadamente 4.000 toneladas de amoníaco "verde", el 2% de la capacidad total de la planta de Puertollano que es de 200.000 toneladas/año. Pero por algo hay que empezar.

Leer mas...

Powered By Blogger