miércoles, 27 de diciembre de 2023

Combustibles sintéticos


Al Búho siempre le han gustado los coches. Y las competiciones automovilísticas. Conozco varios circuitos de Formula 1 en Europa. He seguido en directo rallyes del Campeonato del Mundo como el de Córcega, así como los más afamados entre los españoles. Tengo hasta una Play Station en la que “conduzco” en pruebas de ese Campeonato. Y soy forofo de Carlos Sainz desde los tiempos en los que el madrileño conducía un Seat Panda por las carreteras de la Gipuzkoa profunda o le vi entrenar un rally de tierra en las Alpujarras. Así que no es de extrañar que hile un relato sobre los combustibles sintéticos (conocidos como e-fuels) con ocasión de una nueva edición del Dakar que empieza el próximo día 5 de enero. En territorio de los saudíes, que lo mismo se compran un equipo de fútbol que contratan a Jon Rahm o a un científico de cierto relieve.

En el Dakar de este año participa un coche pilotado por la española Laia Sanz dentro del equipo Astara, coche que tiene la peculiaridad de estar propulsado por un combustible sintético. En el mismo intento de demostrar que estos eventos son sostenibles (ahí es nada), Don Carlos pilotará un Audi eléctrico.

Los combustibles sintéticos o e-fuels son combustibles resultantes de la combinación de hidrógeno verde (producido merced a la electrolisis del agua usando electricidad renovable) y CO2 capturado, ya sea de una fuente con alta concentración del mismo (por ejemplo, gases de combustión de un sitio industrial) o del aire (a través de la captura directa de aire, DAC, de lo que hablamos hace poco). Se proclama que este tipo de combustibles, a diferencia de los combustibles convencionales, no liberan CO2 adicional (ya que lo que se captura es lo que luego se produce y expulsa).

En realidad, hay toda una gama de posibilidades a la hora de obtener combustibles sintéticos de las fuentes arriba mencionadas. Se puede obtener metano sintético (similar al gas natural) o líquidos como el metanol o el amoníaco sintéticos, también utilizados como combustibles. Pero aquí nos vamos a centrar en los combustibles sintéticos líquidos similares a la gasolina, el gasóleo o el keroseno de los aviones, tradicionalmente obtenidos a partir del petróleo.

Esos combustibles líquidos sintéticos son compatibles con los motores de combustión interna actuales, así que pueden emplearse en vehículos, aviones y barcos, lo que permitiría seguir usándolos pero de forma respetuosa con el clima. De hecho, la industria aeronáutica es la que más interesada está en el tema, porque son conscientes de que tienen muy complicado volar grandes aviones a grandes distancias usando baterías, que pesarían mucho. Esa gama de combustibles pueden usarse igualmente en los sistemas de calefacción actuales y también se seguirían pudiendo utilizar las existentes infraestructuras de transporte y distribución de los mismos.

Todo muy bonito. Pero hasta llegar a alimentar coches, camiones, barcos o aviones, el proceso de obtención de esos combustibles sintéticos es un largo camino y, al menos por ahora, muy caro. Necesitaremos de una serie de infraestructuras y procesos, algunos ya existentes y con ciertos grados de madurez pero otros muy lejos de ella.

Necesitaremos, en primer lugar, fuentes de energía eléctrica renovable (eólica, fotovoltaica, hidroeléctrica…) con la que alimentar los electrolizadores que nos ayuden a producir el imprescindible hidrógeno verde a partir de agua. Puede que el agua no abunde allí donde esté esa planta de electrolisis, con lo que necesitaremos contar con una planta desalinizadora para producir agua dulce de pureza suficiente para la electrolisis. Un proceso que consume mucha energía, que tendría que ser también de origen renovable.

En cuanto al CO2 necesario, al tener que provenir de una fuente renovable y como ya hemos adelantado arriba, no nos quedará otro remedio que capturarlo de grandes emisores o del propio aire. Es una manera de disminuir sus emisiones pero, aunque la tecnología necesaria para ello se conoce y está bastante madura, no deja de tener grandes problemas para su implantación a los niveles de CO2 necesarios para los fines que aquí nos ocupan.

Y con ese hidrógeno y ese CO2 a nuestra disposición, no deja de ser paradójico que el siguiente paso hacia los combustibles sintéticos sea el uso de una aproximación similar a la que los alemanes ya usaron en la segunda guerra mundial para paliar su incapacidad de proveerse del petróleo necesario para los combustibles que necesitaban. En ella, el hidrógeno se combinará primero con el CO2 para generar agua y monóxido de carbono (CO). Este CO con más hidrógeno (el llamado gas de síntesis) se utilizará para producir una mezcla de hidrocarburos, mediante el proceso denominado Fischer-Tropsch, que data de mediados de los años veinte.

Esa mezcla de hidrocarburos es de similar complejidad a la que existe en el petróleo bruto y puede verse en la figura, que podéis ampliar clicando sobre ella. Así que igual que ha hecho la industria petroquímica convencional con el petróleo, deberemos craquear (romper los hidrocarburos más grandes en otros más pequeños), destilar la mezcla resultante y separar así de esa mezcla los combustibles fósiles adecuados a un motor de gasolina o de gasoil o a las turbinas de un avión.


Luego hay, por el momento, una serie de incógnitas en lo que a problemas logísticos se refiere. Como el de ver dónde se producirían las vastas cantidades de energía renovable y de hidrógeno verde necesarios para sintetizar los nuevos combustibles. En lo tocante a la energía renovable, todo apunta a países en los que se disponga de lugares muy ventosos o de amplias extensiones muy soleadas durante todo el año lo que, en muchos casos y en un entrono próximo a Europa, implica a amplias zonas de Africa, Oriente Medio, etc. Así que no sé si vamos a cambiar mucho la geopolítica de los combustibles. Y, además, lo razonable sería montar los electrolizadores para producir hidrógeno verde lo más cerca posible a esas instalaciones de generación de energía renovable.

Y luego habría que distribuirlo a las plantas que operen el proceso Fischer-Tropsch. Dicha distribución plantea muchos problemas si quisiéramos aprovechar los gaseoductos ya existentes, porque dado el pequeño pequeño tamaño molecular de ese gas, es capaz de fragilizar a metales y aleaciones haciéndoles perder su inherente ductilidad. Y no quiero hacer esto muy largo pero, en lo relativo a la captura, el almacenamiento y transporte de la segunda pata de la reacción de Fischer-Tropsch (el CO2), también hay cosas que no están del todo claras.

Así que puede que haya muchas oportunidades para los combustibles sintéticos pero también muchos retos, algunos de los cuales me parecen, por el momento, difíciles de solucionar. Y más en el corto espacio de tiempo en el que se pretende que sustituyan a los combustibles tradicionales. Sin contar con que los activistas climáticos no quieren ni oír hablar de la solución, al entender que es una apuesta de las grandes petroleras para salvar su negocio y retardar además los objetivos de erradicar del panorama energético el uso de combustibles fósiles lo antes posible.

Como ya os dicho otras veces, lo que me da pena es no poder ver en qué queda la cosa, porque antes de que ocurra volveré a ser polvo de estrellas. En realidad, es que nací demasiado pronto.

Y como es Navidad, disfrutad de este precioso tema de John Williams de la película La lista de Schindler, interpretado por Itzhak Perlman junto con la Filarmónica de Los Angeles dirigida por Gustavo Dudamel. Un regalo del Búho para todos. Nos vemos en el 2024.

Leer mas...

lunes, 11 de diciembre de 2023

Vino y reduccionismo

Estas últimas semanas he estado muy ocupado como “charlatán” divulgador. En una de esas charlas hablé sobre la composición química del vino. Composición que puede resumirse en un 85% de agua, un 13% de alcohol y un parco 2% donde están todas las sutiles diferencias de los millones de vinos que se comercializan, sutilezas proporcionadas por cientos de moléculas químicas, la gran mayoría presentes en cantidades ridículas. Y que a medida que se fueron descubriendo, merced sobre todo a modernas técnicas analíticas, han ido planteando nuevos interrogantes sobre su intrincado papel en la percepción olfativa de un buen caldo que, creen los entendidos, todavía estamos lejos de entender del todo.

Aunque los humanos llevamos haciendo vino desde tiempos del Neolítico (hace siete mil años), la aparición de los incipientes microscopios y el descubrimiento gracias a ellos y a Pasteur (1858) de las bacterias formadoras de ácido acético (vinagre) y su papel, junto con otros microorganismos (levaduras, enzimas) en la crianza del vino, marcan el inicio de la Ciencia del vino. Mas tarde, la Ley de los Alimentos y Fármacos Puros (The Pure Food and Drug Acta) de 1906, promulgada por el presidente Theodore Roosevelt para proteger a sus ciudadanos de prácticas fraudulentas en su comercialización, ley que incluía al vino y otras bebidas alcohólicas, permitió a la FDA americana perseguir ciertos fraudes que se daban en el vino.

Y merced a ella y otros imperativos, se hizo cada vez más importante para los vinicultores confiar en la Ciencia, además de en el “arte” y el azar, para elaborar cada vez mejor sus productos. Para lo que se utilizaron cada vez más métodos analíticos, incrementando la disponibilidad de técnicas que permitían determinar parámetros como la densidad, la cantidad de azúcar, el pH, la cantidad de alcohol, etc, muchos de los cuales siguen vigentes.

Es importante puntualizar, además, que entonces y ahora los análisis químicos y microbiológicos complementan al llamado análisis sensorial, descripción del vino que hacen los catadores profesionales. La nariz humana ha sido y es decisiva a la hora de detectar aromas en cantidades ridículas. Y no solo en el ámbito del vino. Os recuerdo el caso del oculto aroma de la rosa damascena. Incluso en comparación con muchas técnicas analíticas de última generación, una nariz bien entrenada es capaz de detectar compuestos en concentraciones similares a ellas. La única condición es que la concentración del aroma que llegue a la nariz esté por encima de una concentración umbral, que puede ser muy diferente dependiendo de la sustancia química que genere el aroma.

Desde el advenimiento de la técnica denominada Cromatografía de Gases en los años 50 y sobre todo de la llamada Espectrometría de Masas en los 90 y la combinación de ambas, son muchos los grupos de investigación que han dedicado su esfuerzo a conocer la composición cualitativa y cuantitativa del vino hasta niveles tan pequeños como los nanogramos por litro. Para finales de los años ochenta se habían identificado más de 800 sustancias volátiles en los aromas de los vinos. Cuando se generalizó el uso de esas técnicas analíticas, se tuvo la sensación de que, merced al conocimiento de la mayoría de los componentes existentes en ese 2% del vino del que hablábamos arriba, podríamos entender el lenguaje de los catadores o incluso permitirnos crear vinos artificiales de diseño que pudieran competir en el mercado. Es una idea reduccionista, similar a la de pretender comprender un determinado material a partir de los elementos químicos que lo componen, de lo que hablaremos al final. En uno y otro caso nada más lejos de la realidad.

Porque enseguida fue siendo evidente que la simple reducción del vino a su composición cualitativa y cuantitativa (cuántas sustancias químicas y en qué proporción en él se encuentran) no implicaba el ser capaces de explicar toda la complejidad que algunas narices expertas son capaces de describir. Y ello estuvo todavía más claro cuando, bien entrados los años noventa, apareció una modificación de la cromatografía de gases a la que se puso el adjetivo de olfatométrica, técnica de la que ya os hablé en su momento.

En ella, unos microlitros de vino se arrastran con un gas a través de la llamada columna cromatográfica, el verdadero corazón de la técnica. Los diversos componentes contenidos en el vino interaccionan de forma diferente con el revestimiento interno de la columna, se “entretienen” más o menos en su interior y, como consecuencia, salen a diferentes tiempos del aparato. Y a la salida, tras registrar el número de diferentes sustancias que van saliendo y su proporción relativa, se encuentra un dispositivo que permite colocar la experta nariz de un catador entrenado que detecta a qué huele la sustancia que sale del aparato en cada preciso momento. Y que puede describir como olor a  fresa, plátano, mantequilla, etc..

Y con esta combinación de una técnica analítica con una entrenada nariz, se ha podido llegar a interesantes conclusiones que ilustran la complejidad sensorial del vino. Y dar lugar a las variadas sorpresas que se han ido llevando, a lo largo de los años, gentes como las que forman el Grupo de Análisis de Aromas y Enología del Departamento de Química Analítica de la Universidad de Zaragoza, en la que me formé como químico. El que esté interesado en una idea inicial de esa complejidad puede recurrir a uno de sus artículos, que lleva mucho tiempo en mis archivos y que utilicé para preparar la charla sobre el vino que mencionaba al principio.

La idea fundamental es que las diferentes sustancias químicas del vino interaccionan entre ellas y dan lugar a nuevos matices que los expertos catadores perciben y describen. Esas mismas interacciones hacen que la adición deliberada al vino de ciertos aromas individuales, por encima de la concentración umbral antes descrita y, por tanto, detectables por los catadores, les pasen desapercibidos. Es como si los componentes presentes, amortiguaran el efecto de la adición de ese componente extra. Y por ello, y de forma parecida al comportamiento del pH de una disolución cuando se adiciona un ácido o una base, se habla de efecto amortiguador o tampón (esto les va a encantar a los químicos).

También se ha podido comprobar que entre las sustancias pertenecientes a una misma familia química pueden darse efectos sinérgicos, de forma y manera que un grupo determinado de sustancias, cada una de las cuales se encuentra en cantidades por debajo de la concentración umbral para su detección por los catadores, sumen sus contribuciones y hagan que el vino huela a aromas característicos, ya sean propios de esa familia de sustancias o no. O que otras interacciones hagan que ciertos aromas se anulen entre sí. Por ejemplo, sustancias con azufre en su molécula rebajan o eliminan el olor a plátano de un éster muy común en los vinos, el acetato de isoamilo.

Philip W. Anderson (premio Nobel de Física 1977), en un famoso artículo publicado en Science en 1972, titulado “More is different”, hablaba de la errónea percepción de los físicos de la época, según la cual el bajar hasta el límite en el conocimiento de las partículas elementales que componen la materia y las leyes que las rigen, nos permitiría empezar a “construir” desde esos niveles las propiedades de materiales muy complejos o, incluso, del universo. Frente a esa idea, Anderson argumentaba que “el comportamiento de grandes agregados de partículas elementales no puede ser entendido como una simple extrapolación de las propiedades de unas pocas partículas”.

Pedro Miguel Etxenike, en su conferencia de ingreso como Académico de la Real Academia de Ciencias Exactas, Físicas y Naturales en 2017 y citando ese artículo de su amigo Phil Anderson, apostillaba que “nuestro entorno ordinario nos ofrece el más sencillo e importante laboratorio para el estudio de lo que se ha llamado propiedades emergentes, esas propiedades de los objetos, incluidos nosotros, que no están contenidos en nuestra descripción microscópica: por supuesto la consciencia y la vida pero también propiedades muy sencillas como la rigidez, la superconductividad, la superfluidez o el ferromagnetismo”.

Quizás el vino sea un humilde ejemplo de sistemas complejos con propiedades emergentes en ese entorno ordinario del que Pedro Miguel hablaba. O igual me llama a capítulo por el atrevimiento.

Leer mas...

martes, 28 de noviembre de 2023

A los Bioplásticos les crecen los problemas

A finales de setiembre de este año, los medios de comunicación españoles se hicieron eco de una nota de prensa del Consejo Superior de Investigaciones Científicas (CSIC) en la que se anunciaba la publicación de un artículo de uno de sus Centros (IDAEA en Barcelona) en el que se comparaba la toxicidad de las bolsas fabricadas a base de plásticos compostables con la de las bolsas de plástico convencionales. El artículo es uno más, y no particularmente relevante, de una serie de otros que han ido apareciendo recientemente sobre la toxicidad de los llamados genéricamente Bioplásticos.

Hace ahora tres años, en una entrada sobre esos materiales, me hacía eco de un artículo en el New York Times del conocido periodista en cuestiones medioambientales, John Schwartz, titulado "Por qué biodegradable no es lo que tú piensas". La tesis de ese artículo era que algunos de los envases de plástico con etiquetas “bio” o “verde”, solo se degradan bajo especiales condiciones y que, en algunos casos, pueden llegar a complicar el reciclado de los plásticos convencionales, hoy por hoy mucho más abundantes a nivel global (casi 400 MM de toneladas anuales frente a 2.2 MM de toneladas de los Bioplásticos).

Aprovechaba esa entrada en mi Blog para dejar bien establecidas las diferencias entre los diferentes miembros de la familia de los Bioplásticos. Un 48% de ellos son plásticos derivados de la biomasa pero no degradables, un buen ejemplo de los cuales es el Bio-polietileno (Bio-PE), obtenido a partir de caña de azúcar pero que, al final, es polietileno como el sintético y, por tanto, no biodegradable por muy biomasa que sea su origen.

El otro 52% de esos Bioplásticos son plásticos biodegradables y/o compostables. Obtenidos de la biomasa o puramente sintéticos (cosa que a alguno le  extrañará), todos los compostables son biodegradables pero no todos los biodegradables pueden compostarse. Quien quiera más detalles, puede pasarse por la entrada del Blog arriba enlazada.

Entre las referencias citadas por el artículo del IDAEA-CSIC, las tres última corresponden a tres trabajos publicados por un grupo de investigadores alemanes y noruegos que, a mi entender, son estudios más completos que el del CSIC. Particularmente me voy a servir de uno de 2020, que incluye un número mayor de Bioplásticos comerciales (hasta 42), utiliza técnicas analíticas de última generación y me sirve igual que el del CSIC para fundamentar lo que quiero contar aquí.

En cualquier caso, uno y otro artículo dan una vuelta de tuerca más a las pegas de Schwartz a los Bioplásticos y nos transmiten la idea de que, desde el punto de vista de la toxicidad (algo en lo que Schwartz no entraba), los plásticos biodegradables y compostables, presentes ahora en forma de bolsas en muchos supermercados, quizás sean tan tóxicos (y algunos probablemente más) que los plásticos convencionales, como el más modesto de los polietilenos empleado en bolsas de compra y bolsas de basura de toda la vida.

Y he recalcado el quizás del párrafo anterior porque es muy importante aclarar ya desde el principio que, en ese tipo de estudios y como fase inicial, se realiza una extracción con metanol en las muestras de los plásticos estudiadas, a la búsqueda de aquellas sustancias contenidas en el plástico y que no tienen carácter de tal. Los mismos autores reconocen que empezar así es el peor de los escenarios posibles, porque estamos extrayendo muchas cosas que, probablemente, nunca saldrían del plástico en condiciones de uso realistas, como puedan ser su empleo como filmes, envases o piezas de plástico de todo tipo que, casi nunca, están en contacto con metanol. Pero el metanol es un eficaz medio para extraer todo lo que acompaña al plástico.

En el trabajo de los noruegos y alemanes, haciendo uso de una de las técnicas analíticas más potentes que tenemos los químicos hoy en día, la conocida con el acrónimo UPLC-QTOF-MS/M, se separan los posibles componentes extraídos por el metanol en cada Bioplástico investigado. Y, adicionalmente, se hacen una serie de ensayos biológicos “in vitro” con los diversos extractos en metanol, para evaluar la toxicidad de los mismos.

La UPLC-QTOF-MS/M arriba mencionada permitió a los investigadores detectar mas de 43.000 compuestos químicos en los extractos de metanol de las 42 muestras de Bioplásticos estudiados. En el caso de los Bioplásticos a base de celulosa y almidón, se detectaron hasta 20.000 compuestos diferentes. Otra peculiaridad es que cada muestra de un mismo plástico, era muy distinta de sus hermanas. Por ejemplo, en diez muestras de ácido poliláctico (PLA) investigadas, el número de sustancias detectadas oscilaba entre 880 y 17.000. En cualquier caso, los polímeros basados en plantas, como los fabricados a partir de almidón y celulosa, eran los que más sustancias químicas presentaban.

La mayoría de esos compuestos químicos que han dejado su “firma” en los experimentos con la mencionada técnica no se pudieron identificar químicamente, es decir, no se sabe exactamente qué son. Uno pudiera pensar que esas sustancias son aditivos que se adicionan generalmente a los Bioplásticos para mejorar algunas de sus deficientes propiedades. Ese sería, por ejemplo, el caso de los Bioplásticos a base de almidón que se aditivan en porcentajes importantes para poder fabricar objetos útiles con ellos (es lo que se denomina almidón termoplástico o TPS). Pero eso no es así. Aunque se pudieron identificar algunos aditivos como plastificantes, antioxidantes, etc., la mayoría de las pocas sustancias identificadas no tienen características de aditivo alguno. Así que los autores sugieren que algunos de esos compuestos identificados en estos Bioplásticos derivados de plantas, pudieran provenir de procesos naturales que ocurren en esas plantas, debidos a acciones microbianas, enzimáticas o similares.

En cualquier caso, se hayan podido identificar o no, la gran mayoría de esos compuestos detectados en los extractos, gracias a la extremada sensibilidad de la citada técnica instrumental, están en cantidades ridículas.

Los estudios de toxicidad realizados con los extractos en metanol de los plásticos investigados muestran que la mayoría de ellos exhiben actividad tóxica en los ensayos “in vitro”, siendo particularmente evidente esa toxicidad en el caso, otra vez, de los extractos de polímeros a base de almidón o celulosa (los más “naturales”). Los autores comparan esos datos con los obtenidos en un trabajo anterior con plásticos convencionales, llegando a la conclusión de que el grado de toxicidad de los extractos de unos y otros es comparable.

¿Es este tipo de resultados un potente torpedo en la línea de flotación de los Bioplásticos?. Pues en principio no me parece, porque creo que seguirán proponiéndose como alternativa a los plásticos convencionales, dentro de esa creciente plastifobia que nos asola. Pero si puede ser una piedra más en el tortuoso camino que están siguiendo los Bioplásticos para poder cumplir las expectativas que sobre ellos se tenían hace más de treinta años. Y os lo dice alguien que se ha tirado esos mismos años publicando artículos y dirigiendo tesis sobre estos temas. Pero que cada vez ha ido siendo menos optimista sobre el papel de estos materiales en el inmediato futuro, como ya quedó claro en otras entradas de este Blog. Aunque, como siempre digo, no tenéis por qué hacerme caso.

Pero también os diré que me preocupa muy poco esa teórica toxicidad a la hora de comerme o beberme algo que haya estado contenido en ese tipo de material. Al menos hasta que se demuestre su toxicidad de forma más realista que a base de los extractos en metanol.

Leer mas...

miércoles, 15 de noviembre de 2023

Osos polares y pingüinos emperador

Hace unos pocos años, era habitual ver vídeos de National Geographic, que mostraban a magníficos osos polares intentando desesperadamente saltar de un témpano de hielo a otro en el Océano Ártico. Las imágenes se aderezaban con comentarios (entre otros) de David Attenborough sobre el futuro de los osos polares en el contexto del cambio climático y el deshielo del Océano Ártico. En diciembre de 2017 y en este contexto, se hizo viral un vídeo de un pobre oso esquelético que, posteriormente, la propia National Geographic reconoció que era un viejo oso enfermo a punto de fallecer.

Creo que algunas de las reacciones a ese vídeo, y el propio reconocimiento de la revista, dieron inicio al declive de la hipótesis subyacente en todos esos reportajes previos. Y que no es otra que el deshielo del Océano Ártico, debido al cambio climático, dificulta cada vez más la caza de focas para los osos polares. En consecuencia, pasan hambre y corren el peligro de desaparecer.

A menudo, estos documentales sobre el medio ambiente son deprimentes a pesar de sus magníficas fotografías, porque siempre nos transmiten el sombrío mensaje de la extinción de las especies y la destrucción de la naturaleza. Sin embargo, sabemos que tanto los activistas medioambientales como sus oponentes (por ejemplo, los pueblos que habitan esas extremas latitudes y que viven en contacto con las poblaciones de osos) suelen exagerar sus percepciones. Los mensajes de unos y otros tienden a tener sus raíces más en intereses políticos que en la ciencia y es difícil conocer la verdad de lo que está pasando.

Este vuestro Búho tenía la mosca detrás de la oreja sobre el asunto desde que, de forma casual, caí en el Blog que Susan Crockford, una Doctora en Zoología que ha dedicado más de dos décadas al estudio de la ecología y la evolución de los osos polares. No siempre me ha gustado el tono agresivo con el que la Dra. Crockford escribe sus post, pero como me conozco su tormentosa historia académica, tampoco me extraña.

Además de seguir a la Crockford, yo había buscado por mi cuenta información al respecto en diversas fuentes. Y casi todas coincidían en que mientras que en la década de los setenta, la población de osos polares en el Ártico había caído hasta una cifra preocupante de entre 5000 y 8000 individuos , esa población se había recuperado posteriormente y, ya en 2008, las cifras oscilaban entre 22 000 y 26 000 ejemplares, un aumento del 300% en tres décadas.

Y la razón no es otra que, en 1973, se promulgó una prohibición mundial de la caza de osos polares. Como los osos polares solo se encuentran en cuatro países y todos ellos son países prósperos, la aplicación de esta prohibición tuvo bastante éxito. El resultado fue el aumento del 300% arriba mencionado. Es un ejemplo más que demuestra que los animales son lo suficientemente resistentes como para soportar las variaciones naturales de su hábitat, pero no pueden hacer frente fácilmente a la matanza indiscriminada por parte del hombre, utilizando armas de alta tecnología.

Y cuando yo ya tenía toda esa información en mi mano y casi coincidiendo con el video viral que mencionaba arriba (2017), compré y leí el libro de la Crockford titulado Polar Bear Facts and Myths: A Science Summary for All Ages. El libro se estructura sobre la base de 18 afirmaciones relacionadas con los osos polares que, para esa época, eran habituales en los medios de comunicación, mostrando cuáles de esas afirmaciones responden a hechos reales y cuáles son simples leyendas.

Desde entonces se han producido cada vez menos noticia sobre los osos polares en los medios y RRSS, excepto algunas que describen enfrentamientos entre ellos y los humanos que viven cerca de sus lares. Pero me da la sensación de que, desde el punto de vista de los activistas climáticos, el objetivo osos polares se da por amortizado. De hecho, un artículo publicado el 30 de agosto por The Guardian (conocido por sus tesis pro activas sobre el calentamiento global), lo declara hasta en el título. Y a mi me ha bastado leerlo para darme cuenta de que otros expertos en osos polares, consultados por el periódico, no están muy lejos de las ideas de la Crockford.

Esa declaración de The Guardian no parece casual cuando, en esos mismos días de agosto de 2023, el interés se había focalizado en las colonias de pingüinos emperador que viven en el otro extremo del globo, en las proximidades del continente antártico. Un artículo publicado el día 24 de ese mes hablaba de la muerte de hasta 10.000 polluelos de esa especie en los últimos meses, artículo que tuvo una amplia repercusión en todos los grandes medios de comunicación y redes sociales, como base para extender la idea de que esa especie está en peligro de extinción.

Pero como ya hizo hace unos años en el caso de los osos polares y el tiempo parece haberle dado la razón, la Dra. Crockford, en su tono habitual, parece discrepar. Resumiendo lo dicho en una entrada en su Blog el pasado 27 de agosto (las negritas son mías):

A pesar de la expectación suscitada la semana pasada por el artículo recientemente publicado por Peter Fretwell y sus colegas, no existe ningún fundamento ecológico plausible para proponer que el fracaso reproductivo de una sola temporada en cuatro pequeñas colonias de pingüinos emperador (Aptenodytes fosteri), debido a las condiciones de La Niña -fenómenos no relacionados con las emisiones de dióxido de carbono- sean signos de una futura "cuasi extinción" de la especie. Ninguna de las 282.150 parejas reproductoras de emperadores adultos que se calcula existen frente a la Península Antártica se perdieron en 2022 y los polluelos nacidos en varias docenas de otras colonias de emperadores alrededor del continente antártico sobrevivieron, lo que significa que se trató de un pequeño bache en el camino y no de una catástrofe para la especie.

Falta por ver ahora, si el asunto de los pingüinos evoluciona de manera similar al de los osos polares o, en este caso, la Crockford ha metido la pata. Cosas a seguir para un jubilado a tiempo completo, como un servidor.

Leer mas...

viernes, 27 de octubre de 2023

Sobre la Captura Directa de CO2 desde el Aire

El Informe Especial sobre Calentamiento Global de 1,5 ºC (2018), preparado por el IPCC, a instancia de la Conferencia de Naciones Unidas sobre Cambio Climático de 2015, estableció que, para lograr el objetivo de no sobrepasar ese límite de temperatura con respecto a la llamada época preindustrial, debemos conseguir, para el año 2050, el llamado NetZero en lo que a emisiones de gases de efecto invernadero (GEI) se refiere. Un empeño que el propio informe reconoce que es bastante complicado y que necesita de “reducciones de emisiones ambiciosas” y “cambios rápidos, profundos y sin precedentes en todos los aspectos de la sociedad”.
Además de intentar no emitir más GEIs (fundamentalmente CO2) a la atmósfera, el informe recomienda otras actuaciones como, por ejemplo, la captura directa en el propio lugar de la emisión del CO2 producido por grandes emisores del mismo, como es el caso de acerías, cementeras o industrias químicas. Como las cantidades a captar son grandes hay que pensar en qué hacer posteriormente con ese CO2, de lo que enseguida hablaremos.Pero no debemos olvidar un problema inherente al hecho de que llevemos muchos años vertiendo CO2. Dado su ciclo de vida en la atmósfera, seguirá habiendo en ella, durante mucho tiempo, una cantidad de CO2 superior a la deseable para llegar a alcanzar los objetivos que se propusieron en 2015 en Paris. Así que necesitamos, adicionalmente, eliminar cantidades importantes del CO2 que actualmente ya se encuentran en la atmósfera.

Para hacerlo hay soluciones o métodos que podemos llamar naturales como plantar más árboles, auténticos sumideros de ese gas. O, aun mejor, gestionar eficientemente todo lo que tiene que ver con el suelo, los bosques y los cultivos. Pero los cálculos parecen indicar que eso tampoco sería suficiente. Así que, de esa necesidad de hacer algo más, surge la tecnología denominada Captura Directa de Aire, también conocida por sus siglas en inglés, DAC.

Explicado de forma sencilla, la cosa consistente en capturar grandes cantidades de aire por medio de esa especie de ventiladores invertidos que veis en la foto que ilustra esta entrada, eliminar el CO2 presente en él (que como sabéis, solo supone el 0,04% del aire), devolver el aire sin dióxido de carbono a la atmósfera y utilizar el CO2 así obtenido en diversas aplicaciones (p.e. en la fabricación de combustibles sintéticos para aviación, fabricación de plásticos, etc.) o, al igual que el capturado en grandes emisores que mencionaba arriba, almacenarlo geológicamente.

Evidentemente, todo esto parece demasiado sencillo para que sea verdad. Se necesita buscar esos lugares geológicos donde almacenarlo (y donde lo más probable es que haya oposición ciudadana) y buscar nuevas aplicaciones de empleo de ese CO2 para no acumularlo sin fin . Y, si al final le damos un uso, se necesitarán extensas redes de gaseoductos para distribuir ese CO2 a los lugares que vayan a emplearlo, además de adecuados estudios sobre la viabilidad económica de todo ello.

Pero uno ha sido profesor de Termodinámica durante muchos años. Y, en el caso de la DAC, hay un aspecto ligado a la energía del proceso que me intrigaba. Incluso había pergeñado una serie de cálculos al respecto cuando, de repente, me encontré con un artículo que confirmaba mis hipótesis (o, al menos, el autor pensaba en similares términos a los míos). Estaba en el blog The Climate Brinck, alojado en Substack (la plataforma a la que me estoy aficionando un montón). Un blog que comparten dos climatólogos muy conocidos y próximos al IPCC (Andrew Dessler y Zeke Hausfather) aunque, en lo relativo al artículo del que estamos hablando, el autor es el primero.

La Termodinámica permite simular muchos procesos que ocurren en la Naturaleza de forma muy simplificada. Y con la peculiaridad de que, al hacerlo, se puede evaluar la forma más eficiente, en términos energéticos, del proceso simulado. Y así, en el caso de la tecnología DAC, ésta puede modelarse en dos procesos diferenciados. Uno implica la separación del CO2 desde el aire que lo contiene y el otro comprimirlo hasta una presión alrededor de 100 veces la presión atmosférica, que sería la adecuada para almacenarlo en algún depósito geológico. Los que conocen algo de Termodinámica saben que, para hacerlo, hay que definir los llamados estados iniciales y finales del proceso, la trayectoria reversible entre ambos, funciones de estado que, como la energía libre de Gibbs, cuantifican la energía implicada en el proceso y cosas similares. Pero eso se queda para los profesores que quieran usar la entrada a la que me estoy refiriendo para plantear un problema sencillo de Termo a sus estudiantes.

El resultado, en el caso de la separación, es que necesitaríamos 500 kilojoules (kJ) para separar 1 kilo de CO2 del aire. Si quisiéramos eliminar los cuarenta mil millones de toneladas de CO2 que actualmente se emiten cada año, necesitaríamos del orden de 2x10(19) J cada año, lo que corresponde a la energía suministrada durante ese año por el equivalente de 300 presas Hoover, una presa gigantesca situada en el curso del río Colorado. O la proporcionada anualmente por 350 centrales nucleares como la de Almaraz. Y si ahora calculamos la energía necesaria para comprimir todo ese gas a 100 atmósferas, necesitaríamos un 50% adicional de la energía anterior. En total, y si hacemos los cálculos necesitaríamos aproximadamente el 6% de toda la energía consumida anualmente por la humanidad. O, en términos de potencia eléctrica, alrededor de un Teravatio (TW).

Pero, y esto es lo más importante, ese es el valor más pequeño que puede esperarse en virtud de las simplificaciones termodinámicas que hemos realizado para obtenerlo. De ahí hacia arriba, todo dependerá de los procesos realmente implicados. Algunas de las compañías que están liderando la investigación en este campo estiman que ese gasto energético podría multiplicarse por diez. Y, evidentemente, solo podría hacerse a partir de energías renovables como la eólica, la fotovoltaica, la hidroeléctrica, la geotérmica, etc. Porque, si tuviéramos que usar combustibles fósiles para obtener la energía necesaria, sería la pescadilla que se muerde la cola.

Así que no es extraño que Dressler termine su entrada diciendo que aunque su intención “no es abogar a favor o en contra de la DAC, los beneficios que de ella se derivarían serían de tanto calado como los obstáculos técnicos, económicos o industriales a abordar”. Y, como buen seguidor de las conclusiones del IPCC, argumenta que “nuestra prioridad debe ser descarbonizar nuestra economía”.

Lo que, visto lo visto por el momento, no es tampoco una cuestión baladí.

Leer mas...

viernes, 6 de octubre de 2023

Obesógenos: Fat is in the air. Una entrada invitada(*)

Durante la Primera Guerra Mundial, las autoridades militares francesas estaban desconcertadas: numerosos trabajadores de sus fábricas de municiones comenzaron a sufrir un misterioso adelgazamiento, acompañado de hipertermia extrema de hasta 45ºC, que causó más de 35 muertos y cientos de afectados. Los supervivientes no paraban de adelgazar por mucho que comieran. Solo recuperaban peso cuando trabajaban lejos de las municiones. El asunto quedó archivado y no se estudió en profundidad. ¿Qué importaban unas decenas de muertos al año cuando en la primera batalla del Marne murieron 80.000 soldados franceses en una sola semana?

En 1933, el farmacólogo americano Maurice L. Tainter investigó el asunto y halló la causa. Los obuses franceses utilizaban ácido pícrico (2,4,6-trinitrofenol) como explosivo y en su preparación mediante nitración del fenol se producía un subproducto, el 2,4-dinitrofenol (DNP) que, administrado en pequeña cantidad a ratas de laboratorio, recapitulaba la anorexia e hipertermia de los trabajadores franceses. Hoy sabemos que el DNP es uno de los anoréxicos más potentes que existen y que una pequeña cantidad del mismo, ingerido o inhalado como polvo durante un breve período, inhibe la formación de ATP (Trifosfato de adenosina)en las mitocondrias, bloquea la síntesis de proteínas, estimula el consumo de oxígeno y provoca una hipertermia descontrolada. Lo importante es que el caso del DNP puso de manifiesto que la presencia ambiental de ciertas moléculas sintéticas puede alterar, significativamente, la masa corporal con independencia de la alimentación o el ejercicio.

Pasaron las décadas y la penosa delgadez de comienzos del siglo XX ha sido reemplazada por la denostada “pandemia de obesidad” actual. Por consiguiente, solo era cuestión de tiempo que surgiese la pregunta: ¿podrían algunos productos químicos presentes en nuestros entornos laborales, urbanos, alimentos, etc… provocar el efecto contrario al de DNP? Es decir, ¿podrían añadir una obesidad “extra” a la que nos corresponde por dieta y ejercicio? Esta idea es muy intuitiva y se ha concretado en la llamada hipótesis de los productos obesógenos,que ha sido recogida en artículos de revisión como éste publicado en la revista Journal of Pharmacology.

A pesar de que en las conclusiones del artículo los autores acaban admitiendo que la obesidad humana es un proceso multifactorial y que, en la práctica, es virtualmente imposible distinguir claramente el “efecto obesógeno” de otros factores como la sobrealimentación, el desequilibrio nutricional, la falta de ejercicio o los factores genéticos, no por ello dejan de preconizar la prohibición o drástica limitación de los obesógenos como medida preventiva para combatir la obesidad global.

El problema es que los obesógenos forman parte de muchos productos que usamos diariamente como detergentes, alimentos, envases de plástico, ropa, cosméticos, etc…, lo que dificulta sortear sus efectos. A día de hoy, y como se recoge en este artículo de divulgación (basado en gran parte en el anterior), en torno a 50 productos químicos han sido etiquetados por algunos endocrinólogos como obesógenos o potenciales obesógenos. Entre ellos están el famoso bisfenol A (BPA), de cuya vida y milagros ya se habló en este Blog (ver aquí y aquí), los bifenilos policlorados, los ftalatos, los éteres de polibromodifenilos, las sustancias perfluoroalquiladas y polifluoroalquiladas, los parabenos, la acrilamida, los alquilfenoles, el dibutilestaño o algunos metales pesados como el cadmio y el arsénico.

En el laboratorio se ha comprobado que, por ejemplo, el BPA es un disruptor endocrino que activa los adipocitos encargados de almacenar grasa y aumenta perceptiblemente el tejido adiposo blanco en animales, lo cual apoyaría la hipótesis obesógena. Sin embargo, para justificar los resultados experimentales, los autores necesitan invocar las denominadas dosis-respuestas no-monotónicas; es decir, que la acción de esos obesógenos no iría disminuyendo a concentraciones cada vez más bajas, como suele ser lo habitual, sino que, a partir de un determinado valor, esas sustancias podrían tener a bajas concentraciones un mayor efecto que a altas.

La naturaleza química de los compuestos obesógenos es otro de los puntos más llamativos de la hipótesis. Los 50 compuestos mencionados arriba también son posibles tóxicos a través de mecanismos de acción que nada tienen que ver con la obesidad. No se sabe si tras su absorción, y a las concentraciones fisiológicas en tejidos humanos, actúan realmente como obesógenos o no.

Además, resulta sorprendente que decenas de miles de moléculas de nuestro entorno natural, procedentes de animales, vegetales o minerales, nunca se hayan identificado como inequívocamente obesógenos, excluyendo los propios alimentos grasos o los azúcares. Tampoco se ha descubierto hasta ahora ningún compuesto sintético con una actividad claramente obesógena comparable a la que tiene el DNP arriba mencionado para la anorexia.

En fin, el tiempo dirá si la hipótesis obesógena va engordando o adelgazando, pero si os hacen un comentario impertinente acerca de esa barriguita que se adivina bajo el niqui, ahora tenéis algunos “químicos” a los que echar la culpa.

(*) El Prof. Jesús M. Aizpurua es un viejo amigo, al que llegué a dar clase en los primeros años de mi Facultad. Hoy es Catedrático de Química Orgánica en la misma. Un especialista en el diseño y la síntesis de nuevos compuestos mediante la llamada Click Chemistry, es un relevante científico de la UPV/EHU. Y un decidido emprendedor en la aplicación de su investigación, como lo demuestra el que sea el Director Científico de la empresa Miramoon Pharma S.L., entre cuyos productos se encuentra el novedoso candidato a fármaco PM-004, destinado al tratamiento no invasivo de la retinosis pigmentaria.

Leer mas...

miércoles, 27 de septiembre de 2023

Tablas de cortar alimentos y microplásticos

Hace unas semanas, una pequeña columna en el suplemento Vivir del Diario Vasco (y supongo que de otros periódicos de Vocento) alertaba de los peligros escondidos en algo tan habitual como cortar alimentos sobre una tabla de plástico. Según esos resultados, decenas de millones de partículas (o microplásticos) se desprenden cada año merced a esas operaciones, partículas que podríamos ingerir y así estar expuestos al riesgo de que (sic) “sean tóxicas”.

Como siempre en estos casos, este vuestro Búho se ha ido al artículo original, publicado en una conocida revista de la American Chemical Society (ACS), sociedad en la que tengo ya categoría de Emeritus (tras 40 años pagando la cuota anual). Y me he puesto a leerlo como si yo fuera uno de los referees (revisores) que tuvieron que dar el placet para que el artículo se publicara, una labor que he hecho durante años para las más importantes revistas de polímeros.

Ahora que ya estoy jubilado puedo decir que hacer de referee es un auténtico peñazo. Nunca me han pagado por ello, el editor que te manda el manuscrito lo quiere revisado para ayer y, muchas veces, eres un dudoso experto sobre la temática del artículo que te envían. Este no es el caso. No ha habido urgencias de editor alguno, vosotros me pagáis con solo leer esta entrada y de microplásticos tengo siempre hechos los deberes (la bibliografía actual). Así que vamos a darle una vuelta al artículo en cuestión.

Los autores del mismo ponen a seis ciudadanos con un cuchillo delante de tres tipos de tablas de cortar, dos de ellas de plásticos distintos (polietileno y polipropileno) y una tercera de madera. Les hacen ejecutar en cada tabla seis ciclos distintos, cada uno de ellos de 500 cortes, sobre las superficies en cuestión. Tras cada ciclo, pasan medio litro de agua por las superficies resultantes para recoger las partículas que se hayan podido desprender, filtran el líquido así obtenido, secan el filtro y pesan las partículas. Cuentan también esas partículas bajo un microscopio, caracterizan su forma, tamaño, etc.

Una de las cosas en las que siempre me fijaba al revisar un artículo era la bibliografía, al entender que, de alguna forma, las referencias allí listadas suponían puesta al día del estado de la cuestión sobre la que versaba el artículo. En este caso, y dado que se trata de una aportación sobre la cantidad de microplásticos que podemos ingerir a través de la alimentación, me ha sorprendido que entre las 91 referencias bibliográficas utilizadas, sólo dos (la 49 y la 74) sean publicaciones del grupo de Albert A. Koelmans de la Universidad de Wageningen en Holanda.

Además de haber publicado muchas contribuciones científicas sobre el tema, Koelmans coordinó un informe publicado en abril de 2019, encargado por la Unión Europea a la denominada SAPEA (un Consorcio que representa colectivamente a las Academias y Sociedades científicas europeas), en el que se abordaban los aspectos estrictamente científicos de los efectos de los microplásticos en el medio ambiente y en los seres vivos, incluidos los humanos. Además, y aún más importante en este caso, el grupo de Koelmans publicó un trabajo en marzo de 2021, que exploraba la bibliografía existente sobre la evaluación de la masa de microplásticos ingerida per cápita y día por niños y adultos, así como lo que ocurre posteriormente con esas micropartículas en nuestro organismo (cuántas partículas expulsamos, cuántas se acumulan, etc.). Un artículo que a mi me parece de referencia obligada y del que ya he hablado en este Blog.

Resulta sorprendente que aunque los autores citen ese artículo (referencia 49), no lo hagan en un contexto comparativo de sus propios resultados, sino para mencionar los posibles disruptores endocrino que los microplásticos pudieran contener en forma de monómeros y todo tipo de aditivos y que pudieran migrar de ellos a nuestro organismo en diversas condiciones. Y digo que resulta sorprendente porque el grupo de Koelmans ha demostrado, por activa y por pasiva en diversos trabajos (ver aquí el más importante), la irrelevancia de los microplásticos como vectores de ese tipo de contaminación química.

Volviendo a los resultados y ciñéndome, por no hacer esto muy largo, a los resultados obtenidos con las experiencias de corte sobre tablas de polietileno, las más habituales en muchas cocinas occidentales, los autores observan que el número y la masa de partículas que se desprenden parecen ir aumentando a medida que van pasando los 6 ciclos de 500 cortes que los cortadores ejecutan. Una conclusión aparentemente razonable pero que es bastante discutible cuando se ve el uso que de ella se hace.

Porque los resultados de esas medidas con los seis primeros ciclos se ajustan a una recta (regresión lineal) y gracias a ese ajuste, los autores van calculando el número y la masa de las micropartículas de plástico que, día a día, se irían generando desde el séptimo día hasta el tricentésimo sexagésimo quinto. Y luego suman los resultados de esos 365 días del año para calcular los microplásticos generados a lo largo de un año y a los que se supone estamos expuestos.

Es decir, con solo seis medidas experimentales (seis días), extrapolan a lo que, en principio, pasa en los 359 días del año restantes. Si algo he insistido siempre a mis estudiantes es que ojito con las extrapolaciones y más cuanto más lejos te vayas del intervalo medido. Sobre todo, en este caso, si consideramos la información suplementaria (por ejemplo la Tabla S10) que se suministra con el artículo y que casi nadie comprueba. Allí puede verse que los coeficientes de regresión distan mucho de un comportamiento lineal que permita extrapolación tan extendida. Algo más técnico y que para entenderlo hay que saber algo de estadística, pero ya sabéis que el Búho es de fiar y no os engaña.

Segundo, algo más de andar por casa y que mis amigos cocinillas pueden considerar. ¿De verdad ejecutamos 500 cortes sobre la tabla de cortar todos los días de un año?. En mi casa desde luego no. Ni por día ni, probablemente, por semana. Tercero, ¿todas las micropartículas generadas se adhieren inmediatamente a lo que cortamos y de ahí van a nuestro organismo?. Pues creo que tampoco. Por ejemplo, muchas de las cosas que en casa cortamos son verduras, una parte importante de las cuales cocemos en agua que luego en gran parte desechamos.

Así que su estimación de que al año estamos “expuestos” a entre 7 y 51 gramos de polietileno en forma de microplásticos provenientes del corte en tablas de ese plástico me parece una cifra excesiva. Ello implicaría entre 135 y 1000 miligramos por semana o, en términos de tarjetas de crédito (una “unidad de medida” que se ha hecho popular en la ingesta humana de microplásticos), entre 0.03 tarjetas o 0.2 tarjetas por semana, lejos de la tarjeta por semana que adujeron algunos en su día y que Koelmans y colaboradores desmontaban en el artículo arriba mencionado.

Pero, aún y así, si comparamos la ingesta diaria por persona que los autores calculan (entre 20 y 140 miligramos), eso supone entre 12.000 y 100.000 veces la media estimada por el grupo de Koelmans en su revisión. En la que, además, queda claro que una cosa es la ingestión diaria y otra cosa es la acumulación irreversible en el cuerpo humano de esas micropartículas en una vida media de 70 años. Que no llega a 40 nanogramos, porque la mayoría de lo que ingerimos se va por el váter.

Finalmente, el trabajo que estamos revisando críticamente evalúa también la posible toxicidad de esas partículas, realizando estudios in vitro con células de fibroblastos de ratón, no encontrando efecto adverso alguno. Pero el trabajo no estudia la toxicidad de las partículas desprendidas cuando se usan tablas de corte de madera, a pesar de que, en ese caso, se desprenden muchas más que desde una superficie de plástico, aduciendo simplemente que las de polietileno son las más habituales. Cuando está claro que de la tabla de madera surgirán, probablemente, fibras (polímeros) de celulosa y lignina que, en el caso de esta última, es una potencial fuente de sustancias que los químicos llamamos aromáticas (porque contienen anillos de benceno), en principio más peligrosas que las derivadas del polietileno.

Pero todo esto que acabo de decir son meras conjeturas que habría que comprobar. Lo que es definitivo es que si yo fuera el referee elegido por la revista de la ACS para evaluar el trabajo que nos ocupa, éste no pasaba el corte en primera instancia. Tendrían que aclararme los extremos que os acabo de contar

Y como hoy hace un día espectacular en Donosti y se me alegra el espíritu, os regalo un poco de música.

Leer mas...

lunes, 18 de septiembre de 2023

Regulando la Homeopatía (Coda final)

Como ya expliqué en una entrada del mismo título, en julio del año pasado, la regulación de los productos homeopáticos en España, que vivía en un limbo legal desde 1994, empezó a desperezarse como consecuencia de una Directiva europea que data del año 2001. Aún y así, el Ministerio de Sanidad español se tomó nada menos que seis años para transponer esa Directiva al ámbito español, en el Real Decreto 1345/2007 que, como en la Directiva arriba mencionada, incluía una sección especial regulando el procedimiento de autorización, registro y condiciones de dispensación de los medicamentos homeopáticos.

El artículo 55 de ese Decreto establecía una singularidad para los productos homeopáticos de forma que, a la hora de autorizar su venta como medicamentos, habilitaba dos vías. Una, la habitual para cualquier medicamento con indicación terapéutica demostrada y dos, y aquí viene lo singular, un procedimiento simplificado, sólo para productos homeopáticos, para el que no se necesita demostrar su eficacia terapéutica.

El Gobierno español y otros países europeos que no tienen intereses económicos en estos preparados, trataron de eliminar esa vía singular con la oposición de otros, como Reino Unido, Francia o Alemania, que si los tienen. Hasta que, en 2018, estuvo claro que la batalla estaba perdida. Así que el Ministerio de Sanidad español instó a la Agencia Española de Medicamentos y Productos Sanitarios (AEMPS) a poner en marcha el citado procedimiento simplificado y, en abril de 2018, dicha Agencia habilitó un plazo para que los fabricantes de todos los productos homeopáticos que se vendían en las farmacias de España le comunicaran su intención de adecuarse a la Directiva europea y al Decreto español, diecisiete y once años después de sus respectivas promulgaciones.

Finalizado ese plazo, la AEMPS publicó, a finales de octubre de 2018, una resolución que daba cuenta de los productos homeopáticos que habían comunicado esa intención y fijó un calendario para que las empresas titulares solicitaran la correspondiente autorización de comercialización. Solo los productos homeopáticos que se encontraban en esa resolución, en una lista de más de dos mil preparaciones, podían seguirse comercializando hasta que la AEMPS evaluara la documentación y tomara una decisión que les autorizara a venderse como medicamentos homeopáticos, de acuerdo con la normativa que os he explicado arriba. Los que no comunicaron a la AEMPS su intención de adecuarse a la normativa no podían seguirse comercializando y los que estuvieran ya en las farmacias tendrían que ser retirados.

Desde ese octubre de 2018 la AEMPS mantiene una página web en la que se detallan los productos homeopáticos que han sido autorizados a venderse como medicamentos, así como los retirados del mercado, página que he ido consultando periódicamente, comprobando que en lo que respecta a la lista  de autorizados, ésta ha ido creciendo poco a poco. La última actualización que he visto de esa lista, antes de escribir estas líneas, data del 21 de diciembre de 2022 y contiene 1290 productos, aunque son muchos más porque de cada uno de ellos puede comercializarse diversas diluciones de un mismo principio genérico.

Desde que empecé a consultar esa página, he andado un poco mosqueado con una cuestión que , finalmente, parece que he resuelto y de ahí el origen de esta entrada. La AEMPS mantiene el llamado Centro de Información de Medicamentos (CIMA), una base de datos en la que los profesionales sanitarios y la ciudadanía pueden consultar diversos aspectos sobre los medicamentos autorizados por la AEMPS. Si en esa página se pica en el enlace denominado Buscador para profesionales sanitarios, cualquiera puede localizar medicamentos por el nombre comercial, el principio activo que contienen, la empresa que lo fabrica o el llamado Código Nacional, una especie de matrícula de cada medicamento.

Pues bien, en mis repetidos intentos de usar esa base de datos a la búsqueda de medicamentos homeopáticos, ha sido imposible encontrar en ella ninguno de los que aparecen en el listado de autorizados arriba mencionado. Durante este tiempo he trasladado esta aparente incongruencia tanto a farmacéuticos titulares de oficinas de Farmacia como a profesionales de Farmacia Hospitalaria. Y nadie me ha resuelto el enigma.

Así que el pasado día 5 de setiembre, dirigí un email a la AEMPS en el que literalmente les decía que, usando la web arriba mencionada, “en el apartado Lista de homeopáticos autorizados figuran 1290 productos, ¿por qué si hago uso del buscador para profesionales sanitarios de la página CIMA, no puedo localizar ninguno de ellos, ni siquiera ningún fabricante (por ejemplo BOIRON) de esos productos. ¿Estoy buscando mal?. ¿No es éste el lugar adecuado para este consulta?. Si es así, les ruego que me indiquen dónde trasladarla”.

Al día siguiente tenía la respuesta: "CIMA no recoge información sobre los medicamentos homeopáticos autorizados. Es por ello que al hacer consultas (mediante búsquedas sencillas o más complejas) en el buscador de CIMA, en ningún caso va a poder mostrarlos. La información sobre los medicamentos homeopáticos (tanto autorizados como rechazados) se encuentra recogida en el link de la página web de la AEMPS que vemos que Ud. ya maneja. Ahí figura la información relativa a los medicamentos autorizados en formato Excel para facilitar su manejo así como la ficha técnica y prospecto con la información técnica de cada uno de ellos". Y me aclararon que eso es así porque "desde la AEMPS se consideró oportuno mostrar toda la información de los medicamentos homeopáticos agrupada en una misma pestaña de la web para poder tener accesible en un mismo punto las acciones tomadas, medicamentos retirados, los medicamentos autorizados y su ficha técnica y prospecto".

Si visitáis la página de los autorizados podréis comprobar que, entrando tanto en la ficha técnica como en el prospecto aprobado para cada uno de los que aparecen en esa lista, en ambos sitios figura la frase "Medicamento homeopático sin indicación terapéutica aprobada (Directiva 2001/83/CE)". Es decir, lo uno (no aparecer en la base de datos) parece ser consecuencia de lo otro (no tener indicación terapéutica). Al menos para éste que os escribe porque, si hubieran seguido el procedimiento que siguen todos los medicamentos convencionales, aparecerían en el CIMA. Cosa que, como digo, no es el caso para ninguno de los 1290 preparados autorizados como medicamentos homeopáticos por la famosa vía singular o simplificada.

Resumiendo, un sinsentido. Así que parece que después de 22 años de la Directiva europea poco hemos conseguido. Porque, a pesar de estos contrasentidos, 1290 productos homeopáticos se venden como medicamentos aunque no hayan probado su eficacia terapéutica. Si a eso se le añade la reciente declaración de la OMS sobre la llamada Medicina Complementaria, fruto de presiones de países como China o India, puede parecer que hemos perdido la guerra.

O quizás no. Francia eliminó en enero de 2021 el llamado remboursement (o devolución del 30% del valor de los preparados homeopáticos comprados por particulares), lo que ocasionó un descenso importante de las ventas del gigante (francés) de la homeopatía, Boiron, del que aún no se ha repuesto. Sus acciones cayeron en Bolsa hasta este julio cuando, en una operación de pura ingeniería financiera, la familia Boiron, que detenta casi el 80% de las acciones, las reflotó. Pero es un lavado de cara que me dicen algunos entendidos que puede llevar consigo la salida de Bolsa de la empresa. Veremos, el 12 de octubre hay Junta de Accionistas.

Por otro lado, el intento de los colectivos homeopáticos de hacer públicos sus resultados a la manera de la ciencia convencional, han sufrido un par de reveses en los últimos años. En el ámbito español, la Revista Médica Homeopática, que publicaba Elsevier, se cerró en el último trimestre de 2017. Su equivalente en inglés, Homeopathy que, a su vez, tenía sus orígenes en el llamado British Homeopathic Journal, dejó también de publicarse bajo el logo Elsevier en 2018 pero, en este caso, se ha seguido publicando en el grupo editorial alemán Thieme.

Aunque, si hacemos caso al último informe del Journal Citation Reports (JCR), una publicación anual que evalúa el impacto y relevancia de las principales revistas científicas y tal y como se ve a la derecha, la difusión de Homeopathy es muy pequeña, su índice de impacto (1.7) pasa  a 0.5 si no se cuentan las autocitas (los autores se mencionan a si mismos en la bibliografía) y, además, en los últimos años ha caído al último cuartil (Q4) o grupo de las revistas menos valoradas, dentro de la categoría Integrative and Complementary Medicine, no precisamente una de las categorías más prestigiosas de las varias que agrupan a las revistas médicas. Podéis ampliar la imagen clicando en ella.

Y aquí se acaba la coda (agridulce) a la que alude el título.

Leer mas...

sábado, 2 de septiembre de 2023

Dos erupciones volcánicas con consecuencias dispares en el clima

En 1991, la erupción del volcán Pinatubo en las Filipinas inyectó en la atmósfera, entre otras muchas sustancias, unos seis millones de toneladas de dióxido de azufre que llegaron a la estratosfera (entre 10 y 50 km por encima de la superficie terrestre) y que, transformados en aerosoles de sulfato, impidieron la llegada de la luz del Sol a muchas regiones del planeta durante bastante tiempo. La temperatura global de la Tierra disminuyó en más de medio grado en los dos años subsiguientes a la erupción principal (hubo varias).

Pinatubo fue un “experimento” que confirmó que el calentamiento global producido desde mediados del siglo XIX hubiera sido más importante si no fuera por las partículas, en forma de aerosoles, inyectadas en la troposfera (hasta diez kilómetros por encima de la superficie terrestre) y, en este caso, derivadas de la creciente actividad industrial. Partículas de polvo, sal marina, humo, carbón y sobre todo sulfato amónico, generado por reacción de anhídrido sulfuroso y amoníaco. Estas partículas contribuyen, como hemos mencionado, a reenviar al espacio exterior una parte de la energía radiante del sol que, de esa forma, no llega a la superficie y no puede participar del posterior efecto invernadero.

Esa erupción del Pinatubo fue también la causa de que el Premio Nobel de Química de 1995, Paul J. Crutzen, propusiera en 2006 una radical estrategia frente al calentamiento global. Crutzer sugirió inyectar en la estratosfera compuestos de azufre como el anhídrido sulfuroso, el ácido sulfhídrico u otras moléculas con azufre adecuadas para producir aerosoles de sulfato. Aunque se sigue mencionando esa propuesta en libros recientes sobre el CO2 y el cambio climático, lo cierto es que nadie parece dispuesto a afrontar los posibles efectos secundarios de esa estrategia, que se suele unir a la de la captura de CO2 (de la que algún día hablaremos por estos lares) bajo el término Geoingeniería.

Mientras que la mayoría de las grandes erupciones volcánicas se caracterizan por esas emisiones de dióxido de azufre, que enfrían el planeta temporalmente, la erupción del volcán Hunga Tonga-Hunga Ha’apai (Tonga para los amigos) el 15 de enero de 2022 fue inusual porque, a diferencia de la del Pinatubo, liberó a la estratosfera una gran cantidad de vapor de agua (146 millones de toneladas). Tonga inyectó también 0,42 millones de toneladas de dióxido de azufre, muy lejos de las cifras del Pinatubo.

Y precisamente por la gran cantidad de vapor de agua inyectada, el caso del Tonga tendría que tener efectos diferentes a los del Pinatubo en lo que al calentamiento global se refiere. Esas 146 millones de toneladas de vapor de agua aumentaron el contenido del mismo en la estratosfera entre un 10 y un 15 %. Es bien sabido que el vapor de agua es un potente gas de efecto invernadero y, al contrario de los aerosoles de sulfato del Pinatubo, debiera, en el caso del Tonga, contribuir a un adicional calentamiento de nuestro planeta. Ello hace que el volcán Tonga sea particularmente interesante para su estudio científico en el contexto de otras erupciones recientes.

Aunque solo ha pasado un año y ocho meses desde la erupción del Tonga, si uno pone en el buscador de bibliografía ISI Web of Science “Tonga eruption”, la búsqueda le devuelve del orden de 310 documentos científicos, aunque muchos de ellos tienen que ver con el estudio del maremoto que la erupción originó y con otras consecuencias de la misma en el entorno atmosférico, terrestre y marítimo cercano. Si uno acota la búsqueda a “Tonga and climate change” solo aparecen quince artículos posteriores a la erupción.

Uno de ellos ha llamado la atención de algunos medios debido a su título que, como hemos visto hace poco en otro caso, había sido cuidadosamente elegido: “La erupción del Tonga aumenta la posibilidad de una anomalía temporal de la temperatura superficial por encima de 1.5 ºC”. No sobrepasar esta última cifra, como sabéis, es uno de los objetivos de los Acuerdos de París de 2015. El título del artículo ha generado en las redes una cierta discusión sobre si las temperaturas de julio han llegado donde han llegado, a nivel global, merced a la suma del efecto del Tonga con el inicio de una nueva fase de El Niño.

Aunque ha pasado muy poco tiempo para que se puedan sacar conclusiones definitivas. Un artículo en la conocida web CarbonBrief analizaba no hace mucho el posible efecto de la erupción en el calentamiento global, entrevistando a varios de los autores de los artículos publicados hasta entonces. El primer autor del artículo que acabamos de mencionar recalcaba que, a pesar de lo que se pudiera deducir del título de su artículo, “Tonga solo está contribuyendo una cantidad muy pequeña a la anomalía de la temperatura de la superficie hoy en día. No veremos el impacto de Tonga en los eventos de cambio climático como sequías o inundaciones, el efecto es simplemente demasiado pequeño".

Pero hay otro posible efecto del vapor de agua inyectado por Tonga en la estratosfera que preocupa a los científicos. Y es cómo afecte esa inyección al agujero de ozono sobre la Antártida. En esencia, el ozono puede degradarse cuando en la época del invierno austral se forman nubes de cristales de agua sobre cuya superficie el ozono puede reaccionar con átomos de cloro provenientes de los clorofluorocarbonos (CFCs) que, aunque restringidos por el protocolo de Montreal en 1985 siguen estando en la estratosfera porque se descomponen muy lentamente. Si en ella hay más vapor de agua por la erupción, más nubes de cristales podrán formarse y habrá más "sitios" sobre los que la degradación del ozono pueda producirse, como explican científicos de la NASA en este artículo de la revista Space.

La gráfica de la derecha (que podéis aumentar clicando sobre ella), muestra que el tamaño del agujero de ozono ha crecido en los años más recientes. De hecho, su extensión el pasado 5 de octubre de 2022 fue la más alta desde el año 2015, aunque ello no interrumpe una tendencia general a la baja, debido a las variaciones interanuales que se producen en función de lo más o menos fríos que sean los inviernos australes.

Y, además, el proceso correspondiente a 2023 no parece haber empezado muy bien, si hacemos caso a la linea roja de la misma figura, en la que la parte discontinua son predicciones que los científicos adelantan unos pocos días. ¿Está ya haciendo la erupción del Tonga su efecto?. Una búsqueda bibliográfica en la ISI WEB of Science bajo los términos "Tonga eruption and ozone hole" no me ha proporcionado más que un artículo fechado en setiembre del 2022, en el que solo en las conclusiones, se puede encontrar una fugaz alusión a que el vapor de agua del Tonga juegue un importante papel en la degradación de la capa de ozono. Tendremos que esperar a octubre para ver el efecto en la curva de este año.

Así que, por el momento y como en otras ocasiones os digo, “ver venir…”

Leer mas...

jueves, 24 de agosto de 2023

NO WASH: Microplásticos y lavadoras. Un nuevo gazapo en la tele

El pasado 15 de agosto, en el telediario de la noche, una corta noticia se hacía eco de un nuevo movimiento que ya lleva un tiempo en los medios ingleses y que parece que ahora quiere importarse por estos lares. Se llama NO WASH y viene a decir que tenemos que lavar menos la ropa para afectar menos al medio ambiente. En esa filosofía del movimiento hay cosas obvias e indiscutibles sobre usar menos una lavadora: un menor consumo de agua y un menor consumo de electricidad.

Pero, la tercera pata de banco de la noticia era que nuestras lavadoras son una fuente importante de los microplásticos que acaban en el mar y se mencionaba una cifra concreta: el 35% de los microplásticos que se vierten a los océanos son microfibras que se desprenden de nuestra ropa durante la agresión mecánica a la que la sometemos en el lavado. Como la cifra me resultaba increíble para lo que yo se sobre el asunto (y ya sabéis que sé bastante), me he puesto a tirar del hilo y aquí van mis pesquisas.

En las propias imágenes que servían de fondo a la noticia aparecía un documento algo viejuno (setiembre de 2018) del Ministerio que en la última legislatura ha dirigido la Vicepresidenta Ribera (MITECO es su acrónimo) que, efectivamente, afirmaba en su titular que “Un tercio de los microplásticos en los océanos procede de lavar ropa”. En el primer párrafo de ese documento, se citaba como fuente un estudio titulado Engineering Out Fashion Waste (o Ingeniería para eliminar los residuos de la moda), un estudio de la Institution of Mechanical Engineers, una organización internacional de ingenieros, con base en la Gran Bretaña y con más de 120.000 miembros en 140 países.

Si os bajáis el informe, veréis que en el último párrafo de la página 5 se menciona una página de Greenpeace que, en uno de sus primeros párrafos, hace referencia a su vez a un estudio de la Unión Internacional para la Conservación de la Naturaleza (IUCN) con base en Suiza, publicado en 2017 y en el que se menciona la cifra del 35%. Y, con ese estudio, tengo bastante para desmontar lo proclamado por TVE, el MITECO, la institución de ingenieros ingleses y Greenpeace.

El estudio lleva por título “Microplásticos primarios en los océanos”. Y en el adjetivo primarios está la clave de la falacia. Los microplásticos que se vierten al mar se suelen clasificar en primarios y secundarios. Estos últimos, la gran mayoría de los que acaban en el mar, se refieren a basura plástica mal gestionada que, con el tiempo, se va degradando en piezas más pequeñas hasta llegar al tamaño de la micra o el nanometro.

Los microplásticos primarios, por el contrario, son partículas de plástico que provienen fundamentalmente de microesferas añadidas a productos de limpieza, cosmética o odontología y que, a través de las aguas residuales, acaban en el mar. Se incluyen también partículas que se desprenden de los neumáticos de los vehículos de motor y que la lluvia arrastra a las cunetas, posteriormente a los ríos y, finalmente, al mar. Y, en tercer lugar, las microfibras que, desprendidas de nuestra vestimenta, pasan al aire o, en el caso del lavado, a las aguas residuales de nuestros domicilios. Son estas últimas las que, pretendidamente, constituyen el 35% de las micropartículas plásticas que acaban en el mar.

Así que el estudio del IUCN no habla de TODOS los microplásticos que acaban en el mar, sino solo de los primarios y, dentro de ellos de las microfibras de nuestras lavadoras. Un calculo sencillo, usando sus propios datos, indica que de los 12 millones de toneladas anuales de microplásticos que pueden acabar en los océanos y sus inmediaciones, solo 1,5 son microplásticos primarios, el 35% de los cuales serían microfibras derivadas del lavado en lavadoras. O sea, algo más de medio millón de toneladas sobre un total de 12. Lo que supone un 4% (y no un 35%) de todos los microplásticos en el mar. Casi diez veces menos.

Pero es que además, la bibliografía en la que se basa ese informe se ha quedado un poco antigua en 2023. Los autores del informe IUCN toman como base principal un artículo de 2011, el primero que constataba y usaba el término microfibra en el entorno del mar y zonas limítrofes y el primero en atribuirlo al lavado en lavadoras (de hecho, como podéis ver si picáis en el enlace, aparece una lavadora junto al Abstract o Resumen).

Pero desde entonces hay mucha literatura que ha ido consolidando la idea de que las plantas de tratamiento de agua son muy eficaces en la eliminación de las fibras provenientes del lavado en lavadoras (ver aquí) y que las microfibras son omnipresentes en el aire exterior y en el aire del interior de las casas desde donde acaban en el mar merced a su deposición por la lluvia, su acumulación en los ríos y finalmente en el mar.

Y una nota final. Cada vez es más evidente (ver aquí y aquí) que el componente mayoritario de las microfibras en el medio ambiente no son las sintéticas (las que de forma más rigurosa podrían denominarse microplásticos) sino las naturales (algodón, lana, seda, lino) o las semisintéticas (sobre todo fibras celulósicas modificadas, como el rayón o la viscosa). De esto ya hablamos en el Blog hace tres años.

Así que queda mucho por investigar en el tema. Pero dar pábulo al NO WASH sobre la base de la alta incidencia de los microplásticos en el mar derivados de los que se originan en las lavadoras, es una inconsistente serpiente de verano de la que algún tribulete tendría que haberse documentado un poco más antes de desinformar a la población.

Leer mas...

miércoles, 16 de agosto de 2023

La politóloga reconvertida en toxicóloga

Este miércoles 16 de agosto y tras una “sequía” de cuatro años, he publicado una nueva entrada en el Blog Mujeres con Ciencia, coordinado por la profesora del Departamento de Matemáticas de la UPV/EHU Marta Macho Stadler. Un blog que divulga el importante (aunque a veces oscuro o, más bien, oscurecido) papel de las mujeres en el progreso científico. En este caso, mi contribución se ha centrado en la figura de Lois S. Gold (1941-2012), una Doctora en Ciencias Políticas por la Universidad de Stanford que, por circunstancias de la vida, acabó colaborando estrechamente con el bioquímico y toxicólogo Bruce Ames, contribuyendo a la extensión del llamado test de Ames, un método sencillo y barato para investigar el carácter mutagénico de sustancias naturales y sintéticas. Como consecuencia de ello, se convirtió en una autoridad en el ámbito de la toxicología. Si queréis leer la entrada y, ya metidos en gastos, curiosear un poco en otras páginas del Blog Mujeres con Ciencia, no tenéis más que picar en este enlace.

Leer mas...

lunes, 31 de julio de 2023

Alarma que algo queda

El fin de semana de las pasadas elecciones del 23J, una amiga del alma nos hacía llegar su ansiedad por el devenir de las mismas y por una noticia que empezaba entonces a circular por los medios (ella trabaja en uno). Noticia que tenía que ver con un artículo firmado por dos investigadores del Instituto de Matemáticas de la Universidad de Copenhague, bajo el título "Advertencia de un próximo colapso de la Circulación de Retorno Meridional del Atlántico". Lo de las elecciones dejó inmediatamente de ser un problema para mi amiga pero no así lo del colapso. Y estos últimos días he buscado varios argumentos para rebajar su preocupación y son los que voy a resumir en esta entrada.

Rara vez he escrito en el Blog sobre el llamado cambio climático. Solo en temas que me son más próximos, como la denominada acidificación de los océanos, con un fuerte componente químico, me atrevo a compartir lo que yo entiendo. Mi formación de base es la que es, así que a estas alturas de mi provecta edad no me puedo reconvertir en climatólogo (ni siquiera amateur). Pero no oculto que, desde 2009 y dentro de mis posibilidades, sigo todo lo que publica el Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC en su acrónimo en inglés). Y particularmente me interesa lo que publica su Grupo de Trabajo I, encargado de evaluar los conocimientos científicos relativos al cambio climático, tanto en forma de datos experimentales como en predicciones a futuro, simuladas con modelos climáticos. Y si cualquier periodista puede montar un artículo sobre temas complejos de los que no es especialista en cuestión de horas, un servidor, que no tiene sus urgencias, también.

La Circulación de Retorno Meridional del Atlántico (AMOC en su acrónimo inglés) hace referencia, explicado de forma sencilla, a una corriente oceánica que traslada superficialmente aguas calientes hacia latitudes altas del Océano Atlántico y una vez que allí se enfrían bajan, circulando a mayor profundidad, hacia zonas más caliente, donde se vuelven a calentar. Según los autores del artículo mencionado arriba, el colapso de esa circulación se podría producir tan pronto como 2025, aunque extienden la probabilidad hasta 2095. Las consecuencias serían de magnitud sustancial y a nivel global y van desde un significativo enfriamiento del Atlántico Norte (hasta 8ºC) hasta cambios importantes en los regímenes de lluvia en ciertas regiones, además de otros muchos cambios con implicaciones para los ecosistemas. Y sabemos eso porque, gracias a los registros geológicos y otros indicadores, tenemos constancia de que este fenómeno ya se produjo hace unos pocos miles de años y adivinamos las consecuencias serias que tuvo. Así que la ansiedad de mi amiga, que era la primera vez que oía hablar de la AMOC, estaba justificada.

Pero las reacciones de otros científicos relevantes en el estudio de la AMOC a esa alarmante noticia no se han hecho esperar. Jochem Marotzke, Director del Max Plank Institute de Hamburgo, tras sorprenderse de que el trabajo hubiera pasado la revisión por pares en una revista del Grupo Nature y se haya publicado, entendía que "la aseveración de que habrá un colapso de la corriente del océano dentro de este siglo, tiene pies de barro. Aunque los cálculos matemáticos están hechos de manera profesional, los requisitos previos para llevar a cabo esos cálculos son altamente dudosos".

Penny Holliday, Investigadora Principal del OSNAP, un programa internacional de investigación sobre la AMOC, tras reconocer la severidad de lo que ocurriría si tal colapso se produjera, decía que "el título del artículo es más sensacionalista que lo que se puede leer dentro de él". En similares términos, en mayor o menor medida y en declaraciones más técnicas, se han manifestado la gran mayoría de los catorce relevantes científicos consultados por el Science Media Centre, en su intento de clarificar la noticia para el gran público. Algunos de ellos recalcan además algo que los propios autores reconocen en su artículo. Y que no es otra cosa que sus conclusiones contradicen lo publicado en agosto de 2021 en el Sexto Informe del IPCC y, más concretamente, en el noveno capítulo del informe del Grupo de Trabajo I. Si queréis mayor detalle podéis consultar, en el enlace anterior, el último párrafo de la sección 9.2.31 en la página 1239.

Pero tras ese Sexto Informe, la información se va acumulando y los expertos la tendrán que revisar de cara al Séptimo Informe previsto para 2028/2029. Y entre esa información, además del artículo que ha dado origen a esta entrada, habrá muchos más. Por ejemplo, el publicado en febrero de este mismo año por un grupo liderado por Zeke Hausfather. Ese artículo revisaba la literatura existente sobre los llamados elementos de inflexión climática (tipping elements), componentes del sistema de la Tierra que pueden responder de forma no lineal al cambio climático y alcanzar los llamados tipping points (o puntos sin retorno). Entre los diez tipping elements que estudian en esa revisión está la propia AMOC, la génesis de metano por el permafrost o la muerte de la selva amazónica, entre otros. Y el colapso de la AMOC sería un punto sin retorno de ese elemento.

Hausfather es un conocido científico tanto por su relevante participación en el último IPCC (ha sido el impulsor del abandono del escenario climático más extremo, el RCP 8.5), como por su activismo en las redes sociales. En el apartado 2.1 de su artículo se encuentra una detallada revisión de lo que se sabe a este respecto sobre la AMOC. En el subapartado 2.1.2 los autores explican que "Mientras que las evaluaciones de si la AMOC se está debilitando actualmente siguen estando sujetas a cierta incertidumbre, la comunidad investigadora está en gran medida de acuerdo en que un colapso completo de la AMOC a corto plazo es un evento de baja probabilidad".

La pregunta del millón es, ¿por qué un ejercicio matemático puramente teórico, con premisas dudosas según los entendidos, es difundido y tenido en cuenta en todos los medios de los países occidentales y la revisión de Hausfather, que revisaba diez diferentes procesos potencialmente catastróficos, no ha salido en ninguno?.

Pues yo lo tengo bastante claro. El título del artículo de Hausfather y colaboradores es meramente explicativo y anodino: "Mecanismos e impactos de los elementos de inflexión del sistema terrestre" y en su Abstract se dice que su revisión bibliográfica de estudios sobre el tema "sugieren que la mayoría de los elementos de inflexión no poseen el potencial de un cambio futuro abrupto dentro de unos años, y algunos de esos elementos pueden no mostrar un comportamiento de no retorno, sino que responden de manera más predecible y directa a la magnitud del cambio climático". Lo cual no llama mucho la atención. Por el contrario, el artículo que asustó a mi amiga, ya en su título, avisa de un próximo colapso de la AMOC, estableciendo más adelante un intervalo entre 2025 y 2095 de que eso ocurra. Y 2025 está a la vuelta de la esquina.

Como me decía un periodista amigo, que ha escrito sobre el asunto esta pasada semana en su periódico, y al que le comenté que el titular de su información me parecía algo sensacionalista, "pues mi titular será sensacionalista, pero cuando el artículo publicado por los daneses viene ya con esas afirmaciones de fábrica es muy difícil parar la maquinaria". Y así vamos, unas veces por el título o contenido de los artículos y otras por las notas de las oficinas de prensa de las Universidades e Instituciones, siempre hay espacio para reclamar la atención inmediata de los medios.

¿Quiere esto decir que lo publicado por el IPCC o por Hausfather va a misa?. Pues no. Los sistemas caóticos son eso, caóticos, y nadie puede asegurar que en un momento no deriven en una situación incontrolable. Lo mismo que me hizo ver un cardiólogo hace años después de someterme a unas pruebas de esfuerzo: "han salido bien pero eso no quiere decir que cuando empieces a bajar las escaleras de mi consulta no pueda darte un infarto".

P.D. Al día siguiente de la publicación de esta entrada, en el programa Boulevard de Radio Euskadi se entrevistaba a la investigadora senior del artículo sobre el colapso de la AMOC, Susanne Ditlevsen, quien, por cierto, habla bien castellano. Puedes oír la entrevista a partir del minuto 2:20:00 en este enlace. En mi opinión, se han dado cuenta de que han alarmado excesivamente a la población y en la entrevista trata de rebajar esa alarma. Pero que cada cual saque sus conclusiones.

Leer mas...

Powered By Blogger