martes, 28 de noviembre de 2023

A los Bioplásticos les crecen los problemas

A finales de setiembre de este año, los medios de comunicación españoles se hicieron eco de una nota de prensa del Consejo Superior de Investigaciones Científicas (CSIC) en la que se anunciaba la publicación de un artículo de uno de sus Centros (IDAEA en Barcelona) en el que se comparaba la toxicidad de las bolsas fabricadas a base de plásticos compostables con la de las bolsas de plástico convencionales. El artículo es uno más, y no particularmente relevante, de una serie de otros que han ido apareciendo recientemente sobre la toxicidad de los llamados genéricamente Bioplásticos.

Hace ahora tres años, en una entrada sobre esos materiales, me hacía eco de un artículo en el New York Times del conocido periodista en cuestiones medioambientales, John Schwartz, titulado "Por qué biodegradable no es lo que tú piensas". La tesis de ese artículo era que algunos de los envases de plástico con etiquetas “bio” o “verde”, solo se degradan bajo especiales condiciones y que, en algunos casos, pueden llegar a complicar el reciclado de los plásticos convencionales, hoy por hoy mucho más abundantes a nivel global (casi 400 MM de toneladas anuales frente a 2.2 MM de toneladas de los Bioplásticos).

Aprovechaba esa entrada en mi Blog para dejar bien establecidas las diferencias entre los diferentes miembros de la familia de los Bioplásticos. Un 48% de ellos son plásticos derivados de la biomasa pero no degradables, un buen ejemplo de los cuales es el Bio-polietileno (Bio-PE), obtenido a partir de caña de azúcar pero que, al final, es polietileno como el sintético y, por tanto, no biodegradable por muy biomasa que sea su origen.

El otro 52% de esos Bioplásticos son plásticos biodegradables y/o compostables. Obtenidos de la biomasa o puramente sintéticos (cosa que a alguno le  extrañará), todos los compostables son biodegradables pero no todos los biodegradables pueden compostarse. Quien quiera más detalles, puede pasarse por la entrada del Blog arriba enlazada.

Entre las referencias citadas por el artículo del IDAEA-CSIC, las tres última corresponden a tres trabajos publicados por un grupo de investigadores alemanes y noruegos que, a mi entender, son estudios más completos que el del CSIC. Particularmente me voy a servir de uno de 2020, que incluye un número mayor de Bioplásticos comerciales (hasta 42), utiliza técnicas analíticas de última generación y me sirve igual que el del CSIC para fundamentar lo que quiero contar aquí.

En cualquier caso, uno y otro artículo dan una vuelta de tuerca más a las pegas de Schwartz a los Bioplásticos y nos transmiten la idea de que, desde el punto de vista de la toxicidad (algo en lo que Schwartz no entraba), los plásticos biodegradables y compostables, presentes ahora en forma de bolsas en muchos supermercados, quizás sean tan tóxicos (y algunos probablemente más) que los plásticos convencionales, como el más modesto de los polietilenos empleado en bolsas de compra y bolsas de basura de toda la vida.

Y he recalcado el quizás del párrafo anterior porque es muy importante aclarar ya desde el principio que, en ese tipo de estudios y como fase inicial, se realiza una extracción con metanol en las muestras de los plásticos estudiadas, a la búsqueda de aquellas sustancias contenidas en el plástico y que no tienen carácter de tal. Los mismos autores reconocen que empezar así es el peor de los escenarios posibles, porque estamos extrayendo muchas cosas que, probablemente, nunca saldrían del plástico en condiciones de uso realistas, como puedan ser su empleo como filmes, envases o piezas de plástico de todo tipo que, casi nunca, están en contacto con metanol. Pero el metanol es un eficaz medio para extraer todo lo que acompaña al plástico.

En el trabajo de los noruegos y alemanes, haciendo uso de una de las técnicas analíticas más potentes que tenemos los químicos hoy en día, la conocida con el acrónimo UPLC-QTOF-MS/M, se separan los posibles componentes extraídos por el metanol en cada Bioplástico investigado. Y, adicionalmente, se hacen una serie de ensayos biológicos “in vitro” con los diversos extractos en metanol, para evaluar la toxicidad de los mismos.

La UPLC-QTOF-MS/M arriba mencionada permitió a los investigadores detectar mas de 43.000 compuestos químicos en los extractos de metanol de las 42 muestras de Bioplásticos estudiados. En el caso de los Bioplásticos a base de celulosa y almidón, se detectaron hasta 20.000 compuestos diferentes. Otra peculiaridad es que cada muestra de un mismo plástico, era muy distinta de sus hermanas. Por ejemplo, en diez muestras de ácido poliláctico (PLA) investigadas, el número de sustancias detectadas oscilaba entre 880 y 17.000. En cualquier caso, los polímeros basados en plantas, como los fabricados a partir de almidón y celulosa, eran los que más sustancias químicas presentaban.

La mayoría de esos compuestos químicos que han dejado su “firma” en los experimentos con la mencionada técnica no se pudieron identificar químicamente, es decir, no se sabe exactamente qué son. Uno pudiera pensar que esas sustancias son aditivos que se adicionan generalmente a los Bioplásticos para mejorar algunas de sus deficientes propiedades. Ese sería, por ejemplo, el caso de los Bioplásticos a base de almidón que se aditivan en porcentajes importantes para poder fabricar objetos útiles con ellos (es lo que se denomina almidón termoplástico o TPS). Pero eso no es así. Aunque se pudieron identificar algunos aditivos como plastificantes, antioxidantes, etc., la mayoría de las pocas sustancias identificadas no tienen características de aditivo alguno. Así que los autores sugieren que algunos de esos compuestos identificados en estos Bioplásticos derivados de plantas, pudieran provenir de procesos naturales que ocurren en esas plantas, debidos a acciones microbianas, enzimáticas o similares.

En cualquier caso, se hayan podido identificar o no, la gran mayoría de esos compuestos detectados en los extractos, gracias a la extremada sensibilidad de la citada técnica instrumental, están en cantidades ridículas.

Los estudios de toxicidad realizados con los extractos en metanol de los plásticos investigados muestran que la mayoría de ellos exhiben actividad tóxica en los ensayos “in vitro”, siendo particularmente evidente esa toxicidad en el caso, otra vez, de los extractos de polímeros a base de almidón o celulosa (los más “naturales”). Los autores comparan esos datos con los obtenidos en un trabajo anterior con plásticos convencionales, llegando a la conclusión de que el grado de toxicidad de los extractos de unos y otros es comparable.

¿Es este tipo de resultados un potente torpedo en la línea de flotación de los Bioplásticos?. Pues en principio no me parece, porque creo que seguirán proponiéndose como alternativa a los plásticos convencionales, dentro de esa creciente plastifobia que nos asola. Pero si puede ser una piedra más en el tortuoso camino que están siguiendo los Bioplásticos para poder cumplir las expectativas que sobre ellos se tenían hace más de treinta años. Y os lo dice alguien que se ha tirado esos mismos años publicando artículos y dirigiendo tesis sobre estos temas. Pero que cada vez ha ido siendo menos optimista sobre el papel de estos materiales en el inmediato futuro, como ya quedó claro en otras entradas de este Blog. Aunque, como siempre digo, no tenéis por qué hacerme caso.

Pero también os diré que me preocupa muy poco esa teórica toxicidad a la hora de comerme o beberme algo que haya estado contenido en ese tipo de material. Al menos hasta que se demuestre su toxicidad de forma más realista que a base de los extractos en metanol.

Leer mas...

miércoles, 15 de noviembre de 2023

Osos polares y pingüinos emperador

Hace unos pocos años, era habitual ver vídeos de National Geographic, que mostraban a magníficos osos polares intentando desesperadamente saltar de un témpano de hielo a otro en el Océano Ártico. Las imágenes se aderezaban con comentarios (entre otros) de David Attenborough sobre el futuro de los osos polares en el contexto del cambio climático y el deshielo del Océano Ártico. En diciembre de 2017 y en este contexto, se hizo viral un vídeo de un pobre oso esquelético que, posteriormente, la propia National Geographic reconoció que era un viejo oso enfermo a punto de fallecer.

Creo que algunas de las reacciones a ese vídeo, y el propio reconocimiento de la revista, dieron inicio al declive de la hipótesis subyacente en todos esos reportajes previos. Y que no es otra que el deshielo del Océano Ártico, debido al cambio climático, dificulta cada vez más la caza de focas para los osos polares. En consecuencia, pasan hambre y corren el peligro de desaparecer.

A menudo, estos documentales sobre el medio ambiente son deprimentes a pesar de sus magníficas fotografías, porque siempre nos transmiten el sombrío mensaje de la extinción de las especies y la destrucción de la naturaleza. Sin embargo, sabemos que tanto los activistas medioambientales como sus oponentes (por ejemplo, los pueblos que habitan esas extremas latitudes y que viven en contacto con las poblaciones de osos) suelen exagerar sus percepciones. Los mensajes de unos y otros tienden a tener sus raíces más en intereses políticos que en la ciencia y es difícil conocer la verdad de lo que está pasando.

Este vuestro Búho tenía la mosca detrás de la oreja sobre el asunto desde que, de forma casual, caí en el Blog que Susan Crockford, una Doctora en Zoología que ha dedicado más de dos décadas al estudio de la ecología y la evolución de los osos polares. No siempre me ha gustado el tono agresivo con el que la Dra. Crockford escribe sus post, pero como me conozco su tormentosa historia académica, tampoco me extraña.

Además de seguir a la Crockford, yo había buscado por mi cuenta información al respecto en diversas fuentes. Y casi todas coincidían en que mientras que en la década de los setenta, la población de osos polares en el Ártico había caído hasta una cifra preocupante de entre 5000 y 8000 individuos , esa población se había recuperado posteriormente y, ya en 2008, las cifras oscilaban entre 22 000 y 26 000 ejemplares, un aumento del 300% en tres décadas.

Y la razón no es otra que, en 1973, se promulgó una prohibición mundial de la caza de osos polares. Como los osos polares solo se encuentran en cuatro países y todos ellos son países prósperos, la aplicación de esta prohibición tuvo bastante éxito. El resultado fue el aumento del 300% arriba mencionado. Es un ejemplo más que demuestra que los animales son lo suficientemente resistentes como para soportar las variaciones naturales de su hábitat, pero no pueden hacer frente fácilmente a la matanza indiscriminada por parte del hombre, utilizando armas de alta tecnología.

Y cuando yo ya tenía toda esa información en mi mano y casi coincidiendo con el video viral que mencionaba arriba (2017), compré y leí el libro de la Crockford titulado Polar Bear Facts and Myths: A Science Summary for All Ages. El libro se estructura sobre la base de 18 afirmaciones relacionadas con los osos polares que, para esa época, eran habituales en los medios de comunicación, mostrando cuáles de esas afirmaciones responden a hechos reales y cuáles son simples leyendas.

Desde entonces se han producido cada vez menos noticia sobre los osos polares en los medios y RRSS, excepto algunas que describen enfrentamientos entre ellos y los humanos que viven cerca de sus lares. Pero me da la sensación de que, desde el punto de vista de los activistas climáticos, el objetivo osos polares se da por amortizado. De hecho, un artículo publicado el 30 de agosto por The Guardian (conocido por sus tesis pro activas sobre el calentamiento global), lo declara hasta en el título. Y a mi me ha bastado leerlo para darme cuenta de que otros expertos en osos polares, consultados por el periódico, no están muy lejos de las ideas de la Crockford.

Esa declaración de The Guardian no parece casual cuando, en esos mismos días de agosto de 2023, el interés se había focalizado en las colonias de pingüinos emperador que viven en el otro extremo del globo, en las proximidades del continente antártico. Un artículo publicado el día 24 de ese mes hablaba de la muerte de hasta 10.000 polluelos de esa especie en los últimos meses, artículo que tuvo una amplia repercusión en todos los grandes medios de comunicación y redes sociales, como base para extender la idea de que esa especie está en peligro de extinción.

Pero como ya hizo hace unos años en el caso de los osos polares y el tiempo parece haberle dado la razón, la Dra. Crockford, en su tono habitual, parece discrepar. Resumiendo lo dicho en una entrada en su Blog el pasado 27 de agosto (las negritas son mías):

A pesar de la expectación suscitada la semana pasada por el artículo recientemente publicado por Peter Fretwell y sus colegas, no existe ningún fundamento ecológico plausible para proponer que el fracaso reproductivo de una sola temporada en cuatro pequeñas colonias de pingüinos emperador (Aptenodytes fosteri), debido a las condiciones de La Niña -fenómenos no relacionados con las emisiones de dióxido de carbono- sean signos de una futura "cuasi extinción" de la especie. Ninguna de las 282.150 parejas reproductoras de emperadores adultos que se calcula existen frente a la Península Antártica se perdieron en 2022 y los polluelos nacidos en varias docenas de otras colonias de emperadores alrededor del continente antártico sobrevivieron, lo que significa que se trató de un pequeño bache en el camino y no de una catástrofe para la especie.

Falta por ver ahora, si el asunto de los pingüinos evoluciona de manera similar al de los osos polares o, en este caso, la Crockford ha metido la pata. Cosas a seguir para un jubilado a tiempo completo, como un servidor.

Leer mas...

viernes, 27 de octubre de 2023

Sobre la Captura Directa de CO2 desde el Aire

El Informe Especial sobre Calentamiento Global de 1,5 ºC (2018), preparado por el IPCC, a instancia de la Conferencia de Naciones Unidas sobre Cambio Climático de 2015, estableció que, para lograr el objetivo de no sobrepasar ese límite de temperatura con respecto a la llamada época preindustrial, debemos conseguir, para el año 2050, el llamado NetZero en lo que a emisiones de gases de efecto invernadero (GEI) se refiere. Un empeño que el propio informe reconoce que es bastante complicado y que necesita de “reducciones de emisiones ambiciosas” y “cambios rápidos, profundos y sin precedentes en todos los aspectos de la sociedad”.
Además de intentar no emitir más GEIs (fundamentalmente CO2) a la atmósfera, el informe recomienda otras actuaciones como, por ejemplo, la captura directa en el propio lugar de la emisión del CO2 producido por grandes emisores del mismo, como es el caso de acerías, cementeras o industrias químicas. Como las cantidades a captar son grandes hay que pensar en qué hacer posteriormente con ese CO2, de lo que enseguida hablaremos.Pero no debemos olvidar un problema inherente al hecho de que llevemos muchos años vertiendo CO2. Dado su ciclo de vida en la atmósfera, seguirá habiendo en ella, durante mucho tiempo, una cantidad de CO2 superior a la deseable para llegar a alcanzar los objetivos que se propusieron en 2015 en Paris. Así que necesitamos, adicionalmente, eliminar cantidades importantes del CO2 que actualmente ya se encuentran en la atmósfera.

Para hacerlo hay soluciones o métodos que podemos llamar naturales como plantar más árboles, auténticos sumideros de ese gas. O, aun mejor, gestionar eficientemente todo lo que tiene que ver con el suelo, los bosques y los cultivos. Pero los cálculos parecen indicar que eso tampoco sería suficiente. Así que, de esa necesidad de hacer algo más, surge la tecnología denominada Captura Directa de Aire, también conocida por sus siglas en inglés, DAC.

Explicado de forma sencilla, la cosa consistente en capturar grandes cantidades de aire por medio de esa especie de ventiladores invertidos que veis en la foto que ilustra esta entrada, eliminar el CO2 presente en él (que como sabéis, solo supone el 0,04% del aire), devolver el aire sin dióxido de carbono a la atmósfera y utilizar el CO2 así obtenido en diversas aplicaciones (p.e. en la fabricación de combustibles sintéticos para aviación, fabricación de plásticos, etc.) o, al igual que el capturado en grandes emisores que mencionaba arriba, almacenarlo geológicamente.

Evidentemente, todo esto parece demasiado sencillo para que sea verdad. Se necesita buscar esos lugares geológicos donde almacenarlo (y donde lo más probable es que haya oposición ciudadana) y buscar nuevas aplicaciones de empleo de ese CO2 para no acumularlo sin fin . Y, si al final le damos un uso, se necesitarán extensas redes de gaseoductos para distribuir ese CO2 a los lugares que vayan a emplearlo, además de adecuados estudios sobre la viabilidad económica de todo ello.

Pero uno ha sido profesor de Termodinámica durante muchos años. Y, en el caso de la DAC, hay un aspecto ligado a la energía del proceso que me intrigaba. Incluso había pergeñado una serie de cálculos al respecto cuando, de repente, me encontré con un artículo que confirmaba mis hipótesis (o, al menos, el autor pensaba en similares términos a los míos). Estaba en el blog The Climate Brinck, alojado en Substack (la plataforma a la que me estoy aficionando un montón). Un blog que comparten dos climatólogos muy conocidos y próximos al IPCC (Andrew Dessler y Zeke Hausfather) aunque, en lo relativo al artículo del que estamos hablando, el autor es el primero.

La Termodinámica permite simular muchos procesos que ocurren en la Naturaleza de forma muy simplificada. Y con la peculiaridad de que, al hacerlo, se puede evaluar la forma más eficiente, en términos energéticos, del proceso simulado. Y así, en el caso de la tecnología DAC, ésta puede modelarse en dos procesos diferenciados. Uno implica la separación del CO2 desde el aire que lo contiene y el otro comprimirlo hasta una presión alrededor de 100 veces la presión atmosférica, que sería la adecuada para almacenarlo en algún depósito geológico. Los que conocen algo de Termodinámica saben que, para hacerlo, hay que definir los llamados estados iniciales y finales del proceso, la trayectoria reversible entre ambos, funciones de estado que, como la energía libre de Gibbs, cuantifican la energía implicada en el proceso y cosas similares. Pero eso se queda para los profesores que quieran usar la entrada a la que me estoy refiriendo para plantear un problema sencillo de Termo a sus estudiantes.

El resultado, en el caso de la separación, es que necesitaríamos 500 kilojoules (kJ) para separar 1 kilo de CO2 del aire. Si quisiéramos eliminar los cuarenta mil millones de toneladas de CO2 que actualmente se emiten cada año, necesitaríamos del orden de 2x10(19) J cada año, lo que corresponde a la energía suministrada durante ese año por el equivalente de 300 presas Hoover, una presa gigantesca situada en el curso del río Colorado. O la proporcionada anualmente por 350 centrales nucleares como la de Almaraz. Y si ahora calculamos la energía necesaria para comprimir todo ese gas a 100 atmósferas, necesitaríamos un 50% adicional de la energía anterior. En total, y si hacemos los cálculos necesitaríamos aproximadamente el 6% de toda la energía consumida anualmente por la humanidad. O, en términos de potencia eléctrica, alrededor de un Teravatio (TW).

Pero, y esto es lo más importante, ese es el valor más pequeño que puede esperarse en virtud de las simplificaciones termodinámicas que hemos realizado para obtenerlo. De ahí hacia arriba, todo dependerá de los procesos realmente implicados. Algunas de las compañías que están liderando la investigación en este campo estiman que ese gasto energético podría multiplicarse por diez. Y, evidentemente, solo podría hacerse a partir de energías renovables como la eólica, la fotovoltaica, la hidroeléctrica, la geotérmica, etc. Porque, si tuviéramos que usar combustibles fósiles para obtener la energía necesaria, sería la pescadilla que se muerde la cola.

Así que no es extraño que Dressler termine su entrada diciendo que aunque su intención “no es abogar a favor o en contra de la DAC, los beneficios que de ella se derivarían serían de tanto calado como los obstáculos técnicos, económicos o industriales a abordar”. Y, como buen seguidor de las conclusiones del IPCC, argumenta que “nuestra prioridad debe ser descarbonizar nuestra economía”.

Lo que, visto lo visto por el momento, no es tampoco una cuestión baladí.

Leer mas...

viernes, 6 de octubre de 2023

Obesógenos: Fat is in the air. Una entrada invitada(*)

Durante la Primera Guerra Mundial, las autoridades militares francesas estaban desconcertadas: numerosos trabajadores de sus fábricas de municiones comenzaron a sufrir un misterioso adelgazamiento, acompañado de hipertermia extrema de hasta 45ºC, que causó más de 35 muertos y cientos de afectados. Los supervivientes no paraban de adelgazar por mucho que comieran. Solo recuperaban peso cuando trabajaban lejos de las municiones. El asunto quedó archivado y no se estudió en profundidad. ¿Qué importaban unas decenas de muertos al año cuando en la primera batalla del Marne murieron 80.000 soldados franceses en una sola semana?

En 1933, el farmacólogo americano Maurice L. Tainter investigó el asunto y halló la causa. Los obuses franceses utilizaban ácido pícrico (2,4,6-trinitrofenol) como explosivo y en su preparación mediante nitración del fenol se producía un subproducto, el 2,4-dinitrofenol (DNP) que, administrado en pequeña cantidad a ratas de laboratorio, recapitulaba la anorexia e hipertermia de los trabajadores franceses. Hoy sabemos que el DNP es uno de los anoréxicos más potentes que existen y que una pequeña cantidad del mismo, ingerido o inhalado como polvo durante un breve período, inhibe la formación de ATP (Trifosfato de adenosina)en las mitocondrias, bloquea la síntesis de proteínas, estimula el consumo de oxígeno y provoca una hipertermia descontrolada. Lo importante es que el caso del DNP puso de manifiesto que la presencia ambiental de ciertas moléculas sintéticas puede alterar, significativamente, la masa corporal con independencia de la alimentación o el ejercicio.

Pasaron las décadas y la penosa delgadez de comienzos del siglo XX ha sido reemplazada por la denostada “pandemia de obesidad” actual. Por consiguiente, solo era cuestión de tiempo que surgiese la pregunta: ¿podrían algunos productos químicos presentes en nuestros entornos laborales, urbanos, alimentos, etc… provocar el efecto contrario al de DNP? Es decir, ¿podrían añadir una obesidad “extra” a la que nos corresponde por dieta y ejercicio? Esta idea es muy intuitiva y se ha concretado en la llamada hipótesis de los productos obesógenos,que ha sido recogida en artículos de revisión como éste publicado en la revista Journal of Pharmacology.

A pesar de que en las conclusiones del artículo los autores acaban admitiendo que la obesidad humana es un proceso multifactorial y que, en la práctica, es virtualmente imposible distinguir claramente el “efecto obesógeno” de otros factores como la sobrealimentación, el desequilibrio nutricional, la falta de ejercicio o los factores genéticos, no por ello dejan de preconizar la prohibición o drástica limitación de los obesógenos como medida preventiva para combatir la obesidad global.

El problema es que los obesógenos forman parte de muchos productos que usamos diariamente como detergentes, alimentos, envases de plástico, ropa, cosméticos, etc…, lo que dificulta sortear sus efectos. A día de hoy, y como se recoge en este artículo de divulgación (basado en gran parte en el anterior), en torno a 50 productos químicos han sido etiquetados por algunos endocrinólogos como obesógenos o potenciales obesógenos. Entre ellos están el famoso bisfenol A (BPA), de cuya vida y milagros ya se habló en este Blog (ver aquí y aquí), los bifenilos policlorados, los ftalatos, los éteres de polibromodifenilos, las sustancias perfluoroalquiladas y polifluoroalquiladas, los parabenos, la acrilamida, los alquilfenoles, el dibutilestaño o algunos metales pesados como el cadmio y el arsénico.

En el laboratorio se ha comprobado que, por ejemplo, el BPA es un disruptor endocrino que activa los adipocitos encargados de almacenar grasa y aumenta perceptiblemente el tejido adiposo blanco en animales, lo cual apoyaría la hipótesis obesógena. Sin embargo, para justificar los resultados experimentales, los autores necesitan invocar las denominadas dosis-respuestas no-monotónicas; es decir, que la acción de esos obesógenos no iría disminuyendo a concentraciones cada vez más bajas, como suele ser lo habitual, sino que, a partir de un determinado valor, esas sustancias podrían tener a bajas concentraciones un mayor efecto que a altas.

La naturaleza química de los compuestos obesógenos es otro de los puntos más llamativos de la hipótesis. Los 50 compuestos mencionados arriba también son posibles tóxicos a través de mecanismos de acción que nada tienen que ver con la obesidad. No se sabe si tras su absorción, y a las concentraciones fisiológicas en tejidos humanos, actúan realmente como obesógenos o no.

Además, resulta sorprendente que decenas de miles de moléculas de nuestro entorno natural, procedentes de animales, vegetales o minerales, nunca se hayan identificado como inequívocamente obesógenos, excluyendo los propios alimentos grasos o los azúcares. Tampoco se ha descubierto hasta ahora ningún compuesto sintético con una actividad claramente obesógena comparable a la que tiene el DNP arriba mencionado para la anorexia.

En fin, el tiempo dirá si la hipótesis obesógena va engordando o adelgazando, pero si os hacen un comentario impertinente acerca de esa barriguita que se adivina bajo el niqui, ahora tenéis algunos “químicos” a los que echar la culpa.

(*) El Prof. Jesús M. Aizpurua es un viejo amigo, al que llegué a dar clase en los primeros años de mi Facultad. Hoy es Catedrático de Química Orgánica en la misma. Un especialista en el diseño y la síntesis de nuevos compuestos mediante la llamada Click Chemistry, es un relevante científico de la UPV/EHU. Y un decidido emprendedor en la aplicación de su investigación, como lo demuestra el que sea el Director Científico de la empresa Miramoon Pharma S.L., entre cuyos productos se encuentra el novedoso candidato a fármaco PM-004, destinado al tratamiento no invasivo de la retinosis pigmentaria.

Leer mas...

miércoles, 27 de septiembre de 2023

Tablas de cortar alimentos y microplásticos

Hace unas semanas, una pequeña columna en el suplemento Vivir del Diario Vasco (y supongo que de otros periódicos de Vocento) alertaba de los peligros escondidos en algo tan habitual como cortar alimentos sobre una tabla de plástico. Según esos resultados, decenas de millones de partículas (o microplásticos) se desprenden cada año merced a esas operaciones, partículas que podríamos ingerir y así estar expuestos al riesgo de que (sic) “sean tóxicas”.

Como siempre en estos casos, este vuestro Búho se ha ido al artículo original, publicado en una conocida revista de la American Chemical Society (ACS), sociedad en la que tengo ya categoría de Emeritus (tras 40 años pagando la cuota anual). Y me he puesto a leerlo como si yo fuera uno de los referees (revisores) que tuvieron que dar el placet para que el artículo se publicara, una labor que he hecho durante años para las más importantes revistas de polímeros.

Ahora que ya estoy jubilado puedo decir que hacer de referee es un auténtico peñazo. Nunca me han pagado por ello, el editor que te manda el manuscrito lo quiere revisado para ayer y, muchas veces, eres un dudoso experto sobre la temática del artículo que te envían. Este no es el caso. No ha habido urgencias de editor alguno, vosotros me pagáis con solo leer esta entrada y de microplásticos tengo siempre hechos los deberes (la bibliografía actual). Así que vamos a darle una vuelta al artículo en cuestión.

Los autores del mismo ponen a seis ciudadanos con un cuchillo delante de tres tipos de tablas de cortar, dos de ellas de plásticos distintos (polietileno y polipropileno) y una tercera de madera. Les hacen ejecutar en cada tabla seis ciclos distintos, cada uno de ellos de 500 cortes, sobre las superficies en cuestión. Tras cada ciclo, pasan medio litro de agua por las superficies resultantes para recoger las partículas que se hayan podido desprender, filtran el líquido así obtenido, secan el filtro y pesan las partículas. Cuentan también esas partículas bajo un microscopio, caracterizan su forma, tamaño, etc.

Una de las cosas en las que siempre me fijaba al revisar un artículo era la bibliografía, al entender que, de alguna forma, las referencias allí listadas suponían puesta al día del estado de la cuestión sobre la que versaba el artículo. En este caso, y dado que se trata de una aportación sobre la cantidad de microplásticos que podemos ingerir a través de la alimentación, me ha sorprendido que entre las 91 referencias bibliográficas utilizadas, sólo dos (la 49 y la 74) sean publicaciones del grupo de Albert A. Koelmans de la Universidad de Wageningen en Holanda.

Además de haber publicado muchas contribuciones científicas sobre el tema, Koelmans coordinó un informe publicado en abril de 2019, encargado por la Unión Europea a la denominada SAPEA (un Consorcio que representa colectivamente a las Academias y Sociedades científicas europeas), en el que se abordaban los aspectos estrictamente científicos de los efectos de los microplásticos en el medio ambiente y en los seres vivos, incluidos los humanos. Además, y aún más importante en este caso, el grupo de Koelmans publicó un trabajo en marzo de 2021, que exploraba la bibliografía existente sobre la evaluación de la masa de microplásticos ingerida per cápita y día por niños y adultos, así como lo que ocurre posteriormente con esas micropartículas en nuestro organismo (cuántas partículas expulsamos, cuántas se acumulan, etc.). Un artículo que a mi me parece de referencia obligada y del que ya he hablado en este Blog.

Resulta sorprendente que aunque los autores citen ese artículo (referencia 49), no lo hagan en un contexto comparativo de sus propios resultados, sino para mencionar los posibles disruptores endocrino que los microplásticos pudieran contener en forma de monómeros y todo tipo de aditivos y que pudieran migrar de ellos a nuestro organismo en diversas condiciones. Y digo que resulta sorprendente porque el grupo de Koelmans ha demostrado, por activa y por pasiva en diversos trabajos (ver aquí el más importante), la irrelevancia de los microplásticos como vectores de ese tipo de contaminación química.

Volviendo a los resultados y ciñéndome, por no hacer esto muy largo, a los resultados obtenidos con las experiencias de corte sobre tablas de polietileno, las más habituales en muchas cocinas occidentales, los autores observan que el número y la masa de partículas que se desprenden parecen ir aumentando a medida que van pasando los 6 ciclos de 500 cortes que los cortadores ejecutan. Una conclusión aparentemente razonable pero que es bastante discutible cuando se ve el uso que de ella se hace.

Porque los resultados de esas medidas con los seis primeros ciclos se ajustan a una recta (regresión lineal) y gracias a ese ajuste, los autores van calculando el número y la masa de las micropartículas de plástico que, día a día, se irían generando desde el séptimo día hasta el tricentésimo sexagésimo quinto. Y luego suman los resultados de esos 365 días del año para calcular los microplásticos generados a lo largo de un año y a los que se supone estamos expuestos.

Es decir, con solo seis medidas experimentales (seis días), extrapolan a lo que, en principio, pasa en los 359 días del año restantes. Si algo he insistido siempre a mis estudiantes es que ojito con las extrapolaciones y más cuanto más lejos te vayas del intervalo medido. Sobre todo, en este caso, si consideramos la información suplementaria (por ejemplo la Tabla S10) que se suministra con el artículo y que casi nadie comprueba. Allí puede verse que los coeficientes de regresión distan mucho de un comportamiento lineal que permita extrapolación tan extendida. Algo más técnico y que para entenderlo hay que saber algo de estadística, pero ya sabéis que el Búho es de fiar y no os engaña.

Segundo, algo más de andar por casa y que mis amigos cocinillas pueden considerar. ¿De verdad ejecutamos 500 cortes sobre la tabla de cortar todos los días de un año?. En mi casa desde luego no. Ni por día ni, probablemente, por semana. Tercero, ¿todas las micropartículas generadas se adhieren inmediatamente a lo que cortamos y de ahí van a nuestro organismo?. Pues creo que tampoco. Por ejemplo, muchas de las cosas que en casa cortamos son verduras, una parte importante de las cuales cocemos en agua que luego en gran parte desechamos.

Así que su estimación de que al año estamos “expuestos” a entre 7 y 51 gramos de polietileno en forma de microplásticos provenientes del corte en tablas de ese plástico me parece una cifra excesiva. Ello implicaría entre 135 y 1000 miligramos por semana o, en términos de tarjetas de crédito (una “unidad de medida” que se ha hecho popular en la ingesta humana de microplásticos), entre 0.03 tarjetas o 0.2 tarjetas por semana, lejos de la tarjeta por semana que adujeron algunos en su día y que Koelmans y colaboradores desmontaban en el artículo arriba mencionado.

Pero, aún y así, si comparamos la ingesta diaria por persona que los autores calculan (entre 20 y 140 miligramos), eso supone entre 12.000 y 100.000 veces la media estimada por el grupo de Koelmans en su revisión. En la que, además, queda claro que una cosa es la ingestión diaria y otra cosa es la acumulación irreversible en el cuerpo humano de esas micropartículas en una vida media de 70 años. Que no llega a 40 nanogramos, porque la mayoría de lo que ingerimos se va por el váter.

Finalmente, el trabajo que estamos revisando críticamente evalúa también la posible toxicidad de esas partículas, realizando estudios in vitro con células de fibroblastos de ratón, no encontrando efecto adverso alguno. Pero el trabajo no estudia la toxicidad de las partículas desprendidas cuando se usan tablas de corte de madera, a pesar de que, en ese caso, se desprenden muchas más que desde una superficie de plástico, aduciendo simplemente que las de polietileno son las más habituales. Cuando está claro que de la tabla de madera surgirán, probablemente, fibras (polímeros) de celulosa y lignina que, en el caso de esta última, es una potencial fuente de sustancias que los químicos llamamos aromáticas (porque contienen anillos de benceno), en principio más peligrosas que las derivadas del polietileno.

Pero todo esto que acabo de decir son meras conjeturas que habría que comprobar. Lo que es definitivo es que si yo fuera el referee elegido por la revista de la ACS para evaluar el trabajo que nos ocupa, éste no pasaba el corte en primera instancia. Tendrían que aclararme los extremos que os acabo de contar

Y como hoy hace un día espectacular en Donosti y se me alegra el espíritu, os regalo un poco de música.

Leer mas...

lunes, 18 de septiembre de 2023

Regulando la Homeopatía (Coda final)

Como ya expliqué en una entrada del mismo título, en julio del año pasado, la regulación de los productos homeopáticos en España, que vivía en un limbo legal desde 1994, empezó a desperezarse como consecuencia de una Directiva europea que data del año 2001. Aún y así, el Ministerio de Sanidad español se tomó nada menos que seis años para transponer esa Directiva al ámbito español, en el Real Decreto 1345/2007 que, como en la Directiva arriba mencionada, incluía una sección especial regulando el procedimiento de autorización, registro y condiciones de dispensación de los medicamentos homeopáticos.

El artículo 55 de ese Decreto establecía una singularidad para los productos homeopáticos de forma que, a la hora de autorizar su venta como medicamentos, habilitaba dos vías. Una, la habitual para cualquier medicamento con indicación terapéutica demostrada y dos, y aquí viene lo singular, un procedimiento simplificado, sólo para productos homeopáticos, para el que no se necesita demostrar su eficacia terapéutica.

El Gobierno español y otros países europeos que no tienen intereses económicos en estos preparados, trataron de eliminar esa vía singular con la oposición de otros, como Reino Unido, Francia o Alemania, que si los tienen. Hasta que, en 2018, estuvo claro que la batalla estaba perdida. Así que el Ministerio de Sanidad español instó a la Agencia Española de Medicamentos y Productos Sanitarios (AEMPS) a poner en marcha el citado procedimiento simplificado y, en abril de 2018, dicha Agencia habilitó un plazo para que los fabricantes de todos los productos homeopáticos que se vendían en las farmacias de España le comunicaran su intención de adecuarse a la Directiva europea y al Decreto español, diecisiete y once años después de sus respectivas promulgaciones.

Finalizado ese plazo, la AEMPS publicó, a finales de octubre de 2018, una resolución que daba cuenta de los productos homeopáticos que habían comunicado esa intención y fijó un calendario para que las empresas titulares solicitaran la correspondiente autorización de comercialización. Solo los productos homeopáticos que se encontraban en esa resolución, en una lista de más de dos mil preparaciones, podían seguirse comercializando hasta que la AEMPS evaluara la documentación y tomara una decisión que les autorizara a venderse como medicamentos homeopáticos, de acuerdo con la normativa que os he explicado arriba. Los que no comunicaron a la AEMPS su intención de adecuarse a la normativa no podían seguirse comercializando y los que estuvieran ya en las farmacias tendrían que ser retirados.

Desde ese octubre de 2018 la AEMPS mantiene una página web en la que se detallan los productos homeopáticos que han sido autorizados a venderse como medicamentos, así como los retirados del mercado, página que he ido consultando periódicamente, comprobando que en lo que respecta a la lista  de autorizados, ésta ha ido creciendo poco a poco. La última actualización que he visto de esa lista, antes de escribir estas líneas, data del 21 de diciembre de 2022 y contiene 1290 productos, aunque son muchos más porque de cada uno de ellos puede comercializarse diversas diluciones de un mismo principio genérico.

Desde que empecé a consultar esa página, he andado un poco mosqueado con una cuestión que , finalmente, parece que he resuelto y de ahí el origen de esta entrada. La AEMPS mantiene el llamado Centro de Información de Medicamentos (CIMA), una base de datos en la que los profesionales sanitarios y la ciudadanía pueden consultar diversos aspectos sobre los medicamentos autorizados por la AEMPS. Si en esa página se pica en el enlace denominado Buscador para profesionales sanitarios, cualquiera puede localizar medicamentos por el nombre comercial, el principio activo que contienen, la empresa que lo fabrica o el llamado Código Nacional, una especie de matrícula de cada medicamento.

Pues bien, en mis repetidos intentos de usar esa base de datos a la búsqueda de medicamentos homeopáticos, ha sido imposible encontrar en ella ninguno de los que aparecen en el listado de autorizados arriba mencionado. Durante este tiempo he trasladado esta aparente incongruencia tanto a farmacéuticos titulares de oficinas de Farmacia como a profesionales de Farmacia Hospitalaria. Y nadie me ha resuelto el enigma.

Así que el pasado día 5 de setiembre, dirigí un email a la AEMPS en el que literalmente les decía que, usando la web arriba mencionada, “en el apartado Lista de homeopáticos autorizados figuran 1290 productos, ¿por qué si hago uso del buscador para profesionales sanitarios de la página CIMA, no puedo localizar ninguno de ellos, ni siquiera ningún fabricante (por ejemplo BOIRON) de esos productos. ¿Estoy buscando mal?. ¿No es éste el lugar adecuado para este consulta?. Si es así, les ruego que me indiquen dónde trasladarla”.

Al día siguiente tenía la respuesta: "CIMA no recoge información sobre los medicamentos homeopáticos autorizados. Es por ello que al hacer consultas (mediante búsquedas sencillas o más complejas) en el buscador de CIMA, en ningún caso va a poder mostrarlos. La información sobre los medicamentos homeopáticos (tanto autorizados como rechazados) se encuentra recogida en el link de la página web de la AEMPS que vemos que Ud. ya maneja. Ahí figura la información relativa a los medicamentos autorizados en formato Excel para facilitar su manejo así como la ficha técnica y prospecto con la información técnica de cada uno de ellos". Y me aclararon que eso es así porque "desde la AEMPS se consideró oportuno mostrar toda la información de los medicamentos homeopáticos agrupada en una misma pestaña de la web para poder tener accesible en un mismo punto las acciones tomadas, medicamentos retirados, los medicamentos autorizados y su ficha técnica y prospecto".

Si visitáis la página de los autorizados podréis comprobar que, entrando tanto en la ficha técnica como en el prospecto aprobado para cada uno de los que aparecen en esa lista, en ambos sitios figura la frase "Medicamento homeopático sin indicación terapéutica aprobada (Directiva 2001/83/CE)". Es decir, lo uno (no aparecer en la base de datos) parece ser consecuencia de lo otro (no tener indicación terapéutica). Al menos para éste que os escribe porque, si hubieran seguido el procedimiento que siguen todos los medicamentos convencionales, aparecerían en el CIMA. Cosa que, como digo, no es el caso para ninguno de los 1290 preparados autorizados como medicamentos homeopáticos por la famosa vía singular o simplificada.

Resumiendo, un sinsentido. Así que parece que después de 22 años de la Directiva europea poco hemos conseguido. Porque, a pesar de estos contrasentidos, 1290 productos homeopáticos se venden como medicamentos aunque no hayan probado su eficacia terapéutica. Si a eso se le añade la reciente declaración de la OMS sobre la llamada Medicina Complementaria, fruto de presiones de países como China o India, puede parecer que hemos perdido la guerra.

O quizás no. Francia eliminó en enero de 2021 el llamado remboursement (o devolución del 30% del valor de los preparados homeopáticos comprados por particulares), lo que ocasionó un descenso importante de las ventas del gigante (francés) de la homeopatía, Boiron, del que aún no se ha repuesto. Sus acciones cayeron en Bolsa hasta este julio cuando, en una operación de pura ingeniería financiera, la familia Boiron, que detenta casi el 80% de las acciones, las reflotó. Pero es un lavado de cara que me dicen algunos entendidos que puede llevar consigo la salida de Bolsa de la empresa. Veremos, el 12 de octubre hay Junta de Accionistas.

Por otro lado, el intento de los colectivos homeopáticos de hacer públicos sus resultados a la manera de la ciencia convencional, han sufrido un par de reveses en los últimos años. En el ámbito español, la Revista Médica Homeopática, que publicaba Elsevier, se cerró en el último trimestre de 2017. Su equivalente en inglés, Homeopathy que, a su vez, tenía sus orígenes en el llamado British Homeopathic Journal, dejó también de publicarse bajo el logo Elsevier en 2018 pero, en este caso, se ha seguido publicando en el grupo editorial alemán Thieme.

Aunque, si hacemos caso al último informe del Journal Citation Reports (JCR), una publicación anual que evalúa el impacto y relevancia de las principales revistas científicas y tal y como se ve a la derecha, la difusión de Homeopathy es muy pequeña, su índice de impacto (1.7) pasa  a 0.5 si no se cuentan las autocitas (los autores se mencionan a si mismos en la bibliografía) y, además, en los últimos años ha caído al último cuartil (Q4) o grupo de las revistas menos valoradas, dentro de la categoría Integrative and Complementary Medicine, no precisamente una de las categorías más prestigiosas de las varias que agrupan a las revistas médicas. Podéis ampliar la imagen clicando en ella.

Y aquí se acaba la coda (agridulce) a la que alude el título.

Leer mas...

sábado, 2 de septiembre de 2023

Dos erupciones volcánicas con consecuencias dispares en el clima

En 1991, la erupción del volcán Pinatubo en las Filipinas inyectó en la atmósfera, entre otras muchas sustancias, unos seis millones de toneladas de dióxido de azufre que llegaron a la estratosfera (entre 10 y 50 km por encima de la superficie terrestre) y que, transformados en aerosoles de sulfato, impidieron la llegada de la luz del Sol a muchas regiones del planeta durante bastante tiempo. La temperatura global de la Tierra disminuyó en más de medio grado en los dos años subsiguientes a la erupción principal (hubo varias).

Pinatubo fue un “experimento” que confirmó que el calentamiento global producido desde mediados del siglo XIX hubiera sido más importante si no fuera por las partículas, en forma de aerosoles, inyectadas en la troposfera (hasta diez kilómetros por encima de la superficie terrestre) y, en este caso, derivadas de la creciente actividad industrial. Partículas de polvo, sal marina, humo, carbón y sobre todo sulfato amónico, generado por reacción de anhídrido sulfuroso y amoníaco. Estas partículas contribuyen, como hemos mencionado, a reenviar al espacio exterior una parte de la energía radiante del sol que, de esa forma, no llega a la superficie y no puede participar del posterior efecto invernadero.

Esa erupción del Pinatubo fue también la causa de que el Premio Nobel de Química de 1995, Paul J. Crutzen, propusiera en 2006 una radical estrategia frente al calentamiento global. Crutzer sugirió inyectar en la estratosfera compuestos de azufre como el anhídrido sulfuroso, el ácido sulfhídrico u otras moléculas con azufre adecuadas para producir aerosoles de sulfato. Aunque se sigue mencionando esa propuesta en libros recientes sobre el CO2 y el cambio climático, lo cierto es que nadie parece dispuesto a afrontar los posibles efectos secundarios de esa estrategia, que se suele unir a la de la captura de CO2 (de la que algún día hablaremos por estos lares) bajo el término Geoingeniería.

Mientras que la mayoría de las grandes erupciones volcánicas se caracterizan por esas emisiones de dióxido de azufre, que enfrían el planeta temporalmente, la erupción del volcán Hunga Tonga-Hunga Ha’apai (Tonga para los amigos) el 15 de enero de 2022 fue inusual porque, a diferencia de la del Pinatubo, liberó a la estratosfera una gran cantidad de vapor de agua (146 millones de toneladas). Tonga inyectó también 0,42 millones de toneladas de dióxido de azufre, muy lejos de las cifras del Pinatubo.

Y precisamente por la gran cantidad de vapor de agua inyectada, el caso del Tonga tendría que tener efectos diferentes a los del Pinatubo en lo que al calentamiento global se refiere. Esas 146 millones de toneladas de vapor de agua aumentaron el contenido del mismo en la estratosfera entre un 10 y un 15 %. Es bien sabido que el vapor de agua es un potente gas de efecto invernadero y, al contrario de los aerosoles de sulfato del Pinatubo, debiera, en el caso del Tonga, contribuir a un adicional calentamiento de nuestro planeta. Ello hace que el volcán Tonga sea particularmente interesante para su estudio científico en el contexto de otras erupciones recientes.

Aunque solo ha pasado un año y ocho meses desde la erupción del Tonga, si uno pone en el buscador de bibliografía ISI Web of Science “Tonga eruption”, la búsqueda le devuelve del orden de 310 documentos científicos, aunque muchos de ellos tienen que ver con el estudio del maremoto que la erupción originó y con otras consecuencias de la misma en el entorno atmosférico, terrestre y marítimo cercano. Si uno acota la búsqueda a “Tonga and climate change” solo aparecen quince artículos posteriores a la erupción.

Uno de ellos ha llamado la atención de algunos medios debido a su título que, como hemos visto hace poco en otro caso, había sido cuidadosamente elegido: “La erupción del Tonga aumenta la posibilidad de una anomalía temporal de la temperatura superficial por encima de 1.5 ºC”. No sobrepasar esta última cifra, como sabéis, es uno de los objetivos de los Acuerdos de París de 2015. El título del artículo ha generado en las redes una cierta discusión sobre si las temperaturas de julio han llegado donde han llegado, a nivel global, merced a la suma del efecto del Tonga con el inicio de una nueva fase de El Niño.

Aunque ha pasado muy poco tiempo para que se puedan sacar conclusiones definitivas. Un artículo en la conocida web CarbonBrief analizaba no hace mucho el posible efecto de la erupción en el calentamiento global, entrevistando a varios de los autores de los artículos publicados hasta entonces. El primer autor del artículo que acabamos de mencionar recalcaba que, a pesar de lo que se pudiera deducir del título de su artículo, “Tonga solo está contribuyendo una cantidad muy pequeña a la anomalía de la temperatura de la superficie hoy en día. No veremos el impacto de Tonga en los eventos de cambio climático como sequías o inundaciones, el efecto es simplemente demasiado pequeño".

Pero hay otro posible efecto del vapor de agua inyectado por Tonga en la estratosfera que preocupa a los científicos. Y es cómo afecte esa inyección al agujero de ozono sobre la Antártida. En esencia, el ozono puede degradarse cuando en la época del invierno austral se forman nubes de cristales de agua sobre cuya superficie el ozono puede reaccionar con átomos de cloro provenientes de los clorofluorocarbonos (CFCs) que, aunque restringidos por el protocolo de Montreal en 1985 siguen estando en la estratosfera porque se descomponen muy lentamente. Si en ella hay más vapor de agua por la erupción, más nubes de cristales podrán formarse y habrá más "sitios" sobre los que la degradación del ozono pueda producirse, como explican científicos de la NASA en este artículo de la revista Space.

La gráfica de la derecha (que podéis aumentar clicando sobre ella), muestra que el tamaño del agujero de ozono ha crecido en los años más recientes. De hecho, su extensión el pasado 5 de octubre de 2022 fue la más alta desde el año 2015, aunque ello no interrumpe una tendencia general a la baja, debido a las variaciones interanuales que se producen en función de lo más o menos fríos que sean los inviernos australes.

Y, además, el proceso correspondiente a 2023 no parece haber empezado muy bien, si hacemos caso a la linea roja de la misma figura, en la que la parte discontinua son predicciones que los científicos adelantan unos pocos días. ¿Está ya haciendo la erupción del Tonga su efecto?. Una búsqueda bibliográfica en la ISI WEB of Science bajo los términos "Tonga eruption and ozone hole" no me ha proporcionado más que un artículo fechado en setiembre del 2022, en el que solo en las conclusiones, se puede encontrar una fugaz alusión a que el vapor de agua del Tonga juegue un importante papel en la degradación de la capa de ozono. Tendremos que esperar a octubre para ver el efecto en la curva de este año.

Así que, por el momento y como en otras ocasiones os digo, “ver venir…”

Leer mas...

jueves, 24 de agosto de 2023

NO WASH: Microplásticos y lavadoras. Un nuevo gazapo en la tele

El pasado 15 de agosto, en el telediario de la noche, una corta noticia se hacía eco de un nuevo movimiento que ya lleva un tiempo en los medios ingleses y que parece que ahora quiere importarse por estos lares. Se llama NO WASH y viene a decir que tenemos que lavar menos la ropa para afectar menos al medio ambiente. En esa filosofía del movimiento hay cosas obvias e indiscutibles sobre usar menos una lavadora: un menor consumo de agua y un menor consumo de electricidad.

Pero, la tercera pata de banco de la noticia era que nuestras lavadoras son una fuente importante de los microplásticos que acaban en el mar y se mencionaba una cifra concreta: el 35% de los microplásticos que se vierten a los océanos son microfibras que se desprenden de nuestra ropa durante la agresión mecánica a la que la sometemos en el lavado. Como la cifra me resultaba increíble para lo que yo se sobre el asunto (y ya sabéis que sé bastante), me he puesto a tirar del hilo y aquí van mis pesquisas.

En las propias imágenes que servían de fondo a la noticia aparecía un documento algo viejuno (setiembre de 2018) del Ministerio que en la última legislatura ha dirigido la Vicepresidenta Ribera (MITECO es su acrónimo) que, efectivamente, afirmaba en su titular que “Un tercio de los microplásticos en los océanos procede de lavar ropa”. En el primer párrafo de ese documento, se citaba como fuente un estudio titulado Engineering Out Fashion Waste (o Ingeniería para eliminar los residuos de la moda), un estudio de la Institution of Mechanical Engineers, una organización internacional de ingenieros, con base en la Gran Bretaña y con más de 120.000 miembros en 140 países.

Si os bajáis el informe, veréis que en el último párrafo de la página 5 se menciona una página de Greenpeace que, en uno de sus primeros párrafos, hace referencia a su vez a un estudio de la Unión Internacional para la Conservación de la Naturaleza (IUCN) con base en Suiza, publicado en 2017 y en el que se menciona la cifra del 35%. Y, con ese estudio, tengo bastante para desmontar lo proclamado por TVE, el MITECO, la institución de ingenieros ingleses y Greenpeace.

El estudio lleva por título “Microplásticos primarios en los océanos”. Y en el adjetivo primarios está la clave de la falacia. Los microplásticos que se vierten al mar se suelen clasificar en primarios y secundarios. Estos últimos, la gran mayoría de los que acaban en el mar, se refieren a basura plástica mal gestionada que, con el tiempo, se va degradando en piezas más pequeñas hasta llegar al tamaño de la micra o el nanometro.

Los microplásticos primarios, por el contrario, son partículas de plástico que provienen fundamentalmente de microesferas añadidas a productos de limpieza, cosmética o odontología y que, a través de las aguas residuales, acaban en el mar. Se incluyen también partículas que se desprenden de los neumáticos de los vehículos de motor y que la lluvia arrastra a las cunetas, posteriormente a los ríos y, finalmente, al mar. Y, en tercer lugar, las microfibras que, desprendidas de nuestra vestimenta, pasan al aire o, en el caso del lavado, a las aguas residuales de nuestros domicilios. Son estas últimas las que, pretendidamente, constituyen el 35% de las micropartículas plásticas que acaban en el mar.

Así que el estudio del IUCN no habla de TODOS los microplásticos que acaban en el mar, sino solo de los primarios y, dentro de ellos de las microfibras de nuestras lavadoras. Un calculo sencillo, usando sus propios datos, indica que de los 12 millones de toneladas anuales de microplásticos que pueden acabar en los océanos y sus inmediaciones, solo 1,5 son microplásticos primarios, el 35% de los cuales serían microfibras derivadas del lavado en lavadoras. O sea, algo más de medio millón de toneladas sobre un total de 12. Lo que supone un 4% (y no un 35%) de todos los microplásticos en el mar. Casi diez veces menos.

Pero es que además, la bibliografía en la que se basa ese informe se ha quedado un poco antigua en 2023. Los autores del informe IUCN toman como base principal un artículo de 2011, el primero que constataba y usaba el término microfibra en el entorno del mar y zonas limítrofes y el primero en atribuirlo al lavado en lavadoras (de hecho, como podéis ver si picáis en el enlace, aparece una lavadora junto al Abstract o Resumen).

Pero desde entonces hay mucha literatura que ha ido consolidando la idea de que las plantas de tratamiento de agua son muy eficaces en la eliminación de las fibras provenientes del lavado en lavadoras (ver aquí) y que las microfibras son omnipresentes en el aire exterior y en el aire del interior de las casas desde donde acaban en el mar merced a su deposición por la lluvia, su acumulación en los ríos y finalmente en el mar.

Y una nota final. Cada vez es más evidente (ver aquí y aquí) que el componente mayoritario de las microfibras en el medio ambiente no son las sintéticas (las que de forma más rigurosa podrían denominarse microplásticos) sino las naturales (algodón, lana, seda, lino) o las semisintéticas (sobre todo fibras celulósicas modificadas, como el rayón o la viscosa). De esto ya hablamos en el Blog hace tres años.

Así que queda mucho por investigar en el tema. Pero dar pábulo al NO WASH sobre la base de la alta incidencia de los microplásticos en el mar derivados de los que se originan en las lavadoras, es una inconsistente serpiente de verano de la que algún tribulete tendría que haberse documentado un poco más antes de desinformar a la población.

Leer mas...

miércoles, 16 de agosto de 2023

La politóloga reconvertida en toxicóloga

Este miércoles 16 de agosto y tras una “sequía” de cuatro años, he publicado una nueva entrada en el Blog Mujeres con Ciencia, coordinado por la profesora del Departamento de Matemáticas de la UPV/EHU Marta Macho Stadler. Un blog que divulga el importante (aunque a veces oscuro o, más bien, oscurecido) papel de las mujeres en el progreso científico. En este caso, mi contribución se ha centrado en la figura de Lois S. Gold (1941-2012), una Doctora en Ciencias Políticas por la Universidad de Stanford que, por circunstancias de la vida, acabó colaborando estrechamente con el bioquímico y toxicólogo Bruce Ames, contribuyendo a la extensión del llamado test de Ames, un método sencillo y barato para investigar el carácter mutagénico de sustancias naturales y sintéticas. Como consecuencia de ello, se convirtió en una autoridad en el ámbito de la toxicología. Si queréis leer la entrada y, ya metidos en gastos, curiosear un poco en otras páginas del Blog Mujeres con Ciencia, no tenéis más que picar en este enlace.

Leer mas...

lunes, 31 de julio de 2023

Alarma que algo queda

El fin de semana de las pasadas elecciones del 23J, una amiga del alma nos hacía llegar su ansiedad por el devenir de las mismas y por una noticia que empezaba entonces a circular por los medios (ella trabaja en uno). Noticia que tenía que ver con un artículo firmado por dos investigadores del Instituto de Matemáticas de la Universidad de Copenhague, bajo el título "Advertencia de un próximo colapso de la Circulación de Retorno Meridional del Atlántico". Lo de las elecciones dejó inmediatamente de ser un problema para mi amiga pero no así lo del colapso. Y estos últimos días he buscado varios argumentos para rebajar su preocupación y son los que voy a resumir en esta entrada.

Rara vez he escrito en el Blog sobre el llamado cambio climático. Solo en temas que me son más próximos, como la denominada acidificación de los océanos, con un fuerte componente químico, me atrevo a compartir lo que yo entiendo. Mi formación de base es la que es, así que a estas alturas de mi provecta edad no me puedo reconvertir en climatólogo (ni siquiera amateur). Pero no oculto que, desde 2009 y dentro de mis posibilidades, sigo todo lo que publica el Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC en su acrónimo en inglés). Y particularmente me interesa lo que publica su Grupo de Trabajo I, encargado de evaluar los conocimientos científicos relativos al cambio climático, tanto en forma de datos experimentales como en predicciones a futuro, simuladas con modelos climáticos. Y si cualquier periodista puede montar un artículo sobre temas complejos de los que no es especialista en cuestión de horas, un servidor, que no tiene sus urgencias, también.

La Circulación de Retorno Meridional del Atlántico (AMOC en su acrónimo inglés) hace referencia, explicado de forma sencilla, a una corriente oceánica que traslada superficialmente aguas calientes hacia latitudes altas del Océano Atlántico y una vez que allí se enfrían bajan, circulando a mayor profundidad, hacia zonas más caliente, donde se vuelven a calentar. Según los autores del artículo mencionado arriba, el colapso de esa circulación se podría producir tan pronto como 2025, aunque extienden la probabilidad hasta 2095. Las consecuencias serían de magnitud sustancial y a nivel global y van desde un significativo enfriamiento del Atlántico Norte (hasta 8ºC) hasta cambios importantes en los regímenes de lluvia en ciertas regiones, además de otros muchos cambios con implicaciones para los ecosistemas. Y sabemos eso porque, gracias a los registros geológicos y otros indicadores, tenemos constancia de que este fenómeno ya se produjo hace unos pocos miles de años y adivinamos las consecuencias serias que tuvo. Así que la ansiedad de mi amiga, que era la primera vez que oía hablar de la AMOC, estaba justificada.

Pero las reacciones de otros científicos relevantes en el estudio de la AMOC a esa alarmante noticia no se han hecho esperar. Jochem Marotzke, Director del Max Plank Institute de Hamburgo, tras sorprenderse de que el trabajo hubiera pasado la revisión por pares en una revista del Grupo Nature y se haya publicado, entendía que "la aseveración de que habrá un colapso de la corriente del océano dentro de este siglo, tiene pies de barro. Aunque los cálculos matemáticos están hechos de manera profesional, los requisitos previos para llevar a cabo esos cálculos son altamente dudosos".

Penny Holliday, Investigadora Principal del OSNAP, un programa internacional de investigación sobre la AMOC, tras reconocer la severidad de lo que ocurriría si tal colapso se produjera, decía que "el título del artículo es más sensacionalista que lo que se puede leer dentro de él". En similares términos, en mayor o menor medida y en declaraciones más técnicas, se han manifestado la gran mayoría de los catorce relevantes científicos consultados por el Science Media Centre, en su intento de clarificar la noticia para el gran público. Algunos de ellos recalcan además algo que los propios autores reconocen en su artículo. Y que no es otra cosa que sus conclusiones contradicen lo publicado en agosto de 2021 en el Sexto Informe del IPCC y, más concretamente, en el noveno capítulo del informe del Grupo de Trabajo I. Si queréis mayor detalle podéis consultar, en el enlace anterior, el último párrafo de la sección 9.2.31 en la página 1239.

Pero tras ese Sexto Informe, la información se va acumulando y los expertos la tendrán que revisar de cara al Séptimo Informe previsto para 2028/2029. Y entre esa información, además del artículo que ha dado origen a esta entrada, habrá muchos más. Por ejemplo, el publicado en febrero de este mismo año por un grupo liderado por Zeke Hausfather. Ese artículo revisaba la literatura existente sobre los llamados elementos de inflexión climática (tipping elements), componentes del sistema de la Tierra que pueden responder de forma no lineal al cambio climático y alcanzar los llamados tipping points (o puntos sin retorno). Entre los diez tipping elements que estudian en esa revisión está la propia AMOC, la génesis de metano por el permafrost o la muerte de la selva amazónica, entre otros. Y el colapso de la AMOC sería un punto sin retorno de ese elemento.

Hausfather es un conocido científico tanto por su relevante participación en el último IPCC (ha sido el impulsor del abandono del escenario climático más extremo, el RCP 8.5), como por su activismo en las redes sociales. En el apartado 2.1 de su artículo se encuentra una detallada revisión de lo que se sabe a este respecto sobre la AMOC. En el subapartado 2.1.2 los autores explican que "Mientras que las evaluaciones de si la AMOC se está debilitando actualmente siguen estando sujetas a cierta incertidumbre, la comunidad investigadora está en gran medida de acuerdo en que un colapso completo de la AMOC a corto plazo es un evento de baja probabilidad".

La pregunta del millón es, ¿por qué un ejercicio matemático puramente teórico, con premisas dudosas según los entendidos, es difundido y tenido en cuenta en todos los medios de los países occidentales y la revisión de Hausfather, que revisaba diez diferentes procesos potencialmente catastróficos, no ha salido en ninguno?.

Pues yo lo tengo bastante claro. El título del artículo de Hausfather y colaboradores es meramente explicativo y anodino: "Mecanismos e impactos de los elementos de inflexión del sistema terrestre" y en su Abstract se dice que su revisión bibliográfica de estudios sobre el tema "sugieren que la mayoría de los elementos de inflexión no poseen el potencial de un cambio futuro abrupto dentro de unos años, y algunos de esos elementos pueden no mostrar un comportamiento de no retorno, sino que responden de manera más predecible y directa a la magnitud del cambio climático". Lo cual no llama mucho la atención. Por el contrario, el artículo que asustó a mi amiga, ya en su título, avisa de un próximo colapso de la AMOC, estableciendo más adelante un intervalo entre 2025 y 2095 de que eso ocurra. Y 2025 está a la vuelta de la esquina.

Como me decía un periodista amigo, que ha escrito sobre el asunto esta pasada semana en su periódico, y al que le comenté que el titular de su información me parecía algo sensacionalista, "pues mi titular será sensacionalista, pero cuando el artículo publicado por los daneses viene ya con esas afirmaciones de fábrica es muy difícil parar la maquinaria". Y así vamos, unas veces por el título o contenido de los artículos y otras por las notas de las oficinas de prensa de las Universidades e Instituciones, siempre hay espacio para reclamar la atención inmediata de los medios.

¿Quiere esto decir que lo publicado por el IPCC o por Hausfather va a misa?. Pues no. Los sistemas caóticos son eso, caóticos, y nadie puede asegurar que en un momento no deriven en una situación incontrolable. Lo mismo que me hizo ver un cardiólogo hace años después de someterme a unas pruebas de esfuerzo: "han salido bien pero eso no quiere decir que cuando empieces a bajar las escaleras de mi consulta no pueda darte un infarto".

P.D. Al día siguiente de la publicación de esta entrada, en el programa Boulevard de Radio Euskadi se entrevistaba a la investigadora senior del artículo sobre el colapso de la AMOC, Susanne Ditlevsen, quien, por cierto, habla bien castellano. Puedes oír la entrevista a partir del minuto 2:20:00 en este enlace. En mi opinión, se han dado cuenta de que han alarmado excesivamente a la población y en la entrevista trata de rebajar esa alarma. Pero que cada cual saque sus conclusiones.

Leer mas...

domingo, 16 de julio de 2023

Aspartamo y cáncer

Si los medios de comunicación no tuvieran la manía de usar la palabra cáncer como reclamo visual para que los lectores se decidan a leer o seguir una noticia, la publicación por parte de la Organización Mundial de la Salud (OMS) de los resultados de su evaluación del riesgo y la peligrosidad del aspartamo, un edulcorante sintético que sustituye al azúcar en muchos productos, no hubiera pasado de ser una noticia más o menos anodina. Pero claro, si un medio supuestamente serio como La Vanguardia titula "El edulcorante aspartamo podría causar cáncer de hígado a dosis elevadas", la gente se preocupa, como no es de extrañar. Y si además, el artículo está escrito de forma que induce tanto a la alarma como a la tranquilidad, la gente (y alguno de mis lectores) se mosquea.

El pasado viernes, 14 de julio, el Centro Internacional de Investigaciones sobre el Cáncer (IARC, en su acrónimo en inglés), dependiente de la OMS y el Comité Mixto de Expertos en Aditivos Alimentarios (JECFA), que depende de la propia OMS y de la FAO (el organismo de la ONU para la Agricultura y la Alimentación), publicaron conjuntamente este texto que había venido siendo anunciado por los medios de comunicación desde semanas atrás, asociándolo otra vez a la palabra cáncer.

En el marco del IARC, grupos de expertos internacionales evalúan o reevalúan los conocimientos científicos disponibles en cada momento para hacer una valoración del riesgo que supone un determinado agente químico o biológico, o una actividad en ciertos casos, para producir cáncer. Como resultado, cualquiera de esas sustancias o agentes se clasifica en uno de los cuatro grupos en los que el IARC coloca a las sustancias y actividades susceptibles de provocar cáncer en los humanos. El Grupo 1 engloba a las sustancias cancerígenas para los humanos, el Grupo 2A implica que la sustancia es probablemente cancerígena para el ser humano. El Grupo 2B engloba sustancias posiblemente cancerígenas para los humanos y el Grupo 3, finalmente, agrupa a las no clasificables por su carcinogenicidad para los humanos. Esto es hilar fino con el lenguaje.

La clasificación refleja el nivel de seguridad de los conocimientos que tenemos sobre que un agente sea cancerígeno. Pero no establece en qué cuantía lo es. Tampoco asegura que un agente cause un determinado u otro tipo de cáncer. Sólo refleja que alguien en la literatura, con mayor o menor evidencia, lo haya dicho. La tarea encomendada al IARC es la correcta identificación de riesgos, esto es la identificación de productos o actividades que constituyen un peligro según la literatura, no la valoración de esos riesgos.

Por ejemplo, la clasificación del IARC no implica que los agentes del Grupo 1 sean más peligrosos que los del Grupo 2B, solo que de los primeros existe una evidencia más fiable de que puedan producir cáncer. Tampoco implica que todos los incluidos en un mismo Grupo sean igual de cancerígenos. Por ejemplo, aunque la carne procesada (bacon, por citar algo) y el tabaco están en el mismo Grupo 1, sabemos que fumar es muchísimo más peligroso que comer bacon. Si el periodista de La Vanguardia tuviera esto claro no hubiera escrito el titular que ha escrito, porque el IARC no puede decir que el aspartamo podría causar cáncer de hígado, solo que ha encontrado literatura científica que relaciona lo uno con lo otro. Que no es lo mismo.

Y si ya nos vamos al caso que nos ocupa, el aspartamo es una molécula relativamente complicada para alguien no versado en Química pero que, cuando es asimilada por nuestro organismo, se hidroliza (se rompe) para dar tres moléculas más pequeñas y bien conocidas, dos de las cuales, el ácido aspártico y la fenil alanina, son dos aminoácidos esenciales, es decir, aminoácidos que nuestro organismo necesita si o si, pero que no puede sintetizar por si mismo y que, por tanto, los tiene que extraer a partir del metabolismo de los alimentos. La tercera de las sustancias es el metanol o alcohol de madera, el hermano pequeño del alcohol que ingerimos en las bebidas alcohólicas (etanol).

El ácido aspártico, y algunas de sus sales, se generan en nuestro cuerpo cuando metabolizamos alimentos como los espárragos, los aguacates, los copos de avena, ciertas carnes y un sin fin más. La fenil alanina se produce cuando se metaboliza la leche materna de los mamíferos, pero también cuando consumimos cosas como carne, pescado, huevos, legumbres, frutos secos o soja. Del metanol hablaremos enseguida pero lo más importante es que esas tres sustancias que la ruptura del aspartamo genera en nuestro cuerpo son exactamente las mismas que las que entran en él vía el consumo de alimentos.

Las personas afectados por la enfermedad genética conocida como fenilcetonuria tienen un inconveniente grave si ingieren alimentos que proporcionen fenil alanina. En virtud de ese defecto genético, no disponen de las enzimas que degradan la fenilalanina para producir tirosina, inocua para nuestro organismo. Por el contrario, en esos pacientes, la fenilalanina se degrada para producir otra molécula, el fenil piruvato, una sustancia neurotóxica que afecta gravemente al cerebro durante su desarrollo, de ahí la peligrosidad de consumir alimentos que produzcan fenil alanina en niños de corta edad con esa enfermedad genética. Si os fijáis en las bebidas que llevan aspartamo suele haber un aviso que previene a esos enfermos sobre la peligrosidad de ingerirlo, pero hay otras muchas cosas que, desgraciadamente, ellos no pueden comer.

El metanol es otra cosa. Al generarse por la ruptura del aspartamo se metaboliza después en el hígado dando formaldehído y, posteriormente, ácido fórmico, lo que puede causar muchos problemas en un ser humano, incluida la ceguera, algo que ha pasado en muchos casos con bebidas alcohólicas contaminadas con metanol. Pero hay que aclarar que los humanos estamos ingiriendo metanol continuamente cuando consumimos verduras, legumbres, sidra o zumo de tomate, por mencionar solo algunos, sin que ocurran trastornos dignos de mención, dadas las cantidades que ingerimos. Por ejemplo, hace ya años (en el 2000), investigadores asturianos publicaron un artículo en el que analizaban químicamente las sidras de su región, incluyendo el metanol (denominado MeOH en la tabla 3). Y algunas de esas sidras y sus derivados espirituosos tenían niveles de metanol que podrían inducir a una cierta preocupación si nos pusiéramos en plan medio de comunicación.

Dicho lo cual, volvamos al último informe del IARC sobre aspartamo y cáncer. La importante (y casi única) novedad es que el IARC ha clasificado al aspartamo como posiblemente carcinógeno para los seres humanos, encuadrándolo consiguientemente en el Grupo 2B ya mencionado. En ese grupo están, por ejemplo, los vapores de gasolina y los gases del escape de motores que la usen, los humos de soldadura, las verduras en escabeche o los extractos de hojas de aloe vera. Y se ha incluido al aspartamo en ese Grupo tras establecer "que hay una evidencia limitada para el cáncer en los seres humanos. También se observó evidencia limitada para el cáncer en animales de experimentación y evidencia limitada relacionada con los posibles mecanismos propuestos en literatura por los que el aspartamo pudiera provocar cáncer". Todo ello se ha derivado del estudio llevado a cabo por 25 científicos de 12 países que, paralelamente a la noticia con la que iniciábamos esta entrada, publicaron en The Lancet un artículo del que os dejo el enlace. El artículo se puede bajar gratuitamente pero hay que registrarse para poder hacerlo.

Pero al mismo tiempo, y en el mismo documento en el que se anunciaba esa clasificación del aspartamo por parte del IARC, está lo que decía el JECFA, un comité conjunto OMS/FAO que se dedica a evaluar cuantitativamente el riesgo de las sustancias usadas en alimentación y cosas relacionadas, estableciendo las llamadas ingestas diarias admisibles o cantidades máximas de una determinada sustancia que un adulto de peso medio de 70 kilos puede consumir sin riesgo durante todos los días de una vida media de 70 años.

Pues bien, en esta última entrega el JECFA concluye que los datos evaluados indicaban que no había ninguna razón para cambiar la ingesta diaria admisible del aspartamo, previamente establecida en 40 miligramos por kilo de peso corporal. Por debajo de ese límite el JECFA reconoce que el aspartamo es "inocuo". Y pone como ejemplo que "con una lata de refresco dietético (330 mL) y que contenga 200 o 300 mg de aspartamo, un adulto que pese 70 kg necesitaría consumir más de 9-14 latas (o sea, entre 3 y 4,5 litros al día) de esas bebidas para exceder la ingesta diaria admisible, si no se consumen otros alimentos". De nuevo ese consumo se refiere "a todos los días de una vida de 70 años". Y no se dice tampoco que esas ingestas están calculadas con unos criterios de prevención con respecto a las dosis que realmente causan los primeros daños en animales de experimentación. Así que es casi seguro que ingestas más abundantes tampoco resultarían dañinas.

Esa dosis estaba ya establecida desde hace años, concretamente desde 1981. Años más tarde, una de mis entradas de 2013 se publicó días después de que la Autoridad Europea de Salud Alimentaria (EFSA), reevaluara la toxicidad del aspartamo y confirmara a nivel europeo esa misma cifra. No parece por tanto que la nueva evidencia científica haya cambiado en nada lo que se estableció como seguro hace ya cuarenta años. Lo que el IARC ha hecho es cambiar el estatus del aspartamo en virtud de una evidencia científica que ellos mismos denominan como "no convincente" sobre el cáncer en seres humanos. Utilizando así el principio de precaución en sus decisiones, según el cual más vale prevenir que curar y añadir algo a su lista de carcinógenos.

Pero ya vemos la que montan con ello y con la ayuda de los tribuletes.

Leer mas...

lunes, 10 de julio de 2023

Radiactividad y balnearios

Como otras veces, hemos pasando unos días de vacaciones en la Isla de La Toja, con su Gran Hotel Balneario, sus jabones y colonias, sus vendedoras de abalorios y su pequeño pero encantador Golf que es lo que, con la quietud de la Ría de Arosa, más me llama la atención del lugar. Si a través de un cuidado jardín, uno recorre la corta distancia que hay entre el Gran Hotel y la capilla de San Caralapio, mucho más conocida como Capilla de las conchas, por tener toda su superficie exterior recubierta de conchas de vieiras, uno se encuentra con una escultura de bronce, un tanto cutre para mi gusto, de un burro rebozándose en el suelo.

La escultura recoge una leyenda que tomó cuerpo en 1899 cuando Emilia Pardo Bazán publicó en Ilustración Artística, un periódico semanal barcelonés,  un texto en el que contaba que “a principios del siglo XIX un burro enfermo de un proceso de la piel, fue abandonado por su dueño en la Isla. Al cabo de varios meses, su dueño se vio sorprendido al encontrar a su cuadrúpedo completamente sano y recuperado de las úlceras que padecía”. No es la única leyenda en torno a animales y manantiales que curan. En su Geografía de Guipúzcoa (1918) Serapio Múgica contaba que el conocimiento de las virtudes medicinales del manantial de Guesalaga, que dio origen al Balneario de Cestona, arranca en 1769, “cuando unos perros del Marqués de San Millán, que padecían sarna, se revolcaban en el lodo próximo al manantial, consiguiendo curarse en muy poco tiempo”.

Las aguas termales de La Toja son ricas en sales de calcio, hierro, magnesio o sodio, entre otros y en las de Cestona predomina sobre todo el sodio en forma de cloruro y sulfato pero también calcio, magnesio, litio, potasio y hierro. Pero si buscáis bien, os toparéis con el sorprendente hecho de que, aunque nadie lo mencione ahora, tanto el agua que mana en La Toja como la que lo hace en Cestona son conocidas por su carácter radiactivo.

Algo que pasa en muchas otras aguas españolas. Como se muestra en un artículo publicado en 2020 por el Profesor de Periodismo en la Universidad de Valencia Enrique Bordería, bajo el (para mi) atractivo título “La era del Radium: Radiactividad y publicidad de productos milagro en los albores del siglo XX en España”. En un apartado titulado “La batalla del voltio. Balnearios radiactivos”, se cuenta la desenfrenada carrera que se produjo en los primeros años del siglo XX para demostrar que las aguas de muchos manantiales españoles eran más radiactivas que las del vecino.

Lo de Radium en el título proviene del hecho de que es de esa forma como se denominaba en la época al radio, que el matrimonio Curie había descubierto en 1898. Y lo de voltio porque la radiactividad se medía entonces con unos aparatos denominados electroscopios y las unidades empleadas eran voltios hora litro. Hoy se emplean otras unidades para medir esa radiactividad.

Pero el caso es que casi nada era radio en los balnearios españoles. En un trabajo publicado hace casi treinta años por la Cátedra de Física Médica de la Universidad de Cantabria, los investigadores estudiaban la radiactividad de los balnearios gallegos y aducían que el alto nivel de radiactividad encontrado era sobre todo debido a la presencia en el agua y en el aire del isótopo 222 del radón (Rn-222). Este último se produce abundantemente en el interior de la Tierra, por desintegración del isótopo 226 del radio (Ra-226) que, a su vez, proviene de la desintegración del isótopo 238 del uranio (U-238). El radón (Rn-222) es un gas noble y, por ello, aflora a la superficie a través de grietas o disuelto en aguas de origen profundo. Ayer, cuando ya tenía escrita esta entrada, el Suplemento Semanal del Grupo Vocento hablaba sobre los peligros del radón en ciertas viviendas de determinadas regiones españolas.

Los investigadores cántabros estudiaron la concentración de radón 222 tanto en el ambiente como en agua empleada en los inhaladores de diversos balnearios gallegos. Y La Toja era uno de los que tenía una concentración más alta en el caso de los vahos proporcionados por los inhaladores. Aunque, tras calcular la dosis a la que está expuesto un bañista tras doce sesiones de inhalación, llegan a la conclusión de que se trata de, “dosis de radiación bajas, nunca comparables con las que se emplean en radioterapia, y mediante ellas se intenta aprovechar los efectos estimulantes de las radiaciones ionizantes emitidas por el radón”. Tras lo que se meten en una disquisición sobre los posibles efectos beneficiosos debidos al radón en los balnearios.

Durante mi reciente estancia en La Toja he vuelto a cabrearme con los reclamos publicitarios con los que se anuncian, en el ascensor del Hotel Balneario, los diversos tratamientos que allí se ofrecen. Muchos de ellos son pura pseudociencia y están en línea con los que se ofrecen en muchos, por no decir todos, de los hoy llamados SPAs. Mi natural escéptico hace que nunca se me haya pasado por la cabeza bajar a la planta baja del Hotel y someterme a tales tratamientos.

Pero no he visto que entre tales reclamos se promocionen los tratamientos con aguas radiactivas. Debe pasar lo mismo que lo que contaba en 2014 mi admirado Claudi Mans sobre las aguas de mesa catalanas y que hoy no se puede leer en castellano al haberse cargado el malvado mercado la Revista Investigación y Ciencia (aunque podéis verlo aquí en su versión en catalán). Quedaba claro que, en la etiqueta habitual de los años 40 del agua de Vichy Catalán, donde figuraban los análisis provenientes del sempiterno Laboratorio del Dr. Rodés, se podía leer “Radioactividad: 154 voltios hora litro”. En los 80 ese término desapareció, aunque el agua seguía y sigue saliendo del mismo manantial. Pero ya la radiactividad no mola y aunque en los 40 se pensaba que tenía efectos beneficiosos, ese reclamo fue poco a poco desapareciendo.

Una desaparición muy discreta, como cuando se descubrió que el agua de las fuentes del prestigioso Balneario de Baden-Baden tenía cantidades peligrosas de arsénico y se buscó una alternativa para obviar el inconveniente. Pero el arsénico había estado ahí desde tiempos de los romanos (una de las termas se llama Caracalla en recuerdo del emperador romano que la visitaba). Como el radón.

Leer mas...

Powered By Blogger