martes, 15 de noviembre de 2022

Parabenos diez años después

Nada como un día de San Alberto (patrón de los químicos) para ponerse a escribir una entrada que ya he decidido que le voy a poner la etiqueta Quimiofobia. Hace unos días una lectora me envió un comentario a una entrada en el Blog sobre los parabenos, entrada que tiene la friolera de diez años. Literalmente me decía: "Ni parabenos ni cualquier otro tóxico que pueda ser perjudicial para la piel. No es fácil dar con el desodorante o producto de cosmética ecológica idóneo el cuidado de nuestro cuerpo. Algunos herbolarios o incluso supermercados tienen apartados específicos para este tipo de productos que verdaderamente son ecológicos, BIO y solo usan ingredientes naturales. Una vez que das con ellos y compruebas que funcionan y cubren tus necesidades es una gozada. Yo ya no compro las marcas tradicionales que anuncian en todos los sitios, prefiero pagar algo más y garantizar el cuidado de mi piel (y del planeta)".

A pesar de ser de Hernani, procuro ser bastante discreto y conciliador en mis respuestas a comentarios con los que (como este) discrepo radicalmente. Hice como que no había leído lo de los herbolarios, supermercados y similares, le di las gracias por su comentario, le dije que cada cual se gasta el dinero en lo que quiere y le prometí poner al día el asunto de la toxicidad de los parabenos. Pero el comentario me parece un ejemplo palmario de la Quimiofobia que impera en los ámbitos de la cosmética.

La entrada a la que la lectora hacía referencia se publicó en octubre de 2012 y ponía al día otra de 2010. Voy a tratar de condensar ambas para que no os las tengáis que leer. Los parabenos son ésteres del ácido para-hidroxibenzoíco (PHBA) y es común encontrar nombres como metilparabeno, etilparabeno, propilparabeno o butilparabeno en las etiquetas de muchos productos de cosmética (aquí nos centraremos en los desodorantes) y, también, en alimentos y fármacos, ya que los dos primeros de esa serie están registrados como aditivos alimentarios con su correspondiente código E-. Así que, merced a alimentos y fármacos con parabenos, los ingerimos de manera bastante habitual. Una vez en nuestro tracto gastrointestinal se absorben rápidamente, se hidrolizan en el hígado y los productos que se generan se eliminan por la orina en cuestión de horas.

Tanto en alimentos y fármacos como en cosmética, el papel de los parabenos es preservar esos productos contra la acción de determinados microorganismos que puedan contaminarlos y arruinarlos. Y se emplean en concentraciones que, rara vez, superan el 0.3% del preparado que sea. Algunos, como el metil parabeno, se encuentran en productos naturales como las fresas que nos comemos, aunque los parabenos que se emplean en cosmética se sintetizan en su casi totalidad.

En 2004, un grupo encabezado por Philippa Darbre, de la Universidad de Reading en Inglaterra, publicó un artículo [J. Appl. Toxicol. 25, 5 (2004)] en el que analizaban 20 muestras extraídas de tumores de mama, encontrando en todos ellas niveles de varios nanogramos por gramo de muestra de los cuatro parabenos ya mencionados y de otros dos más (isobutil parabeno y bencil parabeno). El hecho de que aparecieran los parabenos tal cual y no los productos en los que se suelen descomponer en el tracto gastrointestinal humano cuando se ingieren por vía oral, hizo que los autores formularan la hipótesis de que eran absorbidos directamente a través de la piel en la zona en la que se aplican los desodorantes. Y esa hipótesis ha generado en años posteriores un importante números de publicaciones científicas dedicadas a estudiar diversos aspectos de la toxicidad de los parabenos.

Hoy sabemos (ver, por ejemplo, este informe de los Centros para el Control y Prevención de las enfermedades, CDCs, un prestigioso organismo gubernamental americano) que las enzimas de la piel también metabolizan rápidamente los parabenos y lo convierten en el PHBA del que se derivan. Además, también sabemos que los parabenos que acaban penetrando, lo hacen en grado inversamente proporcional a su tamaño, así que el metil- es el que menos se absorbe, luego el etil-, luego el propil-, etc. Otra característica de los parabenos, que ya el trabajo de la Darbre alertaba es que imitan el comportamiento de los estrógenos, cuyo papel está bien establecido en el crecimiento de los tumores. Pero hoy sabemos que los parabenos son decenas o millones de veces menos potentes, en lo que a actividad estrogénica se refiere, que el estradiol, una hormona sexual importantísima para las mujeres y producida en sus ovarios.

Aseveraciones más explícitas que han ido refutando las tesis de la Prof. Darbre en lo relativo a la relación parabenos/cáncer de mama pueden encontrarse en las páginas de las agencias que velan por nuestra salud como la FDA americana (última pregunta) o la EFSA europea (página 7, apartado 3.1).

Revisiones más recientes, como esta de 2021, dejan claro ya en su resumen inicial que, aunque se hayan publicado estudios sobre la toxicidad de los parabenos en animales y en pruebas in vitro, no pueden tomarse en serio a la hora de discutir los riesgos sobre la salud humana, dadas las poco realistas condiciones en las que esos estudios se han llevado a cabo. También se concluye que muchos estudios han demostrado que los parabenos no son cancerígenos, ni mutagénicos (es decir, no alteran el material genético de las células) ni teratogénicos (no producen alteraciones en el feto durante su desarrollo en el útero). De hecho, los más comunes  (el metil-, el etil- y el propil-) se consideran seguros para su uso en cosmética y farmacia.

Pero da igual. Ya en la entrada de 2010 arriba citada, este vuestro Búho aventuraba un negro futuro a los parabenos, a pesar de su eficacia, tradición, precio y de la inocuidad de su uso. Y es una profecía que se ha cumplido. Particularmente en USA, ya casi ningún desodorante contiene parabenos porque la industria cosmética no quiere líos y han ido introduciendo nuevos sistemas protectores contra el desarrollo de microorganismos en los cosméticos. Y los contrarios a esa industria, como mi comunicante, prefieren los productos naturales, BIOs y ecológicos que, en cuanto a su seguridad, tendrían que estudiarse con idéntica intensidad y metodologías como las empleadas con los parabenos tras la alerta de la Prof. Darbre.

Y si uno bucea un poco en las páginas de desodorantes sin parabenos puede encontrarse con contrasentidos como los de esta página de BAN, una conocida marca de desodorantes americana. Bajo el título "Parabenos en desodorantes: la verdad que no conoces", se explica prácticamente todo lo que acabo de explicar yo en líneas precedentes. Para, finalmente, proclamar a los cuatro vientos que como quieren asegurarse de que todos sus clientes se sientan seguros usando sus productos y algunos consumidores eligen evitar el uso de parabenos, confirman que ninguno de sus productos los contienen. ¡Toma lógica aplastante!.

Ah, y en cuanto a lo de cuidar el planeta que decía mi comunicante, el mismo documentos de los CDCs, arriba mencionado, explica al que quiera entender que los parabenos no persisten en el medio ambiente ya que se degradan fotoquímicamente en el aire y se biodegradan en el agua.

Leer mas...

lunes, 31 de octubre de 2022

Paneles solares y su reciclado

Esta entrada puede considerarse una continuación de la que escribí hace solo unas semanas sobre el reciclado de las palas de los aerogeneradores. Tras esa entrada, algunos lectores me preguntaron  qué pasaba con los paneles solares y yo me apunté en algún lado el escribir al respecto. Pero como mi memoria es ya la propia de un septuagenario, se me había olvidado. Las pasadas dos semanas hemos andado visitando tierras murcianas y cartageneras y, al ir y al volver, me he vuelto a sorprender con la impresionante granja solar cercana a la cárcel situada en Fontanars dels Alforins y ello ha hecho que, a la vuelta, me ponga con el asunto.

La historia es, de alguna forma, una repetición de lo que ya conté en el caso de las turbinas eólicas. Decía hace poco un artículo publicado en el ACS Central Science que los investigadores y las empresas se están preparando para "un inminente tsunami de residuos fotovoltaicos". Y ello es así, porque la capacidad fotovoltaica se ha multiplicado por 750 en los últimos veinte años y esa energía que proviene del sol genera ya casi el 4% de la electricidad mundial (según cuenta la Agencia Internacional de la Energía). Los paneles fotovoltaicos tienen (igual que los aerogeneradores) una vida útil de unos 25/30 años y se estima que millones de toneladas de estos paneles, ya en desuso, se nos van a ir acumulando en las próximas décadas.

Para ver qué se puede hacer con esos residuos viene bien entender cómo están construidos esos paneles solares. Un panel solar, como el que se ve en la figura que decora el principio de esta entrada, es un conjunto de varios módulos (los rectángulos grandes enmarcados en blanco en esa foto). Y cada módulo es un conjunto de varias células solares (los cuadraditos pequeños). Pero para enterarnos más vamos a destripar uno de los módulos, siguiendo lo que hace la figura siguiente bajo este párrafo, en la que podéis clicar para verla en mayor tamaño.

Un módulo solar es un sandwich de varias capas. El elemento principal (aunque solo suponen el 4% en peso del módulo) lo constituyen las células solares (las coloreadas en azul oscuro) fabricadas, en la mayor parte de los casos, de silicio, aunque pueden usarse otros materiales como el teluro de cadmio, con problemas adicionales por la toxicidad del cadmio.

Las células están interconectadas entre si por hilos de plata, cobre y plomo. Para asegurar su estanqueidad, cada módulo está protegido (¡cómo no!) por dos capas de un polímero denominado genéricamente EVA y que los del ramo llamamos copolímero de etileno y acetato de vinilo. Se trata de un material transparente (la luz tiene que llegar a las células solares) y muy duradero frente a la acción de la luz y el calor. También protege a las celdas de la entrada de humedad, al tener un carácter hidrofóbico.

En la parte que se muestra al sol y sobre el filme de EVA se coloca una capa de vidrio de unos 3 o 4 mm de espesor, especialmente fabricado para resistir todo tipo de impactos que el panel pueda recibir y los cambios bruscos de temperatura. El propio filme de EVA sirve un poco como pegamento entre las células y el vidrio. Por la parte no expuesta al sol, el módulo se recubre de otra capa de polímero, generalmente polipropileno, PET o algún polímero fluorado para asegurar una mayor estanqueidad del conjunto que, finalmente, se enmarca en una estructura de aluminio que protege los bordes del módulo y proporciona una estructura sólida al mismo. Toda la electricidad generada por celdas se recoge en una caja de conexiones.

La pormenorizada (aunque muy simplificada) descripción que os acabo de hacer, viene bien para entender lo complicado del reciclaje de estos paneles que están construidos como para que duren lo más posible, cosa que no pasa como ya hemos dicho. Quitar el marco de aluminio y la caja de conexiones es la parte más fácil. Algo más difícil es despegar el vidrio de las celdas solares y muchas veces los recicladores se limitan a destrozarlo y vender el vidrio contaminado de plástico. Otros tratan de eliminar los plásticos disolviéndolos o aplicándoles calor hasta degradarlos. En cualquier caso, separar la caja de conexiones, el marco de aluminio y el vidrio supone recuperar una parte muy importante de un módulo. Lo que todavía es harto complicado es separar la plata y otros metales de cada una de las células y extraer el silicio que estas contienen.

Algo muy importante. Las obleas viejas de silicio, de unas 200 micras de espesor, no pueden simplemente fundirse y utilizar el fundido para formar nuevas células. Además de restos de metales como la plata, el cobre o el aluminio del marco, esas células contienen los llamados dopantes (boro y fósforo), que juegan un papel fundamental en la captación de la luz solar y su transformación en energía eléctrica. Lo que hace muy complicado llegar a obtener el llamado silicio solar, el adecuado para las células nuevas, que debe tener una pureza mínima del 99,9999% en el mismo. 

Mucha gente está trabajando y mucho dinero se está invirtiendo en aprender a recuperar todo lo que se pueda de estos nuevos artilugios que pueblan nuestros montes y campos. Pero no es una cuestión baladí. Y todo ello sin hablar, porque la entrada se haría larga, del gasto energético que el proceso lleva aparejado.

Leer mas...

jueves, 13 de octubre de 2022

Vinos submarinos

Hace unos días una amiga me regaló una botella de vino blanco de una bodega extremeña. Conocía la bodega y sus buenos (para mi) tintos pero no conocía este blanco. Cuando entré en la ficha de cata del vino en la web de la bodega me encontré con la sorpresa de que lo denominan "vino submarino", la variedad de uva es una "mezcla atlántica de vinos costeros" y, entre otras cosas, se cuenta que las botellas han estado sumergidas ocho meses en la Bahía francesa de Saint Jean de Luz (cerquita de Extremadura como se sabe), a unos ocho grados centígrados de temperatura y una presión de tres bares, lo que implica que las botellas han estado a unos 20 metros de profundidad.

El asunto no era nuevo para mí. Ya había leído cosas sobre la recuperación de botellas o ánforas en barcos hundidos y el buen mantenimiento del vino en ellas guardado. Pero esto es diferente. Hace pocos años se empezó a hablar del envejecimiento intencionado bajo el mar de botellas de vino en un sitio próximo a Plentzia en Bizkaia. O de una bodega que hace lo mismo con unos albariños sumergidos en la ría de Arousa. También algunos vinos canarios se han sumado a la moda. Son producciones muy limitadas y, dados los problemas logísticos que hay que solventar para esa crianza bajo agua, el precio se dispara y uno puede comprar botellas de estas bodegas a precios del orden de los 60/80 €, aunque el vino extremeño que me regalaron era bastante más barato.

Si uno revisa las webs de estas bodegas o los artículos al respecto de algunas conocidas revistas de vino, en ambos sitios se habla de las bondades de tener el vino a esas profundidades. Por ejemplo, otro bodeguero, esta vez en Calpe (Alicante), argumenta que hay cuatro factores presentes en el envejecimiento bajo el agua que son beneficiosos para el vino: "presión, temperatura constante (alrededor de 14 grados), salinidad, ausencia de luz y ruido, y las suaves corrientes constantes del mar". Y que además un envejecimiento de tres meses, a una profundidad de 30 metros, equivale a siete u ocho años de envejecimiento en botella en una bodega tradicional.

Como ya me conocéis y habréis leído mi entrada sobre los vinos biodinámicos, no os extrañará mi escepticismo inicial sobre este nuevo nicho de negocio. Así que voy a tratar de explicar mis objeciones tras hablarlo con mi nariz de oro de referencia, alguien que ya ha colaborado en este Blog escribiendo de cosas del vino y con el que, recientemente, compartí mesa, mantel y un clásico Viña Cubillo de López de Heredia.

Para empezar, lo que se mete en el mar son botellas de vino convencionales. Por ejemplo, en el caso de la Bodega de Calpe, son vinos de la conocida Bodega Enrique Mendoza, como el Estrecho, un tinto 100% Monastrell que ha estado 16 meses en barricas de roble francés. Así que ya tiene todas sus cualidades organolepticas que provienen de la cepa, la tierra, la fermentación y la crianza. Lo que se hace bajo el nivel del mar es el posterior y clásico envejecimiento en botella. Y en ese proceso en botella, es difícil que en el mar, la temperatura, la luz y el ruido sean tan constantes como lo son en los calados riojanos donde las botellas envejecen. Como los de la primitiva Bodega de Federico Paternina en Ollauri (hoy Bodega Conde los Andes) o en las no menos impresionantes pero modernas (2004) instalaciones de Viña Real en Laguardia.

Porque, por ejemplo, la temperatura a las modestas profundidades del mar donde se coloca el vino cambia con las condiciones meteorológicas del exterior. Y la luminosidad, bajo la superficie del mar, oscila entre el día y la noche, las estaciones o la turbidez ocasional del agua. En cuanto a la presión, las botellas de vidrio son recipientes rígidos excepto en la zona del tapón, que podríamos considerar como un émbolo que puede transmitir la presión al interior. Pero, para eso, el tapón tendría que moverse y, para convencerme del efecto de la presión, me la tendrían que medir delante de mis ojos. Y lo mismo pasa con la salinidad. Las botellas son prácticamente estancas porque, en caso contrario, el vino sería cualquier cosa menos vino.

Y, sin embargo, si uno sigue revisando las fichas de cata de estos vinos se encuentra (por ejemplo, en el caso del blanco extremeño) con perlas como "de fragancia sutil, destaca su aroma a maresía que evoca largos paseos junto al mar. Una primera nota salina recuerda a marisco, para dar paso a una nota vegetal propia de algunas especies de algas". O cuando se refiere al paso en boca: "tras una entrada suave, desarrolla toda su expresión con una acidez que confiere a la boca gran tensión, verdadera mineralidad marina".

En una reseña de la revista SelectusWINES sobre el vino producido en Calpe, se cuenta que aunque aún no hay pruebas científicas que puedan avalar las proclamas sobre las peculiaridades de estos vinos, hay Universidades, como la de Almería o la Universidad Católica de Valencia, que han iniciado estudios al respecto. Ya sabéis que una de mis debilidades es la búsqueda bibliográfica de cualquier asunto con ribetes científicos que me mosquee. Y, también en este caso, me he ido a la Web of Science y he hecho las búsquedas pertinentes para ver qué hay por el momento.

Y asi, introduciendo en el buscador el término "wine aging" me salen más de 16000 artículos. Si uso "wine aging in bottle" la cosa se queda en unos 850 y con "underwater wine aging" solo salen 8 que he repasado concienzudamente. Sólo uno de esos artículos tiene que ver con lo que nos puede interesar aquí. Se trata de un ron de Madeira en el que se estudian cambios fisicoquímicos inducidos por una estancia a unos 10 metros de profundidad durante 14 meses, comparándolos con el envejecido a la manera tradicional en botellas y en bodega. Ese ron se obtiene a partir de la fermentación y posterior destilación del zumo del azúcar de caña y se suele también envejecer en barricas de roble. No es un vino al uso, pero es lo que hay por ahora.

Al comparar botellas sumergidas y no sumergidas en el mar, los autores concluían que 14 meses de envejecimiento en el fondo marino inducían cambios perceptibles en las muestras de ron. Se encontró un aumento de las concentraciones de ésteres (particularmente acetato de etilo), junto con la reducción de las concentraciones de algunos alcoholes superiores. Además, se produjeran cambios de color perceptibles por el ojo humano. Por el contrario, ese envejecimiento subacuático no conduce a cambios en los marcadores típicos del envejecimiento del ron en las barricas de roble, ya que la composición de terpenoides y no flavonoides no cambiaban en comparación con las muestras de botellas que no se habían sumergido.

Parece razonable pensar que envejecimientos en botella bajo el agua, en condiciones distintas a las del envejecimiento tradicional en bodega (temperatura y quizás los ciclos luz/oscuridad) puedan generar cambios en algo tan complejo como la evolución química de un vino. Pero de ahí a la "poesía" de algunas fichas de cata.... En cualquier caso, me beberé el blanco de mi amiga con atención y añadiré lo de "underwater wine aging" a la lista de temas que periódicamente reviso en la Web of Science. Y si hay algo relevante aviso.

Leer mas...

jueves, 29 de septiembre de 2022

Ozono, CFCs y otra vez James Lovelock


En una entrada de 2019, hablábamos del papel que, en el fracaso de que la compañía Boeing pudiera lanzar su plan de vuelos supersónicos usando la estratosfera, tuvieron los miedos a que, como consecuencia de esos vuelos, disminuyera la capa de ozono sobre nuestro planeta, con el consiguiente efecto de una menor filtración de las radiación UV y su derivada en forma de los cánceres de piel. Vimos que como posibles causas para una disminución de esa capa estaban los compuestos clorados emitidos por las pruebas con misiles, el vapor de agua generado por los vuelos supersónicos o los óxidos de nitrógeno (NOx) generados por esos mismos vuelos. Estamos hablando de los primeros años de la década de los setenta. Pero en esos mismos años entra en escena nuestro conocido James Lovelock para dar un giro fundamental al asunto del ozono, en lo que se puede considerar la prehistoria de lo que finalmente acabó con la regulación de los gases denominados clorofluocarbonos o CFCs.

En 1972, Lovelock se embarcó en una larga travesía desde su casa en el Reino Unido hasta la Antártida a bordo del buque oceanográfico RRS Shackleton. Lovelock iba provisto de un dispositivo similar al que aparece en la imagen que ilustraba la entrada que le dediqué con ocasión de su reciente fallecimiento (técnicamente un cromatógrafo de gases de la época provisto del detector de captura electrónica inventado por el propio Lovelock).

El objetivo de ese viaje era medir la composición en la atmósfera de diversos productos químicos que se encuentran en ella en composiciones muy pequeñas (trazas), gracias a que la sensibilidad del citado detector permitía medir concentraciones en partes por trillón. Y Lovelock estaba particularmente interesado en medir la concentración de un gas concreto (el triclorofluorometano, CCl3F) que llevaban unos años siendo usado, entre otras cosas, como propelente de envases conteniendo insecticidas, desodorantes y otras sustancias.

La razón de ese interés, tal y como explicaban Lovelock y sus colegas en el artículo [Nature 241, 194 (1973)] en el que contaban sus resultados, radicaba en que habiendo sido descubierto recientemente y siendo extraordinariamente estable, "podía usarse como un marcador para estudiar los procesos de transferencia de masa en la atmósfera y los océanos". Los autores dejaban claro desde el principio que las concentraciones encontradas (unas decenas de partes por trillón) no constituían riesgo alguno y, entre otras conclusiones, apuntaban que la concentración de ese gas iba descendiendo a medida que el RRS Shackleton iba acercándose a la Antártida.

Frank S. Rowland era un profesor de la Universidad de California que andaba esos años a la búsqueda de nuevos temas de investigación. Cuando leyó el artículo de Lovelock le intrigó el hecho de que, dada su estabilidad, todo el CCl3F hasta entonces producido tendría que andar por ahí fuera. Y se preguntó si no existían realmente condiciones en las que ese compuesto pudiera degradarse. O era un compuesto que duraría para siempre (forever). De hecho, aún hoy, se sigue hablando de los compuestos fluorados como los "forever chemicals".

Así que le pasó el asunto a su postdoc mejicano Mario Molina. Quien le sugirió que, efectivamente, parecía no existir ningún sumidero de ese compuesto en la superficie de la Tierra e incluso en la inmediata atmósfera. Pero recordando los primeros miedos sobre el efecto del cloro derivado de las pruebas con misiles en la capa de ozono, propuso a su jefe un mecanismo, posible en la estratosfera, según el cual la intensa luz ultravioleta allí existente rompiera uno de los tres enlaces carbono-cloro y el cloro resultante actuara como catalizador de la destrucción del ozono para dar oxígeno. Y que, además, usando ciertos argumentos ligados a la cinética de esas reacciones, ese efecto sería muy dilatado en el tiempo por lo que para cuando nos diéramos cuenta de que se estaba dando, la destrucción de la capa de ozono sería ya importante.

Estas conclusiones, publicadas en junio de 1974 en el famoso artículo de Rowland y Molina [Nature 249, 810 (1974)], dieron pie a una nueva versión de las alarmas ya citadas sobre la destrucción de la capa de ozono y la posible consecuencia de un incremento en los cánceres de piel, adecuadamente propagada por el propio Rowland en numerosas conferencias de prensa. Pero se encontraron con el incombustible Lovelock quien, solo unos meses más tarde (noviembre 1974) y también en la revista Nature [Nature 252, 292 (1974)], publicaba un artículo de respuesta en el que argumentaba que le resultaba poco creíble que si la única fuente de cloro en la estratosfera fueran el CCl3F y otros CFCs de la familia, el efecto sobre el ozono fuera como para preocuparse en los extremos descritos por Rowland y Molina. Pocos meses después, marzo de 1975, en una respuesta a otro artículo [Nature 254, 275 (1975)] que parecía avalar las tesis de Molina y Rowland, Lovelock replicaba, entre otras cosas, que lo propuesto por estos últimos era solo un modelo "no confirmado por observación directa alguna en la estratosfera". Y aprovechaba la respuesta para proponer otras posibles fuentes de origen natural de cloro, como el cloruro de metilo.

No voy a dar más detalles de la literatura que se generó al respecto en uno y otro lado, pero la cosa degeneró claramente en una "guerra" entre científicos americanos, liderados por Rowland y otros frente a científicos ingleses, cuya cabeza más visible fue Lovelock. Paralelamente, en USA y Canadá, el propio Rowland y algunos políticos empezaron a propugnar medidas para la eliminación completa de los aerosoles a base de CFCs, tratando de implicar a Naciones Unidas para extender globalmente esa prohibición, mientras en Europa había muchas más reticencias al respecto. La controversia duró prácticamente diez años, al final de los cuales incluso llegó a parecer que el cloro en la estratosfera podía formar compuestos con otras sustancias allí presentes (como los óxidos de nitrógeno) y desaparecer como catalizador de la descomposición del ozono.

Pero, en 1985, Joe Farman, un científico perteneciente a la British Antartic Survey (BAS) y que trabajaba en una estación radicada en aquellas remotas latitudes, publicó un artículo[Nature 315, 207 (1985)] en el que daba cuenta de una caída en la concentración de ozono (lo que luego se llamó agujero de ozono) cada mes de octubre, descenso que se correspondía con un incremento de la concentración de CFCs en las extremas condiciones de lo que allí abajo es la incipiente primavera.

Ello reavivó el debate y dio lugar a un par de expediciones científicas a la Antártida para tratar de corroborar las tesis de Farman. En la segunda, en 1987, se empleó un avión especialmente equipado para meterse en la zona en la que se había detectado la anomalía en cuestión y tomar muestras "in situ". El resultado más contundente de los análisis de esas muestras fue que, en las latitudes en las que los científicos de la BAS habían detectado la anomalía, había una relación inversa entre el descenso en la concentración de ozono y el aumento en la concentración del monóxido de cloro, el compuesto que se forma cuando el cloro liberado por la radiación UV a partir de los CFCs, reacciona con ese ozono para dar oxígeno.

Esos resultados tan impactantes (la prueba experimental que pedía Lovelock) coincidieron casi en el tiempo con los intentos de aprobar una prohibición global de los aerosoles a base de CFCs. Y parece que fueron claves en que los escépticos países europeos dieran su acuerdo al llamado Protocolo de Montreal que entró en vigor el 1 de enero de 1989, destinado a reducir los niveles de producción y consumo de la familia de los clorofluorocarbonos (CFCs).

A Rowland y Molina les dieron el Premio Nobel de Química 1995 por su descubrimiento de 1974. Y Lovelock se debió quedar muy chafado con el resultado final de todo el proceso, porque en su libro La venganza de la Tierra no menciona al ozono ni en el índice y, en cuanto a los CFCs, solo los cita en una página, pero en su papel como gases de efecto invernadero.

Leer mas...

sábado, 10 de septiembre de 2022

Polvos de talco, amianto y cáncer

Ese bote verde de polvos de talco Calber que veis a la izquierda me devuelve a mi infancia. En casa de mis padres, cuando era chaval, siempre había uno al alcance de la mano. Lo cual no tiene nada de raro porque ese producto tuvo su origen a principios del siglo XX en Donosti y, más concretamente, en la calle Misericordia 4, donde se radicaba la Perfumería Higiénica Calber. Su publicidad, a base de mujeres y madres con aire parisino, tuvo gran impacto en la época. Ya de Búho mayor, el talco siempre ha estado presente entre nuestros productos de higiene aunque usado de vez en cuando. Pero este agosto ha sido noticia que Johnson & Johnson va a dejar de fabricar en 2023 sus polvos de talco Baby Powder, tras retirarlo en 2020 en los mercados de USA y Canadá. Las noticias, en la mayoría de los medios, relacionan esa retirada con las muchas denuncias presentadas contra la compañía por supuestos casos de cáncer de ovario y la presencia de amianto en ese producto.

Químicamente, el talco es un silicato de magnesio hidratado [Mg3Si4O10(OH)2]. Aunque popularmente se le asocie a los polvos de talco, lo cierto es que ese mineral se utiliza en muchos productos industriales como pinturas, cerámicas, papel, plásticos y caucho, material refractario y otros usos. Solo un 5% se usa en cosmética (coloretes, bases de maquillaje, polvos de cuerpo y cara), así como en la industria farmacéutica como excipiente y contra el apelmazamiento de algunos productos. En la UE está además reconocido como aditivo alimentario (E553b).

En los usos industriales, el talco contiene un cierto porcentaje de impurezas (en algunos casos hasta el 35%) derivadas del hecho de que, en las explotaciones en las que se extrae, suele haber otros tipos de silicatos acompañando al talco propiamente dicho. Pero en el talco que se usa en cosas más sensibles, como las arriba mencionadas, las compañías procuran que se lo suministren explotaciones mineras en las que la pureza del talco está certificada sobre todo de cara a que ese talco no contenga amianto (también llamado asbesto, ya que el término en inglés para amianto es asbestos).

A diferencia del talco (un silicato con fórmula definida), amianto es un nombre genérico que engloba a seis silicatos, de nombres tan exóticos (para uno que no sea geólogo) como crisotila, amosita, crocidolita, antofilita, tremolita y actinolita con capacidad para cristalizar en forma de fibras. Es esa forma fibrosa (o asbestiforme) la que da al amianto las características que se buscaban cuando se empezó a usarlo como aislante.

Desde principios del siglo XX empezaron a ser evidentes, en trabajadores ligados a la industria del amianto, los problemas de todo tipo causados por su exposición al polvo del mismo. Desde fibrosis pulmonares o pleurales, también conocidas como asbestosis, al terrible mesotelioma, un tipo de cáncer que se produce en el mesotelio, la delgada capa que forma el recubrimiento de varias cavidades corporales. Hoy sabemos que son las formas fibrosas de los seis minerales incluidos en el término genérico de amianto las causantes de las afecciones ligadas a la exposición prolongada a ese material. Esos mismos minerales en formas no fibrosas (no-asbestiformes) no causan los mismos problemas.

Ya en los años setenta, empezaron a aparecer en USA algunos informes que hablaban de que podía haber amianto en los polvos de talco, lo que originó un considerable revuelo. Como reacción, en 1976, la americana Asociación de Cosméticos, Artículos de Tocador y Fragancias (CTFA) adoptó voluntariamente un protocolo (el llamado J4-1) para analizar, a la búsqueda de amianto, el talco que empleaba en sus productos. Los proveedores de talco para la industria farmacéutica adoptaron un método similar para certificar que el talco cumplía con el requisito de "Ausencia de amianto" de la Farmacopea de los Estados Unidos (USP).

Esos protocolos han estado vigentes muchos años y se basaban en el empleo de técnicas como la difracción de rayos X (XRD) o la espectroscopia infrarroja (FTir) para detectar químicamente alguno de los seis minerales del amianto y, si la detección era positiva, emplear posteriormente la microscopía óptica de luz polarizada (PLM) para evidenciar la presencia de formas fibrosas de esos minerales. Pero cuando fue evidente que los protocolos no eran 100% fiables, la americana Administración de Alimentos y Medicamentos (FDA) inició un proceso para mejorarlos y que, básicamente, supuso el empleo adicional de la microscopía electrónica de transmisión (TEM). Los esfuerzos han cristalizado en la publicación de un Libro blanco que resume el estado de los métodos para detectar amianto así como proponer protocolos para la preparación y análisis de las muestras. Los límites actuales de detección de amianto fibroso por parte de la Microscopía electrónica de transmisión son del orden de las decenas de las partes por billón (0.000004%).

La misma FDA lleva años analizando de forma sistemática muestras de todo tipo de cosméticos que utilizan talco a la búsqueda de amianto. Por ejemplo, en 2009, se analizaron veintinueve muestras proporcionadas por cuatro suministradores de talco para cosmética, así como treinta y cuatro productos cosméticos comprados en supermercados, incluido el Baby Powder de Johnson & Johnson. En ningunas de ellas, ni la PLM ni la TEM evidenciaron la presencia de amianto en forma fibrosa. Desde entonces, cada año, se analizan 50 muestras tomadas al azar el mercado. Los resultados de 2021, tampoco encontraron formas fibrosas de los minerales del amianto, como podéis ver aquí. Pero ese no ha sido el caso siempre y, en algunos casos, se han detectado cantidades pequeñas de amianto fibroso, lo que ha provocado la inmediata retirada del mercado de los lotes contaminados.

El interés por el tema y el uso del talco desde hace mucho tiempo, ha hecho que se hayan analizado muestras de talco en envases antiguos. En 2017, por ejemplo, se publicó un artículo [J.S. Pierce y otros, Inhalation Toxicology, 29:10, 443-456] que, usando también los protocolos de la FDA, analizaba ese tipo de muestras vintage (la más vieja era de 1940 y la más reciente de 1977). En ninguna de ellas había amianto en forma de fibras. Pero no se puede asegurar que otras muestras contemporáneas no lo contuvieran. Algo que es muy importante en lo que tiene que ver con la relación entre el talco y el cáncer de ovario.

Asunto que echó a andar de forma acelerada cuando un metanálisis de 2011 [M.C. Camargo y otros, Environ Health Perspect 2011; 119: 1211–1217] ligaba el amianto con el cáncer de ovario en mujeres expuestas al mismo ocupacionalmente (es decir, por su trabajo). A partir de ahí, se ligó el talco contaminado con amianto al cáncer de ovario y una multitud de demandas judiciales de mujeres afectadas por esa enfermedad aparecieron en los despachos de Johnson & Johnson.

La mayoría de las demandas han sido presentadas por mujeres que han usado talco durante años (y décadas) en la higiene de la zona perineal. Y en la mayoría de las demandas, la contaminación del talco con amianto es una parte fundamental de los argumento de las demandantes. La presión no parece haber bajado por ahora y basta poner en Google "talco y cáncer abogados" para encontrar centenares de páginas de despachos de abogados americanos (aunque las páginas aparezcan en castellano) que se prestan a representar a quien tenga un cáncer de ovario y haya usado polvos de talco durante tiempo prolongado.

En mi humilde opinión, es muy difícil que la presencia de cantidades pequeñas de amianto (si las hubiere) en el polvo de talco sean las causantes de esos cánceres de ovario. Aunque es cierto que, en muchos casos, llegan a ser exposiciones prolongadas en el tiempo, casi "ocupacionales", lo cierto es que durante esos mismos años, mucha de la población americana estuvo expuesta al amianto en sus casas y seguro que en niveles mucho más altos. No hace falta más que ver ese programa de la tele que encanta a la Búha, en el que dos gemelos renuevan casas canadienses y americanas, para darse cuenta de que, en muchas de ellas, tienen que empezar la reforma eliminando amianto. Y aunque esa exposición es por inhalación y no por aplicación en la zona genital, conviene recordar que el artículo de Camargo, mencionado arriba, estudiaba la relación entre el cáncer de ovario y la inhalación de amianto en trabajadoras que lo manipulaban.

Pero el asunto tiene aún una última vuelta de tuerca. Cual es el argumentar que incluso el polvo de talco puro, sin amianto, en exposiciones prolongadas, puede ser causa de cáncer de ovario. Hay varios artículos al respecto en los últimos años y las partes litigantes pueden seleccionar entre ellos aquellos que mejor vayan a sus intereses. Pero, en estos temas vidriosos, yo siempre tiendo a fiarme de agencias y organizaciones que me inspiran una cierta seguridad.

Como la propia FDA que en el segundo apartado de este documento deja claro que los estudios que han sugerido una posible asociación entre el uso de polvos que contienen talco en el área genital y la incidencia de cáncer de ovario, "no han demostrado de manera concluyente dicho vínculo o, si tal vínculo existía, qué factores de riesgo podrían estar involucrados".

O la Agencia Internacional para la Investigación sobre el Cáncer (IARC, dependiente de la OMS) que en la página 413 de este informeconcluye que "los estudios epidemiológicos tomados en su conjunto brindan una limitada evidencia sobre una asociación entre el uso perineal de talco corporal y un mayor riesgo de cáncer de ovario". E incluye al talco sin amianto para uso perineal en el grupo 2B, "baja probabilidad cancerígena para los humanos". Y hay que recordar que en ese mismo grupo 2B ha estado el café durante casi 25 años, hasta que recientemente se trasladó al Grupo 3, "no pueden considerarse cancerígenos para el hombre".

O, finalmente, la Sociedad Americana del Cáncer que establece que "Los estudios sobre el uso personal del polvo de talco han tenido resultados mixtos, aunque hay alguna sugerencia de un posible aumento del riesgo de cáncer de ovario. Hay muy poca evidencia en este momento de que cualquier otra forma de cáncer esté relacionada con el uso de polvo de talco por parte del consumidor".

Mientras tanto, en Europa no parece haberse generado similar ansiedad. Después de mucho buscar, sólo he encontrado una pregunta realizada por una europarlamentaria griega en 2016, a la que se le contestó que "hasta la fecha, no ha habido evidencia científica concluyente que apoye un vínculo entre el cáncer de ovario y el uso de talco en productos cosméticos. Por lo tanto, en esta etapa no se están considerando medidas adicionales para restringir el uso de talco en productos cosméticos".

Aunque me da que tenemos polémica para rato. Sobre todo porque hay potentes y muy conocidos bufetes de abogados americanos que ven pingües beneficios en el asunto.

Leer mas...

lunes, 29 de agosto de 2022

Turbinas eólicas y su reciclado

He procurado trasmitir siempre a mis estudiantes la idea de que, en lo relativo a la evidencia científica sobre cualquier tema, y como pasa en otros aspectos de la vida, casi nada es blanco o negro sino que su color anda en la gama de grises. Y en el asunto de las energías alternativas o "verdes" pasa lo mismo. Ni la energía generada por las turbinas eólicas es la solución maravillosa desde el punto de vista ambiental ni la proveniente del gas natural es una caca. Y de turbinas y de los problemas que nos están ya generando con el final de la vida activa de sus palas va esta entrada. Motivada porque, en muy poco tiempo, he dado con dos interesantes artículos sobre el tema, uno centrado en el caso americano, proveniente de mi sempiterno Chemical and Engineering News, y otro que aborda las estrategias europeas al respecto.

Símbolo preclaro de la generación de electricidad verde (a nivel global generaron en 2020 el 6% de la electricidad consumida), estas grandes turbinas eólicas son enormes acumulaciones de acero, cemento y plástico, tres de los cuatro pilares (el cuarto son los fertilizantes) que Vaclav Smil define en su libro How the World Really Works como fundamentales para nuestra vida actual. Y, al mismo tiempo, cuatro procesos industriales que nos va a costar mucho desengancharlos del consumo de combustibles fósiles. Porque como decía hace poco mi antiguo estudiante y amigo, Josu Jon Imaz, Consejero Delegado de Repsol, "electrificar no es descarbonizar".

Los cimientos de esas enormes turbinas son de hormigón armado, sus torres y rotores son de acero y sus enormes palas son principalmente resinas poliméricas (alrededor de 15 toneladas para una turbina de tamaño mediano). Por no hablar de que todas estas piezas gigantes deben ser llevadas al sitio de instalación por camiones de gran tamaño propulsados por gasoil y montadas por grandes grúas de acero. O de la cantidad de lubricantes que deben emplearse para que el rotor rote, generalmente provenientes del petróleo. Pero en esta entrada, como decía antes, nos vamos a centrar en las palas porque son de naturaleza polimérica en gran parte de su estructura y porque un servidor tiene alguna experiencia profesional al respecto que me ayudará a contaros una historia.

Como nada es eterno, las palas de las turbinas eólicas tienen también una vida limitada y acaban por no cumplir la labor para la que se las fabricó y, por tanto, hay que cambiarlas en periodos de tiempo que, se estima, van entre los 15 y 25 años. Y hacer algo con ellas. Solo en Estados Unidos se estima que en 2021 se desmontaron del orden de 8000 palas que equivalen a unas trescientas cincuenta mil toneladas. Y en Europa podemos ya andar por el medio millón de toneladas. En un estudio de 2017, se estimaba que para 2050 y a nivel global, se nos podrían acumular sobre la faz de la Tierra del orden de cuarenta y tres millones de toneladas. Y si queréis leer algo sobre la situación española podéis acudir a este enlace que me ha pasado un lector.

En el momento presente, la gran mayoría de esas palas, sobre todo las americanas, van a parar a vertederos y la principal razón para esa solución poco sostenible es que reciclarlas es harto complicado. En su composición, más del 80% de la masa de la pala es un material compuesto (o composite). Entre el sesenta y el 70 % de la masa de ese material compuesto consiste en fibras de refuerzo, principalmente fibra de vidrio, aunque también algo de fibra de carbono. El resto es una resina polimérica (generalmente epoxi) que aglutina esas fibras largas y rígidas en una matriz sólida, relativamente ligera, en la que fibras y resina están íntimamente mezcladas. Con lo que, para reciclarlas, hay que separarlas.

Esas resinas  son lo que los poliméricos llamamos polímeros termoestables. Para que no os enredéis en estos tecnicismos, usaremos el ejemplo de ese adhesivo que casi todo el mundo conoce y que desde hace años se ha vendido bajo el nombre comercial de Araldit. Se presenta en dos tubos, uno con una resina epoxi propiamente dicha y otro con agentes que van a provocar su endurecimiento (curado) cuando el contenido de ambos tubos se mezcla. Y una vez endurecida, esa resina no puede reciclarse a la manera que hacemos con los termoplásticos o plásticos convencionales, que podemos calentar, fundir y moldear dando vida a un nuevo objeto. De ahí lo de termoestables y de ahí la dificultad de separar la resina de las fibras de vidrio o carbono que une íntimamente.

Del papel de las resinas en las palas algo sabe el Búho. No en vano, a finales de los noventa, nos enseñaron la planta denominada Fiberblade, en Alsasua, donde se empezaron a fabricar, casi de forma manual, las primeras palas de turbina que Gamesa empezó a montar en España. Luego, un amigo fue el artífice del montaje de la primera planta de Gamesa en China y, más tarde, desde el Instituto Polymat tuvimos años de colaboración con Gamesa, a la hora de controlar los procesos de endurecimiento de los preimpregnados de resinas epoxi y fibras (prepegs), de cara a buscar las condiciones idóneas para llevar a cabo el proceso de curado.

Planteado el problema del reciclado de las palas y tratando de que todo no vaya a los enormes vertederos que se necesitan al efecto, la gente del ramo eólico anda ya buscando alternativas a ese desecho. La que parece que ha calado en algunos países como Alemania, consiste en cortar las palas en trozos pequeños y después triturarlos y utilizarlos tal cual en los hornos de las cementeras. Allí se quema la resina (un compuestos de carbono) produciendo parte de la energía necesaria en el funcionamiento del horno, sustituyendo a los combustibles fósiles. Eso, además, deja las fibras libres de resina que, posteriormente, se usan en la preparación de unos cementos especiales, con acomodo en el mercado.

En la fabricación estándar de cemento, se calienta una mezcla de piedra caliza molida y arcilla en un horno rotatorio para producir un material conocido como clínker. Luego se mezcla el clínker con yeso. El proceso convierte el carbonato de calcio, el componente principal de la piedra caliza, en óxido de calcio liberando dióxido de carbono. Una forma bien conocida de reducir las emisiones de CO2 de las cementeras es sustituir una parte de la piedra caliza por materiales ricos en sílice para fabricar tipos alternativos de cemento. La fibra de vidrio de las palas de las turbinas eólicas proporciona ese material rico en sílice.

Otra vía implica no quemar sino pirolizar los trozos en los que se han cortado las palas, esto es, someter al material a altas temperaturas pero sin llama, para conseguir que la resina se acabe descomponiendo en gases y vapores que puedan ser utilizados en procesos químicos de síntesis de nuevos materiales, reemplazando a los derivados de las plantas petroquímicas. Y dejándonos libres las fibras para ulteriores usos. Finalmente, hay también soluciones un tanto esotéricas, como usar trozos relativamente grandes de las palas en el diseño de parques infantiles. O pensar que podemos volver a los viejos molinos de viento y hacer que esas palas, que cada vez tienden a ser más grandes, se puedan fabricar a partir de biomasa, como madera de bambú. O, como me ha escrito un lector en los comentarios, usar resinas de polímeros biodegradables y luego, cuando las palas se retiran, emplear la resina para fabricar....gominolas.

Ya veremos. O ya veréis, porque para cuando esto se aclare me da que yo ya seré polvo de carbono, venteado por las innumerables turbinas que se supone que va a haber.

Leer mas...

lunes, 15 de agosto de 2022

Microplásticos y otras micropartículas en el mar


Uno puede pensar que los microplásticos son unos recién llegados a los océanos y que, antes de ellos, todo era limpio y natural: agua salada, peces y otros organismos vivos que viven en el mar. Y, por tanto, la irrupción de las partículas microscópicas de plásticos, a mediados del siglo XX, es un desastre en si mismo, con implicaciones visuales, ecológicas e incluso morales para los ciudadanos que vemos su crecimiento continuado en las últimas décadas. Siendo todo ello verdad, lo cierto es que en el mar se encuentran dispersas muchas otras micropartículas, algunas naturales y otras antropogénicas (derivadas de la actividad humana) que tienen una ubicuidad similar o mayor a la de los microplásticos y unos efectos adversos en los seres vivos que compiten con los tradicionalmente atribuidos a los microplásticos.

Eso es al menos lo que se deriva de un reciente artículo publicado este febrero en la revista Nature en su sección Reviews. Los autores identifican primero micropartículas omnipresentes en el mar, en el aire o en el suelo que no son lo que entendemos por microplásticos. Como las micropartículas de tipo inorgánico o mineral, como  la arena, el limo, la sílice o las arcillas. Materia orgánica, constituida fundamentalmente por compuestos de carbono y que se deriva de la descomposición de algas, detritus producidos por el fitoplancton y el zooplancton (como pretende ilustrar la figura que ilustra esta entrada) y microfibras naturales ( como el algodón, la lana, la seda, etc.) que, como ya vimos en otra entrada, parecen predominar en el mar sobre las de origen sintético. Finalmente, materia constituida casi exclusivamente por carbón, como los hollines o el carbón orgánico, derivados de la combustión incompleta de combustibles fósiles o de biomasa.

Los riesgos derivados de la presencia de los microplásticos en el mar, que se suelen leer en los medios, se pueden resumir en unas pocas lineas. Primero, se les atribuye una persistencia en el medio ambiente de decenas, centenares o miles de años. Si tenemos en cuenta que la mayoría de los plásticos llevan solo unas decenas de años en la faz de la Tierra, es preciso extrapolar ensayos de laboratorio para poderles atribuir esas largas persistencias, algo que conlleva una gran incertidumbre. Otro riesgo ya comprobado, sobre todo en experimentos de laboratorio y muchas veces en condiciones lejanas a las que se dan en el mar, es que pueden causar todo tipo de problemas a los organismos que los ingieren, sobre todo si el tamaño que presentan puede generar obstrucciones a nivel del tracto digestivo. 

Pero los riesgos más publicitados sobre los microplásticos tienen una faceta indiscutiblemente química. Aunque intrínsecamente son inertes, esos microplásticos pueden lixiviar (soltar al mar) sustancias no poliméricas en ellos contenidas, como restos de los monómeros empleados en su fabricación, plastificantes como los ftalatos para hacerlos más moldeables u otras sustancias añadidas (colorantes, protectores contra el fuego, etc.). El otro riesgo "químico" de los microplásticos es que, como ya contamos aquí,  puedan actuar como vectores químicos de sustancias peligrosas ya existentes en el mar, derivadas de pasadas actividades humanas, como el DDT, los PCBs, PBDEs y otros. Esas sustancias, denominadas de manera global Compuestos Orgánicos Persistentes (COPs), disueltas en pequeña cantidad en el agua de mar, tienen una alta tendencia a absorberse en los microplásticos. Si luego un pez, confundiéndolos con una presa, se los come, pudiera ocurrir que en el intervalo de tiempo que los microplásticos permanecen en el cuerpo del animal, esas sustancias químicas se absorbieran en la materia grasa del mismo y acabaran en nuestro organismo si consumimos ese pescado.
Pues bien, todas las micropartículas arriba mencionadas y que se encuentran en el mar, compartiendo espacio con las partículas de microplásticos, tienen características muy similares a ellas, como puede verse en la tabla de la derecha, que podéis ampliar clicando en ella y que proviene del artículo mencionado arriba. Y así, su tamaño medio está en el orden de las micras, su permanencia en el mar es de centenares o miles de años, sus densidades son similares a las de los plásticos, entre 1 y 2 gramos por centímetro cúbico, lo que les permite ocupar igual que ellos la totalidad de la columna de agua. Y, finalmente, las concentraciones en las que se encuentran en el agua son similares o superiores a las de los propios microplásticos. Es decir, esas micropartículas no son muy distintas de los microplásticos ni lo son sus potenciales riesgos para los habitantes del mar.

Y así, la sola presencia de micropartículas inorgánicas en el interior de los organismos vivos pueden causar similares problemas a los causados por los microplásticos. Para entenderlo basta con considerar los problemas causados en los humanos por el polvo de amianto o la silicosis causada por el polvo de carbón. O, fuera de exposiciones ligadas a ámbitos de trabajo u ocupacionales, la preocupación se manifiesta en el seguimiento que hacemos en las ciudades de las micropartículas existentes en el aire, las famosas PM10 y PM2,5, como forma de prevenir ciertas enfermedades respiratorias o el propio cáncer.

Pero es que, además, las partículas de materia carbonosa, como los hollines, contienen y pueden soltar en el agua del mar (lixiviar) cantidades sustanciales de hidrocarburos aromáticos policíclicos (HAPs), sustancias peligrosas que, fuera del mar, causaron los cánceres infantiles en niños dedicados a deshollinar chimeneas y están presentes en la combustión del tabaco. Y, para terminar, todas las micropartículas de naturaleza orgánica y carbonosa arriba descritas pueden absorber y actuar como vectores de los mismos Contaminantes Orgánicos Persistentes (COPs) que los microplásticos.

Así que los autores del artículo arriba mencionado concluyen que el estudio de los riesgos de los microplásticos en los océanos no se pueden estudiar por separado, sino que es preciso un enfoque conjunto con la totalidad de micropartículas existentes en los mares y que pueden afectar igualmente a la vida marina.

Solo así podremos evaluar adecuadamente los verdaderos riesgos de los microplásticos.

Leer mas...

viernes, 29 de julio de 2022

En la muerte de James Lovelock

El pasado martes, 26 de julio, el mismo día que cumplía 103 años, James (Jim) Lovelock falleció en su casa del pequeño pueblo inglés de Abbotsbury como consecuencia de complicaciones derivadas de una reciente caída. Dice la Wikipedia que Lovelock fue un médico, meteorólogo, escritor, inventor, químico atmosférico y ambientalista inglés. Todo eso es cierto, y si se me permite un añadido, diré también que ha sido un personaje polémico en la mayoría de los temas en los que se vio implicado a lo largo de su vida científica. Si queréis constatarlo con sus propias palabras, podéis leer su libro en castellano de 2007, titulado "La venganza de la Tierra" con opiniones que han levantado ampollas en temas como el cambio climático, la lluvia ácida, el agujero de ozono, los movimientos ecologistas o su apuesta por la energía nuclear como única forma de revertir a la Tierra (que Lovelock denominaba muchas veces por el nombre de Gaia), a su estado de equilibrio autorregulador.

Sobre la hipótesis Gaia, tan famosa en el ámbito ecologista, nada diré. Primero porque no me considero ni mediano conocedor del tema y, segundo, porque ya lo leeréis en los muchos obituarios que se están escribiendo sobre el fallecido. Este vuestro Búho, seguidor de Lovelock desde hace muchos años, ha preferido hoy, como pequeño homenaje a su figura, actualizar una de las primeras entradas en este Blog, escrita solo tres semanas después de haberlo inaugurado (2006), y que estuvo dedicada a un invento suyo que revolucionó el análisis químico de la época.

Ese invento, el llamado detector de captura electrónica (ECD), supuso mejorar en gran medida los niveles de detección de sustancias químicas, al utilizarlo en una técnica que se estaba implantando en los laboratorios de análisis químico de los años cincuenta, la cromatografía de gases, aún hoy una de las herramientas más versátiles para cualquier laboratorio químico. En la foto que ilustra esta entrada (se puede ampliar clicando sobre ella) podéis ver a Lovelock en el Museo de la Ciencia de Londres junto a uno de los primeros montajes en los que utilizó su detector.

Lovelock entró en contacto con la cromatografía de gases en el verano de 1951 cuando dos de sus colegas en el Instituto Nacional de Investigación Médica (NIMR), A. Martin y T. James, introdujeron dicha técnica en sus laboratorios, como consecuencia de las expectativas que la misma estaba levantando. La técnica había interesado no solo a la incipiente industria petroquímica que necesitaba un método rápido de separación, identificación y cuantificación de los componentes de las complejas mezclas existentes en sus líneas de producción. También había interesado a bioquímicos y analíticos como posibilidad de separar productos muy similares y que se encontraban mezclados en cantidades muy pequeñas.

Y de hecho, en ese problema estaba Lovelock, que andaba interesado en ver los efectos de las bajas temperaturas (criogenización) en la evolución de los ácidos grasos de los lípidos constitutivos de las membranas celulares. Ello implicaba medir concentraciones muy pequeñas, dado el tamaño de las muestras de tejido de animales empleados en el laboratorio. Aunque desde los colegas del NIMR le dieron el clásico consejo que muchas veces hemos dado los que nos hemos dedicado a caracterizar sustancias y materiales (”no me vengas con muestras tan pequeñas, procura producir más cantidad acumulando experimentos y luego vuelves"), alguien le sugirió que quizás tuviera que desarrollar un detector más sensible que el hasta entonces empleado en los equipos de cromatografía.

Y nuestro Lovelock lo consiguió. Y, lo que es más importante, lo hizo en el momento oportuno. Hasta esos años cincuenta, los toxicólogos estaban acostumbrados a tener que analizar insecticidas y plaguicidas inorgánicos como el arsénico blanco que, con técnicas analíticas clásicas, podían detectarse hasta niveles de 0.2 partes por millón (ppm), o lo que es lo mismo, en la proporción de 0.2 gramos del contaminante por cada tonelada de masa analizada. Pero cuando los biólogos que estudiaban la vida marina empezaron a evidenciar que insecticidas organoclorados como el DDT o el Dieldrin se habían acumulado en pequeñas cantidades en crustáceos y peces con resultados fatales, fue evidente que para detectar esos problemas adecuadamente había que llegar a niveles de detección cientos o miles de veces inferiores, del orden de las partes por billón (ppb). En el curso de esa década de los cincuenta la sociedad americana estuvo además particularmente alarmada por la detección de otros productos químicos en alimentos, como el famoso caso de los arándanos y el aminotriazol de 1959.

En 1962, la bióloga marina Rachel Carson publicó su famoso libro “La primavera silenciosa”, que puso la diana en los efectos del uso desmesurado y no regulado del DDT, un insecticida cuya producción se triplicó entre los años 1953 y 1959. Para el establecimiento de cómo se había introduciendo el DDT en diversas especies con efectos perjudiciales, resultaron claves las medidas analíticas que se pudieron hacer con el detector de Lovelock. Bien es verdad, y Lovelock lo dice claramente en el capítulo sexto de su libro de 2007, que la prohibición del uso del mismo en USA por parte de la Agencia de Protección del Medio Ambiente (EPA) en 1972 y que imitaron muchos otros países, "fue un acto egoísta y erróneo llevado a cabo por radicales del primer mundo. Los habitantes de países tropicales han pagado un alto precio en muertes y enfermedades por no poder utilizar el DDT para controlar la malaria". De esto ya hablamos en otra entrada de este Blog.

Desde esos años sesenta, los detectores que han seguido al invento de Lovelock han llegado a alcanzar sensibilidades a los plaguicidas cien millones de veces mayores que las que tenían las primeras técnicas empleadas en su análisis. El progreso alcanzado es tan grande que ni siquiera las personas más implicadas en ello podían predecirlo. Francis Gunther, una figura señera en el análisis del DDT durante los años 50 y 60 decía, todavía a principios de los setenta, que llegar a detectar 1 parte por trillón (ppt), 1 gramo de DDT en un millón de toneladas de muestra contaminada, era como "creer en las hadas".

Bien, y aquí estamos, con técnicas que nos permitirían detectar minúsculas cantidades de un contaminante en millones de toneladas de muestra. Todo un logro de la Ciencia, en un plazo de tiempo increíble, motivada por resolver un problema que alteraba el clima social y presionada por las instituciones. Analizado así parece un ejemplo prototípico del papel de la Ciencia en la sociedad actual. Y sin duda alguna lo es, pero algunos pensamos que la actual ansiedad sobre los productos químicos, eso que llamamos Quimiofobia, hubiera tardado mucho tiempo en penetrar en el tejido social si no se hubieran dado desarrollos tan vertiginosos como el del detector de Lovelock. Llegamos así a un punto en el que el problema analítico está básicamente resuelto pero el sociológico permanece irresoluble, dadas las controversias sobre la ubicuidad de las sustancias químicas en todo lo que comemos, bebemos o respiramos y sobre los umbrales a partir de los que una sustancia debe considerarse perjudicial.

Porque, extrapolando, podemos llegar a la opinión de la propia Carson que abogaba por una tolerancia “cero” frente a sustancias producidas por el hombre. El problema es identificar qué se considera "cero", algo que depende evidentemente de la sensibilidad que tengan las técnicas de detección que empleemos en el laboratorio. En el libro de 2007 arriba mencionado, Lovelock deja claro que el no es partidario de esa filosofía de la Carson y hace suya la frase de Paracelso tantas veces citada en este blog: “es la dosis la que hace el veneno”. Como consecuencia de nuestra alimentación, nuestro propio organismo está plagado de sustancias que son tóxicas a partir de un cierto nivel y, sin embargo, las toleramos perfectamente en los niveles que habitualmente alcanzan. Y la mayoría son de origen natural o incluso producidas por nuestro propio organismo.

El detector de Lovelock fue también clave en la detección de los compuestos clorados causantes del agujero en la capa de ozono. En ese asunto, Lovelock mostró también su espíritu escéptico y peleón, pero sobre eso hablaremos en otra entrada en la que actualizaré la escrita, también hace años, sobre el citado agujero.

Que su Gaia le sea leve al amigo Jim. Seguro que no le parecería mal que le cite aquí como un ejemplo más de la longevidad de los químicos, a pesar de su dilatado contacto con sustancias químicas. Siempre y cuando una mísera caída no se cruce en su camino.

Leer mas...

domingo, 17 de julio de 2022

Regulando la homeopatía

Mi última entrada sobre homeopatía data de enero de 2019. Al final de la misma decía que creía que no volvería a publicar más sobre el asunto y aproveché la ocasión para agrupar todas mis entradas al respecto (14) bajo la categoría Homeopatía que podéis seleccionar a la derecha de la página. Desde 2018, tampoco he dado charla alguna sobre el tema y, cuando preparé la última, había muchos medios hablaban de una inminente regulación de los productos homeopáticos en España. He seguido las noticias posteriores, casi siempre polémicas, sobre los pasos que se han ido dando para esa regulación y creo que ahora es buen momento para contar el estado de la cuestión.

Viviendo en un limbo legal desde 1994, el toque de corneta para regular los productos homeopáticos en España se produce con una Directiva europea que data de 2001. Tras nada menos que seis años, y en el Real Decreto 1345/2007, de 11 de octubre, que regulaba el procedimiento de autorización, registro y condiciones de dispensación de los medicamentos de uso humano fabricados industrialmente, se incluía una Sección de varios artículos dedicada a los medicamentos homeopáticos vendidos en farmacias con formato convencional. El artículo 55 de ese Decreto establece una singularidad para los productos homeopáticos que ha sido duramente criticada por científicos, Instituciones médicas y hasta Gobiernos autonómicos.

Esa singularidad establece que a la hora de autorizar la venta de un producto homeopático, que ya pasaría así a la categoría de medicamento homeopático, existen dos vías. Una, la habitual para cualquier medicamento con indicación terapéutica demostrada y dos, y aquí viene la bomba, un procedimiento simplificado especial de medicamentos homeopáticos para el que no se necesita demostrar su eficacia terapéutica. El Gobierno español ha tratado de eliminar esa vía en Bruselas pero ya a finales de 2018 parecía estar claro que habían perdido la batalla y que la Unión Europea pensaba que su Directiva de 2001 estaba bien.

Por muy increíble que parezca que un producto pueda denominarse medicamento (y venderse como tal) sin necesidad de probar su eficacia terapéutica, lo cierto es que llovía sobre mojado. Fernando García Alonso, que era Director de la Agencia Española de Medicamentos y Productos Sanitarios (AEMPS) cuando se preparó la ya mencionada Directiva de 2001, recordaba en una entrevista con El País en el año 2003 los entresijos de las arduas negociaciones que tuvieron lugar antes de que esta viera la luz:

"Cuando estábamos discutiendo en Bruselas la nueva directiva, nosotros mismos nos dábamos cuenta de que estábamos haciendo algo en contra de nuestros principios. Los representantes de los países nórdicos, que eran los más puristas, se plantaron y dijeron que ellos no podían aceptar una directiva que aceptaba atribuir la condición de medicamentos a productos cuya eficacia clínica no está demostrada científicamente. Por contra, los países que tienen una industria próspera en este terreno los defendían fervientemente. ¿Cuál es la conclusión?. Que privan las razones económicas. Aunque, como todos tenemos nuestra alma, acordamos que estos medicamentos llevarán una leyenda que dijera: "La eficacia de este medicamento no se ha demostrado mediante métodos científicos". Me parece que con la fórmula no se engaña a nadie. Lo que ocurre con los medicamentos no es, al fin y al cabo, más que el reflejo de lo que ocurre en otras parcelas de la realidad".

Así que a pesar de su pataleta ante Europa, al Gobierno español de 2018 no le quedó otro remedio que usar la legislación europea vigente y, con el Real Decreto de 2007 en la mano, empezar a regular la venta de los preparados homeopáticos como medicamentos. Para ello, instó a la AEMPS a poner en marcha el citado procedimiento simplificado y en abril de 2018 habilitó un plazo para que los fabricantes de todos los productos homeopáticos que se vendían en las farmacias de España le comunicaran su intención de adecuarse a la Directiva europea y al Decreto español (diecisiete y once años después de sus respectivas promulgaciones).

Finalizado ese plazo, la AEMPS publicó a finales de octubre de 2018 una resolución que daba cuenta de los productos homeopáticos que se le habían comunicado y fijó un calendario para que las empresas titulares solicitaran la correspondiente autorización de comercialización. Solo los productos homeopáticos que se encontraban en esa resolución, en una lista de más de dos mil preparaciones, podían seguirse comercializando hasta que la AEMPS evaluara la documentación y tomara una decisión que les autorizara a venderse como medicamentos homeopáticos de acuerdo con la normativa que os he explicado arriba.

Los que no comunicaron a la AEMPS su intención de adecuarse a la normativa no podían seguirse comercializando y los que estuvieran ya en las farmacias tendrían que ser retirados. Y de hecho, en el momento de redactar estas líneas se puede ver una lista de 1093 preparados que, según la AEMPS, han sido retirados del mercado.

En el tiempo transcurrido desde octubre de 2018, la AEMPS ha ido evaluando la documentación recibida por parte de los fabricantes y, hasta el 23 de junio de 2022 había autorizado, ya como medicamentos, 757 preparados homeopáticos. Todos ellos parecen haber optado por la vía simplificada ya que, si entráis en la ficha técnica o en el prospecto aprobado que pueden verse en esa lista, veréis que en ambos sitios figura la frase "Medicamento homeopático sin indicación terapéutica aprobada (Directiva 2001/83/CE)". Se supone que esa lista de 757 se seguirá ampliando a medida que se vaya considerando la documentación aportada por los fabricantes del resto de preparados que se manifestaron interesados en seguir la normativa.

Pero hay todavía cosas que este vuestro Búho va a seguir vigilando porque anda con la mosca detrás de la oreja. La AEMPS mantiene una página online denominada Centro de Información de Medicamentos (CIMA) en la que los profesionales pueden consultar diversos aspectos sobre los medicamentos autorizados por la AEMPS. Si en esa página se pica en el enlace denominado Buscador para profesionales sanitarios, uno puede localizar medicamentos por el principio activo que contienen, la empresa que lo fabrica o el llamado Código Nacional, una especie de matrícula de cada medicamento.

Pues bien, podéis intentar localizar, por ejemplo, uno de los medicamentos autorizados por la AEMPS: el llamado Apis Mellifica glóbulos, un medicamento homeopático a partir del veneno de las abejas, comercializado en España por Boiron, la multinacional francesa, con el Código Nacional 733309. Y comprobaréis que, usando cualquiera de esos datos, no aparece. Y lo mismo os pasará probando con otros homeopáticos autorizados...

No sé si pensar que la web del CIMA no está debidamente actualizada en lo que a homeopáticos se refiere o es una forma encubierta de protesta de la AEMPS por haberles obligado a tragar con algo que no comparten. Pero si alguien conoce otra razón, no tiene más que escribirlo en los comentarios.

Leer mas...

domingo, 26 de junio de 2022

Hogueras y dioxinas

Las hogueras de San Juan de este pasado jueves en Donosti acabaron pasadas por agua merced a una bonita tormenta veraniega. Aún y así, se encendieron 18 fogatas legales y supongo que unas cuantas ilegales. Estos mismos días, ando documentándome sobre la toxicidad de las dioxinas para poder dar una charla al respecto. Hace ya seis años que os hice una revisión histórica y una puesta al día sobre ellas pero necesito mas datos para una charla de hora y pico. Entre la documentación que ahora estoy manejando está la del derrumbe y posterior incendio del vertedero de Zaldíbar el 6 de febrero de 2020. Junto con mi amiga Ainara Sangróniz, que es de Elgeta (no muy lejos de Zaldíbar), hicimos un seguimiento muy detallado de los niveles de dioxinas generados por un accidente en el que fallecieron dos trabajadores, uno de los cuales ha quedado enterrado para siempre en el sellado que ha clausurado el vertedero.

Al hilo de la abundante documentación publicada sobre Zaldíbar y de las distintas polémicas que se suscitaron en los medios a propósito de los recomendaciones emitidas por el Gobierno Vasco así como de los datos publicados por el mismo, hay un asunto muy interesante que tiene que ver con las hogueras de San Juan y que voy a usar de hilo conductor en esta entrada para aclarar algunos extremos sobre la toxicidad de las dioxinas.

En las proximidades de la localidad guipuzcoana de Usúrbil hay un captador de muestras de aire que posteriormente se analizan para comprobar la calidad del mismo. Entre noviembre de 2017 y junio de 2019 en esa estación se recogieron 45 muestras. Entre ellas, la muestra recogida entre las 00.00 horas del día 23 de junio de 2018 y las 23.59 horas del día siguiente exhibía unos niveles de dioxinas treinta y dos veces mas altos que la media que se había venido recogiendo en esa estación hasta entonces. El Instituto de Investigación Sanitaria Biodonostia, que cuelga del Servicio Vasco de Salud (Osakidetza) emitió en su día un extenso informe al respecto.

El término dioxinas (que suele englobar también a sus primos los furanos) hace referencia a una muy numerosa familia de 210 compuestos químicos diferentes (75 son dioxinas y 135 furanos). Algunos (unos 17) son verdaderamente tóxicos aún en dosis muy pequeñas y así, por ejemplo, una de las dioxinas, la 2,3,7,8-tetraclorodibenzo-p-dioxina, conocida por el acrónimo 2378-TCDD, suele citarse como la sustancia más tóxica del mundo mundial, aunque sobre eso podríamos hablar más en detalle aunque no es el sitio ni el momento. Las concentraciones de dioxinas en el aire (que es el medio que aquí nos interesa) se dan habitualmente en femtogramos por metro cúbico de aire (1000 litros de aire). Un femtogramo es una cantidad casi ridícula (0.000000000000001 gramos) pero esa aparente ridiculez sirve también para valorar que estamos tratando con sustancias harto peligrosas. Y para ilustrar a que niveles estamos los químicos detectando y midiendo los peligros a los que nos enfrentamos.

Pues bien, el 19 de febrero de 2020, cuando el vertedero de Zaldíbar estaba aún a medio apagar, el Diario Vasco publicó un artículo a página completa cuyo titular decía "Una hoguera en Usúrbil con 10 veces más de dioxinas" en el que se explicaba que el estudio de Biodonostia antes citado mostraba que la noche de San Juan de 2018 se había medido un pico de casi 6800 femtogramos por metro cúbico de dioxinas en el aire de la localidad guipuzcoana, cuando en el vertedero de Zaldíbar se habían medido tres días antes de la noticia una cifra en torno a 700. Algo ciertamente sorprendente a la vista de las imágenes que se estaban publicando sobre las labores de extinción del vertedero y las medidas que se habían ido tomando (cierre de escuelas, recomendación de no salir a la calle.... hasta suspensión de un partido de fútbol del Eibar). La noticia tenía también implicaciones políticas dadas las malas relaciones entre el periódico y la izquierda abertzale, tradicional gobernante en Usúrbil.

En realidad, se trató de un error garrafal que aún recordará el periodista que escribió la página. Y que el Diario Vasco tuvo que corregir a la carrera al día siguiente, aunque lo hizo con una críptica frase que demostraba que seguían sin entender del todo el fallo: "....los 6797 femtogramos por metro cúbico de aire es un dato puntual y no refleja la concentración de dioxinas real, que es la que debe ser comparada con las mediciones anunciadas en Zaldíbar. El valor correcto en Usurbil fue 304 femtogramos por metro cúbico". Esta corrección, que seguro que tampoco habrán entendido muchos de mis perspicaces lectores, no explicaba para nada el fallo cometido por la redacción del Diario Vasco, aunque sea fácil hacerlo.

Los 6797 femtogramos por metro cúbico, una cifra que ciertamente aparecía en el informe de Biodonostia sobre las hogueras de Usúrbil, era la concentración del conjunto de dioxinas y furanos presentes en la muestra de aire de esa localidad, pero no nos da una idea de cuánto tóxica es esa concentración. En ella puede haber todo tipo de dioxinas y furanos. La 2378-TCDD es ciertamente tóxica, pero otros miembros de la familia pueden no tener toxicidad alguna o tenerla cientos o miles de veces más pequeña que la más peligrosa. Por eso, y en lo tocante a la toxicidad de una muestra concreta se suele hablar de la toxicidad equivalente (TEQ) que sería la cantidad de 2378-TCDD pura que tuviera la misma toxicidad que la muestra que estamos considerando. Una vez hecho ese cálculo los 6797 femtogramos por metro cúbico se convierten en 304 femtogramos de 2378-TCDD por metro cúbico. Y los 700 femtogramos del vertedero ardiendo el día 16 de febrero con el que el Diario Vasco estaba comparando ya tenían hecha esa corrección en cuanto a toxicidad. Así que la toxicidad de las dioxinas de las hogueras de Usúrbil en la noche de San Juan fue la mitad de la de las dioxinas que el vertedero estaba generado en la fase crítica del derrumbe y posterior incendio. Una cifra excepcional la de Usúrbil, pero desde luego no diez veces más que la del vertedero.

El episodio de Usúrbil remitió para el día siguiente y Biodonostia argumentaba en su informe que el valor significativamente mas alto aalí encontrado frente a los de otras localidades que también celebraron esa noche hogueras de San Juan, parece que se debió a que, en la primera, sopló una componente de viento que enviaba directamente el aire de la hoguera al medidor, cosa que no pasó en las otras localidades. En el caso del vertedero de Zaldíbar, el incendio estuvo activo desde el 6 al 19 de febrero, aunque desde el 15 había labores de extinción en activo. Una vez iniciadas esas labores de extinción, las concentraciones fueron progresivamente bajando y para el día 26 los niveles de toxicidad de las dioxinas estaban ya en niveles prácticamente normales.

Está por tanto claro que incendios, hogueras y otros procesos de combustión como la incineración son una fuente importante de emisión de dioxinas y furanos. De hecho, cuando la Agencia de Protección del Medio Ambiente americana (EPA) llevó a cabo, en 1987, el primer inventario de fuentes de dioxinas en los Estados Unidos, la incineración de residuos urbanos representaba más del 80 % de las fuentes de dioxinas conocidas. Como resultado, la EPA implementó nuevos requisitos de emisiones. Estas regulaciones lograron reducir drásticamente las emisiones de dioxinas de esos incineradores. La incineración de residuos sólidos municipales, residuos médicos, lodos de aguas residuales y residuos peligrosos juntos ahora producen menos del 3% de todas las emisiones de dioxinas.Algo similar ha pasado en Francia, donde las emisiones totales de dioxinas por incineradoras han pasado del equivalente a 450 gramos de 2378-TCDD en 1997 a prácticamente cero en unos doce años.

Sin embargo, desde la evaluación inicial de la EPA en 1987, las emisiones de dioxinas derivadas de la combustión incontrolada de residuos domésticos (hogueras, barriles en los jardines, barbacoas, etc.) han seguido permaneciendo prácticamente constantes y ya en el informe de 2006 aparecieron como la primera fuente emisora de dioxinas en USA.

Leer mas...

martes, 14 de junio de 2022

La mala suerte del descubridor de la primera estatina

Todo empezó hace unos días cuando un amigo me dijo que un conocido médico donostiarra le había recetado para el colesterol un suplemento alimentario a base de arroz de levadura roja. Me callé como un muerto pero me puse a tirar del hilo (mi comadrona dixit) y me encontré con una entretenida historia que conecta ese arroz de levadura roja con el descubrimiento de las estatinas, esa familia de fármacos que pueden reducir el colesterol, al bloquear a una enzima que nuestro cuerpo utiliza para producirlo. Desde la introducción a nivel comercial en 1987 por parte de la compañía Merck de la estatina llamada lovastatina, esta familia de fármacos ha pasado a estar entre los mas vendidos en el mundo. Pero antes de llegar a este estado de cosas, hubo muchas idas y venidas que voy a contar.

Un bioquímico japonés, el Dr Akira Endo, fue la estrella invitada de una reunión científica celebrada en 2004 para conmemorar el trigésimo aniversario del descubrimiento de la que fue realmente la primera estatina, la compactina o mevastatina, que nunca llegó a comercializarse. En su intervención ante los colegas, el Dr. Endo contaba con fina ironía que había ido hacía poco a su ITV médica y su galeno le había dicho que sus niveles de colesterol habían llegado a un punto en el que habría que hacer algo para bajarlos. El galeno, que no sabía las habilidades de su paciente, le dijo que no se preocupara porque conocía unos cuantos buenos fármacos para bajar el colesterol. Así que, Endo concluía entre risas de sus colegas, "despues de muchos años voy a comprobar los poderes de una estatina en mi mismo". Después de esta anécdota inicial, el resto de la presentación del Dr. Endo estuvo dedicada a contar su mala suerte como inventor de la compactina antes mencionada.

En 1965, con 33 años, Akiro Endo andaba tratando de buscarse la vida como post-doc en los Estados Unidos. Escribió a un tal Dr. Vagelos que trabajaba en la Agencia americana de investigación médica (NIH) preguntándole si podía trabajar en su laboratorio en cuestiones relacionadas con el metabolismo de las grasas. Al ver que Vagelos no contestaba, buscó otra posibilidad y acabó en el Albert Einstein College of Medicine de Nueva York. Semanas más tarde, Vagelos le contestó diciendo que no había visto su carta porque se había cambiado de Universidad pero que estaría encantado en recibirle. Sin embargo, la suerte estaba ya echada. Endo se quedó en Nueva York y como veréis enseguida, la tardanza en las comunicaciones de esa época (mediados de los sesenta) resultó fatal para su futuro y es lo que da origen al título de esta entrada.

En 1968, tras su estancia neoyorquina, Endo regresó a Tokio y empezó a trabajar en una empresa, Sankyo, que en 1971 le dejó escoger libremente un tema de investigación que se concretó en el estudio de la llamada HMG-CoA reductasa, la enzima que bloquean las estatinas y que he mencionado antes. En su charla de 2004, Endo hizo notar que desde muy joven se había sentido atraído por la figura de Alexander Fleming, quien descubrió que el moho (un recubrimiento velloso o filamentoso producido por diversos tipos de hongos) de un hongo concreto del género Penicillium producía, entre otras, una sustancia química con efectos antibacterianos: la penicilina. Una década más tarde, la penicilina fue desarrollada como agente terapéutico sistémico. Inspirándose en el hecho de que otros antibióticos también se fueron aislando a partir de mohos de otros hongos y que, además, eran capaces de inhibir muchos tipos diferentes de enzimas, Endo especuló que quizás podría aislar algún antibiótico a partir de hongos que fuera capaz de inhibir la actividad de la enzima que facilita la producción de colesterol.

Comprobar esa hipótesis solo está al alcance de gente paciente como chinos y japoneses y, a partir de 1971, Endo y sus colegas probaron suerte con casi cuatro mil tipos de hongos diferentes. A mediados del verano de 1972, encontraron un moho verde azulado, que se aisló de una muestra de arroz recogida en una tienda de cereales en Kioto y que mostraba capacidad para inhibir la síntesis del colesterol. Este moho estaba producido por el hongo Penicillium citrinum y es similar a los mohos azul verdosos que contaminan las frutas, como las naranjas y los melones. Tras un año tratando de aislar las sustancias químicas que el moho produce y que dan lugar a la inhibición de la producción de colesterol, en julio de 1973, pudieron hacerse con tres sustancias de clara actividad en ese proceso, tanto in vitro como in vivo. El producto mas activo de estos tres, que ellos denominaron ML-236B, fue el que se empleó en estudios posteriores de su viabilidad como fármaco contra el colesterol. Hoy conocemos a esa sustancia como compactina o mevastatina y fue, en realidad, la primera estatina descubierta. Aunque, como hemos dicho arriba, comercialmente nunca se vendió.

Y la razón no fue otra que, cuando tras años de estudios, la compactina se probó con animales de laboratorio (perros), se empezaron a acumular evidencias de que podía ser cancerígena. Estamos en unos años en los que los medios de comunicación americanos (y también japoneses) estaban publicando muchas cosas sobre el posible efecto cancerígeno de la sacarina, tras ensayos con ratones. La historia de la sacarina en USA os la he contado con mucho detalle en dos entradas (aquí y aquí) de este Blog pero, en lo tocante al Japón, su Gobierno acabó prohibiéndola y nunca se ha podido vender allí. Para complicarlo aún más, algunos médicos incluso dijeron que reducir el colesterol podría promover la hemorragia cerebral y el cáncer.

A la vista de esos problemas, la empresa de Endo, Sankyo, paralizó el proyecto de la compactina aunque empezaron a buscar otras estatinas con un nuevo perfil. Hoy sabemos que muchos de los resultados obtenidos con fármacos ensayados en esa época con animales se derivaban del empleo de cantidades desmesuradas de los mismos. Como ha contado muchas veces el bioquímico Bruce Ames, eran las enormes dosis que se empleaban en los primeros ensayos toxicológicos, y no la composición química del fármaco en sí, las responsables de la inflamación, la muerte celular y/o la proliferación celular. Ames y sus colaboradores concluyeron que las pruebas de cáncer en animales no proporcionaban una buena evaluación del riesgo de cáncer en dosis más bajas y en humanos, una teoría que hizo que, "todos los científicos que habían pasado sus vidas haciendo estas pruebas en animales se enfadaran con nosotros". Pero no hay que olvidar tampoco que, en esa época, se produjeron también desgraciados incidentes como el de la talidomida que he contado en otro Blog.

Al mismo tiempo que Sankyo empezaba sus pesquisas con una nueva estatina, otra compañía mas potente, Merck, también estaba en ello. Con la penosa circunstancia para Endo de que en el grupo de trabajo de Merck estaba implicado el Dr. Vagelos, el mismo al que Endo había pedido trabajar con él. Este grupo, también a partir de unos mohos, los del hongo Aspergillus terreus, descubrió otra estatina, la lovastatina, en 1978. Además, en ese tiempo, Vagelos era Vicepresidente de Merck, así que todo funcionó adecuadamente y en 1987 se comercializó la citada lovastatina de la mano de esa compañía. Los japoneses tardaron dos años en poner la suya en el mercado (la pravastatina) perdiendo una buena oportunidad comercial. Como decía Endo en su alocución, muchos años después: "Ahora supongamos que Vangelos me hubiera contestado enseguida y yo hubiera elegido su centro para trabajar. Esta historia hubiera sido diferente. Probablemente la lovastatina se hubiera comercializado diez años antes y yo hubiera estado en el proyecto".

Y os andaréis preguntando, con razón, qué tiene que ver el arroz de levadura roja que recetaron a mi amigo con todo esto. Pues bien, el arroz de levadura roja es una preparación muy antigua que se ha usado en diversos platos de cocinas orientales asi como en la medicina tradicional china y que se produce gracias a la acción de unos hongos llamados Monascus purpureus. Los mohos que generan contienen una sustancia, la llamada monacolina K que, quimicamente, es idéntica a la lovastatina que comercializó Merck. Así que el galeno donostiarra no anda descaminado, aunque cabría preguntarse si las dosis de esa sustancia en un suplemento alimentario están tan controladas como las dosis del fármaco de Merck.

Leer mas...

Powered By Blogger