martes, 27 de diciembre de 2022

Don Pío y el Búho


Rara vez he publicado aquí alguna entrada que, en mayor o menor medida, no tenga que ver con la Química. Pero hoy, para acabar el año, lo voy a hacer. En este día de los Inocentes (cuándo si no) del año 1872 nació en esta ciudad Pío Baroja y Nessi, uno de los preclaros escritores de su época. Así que hoy se cumplen ciento cincuenta años de su nacimiento. Y como esto es un Blog personal y el Búho ha sido barojiano desde su más tierna adolescencia, quiero que quede constancia del hecho en esta entrada. La siguiente efeméride, cuando se cumpla el siglo de su muerte (el 30 de octubre de 2056), me pillará ya convertido en cenizas.

En algún momento de la década de los sesenta del siglo pasado, mi padre compró las obras completas de Baroja en la edición de 1947 que publicó Biblioteca Nueva, una editorial radicada en Madrid. Siempre ha sido un misterio para mi la razón por la que mi padre compraba libros de autores conocidos (Quevedo, Baroja, Unamuno, Blasco Ibañez, Garcia Lorca,...), en cuidadas ediciones, en una librería desordenada que estaba en la manzana siguiente a la que yo llevo viviendo cuarenta años, en la Plaza del Buen Pastor de Donosti. Nunca le vi leer (al menos no de manera regular) ninguno de esos tomos. Pero cuando deshicimos el piso de mis padres hace dos años, todos tenían claro que los diversos tomos de las Obras Completas de Baroja eran para un servidor.

Empecé a leerlas cuando todavía estudiaba Bachillerato, muchas veces con nocturnidad y la ayuda de una linterna que ocultaba entre las sábanas. Lo que me ocasionaba más de una bronca paterna. Peor fue que esa pasión barojiana me supuso un cero en conducta cuando llevé la contraria al fraile corazonista que nos daba Literatura española, al decirle que la famosa novela La Busca no me había parecido una obra especialmente pecaminosa. Mi padre fue llamado a capítulo por el Director del Colegio pero me sacó la cara y todo quedó en nada. Aunque, con posterioridad, el Hermano Victorino (que así se llamaba el fraile) nunca me puso buena nota en los exámenes de la asignatura, a pesar de que yo era un estudiante excepcional (ya se me murieron mis abuelitas hace tiempo).

El caso es que, este año, se ha vuelto a constatar la mala prensa que, en las Instituciones, ha tenido siempre el cascarrabias de Don Pío. Los concejales del PP en el Ayuntamiento donostiarra propusieron en febrero la concesión de la Medalla de Oro de la ciudad con ocasión del aniversario que estamos comentando. Pero todo el resto del arco político se posicionó en contra. La discusión demostró que muchos de los ediles de mi pueblo no han leído nunca a Baroja o han hecho una búsqueda intencionada de alguna frase de Don Pío que le inhabilitara como merecedor de tal galardón. Cosa no muy complicada, ya que uno puede encontrar muchos párrafos en sus libros que indican su desapego por la Donosti de los años veinte. No quiero ni pensar lo que diría ahora, cuando lo que él criticaba (y que podría resumirse con el término ñoñostiarrismo) anda otra vez en máximos.

Pero creo que los tiros van por otro lado. Baroja no ha caído nunca bien a los políticos, particularmente a los nacionalistas. No voy a entrar en detalles que puedan enturbiar la entrada pero en los escritos de Baroja queda clara su aversión por Sabino de Arana (tampoco los comunistas salen bien parados). Ello resultó ya obvio en 2006, al cumplirse el cincuentenario de la muerte del escritor, cuando una propuesta presentada por el PSOE para que la Diputación Foral celebrara una serie de actos conmemorativos se encontró con la oposición frontal de la mayoría nacionalista entonces imperante (PNV más EA).

Así que lo de este año no es más que una reedición de lo anterior aunque, esta vez, hasta los socialistas se han apuntado al carro. Su portavoz en el Ayuntamiento y futura candidata a la Alcaldía adujo que Baroja fue muy crítico con la ciudad, llegando a escribir en 1917 (!!) que su espíritu era "lamentable. Allí no interesa la ciencia, ni el arte, ni la literatura, ni la historia, ni la política, ni nada". Y concluyó la concejala con otra cita: "Yo no tengo ciudad. Hoy por hoy me considero extraurbano". Para acabar apostillando que Baroja ya tenía reconocimiento en espacios públicos de esta ciudad.

Y es cierto. Aparte de un paseo con su nombre en los extrarradios, con escultura de Nestor Basterretxea incluida, hay un busto junto al teatro Victoria Eugenia, en uno de los extremos de la calle Oquendo, la calle en la que nació. Una foto de ese busto es la que decora el inicio de esta entrada y podéis ampliarla clicando en ella. En realidad, se trata de una copia en bronce del realizado en piedra por el escultor Victorio Macho que lleva, además, una inscripción que recuerda el centenario del nacimiento de Baroja, ahora hace 50 años.

El busto original se instaló en 1935 en el claustro del Museo de San Telmo y al evento asistió el propio Don Pío, acompañado por el pintor Zuloaga entre otros. Se retiró después de la guerra civil y volvió a su lugar original durante la Transición para reposar otra vez, y sin que se sepa por qué, a los almacenes municipales donde me consta que estaba en 2006. Ese año, con ocasión del cincuentenario de su muerte, un concejal del PNV pidió volver a colocarlo en el claustro de San Telmo, pero no estoy seguro de que esté ahí, porque no he ido al Museo desde su última restauración (tendré que ir en peregrinación un día de estos).

Frente a la réplica en bronce, al otro lado de la calle, hay una placa que recuerda la casa en la que nació Baroja. También esto tiene un punto de polémica, porque uno de los sobrinos de Don Pío (ya fallecido), Pío Caro Baroja, solía decir, con cierta sorna, que la placa estaba colocada en la casa equivocada y que, en realidad, su tío había nacido en la finca colindante.

En fin, espero me perdonéis estos desahogos barojianos. Don Pío no dejaba títere con cabeza y así fue haciendo "amigos". Una buena prueba son sus diatribas contra los profesores universitarios que tuvo. Dado que este Blog versa sobre la Química, voy a recordar su apunte del profesor de esa materia durante el curso preparatorio de Medicina que siguió en Madrid. En las primeras páginas de su novela El árbol de la Ciencia dice que "[.....]aquella clase de Química en la capilla del Instituto de San Isidro era escandalosa. El viejo profesor recordaba las conferencias del Instituto de Francia, de célebres químicos y creía, sin duda, que explicando la obtención del nitrógeno y el cloro estaba haciendo su propio descubrimiento. [...] Dejaba los experimentos aparatosos para la conclusión de la clase, con el fin de retirarse entre aplausos, como un prestidigitador"".

Que 2023 os sea leve, amigos.

Leer mas...

domingo, 18 de diciembre de 2022

Adhesivos poliméricos y activistas climáticos

En los últimos meses, son ya habituales en la prensa las noticias relacionadas con acciones de activistas contra el cambio climático que se pegan a conocidas obras de arte exhibidas en museos importantes, a entradas de edificios de bancos y compañías petrolíferas o, incluso, al pavimento de vías urbanas. Esta pasada semana, por ejemplo, se han dado un par de incidentes en Alemania con activistas de una organización denominada Letzte Generation (en castellano Última Generación) que interrumpieron el tráfico rodado como forma de exteriorizar sus ideas. Esta entrada no pretende entrar a valorar ese tipo de actitudes, aunque los comentarios están abiertos a quien quiera hacerlo. Solo quiero utilizarlas como excusa para ilustraros, bien es cierto que con alguna dificultad, sobre los polímeros supuestamente empleados en esas protestas. Que es en lo que me siento cómodo.

Las acciones en los museos comenzaron a ser evidentes el pasado verano de la mano de la organización Just Stop Oil, con base en Gran Bretaña, cuyos activistas pegaron sus manos a pinturas de Van Gogh, Constable o Turner en museos de Londres, Glasgow o Manchester. Otro pegó su cabeza al famoso cuadro de Vermeer "La joven de la perla" en el museo Mauritshuis de La Haya. En estos y otros casos, parece que el adhesivo utilizado ha sido el conocido SuperGlue, ya que así se lo ha reconocido recientemente la propia organización a la revista Slate.

Sobre el Superglue ya hemos hablado alguna vez en este Blog. El pequeño tubo que compramos contiene un compuesto químico en estado líquido denominado cianoacrilato que, en presencia de la humedad del aire, empieza a polimerizar rápidamente hasta formar un capa sólida entre las superficies que pretendamos adherir. La rapidez del proceso es tal que, si algo del producto nos queda entre los dedos y los juntamos, la propia humedad que tienen estos hace que el proceso se produzca igualmente, con lo que los dedos quedan firmemente unidos y tratar de separarlos drásticamente puede hacer que nos llevemos la piel. Pero, como es obvio, es un adhesivo muy interesante para este tipo de acciones que necesitan de una cierta rapidez, para que todo esté unido y bien unido antes de que llegue la poli a tratar de solventar el marrón.

Hay algunos métodos para deshacer esa potente adhesión. Por ejemplo, usar acetona, como la contenida en un quitaesmaltes de uñas. La acetona disuelve al polímero formado por el cianoacrilato y si se tiene la suficiente paciencia como para ir moviendo suavemente los dedos encolados mientras se aplica un paño con acetona en la zona adherida, la adhesión se irá debilitando y los dedos se separarán. Otros trucos implican el uso de aceite, agua con jabón o disolventes más especiales. En algunas protestas, los activistas se pegaron a las pantallas con las que se suelen proteger cuadros valiosos. Esas pantallas están hechas de polimetacrilato de metilo, un polímero transparente como el vidrio. En ese caso, la acción de la acetona es también interesante porque no sólo disuelve al adhesivo sino también al propio polímero protector por lo que la separación se puede llevar a cabo con una cierta facilidad. El protector, sin embargo, resulta dañado y habrá habido que cambiarlo pero parece que los cuadros no han sufrido deterioro alguno.

Algo más complicado de entender parece lo que ha ocurrido con las dos acciones de los activistas de Letzte Generation que mencionaba arriba. He rebuscado en páginas alemanas (cuyo idioma no controlo) que dan la noticia, gracias a la posibilidad de traducirlas en los navegadores modernos. Pero no he encontrado de forma concluyente la naturaleza química de los adhesivos empleados. Algún medio español habla de que fue también SuperGlue, mezclado con arena, el adhesivo que empleó el activista Raul Semmler, el pasado fin de semana, para pegarse a una carretera cerca de Mainz e interrumpir así el tráfico. Lo de la arena podría ser una forma de implicar a toda la mano, y no solo a la palma, en la adhesión. Lo que es evidente es que al activista se le fue la mano (y nunca mejor dicho) en la cantidad de adhesivo empleada, pegándose de tal forma al asfalto que hubo que arrancar, a base de un taladro, un trozo de este, con mano incluida, como forma de reanudar el tráfico ante la imposibilidad de hacerlo de otra manera. La mano quedó tal y como se ve en la foto que ilustra esta entrada y la eliminación del adhesivo, hasta dejarle a Raul su mano en condiciones, ha tenido que ser un proceso largo y, probablemente, muy molesto.

En el otro incidente, activistas de la misma organización, embutidos en trajes de neopreno, trataron de pegarse sentados a una calle de Munich tras rociarse con un líquido blanquecino. Pero el intento resultó un fiasco y debieron quedarse sin habla al comprobar que el pegamento no solo no les adhería al suelo sino que, por el contrario, facilitaba que la policía los arrastrase fuera de la calle. Algunos medios han especulado con que los activistas no tuvieran en cuenta el que las temperaturas en el momento de la acción estaban bajo cero y, por ello, el adhesivo no funcionó. Es difícil saberlo pero visto lo que se ve en las fotos y si se me permite lanzar una hipótesis, yo diría que usaron un adhesivo a base de una resina epoxi.

El adhesivo tipo epoxi más conocido es el que durante años se ha vendido en cualquier ferretería bajo la marca Araldit. Se presenta en dos tubos (bicomponente), uno con la resina epoxi propiamente dicha, un polímero de cadenas cortitas, y otro con agentes que van a provocar su endurecimiento (o curado) cuando el contenido de ambos tubos se mezcla. Ese curado implica que las cadenas de la epoxi se van uniendo entre ellas, lo que provoca el citado endurecimiento, que tiene además como consecuencia el que el material final es insoluble en disolventes orgánicos y si tratamos de calentarlo para que se ablande tampoco lo conseguimos y, como mucho, la resina curada se carbonizará si se alcanzan temperaturas elevadas.

Pero a nivel industrial se venden resinas epoxi que ya llevan el agente de curado incorporado (monocomponente. Para que no solidifique enseguida y se pueda distribuir comercialmente, el agente de curado está elegido adecuadamente y solo hace su papel después de un tiempo largo (horas) tras su aplicación, tiempo que, además, es más o menos largo dependiendo de la temperatura a la que está la superficie sobre la que se aplica. Y aventuro que ese es el tipo de adhesivo que los activistas pensaron usar pero que la baja temperatura de las calles de Munich hizo que el proceso de curado no tuviera ni visos de empezar antes de que llegara la poli. Y como lo que se habían rociado era una cosa pringosa y resbaladiza, ello facilitó la labor policial. Supongo, por otro lado, que aparte de protección contra el frío reinante, el traje de neopreno era una forma de asegurarse el que, si la cosa hubiera funcionado, no los tuvieran que arrancar con taladro como a su colega. Bastaría con quitárselo y punto.

No deja de tener su gracia que el científico que estudió, ya en el siglo XIX, la relación entre la temperatura y la velocidad a la que un proceso químico ocurre, no fue otro que Svante Arrhenius, el mismo que, como ya conté aquí, fue el primero en cuantificar en 1896 el efecto que tiene en el calentamiento de la Tierra el duplicar la concentración de CO2 en la atmósfera.

Leer mas...

jueves, 8 de diciembre de 2022

Búhos de la Edad del Cobre


Lo que hoy os voy a contar tiene poco que ver con la Quimiofobia o la Química que suelen inspirar muchas de mis entradas. En este caso, se trata de una curiosidad que ha surgido de forma casual, tras recibir una de las muchas alertas de revistas científicas a las que estoy suscrito. En el caso que nos va a ocupar, me llegó esta semana una alerta de la llamada Scientific Reports que publica el grupo Nature. Como en el título aparecía la palabra owl (búho) decidí echarle una ojeada. Se trata de un artículo de científicos españoles, liderados por un investigador de la Estación Biológica de Doñana. Y hace referencia a placas de pizarra grabadas durante la Edad del Cobre que, generalmente, se han encontrado en yacimientos tanto españoles como portugueses, en el suroeste de la Península Ibérica.

Una de esas placas, la que ilustra esta entrada y que podéis ampliar clicando sobre ella, fue encontrada en Cerro de la Cabeza, un sitio arqueológico muy interesante situado en la provincia de Sevilla. La placa data de finales del tercer milenio antes de Cristo y pertenece a los fondos del Museo Arqueológico de Sevilla (*). Basta ver sus dos grandes ojos centrales para identificar en ella la imagen de un búho. Dado el fetichismo que tengo por estos pájaros, la maravillosa imagen y su antigüedad, no me quedó otro remedio que seguir leyendo el artículo. Busqué después la imagen en el Museo sevillano e, incluso, entré en su tienda para ver si era posible comprar algo con ella relacionado. Pero no hubo suerte.

La placa en cuestión, y otras similares, pesan en torno a un kilo y suelen tener dimensiones parecidas a la palma de la mano. La que os muestro aquí mide 20,8 cm de alto por 15,3 cm de ancho y tiene un grosor máximo de 1,5 cm. Dicen los autores que esa y otras placas que también se muestran en el artículo, recuerdan a dos tipos de búhos que aún hoy están muy presentes en la zona, el mochuelo común (Athene noctua) y el búho chico (Asio otus) que, posiblemente, fueron también los búhos más abundantes alrededor de los asentamientos humanos de ese período histórico, como el de Cerro de la Cabeza. La gente de la época tuvo que ser consciente de su presencia e, incluso, haber interactuado con ellos. El por qué en estas placas aparecen muchos búhos, pero no otros animales, podría deberse a que los búhos son los más antropomórficos de todos los animales, con los ya mencionados grandes ojos frontales en sus enhiestas cabezas. Incluso hoy en día, los búhos se representan sistemáticamente, con sus dos ojos mirando al observador.

Los autores del artículo explican que esas placas están hechas de pizarra por ser esta una de las rocas más comunes en el suroeste de Iberia, proporcionando además algo parecido a un lienzo en blanco (aunque pétreo y gris) donde grabar líneas, utilizando herramientas puntiagudas de pedernal, cuarzo o cobre. Y que la forma en la que las pizarras se exfolian facilita la elaboración de placas con aspecto de búho. Si quisiéramos hacer lo mismo con las siluetas de otros animales, y que se identificaran como tales, exigiría por parte del "artista" habilidades adicionales de tallado y el uso de herramientas más específicas. La fabricación y el diseño de estas placas era algo sencillo y no requería altas habilidades ni mano de obra intensiva, como ha podido demostrarse con experimentos de replicación de estos diseños.

Especulan los autores con que estas placas de búhos podrían haber sido ejecutados por gente joven, ya que se parecen a los búhos pintados hoy en día por estudiantes de primaria, una prueba de que los dibujos esquemáticos son universales y atemporales. Al final, proponen que esas placas de pizarra con forma de búho pudieran ser los restos de un conjunto de objetos utilizados tanto en actividades lúdicas como en ceremonias rituales. Y que el grabado de las placas puede haber sido parte del juego. La frontera entre el juego y el ritual es difusa en las sociedades antiguas y "no hay contradicción en jugar con juguetes similares a animales y, en algún momento, usarlos como ofrendas como parte de rituales comunitarios como los que se daban en las colosales tumbas megalíticas de la Edad del Cobre".

En muchos casos, como pasa en el caso que os he mostrado al principio, estas placas de pizarra muestran además un par de agujeros en la parte superior, por encima de las cejas del búho y entre ellas. Una posible interpretación de la función de esos orificios es que sirvieran como puntos de introducción de algún cordaje que permitiera colgarlas del cuello o en las paredes de las tumbas. Otra posibilidad es que permitieran insertar ahí plumas de ave, añadidas a las placas justo en el lugar donde emergen los mechones en los búhos vivos.

Comprenderéis que después de leer todas estas cosas de mis colegas búhos tenía que dejar constancia aquí de ello. Este Blog, y cada día que pasa más, no es más que un diario de un Búho un poco grande y viejo...

(*) La foto de la placa mostrada es de Isabel María Villanueva Romero.

Leer mas...

miércoles, 30 de noviembre de 2022

El CO2 y el volcán Mauna Loa


La figura que ilustra esta entrada es la evolución de la concentración de CO2 en la atmósfera desde finales de los años cincuenta, medida en una recóndita estación meteorológica, a más de 3000 metros de altura, construida en la falda del volcán Mauna Loa, en la llamada Isla Grande (o Hawai) del archipiélago hawaiano. Es probable que estos días hayáis visto en los medios que el citado volcán ha entrado en erupción, con espectaculares imágenes de la misma. Lo que ha traído como consecuencia que hoy, cuando he entrado en la página web que actualiza día a día la curva de la figura, me he encontrado con que el día 28 de noviembre la concentración de CO2 fue 417,31 ppm, mientras que la del día 29 no estaba disponible porque se habían suspendido las mediciones a causa de la erupción del volcán.

La gráfica que se muestra arriba se conoce como gráfica Keeling en honor al científico, Charles David Keeling, que comenzó a medir la concentración de CO2 en la atmósfera a mediados de los cincuenta, como proyecto postdoctoral, en el Departamento de Geoquímica del Instituto Tecnológico de California (Caltech). Comenzó tomando muestras de aire y agua en recónditos lugares de Estados Unidos, volviendo con ellas a los laboratorios del Caltech para medir las concentraciones de CO2. Keeling se sorprendió al ver que esas concentraciones aumentaban por la noche y disminuían durante el día, con una concentración vespertina casi constante de 310 partes por millón (ppm), independientemente del lugar en el que se habían capturado las muestras. Pronto comprendió que esos cambios se deben a que durante el día las plantas toman CO2 de la atmósfera para realizar la fotosíntesis con ayuda de la luz solar. 

En 1956, la Oficina Meteorológica de Estados Unidos (hoy incluida en la Administración Nacional Oceánica y Atmosférica, NOAA), así como otras organizaciones americanas y europeas, estaban preparando programas de investigación para el Año Geofísico Internacional, a celebrar entre 1957 y 1958. La Oficina Meteorológica tenía previsto medir la concentración de CO2 atmosférico en lugares remotos para establecer una línea base de la misma. Keeling propuso a la Oficina Meteorológica y al llamado Instituto Scripps, en la Jolla, California, el uso de una nueva herramienta analítica, un analizador de gases por infrarrojos que, a diferencia del aparato que él venía utilizando, permitía realizar mediciones de CO2 de forma continua en muestras de aire. Después de diversos intentos con el aparato en cuestión en la Antártida y a bordo de barcos y aviones, la primera lectura en Mauna Loa se llevó a cabo el 29 de marzo de 1958, estableciendo la concentración atmosférica de CO2 en esa fecha en 313 ppm.

Dadas las difíciles condiciones en las que se realizaron las primeras mediciones (cortes de luz, problemas logísticos), los datos de 1958 fueron un tanto erráticos pero Keeling no cejó en el empeño y cuando tuvo las medidas del año 1959 completo, quedó claro el comportamiento que se sigue viendo en la gráfica que ilustra esta entrada. En ella se ve una sucesión de pequeños picos, con máximos en torno al mes de mayo y mínimos en noviembre. De nuevo la fotosíntesis tiene algo que ver. Las plantas absorben CO2 en el proceso de fotosíntesis durante el periodo de crecimiento de sus hojas, que va de abril a agosto, reduciendo así los niveles de CO2 atmosférico durante esos meses, mientras que en otoño e invierno, las plantas pierden hojas, capturan menos CO2 y el carbono almacenado en los tejidos vegetales y los suelos se libera a la atmósfera, lo que aumenta las concentraciones del mencionado gas.

Con la curva de Keeling actualizada en la mano nadie puede negar lo obvio. La concentración del CO2 en la atmósfera ha ido creciendo paulatinamente desde las 313 ppm en los inicios de la estación de Mauna Loa (un 0,03% del gas en la atmósfera), a los 417 de este noviembre, a un ritmo que, además, parece acelerarse. Y todo indica que ese crecimiento no tiene precedentes en muchos años atrás, aunque para ello haya que echar mano de medidas que analizan el CO2 atrapado a diferentes profundidades en el hielo permanente de la Antártida y que corresponden a su concentración en épocas pretéritas. Esas medidas muestran que, desde hace 800.000 años (antes de que apareciera el Homo sapiens), el CO2 parece haber variado, llegando incluso a valores muy bajos (150 ppm) que, probablemente, dificultaron la fotosíntesis de las plantas entonces existentes. Pero en los últimos 2000 años, esa concentración parece haberse mantenido constante en unas 280 ppm hasta el advenimiento de la Revolución industrial, cuando empezó a crecer generando el aumento posterior detectado por Keeling en los cincuenta.

Estas reconstrucciones paleoclimáticas, medidas indirectas de una magnitud en el pasado, interesantes para el estudio del clima en el futuro, se llaman Proxies en inglés e Indicadores climáticos en castellano. Hay otros como los anillos en cortes de troncos de árboles centenarios que permiten reconstruir las temperaturas del pasado. O las concentraciones de boro-11 en conchas y caparazones de animales marinos que permiten reconstruir el pH del agua del océano en épocas pretéritas. Pero, todo hay que decirlo, el uso de los proxies ha estado envuelto en diversas polémicas (a veces bastante agrias) entre climatólogos. Cosa que no puede pasar con datos tan contrastados como los obtenidos por la estación de Mauna Loa y otros concordantes medidos en otras estaciones a lo largo y ancho del mundo.

Ahora, la carretera que lleva a la estación se ha visto cortada por un río de lava proveniente de la erupción y los científicos andan a la carrera trasladando los equipos a lugares seguros. Cuánto tiempo durará la incidencia y qué implicaciones tendrá en las medidas futuras es un poco una incógnita. Pero el espíritu del concienzudo y testarudo Keeling andará en el ambiente para solucionarlo. Mientras tanto, esas otras estaciones que acabo de mencionar seguirán con su trabajo.

Leer mas...

martes, 15 de noviembre de 2022

Parabenos diez años después

Nada como un día de San Alberto (patrón de los químicos) para ponerse a escribir una entrada que ya he decidido que le voy a poner la etiqueta Quimiofobia. Hace unos días una lectora me envió un comentario a una entrada en el Blog sobre los parabenos, entrada que tiene la friolera de diez años. Literalmente me decía: "Ni parabenos ni cualquier otro tóxico que pueda ser perjudicial para la piel. No es fácil dar con el desodorante o producto de cosmética ecológica idóneo el cuidado de nuestro cuerpo. Algunos herbolarios o incluso supermercados tienen apartados específicos para este tipo de productos que verdaderamente son ecológicos, BIO y solo usan ingredientes naturales. Una vez que das con ellos y compruebas que funcionan y cubren tus necesidades es una gozada. Yo ya no compro las marcas tradicionales que anuncian en todos los sitios, prefiero pagar algo más y garantizar el cuidado de mi piel (y del planeta)".

A pesar de ser de Hernani, procuro ser bastante discreto y conciliador en mis respuestas a comentarios con los que (como este) discrepo radicalmente. Hice como que no había leído lo de los herbolarios, supermercados y similares, le di las gracias por su comentario, le dije que cada cual se gasta el dinero en lo que quiere y le prometí poner al día el asunto de la toxicidad de los parabenos. Pero el comentario me parece un ejemplo palmario de la Quimiofobia que impera en los ámbitos de la cosmética.

La entrada a la que la lectora hacía referencia se publicó en octubre de 2012 y ponía al día otra de 2010. Voy a tratar de condensar ambas para que no os las tengáis que leer. Los parabenos son ésteres del ácido para-hidroxibenzoíco (PHBA) y es común encontrar nombres como metilparabeno, etilparabeno, propilparabeno o butilparabeno en las etiquetas de muchos productos de cosmética (aquí nos centraremos en los desodorantes) y, también, en alimentos y fármacos, ya que los dos primeros de esa serie están registrados como aditivos alimentarios con su correspondiente código E-. Así que, merced a alimentos y fármacos con parabenos, los ingerimos de manera bastante habitual. Una vez en nuestro tracto gastrointestinal se absorben rápidamente, se hidrolizan en el hígado y los productos que se generan se eliminan por la orina en cuestión de horas.

Tanto en alimentos y fármacos como en cosmética, el papel de los parabenos es preservar esos productos contra la acción de determinados microorganismos que puedan contaminarlos y arruinarlos. Y se emplean en concentraciones que, rara vez, superan el 0.3% del preparado que sea. Algunos, como el metil parabeno, se encuentran en productos naturales como las fresas que nos comemos, aunque los parabenos que se emplean en cosmética se sintetizan en su casi totalidad.

En 2004, un grupo encabezado por Philippa Darbre, de la Universidad de Reading en Inglaterra, publicó un artículo [J. Appl. Toxicol. 25, 5 (2004)] en el que analizaban 20 muestras extraídas de tumores de mama, encontrando en todos ellas niveles de varios nanogramos por gramo de muestra de los cuatro parabenos ya mencionados y de otros dos más (isobutil parabeno y bencil parabeno). El hecho de que aparecieran los parabenos tal cual y no los productos en los que se suelen descomponer en el tracto gastrointestinal humano cuando se ingieren por vía oral, hizo que los autores formularan la hipótesis de que eran absorbidos directamente a través de la piel en la zona en la que se aplican los desodorantes. Y esa hipótesis ha generado en años posteriores un importante números de publicaciones científicas dedicadas a estudiar diversos aspectos de la toxicidad de los parabenos.

Hoy sabemos (ver, por ejemplo, este informe de los Centros para el Control y Prevención de las enfermedades, CDCs, un prestigioso organismo gubernamental americano) que las enzimas de la piel también metabolizan rápidamente los parabenos y lo convierten en el PHBA del que se derivan. Además, también sabemos que los parabenos que acaban penetrando, lo hacen en grado inversamente proporcional a su tamaño, así que el metil- es el que menos se absorbe, luego el etil-, luego el propil-, etc. Otra característica de los parabenos, que ya el trabajo de la Darbre alertaba es que imitan el comportamiento de los estrógenos, cuyo papel está bien establecido en el crecimiento de los tumores. Pero hoy sabemos que los parabenos son decenas o millones de veces menos potentes, en lo que a actividad estrogénica se refiere, que el estradiol, una hormona sexual importantísima para las mujeres y producida en sus ovarios.

Aseveraciones más explícitas que han ido refutando las tesis de la Prof. Darbre en lo relativo a la relación parabenos/cáncer de mama pueden encontrarse en las páginas de las agencias que velan por nuestra salud como la FDA americana (última pregunta) o la EFSA europea (página 7, apartado 3.1).

Revisiones más recientes, como esta de 2021, dejan claro ya en su resumen inicial que, aunque se hayan publicado estudios sobre la toxicidad de los parabenos en animales y en pruebas in vitro, no pueden tomarse en serio a la hora de discutir los riesgos sobre la salud humana, dadas las poco realistas condiciones en las que esos estudios se han llevado a cabo. También se concluye que muchos estudios han demostrado que los parabenos no son cancerígenos, ni mutagénicos (es decir, no alteran el material genético de las células) ni teratogénicos (no producen alteraciones en el feto durante su desarrollo en el útero). De hecho, los más comunes  (el metil-, el etil- y el propil-) se consideran seguros para su uso en cosmética y farmacia.

Pero da igual. Ya en la entrada de 2010 arriba citada, este vuestro Búho aventuraba un negro futuro a los parabenos, a pesar de su eficacia, tradición, precio y de la inocuidad de su uso. Y es una profecía que se ha cumplido. Particularmente en USA, ya casi ningún desodorante contiene parabenos porque la industria cosmética no quiere líos y han ido introduciendo nuevos sistemas protectores contra el desarrollo de microorganismos en los cosméticos. Y los contrarios a esa industria, como mi comunicante, prefieren los productos naturales, BIOs y ecológicos que, en cuanto a su seguridad, tendrían que estudiarse con idéntica intensidad y metodologías como las empleadas con los parabenos tras la alerta de la Prof. Darbre.

Y si uno bucea un poco en las páginas de desodorantes sin parabenos puede encontrarse con contrasentidos como los de esta página de BAN, una conocida marca de desodorantes americana. Bajo el título "Parabenos en desodorantes: la verdad que no conoces", se explica prácticamente todo lo que acabo de explicar yo en líneas precedentes. Para, finalmente, proclamar a los cuatro vientos que como quieren asegurarse de que todos sus clientes se sientan seguros usando sus productos y algunos consumidores eligen evitar el uso de parabenos, confirman que ninguno de sus productos los contienen. ¡Toma lógica aplastante!.

Ah, y en cuanto a lo de cuidar el planeta que decía mi comunicante, el mismo documentos de los CDCs, arriba mencionado, explica al que quiera entender que los parabenos no persisten en el medio ambiente ya que se degradan fotoquímicamente en el aire y se biodegradan en el agua.

Leer mas...

lunes, 31 de octubre de 2022

Paneles solares y su reciclado

Esta entrada puede considerarse una continuación de la que escribí hace solo unas semanas sobre el reciclado de las palas de los aerogeneradores. Tras esa entrada, algunos lectores me preguntaron  qué pasaba con los paneles solares y yo me apunté en algún lado el escribir al respecto. Pero como mi memoria es ya la propia de un septuagenario, se me había olvidado. Las pasadas dos semanas hemos andado visitando tierras murcianas y cartageneras y, al ir y al volver, me he vuelto a sorprender con la impresionante granja solar cercana a la cárcel situada en Fontanars dels Alforins y ello ha hecho que, a la vuelta, me ponga con el asunto.

La historia es, de alguna forma, una repetición de lo que ya conté en el caso de las turbinas eólicas. Decía hace poco un artículo publicado en el ACS Central Science que los investigadores y las empresas se están preparando para "un inminente tsunami de residuos fotovoltaicos". Y ello es así, porque la capacidad fotovoltaica se ha multiplicado por 750 en los últimos veinte años y esa energía que proviene del sol genera ya casi el 4% de la electricidad mundial (según cuenta la Agencia Internacional de la Energía). Los paneles fotovoltaicos tienen (igual que los aerogeneradores) una vida útil de unos 25/30 años y se estima que millones de toneladas de estos paneles, ya en desuso, se nos van a ir acumulando en las próximas décadas.

Para ver qué se puede hacer con esos residuos viene bien entender cómo están construidos esos paneles solares. Un panel solar, como el que se ve en la figura que decora el principio de esta entrada, es un conjunto de varios módulos (los rectángulos grandes enmarcados en blanco en esa foto). Y cada módulo es un conjunto de varias células solares (los cuadraditos pequeños). Pero para enterarnos más vamos a destripar uno de los módulos, siguiendo lo que hace la figura siguiente bajo este párrafo, en la que podéis clicar para verla en mayor tamaño.

Un módulo solar es un sandwich de varias capas. El elemento principal (aunque solo suponen el 4% en peso del módulo) lo constituyen las células solares (las coloreadas en azul oscuro) fabricadas, en la mayor parte de los casos, de silicio, aunque pueden usarse otros materiales como el teluro de cadmio, con problemas adicionales por la toxicidad del cadmio.

Las células están interconectadas entre si por hilos de plata, cobre y plomo. Para asegurar su estanqueidad, cada módulo está protegido (¡cómo no!) por dos capas de un polímero denominado genéricamente EVA y que los del ramo llamamos copolímero de etileno y acetato de vinilo. Se trata de un material transparente (la luz tiene que llegar a las células solares) y muy duradero frente a la acción de la luz y el calor. También protege a las celdas de la entrada de humedad, al tener un carácter hidrofóbico.

En la parte que se muestra al sol y sobre el filme de EVA se coloca una capa de vidrio de unos 3 o 4 mm de espesor, especialmente fabricado para resistir todo tipo de impactos que el panel pueda recibir y los cambios bruscos de temperatura. El propio filme de EVA sirve un poco como pegamento entre las células y el vidrio. Por la parte no expuesta al sol, el módulo se recubre de otra capa de polímero, generalmente polipropileno, PET o algún polímero fluorado para asegurar una mayor estanqueidad del conjunto que, finalmente, se enmarca en una estructura de aluminio que protege los bordes del módulo y proporciona una estructura sólida al mismo. Toda la electricidad generada por celdas se recoge en una caja de conexiones.

La pormenorizada (aunque muy simplificada) descripción que os acabo de hacer, viene bien para entender lo complicado del reciclaje de estos paneles que están construidos como para que duren lo más posible, cosa que no pasa como ya hemos dicho. Quitar el marco de aluminio y la caja de conexiones es la parte más fácil. Algo más difícil es despegar el vidrio de las celdas solares y muchas veces los recicladores se limitan a destrozarlo y vender el vidrio contaminado de plástico. Otros tratan de eliminar los plásticos disolviéndolos o aplicándoles calor hasta degradarlos. En cualquier caso, separar la caja de conexiones, el marco de aluminio y el vidrio supone recuperar una parte muy importante de un módulo. Lo que todavía es harto complicado es separar la plata y otros metales de cada una de las células y extraer el silicio que estas contienen.

Algo muy importante. Las obleas viejas de silicio, de unas 200 micras de espesor, no pueden simplemente fundirse y utilizar el fundido para formar nuevas células. Además de restos de metales como la plata, el cobre o el aluminio del marco, esas células contienen los llamados dopantes (boro y fósforo), que juegan un papel fundamental en la captación de la luz solar y su transformación en energía eléctrica. Lo que hace muy complicado llegar a obtener el llamado silicio solar, el adecuado para las células nuevas, que debe tener una pureza mínima del 99,9999% en el mismo. 

Mucha gente está trabajando y mucho dinero se está invirtiendo en aprender a recuperar todo lo que se pueda de estos nuevos artilugios que pueblan nuestros montes y campos. Pero no es una cuestión baladí. Y todo ello sin hablar, porque la entrada se haría larga, del gasto energético que el proceso lleva aparejado.

Leer mas...

jueves, 13 de octubre de 2022

Vinos submarinos

Hace unos días una amiga me regaló una botella de vino blanco de una bodega extremeña. Conocía la bodega y sus buenos (para mi) tintos pero no conocía este blanco. Cuando entré en la ficha de cata del vino en la web de la bodega me encontré con la sorpresa de que lo denominan "vino submarino", la variedad de uva es una "mezcla atlántica de vinos costeros" y, entre otras cosas, se cuenta que las botellas han estado sumergidas ocho meses en la Bahía francesa de Saint Jean de Luz (cerquita de Extremadura como se sabe), a unos ocho grados centígrados de temperatura y una presión de tres bares, lo que implica que las botellas han estado a unos 20 metros de profundidad.

El asunto no era nuevo para mí. Ya había leído cosas sobre la recuperación de botellas o ánforas en barcos hundidos y el buen mantenimiento del vino en ellas guardado. Pero esto es diferente. Hace pocos años se empezó a hablar del envejecimiento intencionado bajo el mar de botellas de vino en un sitio próximo a Plentzia en Bizkaia. O de una bodega que hace lo mismo con unos albariños sumergidos en la ría de Arousa. También algunos vinos canarios se han sumado a la moda. Son producciones muy limitadas y, dados los problemas logísticos que hay que solventar para esa crianza bajo agua, el precio se dispara y uno puede comprar botellas de estas bodegas a precios del orden de los 60/80 €, aunque el vino extremeño que me regalaron era bastante más barato.

Si uno revisa las webs de estas bodegas o los artículos al respecto de algunas conocidas revistas de vino, en ambos sitios se habla de las bondades de tener el vino a esas profundidades. Por ejemplo, otro bodeguero, esta vez en Calpe (Alicante), argumenta que hay cuatro factores presentes en el envejecimiento bajo el agua que son beneficiosos para el vino: "presión, temperatura constante (alrededor de 14 grados), salinidad, ausencia de luz y ruido, y las suaves corrientes constantes del mar". Y que además un envejecimiento de tres meses, a una profundidad de 30 metros, equivale a siete u ocho años de envejecimiento en botella en una bodega tradicional.

Como ya me conocéis y habréis leído mi entrada sobre los vinos biodinámicos, no os extrañará mi escepticismo inicial sobre este nuevo nicho de negocio. Así que voy a tratar de explicar mis objeciones tras hablarlo con mi nariz de oro de referencia, alguien que ya ha colaborado en este Blog escribiendo de cosas del vino y con el que, recientemente, compartí mesa, mantel y un clásico Viña Cubillo de López de Heredia.

Para empezar, lo que se mete en el mar son botellas de vino convencionales. Por ejemplo, en el caso de la Bodega de Calpe, son vinos de la conocida Bodega Enrique Mendoza, como el Estrecho, un tinto 100% Monastrell que ha estado 16 meses en barricas de roble francés. Así que ya tiene todas sus cualidades organolepticas que provienen de la cepa, la tierra, la fermentación y la crianza. Lo que se hace bajo el nivel del mar es el posterior y clásico envejecimiento en botella. Y en ese proceso en botella, es difícil que en el mar, la temperatura, la luz y el ruido sean tan constantes como lo son en los calados riojanos donde las botellas envejecen. Como los de la primitiva Bodega de Federico Paternina en Ollauri (hoy Bodega Conde los Andes) o en las no menos impresionantes pero modernas (2004) instalaciones de Viña Real en Laguardia.

Porque, por ejemplo, la temperatura a las modestas profundidades del mar donde se coloca el vino cambia con las condiciones meteorológicas del exterior. Y la luminosidad, bajo la superficie del mar, oscila entre el día y la noche, las estaciones o la turbidez ocasional del agua. En cuanto a la presión, las botellas de vidrio son recipientes rígidos excepto en la zona del tapón, que podríamos considerar como un émbolo que puede transmitir la presión al interior. Pero, para eso, el tapón tendría que moverse y, para convencerme del efecto de la presión, me la tendrían que medir delante de mis ojos. Y lo mismo pasa con la salinidad. Las botellas son prácticamente estancas porque, en caso contrario, el vino sería cualquier cosa menos vino.

Y, sin embargo, si uno sigue revisando las fichas de cata de estos vinos se encuentra (por ejemplo, en el caso del blanco extremeño) con perlas como "de fragancia sutil, destaca su aroma a maresía que evoca largos paseos junto al mar. Una primera nota salina recuerda a marisco, para dar paso a una nota vegetal propia de algunas especies de algas". O cuando se refiere al paso en boca: "tras una entrada suave, desarrolla toda su expresión con una acidez que confiere a la boca gran tensión, verdadera mineralidad marina".

En una reseña de la revista SelectusWINES sobre el vino producido en Calpe, se cuenta que aunque aún no hay pruebas científicas que puedan avalar las proclamas sobre las peculiaridades de estos vinos, hay Universidades, como la de Almería o la Universidad Católica de Valencia, que han iniciado estudios al respecto. Ya sabéis que una de mis debilidades es la búsqueda bibliográfica de cualquier asunto con ribetes científicos que me mosquee. Y, también en este caso, me he ido a la Web of Science y he hecho las búsquedas pertinentes para ver qué hay por el momento.

Y asi, introduciendo en el buscador el término "wine aging" me salen más de 16000 artículos. Si uso "wine aging in bottle" la cosa se queda en unos 850 y con "underwater wine aging" solo salen 8 que he repasado concienzudamente. Sólo uno de esos artículos tiene que ver con lo que nos puede interesar aquí. Se trata de un ron de Madeira en el que se estudian cambios fisicoquímicos inducidos por una estancia a unos 10 metros de profundidad durante 14 meses, comparándolos con el envejecido a la manera tradicional en botellas y en bodega. Ese ron se obtiene a partir de la fermentación y posterior destilación del zumo del azúcar de caña y se suele también envejecer en barricas de roble. No es un vino al uso, pero es lo que hay por ahora.

Al comparar botellas sumergidas y no sumergidas en el mar, los autores concluían que 14 meses de envejecimiento en el fondo marino inducían cambios perceptibles en las muestras de ron. Se encontró un aumento de las concentraciones de ésteres (particularmente acetato de etilo), junto con la reducción de las concentraciones de algunos alcoholes superiores. Además, se produjeran cambios de color perceptibles por el ojo humano. Por el contrario, ese envejecimiento subacuático no conduce a cambios en los marcadores típicos del envejecimiento del ron en las barricas de roble, ya que la composición de terpenoides y no flavonoides no cambiaban en comparación con las muestras de botellas que no se habían sumergido.

Parece razonable pensar que envejecimientos en botella bajo el agua, en condiciones distintas a las del envejecimiento tradicional en bodega (temperatura y quizás los ciclos luz/oscuridad) puedan generar cambios en algo tan complejo como la evolución química de un vino. Pero de ahí a la "poesía" de algunas fichas de cata.... En cualquier caso, me beberé el blanco de mi amiga con atención y añadiré lo de "underwater wine aging" a la lista de temas que periódicamente reviso en la Web of Science. Y si hay algo relevante aviso.

Leer mas...

jueves, 29 de septiembre de 2022

Ozono, CFCs y otra vez James Lovelock


En una entrada de 2019, hablábamos del papel que, en el fracaso de que la compañía Boeing pudiera lanzar su plan de vuelos supersónicos usando la estratosfera, tuvieron los miedos a que, como consecuencia de esos vuelos, disminuyera la capa de ozono sobre nuestro planeta, con el consiguiente efecto de una menor filtración de las radiación UV y su derivada en forma de los cánceres de piel. Vimos que como posibles causas para una disminución de esa capa estaban los compuestos clorados emitidos por las pruebas con misiles, el vapor de agua generado por los vuelos supersónicos o los óxidos de nitrógeno (NOx) generados por esos mismos vuelos. Estamos hablando de los primeros años de la década de los setenta. Pero en esos mismos años entra en escena nuestro conocido James Lovelock para dar un giro fundamental al asunto del ozono, en lo que se puede considerar la prehistoria de lo que finalmente acabó con la regulación de los gases denominados clorofluocarbonos o CFCs.

En 1972, Lovelock se embarcó en una larga travesía desde su casa en el Reino Unido hasta la Antártida a bordo del buque oceanográfico RRS Shackleton. Lovelock iba provisto de un dispositivo similar al que aparece en la imagen que ilustraba la entrada que le dediqué con ocasión de su reciente fallecimiento (técnicamente un cromatógrafo de gases de la época provisto del detector de captura electrónica inventado por el propio Lovelock).

El objetivo de ese viaje era medir la composición en la atmósfera de diversos productos químicos que se encuentran en ella en composiciones muy pequeñas (trazas), gracias a que la sensibilidad del citado detector permitía medir concentraciones en partes por trillón. Y Lovelock estaba particularmente interesado en medir la concentración de un gas concreto (el triclorofluorometano, CCl3F) que llevaban unos años siendo usado, entre otras cosas, como propelente de envases conteniendo insecticidas, desodorantes y otras sustancias.

La razón de ese interés, tal y como explicaban Lovelock y sus colegas en el artículo [Nature 241, 194 (1973)] en el que contaban sus resultados, radicaba en que habiendo sido descubierto recientemente y siendo extraordinariamente estable, "podía usarse como un marcador para estudiar los procesos de transferencia de masa en la atmósfera y los océanos". Los autores dejaban claro desde el principio que las concentraciones encontradas (unas decenas de partes por trillón) no constituían riesgo alguno y, entre otras conclusiones, apuntaban que la concentración de ese gas iba descendiendo a medida que el RRS Shackleton iba acercándose a la Antártida.

Frank S. Rowland era un profesor de la Universidad de California que andaba esos años a la búsqueda de nuevos temas de investigación. Cuando leyó el artículo de Lovelock le intrigó el hecho de que, dada su estabilidad, todo el CCl3F hasta entonces producido tendría que andar por ahí fuera. Y se preguntó si no existían realmente condiciones en las que ese compuesto pudiera degradarse. O era un compuesto que duraría para siempre (forever). De hecho, aún hoy, se sigue hablando de los compuestos fluorados como los "forever chemicals".

Así que le pasó el asunto a su postdoc mejicano Mario Molina. Quien le sugirió que, efectivamente, parecía no existir ningún sumidero de ese compuesto en la superficie de la Tierra e incluso en la inmediata atmósfera. Pero recordando los primeros miedos sobre el efecto del cloro derivado de las pruebas con misiles en la capa de ozono, propuso a su jefe un mecanismo, posible en la estratosfera, según el cual la intensa luz ultravioleta allí existente rompiera uno de los tres enlaces carbono-cloro y el cloro resultante actuara como catalizador de la destrucción del ozono para dar oxígeno. Y que, además, usando ciertos argumentos ligados a la cinética de esas reacciones, ese efecto sería muy dilatado en el tiempo por lo que para cuando nos diéramos cuenta de que se estaba dando, la destrucción de la capa de ozono sería ya importante.

Estas conclusiones, publicadas en junio de 1974 en el famoso artículo de Rowland y Molina [Nature 249, 810 (1974)], dieron pie a una nueva versión de las alarmas ya citadas sobre la destrucción de la capa de ozono y la posible consecuencia de un incremento en los cánceres de piel, adecuadamente propagada por el propio Rowland en numerosas conferencias de prensa. Pero se encontraron con el incombustible Lovelock quien, solo unos meses más tarde (noviembre 1974) y también en la revista Nature [Nature 252, 292 (1974)], publicaba un artículo de respuesta en el que argumentaba que le resultaba poco creíble que si la única fuente de cloro en la estratosfera fueran el CCl3F y otros CFCs de la familia, el efecto sobre el ozono fuera como para preocuparse en los extremos descritos por Rowland y Molina. Pocos meses después, marzo de 1975, en una respuesta a otro artículo [Nature 254, 275 (1975)] que parecía avalar las tesis de Molina y Rowland, Lovelock replicaba, entre otras cosas, que lo propuesto por estos últimos era solo un modelo "no confirmado por observación directa alguna en la estratosfera". Y aprovechaba la respuesta para proponer otras posibles fuentes de origen natural de cloro, como el cloruro de metilo.

No voy a dar más detalles de la literatura que se generó al respecto en uno y otro lado, pero la cosa degeneró claramente en una "guerra" entre científicos americanos, liderados por Rowland y otros frente a científicos ingleses, cuya cabeza más visible fue Lovelock. Paralelamente, en USA y Canadá, el propio Rowland y algunos políticos empezaron a propugnar medidas para la eliminación completa de los aerosoles a base de CFCs, tratando de implicar a Naciones Unidas para extender globalmente esa prohibición, mientras en Europa había muchas más reticencias al respecto. La controversia duró prácticamente diez años, al final de los cuales incluso llegó a parecer que el cloro en la estratosfera podía formar compuestos con otras sustancias allí presentes (como los óxidos de nitrógeno) y desaparecer como catalizador de la descomposición del ozono.

Pero, en 1985, Joe Farman, un científico perteneciente a la British Antartic Survey (BAS) y que trabajaba en una estación radicada en aquellas remotas latitudes, publicó un artículo[Nature 315, 207 (1985)] en el que daba cuenta de una caída en la concentración de ozono (lo que luego se llamó agujero de ozono) cada mes de octubre, descenso que se correspondía con un incremento de la concentración de CFCs en las extremas condiciones de lo que allí abajo es la incipiente primavera.

Ello reavivó el debate y dio lugar a un par de expediciones científicas a la Antártida para tratar de corroborar las tesis de Farman. En la segunda, en 1987, se empleó un avión especialmente equipado para meterse en la zona en la que se había detectado la anomalía en cuestión y tomar muestras "in situ". El resultado más contundente de los análisis de esas muestras fue que, en las latitudes en las que los científicos de la BAS habían detectado la anomalía, había una relación inversa entre el descenso en la concentración de ozono y el aumento en la concentración del monóxido de cloro, el compuesto que se forma cuando el cloro liberado por la radiación UV a partir de los CFCs, reacciona con ese ozono para dar oxígeno.

Esos resultados tan impactantes (la prueba experimental que pedía Lovelock) coincidieron casi en el tiempo con los intentos de aprobar una prohibición global de los aerosoles a base de CFCs. Y parece que fueron claves en que los escépticos países europeos dieran su acuerdo al llamado Protocolo de Montreal que entró en vigor el 1 de enero de 1989, destinado a reducir los niveles de producción y consumo de la familia de los clorofluorocarbonos (CFCs).

A Rowland y Molina les dieron el Premio Nobel de Química 1995 por su descubrimiento de 1974. Y Lovelock se debió quedar muy chafado con el resultado final de todo el proceso, porque en su libro La venganza de la Tierra no menciona al ozono ni en el índice y, en cuanto a los CFCs, solo los cita en una página, pero en su papel como gases de efecto invernadero.

Leer mas...

sábado, 10 de septiembre de 2022

Polvos de talco, amianto y cáncer

Ese bote verde de polvos de talco Calber que veis a la izquierda me devuelve a mi infancia. En casa de mis padres, cuando era chaval, siempre había uno al alcance de la mano. Lo cual no tiene nada de raro porque ese producto tuvo su origen a principios del siglo XX en Donosti y, más concretamente, en la calle Misericordia 4, donde se radicaba la Perfumería Higiénica Calber. Su publicidad, a base de mujeres y madres con aire parisino, tuvo gran impacto en la época. Ya de Búho mayor, el talco siempre ha estado presente entre nuestros productos de higiene aunque usado de vez en cuando. Pero este agosto ha sido noticia que Johnson & Johnson va a dejar de fabricar en 2023 sus polvos de talco Baby Powder, tras retirarlo en 2020 en los mercados de USA y Canadá. Las noticias, en la mayoría de los medios, relacionan esa retirada con las muchas denuncias presentadas contra la compañía por supuestos casos de cáncer de ovario y la presencia de amianto en ese producto.

Químicamente, el talco es un silicato de magnesio hidratado [Mg3Si4O10(OH)2]. Aunque popularmente se le asocie a los polvos de talco, lo cierto es que ese mineral se utiliza en muchos productos industriales como pinturas, cerámicas, papel, plásticos y caucho, material refractario y otros usos. Solo un 5% se usa en cosmética (coloretes, bases de maquillaje, polvos de cuerpo y cara), así como en la industria farmacéutica como excipiente y contra el apelmazamiento de algunos productos. En la UE está además reconocido como aditivo alimentario (E553b).

En los usos industriales, el talco contiene un cierto porcentaje de impurezas (en algunos casos hasta el 35%) derivadas del hecho de que, en las explotaciones en las que se extrae, suele haber otros tipos de silicatos acompañando al talco propiamente dicho. Pero en el talco que se usa en cosas más sensibles, como las arriba mencionadas, las compañías procuran que se lo suministren explotaciones mineras en las que la pureza del talco está certificada sobre todo de cara a que ese talco no contenga amianto (también llamado asbesto, ya que el término en inglés para amianto es asbestos).

A diferencia del talco (un silicato con fórmula definida), amianto es un nombre genérico que engloba a seis silicatos, de nombres tan exóticos (para uno que no sea geólogo) como crisotila, amosita, crocidolita, antofilita, tremolita y actinolita con capacidad para cristalizar en forma de fibras. Es esa forma fibrosa (o asbestiforme) la que da al amianto las características que se buscaban cuando se empezó a usarlo como aislante.

Desde principios del siglo XX empezaron a ser evidentes, en trabajadores ligados a la industria del amianto, los problemas de todo tipo causados por su exposición al polvo del mismo. Desde fibrosis pulmonares o pleurales, también conocidas como asbestosis, al terrible mesotelioma, un tipo de cáncer que se produce en el mesotelio, la delgada capa que forma el recubrimiento de varias cavidades corporales. Hoy sabemos que son las formas fibrosas de los seis minerales incluidos en el término genérico de amianto las causantes de las afecciones ligadas a la exposición prolongada a ese material. Esos mismos minerales en formas no fibrosas (no-asbestiformes) no causan los mismos problemas.

Ya en los años setenta, empezaron a aparecer en USA algunos informes que hablaban de que podía haber amianto en los polvos de talco, lo que originó un considerable revuelo. Como reacción, en 1976, la americana Asociación de Cosméticos, Artículos de Tocador y Fragancias (CTFA) adoptó voluntariamente un protocolo (el llamado J4-1) para analizar, a la búsqueda de amianto, el talco que empleaba en sus productos. Los proveedores de talco para la industria farmacéutica adoptaron un método similar para certificar que el talco cumplía con el requisito de "Ausencia de amianto" de la Farmacopea de los Estados Unidos (USP).

Esos protocolos han estado vigentes muchos años y se basaban en el empleo de técnicas como la difracción de rayos X (XRD) o la espectroscopia infrarroja (FTir) para detectar químicamente alguno de los seis minerales del amianto y, si la detección era positiva, emplear posteriormente la microscopía óptica de luz polarizada (PLM) para evidenciar la presencia de formas fibrosas de esos minerales. Pero cuando fue evidente que los protocolos no eran 100% fiables, la americana Administración de Alimentos y Medicamentos (FDA) inició un proceso para mejorarlos y que, básicamente, supuso el empleo adicional de la microscopía electrónica de transmisión (TEM). Los esfuerzos han cristalizado en la publicación de un Libro blanco que resume el estado de los métodos para detectar amianto así como proponer protocolos para la preparación y análisis de las muestras. Los límites actuales de detección de amianto fibroso por parte de la Microscopía electrónica de transmisión son del orden de las decenas de las partes por billón (0.000004%).

La misma FDA lleva años analizando de forma sistemática muestras de todo tipo de cosméticos que utilizan talco a la búsqueda de amianto. Por ejemplo, en 2009, se analizaron veintinueve muestras proporcionadas por cuatro suministradores de talco para cosmética, así como treinta y cuatro productos cosméticos comprados en supermercados, incluido el Baby Powder de Johnson & Johnson. En ningunas de ellas, ni la PLM ni la TEM evidenciaron la presencia de amianto en forma fibrosa. Desde entonces, cada año, se analizan 50 muestras tomadas al azar el mercado. Los resultados de 2021, tampoco encontraron formas fibrosas de los minerales del amianto, como podéis ver aquí. Pero ese no ha sido el caso siempre y, en algunos casos, se han detectado cantidades pequeñas de amianto fibroso, lo que ha provocado la inmediata retirada del mercado de los lotes contaminados.

El interés por el tema y el uso del talco desde hace mucho tiempo, ha hecho que se hayan analizado muestras de talco en envases antiguos. En 2017, por ejemplo, se publicó un artículo [J.S. Pierce y otros, Inhalation Toxicology, 29:10, 443-456] que, usando también los protocolos de la FDA, analizaba ese tipo de muestras vintage (la más vieja era de 1940 y la más reciente de 1977). En ninguna de ellas había amianto en forma de fibras. Pero no se puede asegurar que otras muestras contemporáneas no lo contuvieran. Algo que es muy importante en lo que tiene que ver con la relación entre el talco y el cáncer de ovario.

Asunto que echó a andar de forma acelerada cuando un metanálisis de 2011 [M.C. Camargo y otros, Environ Health Perspect 2011; 119: 1211–1217] ligaba el amianto con el cáncer de ovario en mujeres expuestas al mismo ocupacionalmente (es decir, por su trabajo). A partir de ahí, se ligó el talco contaminado con amianto al cáncer de ovario y una multitud de demandas judiciales de mujeres afectadas por esa enfermedad aparecieron en los despachos de Johnson & Johnson.

La mayoría de las demandas han sido presentadas por mujeres que han usado talco durante años (y décadas) en la higiene de la zona perineal. Y en la mayoría de las demandas, la contaminación del talco con amianto es una parte fundamental de los argumento de las demandantes. La presión no parece haber bajado por ahora y basta poner en Google "talco y cáncer abogados" para encontrar centenares de páginas de despachos de abogados americanos (aunque las páginas aparezcan en castellano) que se prestan a representar a quien tenga un cáncer de ovario y haya usado polvos de talco durante tiempo prolongado.

En mi humilde opinión, es muy difícil que la presencia de cantidades pequeñas de amianto (si las hubiere) en el polvo de talco sean las causantes de esos cánceres de ovario. Aunque es cierto que, en muchos casos, llegan a ser exposiciones prolongadas en el tiempo, casi "ocupacionales", lo cierto es que durante esos mismos años, mucha de la población americana estuvo expuesta al amianto en sus casas y seguro que en niveles mucho más altos. No hace falta más que ver ese programa de la tele que encanta a la Búha, en el que dos gemelos renuevan casas canadienses y americanas, para darse cuenta de que, en muchas de ellas, tienen que empezar la reforma eliminando amianto. Y aunque esa exposición es por inhalación y no por aplicación en la zona genital, conviene recordar que el artículo de Camargo, mencionado arriba, estudiaba la relación entre el cáncer de ovario y la inhalación de amianto en trabajadoras que lo manipulaban.

Pero el asunto tiene aún una última vuelta de tuerca. Cual es el argumentar que incluso el polvo de talco puro, sin amianto, en exposiciones prolongadas, puede ser causa de cáncer de ovario. Hay varios artículos al respecto en los últimos años y las partes litigantes pueden seleccionar entre ellos aquellos que mejor vayan a sus intereses. Pero, en estos temas vidriosos, yo siempre tiendo a fiarme de agencias y organizaciones que me inspiran una cierta seguridad.

Como la propia FDA que en el segundo apartado de este documento deja claro que los estudios que han sugerido una posible asociación entre el uso de polvos que contienen talco en el área genital y la incidencia de cáncer de ovario, "no han demostrado de manera concluyente dicho vínculo o, si tal vínculo existía, qué factores de riesgo podrían estar involucrados".

O la Agencia Internacional para la Investigación sobre el Cáncer (IARC, dependiente de la OMS) que en la página 413 de este informeconcluye que "los estudios epidemiológicos tomados en su conjunto brindan una limitada evidencia sobre una asociación entre el uso perineal de talco corporal y un mayor riesgo de cáncer de ovario". E incluye al talco sin amianto para uso perineal en el grupo 2B, "baja probabilidad cancerígena para los humanos". Y hay que recordar que en ese mismo grupo 2B ha estado el café durante casi 25 años, hasta que recientemente se trasladó al Grupo 3, "no pueden considerarse cancerígenos para el hombre".

O, finalmente, la Sociedad Americana del Cáncer que establece que "Los estudios sobre el uso personal del polvo de talco han tenido resultados mixtos, aunque hay alguna sugerencia de un posible aumento del riesgo de cáncer de ovario. Hay muy poca evidencia en este momento de que cualquier otra forma de cáncer esté relacionada con el uso de polvo de talco por parte del consumidor".

Mientras tanto, en Europa no parece haberse generado similar ansiedad. Después de mucho buscar, sólo he encontrado una pregunta realizada por una europarlamentaria griega en 2016, a la que se le contestó que "hasta la fecha, no ha habido evidencia científica concluyente que apoye un vínculo entre el cáncer de ovario y el uso de talco en productos cosméticos. Por lo tanto, en esta etapa no se están considerando medidas adicionales para restringir el uso de talco en productos cosméticos".

Aunque me da que tenemos polémica para rato. Sobre todo porque hay potentes y muy conocidos bufetes de abogados americanos que ven pingües beneficios en el asunto.

Leer mas...

lunes, 29 de agosto de 2022

Turbinas eólicas y su reciclado

He procurado trasmitir siempre a mis estudiantes la idea de que, en lo relativo a la evidencia científica sobre cualquier tema, y como pasa en otros aspectos de la vida, casi nada es blanco o negro sino que su color anda en la gama de grises. Y en el asunto de las energías alternativas o "verdes" pasa lo mismo. Ni la energía generada por las turbinas eólicas es la solución maravillosa desde el punto de vista ambiental ni la proveniente del gas natural es una caca. Y de turbinas y de los problemas que nos están ya generando con el final de la vida activa de sus palas va esta entrada. Motivada porque, en muy poco tiempo, he dado con dos interesantes artículos sobre el tema, uno centrado en el caso americano, proveniente de mi sempiterno Chemical and Engineering News, y otro que aborda las estrategias europeas al respecto.

Símbolo preclaro de la generación de electricidad verde (a nivel global generaron en 2020 el 6% de la electricidad consumida), estas grandes turbinas eólicas son enormes acumulaciones de acero, cemento y plástico, tres de los cuatro pilares (el cuarto son los fertilizantes) que Vaclav Smil define en su libro How the World Really Works como fundamentales para nuestra vida actual. Y, al mismo tiempo, cuatro procesos industriales que nos va a costar mucho desengancharlos del consumo de combustibles fósiles. Porque como decía hace poco mi antiguo estudiante y amigo, Josu Jon Imaz, Consejero Delegado de Repsol, "electrificar no es descarbonizar".

Los cimientos de esas enormes turbinas son de hormigón armado, sus torres y rotores son de acero y sus enormes palas son principalmente resinas poliméricas (alrededor de 15 toneladas para una turbina de tamaño mediano). Por no hablar de que todas estas piezas gigantes deben ser llevadas al sitio de instalación por camiones de gran tamaño propulsados por gasoil y montadas por grandes grúas de acero. O de la cantidad de lubricantes que deben emplearse para que el rotor rote, generalmente provenientes del petróleo. Pero en esta entrada, como decía antes, nos vamos a centrar en las palas porque son de naturaleza polimérica en gran parte de su estructura y porque un servidor tiene alguna experiencia profesional al respecto que me ayudará a contaros una historia.

Como nada es eterno, las palas de las turbinas eólicas tienen también una vida limitada y acaban por no cumplir la labor para la que se las fabricó y, por tanto, hay que cambiarlas en periodos de tiempo que, se estima, van entre los 15 y 25 años. Y hacer algo con ellas. Solo en Estados Unidos se estima que en 2021 se desmontaron del orden de 8000 palas que equivalen a unas trescientas cincuenta mil toneladas. Y en Europa podemos ya andar por el medio millón de toneladas. En un estudio de 2017, se estimaba que para 2050 y a nivel global, se nos podrían acumular sobre la faz de la Tierra del orden de cuarenta y tres millones de toneladas. Y si queréis leer algo sobre la situación española podéis acudir a este enlace que me ha pasado un lector.

En el momento presente, la gran mayoría de esas palas, sobre todo las americanas, van a parar a vertederos y la principal razón para esa solución poco sostenible es que reciclarlas es harto complicado. En su composición, más del 80% de la masa de la pala es un material compuesto (o composite). Entre el sesenta y el 70 % de la masa de ese material compuesto consiste en fibras de refuerzo, principalmente fibra de vidrio, aunque también algo de fibra de carbono. El resto es una resina polimérica (generalmente epoxi) que aglutina esas fibras largas y rígidas en una matriz sólida, relativamente ligera, en la que fibras y resina están íntimamente mezcladas. Con lo que, para reciclarlas, hay que separarlas.

Esas resinas  son lo que los poliméricos llamamos polímeros termoestables. Para que no os enredéis en estos tecnicismos, usaremos el ejemplo de ese adhesivo que casi todo el mundo conoce y que desde hace años se ha vendido bajo el nombre comercial de Araldit. Se presenta en dos tubos, uno con una resina epoxi propiamente dicha y otro con agentes que van a provocar su endurecimiento (curado) cuando el contenido de ambos tubos se mezcla. Y una vez endurecida, esa resina no puede reciclarse a la manera que hacemos con los termoplásticos o plásticos convencionales, que podemos calentar, fundir y moldear dando vida a un nuevo objeto. De ahí lo de termoestables y de ahí la dificultad de separar la resina de las fibras de vidrio o carbono que une íntimamente.

Del papel de las resinas en las palas algo sabe el Búho. No en vano, a finales de los noventa, nos enseñaron la planta denominada Fiberblade, en Alsasua, donde se empezaron a fabricar, casi de forma manual, las primeras palas de turbina que Gamesa empezó a montar en España. Luego, un amigo fue el artífice del montaje de la primera planta de Gamesa en China y, más tarde, desde el Instituto Polymat tuvimos años de colaboración con Gamesa, a la hora de controlar los procesos de endurecimiento de los preimpregnados de resinas epoxi y fibras (prepegs), de cara a buscar las condiciones idóneas para llevar a cabo el proceso de curado.

Planteado el problema del reciclado de las palas y tratando de que todo no vaya a los enormes vertederos que se necesitan al efecto, la gente del ramo eólico anda ya buscando alternativas a ese desecho. La que parece que ha calado en algunos países como Alemania, consiste en cortar las palas en trozos pequeños y después triturarlos y utilizarlos tal cual en los hornos de las cementeras. Allí se quema la resina (un compuestos de carbono) produciendo parte de la energía necesaria en el funcionamiento del horno, sustituyendo a los combustibles fósiles. Eso, además, deja las fibras libres de resina que, posteriormente, se usan en la preparación de unos cementos especiales, con acomodo en el mercado.

En la fabricación estándar de cemento, se calienta una mezcla de piedra caliza molida y arcilla en un horno rotatorio para producir un material conocido como clínker. Luego se mezcla el clínker con yeso. El proceso convierte el carbonato de calcio, el componente principal de la piedra caliza, en óxido de calcio liberando dióxido de carbono. Una forma bien conocida de reducir las emisiones de CO2 de las cementeras es sustituir una parte de la piedra caliza por materiales ricos en sílice para fabricar tipos alternativos de cemento. La fibra de vidrio de las palas de las turbinas eólicas proporciona ese material rico en sílice.

Otra vía implica no quemar sino pirolizar los trozos en los que se han cortado las palas, esto es, someter al material a altas temperaturas pero sin llama, para conseguir que la resina se acabe descomponiendo en gases y vapores que puedan ser utilizados en procesos químicos de síntesis de nuevos materiales, reemplazando a los derivados de las plantas petroquímicas. Y dejándonos libres las fibras para ulteriores usos. Finalmente, hay también soluciones un tanto esotéricas, como usar trozos relativamente grandes de las palas en el diseño de parques infantiles. O pensar que podemos volver a los viejos molinos de viento y hacer que esas palas, que cada vez tienden a ser más grandes, se puedan fabricar a partir de biomasa, como madera de bambú. O, como me ha escrito un lector en los comentarios, usar resinas de polímeros biodegradables y luego, cuando las palas se retiran, emplear la resina para fabricar....gominolas.

Ya veremos. O ya veréis, porque para cuando esto se aclare me da que yo ya seré polvo de carbono, venteado por las innumerables turbinas que se supone que va a haber.

Leer mas...

lunes, 15 de agosto de 2022

Microplásticos y otras micropartículas en el mar


Uno puede pensar que los microplásticos son unos recién llegados a los océanos y que, antes de ellos, todo era limpio y natural: agua salada, peces y otros organismos vivos que viven en el mar. Y, por tanto, la irrupción de las partículas microscópicas de plásticos, a mediados del siglo XX, es un desastre en si mismo, con implicaciones visuales, ecológicas e incluso morales para los ciudadanos que vemos su crecimiento continuado en las últimas décadas. Siendo todo ello verdad, lo cierto es que en el mar se encuentran dispersas muchas otras micropartículas, algunas naturales y otras antropogénicas (derivadas de la actividad humana) que tienen una ubicuidad similar o mayor a la de los microplásticos y unos efectos adversos en los seres vivos que compiten con los tradicionalmente atribuidos a los microplásticos.

Eso es al menos lo que se deriva de un reciente artículo publicado este febrero en la revista Nature en su sección Reviews. Los autores identifican primero micropartículas omnipresentes en el mar, en el aire o en el suelo que no son lo que entendemos por microplásticos. Como las micropartículas de tipo inorgánico o mineral, como  la arena, el limo, la sílice o las arcillas. Materia orgánica, constituida fundamentalmente por compuestos de carbono y que se deriva de la descomposición de algas, detritus producidos por el fitoplancton y el zooplancton (como pretende ilustrar la figura que ilustra esta entrada) y microfibras naturales ( como el algodón, la lana, la seda, etc.) que, como ya vimos en otra entrada, parecen predominar en el mar sobre las de origen sintético. Finalmente, materia constituida casi exclusivamente por carbón, como los hollines o el carbón orgánico, derivados de la combustión incompleta de combustibles fósiles o de biomasa.

Los riesgos derivados de la presencia de los microplásticos en el mar, que se suelen leer en los medios, se pueden resumir en unas pocas lineas. Primero, se les atribuye una persistencia en el medio ambiente de decenas, centenares o miles de años. Si tenemos en cuenta que la mayoría de los plásticos llevan solo unas decenas de años en la faz de la Tierra, es preciso extrapolar ensayos de laboratorio para poderles atribuir esas largas persistencias, algo que conlleva una gran incertidumbre. Otro riesgo ya comprobado, sobre todo en experimentos de laboratorio y muchas veces en condiciones lejanas a las que se dan en el mar, es que pueden causar todo tipo de problemas a los organismos que los ingieren, sobre todo si el tamaño que presentan puede generar obstrucciones a nivel del tracto digestivo. 

Pero los riesgos más publicitados sobre los microplásticos tienen una faceta indiscutiblemente química. Aunque intrínsecamente son inertes, esos microplásticos pueden lixiviar (soltar al mar) sustancias no poliméricas en ellos contenidas, como restos de los monómeros empleados en su fabricación, plastificantes como los ftalatos para hacerlos más moldeables u otras sustancias añadidas (colorantes, protectores contra el fuego, etc.). El otro riesgo "químico" de los microplásticos es que, como ya contamos aquí,  puedan actuar como vectores químicos de sustancias peligrosas ya existentes en el mar, derivadas de pasadas actividades humanas, como el DDT, los PCBs, PBDEs y otros. Esas sustancias, denominadas de manera global Compuestos Orgánicos Persistentes (COPs), disueltas en pequeña cantidad en el agua de mar, tienen una alta tendencia a absorberse en los microplásticos. Si luego un pez, confundiéndolos con una presa, se los come, pudiera ocurrir que en el intervalo de tiempo que los microplásticos permanecen en el cuerpo del animal, esas sustancias químicas se absorbieran en la materia grasa del mismo y acabaran en nuestro organismo si consumimos ese pescado.
Pues bien, todas las micropartículas arriba mencionadas y que se encuentran en el mar, compartiendo espacio con las partículas de microplásticos, tienen características muy similares a ellas, como puede verse en la tabla de la derecha, que podéis ampliar clicando en ella y que proviene del artículo mencionado arriba. Y así, su tamaño medio está en el orden de las micras, su permanencia en el mar es de centenares o miles de años, sus densidades son similares a las de los plásticos, entre 1 y 2 gramos por centímetro cúbico, lo que les permite ocupar igual que ellos la totalidad de la columna de agua. Y, finalmente, las concentraciones en las que se encuentran en el agua son similares o superiores a las de los propios microplásticos. Es decir, esas micropartículas no son muy distintas de los microplásticos ni lo son sus potenciales riesgos para los habitantes del mar.

Y así, la sola presencia de micropartículas inorgánicas en el interior de los organismos vivos pueden causar similares problemas a los causados por los microplásticos. Para entenderlo basta con considerar los problemas causados en los humanos por el polvo de amianto o la silicosis causada por el polvo de carbón. O, fuera de exposiciones ligadas a ámbitos de trabajo u ocupacionales, la preocupación se manifiesta en el seguimiento que hacemos en las ciudades de las micropartículas existentes en el aire, las famosas PM10 y PM2,5, como forma de prevenir ciertas enfermedades respiratorias o el propio cáncer.

Pero es que, además, las partículas de materia carbonosa, como los hollines, contienen y pueden soltar en el agua del mar (lixiviar) cantidades sustanciales de hidrocarburos aromáticos policíclicos (HAPs), sustancias peligrosas que, fuera del mar, causaron los cánceres infantiles en niños dedicados a deshollinar chimeneas y están presentes en la combustión del tabaco. Y, para terminar, todas las micropartículas de naturaleza orgánica y carbonosa arriba descritas pueden absorber y actuar como vectores de los mismos Contaminantes Orgánicos Persistentes (COPs) que los microplásticos.

Así que los autores del artículo arriba mencionado concluyen que el estudio de los riesgos de los microplásticos en los océanos no se pueden estudiar por separado, sino que es preciso un enfoque conjunto con la totalidad de micropartículas existentes en los mares y que pueden afectar igualmente a la vida marina.

Solo así podremos evaluar adecuadamente los verdaderos riesgos de los microplásticos.

Leer mas...

viernes, 29 de julio de 2022

En la muerte de James Lovelock

El pasado martes, 26 de julio, el mismo día que cumplía 103 años, James (Jim) Lovelock falleció en su casa del pequeño pueblo inglés de Abbotsbury como consecuencia de complicaciones derivadas de una reciente caída. Dice la Wikipedia que Lovelock fue un médico, meteorólogo, escritor, inventor, químico atmosférico y ambientalista inglés. Todo eso es cierto, y si se me permite un añadido, diré también que ha sido un personaje polémico en la mayoría de los temas en los que se vio implicado a lo largo de su vida científica. Si queréis constatarlo con sus propias palabras, podéis leer su libro en castellano de 2007, titulado "La venganza de la Tierra" con opiniones que han levantado ampollas en temas como el cambio climático, la lluvia ácida, el agujero de ozono, los movimientos ecologistas o su apuesta por la energía nuclear como única forma de revertir a la Tierra (que Lovelock denominaba muchas veces por el nombre de Gaia), a su estado de equilibrio autorregulador.

Sobre la hipótesis Gaia, tan famosa en el ámbito ecologista, nada diré. Primero porque no me considero ni mediano conocedor del tema y, segundo, porque ya lo leeréis en los muchos obituarios que se están escribiendo sobre el fallecido. Este vuestro Búho, seguidor de Lovelock desde hace muchos años, ha preferido hoy, como pequeño homenaje a su figura, actualizar una de las primeras entradas en este Blog, escrita solo tres semanas después de haberlo inaugurado (2006), y que estuvo dedicada a un invento suyo que revolucionó el análisis químico de la época.

Ese invento, el llamado detector de captura electrónica (ECD), supuso mejorar en gran medida los niveles de detección de sustancias químicas, al utilizarlo en una técnica que se estaba implantando en los laboratorios de análisis químico de los años cincuenta, la cromatografía de gases, aún hoy una de las herramientas más versátiles para cualquier laboratorio químico. En la foto que ilustra esta entrada (se puede ampliar clicando sobre ella) podéis ver a Lovelock en el Museo de la Ciencia de Londres junto a uno de los primeros montajes en los que utilizó su detector.

Lovelock entró en contacto con la cromatografía de gases en el verano de 1951 cuando dos de sus colegas en el Instituto Nacional de Investigación Médica (NIMR), A. Martin y T. James, introdujeron dicha técnica en sus laboratorios, como consecuencia de las expectativas que la misma estaba levantando. La técnica había interesado no solo a la incipiente industria petroquímica que necesitaba un método rápido de separación, identificación y cuantificación de los componentes de las complejas mezclas existentes en sus líneas de producción. También había interesado a bioquímicos y analíticos como posibilidad de separar productos muy similares y que se encontraban mezclados en cantidades muy pequeñas.

Y de hecho, en ese problema estaba Lovelock, que andaba interesado en ver los efectos de las bajas temperaturas (criogenización) en la evolución de los ácidos grasos de los lípidos constitutivos de las membranas celulares. Ello implicaba medir concentraciones muy pequeñas, dado el tamaño de las muestras de tejido de animales empleados en el laboratorio. Aunque desde los colegas del NIMR le dieron el clásico consejo que muchas veces hemos dado los que nos hemos dedicado a caracterizar sustancias y materiales (”no me vengas con muestras tan pequeñas, procura producir más cantidad acumulando experimentos y luego vuelves"), alguien le sugirió que quizás tuviera que desarrollar un detector más sensible que el hasta entonces empleado en los equipos de cromatografía.

Y nuestro Lovelock lo consiguió. Y, lo que es más importante, lo hizo en el momento oportuno. Hasta esos años cincuenta, los toxicólogos estaban acostumbrados a tener que analizar insecticidas y plaguicidas inorgánicos como el arsénico blanco que, con técnicas analíticas clásicas, podían detectarse hasta niveles de 0.2 partes por millón (ppm), o lo que es lo mismo, en la proporción de 0.2 gramos del contaminante por cada tonelada de masa analizada. Pero cuando los biólogos que estudiaban la vida marina empezaron a evidenciar que insecticidas organoclorados como el DDT o el Dieldrin se habían acumulado en pequeñas cantidades en crustáceos y peces con resultados fatales, fue evidente que para detectar esos problemas adecuadamente había que llegar a niveles de detección cientos o miles de veces inferiores, del orden de las partes por billón (ppb). En el curso de esa década de los cincuenta la sociedad americana estuvo además particularmente alarmada por la detección de otros productos químicos en alimentos, como el famoso caso de los arándanos y el aminotriazol de 1959.

En 1962, la bióloga marina Rachel Carson publicó su famoso libro “La primavera silenciosa”, que puso la diana en los efectos del uso desmesurado y no regulado del DDT, un insecticida cuya producción se triplicó entre los años 1953 y 1959. Para el establecimiento de cómo se había introduciendo el DDT en diversas especies con efectos perjudiciales, resultaron claves las medidas analíticas que se pudieron hacer con el detector de Lovelock. Bien es verdad, y Lovelock lo dice claramente en el capítulo sexto de su libro de 2007, que la prohibición del uso del mismo en USA por parte de la Agencia de Protección del Medio Ambiente (EPA) en 1972 y que imitaron muchos otros países, "fue un acto egoísta y erróneo llevado a cabo por radicales del primer mundo. Los habitantes de países tropicales han pagado un alto precio en muertes y enfermedades por no poder utilizar el DDT para controlar la malaria". De esto ya hablamos en otra entrada de este Blog.

Desde esos años sesenta, los detectores que han seguido al invento de Lovelock han llegado a alcanzar sensibilidades a los plaguicidas cien millones de veces mayores que las que tenían las primeras técnicas empleadas en su análisis. El progreso alcanzado es tan grande que ni siquiera las personas más implicadas en ello podían predecirlo. Francis Gunther, una figura señera en el análisis del DDT durante los años 50 y 60 decía, todavía a principios de los setenta, que llegar a detectar 1 parte por trillón (ppt), 1 gramo de DDT en un millón de toneladas de muestra contaminada, era como "creer en las hadas".

Bien, y aquí estamos, con técnicas que nos permitirían detectar minúsculas cantidades de un contaminante en millones de toneladas de muestra. Todo un logro de la Ciencia, en un plazo de tiempo increíble, motivada por resolver un problema que alteraba el clima social y presionada por las instituciones. Analizado así parece un ejemplo prototípico del papel de la Ciencia en la sociedad actual. Y sin duda alguna lo es, pero algunos pensamos que la actual ansiedad sobre los productos químicos, eso que llamamos Quimiofobia, hubiera tardado mucho tiempo en penetrar en el tejido social si no se hubieran dado desarrollos tan vertiginosos como el del detector de Lovelock. Llegamos así a un punto en el que el problema analítico está básicamente resuelto pero el sociológico permanece irresoluble, dadas las controversias sobre la ubicuidad de las sustancias químicas en todo lo que comemos, bebemos o respiramos y sobre los umbrales a partir de los que una sustancia debe considerarse perjudicial.

Porque, extrapolando, podemos llegar a la opinión de la propia Carson que abogaba por una tolerancia “cero” frente a sustancias producidas por el hombre. El problema es identificar qué se considera "cero", algo que depende evidentemente de la sensibilidad que tengan las técnicas de detección que empleemos en el laboratorio. En el libro de 2007 arriba mencionado, Lovelock deja claro que el no es partidario de esa filosofía de la Carson y hace suya la frase de Paracelso tantas veces citada en este blog: “es la dosis la que hace el veneno”. Como consecuencia de nuestra alimentación, nuestro propio organismo está plagado de sustancias que son tóxicas a partir de un cierto nivel y, sin embargo, las toleramos perfectamente en los niveles que habitualmente alcanzan. Y la mayoría son de origen natural o incluso producidas por nuestro propio organismo.

El detector de Lovelock fue también clave en la detección de los compuestos clorados causantes del agujero en la capa de ozono. En ese asunto, Lovelock mostró también su espíritu escéptico y peleón, pero sobre eso hablaremos en otra entrada en la que actualizaré la escrita, también hace años, sobre el citado agujero.

Que su Gaia le sea leve al amigo Jim. Seguro que no le parecería mal que le cite aquí como un ejemplo más de la longevidad de los químicos, a pesar de su dilatado contacto con sustancias químicas. Siempre y cuando una mísera caída no se cruce en su camino.

Leer mas...

Powered By Blogger