miércoles, 20 de marzo de 2019

Científicos y fama mediática

Si uno pone en el buscador de Google "Ballon fragments in the sea" o, lo que es lo mismo, fragmentos de globos en el mar, Google te devuelve la friolera de más de dos millones y medio de documentos, la mayoría de los cuales contienen textos y fotos, muchas de ellas impactantes, sobre el daño que la sencilla suelta de globos, en localidades más o menos próximas al mar, puede causar en el mundo marino. Algo normal por otro lado. Si estamos decididos a evitar que los plásticos acaben en el mar, de plástico a fin de cuentas son los infantiles globos que, al ir perdiendo el gas que los eleva hacia a la atmósfera, tarde o temprano acabarán cayéndose de ella. Y terminando, con mucha probabilidad, en los mares y océanos que, no en vano, ocupan la mayor parte del globo terráqueo. Aunque, todo hay que decirlo, el número de globos que pueden fabricarse en el mundo es una nimiedad con respecto al número de bolsas, botellas y envases de plástico que se producen.

La última noticia relativa al posible impacto de los globos en la vida marina se ha producido este mismo mes, después de que se publicara en los Scientific Reports (del grupo Nature Publishing) un artículo firmado por un grupo de investigadores, todos ellos radicados en Instituciones situadas en Hobart, la capital de Tasmania, en Australia. El artículo lleva por título (traduzco del inglés y un poco libremente) "Un análisis cuantitativo que liga la mortalidad de aves marinas con la ingestión de desechos existentes en el mar".

En el Abstract o Resumen del artículo se dice que los autores han analizado 1733 cadáveres de pájaros de 51 especies diferentes, demostrando que hay una relación entre los desechos marinos ingeridos y las causas de muerte debidas a esa ingestión. Que la causa principal de la muerte es la obstrucción del tracto gastrointestinal y que, en conjunto, los restos de globos son el desecho más peligroso, 32 veces más que ingerir un fragmento de un plástico duro (los ya famosos microplásticos). La publicación del artículo vino acompañada, como ya es habitual, por la correspondiente nota de prensa difundida por la Universidad de Tasmania el pasado 4 de marzo, que abundaba en los términos descritos en el Resumen. En poco menos de un par de semanas, las declaraciones a los medios del primer firmante del artículo se han sucedido a buen ritmo y es fácil constatar el impacto conseguido con otra simple búsqueda en internet, incluso a nivel de publicaciones escritas en castellano.

Pero yo ya no me fío un pelo de titulares tremendistas en general y de los que, en particular, versan sobre asuntos relacionados con los microplásticos en el mar. Hace casi dos años, la otra revista científica por excelencia, Science, retiraba de la circulación un extenso y muy difundido artículo de dos investigadores suecos, en el que venían a decir que la ingestión de microplásticos de poliestireno expandido (esa especie de corcho blanco de las bandejas de comida) producía males sin cuento en el desarrollo de las larvas de las percas de río. Esa retirada tuvo su origen en las denuncias que los propios compañeros del conocido Instituto en el que trabajaban los autores hicieron a la revista y a su Institución. En ellas les acusaban de haberse inventado datos y haber usado malas prácticas experimentales. Así que, leído el resumen del artículo de los tasmanos sobre los globos, mi escéptica y poderosa nariz de vasco intuyó que algo no cuadraba en el paper y decidí que había que emplear algo de tiempo en leerlo con cuidado.

Y no necesité concentrarme mucho para descubrir que los números que aparecen en el Abstract están más retorcidos que la masa de una pizza si se los compara con los datos que se aducen posteriormente en el trabajo. En la página 2, y en el primer párrafo del apartado Results, los autores declaran haber estudiado, como decía arriba, 1733 pájaros muertos y en sus autopsias encuentran que en el 32,1% de ellos (557 pájaros) había restos de diversos desechos marinos, el 92,4% de los cuales eran pequeños trozos de plástico duros, pero también había restos de plásticos más blandos como los usados en envases (2,1%), restos de globos (2%) así como de caucho, espumas de poliuretano o poliestireno, fibras de redes y cuerdas empleadas en los barcos y otros desechos no plásticos.

Pero, después de este recuento tan exhaustivo y en el siguiente párrafo, a uno le saltan inmediatamente las alarmas cuando lee que solo 13 de los 1733 pájaros habían muerto como consecuencia constatada de la ingestión de plásticos. En otros 9 casos esa parecía también ser la causa mas probable, aunque el lamentable estado en el que se encontraban los cadáveres dificultaba sacar conclusiones tan fiables como en los anteriores. La gran mayoría de los pájaros (1256) no habían muerto como consecuencia de la ingestión de residuos marinos (ni plásticos ni de otro tipo) y en los 446 restantes no pudo determinarse con claridad la causa de su muerte. Así que usando la hipótesis más favorable a los autores, solo 22 de los 1722 pájaros (un ínfimo 1,3%) habían muerto por ingestión de residuos marinos. De esos 22, casi todos (21) habían muerto por obstrucción o bloqueo total del tracto gastrointestinal. Y esa obstrucción o bloqueo había sido causado por plásticos duros en 11 pájaros, por globos en 5, por plásticos expandidos en 4 y solo 1 por restos de cuerda de las empleadas en amarres de barcos. A partir de ahí y con un análisis estadístico que tiene en cuenta los porcentajes de desechos encontrados en las autopsias (había muchos más plásticos duros que globos, por ejemplo), los autores llegan a la conclusión, difundida a todos los vientos, de que los globos son los plásticos más peligrosos que un ave marina puede ingerir.

Ni el Comité Editorial de la revista en cuestión, ni los revisores previos del artículo debieron leerse en su momento con detalle el artículo y apreciar las debilidades del análisis que os acabo de comentar. Tampoco lo hicieron la multitud de publicaciones que se han hecho eco, como loritos, de la nota de prensa pero que, en algunos casos, han exagerado los resultados hasta límites como el de este titular de la revista QUO: "Lo que más animales mata en los océanos son los globos". En cuanto a los autores, lo más suave que se me ocurre decir es que tendrían que volver a repasar sus conocimientos de estadística.

En cualquier caso, dado que estoy preparando un par de charlas sobre Plásticos y Microplásticos para las próximas semanas, me volveréis a leer en breve otra vez sobre el tema. Que en asuntos tan sensibles para la opinión pública hay mucho buscador de catástrofes con intereses espurios. Y que por cinco minutos de gloria mediática (y lo que ella puede acarrear posteriormente) son capaces de cualquier cosa.

Leer mas...

jueves, 7 de marzo de 2019

Tenemos nuevo Bisfenol en la oficina

Si pongo Bisfenol A en el buscador que hay arriba a la izquierda de la página que aparece al abrir el Blog, se muestran la friolera de 16 entradas en las que, de una manera u otra, ha salido aquí a escena ese compuesto químico. Así que me temo que mis lectores, en cuanto vean la palabra Bisfenol en el título de esta nueva entrada, me van a mandar al guano. Aunque, si su curiosidad sigue viva, no deberían tomar esa decisión, puesto que el protagonista no es hoy el Bisfenol A que tanto nos gusta al granadino Prof. Olea y a un servidor, sino un "primo" suyo, el Tetrametil bisfenol F que, si las cosas no se tuercen, puede resolver uno de los problemas inherentes a su denostado pariente. La noticia está aún calentita y se publicará el próximo lunes en el número 10 del volumen 97 del Chemical Engineering News (CEN), en un artículo debido a la ya otras veces citada aquí Melody M. Bomgardner.

Como ya he comentado otras veces, el Bisfenol A (A y no F) es una sustancia empleada en una serie de aplicaciones siempre envueltas en polémica. Por ejemplo, en el papel de las impresoras térmicas del que hemos hablado hace poco. Hay que volver a recordar que, en ese uso, el Bisfenol A se emplea en estado puro. También se emplea en fabricar el plástico conocido como policarbonato. Ahí, el Bisfenol A es un reactivo que va desapareciendo a medida que el plástico se genera aunque, al final, pueden quedar cantidades muy pequeñas de él atrapadas en el plástico, algo que los fabricantes de éste se cuidan de minimizar al máximo. Además de en otras aplicaciones (cascos de motos y polis, casquillos de intermitentes en coches, CDs y DVDs, láminas de seguridad en bancos), el policarbonato se empleó hace años en fabricar biberones resistentes al choque, ideal para que no se rompieran cuando se cayeran al suelo, de las manos de un dormido padre que trataba de administrar a su retoño la dosis sustitutiva de la divina teta.

Pero se argumentó que el Bisfenol A, aún en las cantidades realmente pequeñas presentes en el plástico, podía pasar del biberón a la leche y de ahí al infante. Y como, posteriormente, otros estudios mostraron que esa sustancia podía simular el comportamiento de ciertas hormonas (un disruptor endocrino, en jerga técnica), aún en dosis muy pequeñas, ello podría ser el origen de múltiples problemas sobre todo en un organismo tan sensible como el de un recién nacido (¡odio lo de bebé!). Los fabricantes de biberones reaccionaron enseguida y hoy se venden fabricados en otros materiales plásticos que no necesitan Bisfenol A para su síntesis. Son los llamados biberones sin Bisfenol A (o BPA free), aunque si aún os preocupa el que el biberón esté hecho de plástico, no tenéis más que usar los clásicos de vidrio. Aunque si luego os cortáis con los cristales cuando se rompan, este Búho no es culpable.

El Bisfenol A se sigue usando en la fabricación de otro polímero, las llamadas resinas epoxi que, entre otros usos, permiten recubrir con una fina lámina los interiores de las latas empleadas para envasar alimentos y bebidas. El papel de esa lámina es evitar oxidaciones de los metales empleados en las latas y permitir el almacenamiento de sus contenidos durante tiempos largos. De nuevo, el problema aducido es que esas resinas pueden contener, como el policarbonato de los biberones, restos del Bisfenol A empleado para prepararlas, éste puede pasar al alimento o la bebida y de ahí al consumidor, con idénticos problemas a los de los biberones.

Resolver este problema no ha resultado tan fácil como el de los biberones. Las latas suelen ser de acero (para envasar alimentos de todo tipo como espárragos, pimientos, tomate o incluso carne) mientras que para envasar bebidas como las carbonatadas, la cerveza u otras, se emplean latas de aluminio. En el caso de las primeras, hace tiempo ya que los fabricantes encontraron como posible solución emplear polímeros alternativos de tipo acrílico o de la familia de los poliésteres. Dice el artículo del CEN que hoy se estima que solo el 10% de las latas de acero que se venden como envases de alimentos están recubiertas de resina epoxi a base de Bisfenol A. Pero en el caso del aluminio, esos materiales alternativos parecen no haber resultado adecuados a los intereses de las empresas que envasan bebidas.

Desde el año 2008, una empresa llamada Valspar, integrada en el grupo de la multinacional de pinturas y recubrimientos Sherwin-Williams, ha empleado mucho tiempo y dinero en buscar otra resina epoxi fabricada a base un Bisfenol que no tuviera actividad hormonal como producto puro y que, al mismo tiempo, fuera capaz de dar lugar a una resina adecuada para tapizar el interior de las latas de forma tan eficiente como la que se ha venido usando tradicionalmente y de la que tan encantado está el sector.

Y buscando, buscando, con todo tipo de herramientas (incluidas las computacionales), dieron con un Bisfenol, el ya mencionado Tetrametil Bisfenol F (TMBPF), biológicamente inerte pero suficientemente reactivo para dar lugar a una resina epoxi. El siguiente problema, y no menor, fue encontrar a alguien que fabricara suficiente cantidad de TMBPF como para obtener cantidades adecuadas de resina para realizar los múltiples ensayos de propiedades requeridos, así como para poder suministrar muestras de la misma a los industriales interesados. Finalmente dieron con una industria india que se ha convertido en el principal proveedor de este material de partida.

Pero la gente de Valstar fue más lejos en su intento de prevenir sustos posteriores. En colaboración con Ana M. Soto de la Medicine School de la Universidad de Tufts, una Universidad privada radicada cerca de Boston, realizaron un completo estudio sobre la actividad estrogénica del TMBPF, así como de los fenómenos de migración de posibles restos de ese material de partida o de otros que pudieran haberse generado en la resina durante el proceso de la obtención de la misma. Los resultados fueron publicados hace ya dos años [Environ. Sci. Technol., 2017, 51 (3), pp 1718–1726] y sus conclusiones proclaman "la evidencia de la ausencia de actividad estrogénica del TMBPF", una frase que puede resultar un poco rebuscada pero que, en el fondo, ilustra que demostrar que una sustancia tiene actividad estrogénica se resuelve con ensayos relativamente sencillos, pero demostrar que no la tiene es algo mucho más complejo. Los ensayos del grupo de Tufts también demuestran que, probablemente por la estructura más compleja del TMBPF, éste tiene muchas mas dificultades para migrar desde la resina al producto envasado que las que encontraba el Bisfenol A. Y, como resultado, la migración del TMBPF estaba en el límite de su posible detección por parte de las técnicas analíticas empleadas.

Para cerrar el bucle de posibles problemas futuros, Valstar entró en contacto con una organización muy activa en contra del uso del Bisfenol A, que ha estado encima de todo el proceso y parece haber quedado satisfecha con lo que ha visto. La resina de TMBPF ya ha sido empleada como recubrimiento en 15 billones (americanos) de latas de bebidas, comercializadas especialmente en California, un estado particularmente sensible a estas cosas y que ha obligado a que las latas con revestimiento de Bisfenol A (el primo peligroso) lleven una etiqueta que alerte de los posibles riesgos del mismo. La empresa anda ahora buscando la aprobación de la Unión Europea para introducir sus resinas en este mercado.

Ver venir, que decía mi abuela paterna.. Pero no me digáis que no os pongo al día.

Leer mas...

martes, 26 de febrero de 2019

Agujetas y plásticos biodegradables

Los amigos de Maldita Ciencia, cuya web os recomiendo, recordaban la semana pasada que, en contra de lo que se ha dicho (y enseñado en las escuelas), las llamadas agujetas, ese punzante dolor muscular que aparece tras la realización de un esfuerzo acusado, y generalmente inusual, no están causadas por cristales acerados de ácido láctico que se clavan en nuestros músculos. Lo cual no implica que no se produzca ácido láctico durante los ejercicios violentos o inusuales. En la generación de un esfuerzo, nuestro organismo quema ese combustible a nuestro alcance, tantas veces mencionado en este Blog, la glucosa, produciendo en esa combustión anhídrido carbónico (CO2) y agua. Pero, como en toda combustión, se necesita la presencia del oxígeno. Para conseguirlo durante el esfuerzo, el organismo necesita asegurarse una buena oxigenación. Si el esfuerzo es muy importante, muy prolongado o no estamos bien entrenados para ello, el aporte de oxígeno no es el adecuado y la glucosa no se quema eficientemente.

En lugar de ello, en presencia de esa atmósfera sin el oxígeno necesario, la glucosa sufre una serie de reacciones químicas que mediante la formación de un intermedio, el ácido pirúvico, conduce finalmente a la formación de ácido láctico. Pero hoy parece probado que la mayor parte del ácido láctico generado acaba transformándose en lactato, con lo que la concentración real de aquel es baja y no daría lugar a suficientes agujas cristalinas como para hacernos ver las estrellas. Y la sensación de dolor se debería más a pequeñas roturas de fibras musculares. Pero esto se escapa a las capacidades de este vuestro Búho, aunque leer sobre estas cosas en la web de Maldita Ciencia, me ha recordado una vieja entrada de los inicios del Blog que creo que ha llegado el tiempo de actualizar.

En determinadas ocasiones y en relación con el bombardeo que estamos sufriendo en los medios en torno a la presencia de basura de plásticos en todo nuestro entorno, y particularmente en el mar, se postula como posible alternativa la sustitución de los plásticos convencionales por plásticos con la etiqueta "bio". Ya he alertado aquí en varias ocasiones que hay que tener cuidado con el término. Hoy se emplea el prefijo bio para designar plásticos que provienen de fuentes de biomasa renovables pero, en algunos de los casos, una vez transformadas en un plástico, éste es exactamente igual que el obtenido a partir de derivados de petróleo. El caso más significativo es el polietileno de las bolsas de basura y otros usos. Para producirlo necesitamos etileno, un gas que puede extraerse de plantas de petroquímica o de biomasa como la caña de azúcar. Pero una vez polimerizado para obtener el polietileno, éste es exactamente igual venga de donde venga y el problema de su existencia como basura es idéntico. La solución mas aceptable (aunque no exenta de problemas) es que el polímero obtenido de fuentes renovables, una vez utilizado, se degrade totalmente en el ambiente para dar solo CO2 y agua. Son los llamados plásticos biodegradables. Y de uno de ellos, que tiene que ver con las agujetas, va esta entrada de largo preámbulo.

El ácido láctico presente en la naturaleza se produce generalmente mediante procesos de fermentación de sustratos ricos en glucosa, lactosa o polisacáridos, merced al concurso de microorganismos como la bacteria Bacillus acidilacti. Como tal ácido láctico está presente en la leche y otros derivados lácteos y se usa también, en otros productos alimenticios, como sustancia capaz de regular el pH (su código en estos usos es E-270). Pero donde adquiere mucho mayor valor añadido es en el ámbito de la cosmética, donde junto con un "primo", el ácido glicólico, se emplea para paliar el paso del tiempo en nuestro físico. Adecuadas pociones o incluso infiltraciones de estos alfa-hidroxi ácidos se venden como poderosos agentes antiarrugas, como potenciadores de mejores tonos y texturas de la piel, como protectores solares, etc. No voy a entrar demasiado en el tema. El mundo de la cosmética es un tema del que no me siento particularmente orgulloso como químico y no tenéis más que seguir los libros, las charlas o la web de mi hermano murciano José Manuel López Nicolás para haceros una idea de ello.

El ácido láctico puede polimerizarse para dar lugar a largas cadenas de un polímero plástico que se denomina poliácido láctico (PLA), nombre que nunca me ha convencido porque lo que realmente se obtiene es un poliéster. La reacción en la que el ácido láctico da lugar al poliéster es una reacción complicada y el polímero resultante suele tener cadenas relativamente cortas (bajo peso molecular), algo poco recomendable para muchas aplicaciones convencionales en las que se emplean plásticos. Sin embargo, hay una vía alternativa. A partir del ácido láctico es posible obtener un compuesto llamado lactida, que son dos unidades de ácido láctico unidas en un ciclo de seis miembros. Con adecuados catalizadores es posible abrir ese ciclo y generar el mismo polímero que con el ácido láctico sólo que, está vez, es posible llegar a pesos moleculares más altos y, por tanto, a materiales más interesantes.

Hasta principios de este siglo, el plástico PLA era un material poco relevante, aunque de alto valor añadido, que había encontrado un cierto nicho en el mercado de las aplicaciones biomédicas como hilo de sutura, clavos empleados en la recomposición de fracturas óseas, como soporte de ciertos medicamentos administrados en forma de parches de dosificación controlada, etc. En todas esas aplicaciones, la biocompatibilidad del polímero (es decir, su no rechazo por parte del organismo humano) y su biodegradabilidad a lo largo del tiempo han sido los parámetros clave.

Y así, en el caso de los clavos en cirugía traumatológica o las pequeñas prótesis a base de PLA, su uso es muy interesante. Cuando se trata de reparar una fractura, necesitamos sujetar las dos partes resultantes de la misma con algún dispositivo que asegure su contacto mientras ambas partes se pegan, como consecuencia de la regeneración del tejido óseo. El empleo de clavos metálicos tenía el problema de dejarlos allí permanentemente, con los problemas que un alojamiento prolongado tiene, o bien tener que realizar una nueva operación ulterior para eliminarlos una vez que han cumplido su misión. Con los clavos de PLA la cosa es distinta. Se van biodegradando desde que son implantados pero están calculados para resistir mecánicamente el tiempo necesario para que se produzca la regeneración ósea. Posteriormente, van desapareciendo poco a poco sin causar problema alguno al organismo que los albergaba.

Pero el salto a la fama definitivo del PLA se produjo en los primeros años de este siglo, cuando empezaron a comercializarse diversos productos, capaces de competir con los polímeros convencionales en el mundo del envase, las fibras y otros. Y ello ocurrió como consecuencia de un consorcio o joint-venture de dos empresas colosales: Cargill una empresa que controla la mayor parte de la producción de maíz, tanto en USA como en otros países, así como el muchas otras semillas y productos y Dow Chemical, uno de los nombres míticos de la Industria Química.

Hoy Dow ha desaparecido del consorcio y ha sido reemplazada por PTT Global Chemistry, la mayor empresa química de Tailandia. Sobre la base de materia prima de origen exclusivamente vegetal como maíz, azúcar o trigo y mediante procesos fermentativos que generan el ácido láctico y posteriormente la lactida, como los descritos líneas arriba, el consorcio, de nombre NatureWorks, produce una variada gama de productos a base de PLA que, bajo el nombre comercial de Ingeo, se emplean en diversas aplicaciones como láminas que se transforman en envases de alimentos o vasos de café para llevar, fibras de todo tipo y, más recientemente, como materiales para las impresoras 3D, como los filamentos que se ven en la foto que ilustra esta entrada. La firma, radicada en Blair, Nebraska, USA, produce 150.000 toneladas anuales de PLA y tiene representantes y negocio por todo el mundo. En 2016 abrió un laboratorio de investigación orientado a la obtención de ácido láctico a partir de metano por procesos fermentativos.

Esa variedad de materiales, a partir de un compuesto químico del mismo nombre, puede llegarse a obtener porque el ácido láctico es una molécula quiral (una introducción al tema puede verse aquí), lo que quiere decir que tenemos en realidad dos moléculas distintas de ácido láctico, tan iguales o distintas como nuestras dos manos, que nunca pueden superponerse una sobre otra en la misma posición. Son los isómeros L y D del ácido láctico, que podemos combinar en las cadenas del polímero final, dando lugar a copolímeros de ambos con ordenaciones, y correspondientes propiedades, muy dispares.

Pero, ¿qué suponen los polímeros realmente biodegradables hoy en día en el mercado de los plásticos?. Pues en realidad no mucho y os voy a hacer unos números con las estadísticas más recientes. En 2018 la producción total de plásticos en el mundo ha alcanzado la cifra de 348 millones de toneladas, un 3,9% mas que el año anterior. La producción de bioplásticos (biodegradables o no) alcanzó ese mismo año 2018 la cifra de 2,11 millones de toneladas, apenas un 0,6% de la producción total. Pero (y este es un importante pero) los verdaderos plásticos biodegradables, como el PLA y otros, solo son el 43,2% de esas 2,11 millones de toneladas, esto es 0,9 millones de toneladas, menos de un 0,3% de la producción total de plásticos en el mundo. El informe que tengo en la mano sobre el futuro de estos materiales predice un crecimiento del 60%, de aquí al 2023, pero la implantación en el mercado seguirá siendo poco representativa.

Así que habrá que esperar a ver qué pasa. Yo no soy muy optimista sobre la implantación de materiales como el PLA. Una parte de mi vida académica ha estado ligada a estos materiales y siempre han sido eternos aspirantes a plásticos de futuro. Pero siempre ha habido algo que ha frustrado su salto a la fama.

Leer mas...

jueves, 14 de febrero de 2019

Ozono y vuelos supersónicos

Casi todo el mundo está más o menos informado sobre el asunto de la capa de ozono, su papel en el filtrado de las radiaciones ultravioletas y su desaparición merced a la influencia de los gases denominados clorofluorocarbonos (CFCs). Empleados en aerosoles, frigoríficos y otras aplicaciones fueron prohibidos por el protocolo de Montreal en 1987, un auténtico hito en poner de acuerdo a la totalidad de países de nuestro mundo en una estrategia medioambiental. El que quiera un resumen del asunto puede leerse esta vieja entrada del Blog, donde lo expliqué de manera muy simplificada. Que en el asunto del llamado "agujero" de ozono (que no es tal) no todo es blanco o negro, sino gris (y con diversas tonalidades). Pero hoy no vamos a profundizar en estas cosas para contar una historia colateral.

A finales de los cincuenta y principios de los sesenta, todo el mundo ligado a la industria aeronáutica parecía estar de acuerdo en que el futuro de la aviación comercial estaba en los vuelos supersónicos (es decir, por encima de la velocidad del sonido). Como consecuencia de ello, tres proyectos diferenciados liderados por EEUU (Boeing 2707), la URSS (Tupolev-144) y un consocio franco-británico (Concorde) echaron a andar. Ninguno de los tres ha tenido viabilidad a largo plazo. El Tupolev dejó de operar comercialmente en junio de 1978, el Concorde en noviembre de 2003 y el Boeing no funcionó nunca. Las razones de este fracaso son, como casi siempre, variadas y complejas pero, en el caso del avión americano, los miedos a su posible influencia en la disminución del ozono en la atmósfera jugaron un papel fundamental, aunque hoy parece estar demostrado que tales miedos eran injustificados.

En esa América de los sesenta, en la que los grupos ecologistas fueron ganando influencia en círculos periodísticos y políticos, el posible impacto de los vuelos supersónicos se concretó primero en el ruido, en forma de explosión, producido por estos aparatos al sobrepasar la barrera de la velocidad del sonido. Pero enseguida se puso la lupa en el efecto que los gases que resultan de la quema de los combustibles en sus potentes motores pudieran tener en la estratosfera. A diferencia de los aviones convencionales o subsónicos, los supersónicos vuelan a alturas situadas en el dominio de la estratosfera, por encima de los 10 kilómetros de altitud, una zona particularmente estable, con temperatura casi constante y en la que el poco aire existente se mueve poco.

La primera de las inquietudes relacionadas con lo que los aviones supersónicos pudieran soltar en la estratosfera, se derivó de algo que ya era evidente en esa época. Los aviones subsónicos o convencionales dejaban estelas blancas (contrails), debidas al vapor de agua que, al salir de sus tubos de escape, formaban cristales de hielo y se hacen visibles en el cielo durante un cierto tiempo. Si eso ocurría en la troposfera o parte baja de la atmósfera, las estelas dejadas en la estratosfera durarían mucho más tiempo dada su estabilidad, provocando, si el número de vuelos estratosféricos crecía, una especie de nubes permanentes que, en principio,  contribuirían al calentamiento del planeta. Sin embargo, ese tipo de problemas fueron considerados poco probables en un congreso celebrado en Estocolmo en el verano de 1970, dos meses después de la exitosa celebración del Primer Día de la Tierra. El Congreso respondió al título Study of Critical Environmental Problems (SCEP) y ha pasado a la historia como el primero que abordó el problema de los efectos que los humanos podíamos causar en la atmósfera.

Pero la verdadera piedra de toque en el declive de los proyectos de los vuelos supersónicos vino de la mano del ozono. Para los astrónomos de los años 30, la capa de ozono era un verdadero incordio porque les impedía registrar bandas de radiación provenientes de las estrellas, al resultar bloquedas por esa capa. Así que hubo alguien, Sidney Chapman, un pionero en la investigación del ozono, que propuso la peregrina idea de abrir deliberadamente un agujero en la capa de ozono para "ver" mejor esas radiaciones. La propuesta implicaba que un avión diseminara un desozonizador que actuara como catalizador de la reacción de descomposición del ozono, acelerándola.

La idea no tuvo recorrido pero recordándola, Harry Weler, Director de Investigación del Servicio Meteorológico americano, preguntó en 1962 a un químico amigo qué compuesto podría hacer ese papel. A lo que el químico contestó que una bomba que esparciera cloro o bromo en las zonas polares podría lograr ese efecto. Esa respuesta hizo que Wexler empezara a considerar, y a divulgar, el inadvertido papel que las pruebas que se estaban haciendo con misiles, que emitían cloro en sus gases de escape, pudieran causar en la destrucción de ozono. Así como los peligros que ello conllevaba, por el papel del mismo en el filtrado de las radiaciones UV más peligrosas. Wexler murió muy pronto y sus ideas se difundieron poco. Sin embargo, a principios de los setenta y coincidiendo con los trabajos del Congreso y Senado de los EEUU para conceder una subvención millonaria a Boeing para proseguir con el desarrollo de su avión supersónico, la sociedad americana se sobresaltó con un par de noticias científicas que, según algunos historiadores del asunto, resultaron relevantes en el rechazo de ambas cámaras a esa subvención. Y que tenían que ver con el ozono.

James McDonald era un especialista en las propiedades de los cristales de hielo en la atmósfera y había contribuido en los sesenta a desmitificar el peligro de los contrails que hemos ya contado. Pero a principios de los setenta, la National Academy of Science (NAS) le pidió que reconsiderase el asunto. McDonald estaba entonces muy preocupado por el papel que la pérdida de ozono podía tener en los cánceres de piel y así informó a la NAS. La cosa trascendió a periodistas y políticos y Mc Donald acabó testificando en el Congreso en marzo de 1971, dos semanas antes de la votación en el Congreso de la propuesta de subvención a Boeing ya mencionada.

En su testimonio, aseguró que el ozono podía destruirse merced al papel catalizador del vapor de agua y los radicales libres producidos por él y que un descenso de solo el 1% de la concentración del ozono en la capa en la que se aloja, podría originar hasta 10.000 nuevos cánceres de piel al año, solo en EEUU. La víspera de la votación en el Congreso, el senador Proxmire presentó en una rueda de prensa una serie de decenas de testimonios de científicos que avalaban la tesis de McDonald. Fuera en virtud de este temor o no, el Congreso votó en contra de la subvención (215-204) el 18 de marzo y el Senado hizo lo mismo (51-46) el 25 de marzo. Las tesis de McDonald no tuvieron, sin embargo, mucho predicamento entre sus colegas, entre otras cosas por la compleja personalidad del científico, firme defensor de los OVNIS y de la influencia de los alienígenas en ciertos episodios de la vida americana, como una serie de cortes de luz que ocurrieron en los 50. McDonald acabó suicidándose pocas semanas después de su testimonio

Pero la Administración Nixon, consiguió reabrir el proceso por solo 4 votos de diferencia el 13 de mayo de 1971 y volvió a enviar el debate al Senado. Dos días antes de que el Senado votara, H. Johnston, de la Universidad de California apareció en muchos medios que reproducían una noticiaa de un periódico californiano según la cual una flota de unos 500 aviones supersónicos (como la que Boeing pensaba podía ponerse en el aire), volando unas siete horas al día, producirían en menos de un año la reducción de la capa de ozono en un 50%, con lo que "todos los animales del mundo, se volverían ciegos si se aventuraran a salir a la luz del día". Johnston apuntaba a un causante de esa rápida desaparición del ozono, que no era el agua y los radicales derivados, sino os óxidos de nitrógeno (NOx) expedidos por los aviones supersónicos en la estratosfera. Aunque Johnston ha mantenido posteriormente que su estudio fue mal interpretando por los medios y que lo del 50% y la ceguera solo era el peor escenario de los posibles (ver, por ejemplo, su testimonio aquí), nunca sabremos si esa fue la causa determinante de que el 19 de mayo de 1971, el Senado americano se opusiera de nuevo, con más fuerza que la vez anterior (58-37) a que la Boeing recibiera nuevos fondos para seguir con su 2707. Y ahí, casi prácticamente, se acabó la aventura estratosférica americana.

La tesis de Johnston encontró enseguida oposición entre sus colegas. Dos de ellos, Foley y Ruderman, le contestaron en 1973 que solo con las pruebas atómicas de EEUU, entre octubre de 1961 y diciembre de 1962, se había generado en la estratosfera más NOx que la famosa flota de aviones de Johnston volando no uno sino cinco años seguidos. El estado actual de la cuestión es suficientemente complicada como para no extenderse aquí, pero hoy parece claro que el papel de los NOx emitidos por los aviones supersónicos tiene un impacto pequeño en la disminución del ozono. Pero eso solo ha sido posible saberlo, después de una millonaria investigación de varios organismos a mediados finales de los 90. Cuando ya casi nadie se acordaba de Johnston y del asunto de los animales ciegos. Y cuando el Concorde, que seguía operando, solo había conseguido poner menos de una veintena de aparatos en el aire, que hoy andan exhibidos como rarezas en varios sitios del mundo.

Y sobre todo porque, para entonces, ya llevaba años en liza otro nuevo frente sobre el ozono: el de los CFCs, que ya citaba al principio. Algún día igual vuelvo sobre el tema, que la entrada arriba mencionada se ha quedado un poco viejilla.

Leer mas...

martes, 29 de enero de 2019

Una entrada documentada con bibliografía homeopática

A finales del siglo XVIII, el "padre de la homeopatía", Samuel Hahnemann, empezó a investigar nuevas formas de curar, basadas en la idea de que cualquier sustancia que causara a una persona sana síntomas parecidos a una enfermedad, podía curar a un enfermo de esa dolencia. Y, para ello,  empleó preparados que contenían sustancias peligrosas, como los alcaloides de las bayas de belladona, la apitoxina de las abejas muertas o disoluciones de sales de mercurio. Estos y otros preparados tenían efectos indeseados en las personas sanas que le servían para experimentar e, incluso en muchos casos, agravaban los síntomas de las enfermas. Así que, como contaba en 2009 en la Revista Médica de Homeopatía [Rev Med Homeopat 2, 25-30 (2009] el médico homeópata Isidre Lara, Hahnemann empezó a diluir esos preparados con agua o mezclas alcohol/agua, "obteniendo, como era lógico esperar desde nuestra perspectiva actual, que esa reducción de dosis conllevaba, junto a la reducción de toxicidad, una reducción también de su poder medicinal".

Pero como cuenta el propio Lara: “Al genio creador de Hahnemann se le ocurrió utilizar otra técnica en la preparación de los medicamentos, la llamada dinamización por sacudimiento manual de cada dilución progresiva.[....] El sorprendente resultado que pudo observar fue que las sustancias medicinales así dinamizadas mantenían la reducción de su toxicidad (debido a la dilución), pero, en cambio, no sólo no se reducía su poder medicinal, sino que, al contrario, esta aumentaba ostensiblemente”.

Para explicar ese contrasentido, Hahnemann formuló la hipótesis (sigamos con Lara): “....de que el poder medicinal desarrollado en las sustancias mediante los procedimientos de dilución y dinamización (potenciación), estaba en relación con un factor inmaterial, la energía o fuerza vital de la sustancia, que no respondía a las leyes de la Química conocida hasta ese momento”. Aclaremos que la energía vital es un concepto ligado al vitalismo, una doctrina filosófica imperante en la época de Hahnemann. Hoy, una parte de la comunidad homeopática [véase, por ejemplo, G. Fernández Quiroga y J. M. Marín Olmos, Rev Med Homeop 4, 25-29 (2011)], parece querer abandonar ese concepto al considerarlo “una rémora en nuestro intento de comunicarnos con las demás disciplinas científicas y, sobre todo, para clarificar la nuestra”.

Pero diluir muchas (muchísimas) veces, como es habitual en los remedios homeopáticos que las farmacias siguen vendiendo, tiene el inconveniente de entrar en colisión frontal con conceptos tan implantados en la Química moderna (y que no existían en tiempos de Hahnemann) como el número de Avogadro o el mol. Algo que se reconoce incluso en medios próximos a la homeopatía. Paolo Bellavite, Profesor de Patología General de la italiana Universidad de Verona, con amplia bibliografía sobre la homeopatía, lo explica de forma paladina en un artículo de 2014 [Homeopathy 103, 1-24 (2014)]: “Los efectos de las altas diluciones nos llevan fuera del reino de la farmacología clásica para enfrentarnos a fenómenos que pueden parecer inexplicables. [….] Con ayuda del número de Avogadro, un cálculo sencillo nos muestra que después de una dilución C12, será cada vez más improbable que encontremos una sola molécula por litro de la sustancia original contenida en la tintura madre”. Y, como probablemente sepan mis lectores, muchos de los remedios mas vendidos en homeopatía van a diluciones C30 e incluso a C200.

El problema de la eficacia de las altas diluciones también preocupó al médico francés Jacques Benveniste, reputado científico en el ámbito de los mecanismos de las alergias y las inflamaciones. En su ya famoso artículo en Nature [Nature 333, 816-818 (1988)], cuya génesis expliqué con mucho detalle aquí, y debido a la influencia que la homeopatía tuvo en ese trabajo en forma de financiación y doctorandos, se usaron altas diluciones habituales en homeopatía, preparadas, además, por dilución sucesiva y agitación. En uno de los párrafos de las conclusiones finales de ese artículo, los investigadores reconocían que sus diluciones estaban más allá del número de Avogadro y que no podían existir en ellas ninguna de las moléculas originales (en su caso eran anticuerpos). Sin hacer mención expresa al posible papel de la agitación, los autores especulaban que alguna información tendría que transmitirse de esos anticuerpos a las sucesivas diluciones para provocar, posteriormente, los efectos observados. Y como trabajaban con disoluciones acuosas, el papel del agua se tornaba fundamental.

De ese artículo y esa especulación surge el famoso concepto mediático de la memoria del agua, para explicar que el líquido por excelencia pueda guardar y transmitir información derivada de las moléculas que, originalmente contenidas en la llamada tintura madre, se perdieron en el transcurso de las muchas diluciones. Han transcurrido treinta años desde el artículo de Nature y del concepto de la memoria del agua y el ámbito próximo a la homeopatía sigue utilizando métodos experimentales y proponiendo teorías para explicar ese fenómeno de almacenamiento y transmisión de información en las diluciones homeopáticas. Un artículo de 2015 de un referente de la homeopatía, el profesor australiano Jurgen Schulte [Homeopathy 104, 305-310 (2015)], repasaba los últimos veinte años de investigación en esos asuntos, concluyendo que durante ese período "los métodos experimentales empleados han sido más sofisticados, aunque lo mismo no se puede decir sobre el soporte subyacente de los modelos teóricos y simulaciones".

Si nos centramos en los argumentos de Benveniste para explicar los resultados de su artículo en Nature, en él se especulaba con que la información pudiera almacenarse en los agregados o clusters que sabemos que el agua líquida forma mediante enlaces de hidrógeno entre sus moléculas individuales. Esa hipótesis fue pronto desechada por el propio Benveniste y lo ha sido también por artículos más recientes [J. Teixeira, Homeopathy 96, 158-162 (2007)]. Y su posible papel resultaría aún más inexplicable cuando, como en el caso de la preparación de los gránulos homeopáticos, el agua se elimina [M.F. Chaplin, Homeopathy 96, 143-150 (2007)].

La segunda hipótesis de Benveniste fue que esa información pudiera almacenarse y propagarse mediante algún fenómeno electromagnético, en lo que llamó Biología digital. Tras la muerte de Benveniste esa idea ha vuelto a aparecer de la mano de otro ilustre científico francés, Luc Montagnier, Premio Nobel de Medicina en 2008 por su descubrimiento del virus del SIDA. A partir de 2005, usando un dispositivo diseñado por el propio Benveniste y colaborando con uno de los miembros del Grupo de éste (J. Aïssa), detectaron y registraron señales electromagnéticas que identificaron como derivadas de restos de ADN de algunas bacterias, señales que se seguían dando tras diluir y agitar las disoluciones hasta ciertos niveles que, en general, no llegan al C12 que Bellavite mencionaba. [Interdiscip. Sci. Comput. Life Sci. 1, 81-90 (2009)].

Para explicar esa capacidad del agua de almacenar y emitir las señales electromagnéticas producidas por el ADN, Montagnier echa mano [Electromag. Biology and Medicine 34, 106-112 (2015)] de un modelo teórico sobre el agua que data de 1988, propuesto por el grupo del Profesor italiano Giuliano Preparata [Phys. Rev. Lett. 61, 1085 (1988)], con el que ya Benveniste había entrado en contacto en los primeros años noventa. En ese artículo se introducen los llamados Dominios Cuánticos Coherentes, difíciles de explicar a este nivel aunque puede intentarse de la mano del Prof. Marc Henry, un prestigioso químico de la Universidad de Estrasburgo, habitual, como Montagnier, en Congresos de Homeopatía. En un artículo publicado en el verano de 2017 [Rev Med Homeop 10, 41-52 2017)] Henry decía: “Por tanto, un dominio de coherencia se compondría de una gran cantidad de moléculas de agua con un comportamiento colectivo coherente. De su tratamiento cuántico pleno se deduciría que el agua en fase líquida debería considerarse un medio nanoestructurado en esos dominios y no un líquido homogéneo”. Y para explicar lo del comportamiento colectivo coherente, proponía el ejemplo de las bandadas de pájaros, como la de la foto que ilustra esta entrada.

Sin embargo, el modelo de Preparata y colaboradores basado en esos dominios de coherencia es eso, un modelo teórico, uno más de los muchos existentes para explicar las inusuales propiedades del agua. Y, por ahora, no parece que ni las medidas experimentales ni las simulaciones por ordenador avalen la pretensión de que en el seno del agua puedan crearse estructuras como las mencionadas por Henry. Así lo parece reconocer él mismo en el artículo citado: “Lamentablemente, dicha predicción teórica parece estar en completo desacuerdo con medidas realizadas por Resonancia Magnética o Difusión de Neutrones que, en su lugar, apuntan a una estructura homogénea del agua……”.

Como alternativa al modelo de Preparata, Henry propone en su artículo un nuevo y "plausible" modelo, en el que los dominios cuánticos coherentes no existen en forma de colectivos de moléculas de agua en tres dimensiones (como ocurría en el de Preparata), sino que forman capas en dos dimensiones sobre la superficie de las minúsculas burbujas que se generan en el proceso de agitación violenta tras cada dilución. No voy a profundizar tampoco con estos tecnicismos pero baste decir que, a Henry, le sirven para construir ese nuevo modelo, con el que viene a concluir que, gracias a esa organización, el agua es un gigantesco almacén de información digital que puede, además, ser transmitida a los organismos vivos. Esa inusitada capacidad del agua vendría a ser, según Henry, la explicación cuántica al concepto de "la fuerza dinámica inmaterial, utilizando el vocabulario de Hahnemann".

Y merced a esa capacidad, reaparece en escena la sorprendente acción de la agitación violenta tras cada dilución, mencionada al principio de esta entrada como otra de las grandes aportaciones de Hahnemann. El 16 de noviembre de 2016, la Asociación Vasconavarra de Médicos Homeópatas celebró en Donosti una Jornada titulada “Evidencias científicas de la homeopatía” en la que se resumieron los resultados más relevantes del Congreso Nacional de Homeopatía celebrado en la misma ciudad en mayo de ese año y en el que habían participado como ponentes estrella tanto Montagnier como Henry. En una entrevista en el Diario Vasco, el portavoz de esa asociación, resumía las aportaciones de este último diciendo que: “Lo que se ha demostrado ahora gracias a la física cuántica es que se forman nanoburbujas, y entre ellas se crean capas, estructuras nuevas, llamadas dominios de coherencia, que es donde se acumula la información. Cuanto más diluyes mas estructuras hay, más nanoburbujas y más capacidad de almacenar información”.

La última frase que he resaltado en negrita parece solucionar, definitivamente, el problema de la eficacia de las altas diluciones, merced a la agitación. Pero todo lo que ahí se aduce no son, al menos por el momento, evidencias científicas. Son solo predicciones derivadas del modelo teórico de Henry que deben comprobarse experimentalmente. Y, por ahora, nadie ha comprobado experimentalmente que, en la superficie de las burbujas que se forman al agitar las disoluciones, se creen los Dominios Cuánticos Coherentes de dos dimensiones que propugna Henry como base de su modelo. Y si no puede demostrarse que esos Dominios existan, el resto (acumulación de información, interacción con organismos vivos) es pura especulación.

Personalmente, y para terminar, siempre me ha sorprendido esa insistencia con la estructura del agua líquida como recurso último para explicar la eficacia de la homeopatía porque, como dice Schulte en uno de los artículos ya mencionados, "aunque el agua pura es ideal para estudiar las estructuras inducidas por la dinamización, el agua pura rara vez se usa en la práctica de las preparaciones homeopáticas".

He aprovechado esta entrada para agrupar en la etiqueta Homeopatía, que aparece a la derecha, todas las entradas que he dedicado en este Blog al tema, desde hace la friolera de doce años. Creo que, por ahora, no volveré a escribir más sobre el asunto. 

Leer mas...