miércoles, 11 de octubre de 2017

La prehistoria de la memoria del agua

La controversia entre los partidarios y detractores de la homeopatía, que ya dura más de un siglo, tiene un antes y un después de la introducción de la llamada "memoria del agua", tras la publicación en Nature, el 30 de junio de 1988, de un artículo firmado por el grupo liderado por el médico e investigador francés Jacques Benveniste. Dicho artículo trataba de la activación de ciertos glóbulos blancos (daré más detalles después) por unas disoluciones de un anticuerpo que, como los mismos autores reconocían en el texto del artículo, eran tan diluidas que estaban más allá del límite de Avogadro o, contado para que todo el mundo lo entienda, se había diluido tanto la disolución de partida del anticuerpo que era imposible que esas altas diluciones contuvieran ni una sola molécula del mismo. Algo que tiene mucho en común con los remedios homeopáticos, una gran parte de ellos preparados a esas altas diluciones, antes de ser evaporados sobre los gránulos habituales.

Desde entonces, hace ya casi treinta años, médicos y científicos partidarios de la homeopatía siguen buscando el fundamento de esa posible "memoria" y, en años más recientes, la cosa se está poniendo casi imposible de seguir a quien no tenga unos conocimientos más que básicos de la estructura del agua líquida, de alta biología o, incluso, de mecánica cuántica. No llegaré a tanto en esta entrada. Al hilo de un par de libros que he leído recientemente en torno a Benveniste y la "memoria del agua", me propongo contaros la historia previa a la publicación del famoso, y polémico, artículo que dio lugar a ese concepto. Tiempo habrá para considerar las posteriores derivas del asunto.

A principios de este año Guillermo Peris, un Profesor de la Universitat Jaume I, al que sigo en Twitter, me comentó en una conversación privada que estaba leyendo un libro aparecido en 2016 bajo el título "Ghosts of molecules", escrito por Francis Beauvais, uno de los firmantes del mencionado artículo de Nature. Se trata de la versión en inglés de la segunda edición francesa, aparecida en 2015, que corregía y aumentaba la primera edición, publicada también en francés en 2007. Se puede descargar gratuitamente aquí esa segunda edición en ambos idiomas. El libro está estructurado en dos partes bien diferenciadas que tienen como frontera el acontecimiento de la propia publicación del artículo de Nature. Lo he leído y releído varias veces desde entonces y, gracias a él, he descubierto otro libro, una obra póstuma del propio Benveniste, publicado por tres de sus hijos bajo el título "Ma verité sur la memoire de l'eau" que, en formato pdf y en francés, os podéis descargar gratuitamente aquí.

A través de ellos he descubierto la compleja personalidad del citado Jacques Benveniste, alguien que quería ser piloto de carreras en su juventud y estudiar Ingeniería Mecánica para estar cerca de los coches pero que, finalmente y por una serie de razones, acabó estudiando Medicina. Tras un periodo de diez años como médico en diferentes Hospitales de París, comenzó a simultanear su trabajo de médico con el de investigador en Inmunología en el Instituto del Cáncer (CNRS) de Villejuif. En esa situación le pilló la atmósfera previa y posterior del mayo del 68 en el que, como militante del PS francés, tuvo sus más y sus menos con relevantes figuras del panorama médico e investigador del país de los galos, incluido el Premio Nobel de Medicina de 1965 André Lwoff. Otro hecho que muestra su carácter inconformista son sus críticas reiteradas (por ejemplo, en la Tribune Libre del periódico Le Monde) sobre el sistema de mandarines que controlaba el panorama médico y científico de la Francia del momento. Sea por ese ambiente irrespirable para él o por otras razones que no quedan claras, a principios de 1969 aceptó un contrato de la Scripps Clinic and Research Foundation en La Jolla, California, Institución dirigida por el Prof. Frank Dixon, uno de los pioneros de la inmunología.

A partir de ese momento inició lo que debería haber sido una exitosa carrera científica (y en parte lo fue), que puso sus cimientos en una serie de artículos en prestigiosas revistas sobre el llamado Factor Activador de Plaquetas (PAF), una especie de mediador entre los glóbulos blancos y las plaquetas, con importantes repercusiones en fenómenos ligados a las alergias y a otras patologías inflamatorias.

De vuelta en Paris, tres años después, con una aureola de investigador de prestigio pero controvertido en los medios de su país, Benveniste acabo creando una unidad de investigacion sobre "Inmunopatología de la alergia y la inflamación", la Unidad 200 del INSERM (Instituto Nacional de la Salud e Investigación Médica), que pronto creció en dinero y personal, y entre cuyas líneas estaba el estudio de los basófilos, un tipo de glóbulos blancos que juegan un papel importante en las reacciones alérgicas. En presencia de alérgenos como el polvo, el polen, la clara de huevo, etc., esos basófilos pierden unos gránulos existentes en su citoplasma (un proceso llamado degranulación), liberando al mismo tiempo ciertas sustancias como la histamina.

En esa unidad apareció a principios del año 1980 Bernard Poitevin, que finalmente también firmaría el trabajo de Nature, un estudiante de doctorado que había empezado su Tesis sobre el mediador PAF descubierto por Benveniste. Pero Poitevin era también médico homeópata y entre finales del 81 e inicios del 82 propuso a Benveniste realizar experiencias sobre los efectos de los preparados homeopáticos en modelos biológicos de laboratorio. Benveniste le dejó hacer, entre otras cosas porque Poitevin venía con dinero debajo del brazo, de la mano de los Laboratorios Homeopáticos de Francia (LHF). En esas mismas fechas, Boiron, una de las grandes empresas de homeopatía hoy en día, se puso en contacto con Benveniste para tratar de reproducir en su laboratorio ciertos resultados obtenidos por Jean Saint-Laudy (que también aparece como autor en el artículo de Nature), un médico de un laboratorio privado que había utilizado un método ideado por Benveniste para contar, bajo un microscopio, los basófilos que se degranulaban. Boiron acabó firmando otro contrato con Benveniste en 1983, año en el que esa empresa absorbió a los Laboratorios Homeopáticos de Francia. Hay que decir también que, en esa época, el Laboratorio de Benveniste recibía la parte más relevante de su financiación exterior de importantes empresas farmacéuticas.

Así que ya tenemos un pequeño germen de experiencias homeopáticas en el seno del Grupo de Benveniste. Saint-Laudy trabajando sobre el efecto inhibidor de la histamina a altas diluciones en la degranulación de basófilos y Poitevin en el mismo efecto pero utilizando para ello un conocido preparado homeopático, Apis Mellifica, obtenido a partir de un extracto (o tintura madre) en alcohol de abejas machacadas y diluido muchas veces. Según las memorias de Benveniste, él no creía en absoluto en que una alta dilución de algo pudiera tener actividad biológica pero cuando Poitevin empezó a presentarle ciertos resultados que contradecían su opinión, empezó a picarle la curiosidad. En setiembre de 1984 Pointevin presentó sus primeros resultados sobre la Apis Mellifica en un Forum de Jóvenes Investigadores y, en enero de 1985, Benveniste impacta a los medios franceses cuando, en una Mesa Redonda organizada por la revista Impact-Medicine, dice que las altas diluciones ya no son un problema de la homeopatía y, para avalar esa opinión, presenta los resultados de Pointevin. Todo hay que decirlo, la Ministra francesa de Sanidad de la época era favorable a las medicinas alternativas y a que los remedios homeopáticos se reembolsaran por la Seguridad Social francesa.

A principios de 1986, Benveniste hace circular, a nivel interno de su Grupo, un primer manuscrito que pretendía enviar a Nature y en el que se resumían los resultados de la inhibición de la degranulación de basófilos causada por la Apis Mellifica y la histamina a altas diluciones. En esa consulta interna, alguien apuntó los problemas que podría causar en el Consejo Editorial de Nature la mención en el artículo a preparados homeopáticos. Tomando en cuenta esa sugerencia, Benveniste decidió eliminar los resultados de la Apis Mellifica (que se enviaron a otra revista) y centrarse solo en la histamina a altas diluciones. Tras esos cambios, en junio de 1986, el artículo se envía a Nature, que lo rechaza en noviembre de 1986 pero abriendo la puerta a reconsiderarlo si otros laboratorios confirman los resultados.

A partir de ahí, en unos frenéticos 1987 y 1988, Benveniste y los editores de Nature mantienen una dura pelea que configura la versión final del artículo que finalmente se publicará en la revista. Por un lado, se realizan ensayos en otros laboratorios situados en Milán, Toronto y Tel-Aviv, con resultados no siempre favorables a las tesis de Benveniste, como ocurrió en Israel. Al mismo tiempo, se produce un cambio importante de estrategia que afectaría sustancialmente al contenido del artículo finalmente publicado. Durante las experiencias con la histamina, se adicionaba a las muestras de basófilos cantidades de un anticuerpo, el denominado anti-inmunoglobulina E (anti-IgE) para provocar una degranulación previa y poder ver así el efecto de las diluciones de histamina a la hora de inhibirla. En esos meses, el grupo de Benveniste cree tener resultados que muestran que la anti-IgE es capaz de activar la degranulación no solo a concentraciones habituales sino a muy altas diluciones, de nuevo por encima del límite de Avogadro. Eso hace que el interés del grupo pase de considerar altas diluciones de histamina que inhiben la degranulación a altas diluciones de anti-IgE que la provocan.

En agosto de 1987 Benveniste envía un segundo manuscrito que solo contenía resultados de la activación de la degranulación por altas diluciones de anti-IgE. El editor de Nature, John Maddox, contesta en noviembre rechazando el artículo. Benveniste se cabrea y lo manifiesta por correo y por teléfono y, de nuevo, Nature abre una puerta (finales de enero de 1988) pidiendo que se complete el artículo con una explicación de los mecanismos por los que una dilución tan alta, en la que no puede haber ni una sola molécula de anti-IgE, puede causar ese efecto de activación. Benveniste le contesta el 2 de febrero de 1988 en una carta en la que, como posibles causas, ya aparecen términos como "moléculas fantasmas" (que da lugar al título del libro que ilustra esta entrada) que "pudieran estar compuestas por moléculas de agua ordenadas previamente en torno a la molécula de anti-IgE".

Entre marzo y abril de 1988 hay nueva correspondencia y llamadas de teléfono entre Benveniste y Maddox y se introducen pequeños cambios en el texto. A finales de abril, Benveniste se va a las Bermudas a un Congreso en el que participan varios Premios Nobel, donde pronuncia una conferencia sobre las altas diluciones que, según él, atrajo el interés de muchos de ellos. En una nueva carta enviada desde allí a Nature, aparece una referencia al Prof. Emilio Dei Giudice, de la Universidad de Milán, autor de una teoría sobre "la organización de dipolos de agua, creando una campo electromagnético que puede reproducir el previamente originado por la molécula que estamos diluyendo".

El 27 de mayo de 1988 se celebra un Congreso Nacional de Homeopatía en Estrasburgo. Las crónicas enviadas desde allí por los corresponsales de Le Monde y Liberation parecen estar en el origen del término "memoria del agua". Le Monde reproduce frases de una rueda de prensa de Benveniste hablando de "un efecto molecular sin molécula" o de "moléculas fantasmas, de improntas moleculares, de un agua que habría conservado el recuerdo de las sustancias con las que ha estado en contacto”. La idea de que el agua pudiera tener memoria empieza a materializarse pero parece que el término exacto "memoria del agua" lo introdujo el corresponsal de Liberation en una crónica fechada el 30 de mayo. La personalidad desbordante de Benveniste fue más allá en esas declaraciones y llega a decir esos días que “El procedimiento que hemos usado es similar a agitar las llaves de un coche en el Sena, en el Pont-Neuf, y luego coger unas gotas del río en la desembocadura de El Havre y hacer que arranque ese coche y no otro”.

El caso es que, probablemente, el eco de las últimas declaraciones de Benveniste en los medios franceses fuera la causa por la que Maddox, el editor de Nature, diera su brazo a torcer y publicara el artículo el 30 de junio de 1988. En él, las altisonantes frases anteriores se matizan bastante y se resumen en una corta explicación sobre el sorprendente efecto de las altas diluciones: "El agua puede actuar como un “molde” para la molécula, por ejemplo a través de una red de enlaces de hidrógeno o merced a campos eléctricos y magnéticos. En el momento presente, sólo podemos especular sobre la naturaleza de la actividad específica presente en las disoluciones altamente diluidas".

A partir de la publicación del artículo empezaron las desgracias para Benveniste y su Grupo. El INSERM no le respalda en lo relativo a las altas diluciones y él tiene que admitir que una curiosa Comisión nombrada por Nature (con el mago Randi incluido) visite su laboratorio y asista a una repetición de los experimentos, que los comisionados consideraron llenos de errores experimentales y estadísticos. Y tras esos dos reveses y como él mismo cuenta: "A partir del otoño de 1988 y, en pocas semanas, me convierto en un paria de la Ciencia. Prácticamente ningún científico francés acepta ver su nombre junto al mío".... "En los medios de la homeopatía, no se me proporciona más que un soporte mínimo, por no decir altamente diluido. En junio de 1988 tras la euforia de la aparición del artículo, Boiron, cuyo Director científico es uno de los firmantes (Poitevin) del mismo, me había anunciado créditos ilimitados a mi disposición. Un mes más tarde, la Dirección de la empresa estima que si el INSERM no apoya mis investigaciones, no puede seguir financiándome. El dinero se corta brutalmente en junio de 1989. Las ratas abandonan el barco".

Benveniste no dio su brazo a torcer y siguió hasta su muerte defendiendo la validez de sus experimentos con las altas diluciones de moléculas de actividad biológica. Pero eso forma parte ya de la segunda parte del libro de Francis Beauvais y se queda para otra entrada que esta ya es larga y un poco prolija.

Leer mas...

lunes, 18 de septiembre de 2017

Química e indicadores paleoclimáticos (I)

Raro es el día que los medios de comunicación no nos bombardean con alguna noticia relacionada con el calentamiento global y sus consecuencias. Una parte de esas informaciones describen datos experimentales contrastables, como el aumento en la concentración de CO2 en la atmósfera, el aumento de la temperatura global del planeta o la disminución del pH en los océanos. Pero una parte no menos importante de esas informaciones se refieren a predicciones sobre lo que va a pasar con esas cuestiones en un futuro más o menos próximo que, por el momento, suele cifrarse con fecha tope en 2100. Se supone que van destinadas a nuestros políticos, para que tengan argumentos a la hora de tomar medidas paliativas ante los efectos de esos cambios, pero creo que a nadie se le escapa que el tratamiento que los medios hacen de esos pronósticos es, muchas veces, bastante catastrofista.

Las mencionadas predicciones se realizan a base de modelos matemáticos, más o menos sofisticados, a los que viene bien disponer de datos experimentales del pasado para comprobar su fiabilidad. Solo así puede uno tener una idea razonable de las posibilidades de ese modelo a la hora de ponerlo a trabajar en la predicción del futuro, algo siempre complicado y, especialmente, en un sistema tan caótico como el clima a largo plazo.

El problema es que no tenemos tantos datos sobre el pasado. Por ejemplo, la magnitud emblemática en el calentamiento global, la temperatura en diferentes lugares de nuestro planeta, se empezó a medir a finales del siglo XVII desde cuando, excepcionalmente, tenemos registros de lo que se conoce como Temperaturas de la Inglaterra Central (CET). En otros países existen también estaciones emblemáticas que acumulan datos desde mediados del XIX o posteriores. El observatorio de Igueldo, en mi pueblo, comenzó en fecha relativamente tardía (1928) aunque es de los más veteranos de España. Pero muchas de esas estaciones tempraneras pertenecen al Hemisferio Norte, con lo que deducir de ahí una temperatura global de la Tierra y su evolución durante los pasados decenios o siglos es realmente aventurado. Y ya no digamos de registros de la temperatura de los océanos, principales constituyentes del planeta azul, de los que casi no ha habido registros hasta muy recientemente. Y lo mismo pasa con otras medidas que ahora nos interesan, como las mencionadas relativas a la concentración de CO2, al pH de los océanos o a cosas como el nivel del mar.

Pero, como dicen los meteorólogos, el clima no es "el tiempo". Predecir el clima hasta 2100 (o más allá) no es predecir el tiempo meteorológico a cinco días vista. Y los modelos necesitan, como he mencionado antes, tener datos de muchas variables, extendiéndose muchos siglos hacia atrás, para comprobar previamente la fiabilidad de sus predicciones futuras. Y ello solo es posible, indirectamente, gracias a una serie de herramientas que se ha dado esa rama de la Ciencia que llamamos Paleoclimatología y que se agrupan bajo la denominación de Indicadores Climáticos (o Climate Proxies, en la literatura en inglés). Como muchos de esos indicadores están basados en conceptos y técnicas analíticas ligadas a la Química, bien merece que hablemos aquí de ellos. Aunque, me temo, eso va a dar para más de una entrada.

Los testigos de hielo (Ice Cores) tomados de glaciares y regiones del planeta permanentemente cubiertas por hielo, son una excelente fuente de indicadores climáticos con resonancias químicas. Por ejemplo, tanto Groenlandia como la Antártida tienen espesores de hielo de tal magnitud y pureza que nos permiten extraer de ellas cilindros de hielo, como el que veis en la figura que ilustra esta entrada (y que podéis ampliar clicando en ella). Estos gélidos "chorizos" permiten estudiar diversas variables acumuladas en su interior, en intervalos de tiempo que cubren 100.000 años en el caso de Groenlandia y 400.000 o más en el caso de la Antártida.

Con esos "testigos" en el laboratorio son varias las variables ligadas al calentamiento global que podemos estudiar. Por ejemplo, la composición de la atmósfera y su evolución. Cuando en estos lugares de climas extremos nieva, nuevas capas de hielo se generan a partir de la nieve y se acumulan sobre las anteriores. En el tránsito entre los copos de nieve y el hielo consistente, el aire de la atmósfera del momento queda ocluido en el hielo y, con él, los diferentes gases constitutivos de esa atmósfera, nitrógeno, oxígeno, CO2 y, en menor medida, otros gases como el metano y óxidos de nitrógeno.

Así que si capturamos por algún procedimiento esos gases a diferentes niveles de los "chorizos" de hielo y los analizamos, podemos reconstruir la evolución de la composición de la atmósfera en esos gases a lo largo del tiempo. Y así si vais a este enlace, podéis ver la evolución en la atmósfera en lo relativo al CO2,, metano y óxido de nitrógeno en uno de los testigos más mencionados en la literatura, obtenido en la Antártida y que cubre los últimos 800.000 años. Y si ya os centráis, a partir de esos datos, en el último milenio, parece evidente que, sobre todo en las últimas décadas, el contenido de la atmósfera en esos gases ha crecido de forma clara, particularmente en lo relativo al CO2, cuya concentración está expresada en partes por millón (ppm), mil veces superiores a las partes por billón (ppb) de los dos otros gases. Ese crecimiento ha sido confirmado en años recientes (a partir de 1959) por las medidas realizadas en el Laboratorio hawaiano de Mauna Loa, dedicado a este fin.

Pero el hielo de los testigos proporciona mucha más información. El hielo es agua y, en tanto que agua, sus moléculas están constituidas por átomos de hidrógeno y átomos de oxígeno. Aquí, para los que ya han olvidado su Química del bachillerato, tengo que recordar que cualquier átomo está constituidos por protones, electrones y neutrones. Estos últimos, los neutrones, para un determinado átomo, pueden variar, dando lugar a los llamados isótopos. Por ejemplo el hidrógeno más común tiene un protón, un electrón y ningún neutrón, pero hay un isótopo del hidrógeno que tiene un neutrón en su nucleo y que llamamos Deuterio. Lo mismo pasa en el oxígeno. El oxígeno normal (oxígeno-16) tiene 8 protones, 8 electrones y 8 neutrones, pero el llamado oxígeno-18 tiene 10 neutrones y no ocho. Como consecuencia de ello, un átomo de deuterio pesa más que un átomo de hidrógeno normal y un átomo de oxígeno-18 pesa más que uno de oxígeno-16.

La mayoría de las moléculas de agua están constituidas por un oxígeno-16 y dos hidrógenos normales. Pero hay otras combinaciones de isótopos de hidrógeno y oxígeno que dan lugar a "otras aguas". Las más relevantes para esta discusión son la constituida por dos hidrógenos normales y un oxígeno-18 y la constituida por un hidrógeno normal, un deuterio y un oxígeno-16. Estas dos últimas, y muy minoritarias, formas del agua son más pesadas que el agua de toda la vida que llena ríos, lagos y océanos de la Tierra. Cuando el agua de estos lugares se evapora, el agua normal y mayoritaria lo hace con mayor facilidad que las dos formas minoritarias, por ser menos pesada, con lo que el vapor de las nubes que se forman en esos lugares suele llevar una proporción del agua convencional superior a la que se da en los océanos. Pero cuando ese vapor viaja en forma de nubes hasta los polos y condensa para caer en forma de nieve, caen en mayor proporción relativa las moléculas más pesadas de agua, las que contienen los isótopos deuterio y oxígeno-18. Este lío de diferentes moléculas de agua hace que el análisis de la concentración de deuterio y oxígeno-18 en el hielo de los testigos permita reconstruir la velocidad a la que el agua se ha evaporado desde los océanos y ha acabado como nieve en los polos. Como la evaporación del agua y posterior caída en forma de nieve depende de la temperatura, uno puede reconstruir la temperatura ambiente mediante los análisis mencionados. Un poco complicado pero creo que suficientemente entendible.

Este tipo de análisis ha permitido, por ejemplo, reconstruir la temperatura de los últimos 800.000 años a partir de las variaciones en la composición en deuterio de testigos de hielo tomados en la Antártida. Y así, en esta figura, se muestran esos datos junto con la evolución de la composición en CO2 de la atmósfera, obtenida a partir del análisis del aire atrapado en esos mismos testigos. Se ve que hay una correlación entre uno y otro tipo de datos, mostrando los cambios que ambos han sufrido a lo largo de ese extenso período de tiempo.

A raíz de este tipo de gráficas hay algunos encendidos debates sobre qué fue antes "el huevo o la gallina" y las implicaciones que eso tiene en la situación actual. Aunque, en principio, parece que en épocas pasadas la subida de temperaturas fue anterior a la subida en la concentración del CO2, dicen algunos de los que saben de esto que, en el momento presente, esa correlación puede invertirse al ser nosotros los que estamos forzando la subida en la concentración de ese gas.

Pero hasta ahí no llego. El Búho necesitaría otra vida para leer mucho más sobre estas cosas y tener una opinión fundada al respecto. Aunque sobre otros indicadores climáticos creo que lo tengo más claro. Pero eso da para otro post.

Leer mas...

jueves, 31 de agosto de 2017

El Sr. Perkin y el Heno de Pravia

Dadas las proclamas que envuelven el marketing de los perfumes, seguro que muchos de vosotros pensáis que la mayoría de los productos de marcas caras y conocidas son un delicado equilibrio entre extractos de diferentes flores, conseguido gracias a ese portentoso órgano que llamamos nariz y que es la herramienta más potente de los perfumistas más afamados. Pues bien, eso no es así. Salvo raras excepciones, el adjetivo más representativo para denominar a esa compleja mezcla de aromas que llamamos perfume podría ser el de semisintética. Es decir, algunos de sus componentes se extraen, efectivamente, de flores y plantas pero otros muchos son de carácter sintético, comercializados por grandes empresas dedicadas a ello. Y que no sólo han generado moléculas nuevas con aromas característicos e innovadores, sino que han reproducido en el laboratorio míticas moléculas de determinadas esencias, obtenidas a partir del mundo vegetal (o animal, pero eso es otra historia que conté hace poco). La proporción entre uno y otro tipo de componentes puede variar pero, a nivel global, podemos decir que casi el 90% en peso de lo que se emplea en un perfume es de origen sintético. Como estos productos son más baratos que los extraídos de plantas muy codiciadas por los perfumistas, muchas veces el precio es indicativo de la cantidad de extractos naturales que llevan.

Y sobre una molécula, originariamente extraída de la naturaleza y hoy usada, en su mayor parte, como sustancia química pura producida a nivel industrial, va esta entrada. Se trata de la cumarina, una molécula clave en el desarrollo de la industria del perfume a finales del siglo XIX. Pero antes, vamos a enfocar la entrada desde otro punto de vista, lo que estoy seguro placerá mucho a mis lectores de Irún, donde tengo algún que otro fiel seguidor.

Pravia, como muchos de vosotros seguro que sabéis, es una localidad asturiana. Pero probablemente no la asociéis a la marca comercial Heno de Pravia, ese conjunto de productos de perfumería desarrollados por la empresa creada por un irundarra de pro, Salvador Echeandía Gal, bajo el nombre de Perfumería Gal, que después fue englobada en el grupo Puig. A los futboleros os sonará el nombre del Stadium Gal, donde juega el Real Unión de Irún, en unos terrenos cedidos por el propio Echeandía. Dice la historia que en 1903 el mencionado Echeandía, junto con un amigo, Lesmes Sainz de Vicuña, también originario de la villa fronteriza, andaban de viaje por Asturias cuando quedaron prendados del olor a hierba recién cortada en un prado cercano a Pravia. Y no pararon hasta reproducir ese aroma en un producto, su jabón Heno de Pravia, que aún hoy en día se vende como rosquillas y prácticamente en todo el mundo, junto a otros productos como colonías, desodorantes, cremas de afeitado. Y la Química tuvo mucho que ver en este asunto, entre otras cosas porque otro Echeandía Gal, Eusebio, era un químico muy viajado para la época, con estudios en Berlín.

El día de fin de año de 2013, os contaba yo el descubrimiento por chiripa de la mauveína, un producto que abrió la veda a una gran parte de la gama de colorantes sintéticos que hoy se emplean en el mundo. El autor del descubrimiento fue un imberbe (18 añitos) William H. Perkin, que andaba a la búsqueda de la quinina y que por chiripa y a espaldas de su jefe, A.W. von Hoffmann, llegó a la mauveína. Mantuvo en secreto el descubrimiento, lo patentó y creó un imperio que le hizo lo suficientemente rico a los 30 como para dejar sus negocios a la familia y seguir dedicándose a lo que más le gustaba, generar nuevas moléculas de potenciales aplicaciones.

Y como no tenía un pelo de tonto, enseguida se dio cuenta de que uno de los productos que obtuvo en esos primeros años de andar a la suyo (1868), fue la cumarina, una sustancia que había sido aislada en los años veinte del siglo XIX a partir de la llamada Haba Tonka, que no es otra cosa que la semilla de un árbol llamado Dypterix odorata. Como en los casos de la vainilla y de la goma garrofín, que ya hemos visto en otras entradas, son esas vainas secas las que acumulan diversas sustancias que constituyen su aroma característico. En el caso que nos ocupa y entre otras sustancias constitutivas, el principal aroma del Haba Tonka lo da la cumarina, que se encuentra en ella en un porcentaje entre el 1 y el 3%. En cualquier caso, no son esas habas la única fuente de este aroma, igualmente presente en cosas como la vainilla, en la canela, en algunas variedades de hierba, en los tréboles, etc.

La irrupción de la cumarina sintética de Perkin en el mundo de la perfumería se produjo en 1882 en el famoso y hoy ya desaparecido Fougère Royal, una creación del perfumista Paul Parquet para la empresa Houbigant. Parquet usó cumarina en una concentración al 10%, junto con lavanda, geranio y musgo de roble en un intento de reproducir el aroma de los helechos (Fougère en francés). Desde entonces, han sido casi innumerables los perfumes que han seguido esa senda, perfumes que suelen agruparse dentro de la gama Fougères. Por ejemplo, la cumarina ha sido y sigue siendo un componente fundamental en la paleta olfativa de la casa Guerlain, en perfumes como el mítico Jicky o su famoso y selecto Tonka Imperiale, pero otras muchas casas famosas lo han empleado (Dior, Chanel, Givenchy...). Aunque no está del todo claro en la historia de la génesis del Heno de Pravia, muchos que saben del tema piensan que algo oyó Echeandía en la época sobre las ideas de Parquet y con ayuda del químico de la familia lo aplicó a su búsqueda del jabón que le ha hecho famoso. El nombre cumarina sigue apareciendo en algunas etiquetas de la marca Heno de Pravia, aunque por razones que explico debajo, quizás se hayan buscando fórmulas alternativas a su uso.

Porque si hoy Parquet se hubiera puesto a crear el Fougère Real no lo hubiera tenido fácil. Como otros muchos componentes de las cosas que nos aplicamos para oler bien, la cumarina ha tenido sus problemas "sanitarios" ligados a la creciente quimiofobia que nos invade y que hace que cualquier sustancia sintética sea mal vista. Es verdad que durante años estuvo envuelta en una polémica ligada a su carácter a su carácter hepatotóxico en ratas. O a la llamada "enfermedad del trébol dulce" que acababa con los conejos a base de hemorragias. Hoy sabemos que, bajo la acción de ciertos mohos, la cumarina contenida en los tréboles genera dicumerol, un potente anticoagulante. Sabemos también que los problemas de las ratas con la cumarina son mucho más graves que los que causa en los humanos, en los que es moderadamente tóxico para el hígado y el riñón, pero tendríamos que comer muchas habas de Tonka o cumarina pura todos los días para que la cosa fuera grave. También, como en otros muchos componentes de los perfumes y colonias, algunos estudios achacan a la cumarina un carácter alérgeno, por lo que la IFRA (International Fragance Association) restringe su uso en perfumes (categoría 4) a una concentración del 1,6%. Pero, digámoslo una vez más, esa restricción se aplica a la cumarina venga de las habas Tonka o de la cumarina pura y sintética vendida por las industrias que comercializan aromas.

Y esta disquisición final me lleva a comentar algo que me ha sorprendido últimamente en mis búsquedas en la red de material sobre la Química de los perfumes. En los foros de muchas webs dedicadas a estos temas, he descubierto que la gente se compra aceites esenciales y se prepara sus propios perfumes. No me parece mal como entretenimiento y búsqueda de aromas personalizados. Pero, ¿se mirarán las normas de la IFRA en lo relativo a cantidades máximas seguras a emplear de cada uno de esos aceites esenciales?.

Leer mas...

domingo, 27 de agosto de 2017

Microplásticos en tu sal

Mi ya finiquitada actividad investigadora ha estado centrada, durante casi cuarenta años, en el mundo de los polímeros, unos materiales que mucha gente simplifica en plásticos, algo inadecuado pero que no toca explicar ahora. Por ello, no es de extrañar que todavía me siga interesando todo lo que se cuece en torno a estos materiales que eclosionaron a lo largo del siglo XX. La mayor preocupación actual sobre ellos es qué hacer con sus residuos y, entre los varios frentes de esta problemática, está el tema de los residuos de plástico que se vierten al mar. Durante su vida en el mismo, muchos plásticos se fragmentan en trozos pequeños que se conocen, genéricamente, como microplásticos y que, en años recientes, han sido objeto de diversos estudios que muestran su presencia incluso en recónditos sitios de nuestros océanos y su impacto sobre la vida animal de los mismos.

Llevo semanas estudiando un voluminoso libro de casi 500 páginas titulado Marine Anthropogenic Litter (Basura Marina de Origen Humano, para que nos entendamos) una obra colectiva editada por Melanie Bergmann, Lars Gutow y Michael Klages y publicada en 2015 por Springer International Publishing. No me resulta fácil, porque en algunos de los temas estoy un poco pez, pero ando tomando interesantes notas de cara a ponerme al día y a hacerme una idea global del asunto para luego contar algo aquí. Pero, como aperitivo, os voy a contar algunas ideas al hilo de una noticia que me llegó por un tuit de ese monstruo de la divulgación científica que es Paco Villatoro (@emulenews). El tuit hace referencia a un artículo publicado online este 17 de agosto en los Scientific Reports de Nature por investigadores del Departamento de Ingeniería Química de la Universidad de Alicante. El artículo resume un estudio de los microplásticos presentes en diversas sales de mesa comercializadas en España. Un estudio similar ya se había hecho hace dos años sobre las sales comercializadas en China y otro se acaba de publicar en un numero precedente (en abril) del mismo Scientific Reports. Como consecuencia de ello, internet contiene ya algunos ejemplos de proclamas sensacionalistas sobre estos estudios cuando, creo yo, no debiera ser el caso.

Voy a comentar el artículo de los colegas alicantinos porque contiene algunos resultados que me han sorprendido. Se han estudiado 21 sales comercializadas en España, fundamentalmente provenientes de salinas marinas tanto del Atlántico (no dan marcas pero si localizaciones en Andalucía, Canarias y Galicia) como del Mediterráneo (Cataluña, Valencia, Murcia, Alicante, Baleares), así como tres sales de manantiales salinos en el interior, alejados del mar. Uno me cae cerca (Añana, en Alava, de cuya sal ya hablamos hace años aquí), los otros dos están localizadas en las provincias de Cuenca y Alicante. Esta última puede ser de la zona de Villena, una zona salinera con tradición centenaria. En el estudio, esas muestras se disuelven, se centrifugan para eliminar arena y otras partículas sólidas más densas, se filtran con filtros que no dejan pasar partículas de tamaño superior a 5 micras y los microplásticos así recogidos se cuantifican con ayuda de microscopios y se identifica su naturaleza mediante técnicas de análisis de plásticos convencionales (FTIR).

El primer resultado que me ha sorprendido es que tanto la sal de mar como la proveniente de salinas interiores contienen cantidades similares de partículas de microplásticos, (las de mar entre 50 y 280 micropartículas por kilo de sal y las de interior entre 115 y 185). Como me conozco bien la estructura del Valle de Añana y cómo se generaron en su día los manantiales que proporcionan agua con altos contenidos en sal (salmuera), el resultado es como para pensárselo.

Debéis saber que el Valle de Añana, hace más de 200 millones de años, estaba bajo el mar. La evaporación posterior del agua en ese valle cerrado generó una gran cantidad de sal que posteriormente fue cubierta por otros estratos. La posibilidad actual de obtener sal en Añana se explica por el fenómeno geológico denominado diapiro. En líneas generales, consiste en la ascensión hacia la superficie terrestre de materiales más antiguos debido a su menor densidad. El diapiro de Añana atraviesa en su ascenso algunos de los acuíferos más importantes de la región, por lo que se convierten en puntos de salida de las aguas confinadas en los mismos. Uno de los puntos de salida es el manantial de Santa Engracia, donde el agua es una muera que sale en carga, es decir a mayor presión que la de la superficie. Esto explica la gran saturación en sales, disueltas en los lechos salinos atravesados durante el ascenso del agua a lo largo de la chimenea diapírica, en condiciones de presión y temperatura superiores a las de superficie. Este manantial es el punto de partida de la explotación de Añana, con una salinidad media superior a 250 gramos por litro. Y no deja de sorprenderme que, si el proceso es así y está recogido en sesudos trabajos geológicos, ¿de dónde provienen los microplásticos de la sal de Añana?. Porque hay mucho "filtro" en todo el proceso. El artículo no hace reflexión alguna al respecto. Así que si alguien tiene constancia de las razones, no vendría mal que nos lo explicara en los comentarios.

Otro resultado que me llamó inicialmente la atención es la composición de los microplásticos analizados en la totalidad de las sales consideradas. El 83% es polietilen tereftalato (PET), el plástico empleado en las botellas de agua, bebidas de cola, etc., mientras que el resto corresponden, fundamentalmente, a microplásticos de polietileno y polipropileno, mucho más vendidos que el PET. En las de la sal china arriba mencionada, el componente más abundante es el celofán (que allí se sigue utilizando como envase), mientras que las cantidades de PET, PE y PP son más concordantes con su importancia en el mercado. Dicen los autores, y no me parece mal, que esto pudiera deberse a que la mayor densidad del PET le hace permanecer en el agua desde la que está cristalizando la sal durante todo el proceso, mientras que PE y PP, de menor densidad y que deben flotar en la salmuera, podrían ser arrastrados por los operarios durante las labores de manejo de lesta y ser, por tanto, eliminados más fácilmente de la misma.

El artículo termina con un apartado en el que los autores tratan de evaluar el impacto en nuestra salud de los microplásticos contenidos en la sal que consumimos, que es lo que imagino que a la mayoría de vosotros le interesa más, a la vista del título que le he puesto a la entrada. Sobre la base de un sencillo cálculo ligado al consumo de sal recomendado por la Organización Mundial de la Salud, los autores establecen que podemos meternos al coleto del orden de 500 piezas de microplástico por año, lo que les parece una cantidad irrelevante. Y estoy de acuerdo, porque, en primer lugar, esos trocitos de plástico no los digerimos y por tanto saldrán tal cuales, igual que otras cosas indeseadas que digerimos, como, por ejemplo, los sólidos contenidos en chipirones o chopitos poco limpios, almejas y similares.

En ese mismo apartado, el artículo hace referencia a los dos temas que siempre aparecen en los artículos relacionados con la contaminación de plásticos en el mar. El primero, los problemas que puede causar a pájaros y peces la ingestión de los mismos. Dependiendo del tamaño del ser vivo y del trozo de plástico engullido, el asunto puede llegar a la muerte del animal, pero no por contaminación sino por simple bloqueo de su tracto gastrointestinal.Y, de nuevo, no solo plásticos ingieren pájaros y peces creyendo que les pueden alimentar.

El otro asunto es más sutil y se basa en que los microplásticos pueden actuar como "refugio" de sustancias tóxicas con carácter lipofílico (aquellas que se disuelven mejor en grasa que en agua). Y entre ellas se suelen citar, sobre todo, a los Contaminantes Orgánicos Persistentes (POPs en inglés) como los bifenilos policlorados o las dioxinas y sus parientes los furanos. Cuando esos microplásticos y su carga de POPs son ingeridos por animales, la teoría es que estas sustancias se introducen en la cadena de alimentación y llegan hasta los humanos.

Yo soy bastante escéptico sobre el asunto (al menos cuantitativamente), pero necesito ordenar mis ideas y en ello estoy con el libro arriba mencionado. Si llego a alguna conclusión, sea políticamente correcta o no, la contaré. Mientras tanto, no me sean guarros y lleven los plásticos que ya no puedan usar al correspondiente contenedor. Y si son padres o abuelos, ilustren a su descendencia en este problema. Yo lo sufro todos los días en mi portal con una tienda de chuches adyacente.

Leer mas...

lunes, 21 de agosto de 2017

Ionizadores de agua

Todo comenzó hace ya algunos meses (bastantes). Mi comadrona estaba viendo uno de esos programas de la tele que le gustan, donde se muestran las casas más fabulosas del mundo mundial. En este caso se trataba de una casa en Marbella, propiedad de uno de esos rusos enriquecidos por el petróleo. Una casa que, por tener, tenía hasta un helipuerto y dos hoyos de golf. Aparte de envidias no explícitamente declaradas y que mis lectores intuyen, lo que captó mi atención es que, al enseñar su casa, la rusa del magnate mostró, entre otras cosas, un aparato adosado al grifo de agua de su cocina, con pinta de dispositivo electrónico de calidad y que, según explicó, dividía el agua de grifo en dos tipos de aguas: una alcalina, buenísima para la salud y otra ácida que viene bien para fregar, limpiarse el cutis, etc... Me quedé con la idea de enterarme sobre el asunto pero la cosa, como otras muchas, no ha pasado hasta ahora de unas notas amontonadas en mi escritorio. Hasta que, desde hace unas semanas, se me ha pedido hasta tres veces mi opinión sobre temas relacionados con estos dispositivos.

Cuando me puse a investigar en serio, resulta que estos mal llamados ionizadores de agua tienen una larga historia que se remonta a principios de los años cincuenta, aunque ha sido en las últimas décadas cuando la cosa ha explotado en el mercado, de la mano de diferentes empresas y científicos, fundamentalmente japoneses. Basta con que escribáis water ionizers en Google, seleccionéis el apartado imágenes y os aparecerán cientos de dispositivos existentes en el mercado. Los precios pueden variar de marca a marca, pero los más reputados (no voy a dar nombres para que no se metan conmigo) pueden llegar a costar casi 6000 €. En un artículo de 2013 que tengo encima de la mesa, se cifra en unos 200.000 el número de estos dispositivos que se venden al año y muchos de ellos, sobre todo en USA, se venden por el sistema de hacer reuniones con potenciales clientes a los que convencer de las bondades del aparato y endosarles uno (tal como se hizo en su día con Tupperware).

He puesto al inicio de esta entrada una imagen genérica de cómo funcionan estos aparatos (podéis ampliarla clicando en ella). Básicamente toman agua de grifo, la filtran en un filtro clásico de carbón activo, una forma de eliminar el cloro presente, que podría dañar los electrodos de la celda electrolítica, corazón del aparato y de la que ahora hablaremos. Después del filtrado y si el agua no contiene de origen una cantidad sustancial de sales disueltas que aseguren la conductividad de la misma, se regula ese contenido mediante una serie productos que los suministradores del aparato también venden. Finalmente, ese agua así acondicionada, se mete en la llamada cámara o celda electrolítica, donde se le somete a un proceso de electrolisis, que la descompone en hidrógeno y oxígeno.

No voy a dar muchos detalles técnicos, pero a los iniciados les diré que el sistema electrolítico consta de los clásicos ánodo y cátodo, generalmente de titanio recubierto de platino. Es importante reseñar que esos electrodos se encuentran en compartimentos separados por un diafragma semipermeable hecho de plástico. Ello permite que en el ánodo se genere oxígeno (O2) gas, iones hidrógeno positivos y se acumulen aniones del tipo bicarbonato, cloruro, nitrato, etc, dependiendo de las sales que contenga el agua de partida. En el cátodo se genera hidrógeno gas (H2), iones hidroxilo y cationes tipo sodio, potasio, calcio o magnesio, provenientes igualmente de las sales disueltas. Eso hace que del compartimento anódico salga agua más ácida que la de partida y con un cierto poder oxidante, mientras del cátodo salga agua alcalina de poder reductor o, como suele denominarse en la propaganda de estos aparatos, antioxidante.

En todo lo anterior, este vuestro Búho tiene poco que objetar. El escepticismo comienza cuando, en el marketing de las casas vendedoras, empezamos a leer las maravillas ligadas al empleo de estos ionizadores. En primer lugar, las derivadas de beber agua alcalina (con pH superior a 7), una más de las opciones a la hora de seguir la llamada dieta alcalina, que os estarán vendiendo por todos los lados, ya sea en la tele, en la radio, en los magazines de fin de semana o, sobre todo y como siempre, en internet. El pH de los diversos tipos de agua (de grifo, manantiales naturales, aguas de mesa,..) puede variar bastante y así lo reconoce la legislación española en el Real Decreto 140/2003 Anexo I, que regula el pH de las aguas destinadas a consumo humano. En el mercado podéis encontrar aguas ácidas como la de Vichy Catalán (pH=5,9) o básicas (alcalinas) como la Font d'Or (pH=8,2) y en el mercado americano hay aguas de pH hasta 9,5. Pero todo esto que cuentan de la dieta alcalina es una patraña más de las muchas que giran en torno a nuestra alimentación. Comer o beber cosas alcalinas no altera el pH general de nuestro cuerpo, que tiene un mecanismo primario para controlarlo mediante la exhalación de CO2, que gobierna la cantidad de ácido carbónico en la sangre y, a partir de ahí, de una serie de equilibrios químicos bien establecidos.

Pero el marketing perverso de los fabricantes de ionizadores va un poco más lejos. Debéis saber que el agua alcalina de su ionizador no es agua alcalina cualquiera (es decir con pH superior a 7), como las de algunas de fuentes naturales que ya salen alcalinas de origen (y que acabo de mencionar) u otras a las que se adiciona un exceso de bicarbonato para aumentar su pH. La producida por el ionizador (que ellos llaman agua alcalina ionizada) tiene sus peculiares propiedades debido a que, además del alto pH, hay otros "cambios" generados en ella como consecuencia del proceso que ocurre en el interior del aparato. Y ello, proclaman,  hace que sea efectiva en la eliminación de antioxidantes, en tratamientos de cáncer, en la prevención y curación de la diabetes, Parkinson, arterioesclerosis, problemas degenerativos de la retina y otros (ver, por ejemplo, aquí, donde se cantan todas esas bondades, sin soporte científico alguno). Las razones aducidas tienen un doble origen que vamos a desmenuzar aquí.

Como probablemente sepáis, el agua es una molécula polar, lo que quiere decir que tiene partes de ella con cargas ligeramente positivas (localizadas en sus dos hidrógenos) y negativas (el oxígeno), como podéis ver aquí. Ello hace que las partes del agua con distinta carga de diferentes moléculas puedan atraerse y permanecer cerca, formando los llamados agregados o clusters. Su vida es efímera, porque esos agregados se están juntando y soltando continuamente, en periodos de tiempo tan pequeños como las billonésimas de segundo. Todo esto está muy estudiado, desde hace tiempo, por la Química Física y se sabe que esos agregados suelen implicar a unas 12-14 moléculas de agua al mismo tiempo. Los que me hayáis seguido en las entradas sobre la homeopatía recordaréis que la famosa "memoria del agua" se basa precisamente en esos agregados, capaces de retener la forma de la molécula del "principio activo" una vez que ha desaparecido por dilución y, en la lógica homeopática, capaces de curar igual que esa molécula que ya no está.

Pues bien, muchos vendedores de ionizadores proclaman que su aparato es capaz de disminuir ese tamaño habitual de los agregados de agua y dejarlo en 4/6 moléculas. Según ellos, y debido a ese menor tamaño, el agua penetra con mayor facilidad en los diversos componentes de las células y permite una hidratación mejor del organismo. Como otros muchos bulos sobre el posible efecto de fuerzas eléctricas o magnéticas que alteran la estructura conocida del agua, vuestro Búho no se cree esta patraña de los clusters pequeñitos, por mucho que para vestirlo, en alguna de las webs que lo proclaman, aparezcan prestigiosos médicos como Hiromi Shinya, un experto colonoscopista, autor del muy vendido libro La Enzima Prodigiosa, libro e ideas que provocaron que mi amigo JM Mulet (todo un Petronio) fuera tildado de gordo por la inefable Mercedes Milá.

Este asunto de los clusters de menor tamaño ya es un poco viejo. En una de mis contribuciones a Naukas, os contaba el caso de un agua de propiedades maravillosas, vendida en USA bajo el nombre de Penta, que atribuía sus virtudes a clusters más pequeños que los habituales. Tras muchos avatares, que han incluido una demanda ante la Corte Suprema de California, el agua se sigue vendiendo con el mismo nombre pero su marketing se basa, exclusivamente, en la extremada pureza de la misma. En otros casos, y para vender las bondades de los productos de una conocida marca de cosmética, se aducen cambios de estructura en los agregados, esta vez en forma de icosaedros.

La otra pata de los atributos del agua ionizada por estos aparatos es el hidrógeno gas que se produce en el compartimento catódico y que sale acompañando al agua alcalina. En 1985, Hidemitsu Hayashi, Director del japonés Instituto del Agua, adquirió un ionizador y comenzó a estudiar las propiedades del agua por él producida, utilizándola como bebida habitual y preparación de comidas en la Kyowa Medical Clinic. Según él, observó una clara mejoría en pacientes que sufrían trastornos gastrointestinales y otras patologías ligadas al hígado. Para explicarlo, en 1995, propuso la hipótesis de que esas mejoras se producían como consecuencia del gas hidrógeno generado en los ionizadores, que ejercía un activo papel de "cazador" de los radicales libres que nuestro organismo genera como consecuencia del oxígeno que continuamente estamos inspirando. Esa hipótesis pareció confirmarse por una serie de trabajos in vivo que, a partir de 1997, fueron publicados por el grupo de otro investigador japonés, S. Shirahata, aunque posteriormente, en 2004, un extenso trabajo, otra vez japonés, desmontó la mayor parte de las hipótesis y resultados de los dos investigadores anteriores.

El asunto sobre el papel terapeutico del hidrógeno parece haber renacido como consecuencia de un trabajo publicado en 2007 por el grupo del Prof. Ohta en una de las secciones de la muy prestigiosa revista Nature [Nat. Med. 13, 688 (2007)] en el que las propiedades terapeuticas del hidrógeno se ligan a su papel en el funcionamiento de las células del organismo. Sin embargo, el trabajo de Ohta y otros posteriores no utilizan los ionizadores como fuente de agua enriquecida en hidrógeno. Por el contrario, consiguen un agua saturada en hidrógeno al hacer pasar éste, proveniente de una bombona en el que está almacenado a alta presión, por aquella, hasta conseguir una concentración de saturación que difícilmente se alcanza en los ionizadores. Se pueden encontrar muchos detalles sobre este papel del hidrógeno en la web de la llamada Molecular Hydrogen Foundation, de cuyo Panel Asesor forma parte el propio Prof. Ohta. En esa web, que me he leído en detalle, ponen particular énfasis en que sus prácticas no se confundan con el habitual marketing de los ionizadores, fundamentalmente porque las concentraciones de hidrógeno que estos proporcionan son pequeñas y muy variables, dependiendo del diseño del aparato y del mantenimiento de los electrodos del mismo.

La lectura de esa web me ha dejado un importante poso escéptico, aunque he optado por permitir que el tiempo pase mientras la vigilo y poder ver así lo que se va haciendo en el próximo futuro. Mientras tanto y aunque cada uno se gasta el dinero en lo que quiere, no os recomiendo una inversión en uno de esos ionizadores. Es cierto que tienen una pinta muy de diseño tecnológico y, sin duda, dará a vuestra cocina un tono de lo más californiano. Pero dudo que vuestra salud note algo.

Leer mas...

jueves, 27 de julio de 2017

Descongelando gracias a Fourier

Los que tenemos ya muchos calendarios podemos valorar mejor que los más jóvenes lo que supone disponer de una máquina tan discreta y eficaz como un congelador. Tener guardados alimentos que se conservan más tiempo y que pueden sacarse en un momento, programado o de necesidad, es algo que cambia, literalmente, nuestro modo de comer. Aunque algunas veces se nos presenten algunos problemillas, como el de tener una urgencia para utilizar algo que teníamos congelado y no tener tiempo para descongelarlo mediante un proceso lento y seguro. Esa "molesta" situación es la que me planteaba un amigo hace unos días, pidiéndome alternativas.

Este Búho ha usado mucho el congelador, porque para la ajetreada vida que hemos llevado cuando éramos más jóvenes, comer todos los días en casa era difícil de conseguir si no lo usabas racionalmente. Y en esa necesidad, me he encontrado bastantes veces en la situación de mi amigo. Pronto aprendí que la descongelación mediante un microondas no era una solución satisfactoria porque, en muchas ocasiones, siempre acababan por empezar a cocerse las partes más delgadas del alimento a descongelar.

Pero como fiel seguidor de mi amigo Harold McGee, hace ya seis años pude leerle en el New York Times sobre los experimentos que había llevado a cabo para descongelar viandas en tiempos más o menos razonables y que resultan adecuados cuando se te ha olvidado dejarlas la noche anterior en tu frigorífico, la forma más aconsejada de descongelar. Y el truco es sencillo: consiste en introducir tu alimento congelado en una de esas bolsas herméticas de plástico, las que llevan una cremallera o similar, y colocar esa bolsa y su contenido en un recipiente con agua no excesivamente caliente. En cuestión de minutos tu alimento estará descongelado. Supongo que muchos de vosotros conoceréis esa posibilidad pero vamos a documentar un poco las razones de la misma.

La culpa de todo la tiene Joseph Fourier, un matemático y físico francés con una curiosa historia y que nos ilustró sobre los misterios de la transmisión del calor. De origen humilde acabó en un orfanato, pero sus educadas maneras y su talento para las matemáticas hicieron que el mismísimo obispo de Auxerre lo colocara bajo la tutela de unos monjes benedictinos, lo que le permitió seguir estudiando. Subyugado por las ideas de la Revolución Francesa se adhirió a ella pero, como muchos de sus correligionarios, cayó finalmente en desgracia y estuvo a punto de poner el cuello debajo de Madame Guillotine. Pasado el susto y las urgencias revolucionarias, sus conocimientos le permitieron acompañar a Napoleón en su campaña en Egipto en 1798. La carrera académica de Fourier estuvo muy ligada al período napoleónico y cuando este se fue a pique, Fourier duró poco.

Pero, para entonces, ya había concebido (1812) una de las obras fundamentales de la Física de la época, la Teoría Analítica del Calor (publicada en 1822), en la que puso en forma de ecuaciones matemáticas el clásico experimento de Jean-Baptiste Biot, en 1804, en el que una barra de hierro se calienta en uno de los extremos y se enfría en el otro, permitiendo que la misma alcance una situación estacionaria, en la que el calor suministrado por el extremo caliente va "fluyendo" hacia el otro extremo a una velocidad que depende del punto de la barra que consideremos. Lo de fluir y otras cosas daría para varias entradas, pero no es el momento.

Lo que aquí interesa es que, de acuerdo con la ley de Fourier de la transmisión del calor, cada material transmite el calor de manera diferente, aún en la situación en la que la diferencia de temperatura entre las partes frías y calientes del mismo sea la misma. Por ejemplo, y para lo aquí nos ocupa, los gases transmiten el calor peor que los líquidos y estos peor que los sólidos. Sobre esto ya os he contado algo en el Blog, cuando os explicaba cómo enfriar champán con una mezcla de agua, sal y hielo, más rápidamente que en un congelador, siempre que se usen composiciones adecuadas de la llamada mezcla frigorífica. Pues aquí es algo parecido pero el efecto inverso.

Cuando dejamos un trozo de salmón o unas pechugas de pollo a descongelar en una cocina que está, como hoy la de mi casa, a 23 ºC, el calor se transmite desde el aire que constituye la atmósfera de mi cocina (una mezcla de oxígeno y nitrógeno, fundamentalmente) a la pieza congelada. Ese proceso de transmisión viene marcado por la llamada conductividad térmica del aire que es, aproximadamente, de 0,02 W/(m-K). Sin embargo, cuando yo pongo mi bolsa de plástico cerrada con mi alimento congelado en un recipiente con agua a la misma temperatura de 23 ºC, la magnitud que controla ahora el mismo proceso de descongelación es la conductividad térmica del agua, más de veinte veces superior a la del aire. Así que, más o menos, esa es la diferencia en los tiempos necesarios para la descongelación.

Si subimos la temperatura del agua, el proceso se acelerará, tanto porque la conductividad del agua aumenta con la temperatura como porque el calor fluye más rápidamente cuando mayor es la diferencia de temperatura entre el cuerpo caliente (agua) y el cuerpo frío (el congelado), así que podríais emplear aguas más o menos calientes para controlar el proceso en tiempos adecuados a vuestras necesidades. Pero no abuséis. Temperaturas más altas implican, en principio, una mayor posibilidad de desarrollo de microorganismos en la superficie de vuestros congelados.

Harold McGee cita en su artículo estudios científicos de la USDA americana [Journal of Food Science 76, 156 (2011)] sobre los tiempos de descongelación de chuletas de buey a diferentes temperaturas del agua, así como las consecuencias que ese proceso tiene en la habitual pérdida de agua del alimento durante el mismo o en otras propiedades ligadas a la textura final de la chuleta. Se hace eco igualmente de estudios de la Universidad de Utah [Food Control 20, 706 (2009)], esta vez sobre pechugas de pollo, en los que además de las características anteriores se fijan en el crecimiento bacteriano y en propiedades organolépticas de pechugas descongeladas frente a otras que no sufrieron el proceso de congelación. En lo que se refiere a lo primero, en piezas relativamente pequeñas como las pechugas, parece que el crecimiento bacteriano quedaba dentro de límites seguros. Y en lo que se refiere al producto descongelado y posteriormente cocinado, parece que un panel de cata no fue capaz de discernir qué pollo había estado congelado y cuál no.

Como consecuencia de todo ello y de sus experiencias, Harold recomienda utilizar una temperatura para el agua en torno a unos 40-50 ºC lo que, generalmente, podéis conseguir jugando con vuestros grifos de agua caliente y fría. Harold recomienda agitar de vez en cuando el agua y comprobar periódicamente cómo va la descongelación, para no exponer la pieza más tiempo del necesario.

La próxima vez que estéis en un apuro lo probáis.

Leer mas...

domingo, 23 de julio de 2017

Gintonic azulado

No he sido nunca bebedor de gintonics. Lo mío, como sabéis, es el vinazo puro y duro y la cerveza en la tarde/noche. Pero como buen búho me fijo, y no se me ha escapado, desde hace ya algún tiempo, que tanto en bares como en los supermercados han ido proliferando botellas de ginebra de un suave y sugerente tono azul. Y más de una vez me había preguntado sobre el origen de ese color, no muy habitual en las cosas de comer y de beber. Este lunes, un artículo en el Chemical Engineering News, cuya referencia podéis ver abajo, firmado por Bethany Halford, a la que ya he mencionado en otras ocasiones en este blog, explicaba el origen de ese color. Al menos en algunas de las marcas de ginebra que, explícitamente, lo declaran en su etiqueta o en su web.

No me atrevo a generalizar lo que voy a contar a todas las ginebras azules, porque algunas de ellas ocultan celosamente sus composiciones, pero, por ejemplo, la ginebra australiana Ink, declara en su página de acogida en internet que, en 2012, empezaron a experimentar con los curiosos cambios de color de una planta exótica que se da bien en Tailandia, cuyo nombre botánico, según el gran Linneo, es Clitoria ternatea, un nombre con ciertas resonancias íntimas que la flor ciertamente recuerda. En inglés se conoce como Butterfly Pea o guisante de mariposa. Tras tres años de estudios pusieron en el mercado esta bebida que, además del extracto de esas flores, contiene otros componentes de origen vegetal, incluidas algunas plantas consumidas desde la prehistoria por los nativos australianos y que ahora se han puesto de moda entre los chefs del país.

Pero en esta entrada nos interesa el color azul de esa ginebra y sus peculiaridades. Nos cuenta Bethany en el artículo que el color azul es debido a una serie de antocianinas derivadas de una antocianidina conocida como delfinidina (galimatías para químicos). Lo cual me ha recordado una serie de divertidas actividades en las que los chicos del Restaurante Arzak me dejaron participar de cara a preparar una ponencia de Elena en el Madrid Fusion de 2009, donde se presentaba un postre con el inquietante nombre de Intxaursaltsa con lombarda mutante. La sorpresa del postre era un líquido con el que se acompañaba el plato y que no era más que un extracto de col lombarda, rico en antocianinas y que cambiaba de color, ante los ojos del comensal, solo con que la camarera adicionara unas gotas de sustancias más o menos ácidas o básicas. ¡Lo que tuvimos que estrujar el magín para encontrar sustancias de diferente pH que a Juanmari no le sonaran a "químicos"!. Yo traté de convencerle de que hay ácidos y bases reconocidos como aditivos alimentarios, pero ni por esas. Así que usamos cosas como el zumo de limón o mandarina, una bebida de cola o un agua con bicarbonato (eso fue lo máximo a lo que llegamos).

Sin embargo, Bethany nos cuenta también que la selección de la Clitoria se basa en que, incluso usando su extracto en concentraciones importantes, no confiere ningún sabor a la ginebra, cosa que si hace la lombarda. Y propone, para terminar, una receta casera para obtener el extracto de nuestra flor y hacer experimentos con diversos cocktails u otros líquidos sin color. Resulta que uno puede comprar en Amazon pétalos de la Clitoria y ponerlos a calentar en una mezcla de agua y azúcar a partes iguales, obteniendo así un sirope azulado que se puede adicionar a los otros líquidos para teñirlos de azul. Igual que en nuestro postre con lombarda, uno puede adicionar después unas gotas de líquidos de diferentes pHs y obtener así toda una gama de colores muy sugerentes. Por ejemplo, unas gotas de zumo de lima transforman el suave azul de la ginebra australiana en un tono más o menos violáceo, como podéis ver en la foto del artículo arriba mencionado y cuya referencia completa doy abajo.

Yo no he hecho la prueba a preparar un gintonic con una ginebra azulada a base de Clitoria pero, dado el pH fuertemente ácido de la tónica, intuyo que cambiará también a tonos rojos o violáceos.

Referencia:"Notable potables feature changing colors and mummified toes". B. Halford, Chemical Engineering News, vol. 95, Issue 29, p.40, 17 de julio de 2017.

Leer mas...

miércoles, 5 de julio de 2017

Homeopatía heterodoxa

Como ya hemos contado varias veces en este blog y debería enseñarse en el Bachillerato, Hahnemann, el inventor de la Homeopatía a finales del siglo XVIII y principios del XIX, fue un personaje fascinante, de gran renombre en esa época, muy crítico con la medicina de esos años, una medicina heroica (sobre todo para el paciente) basada en sangrados, provocar vómitos y diarreas con sustancias muy peligrosas y otra sarta de medidas que más que curar empeoraban al paciente. Y que merced a esas prácticas se llevó por delante a coetáneos como Georges Washington, Leopoldo II de Austria o, quizás, el propio Mozart. Como consecuencia de su descontento con esa medicina, Hahnemann empezó a buscar formas alternativas de curar. Y, tras varios años de experiencias, sentó las bases de la Homeopatía sobre tres principios fundamentales que, según él, había que seguirlos religiosamente. Hoy en día, doscientos y pico años después, sus seguidores han evolucionado algo (no mucho, la verdad) y algunos de ellos han abandonado la estricta ortodoxia original. Ese es el caso de uno de los gigantes en la preparación y venta de "medicamentos homeopáticos", como un envase que me ha llegado de la mano de una amiga a la que se lo recomendaron como forma de paliar el sufrimiento de sus ojos, sometidos a un excesivo trabajo por mor de un molesto examen. Vais a perdonarme que no de nombres pero es que el mundo de la Homeopatía se ha vuelto muy quisquilloso y andan metiendo demandas a blogueros y tuiteros.

El primero de los principios establecidos por Hahnemann se basó en sus propias experiencias con extractos de corteza de quino o cinchona, que hoy sabemos que contiene quinina y que, entonces, se estaban empezando a usar para curar la malaria. Según su propio relato, Hahnemann comprobó en si mismo que administrando quinina a una persona no afectada por malaria como él, se experimentaban síntomas muy parecidos a los enfermos de dicha dolencia. De donde dedujo (a mi me sigue sorprendiendo) que cualquier sustancia que causara a una persona sana síntomas parecidos a una enfermedad, podía curar a un enfermo de esa dolencia. Lo que plasmó en el famoso principio "Similia similibus curantur". A día de hoy y tras diversos intentos por parte de estudiosos de la vida y obra de Hahnemann, en los que ha sido imposible reproducir los efectos que, según él, la quinina producía en una persona sana, la hipótesis más probable es que nuestro personaje fuera alérgico a la quinina o a algún otro componente de los extractos de corteza de cinchona.

Además de la quinina y de cara a provocar síntomas similares a los de otras muchas enfermedades, Hahnemann empleó todo tipo de sustancias: extractos de plantas o de insectos, venenos, fluidos corporales como el pus, diversos minerales o sustancias inorgánicas entonces conocidas. Muchas de las cuales tenían efectos indeseados sobre el individuo sano que le servía como conejillo de indias, así que nuestro hombre empezó a experimentar con disoluciones más diluidas, llegando a una segunda conclusión sorprendente que quedó plasmada en un segundo principio. Cuanto más diluía la "tintura" o preparado original, más eficaz era la dilución resultante a la hora de curar. Hahnemann estableció que la dilución más eficaz para sus preparados era la que conocemos como dilución centesimal 30C, que aún hoy sigue siendo muy popular en la farmacopea homeopática. Como probablemente sepáis, obtener un preparado homeopático 30C implica partir de una tintura madre, por ejemplo un extracto de bayas de la peligrosa belladona, tomar una parte de ese extracto, diluirlo con 99 partes de agua, alcohol o mezcla de ambos, agitar bien, coger una parte de esa nueva disolución, diluirla con 99 de agua o alcohol, agitar y así sucesivamente. La ultima de las diluciones puede venderse tal cual o evaporarse sobre glóbulos de azúcar, una popular forma de presentación. Hay casos en los que este proceso de dilución se lleva más lejos, como en el caso del conocido Oscillococinum, contra catarros y gripes, que va hasta C200, esto es, 200 veces el proceso arriba descrito (una nadería).

¿Pueden diluciones a los niveles del 30C o 200C, infinitamente lejos de lo que cualquier técnica analítica puede detectar, ejercer algún efecto en el organismo humano?. Al modesto entender de este vuestro químico no. Sobre todo porque a partir de una dilución 12C-13C, el número de Avogadro (algo bien asentado en Química pero que Hahnemann no conocía en su momento) establece que, en esas diluciones, no puede haber ni una sola molécula del principio activo. Cuando estos planteamientos se hacen a los homeópatas de hoy que conocen lo que el número de Avogadro implica, la respuesta es que nos olvidamos de que, tras cada una de las diluciones, la muestra se somete a una agitación vigorosa (sucusión) en tres dimensiones para “dinamizar” la estructura de la nueva disolución e infundir en ella la llamada “energía vital” del principio activo original contenido en la tintura madre. Sobre el asunto de la agitación en las preparaciones homeopáticas tenéis una entrada relativamente reciente.

Pero hay otro tipo de preparados homeopáticos, como el que ahora tengo sobre mi mesa, que emplean diluciones mucho más moderadas, las llamadas diluciones decimales. En ellas, una parte de la tintura madre se diluye con solo nueve (y no 99) partes de agua o alcohol, una parte de la disolución resultante se vuelve a diluir con 9 de agua o alcohol y así sucesivamente. En este tipo de diluciones menos "agresivas" se usa una D o una X antes del número de diluciones, para denotar el tipo de preparación que se ha hecho (la D viene de decimal, pues en cada etapa estamos diluyendo 1:10; la X del símbolo de diez en números romanos). El prospecto del preparado en cuestión dice que contiene diluciones D5 de cuatro plantas: Euphrasia officinalis, Cochlearia officinalis, Pilocarpus jaborandi y Echinacea angustifolia. Y avisa también de que está elaborado conforme a las normas de la Farmacopea Homeopática Alemana (HAB), lo que también se refleja en la caja, al presentar el producto como "medicamento homeopático".

A diferencia de otros muchos preparados (mal) vendidos en la mayoría de las farmacias (no todas), los elaborados con diluciones D no sobrepasan, en la mayoría de los casos, el límite del número de Avogadro que he mencionado arriba. Tengo la secreta sospecha de que emplear estas diluciones es una forma de esquivar precisamente el asunto del número de Avogadro, aunque es cierto que se han empleado desde los principios de la Homeopatía, sobre todo tras su implantación en los EEUU a principios de los años 40 del siglo XIX. Pero estas bajas diluciones traicionan uno de los principios de la Homeopatía y supongo que hacen que el viejo Hahnemann se revuelva en su tumba, recordando a los "traidores" (así los llamaba él) que cuanto más diluido está el preparado más efectivo es contra el mal que nos asola. El preparado al que me estoy refiriendo traiciona también otro de los consejos hahnemannianos, uno que se suele citar menos. En su composición se mezclan extractos de más de una planta (cuatro en nuestro caso y encima lleva como acompañantes o excipientes cloruro de sodio, o sea sal, y un par de fosfatos, para regular el pH de los colirios homeopáticos). La empresa que lo prepara lo llama homeopatía combinada (otros lo llaman homeopatía compleja) pero Hahnemann pensaba que cada enfermedad tenía su principio activo específico para la curación y propugnaba que mezclar preparados podría hacer que el que tenía que curar dejara de hacerlo por interferencia de los otros.

Tampoco tengo claro (aunque no he investigado mucho, la verdad) que la empresa en cuestión siga en este preparado el primero de los principios básicos de la homeopatía, cual es aquel de que "lo similar cura a lo similar". Y digo eso porque la Eufrasia officinalis es una planta que se ha utilizado desde el pasado en afecciones oculares, debido a su contenido en taninos, acido cafeico y otras sustancias, pero desconozco si se ha probado que poniéndola en un ojo sano provoque similares efectos a los de pasarse todo el día castigando nuestra vista. Y esa es la prueba del nueve para el principio que acabo de mencionar. Así que para no ser una empresa homeopática completamente heterodoxa, esperemos que lo de seguir las normas de la Farmacopea Homeopática Alemana sea porque, al menos, agite bien tras cada dilución.

Pero volvamos a la eufrasia que nos ocupa. Como ya se ha mencionado, el empleo de la eufrasia contra los males oculares está bien documentado en la Botánica tradicional, de forma parecida a la manzanilla que mi madre me aplicaba cuando tenía legañas. Para preparar una infusión con propiedades curativas de eufrasia o manzanilla era habitual coger unas cuantas plantas secas (o flores, en el caso de la manzanilla) y hervirlas en agua, filtrar para eliminar los sólidos y una vez frío el filtrado, aplicarlo con una gasa en los ojos. Nada que objetar a esto. La Botánica se ha estudiado en la carrera de Farmacia de forma importante hasta hace veinte o treinta años y sabemos que muchas plantas contienen sustancias químicas que son activas desde un punto de vista farmacológico. Pero ese hecho es manipulado por compañías de Homeopatía para seguir preparando productos que, debido a la inconsistencia de los principios básicos que hemos mencionado arriba, carecen de cualquier efecto curativo debidamente probado.

Vamos a explicar, de forma un poco burda y usando como ejemplo a la eufrasia, lo que hace la multinacional alemana para preparar los colirios homeopáticos que recomendaron a mi amiga. Supongamos que han cocido unas cuantas hierbas secas (unos 20 gramos) en un litro de agua, han filtrado y se han quedado con, aproximadamente, el mismo litro de agua en el que están los productos químicos beneficiosos de la planta. En lugar de aplicar esa infusión al ojo, directamente en esa concentración como recomienda la Botánica tradicional, la empresa cogería ese litro y lo mezclaría con 99.999 litros de agua destilada. Y a partir de ahí prepararía los viales de 0,45 mililitros que venden en las farmacias. Es decir, que a partir de la cocción de unas pocas hierbas secas, se podrían preparar 222.223 dosis o viales. Veo en internet que una farmacia vende una caja con 15 viales de esos colirios a 9,45 € la caja o, lo que es lo mismo, a 0,63 € el vial. En otras palabras, de una cocción similar a la que hacían nuestras abuelas con eufrasia o manzanilla ellos obtienen la friolera de 140.000 €. Y, supuestamente, cada colirio tiene los mismos efectos curativos que aplicar con una gasa un producto 100.000 veces más concentrado que el que está en los viales.

¿Algo falla, no? A pesar de que te prometan que te van a aliviar de tus molestias en los ojos. ¿Y si simplemente usaras suero fisiológico (esto es, agua y cloruro sódico, como el excipiente de los viales)?. Por poco más de dos eurillos te puedes comprar medio litro del mismo. O si ya te quieres rascar el bolsillo, puedes comprar un colirio como el que usa mi comadrona en viajes largos en avión y que contiene agua, un polímero de origen vegetal como la hidroxipropil celulosa y los mismos fosfatos que se emplean en el colirio homeopático. Se vende en cajas de 30 viales de medio mililitro cada uno, al precio de unos 7,28 euros o, lo que es igual, a unos 0,25 el vial. Probablemente otro negocio pero, al menos, en este sabes que en cada mililitro vendido hay 3,20 miligramos del principio activo que, dicho sea de paso, solo sirve para hacer más viscosa el agua empleada y que la gota que te pongas en el ojo (que llaman lágrima artificial), se quede más tiempo en el mismo.

Leer mas...

jueves, 29 de junio de 2017

Champagne, azúcar y burbujas

Vaya por delante que el champán no es santo de mi devoción. Es una de las pocas cosas en las que el seguimiento de una vieja máxima que me dieron hace años: “Si los ricos hacen algo, tú, por si acaso y si puedes, prueba” ha resultado fallida. Pruebo y sigo probando, porque a la comadrona con la que vivo le gusta más el champagne (ella nunca diría champán, hasta ahí íbamos a llegar) que comer con los dedos, así que rara es la ocasión en la que en mi casa no haya una o varias botellas de marcas conocidas o por investigar. Y acabo catándolas. Pero el champán me deja frío. Y no es una frase. Es algo que expresa literalmente lo que mi organismo siente comiendo o cenando con él (algo que no me ocurre con cualquier buen tinto). Igual que me pasa con el txakoli. O con la sidra. Así que tengo a esos tres alcoholes un poco alejados de mi sensible estómago. Aunque por ese orden. Prefiero el primero a la última con años luz de diferencia.

En otras entradas de este Blog he mencionado los curiosos estudios de Gérard Liger-Belair, de la Universidad de Reims Champagne-Ardenne, un ciudadano que tiene la suerte de publicar en prestigiosas revistas ligadas a la Química Física sobre la problemática de la génesis y evolución de las burbujas de champán, cuando uno lo escancia en la tradicional copa o flute usada para servir el mismo. Y digo suerte porque supongo que tiene un continuo suministro de "muestras experimentales" para su trabajo que, intuyo, acabará disfrutando. Una de las primeras entradas de este blog, colgada el último día de octubre de 2006, iba sobre una de sus publicaciones, pero se ha quedado un poco viejuna y, además, casi nadie se la habrá leído porque es una de las que publiqué con una herramienta para blogs que tenía Apple (esos fueron mis comienzos), aunque más tarde la recuperé cuando me pasé a Blogger. Así que voy a reescribirla, ahorrando a mis lectores la necesidad de leerla.

Y he vuelto a ella porque hace poco, en el hoyo 19 de mi club de golf (denominación para iniciados del bar del mismo), mi antiguo colega de Departamento y amigo, Jesús Ugalde, me preguntaba que por qué se forman burbujas en una bebida carbónica cuando echamos un poco de azúcar en ella. Como buen químico, ya se imaginaba que reacción química no existe, pero se le escapaba la razón de los resultados del experimento. Si queréis hacerlo, basta con añadir media cucharilla de azúcar a una copa de champán. O de gaseosa o de tónica. Estas últimas vienen bien para el experimento porque, al no ser coloreadas, se ve mejor lo que ocurre. Una pregunta idéntica a la del Prof. Ugalde me hizo escribir la entrada de octubre de 2006 antes mencionada, planteada específicamente para el caso del champán. Pregunta que me hicieron Xabi Gutiérrez e Igor Zalakain del Restaurante Arzak, en una época en la que pasamos mucho tiempo juntos.

En la entrada original, explico cómo se elabora un champán por el método champenois y que, al final del proceso, cuando las botellas están ya dispuestas para venderse, la labor que han hecho las levaduras con el azúcar natural y añadido contenido en las botellas, provoca que la presión en el interior de las mismas sea seis veces la presión atmosférica, merced al CO2 producido durante la fermentación. Ese gas es el que provoca la impetuosa salida del tapón cuando abrimos la botella y la turbulenta generación de burbujas si agitamos un poco la misma (aunque sobre esto podéis leer y ver a Liger-Belair aquí en un sorprendente experimento). Y es el causante de la posterior (e hipnotizante) salida lenta de burbujas en una copa del bebedizo.

Pero no todo el CO2 que escapa de las copas o botellas, lo hace en forma de burbujas. La efervescencia es sólo la parte visible de la salida del CO2 de la copa. Una parte importante difunde desde el interior del líquido, de forma invisible, hasta la superficie que separa el líquido del aire, atravesándola y perdiéndose en la atmósfera (o sea, que el abrir botellas de champán contribuye también al calentamiento global). Hay, por tanto, una interesante pregunta que ha hecho perder mucho tiempo a mucha gente, entre ellos a G. Liger-Belair. ¿Por qué y dónde se generan esas burbujas que, misteriosamente, aparecen de la nada en el seno del champán?.

El asunto tiene que ver con la tensión superficial del champán. Se trata de una propiedad de los líquidos que mide, de alguna forma, la fuerza que mantiene unidas entre sí a las moléculas de ese líquido y que les hace estar en esa forma líquida y no en forma de un gas, donde las moléculas andan cada una a su bola, procurando juntarse lo menos posible con las demás. Esa fuerza entre las moléculas de un líquido hace que su superficie se resista a ser traspasada y, por eso, seres livianos como algunos insectos que, no sé por qué, cuando yo era niño llamábamos zapateros, andan por encima del agua sin hundirse. La fuerza de su peso es inferior a la fuerza que mantiene unidas a las moléculas del líquido y no hay forma de que los bichos se vayan para el fondo. Pero esa tensión superficial es también la causante de que un líquido, en contacto con una superficie sólida, la moje mejor o peor, esto es, que el líquido "tapice" por completo esa superficie o que sus moléculas no sean capaces de llegar hasta el último recoveco de esa misma superficie.

Pues bien, las burbujas del champán nacen a partir de la superficie interior de la copa, como consecuencia de una cierta incapacidad del mismo para mojar adecuadamente las intimidades de la superficie del vidrio. Mas concretamente, a nivel microscópico, el vidrio de la copa de champán no es perfectamente liso. Quedan huecos microscópicos, que el champán no llena porque no moja bien la superficie. Esos huecos estaban llenos de aire cuando la copa estaba vacía pero, al llenarla y debido a que la presión del CO2 disuelto sigue siendo importante, ese gas tiende a entrar en esos huecos de aire, hinchándolos poco a poco hasta generar burbujas que, por su tamaño y dada su pequeña densidad, tienden a subir en la masa del líquido. Mientras quede CO2 a una determinada presión en el champán eso seguirá ocurriendo, aunque cada vez con menos intensidad. Es esta una teoría razonable que ha sido comprobada por minuciosas fotografías de alta velocidad mostradas ya en la tesis doctoral de Liger-Belair (2001) y que fue publicada en una monografía de los Annales de Physique franceses (Ann. Phys. Fr. 27, n. 4, 2002).

Pero muchas de las burbujas nacen también, por un efecto similar, de minúsculas impurezas existentes en el champán o en la copa, bien provenientes de restos de la uva, del corcho, de las levaduras muertas o de los paños empleados para secar el vidrio. Todas esas partículas tienen superficies muy irregulares que el champán no moja bien, donde queda atrapado aire hacia el que fluye el CO2 a presión, dando lugar a la continua génesis de burbujas. Y eso también explica, como muy bien nos enseñaba el Prof. Claudi Mans en un comentario de otra entrada sobre los experimentos de Liger-Blair, que llenando una copa no de vidrio sino de plástico, las burbujas sean mayores. El champán moja peor al plástico que al vidrio, el aire atrapado en las irregularidades de la superficie del primero ocupa mayor volumen y, al ser hinchado por la presión ejecutada por el CO2, crea burbujas mayores.

Y ahí está la solución a la pregunta que hace ya casi once años me hicieron Xabi e Igor y también a la que, más recientemente, me ha hecho Jesús Ugalde sobre el efecto de adicionar azúcar a una bebida carbónica. A escala microscópica, las partículas o granos de azúcar tiene multitud de imperfecciones en su superficie, como podéis ver en estas fotografías (la primera de azúcar sin refinar, la segunda del habitual en nuestras casas) realizadas con un microscopio electrónico, en las que el tamaño de los granos de azúcar se ha aumentado 50 veces. Al verter azúcar en el champán, cada una de sus partículas tiene aire atrapado en esas imperfecciones, a partir del cual se crean las burbujas por el mecanismo arriba descrito. Muchos granitos de azúcar contienen mucha superficie y mucho aire atrapado, sitios potenciales para que el CO2 genere burbujas. Me apuntaba Antonio M., otro amigo presente ese día, que sobre la base de esa hipótesis eso no debe pasar al adicionar al champán azúcar disuelto en agua. Y, efectivamente, así es y podéis también comprobarlo. Coged la misma cantidad de azúcar que en el experimento arriba mencionado, disolvedlo en la menor cantidad de agua posible (cuidando de que no quede granito alguno de azúcar sin disolver) y vertedlo a la copa de la bebida espumosa. Veréis que no pasa nada.

Lo que da de sí una cerveza en el hoyo 19.

Leer mas...

lunes, 26 de junio de 2017

Papel térmico sin Bisfenol A

Hace pocas entradas, empezaba una sobre el estado de mis sensaciones en torno al Bisfenol A (BPA), relatando las inquietudes de una amiga al respecto de la posibilidad de intoxicarse con ese compuesto, a partir de la tinta térmica que se emplea en los recibos que nos dan en las tiendas y supermercados. En la superficie del papel usado en esos recibos se deposita una mezcla de bisfenol A y un colorante. Ambos se protegen con un recubrimiento que los aísla del exterior. Cuando el papel pasa por la impresora que les aplica calor en ciertos lugares en los que queremos reproducir un texto, el bisfenol A interacciona con el colorante y cambia la estructura química de éste, haciendo que su color original (blanco) pase a negro. Como consecuencia de ese proceso, existe un riesgo pequeño de que parte del BPA contenido en el papel pase a los dedos de quienes manipulan esos recibos y, particularmente, a los de las personas que trabajan todo el día cobrando. Creo que la cosa quedó bastante clara aquí, especialmente en lo relativo al hecho de que, en esa aplicación, se usa bisfenol A puro y no reaccionado en largas cadenas de policarbonato o resinas epoxi, donde pierde por completo su carácter de disruptor endocrino. Pero esta semana mi amiga tiene un motivo más para sentirse tranquila de cara a un futuro próximo.

En el número de hoy del Chemical Engineering News, Stephen K. Ritter nos cuenta que el pasado día 12 se anunciaron los ganadores de los premios instituidos por la Agencia Medio Ambiental Americana (EPA), premios que reconocen la excelencia de iniciativas enmarcadas en lo que hoy denominamos Química Verde, un rediseño de la Química con alternativas más sostenibles y menos dañinas para el medio ambiente. Entre esas iniciativas se encuentran aquellas que permitan reducir la toxicidad de los productos químicos, economizar agua o energía, así como minimizar nuestra producción de residuos, incluso la de aquellos que no sean peligrosos.

Pues bien, una de las propuestas ganadoras en esta edición 2017 es una iniciativa del gigante químico Dow y la empresa papelera Koehler. La primera ha contribuido con un tipo de polímero que, aplicado de forma inteligente a un tipo de papel térmico desarrollado por la segunda, permite el uso del mismo en las tradicionales impresoras de datáfonos y cajas registradoras, eliminado la necesidad del empleo de bisfenol A o de cualquier otro sistema que implique la liberación de sustancias químicas potencialmente peligrosas. En la imagen, que podéis ampliar picando en ella, se ven los logotipos de ambas empresas impresos en el innovador papel.

Para prepararlo, se deposita sobre el papel una capa de negro de humo (partículas de carbón, como el hollín para que me entendáis). Sobre esa capa de partículas de carbón va el polímero de Dow, un copolímero de estireno y acrilato que se ha preparado en forma de unas microesferas huecas y llenas de aire. En su estado original, el polímero tiene una apariencia opaca, parecida a la del poliestireno expandido (poliespan) de las bandejas de supermercado. Cuando ese papel pasa por la impresora térmica, el calor proporcionado por la acción de ésta, de nuevo en los sitios adecuados para escribir algo, rompe y colapsa algunas de esas esferas, cambiando el índice de refracción del material en esos lugares, lo que hace que lo que era opaco se vuelva transparente, dejando ver a su través el color negro de la capa interior de carbón.

El polímero ya era conocido desde los 80, cuando se empezó a vender como una solución alternativa al color blanco del dióxido de titanio, en pinturas para exteriores de edificios pero, a lo largo de los años, Dow ha seguido buscando nichos de negocio para él y esta alternativa "verde" al papel térmico a base de BPA, puede ser un resultado importante. Se trata, desde luego, de una alternativa innovadora, muy diferente de la clásica aproximación en este tipo de problemas, donde simplemente se suele optar por cambiar una sustancia que plantea problemas por otra que, en muchos casos y en futuros más o menos cercanos, demuestra también tener los suyos.

Leer mas...

miércoles, 14 de junio de 2017

Plomo en un atolón perdido

Dani Torregrosa es uno de los buenos amigos que tengo en la Región de Murcia. Químico amén de conocido y ya veterano bloguero en cosas relacionadas con la Química, suele visitarnos a menudo en Donosti, en parte por su trabajo y en parte porque ha venido a eventos de divulgación. El último de ellos en el que participó fue el Passion for Knowledge, organizado por el Donostia International Physics Center a finales de septiembre de 2016, donde impartió una charla Naukas sobre la figura de Clair Cameron Patterson, un químico que peleó durante años para que se prohibiera el uso del plomo en las gasolinas, como consecuencia de las elevadas dosis del mismo en la atmósfera que ese uso acarreaba. Para empezar a calentar motores podéis ver su charla en este link. Es una charla de diez minutos exactos, como establecen los cánones de los eventos Naukas, y merece la pena.

Cuando Dani andaba preparando la charla, él y yo intercambiamos bibliografía sobre Patterson e incluso quedamos en escribir algo conjuntamente al respecto, aunque ahí se ha ido quedando la cosa. Pero ayer, de forma absolutamente fortuita, siguiendo otra pista, me encontré un artículo que ya tiene seis años y que me recordó la azarosa historia de Clair Patterson y la charla de mi amigo.

Como Dani cuenta en el vídeo, Patterson era un químico que, a nivel de investigación, trabajó siempre en el ámbito de la geoquímica y en el estudio de la edad de la Tierra. Para esto último databa muestras de meteoritos midiendo el contenido en diversos isótopos. Esas medidas le causaban muchos problemas en lo tocante al plomo, porque obtenía resultados muy erráticos que, al final, no le quedó más remedio que admitir que provenían de la contaminación de las citadas muestras por el plomo existente en el ambiente que, además, era más elevado que lo predicho por estudios teóricos. Para solventar el problema, empezó a utilizar las llamadas "salas blancas" que le permitían manejar muestras sin que se vieran afectadas por esa contaminación. Pero los resultados que iba obteniendo con más precisión, le llevaron a emplear una parte importante de sus esfuerzos en el problema de la contaminación por ese metal y a constatar que todo, incluso los hielos de Groenlandia, estaban contaminados por el mismo. De un análisis adecuado del hielo a diferentes profundidades, podía inferirse que la contaminación había crecido de forma significativa desde una fecha que coincidía aproximadamente con el inicio del empleo en los automóviles del plomo tetraetilo, un aditivo que llevaba la gasolina para evitar el efecto detonante al quemarla, lo que castigaba los motores de combustión (en este Blog hay una entrada al respecto en este enlace. Luego vinieron las gasolinas "sin plomo" que todos recordáis, gracias a los esfuerzos de Patterson, como contaré ahora.

En su charla, Dani hace mención a la larga pelea que Patterson mantuvo contra la empresa Ethyl que comercializaba en USA el plomo tetraetilo y los desastrosos efectos que eso tuvo en su carrera académica, pero lo que no contó (por la premura de las charlas Naukas) es que la oposición de la empresa se concretó, casi exclusivamente, en la figura de un científico, Robert Kehoe, cuya arrogancia le impidió ver durante años lo que estaba claro. Es quizás otro ejemplo de lo que Langmuir llamaba ciencia patológica, aunque los hechos también podrían interpretarse como un flagrante caso de corrupción.

Cuando los trabajadores de la planta que General Motors tenía en Ohio para producir tetraetil plomo empezaron a morir o sufrir trastornos psiquiátricos graves en los años veinte, la empresa encargó a Kehoe, entonces un joven profesor de patología de la Universidad de Cincinnati, para que estudiara el asunto e hiciera recomendaciones. Con los medios de la época (todo hay que decirlo) Kehoe estudió muestras de trabajadores expuestos al manejo del compuesto y las de otros en la planta que no tenían contacto directo con el mismo. Aunque a diferentes niveles, en todos ellos había plomo y Kehoe concluyó que la presencia del mismo en humanos era "natural". Una idea que fue ya atacada durante las sesiones que el Comisionado para la Salud Pública convocó en 1925, pero que acabó solo con una recomendación sobre los niveles de plomo no peligrosos en las factorías.

Pero a Kehoe (que enseguida fue nombrado Director de un laboratorio financiado por las mismas industrias que vendían el plomo tetraetilo) le quedó un cierto resquemor con las críticas recibidas y para rebatirlas decidió elegir otro grupo de control, los habitantes de una remota aldea mejicana, fuera de toda sospecha de contaminación urbana e industrial. Kehoe analizó la alimentación, los utensilios y la orina de los residentes y, en todos ellos, encontró plomo, reforzando la idea de que el contenido del mismo en el organismo humano era natural. Hoy sabemos que esos individuos tenían plomo porque sus platos, cucharas, tenedores y otros utensilios domésticos estaban hechos con plomo, algo que seguro que los propios análisis de Kehoe mostraban, pero que se lo calló como un muerto. Ese argumento del carácter natural del plomo en humanos, junto con medidas tomadas por las industrias para la seguridad de sus trabajadores, hizo que el plomo tetraetilo se siguiera utilizando en las siguientes décadas, incluso aumentando su concentración en la gasolina, como ocurrió en 1959, cuando las instancias sanitarias americanas permitieron ese aumento tras una nueva sesión ante el Comisionado para la Salud Pública, en la que el único testigo fue Kehoe y en la que, de nuevo, manejó los resultados obtenidos en México.

Las cosas empezaron a ponerse feas para Kehoe y la industria el plomo tetraetilo cuando, en 1965, la editora de una revista (Archives of Environmental Health), pidió a Patterson que escribiera un Editorial sobre la contaminación por plomo. Ahí, nuestro geoquímico se explayó sobre todos los datos que pacientemente había ido estudiando en su laboratorio durante años y que indicaban que todo estaba contaminado con plomo en niveles muchas veces superiores a los que se daban en siglos anteriores. Evidentemente, tal y como estaba el patio en lo que al plomo se refiere, Kehoe fue uno de los revisores del mencionado artículo, aceptando curiosamente la publicación del mismo, aunque con argumentos agresivamente descalificadores con la figura de Patterson, que se incrementaron, por parte del colectivo de toxicólogos, cuando el artículo salió a la luz. Y que fue el inicio del calvario profesional de Patterson que Dani menciona en la charla, desde intentos de convencerle para que publicara datos más favorables al plomo tetraetilo a cambio de dinero (soborno que rechazó), hasta perder la financiación para sus proyectos por parte del Servicio de Salud Americano o del Instituto Americano del Petróleo. Hubo incluso presiones para que fuera expulsado de su Departamento.

Pero, al final, la polémica alcanzó el Senado de los EEUU y en 1966 se llevó a cabo una sesión pública sobre el tema del plomo en la atmósfera, donde las posturas claramente encontradas de Kehoe y Patterson pudieron oírse públicamente y generaron los primeros recelos en la sociedad americana. Aún y así, el proceso para la eliminación total del plomo en las gasolinas se extendió casi otros treinta años más, con avances y retrocesos en las concentraciones permitidas, ligados a todo tipo de problemas políticos, burocráticos y empresariales, pero desde los primeros setenta comenzó un progresivo endurecimiento de las leyes contra las emisiones de plomo a la atmósfera que, en 1986, marcó el hito de la eliminación de hasta el 91% del plomo tetraetilo en la gasolina y en 1995 acabó con la prohibición completa del mismo.

¿Y dónde queda el artículo que me ha dado pie a todo esto?. En 2011, un grupo de investigadores americanos y neozelandeses publicaron [Marine Pollution Bulletin 62, 251 (2011)] un artículo que analizaba los contenidos en plomo de los sedimentos en los lagos de un remoto atolón americano perdido en el Pacífico (ver foto arriba), a casi 1700 km de Hawai, como referencia más próxima. Un sitio en el que la única presencia humana fue una base americana entre 1940 y 1945.

Los investigadores tomaron muestras de esos sedimentos a distintas profundidades de los mismos, hasta llegar a algo más de un metro y analizaron el contenido en plomo y la edad de cada una de las capas. La Figura que tenéis encima es una reconstrucción que vuestro Búho ha hecho con los datos del trabajo, donde se ve claramente como, con independencia de algunas cosas raras en los cuarenta, cuando se construyó la base, los niveles de plomo en los sedimentos crecen desde los años veinte a los máximos de los setenta/ochenta. Desde entonces, están decayendo (el último valor corresponde a mayo de 2003 cuando las muestras se tomaron).

Hay muchas otras pruebas similares de esa relación entre las gasolinas con plomo y la contaminación del mismo en el medio ambiente y en el cuerpo humano, pero esta me ha resultado exótica y ha venido bien para volver a ver a Dani en acción, donde, dicho sea de paso, tenía sentados en primera fila a una buena colección de Premios Nobel de Física y Química, amén de unos cuantos científicos internacionales de primera fila. Pero lo hizo como el campeón que es.

Leer mas...