domingo, 26 de junio de 2022

Hogueras y dioxinas

Las hogueras de San Juan de este pasado jueves en Donosti acabaron pasadas por agua merced a una bonita tormenta veraniega. Aún y así, se encendieron 18 fogatas legales y supongo que unas cuantas ilegales. Estos mismos días, ando documentándome sobre la toxicidad de las dioxinas para poder dar una charla al respecto. Hace ya seis años que os hice una revisión histórica y una puesta al día sobre ellas pero necesito mas datos para una charla de hora y pico. Entre la documentación que ahora estoy manejando está la del derrumbe y posterior incendio del vertedero de Zaldíbar el 6 de febrero de 2020. Junto con mi amiga Ainara Sangróniz, que es de Elgeta (no muy lejos de Zaldíbar), hicimos un seguimiento muy detallado de los niveles de dioxinas generados por un accidente en el que fallecieron dos trabajadores, uno de los cuales ha quedado enterrado para siempre en el sellado que ha clausurado el vertedero.

Al hilo de la abundante documentación publicada sobre Zaldíbar y de las distintas polémicas que se suscitaron en los medios a propósito de los recomendaciones emitidas por el Gobierno Vasco así como de los datos publicados por el mismo, hay un asunto muy interesante que tiene que ver con las hogueras de San Juan y que voy a usar de hilo conductor en esta entrada para aclarar algunos extremos sobre la toxicidad de las dioxinas.

En las proximidades de la localidad guipuzcoana de Usúrbil hay un captador de muestras de aire que posteriormente se analizan para comprobar la calidad del mismo. Entre noviembre de 2017 y junio de 2019 en esa estación se recogieron 45 muestras. Entre ellas, la muestra recogida entre las 00.00 horas del día 23 de junio de 2018 y las 23.59 horas del día siguiente exhibía unos niveles de dioxinas treinta y dos veces mas altos que la media que se había venido recogiendo en esa estación hasta entonces. El Instituto de Investigación Sanitaria Biodonostia, que cuelga del Servicio Vasco de Salud (Osakidetza) emitió en su día un extenso informe al respecto.

El término dioxinas (que suele englobar también a sus primos los furanos) hace referencia a una muy numerosa familia de 210 compuestos químicos diferentes (75 son dioxinas y 135 furanos). Algunos (unos 17) son verdaderamente tóxicos aún en dosis muy pequeñas y así, por ejemplo, una de las dioxinas, la 2,3,7,8-tetraclorodibenzo-p-dioxina, conocida por el acrónimo 2378-TCDD, suele citarse como la sustancia más tóxica del mundo mundial, aunque sobre eso podríamos hablar más en detalle aunque no es el sitio ni el momento. Las concentraciones de dioxinas en el aire (que es el medio que aquí nos interesa) se dan habitualmente en femtogramos por metro cúbico de aire (1000 litros de aire). Un femtogramo es una cantidad casi ridícula (0.000000000000001 gramos) pero esa aparente ridiculez sirve también para valorar que estamos tratando con sustancias harto peligrosas. Y para ilustrar a que niveles estamos los químicos detectando y midiendo los peligros a los que nos enfrentamos.

Pues bien, el 19 de febrero de 2020, cuando el vertedero de Zaldíbar estaba aún a medio apagar, el Diario Vasco publicó un artículo a página completa cuyo titular decía "Una hoguera en Usúrbil con 10 veces más de dioxinas" en el que se explicaba que el estudio de Biodonostia antes citado mostraba que la noche de San Juan de 2018 se había medido un pico de casi 6800 femtogramos por metro cúbico de dioxinas en el aire de la localidad guipuzcoana, cuando en el vertedero de Zaldíbar se habían medido tres días antes de la noticia una cifra en torno a 700. Algo ciertamente sorprendente a la vista de las imágenes que se estaban publicando sobre las labores de extinción del vertedero y las medidas que se habían ido tomando (cierre de escuelas, recomendación de no salir a la calle.... hasta suspensión de un partido de fútbol del Eibar). La noticia tenía también implicaciones políticas dadas las malas relaciones entre el periódico y la izquierda abertzale, tradicional gobernante en Usúrbil.

En realidad, se trató de un error garrafal que aún recordará el periodista que escribió la página. Y que el Diario Vasco tuvo que corregir a la carrera al día siguiente, aunque lo hizo con una críptica frase que demostraba que seguían sin entender del todo el fallo: "....los 6797 femtogramos por metro cúbico de aire es un dato puntual y no refleja la concentración de dioxinas real, que es la que debe ser comparada con las mediciones anunciadas en Zaldíbar. El valor correcto en Usurbil fue 304 femtogramos por metro cúbico". Esta corrección, que seguro que tampoco habrán entendido muchos de mis perspicaces lectores, no explicaba para nada el fallo cometido por la redacción del Diario Vasco, aunque sea fácil hacerlo.

Los 6797 femtogramos por metro cúbico, una cifra que ciertamente aparecía en el informe de Biodonostia sobre las hogueras de Usúrbil, era la concentración del conjunto de dioxinas y furanos presentes en la muestra de aire de esa localidad, pero no nos da una idea de cuánto tóxica es esa concentración. En ella puede haber todo tipo de dioxinas y furanos. La 2378-TCDD es ciertamente tóxica, pero otros miembros de la familia pueden no tener toxicidad alguna o tenerla cientos o miles de veces más pequeña que la más peligrosa. Por eso, y en lo tocante a la toxicidad de una muestra concreta se suele hablar de la toxicidad equivalente (TEQ) que sería la cantidad de 2378-TCDD pura que tuviera la misma toxicidad que la muestra que estamos considerando. Una vez hecho ese cálculo los 6797 femtogramos por metro cúbico se convierten en 304 femtogramos de 2378-TCDD por metro cúbico. Y los 700 femtogramos del vertedero ardiendo el día 16 de febrero con el que el Diario Vasco estaba comparando ya tenían hecha esa corrección en cuanto a toxicidad. Así que la toxicidad de las dioxinas de las hogueras de Usúrbil en la noche de San Juan fue la mitad de la de las dioxinas que el vertedero estaba generado en la fase crítica del derrumbe y posterior incendio. Una cifra excepcional la de Usúrbil, pero desde luego no diez veces más que la del vertedero.

El episodio de Usúrbil remitió para el día siguiente y Biodonostia argumentaba en su informe que el valor significativamente mas alto aalí encontrado frente a los de otras localidades que también celebraron esa noche hogueras de San Juan, parece que se debió a que, en la primera, sopló una componente de viento que enviaba directamente el aire de la hoguera al medidor, cosa que no pasó en las otras localidades. En el caso del vertedero de Zaldíbar, el incendio estuvo activo desde el 6 al 19 de febrero, aunque desde el 15 había labores de extinción en activo. Una vez iniciadas esas labores de extinción, las concentraciones fueron progresivamente bajando y para el día 26 los niveles de toxicidad de las dioxinas estaban ya en niveles prácticamente normales.

Está por tanto claro que incendios, hogueras y otros procesos de combustión como la incineración son una fuente importante de emisión de dioxinas y furanos. De hecho, cuando la Agencia de Protección del Medio Ambiente americana (EPA) llevó a cabo, en 1987, el primer inventario de fuentes de dioxinas en los Estados Unidos, la incineración de residuos urbanos representaba más del 80 % de las fuentes de dioxinas conocidas. Como resultado, la EPA implementó nuevos requisitos de emisiones. Estas regulaciones lograron reducir drásticamente las emisiones de dioxinas de esos incineradores. La incineración de residuos sólidos municipales, residuos médicos, lodos de aguas residuales y residuos peligrosos juntos ahora producen menos del 3% de todas las emisiones de dioxinas.Algo similar ha pasado en Francia, donde las emisiones totales de dioxinas por incineradoras han pasado del equivalente a 450 gramos de 2378-TCDD en 1997 a prácticamente cero en unos doce años.

Sin embargo, desde la evaluación inicial de la EPA en 1987, las emisiones de dioxinas derivadas de la combustión incontrolada de residuos domésticos (hogueras, barriles en los jardines, barbacoas, etc.) han seguido permaneciendo prácticamente constantes y ya en el informe de 2006 aparecieron como la primera fuente emisora de dioxinas en USA.

Leer mas...

martes, 14 de junio de 2022

La mala suerte del descubridor de la primera estatina

Todo empezó hace unos días cuando un amigo me dijo que un conocido médico donostiarra le había recetado para el colesterol un suplemento alimentario a base de arroz de levadura roja. Me callé como un muerto pero me puse a tirar del hilo (mi comadrona dixit) y me encontré con una entretenida historia que conecta ese arroz de levadura roja con el descubrimiento de las estatinas, esa familia de fármacos que pueden reducir el colesterol, al bloquear a una enzima que nuestro cuerpo utiliza para producirlo. Desde la introducción a nivel comercial en 1987 por parte de la compañía Merck de la estatina llamada lovastatina, esta familia de fármacos ha pasado a estar entre los mas vendidos en el mundo. Pero antes de llegar a este estado de cosas, hubo muchas idas y venidas que voy a contar.

Un bioquímico japonés, el Dr Akira Endo, fue la estrella invitada de una reunión científica celebrada en 2004 para conmemorar el trigésimo aniversario del descubrimiento de la que fue realmente la primera estatina, la compactina o mevastatina, que nunca llegó a comercializarse. En su intervención ante los colegas, el Dr. Endo contaba con fina ironía que había ido hacía poco a su ITV médica y su galeno le había dicho que sus niveles de colesterol habían llegado a un punto en el que habría que hacer algo para bajarlos. El galeno, que no sabía las habilidades de su paciente, le dijo que no se preocupara porque conocía unos cuantos buenos fármacos para bajar el colesterol. Así que, Endo concluía entre risas de sus colegas, "despues de muchos años voy a comprobar los poderes de una estatina en mi mismo". Después de esta anécdota inicial, el resto de la presentación del Dr. Endo estuvo dedicada a contar su mala suerte como inventor de la compactina antes mencionada.

En 1965, con 33 años, Akiro Endo andaba tratando de buscarse la vida como post-doc en los Estados Unidos. Escribió a un tal Dr. Vagelos que trabajaba en la Agencia americana de investigación médica (NIH) preguntándole si podía trabajar en su laboratorio en cuestiones relacionadas con el metabolismo de las grasas. Al ver que Vagelos no contestaba, buscó otra posibilidad y acabó en el Albert Einstein College of Medicine de Nueva York. Semanas más tarde, Vagelos le contestó diciendo que no había visto su carta porque se había cambiado de Universidad pero que estaría encantado en recibirle. Sin embargo, la suerte estaba ya echada. Endo se quedó en Nueva York y como veréis enseguida, la tardanza en las comunicaciones de esa época (mediados de los sesenta) resultó fatal para su futuro y es lo que da origen al título de esta entrada.

En 1968, tras su estancia neoyorquina, Endo regresó a Tokio y empezó a trabajar en una empresa, Sankyo, que en 1971 le dejó escoger libremente un tema de investigación que se concretó en el estudio de la llamada HMG-CoA reductasa, la enzima que bloquean las estatinas y que he mencionado antes. En su charla de 2004, Endo hizo notar que desde muy joven se había sentido atraído por la figura de Alexander Fleming, quien descubrió que el moho (un recubrimiento velloso o filamentoso producido por diversos tipos de hongos) de un hongo concreto del género Penicillium producía, entre otras, una sustancia química con efectos antibacterianos: la penicilina. Una década más tarde, la penicilina fue desarrollada como agente terapéutico sistémico. Inspirándose en el hecho de que otros antibióticos también se fueron aislando a partir de mohos de otros hongos y que, además, eran capaces de inhibir muchos tipos diferentes de enzimas, Endo especuló que quizás podría aislar algún antibiótico a partir de hongos que fuera capaz de inhibir la actividad de la enzima que facilita la producción de colesterol.

Comprobar esa hipótesis solo está al alcance de gente paciente como chinos y japoneses y, a partir de 1971, Endo y sus colegas probaron suerte con casi cuatro mil tipos de hongos diferentes. A mediados del verano de 1972, encontraron un moho verde azulado, que se aisló de una muestra de arroz recogida en una tienda de cereales en Kioto y que mostraba capacidad para inhibir la síntesis del colesterol. Este moho estaba producido por el hongo Penicillium citrinum y es similar a los mohos azul verdosos que contaminan las frutas, como las naranjas y los melones. Tras un año tratando de aislar las sustancias químicas que el moho produce y que dan lugar a la inhibición de la producción de colesterol, en julio de 1973, pudieron hacerse con tres sustancias de clara actividad en ese proceso, tanto in vitro como in vivo. El producto mas activo de estos tres, que ellos denominaron ML-236B, fue el que se empleó en estudios posteriores de su viabilidad como fármaco contra el colesterol. Hoy conocemos a esa sustancia como compactina o mevastatina y fue, en realidad, la primera estatina descubierta. Aunque, como hemos dicho arriba, comercialmente nunca se vendió.

Y la razón no fue otra que, cuando tras años de estudios, la compactina se probó con animales de laboratorio (perros), se empezaron a acumular evidencias de que podía ser cancerígena. Estamos en unos años en los que los medios de comunicación americanos (y también japoneses) estaban publicando muchas cosas sobre el posible efecto cancerígeno de la sacarina, tras ensayos con ratones. La historia de la sacarina en USA os la he contado con mucho detalle en dos entradas (aquí y aquí) de este Blog pero, en lo tocante al Japón, su Gobierno acabó prohibiéndola y nunca se ha podido vender allí. Para complicarlo aún más, algunos médicos incluso dijeron que reducir el colesterol podría promover la hemorragia cerebral y el cáncer.

A la vista de esos problemas, la empresa de Endo, Sankyo, paralizó el proyecto de la compactina aunque empezaron a buscar otras estatinas con un nuevo perfil. Hoy sabemos que muchos de los resultados obtenidos con fármacos ensayados en esa época con animales se derivaban del empleo de cantidades desmesuradas de los mismos. Como ha contado muchas veces el bioquímico Bruce Ames, eran las enormes dosis que se empleaban en los primeros ensayos toxicológicos, y no la composición química del fármaco en sí, las responsables de la inflamación, la muerte celular y/o la proliferación celular. Ames y sus colaboradores concluyeron que las pruebas de cáncer en animales no proporcionaban una buena evaluación del riesgo de cáncer en dosis más bajas y en humanos, una teoría que hizo que, "todos los científicos que habían pasado sus vidas haciendo estas pruebas en animales se enfadaran con nosotros". Pero no hay que olvidar tampoco que, en esa época, se produjeron también desgraciados incidentes como el de la talidomida que he contado en otro Blog.

Al mismo tiempo que Sankyo empezaba sus pesquisas con una nueva estatina, otra compañía mas potente, Merck, también estaba en ello. Con la penosa circunstancia para Endo de que en el grupo de trabajo de Merck estaba implicado el Dr. Vagelos, el mismo al que Endo había pedido trabajar con él. Este grupo, también a partir de unos mohos, los del hongo Aspergillus terreus, descubrió otra estatina, la lovastatina, en 1978. Además, en ese tiempo, Vagelos era Vicepresidente de Merck, así que todo funcionó adecuadamente y en 1987 se comercializó la citada lovastatina de la mano de esa compañía. Los japoneses tardaron dos años en poner la suya en el mercado (la pravastatina) perdiendo una buena oportunidad comercial. Como decía Endo en su alocución, muchos años después: "Ahora supongamos que Vangelos me hubiera contestado enseguida y yo hubiera elegido su centro para trabajar. Esta historia hubiera sido diferente. Probablemente la lovastatina se hubiera comercializado diez años antes y yo hubiera estado en el proyecto".

Y os andaréis preguntando, con razón, qué tiene que ver el arroz de levadura roja que recetaron a mi amigo con todo esto. Pues bien, el arroz de levadura roja es una preparación muy antigua que se ha usado en diversos platos de cocinas orientales asi como en la medicina tradicional china y que se produce gracias a la acción de unos hongos llamados Monascus purpureus. Los mohos que generan contienen una sustancia, la llamada monacolina K que, quimicamente, es idéntica a la lovastatina que comercializó Merck. Así que el galeno donostiarra no anda descaminado, aunque cabría preguntarse si las dosis de esa sustancia en un suplemento alimentario están tan controladas como las dosis del fármaco de Merck.

Leer mas...

viernes, 20 de mayo de 2022

Vinos biodinámicos

En una entrada reciente hablábamos de vinos ecológicos y espero que quedara claro que otras denominaciones como organic wine (in english) o vin biologique (en français) y otras en las variadas lenguas de la Union con raíces parecidas a estas son, para la Unión Europea, exactamente lo mismo. Los viticultores deben cumplir las normativas que hacen que el vino sea ecológico desde la viña (prácticas de agricultura ecológica en el viñedo) hasta la botella (vinificación ecológica). Si así lo hacen pueden denominar a su vino como ecológico y exhibir en la botella del mismo un único logo similar al que aparecía como ilustración en la entrada mencionada. Pero puede que en alguna visita a restaurantes o vinotecas, hayáis visto u os hayan ofrecido con mucha parafernalia vinos biodinámicos y se os hayan planteado dudas sobre las diferencias entre vinos ecológicos y los biodinámicos. Un conocido chef me dijo hace tiempo que la distinción era fácil, un vino ecológico es el que se ha producido mediante agricultura ecológica y un vino biodinámico es el que se ha producido siguiendo los estándares de la llamada agricultura biodinámica. Pero como con esa respuesta os podéis quedar como estabais, habrá que explicarlo todo algo más.

La agricultura biodinámica tiene sus orígenes en una serie de conferencias que impartió Rudolf Steiner [1861-1925], un año antes de su muerte, a agricultores alemanes que empezaban a estar preocupados por el creciente uso de fertilizantes minerales nitrogenados como el nitrato de Chile o los abonos sintéticos derivados del amoníaco. El curso llevaba como título genérico "Fundamentos espirituales para la renovación de la agricultura" y se puede descargar completo en una edición en inglés de 1938 aquí.

Para saber quién fue Rudolf Steiner podemos recurrir a otro apartado de esta misma página, donde literalmente se dice que Rudolf Steiner fue: "un erudito científico, literario y filosófico respetado y particularmente conocido por su trabajo sobre los escritos científicos de Goethe.[......]. Su genio multifacético ha dado lugar a enfoques innovadores y holísticos en medicina, ciencia, educación (escuelas Waldorf), educación especial, filosofía, religión, economía, agricultura (método biodinámico), arquitectura, teatro, el nuevo arte de la euritmia y otros campos. En 1925 fundó la Sociedad Antroposófica General, que hoy tiene sucursales en todo el mundo". Como se puede deducir de ello, un influyente personaje de una convulsa época, como también podéis comprobar buscando en Wikipedia. Añadiré de mi cosecha que uno de los llamados bancos éticos, el Triodos Bank, y la conocida empresa de fármacos y cosméticos Weleda, están inspirados en la filosofía antroposófica de Steiner.

La agricultura biodinámica, tal y como la propugnó Steiner en esas conferencias, se puede considerar un precedente de lo que hoy conocemos como agricultura ecológica, regulada por la Unión Europea en 2007 en el Reglamento (CE) nº 834/2007, del que hablamos con algún detalle en la entrada mencionada al principio. Pero la propuesta de la agricultura biodinámica de Steiner era, y sigue siendo, más radical. Una de las diferencias entre ambas se esconde en una frase de siete palabras que recoge el citado Reglamento de 2007 en su artículo 12.1.c y que establece que "El uso de preparados biodinámicos está permitido". Es decir, aquellos agricultores y viticultores ecológicos que empleen preparados biodinámicos pueden llamar a su producto o vino biodinámico y los que no recurran a ellos se quedan con un producto (vino) ecológico sin más. Pero, y esto es muy importante clarificarlo, la UE no tiene ninguna certificación que regule los productos (vinos incluidos) como biodinámicos. Es una fundación privada, nacida también en el entorno de las ideas de Steiner y que se llama Demeter, la que controla esa denominación y permite, por ejemplo, que en la contraetiqueta de los vinos biodinámicos aparezca un logo como el que se ve a la derecha.

¿Y qué son los famosos preparados biodinámicos?. Pues aquí es cuando las pobladas cejas de vuestro Búho se arquean. Por ejemplo, el preparado 500 parte de un cuerno de vaca que se llena con estiércol y se entierra durante el otoño a unos 40 cm de la superficie. El estiércol se descompone durante el invierno y se desentierra al inicio de la primavera. Una vez extraído el contenido del cuerno se diluye en agua y se rocía por toda la superficie del viñedo. En el preparado 501 se emplea polvo de cuarzo y otras cosas que también se introducen en un cuerno de vaca, enterrado de igual forma que el compuesto 500, solamente que se hace en primavera y se desentierra en otoño. Se utiliza para evitar enfermedades como los clásicos mildiu y oídio..

El 503 se prepara cortando flores de manzanilla, preferentemente a la mañana. Tras dejarlas secar, se sitúan en estómagos frescos de una vaca, atando ambos lados y enterrándolos en el suelo durante el otoño dentro de una tinaja, que se desentierra a inicios de la primavera. Si alguien desea un mayor detalle de la totalidad de los mencionados preparados biodinámicos porque no se fía del Búho, podéis visitar este documento de 87 páginas en castellano, con profusión de texto y fotografías.

Otra cosa que me ha llamado la atención es que algunos de estos preparados se emplean en los viñedos diluyéndolos mucho en agua y "dinamizándolos" (que quiere decir agitándolos de una forma determinada). Esto que recuerda a la preparación de productos homeopáticos hace que, a veces, se hable de agrohomeopatía y aparezca el adjetivo homeopático en la propaganda de algunos vinos biodinámicos.

Puede que lo de los cuernos y los estómagos de las vacas os parezca extraño. Según la biodinámica, la integración entre animales y plantas en un ecosistema biodinámico se considera una seña de identidad de explotaciones agrícolas biodinámicas como los viñedos. Pero el argumento para usar cuernos en estos preparados se explica con mucho detalle en una conferencia (la cuarta) que Steiner impartió el 12 de junio de 1924 en Koberwitz, en la actual Polonia. Decía entonces Steiner: "La vaca tiene cuernos para reflejar hacia adentro las fuerzas formativas astrales y etéricas, que luego penetran directamente en el sistema metabólico para que el aumento de la actividad en el organismo digestivo surja debido a esta radiación de cuernos y pezuñas. En el cuerno, por lo tanto, tenemos algo que por su naturaleza inherente está apto para reflejar las corrientes etéricas y astrales vivas en los órganos internos de la vida. De hecho, si pudieras entrar en el vientre de la vaca, olerías la corriente de vida etérico-astral que fluye hacia adentro desde los cuernos: y lo mismo ocurre con las pezuñas".

Estas creencias en corrientes etéricas y astrales, han derivado en que en las prácticas biodinámicas se tenga en cuenta el calendario biodinámico que se publica cada año para hacer coincidir ciertas prácticas de esa agricultura con confluencias de la luna y los planetas. Sin despreciar en absoluto lo que Steiner pensara hace casi un siglo, parece complicado aceptar que hoy en día se sigan haciendo dichas prácticas, tras acumular cien años de conocimiento científico sobre agricultura.

Aplicando estos preparados y otras estrategias de agricultura biodinámica, uno puede optar a obtener la certificación Demeter (vale dinero) y, en el caso de los viticultores, poner el logo de la organización en la etiqueta del vino y venderlo como biodinámico. ¿Repercuten estas prácticas en la calidad del vino?. Pues no creo que ningún catador experimentado sea capaz de detectar bondades ocultas en un vino biodinámico. Como decía en la entrada del vino ecológico, estamos hablando de vino, esto es 85% de agua, 13% de alcohol y un 2% de centenares de productos químicos que aparecen durante el proceso de cultivo de las viñas y el posterior proceso de vinificación. Y que son los que hacen que cada vino sea casi único.

Hay alrededor de los vinos biodinámicos todo un marketing que habla sobre ellos en términos espirituales (a la manera del título de la serie de conferencias de Steiner), del equilibrio con la Naturaleza y cosas así. Dice, por ejemplo, una enóloga de una bodega con vinos de este tipo que "La biodinámica no es el fin sino el medio para conseguir un vino equilibrado y vivo, que cuando la persona se lo tome pueda percibir que hay sensibilidad hacia todo lo que lo envuelve. No debemos focalizarnos en un objetivo material, no se debe esperar ningún resultado concreto, sino que se debe sentir que aquello es bueno para tu finca, para ti y sobre todo para las personas que tomarán tu vino".

Muy poético pero poco mas. Sobre todo si con esa poesía se envuelve un sobreprecio.

Leer mas...

jueves, 12 de mayo de 2022

Del agua alcalina al agua hidrogenada

La pasada semana, una vez más, se me preguntó por mi opinión sobre unos aparatos (ionizadores de agua) que cuestan unos miles de eurillos y que transforman el agua de grifo en ese "milagro" terapéutico que es el agua alcalina, es decir, agua con un pH superior a 7 unidades. Sobre este asunto hay ya una entrada en este Blog que podéis leer para comprobar así que se trata de uno más de los muchos timos que pululan por la red y que tienen de protagonista a una de las sustancias químicas más importantes de nuestro mundo, el agua. Como apuntaba el final de la entrada mencionada, la producción de agua alcalina en los ionizadores lleva aparejada la génesis de pequeñas cantidades de hidrógeno en el cátodo del dispositivo electroquímico que constituye el corazón de esos aparatos, hidrógeno que se disuelve parcialmente en el agua y da lugar al agua hidrogenada. Hay que aclarar también que no hay hidrógeno en aguas embotelladas que uno puede encontrar en el mercado con pH por encima de 7 ( esto es, tan alcalinas como las que proporcionan los ionizadores).

En 1985, la clínica japonesa Kyowa, de la mano del Dr. Hidemitsu Hayashi y usando uno de esos ionizadores, comenzó a estudiar las propiedades del agua por él producida, utilizándola como bebida habitual y para la preparación de comidas de pacientes que sufrían trastornos gastrointestinales y otras patologías, pacientes que parecían experimentar con ella claras mejoras de sus dolencias. En 1995, Hayashi propuso la hipótesis de que esas mejoras se producían como consecuencia de que el hidrógeno generado en los ionizadores ejercía un activo papel de "cazador" de los radicales libres que nuestro organismo genera como consecuencia del oxígeno que continuamente estamos inspirando.

Esa hipótesis pareció confirmarse con una serie de trabajos sobre células humanas cultivadas y también sobre ratas vivitas y coleando que, a partir de 1997, fueron publicados por el grupo de otro investigador japonés, S. Shirahata, quién ajustó un poco más la hipótesis de Hayashi, viniendo a decir que lo que realmente hacía el papel de cazador de radicales libres no era el hidrógeno molecular (H2) sino el hidrógeno activo, hidrógeno monoatómico (H), que también pudiera generarse en el cátodo del ionizador. Esa idea fue utilizada enseguida por diversos fabricantes japoneses de ionizadores como parte de su marketing de venta. Sin embargo, en 2004 un artículo de un grupo de investigadores (también japoneses) desmontó la mayor parte de las hipótesis empleadas por Shirahata y sus colegas en lo relativo a la existencia de ese "hidrógeno activo".

A partir de ese momento algo cambió en el mundillo del hidrógeno como agente terapéutico, especialmente después de la publicación en 2007 y en la prestigiosa revista Nature de un trabajo del grupo del Prof. Shigeo Ohta (habéis acertado, también es japonés). Los autores estudiaban el papel curativo del hidrógeno tras inducir un estrés oxidativo en sueros de fetos bovinos y en el cerebro de ratas. Los sueros se cultivaban en un medio acuoso saturado con hidrógeno proveniente de una clásica bombona del gas y, en el caso de las ratas, las pobres inhalaban hidrógeno de similar procedencia tras provocarles una isquemia cerebral. Los resultados parecían indicar que el hidrógeno es selectivo a la hora de cazar a los radicales más dañinos y dejar intactos a otros con funciones fisiológicas en los organismos.

Desde ese artículo de Nature, la actividad investigadora en este campo se ha acelerado, con la publicación de cientos de artículos que han estudiado el posible uso medicinal del hidrógeno, administrado en muy diversas formas que van desde agua con hidrógeno proveniente de ionizadores a la inhalación de hidrógeno gas, pasando por cremas con hidrógeno, inyecciones de suero salino saturado con hidrógeno, etc. El hito bibliográfico más reciente es la publicación en 2021 de un número especial de la revista Current Pharmaceutical Design en la que bajo la supervisión del propio Ohta se publicaron 18 contribuciones sobre el papel del hidrógeno en Medicina y Biología.

Paralelamente a ese incremento de producción científica, han aparecido muchas webs que promocionan el uso del hidrógeno como herramienta terapéutica. Aunque algunas proclaman no tener ánimo de lucro, como el llamado Molecular Hydrogen Institute, de cuyo Panel Asesor forma parte el propio Prof. Ohta, la búsqueda en Google de "agua hidrogenada" o similares, devuelve muchas páginas de medicina no convencional o de venta de preparados con hidrógeno. Por ejemplo, el famoso Dr. Mercola, un partidario de la medicina alternativa y declarado antivacunas, vende un "suplemento dietético" consistente en tabletas con magnesio puro y otras cosas. Según su propaganda, una tableta adicionada a un vaso de agua proporciona un agua hidrogenada con una concentración de 8 ppm de hidrógeno, que aparece en el agua como consecuencia de la reacción del magnesio con el agua. Algo difícil pues el agua a temperatura ambiente prácticamente no reacciona con el magnesio. El artículo del enlace que os acabo de poner no tiene desperdicio. Está en inglés pero supongo que ya sabéis que ahora se puede traducir automáticamente casi cualquier página en los mas conocidos navegadores de internet.

Y ahora viene la pregunta del millón que mis lectores se estarán guardando: ¿qué opina este humilde Búho de la Ciencia que parece estar detrás de este asunto del agua hidrogenada?. Pues, por ahora, mantengo un prudente escepticismo cercano a la incredulidad. Y aquí van mis razones. Primero, y sobre todo, porque los tratamientos con hidrógeno en general y agua hidrogenada en particular parecen servir para todo, como puede comprobarse en el número especial del Current Pharmaceutical Design arriba mencionado. Da lo mismo que queramos tratar inflamaciones crónicas, protegernos contra radiaciones ionizantes, tratar desórdenes mentales, enfermedades cardiovasculares, problemas oftalmológicos, problemas derivados del estrés oxidativo de una práctica intensiva de deporte, enfermedades de piel... En la introducción que el Prof. Ohta hace de ese número especial, habla hasta de la multifuncionalidad del hidrógeno a la hora de tratar aspectos ligados al envejecimiento (Alzheimer, demencia, cáncer...)

Por otro lado, las concentraciones de hidrógeno en las diversas formas de administrarlo a los pacientes son muy pequeñas, del orden de las partes por millón (ppm), como hemos visto en las píldoras del Dr. Mercola, y el hidrógeno es, además, extraordinariamente volátil desde cualquier medio. Recordemos, por otro lado, que nuestro organismo puede producir hasta 10 litros de hidrógeno diario que, en su casi totalidad, expulsamos en las flatulencias, así que hidrógeno disponible tenemos. El Dr. Mercola argumenta que tenemos que beber agua con hidrógeno, aunque estemos produciendo mucho de él en el cuerpo, porque según un estudio japonés (jejeje) que no mencionan, cuando se produce hidrógeno continuamente tu cuerpo se habitúa a esa exposición constante. Pero los investigadores han descubierto que el gas hidrógeno es "un "modulador de señal", que funciona mejor cuando se toma de forma intermitente o se "pulsa".

Finalmente, me mosquea el que los partidarios de esta terapia sean esencialmente japoneses, ligados en muchos casos a empresas que han desarrollado los ionizadores. Y que muchos de los artículos que se citan al respecto en la literatura están publicados en revistas sin mucha relevancia (como la india Medical Gas Research) o en revistas de grupos editoriales "depredadores" que ganan dinero a costa de investigadores que tiene que hacer curriculum científico o perecer en el complicado mundo de la ciencia académica actual (como es el caso de la editorial que ha publicado el número especial arriba mencionado).

Pero como siempre os digo no me hagáis mucho caso. Soy ya un viejo desconfiado.

Leer mas...

jueves, 28 de abril de 2022

Vino ecológico

Como probablemente muchos sepáis, el símbolo que veis a la izquierda tiene que ver con alimentos reconocidos como ecológicos por la Union Europea (UE). Pero antes de seguir con el tema que da título a esta entrada, vamos a dejar claro algo que no todo el mundo conoce. Si visitáis esta web de la UE, se puede ver que el título bajo la imagen de la izquierda es "logotipo ecológico de la UE", mientras que eligiendo ver esa página en inglés o francés, el logo aparece bajo la denominación "EU organic logo" y "logo biologique de l'UE", respectivamente. Esto indica que, para la UE, ecológico, organic y biologique (o ecológico, orgánico y biológico, todos en castellano) es exactamente lo mismo. Así que procurad que no os mareen mucho usando esos tres términos. Pero vayamos a lo que interesa en esta entrada, los vinos que llevan en sus etiquetas el logo en cuestión y que cada vez son más.

Hasta 2012, ese logotipo ecológico no podía aplicarse como tal a un vino comercializado en botella porque no había una reglamentación específica al respecto para los vinos. Usando hasta esa fecha el entonces vigente Reglamento (CE) nº 834/2007, lo más que se podía poner en la etiqueta del vino era “Hecho con uvas ecológicas", es decir con uvas cultivadas respetando las normas de la agricultura ecológica. Normas que se basan fundamentalmente en la limitación o prohibición del uso de fertilizantes, herbicidas y plaguicidas, así como la prohibición del uso de transgénicos y de radiaciones ionizantes. Alternativamente, los productores que quieran que sus cultivos sean reconocidos como ecológicos, debían (y deben)  adoptar otros métodos diferentes para mantener la fertilidad del suelo y la salud de las plantas, como la rotación de cultivos, el cultivo de plantas que fijen nitrógeno en el suelo, el empleo de "abonos verdes" (estiércol, purines y otras lindezas) o la elección de técnicas y/o variedades resistentes que fomenten el control natural de plagas para reducir el impacto de las malas hierbas y de los parásitos.

En lo que se refiere a los plaguicidas empleados en el cultivo de viñas, ese Reglamento permite, sin embargo, el tradicional caldo bordelés (Bouillie bordelaise en francés), que contiene más de un 50% de sulfato de cobre con un 12% de cobre puro. Inventado,  como su nombre indica, por las gentes de Burdeos, hace más de un siglo, para combatir los hongos y bacterias que atacan los viñedos. Y el que ha dado lugar al término sulfatar, que tantas veces he oído en mis correrías por La Rioja. El cobre no es precisamente una hermanita de la caridad y basta poner caldo bordelés en Wikipedia para empezar a comprobarlo. Los agricultores ecológicos pueden emplear también insecticidas como el Spinosad, de origen “natural”, producido por la fermentación de una bacteria llamada Saccharopolyspora spinosa. El spinosad es una neurotoxina que afecta a algunos insectos y tiene efectos graves para las abejas.

En cuanto a los fertilizantes, la normativa de 2007 establece para la agricultura ecológica "la prohibición del uso de fertilizantes minerales nitrogenados", es decir todos aquellos que empezaron a fabricarse gracias a la síntesis del amoníaco que Fritz Haber y Carl Bosch introdujeron en la primera década del siglo XX y cuyos antecedentes os conté en esta entrada, una de las que más alegrías me ha dado. ¿Por qué este desapego a esos fertilizantes que han dado de comer a tantos miles de millones de humanos desde entonces y que dejaron a la altura del barro las previsiones catastrofistas de Malthus y otros?. Uno puede visitar páginas dedicadas a la promoción de la agricultura ecológica, como ésta, y encontrar frases grandilocuentes que tiene poco que ver con la evidencia científica y que ocultan que, en el fondo, las alternativas a esos fertilizantes nos retrotraen al pasado.

Más razonable es pensar que el origen de la aversión a esos fertilizantes está en su uso abusivo, por aquello de que la pela es la pela, lo que ha causado problemas medioambientales severos en aquellos sitios en los que la agricultura extensiva se ha propagado. Y tampoco hay que olvidar que la producción de amoníaco, la base de todos esos fertilizantes, consume mucha energía y produce más del 1% de las emisiones globales de CO2. Pero todo puede tener un justo término medio sin necesidad de prohibiciones que no llevan a ningún sitio. O al menos, esa es mi opinión.

Con la publicación en 2012 del Reglamento de Ejecución nº 2003 de la UE se establecieron las condiciones para que los vinos obtenidos con esas uvas ecológicas puedan certificarse, así mismo, como ecológicos y llevar en sus botellas el logo de la UE que ilustra esta entrada. En definitiva, un vino puede definirse como ecológico, orgánico o biológico cuando lo es desde el viñedo (uvas ecológicas) y hasta la bodega. En esta última y para estar de acuerdo con ese Reglamento, se deben utilizar solo productos y procesos autorizados en el mismo, tales como la clarificación del vino con bentonita (una arcilla) o albúmina de huevo (aunque, en este caso, ello hace que el vino sea rechazado por los partidarios de una dieta vegana, al ser un producto que proviene de animales). También está permitida la corrección de la acidez del vino usando ácido tartárico, una corrección interesante para un adecuado color y una buena conservación posterior. Y finalmente, también se permite la adición de sulfitos, aunque estableciendo niveles más bajos que para los vinos que no aspiren a llevar la etiqueta de ecológico. Algo que ya explicamos en más detalle aquí.

En cualquier caso, ¿tiene eso algo que ver con la calidad del vino?. Mi opinión es que no. El logo en la etiqueta sirve para buscar un nicho en el mercado y poco más. Hay que recordar que un 85% aproximadamente del vino es agua, que poca mejora ecológica tiene. Un 13% es alcohol etílico puro, un conocido neurotóxico y cancerígeno, "pecados" imposibles de solucionar con los Reglamentos de 2007 y 2012. Y el 2% restante es un cúmulo de sustancias químicas (cientos, quizás miles) que van acabando en la botella como consecuencia del terreno en el que están asentadas las viñas, la variedad de la mismas, el grado de maduración de las uvas en el momento de la cosecha, los procesos de fermentación alcohólica y maloláctica, la crianza en barrica y hasta la evolución en botella. Y sobre eso, digan lo que digan los vinateros ecológicos, la evidencia científica de que la producción ecológica pueda intervenir en esos procesos es mínima, por no decir nula.

Nota: Esta entrada es un pequeño extracto de una reciente charla titulada La verdadera Química del Vino que impartí hace unas semanas en Tolosa. En el apartado del vino ecológico me basé fundamentalmente en el capítulo 3 del libro de mi amigo JM Mulet "Comer sin miedo" de 2014. Su más reciente obra, "Ecologismo real", es igualmente recomendable en el tema que nos ha ocupado aquí.

Leer mas...

lunes, 18 de abril de 2022

Quemar o calentar tabaco

Aunque soy consciente de que alguna fiel seguidora del Blog me va a saltar al cuello, voy a seguir con la saga de entradas dedicadas a los cigarrillos electrónicos que se inició en agosto de 2008 y que, posteriormente, ha seguido con entradas en noviembre de 2013, abril de 2014 y abril de 2019. Todas ellas estaban relacionadas con esa forma de meterse nicotina al cuerpo que podemos denominar vapeo. Básicamente, una disolución de nicotina y saborizantes, se calienta con un sistema electrónico y el fumador inhala el vapor que se genera de esa manera. El que quiera más detalles que se revise las entradas antes mencionadas. Pero desde mediados de la década pasada, Philip Morris (PM) (y otras tabaqueras) se ha gastado una pasta importante en una nueva alternativa, que es la que pretendo explicar aquí.

Para empezar con una descripción aclaratoria, el nuevo dispositivo electrónico de PM, a diferencia de los vapeadores, contiene tabaco real, la misma fuente de nicotina que en un cigarrillo convencional. Pero, a diferencia de lo que ocurre en este último, el tabaco del dispositivo de PM no se quema sino que se calienta a una temperatura que no supera los 350ºC. Por el contrario, el tabaco en el extremo de un cigarrillo tradicional, una vez encendido, se quema (arde) gracias al oxígeno del aire, produciendo temperaturas por encima de 600ºC. En esas condiciones de temperatura y oxígeno se producen cientos y cientos de nuevas sustancias químicas y partículas que se sabe que tienen consecuencias dramáticas en la salud de los fumadores. La idea que subyace tras la apuesta de PM es que, si no hay combustión y la temperatura es más baja, la producción de todas esas sustancias se reduce.

En la anterior generación de dispositivos de Philip Morris para calentar el tabaco, se utilizaba un sistema como el que se ve en la figura de arriba (que podéis ampliar clicando en ella). El cigarro, más corto que uno tradicional, se coloca en el dispositivo de forma y manera que una especie de lanceta (heating blade en la figura) se inserta en la zona donde está el tabaco. Esa lanceta se calienta con el dispositivo electrónico (pila recargable incluida) y transmite el calor al tabaco, permitiendo al fumador un número determinado de caladas hasta que el dispositivo se apaga. En los dispositivos más modernos, que se han empezado a comercializar en España hace pocas semanas, el calentamiento se produce sin necesidad de la lanceta. Una pequeña lámina de metal (aluminio) está en el centro del tabaco y esa lámina se calienta por un proceso de inducción electromagnética (los de PM no se privan de tecnologías).

En cuanto al tabaco que se calienta hay que decir que, a diferencia de un cigarrillo convencional donde se usan hojas de tabaco cortadas en pedazos pequeños, el tabaco del dispositivo de PM se muele y se reconstituye en láminas o hebras como las que veis en la foto de la izquierda, obtenida tras abrir un cigarro ya utilizado y donde también se ve la lámina metálica que ha calentado el tabaco. Las hebras de tabaco de uno de estos cigarros pesan del orden de 320 mg frente a los 550-700 mg de los cigarrillos convencionales. Otros componentes del cigarrillo, que podéis ver en la figura del inicio son un filtro de polímero para enfriar el aerosol (humo) y un filtro de boquilla de acetato de celulosa que imita el aspecto del de un cigarrillo convencional. Además, un tubo también de acetato pero hueco separa la zona de tabaco y el filtro de polímero.

Todo lo anterior figura en el marketing sobre el producto de la tabaquera y, dada la mala fama de todas ellas por su gestión en tiempos pasados de las evidencias científicas que relacionaban el cáncer y el tabaquismo, puede hacer que muchos vean en estos dispositivos un último intento de esas empresas por no desaparecer por completo, ante regulaciones cada vez más exigentes en torno al tabaco. Y puede que no les falte razón.

Pero hay que contar aquí que Philip Morris recibió un importante respaldo en julio de 2020, que se ha actualizado el 11 de marzo de 2021, cuando la Food and Drug Administration (FDA) americana emitía una orden de concesión de riesgo modificado autorizando a la tabaquera la comercialización de un dispositivo, que en la orden llaman IQOS 3, como consecuencia de que existía evidencia científica de las tres aseveraciones siguientes: "Ese sistema calienta el tabaco, pero no lo quema. Esto reduce significativamente la producción de productos químicos nocivos y potencialmente dañinos. Y los estudios científicos han demostrado que cambiar completamente de los cigarrillos convencionales al sistema IQOS reduce significativamente la exposición a productos químicos dañinos o potencialmente dañinos". Esa orden de riesgo modificado es efectiva hasta el 7 de julio de 2024. Habrá que ver qué pasa después. Y, como no podría ser de otra manera, en el documento que os he enlazado, la FDA deja claro, literalmente, que esta acción no significa que este producto sea seguro o "aprobado por la FDA". No hay productos de tabaco seguros y aquellos que no los consumen no deben empezar.

Supongo que no necesito aclarar que no recibo estipendio alguno de Philip Morris por contaros estas cosas curiosas. Mas bien al contrario, es la tabaquera la que recibe mi dinero cada vez que compro un paquete de Marlboro.

Leer mas...

jueves, 31 de marzo de 2022

El cuestionado "suicidio" de los peces Nemo

El pasado 28 de febrero se hizo pública la segunda de las entregas previstas del Sexto Informe del Panel Intergubernamental del Cambio Climático (IPCC AR6 en sus siglas en inglés). Ese Sexto Informe acabará teniendo tres partes bien diferenciadas correspondientes a cada uno de los tres Grupos de Trabajo del IPCC. La primera entrega, la del Grupo I, relacionada con la Ciencia básica del Cambio Climático, apareció el 6 de agosto de 2021. La entrega del Grupo II, arriba mencionada, tiene que ver con la evaluación de la vulnerabilidad de los sistemas socioeconómicos y naturales al cambio climático. Y la entrega del Grupo III, que se producirá a lo largo de este año, tiene que ver con las opciones para mitigar el cambio climático mediante la limitación o prevención de las emisiones de gases de efecto invernadero.

Se trata, en todos los casos, de documentos prolijos de miles de páginas cada uno, no fáciles de entender por un profano (interesado) como este vuestro Búho. Por ello, al igual que en informes anteriores, mi interés suele centrarse, por aquello de mi formación química, en lo que tiene que ver con uno de los efectos atribuidos al cambio climático y que se conoce como acidificación de los océanos. Sobre el tema ya hay en el Blog una entrada hace cuatro años que podéis visitar si queréis poneros al día. Pero contada en plan resumen, si la concentración de CO2 en la atmósfera va aumentando (algo sobre lo que no hay duda alguna), la concentración en el agua de mar irá aumentando paralelamente (la ley de Henry que todo estudiante de Química ve en primer curso) y, en virtud de una serie de equilibrios químicos en los que no entraré, el pH del mar, ahora ligeramente básico (8.1) irá tendiendo a números menores, "acidificándose". Lo que puede tener variadas consecuencias de todo tipo en los organismos que viven en el mar.

Pero he de confesar que en cuanto apareció la entrega del Grupo II, me faltó tiempo para buscar las conclusiones del informe sobre una de esas posibles consecuencias de la acidificación, que tiene que ver con las alteraciones en el comportamiento de los peces cuando el pH va cambiando. Y el resultado de mi búsqueda acelerada es lo que os voy a contar en esta entrada. Tiempo habrá para ver si extraigo (y cuento) otras cosas interesantes sobre el tema de la acidificación en los próximos meses.

A principios de 2009, un grupo australiano de la Universidad de Cook, liderado por Philip L. Munday, publicaba en la revista PNAS un artículo que resumía los resultados obtenidos con peces payaso (Amphiprion ocellaris), conocidos popularmente como peces Nemo, una especie que vive en los corales. Cuando se les sometía en tanques de laboratorio a una serie de experiencias a pH más bajos que los que se dan ahora en el mar (entre 7.6 y 7.8), pero que potencialmente podrían darse en 2100 o incluso más adelante, se obtenían resultados inquietantes. Ya el propio resumen del artículo mencionado explicaba que el pH a esos niveles perjudicaba la discriminación olfativa de esos peces en estado larvario y hacía que esas larvas se sintieran fuertemente atraídas por una serie de moléculas químicas producidas por sus propios depredadores (una especie de suicidio inducido), algo que no ocurría a los niveles actuales del pH. El resumen del artículo acababa alertando de que si eso ocurría con diversas especies habría consecuencias potencialmente profundas para la diversidad marina y, consiguientemente, para las pesquerías. El grupo ha publicado desde entonces una veintena de artículos sobre ese tema y sus principales conclusiones fueron incluidas en el Quinto Informe del IPCC, hecho público en 2014.

Pero en enero de 2020 y en la revista Nature, otro grupo australiano, este de la Universidad Deakin en Geelong, liderado por Timothy Clark, publicaba un artículo en el que daba cuenta de que, tras intentar repetir durante tres años los experimentos de laboratorio del Munday y colaboradores, ello les había resultado imposible. El título de este nuevo artículo no podía ser más explícito a la hora de llevar la contraria al primero de la serie de Munday. Traducido al castellano decía: La acidificación de los océanos no afecta al comportamiento de los peces de arrecife de coral. La polvareda científica que se generó fue de órdago y tuvo eco importante en las principales revistas científicas. Véase, por ejemplo, como lo contaba la prestigiosa Science.

Así que en cuanto pude descargarme la entrega del Grupo de Trabajo II me fui directamente al índice para tratar de encontrar qué partido había tomado el IPCC al respecto. Pues bien, perdida en el apartado 3.3.2, encontré la respuesta a mis afanes: En el caso de los peces, los estudios de laboratorio sobre las consecuencias sensoriales y de comportamiento de la acidificación del océano mostraron resultados mixtos. (Rossi et al., 2018; Nagelkerken et al., 2019; Stiasny et al., 2019; Velez et al., 2019; Clark et al., 2020; Munday et al., 2020). Los dos últimos artículos mencionados en la lista de autores y años (los subrayado son míos) hacen referencia al publicado por Clark y colaboradores en Nature y la respuesta de Munday y los suyos en la misma revista, defendiendo la veracidad de sus resultados con uñas y dientes.

Estaréis conmigo en que llamar resultados mixtos a conclusiones completamente antagónicas es de una diplomacia vaticana, impropia de una genuina controversia científica. Como se suele decir siempre al final de los artículos, se necesitan más estudios....

Leer mas...

martes, 22 de marzo de 2022

El microscopio bajo el que crecen los polímeros

Estos dos grandes amigos que se fotografiaron como tales en el año 2000, en la inauguración del Donostia International Physics Center, son Pedro Miguel Etxenike, fundador de ese Centro y su actual Presidente y Heinrich Rohrer, Premio Nobel de Física de 1986 "por su diseño del microscopio de efecto túnel". Rohrer, que falleció en 2013, era un visitante bastante asiduo de Donosti y del DIPC, un científico vital y divertido que en los sucesivos espectáculos sobre ciencia (Passion for Knowledge), organizados por el DIPC desde 2005, lo mismo te daba una charla multitudinaria que se reunía con estudiantes de Secundaria a contarles sus vivencias o a comerse un bocata. Hasta el Búho tuvo el honor de compartir más de una cerveza con él.

Sin entrar en detalles de la física cuántica en la que se basa, podemos decir que el microscopio de efecto túnel (STM) permite "ver" superficies y sus detalles hasta nivel de los átomos que la componen. Y he puesto la palabra ver entre comillas porque un STM no es un microscopio al uso, ya que no nos deja ver esa superficie cuando colocamos nuestro ojo en un ocular. Todo es mucho más complicado pero, al final, podemos obtener una imagen de la superficie en cuestión con la citada resolución atómica. Y lo que es tan importante o más, podemos además de ver "manipular" esos átomos individualmente para construir estructuras sobre una superficie.

Para ilustrar a los no entendidos sobre la importancia del asunto, científicos de IBM, la compañía para la que trabajaba Rohrer, fueron capaces en 1989 de mover adecuadamente 35 átomos individuales de un elemento químico llamada xenon sobre una superficie fría de níquel y "escribir" de esa forma el logotipo de la compañía. También el DIPC hizo lo mismo años más tarde, obteniendo un vídeo en el que se movían y organizaban átomos de plata y oro sobre una superficie de cobre. Una foto del resultado final la podéis ver abajo a la derecha.
En 2013, IBM publicó un vídeo en YouTube en el que encadenando una serie de fotogramas uno detrás de otro se construyó la que se denominó la película más pequeña del mundo, titulada "Un chico y su átomo", moviendo en este caso moléculas de monóxido de carbono (CO, un átomo de carbono unido a uno de oxígeno) sobre una superficie de cobre. El video, de poco más de un minuto, lo podéis ver en este enlace. Si no lo habéis visto nunca merece la pena. Cada pareja con dos pequeñas esferas es una molécula de CO.

Desde que Rohrer diseñó el primer STM, se ha empleado en multitud de aplicaciones y ha constituido una herramienta fundamental en lo que denominamos Nanotecnología. Pero el pasado día 15 de marzo (mi septuagésimo cumpleaños para más señas) mi amigo Fernando Gomollón-Bel, al que hablando de años le saco casi cuarenta, publicaba en la revista Chemistry World la reseña de un artículo científico que a mi me resultó fascinante, probablemente por el sesgo que me acompaña para todo lo que tiene ver con polímeros y plásticos.

Hace ya algún tiempo, os contaba en este Blog una historia de espionaje entre dos laboratorios en los que se generó una de los más importantes logros en el mundo de los plásticos. Se trata de la llamada polimerización Ziegler-Natta que permitió obtener, en los años cincuenta y en condiciones muy benignas de temperatura, dos de los polímeros que más se venden, todavía hoy, en el mundo: el polietileno de alta densidad (HDPE y el polipropileno isotáctico (i-PP). La base de estos procesos está en el empleo de unos catalizadores a base de titanio y aluminio, en cuya superficie los polímeros en cuestión empiezan a crecer en largas cadenas al engancharse una tras otra las unidades que se repiten en ellos, igual que se adicionan las cuentas de un collar.
Pues bien, en el artículo que Fernando referencia y utilizando un microscopio de efecto túnel se ha grabado un vídeo en el que, sobre una superficie de carburo de hierro, se puede ver a diferentes unidades de etileno adicionándose una tras otra, hasta constituir cadenas de polietileno. Las cadenas que se forman son pequeñas, no van más allá de diez o doce unidades, porque para conseguir imágenes de calidad adecuada los investigadores han tenido que usar determinados trucos, como parar la reacción de cuando en cuando, además de un cierto photoshopping. Pero al final, el trabajo demuestra que una primera unidad se ancla sobre el sustrato y posteriormente otras se las arreglan para irse enganchando a pequeñas cadenas en crecimiento. De forma similar a la que yo utilizaba para explicar a mis estudiantes, durante años, la polimerización Ziegler-Natta del polietileno y el polipropileno.

Tengo que confesaros que, sin quererlo, Fer me ha hecho un buen regalo en este especial cumpleaños.

Leer mas...

lunes, 28 de febrero de 2022

Alcohol: riesgos y un cierto escepticismo de viejo

Estas últimas semanas, ha habido una cierta polémica en los medios cuando el Parlamento Europeo tenía que votar un informe encargado sobre el cáncer en el que, en uno de sus párrafos, abogaba por imponer una serie de medidas drásticas para ir intentando que las bebidas alcohólicas quedarán proscritas de nuestras vidas. Finalmente, y tras una propuesta del Grupo Popular Europeo, el informe acaba matizando que solo una ingesta abusiva o dañina es perjudicial. Previamente el Comité Europeo de Empresas del Vino (CEEV, parte interesada donde las haya) sostuvo en su labor de lobby que la propuesta original era “engañosa y está basada en un único estudio duramente criticado por la comunidad científica debido a sus fallos de metodología y análisis”. El mencionado estudio es el famoso meta análisis publicado en la revista The Lancet en 2018 y que generó unos encendidos debates en los medios y las redes sociales. En esa época no quise entrar al trapo, aunque me sirvió para aclarar un poco mi lista de Twitter.

Ya desde el principio del artículo, en el apartado interpretación de resultados, los autores entienden que "el riesgo de mortalidad por todas las causas, y de cánceres en particular, aumenta con el aumento de los niveles de consumo, y el nivel de consumo que minimiza la pérdida de salud es cero. Estos resultados sugieren que las políticas de control del alcohol podrían necesitar ser revisadas en todo el mundo, reorientándose en los esfuerzos para reducir el consumo general a nivel de población".

Como ya he dicho, el artículo es un meta análisis, lo que significa que en él se analizaba una amplia información contenida en otros artículos, fuentes estadísticas y datos gubernamentales de muchos países. Con ella se estudiaba la influencia del alcohol en un total de veintitres enfermedades diferentes, analizando el riesgo de consumirlo en cantidades que ellos evaluaban en forma de lo que denominaban standard drink, equivalente a beber una cantidad de una bebida alcohólica que contenga 10 gramos de alcohol puro y que, a partir de ahora, yo llamaré Unidad de alcohol puro. De forma y manera que una botella de 750 mililitros de un vino con 13,5% de alcohol contiene algo más de ocho de esas unidades, una botella de vodka 24 y una cerveza de 330 mililitros, con un bastante habitual 5,5% de alcohol, suponen un poco menos de 1,5 unidades de alcohol puro.

Los resultados globales del estudio se traducen en la Figura 5 del mismo, que yo he utilizado como ilustración de esta entrada y que podéis ver mejor clicando en ella. Se representa ahí el llamado riesgo relativo frente al número de unidades de alcohol puro consumidas diariamente. El riesgo relativo es el cociente entre el número de personas bebedoras de alcohol que pueden sufrir una cierta enfermedad y el número de personas que pueden sufrirla siendo abstemios. O dicho de otra forma, un riesgo relativo de 2 quiere decir que los bebedores tienen el doble de posibilidades que los abstemios de sufrir una de esas 23 enfermedades.

Para explicar algo más los datos, en un resumen realizado por la propia revista The Lancet, se puede leer que "Al comparar los que no toman bebida alguna con los que ingieren una Unidad de alcohol al día, el riesgo de desarrollar uno de los 23 problemas de salud relacionados con el alcohol fue un 0,5% mayor en los que bebían, lo que significa que 918 de cada 100.000 personas de 15 a 95 años que bebieron una unidad de alcohol al día desarrollarían una afección, pero 914 de cada 100.000 personas que no beben la desarrollarían igualmente". Es decir, matizo yo, una diferencia de 4 personas por cada 100.000. El riesgo relativo, resultado de dividir 918 entre 914 es prácticamente 1 (1,004).

Usando esa misma fuente indicada arriba, el número de personas que desarrollarían un problema de salud bebiendo dos unidades de alcohol diarias serían 977 personas por cada 100.000, 63 más que los abstemios (914), con un riesgo relativo de 1,07 (977/914). En el caso de las cinco unidades diarias de alcohol nos iríamos a 1252 por cada 100000 frente a los 914 por 100000 de los abstemios, un 37% más y un riesgo relativo de 1,37 (1252/914). Finalmente para tener un riesgo relativo de 2, habría que irse casi a las 9 unidades de alcohol, más de una botella diaria de vino.

En el estudio queda también claro que, en enfermedades como las cardíacas isquémicas o la diabetes, el riesgo relativo es inferior a uno (es decir, los bebedores tendrían menos probabilidades que los abstemios de sufrir ese tipo de enfermedades) hasta valores de tres o cuatro unidades de alcohol diarias, lo que indicaría un cierto efecto protector de beber en ese tipo de dolencias. Cosa que no pasa en la mayoría de las enfermedades ligadas al cáncer. El que esté interesado en esos resultados puede consultar la figura 4 del trabajo original mencionado al principio.

Y esto es lo que hay y que cada uno eche sus cuentas y haga su análisis de riesgos. Conducir un coche tiene riesgos clarísimos de sufrir percances (incluida la muerte) y muchos conducimos todos los días y no solo por necesidad. El Búho ha tenido varios casos cercanos de abuso de bebidas alcohólicas con resultados desastrosos y, por tanto, lo considera a menudo cuando tiene una copa de vino en la mano. Tampoco quiero decir con este análisis que haya que recomendar el beber sobre la base de que puedan prevenirse ciertas enfermedades. Pero uno está ya en edad de no creerse todo lo que le cuentan, sobre todo si tiene posibilidad de leer las fuentes con un poco de atención y sacar sus propias conclusiones.

No quiero terminar sin apuntar que hoy hace 16 años comencé a escribir este Blog.

Leer mas...

domingo, 20 de febrero de 2022

Microplásticos y tarjetas de crédito


Hace ya años que no veo informativos de la TV por una serie de razones que no vienen al caso. Eso hace que no me entere de algunas de las cosas que publicitan. Como pasó la pasada semana, con una noticia relativa a un estudio del CSIC en el que se analizaban los posibles peligros en nuestra flora intestinal de los microplásticos que ingerimos en nuestra dieta. Un amigo, Javier Ansorena, ocasional autor en este Blog y fiel seguidor, me alertó de que en el Telediario de TVE, ilustrando la noticia, se habló de que nos metemos al coleto TODAS LAS SEMANAS una cantidad de microplásticos que equivale al peso de una tarjeta de crédito (cinco gramos más o menos). Algo que es un poco viejuno y de lo que ya hablamos en este Blog hace casi tres años. Pero que ahora vuelve a aflorar merced al estudio arriba mencionado.

Firmado por una serie de investigadores del Instituto en Ciencias de los Alimentos, CIAL, un Centro Mixto entre el CSIC y la Autónoma de Madrid, su objetivo declarado es "evaluar los riesgos potenciales de los microplásticos a nivel digestivo", para lo que se simuló el paso de una dosis de polietilentereftalato (PET, el plástico de las botellas de agua) a través del tracto gastrointestinal. Los autores utilizaron para esa simulación estudios in vitro y una especie de reactores que "recrean las diferentes regiones del tracto digestivo en condiciones fisiológicas". Debe quedar claro, por tanto, que no se usan humanos, excepto para extraer de las heces de dos voluntarios los microorganismos a los que se somete a una dosis de microplásticos a base de PET.

No pretendo analizar el artículo en cuestión, que para eso ha sido sometido a una revisión por pares antes de su publicación y yo tengo poco de par en estas cosas de los bichos intestinales. Solo diré que, de lo que se pueda concluir de esos ensayos a lo que ocurre en mi tracto gastrointestinal, hay buen trecho. Y, sobre todo, que tengo un problema serio con la dosis de PET elegida para realizar los ensayos en cuestión, a la vista de la más reciente (y para mi fiable) bibliografía. Los autores seleccionan esa dosis tomando como base lo establecido en un artículo publicado en octubre de 2020.

Dicho artículo está firmado por cuatro investigadores de las australianas Universidades de Newcastle y Macquary. Un quinto autor es Simon Attwood que, desde hace años, ha sido el Director de la filial en Singapur del Fondo Mundial para la Naturaleza (WWF, la que conocíamos antes como Adena en España), una de las más importantes ONGs del mundo, con un claro activismo contra los plásticos. De hecho, en los agradecimientos del artículo, se dice expresamente que el proyecto fue encargado por el Fondo Mundial para la Naturaleza (WWF) - Singapur, que proporcionó financiación parcial para la investigación. Resultados similares pero con mucho menos detalle se presentaron antes en un folleto elaborado por WWF en el que, en uno de los titulares resaltados desde el principio, aparecía algo que desde entonces se ha difundido en muchos medios y redes sociales: nos comemos el equivalente al plástico de una tarjeta de crédito (5 gramos) cada semana. Y esa misma mítica cifra vuelve a aparecer en el artículo de octubre de 2020 arriba mencionado y es la que ha usado el Grupo del CSIC/UAM en sus simulaciones.

Son varias las entradas que he publicado en este Blog sobre microplásticos, que se pueden ver escribiendo esa palabra, con acento, en el buscador de arriba a la izquierda. En las publicadas en el verano de 2019 hice referencia a la figura del Profesor Albert A. Koelmans de la Universidad de Wageningen en Holanda, quien además de haber publicado muchas contribuciones científicas sobre el tema, coordinó un informe publicado en 2019, encargado por la Unión Europea a la denominada SAPEA (Science Advice Policy from European Academies), en el que se abordaban los aspectos estrictamente científicos del tema que nos ocupa, de cara a la toma de decisiones políticas para paliar el problema. Pues bien, ese mismo Koelmans es el autor de un nuevo trabajo publicado en marzo de 2021, en el que, entre otras cosas, se trata de evaluar la masa de microplásticos ingerida per cápita y día por niños y adultos.

Los resultados de ese trabajo están muy lejos de la pretensión de que nos podamos comer una tarjeta de crédito semanalmente (lo que supondría unos 700 miligramos por persona y día) que, todo hay que decirlo, es la cantidad que ingeriríamos en el peor de los escenarios posibles considerados por el grupo financiado por la WWF. La incertidumbre en este tipo de evaluaciones es muy alta, dada su dificultad. Para daros una idea, la conclusión de Koelmans y colaboradores, en el caso de los niños, es que pueden ingerir (por persona y día) desde 7.5 miligramos hasta menos de una millonésima de miligramo, con un valor medio estimado de 0.0002 miligramos. Incluso seleccionando en estos datos el peor escenario de los posibles (7.5 miligramos por persona y día) eso es casi cien veces menos que los 700 que corresponderían a la tarjeta semanal. O, lo que es lo mismo, no comeríamos una tarjeta por semana sino una tarjeta cada dos años.

Y no debemos olvidar que tanto en el artículo financiado por la WWF como en el de Koelmans y colaboradores, estamos hablando del peor de los escenarios y con una gran incertidumbre en la ingesta real. Por ejemplo, en el caso del trabajo de Koelmans si, en lugar del peor escenario posible, cogiéramos la media del valor estimado para la ingesta en niños (0.0002 miligramos por persona y día), necesitaríamos toda una vida de 68 años para ingerir una cantidad de microplásticos que pesen como la tarjeta de marras.

Voy a pensar que a los investigadores del CSIC se les había escapado el reciente artículo de Koelmans antes de aparecer la nota de prensa que anunciaba el suyo. Pero incluso en este caso, recurrir al icono de la tarjeta de crédito como reclamo para publicitar su artículo, cuando ellos saben que ese no es el dato más representativo del estudio de la WWF que ellos usan, me parece un ejemplo más de la creciente tendencia entre científicos y Universidades de usar un alarmismo sin fundamento para promocionarse en los medios y redes.

Leer mas...

lunes, 31 de enero de 2022

PCR y RCP

Cada uno de los dos acrónimos que aparecen en el título dan lugar al otro si se leen al revés. Es lo que en términos lingüísticos se conoce como semipalíndromos o bifrontes. El primero de ellos (PCR) está muy de moda con la pandemia que nos asola. No voy a entrar en muchos detalles sobre él porque, entre otras cosas, cuando yo estudiaba Química, la Bioquímica no estaba en el Plan de Estudios y siempre ha sido una de mis carencias. Pero sí puedo decir que PCR hace referencia a una técnica por la que el genoma del malvado virus, en forma de ADN, se amplifica mediante la Reacción en Cadena de la Polimerasa (de ahí el acrónimo PCR en inglés). Cuando una célula cualquiera se divide duplica su ADN gracias a una enzima, la ADN polimerasa. La PCR es un proceso diseñado para repetir esta síntesis cíclicamente en un tubo de ensayo hasta conseguir multiplicar (o amplificar) millones de veces el ADN que hemos extraído del contagiado, lo que permite detectar la presencia del virus rápida y eficazmente.

Lo de RPC es una cosa bien distinta, que tiene que ver con las cosas del clima. Este acrónimo toma sus iniciales del término en inglés Representative Concentration Pathway o, en castellano, Trayectoria de Concentración Representativa, un nombre ciertamente oscuro en primera instancia pero que espero poder aclarar debidamente.

Los dos últimos informes (el Quinto y el Sexto) del Panel Intergubernamental del Cambio Climático (IPCC) contienen proyecciones a futuro, realizadas mediante modelos climáticos, sobre el impacto del calentamiento global que se viene observando en una serie de variables del clima de aquí a 2100. Para establecer esas proyecciones, los modelos necesitan definir la posible evolución de las emisiones a la atmósfera del CO2 y otros gases de efecto invernadero hasta esa fecha y, consiguientemente, el progresivo aumento de la concentración de esos gases en la misma. Para ello plantean diferentes escenarios posibles, cada uno de ellos con una evolución determinada de las concentraciones de CO2 en la atmósfera hasta el final de este siglo.

En el Quinto Informe del IPCC (publicado en 2014) se introdujeron así cuatro posibles escenarios (o posibles trayectorias de la concentración de gases de efecto invernadero) denominados RCP 2.6, RCP 4.5, RCP 6 y RCP 8.5, donde el número tras el acrónimo viene a dar una idea del previsible calentamiento de la Tierra en el 2100 en vatios por metro cuadrado. La gráfica que ilustra esta entrada (y que podéis ampliar clicando en ella) presenta esos escenarios. Los números 2.6, 4.5, 6 y 8.5 están escogidos un poco arbitrariamente para representar así diferentes grados de calentamiento en función de las concentraciones de gases de efecto invernadero que se vayan acumulando. De hecho, en la literatura más reciente se han usado otros como los RCP 1.9, RCP 3.4 y RCP 7.0.

Desde ese año 2014, muchas de las proyecciones a futuro que hayáis ido leyendo en los medios y las redes están basados en el escenario RCP 8.5 que, básicamente, asume que las emisiones van a seguir al ritmo actual (escenario BAU o business as usual, suelen decir los expertos). Pero a medida que se fue aproximando la fecha de la aparición del Sexto Informe del IPCC (agosto de 2021), empezó a estar claro que los científicos implicados se estaban replanteando el asunto de los diferentes escenarios posibles. Por solo poner un ejemplo, en este artículo publicado en Nature hace ahora casi dos años exactos, firmado por dos científicos (Hausfather y Peters) que han tenido un papel significado en la elaboración del Sexto Informe, queda claro que los escenarios RCP 8.5 y el RCP 7.0 son considerados "altamente improbable" o "improbable", respectivamente. Mientras, otros como el RCP 6.0 o el RCP 4.5 se consideran más probables. Este cambio de opinión no ha pasado desapercibido para otras grandes revistas científicas, como es el caso de Science.

Todo esto tiene su repercusión en las proyecciones que los modelos hagan para 2100 en cosas como las temperaturas de la Tierra o los océanos, el nivel del mar, etc. Por ejemplo, el escenario 8.5 proyecta una subida de temperatura de cinco grados centígrados de aquí a fin de siglo, mientras el 4.5 deja esa subida en la mitad. El RCP 1.9, por otro lado, sería el escenario deseable para alcanzar los objetivos de los Acuerdos de París. Y algo similar ocurre con la subida del nivel del mar, previsible en una situación en la que los hielos sobre los continentes (glaciares, Groenlandia y la Antártida) se van fundiendo al subir la temperatura y, además, esa temperatura más alta dilata el agua líquida resultante. Para los mismos escenarios que acabo de mencionar en el caso de la temperatura, la Tabla 9.9 del capítulo 9 del Sexto Informe del IPCC recoge subidas del nivel del mar (en 2100) de 38 cm en el escenario RCP 1.9, 44 cm en el RCP 4.5 y poco más de un metro en el caso del RCP 8.5.

El asunto del aumento del nivel del mar siempre me ha resultado interesante. No en vano vivo a escasos 400 metros de La Concha y cuando hay mareas vivas el arenal desaparece. Si se tienen en cuenta las medidas registradas en los mareógrafos más próximos a Donosti, localizados en Santander, en San Juan de Luz y en Brest, Bretaña (aunque algo más lejano es el que más datos tiene, desde 1805), el nivel del mar en mi pueblo ha subido en el último siglo unos 20 centímetros, a una velocidad prácticamente constante de 2 mm/año aunque, a nivel global, las últimas medidas con satélites parecen indicar un valor superior (3.7 mm/año). Es decir, que de aquí a 2100, el agua en La Concha puede subir en una horquilla entre 16 y 30 centímetros.

El pasado 26 de octubre, el Diario Vasco informaba que "Euskadi se prepara para una subida del nivel del mar de hasta un metro". Algo que no era sino el fiel reflejo de la presentación pública, unos días antes, del Plan de Transición Energética y Cambio Climático del Gobierno Vasco. En la página 19 de ese Plan se establecen índices de riesgo para cuatro amenazas climáticas, entre ellas las inundaciones debidas a la subida del nivel del mar en ciertas zonas de Euskadi. Pero en el título de la gráfica ilustrativa de esos índices de riesgo, se dice expresamente que están obtenidos “a partir de proyecciones del escenario RCP 8.5".

Uno podría pensar que nuestro Gobierno se quiere poner en plan muy previsor y prefiere el peor y más improbable de los escenarios (también el más costoso de remediar). O, pensando mal, que no les ha dado tiempo o no han querido adecuar el Plan a lo que en agosto ya aparecía en el Sexto Informe del IPCC.

A uno ya no le quedan muchos años para comprobar qué escenario va a funcionar mejor, pero mientras mis neuronas me dejen seguir el asunto voy a estar atento al tema.

Leer mas...

lunes, 17 de enero de 2022

Impresoras 3D en la cocina

Hace poco, en un episodio de esos que llaman obsolescencia programada, un mando de la secadora de mi suegra se rompió. Tenía veinte años, así que tampoco está tan mal, pero era solo un mando. Y fue imposible encontrar en los almacenes de repuestos más conocidos de la ciudad un mando de recambio. En esas estábamos, abocados a cambiar la lavadora, cuando se nos ocurrió recurrir a un amigo que, desde que se jubiló, ha dedicado una parte importante de su tiempo a fabricar todo tipo de objetos con una impresora 3D. Y, dicho y hecho, en pocas horas teníamos una pieza idéntica a la fenecida y ahí sigue la lavadora funcionando como antes. Pero mi sorpresa fue grande cuando, al contar la anécdota a gente de nuestro entorno más próximo, constaté que muchos de ellos no sabían qué eran ni para qué servían las impresoras 3D.

Según una adaptación algo libre de la página en inglés de Wikipedia sobre la impresión 3D, el proceso lleva a cabo la construcción de un objeto tridimensional, partiendo de un modelo digital del mismo almacenado en un ordenador. El término "impresión 3D" se refiere, en realidad, a diferentes procesos en los que un material se deposita, une o solidifica bajo el control de un software informático para crear una pieza. En el proceso mas extendido en el mercado, el material (que puede ser un plástico, un líquido o granos de polvo fusionados) se va sumando capa por capa. Un ejemplo sencillo de impresora 3D es la que se ve en la foto que ilustra esta entrada, en el que un hilo de plástico rosa que se ve a la izquierda, se pasa por la boquilla del centro, donde el plástico se funde, y se va depositando de abajo arriba, con movimientos controlados de esa boquilla hasta dar forma a la Torre Eiffel. A medida que el plástico fundido se deposita, se enfría y solidifica. Si después de mis nunca bien ponderadas explicaciones no lo habéis entendido del todo, podéis ver este video.

Todo esto viene como preámbulo porque, a mediados de diciembre, la revista de la American Chemical Society ACS Central Science publicaba un artículo de Alla Katsnelson titulado "Las impresoras 3D entran en la cocina", que me voy a permitir resumir para los más cocinillas de mis seguidores. La autora comienza su relato contando que los militares americanos están recurriendo a las impresoras 3D para preparar raciones específicas para sus soldados. Al mismo tiempo, sus laboratorios especializados están investigando los desafíos a los que enfrentarse para hacer de esta herramienta algo más versátil en usos gastronómicos. Cosa que, como todos intuiréis, no es fácil, sin más que comparar las diferencias entre usar un plástico para fabricar objetos (como hace la impresora del vídeo arriba citado) y usar alimentos para fabricar raciones para un soldado o un cliente de un restaurante.

Y eso es lo que fue constatando desde principios de este siglo un tal Hod Lipson, ingeniero de robótica de la Universidad de Columbia, que la autora del artículo señala como "uno de los primeros en explorar la impresión 3D con alimentos". Al principio, la mayoría de las impresoras solo podían fabricar objetos tridimensionales con un solo material pero Lipson y su grupo necesitaban imprimir piezas constituidas por varios materiales. Y para calibrar el funcionamiento de su impresora, usaron algunos "materiales" baratos y accesibles con los que la máquina trabajaba razonablemente bien, como chocolate, algunos tipos de queso o masa para galletas. Y a partir de los resultados que fueron obteniendo, la linea de impresión de alimentos tomó su propio cuerpo en el laboratorio de Lipson que, en 2006, lanzó una impresora de código abierto para permitir que académicos y profesionales exploraran las posibilidades de la técnica.

Una de las principales diferencias entre usar como material de partida un plástico o sustancias que vayamos a comer está en que el primero es fácil de fundir al entrar en la boquilla para luego salir, cual churro viscoso pero líquido, de una forma controlable. Ajustar la viscosidad del churro emergente (y por tanto su velocidad de salida) no es un problema grave para expertos en Reología de plásticos como los que siempre ha habido en mi Departamento. Pero el churro de plástico solidifica al enfriarse y proporciona estabilidad dimensional a la figura que se ha fabricado con él. Conseguir eso mismo con un puré de zanahorias, como el que se usa en la foto que ilustra el artículo de la Katsnelson, es ya otro asunto. Me imagino que implicará el uso de aditivos que le den, al menos, una cierta consistencia de gel, pero no tengo ni idea.


Aún y así, sorprenden algunos de los resultados que se están consiguiendo. En esta moda de reproducir hamburguesas y bistecs (hasta en Donosti tenemos una empresa que lo hace a partir de células madre de animales), Alla Katsnelson cita a una compañía israelí cuyo nombre lo dice todo, Redifine Meat, que está explorando como reproducir con una impresora 3D las fibras musculares, las inclusiones de grasa y el tejido conectivo de una pieza de carne, usando solo fibras vegetales. Y el resultado que aparece en la foto de arriba parece convincente.

Como siempre digo en estas cosas ultranovedosas, ver venir...

Leer mas...

Powered By Blogger