martes, 22 de abril de 2025

Polímeros y superficies de las bolas de golf


Tanto si se trata de golfistas profesionales como de golfistas aficionados como un servidor, los últimos golpes dentro de esa delimitada superficie (o green) donde se coloca la bandera que marca el fin de cada hoyo, son determinantes. En el caso de los profesionales para ganar torneos y dinero y, en el caso de los aficionados, para salir con la moral más alta de cara al siguiente día que juguemos o ganarle a un compañero de partida una cerveza. Esta semana, diversos medios se han hecho eco de una noticia que, en teoría, viene a mejorar los resultados en esa superficie en torno al hoyo. Y de eso va esta entrada, una nueva versión de otra que ya tiene diecinueve años y que dediqué, sobre todo, a la historia de los materiales que constituyeron y constituyen las bolas de golf. La versión 2025 de esa vieja entrada se centra en los materiales que han formado y forman parte de la superficie externa de las bolas y que, como los que constituyen hoy el interior, son polímeros.

La historia de la relación entre bolas de golf y materiales poliméricos arranca a mediados del siglo XIX, cuando irrumpen en Occidente los cauchos naturales que, como seguro sabréis, son también polímeros o cadenas constituidas por la repetición de una unidad o monómero. Antes de ello, las bolas prehistóricas fueron de cuero, rellenas de plumas, como las que los romanos usaban en un juego llamado paganica. Muchos siglos después, los primeros jugadores escoceses golpeaban bolas de madera maciza, aunque en algún momento del siglo XVII recogieron el testigo de las primitivas bolas de plumas, solo que ahora sometían a las mismas a un proceso en agua hirviendo antes de usarlas como relleno (las llamadas bolas featherie). Pero, como decía arriba, hacia 1850, con la popularización de los cauchos naturales en diferentes ámbitos, entra en escena la bola denominada gutty. Un diminutivo de un árbol de origen tropical llamado gutapercha que, cuando se hacen incisiones en su tallo, el árbol trata de curar esa herida exudando un látex que, convenientemente manejado, genera una goma elástica que se puede enrollar hasta formar una bola maciza. Esas bolas (las gutties) marcaron un antes y un después en la historia del golf, no sólo por las mayores distancias alcanzadas sino porque eran prácticamente indestructibles.

A finales del siglo XIX (1899) Coburn Haskell y Bertram Work, un empleado de la empresa de caucho Goodrich de Ohio, patentaron la bola Haskell, el precedente más próximo de las actuales bolas de golf. Fabricadas en torno a un núcleo sólido (generalmente de madera o de caucho vulcanizado y duro), ese núcleo se envolvía con hilos de otro caucho natural derivado, en este caso, del árbol denominado Hevea Brasiliensis. Para darle el aspecto final se recubría el conjunto con una capa final de la ya mencionada gutapercha o de otro caucho similar, derivado de un tercer árbol tropical llamado balata. Durante mucho tiempo, incluso cuando yo empecé a jugar en los 90, balata era sinónimo de bolas de calidad, casi legendarias.

Desde tiempos de las gutties era obvio que cuando la superficie se deterioraba y no era lisa del todo, la bola volaba mejor, con lo que los introductores de la bola Haskell ya la dotaron de surcos o deformaciones superficiales de forma deliberada, precedentes de los actuales hoyuelos o dimples (como los que se ven en la figura que ilustra esta entrada) que contribuyen a la aerodinámica de la bola, reduciendo la resistencia al aire cuando vuelan, al crear una capa de aire turbulento alrededor de la bola. Por otro lado, ayuda a generar una mayor sustentación en el aire, debido al denominado efecto Magnus cuando la bola gira. Eso hace que una bola bien golpeada pueda volar más alto y más lejos. Cosas de la Física.

A finales de los años 50, la compañía DuPont desarrolló un tipo de copolímero a base de etileno y ácido acrílico. Neutralizando el ácido con hidróxido sódico se obtuvo un material bautizado como ionómero que, vendido bajo el nombre comercial de Surlyn, sigue todavía en el mercado para múltiples aplicaciones. Entre esas aplicaciones, el Surlyn ha encontrado un nicho de negocio como material de esa superficie externa de las bolas de golf. Cuando las vigentes cubiertas de balata se cambiaron por otras de Surlyn los resultados fueron espectaculares, no solo en las distancias alcanzadas sino en el control de los golpes a cortas distancias, porque permitían el control del retroceso de las bolas (spin), una vez tocado el green. En los ochenta y noventa, estuve suscrito a una sección del denominado Chemical Abstracts Service que, cada quince días, me hacía llegar una especie de revista en la que se listaban los títulos, autores y resúmenes de todos los artículos científicos y patentes recientemente publicados sobre materiales poliméricos. En cada ejemplar, era normal encontrar unas cuantas patentes sobre nuevas superficies para bolas de golf, casi todas a base de ese copolímero de etileno y ácido acrílico, pero cambiando ligeramente la composición del copolímero o neutralizando el ácido acrílico con cationes diferentes al sodio habitual del Surlyn primitivo, como los de magnesio o zinc.

Desde los inicios del siglo XXI, se empezaron a popularizar, sobre todo en las bolas más caras, las superficies a base de poliuretano termoplástico. Aunque se introdujeron en los años 80, tuvieron que vencer ciertos obstáculos antes de poder rivalizar con las cubiertas a base de Surlyn, como su mayor fragilidad y su dificultad para el moldeo. Resueltos esos problemas, hoy todas las grandes marcas tienen su gama alta a base de superficies de poliuretano. Las ventajas que se suelen aducir sobre las de Surlyn es que generan más efecto retroceso (spin) en las distancias cortas, mejoran la sensación en el impacto y, en línea con lo que sigue a continuación, ofrecen mayor control en el green.

La noticia a la que hago referencia al principio y que ha motivado esta entrada, tiene que ver con un trabajo que se ha presentado en la reciente reunión de primavera de la American Chemical Society (ACS) celebrada en San Diego entre el 23 y el 27 de marzo. En esa comunicación, un científico y empresario ha dado a conocer un recubrimiento aplicable a la superficie de las bolas de golf que, según él, puede resultar relevante para los golfistas de todos los niveles. Un problema a la hora de ajustar el golpe que pueda acabar con la bola en el interior del hoyo es que, a veces, la hierba de la superficie del green está húmeda por el rocío de la mañana o una lluvia reciente (algo bastante habitual en mi campo donostiarra) mientras que, en otros, la hierba de la superficie está seca por calor o porque no ha llovido o no se ha regado convenientemente. En estos últimos, a igualdad de fuerza proporcionada con el palo a la bola, ésta corre más que en los greenes de superficie húmeda, haciendo complicada y muy variable la estrategia que el jugador tiene que usar en esos golpes finales.

El autor de la comunicación al Congreso de la ACS viene a decir que, en virtud de un especial recubrimiento aplicado a la superficie de la bola, ésta puede correr más de lo habitual en las superficies mojadas y menos en las secas, homogeneizando así la reacción ante una determinada fuerza aplicada. Evidentemente, la composición de ese recubrimiento es secreto de sumario pero el mismo autor ha avanzado que es una mezcla de sílice amorfa, arcilla y ciertos polímeros hidrofílicos que interactúan con la mayor o menor cantidad de agua en el green de una manera especial, aunque no afectan a las condiciones de vuelo cuando se ejecutan golpes de larga y media distancia en el resto del recorrido de un determinado hoyo. Todo ello lo ha venido a demostrar con ayuda del dispositivo que se muestra aquí, muy conocido entre los profesionales que cuidan los campos de golf y que se llama Stimpmeter. El autor dice que ya ha patentado el recubrimiento y que espera que las grandes instituciones que establecen las reglas del golf, la USGA americana y la R&A inglesa no se opongan a que sus bolas se puedan usar en torneos, lo que permitiría su comercialización.

Ya veremos. Yo soy muy escéptico con los resultados que se presentan en Congresos por muy prestigiosos que sean. Posteriormente, en bastantes casos, esos resultados no aparecen en revistas más cuidadosas con la revisión por pares que los comités de los Congresos. En cualquier caso, no creo que a este vuestro Búho le sirva de mucho el invento. Premonitoriamente, en la entrada de 2006 arriba mencionada, a propósito de lo que disfrutaba entonces con este juego, ya preveía que cuando tuviera más tiempo para jugar, probablemente mi físico no me acompañara, como me está pasando. Así que si estáis pensando en jugar al golf cuando os jubiléis, mejor os lo pensáis dos veces y empezáis antes.

He escrito esta entrada a ratos libres durante los días de Semana Santa. Y había pensado en poner como música final un extracto de otro Réquiem, a los que soy aficionado, aunque no le haga mucha gracia a mi amigo Juanito E. Cuando el lunes de Pascua ya tenía configurada la entrada, me enteré de la muerte del Papa Francisco. Así que razón de más. Del Réquiem de Mozart, un extracto de Lacrimosa, grabado en la catedral de Salzburgo el 16 de julio de 1999 por la Filarmónica de Berlín dirigida por Claudio Abbado, en homenaje a Herbert von Karajan, muerto diez años antes.

Leer mas...

martes, 15 de abril de 2025

Aniversario y Quimiofobia

Este año, en octubre, hará cincuenta años que 117 estudiantes iniciaron sus estudios de Química en mi Facultad. Era la primera promoción del Centro y me tuvieron que aguantar desde el principio. Echando la vista atrás, no se cómo conseguimos que llegaran a buen término cinco años después, dadas las dificultades que hubo que enfrentar en aquellos convulsos años. Pero el caso es que la cosa no ha salido tan mal, como podéis comprobar en este artículo que el actual Decano del Centro y un servidor hemos publicado en la revista Anales de Química. El documento puede que no interese más que a gente de Donosti y próxima a las actividades de la Facultad pero, como ya he dicho otras veces, este Blog es mi diario (cuaderno de bitácora lo llamaban los primitivos blogueros) y quiero dejar aquí constancia “para la posteridad”. Mi otra participación en los diversos eventos programados para celebrar el redondo aniversario, es una charla sobre la Quimiofobia, que impartí en la Facultad la semana pasada y que voy a resumir brevemente en esta entrada.

Pedirme que imparta una charla de cincuenta minutos sobre la Quimiofobia, es ponerme en un brete. Tengo tanta información acumulada que es difícil buscar un hilo conductor de mis argumentos. Pero, tras darle muchas vueltas, lo hice sobre algunos causantes de la misma que resultaran un tanto sorprendentes a mis oyentes, dejando constancia al mismo tiempo de lo importante que es educar a la población, desde pequeños, en conceptos sencillos de Toxicología.

Para empezar, expliqué que el increíble avance de las técnicas analíticas, desde los años cincuenta del siglo pasado, ha resultado ser un paradójico catalizador de la Quimiofobia, al proporcionar esa sensación tan extendida en la población de la ubicuidad de las sustancias químicas en cualquier medio en el que busquemos. Y todo ello debido a la creciente sensibilidad de esas técnicas, que han ido haciendo que podamos detectar un gramo de una sustancia pretendidamente peligrosa en una cantidad de gramos de muestra escrita con la unidad seguida de doce ceros (o, en terminología de los analíticos, 1 parte por trillón o 1 ppt). Y, previsiblemente, vamos a poder ir más lejos. Pero detectar una sustancia no quiere decir que ello pueda poner en riesgo nuestra salud.

Peligro (hazard en inglés, al menos en el ámbito toxicológico) y Riesgo (risk) son dos palabras que manejamos muchas veces como sinónimos sin fijarnos que, tal y como las usa la Toxicología, son dos cosas distintas. Un peligro es cualquier fuente de daño o efectos adversos en la salud de alguien. Por ejemplo, conducir un coche es un peligro. 1.154 personas (muchas de ellas conductores) fallecieron en España en siniestros de tráfico en carretera durante 2024.

El riesgo es la posibilidad o probabilidad de que una persona se vea perjudicada o experimente un efecto adverso para la salud si se expone a un peligro. Por ejemplo, en España, hay unos 28 millones de personas con permiso de conducir vehículos de todo tipo y, por tanto, en peligro de morir en un accidente de tráfico. Así que, en el caso más extremo de que todos los muertos en España sean conductores, una persona que conduce un vehículo tiene una probabilidad (o riesgo) de 1 entre 24000 (o 1154 muertos entre 28 millones de personas con carnet de conducir) de fallecer anualmente en un accidente de tráfico. Las autoridades que velan por nuestra salud tratan de minimizar ese riesgo con adecuadas medidas, pero todos somos conscientes de que cuando conducimos estamos expuestos a un peligro. Algo similar ocurre con las sustancias químicas, sean naturales o puramente sintéticas, con las que convivimos. Y evaluar sus riesgos es lo que tratan de hacer organizaciones como la Organización Mundial de la Salud (OMS), la Agencia Europea de Seguridad Alimentaria (EFSA) o la americana Administración de Alimentos y Medicamentos (FDA), entre otras.

Al hilo de la evidente conexión entre la Quimiofobia y el miedo al cáncer, aproveché para explicar en la charla que también determinadas instituciones, con sus decisiones en principio bienintencionadas, han sido inductores o catalizadores sutiles de esa fobia. Una de esas decisiones es el uso de la llamada Cláusula Delaney por parte de la FDA americana, que expliqué con detalle en esta entrada de 2018. Según esa cláusula, cualquier sustancia que haya demostrado ser cancerígena en estudios con animales, no puede usarse en alimentación humana. Como ejemplo de la decrepitud de esta norma mostré en esa entrada la prohibición (entre otros aditivos) del metil eugenol sintético, tras aducir que producía cáncer en estudios con ratas de laboratorio a las que se atiborró durante dos años con dosis de esa sustancia que son entre 220.000 y 890.000 veces más altas que la exposición estimada a la misma de humanos que consuman productos con ese aditivo. Recalcando además que esa sustancia es el mismo metil eugenol que se vende como aceite esencial derivado de plantas que lo contienen y que nosotros consumimos, por ejemplo, cuando usamos la albahaca como especia.

La última víctima de la Claúsula Delaney es el llamado Colorante Rojo nº 3, químicamente conocido como eritrosina, un aditivo que, desde 1902, ha sido empleado en cosmética y en productos farmacéuticos o de confitería. Un par de artículos publicados en los ochenta (por ejemplo este) encontraron que producía cáncer en ratas macho a las que se les había eliminado parcialmente la glándula tiroides (no entiendo bien el por qué de esa cirugía como fase previa del estudio, pero estoy en ello). Eso hizo que la FDA prohibiera en 1990 el uso de ese colorante en cosmética (pintura de labios) pero no en fármacos o alimentos. Ahora, en enero de este año, la FDA lo ha prohibido totalmente  tras una petición de una serie de ONGs que presentaron esos artículos como evidencias y exigían el uso de la cláusula Delaney.

Pero si uno se lee con cuidado el informe de la FDA, constata varias cosas. Una, que las altas dosis empleadas en esos estudios son cientos de veces las que están permitidas por las agencias que velan por nuestra salud en los productos hasta ahora permitidos. Dos, que desde esas lejanas fechas de los artículos de las ratas machos, no ha habido nuevas pruebas de que el colorante sea cancerígeno en otros animales ni en humanos. Y tres, que, a pesar de lo anterior, no le queda más remedio que prohibirla en virtud de lo aducido por las ONGs y la dichosa Cláusula.

El otro caso que propuse a consideración en la charla es el del glifosato, el popular herbicida sobre el que hablé en esta entrada. El caso es que la llamada Agencia Internacional para los Estudios sobre el Cáncer (IARC) perteneciente a la OMS, tiene establecida una clasificación del carácter cancerígeno de las sustancias en tres grupos, uno dividido en dos subgrupos. En marzo de 2015, la IARC incluyó al glifosato en el Grupo 2A. Esto quiere decir que es “probablemente cancerígeno para el ser humano”. En ese grupo, comparten honores con el glifosato sustancias como la acrilamida, que se genera al freír y dorar las patatas de nuestros huevos fritos o tostar café. O actividades tan habituales como beber bebidas muy calientes o comer carne roja. En ese grupo están también determinadas profesiones como trabajar en una peluquería o ser soplador de vidrio. Cosas con las que convivimos en nuestra vida normal, a pesar de saber que son peligrosas, asumiendo que el riesgo lo tenemos más o menos controlado.

Pero, frente a esa clasificación de la IARC, a día de hoy, hay cientos de estudios e informes de organismos oficiales que concluyen que es poco probable que el glifosato sea cancerígeno para los humanos. ¿Cómo puede ser posible esa discrepancia?. Pues el Instituto alemán para la Evaluación de Riesgos (BfR) lo explicaen base a esos conceptos de peligro y riesgo que hemos visto anteriormente. Dicho en forma resumida, el BfR aclara que la evaluación de la IARC está basada en el peligro y la de otros organismos en el riesgo. O, en otras palabras, la IARC no calcula la probabilidad de que el glifosato sea cancerígeno o no, dependiendo de las cantidades a la que nos expongamos.

En el fondo, no realizar una evaluación de las probabilidades que existen al exponerse a una sustancia peligrosa es abandonar el viejo paradigma de Paracelso (1493-1541) quien, ya en el siglo XVI, dijo aquello de “Todo es veneno y nada es veneno, solo la dosis hace el veneno”. Pero, en los últimos tiempos, hay una serie de indicios que parecen indicar que algunos científicos e Instituciones están por abandonar ese paradigma de la Toxicología. Lo que puede tener consecuencias en la difusión de la Quimiofobia o en la prohibición radical de algunos productos que consumimos. Pero eso da para otra charla y, por supuesto, para una próxima entrada.

Hoy tengo para acabar una pieza musical que he descubierto recientemente en Mezzo, la cadena de música clásica, ballet y jazz, a la que estoy suscrito. De Shostakovich, el Allegretto de Lady Macbeth from Mtzensk. Con la Filarmónica de Berlin, en uno de esos conciertos al aire libre que se organizan en verano. En este caso el Waldbühne 2011, donde el director era Riccardo Chailly.

Leer mas...

miércoles, 26 de marzo de 2025

Si no quieres taza (RFK Jr.) toma taza y media (Dr. OZ)

No repuestos todavía del nombramiento por Trump de RF Kennedy Jr. como Secretario de Salud y Servicios Sociales de Estados Unidos y la cascada de afirmaciones que ha hecho sobre la fluoración del agua potable, la cura del sarampión con vitamina A o el dejar que las gallinas se contagien libremente de la gripe aviar para acabar con ella (así va el precio de los huevos), me acabo de desayunar con el nombramiento, en el Departamento que Kennedy dirige y como Administrador de los Centros de Servicios de Medicare y Medicaid, de un viejo conocido, el famoso Dr. Oz, que Wikipedia define como "un personaje de televisión, turco-estadounidense, cirujano cardiotorácico, profesor (emérito) de la Universidad de Columbia, promotor de pseudociencia y autor".

Como implícitamente viene establecido en esa definición, el Doctor Oz es sobre todo conocido por el show televisivo cuyo logo veis en la figura que ilustra esta entrada, un veterano programa que lleva años siendo criticado por la comunidad médica americana por la cantidad de recomendaciones, sin base científica o rozando claramente la pseudociencia, que en él se han realizado.

Para centrarnos en el tema, hay que aclarar que Medicare es un programa de cobertura de seguridad social, administrado por el Gobierno de Estados Unidos, que proporciona atención médica a todas las personas mayores de 65 años, o más jóvenes, si tienen graves problemas de salud, como cáncer, insuficiencia renal con necesidad de diálisis, etc. Medicaid, por su lado, es un programa de seguros de salud para la gente necesitada. En cualquier caso, y sin entrar en muchas profundidades, nada que se le parezca a nuestra Seguridad Social.

Entre otras muchas de las falacias que ha difundido entre sus espectadores, al Dr. Oz se le conoce sobre todo por sus proclamas sobre “milagrosos” quemagrasas, sustancias que pueden ayudar a adelgazar. La lista de productos que han aparecido en el programa es muy larga y van desde el extracto de café verde, la pulpa de la Garcinia Cambogia (o Tamarindo Malabar), el mango africano, los extractos de alubia blanca o de azafrán hasta la llamada cetona de frambuesa. Todos ellos promocionados bajo envoltorios más o menos “científicos”.

Por solo abundar en uno de ellos, bastante representativo en el historial del Dr. Oz, la mencionada cetona de frambuesa, químicamente conocida como reosmina o rascetona, es un compuesto fenólico que constituye el principal componente aromático de las frambuesas rojas. El Dr. Oz la hizo muy popular tras su presentación en uno de los programas emitidos en 2012. Aunque se encuentra de forma natural en las frambuesas, lo cierto es que lo que que se vende como suplemento alimentario, generalmente en forma de cápsulas, es un producto de síntesis (entre otras cosas porque el obtenido a partir de frambuesas es carísimo). Entre los potenciales beneficios que el Dr. Oz le adjudicaba estaba el que aumentaba la producción de adiponectina, una hormona implicada en la quema de grasas. También se aducía que la cetona de frambuesa actúa como un supresor del apetito e incluso que tenía propiedades antioxidantes y antiinflamatorias.

Ninguna de esas proclamas, ni otras realizadas con los otros “quemagrasas” ha tenido confirmación en estudios de investigación que se han llevado a cabo en animales o células de cultivo, nunca en humanos. Y no existen evidencias clínicas suficientemente claras como para poder afirmar que, con su uso, uno adelgaza. Además, y volviendo a la cetona de frambuesa, su consumo en cantidades importantes puede tener contraindicaciones cardiacas, como tensión arterial alta o taquicardias. De hecho, un caso sonado en EEUU fue la muerte de una joven de 22 años de una sobredosis de este preparado. La cetona de frambuesa fue uno de los casos que una congresista americana puso sobre la mesa, en una sesión a la que se tuvo que someter en el Congreso americano nuestro recién nombrado Director en 2014, por hacer proclamas exageradas sobre pérdidas de peso de suplementos diversos.

El Dr. Oz es también conocido por sus estrechas relaciones con la medicina alternativa. Y así, existe constancia documental de su fervor por la homeopatía (de la que mis lectores saben que soy un sesudo estudioso) o el Reiki, un tipo de medicina alternativa de origen japonés englobada dentro de las terapias de energía en la que, mediante la imposición de manos,se pretende transferir una energía universal (el qì) hacia el paciente con el fin de promover la curación emocional o física. De hecho, en 2009 y por su apuesta por el Reiki, nuestro Dr. Oz recibió un Premio Pigasus, instituido por ese azote de las pseudociencias que fue James Randi y que consiste en un cerdo volador de plata, que se suele adjudicar a los que propugnan teorías tan dudosas que “solo sucederán cuando los cerdos vuelen".

Es verdad que, al menos directamente, no parece haberse implicado en la distribución comercial de esos suplementos, aunque si ha tenido que hacer dinero con su programa de TV, con la impartición de conferencias y con la publicación de libros. O, al menos, no al nivel de otro conocido charlatán de feria sobre estas cosas, el también famoso Dr. Mercola, que mantiene un lucrativo negocio usando su nombre como reclamo en esta página web, en la que uno puede encontrar y comprar todo tipo de productos desde suplementos alimenticios y bebidas hasta cosas para mascotas. Todo a precio de orillo y sin argumentos científicos que los avalen. Y, por supuesto, todos muy sostenibles, orgánicos y hasta biodinámicos.

Pero lo que está claro, volviendo al Dr. Oz y su nuevo cargo, es que mal lo van a tener los ancianos enfermos de graves dolencias (protegidos por el Medicare) o los más desvalidos (bajo la tutela de Medicaid) con este ciudadano como Director General de ambas instituciones. Los veo en manos de curanderos y homeópatas…

Y la primavera de Vivaldi para festejar su llegada. Con Karajan dirigiendo (y tocando) y esa gran dama del violín que ha sido desde muy joven Anne-Sophie Mutter.

Leer mas...

lunes, 10 de marzo de 2025

Una nueva forma de cocer huevos

El pasado viernes este Blog cumplió diecinueve años. Así que, con esta nueva entrada, la sexcentésima sexagésima novena, comienza la vigésima temporada del mismo. Al ritmo que voy me costaría más de tres años el completar un número redondo como las setecientas cincuenta entradas y lo de las mil ya mejor no lo pienso….. Muchas de las primeras entradas del Blog tuvieron como base la intensa relación que, en la primera década de este siglo, mantuve con Juanmari y Elena Arzak, Xabi Gutierrez e Igor Zalakain del Restaurante propiedad de los dos primeros. Y me he dado cuenta de que hace tiempo que no escribo sobre asuntos de corte más o menos “científico”, ligados a las cosas de comer. Probablemente porque ha perdido mucho fuelle (aunque no todo) lo que, en aquella ya pretérita época, se bautizó pomposamente como Gastronomía Molecular. Esta semana, unos investigadores napolitanos me lo han puesto a huevo (y nunca mejor dicho) para escribir algo que suene a aquellos viejos tiempos, con un artículo publicado en la revista Communications Engineering, perteneciente, nada menos, al grupo Nature.

En ese ámbito de la Gastronomía Molecular, la “perfecta” cocción de un huevo ha generado bastante literatura. Entre la mucha que tengo acumulada en mi despacho, y por solo citar algunos ejemplos que me son más o menos próximos, tengo un libro de Hervé This, “Casseroles et éprouvettes” (2002), que dedica un par de entradas a los huevos y su cocción. Jeff Potter, en su libro Cooking for geeks (2010), dedica un capítulo a las temperaturas claves en la cocina, en el que tienen su hueco las empleadas en la cocción de los huevos. Mi amigo Harold McGee, en su monumental obra The Food and Cooking (2004), dedica todo el capítulo 2 a los huevos y a sus formas de cocción. Y para terminar, el Blog Khymos de Martin Lersch, que es casi tan viejo como el mío y que también sigue en activo, tiene muchas entradas sobre huevos y sus cocciones, a las que podéis acceder sin más que escribir eggs en el buscador (la lupa) de su página de acogida. Me hubiera gustado enlazaros también el Blog lamargaritaseagita, un blog mítico en cocina avanzada, pero el amigo Jorge Ruiz lo ha hecho desaparecer (o eso parece y, si no es así, ya me corregirá).

El artículo que me ocupa en esta entrada de hoy presenta un método pretendidamente innovador para cocinar, de manera uniforme, tanto la clara como la yema del huevo, mediante un proceso que los autores han bautizado como "cocción periódica". Esta estrategia va alternando la introducción del huevo en agua hirviendo a 100 °C y agua a 30 °C cada dos minutos, hasta un total de 32 minutos. El procedimiento permite que la yema mantenga una temperatura constante de aproximadamente 67 °C, mientras que la clara oscila entre 35 °C y 100 °C, lográndose, finalmente, una textura homogénea en ambas partes del huevo.

En el artículo, se comparan los huevos “periódicos” así preparados con los producidos mediante procesos más o menos tradicionales. Y así, se obtienen huevos duros, entendiendo por tales los cocidos en agua hirviendo (100ºC) durante 12 minutos, huevos pasados por agua en los que la cocción en agua hirviendo se restringe a 6 minutos y los llamados huevos “sous vide” (1), huevos que han sido mantenidos a a una temperatura controlada de 63-65º durante una hora. En este último caso se necesita el concurso de un baño termostático, un horno o una thermomix para mantener esa temperatura, algo también necesario en el caso de los huevos “periódicos” durante los dos minutos de los ocho procesos a 30ºC.

Además del termómetro y el baño termostático, los autores emplean otros muchos métodos experimentales lo que, a pesar de la humilde materia prima de la que nos estamos ocupando, hace que el artículo destile mucha ciencia. Por ejemplo, emplean Simulaciones computacionales basadas en dinámica de fluidos para modelar la transferencia de calor entre el agua y las diferentes partes del huevo y determinar así las condiciones óptimas de la cocción “periódica”. Emplean también técnicas analíticas sofisticadas como la Espectroscopía infrarroja de Transformada de Fourier (FTIR) para estudiar los fenómenos de desnaturalización de las proteínas del huevo y la Resonancia Magnética Nuclear (RMN), la Cromatografía Líquida de alta presión y la Espectrometría de Masas para evaluar la composición de las yemas y claras cocidas con cada estrategia, así como sus perfiles nutricionales. No contentos con todo lo anterior, utilizan un Reómetro Rotacional de placas paralelas para evaluar la textura de cada clara y yema de los huevos, en variables como su dureza, su cohesión, su elasticidad… Emplean también un panel de cata para evaluar las propiedades sensoriales de cada huevo y acaban considerando aspectos microbiológicos de las muestras por los peligros implícitos en las cocciones a baja temperatura.

Aunque este método requiere más tiempo que las técnicas tradicionales, los investigadores destacan que se produce una textura única y favorable y confirmaron una pérdida mínima de aminoácidos esenciales y polifenoles en comparación con todas las demás técnicas de cocción. Los experimentos de caracterización confirmaron estos hallazgos, destacando la mejor desnaturalización de las proteínas de los huevos "periódicos" así como una mejor agregación sus dos fases (clara y yema) cuando se los compara con los producidos por las técnicas de cocción convencionales. La apariencia física del huevo duro, del pasado por agua, del "sous vide" y del "periódico" puede verse en la imagen que ilustra esta entrada y que podéis ampliar clicando en ella.

En cuanto a los resultados del panel de cata, el artículo establece que, en comparación con el huevo “periódico”, tanto la clara como la yema del huevo duro difieren principalmente por su consistencia menos húmeda, más adhesiva y más arenosa cuando se presiona entre la lengua y el paladar. Al analizar el sabor, la clara de huevo duro es más dulce, la yema es menos dulce y tanto la clara como la yema tienen menos sabor umami, el llamado quinto sabor o sabroso (aunque se percibe con una intensidad débil). La muestra del huevo pasado por agua, a diferencia del “periódico”, tiene una superficie de la clara más brillante, es más seca en boca y menos dulce. La yema es menos densa y más húmeda, menos dulce y menos salada. Finalmente, en comparación con la muestra periódica, la clara “sous vide” es más brillante y más clara o transparente. También es definitivamente más suave, húmeda y más soluble durante la degustación. Por otro lado, las yemas son muy similares entre sí y no surgen diferencias significativas. Todo ello hace concluir a los autores que el método presenta ventajas evidentes sobre los empleados hasta ahora.

En fín, que si tenéis tiempo y os gustan estas cosas quizás os podáis divertir algo y lo contáis en los comentarios. Si debo advertiros que, en el tono un poco prepotente que siempre le ha caracterizado, Hervé This ya ha manifestado sus reservas ante el artículo. Dice que el método de cocción periódica es viejo, que hace más de cien años ya se aplicaba a la cocción de carnes y que echa de menos el que no hayan empleado otros tipos de cocción de huevos como el uso de microondas o la cocción bajo alta presión.

Y un poco de música, como siempre. La Obertura de Dido y Eneas de Purcell por la Academy of Ancient Music dirigida por Steven Devine.

___________________________________________________________________________________

(1) El término “sous-vide” se refiere, en su acepción general, a introducir los alimentos en una bolsa en la que se hace el vacío para, posteriormente, cocinarlos tiempos más o menos largos a temperaturas en el entorno de los 60º. En este caso, los autores parece que introducen directamente los huevos en agua entre 63 y 65º, según su propia descripción, con lo que llamarlos sous-vide no sería del todo correcto. De hecho en algunas secciones del artículo, los denominan 6X ºC (por aquello del intervalo de temperatura).

Leer mas...

viernes, 21 de febrero de 2025

Microplásticos en la Antártida y en el cerebro

El pasado domingo, 9 de febrero, me dieron un disgusto con el desayuno. Un prestigioso y veterano divulgador científico, en un magazín de RNE, se sumó al coro de noticias alarmistas sobre los Micro- y Nanoplásticos, noticias que hacían referencia a dos artículos científicos recientemente publicados. Como le admiro desde hace tiempo, me extrañó que, en su cortísima reseña de uno de esos artículos, hablara de “concentraciones récord de microplásticos en zonas más remotas de la Antártida como el Polo Sur y en unos glaciares”. Algo que creo que no hubiera hecho si se hubiera leído el artículo con el mismo cuidado que suele emplear en otras novedades científicas que nos cuenta cada domingo. El Búho, que si se ha leído el artículo, os va a hacer un resumen ciertamente algo diferente y luego cada cual que piense lo que quiera.

El mencionado artículo todavía no se había publicado “oficialmente” ese día 9. De hecho, si picáis en el enlace que acabo de poneros, comprobareis que la fecha con la que va a pasar al historial de la revista que lo publica es el 25 de febrero, pero cuando se trata de artículos que se sabe van a impactar en la gente, la propia revista ya se encarga de distribuir a los medios el material y así conseguir “Me gusta” inmediatos, que es lo que priva.

Los investigadores implicados (ingleses, irlandeses y alemanes) habían recogido muestras de nieve en tres remotas zonas de la Antártida donde se alojan campos de investigación o de turismo muy limitado: los glaciares Union y Schanz y el propio Polo Sur. El campo situado en el Glaciar Union es estacional y está operativo durante el verano austral entre octubre y febrero y suele alojar a unas 140 personas. El del glaciar Schanz es, en realidad, de carácter turístico y no suele albergar mas de 16 personas. Por el contrario en el campo del Polo Sur, la National Science Foundation (NSF) mantiene unas 100 personas durante el verano y unas 50 en invierno, recibiendo cada año unas 250 personas adicionales que visitan el enclave. Por tanto, estamos hablando de zonas que, aunque de forma limitada, reciben gente, lo que no ocurre con la gran mayoría de toda la vasta extensión del resto de la Antártida (casi 14 millones de kilómetros cuadrados, 27 veces la extensión de España). Así que, como primera idea a resaltar, la contaminación que pueda haber en los lugares investigados no puede identificarse con la de la Antártida en su inmensidad.

Sin entrar en muchos detalles técnicos, las muestras de nieve tomadas en esos asentamientos se dejaron fundir, se filtraron adecuadamente para que no se introdujeran contaminaciones derivadas del propio laboratorio que las estudió y se evaluaron, tanto el número de microplásticos presentes como el peso de los mismos, por litro de nieve. Para ello usaron una técnica de análisis químico conocida como Espectroscopia infrarroja de Transformada de Fourier (FTiR) que permite medir el tamaño de las partículas así como identificarlas químicamente.

Ese análisis constata que los microplásticos más abundantes están en forma de micropartículas (trozos de plástico de unas pocas micras) y microfibras (fibras de longitud en esa misma escala). Y en cuanto a materiales, las más abundante son las poliamidas sintéticas (incluida la conocida como poliamida o nylon 6), cosa que tampoco es de extrañar porque, como dice una de las investigadoras en las noticias de prensa, las poliamidas están presentes en muchas prendas, así como en cuerdas y banderas para marcar rutas seguras dentro y alrededor del campamento. Otros polímeros muy encontrados son el polietilentereftalato (PET), utilizado en botellas pero también en fibras de poliéster, el polietileno, componente por ejemplo de los tupperwares y bolsas de basura o el caucho sintético de las ruedas de vehículos de todo tipo.

En el artículo, los propios investigadores también reconocen que esos microplásticos están en zonas próximas a los asentamientos y no en zonas de control, alejadas de los mismos, que ellos mismos establecieron, lo que sugiere que son las personas que viven en los asentamientos las causantes de la contaminación, contraviniendo, quizás inadvertidamente, el tratado de Madrid que establece que los plásticos deben eliminarse de las zonas visitadas de la Antártida o, en el caso del polietileno, incinerarse. Aunque en un largo párrafo previo a la afirmación que he marcado arriba en negrita, los autores nos quieren hacer ver el papel de los vientos y tempestades en el transporte de microplásticos a largas distancias, lo cierto es que eso no se deduce de su estudio y parece más que probable que las concentraciones encontradas sean consecuencia de las actividades de las pequeñas colonias de humanos allí alojados. Aunque sería deseable, como dicen los autores “utilizar una mayor cobertura espacial, con más ubicaciones remotas y una mayor cobertura temporal, lo que podría ayudar a determinar la correlación entre la concentración y la proximidad al campamento”. Pero, mientras tanto, hay lo que hay.

Como decía al principio, mi admirado divulgador científico se hacía eco de una afirmación que, ciertamente, se encuentra en el artículo científico y que establece que “el estudio actual, que detecta concentraciones de microplásticos aproximadamente 100 veces mayores en comparación con Aves et al. (2022), destaca cómo el microplástico en la nieve antártica puede ser más preocupante de lo que se pensaba anteriormente”. Esa afirmación es discutible en dos aspectos. Primero, porque los resultados se comparan únicamente con los del artículo que acabo de enlazar. Sacar de ahí la conclusión de “concentraciones récord” es un poco aventurado. Y segundo, los mismos autores aclaran que la razón de la discrepancia puede nacer de que la técnica que ellos utilizan permite identificar y cuantificar partículas y fibras más pequeñas, menores de 11 micras, que no se detectaban usando las técnicas utilizada en el estudio con el que se comparan resultados (en ese caso, solo se detectaban las mayores de 50 micras). Y es seguro, pero esto es de mi cosecha, que a medida que se vayan refinando esos métodos de medida ese número seguirá aumentando. Es lo “malo” de tener cada día mejores técnicas analíticas, como pasa con la detección de sustancias químicas en diversos ámbitos.

Los autores también encuentran que, al analizar la morfología de sus microplásticos, la que hemos denominado micropartículas es predominante (79%) sobre la de microfibras (21%), en franco desacuerdo con el trabajo de Aves et al. (2022), ya citado, que encontraban a las microfibras como predominantes (61%). Para explicarlo, aducen que, en este último caso, los autores, “eran incapaces de distinguir entre microfibras sintéticas y naturales”. Y este asunto de las fibras naturales y artificiales es muy interesante y nadie lo ha destacado adecuadamente.

En el apartado 3.3 del artículo se menciona que en la nieve analizada aparecían Otros materiales que los autores no conceptúan como Microplásticos. Se trata de micropartículas y microfibras, según ellos de origen natural y que, además de arena y carbón, consistían fundamentalmente y casi en su totalidad (Figura 7c), de fibras de celulosa (no lo dicen explícitamente pero es muy probable que se trate de algodón) y poliamidas naturales (los autores hablan de pieles pero seguro que también de lana). Y resulta (figura 7a) que esos otros materiales son mayoritarios en los tres asentamientos con porcentajes del 53% en el Glaciar Union, 77% en el Schanz y hasta el 83% en el Polo Sur.

Estamos ante un caso más de esa aparente inconsistencia de considerar Microplásticos solo a los polímeros de origen sintéticos, cuando hay evidencias, por ejemplo, de que en los océanos, los polímeros de origen natural, sobre todo en forma de fibras, son los más abundantes, como nos hicimos eco en esta entrada. Quizás ahí resida el hecho de que en este estudio, como ya hemos mencionado, haya más microplásticos en forma de micropartículas que de microfibras. Simplemente han dejado fuera otras microfibras de origen antropogénico (algodón, lana, etc) que ellos no consideran microplásticos. Si no las hubieran dejado fuera, el mencionado récord de microplásticos aún sería mas evidente (estoy más guapo callado).

Hay alguna otra perla que he encontrado leyendo despacio el artículo. Por ejemplo, en el último párrafo del apartado 4 (Discusión), a propósito de las implicaciones que estos microplásticos pudieran tener en la Antártida, se dice que su presencia pudiera inducir cambios importantes en el albedo o reflectividad de la nieve, algo que pudiera contribuir al calentamiento global. Aunque hay literatura científica reciente al respecto, sus conclusiones no dejan de ser meras especulaciones, dado que, copio literalmente, “los efectos potenciales de los microplásticos en la fusión de la nieve y el hielo están mal cuantificados y son restringidos”. Y, además, eso afectaría a áreas muy reducidas de terreno antártico.

Cambiando de tercio, el otro artículo que ha tenido amplia difusión en los medios es el asunto de la presencia de microplásticos en diversos órganos de cadáveres, particularmente en el cerebro. No quiero profundizar en este caso porque no tengo todavía el artículo suficientemente destripado (hay 39 páginas solo de material suplementario), pero todo se andará. Aunque, de entrada, tanto para mí como para algunos de mis amigos más próximos, ligados al ámbito de los materiales plásticos, hay un resultado ciertamente sorprendente.

En su cuantificación, los autores dan concentraciones medias de microplásticos de hasta 26 miligramos por gramo en cerebros de doce personas aquejadas de demencia (lo que añade “pimienta” a la noticia). 26 miligramos por gramo de muestra de cerebro supone un 2,6 %. Teniendo en cuenta que un cerebro humano pesa aproximadamente unos 1300-1400 gramos, eso supondría que “atesoramos” en nuestro cerebro tres gramos y medio de plástico en forma de microplásticos. Veremos si esos números se confirman en posteriores investigaciones, no vaya a ser como aquello de que consumíamos semanalmente el equivalente a una tarjeta de crédito de plástico, derivado del contenido en microplásticos en nuestra comida y bebida. Yo diría que eso se ha desmontado contundentemente (ver aquí y aquí) pero nadie en los medios parece haberse enterado.

Dice la Búha que, en lo tocante a la música clásica, tengo una cierta tendencia a aquella que lleva una alta carga de ritmo, metal y percusión. Tiene algo de razón y, a la búsqueda de un motivo, tengo que aducir que, de niño, muchos domingos acompañaba a mi padre a ver los conciertos de la Banda de Música de Hernani que el había fundado a finales de 1955. En el programa de esos conciertos abundaban pasodobles, música de zarzuela y oberturas de óperas, todo ello con la loable intención de atraer espectadores. De esa época proviene mi apego a la Obertura de Guillermo Tell de Rossini. En el enlace, Claudio Abbado dirige a la Filarmónica de Berlín, en uno de los conciertos veraniegos al aire libre (1996). Imaginaros a la banda de mi pueblo sudando tinta para seguir ese ritmo…

Leer mas...

domingo, 9 de febrero de 2025

Cristales y vidrios y su diferente reciclado

Me escribió hace poco un reciente suscriptor del Blog (Jorge F.) que me alegró el día diciéndome que estaba "devorando" las entradas antiguas (el entrecomillado es suyo). A propósito de una de esas viejas entradas, en la que hablé sobre la fabricación del vidrio recordando una visita a la isla de Murano, Jorge me planteaba sus dudas sobre el uso que se hace en la vida normal de los términos vidrio y cristal. Así como sobre las diferencias entre ambos que había encontrado en diversas webs relacionadas y las implicaciones de esas diferencias en su reciclado a través del contenedor verde. En el que, como os habréis fijado, se nos dice que podemos tirar botellas y botes de vidrio pero no otras cosas como copas de vino, vidrios de espejos, bombillas, etc. Y no me extraña que le hayan surgido dudas, porque tras visitar algunos de los sitios que me mencionaba en su email, veo que hay un despiste bastante generalizado. Que Jorge detectó correctamente y yo le confirmé. Así que voy a aprovechar el intercambio entre ambos para pergeñar una entrada.

Un sitio en el que podríamos bucear para tratar de aclarar ambos términos, el Diccionario de la Real Academia de la Lengua Española, no contribuye precisamente a aclarar ese embrollo. La RAE entiende por cristalino "lo relativo o parecido al cristal". Y si uno va a la voz cristal, la primera acepción se refiere a "los sólidos cuyos átomos o moléculas están regular y repetidamente distribuidos en el espacio". Algo que parecen que han asumido algunas de las webs que consultó el amigo Jorge. Además, también establece que uno de los sinónimos de la palabra cristal es vidrio de ventana.

Pero los físicos y químicos que hemos trabajado con materiales tenemos muy claras las diferencias entre un vidrio y un cristal. En el lenguaje científico, ambas denominaciones implican estructuras internas de esos materiales radicalmente diferentes y es por eso que nos sentimos algo incómodos con el uso indistinto que se hace en el lenguaje popular. Aunque también las usemos, dada su implantación. En una vieja entrada de este Blog, traté de explicar las diferencias entre ambos tipos de materiales usando el ejemplo de los átomos de carbono, que pueden dar lugar a estructuras tan diferentes como los diamantes de alguna mina de Suráfrica o los carbones de Asturias.

En ese sentido, un diamante es un ejemplo de material cristalino, entendiendo por tal el que forma cristales o es capaz de cristalizar al solidificar desde un fundido o una disolución, de forma bastante lenta en el tiempo y, a veces, bajo la acción de presiones elevadas. Ello da lugar a materiales con ordenaciones de los átomos que los componen en redes de forma geométrica bien definidas (cubos, prismas, pirámides). Eso puede originar estructuras como la de los ya citados diamantes o cristales de sulfato de calcio (o yeso) tan impresionantes por su tamaño como los que se pueden ver en la Geoda Gigante de Pulpí en Almería. A un nivel más pequeño podemos ver también formaciones cristalinas picando en los enlaces siguientes, relativos a la sal Maldon o a minerales como la galena.

Por el contrario, cuando un vidriero funde en los hornos de Murano la materia prima empleada para producir el vidrio, saca el fundido del horno y lo enfría bruscamente, esa acción provoca que, al solidificar, no haya ordenación alguna de los átomo o moléculas que lo constituyen, formando un material que se denomina sólido amorfo o sólido vítreo (o simplemente vidrio). Átomos o moléculas están ahora tan desordenados como lo estaban en el fundido, sólo que en éste la cosa se movía y al solidificar se queda quieta. Este Blog contiene entradas sobre otros materiales amorfos como la plastilina (cuando está sólida tras meterla en el congelador), el carbón de mina antes mencionado u otros muchos plásticos como el poliestireno, el PVC o el polimetacrilato de metilo.

Para daros una idea sencilla, la figura de abajo es una representación muy simplificada, y en dos dimensiones, de un sólido cristalino (un cristal) y un sólido amorfo (un vidrio). En el mundo real, esas estructuras se propagan generalmente en las tres direcciones del espacio formando, en el caso de los sólidos cristalinos, las estructuras geométricas presentes en los ejemplos que os he dado. Cosa que no ocurre con los sólidos amorfos o vidrios.

Desde un punto de vista histórico, la confusión entre vidrio y cristal puede que arranque de los vidrieros venecianos, que se trasladaron a Murano a finales del siglo XI como forma de evitar los repetidos incendios que provocaban en Venecia. Un miembro de una conocida familia de artesanos del vidrio que aún sigue teniendo talleres en Murano, Angelo Barovier, introdujo a mediados del siglo XV el cristallo para denotar a un vidrio totalmente transparente, sin el ligero color amarillo o verdoso originado por impurezas de óxido de hierro. Para conseguir este efecto se adicionaba a los componentes tradicionales del vidrio (sílice, carbonato de sodio y óxido calcio) pequeñas cantidades de óxido de manganeso que anulaban el efecto de esas impurezas de hierro. Con el tiempo el uso del término cristallo puede que fuera determinante en el uso del término cristal para referirse a vidrios finos, especialmente a aquellos utilizados en lujosas vajillas, a las que los vidrieros daban diversas formas y coloridos adecuadamente seleccionados.

Sin embargo, a día de hoy, la fabricación de ese vidrio de alta calidad (mal llamado cristal), se logra mediante la adición de óxido de plomo a la mezcla tradicional que hemos mencionado arriba y que vamos a fundir, en cantidades que casi llegan al 40%. Ello cambia de forma drástica el punto de fusión de la mezcla de partida y la viscosidad del fundido obtenido con ella, fundamental para que los vidrieros trabajen con él adecuadamente. Posteriormente, también cambian diversas propiedades del vidrio sólido obtenido tras enfriar ese fundido. Como su índice de refracción, que hace que copas u otros objetos de ese vidrio que contiene óxido de plomo, sean más brillantes y puedan dispersar la luz en un espectro de colores. O el sonido especial que se genera cuando se chocan en un brindis. En alguna web que sabe de qué va esto, he visto que se propone dejar de usar el término cristal y usar, en su lugar, el término vidrio de plomo. Aunque ya se que suena peor.

Pero esa modificación inducida por el óxido de plomo plantea un problema importante a las empresas que se dedican a fabricar botellas a partir de vidrio reciclado. Si, por ejemplo, mezclamos botellas de vidrio y copas de vino en el contenedor verde de reciclado, dependiendo de la cantidad de unas y otras, modificamos la temperatura de fusión del conjunto y también la viscosidad del fundido obtenido tras la fusión. Al contrario de lo que ocurre en el caso de los artesanos vidrieros, esos cambios hacen que el reciclado industrial en masa (como el que hacen las empresas que fabrican vidrio) presente ciertas complicaciones. Además, como hemos mencionado de pasada, las copas de vino pueden contener diseños especiales con grabados, pinturas o incrustaciones de metales, que deben eliminarse. Así que, amigas y amigos, botellas y frascos al contenedor verde y copas de vino u otras piezas como lámparas de techo, espejos, bombillas y otros al contenedor de rechazo. O, si son grandes (vidrios laminados, etc.), a los puntos limpios que seguro tendréis en vuestras localidades.

El asunto del plomo plantea un problema adicional pues, como sabéis, se trata de un metal pesado de elevada toxicidad para los humanos (recordad la historia de la gasolina con plomo). El contenido de ese metal en esos vidrios de alta calidad podría liberarse de forma lenta y en bajas cantidades, sobre todo en contacto con líquidos ácidos como el vino. Así que se está optando por fabricar estos objetos con otros óxidos como los de bario, titanio, zinc o potasio que, sustituyendo al de plomo, evitan los problemas de toxicidad de éste sin rebajar las propiedades de transparencia, brillo y sonido característicos de una buena copa, que es lo que nos gusta.

A modo de coda final, tengo que reconocer que el asunto del cristallo lo había leído yo en algún sitio, pero no conseguía localizar la procedencia del término. Así que tras perder mucho tiempo googleando, recurrí a la Inteligencia Artificial, en forma del ChatGPT, y asunto concluido.

Y ya que hemos hablado de vidrieros de la Serenísima República de Venecia, nada mejor que Vivaldi para cerrar la entrada. El Concerto per flautino con Lucia Horsch y los Amsterdam Vivaldi Players.

Leer mas...

viernes, 31 de enero de 2025

Toxicidad de las dioxinas a la baja

Este martes he estado en la Biblioteca de Iurreta (Durango) dando una charla sobre dioxinas y su presencia pasada y presente en las emanaciones de las incineradoras, así como en los días siguientes al derrumbamiento del vertedero de Zaldibar en febrero de 2019. Es una charla que ya había impartido hace dos años y que he tenido que actualizar. Y entre las cosas que he actualizado hay una interesante novedad que he visto reflejada en pocos medios de comunicación. Y qué, resumiendo, consiste en que la toxicidad de las dioxinas es ahora, según la OMS, entre el 40 o el 50% inferior a lo que solía ser. Una buena noticia. Quizás por eso no ha interesado a muchos medios.

Como probablemente sepáis, el término “DIOXINAS” se aplica genérica pero incorrectamente a una vasta familia de 419 sustancias químicas distintas (que se suelen llamar congéneres), divididas en tres familias (las verdaderas Dioxinas, los Furanos y los Bifenilos clorados). Según la Organización Mundial de la Salud (OMS), de este conjunto, solo 29 congéneres entrañan riesgos toxicológicos relevantes para los humanos. La sustancia más tóxica de ese grupo es la 2,3,7,8-tetraclorodibenzo-p-dioxina cuya estructura veis en la figura que ilustra esta entrada. Como va a salir mucho en ella, la denominaremos por su acrónimo TCDD.

La TCDD ha estado relacionada con algunos de los episodios de contaminación que, a lo largo del siglo XX, han contribuido al mal nombre de la Química y han generado una parte importante de los quimiofóbicos que ahora existen. Por ejemplo, las consecuencias del uso del llamado “agente naranja” en la guerra de Vietnam, una mezcla de sustancias químicas empleadas por el ejército americano para deforestar amplias zonas de Vietnam, Laos y Camboya y complicar así la vida de los escurridizos vietcongs. O la explosión en Seveso (1976), al norte Italia, de una planta química que fabricaba triclorofenol y que sumió a la ciudad en la ruina y causó múltiples problemas a sus habitantes. En ambos casos, el causante de los graves problemas de salud fue nuestra TCDD que se encontraba en el agente naranja y en la nube tóxica de Seveso de forma fortuita, como un subproducto minoritario e inadvertido. En realidad, la industria química nunca ha producido dioxinas y furanos intencionadamente. Ese no es el caso de los PCBs que hasta los años 70 se produjeron sobre todo para su uso como aislantes para transformadores eléctricos de las redes de distribución de electricidad.

Existe un problema complejo a la hora de evaluar la toxicidad resultante de una fuente de de emisiones de dioxinas (una incineradora, el tráfico rodado en un determinado sitio o el incendio posterior al derrumbe de Zaldibar). O a la hora de determinar la carga de dioxinas que un ciudadano medio tiene en su organismo y que proviene, en un 90%, de su alimentación (sobre todo pescado azul, lácteos, huevos y carne). En ambos casos, cada fuente de emisiones o cada individuo es una caso peculiar y casi único porque, a la hora de realizar los análisis, nos enfrentamos a una mezcla compleja de esas sustancias. Dependiendo de donde provenga, su composición puede ser diferente en cada caso y, además, cada uno de sus componentes tiene diferente toxicidad.

Para tener en cuenta todo ello, la OMS estableció en 2005 los llamados Factores de Toxicidad Equivalente (o TEFs en su acrónimo en inglés). Que miden la toxicidad relativa de cada una de las 29 dioxinas, furanos o PCBs tenidos como tóxicos por la OMS, en relación con la que hemos tomado como más tóxica, la TCDD. Asignándole a ésta un valor 1 de toxicidad, los Factores de Toxicidad Equivalente nos dicen cuántas veces menos tóxicos son el resto. Hay otra dioxina de toxicidad similar a la TCDD pero el resto de ese grupo de congéneres son desde tres hasta cientos de miles de veces menos tóxicas.

Conocidas las diferentes toxicidades y la concentración de los compuestos en una mezcla concreta, se puede estimar su Equivalente Tóxico (TEQ) mediante un sencillo cálculo que consiste e ir multiplicando la cantidad de cada congénere (por metro cúbico en el caso de las emisiones) por su TEF y sumando esos productos. El número que obtenemos o TEQ es la cantidad por metro cúbico de TCDD que tendría la misma toxicidad que la muestra que estamos analizando.

Contado asi parece fácil pero no lo es. Sobre todo porque establecer los Factores de Toxicidad Equivalente (TEF) es muy complicado y, desde 2005, la OMS ha ido detectando una serie de fallos que le han llevado a emprender una nueva evaluación de los TEFs para actualizar los publicados en 2005. Los resultados de esa revisión, que comenzó con una reunión de expertos en Lisboa en 2022, se han publicado en enero de 2024.

La consecuencia más importante que se deriva de esa revisión es que si aplicamos, por ejemplo, esos nuevos factores a los estudios previos sobre Equivalentes tóxicos de alimentos que suelen acumular dioxinas y recalculamos con ellos los nuevos Equivalentes tóxicos, resultan ser entre un 40-50% inferiores a los que se calcularon con los TEF de 2005. Por ejemplo, en el artículo que acabo de mencionar, se toma una evaluación del Equivalente Tóxico de unas sardinas del Mediterráneo, contenida en un artículo de 2015 de investigadores catalanes y que resultaba ser 2,24 picogramos (en este caso por gramo de sardina) utilizando los Factores de Toxicidad Equivalente de 2005. Al aplicar los nuevos, el Equivalente Tóxico cae hasta 1,13 picogramos por gramo de sardina, un 50% más bajo.

Es evidente que estamos ante una buena noticia que va a tener como consecuencia el que, probablemente, las exposiciones a dioxinas, furanos y PCBs a las que estamos sometidos los europeos y que suele evaluar la Autoridad Europea de Seguridad Alimentaria (EFSA) resulten en valores sustancialmente a la baja.

Y aunque parezca contradictorio, para celebrar una buena noticia pongo música fúnebre. El Libera Me de la Misa de Réquiem de Fauré. Con el barítono Roderick Williams y la Orquesta Sinfónica Nacional de Dinamarca y su coro, dirigidos por Ivor Bolton. Pero es que me gusta.

Leer mas...

jueves, 16 de enero de 2025

Cocinar con utensilios negros de plástico

El pasado 11 de setiembre la revista Chemosphere publicó, en su versión online, un artículo en cuyo título se hacía referencia a la contaminación de artículos domésticos por retardantes a la llama. Entre esos artículos se encontraban utensilios de cocina, de plástico negro, como los que se ven en la figura. El origen de esa contaminación nace de que tales artículos se habían fabricado con plásticos reciclados de dispositivos electrónicos como carcasas de televisores, teléfonos móviles, componentes de ordenadores y otros productos similares, a los que esos retardantes se suelen añadir para prevenir chispazos o sobrecalentamientos que puedan devenir en posibles incendios de los mismos. El artículo ha sido masivamente citado en medios nacionales e internacionales, propugnando algunos de ellos, como la CNN, La Vanguardia o elDiario.es, que lo mejor que podéis hacer, si tenéis esos utensilios, es deshaceros de ellos y usar solo elementos metálicos. Los argumentarios son, en todos los casos, parecidos y demuestran, como es habitual, que nadie en los medios se lee los artículos originales, buscando únicamente titulares que asusten al personal.

Hace unos años, la mayoría de esos retardantes adicionados a diferentes plásticos eran compuestos con bromo en sus moléculas y uno de ellos, un miembro de la familia de los decabromo difenil éteres conocido por su acrónimo BDE-209, ha sido uno de los más usados. Desde hace casi dos décadas, la Agencia de Protección Ambiental (EPA) americana y su homóloga europea han ido prohibiendo el uso de algunos compuesto bromados (incluido el BDE-209) sobre la base de sus posibles peligros para la salud, derivados de estudios con animales. Paulatinamente han sido siendo sustituidos por otros (con bromo y fósforo), supuestamente menos nocivos. Pero objetos fabricados antes de esas prohibiciones pueden estar siendo ahora reciclados, con su carga de retardantes incluida. Una organización ecologista de abogados, conocida como EarthJustice, radicada en California y que tiene una estrecha relación con otra denominada Toxic Free Future, a la que pertenecen dos de los tres autores del artículo que comentamos, ha llevado este diciembre de 2024 a los tribunales a la EPA, con el argumento de que la Agencia ha prohibido algunos retardantes a la llama pero no el uso de plásticos reciclados que los contengan. La EPA ha justificado su decisión diciendo que las cantidades de retardantes existentes en esos plásticos reciclados son muy pequeñas y que sería muy complejo y costoso el analizarlas.

Para llevar a cabo el estudio descrito en el artículo (farragoso de leer hasta para un experimentado lector como vuestro Búho), los investigadores compraron en comercios o en páginas web americanas 203 productos negros, que incluyen sobre todo los citados utensilios de cocina (109 espumaderas, coladores, pinzas, …), pero también 36 juguetes, 30 accesorios para el cuidado del pelo y 28 bandejas y otros objetos empleados en la distribución de alimentos. Como fase previa, llevaron a cabo un proceso de cribado sobre todos los objetos, mediante una técnica denominada fluorescencia de rayos X (XRF), tratando de evaluar si los objetos contenían bromo o no, una especie de prueba del algodón que pudiera indicar si en ellos había retardantes a la llama bromados. El artículo no especifica cuántos de los 209 dieron positivo en el cribado pero si afirma que solo 20 de los 203 objetos originales (menos de un 10%) contenían productos con bromo en concentraciones superiores a 50 mg/kg (o 50 ppm). Algunos objetos, como una bandeja de sushi, llegaban hasta las 18600 ppm pero la mayoría (12) estaban por debajo de 1000.

Los autores no argumentan por qué seleccionaron solo los que tenían más de 50 mg/kg pero, es muy probable, que tenga que ver con el hecho de que la siguiente fase de su investigación fue detectar, identificar y cuantificar los posibles retardantes bromados presentes en esos veinte objetos seleccionados, mediante una técnica denominada espectrometría de masas, acoplada a un cromatógrafo líquido. Y, probablemente, con cantidades inferiores a los 50 mg/kg, la técnica tenía problemas para una cuantificación fiable. En cualquier caso, en esta segunda fase del estudio, los autores detectaron y cuantificaron 8 retardantes bromados en 17 de los 20 objetos sujetos análisis (no queda claro de dónde venía el bromo de los otros tres). Entre esos 8 compuestos se encontraba el ya citado BDE-209, en concentraciones más altas que el resto y que iban desde 2 hasta 11900 mg/kg, encontrándose el valor más alto en la ya mencionada bandeja de sushi.

Un ejemplo de cómo una lectura poco detallada puede hacer que un medio difunda noticias con poco rigor, es el de eldiario.es, donde su redactor escribe como conclusión del artículo que nos ocupa que “un 85% de los más de 200 productos analizados contenían niveles elevados de retardantes de llama bromados”, algo que, desde luego, no se desprende de una lectura concienzuda del artículo. Como acabo de explicar, se detectaron y cuantificaron retardantes bromados, de forma fidedigna, en 17 de los 20 objetos investigados. Ciertamente un 85% pero no de la totalidad de los 203 de partida sino de los 20 seleccionados tras el cribado. Así que el porcentaje correcto, sobre los mas de 200 productos analizados que dice el redactor, es un 8,4%. Lo cual se confirma simplemente leyendo la primera página del artículo en cuestión. En el llamado Resumen gráfico (Graphical Abstract) inicial se dice literalmente que “17 de los 20 productos analizados contenían retardantes”, algo que también se dice en el Resumen (Abstract) que sigue al gráfico y que quizás sea la causa de la confusión del periodista (“se encontraron retardantes en el 85% de productos analizados”). Cuando los autores hablan de “analizados” se refieren a los 20 analizados por Espectrometría de masas y no a los 209.

¿Es peligroso el uso de estos utensilios en nuestra cocina?. Es una pertinente pregunta y dada la preocupación levantada es bueno darle alguna vuelta. Cuando usamos esos utensilios de cocina estamos sujetos a dos potenciales riesgos: tocarlos y que los retardantes se absorban por nuestra piel y/o que se transfieran al líquido en el que cocinamos, fundamentalmente al aceite cuando freímos. Con respecto al primer efecto, un artículo de la Universidad de Birmingham de 2018, muy parecido y mucho más detallado que el que nos ocupa y que los autores citan, deja claro en una de sus conclusiones que “la exposición a los retardantes a la llama bromados, a través del contacto dérmico con utensilios de cocina, es mínima”.

La segunda posibilidad, mas plausible, es que los retardantes pasen a un aceite caliente y al final a nuestro organismo. El propio artículo de la Universidad de Birmingham que acabo de mencionar realizó experimentos diseñados para imitar el proceso de cocción en aceite. Una pequeña porción de 0,05 g del utensilio a estudiar se colocaba en 0,5 ml de aceite de oliva en un tubo de ensayo, que se mantenía a 160 °C durante 15 minutos para simular el proceso de cocción, recogiendo el aceite resultante para analizar el retardante transferido. Después de "cocinar" cada utensilio, el experimento se repetía dos veces más, utilizando la misma parte del utensilio, para investigar el impacto de la cocción repetida en aceite en la eficiencia de transferencia de los retardantes. Para cada retardante (incluido el BDE-209) se obtuvieron las constantes de transferencia al aceite y los científicos de Birmingham proporcionaron una sencilla fórmula para calcular las cantidades a que estamos expuestos cuando usamos utensilios que contienen esos retardantes.

Las condiciones impuestas en esos ensayos no creo yo que sean una buena réplica de lo que hacemos cuando preparamos una tortilla o freímos patatas, acciones que implican exposiciones cortas del utensilio al aceite y, por tanto, con dificultades para alcanzar los 160º. Pero nuestros amigos de Toxic Free Future los dieron por buenos y construyeron la parte final de su artículo con ellos. Usando el valor medio (y no la mediana como dicen ellos) encontrado en sus medidas para el BDE-209, el más abundante de los analizados, y la sencilla fórmula del trabajo de la gente de Birmingham, calculan que una persona media estaría expuesta, manejado esos utensilios, a (y copio literalmente) “34700 nanogramos por día de BDE-209, cerca de la dosis de referencia de la EPA de 7000 nanogramos/kilo de peso/día. O, lo que es igual, a 42000 nanogramos/día para un adulto de un peso medio de 60 kilos”). La llamada dosis de referencia (RfD) es una forma que los toxicólogos tienen de establecer la ingesta diaria segura de las sustancias químicas.

Y así se había quedado la cosa desde la publicación del artículo en setiembre hasta el mes pasado cuando, el día 6, saltó la sorpresa. Un conocido científico (Joe Schwarcz) de la McGill University, hizo notar que la dosis de referencia de la EPA de 7000 nanogramos /kilo de peso/día se corresponde con 420000 y no 42000 nanogramos/día para un ciudadano/a de 60 kilos. Basta saber multiplicar 7000x60, así que los autores se habían columpiado en más de un orden de magnitud y sus aterrorizantes conclusiones no son lo que parece o, al menos, son diez veces más suaves. Y aunque no se hubieran equivocado tampoco la cosa es tan preocupante porque, como ya os he contado otras veces (ver el tercer párrafo de esta entrada), a la hora de establecer esas dosis seguras, los toxicólogos se curan en salud y dividen por 100 o hasta por un millón de veces las dosis que demuestran ser problemáticas en los estudios con animales.

El 15 de diciembre, Chemosphere, la revista donde nuestro artículo había visto la luz, publicó un Corrigendum en el que se subsanaba ese error matemático. A pesar de las implicaciones de esa equivocación, el Corrigendum establecía que “el error no afectaba a los conclusiones generales del artículo”. Pues vale, si a ellos les parece así y la revista no dice nada….. Diré también que la corrección no ha sido generalmente publicitada por los mismos medios que en octubre y noviembre nos metían miedo en el cuerpo sobre los utensilios.

Además, un día más tarde, el 16 de diciembre, la revista era eliminada de la Web of Science, una herramienta de acceso a múltiples bases de datos que brindan información sobre la calidad de las publicaciones en distintas disciplinas académicas. Y la razón es que Chemosphere había conculcado los criterios editoriales de calidad que mantiene Clarivate, la empresa que gestiona esa Web of Science. El asunto tiene importantes repercusiones en los artículos que en ella se publiquen y, sobre todo, en la valoración de los Curricula de sus autores. La coincidencia en el tiempo de esa exclusión con la corrección del error en el artículo de los utensilios negros, no quiere decir que ese artículo haya sido la causa de la decisión de Clarivate. Solo en el mes de diciembre se habían retirado ocho artículos de la misma revista y desde mayo, otros 60 habían sido puestos en revisión por los comentarios adversos sobre ellos.

Así que vosotros podéis hacer lo que queráis con los utensilios de cocina de plástico negro que tengáis. Si andáis un poco “acongojados” con lo que habéis leído por ahí, no tenéis mas que seguir los consejos de los medios y cambiarlos por herramientas de acero inoxidable, que el miedo es libre. Yo lo tengo claro. Es verdad que pienso que las agencias que cuidan por nuestra salud tendrán que establecer medidas para que esa basura plástica electrónica no pase a cadenas de reciclado de objetos que estén en contacto con aceite caliente y similares. Pero lo más que voy a hacer con mis espátulas favoritas es cambiarlas por unas nuevas si observo a simple vista algún deterioro. Además, he comprobado que la mayoría de esos utensilios que tengo y los que se venden en tiendas serias de mi pueblo son de poliamida (nylon). Y aunque no se si es reciclada o no, ni si el material original proviene de basura electrónica o no, las poliamidas son los materiales en los que los de Toxic Free Future detectaron las concentraciones más bajas de los retardantes a la llama.

Y ya que vamos de americanos. El compositor Aaron Copland (1900-1990) dirigiendo su propia obra. La última parte (Hoedown) de su música para ballet Rodeo, con la Filarmónica de Los Angeles en 1976.

Leer mas...

Powered By Blogger