lunes, 13 de abril de 2026

Cuero vegano. Otro ejemplo de marketing perverso

Ya conté hace tiempo que soy hijo del gerente de una empresa curtidora de pieles de vacuno, cuyo destino final eran las suelas de los zapatos que, en mis años jóvenes, fabricaban empresas de Alicante, Baleares o Aragón. Así que, de cueros de vacuno, sé lo suficiente como para arquear mis pobladas cejas tras leer, esta semana, una noticia que hacía mención al término cuero vegano. Una expresión, sin duda atractiva desde el punto de vista comercial, pero ambigua e incluso confusa si se analiza con cierto rigor. Porque no debiera olvidarse que el cuero ha sido, y sigue siendo, un material bien definido: piel animal tratada mediante procesos químicos de curtido para estabilizar su estructura y evitar su degradación. Por tanto, el añadido del adjetivo “vegano” al sustantivo cuero introduce una aparente contradicción, ya que el cuero, por definición, implica un origen animal. En la práctica, el término se ha consolidado para describir materiales que imitan el aspecto y ciertas propiedades del cuero sin emplear pieles animales.

Conviene no confundir este caso con otros en los que el calificativo “vegano” resulta bastante menos problemático. Es lo que ocurre, por ejemplo, con el vino. Un vino vegano no es más que aquel en cuya elaboración se han evitado agentes clarificantes de origen animal, como la gelatina o la caseína, sustituyéndolos por alternativas minerales o vegetales. El resultado sigue siendo, sin mayor controversia, vino. En el caso del cuero, sin embargo, la situación es algo distinta: al prescindir de la materia prima original, lo que se obtiene puede parecerse al cuero, pero difícilmente puede decirse que lo sea.

Además, bajo la etiqueta cuero vegano se agrupan materiales muy distintos. Algunos no muy diferentes de los que también tengo recuerdos muy vivos de mi infancia, cuando mi padre empezó a preocuparse por la irrupción en el mercado de términos como similcuero, polipiel o skai (escay). Este material consistía típicamente en una base textil recubierta con un polímero, el policloruro de vinilo (PVC) plastificado. Su popularidad se debía a su bajo coste, facilidad de limpieza y resistencia al agua. Fue muy utilizado en tapicería, automoción y marroquinería. Nunca fue un competidor del cuero para suelas de calzado, pero una curtidora de pieles para marroquinería, cercana a la de mi padre, sufrió los embates de objetos fabricados en similcuero, así que pudo ver pelar las barbas de su vecino.

Como ya hemos visto en este Blog, el PVC, a temperatura ambiente, es un polímero rígido que necesita la adición de plastificantes para volverse flexible y poder emplearse en este y otros sectores. Estos compuestos, como los ftalatos, no se unen químicamente a la matriz polimérica, sino que se insertan entre sus cadenas, actuando como “lubricantes” moleculares que confieren flexibilidad. Un PVC plastificado presenta, con el paso del tiempo, un problema característico: los plastificantes pueden evaporarse o migrar hacia la superficie, lo que explica tanto el deterioro mecánico como el característico olor a plástico de estos materiales. Además, algunos de estos plastificantes han sido objeto de preocupación por sus posibles efectos sobre la salud, lo que llevó a restricciones regulatorias, especialmente en Europa.

Como consecuencia de estos problemas, el sector evolucionó hacia otros materiales, principalmente el poliuretano (PU), que no requiere plastificantes. Esto mejoró la estabilidad y la durabilidad del producto final, aunque distó de eliminar todos los problemas. Hoy en día, muchos productos etiquetados como “cuero vegano”, sobre todo en sus versiones más asequibles, están fabricados con poliuretano. Es cierto que supone una mejora frente al viejo PVC, pero ambos siguen siendo, en esencia, plásticos. Y resulta cuanto menos curioso que el término vegano, cargado de connotaciones de naturalidad y sostenibilidad, acabe aplicado a materiales que, precisamente, están en el punto de mira por su impacto ambiental y la generación de microplásticos. Por si fuera poco, su durabilidad suele quedar bastante por detrás de la del cuero tradicional, lo que termina de redondear una etiqueta que suena mejor de lo que realmente describe.

Hay otras alternativas más innovadoras del llamado cuero vegano, basadas en materias primas biológicas, como fibras de piña, cactus o micelio de hongos. Entre ellas, el “cuero” de micelio resulta especialmente interesante y ha sido objeto de trabajos y revisiones científicas. El micelio es la estructura vegetativa de los hongos, formada por una red de filamentos microscópicos llamados hifas. Estas hifas se entrelazan formando una estructura tridimensional que recuerda, en cierto modo, al colágeno del cuero de verdad del que hablaremos a continuación. Esta red confiere al material ciertas propiedades mecánicas: resistencia moderada a la tracción, flexibilidad y capacidad de compresión. Sin embargo, el cuero de micelio no alcanza las prestaciones del cuero tradicional. Por ello, en muchos casos se le somete a procesos de densificación, prensado y, en ocasiones, se recurre a recubrimientos poliméricos, algo que también ocurre, en mayor medida, con los “cueros” obtenidos a partir de fibras de piña o cactus, para mejorar su resistencia al desgaste y, sobre todo, a la humedad, ya que las hifas son biodegradables.

Para entender por qué el cuero tradicional sigue siendo difícil de igualar, hay que recordar que sus especiales propiedades y, en particular, las de aquellas suelas que salían de la curtidora de mi padre, se deben al colágeno. Se trata de una proteína fibrosa con una estructura repetitiva, basada en unos pocos aminoácidos, que constituye el armazón de la piel. En presencia de agua, las fibras de colágeno son relativamente ligeras y flexibles, pero también un blanco fácil para bacterias. Si se secan, se vuelven más estables, pero el material resultante es rígido debido a la formación de enlaces de hidrógeno entre las fibras. Cuando las pieles están húmedas, esas mismas interacciones implican también a las moléculas de agua, lo que confiere mayor libertad de movimiento y flexibilidad.

El proceso de curtición consiste, básicamente, en reemplazar esas moléculas de agua por otras sustancias que aporten flexibilidad al material final y lo protejan frente a la degradación biológica. De ahí surgen los dos grandes métodos: el curtido al cromo y el curtido con taninos (o curtido vegetal). Yo oí hablar de cromo y taninos mucho antes de considerar la idea de dedicarme a la Química.

El agente de curtido más extendido es el sulfato de cromo (III). El cromo proporciona a las pieles unas propiedades difíciles de conseguir por otras alternativas. Por poner un ejemplo, un cuero curtido al cromo puede llegar a tolerar durante tiempos prolongados la acción del agua hirviendo. El inconveniente es que el cromo (III), que no es tóxico, puede oxidarse a cromo (VI), un bicho de cuidado: tóxico, carcinógeno y capaz de causar dermatitis alérgica incluso a bajas dosis. De hecho, una norma de la UE prohíbe que, en los objetos curtidos al cromo que se comercialicen, haya una concentración de cromo (VI) superior a 3 ppm. De ahí la necesidad de ajustar cuidadosamente los procesos de curtición para evitar que se supere ese límite.

La forma más antigua de curtir es el llamado curtido vegetal, que hoy en día se sigue empleando en lugares como Italia, España, Francia, Japón, México o India. En este proceso se emplean extractos de plantas procedentes, por ejemplo, de mimosa u otros árboles ricos en taninos, que son un tipo de polifenoles. Estos compuestos interactúan con las cadenas de proteínas del colágeno y favorecen la unión entre las mismas. La diferencia fundamental con el curtido al cromo radica en la naturaleza de estas interacciones. El cromo genera enlaces más definidos y fuertes, resultando en una estructura más “bloqueada”. Los taninos, en cambio, crean una red de interacciones más débiles pero numerosas, lo que permite cierta reorganización con el tiempo. Esto explica por qué el cuero vegetal tiende a mejorar con el uso, mientras que otros materiales simplemente se degradan.

En comparación, las diferentes variedades de cuero vegano mencionadas carecen de la complejidad estructural y química del cuero tradicional. Aunque pueden imitar su aspecto, su comportamiento a largo plazo es distinto. Los polímeros implicados tienden a fallar de forma más abrupta, mientras que el cuero natural presenta un desgaste progresivo. La alternativa basada en micelio, por su parte, representa un intento interesante de reproducir una estructura fibrosa natural, pero aún no alcanza la sofisticación de propiedades del colágeno estabilizado.

En definitiva, el término “cuero vegano” engloba una amplia gama de materiales con propiedades y orígenes muy distintos. Desde plásticos convencionales hasta innovaciones biotecnológicas, cada opción presenta ventajas y limitaciones. Comprenderlas requiere ir más allá del marketing y analizar su composición, su estructura y su comportamiento a lo largo del tiempo. Solo así es posible evaluar de manera crítica si realmente constituyen una alternativa equivalente al cuero tradicional o, simplemente, un ejemplo más de cómo el marketing puede ir por delante de la realidad material.

Música clásica fácil de escuchar. La Badinerie o último movimiento, breve, rápido y alegre, de la Suite Orquestal n.º 2 en si menor, BWV 1067 de Johann Sebastian Bach. Con Herbert von Karajan de director, la Filarmónica de Berlín y Karlheinz Zöller, a la flauta. Grabado en la Sala Pleyel de Paris en 1968.

Leer mas...

martes, 31 de marzo de 2026

Céspedes artificiales y la percepción del riesgo

Varias veces he escrito en este Blog sobre el Estado de California y sus decisiones, en mi opinión un tanto exageradas, en materia de salud y medio ambiente, muchas de las cuales conllevan una importante carga quimiofóbica, derivada de la composición sociológica de su población. Quizás el caso más claro es su famosa Proposición 65, de la que hablamos en una entrada de 2024, entrada que me permitió explicar algo sobre lo que suelo volver de forma casi obsesiva: la necesaria distinción entre peligro (hazard) y riesgo (risk), a la hora de evaluar los temores de la población sobre las sustancias químicas. Sin embargo, como nada es blanco o negro, hace poco me he encontrado con un sorprendente informe de la californiana Oficina de Evaluación de Riesgos para la Salud Ambiental (OEHHA), relativo a los riesgos que supone el uso de céspedes artificiales en los deportistas que los frecuentan. El análisis tiene sobre todo que ver con el uso que en ellos se hace de partículas de caucho de neumáticos reciclados y constituye, para mí, un caso de libro de cómo se legisla en ocasiones sobre las sustancias químicas.

Durante años, el césped artificial fue promovido en California como una solución sostenible. En un contexto de sequía crónica, sobre todo entre 2012 y 2016, su principal ventaja era evidente, al eliminar la necesidad de riego intensivo. Municipios y particulares lo adoptaron como alternativa al césped natural, y la normativa de ese Estado incluso limitó la capacidad de los condados para prohibirlo. Como se ve en la figura que ilustra esta entrada, esos céspedes incluyen las mencionadas partículas de caucho (rubber granule en la figura), para hacer que la hierba artificial (también polimérica, plastic grass) se mantenga suficientemente firme.

Sin embargo, con el tiempo, surgieron otras preocupaciones sobre el empleo de estas superficies artificiales. El foco se desplazó desde el ahorro de agua hacia otros posibles impactos como la liberación de microplásticos (provenientes tanto de las fibras que simulan la hierba como, sobre todo, del caucho), la presencia y posible emisión de compuestos químicos peligrosos, la generación de calor urbano (que contribuyen a las islas de calor) o los problemas con su reciclaje una vez que ha terminado la vida útil de esos céspedes. Al final, pasaron de ser una solución ambiental a convertirse en un posible problema. Un cambio de narrativa como este es característico de sistemas complejos, donde las soluciones a un problema generan otros nuevos (véase, por ejemplo, el caso de los fertilizantes sintéticos).

Ante estas preocupaciones, el Estado de California encargó a la OEHHA un estudio exhaustivo que es el que se ha hecho público este mes de marzo de 2026. El estudio no se limita a identificar sustancias potencialmente peligrosas en los componentes del césped artificial, sino que evalúa el riesgo real del mismo en las condiciones de uso por parte de diversos actores (deportistas, árbitros, espectadores, etc..), así como en diferentes franjas de edad.

El estudio se centró en decenas de campos de césped artificial, analizando múltiples sustancias químicas como metales, hidrocarburos aromáticos policíclicos (PAHs) o compuestos orgánicos volátiles, evaluando distintas vías de exposición (inhalación, ingestión y contacto dérmico) y modelizando escenarios realistas de esa exposición en diferentes grupos de edad. Este último punto es clave en cualquier análisis toxicológico. No es lo mismo analizar la composición química de un material que determinar qué cantidad de esas sustancias llega realmente al cuerpo humano. Y esa exposición depende de la edad. Por ejemplo, en el caso que estamos describiendo, los niños pequeños presentan una mayor ingestión accidental de partículas (comportamiento mano-boca) y tienen menor peso corporal, lo que aumenta la dosis relativa, además de que, cuando practican deportes, los niños inhalan más aire. Por ello, los modelos utilizan escenarios conservadores que tienden a sobrestimar la exposición. Si incluso en estas condiciones no se detecta riesgo significativo, los resultados adquieren mayor solidez.

La conclusión principal del estudio (sorprendente para mi, viniendo de californianos) es clara: No se identifican riesgos significativos para la salud humana derivados del uso de césped artificial con relleno de caucho reciclado. Esa conclusión se basa en la ausencia de riesgos cancerígenos relevantes, en que los niveles de exposición de los diferentes segmentos de edades están por debajo de valores toxicológicos de referencia y en la ausencia de efectos significativos por inhalación, ingestión o contacto dérmico. Este resultado no implica, por supuesto, que el material sea químicamente inerte, sino que las dosis reales de exposición son demasiado bajas para generar efectos medibles. Volviendo a los conceptos de peligro y riesgo, una sustancia o actividad puede ser potencialmente peligrosa en condiciones extremas, pero no representar un riesgo en condiciones reales de uso. Por ejemplo, conducir un coche (una actividad) es inherentemente peligroso pues causa muchos muertos anualmente, pero es posible evaluar una probabilidad de cuánto riesgo corremos por conducir habitualmente un coche.

Las partículas de caucho granulado, como las empleadas en los céspedes artificiales, entran, por su tamaño, en los llamados microplásticos primarios, microplásticos añadidos deliberadamente para que tengan un efecto determinado. En esa categoría, además del caucho granulado, entran productos como las microesferas de plástico en cosmética u otros productos de cuidado personal (exfoliantes, pastas de dientes) que suponen una fuente conocida de los microplásticos que van al mar y al medio ambiente en general. De hecho, la Unión Europea y otros países van introduciendo reglamentaciones restrictivas sobre el uso deliberado de estos microplásticos. Por otro lado, las partículas de caucho que se generan durante la abrasión de los neumáticos de los automóviles con el asfalto suponen otra fuente adicional de micropartículas, muchas de las cuales, en países ribereños, también acaban en el mar.

La literatura científica ha abordado, desde hace unos años, el problema de que, una vez en el mar, esas partículas y otras que como ellas pueden definirse como microplásticos, puedan actuar como vectores (transmisores) de sustancias peligrosas a la fauna marina, tanto de aquellas que intrínsecamente les acompañan (restos de monómeros, plastificantes y otros aditivos) como de las que puedan absorber y que están disueltas en el propio agua de mar. Al confundir esos microplásticos con posibles presas, las aves acuáticas y peces pueden ingerirlos y provocar que esas sustancias químicas en ellos contenidas se bioacumulen en su organismo y, potencialmente, en otros seres vivos, incluidos los humanos, que las ingieran posteriormente.

Ese es un asunto que ya tratamos en esta entrada del Blog. En ella, y entre otra bibliografía, se mencionaba un artículo de 2016 de un grupo holandés que ponía en cuestión esa idea. Su argumento era que, en el mar, además de microplásticos de diversa procedencia (incluidas partículas de caucho) podemos encontrar numerosas partículas en suspensión (materia orgánica dispersa, fitoplacton, partículas de carbón, etc.) que abundan más que los microplásticos y que también adsorben contaminantes presentes en el agua de mar. Esto implicaría que el papel de los microplásticos como vectores químicos puede haber sido sobredimensionado en el discurso público. De hecho, con posterioridad a ese artículo y basándose en él, organismos como la Organización Mundial de Salud (OMS) llegaba a similares conclusiones en un estudio de 2022 (véase el penúltimo párrafo de la página 97).

Y ahora, a la luz de los resultados del informe californiano que estamos comentando, cabría preguntarse si no se refuerzan esas conclusiones, en lo relativo a las sustancias químicas que las partículas de caucho que van al mar puedan contener y las concentraciones que potencialmente puedan transferirse.

En cualquier caso, el asunto de los céspedes deportivos y sus componentes y riesgos es un buen ejemplo de cómo se construyen a menudo las políticas ambientales. Para quien siga este Blog, la secuencia es familiar: se identifica una sustancia potencialmente peligrosa, se amplifica la noticia mediáticamente, se genera una presión política y regulatoria, se realizan estudios más completos y, en muchos casos, se revisa, matiza o incluso se desacredita la narrativa. Este proceso no implica siempre mala fe por parte de sus diversos actores (que a veces la hay, especialmente en algunos), sino que es el resultado de la interacción entre ciencia, percepción social y toma de decisiones bajo incertidumbre. El debate sobre el césped artificial y las partículas de caucho en California no es un ejemplo de “problema inexistente”, típico de empresas con intereses, ni de “crisis ambiental ignorada”, típico de activistas, sino de algo más habitual en nuesta época: un problema complejo cuya percepción ha evolucionado más rápidamente que la evidencia científica.

El estudio de la OEHHA que hemos comentado no cierra todas las preguntas, pero sí establece la importante conclusión según la cual, en condiciones reales de uso, el riesgo para la salud humana es muy bajo. Esto no elimina la necesidad de seguir investigando, especialmente en el ámbito ambiental (por la presencia de microplásticos), pero sí invita a introducir un elemento de prudencia en un debate en el que la información ha sido y es incompleta, las percepciones son intensas y las consecuencias legislativas pueden ser significativas. Hay que pensar en términos de riesgo real y no de intuiciones. Pero, en esto, como en otras cosas, hay mucho dinero en juego.

Hoy acabamos con El Pelele de Enrique Granados, interpretado por la pianista Alba Ventura en un concierto en la Fundación March en 2022.

Leer mas...

martes, 17 de marzo de 2026

Un fin de semana por tierras salmantinas

Siendo golfista viejo y viviendo donde vivo, es fundamental estar pendiente de la meteorología local (el tiempo). Además, por razones que no vienen a cuento, desde finales de la primera década de este siglo y, sobre todo, desde mi jubilación en 2016, el tiempo a largo plazo (el clima) me ha ido interesando progresivamente como disciplina. Durante estos años, me he llevado unas cuantas decepciones con la web de AEMET al tratar de obtener datos sobre la temperatura del agua de mar, que se mide cada día en el Aquarium donostiarra, sobre series climáticas largas acumuladas desde 1928 en el observatorio de Igeldo o en otros lugares. Así que tuve que buscarme la vida en otros pagos. Y acabé cayendo en la página web de Javier Sevillano, un ingeniero de telecomunicaciones jubilado, natural de El Villar de Argañán, una localidad salmantina a escasos kilómetros de la frontera portuguesa. Esa web contiene innumerables datos sobre la meteorología de las capitales españolas, además de unas historias increíbles sobre los pueblos cercanos a El Villar, entre los que se encuentra La Alameda de Gardón, a escasos tres kilómetros. En La Alameda pasamos hace poco unos días en casa de una pareja de amigos (ella es natural del pueblo) a los que conocemos desde hace más de cincuenta años y que han vivido toda su vida laboral entre Hernani y Donosti. Lo que ellos nos han ido contando a lo largo de los años y lo que yo he leído en la web de Sevillano sobre la zona, se hizo realidad en cierta medida durante esos días, aunque espero volver pronto para profundizar en algunas de las cosas que os voy a contar en esta entrada.

El territorio del que estamos hablando, en el suroeste de la provincia de Salamanca, forma parte del sector occidental del Macizo Ibérico, una de las regiones geológicamente más antiguas de la península. Hace unos 300 millones de años, grandes masas de magma granítico se abrieron paso a través de rocas más antiguas, solidificando y generando diversos minerales. Como consecuencia de ello, en un radio relativamente pequeño alrededor de La Alameda han ido apareciendo, a lo largo de la historia reciente, explotaciones de varios minerales que dan lugar a elementos que hoy consideramos estratégicos, como es el caso del wolframio, el uranio, el estaño y las llamadas tierras raras. Aunque la comarca nunca llegó a convertirse en un gran distrito minero industrial, sí ha dado lugar a diferentes episodios de actividad minera que reflejan los cambios económicos y tecnológicos del pasado siglo XX.

El wolframio, un elemento químico del que ya hemos hablado en este Blog, descubierto en el Real Seminario de Bergara por los hermanos Elhuyar, ha sido probablemente el mineral más importante explotado en el entorno de La Alameda de Gardón durante el pasado siglo. Este metal, de propiedades físicas muy valiosas para la industria militar, se convirtió, durante la Segunda Guerra Mundial, en un recurso estratégico de primer orden. La interrupción del comercio internacional, derivada de la guerra, hizo que Europa dependiera en gran medida de los yacimientos de wolframio de la Península Ibérica y, más concretamente, de la zona lindante entre España y Portugal. La demanda creciente provocó una intensa competencia por el wolframio ibérico. Durante varios años, comerciantes vinculados tanto a Alemania como a los aliados, especialmente Reino Unido y Estados Unidos, compraban grandes cantidades del mineral. Hay teorías que dicen que las compras de estos últimos iban destinadas a minar el suministro que pudiera llegar a los nazis. El precio alcanzó niveles extraordinarios, generando un breve periodo de prosperidad en algunas zonas rurales.

Aún hoy, quedan muchos vestigios de numerosas pequeñas explotaciones en filones de cuarzo asociados a granitos. Estos filones contenían principalmente wolframita y, en menor medida, scheelita, los dos minerales principales de wolframio. La minería en esta zona fue generalmente de pequeña escala. Las explotaciones consistían en galerías cortas o trincheras excavadas que corrían paralelas a los filones mineralizados. Aún y así, localidades cercanas a La Alameda como Fuenteguinaldo, Robleda o Navasfrías tuvieron una actividad especialmente intensa. En muchos casos, campesinos y vecinos del lugar trabajaban temporalmente en las minas, aprovechando el elevado precio del mineral. En ese entorno se acuñó la expresión “ir al wolfran”.

Sin embargo, esta actividad fue relativamente corta. A partir de 1944, la presión diplomática aliada llevó al gobierno de Franco a restringir las exportaciones de wolframio hacia Alemania, lo que provocó el colapso del mercado. Tras el final de la guerra, muchas de las pequeñas minas cerraron rápidamente y los vecinos volvieron a sus actividades agrícolas. Pero en sitios como la mencionada Navasfrías se pueden visitar las instalaciones existentes, según puede verse en esta web. La próxima vez que vaya a La Alameda, va a ser una visita obligada.

Un segundo hito importante de la minería salmantina fue la exploración y explotación de uranio durante la segunda mitad del siglo XX. La provincia de Salamanca alberga uno de los principales distritos uraníferos de España, concentrado alrededor de Ciudad Rodrigo, de donde procede mi amigo salmantino. Las minas más importantes se situaron en Saelices el Chico y en el área de Retortillo. Los minerales más comunes que pueden allí encontrarse son la uraninita o pechblenda, la autunita o la torbernita. Tras la Segunda Guerra Mundial, cuando el uranio se convirtió en un recurso estratégico tanto para la energía nuclear como para aplicaciones militares, el extraído en la provincia de Salamanca formó parte del combustible utilizado en las primeras centrales nucleares españolas y en otras aplicaciones. El mineral salmantino tenía bajas concentraciones de uranio (como la mayoría de los yacimientos del mundo). Por eso, para poderlo usar había que triturarlo, molerlo y tratarlo químicamente hasta obtener un óxido de uranio concentrado, U₃O₈.

El concentrado producido en España no podía usarse directamente en un reactor. Había que convertirlo en hexafluoruro de uranio (UF₆) y enriquecerlo en uranio-235. Esos procesos no se hacían en España sino en instalaciones de enriquecimiento en Estados Unidos, Francia o Reino Unido. Después del enriquecimiento, el uranio volvía a España para fabricar el combustible. Una empresa que aún existe, ENUSA Industrias Avanzadas, producía pastillas de dióxido de uranio (UO₂), ensambladas en barras de combustible que se utilizaron en las primeras centrales nucleares españolas, como la José Cabrera (la primera central nuclear española), la de Santa María de Garoña o la de Almaraz.

Aunque en el entorno inmediato de La Alameda de Gardón no se desarrollaron minas de uranio importantes, diversos estudios geológicos indican la presencia de anomalías radiométricas y mineralizaciones menores. Uno de esos estudios fue llevado a cabo, a principios de la segunda década de este siglo, por la firma australiana Berkeley. En ese estudio, se puede constatar las toneladas estimadas de uranio, en forma de óxido de uranio, en La Alameda y en diversas localidades de su entorno. En base a estos informes, Berkeley obtuvo inicialmente un permiso de explotación minera en la localidad de Retortillo. Pero una enmienda pactada entre Podemos y el PSOE en octubre de 2020 al Proyecto de Ley de Cambio Climático y Transición Energética, que acabó siendo la Ley 7/2021, de 20 de mayo, prohibió otorgar nuevas autorizaciones de exploración, investigación o explotación de minerales radiactivos, como el uranio. Aunque eso no afectaba al permiso concedido a Berkeley, el proyecto quedó prácticamente paralizado porque el Consejo de Seguridad Nuclear emitió informes negativos sobre la planta de tratamiento del mineral extraído y el Ministerio de Teresa Ribera denegó autorizaciones clave para construir esa planta. Y, sin planta de procesamiento, la mina no podía funcionar.

En el término municipal del pueblo de Javier Sevillano, se encuentra Mina Aurora, donde se han identificado y extraído, desde los años 30, minerales como la ambligonita (que contiene litio) y la casiterita, una mena de estaño. La historia de esa mina está bien documentada por Javier en esta página de su web. Así que sobra cualquier comentario por mi parte.

Además del wolframio, uranio y estaño, los granitos del oeste de Salamanca contienen pequeñas cantidades de los elementos conocidos como tierras raras de los que hablamos no hace mucho. Elementos como el lantano, cerio, neodimio o itrio que, como contábamos en esa entrada, son fundamentales para numerosas tecnologías modernas, desde turbinas eólicas hasta dispositivos electrónicos. En el entorno de La Alameda, las tierras raras no aparecen en grandes yacimientos explotables, sino en minerales accesorios presentes en las rocas graníticas. Entre los más importantes se encuentran la monacita y la xenotima, que contienen tanto tierras raras como pequeñas cantidades de torio.

No contento con esta profusión de elementos de la Tabla Periódica, los días en La Alameda me han permitido conocer que el análisis del agua que llega a sus grifos suele dar, de forma recurrente, contenidos de arsénico que exceden los 10 microgramos/litro, la cifra máxima permitida por la UE. El exceso no suele ser importante pero implica que tiene que declararse como agua no apta para consumo humano. ¿De dónde sale ese arsénico?. Pues probablemente, una vez más, del abundante granito que puebla las magníficas dehesas de los alrededores y que también suelen contener vetas de minerales de ese elemento. No es un hecho raro, como ya documenté en otra entrada en la que os hablaba de la cantidad del territorio USA que tenía problemas similares.

Y para acabar, el Vals de la Tormenta de nieve de Gueorgui Svirídov, discípulo de Dmitri Shostakovich, en una grabación de la Orquesta Filarmónica de Moscú bajo la dirección de Yuri Simonov.

Leer mas...

domingo, 1 de marzo de 2026

Antimonio en tu agua embotellada: Una revisión veinte años después

El mes de marzo de hace veinte años fue el mes más productivo (y el primero completo) de este Blog. Y eso que yo seguía en activo en mi Facultad. Pero en mi descargo tengo que decir que, durante los años anteriores, había acumulado mucho material con el que ilustraba a mis alumnos de 1º de Química sobre los problemas que la Quimiofobia estaba acarreando y los fui utilizando con rapidez en sucesivas entradas. La del 23 de marzo de ese año estuvo dedicada a una noticia que tuvo bastante repercusión en los medios y que tenía que ver con la contaminación por antimonio (Sb) del agua distribuida en botellas de poli (etilen tereftalato) (PET), el plástico hoy mayoritario a la hora de envasar agua mineral y bebidas carbonatadas. Ahora, celebrando el vigésimo aniversario del Blog, y dado que tengo muchos nuevos seguidores que no tenía en aquellas fechas (algunos serían tiernos infantes o estarían en secundaria), he decidido revisar, a la luz de literatura reciente, lo que entonces escribí. Y lo cierto es que hay poco verdaderamente importante que revisar.

Mi entrada de 2006 se hacía eco de la polvareda mediática levantada por un artículo, entonces recién publicado, por parte del grupo de William Shotyk de la Universidad de Heidelberg, en el que tras investigar diversas aguas embotelladas en PET, mostraban analíticamente que tenían un mayor contenido en antimonio (alrededor de 300 partes por trillón, ppt, o 0.3 µg/L) que las embotelladas en polipropileno (8 ppt) y lejos del contenido de las aguas en manantiales naturales (que ellos analizaban en Canadá y que cifraban en 2 ppt, casi en el límite de detección de las técnicas analíticas que empleaban). Los autores también constataban que el contenido en antimonio de las botellas de PET crecía con el tiempo de almacenamiento de las mismas.

Monserrat Filella, una conocida investigadora sobre el antimonio y sus implicaciones en el medio ambiente, publicó en 2020 una revisión sobre ese elemento y las botellas de PET. En esa revisión, el artículo de Shotyk, mencionado en el párrafo anterior, fue considerado, históricamente, como el punto de arranque de la investigación sobre el contenido de antimonio en botellas de PET, a pesar de que ya había literatura previa al respecto. Filella ordena, evalúa y critica la literatura existente desde entonces que, básicamente, ha ido confirmando experimentalmente ciertas ideas intuitivas que mi entrada avanzaba cualitativamente. Dado que el antimonio se emplea como catalizador en la producción del PET y que puede migrar desde el plástico al agua que la botella contiene, parecía lógico aventurar que el antimonio tenía que aparecer en el agua envasada en PET y que, además, esa migración fuera creciendo con el tiempo durante el que el plástico y el agua estuvieran en contacto. Por otro lado, como proceso difusivo que la migración es, era también esperable que estuviera afectado por la temperatura, de forma que cuanto más alta fuera esta (por ejemplo, si la botella se deja en un coche al sol durante varios días) la cantidad de antimonio en el agua tendría que ser mayor. Sobre estos extremos hay actualmente pocas dudas y, como digo, se ha demostrado experimentalmente en múltiples trabajos que la revisión cita (véase, en lo tocante al efecto de la temperatura, su figura 3).

La revisión constata, tras considerar la literatura existente en 2020, otra idea que los autores de Heidelberg ya avanzaban en su artículo de 2006. Que las concentraciones de antimonio en las múltiples botellas investigadas a lo largo de todos estos años están muy por debajo de las establecidas en las regulatorias americanas y europeas. Además, y muy importante, el antimonio ingerido en las bajas concentraciones presentes en el agua potable, no muestra un comportamiento bioacumulativo comparable al de metales como el plomo o el mercurio orgánico. Diversas evaluaciones internacionales (por ejemplo, la de la americana Agencia para el Registro de Sustancias Tóxicas y Enfermedades, ATSRD en 2019) coinciden en que la absorción gastrointestinal es limitada y que la mayor parte del antimonio absorbido se elimina por vía urinaria en un plazo de horas a pocos días. En otras palabras, la presencia de trazas detectables no implica necesariamente una acumulación progresiva en el organismo.

Regulatorias que, como la autora de la revisión indica, tienen ciertas “peculiaridades”. Y ello es así porque podríamos simplificar diciendo que hay dos culturas regulatorias diferentes. Una de ellas, con origen en la salud pública del agua del siglo XX, considera que el agua potable es un servicio público continuo, que la población consume diariamente y sobre la que hay que establecer límites que protejan a la población e, incluso, a los grupos más vulnerables. El resultado es que se establecen límites muy conservadores, procurando que las concentraciones de antimonio que contiene el agua de grifo no vayan más allá de 5–6 µg/L en la UE y EEUU. Y, si se sobrepasan, hay que tomar medidas. Es un modelo basado en la evaluación toxicológica de la ingesta diaria admisible (IDA) con sus factores de seguridad, como vimos recientemente en el caso de la sucralosa.

El otro punto de vista se refiere al agua mineral natural, la que normalmente se embotella en vidrio, en PET o en otros plásticos. Las normativas reconocen a esas aguas minerales como productos con identidad propia. El agua mineral es un alimento con composición natural fija que no debe modificarse artificialmente (salvo casos extremos) ya que la composición química forma parte de su identidad. Aquí el enfoque es distinto: no se “optimiza” la composición, se acepta que un agua puede tener niveles más altos de ciertos elementos si son naturales y la regulación combina criterios toxicológicos con tradición alimentaria. De ahí que los valores regulatorios sobre el antimonio sean mucho más altos (hasta 40 µg/L en la UE y, en USA, ni siquiera se establece un valor).

Antimonio (y arsénico, como aquí mencionábamos) hay de forma natural en muchas aguas de manantial, como consecuencia de su existencia en zonas geológicas por las que el agua discurre antes de aflorar al exterior. Este hecho hace, que a la hora de evaluar cuánto antimonio hay en una botella de PET, haya que diferenciar entre el que contiene el agua en origen y el que se genera como consecuencia de la migración desde el plástico. Un hecho que, según Filella, es uno de los fallos metodológicos de muchos estudios sobre el tema y que ha complicado el sacar conclusiones fiables. Como lo es el hecho de considerar cuánto tiempo lleva el agua envasada en la botella PET cuando los investigadores comienzan a analizar su contenido en antimonio. O en qué condiciones de temperatura se ha tenido el agua almacenada desde su envasado hasta que entra en el laboratorio de análisis. La revisión de Filella dedica mucho tiempo a esos fallos metodológicos.

Una idea bastante citada es que cuando envasamos en PET bebidas ácidas, como los zumos o las bebidas de cola con ácido fosfórico, la acidez hace que se libere más antimonio que cuando tenemos simplemente agua. Como Filella resume en su artículo, en el intervalo de pH propio del agua mineral (≈6–8), el efecto del pH sobre la migración de antimonio desde el PET es bajo o prácticamente inexistente, pero la situación es distinta cuando dejamos de hablar de agua y pasamos a bebidas ácidas complejas (con pH inferior a 4-5). Estudios experimentales recientes han observado incrementos de migración de antimonio en productos ácidos, donde el efecto parece relacionarse no solo con el pH sino con la presencia de ácidos orgánicos y condiciones térmicas que modifican la superficie interna de la botella y, por tanto, la cinética superficial de migración. Lo que parece fuera de duda es que, incluso en estos escenarios, la temperatura sigue siendo el factor dominante, con un comportamiento exponencial (tipo Arrhenius), como hemos avanzado anteriormente. Y que los niveles de antimonio siguen siendo seguros.

La reutilización de botellas de PET se cita con frecuencia como causa de una mayor liberación de antimonio. En la revisión de Filella hace únicamente mención a un artículo publicado en 2012 que mostraba que, en condiciones domésticas normales, los incrementos de antimonio son modestos y, en general, permanecen muy por debajo de los límites regulatorios europeos. Aunque se suele hablar de deterioros del material plástico que potencia la liberación, lo cierto es que, una vez más, la temperatura elevada tiene un efecto mucho más marcado sobre la migración. Dicho de forma simple, reutilizar una botella en casa es mucho menos problemático que dejarla semanas en el maletero de un coche al sol. Si existe un problema práctico asociado a la reutilización, probablemente no sea químico sino microbiológico. Las botellas, diseñadas en principio para un solo uso, son difíciles de limpiar adecuadamente, pueden desarrollar biofilmes en su interior y, en condiciones de humedad y temperatura ambiente, favorecer el crecimiento bacteriano. La preocupación pública suele dirigirse a las trazas de antimonio detectadas pero la evidencia sugiere que, en el uso cotidiano, la higiene merece al menos tanta atención como la migración química.

Y para acabar esta primera entrada de la temporada vigésimo primera del Blog,el Adagio del Concierto número 1 para violín de Haydn. Adaptado para el cello por Mischa Maisky que es quien lo toca en el vídeo.

Leer mas...

lunes, 23 de febrero de 2026

Sucralosa: otro edulcorante por chiripa.

En este Blog hemos hablado en repetidas ocasiones sobre diferentes edulcorantes, esas sustancias que son más dulces (mucho más dulces) y menos energéticas que el azúcar de mesa y que, por tanto, se utilizan como sustitutos de él, como una forma de evitar sus peligros. Su descubrimiento fue, en varios casos, por pura chiripa. El caso de la sacarina está documentado en una entrada anterior, cuando conté que, un día de junio de 1878, el químico Constantin Fahlberg volvió a casa del laboratorio y se percató de que a pesar de haberse lavado las manos, éstas estaban impregnadas de algo sorprendentemente dulce. Volvió al laboratorio y a base de dar lengüetazos a los productos con los que estaba trabajando (los químicos del pasado eran así de lanzados), descubrió lo que hoy conocemos como sacarina.

En el caso del aspartamo, del que he escrito mucho, no he contado sin embargo que fue descubierto en diciembre 1965 en los laboratorios de la farmacéutica G.D. Searle que, en la época, andaban buscando medicamentos contra la úlcera gástrica. En una de las reacciones de purificación de uno de los productos investigados, parte de lo que había en el reactor salió del mismo y salpicó a uno de los investigadores (James M. Schlatter). Poco después, al humedecer el dedo para separar dos hojas de papel, descubrió el intenso dulzor de lo que le había caído a la mano. El caso de hoy, la sucralosa, es otro ejemplo más de chiripa (o serendipia), donde la lengua vuelve a jugar su papel.

El descubrimiento de la sucralosa en 1976 fue motivado por un sorprendente error lingüístico. La empresa azucarera británica Tate & Lyle, la misma que popularizó el terrón de azúcar en el Reino Unido, estaba investigando derivados de la sacarosa (el azúcar de mesa convencional) en colaboración con científicos del Queen Elizabeth College (hoy parte del King’s College de Londres). Querían modificar químicamente el azúcar para estudiar nuevas propiedades. En uno de los intentos, sustituyeron, como veis en la figura, tres grupos –OH de su molécula (en verde) por tres átomos de cloro (en rojo) y así nació la molécula que hoy conocemos como sucralosa.

Aunque en lo que ahora voy a relatar puede que haya algo de mito, cuentan las crónicas (e incluso documentos corporativos de Tate & Lyle) que Leslie Hough (un químico de carbohidratos) pidió a su estudiante de doctorado Shashikant Phadnis, de nacionalidad india, que analizara el nuevo compuesto. Analizar en inglés es “test”, pero quizás porque el inglés no era su lengua materna, Phadnis entendió “taste”, probar en inglés. Y sin pensárselo dos veces, siguiendo la tradición de los viejos alquimistas y de químicos como Fahlberg, Phadnis probó el polvo blanco que habían obtenido (sin considerar que fuera tóxico) y descubrió que era extremadamente dulce. De hecho más de 600 veces más dulce que la sacarosa del azúcar normal.

El descubrimiento fue algo inesperado porque, normalmente, al clorar una molécula orgánica se suelen alterar sus propiedades fisicoquímicas y biológicas pero, en este caso, la modificación conservó la interacción con los receptores del dulzor e impidió que el cuerpo la metabolizara como azúcar. Tras pruebas de seguridad y desarrollo industrial, se lanzó al mercado en los años 90 bajo la marca Splenda, con su famoso eslogan “Hecho a partir del azúcar, así que sabe como el azúcar”. Es más habitual en USA que en Europa, donde ha tenido que competir con el ya mencionado aspartamo, el acesulfamo K y, más recientemente, con la estevia.

Pero como buen edulcorante sintético, la sucralosa ha estado desde sus inicios en el objetivo de los quimiofóbicos, que aquí lo tenían a huevo: la sucralosa tiene en su unidad estructural tres átomos de cloro, un maligno donde los haya, aunque el cloro forme parte de miles de moléculas orgánicas perfectamente estables y seguras. Y también ha estado y sigue estando (como no podía ser de otra manera) bajo la revisión, junto con otros edulcorantes, de Agencias que cuidan de nuestra salud. Y así, en 2023, la Organización Mundial de la Salud publicó un extenso informe titulado “Uso de edulcorantes sin azúcar: directrices de la OMS”, en el que manifiesta su opinión sobre esta familia de aditivos, entre los que se encuentra la sucralosa. Sobre la base de recientes revisiones, la OMS propone que no se utilicen edulcorantes sin azúcar como medio para controlar el peso o reducir el riesgo de enfermedades cardiovasculares, por entender que no son eficaces a largo plazo y porque, en ese largo plazo, pudieran causar otros problemas de salud. El informe me ha resultado sorprendente porque mucha de su argumentación sobre esos posibles efectos en la salud, se basa en evidencias científicas que ellos mismos califican de baja o muy baja certidumbre (véase el Anexo 6).

Habrá que seguir el tema, pero dado que el informe mete en un mismo saco a todos los edulcorantes, sin particularizar al caso de la sucralosa que nos ocupa, he preferido mostraros lo que sobre ella dicen otras agencias regulatorias, como la Food and Drug Administration (FDA) americana y la European Food Safety Authority (EFSA). Ambas consideran a la sucralosa como una sustancias segura, dentro de la ingesta diaria admisible (IDA) que, de acuerdo con la estimación de la FDA, es 5 mg por kilo de peso corporal y día, mientras que en el caso de la EFSA es 3 veces más (15 mg por kilo de peso corporal y día). Establecido lo cual, podemos hacer algunas cuentas de las que tanto gustan a vuestro Búho.

Tomemos una persona media de peso corporal 70 kg. Multiplicando ese peso por la IDA, resultan 350 mg al día en el caso de usar la de la FDA. Un sobre típico de Splenda contiene aproximadamente 12 mg de sucralosa pura, aunque el peso total del sobre suele ser mayor porque lleva maltodextrina para que la pobre sucralosa no se nos pierda al abrir el sobre. Si ahora dividimos los 350 mg al día por los 12 mg de sucralosa en cada sobre, resultan aproximadamente 29 sobres al día. Es decir, una persona de 70 kg tendría que consumir casi 30 sobres diarios, todos los días de su vida, para llegar al límite de seguridad. Mucho más interesante es que consideremos el hecho de que la mayor parte de la sucralosa se suele ingerir no en los sobrecitos con los que endulzamos un café, sino en las bebidas “light”. Las latas convencionales de esas bebidas suele contener entre 40–70 mg de sucralosa (según formulación). Para alcanzar la IDA habría que consumir entre 5 y 9 latas diarias de ese refresco, todos los días de una vida, de forma crónica. Si usáramos la IDA de la EFSA, el número de sobres y latas se multiplicaría por tres. Y no se debe olvidar (muy importante) que las IDAs suelen calcularse con márgenes de seguridad muy conservadores, dividiendo en muchos casos por 100 las dosis a partir de las cuales se observan efectos en animales de laboratorio.

La cosa se puso más seria para la sucralosa cuando, en 2016, se publicó un artículo del italiano Instituto Ramazzini en el que se concluía, tras estudios con ratones de laboratorio, que la sucralosa era cancerígena. Para llegar a esos resultados, los investigadores habían alimentado a los pobres ratones con dosis diarias de sucralosa que eran entre 4 y 133 veces la IDA de la EFSA (o, alternativamente, entre 12 y 399 veces la IDA de la FDA). El Ramazzini es, probablemente, el laboratorio toxicológico más conocido, y también más controvertido, en estudios de carcinogenicidad ambiental y alimentaria. El Instituto utiliza diseños poco habituales en toxicología regulatoria como el seguimiento de animales hasta su muerte natural (no sacrificio estándar), el empleo de grandes cohortes (poblaciones) de roedores o la exposición durante casi toda la vida, con la idea de detectar tumores tardíos.

Algo que suena bien, pero que introduce problemas como los que suelen señalar las principales agencias mundiales. Sin entrar en muchos detalles, los ratones de avanzada edad, como los humanos, tienen muchas más posibilidades de tener cáncer. Así que linfomas y leucemias en roedores envejecidos, como los que se detectaban en el estudio, constituyen una señal particularmente difícil de interpretar, ya que pueden reflejar procesos inflamatorios asociados al envejecimiento más que un efecto carcinogénico directo. Usando este tipo de argumentos, el artículo del Instituto Ramazzini tuvo una inmediata contestación de la Autoridad Europea de Seguridad Alimentaria (EFSA), en forma de una revisión crítica, que concluyó que los datos no apoyaban una relación causal con tumores y que estudios adecuados en roedores no mostraban efecto cancerígeno.

Otro estudio relevante que no apoya el carácter cancerígeno de la sucralosa es un estudio observacional francés de 2021 sobre 102865 adultos de la llamada cohorte NutriNet-Santé. Si observáis la Tabla 2, en el caso de la sucralosa, los llamados HR o Hazard Ratio (Cociente de Riesgos Instantáneos), que miden el riesgo relativo entre grupos expuestos a la sucralosa y los no expuestos, son números muy próximos a 1 (sin diferencias significativas) o incluso menores a uno, lo que indicaría que los consumidores de sucralosa tienen menos riesgo de ciertos cánceres.

Más complicadas de debatir, por relativamente recientes, son otras problemáticas que se han achacado al uso de los edulcorantes en general y a la sucralosa en particular. Y que tienen que ver, por ejemplo, con la posibilidad de que la sucralosa puede modificar la microbiota intestinal, la respuesta o la sensibilidad a la insulina o la respuesta a una inmunoterapia oncológica. De todo esto yo puedo decir poco o nada, así que mejor no me meto mucho donde nadie me llama. Aunque de la microbiota algo he leído a Ignacio López-Goñi en su magnífico Blog microBIO y, más recientemente, en su libro Microbiota y Salud Mental.

En ese libro y en el capítulo dedicado a la Microbiota y la interacción con los alimentos, hay una breve referencia a los alimentos ultraprocesados y, en alla se menciona que “Muchos informes han demostrado que el consumo continuado de edulcorantes artificiales no calóricos (como aspartamo, sacarina, sucralosa, ciclamato, sorbitol…) puede alterar la microbiota intestinal, con un aumento de Bacteroides y Lactobacillus y una disminución de Clostridiales, entre otros. Se ha sugerido también que estas variaciones de la microbiota podrían causar intolerancia a la glucosa”. Pero, por lo que yo he podido entender en el libro sobre esas variaciones de los microorganismos citados, no es fácil sacar conclusiones sobre si son buenas o malas. Y habría que ver si esos cambios son reproducibles, clínicamente relevantes y asociados a desenlaces adversos. Así que voy a estar más atento a estas cosas para seguir viendo como evolucionan los posibles nuevos efectos de los edulcorantes y de otros aditivos.

Musica clásica con marcha, como la que a mi me gusta. El final de Los Preludios de Franz Liszt, con la Filarmónica de Berlin con Christian Thielemann a la batuta. Yo creo que los lleva un poco acelerados…..

Post Scriptum
Ayer, pocas horas despues de publicar esta entrada, un seguidor incondicional me hizo llegar este documento, una revaluación de la sucralosa por parte de la EFSA, publicado el pasado martes 17 de febrero. Es extraño que no la haya recibido pues estoy suscrito a las alertas de la Autoridad, pero no he podido saber por qué.
En cualquier caso, la revaluación no invalida en lo esencial lo que he contado en esta entrada. Las conclusiones de la EFSA, resumidamente, no identifican nuevos problemas toxicológicos relevantes, la nueva evidencia disponible no cambia la evaluación previa, se mantiene la IDA de 15 mg/kg/día (tres veces superior a la de la FDA) e, incluso, al evaluar nuevos usos en el sector de la repostería, la exposición estimada permanece por debajo de la IDA.
La EFSA también revisa los posibles efectos de la sucralosa sobre el equilibrio (homeostasis) glucosa-insulina y concluye que, aunque algunos estudios describen cambios fisiológicos, la evidencia disponible no permite establecer efectos adversos consistentes ni modificar la evaluación de seguridad de la sucralosa.
La EFSA solo recomienda que se estudie en detalle y, en su caso se rebaje, las concentraciones permitidas de algunos subproductos clorados que se generan durante la fabricación de la sucralosa.

Leer mas...

Powered By Blogger