La Química de los polímeros, como muchos otros tipos de Química, admite vulgarizaciones bastante sencillas. Al menos así lo creo yo y como tal, he procurado incidir en muchos casos en las razones últimas de las cosas, tratando de pelarlas de toda retórica o jerga profesional, buscando que sea el concepto fundamental el que quede como poso de lo que pretendo explicar. Y para poner un ejemplo, hoy voy a hacer una entrada sobre un concepto que, a bote pronto, puede resultar casi esotérico: la tacticidad de los polímeros.
Muchos, la gran parte de los polímeros, son cadenas de muchos átomos de carbono unidos entre si por enlaces. En primera aproximación, formar cadenas macromoleculares (grandes) es como formar cadenas humanas. Imaginemos ahora que a miles de ciudadanos los reunimos en dos grupos en la playa de La Concha: un grupo cerca del puerto, el otro cerca del Palacio de Miramar. Demos a cada uno de los grupos instrucciones concretas. Al que está cerca del puerto le diremos que cada persona de esa cadena debe unir su mano izquierda con la derecha del anterior y su mano derecha con la izquierda del siguiente. A los que están cerca del Palacio les diremos que les damos absoluta libertad para hacer eso o lo contrario, esto es, unir su mano izquierda con la izquierda del anterior y su derecha con la derecha del siguiente.
Supongamos que ya hemos formado las cadenas y permitimos que las personas integrantes se muevan libremente, generando cadenas enrevesadas. Un piloto que observara ambas cadenas desde el aire sería incapaz de distinguir las diferencias entre ambas cadenas. Sin embargo, si forzáramos a las cadenas a ponerse en una estructura alineada con la orilla del mar, el piloto vería que, en una cadena, todos miran en la misma dirección, mientras en la otra unos miran para un frente y otros para el contrario.
Algo así pasa en la polimerización. El propileno es una molécula pequeña, un gas, que forma cadenas de polipropileno al unirse entre sí muchas moléculas de propileno. Cada propileno tiene dos carbonos (las bolas rojas de la gráfica de arriba). Uno está unido a dos hidrógenos (las bolas blancas de la figura). El otro, a un hidrogeno y a un grupo metilo (las bolas azules). A cada unidad de propileno le quedan dos posibilidades de formar enlaces con otros propilenos. En la figura se ven tres moléculas completas de propileno y media más. Supongamos que a los propilenos les hemos dado instrucciones para que se vayan uniendo de forma y manera que dejen la bola azul siempre del mismo lado. Sería algo similar a la cadena humana que una vez alineada, todos sus componentes miraran al mismo lado. Como la cadena humana, el polipropileno no tiene por qué estar siempre alineado. De hecho la cadena se puede enrevesar y entremezclarse con otras cual plato de spaghetti. Un enano que se metiera en una masa de polípropileno con visión microscópica le sería difícil, como al piloto de mi ejemplo, distinguir si nuestra cadena ha sido generada de la forma ordenada que hemos descrito o no, pero lo cierto es que si la estiráramos del todo con unas pinzas moleculares el enano sería consciente de las peculiaridades de la cadena.
Pues bien, una cadena de ese tipo se puede generar con la adecuada Química, con imperfecciones en la ordenación inferiores al 4%. Empleando unos catalizadores conocidos como catalizadores Ziegler-Natta, podemos así obtener un polímero llamado polipropileno isotáctico, el segundo material plástico más vendido en el mundo, empleado en botellas, parachoques, filmes de envasado, cordajes de naútica, muebles de oficina y cocina y un largo etcétera, gracias a su carácter cristalino, su aguante a temperaturas de casi 180ºC, su resistencia a los disolventes, sus excelentes propiedades mecánicas, además de otros atributos. Curiosamente, son esos mismos catalizadores los que han permitido reproducir las diferentes estructuras de los diferentes tipos de cauchos segregados por árboles tropicales y a los que hacía mención en mi entrada del 12 de marzo sobre los cauchos, el chicle, etc.
Sin embargo, sin la ayuda de ese catalizador, los propilenos se vuelven menos disciplinados y entran según su leal saber y entender, de forma y manera que dejan las bolas azules a un lado y a otro, en un proceso totalmente al azar. Lo curioso es que esa falta de disciplina ante la falta del catalizador policía conduce a un material que no sirve para nada, una especie de chicle con el que no se puede fabricar nada que aguante ni siquiera la temperatura ambiente. Por supuesto, las ventas de este segundo material, al que denominamos polipropileno atáctico son prácticamente inexistente.
Hay que recalcar que, desde un punto de vista químico, se trata de materiales de idéntica constitución (carbono e hidrógeno en la proporción 1/2), aunque técnicas como la espectroscopia infrarroja o, sobre todo, la RMN son lo suficientemente sutiles como para poder detectar la diferentes ordenaciones de las unidades de propileno en el seno de la cadena.
Siempre me han gustado las experiencias de cátedra. Sobre todo ahora que tengo pocos alumnos, me encanta bajar a mis clases con un trozo de CO2 sólido para explicar la sublimación o con una pequeña bomba de vacío y mostrar sus efectos en el cierre de un recipiente o en la ebullición a baja temperatura de un líquido. Pero lo del Dr. Brindley, un neurofisiólogo inglés es llevar la pasión por las experiencias de cátedra un poco demasiado lejos.
Este ciudadano presentó una ponencia en un Congreso de Urología celebrado en Las Vegas en 1983 de forma muy convincente. Su contribución versaba sobre un tratamiento para el síndrome de disfunción eréctil, forma académica de describir que el pene no cumple con los requisitos previos para una buena penetración. Su hipótesis era que una molécula orgánica, la fenoxi benzamina, era un buen remedio contra los primeros síntomas de impotencia masculina. Y ni corto ni perezoso, unos cuantos minutos antes de su presentación, Brindley, que a la sazón era ya un maduro de 57 años, se inyectó la sustancia en su propio pene. Cuando subió al estrado los efectos ya eran evidentes y el decidido inventor se paseó por la audiencia mostrando dichos efectos y animando a los asistentes a que tocaran su enhiesto órgano y comprobaran que allí no había ni trampa ni cartón.
La divertida historia sirve para decorar el inicio de una serie de moléculas destinadas a producir el mismo efecto, el ejemplo más conocido de las cuales es la famosa “blue pill” o Viagra.
Brindley había llevado a cabo una serie de experiencias antes del Congreso de Las Vegas, animado por la sugerencia de un colega que le había hecho ver que sustancias que sirven para bajar la presión arterial pudieran tener el efecto contrario en el llenado de los vasos sanguíneos del pene durante la erección (ver aquí). Brindley probó diversas sustancias como la papaverina, que ha sido utilizada por actores porno en su complicado trabajo. Los trabajos de Brindley se acompañaron por la puesta en el mercado de sustancias inyectables con el mismo efecto, como el Caverject de Pharmacia&Upjohn. Pero claro, no tiene mucha gracia el tener que andar taladrándose el pene con asiduidad.
A finales de los años ochenta, dicen que accidentalmente mientras buscaban principios activos para las anginas de pecho, los laboratorios de la Pfizer descubrieron que el citrato de sildenafilo tenía éxitos notables en producir y mantener erecciones en hombres con y sin problemas. Y así nació el Viagra. El éxito ha sido tal que la competencia reaccionó enseguida y Eli Lilly comercializa ahora el Cialis, Glaxo vende Levitra, etc. Y nadie tiene que andar agujereándose el pene.
Dada mi provecta edad, ni que decir tiene que sigo la bibliografía sobre estas moléculas con tanto interés como la que tiene que ver con las propiedades de transporte de gases y vapores a través de filmes poliméricos..... La pregunta que queda ahora en el aire es si la popularización de estos fármacos va a servir simplemente como una herramienta más en los divertimentos eróticos del personal o va a generar una auténtica revolución sociológica entre la tercera edad. Tiempo al tiempo.
Nota: Esta entrada ha sido actualizada en setiembre de 2014.
El área de investigación a la que he dedicado los últimos años tiene que ver con la forma en la que difunden los gases y vapores a través de capas delgadas de plástico. Si lo explico un poco más, diría que estamos interesados en procesos en los que gases atmosféricos (como el nitrógeno, oxígeno, anhídrido carbónico o vapor de agua, además de otros que anden sueltos por ahí como consecuencia de la contaminación o que deliberadamente los pongamos) pueden atravesar filmes como los que se emplean para envasar alimentos o paredes como las de las botellas de agua, Coca-Cola, envases de cosméticos, etc.
La primera idea sencilla de entender es que, a diferencia de los que ocurre en envases de vidrio o de hojalata, gases como el oxígeno o similares pueden atravesar las paredes de una botellas de agua o el filme que envuelve una bandeja de embutidos expuesta en un supermercado. Eso, que mucha gente no conoce, tiene sus inconvenientes y hay que tenerlo en cuenta en las sofisticadas formas de envasado que hoy en día usamos con nuestros alimentos y otros bienes de consumo. Un buen ejemplo es la botella de Coca-Cola que podemos comprar en un supermercado. La famosa “chispa de la vida” no es sino anhídrido carbónico, dióxido de carbono o CO2, que es lo mismo, encerrado en la botella y que trata de salir al exterior cuando la abrimos.
Si nuestra botella de Coca-Cola está almacenada y bien tapada durante largos períodos de tiempo, puede ocurrir que, al abrir el tapón, de “chispa de la vida” nada de nada. El CO2 se ha ido escapando a través de las paredes a una velocidad que los que nos dedicamos a esto denominamos permeabilidad.
Otras cosas pueden escaparse hacia la atmósfera exterior de forma similar. Por ejemplo, el café envasado debe de mantener diferentes aromas que sólo deben expresarse en el momento en el que preparemos la infusión de café con agua caliente. Para ello, los fabricantes de los envases de café han desarrollado sofisticados sistemas en los que las paredes de esos envases constan de varios filmes de diferentes polímeros, superpuestos en forma de sandwich, cada uno de ellos destinados a evitar la fuga de algunos de los aromas esenciales del café.
Probablemente habrás notado que muchos de los envases de snacks como patatas fritas y otros preparados que hacen las delicias de nuestros adolescentes están ligeramente hinchados. No es que nada esté fermentando en su interior. Se trata, por el contrario, de que los fabricantes introducen atmósferas de gases cuidadosamente elegidos para que el alimento que contienen se deteriore de forma más lenta con el paso del tiempo. Muchos de ellos contienen atmósferas más ricas en nitrógeno (o más pobres en oxígeno) que el propio aire.
Otro buen truco es el aplicado en el envasado de carne. El consumidor gusta de carnes de apariencia roja, debidas a la oximioglobina, compuesto que la mioglobina forma en atmósferas ricas en oxígeno. Por el contrario, todos tenemos un cierto rechazo al color que la carne tiene tras estar mucho tiempo contra la superficie de un plato (un color oscuro, casi tirando a marrón), que surge en la carne en condiciones pobres en oxígeno, cuando se forma la metamioglobina. Pues bien, los exportadores de carne, envasan ésta en recipientes protegidos por filmes de plástico, en el interior de los cuales se coloca una atmósfera rica en oxígeno que genere una superficie rica en oximioglobina. Pero para que ese efecto sea permanente en las estanterías de los supermercados el filme debe de ser suficientemente impermeable al oxígeno, algo harto complicado pues el oxígeno es una molécula pequeña que se cuela con facilidad por el volumen libre que dejan entre sí las moléculas de polímero que constituyen el filme.
Hasta ahora hemos visto la importancia de que un gas no se escape de un recinto como una botella o un envase con atmósfera controlada. Pero el efecto contrario también puede (y debe) controlarse. Me refiero a la entrada de gases atmosféricos, fundamentalmente oxígeno o vapor de agua, en recipientes que contienen productos sensibles a esos gases, debido a reacciones de oxidción o hidrólisis a los que pueden dar lugar.
Uno de los ejemplos por excelencia es el envasado de cerveza. Quizás nunca hayas pensado en las razones por las que es habitual encontrar agua, zumos, bebidas carbónicas envasadas en plástico y, sin embargo, la cerveza siempre se maneje en envases metálicos o de vidrio. La razón no es otra que la extremada sensibilidad de la cerveza al oxígeno atmosférico. Todo el mundo ha experimentado el efecto que un tiempo de aireación extendido tiene en las propiedades organolépticas de la cerveza. Esta sufre un proceso de oxidación rápido que cambia la percepción habitual de un buen trago de nuestra cerveza favorita. Hay ya intentos en el mercado para hacer que las botellas de polietilen tereftalato (PET), el plástico más usado en botellería, tengan una resistencia superior al oxígeno. La nanotecnología ha venido a echar una mano, con la introducción de materiales híbridos PET-sílice en los que la sílice hace el papel de unas chinitas puestas en el camino del oxígeno a través del PET, dificultando así el proceso, rebajando la permeabilidad y permitiendo tiempos de envasado mayores.
Esta entrada fue actualizada el 29 de mayo de 2017. Si algún enlace os dirige a esta página y queréis ver su versión actual, podéis picar aquí.
Hace solo dos entradas que he estado hablando de las técnicas que detectan productos químicos a niveles de las partes por trillón (ppt) o mas de las ppt y aunque me gustaría diversificar la temática de mis entradas, Javier Ansorena me ha mandado hoy un recorte del El Mundo que no puedo dejar de comentar. Javi me lo ha mandado con coña porque mantenemos una disputa sobre nuestros gustos en cuanto al agua que bebemos. El siempre bebe agua de grifo, yo agua de botella y de baja mineralización, y no porque desconfíe del agua de grifo de Donosti. No en vano quien la controla es Itziar Larumbe, antigua alumna y gente seria. Simplemente no me gusta el sabor. Igual que no me gusta el sabor de algunas embotelladas como Insalus o Urberuaga por su exceso de sales disueltas. Así que es cuestión de gastronomía, no de otra cosa.
El caso es que El Mundo se hacía eco de un trabajo a publicar en el Journal of Environmental Monitoring por parte de un grupo de la Universidad de Heidelberg, Shotyk y col., en el que tras investigar diversas aguas embotelladas en PET, mostraban analíticamente que éstas contienen un mayor contenido en antimonio (alrededor de 300 ppt) que las embotelladas en polipropileno (8 ppt) y lejos del contenido de las aguas en sus manantiales naturales (que ellos analizaban en Canadá y que cifraban en 2 ppt, casi en el límite de detección). Además el contenido en las de PET crecía con el tiempo de almacenamiento. El autor atribuía ese contenido a la migración de antimonio desde la botella al agua. La existencia de antimonio en la primera se achaca a su empleo como catalizador en el proceso de producción del PET.
No tengo nada que objetar, en principio, a los resultados. Es cierto que el antimonio se emplea como catalizador. Y es cierto que puede migrar y más cuanto más tiempo esté en contacto con el agua y cuanto más alta sea la temperatura (por ejemplo, si la botella se deja en un coche al sol durante varios días). Y los resultados me parecen interesantes en cuanto pueden servir de acicate para la búsqueda de catalizadores que obvien el problema denunciado.
Lo que me subleva una vez más es el empleo interesado de la noticia por parte del periodista (con la Iglesia hemos topado). Hace un resumen parcial del artículo y después se interna por el proceloso mundo de aventurar que estamos envenenándonos al consumir agua en envases que, “encima”, son un problema ecológico en la eliminación de los residuos, consumen petróleo, etc. Oculta, sin embargo, que los propios autores dicen que no están preocupados por el nivel de ppt que han medido, que no les parece peligroso. Tampoco dice que la EPA americana, la agencia ambiental más reputada del mundo, cifra el nivel de tolerancia del antimonio en 6 partes por billón (ppb), es decir, unas veinte veces la cifra analizada. Ni se ha preocupado en enterarse de que el antimonio no es un elemento que se acumule en los organismos vivos, sino que es fácilmente excretado por éstos. Así que algo he tenido que buscar sobre el antimonio y aquí lo voy a dejar.
En la cabecera de esta entrada hay un retrato de Mozart. ¿Qué pinta aquí el músico de Salzburgo?. Existen fundados motivos para creer que Mozart murió intoxicado. Hay constancia de que el mismo manifestó ese temor a su esposa en otoño de 1791, poco antes de morir. La cosa se enredó algo más cuando su rival musical, Antonio Salieri, en sus últimos años de vida y con una demencia senil evidente, confesó que era él el que había envenenado a Mozart. Hay quien cree que fue envenenado con mercurio, pero hay una teoría, recogida por John Emsley en uno de sus libros según la cual es probable que muriera intoxicado por antimonio, suministrado por su médico. No hay que olvidar que en el siglo XVIII y bastante más tarde, ningún maletín de médico serio dejaba de contener el emético tartárico, un preparado para inducir el vómito, muy popular en esa época. La sustancia empleada es un tartrato de potasio y antimonio. La gente lo tomaba de forma regular para librarse de resacas matinales tras una copiosa cena, como si se tomara un Almax. Aunque había que tener cuidado porque la dosis médica de ese emético no está muy lejos de la dosis considerada fatal y que es de unos 100 mg.
El mismo Emsley, en su libro “Moléculas para una exposición”, valora en 0.5 mg o menos lo que ingerimos diariamente de antimonio y análisis realizados en organismos humanos permiten estimar en unos 2 mg. la cantidad total existente en una persona media. Ambas cifras son buenos indicativos de que el cuerpo humano expele enseguida los excesos de antimonio. Y para que el periodista de El Mundo se entere, para colectar 0.5 mg de antimonio a partir de agua embotellada con contenidos en antimonio de 300 ppt como los analizados en el trabajo arriba mencionado, necesitaríamos coger 1.6 toneladas de agua, o sea 1600 litros de agua, lo que mucha gente no se bebe en cinco años de consumo de agua embotellada en PET. Así que, ¿de qué estamos hablando?.
Además, a ver si al final nos pasa con el antimonio como con el selenio. Durante años ha arrastrado la fama de ser un elemento molesto y peligroso. Molesto porque puede formar compuestos parecidos a los que forma el azufre y que emiten los olores más nauseabundos con los que uno puede encontrarse. Peligroso porque dosis en torno a 50 mg., es decir la mitad de la estimada en el caso del antimonio, es seguramente letal para una persona.
Y sin embargo, sin selenio no podemos vivir. El selenio forma parte de enzimas sin las que los organismos humanos pueden tener problemas diversos. Por sólo citar dos de ellos, está demostrado que la carencia de selenio es la causante del llamado mal de Keshan, una región del sur de China en la que muchos niños sufrían problemas cardíacos que mataban a la mitad de los afectados. Un estudio epidemiológico demostró que la administración de cantidades adecuadas de selenio solucionaba sustancialmente el problema. Más recientemente, se ha descubierto que puede que la falta de selenio esté en el origen de un 10-15% de los casos de infertilidad masculina. Las dosis necesarias diarias de selenio son de unos 50 microgramos, es decir, mil veces inferior a la dosis letal arriba descrita. Una vez más debemos citar la máxima de Paracelso, “es la dosis lo que hace veneno”.
Ah! y el selenio no entra en nuestro cuerpo por la contaminación que todo lo invade, sino por la alimentación. Alimentos ricos en selenio (en proporciones minúsculas de microgramos) son pescados como el atún o el salmón, las vísceras, los frutos secos, el germen de trigo o la levadura de cerveza.
Esta entrada ha sido modificada en diciembre de 2017. Si algún enlace te lleva a esta página, puedes acceder a la versión actualizada picando aquí.
Esta entrada fue actualizada el 29 de julio de 2022. Si cualquier enlace en otras entradas te redirige aquí, puedes picar en este otro que te llevará a la versión actualizada.
Esta entrada se actualizó el 29 de noviembre de 2019. Si algún enlace en entradas de este Blog os envía a esta página, podéis ver su versión actualizada en 2019 aquí.
No todo es de color de rosa en el mundo relacionado con la Química que ha causado y causa problemas y a la que se identifica socialmente con residuos, contaminación atmosférica, etc. Sin embargo, frente al énfasis que se pone en ese tipo de problemas, pocas veces se ha resaltado debidamente la manifiesta capacidad de la Química en la resolución de los propios problemas que ha ido creando. Problemas que, en muchos casos, han nacido de un desconocimiento de lo que pueda derivarse de la introducción de algunos procesos.
Es evidente que todo proceso o producto nuevo tiene un riesgo. Pero sin la asunción de algún riesgo, ningún avance es posible. Vivir es un riesgo que enfrentamos cotidianamente. Y no deja de ser curioso que mientras que asumimos de forma casi automática riesgos que, como el uso del automóvil o el fumar, tienen muchas probabilidades de causarnos lesiones graves o la muerte a lo largo de nuestra vida, asumamos mucho peor el empleo de sustancias que, siendo potencialmente peligrosas en algunos casos, hay mucha menor probabilidad de que puedan causarnos problemas realmente graves (el caso de los residuos de plásticos es bastante ilustrativo a ese respecto).
En línea con lo manifestado, hay muchos ejemplos en los que el desarrollo de nuevos procesos o productos sintéticos ha dado lugar lugar a problemas ambientales graves que no se preveían cuando se descubrieron. El ejemplo de la disminución en la capa de ozono es relevante por su gravedad, pero también por la rapidez con la que se obtuvieron las bases para iniciar la resolución del problema.
A partir de los años 60 se comenzaron a detectar radiaciones ultravioletas solares excesivamente intensas en la Antártida. El fenómeno se producía todas la primaveras aumentando en intensidad de año en año. Inmediatamente se relacionó con una disminución local de la capa de ozono estratosférico que filtra la radiación solar. Pero el por qué de esta disminución del ozono era un misterio para la ciencia.
Dos científicos del Massachusetts Institute of Technology (MIT), Rowland y Molina, que estudiaban la química de la estratosfera propusieron la teoría de que el ozono se destruye por un mecanismo catalítico inducido por radicales cloro (Cl). El enigma continuaba pues era difícil explicar la presencia de radicales cloro en la estratosfera. Finalmente demostraron que provenía de los gases denominados clorofluorocarbonos o CFCs, compuestos sintéticos que el hombre ha fabricado en millones de toneladas a lo largo del siglo XX y que al final de su ciclo de vida son liberados a la atmósfera.
El uso de los gases CFCs está relacionado con los sprays, los sistemas de aire acondicionado, la fabricación de espumas sintéticas o con las neveras y congeladores que han jugado un papel decisivo en la conservación de alimentos y por tanto en la lucha contra el hambre en el mundo. Pero los CFCs son tan estables que se han ido acumulando en la troposfera y han sido capaces de atravesar la barrera de la tropopausa y llegar a la estratosfera. Allí, debido a la intensa radiación solar, se descomponen liberando átomos de cloro que son capaces de catalizar la destrucción del ozono.Rowland y Molina compartieron con Crutzen el premio Nobel de Química de 1996, por su valiosa contribución al esclarecimiento del problema.
Una vez detectada la causa última del problema, la conferencia de Montreal del 1987 permitió diseñar una estrategia asumible por el conjunto de los países de sustitución de los CFCs. La disminución drástica de emisiones de estos compuestos a lo largo de la década de los 90 está permitiendo revertir la tendencia creciente del problema. Aunque el problema se ha seguido agravando los últimos años, los datos indican, sin embargo, que la situación va tendiendo a estabilizarse y podría resolverse a mediados del siglo XXI. La gran inercia observada es debida a la larga vida media de los CFCs que para algunos de ellos puede alcanzar 400 años.
En resumen, a principios del siglo XX los químicos fueron capaces de sintetizar compuestos nuevos como los CFCs que supusieron avances con importantes repercusiones en el nivel de vida de la población, pero con el paso de los años se descubrió que producían un efecto secundario en el medio ambiente. De nuevo los químicos fueron los que explicaron el problema y plantearon alternativas respetuosas con el ambiente que nos permitieran no renunciar a los avances y mejoras en la calidad de vida que nos habían proporcionado los CFCs.
Alguna vez tengo que empezar a hablar de polímeros que es lo mío. Y para ello, nada mejor que la historia de los cauchos naturales y sintéticos (toma otra vez dicotomía). En muchos libros de texto y páginas web destinadas a los cauchos, se suele mencionar como hito histórico para comenzar a contar su historia, el asombro con el que Cristóbal Colón contempló, en uno de sus viaje a Haití a finales del siglo XV, a unos nativos jugando con algo que hoy llamaríamos un balón y que era una bola blanda que botaba. El tatarabuelo de nuestros balones era una esfera de un material que los nativos extraían de una serie de árboles tropicales que exudan una especie de resina al realizar incisiones en su corteza.
Hoy sabemos que ese látex es una macromolécula o polímero, lo que químicamente se traduce en una molécula con muchos átomos debido a la repetición sistemática de una unidad o monómero. En el caso del caucho, que así se denomina el producto de estos árboles, la unidad que se repite es el isopreno.
Ese caucho natural resultó, históricamente, muy importante en el desarrollo del automóvil durante el final del siglo XIX y, más concretamente, en la logística de la primera guerra mundial. Goodyear, fue capaz de desarrollar los primeros neumáticos, tras aplicar al caucho natural una modificación química, conocida como vulcanización, y que consistía en calentar la goma con compuestos de azufre para hacerla indeformable bajo el peso de los automóviles. Sin la vulcanización, un caucho se comporta casi como la plastilina de nuestros años infantiles.
Lo que resulta fascinante al estudiar los diferentes tipos de plantas que son capaces de producir látex es que cada uno de ellas es un “laboratorio” particular, que produce un tipo de caucho diferente en propiedades y aplicaciones. Por ejemplo, el llamado Hevea brasilensis, cuya foto se ve arriba, produce un tipo de caucho que es el que se vende todavía hoy como caucho natural y que se sigue empleando en la fabricación de neumáticos. Para alguien con una formación química, el caucho Hevea es una macromolécula en la que lo que se repite son unidades de cis-1,4 isopreno. Pero no muy lejos de las plantaciones de Hevea brasilensis uno puede encontrar plantaciones de otros árboles no muy diferentes como la Balata o la Isonandra gutta, que producen látex que da lugar a cauchos completamente diferentes y que se suelen denominar por el nombre del árbol. Químicamente son polímeros de trans-1,4 isopreno, es decir, una sutil diferencia de colocación geométrica de los mismos átomos. Estos materiales no se emplean en gran escala y tienen un uso muy reducido. El caucho de la Isonandra que se suele llamar gutapercha (del malayo getah, goma y percha, árbol) se ha empleado antiguamente por los dentistas, como rellenos de las caries. El caucho proveniente de la balata se empleaba (ahora en menor escala) como corazón de las bolas más exclusivas de golf.
De otro árbol productor de caucho arranca también la historia del chewing gum o chicle. De hecho, chicle es la denominación que los nativos de las selvas de Yucatán en Guatemala daban a la goma obtenida de un árbol llamado sapodilla (Achras zapota) que, en la década de los setenta del siglo XIX, fue llevada a Nueva York por el entonces presidente de Méjico, General López de Santa Ana quien se lo entregó a un fotógrafo de Staten Island, llamado Thomas Adams. Desde entonces, Adams es sinónimo de chicle y durante más de sesenta años, el chicle fue el ingrediente principal de las gomas de mascar.
La historia del caucho y el chicle tuvo un giro importante en el turbulento tiempo entre las dos guerras mundiales, cuando el suministro de caucho natural se convirtió en un verdadero problema estratégico y ello hizo que se investigara la posibilidad de obtener cauchos sintéticos. Carothers, trabajando para la DuPont, en 1928, introdujo un material muy parecido al caucho natural que todavía hoy seguimos empleando bajo la marca comercial que patentó DuPont (Neopreno). Pero a lo largo de los años cuarenta y cincuenta del siglo pasado, diversos laboratorios y empresas fueron capaces de producir cauchos sintéticos reproduciendo, por ejemplo, las variedades cis y trans del poliisopreno. Hoy en día, la industria del caucho sigue siendo un pujante negocio.
A partir de ese tiempo tenemos toda una gama de cauchos sintéticos con los que poder producir neumáticos pero también otro tipo de materiales relacionados que se emplean en la fabricación de chicles. Las ventajas de estos materiales sintéticos son evidentes. Son muy uniformes al no depender, como les pasa a los naturales, de las regiones de recogida del látex. Son además mucho menos complejos en su formulación ya que, por ejemplo, tanto el caucho como el chicle contienen una serie de sustancias adicionales que causan problemas. Y así, esas sustancias hacen que el sabor del chicle natural sea un poco fuerte y haya que enmascararlo con aditivos. En otros casos, como en la fabricación de guantes desechables y preservativos, que se fabricaban originalmente a partir de látex de caucho natural, se optó por el caucho sintético para evitar ciertos problemas de alergias cutáneas que algunos tipos de caucho natural ocasionaban.
Uno de los ejemplos emblemáticos (al menos en mi opinión) de hasta donde puede llegar la falta de criterios consistentes en lo que a ciencia se refiere, es la pujanza de la homeopatía como “medicina alternativa”. Los principios de la homeopatía se basan en la obra publicada por Samuel Hahnemann en 1810 bajo el titulo Organon der Rationellen Heilkunde, principios que se han mantenido inmutables hasta la actualidad (compárese esa inmutabilidad con lo ocurrido en la medicina convencional).
Hahnemann pasó gran parte de su vida probando sustancias naturales para ver qué síntomas producían, bajo la hipótesis de que podían curar enfermedades que tenían esos mismos síntomas. Obviamente muchas sustancias naturales pueden ser extremadamente tóxicas (él lo experimentó con la quinina). Preocupado por los efectos secundarios experimentó con la dilución, encontrando, como es obvio para cualquier persona sensata, que al aumentar la dilución disminuían o incluso desaparecían dichos efectos secundarios. Y lo que es más asombroso, llegó a la conclusión de que cuanto mayor era la dilución más parecían beneficiarse sus pacientes. Ello es lo que se conoce como la ley de los infinitesimales de Hahnemann: “cuanto menos mejor”.
Philipp Theophrast von Hohenheim, para los amigos Paracelso, un personaje pintoresco y genial que revolucionó la clásica Universidad de Bolonia en el siglo XVI, fue mucho más clarividente que Hahnemenn con tres siglos de anticipación. Dosis sola facit venenum - sólo la dosis hace veneno - era su máxima y con ese criterio usaba algunos venenos como fármacos, pero no llegó a los extremos fundamentalistas del homeópata que, lo que es peor, han perpetuado sus seguidores cual religión. Y esa máxima de Paracelso se vuelve de rabiosa actualidad cuando el hecho de que nuestras técnicas analíticas detecten cantidades infinitesimales (ppm, ppb) de cualquier sustancia (natural o sintética) parecen convertirlas, en muchos casos, en letales para nuestro organismo. Pero volvamos a la homeopatía.
Todos los medicamentos homeopáticos llevan una etiqueta que indica el número de diluciones que se han efectuado con la llamada cepa homeopática o “materia prima” de las preparaciones. Algunos preparados homeopáticos llegan a diluciones que, en su jerga, se denominan 30 CH, obtenidos a partir de auténticos venenos para el organismo humano como el arsénico, venenos de serpientes o la belladona. Eso quiere decir que la cepa homeopática, que suele tener una concentración inferior a 1 M (molar), se ha diluido treinta veces sobre la base de un procedimiento que consiste en coger una parte de la cepa, diluirla en 99 partes del diluyente (generalmente agua), coger una parte de esa nueva concentración y diluirla en 99 partes de diluyente y, así sucesivamente, hasta treinta.
Cualquier estudiante de Bachillerato que no sea un piernas calculando concentraciones de disoluciones acuosas puede llegar a concluir que cuando el medicamento contenga en su etiqueta denominaciones como 11 CH o 12 CH, la concentración molar anda entre 10 elevado a -22 y diez elevado a -24 molar. Y diez elevado a -60 M para el caso de los 30 CH. Y otro de los conceptos de Química que cualquier estudiante conoce es el ligado al llamado número de Avogadro, que aunque establecido en 1811, no se reconoció su validez con datos experimentales hasta 1860. En un mol de cualquier sustancia hay 602.300.000.000.000.000.000.000 átomos o moléculas de esa sustancia. Por ejemplo, en aproximadamente 75 gramos de arsénico hay ese increíble número de átomos pequeñitos de arsénico.
O sea, que a partir de concentraciones como 10 elevado a -24 molar, hay más probabilidades de que en la disolución haya un solo átomo o molécula de la sustancia en cuestión o no haya ninguna. Así que ¿qué tendremos a una concentración 10 elevado a -60 M, como la de los preparados 30 CH?. Agua o lactosa, empleada como soporte en las famosas pildoritas homeopáticas.
El razonamiento que acabamos de hacer está tan bien asentado en bases comprobadas desde hace años que los propios homeopáticos tuvieron que reaccionar. Y así comienza la historia de un par de artículos científicos que muestran la influencia de grupos de presión bien establecidos en comportamientos que, como el científico, debiera estar alejados de influencias espúreas. En años recientes hemos conocido algunos más (fusión fría, células madre,....).
Entre 1987 y 1988, una revista secundaria pero honesta como The European Journal of Pharmacology y la prestigiosa Nature publicaron un par de trabajos de un grupo de homeópatas liderados por J. Benviste. No voy a entrar en el detalle de ambos artículos pero la filosofía que existía tras ellos y que trataba de contrarrestar el argumento irrefutable basado en el número de Avogadro es alucinante. Los autores sostenían que, efectivamente, a altas diluciones, la probabilidad de encontrar alguna molécula del principio activo es muy baja si no nula, pero el agua mantiene una “memoria” de lo que ha contenido en ella y, gracias a esa memoria, puede tener efectos beneficiosos.
El llamado caso de la memoria del agua es uno de los más flagrantes goles metidos a los referees de Nature (un referee es un científico de prestigio que evalúa la validez de artículos de otros, en el clásico procedimiento de las revistas científicas). El caso tiene múltiples significados que no caben en esta entrada de mi blog. Más allá de la pretensión ilegítima a la condición de ciencia por parte de una doctrina, la homeopática, de inspiración preatomista, el caso ilustra la mediocridad de la literatura científica en general (entono el mea culpa en lo que me atañe) y, en el trasfondo, los complejos juegos de poder que agitan la comunidad científica internacional y sus relaciones con la sociedad civil. Y resulta sorprendente que una sociedad culta, como la francesa, haya llegado a admitir la homeopatía en tal grado que la Seguridad Social de ese país sufrague el 65% del costo de los medicamentos homeopáticos. ¿Será porque una de las empresas de mayor facturación homeopática y que distribuye sus productos en la economía global es la francesa Boiron?.
Y volvemos a la Gastronomía. Ayer estuve de visita en Arzak y, como suele pasar a menudo, Juanmari y yo tuvimos una pequeña discusión. Ayer fue sobre la pasteurización, pero la chispa salta por muchas cosas que, en el fondo, no es sino el reflejo de cuán diferentes se ven las cosas cuando se aplica el método científico o cuando se deja una puerta abierta a la bioenergética, la biomagnetización y términos similares, en los que Juanmari cree y yo me río. Pero al salir del restaurante recordaba otras “trifulcas” similares y una de ellas es la que me da pie a esta entrada.
Me está siendo difícil hacerle comprender que muchos de los aromas y sabores representativos de los alimentos se deben a un componente mayoritario que casi siempre es una molécula identificada. Peter Atkins, en su libro “Atkins’s molecules” describe unos cuantos que debieran servir en mis argumentos. Por ejemplo la capsaicina (C18H27O3N) es la especie que confiere su carácter picante a los pimientos rojos y verdes que en USA y México se conocen como chillis o chiles. El benzaldehido (C7H6O) es un aroma y sabor característico de las almendras, sobre todo las amargas. Las cebollas y los ajos contienen una alta concentración en un aminoácido, la cisteína, que contiene átomos de azufre. Mientras las cebollas no se cortan o aplastan no ocurre nada, pero cuando se ejecutan esas agresiones físicas, se rompen celdillas y los aminoácidos se transforman en otras sustancias como el disulfuro de dialilo (C6H10S2) que confiere su aroma característico al ajo. Y que decir de la cafeina (C8H10O2N4), presente en una taza de café en aproximadamente 0.1 gramos y que estimula la corteza cerebral.
Todos esos aromas, olores y sabores juegan un papel fundamental en los platos gastronómicos que se generan a partir de esos productos naturales. Si eso es así, si conocemos tan bien los componentes esenciales, ¿por qué no podemos adquirirlos como productos químicos de laboratorio y usarlos en pequeñas cantidades como condimentos de muchos platos?.
Esa es la pregunta que Hervé This se plantea en uno de los capítulos de su libro “Casseroles & éprouvettes”. La aromatización de platos es una de las señas de identidad de la nueva cocina, pero ¿por qué limitarnos a añadir hierbas o especias “naturales”?. This propone, por ejemplo, añadir 1-octen-3-ol a un plato de carne para conferirle el aroma característico que impregna los bosques llenos de setas.
Y no estamos haciendo química. Y si pensamos que la hacemos debiéramos de recapitular y contemplar otros productos químicos que se han utilizado siempre en la cocina: la sal común (cloruro sódico), el ácido acético (componente esencial del vinagre de vino), el alcohol etílico o metílico (en menor medida) de las bebidas alcohólicas, los triglicéridos (en el aceite), la sacarosa (en el azúcar), etc.
Terminando como estoy, prefiero no asustar con los efectos nocivos de estos productos “naturales”, pero no puedo resistirme a dar un ejemplo. El alcohol metílico o metanol que se suele producir en la sidra de una forma tan natural como se produce en etanol en el vino, es metabolizado por una enzima que se llama catalasa, que anda como pedro por su casa en la retina de nuestro ojo, donde también participa en el mecanismo de la visión. Al metabolizarlo produce formaldehido que reacciona con las proteinas del retinal, eliminado así su papel en la visión, lo que a concentraciones altas de metanol provoca la ceguera. Como se ve, todo muy natural. Como la vida misma..........
Debo esta entrada en mi blog a la relectura del delicioso libro de John Emsley “Vanity, Vitality and, Virility: The Science Behind the Products You Love to Buy”. Al leer el título colocado sobre las figuras que decoran esta entrada, es probable que alguien haya pensado que voy a escribir sobre “química” que promueve y mantiene el atractivo sexual entre dos personas. Pero no es así. En realidad, quiero hacer un resumen de diversos aspectos, que Emsley describe magistralmente, sobre la influencia que ciertos elementos y moléculas químicas tienen en las actividades placenteras por excelencia para los humanos: las relaciones sexuales. Me centraré en lo que toca más de cerca a los machos de nuestra especie. A las chicas les dedicaré otra entrada otro día. Como también advierte Emsley en el inicio del capítulo de su libro que origina el término Virility del título, los lectores que puedan ofenderse con el contenido de esta entrada pueden cerrarla ya.
La historia puede iniciarse con el sorprendente cambio de percepción que hemos tenido que realizar, en los últimos años, en torno a una sustancia química muy sencilla en cuanto a estructura molecular. Sólo consta de un átomo de nitrógeno y uno de oxígeno. El llamado óxido nítrico, o NO en términos de nomenclatura de los químicos, fue una molécula denostada durante mucho tiempo, al formar parte de los llamados gases NOx, gases emitidos en los tubos de escape de los motores. Esos gases son parcialmente responsables de fenómenos como el smog que poluciona el aire de las ciudades, contribuyendo también a la génesis de la llamada “lluvia ácida” que ha asolado algunos de los principales bosques de la Europa Central. En este principio del siglo XXI y debido al control creciente de esos problemas que acabamos de mencionar, el NO ha perdido parte de su mala prensa y al terminar de leer esta entrada puede que acabeis adorando al NO, en tanto que parte integrante de vuestras relaciones sexuales. Particularmente si el que me lee es un macho todavía activo.
Las implicaciones llamémosle médicas del NO arrancan del empleo del nitrito de amilo en el tratamiento de anginas de pecho. Estamos hablando del siglo XIX. El nitrito de amilo es un líquido que se podía envasar en una diminuta cápsula de vidrio que se podía romper en caso de un ataque cardíaco, bebiéndose su contenido. No muy lejos en el tiempo, los trabajos de Alfred Nobel sobre la nitroglicerina como explosivo condujeron, de forma marginal, al descubrimiento de que también esta molécula podía actuar como vasodilatador rápido que, en cuestión de unos pocos minutos, actuaba de forma eficaz contra los síntomas de una angina de pecho.
Hoy sabemos que en ambos casos la molécula química que realmente está jugando ese papel vasodilatador de los músculos que provocan el ataque es nuestro pequeño amigo el NO. En una situación de angina, esos músculos contraen los vasos sanguíneos que acarrean el suministro de sangre y oxígeno al músculo cardíaco. El NO los relaja y soluciona el problema. Hoy también sabemos que aunque tóxico en cantidades importantes, el propio organismo puede generar las cantidades necesarias de NO a partir del aminoácido conocido como arginina, que puede adquirirse de alimentos como los cacahuetes, el arroz, los huevos, etc.
Pero íbamos a hablar de sexo, ¿NO?. Pues hay que decir que este gas juega un papel fundamental en el “tono viril” necesario para una satisfactoria cópula. Cuando un varón, en disposición receptiva (bastante habitual por otro lado), es estimulado eróticamente, el cerebro manda una señal a los nervios del corpus cavernosum, la estructura espongiforme del músculo del pene. Con la llegada de esa señal, el corpus cavernosum genera NO. Este, con su efecto relajante, como el que actúa frente a una angina, es capaz de relajar una especie de músculo “portero” que es el que impide la entrada de sangre en el pene. Cuando eso ocurre, la sangre entra en éste, que se hincha y produce una erección.
Curiosamente, el papel del NO en el juego sexual no es propio de los humanos. Los machos luciérnaga iluminan su abdomen para atraer a las hembras. Y se ha demostrado experimentalmente que machos luciérnaga en atmósferas que contengan 70 partes por millón de NO están continuamente “iluminados”.
Pero todo se deteriora con el paso del tiempo, y las erecciones también. Y ahí aparece otra vez una molécula química, esta vez un poco más complicada. Es la historia del Viagra y de moléculas con actividades parecidas, como el Cialis, que patrocina un conocido torneo de golf que suelo seguir y donde, en cada tee de salida (y hay 18), hay un anuncio de Cialis. El dinero puesto en juego en ese torneo da una idea del negocio en torno a estas pildoritas.
Pero otro día hago una entrada específica sobre el Viagra.
La historia del Taxol, un anticancerígeno cuya venta ha explotado en los años noventa, es uno de los más claros ejemplos de la falacia natural/sintético y viene a demostrar cómo la Química ha sido capaz de resolver un asunto que, en aras a un tratamiento eficaz de cánceres como el de mama, el de útero o el de pulmón, hubiera podido acabar en poco tiempo con una especie vegetal.
Todo comienza a principios de los sesenta. Un botánico del Departamento de Agricultura americano que se dedicaba a recoger muestras para un proyecto iniciado en 1958 por el National Cancer Institute sobre actividad anticancerígena de unas 35.000 plantas diferentes, se trajo de un viaje al Pacífico corteza, agujas y bayas del llamado tejo del Pacífico (Taxus brebifolia) que parecían tener un efecto beneficioso en ciertos procesos cancerosos. Unos meses más tarde, en 1963, se descubría que extractos de la corteza de ese árbol tenían propiedades antitumorales. Se necesitaron ocho años más antes de que un artículo en el Journal of American Chemical Society se publicara el aislamiento e identificación del principio activo causante de esa actividad antitumoral. A finales de los setenta se conocían ya las causas de esa actividad, en las que no entraré por ser lego en la materia.
La estructura era de aúpa. Sólo el escribir la denominación en términos químicos echa para atrás. Se trata de una moleculita de nada que responde a la siguiente denominación: (alfaR, betaS)-beta-(benzoilamino)-alfa-ácido hidroxipropanoico (2aR, 4S, 4aS, 6R, 9S, 11S, 12S, 12aR,12bS)-6,12b-(acetiloxi)-12-(benzoiloxi)-2a, 3, 4, 4a, 5, 6, 9, 10, 11, 12, 12a-dodecahidro-4, 11-dihidroxi-4a, 8,13,13-tetrametil-5-oxo-7,11-metano-1H-ciclo-deca(3,4)benz(1, 2-b)oxet-p-il-ester. En definitiva, vale más llamarle Paclitaxel en la intimidad, porque hasta me desequilibra el ajuste a derecha e izquierda de la columna de texto de este post.
Desde el principio se vió que sintetizar esta estructura en el laboratorio iba a dar muchos quebraderos de cabeza. No en vano contiene 112 átomos y 12 carbonos asimétricos, algo que pone la guinda en las dificultades de síntesis. Pero había que intentarlo porque si no, la especie desaparecería en muy poco tiempo, dado que de la corteza de un árbol adulto que tarda casi 200 años en alcanzar una altura de unos 40 pies no pueden extraerse más allá de 300 miligramos (0.3 gramos) del principio activo.
El paso definitivo se dió al descubrirse que las agujas de un pariente inglés del Tejo del Pacífico, casi endémico en el Reino Unido, podían proporcionar de manera sostenible un compuesto, la 10-deacetilbacatina (DAB) a partir de la cuál un proceso sintético (semisintético habría que decir con más propiedad) permitía llegar a la estructura del Paclitaxel que, finalmente, en 1993 se puso a la venta bajo el nombre comercial de Taxol por la firma Bristol-Myers Squibb. Desde entonces, las ventas anuales se estiman en miles de millones de dólares.
Tenía yo pensado para este lunes 6 de marzo, una deliciosa página sobre el Taxol, un anticancerígeno sobre el que tendré que hablar mañana o pasado mañana porque, cual periodista en noche de elecciones, la actualidad me sobrepasa. Hace menos de una hora me ha llamado Txema Asua (para el que no lo sepa, primero a la izda en el foto), para decirme que le habían llamado de la Consejería de Educación, Universidades e Investigación del Gobierno Vasco para comunicarle que le habían concedido el Premio Euskadi de Ciencia y Tecnología. Me alegro como si fuera yo, porque he trabajado mano a mano con él para llegar a este objetivo.
Txema es mi amigo. No del alma, porque para ser amigo del alma hay que compartir alegrías y penas y ni en unas ni en otras Txema y yo nos dejamos así como así. No tengo más que dos amigas y un amigo del alma y sólo yo sé lo que me han costado.
Pero da igual. Txema se merecía el Premio, como otros en liza con él y a los que también aprecio. Pero creo que ha ganado justamente. Txema es de los pocos colegas de la UPV/EHU que hace Química (o Ciencia) pegada al campo. Igual que como cuando juega al golf y nos machaca. Y esa Ciencia me gusta a mí más que la que hacen (Einstein me perdone) los dos que están a mi izquierda, preclaros científicos por otro lado, que aventajan al Asua en lo que a Premios se refiere. A este especimen de Zarátamo le da lo mismo el lado básico (entre almidones) de la polimerización en emulsión que el puro y duro día a día del industrial más olvidado. Y de esos, en esta Universidad de mis amores y dolores, con los dedos de la mano, oiga....
En cualquier caso, voy a tener que dejar de jugar con esta troupe que se fotografió con el Buho un agradable día del otoño de 2005. Tres Premios Euskadi me flanquean y el más canoso de ellos (no señalaré otros atributos) atesora otras perlas de mayor brillo en su CV. Y yo sin dar la talla en el famoso número h que ahora nos invade............
Hoy hace exactamente tres años que Pedro Etxenike provocó una llamada de Juanmari Arzak a mi móvil, llamada con la que comencé a tener una colaboración regular con él, su hija Elena y los investigadores que se alojan en el reducido laboratorio gastronómico que hay sobre el restaurante: Xabi Gutierrez e Igor Zalakain; buena gente con la que me divierto un montón.
Aunque varias veces haré referencia en este blog a estos locos de la colina de Miracruz, creo que es interesante que ahora quede constancia de mis primeros trabajos con ellos, no vaya a ser que con el Alzheimer rampante que me asola, acabe olvidándome de todo. Además, ellos han sido los causantes de mi cada vez creciente tendencia a la divulgación científica. Su innata curiosidad por todo ha provocado que, muchas veces, haya tenido que dedicar horas robadas a otras cosas a tratar de buscar las explicaciones más convincentes a procesos en los que ellos estaban interesados. Y para comenzar, contaré la historia de las alubias de Tolosa.
Cada año en noviembre se celebra un Congreso Internacional de Gastronomía en el Kursaal de San Sebastián. No es preciso mencionar el papel de Gran Guru que Juanmari juega en ese Congreso. Y para el del 2003 había decidido explicar por qué se rompen las alubias de Tolosa durante la cocción. Evidentemente, él y muchas amas de casa tienen trucos para que las alubias no encallezcan y para que no se rompan, pero se trataba de que diéramos una explicación científica al asunto.
Cuando Arzak me planteó el tema, mi primera reacción fue decirle que no. Le argumenté que de lo que yo únicamente sabía era de polímeros y que difícilmente podría sacarle del apuro. Pero largas sesiones en el pequeño bar a la entrada del Restaurante más conocido del País, acabaron no sólo por convencerme sino por divertirme. Y cual becario al que asignan una Tesis me puse a buscar bibliografía. Mi sorpresa fue mayúscula. Aquello estaba resuelto desde los años 80 de forma impecablemente científica y publicado en revistas tan serias como el Journal of Food Science u otras equivalentes. Y estaba resuelto por grupos de investigación muchas veces ligados a grandes grupos industriales alimenticios.
Por ejemplo, se conoce perfectamente el papel de la temperatura en el grado de integridad de la alubias y otras leguminosas. Si las cociéramos a temperaturas en torno a 75ºC ninguna se rompería. Pero, ¿en qué casa se puede cocinar en agua a 75º?. En ninguna. Y nuestras sabias cocineras hace años que añadían agua fría durante la cocción, proceso que se solía denominar “asustar a las alubias”. En el fondo, estaban tratando de rebajar la temperatura de 100º a la que normalmente hierve el agua y que es la única temperatura que podemos mantener de forma estable durante tiempo y tiempo sin ningún cuidado, al corresponder al cambio de estado líquido/vapor. Los investigadores habían establecido otras variables, como el papel de los iones calcio en el endurecimiento de las alubias. O el papel del pH. O la influencia de la naturaleza química del terreno en el que se cultivaron las leguminosas.
Independientemente de lo que me divertí en el proceso (al final, la charla en el Kursaal fue un mano a mano de traca entre JM y el Buho), la experiencia dejó un poso importante en mi mente que, recientemente, ha sido expresado de forma contundente y con toda la resonancia que sus declaraciones tienen, por el otro Gran Guru de la cocina actual, Ferrán Adriá. La cocina tradicional, ya sea en su versión casera o de restaurante, ha despreciado olímpicamente durante años los modos y maneras de la industria alimentaria. Se ha instalado en la sociedad que alimentos preparados como mayonesas, yogures, salsas o cosas más sofisticadas como los precocinados, eran cosas para resolver una urgencia pero nada como la cocina hecha con cariño y sin aditivos que empiezan por la letra E- y que no son más que química.........
Las cosas han cambiado y la élite de los cocineros se está dando cuenta de que los “trucos” de la industria también les sirven. Que se puede controlar la temperatura en baños termostáticos como en el laboratorio, que se pueden liofilizar alimentos como en la laboratorio, que para espesar salsas hay cosas mucho más interesantes que harina, que hay muchas variedades de azúcar, con algunas de los cuales se pueden hacer postres maravillosos e impactantes, y muchas más cosas..... La investigación en estos aspectos está haciendo cambiar la cocina de los restaurantes más sofisticados, aunque algunos como Juanmari, con muy buen criterio, entienden que la innovación está muy bien pero que no se debe olvidar que lo importante es que el plato esté rico. Y algún cocinero parece olvidar esa máxima.
Para terminar contaré una anécdota del propio Adriá en el Kursal en 2003. En su charla, nos había explicado un postre que consistía en coger una deliciosa mermelada, ligera de consistencia, de una fruta tropical y mezclarla con una cantidad medida de alginatos, un producto químico que se extrae de las algas marinas. Posteriormente, con una cuchara grande cogía una porción de esa mezcla y la introducía en una disolución de cloruro cálcico. Los iones calcio hacen de agentes coagulantes de los alginatos, formando una costra sobre la mermelada cuyo espesor depende del tiempo que uno tenga inmersa la cuchara con mermelada en la disolución. Cuando se presenta en el plato en el restaurante, el cliente rompe esa costra con el cuchillo y la mermelada se desparrama por el plato para asombro del mismo.
Una asistente no pudo reprimirse en el turno de preguntas e hizo ver a Ferrán que allí había mucha química, hasta una disolución de cloruro cálcico!!!!!!!. Ferrán estuvo rápido, como habitualmente. Efectivamente, señora, -le contestó- se trata de un producto químico que Ud. puede adquirir en cualquier suministrador de laboratorios, pero tan producto químico y de la misma familia que el cloruro sódico que todos los días emplea sobre su comida, aunque Ud. le llame sal.......
Desde mi perspectiva, huelga cualquier comentario. La anécdota se inscribe perfectamente en lo que quiero incidir en este blog.
La foto es de una cena en julio de 2005 en la que mi amiga del alma, Josepi Fernández-Berridi y yo mismo compartimos mesa en Arzak con Jim Runt, de la PennState University, y su mujer.
En 1897, un químico de Bayer, Felix Hoffman creaba en el laboratorio la moderna versión de la aspirina, acetilando el grupo hidroxilo del ácido salicílico y sintetizando así el ácido acetil salicílico. Una de las versiones que circulan (aunque hay controversia al respecto) sobre el inicio de esta historia es que Hoffman se había interesado por el ácido salicílico como consecuencia de que su padre ingería ciertas infusiones de corteza de sauce contra sus dolores reumáticos, infusiones ricas en ese ácido. Sin embargo, las infusiones le causaban molestas irritaciones estomacales que Hoffman trató de evitar mediante la modificación química de la molécula original.
Hoy en día la aspirina que se vende en un producto de síntesis de los laboratorios Bayer no empleándose en el proceso ninguna materia prima proveniente de los sauces que intrigaron a Hoffman. Ese medicamento de síntesis es uno de los más vendidos como analgésico y antipirético. Sin embargo, es pertinente mencionar aquí que hay autores que mantienen que si hoy se tratara de introducir la aspirina como un nuevo medicamento en el mercado, dados los efectos secundarios que presenta, sería, casi con toda seguridad, rechazada por las estrictas normas de las agencias gubernamentales que controlan los nuevos fármacos.
La historia de la vitamina C está ligada a las epidemias de escorbuto que asolaban a los ejércitos y a los marineros de largos viajes durante los siglos anteriores al XVIII. A mediados del siglo XVIII, una serie de descubrimientos llevaron a la conclusión que el consumo de frutas y vegetales frescos era el mejor remedio contra el escorbuto. Pero se necesitaron muchos años hasta que alrededor de 1920 se descubrió que el verdadero agente activo contra el escorbuto era la que hoy conocemos como Vitamina C, el ácido ascórbico. Esa vitamina C se encuentra de forma natural en muchas frutas y verduras, como las naranjas, los kiwis, etc. La entrada masiva de la vitamina C en las costumbres de la población se produjo a partir de los años 30 del siglo pasado cuando la vitamina C se sintetizó en el laboratorio a partir de glucosa. Roche fue una de las primeras compañías en conseguirlo y hoy en día se fabrican más de 50.000 toneladas/año de dicho producto sintético.
Deliberadamente he elegido un par de fármacos que tiene que ver con sustancias que se producen en la naturaleza para volver a plantear la forzada dicotomía entre lo natural y lo sintético. ¿Es diferente la vitamina C contenida en un zumo de naranja de la contenida en una pastilla de Redoxon?. Pues mucha gente piensa que sí. Y aunque es cierto que no es lo mismo beberse un zumo de naranja recién exprimida que una tableta de Redoxon dispersada en agua, desde el punto de vista de la naturaleza de la Vitamina C ingerida no hay diferencia alguna. ¿Es mejor ingerir Vitamina C en forma de zumo de naranja que en forma de comprimido?. Pues si las dosis se ajustan exactamente, y no es difícil y si lo que estamos buscando es un nivel de vitamina C en nuestro organismo, la respuesta es no. Por supuesto el zumo de naranja lleva otras sustancias (también químicas) disueltas en agua, pero estamos hablando de los efectos de la vitamina C.
En este punto es curioso reseñar que muchos grupos ecologistas argumentan que aún peor que muchas sustancias químicas son los “cócteles” de esas sustancias, según ellos con propiedades nocivas emergentes de la mezcla. Sin embargo, no se aplica ese mismo criterio a cócteles naturales como un zumo de naranja en comparación con la vitamina C pura obtenida por síntesis, que sólo contiene vitamina C. Irónicamente, diríamos que parece desprenderse de éste y otros ejemplos que sólo los cócteles “naturales” son buenos, en clara sintonía con la irracionalidad dominante en estos aspectos. Ya mostraremos otro día algún ejemplo en el que eso no ocurre. Hoy vamos a dejarlo porque he tenido un día muy duro. De nuevo, gracias a las Administraciones que me administran.
Vaya por delante que el que esto os presenta es un químico y un químico convencido del papel de la Química en la eliminación del hambre, la enfermedad y la pobreza en aquellos países que han tenido una industria química bien asentada. Sin embargo, en estadísticas de esos países desarrollados, es normal encontrar a la Química en general, y a la industria química en particular, en los últimos puestos del ranking en lo que a confianza de los ciudadanos se refiere, a niveles similares de la confianza que inspiran, pongamos por caso, los políticos del pais.
De alguna forma, la industria química se ha ganado parte de esa desconfianza por los problemas de contaminación que ha creado y por su incapacidad para comunicar con la sociedad. Sin embargo, hay que decir que, en lo que a contaminación se refiere, otras industrias, como la siderometalúrgica o la minería, han causado contaminaciones mucho más severas que la industria química. Y qué decir del tráfico rodado… Pero esos problemas reales (que hay que resolver) no nos deben impedir ser conscientes de que una parte de nuestra confortable vida actual descansa en los logros de la Química.
Hay muchas contribuciones importantes de la Química al desarrollo de la humanidad. La mayor parte de ellas se han producido a finales del siglo XIX y durante todo el siglo XX. A la hora de elegir un proceso representativo, situado en los albores de la industria química, quizás uno de los más importantes es el el proceso Haber-Bosch de la síntesis del amoníaco. Su importancia radica en que a pesar de que el nitrógeno está omnipresente en la atmósfera, los seres vivos (que lo necesitan para producir aminoácidos o proteínas) no son capaces de fijarlo en su organismo y sólo lo inspiran y expiran durante el proceso respiratorio. Sin embargo, la molécula generada en el proceso Haber-Bosch, el amoniaco, puede dar lugar a fertilizantes que ayudan a las plantas a fijar el nitrógeno en forma de otras sustancias que, al ser ingeridas por otros seres vivos, pasan a su cadena metabólica. Otros usos no despreciables del amoníaco incluyen la fabricación de explosivos o de determinados polímeros (poliamidas, poliuretanos, poliimidas, etc.).
Quizás sean las Ciencias de la Salud las que más beneficiadas han resultado de la interacción con la Química. Partiendo de sustancias como la aspirina o la Vitamina C, sustancias que de una u otra forma han surgido en el ámbito de la propia naturaleza, pero que posteriormente han sido sintetizadas en el laboratorio, la Química ha construido un edificio capaz de enfrentarse a los graves problemas de salud que la Humanidad ha tenido que encarar. Y así, se han generado por síntesis química multitud de moléculas nuevas en forma de antibióticos, vacunas, otros tipos de vitaminas, antidepresivos, potentes anestésicos, anticonceptivos y una extensa gama más de genéricos. No se debe olvidar tampoco el papel de la Quimioterapia, que se ha revelado como un método eficaz y cada vez más depurado, en cuanto a efectos secundarios, para el tratamiento de diversos tipos de cánceres. Quizás uno de los resultados más espectaculares sea la evolución de los cánceres infantiles antes y despues de la introducción de los revolucionarios tratamientos de quimioterapia iniciados a partir de los años sesenta.
En definitiva, todas estas estrategias farmacológicas se han implantado en nuestra sociedad y, hoy en día, sus repercusiones en nuestra modo de vida son enormes. Basta con comparar las sociedades occidentales con aquellas que no disponen de posibilidades para acceder a estos fármacos para darse cuenta de cómo sería la vida sin ellos.
Por otro lado, usando como materia prima productos derivados del petróleo, la Química ha producido a partir de los años 30 del siglo pasado toda una gran variedad de nuevos materiales que llamamos polímeros o plásticos, que han revolucionado muchos de nuestros modos de vida y que han crecido a un ritmo espectacular. Aunque se pudiera argumentar que, en tanto que derivados del petróleo, su producción pudiera resultar afectada en el futuro por el agotamiento de éste, es conveniente explicar que sólo el 4% del petróleo manipulado en refinerías va hacia líneas de síntesis de medicinas, polímeros, etc., mientras que el 80% simplemente se quema como materia prima para la producción de energía en sus diversas formas.
Pero no todo es de color de rosa en el mundo relacionado con la Química. La Química ha causado problemas y se la identifica con residuos, contaminación atmosférica, etc. Sin embargo, frente al énfasis que se pone en ese tipo de problemas, pocas veces se ha resaltado debidamente la manifiesta capacidad de la Química en la resolución de los propios problemas que ha ido creando. Problemas que, en muchos casos, han nacido de un desconocimiento de lo que pueda derivarse de la introducción de algunos procesos.
Es evidente, por tanto, que todo proceso o producto nuevo tiene un riesgo. Pero sin la asunción de algún riesgo, ningún avance es posible. Y no deja de ser curioso que mientras que asumimos de forma casi automática riesgos que, como el uso del automóvil o el fumar, tienen muchas probabilidades de causarnos lesiones graves o la muerte a lo largo de nuestra vida, asumamos mucho peor el empleo de sustancias que, siendo potencialmente peligrosas, hay mucha menor probabilidad de que puedan causarnos problemas graves (el empleo de plásticos es bastante ilustrativo a ese respecto).
En línea con lo manifestado en el párrafo anterior, hay muchos ejemplos en los que el desarrollo de nuevos procesos o productos sintéticos ha dado lugar lugar a problemas ambientales graves que no se preveían cuando se descubrieron. El ejemplo de la capa de ozono es relevante por su gravedad, pero también por la rapidez con la que se obtuvieron las bases para iniciar la resolución del problema. Otro ejemplo del riesgo en el avance, contaminado en este caso por errores humanos graves, y sobre el que volveré en los próximos días en este Blog es el de la talidomida. Este medicamento fue introducido en los años 50 por una pequeña industria farmaceútica alemana como alternativa a tranquilizantes que se habían introducido entonces en el mercado (Valium, Veronal). Pronto se pudo comprobar que su administración a embarazadas causaba malformaciones a los fetos. Aproximadamente 8.000 niños nacieron vivos con deformaciones severas y en otros muchos casos el embarazo no llegó a su final.
En resumen, desde principios del siglo XX los químicos fueron capaces de sintetizar compuestos nuevos que supusieron avances con importantes repercusiones en el nivel de vida de la población, pero con el paso de los años se descubrió que producían un efecto secundario en el medio ambiente. De nuevo los químicos fueron los que explicaron el problema y plantearon alternativas respetuosas con el ambiente que nos permitieran no renunciar a los avances y mejoras en la calidad de vida que nos habían proporcionado, por ejemplo, sustancias como los CFCs, causantes del problema de la capa de ozono.
Deliberadamente, en los párrafos dedicados a los fármacos, hemos introducido una discusión que enfrenta una serie de ellos que tienen que ver con sustancias que se producen en la naturaleza con muchas más sustancias de carácter farmacológico que son sustancias nuevas, producidas por el hombre en el laboratorio. La fotografía que ilustra esta página corresponde a la planta (Digitalis lanata) de la que se extrae la digoxina, el fármaco por excelencia para muchos enfermos cardíacos desde finales del siglo XVIII. Es uno de los pocos casos en el que el principio activo se sigue extrayendo de la planta y no se ha sintetizado en el laboratorio. Estos y otros ejemplos evidencian lo sutil de la línea que separa lo que a nivel de calle se conocen como productos naturales de los denominados sintéticos. Asociar algunos productos con el concepto natural (o bueno) y otros con el de sintético ( o químico, malo) es una falacia que ha calado en la sociedad en gran parte debido a medios de comunicación. Muchos productos que los químicos sintetizan o usan como reactivos en el laboratorio o la industria son moléculas que están en nuestro organismo, en los alimentos, en las plantas, etc.
La tolerancia de las sociedades occidentales con las bebidas alcohólicas es un buen ejemplo de la inconsistencia de la disputa natural/artificial. Todas las bebidas alcohólicas contienen etanol y, muchas de ellas, como la sidra, metanol. Ambas son sustancias químicas bien conocidas (y peligrosas en dosis no muy lejanas de las que se pueden ingerir en ciertas situaciones descontroladas). Por ejemplo, muchas sidras contienen cerca del ml. por litro de metanol y la dosis mínima letal se considera que es de 30 ml de metanol puro, aunque en la bibliografía se barajan cifras muy dispares en relación con la dosis tóxica (que produce ceguera) y/o mortal. Y las consecuencias del etanol sobre el hígado (cirrosis hepática) son de dominio público. Sin embargo, basta ver lo que se repite en la publicidad de vino o sidra el término “natural” por derivarse de productos de la naturaleza como las uvas o las manzanas. Pero ambas dan lugar, tras el procesos de fermentación, a los alcoholes mencionados, los mismos que en el laboratorio almacenamos en botellas cuyas etiquetas ponen metanol o etanol.
Otro aspecto relevante a tener en cuenta en esta discusión es la aparente contaminación de casi todo lo que usamos, comemos,… Sustancias peligrosas aparecen en análisis realizados en alimentos y otros bienes, causando una evidente alarma social. A lo largo del siglo XX, las compañías relacionadas con el sector analítico han puesto en el mercado instrumentos muy poderosos que permiten detectar sustancias en cantidades próximas a una parte por trillon (1ppt) que, en una escala de tiempos, es similar a un segundo en 30.000 años. Aparatos estandarizados miden partes por billón (ppb, como un segundo con respecto a 30 años) y técnicas analíticas hoy muy económicas pueden medir sin dificultad partes por millón (ppm).
Con esas herramientas en la mano, cantidades infinitesimales de cualquier contaminante puede detectarse de forma fiable en agua, leche u otros alimentos. La pregunta clave que debiéramos hacernos es:¿la posibilidad de esas detecciones es para asustarse o para confiarse?. Durante siglos, nadie ha tenido los métodos analíticos que ahora tenemos ni el control con ellos de las sustancias que ingerimos. ¿Estaban nuestros antepasados en una situación mejor que la nuestra en lo que a calidad de vida se refiere?. Para un químico la respuesta no tiene duda.
En definitiva, la Química ha supuesto una pieza clave en el tipo de vida que hoy llevamos, en nuestra salud, en nuestra movilidad y pocos estamos dispuestos, en el fondo, a renunciar a esas conquistas. Y, lo que es más importante, sin la Química es difícil que podamos seguir avanzando en cuestiones como la terapia génica, las nuevas fuentes de energía o los nuevos materiales y procesos ligados a la nanotecnología que, probablemente, supondrán un cambio radical en nuestra forma de vida.