jueves, 30 de marzo de 2006

Cuando las moléculas se dan la mano

La Química de los polímeros, como muchos otros tipos de Química, admite vulgarizaciones bastante sencillas. Al menos así lo creo yo y como tal, he procurado incidir en muchos casos en las razones últimas de las cosas, tratando de pelarlas de toda retórica o jerga profesional, buscando que sea el concepto fundamental el que quede como poso de lo que pretendo explicar. Y para poner un ejemplo, hoy voy a hacer una entrada sobre un concepto que, a bote pronto, puede resultar casi esotérico: la tacticidad de los polímeros.

Muchos, la gran parte de los polímeros, son cadenas de muchos átomos de carbono unidos entre si por enlaces. En primera aproximación, formar cadenas macromoleculares (grandes) es como formar cadenas humanas. Imaginemos ahora que a miles de ciudadanos los reunimos en dos grupos en la playa de La Concha: un grupo cerca del puerto, el otro cerca del Palacio de Miramar. Demos a cada uno de los grupos instrucciones concretas. Al que está cerca del puerto le diremos que cada persona de esa cadena debe unir su mano izquierda con la derecha del anterior y su mano derecha con la izquierda del siguiente. A los que están cerca del Palacio les diremos que les damos absoluta libertad para hacer eso o lo contrario, esto es, unir su mano izquierda con la izquierda del anterior y su derecha con la derecha del siguiente.

Supongamos que ya hemos formado las cadenas y permitimos que las personas integrantes se muevan libremente, generando cadenas enrevesadas. Un piloto que observara ambas cadenas desde el aire sería incapaz de distinguir las diferencias entre ambas cadenas. Sin embargo, si forzáramos a las cadenas a ponerse en una estructura alineada con la orilla del mar, el piloto vería que, en una cadena, todos miran en la misma dirección, mientras en la otra unos miran para un frente y otros para el contrario.

Algo así pasa en la polimerización. El propileno es una molécula pequeña, un gas, que forma cadenas de polipropileno al unirse entre sí muchas moléculas de propileno. Cada propileno tiene dos carbonos (las bolas rojas de la gráfica de arriba). Uno está unido a dos hidrógenos (las bolas blancas de la figura). El otro, a un hidrogeno y a un grupo metilo (las bolas azules). A cada unidad de propileno le quedan dos posibilidades de formar enlaces con otros propilenos. En la figura se ven tres moléculas completas de propileno y media más. Supongamos que a los propilenos les hemos dado instrucciones para que se vayan uniendo de forma y manera que dejen la bola azul siempre del mismo lado. Sería algo similar a la cadena humana que una vez alineada, todos sus componentes miraran al mismo lado. Como la cadena humana, el polipropileno no tiene por qué estar siempre alineado. De hecho la cadena se puede enrevesar y entremezclarse con otras cual plato de spaghetti. Un enano que se metiera en una masa de polípropileno con visión microscópica le sería difícil, como al piloto de mi ejemplo, distinguir si nuestra cadena ha sido generada de la forma ordenada que hemos descrito o no, pero lo cierto es que si la estiráramos del todo con unas pinzas moleculares el enano sería consciente de las peculiaridades de la cadena.

Pues bien, una cadena de ese tipo se puede generar con la adecuada Química, con imperfecciones en la ordenación inferiores al 4%. Empleando unos catalizadores conocidos como catalizadores Ziegler-Natta, podemos así obtener un polímero llamado polipropileno isotáctico, el segundo material plástico más vendido en el mundo, empleado en botellas, parachoques, filmes de envasado, cordajes de naútica, muebles de oficina y cocina y un largo etcétera, gracias a su carácter cristalino, su aguante a temperaturas de casi 180ºC, su resistencia a los disolventes, sus excelentes propiedades mecánicas, además de otros atributos. Curiosamente, son esos mismos catalizadores los que han permitido reproducir las diferentes estructuras de los diferentes tipos de cauchos segregados por árboles tropicales y a los que hacía mención en mi entrada del 12 de marzo sobre los cauchos, el chicle, etc.

Sin embargo, sin la ayuda de ese catalizador, los propilenos se vuelven menos disciplinados y entran según su leal saber y entender, de forma y manera que dejan las bolas azules a un lado y a otro, en un proceso totalmente al azar. Lo curioso es que esa falta de disciplina ante la falta del catalizador policía conduce a un material que no sirve para nada, una especie de chicle con el que no se puede fabricar nada que aguante ni siquiera la temperatura ambiente. Por supuesto, las ventas de este segundo material, al que denominamos polipropileno atáctico son prácticamente inexistente.

Hay que recalcar que, desde un punto de vista químico, se trata de materiales de idéntica constitución (carbono e hidrógeno en la proporción 1/2), aunque técnicas como la espectroscopia infrarroja o, sobre todo, la RMN son lo suficientemente sutiles como para poder detectar la diferentes ordenaciones de las unidades de propileno en el seno de la cadena.

Leer mas...

domingo, 26 de marzo de 2006

Experiencias de cátedra y el urologuillo valiente

Siempre me han gustado las experiencias de cátedra. Sobre todo ahora que tengo pocos alumnos, me encanta bajar a mis clases con un trozo de CO2 sólido para explicar la sublimación o con una pequeña bomba de vacío y mostrar sus efectos en el cierre de un recipiente o en la ebullición a baja temperatura de un líquido. Pero lo del Dr. Brindley, un neurofisiólogo inglés es llevar la pasión por las experiencias de cátedra un poco demasiado lejos.

Este ciudadano presentó una ponencia en un Congreso de Urología celebrado en Las Vegas en 1983 de forma muy convincente. Su contribución versaba sobre un tratamiento para el síndrome de disfunción eréctil, forma académica de describir que el pene no cumple con los requisitos previos para una buena penetración. Su hipótesis era que una molécula orgánica, la fenoxi benzamina, era un buen remedio contra los primeros síntomas de impotencia masculina. Y ni corto ni perezoso, unos cuantos minutos antes de su presentación, Brindley, que a la sazón era ya un maduro de 57 años, se inyectó la sustancia en su propio pene. Cuando subió al estrado los efectos ya eran evidentes y el decidido inventor se paseó por la audiencia mostrando dichos efectos y animando a los asistentes a que tocaran su enhiesto órgano y comprobaran que allí no había ni trampa ni cartón.

La divertida historia sirve para decorar el inicio de una serie de moléculas destinadas a producir el mismo efecto, el ejemplo más conocido de las cuales es la famosa “blue pill” o Viagra.

Brindley había llevado a cabo una serie de experiencias antes del Congreso de Las Vegas, animado por la sugerencia de un colega que le había hecho ver que sustancias que sirven para bajar la presión arterial pudieran tener el efecto contrario en el llenado de los vasos sanguíneos del pene durante la erección (ver aquí). Brindley probó diversas sustancias como la papaverina, que ha sido utilizada por actores porno en su complicado trabajo. Los trabajos de Brindley se acompañaron por la puesta en el mercado de sustancias inyectables con el mismo efecto, como el Caverject de Pharmacia&Upjohn. Pero claro, no tiene mucha gracia el tener que andar taladrándose el pene con asiduidad.

A finales de los años ochenta, dicen que accidentalmente mientras buscaban principios activos para las anginas de pecho, los laboratorios de la Pfizer descubrieron que el citrato de sildenafilo tenía éxitos notables en producir y mantener erecciones en hombres con y sin problemas. Y así nació el Viagra. El éxito ha sido tal que la competencia reaccionó enseguida y Eli Lilly comercializa ahora el Cialis, Glaxo vende Levitra, etc. Y nadie tiene que andar agujereándose el pene.

Dada mi provecta edad, ni que decir tiene que sigo la bibliografía sobre estas moléculas con tanto interés como la que tiene que ver con las propiedades de transporte de gases y vapores a través de filmes poliméricos..... La pregunta que queda ahora en el aire es si la popularización de estos fármacos va a servir simplemente como una herramienta más en los divertimentos eróticos del personal o va a generar una auténtica revolución sociológica entre la tercera edad. Tiempo al tiempo.

Nota: Esta entrada ha sido actualizada en setiembre de 2014.

Leer mas...

sábado, 25 de marzo de 2006

Envases inteligentes

El área de investigación a la que he dedicado los últimos años tiene que ver con la forma en la que difunden los gases y vapores a través de capas delgadas de plástico. Si lo explico un poco más, diría que estamos interesados en procesos en los que gases atmosféricos (como el nitrógeno, oxígeno, anhídrido carbónico o vapor de agua, además de otros que anden sueltos por ahí como consecuencia de la contaminación o que deliberadamente los pongamos) pueden atravesar filmes como los que se emplean para envasar alimentos o paredes como las de las botellas de agua, Coca-Cola, envases de cosméticos, etc.

La primera idea sencilla de entender es que, a diferencia de los que ocurre en envases de vidrio o de hojalata, gases como el oxígeno o similares pueden atravesar las paredes de una botellas de agua o el filme que envuelve una bandeja de embutidos expuesta en un supermercado. Eso, que mucha gente no conoce, tiene sus inconvenientes y hay que tenerlo en cuenta en las sofisticadas formas de envasado que hoy en día usamos con nuestros alimentos y otros bienes de consumo. Un buen ejemplo es la botella de Coca-Cola que podemos comprar en un supermercado. La famosa “chispa de la vida” no es sino anhídrido carbónico, dióxido de carbono o CO2, que es lo mismo, encerrado en la botella y que trata de salir al exterior cuando la abrimos.

Si nuestra botella de Coca-Cola está almacenada y bien tapada durante largos períodos de tiempo, puede ocurrir que, al abrir el tapón, de “chispa de la vida” nada de nada. El CO2 se ha ido escapando a través de las paredes a una velocidad que los que nos dedicamos a esto denominamos permeabilidad.

Otras cosas pueden escaparse hacia la atmósfera exterior de forma similar. Por ejemplo, el café envasado debe de mantener diferentes aromas que sólo deben expresarse en el momento en el que preparemos la infusión de café con agua caliente. Para ello, los fabricantes de los envases de café han desarrollado sofisticados sistemas en los que las paredes de esos envases constan de varios filmes de diferentes polímeros, superpuestos en forma de sandwich, cada uno de ellos destinados a evitar la fuga de algunos de los aromas esenciales del café.

Probablemente habrás notado que muchos de los envases de snacks como patatas fritas y otros preparados que hacen las delicias de nuestros adolescentes están ligeramente hinchados. No es que nada esté fermentando en su interior. Se trata, por el contrario, de que los fabricantes introducen atmósferas de gases cuidadosamente elegidos para que el alimento que contienen se deteriore de forma más lenta con el paso del tiempo. Muchos de ellos contienen atmósferas más ricas en nitrógeno (o más pobres en oxígeno) que el propio aire.

Otro buen truco es el aplicado en el envasado de carne. El consumidor gusta de carnes de apariencia roja, debidas a la oximioglobina, compuesto que la mioglobina forma en atmósferas ricas en oxígeno. Por el contrario, todos tenemos un cierto rechazo al color que la carne tiene tras estar mucho tiempo contra la superficie de un plato (un color oscuro, casi tirando a marrón), que surge en la carne en condiciones pobres en oxígeno, cuando se forma la metamioglobina. Pues bien, los exportadores de carne, envasan ésta en recipientes protegidos por filmes de plástico, en el interior de los cuales se coloca una atmósfera rica en oxígeno que genere una superficie rica en oximioglobina. Pero para que ese efecto sea permanente en las estanterías de los supermercados el filme debe de ser suficientemente impermeable al oxígeno, algo harto complicado pues el oxígeno es una molécula pequeña que se cuela con facilidad por el volumen libre que dejan entre sí las moléculas de polímero que constituyen el filme.

Hasta ahora hemos visto la importancia de que un gas no se escape de un recinto como una botella o un envase con atmósfera controlada. Pero el efecto contrario también puede (y debe) controlarse. Me refiero a la entrada de gases atmosféricos, fundamentalmente oxígeno o vapor de agua, en recipientes que contienen productos sensibles a esos gases, debido a reacciones de oxidción o hidrólisis a los que pueden dar lugar.

Uno de los ejemplos por excelencia es el envasado de cerveza. Quizás nunca hayas pensado en las razones por las que es habitual encontrar agua, zumos, bebidas carbónicas envasadas en plástico y, sin embargo, la cerveza siempre se maneje en envases metálicos o de vidrio. La razón no es otra que la extremada sensibilidad de la cerveza al oxígeno atmosférico. Todo el mundo ha experimentado el efecto que un tiempo de aireación extendido tiene en las propiedades organolépticas de la cerveza. Esta sufre un proceso de oxidación rápido que cambia la percepción habitual de un buen trago de nuestra cerveza favorita. Hay ya intentos en el mercado para hacer que las botellas de polietilen tereftalato (PET), el plástico más usado en botellería, tengan una resistencia superior al oxígeno. La nanotecnología ha venido a echar una mano, con la introducción de materiales híbridos PET-sílice en los que la sílice hace el papel de unas chinitas puestas en el camino del oxígeno a través del PET, dificultando así el proceso, rebajando la permeabilidad y permitiendo tiempos de envasado mayores.

Leer mas...

viernes, 24 de marzo de 2006

Olores placenteros

Esta entrada fue actualizada el 29 de mayo de 2006. Si algún enlace os dirige a esta página y queréis ver su versión actual, podéis picar aquí.

Leer mas...

jueves, 23 de marzo de 2006

Mozart, el antimonio y los de siempre

Hace solo dos entradas que he estado hablando de las técnicas que detectan productos químicos a niveles de las partes por trillón (ppt) o mas de las ppt y aunque me gustaría diversificar la temática de mis entradas, Javier Ansorena me ha mandado hoy un recorte del El Mundo que no puedo dejar de comentar. Javi me lo ha mandado con coña porque mantenemos una disputa sobre nuestros gustos en cuanto al agua que bebemos. El siempre bebe agua de grifo, yo agua de botella y de baja mineralización, y no porque desconfíe del agua de grifo de Donosti. No en vano quien la controla es Itziar Larumbe, antigua alumna y gente seria. Simplemente no me gusta el sabor. Igual que no me gusta el sabor de algunas embotelladas como Insalus o Urberuaga por su exceso de sales disueltas. Así que es cuestión de gastronomía, no de otra cosa.

El caso es que El Mundo se hacía eco de un trabajo a publicar en el Journal of Environmental Monitoring por parte de un grupo de la Universidad de Heidelberg, Shotyk y col., en el que tras investigar diversas aguas embotelladas en PET, mostraban analíticamente que éstas contienen un mayor contenido en antimonio (alrededor de 300 ppt) que las embotelladas en polipropileno (8 ppt) y lejos del contenido de las aguas en sus manantiales naturales (que ellos analizaban en Canadá y que cifraban en 2 ppt, casi en el límite de detección). Además el contenido en las de PET crecía con el tiempo de almacenamiento. El autor atribuía ese contenido a la migración de antimonio desde la botella al agua. La existencia de antimonio en la primera se achaca a su empleo como catalizador en el proceso de producción del PET.

No tengo nada que objetar, en principio, a los resultados. Es cierto que el antimonio se emplea como catalizador. Y es cierto que puede migrar y más cuanto más tiempo esté en contacto con el agua y cuanto más alta sea la temperatura (por ejemplo, si la botella se deja en un coche al sol durante varios días). Y los resultados me parecen interesantes en cuanto pueden servir de acicate para la búsqueda de catalizadores que obvien el problema denunciado.

Lo que me subleva una vez más es el empleo interesado de la noticia por parte del periodista (con la Iglesia hemos topado). Hace un resumen parcial del artículo y después se interna por el proceloso mundo de aventurar que estamos envenenándonos al consumir agua en envases que, “encima”, son un problema ecológico en la eliminación de los residuos, consumen petróleo, etc. Oculta, sin embargo, que los propios autores dicen que no están preocupados por el nivel de ppt que han medido, que no les parece peligroso. Tampoco dice que la EPA americana, la agencia ambiental más reputada del mundo, cifra el nivel de tolerancia del antimonio en 6 partes por billón (ppb), es decir, unas veinte veces la cifra analizada. Ni se ha preocupado en enterarse de que el antimonio no es un elemento que se acumule en los organismos vivos, sino que es fácilmente excretado por éstos. Así que algo he tenido que buscar sobre el antimonio y aquí lo voy a dejar.

En la cabecera de esta entrada hay un retrato de Mozart. ¿Qué pinta aquí el músico de Salzburgo?. Existen fundados motivos para creer que Mozart murió intoxicado. Hay constancia de que el mismo manifestó ese temor a su esposa en otoño de 1791, poco antes de morir. La cosa se enredó algo más cuando su rival musical, Antonio Salieri, en sus últimos años de vida y con una demencia senil evidente, confesó que era él el que había envenenado a Mozart. Hay quien cree que fue envenenado con mercurio, pero hay una teoría, recogida por John Emsley en uno de sus libros según la cual es probable que muriera intoxicado por antimonio, suministrado por su médico. No hay que olvidar que en el siglo XVIII y bastante más tarde, ningún maletín de médico serio dejaba de contener el emético tartárico, un preparado para inducir el vómito, muy popular en esa época. La sustancia empleada es un tartrato de potasio y antimonio. La gente lo tomaba de forma regular para librarse de resacas matinales tras una copiosa cena, como si se tomara un Almax. Aunque había que tener cuidado porque la dosis médica de ese emético no está muy lejos de la dosis considerada fatal y que es de unos 100 mg.

El mismo Emsley, en su libro “Moléculas para una exposición”, valora en 0.5 mg o menos lo que ingerimos diariamente de antimonio y análisis realizados en organismos humanos permiten estimar en unos 2 mg. la cantidad total existente en una persona media. Ambas cifras son buenos indicativos de que el cuerpo humano expele enseguida los excesos de antimonio. Y para que el periodista de El Mundo se entere, para colectar 0.5 mg de antimonio a partir de agua embotellada con contenidos en antimonio de 300 ppt como los analizados en el trabajo arriba mencionado, necesitaríamos coger 1.6 toneladas de agua, o sea 1600 litros de agua, lo que mucha gente no se bebe en cinco años de consumo de agua embotellada en PET. Así que, ¿de qué estamos hablando?.

Además, a ver si al final nos pasa con el antimonio como con el selenio. Durante años ha arrastrado la fama de ser un elemento molesto y peligroso. Molesto porque puede formar compuestos parecidos a los que forma el azufre y que emiten los olores más nauseabundos con los que uno puede encontrarse. Peligroso porque dosis en torno a 50 mg., es decir la mitad de la estimada en el caso del antimonio, es seguramente letal para una persona.

Y sin embargo, sin selenio no podemos vivir. El selenio forma parte de enzimas sin las que los organismos humanos pueden tener problemas diversos. Por sólo citar dos de ellos, está demostrado que la carencia de selenio es la causante del llamado mal de Keshan, una región del sur de China en la que muchos niños sufrían problemas cardíacos que mataban a la mitad de los afectados. Un estudio epidemiológico demostró que la administración de cantidades adecuadas de selenio solucionaba sustancialmente el problema. Más recientemente, se ha descubierto que puede que la falta de selenio esté en el origen de un 10-15% de los casos de infertilidad masculina. Las dosis necesarias diarias de selenio son de unos 50 microgramos, es decir, mil veces inferior a la dosis letal arriba descrita. Una vez más debemos citar la máxima de Paracelso, “es la dosis lo que hace veneno”.

Ah! y el selenio no entra en nuestro cuerpo por la contaminación que todo lo invade, sino por la alimentación. Alimentos ricos en selenio (en proporciones minúsculas de microgramos) son pescados como el atún o el salmón, las vísceras, los frutos secos, el germen de trigo o la levadura de cerveza.

Leer mas...

sábado, 18 de marzo de 2006

El chocolate visto a los RX, SAXS, AFM, DSC......

Esta entrada va dedicada a mi amigo Xabi Gutiérrez, apodado Chocolates por razones obvias, insigne “fontanero” del éxito del Restaurante Arzak y curioso hasta las entretelas. Y a su Lola. ¡Va por Uds, colegas!. Y no quiero que se rajen ante los acrónimos técnicos que aparecen en el título. Como soy un buen divulgador van a entender muy fácil todo lo que podemos hacer en un laboratorio de caracterización fisicoquímica por el buen estado de nuestro amado chocolate.

Si no fuera porque soy poseedor de un estómago delicado como el cristal, probablemente una cuestión puramente genética debida a mi padre, yo sería un chocolate adicto. Nada como la sensación de la fusión del chocolate en la boca y su extensión por toda ella con ayuda de la lengua apoyándose en el paladar. Un sencillo placer, debido a un alimento aparentemente sencillo, dada su implantación en nuestros usos y costumbres. Y, sin embargo, nada más alejado de la realidad. La fabricación del chocolate requiere una tecnología complicada y precisa que, a la vez, puede ser muy versátil, dada la complejidad de los componentes químicos que dan su aroma y su sabor a un determinado tipo de chocolate en función del lugar de origen del cacao del que provenga. Se han enumerado casi 300 moléculas diferentes como constituyentes de los diferentes tipos de cacao.

Pero yo me voy a centrar hoy en un problema que la industria chocolatera está últimamente considerando en mucho detalle. Se trata de ese fenómeno que ocurre cuando el chocolate se ha conservado en unas circunstancias en las que ha sufrido continuos cambios de temperatura (como cuando ha estado en el interior de un vehículo, expuesto al sol de día y enfriado de noche). Ese fenómeno genera una superficie blanquecina sobre nuestra tableta (blooming en inglés) que está siendo estudiado hoy en día con las más modernas técnicas tanto por laboratorios universitarios como por los de las grandes empresas de alimentación.

Como consecuencia de los procesos de fermentación y tostado de las almendras de cacao, su posterior molienda y calentamiento, se genera una dispersión de cristales de azúcar (que se suele añadir expresamente) y de polvo de cacao (que ha surgido de la molienda de los sólidos constituyentes de las almendras) en la llamada manteca de cacao. Esta última, que es un líquido a temperaturas ligeramente superiores al ambiente, actúa como una especie de cemento de los dos sólidos arriba mencionados. La cohesión de la mezcla no es fácil porque los cristales de azúcar son hidrofílicos mientras que la manteca de cacao es hidrófoba. Por eso, los maestros chocolateros adicionan lecitina que hace su papel de emulsificante o de cohesión entre ambas fases de distinto signo. En el proceso conocido como concheado, la mezcla se calienta entre 55 y 75º y se mantiene en constante agitación para conseguir una emulsión estable gracias a la lecitina. El proceso también implica la eliminación progresiva de parte de la humedad contenida, así como de ácidos volátiles, probablemente el más importe de los cuales sea el ácido acético (vinagre).

Finalmente, la mezcla se deja que se enfríe de forma y manera que la manteca de cacao cristalice. Pero la cosa no es tan sencilla como enfriar agua para que nos de hielo a 0ºC. La manteca de cacao es una compleja mezcla de triglicéridos, ésteres de ácidos grasos y glicerina. Los ácidos de los que provienen esos triglicéridos pueden ser saturados (sin dobles enlaces) o insaturados (con dobles enlaces). Pues bien, la temperatura de cristalización de un triglicérido disminuye con el número de doble enlaces. Adicionando leche a la mezcla, el contenido en insaturados crece y la temperatura de fusión disminuye. Por eso el chocolate negro es mucho más resistente a la temperatura que el chocolate con leche.

Como consecuencia de esa complejidad, el enfriamiento de la manteca de caco puede producirse hasta en seis formas cristalinas diferentes (lo que los químico-físicos llamamos polimorfismo de un sólido). Sólo una elección adecuada de calentamientos y enfriamientos hace que la forma adecuada (la llamada forma V) se produzca, cuyos cristales funden (y cristalizan) a 33ºC. La formación específica de esos cristales hace que la superficie del chocolate tenga esa apariencia satinada que lo hace apetecible y el agradable chasquido al partirlo.

Pero el equilibrio así conseguido es muy inestable y puede evolucionar hacia el blooming como consecuencia de cambios en la temperatura. Estudios de Rayos X (RX) y Calorimetría diferencial de barrido (DSC) habían concluido en el pasado que ese fenómeno era la consecuencia de un proceso en el que tras llevar el chocolate a altas temperaturas y enfriarlo, inducía la aparición de cristales en la forma cristalina VI, más estable que la V (tiene una temperatura un par de grados superior), con una estructura mas compacta y que migraban a la superficie del chocolate.

Recientes estudios del Food Science Department de la Universidad de Wisconsin parecen indicar, sin embargo, que esta idea no está tan clara. Los investigadores trabajaban con una especie de chocolate modelo, en el que habían usado sacarosa amorfa (que no cristaliza) en lugar de azúcar corriente para ver así mejor por RX la transición entre las formas V y VI. El grupo llegaba a la conclusión de que la transición ocurría entre ambas formas pero el blooming no aparecía. Observando la superficie con un microscopio, los investigadores se dieron cuenta de que los cristales que se formaban en la superficie tras el cambio de forma cristalina en presencia de sacarosa eran lisos y redondeados, en lugar de los formados en presencia de azúcar que tenían la clásica forma de agujas cristalinas. Uno podría inducir de estos estudios que la sacarosa podría usarse como inhibidora del proceso de blooming pero, dicen los expertos, la sacarosa cogería mucha más agua del ambiente y daría al chocolate una inusual textura gomosa. Los mismos investigadores han mostrado también que la adición de fracciones de alto punto de fusión de grasa de leche pueden inhibir el proceso de blooming aunque el por qué de esta acción es por ahora un misterio, probablemente ligado a la disminución de la velocidad de cristalización de la forma VI.

El proceso normal de calentamiento y enfriamiento bajo agitación, llevado usualmente a cabo para obtener la forma cristalina V (llamado templado o tempering) ha sido estudiado por investigadores de Cadbury y la Universidad de Leeds en Inglaterra, en un intento de reducir la cantidad de dinero y tiempo que se emplean en calentar y agitar inmensas cantidades de chocolate. Se han estudiado las diferentes formas cristalinas generadas bajo la aplicación de diversas velocidades de cizalla o agitación. Para ello han utilizado una forma más refinada de los rayos X, una técnica denominada SAXS (difracción de Rayos X a bajos ángulos). Sin agitación, los cristales de la manteca de cacao forman preferentemente cristales en la forma IV, mientras que con agitación adecuada es la forma V la que puede inducirse. Los investigadores creen que ayudarán así a Cadbury a optimizar las temperaturas y velocidades de agitación del tempering.

Finalmente, en Estocolmo, investigadores del Institute for Surface Technology están usando una sofisticada tecnología ligada a la nanotecnología, el microscopio de fuerza atómica (AFM), para estudiar los cambios de estructura que se producen en la superficie como consecuencia de la transición entre las dos formas polimórficas V y VI.

Así que, por ejemplo, todos aquellos químicos y físicos poliméricos que me lean y que habitualmente hayan presumido de la complejidad de los polímeros o plasticos semicristalinos a la hora de fundir y cristalizar, pueden bajar el nivel de andar en temas complejos. Ahí tenemos otro buen ejemplo de “material” con el que jugar en un DSC, en un AFM o en un RX: una simple tableta de chocolate. Ah, y mas vale dejar el chocolate en un sitio fresco y donde no haya grandes variaciones de temperatura. Ya lo fundiremos en la boca a 37ºC. En caso contrario, el blooming nos acecha.

Leer mas...

viernes, 17 de marzo de 2006

¿Una parte por trillón?. No me vacile.

James Lovelock, autor de la Hipótesis Gaia, es considerado por muchos, junto con la bióloga marina Rachel Carson y su libro “La primavera silenciosa” como los padres del ecologismo imperante. La historia de ese ecologismo incipiente puede decirse que arranca con el debate en Estados Unidos sobre los efectos del DDT, un insecticida cuya producción se triplicó entre los años 1953 y 1959. Pero en esta entrada prefiero comenzar identificando a James Lovelock como la persona que desarrolló el llamado detector de captura electrónica (ECD), un dispositivo que revolucionó los niveles de detección de sustancias químicas mediante una técnica clásica de los laboratorios de análisis cual es la cromatografía de gases (GC para los químicos).

Lovelock entró en contacto con la GC en el verano de 1951 cuando dos de sus colegas en el National Institute of Medical Research (NIMR), A. Martin y T. James, introdujeron la técnica en el NIMR como consecuencia de su rápido crecimiento en los medios analíticos. La técnica había interesado no solo a la incipiente industria petroquímica que necesitaba una técnica rápida de separación y detección de las complejas mezclas existentes en sus líneas de producción. También había interesado a bioquímicos y analíticos como posibilidad de separar productos similares en cantidades muy pequeñas. Y de hecho, en ese problema estaba Lovelock, que andaba interesado en ver los efectos de la criogenización en tejidos y fluidos vitales y, más concretamente, en cómo evolucionaban en esa situación los ácidos grasos de los lípidos constitutivos de las membranas celulares. Ello implicaba medir variaciones en pequeñas cantidades, dado el tamaño de las muestras de tejido de animales empleados en el laboratorio. Aunque desde los colegas del NIMR le dieron el clásico consejo que muchas veces damos los que nos hemos dedicado a caracterizar sustancias y materiales (”no me vengas con muestras tan pequeñas, procura producir más cantidad acumulando experimentos), alguien le sugirió que quizás tuviera que desarrollar un detector más sensible que el entonces empleado en GC.

Y lo consiguió. Y, sobre todo, llegó en el momento oportuno. Y es aquí donde Lovelock y el DDT se encuentran.

Como consecuencia de la introducción de numerosos pesticidas basados en hidrocarburos clorados (DDT, Lindano, Clordano,...) o compuestos organofosforados (Malation, TEPP,...) los analistas se vieron en la necesidad de cambiar el chip. Hasta entonces, los toxicólogos estaban acostumbrados a tener que analizar pesticidas inorgánicos como el arsénico blanco, que con técnicas analíticas clásicas podían detectarse hasta niveles de 0.2 partes por millón (ppm), o lo que es lo mismo, en la proporción de 0.2 gramos del contaminante por cada tonelada de masa analizada. Pero cuando esos nuevos pesticidas orgánicos (DDT,TEPP, etc.) aparecieron en el mercado, pronto fue evidente que las primeras técnicas utilizadas, basados en métodos colorimétricos del siglo XIX, debían ser rápidamente sustituidas.

El principal detonante fue el seguimiento que los biólogos empezaron a hacer de la vida marina a finales de los cincuenta. Esos estudios empezaron a evidenciar que el DDT o el Dieldrin se habían acumulado en pequeñas cantidades en crustáceos y peces con resultados fatales. Pronto fue evidente que para detectar problemas había que llegar a niveles de 0.02 ppm (20 ppb, partes por billón, aquí billón se usa en el sentido americano de mil millones)o, incluso inferiores. En el curso de esa década de los sesenta la sociedad americana estuvo además particularmente alarmada por la detección de otros productos químicos en alimentos, como el famoso caso de los arándanos y el aminotriazol de 1959.

Todo ese escenario provocó la publicación del libro de Carson arriba mencionado en 1962 y la enconada pelea de diferentes métodos analíticos instrumentales o incluso bioensayos a la búsqueda de los niveles de detección inferiores. En esa pelea el detector de Lovelock se ha mostrado como una técnica extremadamente sensible. La sensibilidad actual de un ECD ronda las 10 ppc (partes por cuatrillón) de lindane y otros detectores como el llamado detector de Hall se mueven en el caso del heptacloro en las 5 ppt (partes por trillón). Es decir en el plazo de unas cuatro décadas hemos alcanzado sensibilidades a los pesticidas cien millones de veces mayores que las que tenían las primeras técnicas empleadas en su análisis. El progreso alcanzado es tan grande que ni siquiera las personas más implicadas en ello podían predecirlo. Francis Gunther, una figura señera en el análisis del DDT durante los años 50 y 60 decía, todavía a principios de los setenta, que llegar a detectar 1 ppt de DDT era como creer en las hadas.

Bien, y aquí estamos, con técnicas que nos permitirían detectar una gota de vermouth en un millón de litros de ginebra. Todo un logro de la ciencia, en un plazo de tiempo increíble, motivada por resolver un problema que alteraba el clima social, presionada por las instituciones,.... Así analizado parece un ejemplo prototípico del papel de la ciencia en la sociedad actual.

Pues no está tan claro. Somos muchos los que pensamos que esta sensación de Apocalipsis ambiental que nos rodea hubiera tardado mucho tiempo en penetrar en el tejido social si no se hubieran dado desarrollos tan vertiginosos como el del detector de Lovelock. Desde esta óptica, parece obvio que su extremada sensibilidad ha incrementado la ansiedad de la sociedad ante la presencia detectable de todos estos productos químicos.

Llegamos así a un punto en el que el problema analítico está básicamente resuelto pero el sociológico permanece irresoluble dadas las controversias sobre los umbrales a partir de los que una sustancia debe considerarse perjudicial. Porque podemos llegar a la opinión de la propia Carson que abogaba por una tolerancia “cero”. Evidentemente, la tolerancia nunca será cero porque ello va a depender, entre otras cosas, de que las técnicas de detección que usemos tengan una sensibilidad u otra, pero la filosofía implícita es radicalmente diferente de la mantenida por el propio Lovelock que hacía suya la frase de Paracelso ya citada en este blog: “es la dosis la que hace el veneno”. Incluso los homeopáticos están de acuerdo con esa cita.

Nuestro propio organismo está plagado de sustancias que, como el NO o el SO2 ya mencionadas, son tóxicas a partir de un cierto nivel y, sin embargo, los toleramos perfectamente en los niveles que habitualmente alcanzan. Ya sé que todos estos argumentos se suelen refutar usando como bandera la palabra cáncer, pero sobre eso hablaremos en otra entrada.

Leer mas...

jueves, 16 de marzo de 2006

Este vino contiene sulfitos

Yo no he sido vinoadicto toda mi vida. Ahora lo soy bastante, sobre todo a esa hora del atardecer en la que ya has desconectado y andas preparando algo sencillo para cenar. Uno de los placeres del día. Beberse un buen vino en copa grande y trastear en la cocina. Algunos prefieren degustar ese vino en un bar pero a mi la gente, y el nivel de ruido que produce, me agobia en cuestión de segundos. El otro día, al comprar un vino joven de Rioja Alavesa, me encontré con un aviso en la etiqueta que me hizo sonreir: Contiene Sulfitos. Advertencia que en los tiempos ecológicos que nos asolan tiene un cierto tufillo a los avisos tenebrosos de un paquete de cigarrillos. No es mi caso. Tengo un particular cariño por los aromas y sabores de los sulfitos en vinos riojanos y enseguida vais a saber por qué.

La culpa de mi adicción al vino es de mi familia consorte, los Serrullas, con hondas raíces en Ollauri y Haro, con calado propio (calado es una bodega excavada en arenisca, muy habitual en La Rioja) y con otros muchos calados de amigos repartidos a lo largo y ancho de la región. Así que cuando emparenté con ellos a través de mi chica se encargaron muy pronto de iniciarme en los ritos del vino (que no del resto de bebidas alcohólicas). Tampoco es de desdeñar la influencia de mi amigo y hermano del alma, Fernando Sáez, un traumatólogo riojano con el que he compartido muchas cosas desde que nos encontramos con dieciocho años en un Colegio Mayor de Zaragoza. Novelista reconocido es, además, el ilustre hijo del célebre médico local Don Abdón (Donadón para los amigos), figura insigne de la segunda mitad del siglo pasado en Haro, exactamente 30 años mayor que yo (ayer fue nuestro cumpleaños), y al que muchas veces recuerdo con nostalgia, ahora que ya nos ha dejado. Donadón tenía una gambara en su casa que recuerdo repleta de las botellas de vino que sus pacientes le regalaban. Fernando se traía a Zaragoza, después de un fin de semana en Haro, botellas increíbles que “descuidaba”, botellas que a veces no nos quedaba más remedio que tirar y que, en otras ocasiones, degustábamos con la incredulidad de verificar la calidad de un caldo de muchos años. Recuerdo todavía un Paternina de 1892 que pasó a mejor vida con un cacho pan y un poco de chorizo riojano en una habitación del cuarto piso del Colegio Mayor La Salle en una noche de domingo de 1971.

Es de esa época cuando datan mis primeros contactos con los sulfitos, motivo de esta entrada. En ese período, yo hacía todo lo posible por escaparme de mi destierro en Zaragoza y ver a la chica de mis sueños, incluido el pasar un fin de semana en La Rioja con mis futuros suegros.

Desde los tiempos de los romanos, el azufre y otras moléculas que contienen azufre se han empleado en la producción de vino. Yo mismo he ayudado a mi suegro en su calado a limpiar barricas con agua y, al finalizar, a quemar unos aros de azufre natural que encendíamos en el exterior de la barrica e introducíamos en el interior con un hilo metálico. También se hacía antiguamente con barricas llenas de vino para que el dióxido de azufre (SO2) resultante se disolviera en el líquido. Hace falta sólo una concentración de unas 100 partes por millón(100 ppm) de SO2, para impedir que una serie de levaduras indeseables se multipliquen y nos estropeen la fermentación.

Los vinateros modernos se cargan estas levaduras generando SO2 gracias a la disolución de unas tabletas de metabisulfito de sodio que no impiden el florecimiento de otras levaduras cultivadas, resistentes al SO2 y que hacen más controlable el proceso. Todo esto contado en plan divulgativo, no se me pongan estrechos. Incluso puede añadirse algo de metabisulfito justo antes del embotellado para que el vino joven cese en su fermentación.

Dicen los que saben que, al final, puede haber hasta 350 mg por botella, que confieren al vino “de cosechero” riojano (hoy llamado joven) un sabor característico. Ese es el sabor que yo tengo en la recámara y que me retrotrae a las mañanas de domingo en la que acompañábamos a mi suegro a visitar a cosecheros amigos en San Vicente de la Sonsierra, en Briñas, en Ollauri, en Fuenmayor, en Cuzcurrita o en Anguciana para elegir el vino que íbamos a beber esa temporada.

No sé si la etiqueta mencionada al principio de esta entrada conducirá a algunos obsesos de los aditivos a no consumir estos vinos jóvenes de Rioja. Puede que no sea tan importante porque los obsesos beben agua o zumos. Pero yo voy a seguir disfrutando de ellos y enseñando a mis amigos a disfrutarlos. Sé como químico que el SO2 es un gas sofocante e irritante y que puede afectar a los asmáticos pero también sé que él y otros muchos productos químicos con azufre, algunos de los cuales, como los tioles, también se generan de forma natural y en pequeñas cantidades en los procesos de fermentación de las uvas, son inofensivos para el ser humano en las cantidades que normalmente se encuentran. El propio organismo humano genera el dióxido de azufre durante el metabolismo de los aminoácidos. Ese organismo tiene su propio sistema de seguridad frente a un exceso de SO2, convirtiéndolo en un inofensivo sulfato. Así que como dice uno de esos packs modernos que se usan ahora para vender vino a granel en las cooperativas, disfrútalo con moderación y salud.

Leer mas...

miércoles, 15 de marzo de 2006

A ver si arreglamos el agujero

No todo es de color de rosa en el mundo relacionado con la Química que ha causado y causa problemas y a la que se identifica socialmente con residuos, contaminación atmosférica, etc. Sin embargo, frente al énfasis que se pone en ese tipo de problemas, pocas veces se ha resaltado debidamente la manifiesta capacidad de la Química en la resolución de los propios problemas que ha ido creando. Problemas que, en muchos casos, han nacido de un desconocimiento de lo que pueda derivarse de la introducción de algunos procesos.

Es evidente que todo proceso o producto nuevo tiene un riesgo. Pero sin la asunción de algún riesgo, ningún avance es posible. Vivir es un riesgo que enfrentamos cotidianamente. Y no deja de ser curioso que mientras que asumimos de forma casi automática riesgos que, como el uso del automóvil o el fumar, tienen muchas probabilidades de causarnos lesiones graves o la muerte a lo largo de nuestra vida, asumamos mucho peor el empleo de sustancias que, siendo potencialmente peligrosas en algunos casos, hay mucha menor probabilidad de que puedan causarnos problemas graves (el empleo de plásticos es bastante ilustrativo a ese respecto).

En línea con lo manifestado, hay muchos ejemplos en los que el desarrollo de nuevos procesos o productos sintéticos ha dado lugar lugar a problemas ambientales graves que no se preveían cuando se descubrieron. El ejemplo de la disminución en la capa de ozono es relevante por su gravedad, pero también por la rapidez con la que se obtuvieron las bases para iniciar la resolución del problema.

A partir de los años 60 se comenzaron a detectar radiaciones ultravioletas solares excesivamente intensas en la Antártida. El fenómeno se producía todas la primaveras aumentando en intensidad de año en año. Inmediatamente se relacionó con una disminución local de la capa de ozono estratosférico que filtra la radiación solar. Pero el por qué de esta disminución del ozono era un misterio para la ciencia.

Dos científicos del Massachusetts Institute of Technology (MIT), Rowland y Molina, que estudiaban la química de la estratosfera propusieron la teoría de que el ozono se destruye por un mecanismo catalítico inducido por radicales cloro (Cl). El enigma continuaba pues era difícil explicar la presencia de radicales cloro en la estratosfera. Finalmente demostraron que provenía de los gases denominados clorofluorocarbonos o CFCs, compuestos sintéticos que el hombre ha fabricado en millones de toneladas a lo largo del siglo XX y que al final de su ciclo de vida son liberados a la atmósfera.

El uso de los gases CFCs está relacionado con los sprays, los sistemas de aire acondicionado, la fabricación de espumas sintéticas o con las neveras y congeladores que han jugado un papel decisivo en la conservación de alimentos y por tanto en la lucha contra el hambre en el mundo. Pero los CFCs son tan estables que se han ido acumulando en la troposfera y han sido capaces de atravesar la barrera de la tropopausa y llegar a la estratosfera. Allí, debido a la intensa radiación solar, se descomponen liberando átomos de cloro que son capaces de catalizar la destrucción del ozono.Rowland y Molina compartieron con Crutzen el premio Nobel de Química de 1996, por su valiosa contribución al esclarecimiento del problema.

Una vez detectada la causa última del problema, la conferencia de Montreal del 1987 permitió diseñar una estrategia asumible por el conjunto de los países de sustitución de los CFCs. La disminución drástica de emisiones de estos compuestos a lo largo de la década de los 90 está permitiendo revertir la tendencia creciente del problema. Aunque el problema se ha seguido agravando los últimos años, los datos indican, sin embargo, que la situación va tendiendo a estabilizarse y podría resolverse a mediados del siglo XXI. La gran inercia observada es debida a la larga vida media de los CFCs que para algunos de ellos puede alcanzar 400 años.

En resumen, a principios del siglo XX los químicos fueron capaces de sintetizar compuestos nuevos como los CFCs que supusieron avances con importantes repercusiones en el nivel de vida de la población, pero con el paso de los años se descubrió que producían un efecto secundario en el medio ambiente. De nuevo los químicos fueron los que explicaron el problema y plantearon alternativas respetuosas con el ambiente que nos permitieran no renunciar a los avances y mejoras en la calidad de vida que nos habían proporcionado los CFCs.

Leer mas...

lunes, 13 de marzo de 2006

Caucho natural, chicles y otras cosas

Alguna vez tengo que empezar a hablar de polímeros que es lo mío. Y para ello, nada mejor que la historia de los cauchos naturales y sintéticos (toma otra vez dicotomía). En muchos libros de texto y páginas web destinadas a los cauchos, se suele mencionar como hito histórico para comenzar a contar su historia, el asombro con el que Cristóbal Colón contempló, en uno de sus viaje a Haití a finales del siglo XV, a unos nativos jugando con algo que hoy llamaríamos un balón y que era una bola blanda que botaba. El tatarabuelo de nuestros balones era una esfera de un material que los nativos extraían de una serie de árboles tropicales que exudan una especie de resina al realizar incisiones en su corteza.

Hoy sabemos que ese látex es una macromolécula o polímero, lo que químicamente se traduce en una molécula con muchos átomos debido a la repetición sistemática de una unidad o monómero. En el caso del caucho, que así se denomina el producto de estos árboles, la unidad que se repite es el isopreno.

Ese caucho natural resultó, históricamente, muy importante en el desarrollo del automóvil durante el final del siglo XIX y, más concretamente, en la logística de la primera guerra mundial. Goodyear, fue capaz de desarrollar los primeros neumáticos, tras aplicar al caucho natural una modificación química, conocida como vulcanización, y que consistía en calentar la goma con compuestos de azufre para hacerla indeformable bajo el peso de los automóviles. Sin la vulcanización, un caucho se comporta casi como la plastilina de nuestros años infantiles.

Lo que resulta fascinante al estudiar los diferentes tipos de plantas que son capaces de producir látex es que cada uno de ellas es un “laboratorio” particular, que produce un tipo de caucho diferente en propiedades y aplicaciones. Por ejemplo, el llamado Hevea brasilensis, cuya foto se ve arriba, produce un tipo de caucho que es el que se vende todavía hoy como caucho natural y que se sigue empleando en la fabricación de neumáticos. Para alguien con una formación química, el caucho Hevea es una macromolécula en la que lo que se repite son unidades de cis-1,4 isopreno. Pero no muy lejos de las plantaciones de Hevea brasilensis uno puede encontrar plantaciones de otros árboles no muy diferentes como la Balata o la Isonandra gutta, que producen látex que da lugar a cauchos completamente diferentes y que se suelen denominar por el nombre del árbol. Químicamente son polímeros de trans-1,4 isopreno, es decir, una sutil diferencia de colocación geométrica de los mismos átomos. Estos materiales no se emplean en gran escala y tienen un uso muy reducido. El caucho de la Isonandra que se suele llamar gutapercha (del malayo getah, goma y percha, árbol) se ha empleado antiguamente por los dentistas, como rellenos de las caries. El caucho proveniente de la balata se empleaba (ahora en menor escala) como corazón de las bolas más exclusivas de golf.

De otro árbol productor de caucho arranca también la historia del chewing gum o chicle. De hecho, chicle es la denominación que los nativos de las selvas de Yucatán en Guatemala daban a la goma obtenida de un árbol llamado sapodilla (Achras zapota) que, en la década de los setenta del siglo XIX, fue llevada a Nueva York por el entonces presidente de Méjico, General López de Santa Ana quien se lo entregó a un fotógrafo de Staten Island, llamado Thomas Adams. Desde entonces, Adams es sinónimo de chicle y durante más de sesenta años, el chicle fue el ingrediente principal de las gomas de mascar.

La historia del caucho y el chicle tuvo un giro importante en el turbulento tiempo entre las dos guerras mundiales, cuando el suministro de caucho natural se convirtió en un verdadero problema estratégico y ello hizo que se investigara la posibilidad de obtener cauchos sintéticos. Carothers, trabajando para la DuPont, en 1928, introdujo un material muy parecido al caucho natural que todavía hoy seguimos empleando bajo la marca comercial que patentó DuPont (Neopreno). Pero a lo largo de los años cuarenta y cincuenta del siglo pasado, diversos laboratorios y empresas fueron capaces de producir cauchos sintéticos reproduciendo, por ejemplo, las variedades cis y trans del poliisopreno. Hoy en día, la industria del caucho sigue siendo un pujante negocio.

A partir de ese tiempo tenemos toda una gama de cauchos sintéticos con los que poder producir neumáticos pero también otro tipo de materiales relacionados que se emplean en la fabricación de chicles. Las ventajas de estos materiales sintéticos son evidentes. Son muy uniformes al no depender, como les pasa a los naturales, de las regiones de recogida del látex. Son además mucho menos complejos en su formulación ya que, por ejemplo, tanto el caucho como el chicle contienen una serie de sustancias adicionales que causan problemas. Y así, esas sustancias hacen que el sabor del chicle natural sea un poco fuerte y haya que enmascararlo con aditivos. En otros casos, como en la fabricación de guantes desechables y preservativos, que se fabricaban originalmente a partir de látex de caucho natural, se optó por el caucho sintético para evitar ciertos problemas de alergias cutáneas que algunos tipos de caucho natural ocasionaban.

Leer mas...

sábado, 11 de marzo de 2006

El Dr. Pildoritas. Moléculas que dejan huella en el agua

Uno de los ejemplos emblemáticos (al menos en mi opinión) de hasta donde puede llegar la falta de criterios consistentes en lo que a ciencia se refiere, es la pujanza de la homeopatía como “medicina alternativa”. Los principios de la homeopatía se basan en la obra publicada por Samuel Hahnemann en 1810 bajo el titulo Organon der Rationellen Heilkunde, principios que se han mantenido inmutables hasta la actualidad (compárese esa inmutabilidad con lo ocurrido en la medicina convencional).

Hahnemann pasó gran parte de su vida probando sustancias naturales para ver qué síntomas producían, bajo la hipótesis de que podían curar enfermedades que tenían esos mismos síntomas. Obviamente muchas sustancias naturales pueden ser extremadamente tóxicas (él lo experimentó con la quinina). Preocupado por los efectos secundarios experimentó con la dilución, encontrando, como es obvio para cualquier persona sensata, que al aumentar la dilución disminuían o incluso desaparecían dichos efectos secundarios. Y lo que es más asombroso, llegó a la conclusión de que cuanto mayor era la dilución más parecían beneficiarse sus pacientes. Ello es lo que se conoce como la ley de los infinitesimales de Hahnemann: “cuanto menos mejor”.

Philipp Theophrast von Hohenheim, para los amigos Paracelso, un personaje pintoresco y genial que revolucionó la clásica Universidad de Bolonia en el siglo XVI, fue mucho más clarividente que Hahnemenn con tres siglos de anticipación. Dosis sola facit venenum - sólo la dosis hace veneno - era su máxima y con ese criterio usaba algunos venenos como fármacos, pero no llegó a los extremos fundamentalistas del homeópata que, lo que es peor, han perpetuado sus seguidores cual religión. Y esa máxima de Paracelso se vuelve de rabiosa actualidad cuando el hecho de que nuestras técnicas analíticas detecten cantidades infinitesimales (ppm, ppb) de cualquier sustancia (natural o sintética) parecen convertirlas, en muchos casos, en letales para nuestro organismo. Pero volvamos a la homeopatía.

Todos los medicamentos homeopáticos llevan una etiqueta que indica el número de diluciones que se han efectuado con la llamada cepa homeopática o “materia prima” de las preparaciones. Algunos preparados homeopáticos llegan a diluciones que, en su jerga, se denominan 30 CH, obtenidos a partir de auténticos venenos para el organismo humano como el arsénico, venenos de serpientes o la belladona. Eso quiere decir que la cepa homeopática, que suele tener una concentración inferior a 1 M (molar), se ha diluido treinta veces sobre la base de un procedimiento que consiste en coger una parte de la cepa, diluirla en 99 partes del diluyente (generalmente agua), coger una parte de esa nueva concentración y diluirla en 99 partes de diluyente y, así sucesivamente, hasta treinta.

Cualquier estudiante de Bachillerato que no sea un piernas calculando concentraciones de disoluciones acuosas puede llegar a concluir que cuando el medicamento contenga en su etiqueta denominaciones como 11 CH o 12 CH, la concentración molar anda entre 10 elevado a -22 y diez elevado a -24 molar. Y diez elevado a -60 M para el caso de los 30 CH. Y otro de los conceptos de Química que cualquier estudiante conoce es el ligado al llamado número de Avogadro, que aunque establecido en 1811, no se reconoció su validez con datos experimentales hasta 1860. En un mol de cualquier sustancia hay 602.300.000.000.000.000.000.000 átomos o moléculas de esa sustancia. Por ejemplo, en aproximadamente 75 gramos de arsénico hay ese increíble número de átomos pequeñitos de arsénico.

O sea, que a partir de concentraciones como 10 elevado a -24 molar, hay más probabilidades de que en la disolución haya un solo átomo o molécula de la sustancia en cuestión o no haya ninguna. Así que ¿qué tendremos a una concentración 10 elevado a -60 M, como la de los preparados 30 CH?. Agua o lactosa, empleada como soporte en las famosas pildoritas homeopáticas.

El razonamiento que acabamos de hacer está tan bien asentado en bases comprobadas desde hace años que los propios homeopáticos tuvieron que reaccionar. Y así comienza la historia de un par de artículos científicos que muestran la influencia de grupos de presión bien establecidos en comportamientos que, como el científico, debiera estar alejados de influencias espúreas. En años recientes hemos conocido algunos más (fusión fría, células madre,....).

Entre 1987 y 1988, una revista secundaria pero honesta como The European Journal of Pharmacology y la prestigiosa Nature publicaron un par de trabajos de un grupo de homeópatas liderados por J. Benviste. No voy a entrar en el detalle de ambos artículos pero la filosofía que existía tras ellos y que trataba de contrarrestar el argumento irrefutable basado en el número de Avogadro es alucinante. Los autores sostenían que, efectivamente, a altas diluciones, la probabilidad de encontrar alguna molécula del principio activo es muy baja si no nula, pero el agua mantiene una “memoria” de lo que ha contenido en ella y, gracias a esa memoria, puede tener efectos beneficiosos.

El llamado caso de la memoria del agua es uno de los más flagrantes goles metidos a los referees de Nature (un referee es un científico de prestigio que evalúa la validez de artículos de otros, en el clásico procedimiento de las revistas científicas). El caso tiene múltiples significados que no caben en esta entrada de mi blog. Más allá de la pretensión ilegítima a la condición de ciencia por parte de una doctrina, la homeopática, de inspiración preatomista, el caso ilustra la mediocridad de la literatura científica en general (entono el mea culpa en lo que me atañe) y, en el trasfondo, los complejos juegos de poder que agitan la comunidad científica internacional y sus relaciones con la sociedad civil. Y resulta sorprendente que una sociedad culta, como la francesa, haya llegado a admitir la homeopatía en tal grado que la Seguridad Social de ese país sufrague el 65% del costo de los medicamentos homeopáticos. ¿Será porque una de las empresas de mayor facturación homeopática y que distribuye sus productos en la economía global es la francesa Boiron?.

Leer mas...

Ponga un producto químico en su plato

Y volvemos a la Gastronomía. Ayer estuve de visita en Arzak y, como suele pasar a menudo, Juanmari y yo tuvimos una pequeña discusión. Ayer fue sobre la pasteurización, pero la chispa salta por muchas cosas que, en el fondo, no es sino el reflejo de cuán diferentes se ven las cosas cuando se aplica el método científico o cuando se deja una puerta abierta a la bioenergética, la biomagnetización y términos similares, en los que Juanmari cree y yo me río. Pero al salir del restaurante recordaba otras “trifulcas” similares y una de ellas es la que me da pie a esta entrada.

Me está siendo difícil hacerle comprender que muchos de los aromas y sabores representativos de los alimentos se deben a un componente mayoritario que casi siempre es una molécula identificada. Peter Atkins, en su libro “Atkins’s molecules” describe unos cuantos que debieran servir en mis argumentos. Por ejemplo la capsaicina (C18H27O3N) es la especie que confiere su carácter picante a los pimientos rojos y verdes que en USA y México se conocen como chillis o chiles. El benzaldehido (C7H6O) es un aroma y sabor característico de las almendras, sobre todo las amargas. Las cebollas y los ajos contienen una alta concentración en un aminoácido, la cisteína, que contiene átomos de azufre. Mientras las cebollas no se cortan o aplastan no ocurre nada, pero cuando se ejecutan esas agresiones físicas, se rompen celdillas y los aminoácidos se transforman en otras sustancias como el disulfuro de dialilo (C6H10S2) que confiere su aroma característico al ajo. Y que decir de la cafeina (C8H10O2N4), presente en una taza de café en aproximadamente 0.1 gramos y que estimula la corteza cerebral.

Todos esos aromas, olores y sabores juegan un papel fundamental en los platos gastronómicos que se generan a partir de esos productos naturales. Si eso es así, si conocemos tan bien los componentes esenciales, ¿por qué no podemos adquirirlos como productos químicos de laboratorio y usarlos en pequeñas cantidades como condimentos de muchos platos?.

Esa es la pregunta que Hervé This se plantea en uno de los capítulos de su libro “Casseroles & éprouvettes”. La aromatización de platos es una de las señas de identidad de la nueva cocina, pero ¿por qué limitarnos a añadir hierbas o especias “naturales”?. This propone, por ejemplo, añadir 1-octen-3-ol a un plato de carne para conferirle el aroma característico que impregna los bosques llenos de setas.

Y no estamos haciendo química. Y si pensamos que la hacemos debiéramos de recapitular y contemplar otros productos químicos que se han utilizado siempre en la cocina: la sal común (cloruro sódico), el ácido acético (componente esencial del vinagre de vino), el alcohol etílico o metílico (en menor medida) de las bebidas alcohólicas, los triglicéridos (en el aceite), la sacarosa (en el azúcar), etc.

Terminando como estoy, prefiero no asustar con los efectos nocivos de estos productos “naturales”, pero no puedo resistirme a dar un ejemplo. El alcohol metílico o metanol que se suele producir en la sidra de una forma tan natural como se produce en etanol en el vino, es metabolizado por una enzima que se llama catalasa, que anda como pedro por su casa en la retina de nuestro ojo, donde también participa en el mecanismo de la visión. Al metabolizarlo produce formaldehido que reacciona con las proteinas del retinal, eliminado así su papel en la visión, lo que a concentraciones altas de metanol provoca la ceguera. Como se ve, todo muy natural. Como la vida misma.........
.

Leer mas...

jueves, 9 de marzo de 2006

Manteniendo la verticalidad.

Debo esta entrada en mi blog a la relectura del delicioso libro de John Emsley “Vanity, Vitality and, Virility: The Science Behind the Products You Love to Buy”. Al leer el título colocado sobre las figuras que decoran esta entrada, es probable que alguien haya pensado que voy a escribir sobre “química” que promueve y mantiene el atractivo sexual entre dos personas. Pero no es así. En realidad, quiero hacer un resumen de diversos aspectos, que Emsley describe magistralmente, sobre la influencia que ciertos elementos y moléculas químicas tienen en las actividades placenteras por excelencia para los humanos: las relaciones sexuales. Me centraré en lo que toca más de cerca a los machos de nuestra especie. A las chicas les dedicaré otra entrada otro día. Como también advierte Emsley en el inicio del capítulo de su libro que origina el término Virility del título, los lectores que puedan ofenderse con el contenido de esta entrada pueden cerrarla ya.

La historia puede iniciarse con el sorprendente cambio de percepción que hemos tenido que realizar, en los últimos años, en torno a una sustancia química muy sencilla en cuanto a estructura molecular. Sólo consta de un átomo de nitrógeno y uno de oxígeno. El llamado óxido nítrico, o NO en términos de nomenclatura de los químicos, fue una molécula denostada durante mucho tiempo, al formar parte de los llamados gases NOx, gases emitidos en los tubos de escape de los motores. Esos gases son parcialmente responsables de fenómenos como el smog que poluciona el aire de las ciudades, contribuyendo también a la génesis de la llamada “lluvia ácida” que ha asolado algunos de los principales bosques de la Europa Central. En este principio del siglo XXI y debido al control creciente de esos problemas que acabamos de mencionar, el NO ha perdido parte de su mala prensa y al terminar de leer esta entrada puede que acabeis adorando al NO, en tanto que parte integrante de vuestras relaciones sexuales. Particularmente si el que me lee es un macho todavía activo.

Las implicaciones llamémosle médicas del NO arrancan del empleo del nitrito de amilo en el tratamiento de anginas de pecho. Estamos hablando del siglo XIX. El nitrito de amilo es un líquido que se podía envasar en una diminuta cápsula de vidrio que se podía romper en caso de un ataque cardíaco, bebiéndose su contenido. No muy lejos en el tiempo, los trabajos de Alfred Nobel sobre la nitroglicerina como explosivo condujeron, de forma marginal, al descubrimiento de que también esta molécula podía actuar como vasodilatador rápido que, en cuestión de unos pocos minutos, actuaba de forma eficaz contra los síntomas de una angina de pecho.

Hoy sabemos que en ambos casos la molécula química que realmente está jugando ese papel vasodilatador de los músculos que provocan el ataque es nuestro pequeño amigo el NO. En una situación de angina, esos músculos contraen los vasos sanguíneos que acarrean el suministro de sangre y oxígeno al músculo cardíaco. El NO los relaja y soluciona el problema. Hoy también sabemos que aunque tóxico en cantidades importantes, el propio organismo puede generar las cantidades necesarias de NO a partir del aminoácido conocido como arginina, que puede adquirirse de alimentos como los cacahuetes, el arroz, los huevos, etc.

Pero íbamos a hablar de sexo, ¿NO?. Pues hay que decir que este gas juega un papel fundamental en el “tono viril” necesario para una satisfactoria cópula. Cuando un varón, en disposición receptiva (bastante habitual por otro lado), es estimulado eróticamente, el cerebro manda una señal a los nervios del corpus cavernosum, la estructura espongiforme del músculo del pene. Con la llegada de esa señal, el corpus cavernosum genera NO. Este, con su efecto relajante, como el que actúa frente a una angina, es capaz de relajar una especie de músculo “portero” que es el que impide la entrada de sangre en el pene. Cuando eso ocurre, la sangre entra en éste, que se hincha y produce una erección.

Curiosamente, el papel del NO en el juego sexual no es propio de los humanos. Los machos luciérnaga iluminan su abdomen para atraer a las hembras. Y se ha demostrado experimentalmente que machos luciérnaga en atmósferas que contengan 70 partes por millón de NO están continuamente “iluminados”.

Pero todo se deteriora con el paso del tiempo, y las erecciones también. Y ahí aparece otra vez una molécula química, esta vez un poco más complicada. Es la historia del Viagra y de moléculas con actividades parecidas, como el Cialis, que patrocina un conocido torneo de golf que suelo seguir y donde, en cada tee de salida (y hay 18), hay un anuncio de Cialis. El dinero puesto en juego en ese torneo da una idea del negocio en torno a estas pildoritas.

Pero otro día hago una entrada específica sobre el Viagra.

Leer mas...

miércoles, 8 de marzo de 2006

Arboles, química y cáncer: El tejo milagroso

La historia del Taxol, un anticancerígeno cuya venta ha explotado en los años noventa, es uno de los más claros ejemplos de la falacia natural/sintético y viene a demostrar cómo la Química ha sido capaz de resolver un asunto que, en aras a un tratamiento eficaz de cánceres como el de mama, el de útero o el de pulmón, hubiera podido acabar en poco tiempo con una especie vegetal.

Todo comienza a principios de los sesenta. Un botánico del Departamento de Agricultura americano que se dedicaba a recoger muestras para un proyecto iniciado en 1958 por el National Cancer Institute sobre actividad anticancerígena de unas 35.000 plantas diferentes, se trajo de un viaje al Pacífico corteza, agujas y bayas del llamado tejo del Pacífico (Taxus brebifolia) que parecían tener un efecto beneficioso en ciertos procesos cancerosos. Unos meses más tarde, en 1963, se descubría que extractos de la corteza de ese árbol tenían propiedades antitumorales. Se necesitaron ocho años más antes de que un artículo en el Journal of American Chemical Society se publicara el aislamiento e identificación del principio activo causante de esa actividad antitumoral. A finales de los setenta se conocían ya las causas de esa actividad, en las que no entraré por ser lego en la materia.

La estructura era de aúpa. Sólo el escribir la denominación en términos químicos echa para atrás. Se trata de una moleculita de nada que responde a la siguiente denominación: (alfaR, betaS)-beta-(benzoilamino)-alfa-ácido hidroxipropanoico (2aR, 4S, 4aS, 6R, 9S, 11S, 12S, 12aR,12bS)-6,12b-(acetiloxi)-12-(benzoiloxi)-2a, 3, 4, 4a, 5, 6, 9, 10, 11, 12, 12a-dodecahidro-4, 11-dihidroxi-4a, 8,13,13-tetrametil-5-oxo-7,11-metano-1H-ciclo-deca(3,4)benz(1, 2-b)oxet-p-il-ester. En definitiva, vale más llamarle Paclitaxel en la intimidad, porque hasta me desequilibra el ajuste a derecha e izquierda de la columna de texto de este post.

Desde el principio se vió que sintetizar esta estructura en el laboratorio iba a dar muchos quebraderos de cabeza. No en vano contiene 112 átomos y 12 carbonos asimétricos, algo que pone la guinda en las dificultades de síntesis. Pero había que intentarlo porque si no, la especie desaparecería en muy poco tiempo, dado que de la corteza de un árbol adulto que tarda casi 200 años en alcanzar una altura de unos 40 pies no pueden extraerse más allá de 300 miligramos (0.3 gramos) del principio activo.

El paso definitivo se dió al descubrirse que las agujas de un pariente inglés del Tejo del Pacífico, casi endémico en el Reino Unido, podían proporcionar de manera sostenible un compuesto, la 10-deacetilbacatina (DAB) a partir de la cuál un proceso sintético (semisintético habría que decir con más propiedad) permitía llegar a la estructura del Paclitaxel que, finalmente, en 1993 se puso a la venta bajo el nombre comercial de Taxol por la firma Bristol-Myers Squibb. Desde entonces, las ventas anuales se estiman en miles de millones de dólares.

Leer mas...

martes, 7 de marzo de 2006

Con esta tropa ya no juego más al golf

Tenía yo pensado para este lunes 6 de marzo, una deliciosa página sobre el Taxol, un anticancerígeno sobre el que tendré que hablar mañana o pasado mañana porque, cual periodista en noche de elecciones, la actualidad me sobrepasa. Hace menos de una hora me ha llamado Txema Asua (para el que no lo sepa, primero a la izda en el foto), para decirme que le habían llamado de la Consejería de Educación, Universidades e Investigación del Gobierno Vasco para comunicarle que le habían concedido el Premio Euskadi de Ciencia y Tecnología. Me alegro como si fuera yo, porque he trabajado mano a mano con él para llegar a este objetivo.

Txema es mi amigo. No del alma, porque para ser amigo del alma hay que compartir alegrías y penas y ni en unas ni en otras Txema y yo nos dejamos así como así. No tengo más que dos amigas y un amigo del alma y sólo yo sé lo que me han costado.

Pero da igual. Txema se merecía el Premio, como otros en liza con él y a los que también aprecio. Pero creo que ha ganado justamente. Txema es de los pocos colegas de la UPV/EHU que hace Química (o Ciencia) pegada al campo. Igual que como cuando juega al golf y nos machaca. Y esa Ciencia me gusta a mí más que la que hacen (Einstein me perdone) los dos que están a mi izquierda, preclaros científicos por otro lado, que aventajan al Asua en lo que a Premios se refiere. A este especimen de Zarátamo le da lo mismo el lado básico (entre almidones) de la polimerización en emulsión que el puro y duro día a día del industrial más olvidado. Y de esos, en esta Universidad de mis amores y dolores, con los dedos de la mano, oiga....

En cualquier caso, voy a tener que dejar de jugar con esta troupe que se fotografió con el Buho un agradable día del otoño de 2005. Tres Premios Euskadi me flanquean y el más canoso de ellos (no señalaré otros atributos) atesora otras perlas de mayor brillo en su CV. Y yo sin dar la talla en el famoso número h que ahora nos invade............

Leer mas...

sábado, 4 de marzo de 2006

Alubias de Tolosa y Cocina Molecular

Hoy hace exactamente tres años que Pedro Etxenike provocó una llamada de Juanmari Arzak a mi móvil, llamada con la que comencé a tener una colaboración regular con él, su hija Elena y los investigadores que se alojan en el reducido laboratorio gastronómico que hay sobre el restaurante: Xabi Gutierrez e Igor Zalakain; buena gente con la que me divierto un montón.

Aunque varias veces haré referencia en este blog a estos locos de la colina de Miracruz, creo que es interesante que ahora quede constancia de mis primeros trabajos con ellos, no vaya a ser que con el Alzheimer rampante que me asola, acabe olvidándome de todo. Además, ellos han sido los causantes de mi cada vez creciente tendencia a la divulgación científica. Su innata curiosidad por todo ha provocado que, muchas veces, haya tenido que dedicar horas robadas a otras cosas a tratar de buscar las explicaciones más convincentes a procesos en los que ellos estaban interesados. Y para comenzar, contaré la historia de las alubias de Tolosa.

Cada año en noviembre se celebra un Congreso Internacional de Gastronomía en el Kursaal de San Sebastián. No es preciso mencionar el papel de Gran Guru que Juanmari juega en ese Congreso. Y para el del 2003 había decidido explicar por qué se rompen las alubias de Tolosa durante la cocción. Evidentemente, él y muchas amas de casa tienen trucos para que las alubias no encallezcan y para que no se rompan, pero se trataba de que diéramos una explicación científica al asunto.

Cuando Arzak me planteó el tema, mi primera reacción fue decirle que no. Le argumenté que de lo que yo únicamente sabía era de polímeros y que difícilmente podría sacarle del apuro. Pero largas sesiones en el pequeño bar a la entrada del Restaurante más conocido del País, acabaron no sólo por convencerme sino por divertirme. Y cual becario al que asignan una Tesis me puse a buscar bibliografía. Mi sorpresa fue mayúscula. Aquello estaba resuelto desde los años 80 de forma impecablemente científica y publicado en revistas tan serias como el Journal of Food Science u otras equivalentes. Y estaba resuelto por grupos de investigación muchas veces ligados a grandes grupos industriales alimenticios.

Por ejemplo, se conoce perfectamente el papel de la temperatura en el grado de integridad de la alubias y otras leguminosas. Si las cociéramos a temperaturas en torno a 75ºC ninguna se rompería. Pero, ¿en qué casa se puede cocinar en agua a 75º?. En ninguna. Y nuestras sabias cocineras hace años que añadían agua fría durante la cocción, proceso que se solía denominar “asustar a las alubias”. En el fondo, estaban tratando de rebajar la temperatura de 100º a la que normalmente hierve el agua y que es la única temperatura que podemos mantener de forma estable durante tiempo y tiempo sin ningún cuidado, al corresponder al cambio de estado líquido/vapor. Los investigadores habían establecido otras variables, como el papel de los iones calcio en el endurecimiento de las alubias. O el papel del pH. O la influencia de la naturaleza química del terreno en el que se cultivaron las leguminosas.

Independientemente de lo que me divertí en el proceso (al final, la charla en el Kursaal fue un mano a mano de traca entre JM y el Buho), la experiencia dejó un poso importante en mi mente que, recientemente, ha sido expresado de forma contundente y con toda la resonancia que sus declaraciones tienen, por el otro Gran Guru de la cocina actual, Ferrán Adriá. La cocina tradicional, ya sea en su versión casera o de restaurante, ha despreciado olímpicamente durante años los modos y maneras de la industria alimentaria. Se ha instalado en la sociedad que alimentos preparados como mayonesas, yogures, salsas o cosas más sofisticadas como los precocinados, eran cosas para resolver una urgencia pero nada como la cocina hecha con cariño y sin aditivos que empiezan por la letra E- y que no son más que química.........

Las cosas han cambiado y la élite de los cocineros se está dando cuenta de que los “trucos” de la industria también les sirven. Que se puede controlar la temperatura en baños termostáticos como en el laboratorio, que se pueden liofilizar alimentos como en la laboratorio, que para espesar salsas hay cosas mucho más interesantes que harina, que hay muchas variedades de azúcar, con algunas de los cuales se pueden hacer postres maravillosos e impactantes, y muchas más cosas..... La investigación en estos aspectos está haciendo cambiar la cocina de los restaurantes más sofisticados, aunque algunos como Juanmari, con muy buen criterio, entienden que la innovación está muy bien pero que no se debe olvidar que lo importante es que el plato esté rico. Y algún cocinero parece olvidar esa máxima.

Para terminar contaré una anécdota del propio Adriá en el Kursal en 2003. En su charla, nos había explicado un postre que consistía en coger una deliciosa mermelada, ligera de consistencia, de una fruta tropical y mezclarla con una cantidad medida de alginatos, un producto químico que se extrae de las algas marinas. Posteriormente, con una cuchara grande cogía una porción de esa mezcla y la introducía en una disolución de cloruro cálcico. Los iones calcio hacen de agentes coagulantes de los alginatos, formando una costra sobre la mermelada cuyo espesor depende del tiempo que uno tenga inmersa la cuchara con mermelada en la disolución. Cuando se presenta en el plato en el restaurante, el cliente rompe esa costra con el cuchillo y la mermelada se desparrama por el plato para asombro del mismo.

Una asistente no pudo reprimirse en el turno de preguntas e hizo ver a Ferrán que allí había mucha química, hasta una disolución de cloruro cálcico!!!!!!!. Ferrán estuvo rápido, como habitualmente. Efectivamente, señora, -le contestó- se trata de un producto químico que Ud. puede adquirir en cualquier suministrador de laboratorios, pero tan producto químico y de la misma familia que el cloruro sódico que todos los días emplea sobre su comida, aunque Ud. le llame sal.......

Desde mi perspectiva, huelga cualquier comentario. La anécdota se inscribe perfectamente en lo que quiero incidir en este blog.

La foto es de una cena en julio de 2005 en la que mi amiga del alma, Josepi Fernández-Berridi y yo mismo compartimos mesa en Arzak con Jim Runt, de la PennState University, y su mujer.

Leer mas...

viernes, 3 de marzo de 2006

El placer de lo “natural”

En 1897, un químico de Bayer, Felix Hoffman creaba en el laboratorio la moderna versión de la aspirina, acetilando el grupo hidroxilo del ácido salicílico y sintetizando así el ácido acetil salicílico. Una de las versiones que circulan (aunque hay controversia al respecto) sobre el inicio de esta historia es que Hoffman se había interesado por el ácido salicílico como consecuencia de que su padre ingería ciertas infusiones de corteza de sauce contra sus dolores reumáticos, infusiones ricas en ese ácido. Sin embargo, las infusiones le causaban molestas irritaciones estomacales que Hoffman trató de evitar mediante la modificación química de la molécula original.

Hoy en día la aspirina que se vende en un producto de síntesis de los laboratorios Bayer no empleándose en el proceso ninguna materia prima proveniente de los sauces que intrigaron a Hoffman. Ese medicamento de síntesis es uno de los más vendidos como analgésico y antipirético. Sin embargo, es pertinente mencionar aquí que hay autores que mantienen que si hoy se tratara de introducir la aspirina como un nuevo medicamento en el mercado, dados los efectos secundarios que presenta, sería, casi con toda seguridad, rechazada por las estrictas normas de las agencias gubernamentales que controlan los nuevos fármacos.

La historia de la vitamina C está ligada a las epidemias de escorbuto que asolaban a los ejércitos y a los marineros de largos viajes durante los siglos anteriores al XVIII. A mediados del siglo XVIII, una serie de descubrimientos llevaron a la conclusión que el consumo de frutas y vegetales frescos era el mejor remedio contra el escorbuto. Pero se necesitaron muchos años hasta que alrededor de 1920 se descubrió que el verdadero agente activo contra el escorbuto era la que hoy conocemos como Vitamina C, el ácido ascórbico. Esa vitamina C se encuentra de forma natural en muchas frutas y verduras, como las naranjas, los kiwis, etc. La entrada masiva de la vitamina C en las costumbres de la población se produjo a partir de los años 30 del siglo pasado cuando la vitamina C se sintetizó en el laboratorio a partir de glucosa. Roche fue una de las primeras compañías en conseguirlo y hoy en día se fabrican más de 50.000 toneladas/año de dicho producto sintético.

Deliberadamente he elegido un par de fármacos que tiene que ver con sustancias que se producen en la naturaleza para volver a plantear la forzada dicotomía entre lo natural y lo sintético. ¿Es diferente la vitamina C contenida en un zumo de naranja de la contenida en una pastilla de Redoxon?. Pues mucha gente piensa que sí. Y aunque es cierto que no es lo mismo beberse un zumo de naranja recién exprimida que una tableta de Redoxon dispersada en agua, desde el punto de vista de la naturaleza de la Vitamina C ingerida no hay diferencia alguna. ¿Es mejor ingerir Vitamina C en forma de zumo de naranja que en forma de comprimido?. Pues si las dosis se ajustan exactamente, y no es difícil y si lo que estamos buscando es un nivel de vitamina C en nuestro organismo, la respuesta es no. Por supuesto el zumo de naranja lleva otras sustancias (también químicas) disueltas en agua, pero estamos hablando de los efectos de la vitamina C.

En este punto es curioso reseñar que muchos grupos ecologistas argumentan que aún peor que muchas sustancias químicas son los “cócteles” de esas sustancias, según ellos con propiedades nocivas emergentes de la mezcla. Sin embargo, no se aplica ese mismo criterio a cócteles naturales como un zumo de naranja en comparación con la vitamina C pura obtenida por síntesis, que sólo contiene vitamina C. Irónicamente, diríamos que parece desprenderse de éste y otros ejemplos que sólo los cócteles “naturales” son buenos, en clara sintonía con la irracionalidad dominante en estos aspectos. Ya mostraremos otro día algún ejemplo en el que eso no ocurre. Hoy vamos a dejarlo porque he tenido un día muy duro. De nuevo, gracias a las Administraciones que me administran.

Leer mas...

jueves, 2 de marzo de 2006

Marcando el terreno

Vaya por delante que el que esto os presenta es un químico y un químico convencido del papel de la Química en la eliminación del hambre, la enfermedad y la pobreza en aquellos países que han tenido una industria química bien asentada. Sin embargo, en estadísticas de esos países desarrollados, es normal encontrar a la Química en general, y a la industria química en particular, en los últimos puestos del ranking en lo que a confianza de los ciudadanos se refiere, a niveles similares de la confianza que inspiran, pongamos por caso, los políticos del pais.

De alguna forma, la industria química se ha ganado parte de esa desconfianza por los problemas de contaminación que ha creado y por su incapacidad para comunicar con la sociedad. Sin embargo, hay que decir que, en lo que a contaminación se refiere, otras industrias, como la siderometalúrgica o la minería, han causado contaminaciones mucho más severas que la industria química. Y qué decir del tráfico rodado… Pero esos problemas reales (que hay que resolver) no nos deben impedir ser conscientes de que una parte de nuestra confortable vida actual descansa en los logros de la Química.

Hay muchas contribuciones importantes de la Química al desarrollo de la humanidad. La mayor parte de ellas se han producido a finales del siglo XIX y durante todo el siglo XX. A la hora de elegir un proceso representativo, situado en los albores de la industria química, quizás uno de los más importantes es el el proceso Haber-Bosch de la síntesis del amoníaco. Su importancia radica en que a pesar de que el nitrógeno está omnipresente en la atmósfera, los seres vivos (que lo necesitan para producir aminoácidos o proteínas) no son capaces de fijarlo en su organismo y sólo lo inspiran y expiran durante el proceso respiratorio. Sin embargo, la molécula generada en el proceso Haber-Bosch, el amoniaco, puede dar lugar a fertilizantes que ayudan a las plantas a fijar el nitrógeno en forma de otras sustancias que, al ser ingeridas por otros seres vivos, pasan a su cadena metabólica. Otros usos no despreciables del amoníaco incluyen la fabricación de explosivos o de determinados polímeros (poliamidas, poliuretanos, poliimidas, etc.).

Quizás sean las Ciencias de la Salud las que más beneficiadas han resultado de la interacción con la Química. Partiendo de sustancias como la aspirina o la Vitamina C, sustancias que de una u otra forma han surgido en el ámbito de la propia naturaleza, pero que posteriormente han sido sintetizadas en el laboratorio, la Química ha construido un edificio capaz de enfrentarse a los graves problemas de salud que la Humanidad ha tenido que encarar. Y así, se han generado por síntesis química multitud de moléculas nuevas en forma de antibióticos, vacunas, otros tipos de vitaminas, antidepresivos, potentes anestésicos, anticonceptivos y una extensa gama más de genéricos. No se debe olvidar tampoco el papel de la Quimioterapia, que se ha revelado como un método eficaz y cada vez más depurado, en cuanto a efectos secundarios, para el tratamiento de diversos tipos de cánceres. Quizás uno de los resultados más espectaculares sea la evolución de los cánceres infantiles antes y despues de la introducción de los revolucionarios tratamientos de quimioterapia iniciados a partir de los años sesenta.

En definitiva, todas estas estrategias farmacológicas se han implantado en nuestra sociedad y, hoy en día, sus repercusiones en nuestra modo de vida son enormes. Basta con comparar las sociedades occidentales con aquellas que no disponen de posibilidades para acceder a estos fármacos para darse cuenta de cómo sería la vida sin ellos.

Por otro lado, usando como materia prima productos derivados del petróleo, la Química ha producido a partir de los años 30 del siglo pasado toda una gran variedad de nuevos materiales que llamamos polímeros o plásticos, que han revolucionado muchos de nuestros modos de vida y que han crecido a un ritmo espectacular. Aunque se pudiera argumentar que, en tanto que derivados del petróleo, su producción pudiera resultar afectada en el futuro por el agotamiento de éste, es conveniente explicar que sólo el 4% del petróleo manipulado en refinerías va hacia líneas de síntesis de medicinas, polímeros, etc., mientras que el 80% simplemente se quema como materia prima para la producción de energía en sus diversas formas.

Pero no todo es de color de rosa en el mundo relacionado con la Química. La Química ha causado problemas y se la identifica con residuos, contaminación atmosférica, etc. Sin embargo, frente al énfasis que se pone en ese tipo de problemas, pocas veces se ha resaltado debidamente la manifiesta capacidad de la Química en la resolución de los propios problemas que ha ido creando. Problemas que, en muchos casos, han nacido de un desconocimiento de lo que pueda derivarse de la introducción de algunos procesos.

Es evidente, por tanto, que todo proceso o producto nuevo tiene un riesgo. Pero sin la asunción de algún riesgo, ningún avance es posible. Y no deja de ser curioso que mientras que asumimos de forma casi automática riesgos que, como el uso del automóvil o el fumar, tienen muchas probabilidades de causarnos lesiones graves o la muerte a lo largo de nuestra vida, asumamos mucho peor el empleo de sustancias que, siendo potencialmente peligrosas, hay mucha menor probabilidad de que puedan causarnos problemas graves (el empleo de plásticos es bastante ilustrativo a ese respecto).

En línea con lo manifestado en el párrafo anterior, hay muchos ejemplos en los que el desarrollo de nuevos procesos o productos sintéticos ha dado lugar lugar a problemas ambientales graves que no se preveían cuando se descubrieron. El ejemplo de la capa de ozono es relevante por su gravedad, pero también por la rapidez con la que se obtuvieron las bases para iniciar la resolución del problema. Otro ejemplo del riesgo en el avance, contaminado en este caso por errores humanos graves, y sobre el que volveré en los próximos días en este Blog es el de la talidomida. Este medicamento fue introducido en los años 50 por una pequeña industria farmaceútica alemana como alternativa a tranquilizantes que se habían introducido entonces en el mercado (Valium, Veronal). Pronto se pudo comprobar que su administración a embarazadas causaba malformaciones a los fetos. Aproximadamente 8.000 niños nacieron vivos con deformaciones severas y en otros muchos casos el embarazo no llegó a su final.

En resumen, desde principios del siglo XX los químicos fueron capaces de sintetizar compuestos nuevos que supusieron avances con importantes repercusiones en el nivel de vida de la población, pero con el paso de los años se descubrió que producían un efecto secundario en el medio ambiente. De nuevo los químicos fueron los que explicaron el problema y plantearon alternativas respetuosas con el ambiente que nos permitieran no renunciar a los avances y mejoras en la calidad de vida que nos habían proporcionado, por ejemplo, sustancias como los CFCs, causantes del problema de la capa de ozono.

Deliberadamente, en los párrafos dedicados a los fármacos, hemos introducido una discusión que enfrenta una serie de ellos que tienen que ver con sustancias que se producen en la naturaleza con muchas más sustancias de carácter farmacológico que son sustancias nuevas, producidas por el hombre en el laboratorio. La fotografía que ilustra esta página corresponde a la planta (Digitalis lanata) de la que se extrae la digoxina, el fármaco por excelencia para muchos enfermos cardíacos desde finales del siglo XVIII. Es uno de los pocos casos en el que el principio activo se sigue extrayendo de la planta y no se ha sintetizado en el laboratorio. Estos y otros ejemplos evidencian lo sutil de la línea que separa lo que a nivel de calle se conocen como productos naturales de los denominados sintéticos. Asociar algunos productos con el concepto natural (o bueno) y otros con el de sintético ( o químico, malo) es una falacia que ha calado en la sociedad en gran parte debido a medios de comunicación. Muchos productos que los químicos sintetizan o usan como reactivos en el laboratorio o la industria son moléculas que están en nuestro organismo, en los alimentos, en las plantas, etc.

La tolerancia de las sociedades occidentales con las bebidas alcohólicas es un buen ejemplo de la inconsistencia de la disputa natural/artificial. Todas las bebidas alcohólicas contienen etanol y, muchas de ellas, como la sidra, metanol. Ambas son sustancias químicas bien conocidas (y peligrosas en dosis no muy lejanas de las que se pueden ingerir en ciertas situaciones descontroladas). Por ejemplo, muchas sidras contienen cerca del ml. por litro de metanol y la dosis mínima letal se considera que es de 30 ml de metanol puro, aunque en la bibliografía se barajan cifras muy dispares en relación con la dosis tóxica (que produce ceguera) y/o mortal. Y las consecuencias del etanol sobre el hígado (cirrosis hepática) son de dominio público. Sin embargo, basta ver lo que se repite en la publicidad de vino o sidra el término “natural” por derivarse de productos de la naturaleza como las uvas o las manzanas. Pero ambas dan lugar, tras el procesos de fermentación, a los alcoholes mencionados, los mismos que en el laboratorio almacenamos en botellas cuyas etiquetas ponen metanol o etanol.

Otro aspecto relevante a tener en cuenta en esta discusión es la aparente contaminación de casi todo lo que usamos, comemos,… Sustancias peligrosas aparecen en análisis realizados en alimentos y otros bienes, causando una evidente alarma social. A lo largo del siglo XX, las compañías relacionadas con el sector analítico han puesto en el mercado instrumentos muy poderosos que permiten detectar sustancias en cantidades próximas a una parte por trillon (1ppt) que, en una escala de tiempos, es similar a un segundo en 30.000 años. Aparatos estandarizados miden partes por billón (ppb, como un segundo con respecto a 30 años) y técnicas analíticas hoy muy económicas pueden medir sin dificultad partes por millón (ppm).

Con esas herramientas en la mano, cantidades infinitesimales de cualquier contaminante puede detectarse de forma fiable en agua, leche u otros alimentos. La pregunta clave que debiéramos hacernos es:¿la posibilidad de esas detecciones es para asustarse o para confiarse?. Durante siglos, nadie ha tenido los métodos analíticos que ahora tenemos ni el control con ellos de las sustancias que ingerimos. ¿Estaban nuestros antepasados en una situación mejor que la nuestra en lo que a calidad de vida se refiere?. Para un químico la respuesta no tiene duda.

En definitiva, la Química ha supuesto una pieza clave en el tipo de vida que hoy llevamos, en nuestra salud, en nuestra movilidad y pocos estamos dispuestos, en el fondo, a renunciar a esas conquistas. Y, lo que es más importante, sin la Química es difícil que podamos seguir avanzando en cuestiones como la terapia génica, las nuevas fuentes de energía o los nuevos materiales y procesos ligados a la nanotecnología que, probablemente, supondrán un cambio radical en nuestra forma de vida.

Leer mas...