martes, 30 de mayo de 2006

Gluten, almidón, agua, levadura y sal: Pan

Ya he mencionado en otra entrada a Harold MacGee, una especie de gurú de la gastronomía internacional. En el año 2004 ha publicado una versión revisada de su clásico “On Food and Cooking: The Science and Lore of the Kitchen”, un libro aparecido por primera vez en 1984 y que se ha convertido en un clásico para todos aquellos que quieran profundizar en las razones últimas (digamos científicas) de la gastronomía. Este noviembre, de paso por Donosti, invitado por Juanmari Arzak y Andoni Luis Adúriz (Mugaritz), mi chica y yo tuvimos la suerte de disfrutar de una cena en su compañía en el cálido ambiente que nos dispensan Juanmari y Elena en el restaurante del Alto de Miracruz. A las pocas semanas, Harold me mandó un ejemplar dedicado de su libro (una biblia de 884 páginas), con la promesa de que pronto volverá al País Vasco para que los naturales del lugar se lo enseñemos mejor.

Poco a poco voy avanzando en la lectura del libro (cada día se me acumulan más cosas para leer). Para un químico polimérico como yo, resulta una obra que engancha. No en vano, Harold comenzó estudios de Química y aunque los abandonó, la Química le guía en muchos de los capítulos del libro y su terminología me es muy próxima. Los últimos días he estado leyendo cosas sobre el pan, después de cabrearme por enésima vez tras sacar del congelador un pan recientemente congelado y constatar que al intentar cortarlo se me deshacía entre las manos. ¡Esto lo tiene que explicar el libro de Harold!, grité en mi ofuscación. Y del resultado de mis pesquisas surge la entrada de hoy.

No es una guía para hacer un pan mejor, no es una receta para panaderos ilustrados, sólo un compendio de curiosidades relativas al proceso de elaboración del pan y su posterior deterioro que un búho alquimista hasta la médula ha osado extraer del libro de Harold. Haremos, en primer lugar, un repaso a los elementos esenciales en la confección clásica del pan.

Uno tendería a decir que el elemento básico en la confección de pan es la harina de trigo. Y no se equivoca. Pero cuando se aplica la escrutadora mirada de un químíco al problema, la cosa cambia. Empezaremos por el análisis de la sensación que uno tiene cuando mastica repetidamente un pequeño pedazo de miga de pan. Es algo parecido a mascar chicle y la razón está en el gluten, lo que los chinos llamaban el “músculo de la harina”. El gluten es el resultado final de un proceso asociativo entre las diferentes proteínas existentes en la harina. Asociación molecular que ya traté en mi entrada del pasado jueves 18 de mayo con el sugerente título de erótica molecular. Las proteínas son largas cadenas, polímeros otra vez, constituidas por la repetición de cientos o miles de unidades de aminoácidos.

En la harina de trigo hay dos tipos de proteínas, la gliadina (responsable de la llamada enfermedad celíaca) y la glutenina. Estas últimas contienen en sus extremos unidades de aminoácidos con azufre, lo que hace que se puedan unir entre si por enlaces azufre-azufre, dando lugar a cadenas mucho más largas, aunque para ello necesitan del concurso del oxígeno (luego hablamos sobre ello). Por otro lado, las moléculas de gliadina y de glutenina pueden unirse lateralmente entre sí por enlaces más débiles, los ya varias veces citados puentes de hidrógeno. Todo ello genera una red tridimensional de moléculas de proteína. Tal red es lo que denominamos gluten, una especie de plastilina de harina, por bautizarla de algún modo y para que se entiendan las propiedades que tiene.

Pero el gluten sólo supone el 10-12% de la harina de trigo. Más del 70% restante es almidón. El almidón es también un polímero y además se pueden contar cosas curiosas sobre él. La unidad que se repite en el almidón es la de la glucopiranosa, básicamente similar a la molécula de la glucosa. Pero cuando unidades de glucopiranosa se unen entre sí, pueden “darse la mano” de diversas formas (como pasaba en los polímeros tácticos, entrada del 29 de marzo). Y del resultado de esas diversas formas de unirse en cadenas resultan cosas tan dispares como el almidón y las fibras de celulosa. Ambas son cadenas de glucopiranosa. En la celulosa el encadenamiento es tal que permite formar fibras cristalinas, mientras que en el almidón su encadenamiento provoca un polvo amorfo, sin asomo alguno de estructura cristalina.

¿Es eso importante en la vida real?. Pues tan importante como que el almidón (presente en la patata, arroz, trigo, etc.) es fácilmente asimilado por el organismo humano como fuente de carbohidratos, mientras que las fibras de celulosa, contenidas en muchas verduras y hortalizas, entran y salen tal cual en nuestro organismo, aunque dicen los que saben que esa fibra es buena para nuestro tracto intestinal y previene de cánceres de colon y similares. La diferencia es, por tanto, diáfana. Y todo por una diferencia de estructura aparentemente nimia a los ojos sorprendidos de un profano.

El almidón está en la harina de trigo en forma de gránulos como los que se ven en la foto de microscopía electrónica de la derecha del encabezado, foto obtenida por mi amiga y colega Alba González, cuya doble nacionalidad hispano-cubana ha sido certificada este viernes por el Ministerio de AAEE. Dejándonos de intimidades, los gránulos mostrados en la foto pertenecen a una alubia de Tolosa, pero la apariencia es la misma en muchas semillas de vegetales. Una especie de membranas que actúan como envoltorio de las esferas o gránulos de almidón. En contacto con agua esos gránulos se hinchan, desapareciendo su geometría más o menos esférica, siempre que subamos la temperatura por encima de unos 50ºC. Es lo que se conoce como gelatinización del almidón que no es sino la desaparición del cierto orden existente en las cadenas situadas en el interior de los gránulos de almidón. En último extremo, la gelatinización con el agua y calor conduce a algo parecido a una bechamel, aunque en ésta el agua que se usa es la contenida en la leche.

Hay muchos tipos de harina y cada uno de ellos tiene su propio contenido en almidón y proteínas, lo que hace que las posibilidades de combinación sean casi infinitas. No vamos a entrar en detalle al respecto, pero mientras que la clásica harina de pan tiene un contenido más alto en proteínas, las harinas para todo uso en cocina suelen tener un menor contenido de éstas.

El agua empleada en la obtención de la masa de pan también tiene su importancia. Por ejemplo, aguas duras, ricas en calcio o magnesio contribuyen a masas más firmes debido a que esos elementos hacen de puente entre cadenas de proteínas, un fenómeno similar al que hace que unas alubias se “encallen” en aguas duras. Aguas ligeramente ácidas dan lugar a un gluten menos firme mientras aguas alcalinas hacen lo contrario. El contenido de agua también puede variarse a la hora de hacer la mezcla para la masa pero una receta clásica tiene 65 partes de agua por 100 de harina de cualquier tipo.

La sal solo va en 1.5-2% pero dependiendo de su contenido puede contribuir también en mayor o menor medida a la firmeza de la masa, aunque su contribución es mucho menos importante. Finalmente, la levadura anda en similares proporciones a la sal, aunque también aquí cada panadero tiene su receta. Su papel es el de producir un gas, el anhídrido carbónico, como consecuencia de su actividad metabólica (seres vivos al fin) sobre las unidades de carbohidratos existentes en el almidón. Aparte de producir el gas que infla la masa de pan y genera celdas huecas en el interior, pueden proporcionar otras características adicionales a la masa, afectando a la consistencia y el aroma.

El primer paso, por tanto, en la elaboración del pan es mezclar físicamente harina de trigo con agua, sal y la levadura. Cuando realizamos la mezcla comienzan varios interesantes procesos. Los gránulos de almidón absorben agua y las enzimas existentes en la harina como la amilasa empiezan a atacar a esas moléculas de almidón, rompiéndolas y produciendo la glucosa que necesitan las levaduras para producir CO2 y alcohol, en un proceso similar al de la fermentación de la uva. Al contrario que en ella, donde el CO2 se escapa del líquido en fermentación, aquí alcohol y CO2 quedan ocluidos en la masa, de donde son mayoritariamente expulsados durante el horneado. En este mismo procesos inicial, las cadenas de gluteína absorben algo de agua y se estiran, comenzando a establecer interacciones entre ellas. La mezcla empieza a aparecer ante nosotros como algo coherente y con un cierto toque fibroso.

Esa labor de conjunción se completa en el amasado, donde la labor de estirar y recoger sobre si misma la masa, permite que las moléculas de proteínas también se estiren, facilitando así el que se unan entre si tanto por los enlaces de azufre de los extremos como, lateralmente, por los puentes de hidrógeno, que hemos mencionado antes. El amasado también airea el conjunto suministrando oxígeno para la consecución de los puentes de azufre.

Tras el amasado, es necesario que la fermentación tenga lugar a una temperatura conveniente. La ideal para que trabaje bien la levadura anda por 27ºC. Temperaturas mas bajas hacen que el proceso se dilate demasiado, mientras que a temperaturas más altas pueden producirse ciertos sabores poco agradables.

Y finalmente hay que hornear, un proceso fundamental para las características finales del pan. Aquí también las variantes y trucos son muchos. Desde suministrar vapor de agua al horno para que se caliente rápido y tenga una fina capa de agua en la superficie que impida que se haga demasiado dura la corteza, hasta diferentes ciclos de temperatura para conseguir texturas especiales. Durante el horneado, el agua y el alcohol que hay en el interior de la masa se vaporizan y las celdas de gas producidas por el CO2 en la fermentación se expanden con ello. Con el calor, el gluten progresa en su asociación y hace que la masa se vaya haciendo más firme, mientras que la superficie va tostándose como consecuencia de un proceso degradativo que, adecuadamente controlado, proporciona texturas, aromas y presentaciones agradables.

Ya tenemos el pan recién comprado, todavía caliente. A partir de aquí empieza un deterioro irreversible no del todo bien comprendido. Visualmente, la miga va endureciéndose, cosa que mucha gente cree debido a la progresiva pérdida de agua. Sin embargo, hace muchos años que se demostró que pan bien aislado del exterior, sin posibilidades de pérdidas de agua, sufre un proceso similar. Aunque, como digo, sigue investigándose el complejo proceso de envejecimiento, parece que el principal factor en el proceso es la retrogradación de las moléculas de almidón. Dicho proceso sería el contrario de la gelatinización arriba indicada e implica la pérdida de agua y una recristalización de las cadenas, así como a otros procesos peor entendidos. Todos ellos contribuyen al endurecimiento. El fenómeno de la cristalización se da a mayor velocidad a bajas temperaturas. Calentando el pan, con algo de humedad adicional le daríamos la vuelta al proceso, volviendo a gelatinizar el almidón y a “rejuvenecer” el pan.

Pero Harold no dice nada especial sobre el efecto de la congelación en el envejecimiento, más allá de lo que acabo de relatar sobre las temperaturas bajas. Así que echando mano de mi faceta de teórico, que también la tengo, propongo una hipótesis a verificar experimentalmente. Muchas veces, al descongelar un trozo de pan cortado se aprecia que la miga parece desprenderse en parte de la corteza y, además, el pan se rompe en múltiples pedazos al querer pellizcar un trozo de él. Mi hipótesis es que al contraerse la miga por efecto de la retrogradación, ésta no puede hacerlo de forma homogénea, porque la zona cerca de la corteza está ya rígida. Ello produciría una especie de estiramiento interno que crearía, finalmente, esa rotura de la miga en algún punto del interior. Y eso estaría tanto más favorecido cuanto más baja fuera la temperatura del congelador, ya que el proceso de contracción es más brusco.

****************
Hasta aquí llegaba mi entrada antes de que uno de mis devotos lectores, Xabi Gutierrez, confeso adicto al pan y la bollería, me hiciera llegar sus comentarios. Según él, y seguro que lo conoce por experiencia, si haces un pan según el proceso que acabo de describir, éste puede comerse con una calidad aceptable incluso hasta el tercer día, cosa que no pasa con los panes comercializados. Y si ese pan lo metes al congelador y tras varios días lo descongelas suave (2 horas) y lo metes al horno a 200ºC (2-3 minutos) el pan está casi como recién hecho. ¿Dónde radica la diferencia con el pan que usualmente adquirimos?.

Yo no lo sé, pero del email de Xabi intuyo que él lo achaca a ciertos mejorantes panarios que se usan habitualmente en un intento de que el pan a consumir tenga una corteza muy crujiente y una miga blanda y aireada.


He investigado un poco el asunto de estos aditivos. De la enrevesada información que proporciona una firma especializada, se puede concluir que un mejorante contiene una variada gama de productos para lograr el fin que arriba se menciona. Entre los más importantes se encuentran sustancias como la vitamina C (ácido ascórbico). Curiosamente entendida como un antioxidante aquí hace el papel inverso, proporcionando el oxígeno necesario para que tenga lugar la formación de los puentes de azufre entre moléculas de gluteína que fortalecen el gluten. Esa aparente contradicción no es tal, ya que el ácido ascórbico con el oxígeno del aire y durante el amasado forma ácido dehidroascórbico que, en el procesos de fermentación, vuelve a devolver el oxígeno, regenerando el ascórbico. Es una especie de suministro continuado y lento de oxígeno durante la fermentación, en la que el oxígeno del aire no podría llegar a toda la masa.

Los mejorantes panarios también contienen emulsificantes como la lecitina y algunos monoglicéridos y diglicéridos de ácidos grasos. Suelen contener enzimas como la amilasa para asegurarnos de que las moléculas de almidón vayan siendo atacadas y desintegradas en la glucosa que necesitan las levaduras. Para idéntico papel, de forma inicial, los mejorantes suelen llevar la propia glucosa, dextrosa o fructosa. Finalmente pueden contener grasas que hacen la masa más fina e incluso gluten para complementar el que lleve de forma original la harina que se emplee.

El que el uso de estos aditivos suponga una interferencia en el proceso normal de envejecimiento del pan parece bastante claro, pero no he encontrado, por ahora, literatura que estudie su influencia. Tiempo al tiempo......

Leer mas...

domingo, 28 de mayo de 2006

Mujeres de rompe y rasga y fibras de alto módulo


Esta entrada fue anulada tras su revisión y publicación de esta otra. Si leyendo el Blog, un enlace os manda a esta entrada de 2006 puede redirigirse a la actualización citada picando en el anterior enlace.

Leer mas...

jueves, 25 de mayo de 2006

Moléculas pantalla y bronceado Maillard

Fiel seguidor de una tradición, radicada tanto en familia propia como en la postiza, mantengo que lo mejor del sol es la sombra. Pero mi adición al golf, cada vez más enfermiza según se aproxima mi jubilación, me plantea al respecto problemas metafísicos en cuanto llegan los días largos y soleados de estos meses. O me cubro cual afgana o tengo que recurrir a la Química para librarme de toda una pléyade de rojeces, escozores, peelings naturales y otras inconveniencias. Pero me gusta muy poco embadurnarme así que, al final, acabo con un look propio de encofrador en obra de Almería, con unas fronteras en brazos y cuello de las que avergonzarme si, por descuido, mi comadrona me acaba llevando un día a la playa. Casi cada año tengo arranques de coquetería, en los que me planteo la posibilidad de broncearme artificialmente al principio de la temporada y dejarme de mandangas. Año tras año, sin embargo, la intención se queda simplemente en intención.

El sol, cuya omnipresencia incluso en días nublados solo echaremos en falta si un día definitivamente se apaga, nos manda su luz permanentemente en forma de un conjunto amplio de radiaciones electromagnéticas o, para entendernos, de diferentes “tipos de luz”. Cuando la luz solar pasa, por ejemplo, por una zona en la que está lloviendo y nosotros vemos el fenómeno del arco iris desde lejos, no estamos sino apreciando los diferentes tipos de luces que el sol nos manda y que, en ese fenómeno del arco iris, se separan. En términos físicos, cada una de ellas es el resultado de que una onda electromagnética (similar a las ondas en un estanque) viaja en el espacio con una longitud entre dos crestas consecutivas (longitud de onda) diferente. Así las luces que llamamos rojas tienen una longitud de onda entre 740-620 nanómetros (0.00000074-0.00000062 metros). Las violetas, en el otro extremo del arco, andan entre 400 y 445 nanómetros.

Pero hay luces que vienen del sol que nuestros ojos no ven y que, sin embargo, son mucho más peligrosas para nosotros. Las llamadas radiaciones o luces ultravioleta (UV) también constan de diferentes longitudes de onda. Las UV-A van de 320 a 400 nanómetros. Las UV-B se sitúan entre 280 y 320 y las UV-C entre 100 y 280. Cuanto menor es la longitud de onda mayor es la energía contenida en la radiación correspondiente y mayor su capacidad de dañar nuestra piel o nuestros ojos. Así que las UV-C son las más peligrosas, luego las UV-B, las UV-A, viniendo despues las luces que vemos en el arco iris empezando por la luz violeta, la luz azul y así sucesivamente.

Afortunadamente, tenemos un caballero andante que se preocupa de que las más peligrosas de esas radiaciones (las definidas arriba como UV-C) no lleguen a la tierra. Se trata de la capa de ozono, una capa que rodea la tierra y con la que se encuentra la radiación solar en su camino hacia ella, capa que no deja pasar longitudes de onda inferiores a 290 nanómetros. La creciente disminución del espesor de esa capa e, incluso, la existencia de regiones de la tierra (Australia) en la que tal capa no existe, está permitiendo la entrada de radiaciones más energéticas, que están haciendo proliferar allí, y en otros lugares, el peligroso cáncer de piel conocido como melanoma, generado como consecuencia de la profunda penetración en la piel de las UV-C, y también las UV-B, hasta conseguir dañar el ADN y el sistema inmunológico. Las UV-A, que también pasan el filtro del ozono son, en principio, menos peligrosas y se suelen mencionar cómo las principales causantes de arrugas y envejecimiento prematuro de la piel. Pero no conviene olvidarlas.

Frente a esto, la alianza de la medicina, la farmacia y la química ha puesto en nuestras manos una serie de moléculas que nos protegen de esas radiaciones más o menos peligrosas. Aunque, siguiendo mi modus operandi, lo mejor sería no exponerse prolongadamente al sol, lo cierto es que, a veces, hay que hacerlo por obligación. También es cierto que, en nuestra civilización, el bronceado de la piel se ha identificado con un individuo en buen estado de salud, por lo que se ha convertido en una práctica habitual.

Para protegerse de las UV-B, las más energéticas de las que el ozono deja pasar, el dispositivo más eficaz es poner sobre la piel sustancias opacas que bloqueen el paso de la luz a la piel al tener la capacidad de reflejarla o dispersarla (es por tanto una estrategia física). Tal es el caso de sustancias inorgánicas como los óxidos de zinc y de titanio, finamente divididos y dispersos en algún medio que permita su aplicación. También se emplean estrategias de corte más químico. En este caso, se trata de moléculas, generalmente orgánicas (en el uso que hacemos los químicos de la palabra) que, colocadas sobre la piel, captan la luz y sufren una transformación química gracias a la energía en ella contenida, eliminando así la posibilidad de que esa energía actúe sobre la piel. Un ejemplo tradicional de este tipo de compuestos pueden ser algunos salicilatos o benzofenonas.


Una crema protectora comercial suele usar ambos tipos de estrategias y su eficacia se mide en el índice de protección solar, un número que aparece en todos los preparados y que es mal comprendido por muchos usuarios. Es percepción popular que si uno se compra una crema de índice de protección 30, le protege el doble que una de índice 15. La cosa tiene algo más de intríngulis aunque espero que, a partir de ahora, todo os quede clarito con lo que os voy a explicar. Un índice 2 quiere decir que la crema impide llegar a la piel a la mitad de la radiación que llegaría en caso de no usarla. Elimina por tanto el 50% y deja llegar el otro 50 (100/2). Un índice 10, deja sólo llegar el 10% (100/10), eliminando el 90%. Un índice 25, deja pasar el 4% (100/25). Un índice 50 sólo el 2% (100/50). Como se ve, a partir de estos valores, la cantidad de radiación que nos alcanza es realmente pequeña y subidas en el número que indica el índice tampoco suponen rebajas notables. Y tampoco hay que pasarse, que algo morenos nos podemos poner, con tiento y sabiendo el riesgo que corremos, pues los beneficios del sol (por ejemplo, en cuanto a fuente de vitaminas) pueden compensar esos riesgos, al menos en teoría. Y, además, los fabricantes (y las farmacias) se aprovechan del asunto de los números para subir los precios.

Las cremas de autobronceado son una cosa curiosa para alguien que, como yo, maneja entre las categorías de su Blog la de Química y Gastronomía aunque, dicho así, puede resultar un poco difícil de entender. Muchas cremas autobronceantes han tenido tradicionalmente como principio activo la Dihidroxiacetona (DHA). Se trata de una sustancia que se genera de forma natural en nuestro cuerpo a partir del metabolismo de los carbohidratos que ingerimos, particularmente de la fructosa de las frutas. La DHA que se usa en cremas bronceadoras se obtiene por un proceso bien conocido de fermentación de glicerina en presencia de la Acetobacter suboxydans.

Los efectos bronceantes de la DHA se descubrieron por accidente en un Hospital de Cincinnati donde se estaba investigando su posible acción terapeútica en niños con problemas de metabolismo de carbohidratos, problemas que no detallaré. Cuando se les administraban dosis importantes de DHA, en su piel aparecían manchas oscuras. Pronto se vió que el mismo efecto podía producirse aplicando lociones del producto directamente a la piel. ¿Como consigue la DHA ese efecto?. La respuesta, y aquí aparece la gastronomía, está en las reacciones de Maillard, de las que ya hemos hablado varias veces en el Blog, como podeis comprobar sin más que poner Maillard en el buscador que aparece arriba a la izquierda, encima de la foto que encabeza esta entrada. En el caso de la DHA, que no deja de ser un azúcar, la reacción de Maillard se produce entre esa molécula y los grupos amina libres de los aminoácidos que constituyen las proteínas de la piel y, en particular, de la arginina, que con la lisina y la histidina son los aminoácidos predominantes.

Aunque en esto, y a pesar de lo que os he contado de los niños de Cincinatti, navegando por internet uno puede encontrar cosas como ésta. Avisados estáis.

Leer mas...

Químicos provectos

Decía mi abuelo materno, burgalés cachazudo y sufrido, que en su pueblo no había médico porque sus habitantes se jactaban de morir de muerte natural. Esta va a ser una entrada con poco rigor científico y poca sustancia literaria, pero no he podido resistirme a escribirla tras releer el último número que me ha llegado de una revista que ya he mencionado aquí, el Chemical Engineering News (CEN), una especie de cotilleo para químicos, en la que uno se entera desde los últimos avances en Química a lo largo y ancho del mundo hasta el último muerto americano en la profesión. Y de muertos va el post.

El ciudadano de nariz aguileña (judía diría yo) que se ve en la foto es el Dr. Elliot L. Shapiro, un destacado científico de la compañía Shering, inventor de un derivado de la metasona que es el ingrediente principal de fármacos tan conocidos (y perdón por la propaganda) como el Nasonex (todos los que tienen alergias o rinitis primaverales saben de qué hablo), el Asmanex (que muchos asmáticos emplean) o el Combosol (una de las soluciones para la psoriasis). El Dr. Shapiro murió el 8 de marzo a la edad de 88 años y el número del CEN que releía lo recoge en sus obituarios.

Pero es que, en esa misma página, aparecen otros destacados miembros de la American Chemical Society que han fallecido por la mismas fechas. Por ejemplo, Conrad K. Donell de 88 años, uno de los científicos que contribuyó al desarrollo de la gasolina para aviación de alto indice de octano. O George T. Furukawa un químico físico que se pasó la vida desarrollando termómetros de precisión cada vez más exigentes para el National Institute of Standards and Technology (NIST). Furukawa ha muerto a los 84 años después de pasarse, eso intuyo, una parte importante de su vida entre mercurio. En la misma página aparecía la necrológica del Profesor Lester Kieft que ha aguantado hasta los 93, después de dedicar su vida a la Química Analítica. Finalmente, el Profesor de Bioquímica de la Universidad de Georgetown, Martin Rubin, ha muerto con 90, de un ataque al corazón, después de contribuir con sus investigaciones a terapias ligadas al envenenamiento por plomo, de lo que deduzco que el citado elemento sería un partenaire habitual en su laboratorio.

El único que se sale del tiesto en esta página luctuosa del CEN es el Profesor Perkovic de la Universidad Western Michigan que ha pasado a mejor vida a la insensata edad de 45 años después de haber dedicado sus esfuerzos a cosas tan interesantes como el biodiesel. No sabemos, por ahora, si el biodiesel tiene efectos nocivos para la salud pero el mencionado profesor falleció tras una operación quirúrgica de tipo cardíaco.

En fin, que si la muestra es representativa de la edad a la que palman científicos de una cierta relevancia, parece que aguantamos bien el bombardeo de productos de todo tipo que nos acechan por doquier.

Leer mas...

sábado, 20 de mayo de 2006

La mar salada y otras sales

En entradas anteriores ya se ha ido dibujando el progresivo calvario sufrido por el cloro, merced a campañas de Greenpeace y similares. Cuando hablábamos de fluidos supercríticos (24 de abril), mencioné su uso como alternativa a disolventes clorados que, por ejemplo, se han usado y usan en la limpieza en seco de las tintorerías. Y hace poco (13 de mayo), en mi larga disertación sobre el PVC, ha quedado claro que una de las razones de intentar relegar a este material al reino de los parias (ya les va a costar) es debido a su contenido en cloro. Y, sin embargo, la sofisticada sociedad occidental está haciendo un icono gastronómico de un producto que contiene más de un 45% de su peso en cloro: el cloruro sódico, la sal por antonomasia.

Tal es su relevancia que, a nivel de calle, usamos el término sal para referirnos a ese compuesto concreto cuando, para un químico, sal es cualquier producto que resulte de la reacción de un ácido con una base. Pero ahora está de moda y, lo mismo que uno puede encontrar en un restaurante de prestigio una carta de aguas, la sofisticación en muchos platos viene aparejada con el uso en su condimentación de sales aromatizadas, sales coloreadas, etc. Muchas de las cuales se venden en tiendas naturistas, herbolarios,....

Nada que objetar a ese sibaritismo salino, porque, hablemos claro, la sal que se usa en la condimentación de nuestros alimentos es un producto químico que necesitamos perentoriamente para el funcionamiento de nuestro organismo. Aunque contenga cloro. Y que puede resultar fatal para ese mismo organismo si no lo usamos en las dosis adecuadas (hacía ya varias entradas que no recordaba a mi amigo Paracelso). Excesos en el consumo de sal se han relacionado con presiones sanguíneas elevadas, enfermedades de riñón y diferentes cánceres del aparato digestivo.

Si nos atenemos a una clasificación química, la sal común responde al nombre de cloruro sódico. Los químicos lo conceptuamos como un compuesto iónico, lo que quiere decir que es un entramado de iones sodio, con carga eléctrica positiva, y iones cloro, con carga eléctrica negativa. Todo el mundo sabe que cargas eléctricas de distinto signo se atraen y cuando estos iones con distinta carga (y distinto tamaño) se atraen y forman agregados, procuran hacerlo de forma y manera que encajen adecuadamente unos y otros. En este caso, la combinación de cargas y tamaños hace que se organicen en estructuras geométricas determinadas que se repiten indefinidamente en todas las direcciones del espacio, dando lugar a los cristales de sal, de mayor o menor tamaño, que todos conocemos.

Cuando esos cristales se ponen en agua, ésta juega el papel de un "policía" disolviendo una manifestación. Las moléculas de agua se introducen agresivamente entre iones de uno y otro signo, rodeándolos (son varios los "polis" por cada ion) y acabando por separarlos. Al final, los iones sodio y los iones cloro nadan en agua, alejados unos de otros, rodeados de moléculas policía, con menos posibilidades de volverse a juntar que la que tienen dos chinos en una manifestación en la plaza de Tiananmen. Y así sucede en nuestro organismo. Cuando comemos cosas con sal, nuestro 70% de agua se encarga de que cada ion ande a su bola. Y todos se enmarcan en un equilibrio en el que la sal es necesaria para mantenernos vivos. ¿O hemos generado ese equilibrio vital de forma evolutiva tras comer sal años y años?. Nadie lo sabe. El huevo y la gallina cabalgan de nuevo.

La sal ha sido tan básica en la civilización que los humanos se han peleado por ella. No hace falta ir muy lejos para encontrar ejemplos de tales trifulcas. El monopolio y los impuestos sobre la sal fueron ingredientes importantes en la Revolución Francesa y, todavía en 1930, Gandhi organizó una marcha pacífica de las suyas para reivindicar un suministro regular de sal a la población.

A lo largo y ancho del mundo, la mitad de la sal se obtiene aproximadamente del agua de mar, mientras la otra mitad la obtenemos de depósitos de sal en forma de minas (en EEUU, el 95% de la sal producida tiene este origen). En el caso del agua de mar, las tradicionales salinas al aire libre en las que el agua se va evaporando, están hoy en regresión. Hay tecnologías mucho más eficaces que la simple espera y la luz del sol para eliminar el agua. Dependiendo del origen y del procesado posterior de la sal, su composición puede variar pero, en general, entre el 98 y el 99.5% del peso de un paquete de sal es cloruro sódico. El resto son otras sales similares que aparecen en el mar o las minas (otros cloruros, bromuros, yoduros, etc.) o aditivos que se le añaden para impedir que los cristales de sal cojan humedad ambiental y se peguen unos con otros (ese es también el papel de los granos de arroz que en nuestros lares suelen introducirse en los saleros).

En esa sofisticación de la que he hablado, uno puede encontrar en el mercado todo tipo de preparados de sal. Desde la estándar, una sal sin complicaciones ni adornos, a la sal rosada del Himalaya, cuyo color generalmente se atribuye a pequeñas cantidades de sales de hierro. O a las sales negras y rojas de Hawai, que ya son preparados de sal con polvo finamente dividido de lava, arcilla o coral. Podría emplear aquí unas cuantas líneas en relatar los problemas que tales polvos pueden generar en nuestro organismo, pero dado que su consumo es tan ocasional, nunca llegarán los polvos a convertirse en lodos. En esta ciudad es fácil encontrar en tiendas especializadas la llamada sal Maldon, una sal inglesa en la que el producto se presenta en forma de láminas finas más que en forma de partículas. Es particularmente agradecida para un último toque superficial sobre carnes o pescados recién pasados por la plancha, proporcionando una delicada sensación al masticarla, junto con un aroma particular.

Hay sales especiales, ligadas a ritos religiosos, como la sal Kosher, usada en las preparaciones judías estrictas. Se adiciona a carnes recién cortadas con el propósito de eliminar la sangre siempre remanente. El criterio de pureza de los judíos es un claro predecesor de las manías ecologistas actuales, definidas en términos como nivel cero y similares. En virtud de la pureza de los alimentos consumidos, la sal Kosher no puede llevar ningún aditivo externo, ni siquiera sales de yodo, algo bastante habitual hoy en día ya que permite así incluir un aporte adecuado de yodo, necesario para nuestro tiroides. Cuando releo estas cosas fundamentalistas no puedo obviar un pensamiento que ya de niño me sobresaltaba. Viendo a uno de los curas de mi pueblo limpiar desaforadamente el cáliz, tras la consumación de su comunión, de cualquier partícula que pudiera contener a su Dios consagrado, ¿cómo sabía que finalmente no quedaba nada?. ¿Y qué pasaba con lo que recogía en el trapo de limpieza?. Y eso que aún no me habían explicado lo que era un microscopio electrónico o uno de efecto túnel..... En fin, cosas de papas y de infancias postfranquistas.

Hay muchas aspectos curiosos ligados al empleo de la sal que no se suelen conocer entre las personas que no se mueven en un ámbito químico. Algunas tienen aspectos prácticos muy interesantes. Por ejemplo, el agua de mar contiene aproximadamente un 3,5% de sales, fundamentalmente nuestro querido cloruro sódico. Eso hace que el agua de mar no hierva a 100ºC como cualquier agua de grifo sino a 109ºC. Subir casi diez grados la temperatura del medio de cocción acelera de forma exponencial el proceso, por lo que hay que andarse con ojo, no vayamos a pasarnos en el punto de unos mejillones o unos percebes que, por aquello de “hacerlo en su medio natural”, hayamos cocido en agua de mar en lugar de en agua de grifo. A la hora de disolver sal en agua, la Maldon se disuelve casi cuatro veces más rápido que una sal grosera debido, fundamentalmente, a la mayor superficie que ofrecen al agua las láminas. Y si pulverizamos finamente cualquier tipo de sal, la velocidad de disolución puede llegar a ser veinte veces mayor.

Otra cuestión importante tiene que ver con mis recuerdos de los años 60 en los que hacíamos helado en casa con una heladera, un artefacto curioso, en el que en un recipiente metálico se ponía leche, azúcar, fresas o el sabor adecuado. Ese recipiente se rodeaba de una mezcla de sal y hielo machacado. Dando vueltas a la mezcla que iba a constituir el helado y con el frío que nos daba la mezcla sal/hielo, el helado iba tomando la consistencia semisólida adecuada. Hoy se que ello era debido a que la mezcla sal/hielo se encontraba a una temperatura bastante por debajo de los cero grados. ¿Cómo se congenia eso con la maniobra de añadir sal a las carreteras en invierno para que no congelen?.

La respuesta está en el eutéctico, palabra griega de aspecto antipático. El hielo funde, como sabemos, a 0ºC y la sal mucho más arriba, unos 800ºC. Pues bien, en virtud de las estrechas relaciones entre agua y sal, la mezcla funde por debajo de esa temperatura en un intervalo de composiciones que va desde pequeñas adiciones de sal hasta un 25% de sal. Con un mínimo a un 23%, composición a la que la mezcla de hielo y sal está a -21ºC. Por eso a mezclas en estas composiciones se les llama mezclas frigoríficas y han sido empleadas para mantener a temperaturas muy bajas alimentos y otros bienes cuando no se disponía de cámaras frigoríficas como las que ahora se dispone.

Pero si ponemos suficiente sal junto a hielo, como para que la composición de la primera sobrepase ese 25% antes mencionado, la mezcla funde entonces por encima de los 0ºC. Por tanto, extendiendo una capa de sal suficientemente importante sobre un carretera, ésta nunca se helará. Pero hay que calcular muy bien la cantidad de sal por metro cuadrado y eso parecen no tenerlo muy claro los funcionarios municipales donostiarras que echan sal por las calles de mi pueblo las raras veces que nos anuncian temperaturas gélidas. Generalmente acabamos teniendo placas de hielo por doquier, cosa que nunca pasa en Suecia. A ver si el Alcalde de frente despejada o el jefe de Servicio adecuado leen este blog.

Leer mas...

jueves, 18 de mayo de 2006

Erótica molecular y fronteras de la Química

Lo más probable es que estemos asistiendo a una cierta revolución conceptual en lo que a la Química se refiere. Una parte de los esfuerzos de los químicos a lo largo de todo el siglo XX se han concentrado en conocer bien las estructuras de los compuestos naturales y sintéticos, en entender correctamente las reacciones de todo tipo que pueden conducir a nuevas moléculas, diseñar y poner a punto nuevos métodos de análisis que nos ilustren sobre todas esos productos, etc. En el fondo, hemos ido montando un armazón complicado de estrategias y herramientas que nos permitan aislar y caracterizar las sustancias existentes en la Naturaleza a la par que diseñar, sintetizar y aislar nuevas sustancias perfectamente definidas.

Pero ahora estamos en un escalón de complejidad superior. Ya hace tiempo, descubrimos que esas moléculas individuales pueden tener “relaciones íntimas” con otras, ya sean de su misma estructura o, lo que es más interesante, de distinta estructura. Fenómenos como la doble hélice del ADN, las propiedades de algunos plásticos cristalinos, u otras que veremos más adelante, sólo se han entendido sobre la base de que moléculas individuales se unen a otras mediante fuerzas mucho más débiles que los enlaces químicos, en una especie de gregarismo social del que surgen formas nuevas. Hay, por tanto, una cierta atracción física entre ellas que las hace estar juntas y organizar estructuras supramoleculares con propiedades distintas. En otros casos, dos moléculas distintas se “reconocen” y encajan una en la otra como una llave en una cerradura (siempre me ha gustado este símil del Nobel J.M. Lehn). Esa especie de cópula molecular puede generar señales eléctricas o químicas que pueden funcionar como sensores o indicadores de que algo pasa.

En el fondo nada nuevo. Los organismos vivos lo hacen desde siempre. De hecho, esa revolución conceptual con la que iniciaba la entrada, ha sido explicada por algunos como un intento de que la Química sea capaz de mimetizar los procesos que se dan en los seres vivos. Y se están consiguiendo avances notables en el conocimiento de procesos como los descritos. De hecho la interacción de las ciencias de la vida con las herramientas de la nanotecnología puede ser extraordinariamente fructífera. Pero el grado de complejidad de lo que tratamos de imitar es inmenso y, probablemente, va ser imposible reproducir en el laboratorio procesos y agregados complejos de moléculas que se dan en nuestro organismo gracias a esa especie de Química Supramolecular que resulta de las “relaciones personales” entre ellas. Primo Levi, químico, escritor y resistente anti-nazi (lo que condicionó sobremanera sus otras dos actividades) lo expresó muy claramente en su novela The Monkey’s Wrench: “cuando nos enfrentamos al problema somos como un elefante al que se le ha dado una caja cerrada conteniendo todas las piezas de un reloj. Podemos ser muy pacientes y fuertes y agitar la caja en todas las direcciones y con toda nuestra fuerza. Puede que incluso la calentemos porque el calor es otra forma de agitación. Pues bien, quizás, si seguimos agitando y el reloj no es muy complicado, pudiera ocurrir que el reloj acabara recomponiéndose".

Y para muestra un botón. El desencadenante de esta entrada ha sido una noticia que acabo de leer en el Chemical Engineering News en torno a la comercialización de inhaladores para la administración de insulina a los diabéticos.

La insulina es una hormona. Y como muchas hormonas, una proteína, que se segrega en el páncreas. El páncreas es una especie de factoría química de nuestro cuerpo que, continuamente, nos proporciona una batería de enzimas y hormonas necesarias para que nuestra maquinaria funcione. En el caso de la insulina, se trata de una pieza clave en el metabolismo de nuestra gasolina de uso inmediato, los carbohidratos o azúcares. Si revisaís la dieta de los deportistas sometidos a esfuerzos importantes, como los ciclistas en carrera, vereís que los carbohidratos o azúcares son mayoritarios: pasta, pastelitos, plátanos, etc. Los carbohidratos pasan a través de los intestinos a la corriente sanguínea después de haberlos ingerido. Cuando nuestro organismo detecta ese incremento de azúcar en sangre, el páncreas empieza a trabajar produciendo insulina que es reconocida, en un proceso como el descrito arriba como cerradura/llave, por muy diversas células de nuestro organismo que, una vez tienen la insulina junto a ellas, activan otros receptores designados para absorber la glucosa que está en circulación en el riego sanguíneo.

Sin insulina, nuestras células no tienen acceso a las calorías contenidas en los carbohidratos y uno puede morir cuando eso ocurre. La llamada diabetes tipo 1 afecta a aquellos organismos que no son capaces de producir insulina y necesitan por ello un aporte continuo de la misma, suministrado en forma de pequeños dispositivos portátiles que les aportan un flujo continuo de la hormona. Sin embargo, casi el 90% de los diabéticos son del tipo 2, que se manifiesta en una especie de resistencia o rechazo a la insulina lo que hace que las células a las que ésta va destinada respondan de forma algo perezosa ante ella, haciendo que la glucosa no sea absorbida de forma eficaz y generando contenidos de azúcar en sangre superiores a lo normal. Suele ser habitual que estos pacientes necesiten suplementos periódicos en forma de inyecciones u otros preparados de insulina para dominar la situación.

La molécula de la insulina es una molécula compleja, constituida básicamente, como otras proteínas, por carbono, hidrógeno, oxígeno y nitrógeno. En 1955, Sanger y colaboradores “destriparon” la estructura de la insulina porcina. Desde entonces sabemos que la insulina es una molécula de peso molecular 5808, por tanto con muchos átomos como los mencionados arriba. Contiene en realidad 51 aminoácidos organizados en dos pequeñas cadenas unidas por puentes de azufre y que contienen también átomos de zinc. A lo que voy, una molécula que para un químico orgánico que la quiera sintetizar es casi imposible. De ahí mi comentario al principio de que una cosa es querer mimetizar a la naturaleza (en este caso a un humilde cerdo) y otra cosa poderlo hacer con un esfuerzo razonable.

Los primeros preparados de insulina se aislaron a partir de páncreas de animales como los mencionados cerdos o de vacas. En general han funcionado muy bien en los humanos (y todavía lo siguen haciendo) pero en algunos casos pueden generar ciertos rechazos ante lo que, de hecho, es una proteína extraña. Desde los años 80 tenemos insulina humana a nuestra disposición usando ingeniería genética, mucho más versátil que la pura química de síntesis para la resolución de estos problemas. Contándolo en plan cuento de Caperucita, el gen humano que guía la producción de insulina fué clonado y colocado en una bacteria que adecuadamente manejada se convierte en una especie de adicta a la insulina, de forma que debe producirla constantemente. Grandes reactores llenos de bacterias de este tipo producen así toneladas de insulina humana que puede aislarse y comercializarse.

Pero la necesidad del pinchazo habitual por parte de los diabéticos tipo 2 hace que algunos de ellos rechacen el tratamiento y pongan en riesgo muchas de sus funciones vitales. La noticia que ha generado esta entrada es que recientemente la Food and Drug Administration (FDA) americana ha dado el visto bueno, tras años de pruebas, al primer inhalador comercial de insulina. Gracias al inhalador y a su contenido, la insulina llega a los pulmones desde donde pasa a la corriente sanguínea. No me corresponde a mí enjuiciar el éxito o fracaso futuro de este preparado. Desgraciadamente tengo cerca casos de diabéticos que seguro que me irán contando sus experiencias si deciden usarlo.

Leer mas...

miércoles, 17 de mayo de 2006

Tomates bajo plástico

Ir a Almería en avión tiene su aquel. De repente, cuando uno está llegando, tiene la sensación de penetrar en el mar. Nada extraño, si se piensa que Almería está cerca de la costa. Pero cuando la contemplación del espacio sobre el que podemos caer (uno es aerofóbico) es algo más cuidadosa, la realidad se impone. Aquello no es agua, sino el reflejo del impenitente sol de esas latitudes en un “mar” de techos de invernaderos. La extensión es impresionante y algo parecido está pasando en muchas zonas de las Islas Canarias.

Las cubiertas de esos invernaderos son, fundamentalmente, de polietileno, el plástico más vendido en el mundo y, a la vez, el de estructura más sencilla. Uniendo muchos grupos CH2 uno detrás del otro con enlaces químicos tendremos una cadena de polietileno. Puro carbono e hidrógeno. Pégale fuego y se quemará cual vela de Macarena en Semana Santa. No en vano, las ceras tienen la misma estructura química que el polietileno, sólo que las cadenas son mucho más cortas (30-40 grupos CH2 en el caso de las ceras parafinas, cientos o miles de esos grupos en las cadenas de polietileno). Cubiertas algo más sofisticadas son de un copolímero de etileno y acetato de vinilo (EVA) pero el etileno sigue siendo mayoritario en ellas.

Las cubiertas de invernadero son un próspero negocio para Repsol-YPF (no todo van a ser IvosMorales). En su Centro de Investigación de Móstoles tengo un amigo y antiguo doctorando, Enrique Espí, que es uno de los especialistas de la casa en lo que a invernaderos se refiere. El y sus colegas nos han enseñado muchas cosas y se empeñan en hacernos trabajar (gustosamente) en temas relacionados. Como siempre, cuando uno profundiza en una actividad que parece relativamente sencilla y pedestre, se encuentra con problemas importantes que, en muchos casos, tienen una difícil solución.

Pensemos, por ejemplo, en el agua que continuamente condensa en el interior de los invernaderos como consecuencia de la alta humedad existente y la, generalmente menor, temperatura exterior. La parte interna de la cubierta actúa cual cristal de una cocina en un día de invierno. El vapor de agua condensa en las zonas más frías y forma gotas que tienden a colapsar entre ellas y a caer al suelo. Eso, que parece una bobada, no lo es. Las gotas de agua condensada disminuyen la luminosidad en el interior de los invernaderos, al reflejarse en ellas parte de la luz incidente. Las gotas al caer sobre las plantas pueden predisponer el cultivo a enfermedades criptogámicas y, en algunos casos, pueden dar “efectos lupa” sobre las hojas, quemándolas.

Para impedir que las gotas se formen, Repsol-YPF y su competencia aditivan los filmes de polietileno con pequeñas cantidades de productos químicos conocidos como agentes antigoteo. Por efecto de la tensión superficial que eso genera en los filmes, el agua tiene dificultada su tendencia a formar gotas y condensa en forma de láminas delgadas, que escurren por la pendiente de la cubierta hacia lugares adecuados donde no generar los problemas que acabamos de describir. Pero el problema es rebelde y está siendo complicado de resolver. El aditivo que se adiciona tiene un tiempo de vida limitado porque el propio agua que condensa lo va arrastrando y eliminando del filme. Por otra parte, puede migrar hacia la superficie externa de la cubierta por acción del calor, haciendo de “cemento” de la alta densidad de polvo que suele haber en estos campos. Ello crea una capa de polvo exterior que puede llegar a limitar en porcentajes importantes la luminosidad del invernadero. Y ya se sabe, si no hay luz, no hay fotosíntesis y sin ella, las plantas no crecen, con lo que la producción desciende.

¿Una tontería verdad?. Pues ya veis como puede hacer uno investigación de lo más interesante con problemas aparentemente nimios. Nosotros hemos hecho cuidadosos estudios por espectroscopia infrarroja para seguir la cinética con la que el aditivo se va eliminando. Estamos sintetizando nuevos aditivos con la idea de que se muevan menos por efecto del agua y el calor. Y estamos tratando de comprender cuantitativamente estos efectos bajo la acción de la temperatura, porque no es lo mismo poner un invernadero en Argelia que en Asturias.

Enrique ha patrocinado en otras Universidades investigaciones muy interesantes sobre el control, por medio del filme que forma la cubierta, de la luz que entra en el interior del mismo. En los llamados filmes antiplagas se trata, también mediante aditivos absorbentes de radiación UV, que dicha radiación resulte bloqueada por el filme y no se transmita al interior. La ausencia de ciertas radiaciones en la gama ultravioleta (las mismas que nos ponen morenos) hace que ciertos hongos o virus causantes de enfermedades vean dificultado su desarrollo. Existen, por ejemplo, hongos que necesitan la luz UV para producir esporas y reproducirse. Existen insectos, causantes de la transmisión de muchos virus que afectan a plantas como el tomate o el pimiento, que tienen fotorreceptores sensibles al UV en sus órganos de visión. Si no detectan ciertas frecuencias huyen del lugar y, si están en él, su actividad se ve impedida.

Así que no mireis con mala cara a los tomates de invernadero que hay mucha tecnología detrás y mucha gente seria trabajando. Además, como muy bien explica Harold McGee en su Biblia sobre gastronomía (pinchar aquí para ver su web), muchos de los problemas de falta de sabor y de texturas harinosas de los tomates que consumimos no se deben al tomate en sí, sino a su conservación. Harold establece que ningún tomate debe estar nunca a temperaturas por debajo de 11ºC si queremos que mantenga su aroma y textura adecuadas. Y me parece que en la vida de los tomates que nos venden, si algo abunda, es el empleo de frigoríficos.

Leer mas...

sábado, 13 de mayo de 2006

Las pasadas de Greenpeace

Vaya por delante que siempre consideraré necesarias a organizaciones como Greenpeace. Como necesarios son los sindicatos. En uno y otro caso son mecanismos que, en una sociedad democrática, contrarrestan los delirios de grandeza y la falta de escrúpulos de algunas empresas. Pero ni unos ni otros, como ninguna organización social, son depositarios de verdades absolutas. Y puede que, en el caso de Greenpeace y en lo relativo al policloruro de vinilo (PVC), las cosas se hayan llevado demasiado lejos, convirtiéndolo en un caso emblemático para una organización que, como otras organizaciones sociales, no dejan de ser lobbies con intereses.

El PVC es hoy en día una especie de viejo rockero que nunca muere. La citada Greenpeace y otras organizaciones menores que se nutren de su poderosa gestión de los mass media lo han denostado hasta la saciedad. Se han metido con él en tanto que poseedor de un átomo prohibido (el cloro), como fuente inagotable de dioxinas, como generador de ácido clorhídrico cuando se quema, han anatemizado también a algunos aditivos que en él se utilizan (ftalatos); en fin, si hay un demonio polimérico en el mundo, ese es el plástico azul, el PVC. De todo ello hablaremos en los siguientes párrafos.

Frente a todos estos ataques, la producción de PVC crece, año a año, por encima de la media de los polímeros más implantados en el mercado. Es verdad que, por influencia de la campaña que acabamos de mencionar, ha desaparecido de algunos usos convencionales que iremos detallando en los próximos párrafos pero, a pesar de ello, el uso de PVC encuentra otros nichos en los que se ha revelado como un material de características inigualables.

El policloruro de vinilo es un material sólido que se obtiene, como su nombre indica, de la polimerización del cloruro de vinilo (VC), un gas de olor dulce y que, desde los años 70, se sabe que es un agente cancerígeno importante, causante sobre todo de un tipo raro de cáncer de hígado conocido como angiosarcoma. En el término municipal de Hernani, donde han vivido siempre mis padres, radica desde hace años una de las plantas más importantes de España en la producción de PVC a partir de este monómero. Y tengo referencias personales de conocidos que han fallecido con ese tipo de cáncer tras haber trabajado varios años en esa empresa.

Pero vamos a contarlo todo. En los años 70 y 80, la producción del PVC se hacía en lo que los ingenieros químicos llaman un reactor discontínuo. Lo que quiere decir que tras cada proceso de fabricación, en el que no todo el VC se transforma en PVC, hay que abrir el reactor, sacar el PVC (el VC se habrá ido mayoritariamente al aire pero siempre quedará en la atmósfera del reactor) y limpiarlo antes de la siguiente operación discontinua. Tengo en el recuerdo el testimonio de uno de los fallecidos que nos describía, ya enfermo, cómo se metían dentro del reactor a cuerpo limpio para realizar esas labores de limpieza.

Todo eso ha pasado a la historia. El proceso se hace hoy de forma continua, en reactores estancos donde, además, el producto final (PVC) se trata convenientemente de cara a eliminar de forma eficiente el VC gas que pueda quedar residualmente disuelto en el PVC sólido. Evidentemente pueden producirse accidentes en forma de fugas o de circunstancias inesperadas (unos cuantos alegres y combativos estuvieron a punto de usar un camión lleno de VC como expresión de la kale borroka). Pero, en lo que es razonablemente controlable, se tiene un control exhaustivo del asunto. Hace pocos años hubo un movimiento por parte de CCOO sobre esta planta. Al final, el propio Comité de Empresa, en el que sectores radicales tienen una importante presencia (estamos en Hernani, buena jaula pero malos pájaros), salió en defensa de los mecanismos de control de la planta y el asunto se zanjó.

Finalmente, no debe olvidarse que el carácter cancerígeno del cloruro de vinilo desaparece en cuanto entra a formar parte de la macromolécula o cadena larga que es el PVC. No vayamos a repetir por ahí la boutade de un ecologista mal informado: “Si el cloruro de vinilo es cancerígeno, qué no será el policloruro de vinilo”. Pues no, colega, aquí el prefijo poli no implica multiplicar muchas veces el carácter cancerígeno.

Se podrá decir que el daño ya está causado y que las muertes son irreparables. Y es verdad. Pero el avance en el conocimiento nos está permitiendo disfrutar de forma segura de cosas que antes eran fuente de enfermedad y muerte. Cuando en los años setenta, mi amigo Fernando Sáez (un riojano de pro que ya ha aparecido en estas entradas) empezó a ejercer de médico en cierta comarca de Burgos, el porcentaje de personas afectadas de fiebres de malta por consumo del queso fresco habitual en la región era más del 30%. Hoy en día, la tecnología ligada a la fabricación del queso fresco no excluye que pueda haber problemas de ese tipo, pero el control adecuado ha reducido casi a cero la posibilidad de las fiebres de malta. El nivel cero de riesgo no existe nunca, pero una vez vista la eficacia de los nuevos procedimientos, ¿vamos a dejar de consumir queso de Burgos por la posibilidad del riesgo casi infinitesimal de adquirir unas maltas?. El razonamiento es aplicable a las plantas de PVC.

Existen dos formas de empleo del PVC, cada una con su propio problema, según la óptica de las organizaciones ecologistas. El llamado PVC rígido es una mezcla de PVC con alguna sustancia inorgánica, como el carbonato de calcio que abarata el conjunto, además de un pequeño porcentaje de otros aditivos como estabilizantes a la luz, colorantes, etc. En ningún caso ftalatos, sobre los que volveremos después, pero que es importante matizarlo ya. El PVC rígido se ha usado durante mucho tiempo en la fabricación de botellas. En los setenta y ochenta, muchas marcas de agua y de aceite embotellaban en PVC. La idea de que monómero residual (cloruro de vinilo), que pudiera quedar en las botellas de PVC, pudiera pasar al agua o al aceite y acabar en el organismo humano, terminó con ese tipo de aplicación.

La opción por otros materiales alternativos como el polietileno (PE) o el polietilentereftalato (PET) para esos usos no es una barbaridad. Sobre todo por este último, que ofrece muchas mejores posibilidades de reciclado que el propio PVC. Pero tiene que quedar claro que las posibilidades de análisis de trazas de VC muy por debajo de las establecidas como peligrosas están, y cada día estarán más, a nuestro alcance, permitiendo un control riguroso de la situación.

El PVC rígido ha encontrado en estos últimos años su mejor mercado en el ámbito de los tubos para todo tipo de conducciones, así como en el de la construcción, en forma de marcos, ventanas, tejados, etc. Basta con convertirse en jubilado y fiscalizar las múltiples obras que destripan ciudades como Donosti o Madrid, para darse cuenta que los tubos de PVC están de forma omnipresente en canalizaciones eléctricas, de aguas, etc. Así mismo, basta visitar un invernadero o un vivero de plantas y flores para poder constatar la importancia de las tuberías de PVC en el establecimiento de redes de riego por goteo, riegos programados, etc. El PVC se adapta muy bien a estas aplicaciones al ser un material estable, autosoldable, barato, ligero y muchas cosas más. No he detectado mucha oposición a este empleo del PVC, al menos por el momento. De hecho, hasta suena ecológico.

El otro gran nicho de negocio del PVC rígido tiene que ver con los perfiles de ventanas. Las ventajas de este tipo de material de construcción son tan obvias que han desbancado claramente a la madera y a metales como el aluminio. Aquí Greenpeace, en su infatigable persecución del PVC ya ha encontrado su caballo de batalla. Según la organización, hay que eliminar el PVC de la construcción porque su combustión produce ácido clorhídrico, contribuyendo a fenómenos como la lluvia ácida. El argumento es, probablemente, la mayor pasada de Greenpeace en esta disputa. No podemos negar lo que es cierto, las altas temperaturas que se generan en un incendio degradan al PVC, generando ácido clorhídrico. Pero hay que matizar. Primero, porque, en general, no andamos quemando casas en los ratos libres. Un incendio es un hecho fortuito, poco habitual en nuestras ciudades que, ademas, cuentan con eficientes servicios de extinción. Segundo, la presencia de cloro en la molécula del PVC lo convierte en un material autoextingible, es decir, las llamas no se propagan a través de él, como es fácil de comprobar acercando una llama a un trozo de una tarjeta de crédito (muchas son de PVC). Cosa que no puede decirse de la madera, sobre todo de la que está vieja y reseca. Y tres, cualquier incendio, incluso de una casa ecológica sólo hecha con madera, produce una cantidad importante de sustancia que puede producir la muerte de los ocupantes (sobre todo monóxido y dióxido de carbono) pero pueden generar igualmente otras sustancias peligrosas como las temidas dioxinas. Así que, puesto a buscar seguridades más absolutas, debiéramos volver a las cavernas, debajo de los puentes o a las casas excavadas en roca del Sacromonte granadino o de algunos pueblos navarros como Castejón.

En otras aplicaciones se usa el llamado PVC flexible. En este caso, el PVC puro se mezcla con cantidades importantes (20-30%) de unas sustancias llamadas plastificantes que contribuyen a que el PVC rígido deje de serlo, convirtiéndose en un material blando que puede usarse en multitud de aplicaciones. Esos plastificantes pertenecen a una familia de productos químicos conocidos como ftalatos. Quizás la más visual, para entender las diferencias entre PVCs rígidos y flexibles, son las bolsas de suero empleadas en hospitales, como la que se ve en la cabecera de esta entrada. Con este mismo tipo de mezcla PVC/plastificante se han estado fabricando juguetes durante años. Todas estas aplicaciones están ahora en cuestión, pero está vez la culpa es compartida. Durante los últimos años, existe un gran debate sobre el poder cancerígeno de los ftalatos y su posible intervención en la preocupante disminución de la calidad reproductora del semen humano.

La inmediata reacción al hilo de la polémica ha sido la retirada del mercado de objetos como mordedores para bebés, que también se fabricaban en PVC plastificado. Medida que parece lógica y que, ciertamente, no cuesta nada llevar a cabo ante la mínima duda al respecto. También ha conllevado una importante revolución en el ámbito de la empresa juguetera que anda a la búsqueda de materiales alternativos (cosa no obvia).

Pero los informes que se van acumulando sobre los ftalatos son bastante tranquilizadores al respecto. En cualquier caso va a ser difícil que la situación de la vuelta una vez que la idea de la peligrosidad ha calado en la sociedad. Aunque, de cuando en cuando, uno lee cosas que parecen indicar lo contrario. Un reciente informe del Environmental Working Group, un lobby que pelea por una legislacion antiquímica en Califonia contenía la siguiente frase:

“El tiempo estimado para que un niño elimine el 99% de la polucion que haya heredado en el vientre materno, tal y como ha encontrado este estudio, es de menos de un día para los ftalatos plastificantes hasta 166 años para el plomo”.

Viniendo de quien viene y con las acusaciones que se han hecho a los ftalatos en términos de bioacumulación en el organismo, la declaración es ilustrativa. Aunque, ¿dedicarán el mismo empeño a propagar este resultado que otros de signo contrario?.

Leer mas...

martes, 9 de mayo de 2006

Química con músicos, Música con químicos

Esta entrada se actualizó el 12 de agosto de 2015. Si cualquier enlace te dirige aquí, pica en este otro para ver la versión actualizada.

Leer mas...

sábado, 6 de mayo de 2006

Orégano y otras hierbas

Con esto del boom mediático en torno a los cocineros, añadir una pizca de una hierba aromática o una especia a un plato es como el toque de distinción final. Desde el perejil de Arguiñano al cuarto de los aromas de Arzak, pasando por la huerta herbolario de Subijana, la idea va penetrando en la cocina del día a día de las familias con un componente entre decorativo y sofisticado. Por otro lado, y en lo tocante a las hierbas, está el asunto de la medicina alternativa que, hoy en día, parece solo patrimonio de curanderos más o menos ilustrados (y más o menos eficaces) y de esa red difusa de herbolarios, tiendas de dietética, agricultores ecológicos, etc.

No deja de ser curioso que cuando ahora se habla de hierbas medicinales, la mayor parte de la gente las identifique con lo que acabo de mencionar, como si la capacidad curativa de las plantas hubiera querido ser preservada de la “contaminación” de los médicos convencionales por medio de esos negocios, generalmente poco controlados por las autoridades sanitarias.

El que suscribe tiene una hermana boticaria que cursó estudios en la sacrosanta Universidad de Navarra en los años setenta. Y en aquellos años no tan lejanos, en una Institución tan “à la page” de todo lo que se cueza (al menos así se venden), hacer Farmacia implicaba estudiar mucha Botánica, Fisiología vegetal y similares, mientras que los planes de estudio contenían poca Química en general y poca Química Orgánica en particular. Es evidente que muchas cosas han cambiado desde entonces y que la Química Orgánica se ha revelado como fuente inagotable de moléculas, ya sean réplicas de los principios activos encerrados en las plantas que estudia la Botánica, ya sean moléculas completamente nuevas y salidas de la mente de los científicos que las consideran.

Pero lo que está fuera de toda duda y no debiera ser olvidado por nuevas (y a veces airadas) generaciones de químicos es que las plantas han sido fuente inspiradora de muchos remedios contra la enfermedad. Y lo continúan siendo. En este blog ya hemos visto los casos de la aspirina, la digoxina y el Taxol. Y, en este momento, hay otras muchas plantas en estudio como fuente de sustancias potencialmente aprovechables en medicina. Por ejemplo, la multinacional Roche, fabricante del antiviral Tamiflu, tan de moda estos días por el asunto de la gripe aviar, anda a la búsqueda desesperada de plantas alternativas al anís estrellado, que se utiliza como fuente del ácido siquímico, principio activo del Tamiflu. Y parece haberlo encontrado en las semillas de un árbol (sweetgum tree) cuyo nombre en castellano no consigo encontrar (si alguien me ayuda.....).

Quizás la causa de la radical separación entre la medicina convencional y la llamada alternativa es que la primera busca en las plantas los principios activos que las hacen interesantes para una determinada enfermedad. Y una vez identificados, tratan de separarlos de la planta original de la forma más eficaz posible. O tratan de sintetizarlos en una laboratorio. Y ahí parece estar el sacrilegio para el otro bando, que prefiere usar el vegetal en su integridad (o como mucho seco), con argumentos ligados al concepto de “natural”, sobre el que no vamos a volver por no ser reiterativos (¿no es natural la digoxina que toma mi madre para sus problemas cardíacos, extraída de una planta y, eso si, puesta en forma de comprimido convencional?).

Este asunto es, de nuevo, difícil de resolver mientras no haya por parte del gran público la percepción de que el principio activo que sintetizamos en el laboratorio es exactamente igual que el que podemos aislar o concentrar desde la planta. A algo similar ya me he referido en entradas anteriores pero voy a volver a la carga con el ejemplo de una hierba aromática que me encanta y que nunca falta en mi casa: el orégano.

El orégano es una de los cientos de plantas aromáticas empleadas en cocina. Muchas de ellas deben sus aromas distintivos a compuestos químicos que han sido reconocidos y aislados por los químicos. En la mayoría de los casos se trata de moléculas que pertenecen a familias químicas que nosotros denominamos terpenos, en un caso, y derivados fenólicos en otro. A esta segunda familia pertenece el carvacrol, la sustancia química que produce el sabor y aroma característico del orégano.

El orégano es una planta a la que popularmente se le atribuyen muchas propiedades que yo no voy a poner en duda sin mas datos. Se ha descrito sus beneficios como tónico aperitivo, digestivo, espasmolítico, expectorante, antiséptico de las vías respiratorias, tónico general y diurético. A nivel externo se considera analgésico, cicatrizante, antiséptico y antifúngico. Los médicos tradicionales chinos lo emplean desde hace siglos para tratar fiebres, vómitos, diarreas, ictericia y otros problemas de la piel. También tiene efectos antiespasmódicos y ayuda a expeler parásitos intestinales. En muchos casos se emplea como un líquido concentrado denominado aceite esencial que no es sino un extracto concentrado de carvacrol. Este aceite esencial puede encontrarse en muchas tiendas como las arriba mencionadas y, profusamente, en internet.

Sin embargo, la Unión Europea recomienda evitar su prescripción al considerar insuficientemente probada su utilidad terapéutica y habiendo detectado que, en dosis extraterapéuticas, puede causar efectos secundarios graves. De hecho, uno puede comprar carvacol en una empresa de productos químicos como compuesto puro. Tengo delante de mi la hoja de seguridad de una empresa americana que vende carvacrol. Su verdadero nombre para las huestes químicas es el de 2-metil-5-(1-metiletil)-fenol (de ahí lo de compuesto fenólico que mencionábamos antes). Tras mencionar la normativa europea en la que el compuesto está definido como peligroso (EU Directive 1999/45/EC), el boletín recomienda evitar la inhalación de sus vapores por considerarlo un estupefaciente, advirtiendo también de que el contacto con la piel causa irritaciones severas. Su ingestión puede causar además problemas gastrointestinales graves.

Por tanto, parece que desde el punto de vista sanitario el orégano es una auténtica bomba química. Nada más lejos de la realidad. Con muchas especias pasa lo mismo. Hay que tener en cuenta que los aromas de las plantas tienen una labor defensiva frente a depredadores. Son herramientas químicas que, por ejemplo, surgen con toda su potencia cuando un pequeño animal las mastica. No os recomiendo que hagais la prueba pero formando una especie de bola con orégano y tratando de masticarla cual chiche produce un efecto desagradable. Pero nosotros no usamos así las hierbas aromáticas. Usamos esas potentes armas químicas en cantidades pequeñas, altamente diluidas en los componentes fundamentales del plato que nos estamos comiendo. El orégano añadido a una ensalada de tomate y mozzarella o a una pizza no pasa de unos pocos miligramos. Y lo que acabo de decir para el orégano es válido para la mayoría de las hierbas aromáticas y/o medicinales.

El ejemplo pone una vez más de manifiesto la importancia de la dosis y (esto es sólo para cocineros galácticos que me leen) no pasaría nada si administrando adecuadamente las cantidades pusiéramos un par de gotas de 2-metil-5-(1-metiletil)-fenol puro en un plato. El efecto orégano estaría probablemente más potenciado. Otra cosa es la decoración. O que a alguien en la cocina le diera por aficionarse al citado compuesto como quien se aficiona al Ribera del Duero.

Leer mas...

viernes, 5 de mayo de 2006

Haciendo una Guía Michelín de los científicos

Supongo que habrá otros profesionales que, en su campo, piensen lo mismo que voy a relataros, pero creo que hay pocas actividades tan incomprendidas por parte del público en general como las que realizamos los científicos, particularmente los científicos ligados al mundo académico. Llevo treinta años en esto e incluso en mi entorno más próximo tengo dificultades para explicar que aunque mis estudiantes en la Universidad hayan terminado su período lectivo, yo no estoy de vacaciones. La cara de incomprensión que generalmente detecto en mi interlocutor me indica que en el fondo está pensando: ¿y qué coño hará este tío si no tiene clases?.

Aunque la conversación siga y le explique que muchas de mis horas se dedican a planificar y seguir el curso de proyectos de investigación, financiados con una pasta gansa por Instituciones o Industrias, que para eso necesito gente joven, laboratorios, ideasy tiempo, al final, la sensación suele ser agridulce. Parece que lo han entendido pero, al menos yo, siempre me quedo con la idea de que, bajito y sin que les oiga, van mascullando algo parecido a sabios despistados, torres de marfil, sexo de los ángeles, etc.

Ese mismo desconocimiento se ha hecho también patente cuando a varios de mis amigos les han concedido algún premio. Como tengo Uno que colecciona premios como quien colecciona sellos, algún familiar próximo, entre ofendido e inquisidor, me ha solido preguntar con ocasión de la concesión de alguno de esos premios: Bueno, y a tí ¿cuándo te dan un premio?. La labor de explicarles que no doy la talla para ese tipo de recompensas es casi imposible. No acaban de comprender que los científicos se puedan clasificar como restaurantes en una Guia Michelín o como equipos de fútbol en una tabla clasificatoria. Así que como alguno de mis lectores puede estar en semejante situación, he decidido dedicar una entrada a mostrar cómo se evalúa la actividad científica, aprovechando el revuelo que ha organizado entre nosotros la reciente introducción de un baremo de calificación bastante objetivo y extraordinariamente sencillo de calcular.

Si uno quiere ser alguien en Ciencia, aunque sea en un ámbito reducido como el de la boina que nos tutela en este pequeño país, sus resultados científicos tienen que estar disponibles para toda la comunidad científica en forma de artículos publicados en revistas de difusión internacional. Ello permite que otros científicos puedan verificar la relevancia del trabajo y usarlo como punto de partida de sus propios avances. Sólo así, sobre las espaldas de los que nos han precedido, la ciencia puede ir avanzando de forma sostenida y fiable.

Antes de publicar en una revista seria, el trabajo remitido es sometido a la consideración de dos o mas científicos del mismo campo, que tienen que evaluar la relevancia o no de los resultados presentados. En realidad estamos ante un primer escalón de la evaluación de la actividad de un científico. Es algo parecido a las visitas que los inspectores de la Guía Michelin realizan a los restaurantes para concederles una o más estrellas en su Guía.

Si el artículo pasa ese filtro y se publica, otros científicos lo leen, lo comprueban, se basan en él y, a la hora de escribir sus propios artículos, lo citarán si realmente les ha resultado relevante en su trabajo. Es evidente, por tanto, que un artículo que incluya una investigación que amplíe de forma importante el conocimiento de un campo, o revele una fuente de potenciales aplicaciones prácticas, será tomado en consideración y posteriormente citado en muchos artículos. Por el contrario, habrá otros artículos que pasen sin pena ni gloria por las mesas y los ojos de otros investigadores, perdiéndose en el olvido sempiterno de las bibliotecas reales o virtuales. Esa abundancia o parquedad de citas es el segundo y más importante nivel de evaluación, algo así como el nivel de aceptación por parte de un público variopinto de los restaurantes mencionados en la Guía Michelín.

Pero el número de publicaciones que ven la luz anualmente en cada campo es inmenso y no era fácil, hasta hace poco, disponer de herramientas rápidas y eficaces para evaluar ese nivel de aceptación. Durante muchos años, la forma de evaluar se basaba en el propio Curriculum Vitae que el propio investigador suministraba al organismo evaluador. Con él en la mano, se contaban el número de artículos publicados, se referenciaban al número de autores, se tenía en cuenta si la revista era más o menos importante. Es decir, muchas variables, sujetas algunas a la subjetividad del evaluador. Y, sobre todo, una tarea extraordinariamente farrogosa para el mismo.

Hoy en día, sin embargo, la informática, con sus potentes motores de búsqueda y sus herramientas de análisis, hace que sea posible con ayuda de un ordenador y una conexión a internet, conocer la estadística de un determinado científico en términos del número de trabajos publicados y el número de citas que ese trabajo ha generado en otros artículos.

Esa mayor fiabilidad de las herramientas hizo que, recientemente (2005), J.E. Hirsch, un físico de la Universidad de California, propusiera un modo de evaluación de un científico que ha cautivado a mucha gente por su extraordinaria facilidad. Basta con entrar (no lo puede hacer cualquiera, pero desde las intranets de las Universidades españolas y otras Instituciones si es posible) en bases de datos como la ISI Web of Knowledge, introducir el nombre del investigador y pedir a esa base datos que ordene los artículos que ha publicado de mayor a menor número de citas. Iremos bajando en la lista hasta que el número de citas de un artículo sea inferior al puesto que ese artículo ocupa en la clasificación. Ese es el valor del indice h de Hirsch. Evidentemente tiene en cuenta tanto el número de artículos como el número de citas y permite en pocos minutos evaluar de forma bastante objetiva el nivel alcanzado por un científico. Aunque hay científicos muy relevantes con valores de h en torno a 100, el propio Hirsch evalúa en su artículo el valor medio de h de los Premios Nobel de Física de los últimos veinte años, obteniendo un valor de h = 41 (±15).

En mi Facultad tenemos el honor de contar con cuatro Premios Euskadi de Investigación (con tres me bato el cobre al golf, el cuarto golfea con neutrones). Una búsqueda rápida en la web arriba mencionada me proporciona un valor medio para ellos de h = 30 (±10). El que esto os escribe se queda en 19. Así que no estoy lejos de la gama baja de ese promedio, pero muy lejos de la media. Y ya no tengo edad para generar grandes expectativas futuras.

Leer mas...

jueves, 4 de mayo de 2006

El carbón se ordena y sofistica

Los viejos alquimistas y los químicos y físicos de épocas más recientes han andado siempre tratando de destripar la materia hasta sus recónditos límites. La idea de átomo como parte más pequeña de una sustancia está latente en el conocimiento humano desde tiempo de los griegos, aunque sólo en los siglos XVIII y XIX se pusieron las bases para establecer concluyentemente que había entidades muy pequeñas (átomos o moléculas) que atesoraban las propiedades intrínsecas de los diferentes materiales conocidos. Pero tras ese logro, los científicos se pusieron a destripar el propio átomo y hechos como el descubrimiento del electrón a finales del siglo XIX se considera uno de los logros más relevantes de la ciencia.

En el fondo, toda esta trayectoria no hace sino revelar un criterio reduccionista claro como trasfondo de todas estas actividades científicas: descompongamos la materia hasta sus últimos límites y cuando lo hayamos hecho y hayamos comprendido la esencia de esas partículas elementales, podremos entender y predecir las propiedades de la materia al nivel a la que la usamos en nuestra vida diaria. Pero las cosas no son tan sencillas. Ya no es sencillo llegar hasta los últimos constituyentes de la materia. Véase si no la sopa de partículas elementales que marean a los físicos. Por otro lado, y es lo que a mi me interesa en esta entrada, conocer esos componentes fundamentales no asegura poder predecir qué ocurre cuando muchos de ellos se unen para constituir un material a escala macroscópica (lo contrario de microscópica). Hablamos entonces de propiedades emergentes que surgen como consecuencia de la interacción de muchas partículas elementales y que es difícil de predecir a “priori”. Vamos a ver un ejemplo muy habitual en textos de ciencia: el caso de los átomos de carbono.

Cuando uno contempla un diamante tallado y un trozo de grafito es difícil imaginar que ambos materiales son químicamente idénticos o, al menos, constituidos primordialmente por átomos de carbono, el mismo que forma parte mayoritaria de los compuestos orgánicos. El grafito es una refinada forma de lo que el común de los mortales llamamos carbón, tanto es así que fue denominado al principio meta antracita, relacionándolo con uno de los clásicos carbones que extraen los mineros. La gente ve grafito todos los días sin más que contemplar la mina de un lápiz. El grafito es opaco, negro y con aire terroso, relativamente blando, conductor de la electricidad y se usa como lubricante. Por el contrario, el diamante es transparente, uno de los materiales más duros que manejamos los humanos, además de un buen aislante a la electricidad y un excelente abrasivo. Pero ambos son, quimicamente hablando, agrupaciones de átomos de carbono.

Lo que proporciona esas propiedades tan opuestas es la diferente forma que tienen esos átomos de carbono de organizarse en el espacio. En el grafito los átomos de carbono se unen por enlaces covalentes formando capas de estructuras hexagonales organizadas. Pero las capas se apilan unas con otras a distancias de unos 0.00000003 cm sin conexión química (enlaces) entre ellas. Como consecuencia de ello las capas pueden deslizarse unas sobre otras, de ahí su carácter lubricante. En el diamante, la organización es en forma de redes tridimensionales donde cada átomo de carbono está unido a otros cuatro carbonos por enlaces covalentes y esa red se propaga en todas las direcciones, formando una estructura reticular que sólo puede destruirse con el concurso de grandes fuerzas. Por eso los diamantes son tan duros y relativamente estables ante ataques químicos.

La explicación de esa diferente organización tiene que ver con las condiciones en las que se formaron uno y otro material. Partiendo de un mismo magma de carbono fundido a temperaturas de unos cuatro mil grados (podemos pensar en una lava volcánica rica en carbón fundido), lo determinante para una u otra estructura son las condiciones de su entorno. Una veta de carbón grafítico (o de hulla, antracita o similares) es la consecuencia de la “colisión” de ese magma con algo mucho más frío y a presión atmosférica, por ejemplo el agua de mar, lo que resulta en una solidificación brusca del magma. Una mina de diamantes, como las siempre citadas en Nigeria o Sudáfrica, es el resultado de unas condiciones muy especiales de presión y temperatura, que sólo se dan a grandes profundidades del globo terráqueo (en el llamado manto). En esas condiciones, algunos diamantes aparecen en el seno del magma y erupciones muy bruscas desde el interior del manto terráqueo pueden proporcionar rocas volcánicas como las kimberlitas que esconden los preciados diamantes.

Ambos materiales son dos formas distintas del estado sólido del carbono. Y lo mismo que el agua líquida se transforma en vapor de agua a 100 grados bajo presión de una atmósfera pero necesita más temperatura a presiones elevadas (la olla a presión) o menos a presiones reducidas (en el Everest o la Luna), el grafito se puede convertir en diamante siempre que busquemos las condiciones de temperatura y presión adecuadas. Aunque la idea es atractiva, la vida es muy complicada y se empeña siempre en poner palos en las ruedas de nuestros sueños. A 30ºC, se necesitan presiones de unas quince mil veces la presión atmosférica para transformar grafito en diamante. Además, aunque el proceso es posible, la velocidad de la transformación es muy lenta.

El primer éxito serio en esta transformación se atribuye a General Electric que, en 1955, construyó una instalación en la que poder alcanzar la fabulosa presión de 150.000 atmósferas. No quiero ni contaros lo que eso supone en cuanto a materiales a emplear. A esa presión y a unos 2200ºC la transformación de carbono grafítico en diamante es casi completa en cuestión de minutos.

Dice la propaganda de los joyeros que los diamantes son eternos. Habría que matizar. De hecho, aunque parezca mentira, el carbono grafítico es la forma estable del carbono y no el diamante. Como consecuencia de ello, si se calientan diamantes a 1500ºC, su transformación en negro carbón es también cuestión de minutos.

Pero la organización de los átomos de carbono todavía ha reservado recientes sorpresas. Los fulerenos son también agrupaciones de átomos de carbono, en principio más parecidos al grafito que al diamante, ya que se organizan en estructuras que en lugar de ser hexagonales son pentagonales o heptagonales. Esto, que parece irrelevante, fuerza a esas agrupaciones de átomos a curvarse en forma de esferas como la que se puede ver aquí al lado, también conocidas como buckyballs. La terminología empleada fue introducida en recuerdo de Richard Buckminster Fuller, un arquitecto que empleó el mismo tipo de organización estructural para construir cubiertas geodésicas. Uno de los fulerenos más populares es el que aquí se muestra, con 60 átomos de carbono en forma de un icosahedro truncado, similar a la estructura de un balón de fútbol (con la Iglesia hemos topado). El descubrimiento de estas estructuras y sus interesantes propiedades proporcionó en 1996 el Premio Nobel de Química a Robert F. Curl, Harold W. Kroto, y Richard E. Smalley.

Relacionado con este descubrimiento está una estructura de átomos de carbono que está dando mucho que hablar en la nanotecnología que parece invadirlo todo en los últimos años. Se trata de estructuras muy similares a las anteriores pero que se enrollan en forma de cilindros de unos pocos nanometros (cada nanometro es 0.000000001 metros) y longitudes del orden del milímetro (0.001 metros). Estas intrigantes estructuras, denominadas nanotubos, han despertado una inusitada expectación en ámbitos científicos puros y aplicados. Tienen propiedades eléctricas, mecánicas y térmicas tan singulares que las potenciales aplicaciones son muchas. El problema es que muchas de esas propiedades dependen de las características del nanotubo como longitud, diámetro o incluso de como se tuercen. Para terminar de complicarlo hay nanotubos cilíndricos de pared sencilla y los hay de pared doble. En definitiva, que hay mucho que estudiar sobre ellos, incluidos los aspectos de seguridad de quienes los manejen y sus impactos ambientales cuando se desechen, algo que con los tamaños que estamos hablando no es obvio.

Los nanotubos tienen su primo de Zumosol en las conocidas fibras cortas y largas de carbono, que no son sino fibras de grafito convenientemente enrrolladas y que tan buen juego han dado en materiales deportivos high-tech como tablas de esquí, palos de golf, raquetas de tenis, etc.

Leer mas...

martes, 2 de mayo de 2006

Burbujas, espumas, bizcochos, aire, aire, aire............

Gentes tan serias como Leonardo da Vinci, Newton o Lord Kelvin se divirtieron en su día como niños jugando con pompas de jabón, aunque con intenciones algo más adultas. Lo que mucha gente sigue considerando un simple divertimento contiene mucha ciencia básica y aplicada en su interior.

Pensemos, por ejemplo, en batir la parte transparente de un huevo de forma insistente hasta generar unas claras “a punto de nieve” (¿no es ilustrativa la definición?). Con ella podemos adornar unas sencillas pero deliciosas natillas, pero, ¿qué era la clara de huevo de la que hemos partido?. Un líquido, como lo demuestra su clara vocación de “adaptarse al recipiente que lo contiene”. ¿Qué hemos introducido en esa clara de huevo para generar la espuma?. Aire, puro aire, gracias a un batido vigoroso, paciente y continuo con un tenedor o alguna herramienta más sofisticada. Y si recapitulamos, un líquido no tiene más forma que la del recipiente que lo contiene y un gas, como el aire, es la contraposición más radical a una forma geométrica con estabilidad dimensional en el tiempo, una manera muy sofisticada y algo pedante de definir un sólido. Y, sin embargo, el “material” resultante de la combinación de la clara y el aire es casi un sólido. No deja de ser también sorprendente que cuando golpear o batir son acciones asociadas a ruptura o desorden, nosotros consigamos en este caso una mejor estructuración de la materia.

Pensemos ahora en las pompas de jabón. Experimentemos soplando aire en un vaso de agua. Formamos burbujas pero de tamaño reducido y con la crónica anunciada de su muerte reflejada en su corta esfericidad. Hagamos lo mismo con un poco de agua y una gota del misterioso Fairy. Aquello es una orgía de burbujas que surgen, colapsan, se agigantan, se colorean e inundan el espacio que les demos.

Ambos efectos tienen su origen en un concepto no muchas veces bien entendido: la llamada tensión superficial de un líquido. Puede definirse de muchas maneras pero probablemente la menos conflictiva de entender es la que identifica la tensión superficial con la fuerza por unidad de superficie que mantiene unidas entre sí a las minúsculas moléculas que componen un líquido. En el caso de agua las moléculas en juego son unas 33.300.000.000.000.000.000.000.000 por cada botella de litro de agua. Esa portentosa agua que nos rodea, debe muchas de sus propiedades a su elevada tensión superficial, reflejo de la importante fuerza que mantiene unidas a sus entidades. Y así, su alto punto de ebullición (100ºC) no tiene nada que ver con el de moléculas de similar tamaño y parecida estructura. Por ejemplo, el metano, que hierve a -164ºC y, por tanto, de ahí en adelante es un gas como Dios manda. Otra propiedad derivada de esa fortaleza de unión entre las moléculas del agua es la causante de que insectos y objetos de poco peso queden sobre la superficie del agua de mares y lagos, como si estuvieran sobre una membrana que opone resistencia a su rotura.

Esa tensión superficial elevada, sin embargo, es un enemigo poderoso a la hora de formar burbujas. Podemos imaginar una burbuja como una especie de globo con paredes delgadas de agua y con su interior lleno de aire. Si las moléculas de agua se atraen entre sí fuertemente, hinchar ese “globo” es difícil, las burbujas son pequeñas y la fuerza elástica generada por la tendencia de las moléculas de agua a estar más y más juntas hace que sus burbujas, además de ser pequeñas, tengan una vida efímera.

Las moléculas de los detergentes como el Fairy son moléculas largas de carbono e hidrógeno con un extremo de carácter iónico. Como consecuencia de ello, casi toda la molécula (la parte que contiene carbono e hidrógeno) odia el agua. Pero el extremo iónico de cada molécula adora el agua. Tener que mantener el tipo con semejante dicotomía obliga a las moléculas del detergente a comportamientos muy particulares. Por ejemplo, cuando se adicionan al agua forman estructuras tipo esfera o cilindro con las cadenas hidrocarbonadas hacia el interior y los extremos iónicos en el exterior, en contacto con el agua. De esa forma maximizan el contacto entre si de zonas que odian el agua y facilitan el contacto con ella de sus componentes más amigos del agua. Cuando usando aire forzamos a la disolución a formar burbujas las moléculas del detergente hacen con las moléculas de agua una especie de sandwich. Las colas de carbono e hidrógeno se orientan hacia el interior y el exterior de la burbuja y las partes iónicas son las que se relacionan con las moléculas de agua que hay en la fina capa que constituye la burbuja. Las interacciones entre los grupos iónicos y el agua rebaja la tensión superficial del agua. Al disminuir la tensión superficial es como si estuviéramos ante un globo hinchable de pareces más fácilmente deformables. Las pompas pueden hacerse más grandes y si no hay agresiones externas importantes, tardan tiempo en colapsar.

En las claras a punto de nieve el efecto es similar. La clara tiene un importante porcentaje de agua pero, por el mismo precio, la gallina nos proporciona también las sustancias que van a permitir la formación de espumas. ¿Cuales son?. Las proteínas, cadenas también largas, enrolladas generalmente en forma de hélices. Cuando las batimos, esa estructura ordenada tiende a desaparecer, permitiendo que varias moléculas de proteinas se unan entre sí en las paredes de las burbujas por medio de puentes de hidrógeno de sus grupos -NH- y -SH, formando una especie de “cemento” proteínico que estabiliza la burbuja. Pero la cosa tiene su límite. Si ese efecto asociativo es demasiado importante, la burbuja puede colapsar, por las mismas razones que colapsaban las pequeñas burbujas de agua pura. De hecho, los cocineros han usado desde hace más de tres siglos pequeños trucos para aumentar la estabilidad de sus claras a punto de nieve. Uno que ha generado un encendido debate es el uso de recipientes de cobre, que la experiencia demuestra son muy útiles para ese fin. La teoría que hoy parece haberse abierto paso es que el cobre forma complejos muy fuertes con los grupos -SH, con lo que los inhabilita para que las proteínas se asocien demasiado, facilitando así la estabilidad de la espuma.

Espumas más rígidas pueden obtenerse cuando el proceso de formación de burbujas entre un líquido y un gas van acompañadas de reacciones químicas que van endureciendo el líquido. La preparación de un bizcocho es un ejemplo gastronómico pero para que se me siga viendo el plumero incluiré también el proceso conocido como curado de resinas poliméricas (que no es sino hacer cocina con los polímeros).

Uno y otro proceso combinan el endurecimiento de un líquido viscoso original, debido al calor del horno, con un proceso de formación de un gas que, al intentar salir de la masa que esta solidificando, crea una estructura esponjosa, de baja densidad, que da su aspecto característico tanto a un bizcocho como a una espuma de poliestireno expandido, esa especie de corcho blanco, liviano de peso, que se usa para aislamientos térmicos y acústicos y también como embalaje. La sustancia que da lugar al gas que va a generar la estructura porosa se denomina agente espumante.

En el caso del bizcocho, hay dos alternativas, las levaduras de origen natural o productos químicos vendidos en botes como el de la figura y que contiene mezclas de bicarbonato sódico con un segundo componente de carácter ácido (el que se usaba originalmente era el ácido tartárico, hoy se usan otras sustancias como el sulfato o el pirofosfato de aluminio y sodio. En uno y otro caso se produce CO2; en el primer caso porque las levaduras metabolizan la glucosa, de forma similar a como lo hacen en la fermentación del vino, produciendo también aquí el dióxido de carbono. En el segundo caso, porque el calor del horno y el medio ácido descompone el bicarbonato, produciendo el mismo CO2. Este trata de salir de la masa que se está endureciendo por efecto del calor y como consecuencia de ello la esponja.

En los poliestirenos expandidos, la idea es casi idéntica. El poliestireno se mezcla con una sustancia, la azodicarbonamida, que por acción del calor se descompone dando CO2 que, al tratar de salir de la masa de poliestireno fundido, la llena de huecos vacíos. Cuando se enfría el conjunto, el material resultante es una estructura sólida y porosa, un “bizcocho” de poliestireno, de ningún valor gastronómico pero que se vende por toneladas, a pesar de su poco peso.

Leer mas...

Powered By Blogger