Esta entrada ha sido actualizada el 21 de septiembre de 2020. Si algún enlace en otras entradas del Blog os envía aquí, podéis ver la versión actualizada en este enlace.
jueves, 29 de junio de 2006
Golmajerías: a vueltas, otra vez, con las dosis.
Lo de golmajería es una chulería literaria que me permito en homenaje a mi “hermano” riojano, Fernando Sáez, que ya tuvo antes acomodo en estas entradas. Dice el DRAE (Diccionario de la Real Academia Española) que golmajería es una golosina, que golmajear es comer golosinas y que un golmajo o una golmaja son individuos a los que, como a un servidor, privan las golosinas. El mismo DRAE identifica golosina con manjar delicado, generalmente dulce, que sirve más para el gusto que para el sustento. No estoy muy de acuerdo con la parte final y creo que las siguientes líneas ilustrarán el por qué de mi desacuerdo.
Creo que ya he contado otra vez que nuestro organismo es más de un 60% pura agua. Así que si nos meten en un horno de desecación nos quedamos en nada. Ese agua es tanto un medio de reacción de los procesos que ocurren en un ser vivo como un subproducto de dichos procesos. Pero no nos sirve de combustible. Como hemos visto en la entrada anterior romper una molécula de agua consume energía más que producirla. Así que son los alimentos que consumimos los que funcionan como combustibles de un “motor” que tiene que mover músculos y articulaciones, permitir los impulsos de los nervios y del cerebro, transportar iones y moléculas de un sitio a otro, etc. Entre esos alimentos, los llamados azúcares o carbohidratos suponen un combustible de consumo bastante inmediato. Hay quien dice que la necesidad de tal tipo de alimentos es la que ha configurado el que los humanos (y otros animales) identifiquen como agradable el sabor dulce característico de estas sustancias.
El término carbohidrato (carbón más agua) engloba a una vasta familia de moléculas constituidas por carbono, hidrógeno y oxígeno. Estos dos últimos están siempre en la proporción 2:1, la misma que en el agua, aunque en estos compuestos hidrógenos y oxígenos no están unidos entre si como en la molécula de agua. El amplio espectro de moléculas de carbohidratos comienza con moléculas sencillas como la glucosa (a la derecha), de fórmula C6H12O6 a la que podemos incluir en el grupo de los llamados monosacáridos (sacárido proviene de la palabra latina que significa azúcar), ya que tienen una molécula bien definida. Otro monosacárido es la fructosa, que proporciona su sabor dulce a muchas frutas, encontrándose también en la miel. Como puede comprobarse en la figura de la izquierda, la fructosa, a diferencia de la glucosa, tiene un anillo de cinco elementos, por seis de la glucosa. Otro azúcar o carbohidrato es la sacarosa, componente fundamental del azúcar de mesa, a la que denominaremos un disacárido puesto que su molécula está constituida por una molécula de glucosa y una de fructosa unidas entre sí por un enlace covalente. La misma categoría de disacárido la tiene la lactosa de la leche, constituida por la unión de una molécula de glucosa y una de galactosa (otro monosacárido). Y al mismo grupo pertenece la maltosa, constituida por dos moléculas de glucosa. Los monosacáridos se pueden unir también formando cadenas cortas u oligosacáridos o cadenas largas o polisacáridos, cuyos ejemplos más representativos son el almidón y la celulosa, de cuyas estructuras ya hablé en mi entrada sobre el pan. Las posibilidades de estructuras son infinitas. Sólo de los monosacáridos con fórmula C6H12O6 se conocen 32 distintos isómeros, dependiendo de cómo se unen los grupos -H y -OH a los carbonos, así como las posibilidades de moléculas quirales, de las que ya hablé en otra entrada. Las posibilidades se multiplican al usar todos estos isómeros en la consecución de disacáridos o polisacáridos.
Aunque ahora el azúcar de mesa (o azúcar refinado) nos parece tan cotidiano que casi no le damos importancia, las cosas no han sido siempre así. De hecho, y aparte del aporte en carbohidratos que siempre ha supuesto la lactosa de la leche, la otra fuente azucarada en la antigüedad ha sido la miel de las abejas, citada en las tablas de los sumerios, en el viejo Testamento (en el que el maná con el que Yahvé alimentaba a los israelitas era un azúcar producido por un árbol, rico en manitol) y en las refinadas civilizaciones griegas y romanas. Pero una aproximación a lo que hoy conocemos como azúcar sólo se produce en el siglo XII cuando empieza a haber un incipiente comercio de caña de azúcar transportado como consecuencia de las Cruzadas. Ahí también la Serenísima (Venecia) jugó un papel fundamental en el tratamiento del azúcar como una especia más, destinada a dar sabor a los alimentos y también como medicina o al menos como complemento de los preparados farmacológicos de la época eliminando, por ejemplo, el sabor amargo de algunos de esos preparados. La expansión de la caña se produjo a partir del siglo XV y el posterior descubrimiento, a mediados del XVIII, de la posibilidad de cristalizar azúcar a partir de un extracto de remolacha machacada, acabó con el aire de alimento refinado y lujoso que hasta entonces tenía el azúcar, democratizándolo y convertiéndolo en un alimento básico y barato.
El nivel de sensación dulce que todos estos carbohidratos proporcionan es muy distinto dependiendo de su estructura. Y así, estableciendo un índice de 100 para la sensación de dulzor de la sacarosa (azúcar convencional), por aquello de que es el más corriente, la fructosa contenida en muchas frutas o en la miel tiene un índice de 120, mientras que la lactosa de la leche sólo llega a 40.
El azúcar refinado tiene hoy mala prensa. Y las razones son fáciles de explicar a nivel divulgativo. Los carbohidratos de todo tipo, sobre todo monosacáridos como la glucosa que ya están a un nivel de moléculas pequeñas, son directamente asimilables por el organismo como fuente de energía. El problema es que en el mundo desarrollado, la gente está ingiriendo mucha más cantidad de azúcares de la necesaria, a veces de forma poco consciente, como es el caso de la bollería y de bebidas como la Coca-Cola u otras no alcohólicas. Al mismo tiempo, eso hace que se obvien otro tipo de alimentos que proporcionan otros nutrientes igualmente necesarios para nuestra salud. Se habla así del azúcar como un alimento calórico “vacío” ya que un azucarillo es casi 99.99% sacarosa y casi nada más, ni proteínas, ni grasas, ni minerales, etc. Por tanto, un consumo desmesurado de azúcar lo convierte en un “veneno” (hacía tiempo que no salía Paracelso en el blog) y pueden atribuírsele muchas de las morbideces que antes sólo se veían en los USA y que ahora invaden (como casi todo lo suyo) nuestros ambientes más próximos.
Además del problema de la carie dental ligado al consumo de azúcar, la glucosa generada por los carbohidratos es la causante de un problema importante de salud: la diabetes. Aunque ya hablamos algo del tema en la entrada del 18 de mayo, aquí corresponde decir que todos los carbohidratos ricos en moléculas de glucosa, como aquellos que contienen almidón o maltosa, que son descompuestos en nuestro metabolismo en moléculas de glucosa, son los mas peligrosos para los diabéticos incipientes o consolidados. El azúcar de mesa es algo menos peligroso y la fructosa bastante menos. Los galenos han ideado el llamado índice glucémico que mide esa capacidad de los azúcares para elevar el nivel de glucosa en sangre.
Así que una vez más no nos pasemos. Consumamos azúcar con moderación, como el alcohol, el aceite de oliva, la carne o el pescado. Y si no nos queda mas remedio que prescindir de él, pero no de la sensación dulce en boca que nos atrae, recurramos a los sustitutos del azúcar. Los llamados edulcorantes son moléculas químicas que tienen un índice de dulzor mucho más alto que los azúcares convencionales. Por ejemplo, la sacarina, una molécula puramente sintética, cuya estructura puede verse a la derecha tiene un índice de dulzor de 30.000 con respecto a un valor 100 de la sacarosa tomado como referencia. Y el aspartamo, una combinación sintética de dos aminoácidos tiene un valor de 18.000 en esa misma escala. Eso hace que se necesiten cantidades mucho mas pequeñas de estos edulcorantes a la hora de conseguir un similar nivel de dulzor.
También pueden emplearse otras alternativas al azúcar convencional cuando se necesite emplear cantidades más grandes, por ejemplo en pastelería. Por sólo poner un ejemplo, he podido asistir en más de una ocasión a demostraciones de un conocido pastelero de Elda, Paco Torreblanca, que emplea en sus preparaciones, mas propias de un escultor que de un pastelero, un compuesto comercializado bajo el nombre de Isomalt. Se trata de azúcares modificados en forma de alcohol, cuyos nombres acaban en el término itol. Y así, el citado Isomalt es una mezcla aproximadamente al 50% de Glucopiranosil-D-Manitol dihidratado (C12H24O11.2H2O) con Glucopiranosil-D-Sorbitol (C12H24O11). Y no me pegueis por los nombrecitos. Estas sustancias tienen dos características diferenciales con respecto a los carbohidratos convencionales. Por un lado, se absorben mucho menos por nuestro organismo con lo que su impacto en los niveles de glucosa es menor. Y segundo, por su estructura química no sufren las reacciones que sufren los azúcares convencionales en el llamado proceso de caramelización, con su clásico color parduzco y la génesis de nuevos aromas. En ese sentido se presentan como una alternativa diferenciada a aquéllos en ciertas preparaciones gastronómicas.
Y lo voy a dejar, que son casi las nueve y media de la noche y estoy al borde del coma hipoglucémico.
Creo que ya he contado otra vez que nuestro organismo es más de un 60% pura agua. Así que si nos meten en un horno de desecación nos quedamos en nada. Ese agua es tanto un medio de reacción de los procesos que ocurren en un ser vivo como un subproducto de dichos procesos. Pero no nos sirve de combustible. Como hemos visto en la entrada anterior romper una molécula de agua consume energía más que producirla. Así que son los alimentos que consumimos los que funcionan como combustibles de un “motor” que tiene que mover músculos y articulaciones, permitir los impulsos de los nervios y del cerebro, transportar iones y moléculas de un sitio a otro, etc. Entre esos alimentos, los llamados azúcares o carbohidratos suponen un combustible de consumo bastante inmediato. Hay quien dice que la necesidad de tal tipo de alimentos es la que ha configurado el que los humanos (y otros animales) identifiquen como agradable el sabor dulce característico de estas sustancias.
El término carbohidrato (carbón más agua) engloba a una vasta familia de moléculas constituidas por carbono, hidrógeno y oxígeno. Estos dos últimos están siempre en la proporción 2:1, la misma que en el agua, aunque en estos compuestos hidrógenos y oxígenos no están unidos entre si como en la molécula de agua. El amplio espectro de moléculas de carbohidratos comienza con moléculas sencillas como la glucosa (a la derecha), de fórmula C6H12O6 a la que podemos incluir en el grupo de los llamados monosacáridos (sacárido proviene de la palabra latina que significa azúcar), ya que tienen una molécula bien definida. Otro monosacárido es la fructosa, que proporciona su sabor dulce a muchas frutas, encontrándose también en la miel. Como puede comprobarse en la figura de la izquierda, la fructosa, a diferencia de la glucosa, tiene un anillo de cinco elementos, por seis de la glucosa. Otro azúcar o carbohidrato es la sacarosa, componente fundamental del azúcar de mesa, a la que denominaremos un disacárido puesto que su molécula está constituida por una molécula de glucosa y una de fructosa unidas entre sí por un enlace covalente. La misma categoría de disacárido la tiene la lactosa de la leche, constituida por la unión de una molécula de glucosa y una de galactosa (otro monosacárido). Y al mismo grupo pertenece la maltosa, constituida por dos moléculas de glucosa. Los monosacáridos se pueden unir también formando cadenas cortas u oligosacáridos o cadenas largas o polisacáridos, cuyos ejemplos más representativos son el almidón y la celulosa, de cuyas estructuras ya hablé en mi entrada sobre el pan. Las posibilidades de estructuras son infinitas. Sólo de los monosacáridos con fórmula C6H12O6 se conocen 32 distintos isómeros, dependiendo de cómo se unen los grupos -H y -OH a los carbonos, así como las posibilidades de moléculas quirales, de las que ya hablé en otra entrada. Las posibilidades se multiplican al usar todos estos isómeros en la consecución de disacáridos o polisacáridos.
Aunque ahora el azúcar de mesa (o azúcar refinado) nos parece tan cotidiano que casi no le damos importancia, las cosas no han sido siempre así. De hecho, y aparte del aporte en carbohidratos que siempre ha supuesto la lactosa de la leche, la otra fuente azucarada en la antigüedad ha sido la miel de las abejas, citada en las tablas de los sumerios, en el viejo Testamento (en el que el maná con el que Yahvé alimentaba a los israelitas era un azúcar producido por un árbol, rico en manitol) y en las refinadas civilizaciones griegas y romanas. Pero una aproximación a lo que hoy conocemos como azúcar sólo se produce en el siglo XII cuando empieza a haber un incipiente comercio de caña de azúcar transportado como consecuencia de las Cruzadas. Ahí también la Serenísima (Venecia) jugó un papel fundamental en el tratamiento del azúcar como una especia más, destinada a dar sabor a los alimentos y también como medicina o al menos como complemento de los preparados farmacológicos de la época eliminando, por ejemplo, el sabor amargo de algunos de esos preparados. La expansión de la caña se produjo a partir del siglo XV y el posterior descubrimiento, a mediados del XVIII, de la posibilidad de cristalizar azúcar a partir de un extracto de remolacha machacada, acabó con el aire de alimento refinado y lujoso que hasta entonces tenía el azúcar, democratizándolo y convertiéndolo en un alimento básico y barato.
El nivel de sensación dulce que todos estos carbohidratos proporcionan es muy distinto dependiendo de su estructura. Y así, estableciendo un índice de 100 para la sensación de dulzor de la sacarosa (azúcar convencional), por aquello de que es el más corriente, la fructosa contenida en muchas frutas o en la miel tiene un índice de 120, mientras que la lactosa de la leche sólo llega a 40.
El azúcar refinado tiene hoy mala prensa. Y las razones son fáciles de explicar a nivel divulgativo. Los carbohidratos de todo tipo, sobre todo monosacáridos como la glucosa que ya están a un nivel de moléculas pequeñas, son directamente asimilables por el organismo como fuente de energía. El problema es que en el mundo desarrollado, la gente está ingiriendo mucha más cantidad de azúcares de la necesaria, a veces de forma poco consciente, como es el caso de la bollería y de bebidas como la Coca-Cola u otras no alcohólicas. Al mismo tiempo, eso hace que se obvien otro tipo de alimentos que proporcionan otros nutrientes igualmente necesarios para nuestra salud. Se habla así del azúcar como un alimento calórico “vacío” ya que un azucarillo es casi 99.99% sacarosa y casi nada más, ni proteínas, ni grasas, ni minerales, etc. Por tanto, un consumo desmesurado de azúcar lo convierte en un “veneno” (hacía tiempo que no salía Paracelso en el blog) y pueden atribuírsele muchas de las morbideces que antes sólo se veían en los USA y que ahora invaden (como casi todo lo suyo) nuestros ambientes más próximos.
Además del problema de la carie dental ligado al consumo de azúcar, la glucosa generada por los carbohidratos es la causante de un problema importante de salud: la diabetes. Aunque ya hablamos algo del tema en la entrada del 18 de mayo, aquí corresponde decir que todos los carbohidratos ricos en moléculas de glucosa, como aquellos que contienen almidón o maltosa, que son descompuestos en nuestro metabolismo en moléculas de glucosa, son los mas peligrosos para los diabéticos incipientes o consolidados. El azúcar de mesa es algo menos peligroso y la fructosa bastante menos. Los galenos han ideado el llamado índice glucémico que mide esa capacidad de los azúcares para elevar el nivel de glucosa en sangre.
Así que una vez más no nos pasemos. Consumamos azúcar con moderación, como el alcohol, el aceite de oliva, la carne o el pescado. Y si no nos queda mas remedio que prescindir de él, pero no de la sensación dulce en boca que nos atrae, recurramos a los sustitutos del azúcar. Los llamados edulcorantes son moléculas químicas que tienen un índice de dulzor mucho más alto que los azúcares convencionales. Por ejemplo, la sacarina, una molécula puramente sintética, cuya estructura puede verse a la derecha tiene un índice de dulzor de 30.000 con respecto a un valor 100 de la sacarosa tomado como referencia. Y el aspartamo, una combinación sintética de dos aminoácidos tiene un valor de 18.000 en esa misma escala. Eso hace que se necesiten cantidades mucho mas pequeñas de estos edulcorantes a la hora de conseguir un similar nivel de dulzor.
También pueden emplearse otras alternativas al azúcar convencional cuando se necesite emplear cantidades más grandes, por ejemplo en pastelería. Por sólo poner un ejemplo, he podido asistir en más de una ocasión a demostraciones de un conocido pastelero de Elda, Paco Torreblanca, que emplea en sus preparaciones, mas propias de un escultor que de un pastelero, un compuesto comercializado bajo el nombre de Isomalt. Se trata de azúcares modificados en forma de alcohol, cuyos nombres acaban en el término itol. Y así, el citado Isomalt es una mezcla aproximadamente al 50% de Glucopiranosil-D-Manitol dihidratado (C12H24O11.2H2O) con Glucopiranosil-D-Sorbitol (C12H24O11). Y no me pegueis por los nombrecitos. Estas sustancias tienen dos características diferenciales con respecto a los carbohidratos convencionales. Por un lado, se absorben mucho menos por nuestro organismo con lo que su impacto en los niveles de glucosa es menor. Y segundo, por su estructura química no sufren las reacciones que sufren los azúcares convencionales en el llamado proceso de caramelización, con su clásico color parduzco y la génesis de nuevos aromas. En ese sentido se presentan como una alternativa diferenciada a aquéllos en ciertas preparaciones gastronómicas.
Y lo voy a dejar, que son casi las nueve y media de la noche y estoy al borde del coma hipoglucémico.
lunes, 26 de junio de 2006
Pilas de combustible: un futuro deseable pero incierto
Esta entrada se actualizó en octubre de 2020. Si algún enlace os trae hasta aquí desde otras entradas, podéis ver la versión actualizada aquí.
domingo, 11 de junio de 2006
Jabones, mayonesas y aliolis, pinturas.
Hay muchos trucos que un docente emplea para captar la atención de sus estudiantes. Entre los que yo uso de forma recurrente, alguno parece haber sido particularmente eficaz con mis alumnos, porque bastantes de ellos, en posteriores encuentros distendidos y, a veces, sazonados con cantidades relativamente importantes de alcohol, me han confesado que una de las cosas que asocian conmigo es mi pasión por el Fairy, ese detergente para vajillas que, junto a las cervezas, descubrí en Bélgica en el año 1981, cuando aquí todavía no se vendía. Suelo proporcionar en clase una receta para generar con él gigantescas pompas de jabón que engloban hasta niños. Me sirve en el laboratorio para explicar la tensión superficial y cómo pequeñas gotas de Fairy hacen disminuir dramáticamente la tensión superficial del agua. Y, finalmente, me ha servido muchas veces como introducción a la polimerización en emulsión de la que luego hablaré.
Una de la labores propias de mi sexo en la organización de mi vida conyugal es fregar los platos de las cenas o del fin de semana. Tenemos lavavajillas pero, para dos gatos que somos, el material a fregar es tan parco que, muchas veces, lo hago a mano y tengo que confesar que hasta me resulta relajante. Y ello, en parte, porque para hacerlo me armo de pequeñas dosis de Fairy que me ayudan a acabar con prontitud con los restos de grasa y aceite, probablemente los más engorrosos de eliminar. Es verdad que no hace falta sofisticarse tanto para fregar. Una pastilla de un jabón antiguo y popular como Lagarto, Chimbo o similares produce efectos parecidos en lo que a eliminación de grasas se refiere.
El aceite y otras grasas, debido a sus estructuras químicas, son casi incompatibles con una molécula de estructura radicalmente distinta como es el agua. Por ejemplo, añadiendo aceite de oliva, pongamos 4-5 gramos, a una cierta cantidad de agua (unos 25 cc) apreciamos que el aceite (menos denso) flota como un continuo sobre el agua, cosa que no ocurre al adicionar alcohol sobre agua. Si con una cucharilla agitamos ambos componentes, apreciaremos que el aceite se rompe en pequeñas gotas que se dispersan en el continuo de agua, mientras haya agitación. Pero si cesamos la misma, las gotas de aceite van colapsando poco a poco hasta de nuevo formar la fase de aceite sobre la fase de agua. Pero si antes de la agitación adicionamos unas pocas gotas de Fairy, el resultado de ésta es bastante diferente. Las gotas de aceite que se forman son mucho más pequeñas y la dispersión permanece como tal durante mucho más tiempo. En términos químicos decimos que el Fairy emulsifica la mezcla de aceite y agua.
Eso es lo que de forma fina se suele conocer como acción detersiva del jabón o cualquier otro detergente como el Fairy. Realmente, el jabón no es necesario para limpiar muchas cosas pero si para emulsificar las grasas y arrastrarlas fácilmente de la superficie de un plato o una sartén.
Muchos de estos detergentes son moléculas conocidas como anfifílicas, que es algo así como moléculas de doble alma. Se trata de sustancias obtenidas a partir de ácidos grasos de cadenas relativamente largas (14-18 grupos CH2) y bases como la sosa caústica o la potasa en una reacción conocida como saponificación.
En esta ola de sostenibilidad oficial que nos asola (nada que objetar a un Universo sostenible, pero si lo planifican los políticos es mejor mirar la letra pequeña) he visto hace poco un folleto divulgativo de la Diputación Foral de Gipuzkoa en el que se recomendaba a la población no adquirir detergentes comerciales y fabricarse en casa su propio jabón a partir de aceites usados, que contiene los ácidos grasos, y las bases arriba mencionadas. Mejor que no lo probéis. La cosa es un poco maloliente y, además, no es cuestión de almacenar en una casa normal reactivos tan peligrosos como la sosa caústica.
La saponificación nos proporciona pues moléculas cabezonas como la que se ve en la figura de arriba, con más apariencia de espermatozoide que de otra cosa, moléculas que tienen una cola larga de naturaleza orgánica o apolar (los CH2) y, por tanto, hidrofóbica (¿agua?, no gracias) junto con una cabeza que contiene un grupo iónico hidrofílico o polar (al que le gusta el agua como comer con los dedos). En ese doble carácter (anfifílico) radican las potencialidades de los detergentes para llevarse la grasa.
El mecanismo puede resultar interesante para quien lo oye contar por primera vez (o eso espero). Cuando ponemos jabón en agua, los “espermatozoides” jabonosos se encuentran ante una disyuntiva complicada. La parte orgánica huiría del agua cual gato persa. Y la colita iónica perdería el culo por la misma. Pero están indisolublemente unidos y hay que resolver el dilema.
Así que varias moléculas de ese tipo se asocian en estructuras supramoleculares conocidas como micelas, una de las cuales se muestra en la figura adjunta. En ellas, las cabezas se colocan en el exterior de una esfera cuya atmósfera interior está llena de las cadenas orgánicas. Las pequeñas cosas que vuelan fuera de esa esfera son moléculas de agua. Y el interior de esas supramoléculas, en tanto que un ambiente orgánico, es un sitio adecuado para albergar moléculas de aceites y grasas que huyen del agua y que una vez ahí albergadas pueden ser arrastradas en el proceso de limpieza. Me perdonareis una quizás excesiva vulgarización del tema pero creo que se entiende.
En gastronomía hay varios ejemplos de emulsiones que ayudan a entender un poco mejor lo que estoy contando. La emulsión por excelencia en cocina es la mayonesa. Cuando se añade aceite a una yema de huevo con un poco de vinagre y se agita convenientemente durante la progresiva adición del aceite, lo que se va obteniendo parece homogéneo pero, si se pone bajo un microscopio, se puede apreciar que gotas de aceite se dispersan en la pequeña cantidad de agua aportada por el vinagre y la propia yema. En Francia es habitual añadir mostaza que también aporta agua pues la propia mostaza se prepara con vinagre.
Si el aceite no se separa de ese agua es debido a la presencia en la yema de sustancias que juegan el papel de emulsificantes, tensoactivos o surfactantes (tres formas de decir más o menos lo mismo). Aunque la tradición popular pone al menos un huevo para hacer una cierta cantidad de mayonesa, lo cierto es que la cantidad de emulsificantes contenidos en una yema es suficiente para preparar cantidades mucho más grandes de mayonesa. Hervé This en su libro Casseroles & Éprouvettes habla de que con una yema se pueden preparar litros de mayonesa con la condición de añadir las cantidades adecuadas de agua.
En caso contrario, el aceite está en cantidad excesiva y acaba separándose como una fase diferenciada, esto es, la mayonesa “se corta”. En ese mismo libro, This propone nuevos tipos de mayonesa, empleando sólo la clara del huevo, que también contiene tensoactivos, aunque en menor proporción. Además la “mayonesa” resultante tiene mucho menos sabor.Los emulsificantes en estos casos son ligeramente distintos en estructura. De entre los que se encuentran en la yema del huevo el más importante es un fosfolípido llamado lecitina. Podría meterme en honduras químicas y describiros su estructura pero basta con mencionar que, de nuevo, se trata de cadenas largas de tipo orgánico con un extremo que este caso juega con la glicerina (por eso también se habla de un diglicérido) y que también tiene naturaleza iónica o amiga del agua. Estas moléculas pueden colocarse en la interfase entre el agua y el aceite y hacer que se mantengan juntos pero no revueltos.
Un primo de la mayonesa es el ali-oli, donde no hay huevo. Pero el ajo empleado en la preparación contiene emulsificantes suficientes para estabilizar la progresiva adición de aceite. De nuevo, trucos como adicionar una pequeña cantidad de agua o un poco de pan untado en leche, son formas de ajustar las proporciones adecuadas de agua y emulsificantes. Así que no hay misterios en estas preparaciones. Ni las fases de la luna, ni las mujeres con la regla ni el sentido de la agitación en contra o favor de las agujas del reloj. Pura estequiometría, palabreja que los químicos usamos para decir que al hacer una reacción tenemos que poner las cantidades adecuadas.
Y emulsiones son también nuestra queridas salsas para los pescados en cazuela, en las que una cocción a fuego lento y con movimiento extrae de la merluza o del bacalao ciertos componentes que actúan como emulsificantes del aceite que hemos puesto en la cazuela, además de proporcionar cantidades de agua, a veces insuficientes, en las que dispersar ese aceite.
Pero emulsión es también el nombre que recibe un procedimiento industrial muy extendido para preparar polímeros. Por sus contribuciones en este campo, mi amigo Txema Asua ha recibido este año el Premio Euskadi de Investigación. No os voy a dar un curso al respecto. Me fijaré sólo en los botes de pintura con los que barnizamos puertas o paredes. Muchos de ellos son emulsiones en agua de un polímero, adecuadamente estabilizado con un emulsificante. Probablemente alguna vez hayais visto un bote de pintura mantenido mucho tiempo en un sitio y que, al abrirlo, el agua o el disolvente está totalmente separado y el fondo queda una pintura superviscosa. Es que la emulsión se ha bufado, probablemente por cambios bruscos de temperatura.
En el procedimiento habitual de preparación de estas emulsiones, se coge una cantidad importante de agua a la que, con agitación, se añade el monómero o materia prima que va a dar lugar al polímero. Estos monómeros son sustancias orgánicas que no se disuelven en agua, por lo que estamos en un caso parecido al aceite. Hay que añadir emulsificantes para que formen estructuras (micelas) como las del dibujo de arriba, en cuyo interior se guarecen las moléculas de monómero. Ahí dentro llegan también pequeñas cantidades de unas sustancias que funcionan como iniciadores de la reacción por la que el monómero se transforma en polímero. Al final, cada micela es un pequeño reactor que, al concluir el proceso, está llena de polímero, al que tampoco gusta el agua y que hay que emulsificar para que no se separe del agua. El producto final, partículas de polímero emulsificadas y estabilizadas en el agua es lo que se llama un látex y, directamente, se envasa en botes y se vende como pintura.
No me digais que lo de la emulsión no da juego. Y algunos de vosotros sin enteraros todavía......
Una de la labores propias de mi sexo en la organización de mi vida conyugal es fregar los platos de las cenas o del fin de semana. Tenemos lavavajillas pero, para dos gatos que somos, el material a fregar es tan parco que, muchas veces, lo hago a mano y tengo que confesar que hasta me resulta relajante. Y ello, en parte, porque para hacerlo me armo de pequeñas dosis de Fairy que me ayudan a acabar con prontitud con los restos de grasa y aceite, probablemente los más engorrosos de eliminar. Es verdad que no hace falta sofisticarse tanto para fregar. Una pastilla de un jabón antiguo y popular como Lagarto, Chimbo o similares produce efectos parecidos en lo que a eliminación de grasas se refiere.
El aceite y otras grasas, debido a sus estructuras químicas, son casi incompatibles con una molécula de estructura radicalmente distinta como es el agua. Por ejemplo, añadiendo aceite de oliva, pongamos 4-5 gramos, a una cierta cantidad de agua (unos 25 cc) apreciamos que el aceite (menos denso) flota como un continuo sobre el agua, cosa que no ocurre al adicionar alcohol sobre agua. Si con una cucharilla agitamos ambos componentes, apreciaremos que el aceite se rompe en pequeñas gotas que se dispersan en el continuo de agua, mientras haya agitación. Pero si cesamos la misma, las gotas de aceite van colapsando poco a poco hasta de nuevo formar la fase de aceite sobre la fase de agua. Pero si antes de la agitación adicionamos unas pocas gotas de Fairy, el resultado de ésta es bastante diferente. Las gotas de aceite que se forman son mucho más pequeñas y la dispersión permanece como tal durante mucho más tiempo. En términos químicos decimos que el Fairy emulsifica la mezcla de aceite y agua.
Eso es lo que de forma fina se suele conocer como acción detersiva del jabón o cualquier otro detergente como el Fairy. Realmente, el jabón no es necesario para limpiar muchas cosas pero si para emulsificar las grasas y arrastrarlas fácilmente de la superficie de un plato o una sartén.
Muchos de estos detergentes son moléculas conocidas como anfifílicas, que es algo así como moléculas de doble alma. Se trata de sustancias obtenidas a partir de ácidos grasos de cadenas relativamente largas (14-18 grupos CH2) y bases como la sosa caústica o la potasa en una reacción conocida como saponificación.
En esta ola de sostenibilidad oficial que nos asola (nada que objetar a un Universo sostenible, pero si lo planifican los políticos es mejor mirar la letra pequeña) he visto hace poco un folleto divulgativo de la Diputación Foral de Gipuzkoa en el que se recomendaba a la población no adquirir detergentes comerciales y fabricarse en casa su propio jabón a partir de aceites usados, que contiene los ácidos grasos, y las bases arriba mencionadas. Mejor que no lo probéis. La cosa es un poco maloliente y, además, no es cuestión de almacenar en una casa normal reactivos tan peligrosos como la sosa caústica.
La saponificación nos proporciona pues moléculas cabezonas como la que se ve en la figura de arriba, con más apariencia de espermatozoide que de otra cosa, moléculas que tienen una cola larga de naturaleza orgánica o apolar (los CH2) y, por tanto, hidrofóbica (¿agua?, no gracias) junto con una cabeza que contiene un grupo iónico hidrofílico o polar (al que le gusta el agua como comer con los dedos). En ese doble carácter (anfifílico) radican las potencialidades de los detergentes para llevarse la grasa.
El mecanismo puede resultar interesante para quien lo oye contar por primera vez (o eso espero). Cuando ponemos jabón en agua, los “espermatozoides” jabonosos se encuentran ante una disyuntiva complicada. La parte orgánica huiría del agua cual gato persa. Y la colita iónica perdería el culo por la misma. Pero están indisolublemente unidos y hay que resolver el dilema.
Así que varias moléculas de ese tipo se asocian en estructuras supramoleculares conocidas como micelas, una de las cuales se muestra en la figura adjunta. En ellas, las cabezas se colocan en el exterior de una esfera cuya atmósfera interior está llena de las cadenas orgánicas. Las pequeñas cosas que vuelan fuera de esa esfera son moléculas de agua. Y el interior de esas supramoléculas, en tanto que un ambiente orgánico, es un sitio adecuado para albergar moléculas de aceites y grasas que huyen del agua y que una vez ahí albergadas pueden ser arrastradas en el proceso de limpieza. Me perdonareis una quizás excesiva vulgarización del tema pero creo que se entiende.
En gastronomía hay varios ejemplos de emulsiones que ayudan a entender un poco mejor lo que estoy contando. La emulsión por excelencia en cocina es la mayonesa. Cuando se añade aceite a una yema de huevo con un poco de vinagre y se agita convenientemente durante la progresiva adición del aceite, lo que se va obteniendo parece homogéneo pero, si se pone bajo un microscopio, se puede apreciar que gotas de aceite se dispersan en la pequeña cantidad de agua aportada por el vinagre y la propia yema. En Francia es habitual añadir mostaza que también aporta agua pues la propia mostaza se prepara con vinagre.
Si el aceite no se separa de ese agua es debido a la presencia en la yema de sustancias que juegan el papel de emulsificantes, tensoactivos o surfactantes (tres formas de decir más o menos lo mismo). Aunque la tradición popular pone al menos un huevo para hacer una cierta cantidad de mayonesa, lo cierto es que la cantidad de emulsificantes contenidos en una yema es suficiente para preparar cantidades mucho más grandes de mayonesa. Hervé This en su libro Casseroles & Éprouvettes habla de que con una yema se pueden preparar litros de mayonesa con la condición de añadir las cantidades adecuadas de agua.
En caso contrario, el aceite está en cantidad excesiva y acaba separándose como una fase diferenciada, esto es, la mayonesa “se corta”. En ese mismo libro, This propone nuevos tipos de mayonesa, empleando sólo la clara del huevo, que también contiene tensoactivos, aunque en menor proporción. Además la “mayonesa” resultante tiene mucho menos sabor.Los emulsificantes en estos casos son ligeramente distintos en estructura. De entre los que se encuentran en la yema del huevo el más importante es un fosfolípido llamado lecitina. Podría meterme en honduras químicas y describiros su estructura pero basta con mencionar que, de nuevo, se trata de cadenas largas de tipo orgánico con un extremo que este caso juega con la glicerina (por eso también se habla de un diglicérido) y que también tiene naturaleza iónica o amiga del agua. Estas moléculas pueden colocarse en la interfase entre el agua y el aceite y hacer que se mantengan juntos pero no revueltos.
Un primo de la mayonesa es el ali-oli, donde no hay huevo. Pero el ajo empleado en la preparación contiene emulsificantes suficientes para estabilizar la progresiva adición de aceite. De nuevo, trucos como adicionar una pequeña cantidad de agua o un poco de pan untado en leche, son formas de ajustar las proporciones adecuadas de agua y emulsificantes. Así que no hay misterios en estas preparaciones. Ni las fases de la luna, ni las mujeres con la regla ni el sentido de la agitación en contra o favor de las agujas del reloj. Pura estequiometría, palabreja que los químicos usamos para decir que al hacer una reacción tenemos que poner las cantidades adecuadas.
Y emulsiones son también nuestra queridas salsas para los pescados en cazuela, en las que una cocción a fuego lento y con movimiento extrae de la merluza o del bacalao ciertos componentes que actúan como emulsificantes del aceite que hemos puesto en la cazuela, además de proporcionar cantidades de agua, a veces insuficientes, en las que dispersar ese aceite.
Pero emulsión es también el nombre que recibe un procedimiento industrial muy extendido para preparar polímeros. Por sus contribuciones en este campo, mi amigo Txema Asua ha recibido este año el Premio Euskadi de Investigación. No os voy a dar un curso al respecto. Me fijaré sólo en los botes de pintura con los que barnizamos puertas o paredes. Muchos de ellos son emulsiones en agua de un polímero, adecuadamente estabilizado con un emulsificante. Probablemente alguna vez hayais visto un bote de pintura mantenido mucho tiempo en un sitio y que, al abrirlo, el agua o el disolvente está totalmente separado y el fondo queda una pintura superviscosa. Es que la emulsión se ha bufado, probablemente por cambios bruscos de temperatura.
En el procedimiento habitual de preparación de estas emulsiones, se coge una cantidad importante de agua a la que, con agitación, se añade el monómero o materia prima que va a dar lugar al polímero. Estos monómeros son sustancias orgánicas que no se disuelven en agua, por lo que estamos en un caso parecido al aceite. Hay que añadir emulsificantes para que formen estructuras (micelas) como las del dibujo de arriba, en cuyo interior se guarecen las moléculas de monómero. Ahí dentro llegan también pequeñas cantidades de unas sustancias que funcionan como iniciadores de la reacción por la que el monómero se transforma en polímero. Al final, cada micela es un pequeño reactor que, al concluir el proceso, está llena de polímero, al que tampoco gusta el agua y que hay que emulsificar para que no se separe del agua. El producto final, partículas de polímero emulsificadas y estabilizadas en el agua es lo que se llama un látex y, directamente, se envasa en botes y se vende como pintura.
No me digais que lo de la emulsión no da juego. Y algunos de vosotros sin enteraros todavía......
jueves, 8 de junio de 2006
Descomponiendo el aire
En una anterior entrada homenajeaba la memoria de Fritz Haber con su síntesis del amoníaco, una forma de fijar y hacer accesible el nitrógeno del aire a las plantas y a los seres vivos que necesitan de él para mantener su propia existencia. Hoy nos vamos a dedicar de nuevo al aire, ese invisible que nos rodea y que ademas del nitrógeno mencionado (78%) lleva el oxígeno necesario para nuestra respiración (21%). El pequeño porcentaje restante lo comparten toda una serie de otros gases como el anhídrido carbónico, el argón y las contaminaciones gaseosas propias de cada lugar.
El propósito de la entrada es ilustrar cómo se consigue separar el nitrógeno y el oxígeno contenidos en el aire, las nuevas tecnologías existentes al respecto y los usos que a esos gases se les dan. La entrada tiene un componente de bajas temperaturas que viene al pelo en un día como el que hemos sufrido, viento sur, bochorno y demás inconvenientes derivados de un clima casi tropical.
Mis inteligentes lectores conocen por ciencia infusa que, a temperatura ambiente, oxígeno y nitrógeno son gases. Desde el punto de vista químico, se trata de sustancias de estructura muy sencilla, moléculas diatómicas representadas por las fórmulas O2 y N2. Para conseguir que esos gases se conviertan en líquidos hay que enfriar hasta temperaturas realmente bajas: -183ºC en el caso del oxígeno y hasta casi -196ºC para el caso del nitrógeno. O dicho también de otra manera, el oxígeno líquido hierve a -183ºC y el nitrógeno líquido a -196ºC. Los que hayáis visto un termo lleno de nitrógeno líquido habréis comprobado que está en perpetua ebullición debido a que el ambiente está mucho más caliente. Eso quiere decir que en el interior de ese líquido, la temperatura se mantiene en esos -196ºC, lo cual no es una broma. De hecho, los dermatólogos usan nitrógeno líquido para congelar de forma extrema y, por tanto, matar (el término quemar es algo equívoco) el tejido en la zona de pequeñas afecciones de la piel como verrugas y otras alteraciones.
Para separar el nitrógeno y el oxígeno existentes en el aire se ha usado tradicionalmente el método denominado destilación criogénica. Puestos a vulgarizar el tema, la cosa está chupada. Se coge aire, se enfría por debajo de -200ºC, con lo que los dos componentes esenciales se colocan en estado líquido y luego se empieza a subir lentamente la temperatura como cuando uno destila un orujo gallego. A -196ºC empieza a hervir el nitrógeno. Cuando éste cesa de salir, nuevos aportes de calor llevan al resto hasta -183ºC, temperatura a la que empieza a hervir el oxígeno puro. Al final, oxígeno casi puro por un lado y nitrógeno por el otro.
Contado así es un juego de niños, pero llevar el aire hasta -200ºC o más no es una cuestión baladí y, de hecho, hubo que esperar hasta 1872 para poderlo hacer en el laboratorio y hasta 1902 para hacerlo en gran escala. La teoría del proceso es, sin embargo, sencilla de explicar. Cuando un gas se comprime, aumentando su presión, y, posteriormente, se expande bruscamente a presiones mucho más bajas, el gas se enfría. Ese proceso es el que se repite de forma permanente en nuestros frigoríficos. El pequeño motor que llevan todos ellos es, en realidad, un compresor, que comprime el gas contenido en todo ese sistema de pequeñas cañerías que se ven en la parte trasera del frigorífico. Tras comprimirlo, el gas es expandido en ese mismo tipo de tuberías pero situadas en el interior del frigorífico. El gas así expandido se enfría, rebajando la temperatura de los alimentos contenidos en el frigorífico o congelador.
Si el proceso se repite muchas veces y se seleccionan las presiones de compresión y expansión adecuadas es posible licuar el aire que necesitamos como punto de partida para la destilación posterior que nos proporcione el oxígeno y el nitrógeno.
Los usos de estos dos gases son muy variados e importantes en nuestra actual civilización. La utilización del oxígeno está fundamentalmente basada en su imprescindible participación en los procesos de combustión, así como en aplicaciones en el ámbito médico. El oxígeno se usa puro o mezclado con aire, enriqueciendo así a este último en oxígeno, en procesos ligados a hornos y fundiciones de todo tipo, procesos de soldadura y corte de metal, etc. En muchas plantas químicas el oxígeno es una materia prima y en la fabricación de pulpa de papel puede emplearse como agente blanqueante. En hospitales, es un suministro obligado en la cabecera de muchas habitaciones como forma de salvar y proteger vidas.
El nitrógeno se usa sobre todo como gas en la citada síntesis del amoníaco. En estado líquido, se usa como refrigerante. Por ejemplo, en los equipos de Resonancia Magnética Nuclear empleados tanto en Medicina como en Química, el imán superconductor de los equipos tiene que trabajar a temperaturas que rondan el punto de ebullición del helio líquido (-268ºC). Con esa temperatura de ebullición, el helio se evapora a velocidades extremas y, para evitarlo, el tanque que lo contiene se encierra dentro de otro en el que el nitrógeno líquido actúa a modo de camisa térmica del anterior.
En los últimos tiempos, el uso de nitrógeno líquido en restaurantes con estrellas se ha convertido en una especie de fetiche de modernidad e innovación. Y en espectáculos con un aire de intriga se deja evaporar nitrógeno líquido mezclado con agua. La temperatura del nitrógeno que se evapora es tan baja que llega a licuar al vapor de agua que de forma continua se escapa del agua líquida, generando una niebla que todo lo invade.
Pero hoy las ciencias adelantan que es una barbaridad. Y frente a la opción de la destilación criogénica que he descrito más arriba, hay otras técnicas de separación de los gases fundamentales del aire que van poco a poco imponiéndose. En la foto del encabezado se ve a un operario de Air Products, una compañía americana, junto a largas fibras huecas de material polimérico empleadas como agentes de separación de gases y comercializadas bajo la marca PRISM. La idea básica de estos procesos de separación es fácil de explicar.
Los polímeros, cualquier polímero, no son impermeables a los gases. ¿La prueba?. Los globos y las ruedas se deshinchan, las botellas de Coca-Cola se quedan sin “chispa de la vida” si se almacenan durante mucho tiempo. Pero, dado un determinado polímero, la permeabilidad a través de él de diferentes gases puede cambiar bastante. Eligiendo adecuadamente el material, éste puede dejar pasar preferentemente a uno de los componentes de una mezcla como el y no a otros. Eso es lo que se hace con las fibras PRISM. Colocadas en módulos adecuados, éstos se alimentan con aire. El oxígeno entra por las fibras y atraviesa sus paredes hacia el espacio entre ellas, mientras el nitrógeno sigue la linea de las propias fibras. En un sólo módulo la separación no es total pero poniendo varios en serie se pueden conseguir purezas rayanas en el 100% para cada componente. El sistema es, por ahora, caro, pero mucho más sostenible que los procedimientos de destilación criogénica. Todo parece indicar que este tipo de membranas de separación se van a acabar imponiendo en muchos ámbitos.
El propósito de la entrada es ilustrar cómo se consigue separar el nitrógeno y el oxígeno contenidos en el aire, las nuevas tecnologías existentes al respecto y los usos que a esos gases se les dan. La entrada tiene un componente de bajas temperaturas que viene al pelo en un día como el que hemos sufrido, viento sur, bochorno y demás inconvenientes derivados de un clima casi tropical.
Mis inteligentes lectores conocen por ciencia infusa que, a temperatura ambiente, oxígeno y nitrógeno son gases. Desde el punto de vista químico, se trata de sustancias de estructura muy sencilla, moléculas diatómicas representadas por las fórmulas O2 y N2. Para conseguir que esos gases se conviertan en líquidos hay que enfriar hasta temperaturas realmente bajas: -183ºC en el caso del oxígeno y hasta casi -196ºC para el caso del nitrógeno. O dicho también de otra manera, el oxígeno líquido hierve a -183ºC y el nitrógeno líquido a -196ºC. Los que hayáis visto un termo lleno de nitrógeno líquido habréis comprobado que está en perpetua ebullición debido a que el ambiente está mucho más caliente. Eso quiere decir que en el interior de ese líquido, la temperatura se mantiene en esos -196ºC, lo cual no es una broma. De hecho, los dermatólogos usan nitrógeno líquido para congelar de forma extrema y, por tanto, matar (el término quemar es algo equívoco) el tejido en la zona de pequeñas afecciones de la piel como verrugas y otras alteraciones.
Para separar el nitrógeno y el oxígeno existentes en el aire se ha usado tradicionalmente el método denominado destilación criogénica. Puestos a vulgarizar el tema, la cosa está chupada. Se coge aire, se enfría por debajo de -200ºC, con lo que los dos componentes esenciales se colocan en estado líquido y luego se empieza a subir lentamente la temperatura como cuando uno destila un orujo gallego. A -196ºC empieza a hervir el nitrógeno. Cuando éste cesa de salir, nuevos aportes de calor llevan al resto hasta -183ºC, temperatura a la que empieza a hervir el oxígeno puro. Al final, oxígeno casi puro por un lado y nitrógeno por el otro.
Contado así es un juego de niños, pero llevar el aire hasta -200ºC o más no es una cuestión baladí y, de hecho, hubo que esperar hasta 1872 para poderlo hacer en el laboratorio y hasta 1902 para hacerlo en gran escala. La teoría del proceso es, sin embargo, sencilla de explicar. Cuando un gas se comprime, aumentando su presión, y, posteriormente, se expande bruscamente a presiones mucho más bajas, el gas se enfría. Ese proceso es el que se repite de forma permanente en nuestros frigoríficos. El pequeño motor que llevan todos ellos es, en realidad, un compresor, que comprime el gas contenido en todo ese sistema de pequeñas cañerías que se ven en la parte trasera del frigorífico. Tras comprimirlo, el gas es expandido en ese mismo tipo de tuberías pero situadas en el interior del frigorífico. El gas así expandido se enfría, rebajando la temperatura de los alimentos contenidos en el frigorífico o congelador.
Si el proceso se repite muchas veces y se seleccionan las presiones de compresión y expansión adecuadas es posible licuar el aire que necesitamos como punto de partida para la destilación posterior que nos proporcione el oxígeno y el nitrógeno.
Los usos de estos dos gases son muy variados e importantes en nuestra actual civilización. La utilización del oxígeno está fundamentalmente basada en su imprescindible participación en los procesos de combustión, así como en aplicaciones en el ámbito médico. El oxígeno se usa puro o mezclado con aire, enriqueciendo así a este último en oxígeno, en procesos ligados a hornos y fundiciones de todo tipo, procesos de soldadura y corte de metal, etc. En muchas plantas químicas el oxígeno es una materia prima y en la fabricación de pulpa de papel puede emplearse como agente blanqueante. En hospitales, es un suministro obligado en la cabecera de muchas habitaciones como forma de salvar y proteger vidas.
El nitrógeno se usa sobre todo como gas en la citada síntesis del amoníaco. En estado líquido, se usa como refrigerante. Por ejemplo, en los equipos de Resonancia Magnética Nuclear empleados tanto en Medicina como en Química, el imán superconductor de los equipos tiene que trabajar a temperaturas que rondan el punto de ebullición del helio líquido (-268ºC). Con esa temperatura de ebullición, el helio se evapora a velocidades extremas y, para evitarlo, el tanque que lo contiene se encierra dentro de otro en el que el nitrógeno líquido actúa a modo de camisa térmica del anterior.
En los últimos tiempos, el uso de nitrógeno líquido en restaurantes con estrellas se ha convertido en una especie de fetiche de modernidad e innovación. Y en espectáculos con un aire de intriga se deja evaporar nitrógeno líquido mezclado con agua. La temperatura del nitrógeno que se evapora es tan baja que llega a licuar al vapor de agua que de forma continua se escapa del agua líquida, generando una niebla que todo lo invade.
Pero hoy las ciencias adelantan que es una barbaridad. Y frente a la opción de la destilación criogénica que he descrito más arriba, hay otras técnicas de separación de los gases fundamentales del aire que van poco a poco imponiéndose. En la foto del encabezado se ve a un operario de Air Products, una compañía americana, junto a largas fibras huecas de material polimérico empleadas como agentes de separación de gases y comercializadas bajo la marca PRISM. La idea básica de estos procesos de separación es fácil de explicar.
Los polímeros, cualquier polímero, no son impermeables a los gases. ¿La prueba?. Los globos y las ruedas se deshinchan, las botellas de Coca-Cola se quedan sin “chispa de la vida” si se almacenan durante mucho tiempo. Pero, dado un determinado polímero, la permeabilidad a través de él de diferentes gases puede cambiar bastante. Eligiendo adecuadamente el material, éste puede dejar pasar preferentemente a uno de los componentes de una mezcla como el y no a otros. Eso es lo que se hace con las fibras PRISM. Colocadas en módulos adecuados, éstos se alimentan con aire. El oxígeno entra por las fibras y atraviesa sus paredes hacia el espacio entre ellas, mientras el nitrógeno sigue la linea de las propias fibras. En un sólo módulo la separación no es total pero poniendo varios en serie se pueden conseguir purezas rayanas en el 100% para cada componente. El sistema es, por ahora, caro, pero mucho más sostenible que los procedimientos de destilación criogénica. Todo parece indicar que este tipo de membranas de separación se van a acabar imponiendo en muchos ámbitos.
martes, 6 de junio de 2006
Viendo átomos y moléculas
Soy consciente de que, para gente sin una formación científica algo consistente, explicar las propiedades de la materia en términos de átomos y moléculas es casi como hablar del sexo de los ángeles. El grado máximo de comprensión al respecto no suele ir más allá de “cosas pequeñas que se mueven”. Algún amigo tengo (cuyo nombre no mencionaré) que en cuanto ve una foto obtenida con un microscopio, identifica cualquier cosa que allí aparezca con “moléculas”. Si le digo que, por ejemplo, lo que está viendo es una gota de agua con un poco de polvo ambiental y que en esa gota de agua (0.05 ml) hay 30000000000000000000000 moléculas de agua, la cosa entra ya en el reino de la magia, porque ¿dónde están las jodidas moléculas?.
Sospecho que la razón de mucha de la incomprensión que sufrimos los científicos en nuestra actividad cotidiana radica en que nuestros elementos fundamentales (átomos y moléculas) son tan intangibles como los sellos de Fórum Filatélico. Y, además, no se ven. Y todo lo que un humano no ve adquiere enseguida un aureola de fantasía que puede, casi inexorablemente, deslizarse hacia los dominios de la magia o la religión. Y eso es, y ha sido, aplicable a lo grande y a lo pequeño.
El Universo empezó a entenderse con los telescopios que comenzaron a aumentar la imagen que nuestros ojos tenían de él, permitiendo escudriñar cada vez más lejos, resolver cada vez mejor la forma y movimiento de las estrellas y acabar así concluyendo (¡anda que no les costó a Kepler, Galileo y otros!) que la idea mística de la Tierra como centro del Universo se caía por si sola al pozo de las mentiras religiosas.
La contrapartida a los telescopios la han proporcionado los microscopios. En la entrada sobre la síntesis de Wöhler de la urea (23 de abril) ya mencionaba que la reacción de los partidarios del “toque divino” en todo lo producido por los seres vivos ante la síntesis de productos “orgánicos” fue desviar su atención hacia los primeros descubrimientos sobre lo complejo que era lo pequeño (por ejemplo, un preparado de un tejido biológico), como forma de seguir manteniendo la imposibilidad de los científicos de resolver los enigmas de la vida.
Nuestro microscopio primario, nuestro ojo y su retina, tiene serias limitaciones para ver cosas pequeñas. Os podría pormenorizar aquí un sencillo cálculo basado en mis limitados conocimientos de óptica, pero vamos a irnos directamente al resultado. Un ojo humano normal, sin ayuda de antiparras, tiene un límite de resolución espacial en torno a 75 micras o, lo que es igual, 0.075 milímetros. Ir bastante más allá requiere de ayuda instrumental como la que proporcionan los microscopios. Otro cálculo sencillo permite deducir que, aproximadamente, una molécula de agua mide 0.3 nanometros, que es lo mismo que 0.0000003 milímetros, es decir, la molécula de agua es 250.000 veces más pequeña que lo que nosotros podemos apreciar mínimamente con nuestra retina.
Llegar hasta los límites de ver átomos y moléculas ha requerido todo un gigantesco esfuerzo cooperativo de muchos científicos, gracias a los que hoy podemos ver esas entidades.
Los microscopios se empezaron a desarrollar en el siglo XVII y, en los comienzos, eran en realidad lupas de una sola lente que, aunque con dificultades, empezaron a revelar la existencia de complejas estructuras en los tejidos, la existencia de pequeños insectos y microorganismos, etc. El avance sustancial se produjo con la introducción de lo que hoy conocemos como microscopios ópticos, un conjunto de dos lentes (ocular y objetivo) que ya permitían magnificaciones mayores y que contribuyeron al sostenido crecimiento de la fisiología, la botánica y otras ciencias en el siglo XIX. Como ya puso de manifiesto Abbé en 1873 la resolución de estos microscopios no puede ir más allá de la mitad de la longitud de onda empleada. Tomando la longitud media de la luz visible eso implica una resolución en torno a 0.3 micras, 250 veces la resolución del ojo humano.
La marea de física cuántica que se produjo en las primeras dos décadas del siglo XX fue fundamental para entender que, en lugar de luz, podían usarse flujos de electrones como radiación electromagnética similar a la luz para ver cosas más pequeñas. Ello hizo que en los primeros cincuenta años de ese siglo se desarrollaran toda una serie de microscopios electrónicos, con resoluciones en torno a unos pocos nanometros, lo que permitía ver estructuras poco complejas, pero no átomos.
Pero ahora hace algo más de 50 años, el 11 de octubre de 1955, un grupo de investigadores de la Pennsylvania State University, dirigido por Erwin E. Müller, utilizando una técnica conocida como FIM (Field Ion Microscopy) fue capaz de obtener una fotografía en la que se llegaban a distinguir átomos de wolframio (o tungsteno), un elemento en el que los hermanos Elhuyar y el Real Seminario de Bergara tienen algo que ver.
Posteriormente, otras técnicas como la microscopía electrónica (STEM) o la microscopía de efecto túnel (STM), a la que Pedro Etxenike ha realizado contribuciones fundamentales, han conseguido resoluciones atómicas similares a las de la FIM y, de hecho, han superado a ésta en sus implantaciones comerciales. Pero la primera foto de Müller y sus colegas quedó como un hito en la historia de visualizar los componentes esenciales de la materia. Todo el mundo pensaba que Müller se merecía el Nobel pero murió en 1977 sin conseguirlo. En 1986 el Premio Nobel de Física lo compartieron Ernest Ruska por el diseño del primer microscopio electrónico y Gerd Binning y Heinrich Rohrer por su trabajo sobre el microscopio de efecto túnel. No tengo conocimientos para poner objeción alguna a esa nominación y, además, Rohrer es un tipo que me cae bien, amante confeso de Donosti y con el que este setiembre pasado he compartido cervezas durante el Congreso sobre el Annus Mirabilis de Einstein. Pero, probablemente, Müller será uno más de los que se quedan en la cuneta de esa difícil carrera hacia el Nobel.
Sospecho que la razón de mucha de la incomprensión que sufrimos los científicos en nuestra actividad cotidiana radica en que nuestros elementos fundamentales (átomos y moléculas) son tan intangibles como los sellos de Fórum Filatélico. Y, además, no se ven. Y todo lo que un humano no ve adquiere enseguida un aureola de fantasía que puede, casi inexorablemente, deslizarse hacia los dominios de la magia o la religión. Y eso es, y ha sido, aplicable a lo grande y a lo pequeño.
El Universo empezó a entenderse con los telescopios que comenzaron a aumentar la imagen que nuestros ojos tenían de él, permitiendo escudriñar cada vez más lejos, resolver cada vez mejor la forma y movimiento de las estrellas y acabar así concluyendo (¡anda que no les costó a Kepler, Galileo y otros!) que la idea mística de la Tierra como centro del Universo se caía por si sola al pozo de las mentiras religiosas.
La contrapartida a los telescopios la han proporcionado los microscopios. En la entrada sobre la síntesis de Wöhler de la urea (23 de abril) ya mencionaba que la reacción de los partidarios del “toque divino” en todo lo producido por los seres vivos ante la síntesis de productos “orgánicos” fue desviar su atención hacia los primeros descubrimientos sobre lo complejo que era lo pequeño (por ejemplo, un preparado de un tejido biológico), como forma de seguir manteniendo la imposibilidad de los científicos de resolver los enigmas de la vida.
Nuestro microscopio primario, nuestro ojo y su retina, tiene serias limitaciones para ver cosas pequeñas. Os podría pormenorizar aquí un sencillo cálculo basado en mis limitados conocimientos de óptica, pero vamos a irnos directamente al resultado. Un ojo humano normal, sin ayuda de antiparras, tiene un límite de resolución espacial en torno a 75 micras o, lo que es igual, 0.075 milímetros. Ir bastante más allá requiere de ayuda instrumental como la que proporcionan los microscopios. Otro cálculo sencillo permite deducir que, aproximadamente, una molécula de agua mide 0.3 nanometros, que es lo mismo que 0.0000003 milímetros, es decir, la molécula de agua es 250.000 veces más pequeña que lo que nosotros podemos apreciar mínimamente con nuestra retina.
Llegar hasta los límites de ver átomos y moléculas ha requerido todo un gigantesco esfuerzo cooperativo de muchos científicos, gracias a los que hoy podemos ver esas entidades.
Los microscopios se empezaron a desarrollar en el siglo XVII y, en los comienzos, eran en realidad lupas de una sola lente que, aunque con dificultades, empezaron a revelar la existencia de complejas estructuras en los tejidos, la existencia de pequeños insectos y microorganismos, etc. El avance sustancial se produjo con la introducción de lo que hoy conocemos como microscopios ópticos, un conjunto de dos lentes (ocular y objetivo) que ya permitían magnificaciones mayores y que contribuyeron al sostenido crecimiento de la fisiología, la botánica y otras ciencias en el siglo XIX. Como ya puso de manifiesto Abbé en 1873 la resolución de estos microscopios no puede ir más allá de la mitad de la longitud de onda empleada. Tomando la longitud media de la luz visible eso implica una resolución en torno a 0.3 micras, 250 veces la resolución del ojo humano.
La marea de física cuántica que se produjo en las primeras dos décadas del siglo XX fue fundamental para entender que, en lugar de luz, podían usarse flujos de electrones como radiación electromagnética similar a la luz para ver cosas más pequeñas. Ello hizo que en los primeros cincuenta años de ese siglo se desarrollaran toda una serie de microscopios electrónicos, con resoluciones en torno a unos pocos nanometros, lo que permitía ver estructuras poco complejas, pero no átomos.
Pero ahora hace algo más de 50 años, el 11 de octubre de 1955, un grupo de investigadores de la Pennsylvania State University, dirigido por Erwin E. Müller, utilizando una técnica conocida como FIM (Field Ion Microscopy) fue capaz de obtener una fotografía en la que se llegaban a distinguir átomos de wolframio (o tungsteno), un elemento en el que los hermanos Elhuyar y el Real Seminario de Bergara tienen algo que ver.
Posteriormente, otras técnicas como la microscopía electrónica (STEM) o la microscopía de efecto túnel (STM), a la que Pedro Etxenike ha realizado contribuciones fundamentales, han conseguido resoluciones atómicas similares a las de la FIM y, de hecho, han superado a ésta en sus implantaciones comerciales. Pero la primera foto de Müller y sus colegas quedó como un hito en la historia de visualizar los componentes esenciales de la materia. Todo el mundo pensaba que Müller se merecía el Nobel pero murió en 1977 sin conseguirlo. En 1986 el Premio Nobel de Física lo compartieron Ernest Ruska por el diseño del primer microscopio electrónico y Gerd Binning y Heinrich Rohrer por su trabajo sobre el microscopio de efecto túnel. No tengo conocimientos para poner objeción alguna a esa nominación y, además, Rohrer es un tipo que me cae bien, amante confeso de Donosti y con el que este setiembre pasado he compartido cervezas durante el Congreso sobre el Annus Mirabilis de Einstein. Pero, probablemente, Müller será uno más de los que se quedan en la cuneta de esa difícil carrera hacia el Nobel.
sábado, 3 de junio de 2006
Vidrio y cristal
Esta entrada fue actualizada el 25 de febrero de 2015. Cualquier enlace que os dirija a la misma debe redirigirse a la actualizada.
viernes, 2 de junio de 2006
Químicos italianos
El inicio de junio me pilla en Venecia. Nada de ciencia. Que mañana hace treinta años que mi chica y yo nos aguantamos en el sentido conyugal de la palabra y, en uso de sus atribuciones y sin posibilidad de discusión, me ha traido a la ciudad de los gondoleros. Yo argumenté que no había golf, pero ni por esas. Así que aquí estoy. Al menos me ha dejado traerme el Mac y, como en las habitaciones de los hoteles hay pocas cosas que hacer, mientras descansamos un poco del duro walking around, he decidido “decorar” un poco mi blog con una entrada escrita en Italia y dedicada a italianos.
Había pensado buscar algo sobre químicos italianos relacionados con la ciudad en la que estoy pero, para mi sorpresa, no he encontrado más que uno y sólo ligeramente relacionado con ella (tampoco puedo dedicar mucho tiempo a la búsqueda). Pero el personaje, al que no conocía, es jugoso y, en cierta manera, un adelantado a su época. Angelo Sala, que así se llama nuestro personaje, nació en Vicenza en 1576. Sus contados historiadores no han podido demostrar que realizara ningún tipo de estudio reglado (como se dice ahora). Sin embargo, ejerció como reputado médico y contribuyó con algunas ideas preclaras a los avances tanto de la propia Medicina como de la Química.
Sus autodidactas conocimientos de Química parece que los adquirió precisamente en Venecia, donde vivió por un corto período de tiempo. De sus actividades, que casi pudiéramos denominar alquimistas, su más importante contribución tiene que ver con el arranque de los avances que condujeron a la fotografía. Sala descubrió que la luz del sol era la causante del ennegrecimiento del nitrato de plata, así como del papel que estaba en contacto con él. Curiosamente, ese descubrimiento se suele atribuir a Robert Boyle, todo un personaje en la Historia de la Química y mucho mas mencionado que Sala. Pero Boyle tenía una idea errónea del proceso, que nunca hubiera conducido a la fotografía. Boyle creía que el ennegrecimiento era debido al aire. Sólo tras la corrección de Sala y tras los avances en el campo de la óptica que siguieron en los inmediatos siglos, la fotografía pudo, por fin, tomar carta de naturaleza en el primer tercio del siglo XIX.
Sala fué también un precursor en la idea de los átomos como entidades identitarias de las sustancias, algo que siguió dando vueltas en las mentes de los químicos durante casi tres siglos más, hasta que otros italianos, Avogadro y Cannizaro, tomaran el relevo de Sala en la consolidación de la hipótesis atómica. Pero esa es una historia que no tiene mucho que ver con Venecia y que da para más de una entrada posterior.
La idea, poco definida todavía, que Sala manejaba, era que algunas sustancias resultaban de la combinación química de otras. Por ejemplo, Sala afirmó que los procesos fermentativos como los que dan lugar al vino a partir de la uva, no eran sino un reagrupamiento de las particulas elementales que componían las sustancias de partida para dar lugar a otras nuevas.
Sala, que murió el 2 de octubre de 1636, tampoco parece haber estudiado Medicina en ninguno de los sitios clásicos del siglo XVI, como Bolonia. Pero ejerció de médico y adquirió una fama notable. Tanto es así que, cuando tuvo que exiliarse de Italia entre 1602 y 1612, acabó en Alemania de médico oficial de diferente miembros de la nobleza teutona. Fué un decidido seguidor de nuestro amigo Paracelso, casi Dios en este blog, razón por la cual se merece un sitio a su lado en este modesto cuaderno digital. Una entrada cortita, como corresponde a mis conocimientos sobre él y a que, además, estoy de minivacaciones.........
Había pensado buscar algo sobre químicos italianos relacionados con la ciudad en la que estoy pero, para mi sorpresa, no he encontrado más que uno y sólo ligeramente relacionado con ella (tampoco puedo dedicar mucho tiempo a la búsqueda). Pero el personaje, al que no conocía, es jugoso y, en cierta manera, un adelantado a su época. Angelo Sala, que así se llama nuestro personaje, nació en Vicenza en 1576. Sus contados historiadores no han podido demostrar que realizara ningún tipo de estudio reglado (como se dice ahora). Sin embargo, ejerció como reputado médico y contribuyó con algunas ideas preclaras a los avances tanto de la propia Medicina como de la Química.
Sus autodidactas conocimientos de Química parece que los adquirió precisamente en Venecia, donde vivió por un corto período de tiempo. De sus actividades, que casi pudiéramos denominar alquimistas, su más importante contribución tiene que ver con el arranque de los avances que condujeron a la fotografía. Sala descubrió que la luz del sol era la causante del ennegrecimiento del nitrato de plata, así como del papel que estaba en contacto con él. Curiosamente, ese descubrimiento se suele atribuir a Robert Boyle, todo un personaje en la Historia de la Química y mucho mas mencionado que Sala. Pero Boyle tenía una idea errónea del proceso, que nunca hubiera conducido a la fotografía. Boyle creía que el ennegrecimiento era debido al aire. Sólo tras la corrección de Sala y tras los avances en el campo de la óptica que siguieron en los inmediatos siglos, la fotografía pudo, por fin, tomar carta de naturaleza en el primer tercio del siglo XIX.
Sala fué también un precursor en la idea de los átomos como entidades identitarias de las sustancias, algo que siguió dando vueltas en las mentes de los químicos durante casi tres siglos más, hasta que otros italianos, Avogadro y Cannizaro, tomaran el relevo de Sala en la consolidación de la hipótesis atómica. Pero esa es una historia que no tiene mucho que ver con Venecia y que da para más de una entrada posterior.
La idea, poco definida todavía, que Sala manejaba, era que algunas sustancias resultaban de la combinación química de otras. Por ejemplo, Sala afirmó que los procesos fermentativos como los que dan lugar al vino a partir de la uva, no eran sino un reagrupamiento de las particulas elementales que componían las sustancias de partida para dar lugar a otras nuevas.
Sala, que murió el 2 de octubre de 1636, tampoco parece haber estudiado Medicina en ninguno de los sitios clásicos del siglo XVI, como Bolonia. Pero ejerció de médico y adquirió una fama notable. Tanto es así que, cuando tuvo que exiliarse de Italia entre 1602 y 1612, acabó en Alemania de médico oficial de diferente miembros de la nobleza teutona. Fué un decidido seguidor de nuestro amigo Paracelso, casi Dios en este blog, razón por la cual se merece un sitio a su lado en este modesto cuaderno digital. Una entrada cortita, como corresponde a mis conocimientos sobre él y a que, además, estoy de minivacaciones.........