martes, 13 de febrero de 2024

Más plásticos que peces


Tiempo habrá para utilizar la abundante documentación que he almacenado en una carpeta sobre el asunto de la granza gallega, de lo que escribí hace poco. Vamos a dejar pasar las elecciones en ese territorio y veremos si me da por volver sobre el tema. Pero sin hacer referencia concreta al desgraciado incidente del contenedor, voy a utilizar como excusa para la entrada de hoy un artículo que publicó un periódico que se vende en mi pueblo. Decía su contundente titular “En 2050 habrá más plásticos que peces en el mar”. Su autora repite la misma frase en el primer párrafo del artículo, pero ahí se acaba todo. Ni una sola referencia que justifique la afirmación. El resto del artículo, en su mayor parte, da pábulo a un portavoz de Greenpeace en Galicia que, aprovechando que parte de la granza acabó en su tierra, nos sermonea con su conocido mantra sobre los microplásticos y sus males.

En el año 2016, la Fundación Ellen MacArthur publicó un extenso informe titulado “The New Plastics Economy. Rethinking the future of plastics”. La mencionada Fundación tiene entre sus objetivos el estudio de la llamada Economía Circular, como estrategia para abordar problemas como el cambio climático, la pérdida de biodiversidad o el problema de los microplásticos. En un corto párrafo de la página 17, el informe dice que “Las mejores investigaciones disponibles en la actualidad estiman que hay más de 150 millones de toneladas de plásticos en el océano hoy en día. En un escenario sin cambios, se espera que el océano contenga 1 tonelada de plástico por cada 3 toneladas de pescado en 2025 y, en 2050, mas plásticos que peces (en peso)”.

Me vais a dejar que, al hilo del asunto que nos ocupa, os cuente una interesante historia sobre plásticos y peces. Que tiene que ver con la expedición Malaspina, llevada a cabo durante 2011 y 2012 por dos buques oceanográficos españoles (el Hespérides y el Sarmiento de Gamboa), que emularon otra expedición llevada a cabo por el italiano Alessandro Malaspina, al servicio de la Corona española, a finales del siglo XVIII. Aunque, esta vez, los objetivos de la nueva Malaspina eran puramente científicos. Entre ellos evaluar la cantidad total de peces en el mar o, también, la cantidad de plástico que había flotando en la superficie de los océanos.

Empecemos por los peces. O, más específicamente, por la biomasa de peces existente en los océanos. La Fundación Ellen MacArthur, en 2016, hablaba de que los océanos contenían unos 900 millones de toneladas de peces, citando un único artículo de 2008 (aunque el informe hable de las mejores investigaciones disponibles, en plural). Esos números han sido posteriormente (2015) puestos en duda por el propio primer autor del artículo en cuestión, confirmando lo que otros autores ya habían venido publicando entre ambas fechas, gracias al empleo de nuevas técnicas (observaciones acústicas) en la evaluación de la biomasa global de peces.

Entre esos nuevos resultados estaban precisamente los de la expedición Malaspina, publicados en 2014 en Nature, y que concluían que la biomasa total de peces existente en los océanos podía ser entre 10 y 30 veces más grande que las novecientas mil toneladas que evaluó el artículo de 2008 arriba mencionado y que usó la Fundación Ellen MacArthur.

En un artículo (os pongo enlace pero es de pago) publicado en El País, con ocasión del trabajo publicado en Nature arriba mencionado, el prestigioso oceanógrafo Carlos Duarte (uno de los firmantes del mismo) hablaba de la gran cantidad de especies existentes en las zonas mesopelágicas (entre 300 y 700 metros de profundidad) de los océanos, como los peces linterna (Myctophidae) o los peces luciérnaga (Cyclothone): “Se pensaba que las aguas, a esas profundidades, son prácticamente un desierto y no es así. Lo que pasa es que la vida se esconde en ellas de día, porque aproximadamente una tercera parte de esos peces ascienden de noche a alimentarse a la zona superficial del agua”.

Así que hay muchos más peces que los que se creía. Y probablemente haya muchísimos más. El mismo artículo de El País se hacía eco de otro de los resultados sorprendentes de la Malaspina, que tenía que ver con los plásticos. Aunque era cierto que habían encontrado mucho residuo plástico en la zona superficial del océano (casi todo en forma de Microplásticos, acumulados especialmente en los giros oceánicos que dan lugar a las llamadas “islas de basura”), los investigadores calcularon que los océanos acumulaban en su superficie entre 7.000 y 35.000 toneladas de estos residuos, solo un 1% del plástico que se estimaba debía estar flotando en el mar.

Entre las diversas causas de esa aparente desaparición del plástico en el mar, el artículo lanzaba la hipótesis de que la biomasa pelágica arriba mencionada podía ser una de ellas. Esos peces suben de noche a la superficie, comen plástico que confunden con presas y vuelven a las profundidades donde, en su mayor parte, devuelven el plástico al mar en forma de heces. Una hipótesis que, desde entonces, nadie ha confirmado.

Si la Malaspina tuvo dificultades para evaluar la masa de plástico que flotaba en la superficie del mar, evaluar la masa perdida en la vasta extensión y profundidad de los océanos del mundo es casi una labor imposible. En su informe, la Fundación Ellen MacArthur empleó los datos de un único artículo de 2015 en la revista Science. Los autores, con los datos existentes hasta entonces, los extrapolaban hasta 2025. Suponiendo que la cantidad de plástico que va a entrar en el océano seguirá creciendo como hasta ahora (escenario business-as-usual), la Fundación realizó una ulterior extrapolación hasta 2050. Sin embargo, un artículo de 2021 que revisaba diversas estimaciones de la basura plástica que entró en los océanos hasta 2019, viene a mostrar que, aunque la producción de plástico sigue creciendo, la basura plástica que va al mar parece haberse estabilizado e incluso, en algunos ámbitos, está decreciendo.

Es decir, que la masa de plástico que habrá en 2050 tampoco está clara. En definitiva, el titular que usó el diario de mi pueblo, al igual que, ya en 2016, usaron otros medios y ONGs, no tiene unas sólidas raíces en cuanto a los datos se refiere. Unos y otras solo los usaron para titulares, desechando las 113 páginas restantes del informe de la Fundación Ellen MacArthur, dedicadas a analizar los problemas que las basuras plásticas plantean y a proponer muy diversas soluciones. Todo ello desde estrategias factibles, muchas de las cuales ya están en marcha en los países más ricos. Pero eso no vende. Son argumentos retardacionistas, un término en boga entre los activistas.

Como dice Hannah Ritchie, editora adjunta de Our World in Data y autora del reciente libro Not the end of the World (2024), que os recomiendo, “poco importa el que en 2050 haya mas plástico que peces o no. Sería también un problema el que hubiera la mitad, la cuarta parte o la décima de la biomasa de peces. La basura plástica es un problema a lo largo y ancho de los océanos del mundo y no hay necesidad de exagerarlo”. Lo importante es que el plástico no debe seguir entrando en el mar. Y hay que trabajar duro en ello.

Un poco de música para acabar: un extracto (3’) de La mer de Claude Debussy, de la mano de su tocayo Claudio Abbado y la Filarmónica de Berlín.

Leer mas...

lunes, 29 de enero de 2024

Cuarenta años de Macs

No lo puedo resistir. Aunque me saquen cantares mis amigos, colegas y antiguos estudiantes que conocen mis debilidades, mi Blog personal no puede dejar pasar un acontecimiento como el de esta pasada semana. A fin de cuentas, este Blog tiene dos misiones para mi. Una, motivarme a conocer bien los temas que me ocupan y preocupan para contarlos públicamente. Y dos, registrar muchas de las cosas que me ocurren en el día a día. Y, hace cuarenta años, el 24 de enero de 1984, llegaba al mercado el entonces denominado Macintosh, el primer ordenador comercial con ratón e interfaz gráfica y cuya imagen podéis ver arriba.

En sus tripas llevaba un microprocesador Motorola 68000 y en su salida en EEUU se vendía a la inalcanzable cifra de 2.500 dólares de la época, que ya es costar. Uno exactamente igual llegó a mi Facultad unos meses más tarde (aunque no puedo recordar la fecha), como ordenador a socializar entre todo su claustro, en virtud de un consorcio de Apple con Universidades europeas entre las que estaba la nuestra. Lo que ocurrió entre este vuestro Búho y aquel primer Mac fue amor a primera vista, que ha seguido hasta ahora (soy de naturaleza monógamo).

Con aquel Mac me acostumbré a usar dos aplicaciones que cambiaron la óptica de mis relaciones con los pocos ordenadores que hasta entonces había conocido o manejado: el MacPaint, que permitía "pintar" con el ratón, y el MacWrite, realmente el primer procesador de textos en el sentido de que lo que el usuario veía en la pantalla era igual a lo que aparecía después en la impresora. (WYSIWYG o "what you see is what you get" en jerga informática).

El Macintosh era sencillo de manejar y entender y, además, fácil de mover de un despacho o laboratorio a otro, porque tenía un asa para poder transportarlo con comodidad y, encima, pesaba poco. Más de una gresca tuvimos los jóvenes airados que éramos entonces los ya en su gran mayoría Profesores jubilados de hoy en día, por poder compartir a solas las delicias del invento.

En su día, hace muchos años, salvé de ir a la basura a un Mac Plus, la versión 3 del Macintosh original (del primero que nos llegó no sé que fue). Y ahí estuvo, en una estantería de mi despacho, entre los libros, durante años. No servía para nada porque ni siquiera arrancaba y el teclado (una pieza separada) había desaparecido. Era una mero objeto decorativo y un buen sostén para las filas de mis libros. Cuando me jubilé, consulté la posibilidad de llevármelo. Y me dijeron que, si no la hacía, iba a ir a la basura directamente, pues era tan antiguo que ni estaba inventariado por la UPV/EHU. Y ahí está, en la biblioteca de mi casa, aguantando ahora carpetas abultadas de las cosas que guardo para este Blog.

Quizás por la portabilidad de aquel Mac, los siguientes que fui comprando para uso privado han sido todos portátiles. Me gaste una pasta gansa en el PowerBook 140 del año 1991. Creo que no ha pagado tanto dinero ni por el último que me compré en 2014, un Mac Book Air de 11 pulgadas de pantalla, un tamaño que Apple nunca ha vuelto a ofrecer. Una joya, que he utilizado desde mi jubilación en decenas de charlas y que sigue funcionando perfectamente.

Por el camino han quedado cosas tan curiosas como el iBook, que cariñosamente conocíamos en casa como “la manzanita”, con el que inicié el siglo XXI. Entre los modelos que veis a la derecha, el mío era el de color azulado.

Luego, y antes del mencionado Mac Book de 11 pulgadas que sigo teniendo, cayó un Mac Book con carcasa de policarbonato de bisfenol A (un viejo conocido de este Blog).

Todo ello un poco a la contra de la tendencia general en la UPV/EHU que, enseguida, se desligó de los productos Apple y cayó en manos de los PCs y sus desesperantes sistemas operativos que, poco a poco, fueron controlando nuestras actividades administrativas y el manejo de los diferentes aparatos con los que íbamos equipando los laboratorios. Así que durante muchos años, y a diferencia de los usuarios de PCs, yo fui un usuario de ambas plataformas, conociendo las ventajas y las miserias de cada una de ellas.

Y ahora ya jubilado, creo que no sustituiré al viejo Mac Book Air de 11 pulgadas por otro portátil. Tengo desde hace un par de años un Mac de sobremesa, el iMac, mi actividad como charlista que usa su Mac portátil para las presentaciones va a ir bajando y estoy esperando a ver si, definitivamente, puedo considerar que los iPads hacen lo mismo que un buen portátil Mac. Hacer hacen ya casi todo pero, en mi percepción, ni todo ni de la misma manera.

Y en esta nueva semana en la que ando resucitando de un proceso viral, aquí os dejo un poco de música. De la segunda Sinfonía de Mahler (Resurrección), un extracto del Finale. En estas imágenes de archivo de una interpretación de 1973, recientemente restauradas, Leonard (Lenny) Bernstein dirige a la Orquesta Sinfónica de Londres con la soprano Sheila Armstrong, la mezzosoprano Janet Baker y el Coro del Festival de Edimburgo, en la Catedral de Ely en Cambridgeshire, Inglaterra.

Cojan la batuta y a dirigir.

Leer mas...

miércoles, 10 de enero de 2024

Granza en playas gallegas: una primera aproximación

Granza es la denominación en castellano de lo que los anglosajones (y ahora todo quisque en España) llaman pellets, esas pequeñas bolitas blanquecinas que están apareciendo en las costas gallegas desde finales del mes pasado y que han causado la natural alarma entre su población, tan dependiente del mar que le rodea. La inminencia de las elecciones en ese territorio ha hecho que el manejo de la crisis esté siendo un pequeño guirigay entre políticos de uno y otro signo, jaleados por los clásicos palmeros de los medios de comunicación afines. En esta entrada quiero contar, lo más resumidamente posible, una serie de cuestiones que me han ido planteando algunos amigos y que, yo mismo, he tenido que resolver ante la falta de transparencia de las instituciones a la hora de gestionar el problema. La evolución de los acontecimientos puede que me hagan cambiar algunas cosas en los próximos días.

La granza es la forma más habitual con la que los grandes fabricantes de diferentes tipos de plásticos venden el material a los llamados transformadores, las empresas que fabrican objetos de plástico en morfologías variadas (desde envases de todo tipo a filmes, desde tuberías a redes de pesca). Para ello, esos transformadores toman esa granza, la funden a temperatura más o menos elevada y tras introducir el fundido en moldes, los enfrían para recuperar el objeto en cuestión.

Dado que la producción mundial de plástico anda por encima de los 400 millones de toneladas anuales, es lógico que las granzas se distribuyan a lo largo y ancho del mundo por tierra, mar y aire. Así que, como en otras actividades globales, parece lógico que se produzcan accidentes como el que nos ocupa, aunque deberían minimizarse en lo posible (luego hablaremos sobre el asunto).

Como consecuencia de la pérdida de seis contenedores en medio de una tormenta por parte de un buque llamado Toconao, uno de los cuales iba lleno de bolsas de granza, algunos medios han hablado de que millones de partículas de granza se han diseminado por las costas portuguesas y españolas. Otros hablan de decenas de millones. En realidad, este vuestro Búho, mediante un cálculo sencillo, puede deciros que bastante más.

Un grano de granza, en promedio y sea del plástico que sea, puede pesar entre 20-25 miligramos. La naviera que ha causado el problema y la Xunta están hablando de unos 1000-1100 sacos de 25 kg cada uno, lo que cuadra con el hecho de que la carga máxima habitual de los contenedores anda en torno a las 30 toneladas. Así que, redondeando y tirando por alto, podemos estimar en 30.000 kilos (30 toneladas) la granza transportada por el contenedor que se fue al mar. Considerando de nuevo el escenario más desfavorable (que una granza pese 20 mg), unas simples cuentas proporcionan que el contenedor ha podido diseminar un total de mil quinientos millones de pequeñas bolitas.

Aunque, todo hay que decirlo, no todas han acabado vagando por el mar. Hoy (10 de enero) he oído en RNE al alcalde de Cedeira decir que, solo en su pueblo, se habían recuperado 65 sacos íntegros.

Debido al rifirrafe político (y quizás a que todo el mundo andaba de vacaciones), no ha estado muy clara la composición química de esa granza hasta ayer día 9 de enero, cuando se conoció un informe pedido por la Xunta. Poco antes, y aunque a simple vista las fotos parecían indicar que se trataba de granza de polietileno, responsables políticos hablaban de polietilen tereftalato (PET), la granza que se usa para fabricar botellas. Pero había un pequeño problema con esa atribución, el PET es más denso que el agua salada del mar y, por tanto, ni la granza individual ni los sacos de granza podían flotar, cosa que ocurre con el polietileno.

La nota arriba mencionada, haciendo uso de las fichas técnica y de seguridad que obran en poder de la Xunta, nos aclaraba que la composición de esa granza era un 88-90% de polietileno mientras que el 10-12% restante era de un aditivo usado para proteger al polietileno de los rayos UV, aditivo conocido como UV622, a base de un compuesto químico de la familia de los HALS (Hindered Amine Light Stabilizers o Estabilizantes de Luz de Aminas Impedidas), compuestos con una larga tradición como aditivos poliméricos.

Antes de hablar sobre la posible toxicidad de esa granza, voy a hacer una precisión técnica. Cuando un estabilizante a la luz se emplea, por ejemplo, en un polietileno que se vaya a usar en la cubierta de un invernadero para proteger al plástico de los rayos del sol, la concentración de ese estabilizante en el filme no suele sobrepasar el 2%. Así que es razonable plantearse por qué, en la granza que nos ocupa, su concentración llega hasta al 10%. Pues probablemente (pero no tengo información para afirmarlo tajantemente) porque esa granza es lo que técnicamente se denomina un masterbatch. Muchas veces, los fabricantes de plástico venden mezclas de sus productos con aditivos como colorantes, protectores a la llama o estabilizantes a la luz (como es aquí el caso), en concentraciones relativamente elevadas. Luego, el transformador lo mezcla con más polímero virgen para conseguir los colores o las concentraciones que desee para su producto final.

Introducido el matiz anterior hay que decir que el polietileno es un plástico inerte que llevamos usando para todo tipo de usos y no hay muchas dudas sobre su posible seguridad. En cuanto al aditivo es, como ya he mencionado, conocido desde hace tiempo y, por el momento, no se han reportado estudios significativos sobre su toxicidad. Tiene además la peculiaridad de tener un peso molecular elevado (3000), lo que dificulta su migración desde el interior del plástico que lo contiene. Esto puede tener la ventaja de que tarde en migrar de la granza al agua, en la que además es muy poco soluble (del orden del miligramo por litro). Una descripción detallada de su toxicidad puede verse en esta hoja de seguridad, aunque fijándose en el producto cuya etiqueta CAS es 65447-77-0.

Hay una cuestión un tanto chusca que no me puedo resistir a comentar. En el informe publicado por la Xunta, al que hacía arriba referencia, el especialista firmante, en una corta línea, decía que la granza vertida era apta para uso alimentario a lo que, nada menos que el Secretario de Estado de Medio Ambiente, respondió diciendo que “El plástico no es comestible”. Y en las redes hubo gente que se sumó a ignorancia tan palmaria haciendo chistes sobre la posibilidad de hacer tortillas de granza.

Un plástico para uso alimentario es el que se puede poner en contacto con alimentos sin inconvenientes para la salud humana. En ese sentido, llevamos usando polietileno en forma de los famosos tupperwares desde hace 70 años y ya hemos mencionado que el aditivo HALS que lleva esa granza es de peso molecular alto lo que dificulta su migración. Además, el experto no hace sino recoger lo que dicen fichas técnicas como esta, en la que se dice que “las legislaciones de algunos países permite su uso como aditivo en envases de plástico para uso alimentario”. En cualquier caso, y por lo explicado arriba, no creo que esa granza iba destinada a la fabricación de recipientes o filmes para uso alimentario.

Como ocurre con cualquier vertido, lo importante es que no tendría que estar ahí y, por tanto, hay que hacer todo lo posible por revertir la situación a su estado previo. Aparte del impacto visual en las maravillosas playas gallegas, la fauna marina, peces y aves, pueden ingerir esa granza confundiéndola con posibles presas, lo que puede obstruir sus conductos gastrointestinales y causarles problemas de todo tipo, incluida la muerte, si no los logran expulsar, aunque la bibliografía es bastante clara en el sentido de que la mayoría de lo que ingieren se expulsa con las heces. Y, a pesar de lo que se dice en redes y en medios de comunicación, es difícil que una de esas granzas acabe en nosotros por comer pescado que lo contenga. Una de las labores de nuestros eficientes pescateros es eviscerar el pescado antes de venderlo.

En redes sociales y medios de comunicación se están comparando los vertidos de este contenedor con el del Prestige en 2002, hablándose ahora de marea blanca. La comparación no se sustenta en los datos que hasta ahora conocemos. En el desastre del Prestige se vertieron en torno a 70.000 toneladas de petróleo crudo, una compleja mezcla de hidrocarburos aromáticos, alifáticos y asfaltenos. Algunos volátiles y otros muy viscosos en los que los animales resultaban atrapados. Y muchos de ellos tóxicos o altamente tóxicos (como los hidrocarburos aromáticos) para la fauna marina e incluso para los humanos (las afecciones entre las brigadas de limpieza están bien documentadas). Aquí estamos hablando de menos de 30 toneladas de un material cuya composición química es muy concreta y poco peligrosa, como hemos mencionado arriba, por lo que es difícil que afecten a los que ahora se están empeñando en su recogida.

A pesar de lo que ayer decía en El País un activista medioambiental sobre que la granza “se transporta como si fuera arroz” y que ese transporte no está regulado, lo cierto es que el problema de los vertidos de granza en el mar es algo que preocupa a las Instituciones desde finales de los 60 cuando, en las playas americanas, la granza empezó a hacer su irrupción. Incluida desde 2004 en el término general de Microplásticos, lo cierto es que su contribución a la basura marina así denominada es actualmente un porcentaje muy pequeño, que no llega al 1%.

La aparición de granza estuvo en los orígenes de lo que hoy se conoce como Convención OSPAR, un mecanismo por el que 15 gobiernos y la UE cooperan para proteger el medio marino en el entorno del Atlántico nororiental. OSPAR comenzó en 1972 con la Convención de Oslo contra vertidos por parte de las flotas y se amplió para abarcar las fuentes terrestres de contaminación marina mediante el Convenio de París de 1974. Estos dos convenios fueron unificados, actualizados y ampliados por la Convención OSPAR de 1992.

Entre los objetivos de la OSPAR está el conseguir que sus medidas hagan que, en el plazo más breve posible, solo el 10% de los fúlmares del Norte o petreles (un pájaro usado como “chivato” de la contaminación en ese área geográfica) tengan en su tracto gastrointestinal más de 100 miligramos de microplásticos de todo tipo (incluida la granza) por individuo. Un reciente artículo (2021) estimaba que ahora debemos andar por un 50% de los petreles superando esos 100 miligramos, con un contenido medio de 260 miligramos por pájaro, pero los datos evidencian un progresivo descenso de ese porcentaje de fúlmares con microplásticos.

Por otro lado, este pasado octubre, la Comisión Europea presentó una propuesta para prevenir los vertidos de granza plástica, como forma de reducir la contaminación general de microplásticos.

Y creo que, por ahora, no me he dejado nada de las cosas que he ido acumulando y os quería contar. Como os decía arriba, quizás lo vaya actualizando con las noticias que se produzcan y, siempre que sea capaz de hacerlo, estaré encantado de contestar a vuestras preguntas, si me las dejáis en los comentarios.

Leer mas...

miércoles, 27 de diciembre de 2023

Combustibles sintéticos


Al Búho siempre le han gustado los coches. Y las competiciones automovilísticas. Conozco varios circuitos de Formula 1 en Europa. He seguido en directo rallyes del Campeonato del Mundo como el de Córcega, así como los más afamados entre los españoles. Tengo hasta una Play Station en la que “conduzco” en pruebas de ese Campeonato. Y soy forofo de Carlos Sainz desde los tiempos en los que el madrileño conducía un Seat Panda por las carreteras de la Gipuzkoa profunda o le vi entrenar un rally de tierra en las Alpujarras. Así que no es de extrañar que hile un relato sobre los combustibles sintéticos (conocidos como e-fuels) con ocasión de una nueva edición del Dakar que empieza el próximo día 5 de enero. En territorio de los saudíes, que lo mismo se compran un equipo de fútbol que contratan a Jon Rahm o a un científico de cierto relieve.

En el Dakar de este año participa un coche pilotado por la española Laia Sanz dentro del equipo Astara, coche que tiene la peculiaridad de estar propulsado por un combustible sintético. En el mismo intento de demostrar que estos eventos son sostenibles (ahí es nada), Don Carlos pilotará un Audi eléctrico.

Los combustibles sintéticos o e-fuels son combustibles resultantes de la combinación de hidrógeno verde (producido merced a la electrolisis del agua usando electricidad renovable) y CO2 capturado, ya sea de una fuente con alta concentración del mismo (por ejemplo, gases de combustión de un sitio industrial) o del aire (a través de la captura directa de aire, DAC, de lo que hablamos hace poco). Se proclama que este tipo de combustibles, a diferencia de los combustibles convencionales, no liberan CO2 adicional (ya que lo que se captura es lo que luego se produce y expulsa).

En realidad, hay toda una gama de posibilidades a la hora de obtener combustibles sintéticos de las fuentes arriba mencionadas. Se puede obtener metano sintético (similar al gas natural) o líquidos como el metanol o el amoníaco sintéticos, también utilizados como combustibles. Pero aquí nos vamos a centrar en los combustibles sintéticos líquidos similares a la gasolina, el gasóleo o el keroseno de los aviones, tradicionalmente obtenidos a partir del petróleo.

Esos combustibles líquidos sintéticos son compatibles con los motores de combustión interna actuales, así que pueden emplearse en vehículos, aviones y barcos, lo que permitiría seguir usándolos pero de forma respetuosa con el clima. De hecho, la industria aeronáutica es la que más interesada está en el tema, porque son conscientes de que tienen muy complicado volar grandes aviones a grandes distancias usando baterías, que pesarían mucho. Esa gama de combustibles pueden usarse igualmente en los sistemas de calefacción actuales y también se seguirían pudiendo utilizar las existentes infraestructuras de transporte y distribución de los mismos.

Todo muy bonito. Pero hasta llegar a alimentar coches, camiones, barcos o aviones, el proceso de obtención de esos combustibles sintéticos es un largo camino y, al menos por ahora, muy caro. Necesitaremos de una serie de infraestructuras y procesos, algunos ya existentes y con ciertos grados de madurez pero otros muy lejos de ella.

Necesitaremos, en primer lugar, fuentes de energía eléctrica renovable (eólica, fotovoltaica, hidroeléctrica…) con la que alimentar los electrolizadores que nos ayuden a producir el imprescindible hidrógeno verde a partir de agua. Puede que el agua no abunde allí donde esté esa planta de electrolisis, con lo que necesitaremos contar con una planta desalinizadora para producir agua dulce de pureza suficiente para la electrolisis. Un proceso que consume mucha energía, que tendría que ser también de origen renovable.

En cuanto al CO2 necesario, al tener que provenir de una fuente renovable y como ya hemos adelantado arriba, no nos quedará otro remedio que capturarlo de grandes emisores o del propio aire. Es una manera de disminuir sus emisiones pero, aunque la tecnología necesaria para ello se conoce y está bastante madura, no deja de tener grandes problemas para su implantación a los niveles de CO2 necesarios para los fines que aquí nos ocupan.

Y con ese hidrógeno y ese CO2 a nuestra disposición, no deja de ser paradójico que el siguiente paso hacia los combustibles sintéticos sea el uso de una aproximación similar a la que los alemanes ya usaron en la segunda guerra mundial para paliar su incapacidad de proveerse del petróleo necesario para los combustibles que necesitaban. En ella, el hidrógeno se combinará primero con el CO2 para generar agua y monóxido de carbono (CO). Este CO con más hidrógeno (el llamado gas de síntesis) se utilizará para producir una mezcla de hidrocarburos, mediante el proceso denominado Fischer-Tropsch, que data de mediados de los años veinte.

Esa mezcla de hidrocarburos es de similar complejidad a la que existe en el petróleo bruto y puede verse en la figura, que podéis ampliar clicando sobre ella. Así que igual que ha hecho la industria petroquímica convencional con el petróleo, deberemos craquear (romper los hidrocarburos más grandes en otros más pequeños), destilar la mezcla resultante y separar así de esa mezcla los combustibles fósiles adecuados a un motor de gasolina o de gasoil o a las turbinas de un avión.


Luego hay, por el momento, una serie de incógnitas en lo que a problemas logísticos se refiere. Como el de ver dónde se producirían las vastas cantidades de energía renovable y de hidrógeno verde necesarios para sintetizar los nuevos combustibles. En lo tocante a la energía renovable, todo apunta a países en los que se disponga de lugares muy ventosos o de amplias extensiones muy soleadas durante todo el año lo que, en muchos casos y en un entrono próximo a Europa, implica a amplias zonas de Africa, Oriente Medio, etc. Así que no sé si vamos a cambiar mucho la geopolítica de los combustibles. Y, además, lo razonable sería montar los electrolizadores para producir hidrógeno verde lo más cerca posible a esas instalaciones de generación de energía renovable.

Y luego habría que distribuirlo a las plantas que operen el proceso Fischer-Tropsch. Dicha distribución plantea muchos problemas si quisiéramos aprovechar los gaseoductos ya existentes, porque dado el pequeño pequeño tamaño molecular de ese gas, es capaz de fragilizar a metales y aleaciones haciéndoles perder su inherente ductilidad. Y no quiero hacer esto muy largo pero, en lo relativo a la captura, el almacenamiento y transporte de la segunda pata de la reacción de Fischer-Tropsch (el CO2), también hay cosas que no están del todo claras.

Así que puede que haya muchas oportunidades para los combustibles sintéticos pero también muchos retos, algunos de los cuales me parecen, por el momento, difíciles de solucionar. Y más en el corto espacio de tiempo en el que se pretende que sustituyan a los combustibles tradicionales. Sin contar con que los activistas climáticos no quieren ni oír hablar de la solución, al entender que es una apuesta de las grandes petroleras para salvar su negocio y retardar además los objetivos de erradicar del panorama energético el uso de combustibles fósiles lo antes posible.

Como ya os dicho otras veces, lo que me da pena es no poder ver en qué queda la cosa, porque antes de que ocurra volveré a ser polvo de estrellas. En realidad, es que nací demasiado pronto.

Y como es Navidad, disfrutad de este precioso tema de John Williams de la película La lista de Schindler, interpretado por Itzhak Perlman junto con la Filarmónica de Los Angeles dirigida por Gustavo Dudamel. Un regalo del Búho para todos. Nos vemos en el 2024.

Leer mas...

lunes, 11 de diciembre de 2023

Vino y reduccionismo

Estas últimas semanas he estado muy ocupado como “charlatán” divulgador. En una de esas charlas hablé sobre la composición química del vino. Composición que puede resumirse en un 85% de agua, un 13% de alcohol y un parco 2% donde están todas las sutiles diferencias de los millones de vinos que se comercializan, sutilezas proporcionadas por cientos de moléculas químicas, la gran mayoría presentes en cantidades ridículas. Y que a medida que se fueron descubriendo, merced sobre todo a modernas técnicas analíticas, han ido planteando nuevos interrogantes sobre su intrincado papel en la percepción olfativa de un buen caldo que, creen los entendidos, todavía estamos lejos de entender del todo.

Aunque los humanos llevamos haciendo vino desde tiempos del Neolítico (hace siete mil años), la aparición de los incipientes microscopios y el descubrimiento gracias a ellos y a Pasteur (1858) de las bacterias formadoras de ácido acético (vinagre) y su papel, junto con otros microorganismos (levaduras, enzimas) en la crianza del vino, marcan el inicio de la Ciencia del vino. Mas tarde, la Ley de los Alimentos y Fármacos Puros (The Pure Food and Drug Acta) de 1906, promulgada por el presidente Theodore Roosevelt para proteger a sus ciudadanos de prácticas fraudulentas en su comercialización, ley que incluía al vino y otras bebidas alcohólicas, permitió a la FDA americana perseguir ciertos fraudes que se daban en el vino.

Y merced a ella y otros imperativos, se hizo cada vez más importante para los vinicultores confiar en la Ciencia, además de en el “arte” y el azar, para elaborar cada vez mejor sus productos. Para lo que se utilizaron cada vez más métodos analíticos, incrementando la disponibilidad de técnicas que permitían determinar parámetros como la densidad, la cantidad de azúcar, el pH, la cantidad de alcohol, etc, muchos de los cuales siguen vigentes.

Es importante puntualizar, además, que entonces y ahora los análisis químicos y microbiológicos complementan al llamado análisis sensorial, descripción del vino que hacen los catadores profesionales. La nariz humana ha sido y es decisiva a la hora de detectar aromas en cantidades ridículas. Y no solo en el ámbito del vino. Os recuerdo el caso del oculto aroma de la rosa damascena. Incluso en comparación con muchas técnicas analíticas de última generación, una nariz bien entrenada es capaz de detectar compuestos en concentraciones similares a ellas. La única condición es que la concentración del aroma que llegue a la nariz esté por encima de una concentración umbral, que puede ser muy diferente dependiendo de la sustancia química que genere el aroma.

Desde el advenimiento de la técnica denominada Cromatografía de Gases en los años 50 y sobre todo de la llamada Espectrometría de Masas en los 90 y la combinación de ambas, son muchos los grupos de investigación que han dedicado su esfuerzo a conocer la composición cualitativa y cuantitativa del vino hasta niveles tan pequeños como los nanogramos por litro. Para finales de los años ochenta se habían identificado más de 800 sustancias volátiles en los aromas de los vinos. Cuando se generalizó el uso de esas técnicas analíticas, se tuvo la sensación de que, merced al conocimiento de la mayoría de los componentes existentes en ese 2% del vino del que hablábamos arriba, podríamos entender el lenguaje de los catadores o incluso permitirnos crear vinos artificiales de diseño que pudieran competir en el mercado. Es una idea reduccionista, similar a la de pretender comprender un determinado material a partir de los elementos químicos que lo componen, de lo que hablaremos al final. En uno y otro caso nada más lejos de la realidad.

Porque enseguida fue siendo evidente que la simple reducción del vino a su composición cualitativa y cuantitativa (cuántas sustancias químicas y en qué proporción en él se encuentran) no implicaba el ser capaces de explicar toda la complejidad que algunas narices expertas son capaces de describir. Y ello estuvo todavía más claro cuando, bien entrados los años noventa, apareció una modificación de la cromatografía de gases a la que se puso el adjetivo de olfatométrica, técnica de la que ya os hablé en su momento.

En ella, unos microlitros de vino se arrastran con un gas a través de la llamada columna cromatográfica, el verdadero corazón de la técnica. Los diversos componentes contenidos en el vino interaccionan de forma diferente con el revestimiento interno de la columna, se “entretienen” más o menos en su interior y, como consecuencia, salen a diferentes tiempos del aparato. Y a la salida, tras registrar el número de diferentes sustancias que van saliendo y su proporción relativa, se encuentra un dispositivo que permite colocar la experta nariz de un catador entrenado que detecta a qué huele la sustancia que sale del aparato en cada preciso momento. Y que puede describir como olor a  fresa, plátano, mantequilla, etc..

Y con esta combinación de una técnica analítica con una entrenada nariz, se ha podido llegar a interesantes conclusiones que ilustran la complejidad sensorial del vino. Y dar lugar a las variadas sorpresas que se han ido llevando, a lo largo de los años, gentes como las que forman el Grupo de Análisis de Aromas y Enología del Departamento de Química Analítica de la Universidad de Zaragoza, en la que me formé como químico. El que esté interesado en una idea inicial de esa complejidad puede recurrir a uno de sus artículos, que lleva mucho tiempo en mis archivos y que utilicé para preparar la charla sobre el vino que mencionaba al principio.

La idea fundamental es que las diferentes sustancias químicas del vino interaccionan entre ellas y dan lugar a nuevos matices que los expertos catadores perciben y describen. Esas mismas interacciones hacen que la adición deliberada al vino de ciertos aromas individuales, por encima de la concentración umbral antes descrita y, por tanto, detectables por los catadores, les pasen desapercibidos. Es como si los componentes presentes, amortiguaran el efecto de la adición de ese componente extra. Y por ello, y de forma parecida al comportamiento del pH de una disolución cuando se adiciona un ácido o una base, se habla de efecto amortiguador o tampón (esto les va a encantar a los químicos).

También se ha podido comprobar que entre las sustancias pertenecientes a una misma familia química pueden darse efectos sinérgicos, de forma y manera que un grupo determinado de sustancias, cada una de las cuales se encuentra en cantidades por debajo de la concentración umbral para su detección por los catadores, sumen sus contribuciones y hagan que el vino huela a aromas característicos, ya sean propios de esa familia de sustancias o no. O que otras interacciones hagan que ciertos aromas se anulen entre sí. Por ejemplo, sustancias con azufre en su molécula rebajan o eliminan el olor a plátano de un éster muy común en los vinos, el acetato de isoamilo.

Philip W. Anderson (premio Nobel de Física 1977), en un famoso artículo publicado en Science en 1972, titulado “More is different”, hablaba de la errónea percepción de los físicos de la época, según la cual el bajar hasta el límite en el conocimiento de las partículas elementales que componen la materia y las leyes que las rigen, nos permitiría empezar a “construir” desde esos niveles las propiedades de materiales muy complejos o, incluso, del universo. Frente a esa idea, Anderson argumentaba que “el comportamiento de grandes agregados de partículas elementales no puede ser entendido como una simple extrapolación de las propiedades de unas pocas partículas”.

Pedro Miguel Etxenike, en su conferencia de ingreso como Académico de la Real Academia de Ciencias Exactas, Físicas y Naturales en 2017 y citando ese artículo de su amigo Phil Anderson, apostillaba que “nuestro entorno ordinario nos ofrece el más sencillo e importante laboratorio para el estudio de lo que se ha llamado propiedades emergentes, esas propiedades de los objetos, incluidos nosotros, que no están contenidos en nuestra descripción microscópica: por supuesto la consciencia y la vida pero también propiedades muy sencillas como la rigidez, la superconductividad, la superfluidez o el ferromagnetismo”.

Quizás el vino sea un humilde ejemplo de sistemas complejos con propiedades emergentes en ese entorno ordinario del que Pedro Miguel hablaba. O igual me llama a capítulo por el atrevimiento.

Leer mas...

Powered By Blogger