miércoles, 27 de diciembre de 2023

Combustibles sintéticos


Al Búho siempre le han gustado los coches. Y las competiciones automovilísticas. Conozco varios circuitos de Formula 1 en Europa. He seguido en directo rallyes del Campeonato del Mundo como el de Córcega, así como los más afamados entre los españoles. Tengo hasta una Play Station en la que “conduzco” en pruebas de ese Campeonato. Y soy forofo de Carlos Sainz desde los tiempos en los que el madrileño conducía un Seat Panda por las carreteras de la Gipuzkoa profunda o le vi entrenar un rally de tierra en las Alpujarras. Así que no es de extrañar que hile un relato sobre los combustibles sintéticos (conocidos como e-fuels) con ocasión de una nueva edición del Dakar que empieza el próximo día 5 de enero. En territorio de los saudíes, que lo mismo se compran un equipo de fútbol que contratan a Jon Rahm o a un científico de cierto relieve.

En el Dakar de este año participa un coche pilotado por la española Laia Sanz dentro del equipo Astara, coche que tiene la peculiaridad de estar propulsado por un combustible sintético. En el mismo intento de demostrar que estos eventos son sostenibles (ahí es nada), Don Carlos pilotará un Audi eléctrico.

Los combustibles sintéticos o e-fuels son combustibles resultantes de la combinación de hidrógeno verde (producido merced a la electrolisis del agua usando electricidad renovable) y CO2 capturado, ya sea de una fuente con alta concentración del mismo (por ejemplo, gases de combustión de un sitio industrial) o del aire (a través de la captura directa de aire, DAC, de lo que hablamos hace poco). Se proclama que este tipo de combustibles, a diferencia de los combustibles convencionales, no liberan CO2 adicional (ya que lo que se captura es lo que luego se produce y expulsa).

En realidad, hay toda una gama de posibilidades a la hora de obtener combustibles sintéticos de las fuentes arriba mencionadas. Se puede obtener metano sintético (similar al gas natural) o líquidos como el metanol o el amoníaco sintéticos, también utilizados como combustibles. Pero aquí nos vamos a centrar en los combustibles sintéticos líquidos similares a la gasolina, el gasóleo o el keroseno de los aviones, tradicionalmente obtenidos a partir del petróleo.

Esos combustibles líquidos sintéticos son compatibles con los motores de combustión interna actuales, así que pueden emplearse en vehículos, aviones y barcos, lo que permitiría seguir usándolos pero de forma respetuosa con el clima. De hecho, la industria aeronáutica es la que más interesada está en el tema, porque son conscientes de que tienen muy complicado volar grandes aviones a grandes distancias usando baterías, que pesarían mucho. Esa gama de combustibles pueden usarse igualmente en los sistemas de calefacción actuales y también se seguirían pudiendo utilizar las existentes infraestructuras de transporte y distribución de los mismos.

Todo muy bonito. Pero hasta llegar a alimentar coches, camiones, barcos o aviones, el proceso de obtención de esos combustibles sintéticos es un largo camino y, al menos por ahora, muy caro. Necesitaremos de una serie de infraestructuras y procesos, algunos ya existentes y con ciertos grados de madurez pero otros muy lejos de ella.

Necesitaremos, en primer lugar, fuentes de energía eléctrica renovable (eólica, fotovoltaica, hidroeléctrica…) con la que alimentar los electrolizadores que nos ayuden a producir el imprescindible hidrógeno verde a partir de agua. Puede que el agua no abunde allí donde esté esa planta de electrolisis, con lo que necesitaremos contar con una planta desalinizadora para producir agua dulce de pureza suficiente para la electrolisis. Un proceso que consume mucha energía, que tendría que ser también de origen renovable.

En cuanto al CO2 necesario, al tener que provenir de una fuente renovable y como ya hemos adelantado arriba, no nos quedará otro remedio que capturarlo de grandes emisores o del propio aire. Es una manera de disminuir sus emisiones pero, aunque la tecnología necesaria para ello se conoce y está bastante madura, no deja de tener grandes problemas para su implantación a los niveles de CO2 necesarios para los fines que aquí nos ocupan.

Y con ese hidrógeno y ese CO2 a nuestra disposición, no deja de ser paradójico que el siguiente paso hacia los combustibles sintéticos sea el uso de una aproximación similar a la que los alemanes ya usaron en la segunda guerra mundial para paliar su incapacidad de proveerse del petróleo necesario para los combustibles que necesitaban. En ella, el hidrógeno se combinará primero con el CO2 para generar agua y monóxido de carbono (CO). Este CO con más hidrógeno (el llamado gas de síntesis) se utilizará para producir una mezcla de hidrocarburos, mediante el proceso denominado Fischer-Tropsch, que data de mediados de los años veinte.

Esa mezcla de hidrocarburos es de similar complejidad a la que existe en el petróleo bruto y puede verse en la figura, que podéis ampliar clicando sobre ella. Así que igual que ha hecho la industria petroquímica convencional con el petróleo, deberemos craquear (romper los hidrocarburos más grandes en otros más pequeños), destilar la mezcla resultante y separar así de esa mezcla los combustibles fósiles adecuados a un motor de gasolina o de gasoil o a las turbinas de un avión.


Luego hay, por el momento, una serie de incógnitas en lo que a problemas logísticos se refiere. Como el de ver dónde se producirían las vastas cantidades de energía renovable y de hidrógeno verde necesarios para sintetizar los nuevos combustibles. En lo tocante a la energía renovable, todo apunta a países en los que se disponga de lugares muy ventosos o de amplias extensiones muy soleadas durante todo el año lo que, en muchos casos y en un entrono próximo a Europa, implica a amplias zonas de Africa, Oriente Medio, etc. Así que no sé si vamos a cambiar mucho la geopolítica de los combustibles. Y, además, lo razonable sería montar los electrolizadores para producir hidrógeno verde lo más cerca posible a esas instalaciones de generación de energía renovable.

Y luego habría que distribuirlo a las plantas que operen el proceso Fischer-Tropsch. Dicha distribución plantea muchos problemas si quisiéramos aprovechar los gaseoductos ya existentes, porque dado el pequeño pequeño tamaño molecular de ese gas, es capaz de fragilizar a metales y aleaciones haciéndoles perder su inherente ductilidad. Y no quiero hacer esto muy largo pero, en lo relativo a la captura, el almacenamiento y transporte de la segunda pata de la reacción de Fischer-Tropsch (el CO2), también hay cosas que no están del todo claras.

Así que puede que haya muchas oportunidades para los combustibles sintéticos pero también muchos retos, algunos de los cuales me parecen, por el momento, difíciles de solucionar. Y más en el corto espacio de tiempo en el que se pretende que sustituyan a los combustibles tradicionales. Sin contar con que los activistas climáticos no quieren ni oír hablar de la solución, al entender que es una apuesta de las grandes petroleras para salvar su negocio y retardar además los objetivos de erradicar del panorama energético el uso de combustibles fósiles lo antes posible.

Como ya os dicho otras veces, lo que me da pena es no poder ver en qué queda la cosa, porque antes de que ocurra volveré a ser polvo de estrellas. En realidad, es que nací demasiado pronto.

Y como es Navidad, disfrutad de este precioso tema de John Williams de la película La lista de Schindler, interpretado por Itzhak Perlman junto con la Filarmónica de Los Angeles dirigida por Gustavo Dudamel. Un regalo del Búho para todos. Nos vemos en el 2024.

Leer mas...

lunes, 11 de diciembre de 2023

Vino y reduccionismo

Estas últimas semanas he estado muy ocupado como “charlatán” divulgador. En una de esas charlas hablé sobre la composición química del vino. Composición que puede resumirse en un 85% de agua, un 13% de alcohol y un parco 2% donde están todas las sutiles diferencias de los millones de vinos que se comercializan, sutilezas proporcionadas por cientos de moléculas químicas, la gran mayoría presentes en cantidades ridículas. Y que a medida que se fueron descubriendo, merced sobre todo a modernas técnicas analíticas, han ido planteando nuevos interrogantes sobre su intrincado papel en la percepción olfativa de un buen caldo que, creen los entendidos, todavía estamos lejos de entender del todo.

Aunque los humanos llevamos haciendo vino desde tiempos del Neolítico (hace siete mil años), la aparición de los incipientes microscopios y el descubrimiento gracias a ellos y a Pasteur (1858) de las bacterias formadoras de ácido acético (vinagre) y su papel, junto con otros microorganismos (levaduras, enzimas) en la crianza del vino, marcan el inicio de la Ciencia del vino. Mas tarde, la Ley de los Alimentos y Fármacos Puros (The Pure Food and Drug Acta) de 1906, promulgada por el presidente Theodore Roosevelt para proteger a sus ciudadanos de prácticas fraudulentas en su comercialización, ley que incluía al vino y otras bebidas alcohólicas, permitió a la FDA americana perseguir ciertos fraudes que se daban en el vino.

Y merced a ella y otros imperativos, se hizo cada vez más importante para los vinicultores confiar en la Ciencia, además de en el “arte” y el azar, para elaborar cada vez mejor sus productos. Para lo que se utilizaron cada vez más métodos analíticos, incrementando la disponibilidad de técnicas que permitían determinar parámetros como la densidad, la cantidad de azúcar, el pH, la cantidad de alcohol, etc, muchos de los cuales siguen vigentes.

Es importante puntualizar, además, que entonces y ahora los análisis químicos y microbiológicos complementan al llamado análisis sensorial, descripción del vino que hacen los catadores profesionales. La nariz humana ha sido y es decisiva a la hora de detectar aromas en cantidades ridículas. Y no solo en el ámbito del vino. Os recuerdo el caso del oculto aroma de la rosa damascena. Incluso en comparación con muchas técnicas analíticas de última generación, una nariz bien entrenada es capaz de detectar compuestos en concentraciones similares a ellas. La única condición es que la concentración del aroma que llegue a la nariz esté por encima de una concentración umbral, que puede ser muy diferente dependiendo de la sustancia química que genere el aroma.

Desde el advenimiento de la técnica denominada Cromatografía de Gases en los años 50 y sobre todo de la llamada Espectrometría de Masas en los 90 y la combinación de ambas, son muchos los grupos de investigación que han dedicado su esfuerzo a conocer la composición cualitativa y cuantitativa del vino hasta niveles tan pequeños como los nanogramos por litro. Para finales de los años ochenta se habían identificado más de 800 sustancias volátiles en los aromas de los vinos. Cuando se generalizó el uso de esas técnicas analíticas, se tuvo la sensación de que, merced al conocimiento de la mayoría de los componentes existentes en ese 2% del vino del que hablábamos arriba, podríamos entender el lenguaje de los catadores o incluso permitirnos crear vinos artificiales de diseño que pudieran competir en el mercado. Es una idea reduccionista, similar a la de pretender comprender un determinado material a partir de los elementos químicos que lo componen, de lo que hablaremos al final. En uno y otro caso nada más lejos de la realidad.

Porque enseguida fue siendo evidente que la simple reducción del vino a su composición cualitativa y cuantitativa (cuántas sustancias químicas y en qué proporción en él se encuentran) no implicaba el ser capaces de explicar toda la complejidad que algunas narices expertas son capaces de describir. Y ello estuvo todavía más claro cuando, bien entrados los años noventa, apareció una modificación de la cromatografía de gases a la que se puso el adjetivo de olfatométrica, técnica de la que ya os hablé en su momento.

En ella, unos microlitros de vino se arrastran con un gas a través de la llamada columna cromatográfica, el verdadero corazón de la técnica. Los diversos componentes contenidos en el vino interaccionan de forma diferente con el revestimiento interno de la columna, se “entretienen” más o menos en su interior y, como consecuencia, salen a diferentes tiempos del aparato. Y a la salida, tras registrar el número de diferentes sustancias que van saliendo y su proporción relativa, se encuentra un dispositivo que permite colocar la experta nariz de un catador entrenado que detecta a qué huele la sustancia que sale del aparato en cada preciso momento. Y que puede describir como olor a  fresa, plátano, mantequilla, etc..

Y con esta combinación de una técnica analítica con una entrenada nariz, se ha podido llegar a interesantes conclusiones que ilustran la complejidad sensorial del vino. Y dar lugar a las variadas sorpresas que se han ido llevando, a lo largo de los años, gentes como las que forman el Grupo de Análisis de Aromas y Enología del Departamento de Química Analítica de la Universidad de Zaragoza, en la que me formé como químico. El que esté interesado en una idea inicial de esa complejidad puede recurrir a uno de sus artículos, que lleva mucho tiempo en mis archivos y que utilicé para preparar la charla sobre el vino que mencionaba al principio.

La idea fundamental es que las diferentes sustancias químicas del vino interaccionan entre ellas y dan lugar a nuevos matices que los expertos catadores perciben y describen. Esas mismas interacciones hacen que la adición deliberada al vino de ciertos aromas individuales, por encima de la concentración umbral antes descrita y, por tanto, detectables por los catadores, les pasen desapercibidos. Es como si los componentes presentes, amortiguaran el efecto de la adición de ese componente extra. Y por ello, y de forma parecida al comportamiento del pH de una disolución cuando se adiciona un ácido o una base, se habla de efecto amortiguador o tampón (esto les va a encantar a los químicos).

También se ha podido comprobar que entre las sustancias pertenecientes a una misma familia química pueden darse efectos sinérgicos, de forma y manera que un grupo determinado de sustancias, cada una de las cuales se encuentra en cantidades por debajo de la concentración umbral para su detección por los catadores, sumen sus contribuciones y hagan que el vino huela a aromas característicos, ya sean propios de esa familia de sustancias o no. O que otras interacciones hagan que ciertos aromas se anulen entre sí. Por ejemplo, sustancias con azufre en su molécula rebajan o eliminan el olor a plátano de un éster muy común en los vinos, el acetato de isoamilo.

Philip W. Anderson (premio Nobel de Física 1977), en un famoso artículo publicado en Science en 1972, titulado “More is different”, hablaba de la errónea percepción de los físicos de la época, según la cual el bajar hasta el límite en el conocimiento de las partículas elementales que componen la materia y las leyes que las rigen, nos permitiría empezar a “construir” desde esos niveles las propiedades de materiales muy complejos o, incluso, del universo. Frente a esa idea, Anderson argumentaba que “el comportamiento de grandes agregados de partículas elementales no puede ser entendido como una simple extrapolación de las propiedades de unas pocas partículas”.

Pedro Miguel Etxenike, en su conferencia de ingreso como Académico de la Real Academia de Ciencias Exactas, Físicas y Naturales en 2017 y citando ese artículo de su amigo Phil Anderson, apostillaba que “nuestro entorno ordinario nos ofrece el más sencillo e importante laboratorio para el estudio de lo que se ha llamado propiedades emergentes, esas propiedades de los objetos, incluidos nosotros, que no están contenidos en nuestra descripción microscópica: por supuesto la consciencia y la vida pero también propiedades muy sencillas como la rigidez, la superconductividad, la superfluidez o el ferromagnetismo”.

Quizás el vino sea un humilde ejemplo de sistemas complejos con propiedades emergentes en ese entorno ordinario del que Pedro Miguel hablaba. O igual me llama a capítulo por el atrevimiento.

Leer mas...

martes, 28 de noviembre de 2023

A los Bioplásticos les crecen los problemas

A finales de setiembre de este año, los medios de comunicación españoles se hicieron eco de una nota de prensa del Consejo Superior de Investigaciones Científicas (CSIC) en la que se anunciaba la publicación de un artículo de uno de sus Centros (IDAEA en Barcelona) en el que se comparaba la toxicidad de las bolsas fabricadas a base de plásticos compostables con la de las bolsas de plástico convencionales. El artículo es uno más, y no particularmente relevante, de una serie de otros que han ido apareciendo recientemente sobre la toxicidad de los llamados genéricamente Bioplásticos.

Hace ahora tres años, en una entrada sobre esos materiales, me hacía eco de un artículo en el New York Times del conocido periodista en cuestiones medioambientales, John Schwartz, titulado "Por qué biodegradable no es lo que tú piensas". La tesis de ese artículo era que algunos de los envases de plástico con etiquetas “bio” o “verde”, solo se degradan bajo especiales condiciones y que, en algunos casos, pueden llegar a complicar el reciclado de los plásticos convencionales, hoy por hoy mucho más abundantes a nivel global (casi 400 MM de toneladas anuales frente a 2.2 MM de toneladas de los Bioplásticos).

Aprovechaba esa entrada en mi Blog para dejar bien establecidas las diferencias entre los diferentes miembros de la familia de los Bioplásticos. Un 48% de ellos son plásticos derivados de la biomasa pero no degradables, un buen ejemplo de los cuales es el Bio-polietileno (Bio-PE), obtenido a partir de caña de azúcar pero que, al final, es polietileno como el sintético y, por tanto, no biodegradable por muy biomasa que sea su origen.

El otro 52% de esos Bioplásticos son plásticos biodegradables y/o compostables. Obtenidos de la biomasa o puramente sintéticos (cosa que a alguno le  extrañará), todos los compostables son biodegradables pero no todos los biodegradables pueden compostarse. Quien quiera más detalles, puede pasarse por la entrada del Blog arriba enlazada.

Entre las referencias citadas por el artículo del IDAEA-CSIC, las tres última corresponden a tres trabajos publicados por un grupo de investigadores alemanes y noruegos que, a mi entender, son estudios más completos que el del CSIC. Particularmente me voy a servir de uno de 2020, que incluye un número mayor de Bioplásticos comerciales (hasta 42), utiliza técnicas analíticas de última generación y me sirve igual que el del CSIC para fundamentar lo que quiero contar aquí.

En cualquier caso, uno y otro artículo dan una vuelta de tuerca más a las pegas de Schwartz a los Bioplásticos y nos transmiten la idea de que, desde el punto de vista de la toxicidad (algo en lo que Schwartz no entraba), los plásticos biodegradables y compostables, presentes ahora en forma de bolsas en muchos supermercados, quizás sean tan tóxicos (y algunos probablemente más) que los plásticos convencionales, como el más modesto de los polietilenos empleado en bolsas de compra y bolsas de basura de toda la vida.

Y he recalcado el quizás del párrafo anterior porque es muy importante aclarar ya desde el principio que, en ese tipo de estudios y como fase inicial, se realiza una extracción con metanol en las muestras de los plásticos estudiadas, a la búsqueda de aquellas sustancias contenidas en el plástico y que no tienen carácter de tal. Los mismos autores reconocen que empezar así es el peor de los escenarios posibles, porque estamos extrayendo muchas cosas que, probablemente, nunca saldrían del plástico en condiciones de uso realistas, como puedan ser su empleo como filmes, envases o piezas de plástico de todo tipo que, casi nunca, están en contacto con metanol. Pero el metanol es un eficaz medio para extraer todo lo que acompaña al plástico.

En el trabajo de los noruegos y alemanes, haciendo uso de una de las técnicas analíticas más potentes que tenemos los químicos hoy en día, la conocida con el acrónimo UPLC-QTOF-MS/M, se separan los posibles componentes extraídos por el metanol en cada Bioplástico investigado. Y, adicionalmente, se hacen una serie de ensayos biológicos “in vitro” con los diversos extractos en metanol, para evaluar la toxicidad de los mismos.

La UPLC-QTOF-MS/M arriba mencionada permitió a los investigadores detectar mas de 43.000 compuestos químicos en los extractos de metanol de las 42 muestras de Bioplásticos estudiados. En el caso de los Bioplásticos a base de celulosa y almidón, se detectaron hasta 20.000 compuestos diferentes. Otra peculiaridad es que cada muestra de un mismo plástico, era muy distinta de sus hermanas. Por ejemplo, en diez muestras de ácido poliláctico (PLA) investigadas, el número de sustancias detectadas oscilaba entre 880 y 17.000. En cualquier caso, los polímeros basados en plantas, como los fabricados a partir de almidón y celulosa, eran los que más sustancias químicas presentaban.

La mayoría de esos compuestos químicos que han dejado su “firma” en los experimentos con la mencionada técnica no se pudieron identificar químicamente, es decir, no se sabe exactamente qué son. Uno pudiera pensar que esas sustancias son aditivos que se adicionan generalmente a los Bioplásticos para mejorar algunas de sus deficientes propiedades. Ese sería, por ejemplo, el caso de los Bioplásticos a base de almidón que se aditivan en porcentajes importantes para poder fabricar objetos útiles con ellos (es lo que se denomina almidón termoplástico o TPS). Pero eso no es así. Aunque se pudieron identificar algunos aditivos como plastificantes, antioxidantes, etc., la mayoría de las pocas sustancias identificadas no tienen características de aditivo alguno. Así que los autores sugieren que algunos de esos compuestos identificados en estos Bioplásticos derivados de plantas, pudieran provenir de procesos naturales que ocurren en esas plantas, debidos a acciones microbianas, enzimáticas o similares.

En cualquier caso, se hayan podido identificar o no, la gran mayoría de esos compuestos detectados en los extractos, gracias a la extremada sensibilidad de la citada técnica instrumental, están en cantidades ridículas.

Los estudios de toxicidad realizados con los extractos en metanol de los plásticos investigados muestran que la mayoría de ellos exhiben actividad tóxica en los ensayos “in vitro”, siendo particularmente evidente esa toxicidad en el caso, otra vez, de los extractos de polímeros a base de almidón o celulosa (los más “naturales”). Los autores comparan esos datos con los obtenidos en un trabajo anterior con plásticos convencionales, llegando a la conclusión de que el grado de toxicidad de los extractos de unos y otros es comparable.

¿Es este tipo de resultados un potente torpedo en la línea de flotación de los Bioplásticos?. Pues en principio no me parece, porque creo que seguirán proponiéndose como alternativa a los plásticos convencionales, dentro de esa creciente plastifobia que nos asola. Pero si puede ser una piedra más en el tortuoso camino que están siguiendo los Bioplásticos para poder cumplir las expectativas que sobre ellos se tenían hace más de treinta años. Y os lo dice alguien que se ha tirado esos mismos años publicando artículos y dirigiendo tesis sobre estos temas. Pero que cada vez ha ido siendo menos optimista sobre el papel de estos materiales en el inmediato futuro, como ya quedó claro en otras entradas de este Blog. Aunque, como siempre digo, no tenéis por qué hacerme caso.

Pero también os diré que me preocupa muy poco esa teórica toxicidad a la hora de comerme o beberme algo que haya estado contenido en ese tipo de material. Al menos hasta que se demuestre su toxicidad de forma más realista que a base de los extractos en metanol.

Leer mas...

miércoles, 15 de noviembre de 2023

Osos polares y pingüinos emperador

Hace unos pocos años, era habitual ver vídeos de National Geographic, que mostraban a magníficos osos polares intentando desesperadamente saltar de un témpano de hielo a otro en el Océano Ártico. Las imágenes se aderezaban con comentarios (entre otros) de David Attenborough sobre el futuro de los osos polares en el contexto del cambio climático y el deshielo del Océano Ártico. En diciembre de 2017 y en este contexto, se hizo viral un vídeo de un pobre oso esquelético que, posteriormente, la propia National Geographic reconoció que era un viejo oso enfermo a punto de fallecer.

Creo que algunas de las reacciones a ese vídeo, y el propio reconocimiento de la revista, dieron inicio al declive de la hipótesis subyacente en todos esos reportajes previos. Y que no es otra que el deshielo del Océano Ártico, debido al cambio climático, dificulta cada vez más la caza de focas para los osos polares. En consecuencia, pasan hambre y corren el peligro de desaparecer.

A menudo, estos documentales sobre el medio ambiente son deprimentes a pesar de sus magníficas fotografías, porque siempre nos transmiten el sombrío mensaje de la extinción de las especies y la destrucción de la naturaleza. Sin embargo, sabemos que tanto los activistas medioambientales como sus oponentes (por ejemplo, los pueblos que habitan esas extremas latitudes y que viven en contacto con las poblaciones de osos) suelen exagerar sus percepciones. Los mensajes de unos y otros tienden a tener sus raíces más en intereses políticos que en la ciencia y es difícil conocer la verdad de lo que está pasando.

Este vuestro Búho tenía la mosca detrás de la oreja sobre el asunto desde que, de forma casual, caí en el Blog que Susan Crockford, una Doctora en Zoología que ha dedicado más de dos décadas al estudio de la ecología y la evolución de los osos polares. No siempre me ha gustado el tono agresivo con el que la Dra. Crockford escribe sus post, pero como me conozco su tormentosa historia académica, tampoco me extraña.

Además de seguir a la Crockford, yo había buscado por mi cuenta información al respecto en diversas fuentes. Y casi todas coincidían en que mientras que en la década de los setenta, la población de osos polares en el Ártico había caído hasta una cifra preocupante de entre 5000 y 8000 individuos , esa población se había recuperado posteriormente y, ya en 2008, las cifras oscilaban entre 22 000 y 26 000 ejemplares, un aumento del 300% en tres décadas.

Y la razón no es otra que, en 1973, se promulgó una prohibición mundial de la caza de osos polares. Como los osos polares solo se encuentran en cuatro países y todos ellos son países prósperos, la aplicación de esta prohibición tuvo bastante éxito. El resultado fue el aumento del 300% arriba mencionado. Es un ejemplo más que demuestra que los animales son lo suficientemente resistentes como para soportar las variaciones naturales de su hábitat, pero no pueden hacer frente fácilmente a la matanza indiscriminada por parte del hombre, utilizando armas de alta tecnología.

Y cuando yo ya tenía toda esa información en mi mano y casi coincidiendo con el video viral que mencionaba arriba (2017), compré y leí el libro de la Crockford titulado Polar Bear Facts and Myths: A Science Summary for All Ages. El libro se estructura sobre la base de 18 afirmaciones relacionadas con los osos polares que, para esa época, eran habituales en los medios de comunicación, mostrando cuáles de esas afirmaciones responden a hechos reales y cuáles son simples leyendas.

Desde entonces se han producido cada vez menos noticia sobre los osos polares en los medios y RRSS, excepto algunas que describen enfrentamientos entre ellos y los humanos que viven cerca de sus lares. Pero me da la sensación de que, desde el punto de vista de los activistas climáticos, el objetivo osos polares se da por amortizado. De hecho, un artículo publicado el 30 de agosto por The Guardian (conocido por sus tesis pro activas sobre el calentamiento global), lo declara hasta en el título. Y a mi me ha bastado leerlo para darme cuenta de que otros expertos en osos polares, consultados por el periódico, no están muy lejos de las ideas de la Crockford.

Esa declaración de The Guardian no parece casual cuando, en esos mismos días de agosto de 2023, el interés se había focalizado en las colonias de pingüinos emperador que viven en el otro extremo del globo, en las proximidades del continente antártico. Un artículo publicado el día 24 de ese mes hablaba de la muerte de hasta 10.000 polluelos de esa especie en los últimos meses, artículo que tuvo una amplia repercusión en todos los grandes medios de comunicación y redes sociales, como base para extender la idea de que esa especie está en peligro de extinción.

Pero como ya hizo hace unos años en el caso de los osos polares y el tiempo parece haberle dado la razón, la Dra. Crockford, en su tono habitual, parece discrepar. Resumiendo lo dicho en una entrada en su Blog el pasado 27 de agosto (las negritas son mías):

A pesar de la expectación suscitada la semana pasada por el artículo recientemente publicado por Peter Fretwell y sus colegas, no existe ningún fundamento ecológico plausible para proponer que el fracaso reproductivo de una sola temporada en cuatro pequeñas colonias de pingüinos emperador (Aptenodytes fosteri), debido a las condiciones de La Niña -fenómenos no relacionados con las emisiones de dióxido de carbono- sean signos de una futura "cuasi extinción" de la especie. Ninguna de las 282.150 parejas reproductoras de emperadores adultos que se calcula existen frente a la Península Antártica se perdieron en 2022 y los polluelos nacidos en varias docenas de otras colonias de emperadores alrededor del continente antártico sobrevivieron, lo que significa que se trató de un pequeño bache en el camino y no de una catástrofe para la especie.

Falta por ver ahora, si el asunto de los pingüinos evoluciona de manera similar al de los osos polares o, en este caso, la Crockford ha metido la pata. Cosas a seguir para un jubilado a tiempo completo, como un servidor.

Leer mas...

viernes, 27 de octubre de 2023

Sobre la Captura Directa de CO2 desde el Aire

El Informe Especial sobre Calentamiento Global de 1,5 ºC (2018), preparado por el IPCC, a instancia de la Conferencia de Naciones Unidas sobre Cambio Climático de 2015, estableció que, para lograr el objetivo de no sobrepasar ese límite de temperatura con respecto a la llamada época preindustrial, debemos conseguir, para el año 2050, el llamado NetZero en lo que a emisiones de gases de efecto invernadero (GEI) se refiere. Un empeño que el propio informe reconoce que es bastante complicado y que necesita de “reducciones de emisiones ambiciosas” y “cambios rápidos, profundos y sin precedentes en todos los aspectos de la sociedad”.
Además de intentar no emitir más GEIs (fundamentalmente CO2) a la atmósfera, el informe recomienda otras actuaciones como, por ejemplo, la captura directa en el propio lugar de la emisión del CO2 producido por grandes emisores del mismo, como es el caso de acerías, cementeras o industrias químicas. Como las cantidades a captar son grandes hay que pensar en qué hacer posteriormente con ese CO2, de lo que enseguida hablaremos.Pero no debemos olvidar un problema inherente al hecho de que llevemos muchos años vertiendo CO2. Dado su ciclo de vida en la atmósfera, seguirá habiendo en ella, durante mucho tiempo, una cantidad de CO2 superior a la deseable para llegar a alcanzar los objetivos que se propusieron en 2015 en Paris. Así que necesitamos, adicionalmente, eliminar cantidades importantes del CO2 que actualmente ya se encuentran en la atmósfera.

Para hacerlo hay soluciones o métodos que podemos llamar naturales como plantar más árboles, auténticos sumideros de ese gas. O, aun mejor, gestionar eficientemente todo lo que tiene que ver con el suelo, los bosques y los cultivos. Pero los cálculos parecen indicar que eso tampoco sería suficiente. Así que, de esa necesidad de hacer algo más, surge la tecnología denominada Captura Directa de Aire, también conocida por sus siglas en inglés, DAC.

Explicado de forma sencilla, la cosa consistente en capturar grandes cantidades de aire por medio de esa especie de ventiladores invertidos que veis en la foto que ilustra esta entrada, eliminar el CO2 presente en él (que como sabéis, solo supone el 0,04% del aire), devolver el aire sin dióxido de carbono a la atmósfera y utilizar el CO2 así obtenido en diversas aplicaciones (p.e. en la fabricación de combustibles sintéticos para aviación, fabricación de plásticos, etc.) o, al igual que el capturado en grandes emisores que mencionaba arriba, almacenarlo geológicamente.

Evidentemente, todo esto parece demasiado sencillo para que sea verdad. Se necesita buscar esos lugares geológicos donde almacenarlo (y donde lo más probable es que haya oposición ciudadana) y buscar nuevas aplicaciones de empleo de ese CO2 para no acumularlo sin fin . Y, si al final le damos un uso, se necesitarán extensas redes de gaseoductos para distribuir ese CO2 a los lugares que vayan a emplearlo, además de adecuados estudios sobre la viabilidad económica de todo ello.

Pero uno ha sido profesor de Termodinámica durante muchos años. Y, en el caso de la DAC, hay un aspecto ligado a la energía del proceso que me intrigaba. Incluso había pergeñado una serie de cálculos al respecto cuando, de repente, me encontré con un artículo que confirmaba mis hipótesis (o, al menos, el autor pensaba en similares términos a los míos). Estaba en el blog The Climate Brinck, alojado en Substack (la plataforma a la que me estoy aficionando un montón). Un blog que comparten dos climatólogos muy conocidos y próximos al IPCC (Andrew Dessler y Zeke Hausfather) aunque, en lo relativo al artículo del que estamos hablando, el autor es el primero.

La Termodinámica permite simular muchos procesos que ocurren en la Naturaleza de forma muy simplificada. Y con la peculiaridad de que, al hacerlo, se puede evaluar la forma más eficiente, en términos energéticos, del proceso simulado. Y así, en el caso de la tecnología DAC, ésta puede modelarse en dos procesos diferenciados. Uno implica la separación del CO2 desde el aire que lo contiene y el otro comprimirlo hasta una presión alrededor de 100 veces la presión atmosférica, que sería la adecuada para almacenarlo en algún depósito geológico. Los que conocen algo de Termodinámica saben que, para hacerlo, hay que definir los llamados estados iniciales y finales del proceso, la trayectoria reversible entre ambos, funciones de estado que, como la energía libre de Gibbs, cuantifican la energía implicada en el proceso y cosas similares. Pero eso se queda para los profesores que quieran usar la entrada a la que me estoy refiriendo para plantear un problema sencillo de Termo a sus estudiantes.

El resultado, en el caso de la separación, es que necesitaríamos 500 kilojoules (kJ) para separar 1 kilo de CO2 del aire. Si quisiéramos eliminar los cuarenta mil millones de toneladas de CO2 que actualmente se emiten cada año, necesitaríamos del orden de 2x10(19) J cada año, lo que corresponde a la energía suministrada durante ese año por el equivalente de 300 presas Hoover, una presa gigantesca situada en el curso del río Colorado. O la proporcionada anualmente por 350 centrales nucleares como la de Almaraz. Y si ahora calculamos la energía necesaria para comprimir todo ese gas a 100 atmósferas, necesitaríamos un 50% adicional de la energía anterior. En total, y si hacemos los cálculos necesitaríamos aproximadamente el 6% de toda la energía consumida anualmente por la humanidad. O, en términos de potencia eléctrica, alrededor de un Teravatio (TW).

Pero, y esto es lo más importante, ese es el valor más pequeño que puede esperarse en virtud de las simplificaciones termodinámicas que hemos realizado para obtenerlo. De ahí hacia arriba, todo dependerá de los procesos realmente implicados. Algunas de las compañías que están liderando la investigación en este campo estiman que ese gasto energético podría multiplicarse por diez. Y, evidentemente, solo podría hacerse a partir de energías renovables como la eólica, la fotovoltaica, la hidroeléctrica, la geotérmica, etc. Porque, si tuviéramos que usar combustibles fósiles para obtener la energía necesaria, sería la pescadilla que se muerde la cola.

Así que no es extraño que Dressler termine su entrada diciendo que aunque su intención “no es abogar a favor o en contra de la DAC, los beneficios que de ella se derivarían serían de tanto calado como los obstáculos técnicos, económicos o industriales a abordar”. Y, como buen seguidor de las conclusiones del IPCC, argumenta que “nuestra prioridad debe ser descarbonizar nuestra economía”.

Lo que, visto lo visto por el momento, no es tampoco una cuestión baladí.

Leer mas...

Powered By Blogger