Fuente: American Scientist - POR VACLAV SMIL - MAYO-JUNIO 2011
Seguir los asuntos energéticos mundiales es tener un encuentro interminable con nuevos encantos. Hace cincuenta años, los medios de comunicación ignoraban el crudo (el barril costaba poco más de un dólar). En cambio, las empresas occidentales estaban preocupadas por el crecimiento anual de dos dígitos de la demanda de electricidad que iba a durar indefinidamente, y muchas de ellas decidieron que sólo el desarrollo a gran escala de la fisión nuclear, que acabaría transformándose en una adopción generalizada de reactores rápidos, podría asegurar el futuro de la electricidad.
Dos décadas más tarde, en medio de la segunda "crisis" energética (1979-1981, precipitada por la toma de posesión de Irán por Jomeini), el aumento de los precios del crudo se convirtió en la principal preocupación existencial del mundo, el crecimiento de la demanda de electricidad se había desplomado a un solo dígito, Francia era el único país que perseguía seriamente un futuro nuclear y los coches pequeños estaban de moda.
Tras el desplome de los precios mundiales del crudo en 1985 (temporalmente por debajo de los 5 dólares por barril), los todoterrenos estadounidenses iniciaron su rápida difusión, que culminó con el uso del Hummer H1, una versión civil de un vehículo de asalto militar estadounidense de casi 3,5 toneladas, para los viajes a las tiendas de comestibles, y las multinacionales petroleras fueron la clase de acciones con peor rendimiento de los años 90. La primera década del siglo XXI cambió todo eso, con el temor constante a un inminente pico de extracción de petróleo a nivel mundial (que en algunas versiones equivale nada menos que a un apagón de luces para la civilización occidental), a las consecuencias catastróficas del calentamiento global inducido por los combustibles fósiles y a un gran desmoronamiento del orden mundial posterior a la Segunda Guerra Mundial.
Cómo los todoterrenos conquistaron el mundo, a expensas del clima - aquí
Todo esto ha provocado incesantes llamamientos para que el mundo innove hacia un futuro energético más brillante, una búsqueda que ha engendrado una serie de encaprichamientos con nuevas soluciones supuestamente perfectas: La conducción de automóviles debía transformarse primero con los biocombustibles, luego con las baterías de combustible y el hidrógeno, después con los coches híbridos, y ahora son los eléctricos (Volt, Tesla, Nissan) y sus promotores (Shai Agassi, Elon Musk, Carlos Ghosn) los que acaparan la atención de los medios; la generación de electricidad iba a descarbonizarse con un renacimiento nuclear o con aerogeneradores omnipresentes (incluso Boone Pickens, un veterano petrolero de Texas, sucumbió a esa llamada del viento), mientras que otros preveían un futuro cómodo para los combustibles fósiles una vez que se pusieran en práctica sus visiones de captura y secuestro masivo de carbono (CCS). Y si todo falla, entonces la geoingeniería -manipular el clima de la Tierra con sombras en el espacio, naves que arrojan niebla o vuelos de gran altura que desparraman compuestos de azufre- nos salvarán enfriando el planeta que se calienta.
Todo esto nos recuerda la visita de Lemuel Gulliver a la gran academia de Lagado: No menos de 500 proyectos estaban en marcha al mismo tiempo, siempre con la anticipación de un éxito inminente, como el inventor que "ha estado ocho años en un proyecto para extraer rayos de sol de los pepinos" creía que "en ocho años más, debería ser capaz de suministrar los jardines del gobernador sol, a un ritmo razonable" - pero también siempre con quejas sobre la escasez de existencias y las súplicas de "dar ... algo como un estímulo al ingenio". Es cierto que las ideas para nuevas salvaciones energéticas no superan actualmente las 500, pero su extensión espacial avergüenza a los inventores de Lagado: Las soluciones defendidas con pasión van desde la extracción de trabajo a partir de esa escasa diferencia de 20 Kelvin entre la superficie y las aguas profundas de los mares tropicales (OTEC: conversión de energía térmica oceánica) hasta la energía solar fotovoltaica basada en la Luna, con electricidad transmitida a la Tierra por microondas y recibida por antenas gigantes.
Y las continuas esperanzas de éxito (a bajo precio) en ocho años más son tan fervientes ahora como en el ficticio Lagado del siglo XVIII. Ha habido una procesión interminable de tales afirmaciones en nombre de soluciones baratas y que conquistan el mercado, ya sean pilas de combustible o etanol celulósico, reactores de reproducción rápida o turbinas eólicas atadas. Y la investigación energética nunca recibe suficiente dinero para satisfacer a sus promotores: En 2010, el Consejo de Asesores del Presidente de EE.UU. recomendó aumentar el total de la investigación energética estadounidense a 16.000 millones de dólares al año; en realidad es demasiado poco teniendo en cuenta la magnitud del reto, pero demasiado si se tiene en cuenta la sorprendente falta de voluntad para adoptar muchas de las soluciones existentes, fácilmente disponibles y muy eficaces.
¿Suficiente para todos?
Aunque todo esto podría descartarse como un resultado inevitable de la deseable búsqueda de soluciones para aplicar en el futuro (y, por tanto, intrínsecamente ineficiente), como un sesgo esperado de los promotores dedicados a sus ideas singulares y que inevitablemente compiten por fondos limitados, yo veo problemas más fundamentales y, por tanto, mucho más preocupantes. La perspectiva energética global deja claras dos cosas: la mayor parte de la humanidad necesita consumir mucha más energía para poder llevar una vida razonablemente sana y disfrutar al menos de un mínimo de prosperidad; en cambio, las naciones prósperas en general, y Estados Unidos y Canadá en particular, deberían reducir su uso excesivo de energía. Mientras que la primera conclusión parece obvia, a muchos les parece que la segunda es errónea o directamente objetable.
En 2009 escribí que, para mantener su papel global y su estatura económica, Estados Unidos debería
"proporcionar un ejemplo globalmente atractivo de una política que promoviera simultáneamente su capacidad de innovación, fortaleciera su economía poniéndola sobre bases fiscales más sólidas, y ayudara a mejorar el medio ambiente de la Tierra. Su uso excesivamente elevado de energía per cápita ha hecho justamente lo contrario, y ha sido un mal negocio porque su exceso de consumo ha creado una enorme sangría económica en los recursos financieros cada vez más limitados del país sin hacer que la nación sea más segura y sin ofrecer una calidad de vida superior a la de otras naciones prósperas."
Sabía que esto se consideraría un fracaso en el debate sobre la política energética de Estados Unidos: Cualquier llamamiento a la moderación o a la reducción del uso de la energía en Norteamérica sigue siendo rechazado (cuando no ridiculizado), pero yo veo que esa búsqueda es más deseable que nunca. Estados Unidos y Canadá son las dos únicas economías importantes cuyo uso medio anual de energía per cápita supera los 300 gigajulios (el equivalente a casi 8 toneladas, o más de 50 barriles, de petróleo crudo). Esta cifra es el doble de la media de las economías más ricas de la Unión Europea (UE) (así como de Japón), pero, obviamente, los habitantes de Pittsburgh o de Los Angeles no son el doble de ricos, el doble de sanos, el doble de educados, el doble de seguros o el doble de felices que los habitantes de Burdeos o Berlín. E incluso un ajuste múltiple de las tasas nacionales per cápita para tener en cuenta las diferencias de clima, las distancias típicas de viaje y la estructura económica deja intacta la mayor parte de la brecha entre EE.UU. y la UE: Esto no es sorprendente una vez que se comprueba que Berlín tiene más días de calor que Washington D.C., que los pimientos rojos recorren la misma distancia en camiones refrigerados desde Andalucía a Helsinki que desde el Valle Central de California a Illinois, y que las exportaciones alemanas de maquinaria de alto consumo energético y productos de equipamiento de transporte superan, incluso en términos absolutos, las ventas estadounidenses.
Además, los que insisten en la necesidad y conveniencia de un mayor crecimiento del uso de energía per cápita en Estados Unidos quizás no se dan cuenta de que, por diversas razones, ya se ha alcanzado una meseta y que (de nuevo por muchas razones) es muy improbable que se produzcan desviaciones al alza. En 2010, el consumo de energía de EE.UU. se situó en una media de 330 gigajulios per cápita, casi un 4% menos que en 1970, e incluso la tasa de 2007 (antes de la crisis) de 355 gigajulios (GJ) per cápita estaba por debajo de la media de 1980 de 359 GJ. Esto significa que el consumo de energía primaria per cápita en EE.UU. se ha mantenido esencialmente plano durante más de una generación (al igual que el uso de energía en Gran Bretaña). Lo mucho que podría haber bajado puede ilustrarse centrándose en un sector de consumo clave, el transporte de pasajeros.
Aviones, trenes y automóviles
A partir de 1985, Estados Unidos congeló cualquier mejora en la eficiencia en el uso de combustible de sus automóviles corporativos (CAFE), fomentó una difusión masiva de SUVs (Todoterrenos) excepcionalmente ineficientes y, al mismo tiempo, no siguió al resto del mundo en proceso de modernización en la construcción de enlaces ferroviarios rápidos. Durante 40 años, el rendimiento medio del parque automovilístico estadounidense fue contrario a la tendencia universal de mejora de la eficiencia: En 1974 era más ineficiente (con 13,4 millas por galón [mpg]) que a mediados de la década de 1930!. Después, las normas CAFE habían duplicado la eficiencia de los nuevos autos de pasajeros en 1985, pero con esas normas congeladas posteriormente y con la afluencia de todoterrenos, furgonetas y camiones ligeros, el rendimiento medio de todo el parque automovilístico (de dos ejes y cuatro ruedas) era inferior a 26 millas por galón en 2006 o no mejor que en 1986, mientras que una combinación de continuas mejoras CAFE mientras que una combinación de mejoras continuas del CAFE, la difusión de los nuevos diésel de muy bajas emisiones (intrínsecamente al menos un 25-30% más eficientes que los coches de gasolina) y una introducción temprana de las unidades híbridas podría haber aumentado fácilmente a más de 35 o incluso 40 millas por galón, reduciendo masivamente las importaciones de petróleo crudo de Estados Unidos. Las importaciones estadounidenses de petróleo crudo, por las que el país pagó 1,5 billones de dólares durante la primera década del siglo XXI.
Y el argumento de que su extenso territorio y su baja densidad de población impiden a Estados Unidos sumarse a la creciente lista de países con trenes rápidos (que viajan a 250-300 kilómetros por hora o más) es erróneo. La megalópolis del noreste (Boston-Washington) cuenta con más de 50 millones de personas, con una densidad media de población de unos 360 habitantes por kilómetro cuadrado y con casi una docena de grandes ciudades dispuestas a lo largo de un corredor costero relativamente estrecho y de menos de 700 kilómetros. ¿Por qué esa región es menos adecuada para una conexión ferroviaria rápida que Francia, pionera del transporte ferroviario rápido europeo, con una población de 65 millones de habitantes y una densidad nacional de sólo unos 120 habitantes por kilómetro cuadrado, cuyos trenes "à grande vitesse" deben partir de su capital para llegar a los destinos nacionales más lejanos, a más de 900 kilómetros de distancia? Al parecer, los estadounidenses prefieren los penosos viajes a los aeropuertos, los registros de la TSA y los retrasos en los vuelos de enlace a llegar de centro a centro a 300 kilómetros por hora.
En un mundo racional animado por políticas gratificantes a largo plazo, no sólo Estados Unidos y Canadá, sino también la Unión Europea, deberían presumir de reducciones graduales en el uso de energía per cápita. Por el contrario, los países en vías de modernización de Asia, América Latina y, sobre todo, África van tan retrasados que, incluso si recurrieran a las conversiones más avanzadas, necesitarían al menos cuadruplicar (en el caso de la India, partiendo de unos 20 GJ per cápita en 2010) su suministro de energía primaria per cápita o aumentar su uso en más de un orden de magnitud -Etiopía consume ahora energías modernas a un ritmo de menos de 2 GJ per cápita- antes de llegar al umbral de un nivel de vida decente para la mayoría de sus habitantes y antes de reducir sus enormes disparidades económicas internas.
China ha avanzado más, y más rápido, en este camino que cualquier otra nación en vías de modernización. En 1976 (el año de la muerte de Mao Zedong) su consumo medio de energía per cápita era inferior a 20 GJ per cápita, en 1990 (tras la primera década de modernización de Deng Xiaoping) seguía estando por debajo de los 25 GJ, y una década después acababa de superar los 30 GJ per cápita. En 2005 se acercó a los 55 GJ y en 2010 alcanzó los 70, es decir, tanto como lo que consumían algunos países más pobres de la U.E. en los años 70. Aunque China se ha convertido en un gran importador de petróleo crudo (ahora es el segundo del mundo, sólo superado por Estados Unidos) y pronto importará grandes volúmenes de gas natural licuado y ha llevado a cabo un programa a gran escala de desarrollo de su enorme potencial de hidrogenación, la mayor parte de su aumento de consumo ha procedido de una expansión sin precedentes de la extracción de carbón. Mientras que la producción anual de carbón de Estados Unidos aún no ha alcanzado los mil millones de toneladas, la extracción de carbón en bruto de China aumentó en mil millones de toneladas en sólo cuatro años, entre 2001 y 2005, y en casi otros mil millones de toneladas en 2010, hasta alcanzar la producción anual de 3 mil millones de toneladas.
El auge del carbón en China (y, en menor medida, en India) y la fuerte demanda energética global en Asia y Oriente Medio han sido la principal razón del reciente aumento de las emisiones de CO2: China se convirtió en el mayor emisor del mundo en 2006, y (tras un pequeño descenso, inducido por la crisis económica, del 1,3% en 2009) el total mundial de emisiones de CO2 derivadas de los combustibles fósiles estableció otro récord en 2010, superando los 32.000 millones de toneladas anuales (siendo China responsable de cerca del 24%). Cuando se consideran los potenciales aumentos de consumo de energía que necesitan los países de bajos ingresos, junto con la evidente falta de avances significativos en la reducción de las emisiones mediante acuerdos internacionales vinculantes (véanse los fracasos consecutivos de las reuniones de Kioto, Bali, Copenhague y Cancún), no es de extrañar que los arreglos técnicos parezcan ser, más que nunca, la mejor solución para minimizar el futuro aumento de las temperaturas de la troposfera.
¿Renacimiento renovable?
Desgraciadamente, esto ha dado lugar a expectativas exageradas más que a valoraciones realistas. Esto es cierto incluso después de excluir lo que podría denominarse como entusiasmos sectarios con aquellas conversiones renovables cuyos recursos limitados, extremadamente difusos o difíciles de capturar (ya sean los vientos de la corriente de chorro o las olas del océano) les impiden convertirse en actores económicos significativos durante las próximas décadas. Los promotores de las nuevas conversiones de energía renovable que ahora parecen tener las mejores perspectivas de hacer contribuciones significativas a corto plazo -los biocombustibles modernos (etanol y biodiésel) y la generación de electricidad eólica y solar- no dan suficiente importancia a importantes realidades físicas relacionadas con el cambio global de los combustibles fósiles: a la escala de la transformación requerida, a su probable duración, a las capacidades unitarias de los nuevos convertidores y a los enormes requisitos de infraestructura resultantes de las densidades de potencia inherentemente bajas con las que podemos cosechar los flujos de energía renovable y a su estocasticidad inmutable.
La escala de la transición necesaria es inmensa. La nuestra sigue siendo una civilización abrumadoramente alimentada por combustibles fósiles: En 2009 obtenía el 88% de sus energías modernas (dejando de lado los combustibles tradicionales de biomasa, la madera y los residuos de cultivos) del petróleo, el carbón y el gas natural, cuyas cuotas de mercado mundiales son ahora sorprendentemente cercanas, respectivamente, al 35, 29 y 24%. La combustión anual de estos combustibles ha alcanzado ya los 10.000 millones de toneladas equivalentes de petróleo o unos 420 exajulios (420 × 1018 julios). Se trata de un flujo anual de combustibles fósiles casi 20 veces mayor que a principios del siglo XX, cuando la transición epocal de los combustibles de biomasa acababa de pasar su punto de inflexión (el carbón y el petróleo empezaron a representar más de la mitad del suministro energético mundial a finales de la década de 1890).
Las transiciones energéticas -el paso de una fuente de energía dominante (o una combinación de fuentes) a un nuevo sistema de suministro, o de un motor principal dominante a un nuevo convertidor- son asuntos inherentemente prolongados cuya duración se mide en décadas o generaciones, no en años. El último cambio en el suministro energético mundial, del carbón y el petróleo al gas natural, ilustra cómo el ritmo gradual de las transiciones viene dictado por la necesidad de asegurar recursos suficientes, desarrollar las infraestructuras necesarias y conseguir costes competitivos: El gas natural tardó unos 60 años desde el inicio de su extracción comercial (a principios de la década de 1870) en alcanzar el 5% del mercado energético mundial, y luego otros 55 años en representar el 25% de todo el suministro de energía primaria. Los plazos de Estados Unidos, pionero en el uso del gas natural, fueron más cortos, pero también considerables: 53 años para alcanzar el 5% y otros 31 para llegar al 25%.
Desplazar incluso un tercio del consumo actual de combustibles fósiles mediante conversiones de energía renovable será una tarea inmensamente difícil; lo lejos que hay que llegar lo atestiguan las cuotas más recientes reclamadas por los biocombustibles modernos y por la generación de electricidad eólica y fotovoltaica. En 2010, el etanol y el biodiésel sólo suministraron alrededor del 0,5% de la energía primaria mundial, la energía eólica generó alrededor del 2% de la electricidad mundial y la fotovoltaica produjo menos del 0,05%. Contrasta esto con otros objetivos obligatorios o deseados: El 18% de la energía total de Alemania y el 35% de la electricidad proceden de flujos renovables para 2020, el 10% de la electricidad de Estados Unidos procede de la fotovoltaica para 2025 y el 30% de la eólica para 2030 y el 15%, quizá incluso el 20%, de la energía de China procede de las renovables para 2020.
El tamaño de las unidades de los nuevos convertidores no facilitará la transición. Las potencias de 500-800 megavatios (MW) son la norma para los turbogeneradores de carbón y las grandes turbinas de gas tienen capacidades de 200-300 MW, mientras que las potencias típicas de las grandes turbinas eólicas son dos órdenes de magnitud menores, entre 2 y 4 MW, y la mayor planta fotovoltaica del mundo necesitó más de un millón de paneles para sus 80 MW de capacidad máxima. Además, las diferencias en los factores de capacidad siempre serán grandes. En 2009, el factor de carga de las centrales de carbón de EE.UU. fue de una media del 74% y las nucleares alcanzaron el 92%, mientras que las turbinas eólicas sólo lograron un 25%, y en la Unión Europea su factor de carga medio fue inferior al 21% entre 2003 y 2007, mientras que la mayor central fotovoltaica de la soleada España tiene un factor de capacidad anual de sólo el 16%.
Mientras escribo esto, una pronunciada célula de alta presión trae una profunda helada, y una calma que dura días, al habitualmente ventoso corazón de Norteamérica: si Manitoba o Dakota del Norte dependieran en gran medida de la generación eólica (afortunadamente, Manitoba obtiene toda la electricidad del agua que fluye y la exporta al sur), cualquiera de los dos necesitaría muchos días de grandes importaciones, pero el centro del continente no tiene líneas de transmisión de alta capacidad de este a oeste. El aumento de la generación eólica y fotovoltaica exigirá una construcción considerable de nuevas líneas de alta tensión de larga distancia, tanto para conectar los lugares más ventosos y soleados con los principales centros de consumo como para garantizar un suministro ininterrumpido cuando se depende de flujos de energía sólo parcialmente predecibles. Como las distancias son verdaderamente continentales -ya sea desde las ventosas Grandes Llanuras hasta la Costa Este o, como prevén los planes europeos, desde el soleado Sahara hasta la nublada Alemania (plan Desertec)-, esas costosas superredes no podrán completarse en cuestión de años. Y la gente que fantasea con los beneficios inminentes de las nuevas redes inteligentes debería recordar que el informe de 2009 sobre la infraestructura estadounidense da a la red actual de Estados Unidos una nota casi de suspenso, D+.
Y no cabe esperar ninguna contribución sustancial de la única técnica de generación de electricidad no fósil bien probada que ha logrado una penetración significativa en el mercado: La fisión nuclear genera actualmente alrededor del 13% de la electricidad mundial, con cuotas nacionales del 75% en Francia y del 20% en Estados Unidos. Los ingenieros nucleares llevan buscando diseños de reactores superiores (eficientes, seguros y baratos) desde que quedó claro que la primera generación de reactores no era la mejor opción para la segunda y mayor ola de expansión nuclear. Alvin Weinberg publicó un artículo sobre los reactores intrínsecamente seguros de la segunda era nuclear ya en 1984, en el momento de su muerte (en 2003) Edward Teller trabajaba en el diseño de una central eléctrica subterránea alimentada con torio, y Lowell Wood argumenta las ventajas de su reactor reproductor de onda viajera alimentado con uranio empobrecido, cuyas enormes reservas estadounidenses ascienden ahora a unas 700.000 toneladas.
Pero desde 2005, sólo se ha iniciado la construcción de una docena de nuevos reactores en todo el mundo, la mayoría de ellos en China, donde la generación nuclear sólo suministra alrededor del 2% de toda la electricidad, y a principios de 2011 no había indicios de ningún renacimiento nuclear occidental. Salvo la finalización de la Unidad 2 de Watts Bar de la Autoridad del Valle de Tennessee (abandonada en 1988, cuya puesta en marcha estaba prevista para 2012), no había ninguna construcción en marcha en Estados Unidos, y la finalización y los sobrecostes de las supuestas nuevas unidades de Europa, la finlandesa Olkiluoto y la francesa Flamanville, se parecían a las historias de terror de la industria nuclear estadounidense de los años ochenta. Luego, en marzo de 2011, un terremoto y un tsunami asolaron Japón, provocando la pérdida de refrigerante en Fukushima, la destrucción de los edificios de los reactores en explosiones y fugas de radiación; independientemente del resultado final de esta catástrofe, estos acontecimientos proyectarán una larga sombra sobre el futuro de la electricidad nuclear.
¿Arreglos técnicos al rescate?
Por tanto, es muy poco probable que las nuevas conversiones energéticas reduzcan las emisiones de CO2 con la rapidez suficiente para evitar el aumento de las concentraciones atmosféricas por encima de las 450 partes por millón (ppm). (A finales de 2010 eran casi 390 ppm). Esta constatación ha dado lugar a una exploración entusiasta de muchas posibilidades disponibles para la captura y el secuestro de carbono, y a afirmaciones que garantizarían, aunque fueran ciertas a medias, futuros libres de cualquier preocupación por el carbono. Por ejemplo, un científico del suelo afirma que para el año 2100 el secuestro de biocarbón -biochar (esencialmente la conversión de los residuos de las cosechas del mundo, principalmente pajas de cereales, en carbón vegetal incorporado a los suelos) podría almacenar más carbono que el que emite el mundo por la combustión de todos los combustibles fósiles.
La mayoría de estas sugerencias se han quedado en el terreno de las elucubraciones teóricas: Ejemplos notables son el secuestro de CO2 dentro y debajo de las capas de basalto del Decán de la India (sin importar que esas rocas ya estén muy erosionadas y fracturadas), o en basaltos submarinos permeables de la placa tectónica de Juan de Fuca frente a Seattle (pero primero habría que canalizar las emisiones de Pensilvania, Ohio y Tennessee hasta el noroeste del Pacífico), o utilizar las peridotitas expuestas del desierto de Omán para absorber el CO2 por carbonización acelerada (imagínense todos esos megatankers cargados de CO2 procedentes de China y Europa que convergen en Omán con su carga refrigerada).
La realidad de las promesas de las tecnologías de captura de carbono - aquí
El cero neto, la reforestación y la alimentación mundial, informe de Oxfam - aquí
La nueva tecnología de captura de CO₂ no es la solución mágica contra el cambio climático - aquí
Un estudio de Stanford pone en duda la captura de carbono - aquí
Una de estas ideas poco ortodoxas se ha probado realmente a pequeña escala. Durante el (hasta ahora) mayor experimento de enriquecimiento con hierro de la superficie del océano (destinado a estimular el crecimiento del fitoplancton y secuestrar el carbono en las células que se hunden en el abismo), una expedición indo-alemana fertilizó 300 kilómetros cuadrados del Atlántico suroccidental en marzo y abril de 2009, pero la floración de fitoplancton resultante fue devorada por anfípodos (un diminuto zooplancton parecido a las gambas). Por ello, las mejores oportunidades para la CAC están en una combinación de prácticas de ingeniería bien establecidas: La depuración del CO2 con aminas acuosas se lleva a cabo comercialmente desde los años 30, la canalización del gas y su uso en la recuperación mejorada de petróleo se realiza de forma rutinaria en muchos yacimientos petrolíferos de Estados Unidos, y un esfuerzo de construcción de oleoductos igual al de la extensión de los gasoductos de gas natural de Estados Unidos durante los años 60 o 70 podría poner en marcha multitud de enlaces entre las grandes fuentes estacionarias de CO2 y las mejores formaciones sedimentarias utilizadas para secuestrar el gas.
Pero la escala del esfuerzo necesario para cualquier reducción sustancial de las emisiones, sus consideraciones de seguridad, la aceptación pública de un almacenamiento subterráneo permanente que podría filtrar un gas tóxico en altas concentraciones, y los costes de capital y de operación de la extracción y el enterramiento continuos de miles de millones de toneladas de gas comprimido se combinan para garantizar un progreso muy lento. Para explicar la magnitud del esfuerzo necesario he utilizado una comparación reveladora. Supongamos que nos comprometemos inicialmente a secuestrar sólo el 20% de todo el CO2 emitido por la combustión de combustibles fósiles en 2010, es decir, aproximadamente un tercio de todas las emisiones de las grandes fuentes fijas. Después de comprimir el gas a una densidad similar a la del petróleo crudo (800 kilogramos por metro cúbico) ocuparía unos 8.000 millones de metros cúbicos, mientras que la extracción mundial de petróleo crudo en 2010 ascendió a unos 4.000 millones de toneladas o (con una densidad media de 850 kilogramos por metro cúbico) a unos 4.700 millones de metros cúbicos.
Esto significa que para secuestrar sólo una quinta parte de las emisiones actuales de CO2 tendríamos que crear una industria mundial completamente nueva de absorción-recolección-compresión-transporte-almacenamiento cuyo rendimiento anual tendría que ser aproximadamente un 70% mayor que el volumen anual que maneja ahora la industria mundial del petróleo crudo, cuya inmensa infraestructura de pozos, oleoductos, estaciones de compresión y almacenamientos tardó generaciones en construirse. Técnicamente es posible, pero no en un plazo que impida que el CO2 supere las 450 ppm. Y hay que recordar no sólo que esto contendría sólo el 20% de las emisiones de CO2 actuales, sino también esta diferencia crucial: La industria petrolera ha invertido en su enorme infraestructura para obtener beneficios, para vender su producto en un mercado hambriento de energía (a unos 100 dólares por barril y 7,2 barriles por tonelada, lo que equivale a unos 700 dólares por tonelada), pero (de una forma u otra) los contribuyentes de los países ricos tendrían que pagar los enormes costes de capital y las importantes cargas operativas de cualquier Captura por Aire de Carbono -CAC- masiva.
Y si la CAC no se amplía con la suficiente rapidez o resulta demasiado cara, ahora se nos ofrece la última arma para contrarrestarla, recurriendo a los planes de geoingeniería. Uno supondría que la intervención favorita -una dispensación deliberada y prolongada (¿décadas? ¿siglos?) de millones de toneladas de gases de azufre en la atmósfera superior para crear aerosoles que reduzcan la temperatura- suscitaría muchas preocupaciones en cualquier momento, pero yo añadiría sólo una pregunta obvia: ¿Cómo verían los radicales musulmanes las flotas de stratotankers estadounidenses rociando constantemente gotas de azufre sobre sus tierras y sobre sus mezquitas?
Son tiempos inciertos, económica, política y socialmente. La necesidad de nuevas salidas parece obvia, pero las acciones efectivas no han podido seguir el ritmo de la urgencia de los cambios necesarios, especialmente en las democracias prósperas de Norteamérica, Europa y Japón, que contemplan sus cuentas sobredimensionadas, sus economías vacilantes, el envejecimiento de su población y la disminución de su influencia mundial. En este sentido, la búsqueda de nuevas modalidades energéticas forma parte de un cambio mucho más amplio cuyo resultado determinará la suerte de las principales economías del mundo y de toda la civilización global durante las próximas generaciones. Ninguno de nosotros puede prever los contornos eventuales de los nuevos acuerdos energéticos, pero ¿podrían los países más ricos del mundo equivocarse al esforzarse por moderar su uso de la energía?
MAS SOBRE FALSAS SOLUCIONES TECNOLÓGICAS
La COP26 fue un fracaso por basarse en la ficción de que la tecnología resolverá el cambio climático - aquí
Una planta de energía "renovable" de biomasa es el mayor emisor de CO2 del Reino Unido - aquí
Desplazar el carbón por la madera para la generación de energía empeorará el cambio climático - aquí
Nada "bio" en los biocombustibles para aviones: pueden contaminar más que el querosén - aquí
Un estudio de Stanford pone en duda la captura de carbono - aquí
La realidad de las promesas de las tecnologías de captura de carbono - aquí
La nueva tecnología de captura de CO₂ no es la solución mágica contra el cambio climático - aquí
La "nueva economía energética": Un ejercicio de pensamiento mágico - aquí
Dicen que la quema de madera para generar energía es "neutra en carbono". ¿Es eso cierto? - aquí
MAS SOBRE GREENWASHING
Cómo distinguir entre una política climática real y una de greenwashing - aquí
¿Cuándo "cero" no significa "cero"? Cuando se trata de greenwashing, por supuesto - aquí
Ciencia ficción para continuar con el sistema - aquí
Científicos del clima: el concepto de cero neto es una trampa peligrosa - Por James Dyke - aquí
NO CERO: Cómo los objetivos de 'cero neto' disfrazan la inacción climática - aquí