El truco de los cubiletes, revisitado: se elimina el escenario, se conserva el resultado
¿Qué ocurre cuando cambia el marco, pero el resultado sigue siendo el mismo? Este artículo revisita un controvertido estudio sobre la pérdida de glaciares para explorar exactamente esa cuestión.
Un artículo reciente publicado en Nature Climate Change titulado “Peak glacier extinction in the mid-twenty-first century” se presenta como un análisis cuidadoso y relevante para las políticas públicas sobre la pérdida global de glaciares bajo distintos niveles futuros de calentamiento. En lugar de estructurar sus proyecciones en torno a trayectorias de emisiones, los autores organizan sus resultados en función de cuatro resultados de temperatura para el año 2100: +1,5 °C, +2,0 °C, +2,7 °C y +4,0 °C. Esta elección confiere al artículo una apariencia moderna, sugiriendo un alejamiento de las controversias que rodearon a estudios de impacto anteriores basados en escenarios.
Conviene dejarlo claro desde el principio: el artículo no afirma explícitamente que evite o corrija el uso del RCP 8.5. No se presenta como un avance metodológico respecto a trabajos anteriores en ese sentido, ni reconoce los debates sobre la plausibilidad de dicho escenario. El RCP 8.5 simplemente no aparece mencionado por su nombre.
Sin embargo, ese silencio es precisamente lo que hace que el artículo resulte instructivo. Aunque la etiqueta del escenario ha desaparecido, los supuestos de alto impacto que antes se asociaban al RCP 8.5 reaparecen discretamente en el análisis bajo un marco diferente. Las conclusiones más llamativas del artículo —las relativas a tasas máximas de extinción de glaciares cercanas a los 4.000 por año y a una pérdida casi total hacia finales de siglo— dependen en gran medida de un caso de calentamiento de +4,0 °C construido a partir de simulaciones SSP5-8.5 y SSP3-7.0. El resultado es familiar: el escenario ha desaparecido, pero la señal permanece.
Este enfoque resultará inmediatamente reconocible para quienes siguieron los debates sobre reconstrucciones paleoclimáticas basadas en proxies durante las últimas dos décadas. Steve McIntyre, escribiendo en ClimateAudit.org, documentó un patrón procedimental recurrente. Cuando se demostraba que una serie proxy concreta era defectuosa —a menudo por estar invertida, truncada, obsoleta o ser metodológicamente indefendible— se eliminaba. A continuación, los autores anunciaban que la reconstrucción era “robusta”, porque el resultado global no cambiaba. Lo que rara vez se destacaba era que otro proxy, portador esencialmente de la misma señal estadística, había sido introducido discretamente para ocupar su lugar.
La bolita no había desaparecido. Simplemente había sido movida de cubilete.
El estudio sobre glaciares sigue exactamente la misma lógica estructural, trasladada del ámbito de las redes de proxies al de la construcción de escenarios.
El RCP 8.5 se ha vuelto políticamente y retóricamente incómodo. Sus supuestos sobre el uso a largo plazo del carbón, el crecimiento demográfico y la intensidad de las emisiones ya no encajan bien con las tendencias energéticas observadas, y su uso continuado ha suscitado críticas incluso dentro de la investigación climática dominante. En lugar de abordar esas críticas de forma directa, el artículo las esquiva. El marco RCP desaparece. Los SSP ocupan su lugar. El análisis se reformula en torno a estados finales de temperatura, rompiendo el vínculo entre los impactos proyectados y los supuestos socioeconómicos necesarios para producirlos.
El efecto es sutil, pero significativo. Al centrarse en niveles de calentamiento en lugar de trayectorias, el artículo trata un mundo de +4,0 °C como un referente relevante para la política pública, en lugar de como un resultado extremo y condicionado. En ningún momento se pregunta si tal trayectoria sigue siendo coherente con las tendencias observadas en generación eléctrica, sustitución de combustibles o descensos históricos de la intensidad energética. El escenario existe porque el conjunto de modelos permite que exista, no porque el mundo real esté demostrablemente avanzando en esa dirección.
Llegados a este punto, conviene recordar algo esencial: el problema no es lo que los autores afirman, sino de qué dependen realmente sus resultados.
Las comparaciones más emocionalmente potentes del artículo —como equiparar las tasas máximas de extinción a “perder toda la población de glaciares de los Alpes europeos en un solo año”— obtienen su fuerza casi exclusivamente del caso de calentamiento más extremo. Con +1,5 °C, la tasa máxima de pérdida proyectada es aproximadamente la mitad; con +2,7 °C, es intermedia. La amplia dispersión entre estos resultados debería invitar al escepticismo a la hora de extraer conclusiones políticas, pero el artículo trata el límite superior como una guía significativa para la toma de decisiones.
Esto resulta especialmente llamativo a la luz de las propias admisiones de los autores sobre la fragilidad de las métricas empleadas. La “extinción” de un glaciar no se define por su desaparición física en un sentido hidrológico, sino por un umbral de superficie de 0,01 km² o una caída del volumen por debajo del 1 % del valor inicial. El artículo reconoce que el número de glaciares es muy sensible a la resolución del inventario, a las decisiones de clasificación y al tratamiento de pequeños cuerpos de hielo, y que debe interpretarse con mayor cautela que la masa o el área. Estas advertencias son técnicamente correctas… y luego, en gran medida, se dejan de lado.
A continuación, el texto gira desde el modelado condicional hacia un lenguaje normativo. Los autores concluyen que sus resultados “subrayan la urgencia de políticas climáticas ambiciosas” y que la diferencia entre perder 2.000 o 4.000 glaciares por año a mediados de siglo está “determinada por las políticas a corto plazo y las decisiones sociales que se tomen hoy”. Esto ya no es meramente descriptivo. Es prescriptivo, y se apoya plenamente en los mismos supuestos de alto impacto que han sido rebautizados, no cuestionados.
Todo ello ilustra una cultura metodológica que trata los supuestos controvertidos como piezas intercambiables, siempre que el resultado deseado sobreviva. Los modelos de glaciares son internamente coherentes. Las estadísticas están correctamente ejecutadas. Pero la estabilidad del resultado principal tras la sustitución se presenta como una validación, cuando debería plantear exactamente la misma pregunta que McIntyre formuló repetidamente en otro contexto: ¿robusto respecto a qué, exactamente?
En los debates sobre proxies, la robustez a menudo significaba que eliminar una serie criticada no cambiaba nada porque otra funcionalmente similar había ocupado su lugar. En este caso, la robustez significa que eliminar una etiqueta de escenario desacreditada no cambia nada porque sus supuestos de alto impacto reaparecen bajo un nuevo marco. La lógica es la misma. Solo han cambiado los objetos.
La bolita, una vez más, no ha desaparecido. Simplemente ha sido movida.
Y, como antes, se invita al público a admirar la estabilidad del resultado en lugar de examinar con atención cómo se han colocado los cubiletes.
Este artículo fue publicado anteriormente en wattsupwiththat.com.
(Traducido al español para Clintel Foundation por Tom van Leeuwen.)
more news
Bovaer Bovine Stupidity
Bovaer is being hailed as the miracle that will make cows climate-friendly—but the data behind it may be more bovine than scientific.
A Thanksgiving Tribute to Global Warming and CO2
What if we celebrate Thanksgiving with a tribute to global warming and the relative abundance of carbon dioxide (CO2) in our atmosphere? An outrageously scandalous thought, right? To propose we honor what global elites and their compliant media insist are bringing on certain doom. Yet, this is precisely what sound thinking demands.
What is a “climate crisis?”
Before we declare a ‘climate crisis,’ perhaps we need a clear definition — grounded not in fear, but in evidence. This piece argues for quantifiable metrics over rhetoric.







