El índice nacional de temperatura de EE. UU., ¿se basa en datos? O correcciones? – ¿Qué pasa con eso?

por Andy Mayo

Los Estados Unidos tienen una población muy densa de estaciones meteorológicas, NOAA/NCEI recopila y procesa los datos de ellas para calcular la Índice Nacional de Temperatura. El índice es una temperatura promedio para la nación y se usa para mostrar si EE. UU. se está calentando. Los datos son almacenados por NOAA/NCEI en sus GHCN o la base de datos de la “Red Global de Climatología Histórica”. GHCN-Daily contiene los datos sin procesar con control de calidad, que posteriormente se corrigen y luego se utilizan para completar GHCN-Monthly, una base de datos de promedios mensuales, tanto sin procesar como finales. Descargué la versión 4.0.1 de la base de datos mensual de GHCN el 10 de octubre de 2020. En ese momento, tenía 27 519 estaciones a nivel mundial y 12 514 (45 %) de ellas estaban en los Estados Unidos, incluidos Alaska y Hawái. De las 12.514 estaciones de EE. UU., 11.969 de ellas están en «CONUS», los 48 estados contiguos inferiores. La cobertura actual de la estación se muestra en la Figura 1.

1670360992 996 El indice nacional de temperatura de EE UU ¿se basa

Figura 1. La cobertura de la estación meteorológica GHCN en los Estados Unidos es muy buena, excepto en el norte de Alaska. Hay dos estaciones en el Pacífico occidental que no se muestran.

Tenemos varias preguntas sobre el registro de temperatura terrestre, que domina el registro de temperatura superficial global a largo plazo (~170 años). Las mediciones en tierra dominan porque las temperaturas de la superficie del mar son muy escasas hasta alrededor de 2004 a 2007, cuando la red de flotadores ARGO se volvió lo suficientemente completa como para proporcionar buenos datos. Incluso en 2007, la error de cuadrícula de la superficie del mar fue mayor que el calentamiento del océano detectado.

Calentamiento del océano

Hemos estimado que los océanos, que cubren el 71 % de la superficie de la Tierra, se están calentando a un ritmo de 0,4 °C por siglo, según la tendencia lineal de mínimos cuadrados que se muestra en la Figura 2. Esta es una estimación muy aproximada y se basa únicamente en datos de 2004 a 2019 y temperaturas de los 2.000 metros superiores de los océanos. Los datos anteriores a 2004 son tan escasos que no queríamos utilizarlos. los error en esta estimación es aproximadamente ±0,26°C, desde la superficie hasta 2.000 metros y desconocido por debajo de eso.

Argó las mediciones de la temperatura del océano a 2.000 metros son de 2,4 °C bastante constantes. Por lo tanto, asumimos una temperatura de 0,8 °C a una profundidad oceánica promedio de 3688 metros (12 100 pies) o menos. Por contexto, el punto de congelación del agua de mar a 2900 PSI (aproximadamente 2000 metros o 2000 decibares) es -17°C. El valor de 0.8°C es de Argo profundo datos según lo descrito por Gregory Johnson y sus colegas (Johnson, Purkey, Zilberman y Roemmich, 2019). Hay muy pocas mediciones de las temperaturas del océano profundo y cualquier estimación tiene un posible error considerable (Gasparin, Hamon, Remy y Traon, 2020). Las anomalías en la Figura 2 se basan en esas suposiciones. Las temperaturas calculadas se convirtieron en anomalías a partir de la temperatura media del océano desde 2004 hasta 2019. Los datos utilizados para hacer la Figura 2 provienen de Jamstec. Se puede descargar un programa R para leer los datos de Jamstec y trazarlos aquí, el archivo zip también contiene una hoja de cálculo con más detalles. Nuestros cálculos sugieren una temperatura oceánica promedio general entre 2004 y 2019 de 4,6 °C.

1670360993 626 El indice nacional de temperatura de EE UU ¿se basa

Figura 2. Un gráfico de la cuadrícula global de temperaturas oceánicas de JAMSTEC. Está construido principalmente a partir de flotadores ARGO y datos de boyas Triton. Jamstec es la fuente de la cuadrícula utilizada para calcular estas anomalías.

El calentamiento oceánico observado no es en absoluto alarmante y bastante lineal, sin mostrar signos de aceleración. Los océanos contienen 99,9% de la energía térmica (“calor”) en la superficie de la Tierra, la atmósfera contiene la mayor parte del resto. Esto dificulta que la superficie de la Tierra se caliente mucho, ya que los océanos actúan como un regulador térmico. Varios cálculos y constantes sobre el calor almacenado en los océanos y la atmósfera se encuentran en una hoja de cálculo que he preparado aquí. Las referencias están en la hoja de cálculo. Los océanos controlan el calentamiento con su alta capacidad calorífica, que es la cantidad de energía térmica necesaria para elevar un grado la temperatura media de los océanos. La energía térmica requerida para elevar la temperatura de la atmósfera 1000 grados C solo elevaría la temperatura promedio del océano en un grado.

Solo menciono esto porque, si bien las estaciones meteorológicas terrestres nos brindan información valiosa sobre el clima, nos dicen muy poco sobre el cambio climático. Los cambios climáticos a más largo plazo requieren mucha más información de la que tenemos actualmente sobre el calentamiento de los océanos. Dicho esto, examinemos los datos de GHCN recopilados en los Estados Unidos.

Los datos de la emisora ​​GHCN
En los EE. UU. y en el resto del mundo, las estaciones meteorológicas terrestres comprenden la mayor parte del registro de temperatura promedio en los 19el y 20el siglos. Es importante conocer su precisión y la influencia de las correcciones aplicadas en relación con el calentamiento observado. Se ha trabajado mucho para documentar los problemas con los datos terrestres. Anthony Watts y sus colegas documentaron numerosos problemas con la ubicación y el equipo de la estación en 2011 con su proyecto de estaciones de superficie. Se puede ver información importante sobre este estudio de John Neison-Gammon aquí y aquí. los Revista de investigación geofísica el papel es aquí. Muchos de los cambios radicales en el índice de temperatura de EE. UU. de la NOAA y en la base de datos subyacente en el período comprendido entre 2009 y 2014 se deben al trabajo realizado por Watts y sus colegas, tal como lo describe Matthew Menne de la NOAA en su artículo introductorio sobre la versión 2 del US Historical. Red de Climatología (USHCN):

“Además, existe evidencia de que una gran parte de los sitios HCN tienen calificaciones bajas con respecto a los criterios de clasificación de sitios utilizados por la Red de Referencia Climática de EE. UU. (A. Watts 2008 comunicación personal; consulte también www.surfacestations.org).” (Menne, Williams y Vose, 2009)

Menne, et al. reconocieron Watt y sus colegas en su documento introductorio a la red de estaciones USHCN revisada, esto sugiere que el proyecto de estaciones de superficie fue una razón importante para la revisión. USHCN era un subconjunto de alta calidad de la red completa de estaciones meteorológicas del Programa Cooperativo de Observadores (COOP) de la NOAA. Las estaciones de la USHCN se eligieron en función de su cobertura espacial, la duración de los registros, la integridad de los datos y la estabilidad histórica, según Matthew Menne. Se desarrolló un conjunto de verificaciones y correcciones de control de calidad para limpiar los registros seleccionados y estos se describen en las publicaciones de Matthew Menne y colegas. El artículo principal se cita arriba en el recuadro, pero también escribió un artículo para describir su algoritmo de homogeneización por pares, abreviado como «PHA» (Menne & Williams, 2009a). Las estaciones con problemas se eliminaron de la USHCN, ya que fueron encontradas y documentadas por Watts, et al. Como resultado, las 1218 estaciones USHCN originales se redujeron a ~832 para 2020. Las estaciones desmanteladas no se reemplazaron, los valores se «rellenaron» estadísticamente usando datos de estaciones vecinas.

A principios de 2014, el subconjunto USHCN se abandonó como fuente de datos para el Índice Nacional de Temperatura y se reemplazó con una instancia cuadriculada de GHCN, pero se mantuvieron las correcciones desarrolladas para USHCN. Simplemente se aplicaron a las 12 514 estaciones de GHCN de EE. UU., en lugar del subconjunto más pequeño de 1218 estaciones (o menos) de USHCN.

NOAA parece contradecir esto en otra página web en GHCN-Métodos diarios. En esta página dicen que GHCN-Daily no contiene ajustes por cambios de estación histórica o sesgo de hora del día. Pero señalan que GHCN-Mensual sí. Por lo tanto, parece que las correcciones se realizan después de extraer los datos diarios y mientras se construye el conjunto de datos mensuales. NOAA no manipula los datos sin procesar de GHCN-Daily, pero cuando los extrae para construir GHCN-Mensual, aplican algunas correcciones dramáticas, como veremos. Algunas páginas web de la NOAA insinúan que las correcciones de sesgo de la hora del día se eliminaron para versiones posteriores de GHCN-Monthly, pero la mayoría dice explícitamente que todavía se usan, por lo que suponemos que todavía están en uso. Uno de los hallazgos más preocupantes fue la frecuencia y la radicalidad con la que la NOAA parece estar cambiando sus procedimientos de «corrección».

El índice de temperatura de EE. UU. en evolución
Los Estados Unidos actuales”Índice Nacional de Temperatura”, extrae datos de cuadrículas de cinco kilómetros del conjunto de datos mensual de GHCN. El conjunto de datos cuadriculado mensual se denomina norteClimGrid, y es un conjunto de cuadrículas de mapas, no datos de estaciones reales. Las cuadrículas se construyen usando “interpolación asistida por climatología” (Willmott & Robeson, 1995). Las cuadrículas se utilizan para completar un conjunto de datos de temperatura promedio mensual, llamado norteClimDiv. norteClimDiv se utiliza para crear el índice.

Actualmente, el período base de la NOAA para norteLas anomalías de ClimDiv, USHCN y USCRN son 1981-2010. Construimos nuestras anomalías de estación, graficadas a continuación, utilizando el mismo período base. Aceptamos todas las estaciones que tenían al menos 12 valores mensuales durante el período base y rechazamos las estaciones con menos. Esto redujo el número de estaciones CONUS de 11.969 a 9.307. Ninguna estación fue interpolada o “rellenada” en este estudio.

Algunas fuentes han sugerido que se podrían usar datos fuera del conjunto de datos de GHCN-Daily para ayudar a construir el norteCuadrículas mensuales de ClimDiv e índice de temperatura, especialmente algunos promedios mensuales cercanos de Canadá y México. Pero NOAA/NCEI apenas mencionan esto en sus sitio web. norteClimDiv contiene datos climáticos, incluida la precipitación y un índice de sequía, así como la temperatura mensual promedio. Como se mencionó anteriormente, el mismas correcciones se hacen a los datos de la estación GHCN como se usaron en el antiguo conjunto de datos USHCN. Desde el sitio web de la NOAA:

“La primera (y más sencilla) mejora de la norteEl conjunto de datos de ClimDiv implica la actualización de la red subyacente de estaciones, que ahora incluye registros de estaciones adicionales y ajustes de sesgo contemporáneos (es decir, los utilizados en la versión 2 de la Red de Climatología Histórica de EE. UU.)” Fuente de la cita: aquí.

Además del nuevo conjunto de datos mensual de GHCN completamente corregido y el conjunto más pequeño de datos de estación corregidos de USHCN, solía haber un tercer conjunto de datos, el conjunto de datos de la división climática original de la NOAA. Como GHCN-Diario y norteClimDiv, esta base de datos más antigua utilizaba toda la red de estaciones COOP. Sin embargo, los datos COOP utilizados en el conjunto de datos más antiguo de la División Climática (llamado “TCDD” en Fenimore, et al.) no estaban corregidos. Esto se explica en un libro blanco de Chris Fenimore y colegas (Fenimore, Arndt, Gleason y Heim, 2011). Además, los datos en el conjunto de datos más antiguo simplemente se promediaron por división climática y estado, no estaba cuadriculado, como norteClimDiv y USHCN. Hay algunas estaciones nuevas en norteClimDiv, pero la mayoría son los mismos que en TCDD. La principal diferencia en los dos conjuntos de datos son las correcciones y la cuadrícula. Los datos de esta base de datos anterior se representan como una línea azul en las Figuras 6 y 7 a continuación.

Los promedios simples usados ​​para resumir TCDD, ignoraron los cambios en la elevación, los movimientos de las estaciones y otros factores que introdujeron tendencias internas falsas (discontinuidades) en muchas áreas. el mas nuevo norteEl equipo de la base de datos mensual de ClimDiv afirma tener en cuenta explícitamente la densidad y la elevación de la estación con su método de cuadrícula de «interpolación asistida por climatología» (Fenimore, Arndt, Gleason y Heim, 2011). La metodología produce los datos completamente corregidos y cuadriculados. norteConjunto de datos de cuadrícula de cinco kilómetros de ClimGrid.

norteClimDiv es más útil ya que los gradientes dentro de los Estados Unidos en temperatura, precipitación y sequía son más precisos y contienen menos discontinuidades. Pero, como explicamos en anteriores publicacionescuando norteClimDiv se reduce a un récord de temperatura anual contigua de EE. UU. (CONUS), es muy similar al récord creado por el registro de temperatura oficial más antiguo llamado USHCN, cuando ambos se cuadriculan de la misma manera. Esto puede deberse a que, mientras norteClimDiv tiene muchas más estaciones meteorológicas, se les aplican las mismas correcciones que se aplicaron a las USHCN estaciones Si bien USHCN tiene menos estaciones, son de mayor calidad y tienen registros más largos. El adicional norteLas estaciones ClimDiv, cuando se procesan de la misma manera que las estaciones USHCN, no cambian las cosas, al menos a nivel nacional y anual. Como se señaló en un Publicación anteriorremover el estiércol más rápido, con computadoras más poderosas y miles de millones de dólares, en realidad no importa para los promedios generalizados.

Hay buenas razones para todas las correcciones que NOAA aplica a los datos. El proceso de grillado sin duda mejora la utilidad de los datos internamente. Las discontinuidades del mapeo artificial se suavizan y las tendencias serán más claras. Pero las correcciones y el proceso de cuadriculado son de naturaleza estadística, no hacen nada para mejorar la precisión del Índice Nacional de Temperatura. Si se encuentra y soluciona un problema específico con un termómetro específico, se mejora la precisión. Si no se conoce la causa y las lecturas se «ajustan» o «rellenan» utilizando termómetros vecinos o un algoritmo estadístico, los mapas resultantes se verán mejor, pero no serán más precisos.

El cambio de USHCN a norteClimDiv para el Índice Nacional de Temperatura
¿Cuánto de la tendencia del Índice Nacional de Temperatura se debe al calentamiento real y cuánto se debe a las correcciones y al método de cuadrícula? ¿Cuánto error hay en las estimaciones finales de anomalías de temperatura? Décadas de críticas y revisiones del cálculo por parte de la NOAA no han respondido esta pregunta ni han cambiado el resultado. La Figura 3 muestra el Índice Nacional de Temperatura, extraído del sitio web de la NOAA el 18 de noviembre de 2020. Tanto la USHCN como la norteSe trazan los cálculos de ClimDiv. Recuerda la pendiente de la recta de mínimos cuadrados, 1,5°C por siglo, será importante más adelante en el post.

1670360993 291 El indice nacional de temperatura de EE UU ¿se basa

Figura 3. Las anomalías climáticas nClimDiv y USHCN del promedio de 1981-2010. Los datos fueron descargados de su página web. Ambos conjuntos de datos trazados provienen de cuadrículas, no de datos de estaciones. CONUS es una abreviatura de los 48 estados inferiores, los estados contiguos.

Hace tiempo que se sabe que el Índice Nacional de Temperatura no sigue los datos publicados subyacentes. anthony watts tiene informó esto, al igual que Jeff Masters, Christopher Burt y Ken Towe. Los problemas existen tanto en los datos de GHCN como en los datos de USHCN según lo informado por José D’Aleo. Brendan Godwin sospecha que los algoritmos de «homogeneización» (ver la discusión de PHA arriba) en uso hoy en día son los culpables. Cuando los datos «corregidos» tienen una tendencia muy diferente a los datos sin procesar, uno debe ser escéptico.

Anthony Watts no cree que los problemas subyacentes con la red completa de estaciones meteorológicas de COOP se hayan solucionado, como explicó aquí el año pasado. Él cree que la NOAA está “barriendo el problema debajo de la alfombra”. Los datos trazados en la Figura 3 están completamente corregidos y cuadriculados, no es un gráfico de datos de la estación. En la Figura 4, representamos los datos de la estación completamente corregidos en azul y los datos de la estación sin procesar en naranja de la parte CONUS de GHCM-Monthly. Estos son los mismos datos utilizados para construir la curva nClimDiv trazada en la Figura 3, pero la Figura 4 son datos reales de la estación.

1670360994 634 El indice nacional de temperatura de EE UU ¿se basa

Figura 4. La línea naranja es la temperatura media mensual sin corregir, que es “qcu” en Terminología de la NOAA. La línea azul está corregida, o «qcf» de NOAA.

La Figura 4 muestra las mediciones reales de las estaciones, estas no son anomalías y los datos no están cuadriculados. Los datos sin procesar muestran que CONUS se está enfriando 0,3 °C por siglo, mientras que los datos corregidos muestran que CONUS se está calentando 0,3 °C grados por siglo. Estas líneas, como todas las líneas ajustadas en esta publicación, son líneas de tendencia de mínimos cuadrados de Excel. Las líneas son simplemente para identificar la tendencia lineal más probable en los datos, por lo tanto, la R2 es irrelevante, no estamos tratando de demostrar linealidad.

La diferencia entre las dos curvas de la Figura 4 se muestra en la Figura 5. La pendiente de la diferencia es una tendencia al calentamiento de 0,57 °C por siglo. Esta es la parte del calentamiento de la Figura 3 que se debe directamente a las correcciones de las mediciones.

1670360995 258 El indice nacional de temperatura de EE UU ¿se basa

Figura 5. Esto traza la diferencia (Final-Sin procesar) entre las dos curvas de temperatura de la estación real en la Figura 4. Como puede ver, la diferencia entre las tendencias de la curva final y la curva sin procesar, desde 1890, es de aproximadamente 0,8 °C, aproximadamente el reclamó el calentamiento del mundo durante ese período.

Para muchos lectores, la Figura 4 les resultará familiar. El blog Real Science de Steven Goddard publicó un 1999 GISS de la NASA versión de las anomalías de datos sin procesar de CONUS en 2012. Desde entonces, el conjunto de datos que usó se eliminó del sitio web de la NASA, pero se puede descargar una copia aquí y se representa en la Figura 6, junto con los datos sin procesar actuales (octubre de 2020) de GHCN-M. Estamos cambiando de las mediciones de temperatura reales en la Figura 4 a las anomalías de la estación meteorológica de la media de 1981-2010 en la Figura 6.

1670360996 696 El indice nacional de temperatura de EE UU ¿se basa

Figura 6. Las anomalías de temperatura CONUS sin procesar del GISS de la NASA de 1999 en comparación con las anomalías CONUS sin procesar del GHCN-M de 2020. Las anomalías de la NASA de 1999 se desplazan hacia abajo 0,32 °C para que coincidan las medias de 1890 a 1999. Esto es para compensar las diferencias de la línea de base. Observe que las tendencias de mínimos cuadrados coinciden muy de cerca. Los datos de Hansen muestran una tendencia al calentamiento de 0,25 °C por siglo y los datos modernos muestran un calentamiento de 0,26 °C por siglo. Las ecuaciones para las líneas están en la leyenda. Consulte el texto de las fuentes de datos.

Tanto los datos actuales como los de 1999 muestran alrededor de 0,25 °C por siglo de calentamiento. La figura 7 muestra lo mismo Anomalías de datos sin procesar de GISS de 1999 en comparación con las anomalías de temperatura final de GHCN-M de 2020. Las tres gráficas sugieren que era tan cálido o más cálido en 1931 y 1933 en los estados contiguos de EE. UU. que hoy. Las diversas correcciones aplicadas a los datos sin procesar y convertir las temperaturas reales en anomalías tienen el efecto de disminuir la diferencia entre la década de 1930 y la actualidad, pero no la eliminan, al menos no en los datos de la estación en sí. Cuando se cuadriculan los datos, como se hizo para hacer la Figura 3, la tendencia se invierte por completo y las temperaturas modernas son repentinamente mucho más cálidas que en la década de 1930. Los datos de 1999 nuevamente muestran un calentamiento de 0,25 °C por siglo, pero los datos corregidos muestran un calentamiento de 0,6 °C por siglo. Esto es muy similar al calentamiento que se ve en la Figura 5, es decir, el calentamiento debido únicamente a las correcciones.

1670360996 844 El indice nacional de temperatura de EE UU ¿se basa

Figura 7. Los datos de la estación GHCN-M final y totalmente corregidos de 2020 se comparan con las anomalías de NASA/GISS CONUS de 1999. Las ecuaciones para las líneas están en la leyenda.

Las líneas azules de anomalía GISS de 1999 en las Figuras 6 y 7 son idénticas, la línea naranja en la Figura 6 son datos sin procesar y la línea naranja en la Figura 7 son datos corregidos finales. Las correcciones más grandes están en los tiempos anteriores y las correcciones más pequeñas están en las temperaturas recientes.

El ingenioso residente de WUWT y el buen chico en general, Dave Middleton, comentó sobre esto en 2016:

“No digo que sepa que los ajustes están mal; sin embargo, cada vez que una anomalía se debe por completo a ajustes de datos, me da una señal de alarma”. Middleton, 2016

Estoy de acuerdo, la lógica y el sentido común sugieren que Dave tiene razón al ser escéptico.

James Hansen escribió sobre este tema en 1999:

“¿Qué le está pasando a nuestro clima? ¿Fue la ola de calor y la sequía en el este de los Estados Unidos en 1999 una señal del calentamiento global?

La evidencia empírica no presta mucho apoyo a la idea de que el clima se dirige precipitadamente hacia un calor y una sequía más extremos. La sequía de 1999 cubrió un área más pequeña que la sequía de 1988, cuando el Mississippi casi se secó. Y 1988 fue un inconveniente temporal en comparación con las repetidas sequías durante el «Dust Bowl» de la década de 1930 que provocó un éxodo de las praderas, como se relata en el libro de Steinbeck. Uvas de la ira.” Fuente.

Por una vez, estoy de acuerdo con James Hansen.

Zeke, en rankexploits.com, la «Pizarra», trató de defender las correcciones en 2014. Zeke nos dice que USHCN y GHCN primero se corrigen por el sesgo de tiempo de medición («TOB»), luego las estaciones se comparan con sus vecinas y se realiza una homogeneización por pares. (PHA) se utiliza para suavizar las sospechas de anomalías. Presumiblemente, estos se deben a cambios en la estación, cambios en el entorno de la estación o cambios en el equipo. Finalmente, los datos de las estaciones que faltan se completan utilizando las estaciones vecinas como guía. El último paso para hacer norteClimDiv es cuadricular los datos.

Zeke señala que las correcciones de TOB y PHA no son realmente necesarias ya que el proceso de cuadrícula por sí solo probablemente hará lo mismo. Al no comprender todos los detalles de todas estas operaciones de suavizado de datos estadísticos, no ofreceré una opinión sobre el comentario de Zeke. Pero, desde una perspectiva general de mapeo, tiene razón. Desea mapear un conjunto de datos que esté lo más cerca posible de las medidas. Cuando aplica tres algoritmos de suavizado a las medidas antes de contornearlas y cuadricularlas, ¿qué tiene? ¿Qué significa?

No entraremos en los detalles de las correcciones de la NOAA aquí, son estadísticas y no correcciones a instrumentos específicos para corregir problemas conocidos. Por lo tanto, son diferentes tipos de operaciones de suavizado aplicadas secuencialmente a las mediciones. La corrección TOB está descrita por Thomas Karl y colegas (Karl, Williams, Young y Wendland, 1986). La NOAA promedia las temperaturas diarias mínimas y máximas para obtener la temperatura diaria promedio, por lo que es importante si las dos lecturas de temperatura se registran con el termómetro de mínimos y máximos a la medianoche o en algún otro momento del día. Cuando los cálculos se realizan utilizando promedios mensuales, esta diferencia es muy pequeña. Algunas páginas web de la NOAA sugieren que la corrección TOB se eliminó para las versiones más recientes de GHCN-Monthly, otras dicen que todavía se usa. De cualquier manera, probablemente no haga mucha diferencia en GHCN-Mensual o norteClimDiv.

La segunda corrección es el algoritmo de homogeneización por pares o PHA. Este algoritmo compara cada estación con sus vecinas para determinar si hay anomalías inusuales y luego intenta corregirlas. Este proceso es puramente un algoritmo de suavizado estadístico. Está descrito por Matthew Menne y Claude Williams (Menne & Williams, 2009a). Este proceso definitivamente se está utilizando en la mayoría versión reciente de GHCN-Mensual.

El paso final en el proceso de suavizado es completar los valores faltantes utilizando datos de estaciones vecinas. Esto se hace antes de la cuadrícula para que se llenen más celdas de cuadrícula. Es probable que todavía se esté rellenando en la versión más reciente.

Zeke señala que graficar las temperaturas reales, como lo hicimos en la Figura 4, puede ser engañoso. En el transcurso de los últimos 130 años, las estaciones se han movido, agregado, eliminado y la distribución espacial de las estaciones ha cambiado. La elevación media de las estaciones ha cambiado con el tiempo. Estos cambios afectan menos a las anomalías de las estaciones que a las temperaturas absolutas. Es cierto, y esto explica parte de la diferencia entre la Figura 4 y las Figuras 6 y 7. Más allá de cierto punto, el número de estaciones no importa, como se puede ver en la Figura 3. Comenzamos nuestros gráficos en 1890 o 1895 porque esto es cuando asumimos que existen suficientes estaciones en CONUS para obtener un promedio significativo. El conjunto de datos de USHCN tiene 143 estaciones en 1890 y 608 en 1895 y estas son las estaciones con los registros más largos y la mejor ubicación.

Discusiones y conclusiones
El siguiente punto de Zeke es que Goddard no cuadrificó sus datos. Por lo tanto, no se ocupó de la distribución desigual de las estaciones y la distribución cambiante de las estaciones a lo largo del tiempo. Estos son problemas reales y afectan las tendencias internas dentro de CONUS, pero la cuadrícula y las otras correcciones solo suavizan los datos. Ninguna de estas operaciones mejora la precisión. De hecho, es más probable que lo reduzcan. Si usáramos mapas de datos CONUS para identificar tendencias dentro del país, estaría de acuerdo con Zeke, suavizaría los datos. Pero aquí sólo nos preocupa el Índice Nacional de Temperatura, que es externo a CONUS. El índice es una temperatura promedio para todo el país, ninguna operación de suavizado estadístico o cuadrícula lo mejorará. El uso de anomalías, en comparación con las temperaturas reales, es importante, de lo contrario, no.

Un promedio de las anomalías de los datos de la estación es más apropiado que usar una cuadrícula para producir una tendencia de la temperatura promedio nacional. El promedio es lo más cercano a las observaciones reales que puede obtener. Las correcciones y la cuadrícula nos sacan de las medidas con varios pasos confusos.

Si las correcciones solucionaron problemas conocidos en los instrumentos, eso ayudaría a la precisión. Pero son estadísticas. Hacen que las mediciones de la estación sean más suaves cuando se mapean y suavizan las discontinuidades. En mi opinión, NOAA se ha excedido. TOB, PHA, relleno y cuadrícula son excesivos. Esto se ve fácilmente en la Figura 7 y al comparar la Figura 3 con la Figura 6 o la Figura 5. ¿La tendencia final de la Figura 3 se asemeja más a las mediciones (Figura 6) o a las correcciones netas de la Figura 5? ¡La pendiente del siglo de los datos es 0,25°, las correcciones le suman 0,35° y el “algoritmo climatológico de cuadrícula” suma 0,9°! Vale la pena decirlo nuevamente, el tipo de operaciones estadísticas que estamos discutiendo no hacen nada para mejorar la precisión del Índice Nacional de Temperatura, y probablemente lo reducen.

CONUS es una buena área para verificar la viabilidad de las «correcciones» a los datos de la estación y la eficacia del proceso de cuadrícula de temperatura. La cobertura de la estación actual es muy densa, como se ve en la Figura 1, y uno esperaría que los datos cuadriculados coincidieran bastante bien con los datos de la estación. La Figura 3 se parece a la curva “final” naranja de la Figura 7, pero de alguna manera es más inclinada, y eso le dice todo lo que necesita saber.

Dave Middleton y yo hemos estado (en mi caso “estuvimos”) en el negocio del petróleo y el gas durante mucho tiempo. Entre nosotros hemos visto más BS mapeados de los que podría encontrar en los corrales de ganado de Kansas City. Mi medidor de BS interno se pone rojo cuando escucho una larga lista de algoritmos de suavizado, algoritmos de corrección, ajustes de sesgo, etc. Quiero gritar «¡mantenga sus mapas y cálculos de &#[email protected] lo más cerca posible de los datos reales!»

En la primera parte de esta publicación, señalé que para estudiar el cambio climático, necesitamos saber más sobre el calentamiento de los océanos y la distribución y transporte de energía térmica en los océanos. Las estaciones meteorológicas terrestres ayudan a predecir el tiempo, pero no el clima. Discutimos mucho sobre diferencias relativamente pequeñas en las temperaturas de la superficie terrestre. Estos argumentos son interesantes, pero no importan mucho desde el punto de vista del cambio climático. Los océanos controlan eso, la atmósfera sobre la tierra tiene poco que ver con eso. Tomando los datos sin procesar de GHCN-Daily y ejecutarlo a través de cuatro algoritmos de suavizado diferentes (TOB, PHA, relleno y cuadrícula) es, con el debido respeto, ridículo. ¿Mi recomendación? No creas nada de eso, no es que importe mucho en lo que respecta al clima.

Un mejor indicador del cambio climático o del calentamiento global es la tendencia del calentamiento de los océanos, que se muestra en la Figura 2. Observe que la tendencia durante los últimos 16 años es de solo 0,4 °C por siglo. Compare esto con las mediciones terrestres de CONUS durante los últimos 130 años, predicen 0,25 °C, como se muestra en la Figura 6, pero el valor completamente «corregido» de NOAA es 1,5 °C, como se muestra en la Figura 3. En verdad, ¿cuál es su valor? ¿creer?

Usé R para hacer los cálculos trazados en las figuras, pero Excel para hacer los gráficos. Si quieres consultar los detalles de mis cálculos, puedes descargar mi código fuente de GHCN R aquí.

Nada de esto está en mi nuevo libro. Política y Cambio Climático: Una Historia pero cómpralo de todos modos.

Puedes descargar la bibliografía aquí.

Deja un comentario