Discussion:
Incertitudes sur les températures "globales"
(trop ancien pour répondre)
Paul Aubrin
2024-09-13 06:22:41 UTC
Permalink
La température "globale" est un indice calculé à partir d'échantillon de
températures locales. Par exemple, la "température globale" du GISS
(NASA) est calculée à partir des températures mesurées par quelques
milliers de stations météo.
Le GISS affirme que l'incertitude sur cet indice est de l'ordre de 5
centièmes de degrés.
https://data.giss.nasa.gov/gistemp/uncertainty/

Cela paraît très peu puisque chaque mesure de température individuelle
est entachée d'une incertitude de plusieurs dixièmes de degrés (sur la
valeur locale à l'endroit où est localisée la station météo elle-même),
voire plusieurs degrés dans le cas des très nombreuses stations météo
classe 4 ou 5.
Paul Aubrin
2024-09-13 12:45:28 UTC
Permalink
Post by Paul Aubrin
La température "globale" est un indice calculé à partir d'échantillon de
températures locales. Par exemple, la "température globale" du GISS
(NASA) est calculée à partir des températures mesurées par quelques
milliers de stations météo.
Le GISS affirme que l'incertitude sur cet indice est de l'ordre de 5
centièmes de degrés.
https://data.giss.nasa.gov/gistemp/uncertainty/
Cela paraît très peu puisque chaque mesure de température individuelle
est entachée d'une incertitude de plusieurs dixièmes de degrés (sur la
valeur locale à l'endroit où est localisée la station météo elle-même),
voire plusieurs degrés dans le cas des très nombreuses stations météo
classe 4 ou 5.
Analyse des incertitudes des mesures de températures avec des
thermomètres à colonne de liquide :

https://www.mdpi.com/1424-8220/23/13/5976

Les limites de résolution des thermomètres à colonne liquide (LiG), la
non-linéarité et l'étalonnage des capteurs donnent des incertitudes sur
les températures moyennes à la surface du sol (GSATA) de ±2σ RMS sur la
période 1900-1945 de ±1,7 °C ; 1946-1980, ±2,1 °C ; 1981-2004, ±2,0 °C ;
et 2005-2010, ±1,6 °C. Enfin, la GSATA du 20e siècle (1900-1999), 0,74 ±
1,94 °C, ne donne aucune information sur le taux ou l'ampleur du
changement de température.
Michel Talon
2024-09-13 13:31:44 UTC
Permalink
Post by Paul Aubrin
Les limites de résolution des thermomètres à colonne liquide (LiG), la
non-linéarité et l'étalonnage des capteurs donnent des incertitudes sur
les températures moyennes à la surface du sol (GSATA) de ±2σ RMS sur la
période 1900-1945 de ±1,7 °C ; 1946-1980, ±2,1 °C ; 1981-2004, ±2,0 °C ;
et 2005-2010, ±1,6 °C. Enfin, la GSATA du 20e siècle (1900-1999), 0,74 ±
1,94 °C, ne donne aucune information sur le taux ou l'ampleur du
changement de température.
En général, si on suppose que les erreurs de mesure sont réparties de
façon aléatoire, on admet que sur N=1000 mesures, l'incertitude sur la
moyenne est divisée par racine(N) soit ici par 30.
On passe donc d'une incertitude de 2° sur
chaque mesure individuelle à moins de 0.1° sur la moyenne de
l'ensemble des mesures. Ce genre de raisonnement est tout à fait
répandu dans l'ensemble des
mesures physiques. Évidemment ça suppose qu'il n'y a pas d'erreur
systématique,
par exemple tous les thermomètres seraient mal étalonnés exactement de
la même manière, auquel cas l'erreur sur la moyenne ne serait pas
divisée par √N.
--
Michel Talon
Paul Aubrin
2024-09-13 14:47:41 UTC
Permalink
Post by Michel Talon
En général, si on suppose que les erreurs de mesure sont réparties de
façon aléatoire, on admet que sur N=1000 mesures, l'incertitude sur la
moyenne est divisée par racine(N) soit ici par 30.
On passe donc d'une incertitude de  2° sur
chaque mesure individuelle à  moins de 0.1°  sur la moyenne de
l'ensemble des mesures.  Ce genre de raisonnement est tout à fait
répandu dans l'ensemble des
mesures physiques.  Évidemment ça suppose qu'il n'y a pas d'erreur
systématique,
Cela ne s'applique, à ma connaissance, qu'à la mesure répétée d'une même
et unique grandeur. Cela ne marche pas pour toutes les erreurs. Dans le
cas de la température "globale", on ne répète pas la mesure.
J'avais personnellement tenté (au cours d'un stage) d'appliquer ce genre
de démarche avec un numériseur (qui donnait la position d'un point sur
une tablette). Même en répétant les mesures 10 ou 100 fois, dans le cas
en question, la précision ne s'améliorait pas.
Post by Michel Talon
par exemple tous les thermomètres seraient mal étalonnés exactement de
la même manière, auquel cas l'erreur sur la moyenne ne serait pas
divisée par √N.
Michel Talon
2024-09-13 15:09:19 UTC
Permalink
Post by Paul Aubrin
Cela ne s'applique, à ma connaissance, qu'à la mesure répétée d'une même
et unique grandeur.
C'est bien le cas, on mesure une même grandeur avec 1000 thermomètres.
Qu'ils soient décalés dans le temps ou dans l'espace importe peu. Ce
qui importe c'est que les erreurs de chaque mesure soient aléatoires et
qu'on prenne la moyenne. Alors ça résulte directement du théorème limite
central ou si on veut de la marche aléatoire, qui donne le même
résultat. L'erreur sur la moyenne est en 1/sqrt(N).
--
Michel Talon
Paul Aubrin
2024-09-13 15:21:37 UTC
Permalink
Post by Michel Talon
Post by Paul Aubrin
Cela ne s'applique, à ma connaissance, qu'à la mesure répétée d'une
même et unique grandeur.
C'est bien le cas, on mesure une même grandeur avec 1000 thermomètres.
Non, on mesure environ 3000 températures dans 3000 lieux différents.
Chaque mesure a une incertitude qui dépend de la classe de la station
météo. L'incertitude sur la moyenne est, a priori, la moyenne des
incertitudes : 1000 stations à ±0,3 °C, 1000 à ±1,0 °C, 2000 à ±2,0 °C
incertitude 3300/3000 = 1,1 °C.
robby
2024-09-14 05:13:51 UTC
Permalink
L'incertitude sur la moyenne est, a priori, la moyenne des incertitudes
c'est faux.

en passant, c'est la base de toutes les expériences répétées ( et des
sondages ) visant à estimer une valeur ( binaire ou non ) que
l'incertitude décroit (en 1/sqrt ) avec le nombre d'échantillons.
--
Fabrice
Paul Aubrin
2024-09-15 20:24:00 UTC
Permalink
Post by robby
L'incertitude sur la moyenne est, a priori, la moyenne des incertitudes
c'est faux.
Ce n'est pas faux en général. Tout dépend la moyenne de quoi.
Post by robby
en passant, c'est la base de toutes les expériences répétées ( et des
sondages ) visant à estimer une valeur ( binaire ou non ) que
l'incertitude décroit (en 1/sqrt ) avec le nombre d'échantillons.
Si vous mesurez de façon répétée la même grandeur, peut-être, et à
condition que l'erreur ne soit pas systématique.

Paul Aubrin
2024-09-13 15:27:58 UTC
Permalink
Post by Michel Talon
C'est bien le cas, on mesure une même grandeur avec 1000 thermomètres.
Qu'ils soient décalés dans le temps ou dans l'espace importe peu.  Ce
qui importe c'est que les erreurs de chaque mesure soient aléatoires et
qu'on prenne la moyenne. Alors ça résulte directement du théorème limite
central ou si on veut de la marche aléatoire, qui donne le même
résultat. L'erreur sur la moyenne est en 1/sqrt(N).
J'ai eu un cours là-dessus et j'ai tenté de l'appliquer à une expérience
que je devais faire au cours de mon stage. Je m'attendais à voir
l'erreur sur la position de mes points divisée par environ 10 avec 100
mesures successives de la même grandeur physique. Dans la pratique,
l'erreur ne diminuait pas.
Dans le cas de la "température globale", la station météo de Ushuaïa et
celle de Bahia Blanca ne mesurent pas la "température globale" mais une
température locale. Pour moi, l'indicateur composite "température
globale" a une incertitude du même ordre de grandeur que celle de
chacune des mesures locales.
Loading...