Bonjour à tous,
un sujet que je ne pense pas avoir vu sur ce forum, comment peut-on évaluer l'étendue pour laquelle l'écart établi en 1 point cible reste valable.
Je m'explique, pour le cas d'une sonde de température qui assure la surveillance d'un process avec des points cibles définis critiques à 60°C, 110°C, 121.0°C et 124.0°C.
Dans ce cas, les 2 seuils 121 et 124 sont "proches", on pourrait considérer que déterminer l'erreur de justesse sur un point intermédiaire à 122.5°C nous assure la confiance.
Lorsque qu'on s'éloigne du point détalonnage, on peut avoir une erreur de mesure différente, cette différence dépend de l'écart par rapport à ce point et de la façon dont évolue l'erreur.
Cette notion de "proches" étant subjective, existe t-il une méthode mathématique pour déterminer la représentativité d'un écart déterminé par étalonnage en un point pour une étendue de mesure autour de ce point?
L'objectif étant de pouvoir optimiser les programmes de suivi métrologique.
Par avance, merci