Bonjour,
Je suis enseignant et mes collègues et moi-même ne savons pas bien expliqué à nos étudiants la signification de l'exactitude d'un multimètre.
Dans les caractéristiques des multimètres on trouve des formules donnant l'exactitude ou la "précision" - par exemple : +-(% de la lecture + % de la gamme).
J'ai bien compris la manière de faire le calcul mais je ne comprends pas bien ce qu'elle représente et comment on l'obtient.
1ère question : Que représente cette relation ? Une Erreur Maximale Tolérée ou une incertitude ?
2ième question : Savez-vous comment le constructeur a établi cette relation ? A-t-il comparé l'affichage du multimètre à un multimètre étalon ? Existe-t-il une norme ou un standard là-dessus ?
3ième question : Comment calculer une incertitude à partir de la valeur de l'erreur d'exactitude ? Applique-t-on une loi rectangle ?
4ième question : Connaissez-vous de la bibliographie sur ce sujet ?
Merci par avance.