Loading AI tools
Aus Wikipedia, der freien Enzyklopädie
Bei vielen Messaufgaben ist eine physikalische Größe nicht direkt messbar, sondern sie muss indirekt aus messbaren Größen nach einer mathematischen Formel bestimmt werden. Jeder gemessene Wert weicht von seinem richtigen Wert ab (siehe Messabweichung,[1] die ältere Bezeichnung war Messfehler). Diese Messabweichungen werden mit der Formel übertragen (oder fortgepflanzt). Daher wird auch das Ergebnis von seinem richtigen Wert abweichen. Diese Tatsache wird Fehlerfortpflanzung genannt. Für diese existieren Rechenregeln, mit denen die Abweichung des Ergebnisses bestimmt oder abgeschätzt werden kann.
Seit der Unterscheidung zwischen Messabweichung und Messfehler ist die Bezeichnung Fehlerfortpflanzung als überholt anzusehen. Da sich aber noch kein neuer Ausdruck etabliert hat, wird zur sprachlichen Einheitlichkeit hier noch die Bezeichnung Fehler beibehalten.
Systematische Fehler[1] sind im Prinzip bestimmbar, sie haben Betrag und Vorzeichen.
Bei einem systematischen Fehler der Eingangsgröße oder bei systematischen Fehlern der Eingangsgrößen lässt sich mittels der Fehlerfortpflanzungs-Regeln zu den Fehlern mit Vorzeichen der systematische Fehler der Ausgangsgröße berechnen.
Ferner kann nicht davon ausgegangen werden, dass die vom Messgerät erfasste Größe ohne Messgerätefehler angezeigt wird. In seltenen Fällen ist anhand einer Fehlerkurve zu dem Messwert der zugehörige systematische Fehler bekannt. Im Allgemeinen ist von einem Messgerätefehler nur dessen vorzeichenloser Grenzwert, die Fehlergrenze bekannt.
Bei einer Fehlergrenze der Eingangsgröße oder bei Fehlergrenzen der Eingangsgrößen lässt sich mittels der zugehörigen Fehlerfortpflanzungs-Regeln die Fehlergrenze der Ausgangsgröße berechnen.
Soweit bisher behandelt, gibt es mehrere Eingangsgrößen (unabhängige Variable, Messgrößen) und davon jeweils nur einen Wert. Anders ist es bei zufälligen Fehlern[1], die erkannt werden, wenn von einer Eingangsgröße mehrere Werte vorliegen – gewonnen durch wiederholte Bestimmung (Messung) unter konstanten Bedingungen. Aus diesen Werten lässt sich ein arithmetischer Mittelwert berechnen, der als Schätzwert der Eingangsgröße weiterverwendet wird, der aber mit einer vorzeichenlosen Typ-A-Komponente der Messunsicherheit behaftet ist.[1][2]
Bei einer Messunsicherheit der Eingangsgröße oder bei Messunsicherheiten mehrerer Eingangsgrößen lässt sich mittels der zugehörigen Fehlerfortpflanzungs-Regeln die Unsicherheit der Ausgangsgröße berechnen.
Bei Messgerätefehlern kann gemäß[1] davon ausgegangen werden, dass der Betrag des zufälligen Fehlers wesentlich kleiner ist als die Fehlergrenze (anderenfalls ist auch der zufällige Fehler bei der Festlegung der Fehlergrenze zu berücksichtigen). Bei voneinander unabhängigen Messwerten, deren Qualität von den Fehlergrenzen der Messgeräte bestimmt wird, ist die Untersuchung zufälliger Fehler dann aber nicht sinnvoll.
Die zu berechnende Größe muss durch die mathematische Formel korrekt beschrieben werden. Um leichter rechnen zu können oder mangels vollständiger Kenntnis wird aber oft auf Näherungen ausgewichen.
Ein Fehler der Ausgangsgröße, welcher aufgrund eines unzureichenden mathematischen Modells für den Zusammenhang mit den Eingangsgrößen entsteht, lässt sich mit Fehlerfortpflanzungs-Regeln nicht berechnen.
Eine Funktion lässt sich in der Umgebung einer Stelle durch eine Taylorreihe darstellen, die zweckmäßigerweise an dieser Stelle entwickelt wird. Als Voraussetzung dafür muss ein Zusammenhang zwischen einer jeden Eingangsgröße und der Ergebnisgröße eine glatte Funktion sein, wie das in der klassischen Physik und in der Technik fast immer gegeben ist. Der nachfolgend dargestellte Formalismus mit linearer Näherung benötigt nur die einfache Differenzierbarkeit.
Der Einfluss einer fehlerbehafteten Eingangsgröße auf das Ergebnis kann mittels der Taylorreihe abgeschätzt werden:
Bei genügend kleinem kann die Reihenentwicklung nach dem linearen Glied abgebrochen werden, weil Glieder mit und noch höheren Potenzen erst recht klein werden. Damit ergibt sich die Näherungslösung
Dieses liefert eine Regel zur Fehlerfortpflanzung, wenn die -Werte als absolute Fehler angesehen werden.
Bei mehreren voneinander unabhängigen Eingangsgrößen wird die entsprechende Reihenentwicklung verwendet, ebenfalls bis zum linearen Glied als Näherungslösung für kleine :
: | Gesamtfehler des Ergebnisses |
: | relativer Fehler des Ergebnisses |
: | Fehler der Eingangsgröße |
: | relativer Fehler der Eingangsgröße |
Die hier einzusetzenden partiellen Differentialquotienten liefern Aussagen, wie stark sich ändert, wenn sich von allen unabhängigen Eingangsgrößen ausschließlich ändert; die übrigen Eingangsgrößen werden jeweils als Konstanten behandelt.
Die allgemeine Lösung vereinfacht sich für die vier Grundrechenarten:
* Bei Addition | ||||
* Bei Subtraktion | ||||
* Bei Multiplikation | ||||
* Bei Division |
Die Formeln gelten nur, wenn die tatsächlichen Werte der Fehler mit Vorzeichen bekannt sind. Bei Fehlerfortpflanzung können sich die Fehler mehr oder weniger ergänzen oder aufheben.
Sind nicht die Fehler selber bekannt, sondern nur ihre Grenzen, so lässt sich derselbe mathematische Ansatz verwenden, wenn die -Werte als Fehlergrenzen angesehen werden. Diese sind vorzeichenlos, also als Betrag definiert. Für das Ergebnis lässt sich so auch nur die Fehlergrenze ausrechnen; dazu ist mit der ungünstigsten Vorzeichenkombination zu rechnen, indem Beträge addiert werden.
: | Gesamtfehlergrenze des Ergebnisses |
: | Fehlergrenze der Eingangsgröße |
: | relative Fehlergrenze der Eingangsgröße |
: | relative Fehlergrenze des Ergebnisses |
Die allgemeine Lösung vereinfacht sich bei den vier Grundrechenarten:
* Bei Addition und Subtraktion | |
* Bei Multiplikation und Division |
Gibt es von der Größe mehrere mit zufälligen Fehlern behaftete Werte mit , so ergibt sich nach den Regeln der Fehlerrechnung für Normalverteilung gegenüber dem Einzelwert eine verbesserte Aussage durch Bildung des empirischen Mittelwertes :[2]
Jeder neu hinzukommende Wert verändert mit seinem individuellen zufälligen Fehler den Mittelwert und macht ihn somit unsicher. Die Unsicherheit , die dem berechneten Mittelwert anhaftet, ist gegeben:[2]
Anschaulich sind hier näherungsweise die quadrierten zufälligen Fehler addiert worden. Für große strebt die Unsicherheit gegen null, und bei Abwesenheit systematischer Fehler strebt der Mittelwert gegen den richtigen Wert.
Wird in einer Rechnung zur Fehlerfortpflanzung als Eingangsgröße der Mittelwert verwendet, so wirkt sich dessen Unsicherheit auf die Unsicherheit des Ergebnisses aus. Bei genügend kleinem kann dieser Wert für die Fehlerfortpflanzung als in die lineare Näherung der Taylorreihe eingesetzt werden. Dabei ist zu beachten, dass Unsicherheiten als Beträge definiert sind:[2]
Bei mehreren voneinander unabhängigen Eingangsgrößen seien die Mittelwerte jeweils mit einer Unsicherheit bestimmt worden. Das Ergebnis wird aus den Mittelwerten berechnet. Zur Berechnung seiner Unsicherheit wird wieder mit der linearen Näherung bei mehreren unabhängigen Variablen begonnen; allerdings müssen – wie bei der Berechnung der Unsicherheit – die quadrierten Beiträge der Einzel-Unsicherheiten addiert werden.[2]
Diese Gleichung „wurde früher Gaußsches Fehlerfortpflanzungsgesetz genannt“.[2][3] „Sie betrifft jedoch nicht die Fortpflanzung von Messabweichungen (früher „Fehler“), sondern die von Unsicherheiten.“
Die Gleichung vereinfacht sich für die vier Grundrechenarten:
* Bei Addition und Subtraktion | ||
* Bei Multiplikation und Division |
Das Gesetz ist nur anwendbar, wenn sich die Modellfunktion bei Änderungen der Einflussgrößen im Bereich ihrer Standardunsicherheiten hinreichend linear verhält. Ist dies nicht der Fall, ist das Rechenverfahren erheblich aufwändiger. Die Norm DIN 1319[3] und der „Leitfaden zur Angabe der Unsicherheit beim Messen“ geben Hinweise, wie eine unzulässige Nichtlinearität zu erkennen und zu umgehen ist. Außerdem ist Varianzhomogenität vorausgesetzt.
Bei einer Abhängigkeit (Korrelation) zwischen fehlerbehafteten Größen muss das Gauß’sche Fehlerfortpflanzungsgesetz unter Einbeziehung der Kovarianzen oder der Korrelationskoeffizienten zwischen jeweils zwei Größen zum verallgemeinerten (generalisierten) Gauß’schen Fehlerfortpflanzungsgesetz erweitert werden:[2]
mit der Kovarianz . Für unabhängige Größen fallen die Korrelationsterme weg und es ergibt sich die Formel aus dem Abschnitt für unabhängige Größen. Die relative Unsicherheit einer Größe, die sich aus zwei vollkommen korrelierten Größen ableitet, kann dabei kleiner (besser) werden als die beiden relativen Unsicherheiten der Eingangsgrößen.
Die Fehlerfortpflanzung für ein Ergebnis und den korrelierten Messfehlern, lässt sich auch folgendermaßen formulieren:
mit als Kovarianzmatrix.
Mit Hilfe des Matrixformalismus kann das allgemeine Fehlerfortpflanzungsgesetz kompakt ausgedrückt werden als:[4]
wobei und die jeweiligen Kovarianzmatrizen der Vektoren und sind und die Jacobi-Matrix . Dabei handelt es sich hier nicht nur um ein Ergebnis wie im oben genannten Beispiel, sondern um einen Vektor mit vielen Ergebnissen, die aus den Eingangsgrößen abgeleitet werden. Die Standardabweichung für jedes ergibt sich nun aus den Wurzeln der Diagonalelemente .
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.