close

Anmelden

Neues Passwort anfordern?

Anmeldung mit OpenID

Einfürung Messen Statistik Fehler

EinbettenHerunterladen
Einführung in die physikalischchemischen Übungen
L.V. – Nr.: 646.521
WS , 2-stündig
Univ.Prof. Dr. Volker Ribitsch
MESSEN
Messen in Naturwissenschaft und Technik
Messen ist eine grundlegende Tätigkeit in den Naturwissenschaften.
Die meisten experimentellen Vorgänge in der Physikalischen Chemie lassen
sich auf Messvorgänge zurückführen.
Max Plank in seiner Rede über die „Physikalische Gesetzlichkeit“ (1926/02/14):
„Das Wesen der physikalischen Gesetzlichkeiten und der Inhalt der physikalischen
Gesetze lässt sich nicht durch reines Nachdenken erschließen. Es gibt hierfür
keinen anderen Weg als den, sich vor allem an die Natur zu wenden, in ihr
möglichtst zahlreiche und vielseitige Erfahrungen zu sammeln, dieselben
miteinander in Vergleich zu bringen und zu möglichst einfachen und weittragenden
Sätzen zu verallgemeinern.
Da der Inhalt einer Erfahrung umso reicher ist, je genauer die Messungen sind,
die ihr zugrunde liegen, so versteh sich von selbst, dass der Fortschritt aller
physikalischen Erkenntnisse auf das Engste verknüpft ist mit der Verfeinerung der
physikalischen Instrumente und der Technik des Messen.“
Messen in Naturwissenschaft und Technik
Experiment – Messen
Das Messen und die Verfeinerung der Instrument gehört zu den
grundlegenden Tätigkeiten der menschlichen Zivilisation und wurde zuerst im
Handel ausgeübt.
Erkenntnisse über Naturvorgänge durch Beobachtung
Naturwissenschaften
Experimentelle
Erkennen der Gesetzmässigkeiten durch gezielte Beobachtungen und exakte
Beschreibungen - Messen
Experiment sind Fragestellungen an die Natur um gezielte Beobachtungen zu
tätigen
Exakte Beschreibung durch Hilfsmittel bei der Beobachtung - Messgeräte
welche vergleichbare, objektive Ergebnisse erzielen
Experiment – Messen
•
Gewichts- und Längenmaße in Funden aus 3 000 v. Chr., wobei die
Längenmaße Reisenentfernungen oder Körpergrößen waren. Die
kleinste Gewichtseinheit etwa ein Getreidekorn – heute „grain“
•
Jedes Experiment endet in der Messung einer physikalischen Größe:
•
Messergebnis: Zahlenangabe * Vergleichseinheit
z.B.
Längenmessung: Anlegen der Einheitslänge an das
Messobjekt
•
Ergebnis:
•
Die physikalische Information steckt in der Maßeinheit
•
Zahlenwert * Maßeinheit
E = Z * [a]
Messtechnische Begriffe
Messen:
Feststellen von Quantität einer Größe durch Vergleich mit einer bekannten
Vergleichsgröße.
Direktes Messen:
Ergebnis aus experimentell ermittelten Messwerten direkt gewonnen durch
Vergleich in der Dimension der zu messenden Größe.
z.B. Längenmessung mit Maßband
Indirektes Messen:
Ergebnis aus experimentell ermittelten Messwerten aufgrund kausaler
Zusammenhänge errechnet.
z.B. Ermittlung des spez. Widerstands eines Leiters aus seinem
Widerstand x Querschnitt : Länge des Leiters
Dichte einer Flüssigkeit aus Masse / Volumen
Messgröße:
physikalische Größe ZAHL + EINHEIT
Messtechnische Begriffe
Messwert:
Messtechnisch zugängliche Information die mit der Messgröße verglichen wird
oder Information die mittels Messgerät über die Messgröße erhalten wir (Daten)
Auflösung (resolution):
Eine Messspanne in eine bestimmte Anzahl von Schritten geteilt
(Hochauflösende Messgeräte müsse nicht genau sein)
kleinste beobachtbare Einheit: Analog nicht unbedingt definiert
Digital genau definiert
Genauigkeit (accuracy):
Abweichung des Messwertes vom Erwartungswert
vom Messwert oder vom Endwert (FS)
z.B. 1m ± 0,02m
angegeben: absolut 0,5 K relativ 0,5%
l = Messwert, ∆l = absoluter Fehler, ∆l / l = relativer Fehler
Klasseneinteilung f. Messgenauigkeit: 5 / 2,5 / 1 / 0,5 / 0,25 / 0,1 / 0,025%
Messtechnische Begriffe
• Präzision (precision)
• Wiederhol-Genauigkeit (reproducabitity)
• Stabilität (stability):
Bei der Angabe der Genauigkeit (Fehlers) wird die Zeit, über
die diese gehalten wird, berücksichtigt. Eichkurve!
• Linearität:
Abweichung von einem linearen Zusammenhang. Maß für den
Verlauf des relativen Fehlers über den Messbereich.
Integrale
• Rückwirkung:
Jede Messung beeinflusst den Prozess.
Widerstandsthermometer, Strahlungsthermometer
Dimensionen, Größen, Einheiten
Quantitativ erfassbare Größen lassen sich
qualitativ unterscheiden:
Länge, Zeit, Kraft, Arbeit ... Einheit, Dimension, Größenart
Größen in Formeln symbolisch t ... Zeit, v ... Geschwindigkeit, usw.
und quantitativ – Zahlenangabe
Das Messen und zahlenmäßige Festhalten einer Größe erfordert die
Festlegung einer Einheitsgröße (Einheit), welche reproduzierbar definiert
sein muss
Größe = Zahlenwert
x Einheit
z.B.
S
= 2 x [1m] = 200 x [1cm]
= 2 000 x [1mm]
Dimensionen, Größen, Einheiten
Die Einheit der Geschwindigkeit ergibt sich aus der physikalischen Gleichung
s
v=
t
1m
[v] =
1s
Ebenso für die Beschleunigung
g=
[g ] =  m2 
∆v ∆s
= 2
∆t ∆t
s 
So ist auch die Einheit der Kraft
gegeben als
F = m⋅b
m
[F ] = 1kg ⋅1 2
s
Manche dieser abgeleiteten Einheiten haben eigene Namen, im Fall der Kraft
z.B. [N] = Newton
Als Basisartensysteme gibt es historisch zwei bedeutende:
1. Physikalisches System: Länge, Masse, Zeit / M K S ; C G S
2. Technisches System: Länge, Kraft, Zeit m kp s ; brit. ft lb s
• Nach langwierigen Bemühungen ⇒ Internationales
Einheitensystem (1960)
SI
System International de Unites
• Bei Einheiten unterscheidet man:
Basiseinheiten und abgeleitete Einheiten
Wissenschaftlich unbegründet – durch die Physik nicht eindeutig
geboten
Maßeinheiten
1. Basiseinheiten
SI Basiseinheit
Größe
Name
Länge
Masse
Zeit
elektrische Stromstärke
thermodynamische Temperatur
Stoffmenge
Lichtstärke
Meter
Kilogramm
Sekunde
Ampere
Kelvin
Mol
Candela
Einheitenzeichen
m
kg
s
A
K
Mol
cd
Maßeinheiten
2. Abgeleitete Einheiten:
Durch Kombination von Basiseinheiten gebildet
SI Einheit
Größe
Name
Fläche
Volumen
Geschwindigkeit
Beschleunigung
Wellenzahl
Dichte
Elektrische Stromdichte
Magnetische Feldstärke
Stoffmengenkonzentration
Spezifisches Volumen
Leuchtdichte
Quadratmeter
Kubikmeter
Meter / Sekunde
Meter / Sekundenquadrat
Reziprokes Meter
Kilogramm / Kubikmeter
Ampere / Quadratmeter
Ampere / Meter
Mol / Kubikmeter
Kubikmeter / Kilogramm
Candela / Quadratmeter
Einheitenzeichen
m²
m³
m/s
m/s²
m-1
kg/m³
A/m²
A/m
mol/m³
m³/kg
cd/m²
Maßeinheiten
3. Abgeleitete Einheiten mit besonderen Namen:
SI Einheit
Größe
Name
Einheiten
-zeichen
Frequenz
Kraft
Druck, Spannung
Energie, Arbeit, Wärmemenge
Leistung, Energiestrom
Elektrizitätsmenge, elektrische Ladung
elektrisches Potential, elektrische
Spannung, elektromotorische Kraft
elektrische Kapazität
elektrischer Widerstand
elektrischer Leitwert
magnetischer Fluss
magnetische Flussdichte, Induktion
Induktivität
Celsius-Temperatur (a)
Lichtstrom
Beleuchtungsstärke
Aktivität (radioaktive)
Energiedosis
Herz
Newton
Pascal
Joule
Watt
Coulomb
Volt
Hz
N
Pa
J
W
C
V
Farad
Ohm
Siemens
Weber
Tesla
Henry
Grad Celsius
Lumen
Lux
Becquerel
Gary
F
Ω
S
Wb
T
H
°C
lm
lx
Bq
Gy
durch andere
SI Einheiten
ausgedrückt
N/m²
Nm
J/s
W/A
C/V
V/A
A/V
Vs
Wb/m²
Wb/A
lm/m²
J/kg
durch SI
Basiseinheiten
ausgedrückt
s-1
m kg s-2
m-1 kg s-2
m² kg s-2
m² kg s-3
sA
m² kg s-3 A-1
m-² kg-1 s4 A²
m² kg-1 s-3 A-²
m-² kg s3 A²
m² kg s-2 A-1
kg s-2 A-1
m² kg s-2 A-²
K
cd sr
m-² cd sr
s-1
m² s-2
Maßeinheiten
4. Abgeleitete Einheiten die mit Hilfe von besonderen Namen ausgedrückt werden:
SI Einheit
Größe
Name
dynamische Viskosität
Moment einer Kraft
Oberflächenspannung
Wärmestromdichte, Bestrahlungsstärke
Wärmekapazität, Entropie
spezifische Wärmekapazität,
spezifische Entropie
spezifische Energie
Wärmeleitfähigkeit
Energiedichte
elektrische Feldstärke
elektrische Ladungsdichte
elektrische Flussdichte, Verschiebung
Permittivität
Permeabilität
molare Energie
molare Entropie, molare
Wärmekapazität
Ionendosis (Röntgen- u. g-Strahlen)
Energiedosisleistung
Pascalsekunde
Newtonmeter
Newton / Meter
Watt / Quadratmeter
Joule / Kelvin
Joule / Kilogramm-Kelvin
Joule / Kilogramm
Watt / Meter-Kelvin
Joule / Kubikmeter
Volt / Meter
Coulomb / Kubikmeter
Coulomb / Quadratmeter
Farad / Meter
Henry / Meter
Joule / Mol
Joule / Mol-Kelvin
Coulomb / Kilogramm
Gray / Sekunde
Einheiten
-zeichen
durch SI Basiseinheiten
ausgedrückt
Pa s
Nm
N/m
W/m²
J/K
m-1 kg s-1
m² kg s-2
kg s-2
kg s-3
m² kg s-2 K-1
J/(kg K)
J/kg
W/(m K)
J/m³
V/m
C/m³
C/m²
F/m
H/m
J/mol
J/(mol K)
m² s-2 K-1
m² s2
m kg s-3 K-1
m-1 kg s-2
m kg s-3 A-1
m-3 s A
m-2 s A
m-3 kg-1 s4 A2
m kg s-2 A-2
m² kg s-2 mol-1
m² kg s-2 K-1 mol-1
C/kg
Gy/s
kg-1 s A
m² s-3
Maßeinheiten
5. Ergänzende Einheiten:
SI Einheit
Größe
Name
ebener Winkel
räumlicher Winkel
Radiant
Sterandiant
Einheitenzeichen
rad
sr
6. Abgeleitet Einheiten die mit Hilfe von ergänzenden Einheiten
ausgedrückt werden:
SI Einheit
Größe
Name
Winkelgeschwindigkeit
Winkelbeschleunigung
Radiant / Sekunde
Radiant /
Sekundenquadrat
Watt / Sterandiant
Watt / QuadratmeterSterandiant
Strahlstärke
Strahldichte
Einheitenzeichen
rad/s
rad/s²
W/sr
W m-2 sr-1
SI Vorsätze
Vorsilben für dezimale Vielfache und Teile von Einheiten:
101
102
103
106
109
1012
1015
1018
Deka
Hekto
Kilo
Mega
Giga
Tera
Peta
Exa
da
h
k
M
G
T
P
E
10 -1
10 -2
10 -3
10 -6
10 -9
10 -12
10 -15
10 -18
Dezi
Zenti
Milli
Mikro
Nano
Piko
Femto
Atto
10 -10 Angström Å
Verhältnisgrößen:
10 -2
10 -3
10 -6
Prozent
Promille
Parts per million
%
%0
ppm
d
c
m
µ
n
p
f
a
Messgenauigkeit
Mittlerer quadratischer Messfehler für ausgewählte Messgrößen
Messgröße Messbereich
Messfehler
10-10 10-9 10-8 10-7 10-6 10-5 10-4 10-3 10-2 10-1 10-0
Länge
(0 ...1) m
1m
(1 ... 100) m
Winkel
(0 ... 360)°
Volumen
(10-3... 105) m³
Zeit
(10-7 ... 1) s
1s
>1s
Frequenz
1 MHz; 10 kHz
1 kHz; 1 Hz
(10-2... 106) Hz
Masse
(1 ...1000) g
1 kg
(1 ... 1000) kg
(1 ...60) t
Kraft
(5* 10-3...50) kN
(1 ...150) kN
(5 ... 1000) kN
(0,02 ... 10)MN
Messgenauigkeit
Mittlerer quadratischer Messfehler für ausgewählte Messgrößen
Messgröße Messbereich
Messfehler
10-10 10-9 10-8 10-7 10-6 10-5 10-4 10-3 10-2 10-1 10-0
Druck
(0,1 ... 0,6) MPa
(0,6 ... 2) MPa
(2 ... 14 000) MPa
Elektrische
Stromstärke
(10-11...1) A
1A
(1 ... 104) A
(10-2 ... 6) A
~(6 ... 6 000)A
Elektrische
Spannung
(10-4...2) V
1V
(2 ... 105) V
(10-6... 1) V
~(10-2 ... 25* 104) V
Elektrischer
Widerstand
(10-5... 10-1) Ω
1Ω
(1 ... 105) Ω
(106 ... 1012) Ω
Messgenauigkeit
Mittlerer quadratischer Messfehler für ausgewählte Messgrößen
Messgröße Messbereich
Messfehler
10-10 10-9 10-8 10-7 10-6 10-5 10-4 10-3 10-2 10-1 10-0
Lichtstärke
1 cd
(1 ... 10-3) cd
Leuchtdichte
(1 ... 108) cd*m-²
Lichtstrom
(10 ...2* 104) lm
Temperatur
(-180 ... 0) °C
(0 ... 450) °C
(450 ... 360) °C
(360 ... 4 000) °C
FEHLER
Fehler
Übersicht:
Fehler und Abweichungen
Fehlertypen
Präzision
Genauigkeit
Richtigkeit
Genauigkeit, Richtigkeit, Präzision nach DIN
Messunsicherheit
Wiederholpräzision
Vergleichspräzision
Ausreißer
Präzise und Richtig
Präzise und Falsch
Unpräzise und Richtig Unpräzise und Falsch
Fehler
Fehler und Abweichungen
Der Wahre Wert bzw. Mittelwert unterscheidet sich vom Erwartungswert durch einen
Fehler (error).
Die Abweichung (deviation) ist dagegen die Differenz zwischen Zufallsvariable und
Mittelwert innerhalb einer Stichprobe.
Im Würfelbeispiel wäre dies die Abweichung für jeden Wurf von 3,5.
Der systematische Fehler (bias) ist die Differenz zwischen dem Mittelwert und dem
Erwartungswert – Wahren Wert.
Im Würfelbeispiel wäre der bias 3,5 - 3,33 = 0,17.
Fehler
ε = x − yx
systematischer Fehler
b = x − yx
Abweichung
d i = xi − x
Fehler
Fehlertypen /1
Neben den sogenannten groben Fehlern „Blödheiten“ (falscher Zollstock, Maßband für
Mikromessungen) spielen zwei Fehlertypen eine Rolle:
Statistische (zufällige) Fehler (error):
Sie bestimmen die Präzision (Reproduzierbarkeit) eines Verfahrens;
sie sind meist nicht vollständig vermeidbar und häufig nicht charakterisierbar.
Die Reproduzierbarkeit (precision) ist ein Maß für die Streuung zwischen
Zufallsvariablen.
Systematische Fehler (bias):
Sie beeinflussen die Richtigkeit (accuracy, trueness) eines Analysenverfahrens;
sie sind die Abweichungen der Ergebnisse vom Erwartungswert und werden durch
störende Einflüsse (nicht erwartete Komponenten) oder fehlerhafte Messtechnik (falsche
Methode, fehlerhaftes Gerät, verzogener Zollstock) verursacht.
Sie können nur durch Vergleichsmessungen
mit anderer Technik
in anderen Labors
durch Ringversuche
entdeckt werden, jedoch nicht durch Wiederholungsmessungen.
Messfehler
Arten von Fehlern / Systematische Fehler
Ursachen
Unvollkommenheit der Messgeräte (z. B. Linearitätsfehler, Nullpunktsverschiebung,
Eichfehler)
Unvollkommenheit des Mess- und Auswerteverfahrens
Betrag und Vorzeichen systematischer Fehler sind konstant.
Problem
Systematische Fehler müssen als solche erkannt werden, damit ihre Ursachen beseitigt
bzw. ihre Auswirkungen auf das Messergebnis korrigieren werden können.
Grobe Fehler
Unzulänglichkeiten des Experimentators
Messfehler
Arten von Fehlern / Statistische Fehler
Ursachen
zufallsbedingte Einflüsse (statistischer Natur)
Umwelteinflüsse
Betrag und Vorzeichen statistischer Fehler sind unbekannt.
Problem
Statistische Fehler können nicht korrigiert werden. Eine Verbesserung des
Messergebnisses ist nur durch Wiederholung der Messung möglich.
„wahrer“ Wert
nur statistischer Fehler
statistischer und
systematischer Fehler
Fehler
Fehlertypen /2
Eine häufig benutze Darstellung des Erwartungswerts eines Testergebnisses ist der
Mittelwert.
In diesem Fall stellt der bias die Abweichung zwischen dem Mittelwert einer Anzahl von
Ergebnissen und dem anerkannten Referenzwert dar.
Dies wird in der analytischen Chemie meist als systematischer Fehler bezeichnet.
Häufig wird auch accuracy als Gesamtfehler verwendet.
Leider sind die DIN- und ISO-Normen uneinheitlich. Daher sollen alle diese Begriffe
nochmals in einer Tabelle zusammengefasst werden:
Genauigkeit, Richtigkeit, Präzision nach DIN /1
Man kann auch die Begriffe Genauigkeit, Richtigkeit und Präzision einführen (nach
Wegscheider). Es wird dann zwischen der qualitativen Bezeichnung Genauigkeit und der
quantitativen Bezeichnung Ergebnisunsicherheit, Messunsicherheit unterscheiden. Sie
teilt sich in eine systematische und eine zufällige Ergebnisabweichung.
Fehler
Genauigkeit, Richtigkeit, Präzision nach DIN / 2
Genauigkeit (accuracy, nach DIN 55350):
Qualitative Bezeichnung für das Ausmaß der Annäherung von Ermittlungsergebnissen
an den Bezugswert, wobei dieser je nach Festlegung oder Vereinbarung der wahre,
der richtige oder der Erwartungswert sein kann.
Richtigkeit (trueness, accuracy of the mean, nach DIN 55350):
Qualitative Bezeichnung für das Ausmaß der Annäherung des Erwartungswertes des
Ermittlungsergebnisses an den Bezugswert, wobei dieser ja nach Festlegung oder
Vereinbarung der wahre oder der richtige Wert sein kann.
Präzision (precision, nach DIN 55350):
Qualitative Bezeichnung für das Ausmaß der gegenseitigen Annäherung voneinander
unabhängiger Ermittlungsergebnisse bei mehrfacher Anwendung eines festgelegten
Ermittlungsverfahrens unter vorgegebenen Bedingungen.
Fehler
Messunsicherheit
Die Messunsicherheit ist ein Parameter, der - verbunden mit dem Messergebnis - die
Streuung der Werte charakterisiert, die vernunftgemäß auf die Messgröße
zurückzuführen sind. Die Messunsicherheit setzt die Grenzen, innerhalb derer ein
Ergebnis als genau, d.h. präzise und wahr, angesehen wird.
Die Messunsicherheit beinhaltet normalerweise viele Faktoren. Einige dieser Faktoren
werden durch die statistische Verteilung der Ergebnisse von Serienmessungen
bestimmt und können durch die experimentelle Standardabweichung charakterisiert
werden.
Die anderen Faktoren, die auch durch Standardabweichungen charakterisiert werden
können, werden mittels angenommener Wahrscheinlichkeitsverteilungen, basierend
auf experimentellen oder anderen Informationen, bestimmt.
Fehler
Messunsicherheit
Beispiel:
Die Unsicherheit kann durch Feststellung aller Faktoren, die zur Unsicherheit beitragen,
immer abgeschätzt werden. Der Beitrag der einzelnen Faktoren wird über
Standardabweichungen, entweder aus wiederholten Messungen (für zufällige Faktoren) oder
aus anderen Informationsquellen (für systematische Faktoren) abgeschätzt.
Die gesamte Unsicherheit wird über die Varianzen der einzelnen Unsicherheitsfaktoren
berechnet und als eine Standardabweichung dargestellt. Die gesamte Unsicherheit mit
einem Streufaktor von 2 multipliziert ergibt (näherungsweise) ein 95%-Vertrauensintervall.
Die Unsicherheit bei der Bestimmung von z.B. Atrazin in Wasser setzt sich aus mehreren
verschiedenen Unsicherheitsfaktoren zusammen wie z.B.
Unsicherheit des wahren Atrazingehalts des Standards,
Unsicherheit bei der Verdünnung des Standards,
Unsicherheit bezüglich des Verlusts von Atrazin beim Probenziehen
und Lagern vor der Analyse
Unsicherheit beim "Vorkonzentrieren" nach der Korrektur für die
Wiederfindung.
Das Ergebnis wird folgendermaßen dargestellt: 1,02 ±0,13 mg/l
Fehler
Wiederholpräzision
Die Wiederholpräzision ist die Präzision (Zeitabhängigkeit des Fehlers) unter
wiederholbaren Bedingungen.
Die Wiederholpräzision ist ein Maß für die Übereinstimmung zwischen den Ergebnissen
von unabhängigen Messungen desselben Analyten, wobei alle der nachfolgend
aufgelisteten Bedingungen erfüllt sein müssen:
Anwendung der gleichen Messmethode,
durch den gleichen Betreuer,
mit demselben Messinstrument,
am selben Ort,
unter denselben Versuchsbedingungen,
Wiederholung während einer kurzen Zeitperiode.
Es werden unabhängige Messungen an verschiedenen Unterproben eines Testmaterials
durchgeführt. Wenn möglich, sollten wenigstens acht Messungen durchgeführt werden.
Die Wiederholpräzision ist ein Charakteristikum einer Methode und nicht eines
Ergebnisses.
Fehler
Wiederholpräzision
Beispiel:
Aufeinanderfolgende Messungen unter den oben genannten Bedingungen ergeben acht
Einzelergebnisse, von denen die Standardabweichung berechnet wird.
Die Standardabweichung multipliziert mit 2,8 ergibt eine Wiederholpräzision auf einem 95%Vertrauensniveau.
Angenommen, ein Analytiker benutzt eine Methode, bei der eine Wiederholpräzision von
2µg/ml festgestellt wurde.
Wenn, im Realfall, der gleiche Analytiker in einem kurzen Zeitintervall Messergebnisse von
50 und 56 µg/ml erhält, würde man die Richtigkeit der Untersuchung in Frage stellen, da ein
Unterschied von 6µg/ml bei einer Wiederholpräzision von 2mg/ml als zufällige Schwankung
sehr unwahrscheinlich wäre.
Richtiger wäre es, eine Methode, bei der die Vergleichspräzision unter reproduzierbaren
Bedingungen betrachtet wird, anzuwenden.
Fehler
Vergleichpräzision
Die Vergleichspräzision ist die Präzision unter reproduzierbaren Bedingungen.
Sie ist ein Maß für die Übereinstimmung zwischen den Ergebnissen von unabhängigen
Messungen desselben Analyten in einzelnen Unterproben eines Testsatzes, wobei die
einzelnen Messungen unterschiedlichen Bedingungen unterliegen, wie:
anderer Betreuer,
andere Messinstrumente,
an einem anderen Ort,
andere Versuchsbedingungen,
zu einer anderen Zeit;
dabei wird immer dieselbe Methode verwendet.
Fehler
Wiederholpräzision
Beispiel:
Von einem Labor werden vergleichbare Proben (z.B. Oberflächenwasser) zu einigen
anderen Labors zur Bestimmung von z.B. Nitrat verschickt.
Jedes Labor gibt sein Ergebnis als einen einzigen Wert an. Die Standardabweichung aller
einzelnen, angenommenen Ergebnisse multipliziert mit 2,8 ergibt die Vergleichspräzision auf
einem 95%-Vertrauensniveau.
Annahme: die Vergleichspräzision einer Methode wurde als x bestimmt.
Wenn die Ergebnisse für eine Unterprobe derselben Gesamtprobe zweier Laboratorien im
Realfall um mehr als x voneinander abweichen, so wird man die Qualität der
Durchführungen in Frage stellen.
Methoden, die eine große Vergleichspräzision besitzen, sind nicht geeignet, um in einer
realen Situation einen gültigen Vergleich anzustellen. In diesem Fall muss entweder die
Methode verbessert oder eine andere Methode mit einer kleineren Vergleichspräzision
verwendet werden.
Fehler
Ausreisser
Ausreisser sind Messwerte, die signifikant von anderen Messwerten abweichen und
durch Ausreissertests ermittelt werden.
Es gibt viele Ausreissertests (z. B. Nalimov), sie sind aber alle problematisch. Entweder
stimmt die angenommene Verteilung nicht oder es liegt ein systematischer Fehler vor.
Manche Experimentatoren lassen keine Ausreisser zu: man muss prüfen, ob ein realer,
d. h. systematischer Fehler vorliegt. Wenn dies der Fall ist, muss der Messwert aus dem
Datensatz entfernt werden. Ist dies nicht nachweisbar, so darf der Messwert nicht
entfernt werden.
Die meisten Tests basieren auf Verteilungen und Definitionen von Vertrauensintervallen.
Fehler
Vergleich von unabhängigen Stichproben
Vergleich zweier Standardabweichungen (F-Test)
Vergleich zweier Mittelwerte (t-Test nach Student)
Vergleich zweier Mittelwerte (Beispiele)
Schnelltest nach Tukey
Vergleich zweier unabhängiger Stichproben nach Komogoroff und Smirnoff
Vergleich zweier unabhängiger Stichproben (U-Test)
Test zu den Prüfverteilungen
Messfehler
Übersicht - Fehlerbehaftetes Messsystem
äußere Störungen
stört
Messgröße
Messgröße
Messobjekt
stört Übertragungsverhalten
(Temperatur, Druck, ...
Übertragungsverhalten
Rückwirkung
innere Störungen
Ausgabe
Rückwirkung
vom Empfänger
Messfehler
Beispiel (für Rückwirkung)
Spannungsmessung
Maschenregel
Ri ⋅ I a + RV ⋅ I a − U 0 = 0
Messwert
U a = RV ⋅ I a = U 0 − Ri ⋅ I a
(U0 wird nicht richtig gemessen; Fehler wird minimal bei hohem Innenwiderstand
des Messgerätes)
VERTEILUNGEN
Verteilungen
Begriffe der Wahrscheinlichkeitsrechnung
Die Daten werden in einer Datenliste zusammengefasst, aus der die Häufigkeit
(Anzahl der Fälle des Auftretens eines bestimmten Ereignisses) und
Wahrscheinlichkeit (relative Häufigkeit: Häufigkeit eines Ereignisses zur Gesamtzahl
aller Ereignisse; für eine große Anzahl von Ereignissen) entnommen werden können.
Die Gesamthäufigkeit entspricht der Anzahl der Daten. Die Gesamtwahrscheinlichkeit
ist die erste Voraussetzung. Sie fordert die stochastische Unabhängigkeit der
einzelnen Messdaten (eine Messung darf nicht von der vorangegangenen abhängig
sein).
Sind alle Ereignisse gleichwahrscheinlich, so spricht man von
Gleichwahrscheinlichkeit (z. B. bestimmte Augenzahl bei einem Würfel zu werfen).
Die Dichtefunktion (bei diskreten Verteilungen auch Wahrscheinlichkeitsfunktion
genannt) gibt die Häufigkeit gleicher Ereignisse, die Verteilungsfunktion dagegen
deren relative Häufigkeit an.
Dies wird in Diagrammen (Folie Messwerte, Ergebnis, Zufallsvariable - Diskrete Verteilungen)
dargestellt.
Verteilungen
Begriffe der Wahrscheinlichkeitsrechnung
Neben dieser Definition aus der Mathematik hat sich eingebürgert, die
Dichtefunktionen auch allgemein als Verteilungskurven zu bezeichnen.
• für diskrete Zufallsvariablen: E(X) = ∑i xi • f(xi)
• für kontinuierliche Zufallsvariablen: E(X) =
∞
-∞∫
x • f(x) • dx
Der Erwartungswert entspricht dem Wert, den man im Mittel erwartet.
Es gibt symmetrische oder schiefe, eingipfelige oder mehrgipfelige
Verteilungen.
Verteilungen
Wahrscheinlichkeitsfunktion
Die Wahrscheinlichkeitsfunktion ist das Pendant zur Dichtefunktion bei diskreten
Zufallsvariablen.
Eine Wahrscheinlichkeitsfunktion f(x) ist nur für diskrete Zufallsvariablen definiert.
Die Funktion f(xi) gibt für jede Ausprägung xi der Zufallsvariablen X die
Wahrscheinlichkeit ihres Auftretens an:
f(xi) = W(X=xi) (i=1,2,...)
Die Wahrscheinlichkeit, dass eine kontinuierliche Zufallsvariable einen konkreten Wert
annimmt, ist Null. Es lässt sich immer nur die Wahrscheinlichkeit für einen bestimmten
Wertebereich (a ≤ X ≤ b) angeben (siehe auch Dichtefunktion).
Verteilungen
Dichtefunktion
Die Dichtefunktion wird dazu verwendet, um zu erkennen, welche Wertebereiche der
Zufallsvariablen wahrscheinlicher sind als andere. Aus der Verteilungsfunktion für
kontinuierliche Zufallsvariablen ist dies nicht unmittelbar möglich.
Sie ist quasi das Pendant zur Wahrscheinlichkeitsfunktion für diskrete Zufallsvariablen
und wird auch ähnlich bezeichnet: f(x).
Jedoch lässt sich aus der Dichtefunktion f(x) nicht unmittelbar die Wahrscheinlichkeit
konkreter Werte (z.B. X=1,2367) ablesen, da diese bei kontinuierlichen
Zufallsvariablen immer Null ist. Nur für einen Wertebereich (a ≤ X ≤ b) lässt sich eine
Wahrscheinlichkeit angeben.
Sie entspricht dem Integral der Dichtefunktion in den Grenzen von a bis b:
W(a≤X≤b) = a∫b f(x) • dx = F(b) - F(a)
Da die Integration nur eine Umkehrung der Differentiation ist, erhält man das gleiche
Ergebnis, wenn man die Differenz F(b) - F(a) der Werte der Verteilungsfunktion an den
Stellen a und b bildet.
Zur Berechnung der Wahrscheinlichkeit von Wertebereichen für kontinuierliche
Zufallsvariablen verwendet man praktischerweise immer die Verteilungsfunktion.
Verteilungen
Verteilungsfunktion
Die Verteilungsfunktion F(x) gibt die relative Häufigkeit von Ereignissen an. Sie
entspricht somit der Wahrscheinlichkeit, dass die Zufallsvariable X höchstens den Wert
x annimmt.
F(x) = W(X ≤ x)
Sie ist für diskrete und für kontinuierliche Zufallsvariablen definiert.
Häufig interessieren die unteren p Prozent einer theoretischen Verteilung.
Während bei der Verteilungsfunktion die Wahrscheinlichkeit W bei gegebenem x die
gesuchte Größe ist, ist bei dieser Fragestellung die Wahrscheinlichkeit W=p bekannt,
und es wird der zugehörige Wert x der Zufallsvariablen gesucht. Dazu benötigt man
die Umkehrung Q(p) der Verteilungsfunktion (inverse Verteilungsfunktion)
Ähnlich wie bei empirischen Verteilungen ein Median, ein Quartil oder ein Perzentil
einen bestimmten Teil der Verteilung abtrennt (die unteren 50%, das untere Viertel, die
unteren 43%), wird hier ein bestimmter Teil einer theoretischen Verteilung abgetrennt.
Verteilungen
Kontinuierliche Verteilungen
Die Wahrscheinlichkeitsfunktion wird zur Dichtefunktion.
Zum Beispiel bei einer Uhr, deren Zeiger sich kontinuierlich und nicht ruckweise bewegt.
Stetige Verteilungen
Zufallszahlen können jeden beliebigen Wert von theoretisch - ∞ bis + ∞
annehmen; die Funktion muss stetig sein.
Normal-Verteilung, Gauß-Verteilung
Die Gauß-Verteilung ist eine Erwartungsverteilung für eine unendlich große
Grundgesamtheit, die real aber immer nur durch eine (oder mehrere) Stichproben
charakterisiert werden kann. Die reale Dichtefunktion und der Erwartungswert x
werden vom wahren Wert µ und der Dichtefunktion der Grundgesamtheit
abweichen.
2
f (x ) =
1
σ ⋅ 2π
⋅e
−
( x − ˆx )
2σ 2
Je nach Lage des Erwartungswertes ˆ
x (oft auch Mittelwert genannt) und dem Wert für σ
verändert sich das Erscheinungsbild der Funktion.
2
Verteilungen
Gaußverteilung bei zwei verschiedene Werten für σ
Verteilungen
f(x) 0,14
0,12
0,1
0,08
0,06
0,04
0,02
0
1
3
-3σ
5
-2σ
7
-σ
68%
9
11
13 15 17 19
+σ
+2σ +3σ
95%
99,7% x
Gauß´sche Verteilungsfunktion mit wahrem Wert, Standardabweichung und Mittelwert
Verteilungen
Kontinuierliche Verteilungen
Standard-Normalverteilung, z-Verteilung
Man verwendet eine erlaubte lineare Transformation, die die Verteilung
nicht ändert und formt um zu
z=
x − ˆx
σ
so dass sich die Dichtefunktion ergibt zu
1
f z (Z ) =
⋅e
2π
z2
−
2
Dabei liegt der Mittelwert bei 0 und die Standardabweichung σ bei 1.
Diese Standardnormalverteilungen sind jetzt problemlos berechenbar
und tabelliert.
Verteilungen
Übersicht über die Verteilungen
Verteilung
Typ
Parameter
Beispiele
Formeln
Binomial
diskret
2
n : Anzahl der Versuche
p : Wahrscheinlichkeit
Kugeln
Massenspektren
 n
n− x
f (x ) =   ⋅ p x ⋅ (1 − p )
 x
p ist A oder B
Poisson
diskret
1
λ : Ereignis-Rate oder
Ereignis-Dichte
radioaktiver Zerfall
Chromatographie
Gauß
stetig
2
ˆx : der Schwerpunkt
σ : die Streuung
Fehlerrechnung
e − λ ⋅ λx
p(x ,λ ) =
x!
n • p ≤ 20
p<0,02; n>100,
f (x ) =
1
σ ⋅ 2π
⋅e
−
( x − ˆx )2
2σ 2
MAßZAHLEN DER VERTEILUNGEN
Maßzahlen der Verteilungen
Zu den Maßzahlen gehören die schon in den Begriffen der Statistik
behandelten Begriffe wie der Mittelwert, die Varianz, die
Standardabweichung und andere.
Weiterführend werden folgende Themen behandelt:
Schätzer
Punktschätzer
Höhere Momente
Erwartungsbereich
Vertrauensbereich
Auswirkungen des Vertrauensbereichs
Vorhersagebereich
Maßzahlen der Verteilungen
Schätzer
Der Begriff „Schätzer“ ist eine allgemeine Bezeichnung für Maßzahlen, die aus den
Messdaten berechnet werden können.
Je nach dem Rechengang bzw. dem erzielten Wert verwendet man verschiedene
Begriffe.
• Punktschätzer liefern dabei nur einen Wert: Mittelwert, Varianz und andere.
• Intervallschätzer liefern mehrere: Vertrauensbereich
Punktschätzer
Zu den Punktschätzern gehören der Mittelwert, die Varianz, die Standardabweichung,
die Varianz des Mittelwertes, die Standardabweichung des Mittelwertes und die relative
Standardabweichung.
Höhere Momente
Zu den höheren Momenten gehören die Potenzmomente, die Schiefe (skewness), die
Wölbung, die Steilheit, und der Exzess (curtosis).
Erwartungsbereich
erw( x) = x ± ta / 2 , f ⋅ sdv(x )
Der Erwartungsbereich wird auf die Grundgesamtheit der Messwerte bzw. auf eine
Einzelmessung bezogen. α % aller Messwerte liegen außerhalb des angegebenen
Bereiches. Dabei gibt f die Anzahl der Freiheitsgrade an. Der entsprechende t-Faktor
wird aus Tabellen entnommen.
Maßzahlen der Verteilungen
Vertrauensbereich
cnf (x ) = x ± ta / 2 , f ⋅ sdv(x )
= x ± ta / 2 , f ⋅
dv( x )
n
Diese Definition bezieht sich auf die Schwankungsbreite je nach Stichprobe berechneter
Mittelwerte.
Der nicht bekannte wahre Wert liegt mit 1 - α % Wahrscheinlichkeit innerhalb dieses
Bereiches. Schon diese Formeln weisen darauf hin, dass die Präzision von der Anzahl
der Messwerte und auch dem sogenannten Student t-Faktor abhängen.
Die Messunsicherheit ui ergibt sich aus dem halben Vertrauensbereich und dem
systematischen Fehler entsprechend:
ui = t ⋅ sdv( x )
n
+b
Maßzahlen der Verteilungen
Auswirkungen des Vertrauensbereiches
Der Zusammenhang zwischen verschieden breiten Vertrauensbereichen auf die
Erkennungsgrenze, Nachweisgrenze und Bestimmungsgrenze lässt sich am besten
durch folgende zwei Abbildungen wiedergeben. Weitere Informationen zu der
Erkennungsgrenze, Nachweisgrenze und Bestimmungsgrenze erhalten Sie später:
yb ±t α
y
(Signal)
2 , fb
⋅dsv( yb )
ydec = yb ±t α
2 , fb
⋅dsv( yb ) + tα
2, fc
⋅ dsv( yc )
Analysenfunktion
xdtc = ˆx( y = ydec )
Kalibrierfunktion
ydec
yB
Vertrauensbereiche
σ
dsv( yB )
td
2
xB
xdtc
xdtm
x
(Konzentration)
Maßzahlen der Verteilungen
Vorhersagebereich
Eine neue Stichprobe mit nb Messwerten liegt innerhalb des Vertrauensbereiches,
wenn die Messungen alle innerhalb von prd(x) liegen. Der entsprechende t-Faktor
wird aus Tabellen entnommen.
12
prd ( x ) = x ± ta / 2, f
1 1
⋅ sdv( x) ⋅  + 
 na nb 
Mittelwert
alte Analyse
gemischte effektive
Datenpunktzahl
na ⋅ nb  1 1 
neff =
=  + 
na + nb  na nb 
prd ( x ) = x ± ta / 2, f −1 ⋅
−1
sdv(x )
neff
BEGRIFFE DER STATISTIK
Begriffe der Statistik
Übersicht:
Mittelwert
Erwartungswert
Streumaß, Varianz
Standardabweichung
Varianz und
Standardabweichung des Mittelwertes
Messwerte, Ergebnis, Zufallsvariable
Grundgesamtheit, Stichprobe, Messwert
Spannweite und Datenzahl
Übersicht über verschiedene Begriffe der
Statistik:
Grundgesamtheit m
Mittelwerte
Bias b
Unsicherheit des Messwertes ε bzw. e
Präzision des Einzelwertes s(x)
Präzision des Mittelwertes s( )
Vertrauensbereich des Mittelwertes cnf( )
Faktor α der Student-Verteilung
x
x
x
Begriffe der Statistik
Mittelwert
Der Mittelwert wird auch weitläufig als Durchschnitt oder arithmetisches Mittel bezeichnet.
Er wird berechnet, indem man alle Daten aufsummiert und durch die Datenanzahl teilt. Bei
n Daten xi ergibt sich die Formel:C
n
∑ xi
(µ ) = x = ˆx = i =l σ y2
n
Als Beispiel soll ein Würfelexperiment betrachtet werden, bei welchem nacheinander
folgende Zahlen auftreten:
6 2 3 3 5 6 1 2 1 2 5 6 4 1 3
Augenzahlen bei 15 Würfeln
Der Mittelwert beim Würfelexperiment ergibt sich zu:
50
(µ ) = x = ˆx = = 3,33
15
Begriffe der Statistik
Häufigkeit des Auftretens von Würfelaugenzahlen und deren Mittelwert
Würfelexperiment
3
Häufigkeit
Mittelwert
2
1
0
1
2
3 3,33 4
Augenzahl
5
6
Begriffe der Statistik
Erwartungswert
Der Erwartungswert (einer Menge) ist theoretisch und kann normalerweise
nie exakt bekannt sein. Es ist der Wert, den man in einer perfekten Messung
erhalten würde. Erwartungswerte sind naturgemäß unbestimmt.
Beispiel 1: Im Würfelbeispiel entspricht der Erwartungswert 3,5. Dies bedeutet, dass
man bei einem idealen Würfel im Mittel 3,5 erhalten sollte, wenn man unendlich oft würfelt.
Erhält man jedoch bei unendlich vielen Würfen nicht 3,5 als Mittelwert, dann ist die
Differenz der sogenannte bias.
Beispiel 2: Der erhaltene Wert für die Konzentration von Blei in Wasser sei 3,2 mg/l.
Dieser Wert ist das Ergebnis von einhundert Messungen mit verschiedenen Techniken.
Wenn eine nachfolgende Messung der Probe einen Wert von 3,5 mg/l ergibt, entspricht
dies nicht dem Erwartungswert. Gibt man den Wert dieser nachfolgenden Messung mit
seiner zugehörigen Unsicherheit an, z. B. 3,5 ±0,5 mg/l, so kann man sagen, dass
innerhalb der Unsicherheitsgrenzen dies dem Erwartungswert entspricht.
Begriffe der Statistik
Streumaß, Varianz /1
Eine weitere charakteristische Größe neben dem Mittelwert ist das Streumaß
(Standardabweichung bzw. die Varianz). Die Varianz ist ein Maß dafür, wie die
einzelnen Daten um den Mittelwert verteilt sind (wie stark die Daten um den Mittelwert
streuen).
Für die Varianz gilt: var(x) aus n Daten xi:
1 n
1 n 2
2
2
(
)
−
=
−
var ( x ) =
x
x
x
n
x
∑ i
∑ i


n − 1 i =1
n − 1  i =1
Hierbei wird durch n-1 geteilt, weil der in die Formel eingesetzte Mittelwert aus den
Daten berechnet wird. Dadurch wird die Zahl der Freiheitsgrade reduziert. Bei der
Berechnung der Varianz wird das Quadrat verwendet, da damit weiter außerhalb
liegende Punkte das Ergebnis stärker beeinflussen.
Im Würfelbeispiel wird der berechnete Mittelwert von 3,33 eingesetzt. Die Varianz ergibt
sich damit zu
1 n
2
(
)
s = var ( x ) =
x
−
3
,
33
= 3,52
∑ i
15 − 1 i =1
2
Begriffe der Statistik
Streumaß, Varianz /2
Bezieht man sich jedoch nicht auf den Mittelwert x, sondern auf den Erwartungswert µ,
so teilt man nicht durch n-1, sondern durch n. Man spricht auch oft vom Fehler der
Einzelmessung bzgl. Erwartungswert:
1 n
1n 2
2
σ = ∑ ( xi − µ ) = ∑ xi − nµ 2 
n i =1
n  i =1

Dabei werden griechische Symbole (Bezug auf den Erwartungswert) statt römische
Buchstaben (Bezug auf den berechneten Mittelwert) gewählt: σ2 (Varianz) oder σ
(Standardabweichung).
Im Würfelbeispiel ist der Erwartungswert dadurch charakterisiert, dass man von einem
idealen Würfel ausgeht, und bei vielen Würfen im Schnitt 3,5 erhält. Der
Erwartungswert ist dann 3,5. Die Varianz bezüglich dem Erwartungswert ergibt sich im
Würfelbeispiel zu:
1 n
2
σ = ∑ (xi − 3,5) = 3,32
15 i =1
Begriffe der Statistik
Standardabweichung
Die Standardabweichung wird in der Praxis häufiger als die Varianz verwendet, da sie
die gleiche Dimension wie die Messwerte hat:
Die Standardabweichung s(x) oder sdv(x) ist die Wurzel aus der Varianz und wird oft
als mittlerer quadratischer Fehler der Einzelwerte bezeichnet:
s( x ) = sdv( x ) = var ( x ) = s 2 ( x )
Dieser Wert hängt nicht vom Umfang der Stichprobe ab, sondern wird von der Qualität
einer Messmethode beeinflusst. Man sieht aus der Gleichung, dass die wachsende
Messwertanzahl durch die Fehlersummation kompensiert wird.
Im Würfelbeispiel ergibt sich die Standardabweichung bezogen auf den Mittelwert zu:
s( x ) = sdv( x ) = 3,52 = 1,88
Die Standardabweichung kann natürlich auch wie die Varianz auf den Erwartungswert
bezogen sein:
σ (x ) = sdv(x ) = var ( x ) = σ 2 (x )
Im Würfelbeispiel ergibt sich die Standardabweichung bezogen auf den Erwartungswert
zu:
σ (x ) = sdv(x ) = 3,32 = 1,82
Begriffe der Statistik
Varianz und Standardabweichung des Mittelwertes
Varianz des Mittelwertes var( x ) :
Standardabweichung des Mittelwerts sdv( x ) :
var ( x )
var ( x ) =
n
sdv( x ) = var ( x )
Eine größere Anzahl von Messungen verbessert die Sicherheit des Mittelwertes
Relative Standardabweichung relsdv ( x ):
sdv( x )
relsdv( x ) =
x
Variationskoeffizient:
Der Variationskoeffizient ist ein Maß für die Streubreite und gibt den Abstand zwischen
kleinstem und größtem Wert (auch Spannweite genannt) an.
Begriffe der Statistik
Messwerte, Ergebnis, Zufallsvariable
Messwerte (measured value): gemessene, beobachtete oder abgelesene Werte. Es
handelt sich um die Quantiät, welche gemessen wird.
Ergebnis (result): Ergebnis einer Analyse nach der Durchführung der Messung und
aller nachfolgender Auswertungsschritte.
Zufallsvariable (variate): numerischer Wert eines Messwertes oder eines
Ergebnisses. Merkmal, dessen konkrete Ausprägungen sich von
Untersuchungsobjekt zu Untersuchungsobjekt unterscheiden.
Im einzelnen können diese annehmen:
ganz bestimmte diskrete Werte (Würfelspiel, Anzeige einer Digitaluhr),
innerhalb eines definierten begrenzten Bereiches kontinuierlich jeden beliebigen
Zwischenwert (Zeiger einer analogen Uhr),
schwankend um einen bestimmten Wert herum jeden beliebigen Wert, wobei die
Wahrscheinlichkeit mit Zunahme der Entfernung immer geringer wird, theoretisch
aber nicht den Wert 0 annimmt (Ablesen eines analogen Messinstrumentes).
Begriffe der Statistik
Messwerte, Ergebnis, Zufallsvariable - Diskrete Verteilungen
Solche Verteilungen liegen nur vor, wenn diskrete definierte Werte angenommen werden
können; ein Beispiel ist das Würfeln. Die Wahrscheinlichkeit der Einzelereignisse gibt die
Wahrscheinlichkeitsfunktion wieder (alle f(k) gleich bei großer Datenanzahl und
Gleichverteilung). Die Verteilungsfunktion liefert dann die „Summation“ dieser f(k) bis zu
einer vorgegebenen Grenze - falls über alle Möglichkeiten, so wird F(k) = 1.
f(k)
Wahrscheinlichkeitsfunktion
Verteilungsfunktion
F(k)
k
k
1
2
3
4
5
6
1
2
3
4
5
6
Diskrete Gleichverteilung, links Wahrscheinlichkeitsfunktion, rechts Verteilungsfunktion
Begriffe der Statistik
Grundgesamtheit, Stichprobe, Messwert
Jede Zufallsvariable gehört zu einer unendlich großen Menge möglicher Zufallsvariablen.
Diese wird als Grundgesamtheit (population) bezeichnet. Eine begrenzte Menge aus
dieser wird Stichprobe (series) genannt.
Das Auftreten einer Zufallsvariablen lässt sich durch eine bestimmte
Wahrscheinlichkeitsfunktion beschreiben, welche die Verteilung der Zufallsvariablen um
einen Erwartungswert der Grundgesamtheit (berechneter Wert, möglichst nahe am
Erwartungswert) beschreibt.
Dabei nimmt man Begriffe wie Mittelwert zur Charakterisierung von diskreten Verteilungen,
während ein Erwartungswert sowohl diskrete als auch kontinuierliche Verteilungen
beschreibt.
Spannweite und Datenzahl
Die Spannweite (range) R = xmax − xmin wird als Differenz zwischen größtem und
kleinstem Wert einer Stichprobe definiert. (Im Würfelbeispiel 6-1=5)
Die Anzahl an Zufallsvariablen wird als Datenzahl bezeichnet. (Im Würfelbeispiel 15, da
man 15 Würfe oder 15 Würfel mit einem Wurf vorliegen hat).
Begriffe der Statistik
Mittlerer Fehler des Mittelwertes /1
Standardfehler
Der Fehler ist von n abhängig und beschreibt die Genauigkeit des Mittelwertes!
(
xi − x )
∑
σx =
2
s(xJ )
∆x = t ⋅ s / n1 2
N ( N − 1)
ist sicher kleiner als die Streuung in den Einzelbeobachtungen (xJ)
Annahme: s(xJ) ~ konstant so ergibt die gemittelte und die quadrierte Varianz:
n
( s ( x ))
j
2
∑ ( s ( x ))
2
j
=
1
s ( x ) ~ s ( xj ) n
→
n2
n
2
= s
12
n
=t⋅ s
n1 2
Begriffe der Statistik
Mittlerer Fehler des Mittelwertes /2
Die t - Faktoren hängen von der Zahl der Beobachtungen und der geforderten statistischen
Sicherheit ab.
t=
Einzelwerte n
3
4
5
6
8
10
50
S = 68% ± 18 S = 95% ± 28 S = 99% ± 36
t 68
t 95
t 99
1,32
1,20
1,15
1,11
1,08
1,06
1,01
4,30
3,20
2,80
2,60
2,40
1,65
1,20
9,90
5,80
4,60
4,00
3,50
3,25
2,70
FEHLERFORTPFLANZUNG
Fehlerfortpflanzung
Bei funktionsmäßiger Verknüpfung zweier oder mehrerer Messwerte
pflanzen sich die Fehler fort. Die Teilfehler addieren sich quadratisch.
Bei Summen oder Differenzen sind die Quadrate der Absolutfehler,
bei Produkten oder Quotienten die Quadrate der Relativfehler zu
addieren.
Weiterführend Themen sind in der Literatur behandelt:
Fehlerfortpflanzung nach Doerffel
Herleitung des Gauß´schen Fehlerfortpflanzungsgesetzes
Gauß´sches Fehlerfortpflanzungsgesetz
Anwendung des Gauß´schen Fehlerfortpflanzungsgesetzes
Fehlerfortpflanzung
Fehlerfortpflanzung /1
Fehlerfortpflanzung nach Doerffel
Die Fehlerfortpflanzung nach Doerffel enthält die Rechenregeln für die Fehlerfortpflanzung
bei Anwendung der wichtigsten Grundrechenarten.
Standardabweichung des Mittelwertes SEM =
Addition:
Subtraction:
SD
n
( A ± σ A ) + (B ± σ B ) = ( A + B ) ± σ A2 + σ B2
( A ± σ A ) − (B ± σ B ) = ( A − B ) ± σ A2 + σ B2
2
2


σ
σ
A
B

+
Multiplikation: ( A ± σ A ) ⋅ (B ± σ B ) = A ⋅ B 1 ±
2
2 
A
B


Division:
2
2 

σ
σ
(A ± σ A )
A
B

A 
( B ± σ B ) = B 1 ± A 2 + B 2 


( )
Fehlerfortpflanzung
Fehlerfortpflanzung /2
B
Absolute
Messfehler
An
sin A
cos A
tan A
cot A
relative
Messfehler
n An-1 • ∆A
cos A • ∆A
- sin A • ∆A
∆A / cos²A
- ∆A / sin²A
n (∆A / A)
cot A • ∆A
- tan A • ∆A
2∆A / sin 2A
- 2∆A / sin 2A
{}
∆x = Abweichung
Addition: y = x1 ± x2
x1 = 1m ± 0,001m
x2 = 5m ± 0,1m
∆x = ± 0,11m
∆y = ± [I ∆x1I + I∆x1I]
A in Bogenmaß
Fehlerfortpflanzung
Fehlerfortpflanzung /3
Ausdruck
Absoluter
Messfehler
relativer
Messfehler
y = f(x1 .... xn)
x1+ x2+ x3 ...
∆y
∆x1+ ∆x2+ ∆x3
x1 - x2 - x3 ...
∆x1+ ∆x2+ ∆x3
∆y / y
∆x1 + ∆x2 + ∆x3
x1 + x2 + x3
∆x1 + ∆x2 + ∆x3
x1 − x2 − x3
x1 . x2 . x3 ...
∆x1 . x2 . x3 +
x1 . ∆x2 . x3+
x1 . x2 . ∆x3...
a .x
a . ∆x
∆x1
x1
+
∆x2
x2
∆x / x
+
∆x3
x3
Fehlerfortpflanzung
Fehlerfortpflanzung /5
[η ] = k ⋅ M a
[ηrel ] = η L − η LM
η LM
[η ] =
η sp
c
ηL = t ⋅ k
ηrel = 1,5 ± 0,01
η spez = 0,5 ± 0,01
η rel − 1
t1 = 6 0 sec t2 = 4 0 sec
σ t1 = ± 0, 3 σ t2 = ± 0, 2
= 0, 5 % = 0, 5 %
Fehlerfortpflanzung
Fehlerfortpflanzung /6
[η ] = ηred
ηred =
ηrel
c→0
η spec
η spec = η − 1
c
t ⋅k
t
= 1 −1 = 1 −1
t2 ⋅ k
t2
ηrel = 1,5 ± 0, 01
η spez = 0,5 ± 0, 01
ηred =
η spez
c [ g / ml ]
=
0,5 ± 0, 01
0, 0020 ± 0, 00002
ηred = 250 ± 5, 6 ml / g ( ±2% )
Fehlerfortpflanzung
Beitragende und nichtbeitragende Fehler
Je nachdem, ob sich ein Fehler einer Größe merklich auf das Endergebnis auswirkt oder
nicht, ist der Fehler beitragend oder nichtbeitragend.
Eine Größe kann nicht beitragend sein, weil sie relativ präzis gemessen wird oder weil sie
zu einem sehr viel größeren Wert addiert wird.
Vermutet man, dass die Größe nicht beitragend ist, reicht es aus ihren Fehler grob
abzuschätzen, vorausgesetzt die Abschätzung liegt auf der hohen Seite.
Ist der hoch angesetzte Fehler vernachlässigbar, befinden man sich auf sicherem Boden,
wenn nicht muss man auf die Messungen zurückgreifen und den Fehler sorgfältig bestimmen.
Beispiel: Aufeinanderfolgende Wägung eines Gegenstandes.
50,3853 g
50,3846 g
50,3847 g
50,3849 g
Mittelwert: 50,3849 ± 0,0003 g
Wir erwarten, dass dieser Messreihe viel präziser als mehrere andere bei diesem speziellen
Experiment ist, und schätzen den Fehler einfach durch kritisches Ansehen der Werte ab. Der
Wert 0,0003 g für den Fehler umfasst 3 der 4 Ablesungen, somit bedeutet er fast sicher eine
Überschätzung des Fehlers.
Fehlerfortpflanzung
Fehler und Experimentelles Vorgehen /1
Z = A + B oder A – B
alles hängt von den relativen Größenordnungen von A und B ab.
Fall 1:
A = 10 000 ± 1,
B=
100 ± 5,
Z = A + B = 10100 ± 5
A ist eine große, genau bekannte Größe, B wurde auf 5% genau gemessen, die Endgröße
hat sich auf 0,005% genau ergeben.
Es ist ein Vorteil, von einer großen genau bekannten Größe auszugehen, und einen kleinen
zusätzlichen Term einfach zu messen um die gesuchte Größe zu erhalten.
Fall 2:
A = 100 ± 2,
B = 96 ± 2,
Z=A–B= 4±3
Die beiden gemessenen Größen sind auf 2% genau bestimmt, jedoch ist die Endgröße nur auf
75% genau bekannt.
Es ist unvorteilhaft die Differenz von zwei nahezu gleichen Größen zu bilden, die unabhängig
voneinander gemessen werden.
Der Fehler wird stark vergrößert. Falls möglich sollte eine andere Messmethode für Z
gefunden werden.
Fehlerfortpflanzung
Fehler und experimentelles Vorgehen /2
Infolge des Quadrierens ist ein Fehler häufig im Vergleicht mit einem anderen
vernachlässigbar.
Z = A + B,
Betrachten wir den Fall
ist ∆A=2 und ∆B=1 folgt
∆Z = (2² + 1²)1/2 = 2,24
Obwohl ∆B halb so groß ist wie ∆A, machen die völlige Vernachlässigung von ∆B und
das Gleichsetzen von ∆Z ≈ ∆A = 2 nur einen Unterschied von 1 Teil aus 8 im Endfehler
aus.
Falls Z die Summer mehrerer Größen ist, könnte die Vernachlässigung von Fehlern, die
nur halb so groß sind wie der größte Fehler ziemlich drastisch sein. Fehler sind fast
immer zu vernachlässigen, die weniger als ein Drittel des größten Fehlers ausmachen.
Was ist, wenn sich die Größen selbst stark in ihrer Größenordnung stark unterscheiden?
zB: B ist in der Gleichung ein kleiner Korrekturterm
A = 100 ± 6
B=
5±?
Der Fehler von B ist vernachlässigbar, wenn er nicht mehr als 3 ausmacht, aber ein
solcher Fehler beträgt 60% von B; d.h. es muss sehr ungenau gemessen werden wenn
der Fehler etwas beitragen sollte.
Bei Multiplikationen und Divisionen werden die Quadrate nicht der Fehler selbst,
sondern die der relativen Fehler addiert. Es können alle relativen Fehler vernachlässigt
werden, die kleiner als ein Drittel des größten relativen Fehlers sind.
Fehlerfortpflanzung
Fehler und experimentelles Vorgehen /3
Z = A + B oder A – B
Beispiele für Methoden, die entwickelt wurden, um die Vorteile des Falles 1 auszunutzen
und die des Falles 2 zu vermeiden. Sie zeigen, den Einfluss der Fehlerbetrachtung auf die
Versuchsdurchführung.
Z.B.: Die Größe Z = A/B soll gemessen werden. Nach einer Reihe von Messungen wurde
gefunden:
A = 1 000 ± 20,
B=
10 ± 1
Damit wird
∆A/A = 2% und ∆B/B = 10%, daraus folgt
∆Z/Z = (2²+10²)½ . 10-² = 10,2%
Bei Zeit für weitere Messungen kann versucht werden den Fehler von A oder B um einen
Faktor 2 zu verkleinern.
Bei Verwendung auf A: ∆A/A = 1% und damit
∆Z/Z (1² +10²)½ . 10-² = 10,0%
Bei Verwendung auf B: ∆B/B = 5% und damit
∆Z/Z (2² + 5²)½ . 10-² = 5,4%
Im ersten Fall wird der Gesamtfehler kaum verändert, während er im Zweiten fast um den
Faktor 2 reduziert wird.
Konsequenz:
Konzentration auf Größen, die das meiste zum Endfehler beitragen!!
Fehlerfortpflanzung
Herleitung des Gauß´schen Fehlerfortpflanzungsgesetzes /1
Die Fehlerfortpflanzung nach Doerffel besteht aus speziellen Fällen der Gauß´schen
Fehlerfortpflanzung.
Dies soll an einem einfachen Beispiel bei einem Quadrat gezeigt werden. Die Fläche einer
Tischplatte ergibt sich als F = a b. Sind die Kantenlängen fehlerbehaftet, so erhält man ea
und eb als Fehler. Somit:
F = (a ± ea ) ⋅ (b ± eb )
F = a ⋅ b ± a ⋅ eb ± b ⋅ ea ± ea ⋅ eb
eF = a ⋅ eb ± b ⋅ ea ± ea ⋅ eb
eF = a ⋅ eb ± b ⋅ ea
weil beim Fehler in der Fläche das Fehlerprodukt ea ⋅ eb vernachlässigt werden kann. Ein
Fehler in a macht sich desto mehr bemerkbar, je größer der Fehler in b ist und umgekehrt.
Ersetzt man nun diese Parameter a und b durch die Ableitungen der Zielgröße, so erhält
man:
∂F
=b
∂a
und
∂F
=a
∂b
Fehlerfortpflanzung
Herleitung des Gauß´schen Fehlerfortpflanzungsgesetzes /2
dies eingesetzt in die erste Gleichung:
eF = ±a ⋅ eb ± b ⋅ ea
eF =
∂F
∂F
ea ±
eb
∂a
∂b
2
2
∂F ∂F
 ∂F 
 ∂F 
eF2 =   ⋅ ea2 +   ⋅ eb2 + 2 ⋅ ρ ⋅ ea ⋅ eb ⋅
⋅
∂a ∂b
 ∂a 
 ∂b 
ergibt nach Quadrieren einen Zusammenhang, in dem ρ die Anzahl der gleichsinnigen
bzw. gegensinnigen Vorzeichen beschreibt. Werden a und b völlig unabhängig
voneinander bestimmt und es wird zwischen beiden kein Zusammenhang bestehen, dann
wird ρ = 0. Sind aber a und b normalverteilte Zufallsvariable, so ist eF2 eine mittlere
quadratische Abweichung, also die Varianz der jeweiligen Stichprobe.
Somit ergibt sich das allgemeine Gaußsche Fehlerfortpflanzungsgesetz als
2
2
∂F ∂F
 ∂F 
 ∂F 
var(F ) =   ⋅ var(a ) +   ⋅ var(b) + 2 ⋅ ρ ⋅
⋅
⋅ sdv(a ) ⋅ sdv(b)
∂a ∂b
 ∂a 
 ∂b 
Fehlerfortpflanzung
Herleitung des Gauß´schen Fehlerfortpflanzungsgesetzes /3
wobei das Produkt
ρ ⋅ sdv(a ) ⋅ sdv(b) = cov(a ,b)
als Covarianz bezeichnet wird. Allgemein geschrieben:
2
 ∂F 
∂F ∂F


var(F ) = ∑ 
⋅ var( pi ) + ∑
⋅
⋅ con( pi p j )

i ≠ j ∂pi ∂p j
 ∂pi 
oder
2
2
2
 ∂f 
 ∂f 
 ∂f  2
σ =   σ 12 +   σ 22 + ..... + 
 σn
 ∂xn 
 ∂x1 
 ∂x2 
Fehlerfortpflanzung
Gauß´sches Fehlerfortpflanzungsgesetz
2
 ∂F 
∂F ∂F


⋅ var( pi ) + ∑
⋅
⋅ con( pi p j )
var(F ) = ∑ 

i ≠ j ∂pi ∂p j
 ∂pi 
oder
2
2
2
 ∂f 
 ∂f 
 ∂f  2
σ =   σ 12 +   σ 22 + ..... + 
 σn
 ∂xn 
 ∂x2 
 ∂x1 
• Dies ergibt den mittleren Fehler des Ergebnisses aus den mittleren Fehlern der
Eingangsdaten.
• Beim Beispiel der Fläche hängen normalerweise die Kanten nicht voneinander ab,
deswegen tritt keine Covarianz auf.
Dies wäre anders, wenn z. B. gefordert würde, dass Gesamtkantenlänge
festgelegt ist oder dass es sich um ein Quadrat handeln würde (a = b).
Fehlerfortpflanzung
Anwendung des Gauß´schen Fehlerfortpflanzungsgesetzes
• Die einfachste Anwendung ist die Fehlerfortpflanzung des Analysenergebnisses.
Ein Beispiel ist die Titration, bei der ein mittlerer Verbrauch, die relative Molmasse (ist festgelegt, daher
fehlerfrei) und die Konzentration der Maßlösung das Analysenergebnis bilden. Über die Gauß´sche
Fehlerfortpflanzung kann auch der Fehler abgeschätzt werden.
• Aufwendiger ist die Berechnung der Fehlerfortpflanzung bei Messungen mit externen
Standards (DC, HPLC, UV-, IR-Spektrometrie). Allerdings tritt hier auch keine Covarianz auf, da
Standard-Bestimmung und Analyse in getrennten voneinander unabhängigen Läufen durchgeführt
werden.
• Bei Einsatz interner Standards wird man zur Referenzlösung der zu untersuchenden
Substanz eine definierte Menge einer chemisch ähnlichen Substanz als internen Standard
hinzugeben. Aus dieser Referenzanalyse lässt sich ein Umrechnungsfaktor k bestimmen, der auch
bei der Analysenmessung gültig sein muss. Es kann davon ausgegangen werden, dass in der
Referenzlösung fehlerfreie Mengen vorliegen und dass die Messwerte keine Covarianzterme enthalten.
• Ebel zeigt, dass die Methode des externen Standards um den Faktor
2
fehlertheoretisch
der Methode des internen Standards überlegen sein sollte. Bei einem massenproportionalen
Signal sieht man jedoch, dass bei der Methode des externen Standards Mess- und Volumenfehler jeweils
zweimal eingehen, bei der Methode des internen Standards dagegen der Messfehler viermal.
• Konsequenz: Der interne Standard ist im Hinblick auf statistische Fehler dem externen
Standard überlegen, wenn der Volumenfehler größer als der Messfehler ist.
Document
Kategorie
Gesundheitswesen
Seitenansichten
12
Dateigröße
906 KB
Tags
1/--Seiten
melden