close

Anmelden

Neues Passwort anfordern?

Anmeldung mit OpenID

Mathematik I - an der Universität der Bundeswehr München

EinbettenHerunterladen
MATTHIAS GERDTS
Mathematik I
Universit¨
at der Bundeswehr M¨
unchen
Herbsttrimester 2014
Addresse des Autors:
Matthias Gerdts
Institut f¨
ur Mathematik und Rechneranwendung
Universit¨at der Bundeswehr M¨
unchen
Werner-Heisenberg-Weg 39
85577 Neubiberg
E-Mail: matthias.gerdts@unibw.de
WWW: www.unibw.de/lrt1/gerdts
Vorl¨aufige Version: 6. November 2014
Copyright c 2014 by Matthias Gerdts
Inhaltsverzeichnis
1 Grundlagen
1.1 Aussagenlogik . . . . . . . . . . . . . . . .
1.2 Summen- und Produktzeichen . . . . . . .
1.3 Das Induktionsprinzip . . . . . . . . . . .
1.4 Binomische Formeln . . . . . . . . . . . .
1.5 Mengen und Zahlen . . . . . . . . . . . . .
1.6 Funktionen . . . . . . . . . . . . . . . . .
1.6.1 Affin-lineare Funktionen . . . . . .
1.6.2 Quadratische Funktionen . . . . . .
1.6.3 Polynome und rationale Funktionen
1.6.4 Trigonometrische Funktionen . . .
1.6.5 Exponentialfunktion . . . . . . . .
1.6.6 Logarithmus . . . . . . . . . . . . .
1.6.7 Hyperbolische Funktionen . . . . .
1.7 Komplexe Zahlen . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Vektoren und Matrizen
2.1 Vektoren . . . . . . . . . . . . . . . . . . . . .
2.1.1 Multiplikation mit Skalaren . . . . . .
2.1.2 Vektoraddition . . . . . . . . . . . . .
2.1.3 L¨ange eines Vektors . . . . . . . . . . .
2.1.4 Ortsvektoren und Verbindungsvektoren
2.1.5 Skalarprodukt (Inneres Produkt) . . .
¨
2.1.6 Kreuzprodukt (Vektorprodukt, Außeres
2.1.7 Spatprodukt . . . . . . . . . . . . . . .
2.1.8 Vektoren im Rn . . . . . . . . . . . . .
2.2 Allgemeine Vektorr¨aume . . . . . . . . . . . .
2.3 Matrizen . . . . . . . . . . . . . . . . . . . . .
2.4 Lineare Abbildungen und Matrizen . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
Produkt)
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
7
12
14
16
18
25
25
26
27
31
35
38
40
41
.
.
.
.
.
.
.
.
.
.
.
.
50
50
52
53
54
54
56
61
67
69
72
79
90
3 Lineare Gleichungssysteme
94
3.1 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.2 Existenz und Eindeutigkeit von L¨osungen . . . . . . . . . . . . . . . . . . . 96
ii
3.3
3.4
Gauss’sches Eliminationsverfahren . .
3.3.1 Die allgemeine Vorgehensweise
3.3.2 Der n-dimensionale Fall . . .
Determinanten . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
98
99
102
107
4 Eigenwertaufgaben
112
4.1 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . 114
4.2 Eigenwerte, Kr¨
ummung, Spur und Determinante . . . . . . . . . . . . . . . 131
4.3 Eigenwertabsch¨atzungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
Literaturverzeichnis
137
Vorwort
Diese Vorlesung basiert auf Vorlesungen von Prof. Dr. Marti, Prof. Dr. Gwinner, Prof. Dr.
Pesch und Prof. Dr. Apel, welche zuvor an der Universit¨at der Bundeswehr M¨
unchen und
der Universit¨at Bayreuth gehalten wurden. Sie vermittelt Grundlagen der linearen Algebra
und richtet sich an Studierende im ersten Trimester in den Bachelor-Studieng¨angen Luftund Raumfahrttechnik (LRT), Bauingenieurwesen und Umweltwissenschaften (BAU) und
Elektrotechnik und Informationstechnik (EIT).
Die Vorlesung baut auf den Mathematikkenntnissen im Abitur auf und hat zum Ziel,
grundlegende Konzepte und Methoden der linearen Algebra zur mathematischen Beschreibung naturwissenschaftlich-technischer Prozesse zu vermitteln und zu eigenst¨andigem logischen Denken anzuregen.
Als Erg¨anzung stehen zum Selbststudium folgende Hilfsmittel zur Verf¨
ugung, um Wissen
aufzufrischen oder etwaige Wissensl¨
ucken zu schließen:
(a) Vorkurs Mathematik: Skript zur Auffrischung von Schulkenntnissen von Prof. Dr.
Gerdts.
(b) Mathematik – Vorwissen und Selbststudium: Skript von Prof. Dr. Apel.
¨
(c) Das Lernsystem Mumie kann zum Uben
und Wissens¨
uberpr¨
ufung verwendet werden:
http://www.mumie.net/ .
Es stellt eine Benutzeroberfl¨ache zur Generierung von Aufgaben zur Verf¨
ugung, die
automatisch korrigiert werden. Eine Demoversion mit Gastzug¨angen ist unter
https://www.mumie-hosting.net/demo/public/index.html
verf¨
ugbar.
(d) Die Fakult¨at EIT bietet w¨ochentliche Tutorien f¨
ur alle Teilnehmer der Vorlesung
an. Diese finden mittwochs ab 12:00 Uhr in Raum 3125 in Geb¨aude 41/100 statt.
Eine vorherige Anmeldung per Email ist notwendig.
Die Tutorien bieten die M¨oglichkeit, sich Inhalte der Vorlesung nochmals erkl¨aren
zu lassen. Nutzen Sie dieses Angebot!
1
2
Allgemeine Tipps und Hinweise:
• Mathematische Inhalte erschließen sich nicht von selbst und in den seltensten F¨allen
¨
durch gelegentliches Uberfliegen
des Vorlesungsskriptes, sondern sie erfordern ein
¨
aktives Mitarbeiten und viel Ubung.
¨
Arbeiten Sie deshalb die Vorlesungen (und Ubungen)
nach!
¨
Auch wenn die w¨ochentlichen Ubungsaufgaben
aus Kapazit¨atsgr¨
unden nicht eingesammelt und korrigiert werden k¨onnen, so ist es zum Verst¨andnis des Stoffes
¨
sehr wichtig, die Ubungsaufgaben
regelm¨
aßig und selbstst¨
andig zu bearbeiten.
Sp¨atestens in der Klausur, aber insbesondere auch im weiteren Verlauf des Studiums, ist eine gewisse Routine im L¨osen von Aufgaben notwendig. Diese erlangt man
nur durch eigenst¨andiges L¨osen von Aufgaben.
¨
• Gehen Sie den Vorlesungsstoff und Ubungsaufgaben
mit Kommilitonen durch. Erkl¨aren und diskutieren Sie Definitionen und S¨atze in eigenen Worten! Fragen Sie
¨
auch die Ubungsleiter
und den Leiter der Veranstaltung bei Unklarheiten.
• Es ist keine gute Idee, sich erst kurz vor der Klausur mit dem Vorlesungsstoff zu
besch¨aftigen. Dann ist es zu sp¨at und es bleibt nichts h¨angen. Die Inhalte der Vorlesung tauchen an verschiedenen Stellen im Studium immer wieder auf und werden
dann als bekannt vorausgesetzt.
¨
• Wichtige Informationen zur Vorlesung, wie z.B. Ansprechpartner, Ubungsaufgaben
und Zusatzmaterial, finden sich auf der WWW-Seite
http://www.unibw.de/lrt1/gerdts/hm1
Diese Seite wird laufend aktualisiert, so dass sie regelm¨aßig besucht werden sollte.
• N¨
utzliche Webseiten mit Material zum Selbststudium sind
– http://www.mathe-online.at/
– http://www.geogebra.org/
– http://www.mumie.net/
c 2011 by M. Gerdts
Kapitel 1
Grundlagen
Worum geht es in der Mathematik und warum muss ein Ingenieur Mathematikvorlesungen
h¨oren?
In der Mathematik geht es um beweisbare Aussagen, die im Rahmen einer Theorie g¨
ultig
sind. Dar¨
uber hinaus erm¨oglicht die Mathematik die Modellierung von Vorg¨angen, etwa
technische oder naturwissenschaftliche Prozesse. Damit kann das Verhalten der Prozesse
auf Basis der Modellierungsannahmen vorhergesagt (simuliert) oder durch geeignete Wahl
von Modellparametern beeinflusst (optimiert) werden. Die Mathematik besch¨aftigt sich
auch mit der Analyse von Modellen im Hinblick auf qualitative Eigenschaften wie die
Abh¨angigkeit von Parametern, Stabilit¨at, Konvergenz und Grenzwertverhalten.
Beispiele:
• Statikberechnungen f¨
ur Geb¨aude und Br¨
ucken basieren auf einem mathematischen
Modell zur Berechnung der Lastkr¨afte und -momente. Diese Berechnungen sind
unerl¨asslich bei der Planung neuer Geb¨aude oder Br¨
ucken.
• Raumfahrtmissionen m¨
ussen vorab geplant, simuliert und optimiert werden. Hierzu
verwendet man mathematisch-physikalische Modelle der Raumfahrtmechanik, die
eine sehr pr¨azise Vorhersage der Flugbahn erlauben.
3
4
KAPITEL 1. GRUNDLAGEN
• Wettervorhersagen basieren ebenfalls auf mathematischen Modellen und Approximationsverfahren zur n¨aherungsweisen L¨osung der Modellgleichungen.
• In der Automobilindustrie werden vor dem realen Bau eines neuen Prototypen bereits Fahreigenschaften des zuk¨
unftigen Fahrzeugs mithilfe von mathematischen
Modellen und Simulationen untersucht. Grobe Konstruktionsfehler k¨onnen dabei
fr¨
uhzeitig vermieden werden, was Geld und Zeit spart.
Eine mathematische Theorie verwendet folgende Bausteine:
c 2011 by M. Gerdts
5
Aussagen beschreiben einen Sachverhalt und sind entweder wahr oder falsch. Man sollte
allerdings beachten, dass nicht f¨
ur alle Aussagen entschieden werden kann, ob sie wahr
oder falsch sind.
Axiome sind grundlegende Annahmen bzw. Aussagen, die als wahr vorausgesetzt werden und nicht bewiesen werden (k¨onnen). Ein Axiomensystem darf keine Widerspr¨
uche
enthalten. Eine mathematische Theorie sollte auf m¨oglichst wenigen Axiomen aufbauen.
Definitionen dienen zur exakten (!) Einf¨
uhrung neuer Begriffe. Eine Definition muss
pr¨azise sein und darf keinen Raum f¨
ur Zweideutigkeiten oder Interpretationsm¨oglichkeiten
lassen.
S¨
atze (Theoreme) sind Aussagen, die durch logische Schlussfolgerungen aus Axiomen
hergeleitet werden. Den Vorgang der Herleitung nennt man Beweis. Damit sind S¨atze,
sobald sie bewiesen sind, f¨
ur immer g¨
ultig. Die einzelnen Schritte, die zum Beweis des
Satzes n¨otig sind, m¨
ussen nachvollzogen werden k¨onnen, allerdings ben¨otigt man hierf¨
ur
in der Regel ein umfangreiches Wissen von weiteren S¨atzen, die im Beweis verwendet
werden.
Eine Folgerung ergibt sich aus einem Satz durch (einfache) logische Schlussfolgerungen.
Ein Lemma bzw. Hilfssatz ist ein Satz, der h¨aufig grundlegende Sachverhalte bzw.
Zwischenresultate enth¨alt, die beim Beweis eines anderen Satzes verwendet werden.
Eine Vermutung ist eine Aussage, die noch nicht bewiesen oder widerlegt wurde. Es gibt
sehr ber¨
uhmte Vermutungen, mit denen man sogar Geld verdienen kann, wenn es gelingt,
sie zu beweisen oder zu widerlegen.
Beispiel 1.0.1 (Fermat’sche Vermutung)
Die ber¨
uhmte Fermat’sche Vermutung wurde 1637 vom franz¨osischen Mathematiker Fermat wie folgt formuliert:
Es ist unm¨oglich, einen Kubus in zwei Kuben zu zerlegen, oder ein Biquadrat
in zwei Biquadrate, oder allgemein irgendeine Potenz gr¨oßer als die zweite
in Potenzen gleichen Grades. Ich habe hierf¨
ur einen wahrhaft wunderbaren
Beweis gefunden, doch ist der Rand hier zu schmal, um ihn zu fassen.
c 2011 by M. Gerdts
6
KAPITEL 1. GRUNDLAGEN
Mathematisch formuliert lautet die Vermutung:
F¨
ur keine nat¨
urliche Zahl n ≥ 3 gibt es nat¨
urliche Zahlen a, b, c mit
an + b n = c n .
Diese Vermutung war sehr lange unbewiesen und konnte erst Anfang der 1990er Jahre
von Andrew Wiles und Richard Taylor bewiesen werden.
Beispiel 1.0.2 (Vermutung von Collatz)
Im Jahre 1937 vermutete Lothar Collatz, ein deutscher Mathematiker, der u.a. an der
Universit¨at Hamburg lehrte, dass die folgenden Zahlenfolgen f¨
ur beliebige Startwerte stets
bei 1 enden.
Die Zahlenfolgen werden dabei wie folgt konstruiert:
(i) W¨ahle eine beliebige nat¨
urliche Zahl N und setze a0 := N .
(ii) Definiere die Zahlen a1 , a2 , . . . solange f¨
ur n = 0, 1, 2, . . . durch die Vorschrift
an+1 :=
an
,
2
falls an gerade ist,
3an + 1, falls an ungerade ist,
bis ak = 1 f¨
ur einen Index k gilt.
Beispiele:
N = 3 : a0 = 3, a1 = 10, a2 = 5, a3 = 16, a4 = 8, a5 = 4, a6 = 2, a7 = 1
N = 4 : a0 = 4, a1 = 2, a2 = 1,
N = 5 : a0 = 5, a1 = 16, a2 = 8, a3 = 4, a4 = 2, a5 = 1,
N = 6 : a0 = 6, a1 = 3, a2 = 10, a3 = 5, a4 = 16, a5 = 8, a6 = 4, a7 = 2, a8 = 1
Die Vermutung ist bis heute weder widerlegt noch bewiesen und kann auf
http://www.rzbt.haw-hamburg.de/dankert/spezmath/html/collatzproblem.html
getestet werden.
Beispiel 1.0.3 (Millennium Probleme)
Auf der Seite
http://www.claymath.org/millennium/
des Clay Mathematics Institute finden sich weitere Vermutungen, etwa die Riemannsche
Vermutung. Der Beweis oder die Widerlegung jeder dieser Vermutungen ist mit einer
Erfolgspr¨amie von 1 Million Dollar dotiert.
Dieses Kapitel stellt das Handwerkszeug f¨
ur die nachfolgenden Kapitel bereit. Grundlegend ist dabei die Verwendung von Mengen und die Anwendung typischer Mengenopec 2011 by M. Gerdts
1.1. AUSSAGENLOGIK
7
rationen, wie zum Beispiel Durchschnittsbildung, Vereinigung und Komplementbildung,
worauf wir in Abschnitt 1.5 eingehen.
Spezielle Mengen sind dabei die u
urlichen, ganzen,
¨blichen Zahlen, also die Menge der nat¨
rationalen, reellen und komplexen Zahlen, die wir in Abschnitt ?? einf¨
uhren werden.
Das F¨
uhren mathematischer Beweise basiert auf logischen Schl¨
ussen. Typische Schlussweisen werden in Abschnitt 1.1 vorgestellt.
In der Vorlesung werden viele Symbole als Variable verwendet, darunter auch griechische
Buchstaben (weil sie so sch¨on sind und das deutsche Alphabet mitunter nicht ausreicht).
Hier sind die wichtigsten:
α
δ, ∆
µ
ω, Ω
κ
ρ,
τ
1.1
alpha
delta
mu
omega
kappa
rho
tau
β
,ε
ν
λ, Λ
ξ, Ξ
σ, Σ
beta
epsilon
nu
lambda
xi
sigma
γ, Γ
ι
ζ
η
θ, ϑ, Θ
χ
gamma
iota
zeta
eta
theta
chi
Aussagenlogik
Mathematische Beweise sind nichts anderes als die Aneinanderreihung von logisch korrekten Schlussweisen. Daher kommt der Logik eine besondere Rolle in der Mathematik
zu.
In der Logik geht es um die Verkn¨
upfung von Aussagen. Zur Erinnerung: Aussagen beschreiben einen Sachverhalt und sind entweder wahr oder falsch. Man kann Aussagen
durch logische Operatoren miteinander verkn¨
upfen.
Die bekanntesten logischen Operatoren sind ∧ (logisches “und”) und ∨ (logisches “oder”).
Die verkn¨
upfte Aussage A ∧ B ist genau dann wahr, wenn sowohl A als auch B wahr sind.
Die verkn¨
upfte Aussage A ∨ B ist genau dann wahr, wenn mindestens eine der Aussagen
A oder B wahr ist.
Beispiel 1.1.1
Wahre Aussagen:
• 3 ist kleiner als 5.
• Falls x < y ist, so ist x + c < y + c f¨
ur alle Zahlen c.
• Die Gleichung x2 = 1 besitzt die reellen L¨osungen x = 1 und x = −1.
• 5 ist kleiner als 3 oder 3 ist kleiner als 5.
c 2011 by M. Gerdts
8
KAPITEL 1. GRUNDLAGEN
Falsche Aussagen:
• 5 ist kleiner als 3.
• Aus c · x ≤ c · y folgt stets x ≤ y. (Gegenbeispiel: c = 0, x = 1, y = −1)
• Aus x2 = 1 folgt stets, dass x = 1 ist. (Gegenbeispiel: x = −1)
• 5 ist kleiner als 3 und 3 ist kleiner als 5.
M¨ochte man ausdr¨
ucken, dass aus der Aussage A die Aussage B folgt, so schreibt man
A
=⇒
B
(sprich: “Aus A folgt B.” bzw. “A impliziert B.”).
Beachte, dass die Aussage “A impliziert B” genau dann falsch ist, wenn A wahr und B
falsch ist. Man kann also aus einer wahren Aussage keine falsche Aussage folgern, wenn
man mathematisch korrekt schließt.
Gilt A =⇒ B, so sagt man auch:
• Die Aussage A ist hinreichend f¨
ur die Aussage B.
• Die Aussage B ist notwendig f¨
ur die Aussage A.
Die Negation (das Gegenteil) einer Aussage A wird mit ¬A bezeichnet.
Beispiel 1.1.2 (Notwendige und hinreichende Aussagen bei der Bestimmung
von Extrempunkten)
Sei f eine differenzierbare Funktion.
(a) Es gilt die folgende Implikation:
f hat lokales Minimum im Punkt x.
Aussage A
=⇒
Es gilt f (x) = 0.
Aussage B
Die Aussage “Es gilt f (x) = 0.” ist notwendig daf¨
ur, dass f in x ein lokales
Minimum besitzt. Die Negation dieser Aussage lautet “Es gilt f (x) = 0.”.
Aus der Aussage “Es gilt f (x) = 0.” kann man aber nicht schließen, dass f in x
ein Minimum besitzt (Gegenbeispiel: f (x) = −x2 und x = 0). Damit ist die Aussage
“Es gilt f (x) = 0.” nicht hinreichend daf¨
ur, dass f in x ein Minimum besitzt.
c 2011 by M. Gerdts
1.1. AUSSAGENLOGIK
9
(b) Es gilt die folgende Implikation:
F¨
ur x gilt f (x) = 0 und f (x) > 0.
Aussage A
=⇒
f besitzt in x ein lokales Minimum.
Aussage B
Die Aussage “F¨
ur x gilt f (x) = 0 und f (x) > 0.” ist hinreichend daf¨
ur, dass f
in x ein lokales Minimum besitzt. Die Negation dieser Aussage lautet “F¨
ur x gilt
f (x) = 0 oder f (x) ≤ 0.”.
Aus der Aussage “f besitzt in x ein lokales Minimum.” kann man aber nicht schließen, dass f (x) = 0 und f (x) > 0 gelten (Gegenbeispiel: f (x) = x4 und x =
0).Damit ist die Aussage “f besitzt in x ein lokales Minimum.” nicht hinreichend
daf¨
ur, dass f (x) = 0 und f (x) > 0 gelten.
Das folgende Beispiel zeigt, dass es sehr wohl m¨oglich ist, aus einer falschen Aussage eine
wahre Aussage zu folgern. Solche Schlussweisen sind aber wertlos, da sie von einer falschen
Pr¨amisse ausgehen.
Beispiel 1.1.3 (Beispiel fu
amisse)
¨ r Schlussfolgerung mit falscher Pr¨
Die Aussage
“Jeden Tag gehen alle Menschen ins Schwimmbad, um zu schwimmen.”
ist falsch, da ich ein Mensch bin und z.B. am 16.7.2013 nicht im Schwimmbad war.
Da ich ein Mensch bin, impliziert diese Aussage jedoch die Aussage
“Ich war am 17.7.2013 im Schwimmbad, um zu schwimmen.”
Diese Aussage kann wahr sein, wenn ich tats¨achlich am 17.7. im Schwimmbad war, um
zu schwimmen, oder sie kann falsch sein, wenn ich z.B. gar nicht schwimmen kann oder
am 17.7. nicht im Schwimmbad war, um zu schwimmen.
M¨ochte man ausdr¨
ucken, dass die Aussagen A und B gleichwertig (¨aquivalent) sind, so
schreibt man
A
⇐⇒
B
(sprich: “A ist ¨aquivalent zu B.” bzw. “A gilt genau dann, wenn B gilt.”).
Beachte, dass ¨aquivalente Aussagen A und B entweder beide wahr oder beide falsch sind.
Beispiel 1.1.4
c 2011 by M. Gerdts
10
KAPITEL 1. GRUNDLAGEN
(i) Die Aussage “Es gilt x + y = 1 mit reellen Zahlen x und y.” ist ¨aquivalent zu der
Aussage “Es gilt x = 1−y mit reellen Zahlen x und y.”, da die Gleichungen x+y = 1
und x = 1 − y dieselben reellen L¨osungen besitzen.
(ii) Gem¨aß der Rechenregeln f¨
ur reelle Zahlen sind die Aussagen “F¨
ur c > 0 gilt 3c < 0.”
und “Es gilt 3 < 0.” ¨aquivalent, weil man Ungleichungen immer mit positiven Zahlen
skalieren kann, ohne dass sich die Richtung der Ungleichung ¨andert.
Beide Aussagen sind aber falsch.
Bei der Umformung von Formeln sollte man sich stets klar machen, ob man korrekt
schließt, d.h. ob man ¨aquivalente Umformungen vornimmt oder Implikationen ableitet1 .
Ein h¨aufiger Fehler bei Umformungen ist, dass man Sonderf¨alle u
¨bersieht und somit unterschl¨agt. Beispielsweise ist die Schlussweise
x2 = 1
=⇒
x=1
nicht korrekt, da auch x = −1 eine L¨osung von x2 = 1 darstellt. Korrekt m¨
usste die
Folgerung
x2 = 1
=⇒
x = 1 oder x = −1
lauten. In diesem Fall sind beide Seiten sogar ¨aquivalent:
x2 = 1
⇐⇒
x = 1 oder x = −1 .
Die Schlussweise
x = −1
=⇒
x2 = 1
¨
ist hingegen korrekt. Aquivalenz
gilt hier aber nicht.
Mithilfe von sogenannten Wahrheitstabellen kann man folgende Aussagen beweisen:
1
Im t¨
aglichen Leben findet man h¨
aufig auch ungerechtfertigte Schlussweisen, etwa wenn man von
Symptomen einer Krankheit auf die Krankheit selbst schließen m¨ochte. Dies ist i.a. nicht gerechtfertigt,
da verschiedene Krankheiten dieselben Symptome haben k¨onnen.
c 2011 by M. Gerdts
1.1. AUSSAGENLOGIK
11
¬ (A =⇒ B)
⇐⇒
A ∧ (¬B)
¬(¬A)
⇐⇒
A
¬(A ∧ B)
⇐⇒
(¬A) ∨ (¬B)
¬(A ∨ B)
⇐⇒
(¬A) ∧ (¬B)
A =⇒ B
⇐⇒
(¬A) ∨ B
A =⇒ B
⇐⇒
(¬B) =⇒ (¬A)
A =⇒ B
⇐⇒
(A ∧ (¬B)) =⇒ (¬A)
(W iderspruchsbeweis)
Hierin bezeichnen ∧ das logische “und” und ∨ das logische “oder”.
Diese Regeln k¨onnen verwendet werden, um (verbale) Aussagen logisch richtig (!) umzuformen. 2
Bei der Formulierung von Aussagen greift man h¨aufig auf die sogenannten Quantoren
zur¨
uck:
Das Symbol ∀ ist eine Abk¨
urzung f¨
ur f¨
ur alle“.
”
Das Symbol ∃ ist eine Abk¨
urzung f¨
ur es existiert ein“.
”
Beispiel 1.1.5
• Die Aussage “Es gibt ein x ∈ R mit x > 0.” l¨asst sich mit Quantoren wie folgt
schreiben:
∃x ∈ R : x > 0
• Die Aussage “F¨
ur alle x ∈ R gibt es ein y ∈ R mit x + y = 1.” l¨asst sich mit
Quantoren wie folgt schreiben:
∀x ∈ R ∃y ∈ R : x + y = 1
M¨ochte man das Gegenteil einer Aussage, die Quantoren enth¨alt, ausdr¨
ucken, so ist dies
2
Aufgabe: Formuliere die Negation der folgenden Aussage.
Aus |x − y| < δ folgt |f (x) − f (y)| < ε.
c 2011 by M. Gerdts
12
KAPITEL 1. GRUNDLAGEN
einfach dadurch zu erreichen, dass man die Quantoren gegenseitig ausgetauscht und die
Eigenschaft negiert:
Sei E(x, y, z) ein Ausdruck, der von Parametern (x, y, z) abh¨ange. Die Negation der Aussage
∀x > 0 ∃y > 0 ∀z : E(x, y, z)
lautet
∃x > 0 ∀y > 0 ∃z : ¬E(x, y, z).
Mit anderen Worten: Um eine Aussage mit ∀ zu widerlegen, gen¨
ugt es, ein Gegenbeispiel
zu finden (∃). Um eine Existenzaussage mit ∃ zu widerlegen, muss eine allgemeine Aussage
durch logisches Schließen bewiesen werden (∀) .
1.2
Summen- und Produktzeichen
Zur Summation von Zahlen wird h¨aufig das Symbol Σ verwendet. Analog wird f¨
ur Produkte von Zahlen das Symbol
verwendet.
Beispiel 1.2.1 (Summenzeichen)
• M¨ochte man alle nat¨
urlichen Zahlen bis zur Zahl n ∈ N aufsummieren, so l¨asst sich
das mithilfe des Summenzeichens leicht schreiben als
n
k = 1 + 2 + 3 + ... + n .
k=1
Schon Gauß hat erkannt, dass es f¨
ur diese Summe eine Berechnungsformel gibt,
n¨amlich
n
n
k = (n + 1) .
2
k=1
(Begr¨
undung?)
• F¨
ur die Summe der Quadratzahlen
n
k 2 = 1 + 2 2 + 3 2 + . . . + n2
k=1
gibt es ebenfalls eine geschlossene Formel, n¨amlich
n
1
k 2 = n(n + 1)(2n + 1) .
6
k=1
Diese Formel kann man formal mittels Induktion beweisen (siehe n¨achster Abschnitt).
c 2011 by M. Gerdts
1.2. SUMMEN- UND PRODUKTZEICHEN
13
1
• Die Zahlen ak seien f¨
ur k = 1, . . . , 100 definiert als ak = k+1
. Deren Summe lautet
dann
100
100
1 1
1
1
= + + ... +
.
a1 + a2 + . . . + a100 =
ak =
k
+
1
2
3
101
k=1
k=1
Beispiel 1.2.2 (Produktzeichen)
• M¨ochte man alle nat¨
urlichen Zahlen bis zur Zahl n ∈ N multiplizieren, so l¨asst sich
das mithilfe des Produktzeichens leicht schreiben als
n
k = 1 · 2 · 3···n .
k=1
Diese Zahl hat einen speziellen Namen, n¨amlich n! (sprich: n-Fakult¨
at).
1
. Deren Produkt lautet
• Die Zahlen ak seien f¨
ur k = 1, . . . , 100 definiert als ak = k+1
dann
100
100
1
1 1
1
ak =
a1 · a2 · · · a100 =
= · ···
.
k+1
2 3
101
k=1
k=1
Gegeben seien n Zahlen a1 , a2 , . . . , an .
• F¨
ur die Summe
a1 + a2 + . . . + an
der Zahlen schreibt man abk¨
urzend
n
ak
(= a1 + a2 + . . . + an ) .
k=1
Hierin ist k der Summationsindex, welcher von k = 1 bis n l¨auft.
• F¨
ur das Produkt
a1 · a2 · · · an
der Zahlen schreibt man abk¨
urzend
n
ak
(= a1 · a2 · · · an ) .
k=1
Hierin ist k der Produktindex, welcher von k = 1 bis n l¨auft.
c 2011 by M. Gerdts
14
KAPITEL 1. GRUNDLAGEN
Bemerkung 1.2.3
• Geht aus dem Kontext klar hrvor, u
¨ber welchen Indexbereich die Summe bzw. das
Produkt gebildet werden soll, so schreibt man h¨aufig auch abk¨
urzend
ak
bzw.
ak .
• Nat¨
urlich kann man auch nur u
¨ber Teile der Zahlen summieren, indem der Bereich
des Summationsindex angepasst wird. Folgende Beschreibungen sind u
¨blich:
n−3
ak
= a3 + a4 + . . . + an−4 + an−3 ,
ak
= aj + aj+1 + . . . + a −1 + a ,
k=3
(f¨
ur 1 ≤ j ≤ ≤ n)
k=j
ak := 0,
(Definition, falls
< j)
k=j
ak
= a4 + a5 + a6 ,
aj
= a2 + a4 + a6 .
k∈{4,5,6}
j∈{2k | k∈N,k<4}
Analog f¨
ur die Produktbildung.
1.3
Das Induktionsprinzip
Gegeben sei eine Aussage E(n), die von einer nat¨
urlichen Zahl abh¨angt.
Als Beispiel betrachten wir die Summation von Zahlen:
n
Aussage E(n)
:
F¨
ur n ∈ N gilt
k=
k=1
n
(n + 1).
2
Ziel ist es, die Aussage E(n) f¨
ur alle n ∈ N (oder eine unendliche Teilmenge davon) zu
beweisen.
Die Aussage E(n) soll mit dem Induktionsprinzip bewiesen werden:
Induktionsprinzip:
• Induktionsanfang: Zeige, dass die Aussage E(n0 ) f¨
ur ein n0 ∈ N gilt (h¨aufig ist
n0 = 1).
c 2011 by M. Gerdts
1.3. DAS INDUKTIONSPRINZIP
15
• Induktionsschluss: Zeige f¨
ur ein beliebiges n ≥ n0 , dass die Aussage E(n + 1)
gilt, wenn E(n) als wahr angenommen wird. Die Annahme, dass E(n) gelte, wird
als Induktionsannahme bezeichnet.
Induktionsanfang und Induktionsschluss zusammen zeigen, dass die Aussage E(n) f¨
ur
alle n ≥ n0 gilt. Das Induktionsprinzip arbeitet dabei nach dem Dominoprinzip: Der
Induktionsanfang entspricht dem Umkippen des ersten Steins. Der Induktionsschluss sorgt
daf¨
ur, dass der n¨achste Stein f¨allt, wenn der vorige gefallen ist.
Wir wenden das Induktionsprinzip auf das Beispiel an:
Induktionsanfang: F¨
ur n = n0 = 1 gilt
n
1
k=
k=1
√
1
k = 1 = (1 + 1)
2
k=1
Damit gilt die Aussage E(1).
Induktionsschluss: Die Aussage E(n) gelte nun f¨
ur ein beliebiges n ∈ N, d.h. es gelte
n
k=
k=1
n
(n + 1)
2
(Induktionsannahme).
Wir m¨
ussen nun zeigen, dass auch E(n + 1) gilt. Wir erhalten
n+1
n
k = (n + 1) +
j
j=1
k=1
nach Induktionsannahme
n
= (n + 1) + (n + 1)
2
n
= (n + 1) 1 +
2
n+1
=
(n + 2) .
2
=n
(n+1)
2
c 2011 by M. Gerdts
16
KAPITEL 1. GRUNDLAGEN
Damit ist unter Verwendung der Induktionsannahme gezeigt, dass auch E(n + 1) gilt.
Induktionsanfang und Induktionsschluss liefern zusammen die Behauptung.
1.4
Binomische Formeln
In den Anwendungen treten oft Ausdr¨
ucke der Form
(a + b)2 ,
(a − b)2 ,
(a + b)3 ,
(a − b)3 ,
(a + b)4 ,
(a − b)4 , . . .
bzw. allgemein der Form
(a + b)n
(n ∈ N, a, b ∈ R)
auf.
F¨
ur n = 2 erh¨alt man
(a + b)2 = (a + b)(a + b) = a2 + 2ab + b2
(1. binomische Formel),
(a − b)2 = (a − b)(a − b) = a2 − 2ab + b2
(2. binomische Formel),
a2 − b2 = (a − b)(a + b)
(3. binomische Formel).
Des Weiteren berechnen sich die Ausdr¨
ucke (a + b)n f¨
ur n = 1, 2, . . . , 5 wie folgt:
(a + b)0
(a + b)1
(a + b)2
(a + b)3
(a + b)4
(a + b)5
..
.
=
1
=
1a + 1b
2
=
1a + 2ab + 1b2
=
1a3 + 3a2 b + 3ab2 + 1b3
=
1a4 + 4a3 b + 6a2 b2 + 4ab3 + 1b4
= 1a5 + 5a4 b + 10a3 b2 + 10a2 b3 + 5ab4 + 1b5
Schaut man sich die Koeffizienten vor den einzelnen Termen an, so kann man ein Muster erkennen, welches uns die Koeffizienten der Ergebnisse liefert. Es basiert auf dem
Pascal’schen Dreieck in der folgenden Abbildung 1.1:
c 2011 by M. Gerdts
1.4. BINOMISCHE FORMELN
17
Abbildung 1.1: Pascal’sches Dreieck
In den Außendiagonalen steht immer eine 1. Die inneren Terme werden als Summe der
dar¨
uberliegenden Terme gebildet.
Diese Ergebnisse kann man in einer einzigen Formel zusammenfassen. Darin verwendet
man die sogenannten Binomialkoeffizienten:
Definition 1.4.1 (Binomialkoeffizienten)
F¨
ur n, k ∈ N0 mit k ≤ n sind die Binomialkoeffizienten definiert als
n
k
:=
n!
(n − k)!k!
(sprich: “n u
¨ber k”),
wobei die Konvention 0! = 1 verwendet wird.
Eigenschaften:
n!
(n − k + 1)(n − k + 2) . . . (n − 2)(n − 1)n
=
(n − k)!k!
1 · 2 · 3...k
•
n
k
=
•
n
k
=
•
n
n
+
k−1
k
n
n−k
=
n+1
k
Beispiel:
7
4
=
1·2·3·4·5·6·7
= 35.
(1 · 2 · 3 · 4)(1 · 2 · 3)
Mithilfe der Binomialkoeffizienten kann man per Induktion (siehe Mathematik I) den
folgenden Satz beweisen:
c 2011 by M. Gerdts
18
KAPITEL 1. GRUNDLAGEN
Satz 1.4.2 (Binomiallehrsatz)
F¨
ur a, b ∈ R und n ∈ N0 gilt
n
(a + b)
n
=
k=0
n n−k k
a b
k
n n
n n−1
n n−2 2
n
n n
a +
a b+
a b + ··· +
abn−1 +
b .
0
1
2
n−1
n
=
Beweis: Wir beweisen den Binomilallehrsatz mittels Induktion nach n.
Induktionsanfang: F¨
ur n = 0 gilt (a + b)0 = 1 und
0
0 0−k k
a b =
k
k=0
0 0−0 0
a b = 1.
0
Damit stimmt die Behauptung f¨
ur n = 0.
Induktionsschritt: Die Aussage gelte f¨
ur ein beliebiges n ∈ N0 . Damit erhalten wir f¨
ur
n + 1:
(a + b)n+1 = (a + b)n (a + b)
n
n n−k k
a b
k
= (a + b)
k=0
n
n
n n−k k+1
n n−k+1 k
a b
a
b +
k
k
k=0
=
k=0
n
n+1
n n+1−k k
n
a
b +
an−(k−1) bk
k
k
−
1
k=1
=
k=0
n
n
0
=
=(
a
n+1 0
b +
k=1
n+1
0
n+1
=
k=0
)
n
n
+
k
k−1
=(n+1
k )
an+1−k bk +
n
n
a0 bn+1
=(n+1
n+1)
n + 1 n+1−k k
a
b .
k
Damit ist die Behauptung f¨
ur n + 1 bewiesen und das Induktionsprinzip liefert die Behauptung.
1.5
Mengen und Zahlen
Mengen sind Grundbausteine der Mathematik. Sie dienen zum Sammeln“ von Objekten
”
mit definierten Eigenschaften.
c 2011 by M. Gerdts
1.5. MENGEN UND ZAHLEN
19
Definition 1.5.1 (Menge, Element)
(a) Eine Menge ist eine Sammlung von (realen oder gedachten) Objekten, ihren Elementen. Dabei kann man f¨
ur jedes Objekt entscheiden, ob es zur Menge geh¨ort oder
nicht.
(b) Geh¨ort ein Objekt x zur Menge M , so schreiben wir x ∈ M .
Geh¨ort ein Objekt x nicht zur Menge M , so schreiben wir x ∈ M .
(c) Besitzt die Menge M nur endlich viele Elemente, so heißt sie endliche Menge,
andernfalls unendliche Menge.
(d) ∅ ist die leere Menge, sie enth¨alt kein Element.
Zwei Mengen M und N werden als gleich betrachtet, wenn sie dieselben Elemente besitzen,
d.h.
M =N
⇐⇒
(x ∈ M
⇔
x ∈ N) .
In diesem Sinne sind die Mengen {1, 2, 3} und {3, 2, 1} gleich, es kommt also nicht auf die
Reihenfolge der Elemente an. Zwei Mengen sind ungleich, wenn sie nicht gleich sind.
Beispiel 1.5.2
(i) {−2, 4, 2, 8, 9, 123} ist eine endliche Menge mit 6 Elementen.
(ii) {rot, gr¨
un, blau} ist eine endliche Menge mit 3 Elementen. Sie ist eine Teilmenge
der Menge aller Farben.
(iii) {1, 3, 5, 7, 9, 11, . . .} = {2k−1 | k ∈ N} ist eine unendliche Menge, die die ungeraden
nat¨
urlichen Zahlen enth¨alt.
Beispiel 1.5.3
• Natu
urlichen Zahlen wird mit N bezeichnet und
¨ rliche Zahlen: Die Menge der nat¨
lautet
N := {1, 2, 3, 4, . . . , n, n + 1, . . .}.
c 2011 by M. Gerdts
20
KAPITEL 1. GRUNDLAGEN
Formal definiert man die Menge dadurch, dass man sagt 1 ist eine nat¨
urliche Zahl
und mit n ∈ N folgt, dass auch n + 1 ∈ N ist.
Mit
N0 := {0, 1, 2, 3, 4, . . . , n, n + 1, . . .}
bezeichnen wir die Menge der nat¨
urlichen Zahlen einschließlich der Null.
• Ganze Zahlen: Die Menge der ganzen Zahlen wird mit Z bezeichnet. Sie enth¨alt
neben den nat¨
urlichen Zahlen und der Null auch deren negative Zahlen und lautet
Z := {n | n ∈ N0 } ∪ {−n | n ∈ N}
= {. . . , −(n + 1), −n, . . . , −4, −3, −2, −1, 0, 1, 2, 3, 4, . . . , n, n + 1, . . .}.
• Rationale Zahlen: Die Menge der rationalen Zahlen wird mit Q bezeichnet. Sie
enth¨alt Bruchzahlen und ist definiert durch
m
m ∈ Z, n ∈ N .
Q :=
n
F¨
ur eine rationale Zahl q = m
heißt m Z¨
ahler und n Nenner.
n
Man k¨onnte den Eindruck gewinnen, dass die rationalen Zahlen bereits alle wichtigen
Zahlen enthalten. Dies ist nicht der Fall, da sich z.B.
√
√
2,
3, π, e
nicht als Bruchzahl darstellen lassen und somit keine rationalen Zahlen sind.
• Reelle Zahlen: Die Menge der reellen Zahlen wird mit R bezeichnet. Die reellen
Zahlen ergeben sich durch sogenannte Vervollst¨
andigung der rationalen Zahlen,
indem L¨
ucken“ in den rationalen Zahlen geschlossen werden. Dazu erg¨anzt man
”
die rationalen Zahlen um Zahlen, die nicht als Bruchzahl dargestellt werden k¨onnen,
√ √
also z.B. um 2, 3, π, e.
Eine formale Definition der reellen Zahlen lautet wie folgt:
R :=
r es gibt eine Folge von Zahlen rn ∈ Q, n ∈ N, mit lim rn = r .
n→∞
• Die Mengen
R+ := {r ∈ R | r > 0},
R− := {r ∈ R | r < 0}
bezeichnen die Menge der positiven bzw. negativen reellen Zahlen. Die Mengen
R+
:= {r ∈ R | r ≥ 0},
0
R−
:= {r ∈ R | r ≤ 0}
0
c 2011 by M. Gerdts
1.5. MENGEN UND ZAHLEN
21
bezeichnet die Menge der positiven bzw. negativen reellen Zahlen einschließlich der
Null.
• F¨
ur a, b ∈ R mit a < b sind die folgenden Intervalle definiert:
[a, b] := {x ∈ R | a ≤ x ≤ b}
(abgeschlossenes Intervall),
(a, b) := {x ∈ R | a < x < b}
(offenes Intervall),
[a, b) := {x ∈ R | a ≤ x < b}
(halboffenes Intervall),
(a, b] := {x ∈ R | a < x ≤ b}
(halboffenes Intervall).
Um auch unendliche Intervalle abbilden zu k¨onnen, werden die Unendlichsymbole
+∞ und −∞ verwendet, welche aber nicht als reelle Zahlen angesehen werden:
(−∞, b] := {x ∈ R | x ≤ b},
(−∞, b) := {x ∈ R | x < b},
[a, ∞) := {x ∈ R | a ≤ x},
(a, ∞) := {x ∈ R | a < x},
(−∞, ∞) := R.
• Die komplexen Zahlen C werden in Abschnitt 1.7 behandelt.
Den reellen Zahlen kommt eine besondere Bedeutung zu, da innerhalb der Menge der
reellen Zahlen die u
¨blichen Rechenregeln gelten3 :
Rechenregeln und Eigenschaften in den reellen Zahlen R:
(i) Die Gleichung
a+x=b
besitzt stets die reelle L¨osung x = b − a f¨
ur alle a, b ∈ R.
(ii) F¨
ur a, b ∈ R, a = 0, besitzt die Gleichung
a·x=b
stets die reelle L¨osung x = ab . F¨
ur a = 0 besitzt die Gleichung nur dann eine L¨osung,
wenn b = 0 gilt. F¨
ur a = b = 0 ist jede Zahl x ∈ R eine L¨osung.
¨
Aufgabe: Uberpr¨
ufen Sie, welche der Eigenschaften in den Mengen N, Z, Q gelten bzw. welche Eigenschaften nicht gelten.
3
c 2011 by M. Gerdts
22
KAPITEL 1. GRUNDLAGEN
(iii) F¨
ur alle x, y, z ∈ R gelten die folgenden Rechenregeln f¨
ur die vier Grundrechenarten
+, −, ·, /:
Addition, Subtraktion:
A1 :
x + (y + z) = (x + y) + z
(Assoziativgesetz)
A2 :
x+y =y+x
(Kommutativgesetz)
A3 :
es gibt 0 ∈ R mit x + 0 = x
(Existenz des Nullelements 0)
A4 :
zu jedem x ∈ R gibt es (−x) ∈ R
(Existenz eines additiv inversen
mit x + (−x) = 0
Elements)
Multiplikation, Division:
M1 :
x · (y · z) = (x · y) · z
(Assoziativgesetz)
M2 :
x·y =y·x
(Kommutativgesetz)
M3 :
es gibt 1 ∈ R, 1 = 0, mit 1 · x = x
(Existenz des Einselements 1)
M4 :
zu jedem x ∈ R, x = 0, gibt es
(Existenz eines multiplikativ inversen
x−1 ∈ R mit x · x−1 = 1
D:
Elements)
x · (y + z) = x · y + x · z
(Distributivgesetz)
(iv) Die reellen Zahlen sind auf der Zahlengeraden angeordnet, d.h. man kann reelle
Zahlen bzgl. ihrer Gr¨oße miteinander vergleichen. F¨
ur alle a, b ∈ R gilt genau eine
der folgenden Alternativen: a < b, a = b, a > b.
Es gelten folgende Regeln f¨
ur a, b, c, d ∈ R:
a < b und b < c =⇒ a < c
a < b =⇒ a + d < b + d
a < b und c > 0 =⇒ a · c < b · c
a < b und c < 0 =⇒ a · c > b · c
Definition 1.5.4
(a) Die Menge M heißt Teilmenge der Menge N , in Zeichen M ⊆ N , wenn jedes
c 2011 by M. Gerdts
1.5. MENGEN UND ZAHLEN
23
Element von M auch Element von N ist, d.h. es gilt
x∈M
=⇒
x ∈ N.
Im Fall M ⊆ N und M = N heißt die Menge M echte Teilmenge der Menge N ,
in Zeichen M ⊂ N oder M N .
(b) Die Menge M heißt (echte) Obermenge der Menge N , wenn N (echte) Teilmenge
von M ist.
Beispiel 1.5.5
(i) Die leere Menge ∅ ist Teilmenge jeder Menge.
(ii) {−1, 2, 3} ⊂ {−1, 2, 3, 5}
(iii) N ⊂ Z ⊂ Q ⊂ R
(iv) Die Menge {0, 1, 3} ist weder Teilmenge noch Obermenge von {−1, 0, 1}.
¨
Ublicherwise
werden die Elemente einer Menge durch Angabe von Eigenschaften beschrieben, also etwa in der Form
M1 = {x ∈ N | 3 ≤ x ≤ 7} = {3, 4, 5, 6, 7},
M2 = {x ∈ R | x2 ≥ 1} = {x | x ∈ R, x2 ≥ 1},
M3 = {x ∈ N | es gibt eine Zahl q ∈ N mit x = 2q}
= {2x | x ∈ N}
= {2, 4, 6, 8, 10, . . .}.
Die Beispiele zeigen, dass dieselbe Menge unterschiedliche Beschreibungen ihrer Elemente
besitzen kann. Das Zeichen | bedeutet bei der Charakterisierung von Mengen mit der
”
Eigenschaft“, d.h.
M = {x | E(x)}
bezeichnet die Menge aller x mit der Eigenschaft E(x).
Mithilfe von Mengenoperationen kann man mit Mengen rechnen.
c 2011 by M. Gerdts
24
KAPITEL 1. GRUNDLAGEN
Definition 1.5.6
(a) Die Vereinigung zweier Mengen M und N ist definiert als die Menge
M ∪ N := {x | x ∈ M oder x ∈ N }.
(b) Der Durchschnitt zweier Mengen M und N ist definiert als die Menge
M ∩ N := {x | x ∈ M und x ∈ N }.
Zwei Mengen M und N heißen diskjunkt, wenn ihr Durchschnitt leer ist, d.h.
M ∩ N = ∅.
(c) Die Differenz zweier Mengen M und N ist definiert als die Menge
M \ N := {x | x ∈ M und x ∈ N }.
(d) Ist M ⊆ N , so ist das Komplement von M bzgl. N definiert als die Menge
M := N \ M
(Sprechweise: N ohne M ).
(e) Das Produkt zweier Mengen M und N ist definiert als die Menge
M × N := {(x, y) | x ∈ M und y ∈ N }.
(f ) Die Potenzmenge P (M ) (oder 2M ) der Menge M ist definiert als die Menge aller
Teilmengen von M .
Beispiel 1.5.7
{1, 2} ∪ {2, 3, 4} = {1, 2, 3, 4}
{1, 2} ∩ {2, 3, 4} = {2}
{1, 2} \ {2, 3, 4} = {1}
{1, 2} × {2, 3, 4} = {(1, 2), (1, 3), (1, 4), (2, 2), (2, 3), (2, 4)}
P ({2, 3, 4}) = {∅, {2}, {3}, {4}, {2, 3}, {2, 4}, {3, 4}, {2, 3, 4}}
R2 = R × R,
Rn = R × . . . × R
(n-mal)
c 2011 by M. Gerdts
1.6. FUNKTIONEN
1.6
25
Funktionen
Unter einer Funktion verstehen wir eine Abbildung von einem Definitionsbereich D ⊆
R in einen Bildbereich, der bei uns immer R sein wird, d.h. wir betrachten Funktionen
f : D −→ R.
Die Menge W := {f (x) | x ∈ D} bezeichnet den Wertebereich von f , also die Menge
aller Funktionswerte, die f auf dem Definitionsbereich annimmt.
Der Graph von f ist definiert als die Menge G := {(x, f (x)) | x ∈ D}.
Wir stellen h¨aufig vorkommende Funktionen kurz vor.
1.6.1
Affin-lineare Funktionen
Eine Funktion f : R −→ R der Form
f (x) = ax + b
b
(a, b ∈ R)
nennen wir affin-lineare Funktion.
Definitionsbereich: D = R
Wertebereich:
− ab
W = {ax + b | x ∈ R}
=
α
R, falls a = 0,
b, sonst.
Abbildung 1.2: Graph einer affinlinearen Funktion f (x) = ax + b.
Beispiel 1.6.1
• Bewegung eines Objektes mit konstanter Geschwindigkeit:
s(t) = vt
(t=Zeit, v=Geschwindigkeit, s(t)=zur¨
uckgelegte Strecke)
• Gleichm¨aßig beschleunigte Bewegung eines Objektes:
v(t) = v0 + at
(t=Zeit, a=Beschleunigung, v0 =Anfangsgeschw., v(t)=Geschw.)
c 2011 by M. Gerdts
26
KAPITEL 1. GRUNDLAGEN
Eigenschaften affin-linearer Funktionen4 (vgl. Abbildung 1.2):
• Der Graph von f ist eine Gerade.
• Die Gerade schneidet die y-Achse im Punkt (0, b).
• a
–
–
–
gibt die Steigung der Geraden an:
Im Fall a > 0 w¨achst die Gerade nach rechts an.
Im Fall a < 0 f¨allt die Gerade nach rechts ab.
Im Fall a = 0 verl¨auft die Gerade parallel zur x-Achse (f ist konstant).
• F¨
ur a = 0 hat die Gerade genau eine Nullstelle im Punkt x = − ab .
• Der Neigungswinkel α der Geraden (=Winkel zwischen Gerade und x-Achse) erf¨
ullt
tan α = a.
1.6.2
Quadratische Funktionen
y = f (x)
f (x) = ax2 + bx + c
Eine Funktion f : R −→ R der Form
f (x) = ax2 + bx + c
(a, b, c ∈ R)
nennen wir quadratische Funktion
oder Parabel.
Definitionsbereich: D = R
Wertebereich:
– W = [fs , +∞), falls a > 0,
– W = (−∞, fs ], falls a < 0.
b
xs = − 2a
x1
x2
fs =
x
4ac−b2
4a
Abbildung 1.3: Graph einer quadratischen Funktion f (x) = ax2 + bx + c (hier
a > 0, b2 − 4ac > 0).
Eigenschaften quadratischer Funktionen (vgl. Abbildung 1.3):
• Der Graph von f ist eine Parabel, die f¨
ur a > 0 nach oben und f¨
ur a < 0 nach unten
ge¨offnet ist.
4
H¨
aufig l¨
asst man das Wort “affin” einfach weg. Streng genommen ist f nur im Fall b = 0 eine lineare
Funktion. F¨
ur b = 0 erhalten wir eine verschobene lineare Funktion, daher der Name “affin-linear”. Eine
lineare Funktion erf¨
ullt f (x + y) = f (x) + f (y) und f (cx) = cf (x) f¨
ur alle x, y, c ∈ R.
c 2011 by M. Gerdts
1.6. FUNKTIONEN
27
• F¨
ur a = 0 ist die x-Koordinate (Abszisse) des Scheitelpunkts von f gegeben durch
b
und die y-Koordinate (Ordinate) des Scheitelpunkts von f durch fs =
xs = − 2a
4ac−b2
.
4a
• Die Nullstellen x1 und x2 von f sind gegeben durch die quadratische Gleichung
ax2 + bx + c = 0, welche die L¨osungen
x1,2 =
−b ±
√
b2 − 4ac
2a
“Mitternachtsformel”
besitzt. Abh¨angig vom Vorzeichen der Diskriminante D = b2 −4ac ergeben sich zwei
Nullstellen (D > 0), eine doppelte Nullstelle (D = 0) oder keine reelle Nullstelle
(D < 0).
1.6.3 Polynome und rationale Funktionen
Affin-lineare und quadratische Funktionen sind spezielle Polynome, die wie folgt definiert
sind.
Eine Funktion p : R −→ R der Form
p(x) = an xn + an−1 xn−1 + . . . + a1 x + a0
n
=
ak x
k
Basispolynome f¨
ur n = 0, 1, 2, 3, 5:
mit an = 0
k=0
heißt Polynom n-ten Grades mit den Koeffizienten a0 , a1 , . . . , an .
Die Polynome 1, x, x2 , x3 , . . . , xn , . . . heißen
Basispolynome oder Elementarpolynome.
Definitionsbereich: D = R
Beispiele:
2.5
2
1.5
1
0.5
0
-0.5
-1
-1.5
-2
-2.5
-1
• n = 0: konstante Funktionen
-0.5
1
x
0
x**2
x**3
0.5
x**5
• n = 1: affin-lineare Funktionen
• n = 2: quadratische Funktionen
Sind p, q : R −→ R Polynome, so bezeichnet man die Funktion
p(x)
f (x) =
q(x)
c 2011 by M. Gerdts
1
28
KAPITEL 1. GRUNDLAGEN
als rationale Funktion.
Rationale Funktionen sind i.a. nicht f¨
ur alle reellen Argumente x definiert und k¨onnen
Polstellen besitzen, n¨amlich dort, wo q Nullstellen besitzt. Da q nur endlich viele Nullstellen besitzt, gibt es auch nur endlich viele Polstellen.
Eine Polstelle xs von f zeichnet sich dadurch aus, dass die Funktion f bei Ann¨aherung
an xs gegen +∞ oder gegen −∞ strebt.
Man spricht von einer hebbaren Polstelle, wenn xs Nullstelle von p mit Vielfachheit
mp und Nullstelle von q mit Vielfachheit mq ≤ mp ist. In diesem Fall kann man die zur
Nullstelle geh¨orenden Linearfaktoren k¨
urzen, z.B.
f (x) =
(x − 1)(x + 1)2
x3 + x 2 − x − 1
=
= (x − 1)(x + 1) = x2 − 1.
x+1
x+1
Hier ist xs = −1 eine doppelte Nullstelle des Z¨ahlers und einer einfache Nullstelle des
Nenners, so dass man den Term x + 1 k¨
urzen kann. Damit entf¨allt die potenzielle Polstelle
xs = −1.
Treten keine hebbaren Polstellen auf oder wurde bereits gek¨
urzt, so ist die Ordnung der
Polstelle xs gegeben durch die Vielfachheit der Nullstelle xs in q. Ist die Ordnung gerade,
so liegt eine Polstelle ohne Vorzeichenwechsel vor. Ist die Ordnung ungerade, so liegt
eine Polstelle mit Vorzeichenwechsel vor.
Beispiel 1.6.2
(i) Die rationale Funktion f (x) =
Vorzeichenwechsel).
(ii) Die rationale Funktion f (x) =
Vorzeichenwechsel).
1
x2
besitzt in x = 0 eine Polstelle 2. Ordnung (ohne
1
(x−2)3
besitzt in x = 2 eine Polstelle 3. Ordnung (mit
(iii) Die rationale Funktion
f (x) =
x3
x+2
x+2
=
2
+x −x−1
(x + 1)2 (x − 1)
besitzt in x = −1 eine Polstelle 2. Ordnung (ohne Vorzeichenwechsel) und in x = 1
eine Polstelle 1. Ordnung (mit Vorzeichenwechsel).
(iv) Die rationale Funktion
f (x) =
x2 + 3x + 2
(x + 2)(x + 1)
(x + 2)
=
=
x3 + x2 − x − 1
(x + 1)2 (x − 1)
(x + 1)(x − 1)
besitzt in x = −1 eine Polstelle 1. Ordnung (mit Vorzeichenwechsel) und in x = 1
eine Polstelle 1. Ordnung (mit Vorzeichenwechsel).
c 2011 by M. Gerdts
1.6. FUNKTIONEN
29
1000
10000
1/x**2
1/(x-2)**3
800
5000
600
0
400
-5000
200
0
-10000
-1
-0.5
100
0
0.5
1
1
100
(x+2)/(x**3+x**2-x-1)
50
50
0
0
-50
-50
-100
-1.5
-1
-0.5
0
0.5
1.5
1
1.5
-100
-1.5
2
2.5
3
(x**2+3*x+2)/(x**3+x**2-x-1)
-1
-0.5
0
0.5
1
1.5
Rationale Funktionen sind durch die Division von zwei Polynomen definiert und es stellt
sich die Frage, ob man bei dieser Division wie bei der Division zweier ganzer Zahlen vorgehen kann, um z.B. den Rest der Division zu berechnen. Tats¨achlich kann die Division
zweier Polynome v¨ollig analog zur schriftlichen Division zweier ganzer Zahlen vorgenommen werden. Als Ergebnis erh¨alt man die folgende Darstellung der rationalen Funktion
f:
f (x) =
p(x)
r(x)
= h(x) +
,
q(x)
q(x)
(1.1)
wobei p ein Polynom n-ten Grades, q ein Polynom m-ten Grades mit m ≤ n, h ein
Polynom (n − m)-ten Grades und der “Rest” r ein Polynom vom H¨ochstgrad m − 1 sind.
Beispiel 1.6.3 (Polynomdivision)
Gegeben seien p(x) = 4x5 − 4x4 − 5x3 + 4x2 − x + 1 und q(x) = 2x3 − 3x2 + 5x − 2. Wir
f¨
uhren die Division mit Rest von p durch q durch:
c 2011 by M. Gerdts
30
KAPITEL 1. GRUNDLAGEN
(4x5
−4x4
−(4x5
−6x4
2x4
−(2x4
−5x3
+4x2
−x
+1) : (2x3 − 3x2 + 5x − 2) = 2x2 + x − 6
=h(x)
+10x3 −4x2 )
−15x3 +8x2
−x
+1
3
2
−3x
+5x −2x)
3
−12x
+3x2
+x
+1
−(−12x3 +18x2 −30x +12)
−15x2 +31x −11
=r(x)
Die Polynomdivision ist n¨
utzlich, wenn man z.B. durch scharfes Hinsehen eine Nullstelle x1
des Polynoms p vom Grad n entdeckt hat und nun weitere Nullstellen berechnen m¨ochte.
Dazu teilt man das Polynom p durch x − x1 und f¨
uhrt eine Polynomdivision durch. Da
x1 eine Nullstelle ist, bleibt kein Rest u
¨brig und das Polynom h in der Darstellung (1.1)
besitzt den um eins reduzierten Polynomgrad n − 1, d.h. man erh¨alt die Darstellung
p(x)
= h(x)
x − x1
bzw.
p(x) = (x − x1 )h(x).
F¨
uhrt man dieses Prinzip f¨
ur h fort, so sieht man, dass ein Polynom n-ten Grades
h¨ochstens n verschiedene reelle Nullstellen besitzen kann.
Beispiel 1.6.4
Betrachte das Polynom p(x) = x3 + x2 − x − 1. Durch hinsehen sieht man, dass x = 1
eine Nullstelle ist. Polynomdivision liefert:
(x3
−(x3
+x2 −x −1) : (x − 1) = x2 + 2x + 1
−x2 )
2x2 −x −1
−(2x2 −2x
)
x −1
−(x −1)
0
Man kann p also darstellen als p(x) = (x − 1)(x2 + 2x + 1). Schaut man sich den zweiten
Faktor an und erkennt, dass x = −1 eine Nullstelle ist, so kann man f¨
ur x2 + 2x + 1
c 2011 by M. Gerdts
1.6. FUNKTIONEN
31
erneut die Polynomdivision durchf¨
uhren:
(x2 +2x +1) : (x + 1) = x + 1
−(x2 +x)
x +1
−(x +1)
0
Somit gilt x2 + 2x + 1 = (x + 1)(x + 1) = (x + 1)2 und man kann p schreiben als
p(x) = (x − 1)(x + 1)2 .
1.6.4
Trigonometrische Funktionen
Wir untersuchen die wichtigsten trigonometrischen Funktion, u.a. Sinus, Cosinus, Tangens. Diese Funktionen spielen eine wichtige Rolle bei der Beschreibung von periodischen
Vorg¨angen.
Definition 1.6.5 (periodische Funktion)
Eine Funktion f : R −→ R heißt periodisch mit Periode T > 0, falls
f (x + T ) = f (x)
f¨
ur alle x ∈ R
gilt.
Wegen der Periodizit¨at gen¨
ugt es, eine periodische Funktion mit Periode T nur auf einem
Intervall der L¨ange T zu definieren.
1.6.4.1
Sinus, Cosinus ( sin, cos)
Sinus und Kosinus k¨onnen geometrisch oder analytisch definiert werden. Wir w¨ahlen
zun¨achst die u
¨bliche geometrische Definition mithilfe des Einheitskreises, vgl. Abbildung 1.4. Dazu w¨ahlen wir einen Punkt P auf dem Einheitskreis und bezeichnen den
Winkel zwischen der Verbindungslinie vom Ursprung zum Punkt P und der x-Achse
mit α. Der Sinus von α ist dann definiert als die y-Komponente des Punktes P (Ordinate) und der Cosinus von α ist definiert als die x-Komponente des Punktes P (Absizze),
also P = (cos(α), sin(α)).
c 2011 by M. Gerdts
32
KAPITEL 1. GRUNDLAGEN
y
P
1
sin(α)
α
cos(α)
x
Abbildung 1.4: Definition des Sinus und Cosinus am Einheitskreis mithilfe des Winkels.
Alternativ k¨onnen Sinus und Cosinus auch u
¨ber die Bogenl¨ange definiert werden. Hierzu
tr¨agt man f¨
ur x ∈ R ausgehend vom Punkt (1, 0) auf dem Einheitskreis einen Bogen der
L¨ange |x| ab, wobei man f¨
ur x ≥ 0 im mathematisch positiven Sinne (also entgegen des
Uhrzeigersinns) und f¨
ur x < 0 im mathematisch negativen Sinne (also im Uhrzeigersinn)
entlang des Einheitskreises l¨auft. Dadurch wird ein Punkt Px auf dem Einheitskreis definiert. Der Sinus von x ist dann definiert als die y-Komponente des Punktes Px (Ordinate)
und der Cosinus von x ist definiert als die x-Komponente des Punktes Px (Abszizze), also
Px = (cos(x), sin(x)), vgl. Abbildung 1.5.
In dieser Definition von sin und cos hat die Variable x die Bedeutung einer Bogenl¨ange
auf dem Einheitskreis. Man sagt, x ist im Bogenmaß angegeben. Definiert man sin und
cos u
¨ber den Winkel α, so ist α im Gradmaß angegeben. Der Zusammenhang zwischen
den beiden Variablen x und α ist wie folgt:
x
α
=
2π
360◦
=⇒
x=
α
·π
180◦
bzw.
α=
x
· 180◦
π
Beispiel:
α = 30◦
=⇒
x=
30◦
π
·
π
=
.
180◦
6
c 2011 by M. Gerdts
1.6. FUNKTIONEN
33
Px
1
sin(x) x ≥ 0
cos(x)
x<0
Abbildung 1.5: Definition des Sinus und Cosinus am Einheitskreis mithilfe der Bogenl¨ange.
Die Graphen der trigonometrischen Funktionen sin, cos sind in Abbildung 1.6 abgebildet.
1
sin(x)
cos(x)
0.8
0.6
0.4
0.2
0
-0.2
-0.4
-0.6
-0.8
-1
-6.28319 -4.71239 -3.14159
−2π
− 3π
2
−π
-1.5708
− π2
0
1.5708
π
2
3.14159
4.71239
π
3π
2
6.28319
2π
Abbildung 1.6: Sinus und Cosinus.
Eigenschaften von sin und cos:
• Der Definitionsbereich von sin und cos ist R, der Wertebereich ist [−1, 1].
c 2011 by M. Gerdts
34
KAPITEL 1. GRUNDLAGEN
• sin und cos sind periodisch mit Periode 2π.
• sin ist eine ungerade Funktion, d.h. es gilt sin(−x) = − sin x f¨
ur alle x ∈ R.
• cos ist eine gerade Funktion, d.h. es gilt cos(−x) = cos x f¨
ur alle x ∈ R.
• Es gilt sin(nπ) = 0 f¨
ur n = 0, ±1, ±2, ....
π
2
• Es gilt cos
+ nπ = 0 f¨
ur n = 0, ±1, ±2, ....
• Es gilt sin(x + π) = − sin x f¨
ur alle x ∈ R.
• Es gilt cos(x + π) = − cos x f¨
ur alle x ∈ R.
• Es gilt sin x +
π
2
= cos x f¨
ur alle x ∈ R. Daraus folgt cos x −
• Es gilt cos x +
π
2
= − sin x f¨
ur alle x ∈ R.
π
2
= sin x.
• Es gilt sin2 x + cos2 x = 1 f¨
ur alle x ∈ R.
1.6.4.2 Tangens, Cotangens (tan, cot)
Tangens und Cotanges sind wie folgt definiert:
sin x
cos x
1
cot x :=
tan x
tan x :=
f¨
ur x =
π
+ nπ, n = 0, ±1, ±2, ...,
2
f¨
ur x = nπ, n = 0, ±1, ±2, ...,
vgl. Abbildung 1.7.
10
10
tan(x)
5
5
0
0
-5
-5
-10
-6.28319 -4.71239 -3.14159
-1.5708
− 3π
2
− π2
−2π
−π
0
1.5708
π
2
3.14159
4.71239
π
3π
2
-10
-6.28319 -4.71239 -3.14159 -1.5708
6.28319
2π
1/tan(x)
−2π − 3π
2
−π
− π2
0
1.5708
π
2
3.14159
π
4.71239
3π
2
6.28319
2π
Abbildung 1.7: Tangens (links) und Cotangens (rechts).
Eigenschaften:
• tan ist ungerade und hat die Periode π.
c 2011 by M. Gerdts
1.6. FUNKTIONEN
35
• cot ist ungerade und hat die Periode π.
• Es gelten
sin
π
tan
−x =
2
cos
und
cot
π
2
π
2
−x
cos x
=
= cot x
sin x
−x
π
− x = tan x.
2
Von manchen Winkeln kennen wir die exakten Sinus-(bzw. Kosinus-)werte, z.B.
x = 0 x = π/6 x = π/4 x = π/3
(0◦ )
(30◦ )
(45◦ )
(60◦ )
√
√
1
1
1
0
2
3
2
2√
2
√
1
1
1
1
3
2
2√
2
√2
1
0
3
1
3
3
sin(x)
cos(x)
tan(x)
x = π/2
(90◦ )
1
0
∞
Satz 1.6.6 (Additionstheoreme)
F¨
ur beliebige α, β ∈ R gelten
sin(α ± β) = sin α cos β ± cos α sin β,
cos(α ± β) = cos α cos β ∓ sin α sin β
1.6.5 Exponentialfunktion
F¨
ur das Produkt
a · a · ... · a
(a = 0)
n mal
schreibt man abgek¨
urzt an . Speziell ist
a0 = 1,
a1 = a,
a2 = a · a.
Man nennt a die Basis und n den Exponenten. Beachte, dass der Ausdruck 00 nicht
definiert ist!
Rechengesetze: (m, n ∈ N0 , a ∈ R, a = 0)
• am · an = am+n (l¨aßt sich leicht unter Verwendung der Definition zeigen)
• a−n = a0 · a−n =
1
an
• am · bm = (ab)m
• (am )n = am·n = (an )m
c 2011 by M. Gerdts
36
KAPITEL 1. GRUNDLAGEN
•
am
an
= am · a−n = am−n
•
am
bm
=
a m
b
F¨
ur m ∈ N und a ∈ R betrachten wir die Gleichung
xm = a
und definieren die L¨osung dieser Gleichung (falls existent) als
√
1
“m−te Wurzel aus a”.
x := a m = m a
Beispiel 1.6.7
Es gilt
(9 · 2)4 (a2 )2 b2
94 · 24 a4 b2
184 (a2 b)2
4
√
√
=
=
=
a.
1
3
273 (2a ab)2
(9 · 3)3 · 22 a2 ( a)2 b2
93 · 33 · 22 a2 a 2 ·2 b2
Definition 1.6.8 (Exponentialfunktion)
F¨
ur ein beliebiges a > 0, a = 1, heißt die Funktion f (x) = ax , x ∈ R, die Exponentialfunktion mit der Basis a.
10
8
6
4
2
0
-5
-4
-3
-2
exp(x)
(1.0/3.0)**x
(1.0/2.0)**x
-1
0
1
2
3
4
5
2**x
3**x
1**x
Abbildung 1.8: Exponentialfunktionen.
Die Exponentialfunktion f (x) = ax hat folgende Eigenschaften, vgl. Abbildung 1.8:
c 2011 by M. Gerdts
1.6. FUNKTIONEN
37
• f ist u
¨berall definiert, d.h. der Definitionsbereich ist D = R.
• f nimmt nur positive Werte an, und zwar alle positive Werte, d.h. der Wertebereich
ist W = (0, ∞).
• Wegen a0 = 1 hat jede solche Funktion an der Stelle x = 0 den Wert 1.
• F¨
ur a > 1 ist f streng monoton steigend und n¨ahert sich mit x → −∞ asymptotisch
der x−Achse.
F¨
ur 0 < a < 1 ist f streng monoton fallend und n¨ahert sich mit x → ∞ asymptotisch
der x−Achse.
• Vergleicht man zwei Exponentialfunktionen f1 (x) = ax und f2 (x) = bx mit a < b
miteinander, so stellt man fest:
F¨
ur x > 0 gilt f1 (x) < f2 (x) und f¨
ur x < 0 gilt f1 (x) > f2 (x).
• Betrachte die Funktionen f1 (x) = ax und f2 (x) =
f1 (−x) = a−x = (a−1 )x =
1
a
1 x
.
a
Wegen
x
= f2 (x)
sind die Funktionen f1 und f2 an der y-Achse gespiegelt.
• Aus f (x1 ) = ax1 = ax2 = f (x2 ) folgt x1 = x2 .
• Es gelten die Beziehungen
f (x + y) = ax+y = ax · ay = f (x) · f (y),
f (x · y) = axy = (ax )y = f (x)y ,
sowie
(ab)x = ax bx .
In vielen technischen und wissenschaftlichen Anwendungen tritt eine ganz bestimmte Exponentialfunktion auf. Diese hat die Basis e, wobei e ≈ 2, 7182818284590 . . . die Eulersche Zahl bezeichnet. Diese spezielle Exponentialfunktion wird e-Funktion (oder auch
einfach Exponentialfunktion) genannt und man schreibt
f (x) = ex
oder
f (x) = exp(x).
Beispiel 1.6.9 (Anwendungen der e-Funktion)
Folgende Naturprozesse lassen sich durch diese Funktion modellieren:
c 2011 by M. Gerdts
38
KAPITEL 1. GRUNDLAGEN
• Organisches Wachstum:
g(t) = g0 eλt
(g0 − Anfangsgr¨oße,λ − Wachstumskonstante)
(der Zuwachs ist proportional dem vorhandenden Bestand)
• Zerfallsprozesse:
m(t) = m0 e−λt
(m0 − Anfangsgr¨oße, λ − Zerfallskonstante)
• Ged¨
ampfte Schwingungen:
f (t) = e−Rt sin(ωt + ϕ)
• Wahrscheinlichkeitsdichte:
1
1
f (x) = √ exp −
2
σ 2π
x−µ
σ
2
(“Gaußsche Glockenkurve”)
beschreibt die Wahrscheinlichkeitsdichte einer normalverteilten Zufallsvariablen X
mit Erwartungswert µ und Varianz σ 2 . Die Wahrscheinlichkeit, dass X im Bereich
[a, b] liegt, lautet dann
b
P (a ≤ X ≤ b) =
f (x)dx.
a
1.6.6 Logarithmus
Die Umkehrfunktion der Exponentialfunktion heißt Logarithmus.
Definition 1.6.10 (Logarithmus)
Sei a > 0 gegeben. F¨
ur x ∈ R, x > 0, heißt y ∈ R der Logarithmus von x zur Basis
a, wenn
ay = x
gilt. Man schreibt y = loga (x).
Die Funktion loga : R+ −→ R gem¨aß x → loga (x) heißt Logarithmusfunktion zur
Basis a oder einfach Logarithmus zur Basis a.
c 2011 by M. Gerdts
1.6. FUNKTIONEN
39
Per Definition ist der Logarithmus zur Basis a gerade die Umkehrfunktion der Exponentialfunktion ax , d.h. es gilt
aloga (x) = x.
10
5
0
-5
-10
0
1
ln(x)
log_1/3(x)
log_1/2(x)
2
3
4
5
log_2(x)
log_3(x)
Abbildung 1.9: Logarithmusfunktionen.
Der Logarithmus hat folgende Eigenschaften, vgl. Abbildung 1.9.
• Die Logarithmusfunktion existiert auf dem Intervall (0, ∞), besitzt also den Definitionsbereich D = (0, ∞).
• Die Logarithmusfunktion hat den Wertebereich W = (−∞, ∞).
• Die Kurve von f (x) = loga (x) ist das Spiegelbild von ax an der Geraden y = x.
• F¨
ur alle a > 0 gilt loga (1) = 0.
• loga ist streng monoton wachsend f¨
ur a > 1 und streng monoton fallend f¨
ur 0 < a <
1.
Rechenregeln:
• loga (xy) = loga x + loga y
• loga
x
y
= loga (x) − loga (y)
• loga (xb ) = b loga (x)
c 2011 by M. Gerdts
40
KAPITEL 1. GRUNDLAGEN
• logb (x) =
loga (x)
loga (b)
H¨aufig verwendet man die Basen a = e und a = 10:
log10 (x) = lg(x) = log(x)
(dekadischer Logarithmus)
loge (x) = ln x
1.6.7
(nat¨
urlicher Logarithmus).
Hyperbolische Funktionen
Sinus Hyperbolicus, Cosinus Hyperbolicus, Tangens Hyperbolicus und Cotangens Hyperbolicus sind definiert durch
1
(exp(x) − exp(−x)) ,
2
1
cosh x :=
(exp(x) + exp(−x)) ,
2
sinh x
tanh x :=
,
cosh x
1
coth x :=
,
tanh x
sinh x :=
siehe Abbildung 1.10.
Die Umkehrfunktionen werden mit arcsinh, arccosh, arctanh und arccoth bezeichnet.
4
3
2
1
0
-1
-2
-3
-4
-2
-1.5
sinh(x)
-1
-0.5
0
cosh(x)
0.5
1
1.5
2
tanh(x)
Abbildung 1.10: Hyperbolische Funktionen.
Eigenschaften:
c 2011 by M. Gerdts
1.7. KOMPLEXE ZAHLEN
41
• cosh2 x − sinh2 x = 1
• Additionstheoreme:
sinh(x ± y) = sinh(x) cosh(y) ± cosh(x) sinh(y),
cosh(x ± y) = cosh(x) cosh(y) ± sinh(x) sinh(y).
• Umkehrfunktionen:
arcsinh(x) = ln(x +
arccosh(x) = ln(x +
1.7
√
√
x2 + 1),
x2 − 1).
Komplexe Zahlen
Die Menge der reellen Zahlen ist schon sehr m¨achtig und umfasst die gesamte Zahlengerade. Allerdings ist die Menge der reellen Zahlen f¨
ur bestimmte Aufgaben noch nicht
ausreichend. M¨ochte man z.B. die Gleichung
x2 + 1 = 0
(1.2)
u
¨ber den reellen Zahlen l¨osen, so ist dies nicht m¨oglich, da in R kein solches x existiert.
Solche Probleme treten z.B. bei der Bestimmung von sogenannten Eigenwerten auf, siehe
Kapitel 4 die u.a. bei der Stabilit¨atsanalyse von technischen Systemen und insbesondere
in der Regelungstechnik sehr wichtig sind.
Um auch Gleichung (1.2) l¨osen zu k¨onnen, f¨
uhren wir eine neue Zahl“ mit dem Symbol
”
i ein. Beachte allerdings, dass i keine Zahl im Sinne der reellen Zahlen ist, sondern ein
zus¨atzliches Objekt.5
Definition 1.7.1 (die imagin¨
are Zahl i)
Die imagin¨
are Zahl i ist definiert als L¨osung der Gleichung (1.2), d.h. sie erf¨
ullt
i2 = −1.
Die komplexen Zahlen erhalten wir nun durch Summen von reellen Zahlen und reellen
Vielfachen der imagin¨aren Zahl i.
√
√
√
H¨
aufig findet man die Schreibweise i := −1, woraus allerdings −1 = i · i = −1 · −1 =
√
(−1) · (−1) = 1 = 1 folgen w¨
urde. Daher sollte diese Schreibweise vermieden werden.
5
c 2011 by M. Gerdts
42
KAPITEL 1. GRUNDLAGEN
Definition 1.7.2 (komplexe Zahlen)
Die komplexen Zahlen sind definiert als die Menge
C := {a + ib | a ∈ R, b ∈ R}.
F¨
ur eine komplexe Zahl z = a + ib heißt a der Realteil von z und b der Imagin¨
arteil
von z. Wir schreiben Re(z) = a und Im(z) = b.
Mit z := a − ib wird die konjugiert komplexe Zahl von z bezeichnet.
Komplexe Zahlen der Form ib mit b ∈ R heißen imagin¨
are Zahlen.
Da die imagin¨are Zahl i keine reelle Zahl ist, stellen wir uns die komplexen Zahlen in einer
Ebene, der sogenannten Gauss’schen Zahlenebene, vor, siehe Abbildung 1.11.
Im
z = a + ib
ib
a
−ib
Re
z¯ = a − ib
Abbildung 1.11: Gauss’sche Zahlenebene: Komplexe Zahl z und konjugiert komplexe Zahl
z.
Betrachtet man nur komplexe Zahlen mit Imagin¨arteil gleich Null, so sind dies gerade die
reellen Zahlen, d.h.
R
C.
Mithilfe der Gauss’schen Zahlenebene k¨onnen wir die komplexen Zahlen auch als Vektoren
interpretieren. Der Betrag der komplexen Zahl z = a + ib ist definiert als
|z| :=
√
a2 + b 2 ,
c 2011 by M. Gerdts
1.7. KOMPLEXE ZAHLEN
43
was gerade der L¨ange des Vektors vom Nullpunkt zur komplexen Zahl a + ib in der
Gauss’schen Zahlenebene entspricht.
Mit komplexen Zahlen kann man normal rechnen, wenn man i2 = −1 beachtet.
Rechenregeln:
(i) Seien z1 = a1 + ib1 und z2 = a2 + ib2 komplexe Zahlen. Die Summe lautet
z1 + z2 = (a1 + ib1 ) + (a2 + ib2 ) = (a1 + a2 ) + i(b1 + b2 ).
(geometrische Interpretation: Vektoraddition)
(ii) Seien z = a + ib und c ∈ R. Die Multiplikation mit c lautet
c · z = c · (a + ib) = (c · a) + i(c · b).
(iii) Seien z1 = a1 + ib1 und z2 = a2 + ib2 komplexe Zahlen. Das Produkt der beiden
Zahlen lautet
z1 · z2 = (a1 + ib1 ) · (a2 + ib2 )
= a1 · (a2 + ib2 ) + (ib1 ) · (a2 + ib2 )
= a1 a2 + ia1 b2 + ib1 a2 + i2 b1 b2
= (a1 a2 − b1 b2 ) + i(a1 b2 + b1 a2 ).
(iv) Sei z = a + ib. Dann gilt nach (iii)
z · z = (a + ib) · (a − ib) = a2 + b2 = |z|2 .
(v) Seien z1 = a1 + ib1 und z2 = a2 + ib2 komplexe Zahlen mit z2 = 0. Die Division der
Zahlen liefert
a1 + ib1
z1
=
z2
a2 + ib2
a1 + ib1 a2 − ib2
=
·
a2 + ib2 a2 − ib2
(a1 a2 + b1 b2 ) + i(b1 a2 − a1 b2 )
=
.
|z2 |2
Bemerkung 1.7.3
Die komplexen Zahlen versehen mit der u
¨blichen Addition + und der Multiplikation · bilden wie die reellen Zahlen wieder einen Ko
¨rper (C, +, ·), d.h. Assoziativ-, Kommutativc 2011 by M. Gerdts
44
KAPITEL 1. GRUNDLAGEN
und Distributivgesetz, Existenz von Null- und Einselement sowie Existenz von additiven
und multiplikativen inversen Elementen gelten analog.
¨
Ubung:
Weise die Regeln A1-A4, M1-M4 und D aus dem Abschnitt u
¨ber reelle Zahlen
nach.
Bemerkung 1.7.4
Die komplexen Zahlen sind nicht angeordnet, d.h. es gibt keine Ordnungsrelationen < oder
> zwischen zwei komplexen Zahlen.
Polarkoordinaten
Man kann komplexe Zahlen auch in Polarkoordinaten durch ihre L¨ange und den Winkel
ϕ ∈ [0, 2π) zwischen der reellen Achse (Realteil) und dem Vektor vom Nullpunkt zur Zahl
z = a + ib beschreiben, vgl. Abbildung 1.12:
a = |z| cos ϕ,
b = |z| sin ϕ
=⇒
z = |z| (cos ϕ + i sin ϕ) .
Im
z
|z|
|z| sin ϕ
ϕ
|z| cos ϕ
Re
Abbildung 1.12: Gauss’sche Zahlenebene: Komplexe Zahl z und Darstellung in Polarkoordinaten u
¨ber L¨ange und Winkel.
Satz 1.7.5
Jede komplexe Zahl z = a + ib l¨asst sich in Polarkoordinatenform
z = r (cos ϕ + i sin ϕ)
mit r ≥ 0 und ϕ ∈ [0, 2π) darstellen. F¨
ur z = 0 ist die Darstellung eindeutig.
c 2011 by M. Gerdts
1.7. KOMPLEXE ZAHLEN
45
Definition 1.7.6
Der Winkel ϕ in der Polarkoordinatendarstellung von z heißt Argument von z, in
Zeichen: ϕ = Arg(z).
Das Argument von z = a + ib berechnet sich mithilfe der Beziehung
tan ϕ =
b
a
=⇒
b
ϕ = arctan ,
a
wobei ber¨
ucksichtigt werden muss, in welchem Quadranten z liegt, und der Fall a = 0
muss gesondert betrachtet werden. Es ergibt sich


arctan ab ,
f¨
ur a > 0, b ≥ 0,



π


f¨
ur a = 0, b > 0,
 2,
b
ϕ=
π + arctan a , f¨
ur a < 0,


3π

,
f¨
ur a = 0, b < 0,

2


 2π + arctan b , f¨
ur a > 0, b < 0.
a
F¨
ur a = b = 0 ist das Argument nicht eindeutig definiert.
Beispiel 1.7.7
Die Zahl ib, b > 0, lautet in Polarkoordinatendarstellung
ib = b · (cos
π
π
+ i sin ).
2
2
Die Zahl −1 − i lautet in Polarkoordinatendarstellung
−1 − i =
√
5π
5π
2 · (cos
+ i sin ).
4
4
Mit der von Euler eingef¨
uhrten
komplexen Exponentialfunktion
exp(z) = exp(a + ib) := ea+ib := exp(a) (cos b + i sin b)
(z = a + ib ∈ C)
ergibt sich speziell die Beziehung
exp(iϕ) = cos ϕ + i sin ϕ.
c 2011 by M. Gerdts
46
KAPITEL 1. GRUNDLAGEN
Damit l¨aßt sich z schreiben als
z = a + bi = |z| exp(iϕ).
Damit l¨aßt sich die Multiplikation zweier komplexer Zahlen z1 = |z1 | exp(iϕ1 ) und z2 =
|z2 | exp(iϕ2 ) sehr sch¨on geometrisch darstellen. Das Ergebnis lautet (nachrechnen!)
z1 · z2 = |z1 | · |z2 | · exp(i(ϕ1 + ϕ2 )),
d.h. das Produkt zweier komplexer Zahlen ist eine Drehstreckung mit der L¨ange |z1 |·|z2 |
und dem Winkel ϕ1 + ϕ2 , vgl. Abbildung 1.13.
Im
z1 · z2
|z1 | · |z2 |
z2
|z2 |
z1
|z1 |
ϕ1 + ϕ2
ϕ2
ϕ1
Re
Abbildung 1.13: Gauss’sche Zahlenebene: Multiplikation komplexer Zahlen z1 und z2 als
Drehstreckung.
Mithilfe der Interpretation der Multiplikation zweier komplexer Zahlen als Drehstreckung
ergibt sich sofort der folgende Satz:
Satz 1.7.8 (Euler-Moivre Formel)
Sei z = r(cos ϕ + i sin ϕ) gegeben. Dann gilt
z n = rn (cos(nϕ) + i sin(nϕ))
c 2011 by M. Gerdts
1.7. KOMPLEXE ZAHLEN
47
f¨
ur n ∈ N.
Die Euler-Moivre Formel ist n¨
utzlich, um Additionstheoreme f¨
ur Sinus und Cosinus zu
gewinnen.
Beispiel 1.7.9
Aus z = cos ϕ + i sin ϕ ergibt sich durch Ausmultiplizieren
z 2 = (cos ϕ + i sin ϕ)2 = (cos2 ϕ − sin2 ϕ) + i(2 sin ϕ cos ϕ).
Die Euler-Moivre Formel liefert
z 2 = cos(2ϕ) + i sin(2ϕ).
Vergleich von Real- und Imagin¨arteil liefert
cos(2ϕ) = cos2 ϕ − sin2 ϕ,
sin(2ϕ) = 2 sin ϕ cos ϕ.
Polynomnullstellen
Mithilfe der komplexen Zahlen lassen sich die Nullstellen quadratischer Polynome angeben. Betrachte dazu die Polynomgleichung
ax2 + bx + c = 0 mit a = 0.
Die Nullstellen x1 und x2 sind gegeben durch die bekannte Formel
√
−b ± b2 − 4ac
x1,2 =
,
2a
die, wenn man komplexe Zahlen verwendet, auch f¨
ur b2 − 4ac < 0 verwendbar ist.
Beispiel 1.7.10
F¨
ur
x2 − 4x + 5 = 0
liefert die Formel die Nullstellen
√
√
4 ± 16 − 20
1√
=2±
−4 = 2 ± −1 = 2 ± i.
x1,2 =
2
2
Damit besitzt die Gleichung die beiden komplexen Nullstellen 2 + i und dessen konjugiert
komplexe Zahl 2 − i.
Es gilt folgender Satz:
c 2011 by M. Gerdts
48
KAPITEL 1. GRUNDLAGEN
Satz 1.7.11
Jedes quadratische Polynom ax2 + bx + c mit Koeffizienten a, b, c ∈ R, a = 0, hat genau
zwei Nullstellen x1 , x2 ∈ C, die eventuell zusammenfallen. Es gilt ax2 + bx + c = a(x −
x1 )(x − x2 ).
Der Satz gilt analog auch f¨
ur allgemeine Polynome:
Satz 1.7.12 (Fundamentalsatz der Algebra)
Jedes Polynom vom Grad n
pn (x) = an xn + an−1 xn−1 + . . . + a1 x + a0
mit aj ∈ C, j = 0, 1, . . . , n, an = 0, besitzt u
¨ber C genau n Nullstellen x1 , . . . , xn (mehrfache Nullstellen werden nach ihrer Vielfachheit gez¨ahlt) und es gilt
n
pn (x) = an (x − x1 ) · · · (x − xn ) = an
(x − xj ).
j=1
Nach dem Fundamentalsatz der Algebra hat ein Polynom n-ten Grades also h¨ochstens n
reelle Nullstellen. Es gibt leider nur in Spezialf¨allen explizite Formeln zur Bestimmung
der Nullstellen.
Mithilfe der Euler-Moivre Formel k¨onnen die Nullstellen von z n −w = 0 explizit berechnet
werden:
Beispiel 1.7.13
F¨
ur w = (cos α + i sin α) und n ∈ N betrachte die Gleichung z n = w. Nach dem Fundamentalsatz der Algebra gibt es n L¨osungen zk = rk (cos ϕk + i sin ϕk ), k = 0, . . . , n − 1,
dieser Gleichung. Nach der Euler-Moivre Formel gilt
zkn = rkn (cos(nϕk ) + i sin(nϕk ))
und |zkn | = rkn = |w| = , woraus
rk =
√
n
,
k = 0, . . . , n − 1,
folgt. Somit liegen alle L¨osungen auf einem Kreis mit Radius
Imagin¨arteile von zkn und w f¨
uhren auf die Beziehungen
cos α = cos(nϕk )
und
√
n
. Vergleich der Real- und
sin α = sin(nϕk ),
c 2011 by M. Gerdts
1.7. KOMPLEXE ZAHLEN
49
woraus
α + 2πj
n
mit j ∈ Z folgt. W¨ahlt man speziell j = k = 0, 1, . . . , n − 1, so erh¨alt man verschiedene
L¨osungen
α + 2πk
, k = 0, 1, . . . , n − 1.
ϕk =
n
Damit haben wir genau n Nullstellen von z n − w = 0 gefunden:
α + 2πj = nϕk
zk =
√
n
cos
α + 2πk
n
bzw.
+ i sin
ϕk =
α + 2πk
n
,
k = 0, 1, . . . , n − 1.
Zusammenfassend gelten folgende Mengenrelationen f¨
ur die besprochenen Zahlensysteme:
N
N0
Z
Q
R
C
c 2011 by M. Gerdts
Kapitel 2
Vektoren und Matrizen
Das Ziel dieses Kapitels ist es, Vektoren und Matrizen einzuf¨
uhren und geometrisch zu
motivieren. Elementare Rechenregeln f¨
ur Matrizen und Vektoren werden dargestellt, welche uns sp¨ater bei der allgemeineren Definition von Vektorr¨aumen in Kapitel 3 wieder
begegnen werden.
Dar¨
uber hinaus werden Konstrukte wie Skalarprodukt, Kreuzprodukt und Spatprodukt
eingef¨
uhrt, die in den Ingenieurwissenschaften h¨aufig Anwendung finden.
2.1
Vektoren
Wir unterscheiden im Folgenden zwischen skalaren Gro
¨ßen und Vektoren. Skalare
Gr¨oßen sind reelle Zahlen und beschreiben zum Beispiel die Zeit, die Dichte, die L¨ange,
die Temperatur, die potenzielle oder kinetische Energie eines Objektes. Skalare Gr¨oßen
lassen sich auf der Zahlengeraden darstellen, sie enthalten jedoch keine Information u
¨ber
Richtungen. Damit sind skalare Gr¨oßen geeignet, um zum Beispiel die Gr¨oße einer auf
einen K¨orper einwirkenden Kraft anzugeben, aber sie sind nicht geeignet, um die Richtung
der einwirkenden Kraft anzugeben.
Hier kommen Vektoren ins Spiel, die in der Physik zum Beispiel eine auf einen K¨orper
wirkende Kraft, ein Drehmoment, eine Str¨omungsrichtung, eine Geschwindigkeitsrichtung
oder eine Beschleunigungsrichtung darstellen. Vektoren enthalten neben ihrer L¨ange insbesondere eine Richtungsinformation und wir stellen uns Vektoren geometrisch als gerichtete Pfeile in einem ebenen oder r¨aumlichen kartesischen Koordinatensystem mit
Ursprung 0 vor, vgl. Abbildung 2.1. Zur geometrischen Veranschaulichung der Begriffe
beschr¨anken wir uns zun¨achst auf den 2-dimensionalen (ebenen) Fall und verallgemeinern
den Vektorbegriff anschließend auf den n-dimensionalen Fall mit n ∈ N.
50
2.1. VEKTOREN
51
y
a=
a2
a1
a2
e2
0
−a =
e1
a1
x
−a1
−a2
Abbildung 2.1: Geometrische Darstellung von Vektoren: Einheitsvektoren e1 und e2 sowie
Vektoren a und −a.
Das 2-dimensionale (ebene) Koordinatensystem (bzw. die Ausrichtrung dessen Achsen)
wird durch die beiden senkrecht aufeinander stehenden Einheitsvektoren
e1 :=
1
0
und e2 :=
0
1
festgelegt.
Bemerkung 2.1.1
H¨aufig bezeichnet man e1 auch mit ex und e2 mit ey , um die Assoziation mit der x- bzw.
y-Achse herzustellen.
Ein Vektor
a :=
a1
a2
im zweidimensionalen Raum ist definiert durch seine Komponenten oder Koordinaten
a1 ∈ R, die den Anteil in Richtung des Einheitsvektors e1 (also in x-Richtung) angibt, und
a2 ∈ R, die den Anteil in Richtung des Einheitsvektors e2 (also in y-Richtung) angibt.
c 2011 by M. Gerdts
52
KAPITEL 2. VEKTOREN UND MATRIZEN
Der Nullvektor ist definiert als 0 =
0
.
0
Die komponentenweise Darstellung eines Vektors a mit Komponenten a1 ∈ R und a2 ∈ R
bezieht sich dabei immer auf das fest gew¨ahlte Koordinatensystem, das bei uns immer
das bekannte kartesische (d.h. rechtwinklige) Koordinatensystem sein wird, welches durch
die Einheitsvektoren e1 und e2 aufgespannt wird.
Bemerkung 2.1.2
Durch Parallelverschiebung eines Vektors erhalten wir beliebig viele Vektoren mit derselben
Ausrichtung und derselben L¨ange, die lediglich in verschiedenen Punkten des Koordinatensystems starten. Alle diese Vektoren werden als gleich angesehen. Als Stellvertreter dieser
Klasse von Vektoren w¨ahlt man den vom Ursprung 0 ausgehenden Vektor.
Zwei Vektoren a und b sind genau dann gleich, wenn ihre Komponenten gleich sind, d.h.
a1
a2
2.1.1
Sei a =
=
b1
b2
⇐⇒
a1 = b1 und a2 = b2 .
Multiplikation mit Skalaren
a1
a2
ein Vektor. Die Multiplikation mit einem Skalar λ ∈ R ist definiert als
λ·a=λ
a1
a2
:=
λ · a1
λ · a2
.
Geometrisch handelt es sich um eine Skalierung der L¨ange des Vektors, wobei die Richtung
des resultierenden Vektors im Fall λ > 0 gleich der von a und im Fall λ < 0 entgegengesetzt
zu a ist.
Satz 2.1.3 (Rechenregeln)
Seien a und b Vektoren und λ und µ reelle Zahlen. Dann gelten die folgenden Distributivgesetze:
(a) (λ + µ)a = λa + µa
(b) λ(a + b) = λa + λb
c 2011 by M. Gerdts
2.1. VEKTOREN
2.1.2
53
Vektoraddition
Seien a =
a1
a2
und b =
b1
b2
a+b=
Vektoren. Die Summe von a und b ist definiert als
a1
a2
b1
b2
+
a1 + b 1
a2 + b 2
:=
.
Es wird also komponentenweise addiert. Geometrisch ergibt sich die Summe zweier Vektoren mit Hilfe einer Parallelverschiebung, vgl. Abbildung 2.2.
y
a
a+b
b
0
x
Abbildung 2.2: Geometrische Darstellung der Addition von Vektoren durch Parallelverschiebung.
Mit Hilfe der Einheitsvektoren e1 und e2 l¨asst sich der Vektor
a=
a1
a2
darstellen als
a = a1 e 1 + a2 e 2 =
a1
0
+
0
a2
=
a1
a2
.
Satz 2.1.4 (Rechenregeln)
Seien a, b und c Vektoren. Dann gelten die folgenden Rechenregeln:
(a) Kommutativgesetz: a + b = b + a
(b) Assoziativgesetz: (a + b) + c = a + (b + c)
c 2011 by M. Gerdts
54
2.1.3
KAPITEL 2. VEKTOREN UND MATRIZEN
L¨
ange eines Vektors
Die (euklidische) L¨ange des Vektors
a=
a1
a2
ist nach dem Satz von Pythagoras gegeben durch
a :=
a21 + a22 .
Der Operator · (genannt Norm) ordnet hierbei jedem Vektor seine euklidische L¨ange
zu. Ein Vektor mit L¨ange 1 heißt normiert. H¨aufig schreibt man auch |a| anstatt a .
Bemerkung 2.1.5
Man kann die L¨ange eines Vektors auch anders definieren, etwa durch a
(Manhattan-Abstand) oder durch a ∞ := max{|a1 |, |a2 |}.
1
:= |a1 | + |a2 |
Satz 2.1.6 (Rechenregeln)
Seien a und b Vektoren und λ ∈ R. Dann gelten die folgenden Rechenregeln:
(a) Dreiecksungleichung: | a − b | ≤ a + b ≤ a + b
(b) λa = |λ| a
2.1.4
Ortsvektoren und Verbindungsvektoren
Der Vektor vom Koordinatenursprung zum Punkt P = (p1 , p2 ) heißt Ortsvektor von P
und ist durch
p1
p=
p2
gegeben.
F¨
ur zwei gegebene Punkte P = (p1 , p2 ) mit Ortsvektor p und Q = (q1 , q2 ) mit Ortsvektor
q heißt der Vektor
q1 − p1
q−p=
q2 − p2
Verbindungsvektor von P nach Q. Er hat die L¨ange
q−p =
(q1 − p1 )2 + (q2 − p2 )2
c 2011 by M. Gerdts
2.1. VEKTOREN
55
und gibt den Abstand der Punkte P und Q an.
Beispiel 2.1.7 (Parameterdarstellung einer Geraden)
Sei P ein gegebener Punkt mit Ortsvektor p und r = 0 ein Richtungsvektor. Die durch die
Vektoren
t ∈ R,
x(t) := p + tr,
gegebenen Ortsvektoren liegen alle auf der Geraden
g := {x(t) | t ∈ R}
durch P mit Richtung r.
g
P
p
r
Abbildung 2.3: Darstellung einer Geraden.
Beispiel 2.1.8 (Parameterdarstellung einer Ebene)
Sei P ein gegebener Punkt mit Ortsvektor p und r1 , r2 = 0 Richtungsvektoren, die nicht
parallel seien. Die durch die Vektoren
x(t1 , t2 ) := p + t1 r1 + t2 r2 ,
t1 , t2 ∈ R,
gegebenen Ortsvektoren liegen alle auf der Ebene
E := {x(t1 , t2 ) | t1 , t2 ∈ R}.
c 2011 by M. Gerdts
56
KAPITEL 2. VEKTOREN UND MATRIZEN
E
r1
p
r2
Abbildung 2.4: Darstellung einer Ebene.
2.1.5
Skalarprodukt (Inneres Produkt)
Wir haben bereits gesehen, wie die Multiplikation eines Skalars mit einem Vektor aussieht. Es stellt sich die Frage, ob auch Vektoren miteinander multipliziert werden k¨onnen.
Dies kann auf verschiedene Arten erfolgen. Wir beginnen mit dem Skalarprodukt zweier
Vektoren und betrachten sp¨ater das Kreuzprodukt.
Definition 2.1.9 (Geometrische Definition des Skalarprodukts)
Das Skalarprodukt (auch Inneres Produkt genannt) a, b zweier Vektoren a und b
ist definiert als
a, b := a · b · cos ϕ,
wobei ϕ den zwischen a und b eingeschlossenen Winkel bezeichnet.
Bemerkung 2.1.10
Beachte, dass das Skalarprodukt zweier Vektoren eine reelle Zahl und nicht etwa ein Vektor
ist! H¨aufig findet man auch die Schreibweise a · b anstatt a, b .
Stehen die Vektoren a und b senkrecht aufeinander, d.h. gilt ϕ = ±90◦ , so gilt cos ϕ = 0
und damit auch a, b = 0.
c 2011 by M. Gerdts
2.1. VEKTOREN
57
Definition 2.1.11 (Orthogonalit¨
at, Orthonormalit¨
at, Normalenvektor)
(a) Zwei Vektoren a = 0 und b = 0 heißen orthogonal (in Zeichen a ⊥ b), wenn
a, b = 0 gilt.
(b) Zwei Vektoren a = 0 und b = 0 heißen orthonormal, wenn a, b = 0 und a =
b = 1 gelten.
(c) Ein Vektor n der L¨ange n = 1, der senkrecht auf einer Geraden oder einer Ebene
steht, heißt Normalenvektor.
Satz 2.1.12 (Rechenregeln)
Seien a, b und c Vektoren. Dann gelten die folgenden Rechenregeln:
(a) Kommutativgesetz: a, b = b, a
(b) Distributivgesetz: a, b + c = a, b + a, c
(c) Zusammenhang von L¨ange und Skalarprodukt: a, a = a
2
Beweis: Teile (a) und (c) ergeben sich sofort aus der Definition.
F¨
ur Teil (b) nutzt man folgende geometrische Betrachtung:
c
b
b
b+c
ba
ca
ϕ
ba = b cos ϕ
a
a
Im linken Bild ist ba := b cos ϕ die L¨ange der Projektion des Vektors b auf den Vektor
a. F¨
ur das Skalarprodukt gilt dann
a, b = a · b · cos ϕ = a · ba .
Analog gilt f¨
ur c
a, c = a · ca .
c 2011 by M. Gerdts
58
KAPITEL 2. VEKTOREN UND MATRIZEN
und f¨
ur b + c
a, b + c = a · (b + c)a ,
wobei (b + c)a die L¨ange der Projektion von b + c auf a bezeichnet.
Aus dem rechten Bild ist ersichtlich, dass
ba + ca = (b + c)a
gilt. Damit folgt
a, b + c
=
a · (b + c)a
=
a · (ba + ca )
=
a · ba + a · ca
=
a, b + a, c .
Beispiel 2.1.13 (Hesse’sche Normalform einer Geraden)
Sei n ∈ R2 ein Vektor mit n = 1 und c ∈ R eine gegebene Zahl mit c ≥ 0. Die Menge
g = {x ∈ R2 | n, x = c}
beschreibt eine Gerade im R2 , welche in der sogenannten Hesse’schen Normalform
dargestellt ist. Die Gerade enth¨alt den Punkt cn wegen
n, cn = c n = c.
Desweiteren verl¨auft die Gerade g senkrecht zu n, denn f¨
ur beliebige x, y ∈ g gilt
n, x − y = n, x − n, y = c − c = 0.
n
cn
y−x
x
y
g
Im dreidimensionelen Raum R3 k¨onnen Ebenen in analoger Weise durch die Hesse’sche
Normalform beschrieben werden. Im m-dimensionalen Raum Rm beschreibt die Menge
{x ∈ Rm | n, x = c}
c 2011 by M. Gerdts
2.1. VEKTOREN
59
eine sogenannte Hyperebene.
Das Skalarprodukt zweier Vektoren kann ohne den Cosinus berechnet werden. Seien dazu
a = a1 e 1 + a2 e 2 =
a1
a2
und
b = b1 e 1 + b2 e 2 =
b1
b2
in Koordinatenform gegeben. Mit Hilfe der Einheitsvektoren, des Kommutativgesetzes
und des Distributivgesetzes folgt dann
a, b
=
a1 e1 + a2 e2 , b1 e1 + b2 e2
=
a1 e1 + a2 e2 , b1 e1 + a1 e1 + a2 e2 , b2 e2
= (a1 b1 ) e1 , e1 +(a2 b1 ) e2 , e1 +(a1 b2 ) e1 , e2 +(a2 b2 ) e2 , e2
=1
=0
=0
=1
= a1 b 1 + a2 b 2 .
Damit ist folgender Satz bewiesen, der analog auch f¨
ur allgemeine Vektordimensionen gilt:
Satz 2.1.14
Gegeben seien Vektoren
a=
a1
a2
und
b=
b1
b2
.
Dann gilt
a, b = a · b · cos ϕ = a1 b1 + a2 b2 .
F¨
ur Absch¨atzungen ist der folgende ber¨
uhmte Satz n¨
utzlich, der ebenfalls f¨
ur allgemeine
Vektordimensionen gilt:
Satz 2.1.15 (Cauchy-Schwarz’sche Ungleichung)
F¨
ur Vektoren a und b gilt
a, b ≤ a · b
bzw. in Koordinatenschreibweise
|a1 b1 + a2 b2 | ≤
a21 + a22 ·
b21 + b22 .
c 2011 by M. Gerdts
60
KAPITEL 2. VEKTOREN UND MATRIZEN
Mit Hilfe von Satz 2.1.14 kann das Skalarprodukt leicht berechnet werden. Definition 2.1.9
kann dann benutzt werden, um den Winkel zwischen zwei Vektoren gem¨aß
a, b
cos ϕ =
a · b
zu bestimmen.
Beispiel 2.1.16 (Winkel zwischen Vektoren)
(a)
a=
1
0
a=
1
−1
,b =
1
1
a=
−1
−1
,b =
1
1
,b =
1
1
1+0
1
√ =√ ,
1· 2
2
ϕ=
π
4
=⇒
1−1
cos ϕ = √ √ = 0,
2· 2
ϕ=
π
2
=⇒
−1 − 1
cos ϕ = √ √ = −1,
2· 2
=⇒
cos ϕ =
(b)
(c)
ϕ=π
Beispiel 2.1.17 (Winkel zwischen Geraden und Ebenen)
(a) Sind r1 und r2 Richtungsvektoren von zwei Geraden g1 und g2 , so erf¨
ullt der Winkel
ϕ zwischen den Geraden die Gleichung
cos ϕ =
r1 , r2
.
r1 · r2
(b) Sind n1 und n2 Normalenvektoren von zwei Ebenen E1 und E2 , so erf¨
ullt der Winkel
ϕ zwischen den Ebenen die Gleichung
cos ϕ =
n1 , n2
.
n1 · n2
(c) Ist n ein Normalenvektor der Ebene E und r ein Richtungsvektor der Geraden g,
so erf¨
ullt der Winkel ϕ zwischen der Ebene und der Geraden die Gleichung
sin ϕ = cos
π
n, r
−ϕ =
.
2
n · r
c 2011 by M. Gerdts
2.1. VEKTOREN
61
n2
ϕ
n
r
n1
ϕ
Bei der Umkehrabbildung von cos zur Bestimmung von ϕ ist es in obigen F¨allen u
¨blich,
den kleineren Winkel zu w¨ahlen, also ϕ aus [0, π/2] zu w¨ahlen.
2.1.6
¨
Kreuzprodukt (Vektorprodukt, Außeres
Produkt)
Das Skalarprodukt ist nicht die einzige M¨oglichkeit, eine Multiplikation von Vektoren
gleicher Dimension zu definieren. Eine weitere M¨oglichkeit bietet das sogenannte Kreuzprodukt zweier Vektoren im R3 , welches als Resultat wieder einen Vektor im R3 liefert.
Das Kreuzprodukt wird h¨aufig in der Mechanik zur Beschreibung von Momenten und
Winkelgeschwindigkeiten verwendet.
¨
Definition 2.1.18 (Kreuzprodukt, Vektorprodukt, Außeres
Produkt)
Seien




b1
a1




a =  a2  , b =  b 2 
b3
a3
¨
Vektoren im R3 . Das Kreuzprodukt (Vektorprodukt, Außeres
Produkt) a × b ist
definiert als


a2 b 3 − a3 b 2


a × b :=  a3 b1 − a1 b3  .
a1 b 2 − a2 b 1
Bemerkung 2.1.19
Sp¨ater werden wir Determinanten kennen lernen.
mal darstellen als
e1 e2
a × b = a1 a2
b1 b2
Damit l¨asst sich das Kreuzprodukt fore3
a3 .
b3
c 2011 by M. Gerdts
62
KAPITEL 2. VEKTOREN UND MATRIZEN
Satz 2.1.20 (Eigenschaften)
Das Kreuzprodukt c = a × b zweier Vektoren a, b ∈ R3 besitzt folgende Eigenschaften:
(a) c ist orthogonal zu a und b, d.h. es gilt c, a = c, b = 0.
(b) Die Vektoren a, b und c bilden ein Rechtssystem, d.h. wenn Daumen und Zeigefinger der rechten Hand in Richtung a und b zeigen, dann zeigt c in Richtung des
angewinkelten Mittelfingers.
(c) Es gilt c = a · b · sin ϕ, wobei ϕ den zwischen a und b eingeschlossenen Winkel
bezeichnet. Damit gibt c gerade den Fl¨acheninhalt des von a und b aufgespannten
Parallelogramms an.
Beispiel 2.1.21 (Fl¨
acheninhalt eines Dreiecks)
Betrachte ein im Raum liegendes Dreieck, dessen Eckpunkte durch die Ortsvektoren u, v, w ∈
R3 beschrieben werden. Der Fl¨acheninhalt ist dann gegeben durch
F =
1
(u − w) × (v − w) .
2
u
w
v
Beispiel 2.1.22 (Drehmoment)
Greift eine Kraft F im Punkt r (gemessen vom Schwerpunkt des K¨orpers) an einem
drehbaren, starren K¨orper an, so ergibt sich das Drehmoment
M = r × F,
c 2011 by M. Gerdts
2.1. VEKTOREN
63
vgl. Abbildung.
M
r
F
Der Betrag des Drehmoments betr¨agt M = r · F · sin ϕ, wobei F · sin ϕ gerade die
auf r senkrechte Kraftkomponente von F ist. Der Vektor r bzw. dessen L¨ange r wird
auch als Hebelarm bezeichnet.
Beispiel 2.1.23 (Bahngeschwindigkeit)
Die Winkelgeschwindigkeit ω ist ein Vektor, der die Drehachse und Geschwindigkeit einer
Rotationsbewegung angibt. Die Richtung von ω ist dabei senkrecht zur Rotationsebene.
Bewegt sich ein Teilchen mit konstanter Winkelgeschwindigkeit auf einer Bahn mit Radiusvektor r, so ergibt sich dessen Bahngeschwindigkeit v aus
v = ω × r,
siehe Abbildung (Quelle: Wikipedia).
Durch Nachrechnen (bitte machen!) ergeben sich folgende Ergebnisse f¨
ur die Einheitsvekc 2011 by M. Gerdts
64
KAPITEL 2. VEKTOREN UND MATRIZEN
toren e1 , e2 und e3 :
e1 × e1 = e2 × e2 = e3 × e3 = 0,
e1 × e2 = −(e2 × e1 ) = e3 ,
e1 × e3 = −(e3 × e1 ) = −e2 ,
e2 × e3 = −(e3 × e2 ) = e1 .
Diese Ergebnisse legen die Vermutung nahe, dass das Kreuzprodukt paralleler Vektoren
den Nullvektor ergibt. Desweiteren zeigt sich, dass das Kreuzprodukt nicht kommutativ
ist, sondern dass das Vertauschen der Reihenfolge der Vektoren zum entgegengesetzten
Kreuzprodukt-Vektor f¨
uhrt. Diese Beobachtungen gelten allgemein:
Satz 2.1.24
Seien a, b und c Vektoren im R3 . Dann gelten folgende Aussagen:
(a) Sind a und b parallel, d.h. es gibt λ ∈ R, λ = 0, mit a = λb, so gilt a × b = 0.
(b) Rechenregeln:
a × b = −(b × a),
(λa) × b = a × (λb) = λ(a × b),
a × (b + c) = a × b + a × c,
(a + b) × c = a × c + b × c.
(c) Das Kreuzprodukt ist nicht assoziativ, d.h. im Allgemeinen gilt
(a × b) × c = a × (b × c).
(Finde ein Beispiel hierf¨
ur! Finde auch Spezialf¨alle, f¨
ur die Gleichheit gilt!)
Mit Hilfe des Kreuzprodukts kann die Hesse’sche Normalform einer Ebene leicht berechnet
werden.
Beispiel 2.1.25 (Berechnung der Hesse’schen Normalform einer Ebene aus der
Parameterdarstellung)
Gegeben sei ein Ortsvektor p ∈ R3 und zwei Richtungsvektoren r1 , r2 ∈ R3 , die die Ebene
E aufspannen. Ein Normalenvektor f¨
ur die Ebene ist dann durch
n=
r1 × r2
r1 × r2
c 2011 by M. Gerdts
2.1. VEKTOREN
65
gegeben. Eine Darstellung der Ebene in Hesse’scher Normalform lautet dann
E = {x ∈ R3 | n, x − p = 0},
wobei der Vektor n aus Konventionsgr¨
unden noch mit −1 multipliziert werden muss, falls
n, p < 0 ist (Beachte, dass mit n auch −n ein Normalenvektor ist!). Insbesondere ist
| n, p | der Abstand der Ebene zum Ursprung.
Beispiel 2.1.26 (Richtung der Schnittgeraden zweier Ebenen)
Betrachte zwei sich schneidende Ebenen mit Normalenvektoren n1 , n2 ∈ R3 . Gesucht ist
die Richtung r der Schnittgeraden der Ebenen.
Offenbar ist r dann orthogonal zu n1 und n2 , d.h. wir suchen einen Vektor, der senkrecht
auf beiden Normalenvektoren steht. Ein solcher Vektor ist gegeben durch
r = n1 × n2 .
Jedes Vielfache von r ist ebenfalls geeignet.
Beispiel 2.1.27 (Abstand eines Punktes von einer Geraden)
Die Gerade g liege in Parameterform
g = {x ∈ R3 | x = p + tr, t ∈ R}
mit Ortsvektor p und Richtungsvektor r = 0 vor.
Gesucht ist der Abstand d des Punktes Q mit Ortsvektor q zur Gerade g.
Q
d
q−p
r
ϕ
P
Es gilt
d =
(q − p) × r
=
d =
q − p sin ϕ,
q − p · r · sin ϕ = d r ,
(q − p) × r
.
r
c 2011 by M. Gerdts
66
KAPITEL 2. VEKTOREN UND MATRIZEN
Beispiel 2.1.28 (Abstand windschiefer Geraden)
Gegeben seien die Geraden g1 und g2 in Parameterform
g1 = {x ∈ R3 | x = p1 + tr1 , t ∈ R},
g2 = {x ∈ R3 | x = p2 + tr2 , t ∈ R},
wobei r1 und r2 nicht parallel seien.
Gesucht ist der Abstand d der Geraden.
E2
p2 − p1
d
n
ϕ
E1
Wir betten die Gerade in parallele Ebenen
E1 = {x ∈ R3 | x = p1 + t1 r1 + t2 r2 , t1 , t2 ∈ R},
E2 = {x ∈ R3 | x = p2 + t1 r1 + t2 r2 , t1 , t2 ∈ R}
ein und bestimmen den Abstand der Ebenen.
Es gilt
d =
p2 − p1 cos ϕ,
n = ±(r1 × r2 ),
p2 − p1 , n
cos ϕ =
p2 − p1 · n
und damit
d=
p2 − p1 , n
± p2 − p1 , r1 × r2
| p2 − p1 , r1 × r2 |
=
=
.
n
r1 × r2
r1 × r2
Nicht parallele Geraden mit Abstand d > 0 heißen windschief.
c 2011 by M. Gerdts
2.1. VEKTOREN
67
2.1.7 Spatprodukt
Das Spatprodukt setzt sich aus Kreuz- und Skalarprodukt zusammen.
Definition 2.1.29 (Spatprodukt)
F¨
ur gegebene Vektoren a, b, c ∈ R3 ist das Spatprodukt [a, b, c] definiert durch
[a, b, c] := a × b, c .
F¨
ur


a1


a =  a2  ,
a3


b1


b =  b2  ,
b3


c1


c =  c2 
c3
ergibt sich durch Nachrechnen die Formel
[a, b, c] = (a2 b3 − a3 b2 )c1 + (a3 b1 − a1 b3 )c2 + (a1 b2 − a2 b1 )c3 .
Bemerkung 2.1.30
Mit Hilfe der sp¨ater behandelten Determinanten kann das Spatprodukt geschrieben werden
als
a1 b 1 c 1
[a, b, c] = a2 b2 c2 .
a3 b 3 c 3
Das Spatprodukt ist n¨
utzlich, um Volumina von geometrischen Objekten zu berechnen.
Beispiel 2.1.31 (Volumen eines Parallelepipeds)
Gegeben sei ein durch die Vektoren a, b, c ∈ R3 aufgespanntes Parallelepiped (Spat), vgl.
Abbildung.
a×b
c
c
ϕ
h
b
a
Gesucht ist das Volumen V des Parallelepipeds. Es gilt
V = a×b ·h
c 2011 by M. Gerdts
68
KAPITEL 2. VEKTOREN UND MATRIZEN
mit h = c · | cos ϕ|. Mit Hilfe des Skalarprodukts folgt
cos ϕ =
a × b, c
a × b, c
a×b · c
=⇒
h=
a×b
und damit
V = a × b · h = [a, b, c] .
Tetraeder spielen eine wichtige Rolle in der Finite Element Methode (FEM) zur numerischen L¨osung partieller Differentialgleichungen, welche u.a. Str¨omungsvorg¨ange, Aufheizungsprozesse und Transportprozesse beschreiben.
Beispiel 2.1.32 (Volumen eines Tetraeders)
Gegeben sei ein durch die Vektoren a, b, c ∈ R3 aufgespannter Tetraeder, vgl. Abbildung.
c
b
a
Das Volumen des Tetraeders betr¨agt dann
1
V = [a, b, c] .
6
Satz 2.1.33 (Eigenschaften)
(a) Das Spatprodukt ist genau dann Null, wenn die drei Vektoren in einer Ebene liegen.
(b) Das Spatprodukt [a, b, c] ist gr¨oßer Null, wenn die a, b, c ein Rechtssystem bilden,
und kleiner Null, wenn sie ein Linkssystem bilden.
(c) Die Vektoren k¨onnen zyklisch vertauscht werden, ohne den Wert des Spatprodukts
zu ¨andern, d.h.
[a, b, c] = [c, a, b] = [b, c, a].
(d) Werden die Vektoren antizyklisch vertauscht, so ¨andert sich das Vorzeichen des
Spatprodukts, d.h.
[a, b, c] = −[c, b, a].
c 2011 by M. Gerdts
2.1. VEKTOREN
2.1.8
69
Vektoren im Rn
Nachdem wir uns bisher auf den ebenen bzw. r¨aumlichen Fall beschr¨ankt haben, verallgemeinern wir den Vektorbegriff nun auf n ∈ N Dimensionen. F¨
ur n > 3 versagt die
geometrische Vorstellungskraft, allerdings spricht mathematisch nichts dagegen, n Zahlen
in einem gemeinsamen Vektor der Dimension n zusammenzufassen und damit zu rechnen.
Definition 2.1.34 (Vektor, Dimension, Komponenten, Nullvektor, Skalar)
(a) F¨
ur n ∈ N und n Zahlen x1 , . . . , xn heißt

x1
x2
..
.


x := 








xn
(Spalten-)Vektor. n bezeichnet die Dimension des Vektors.
(b) Die Zahlen x1 , . . . , xn heißen Komponenten des Vektors.
(c) Vektoren der Dimension n = 1 heißen Skalar.
(d) Ein Vektor, dessen Komponenten alle Null sind, heißt Nullvektor und wird mit 0
bezeichnet.
(e) Werden die Komponenten x1 , . . . , xn nebeneinander in der Form
x1 · · ·
xn
geschrieben, so spricht man von einem Zeilenvektor.
(f ) Die Vektoren



e1 = 


1
0
..
.



,





e2 = 


0
0
1
..
.
0



,



...,

0
 . 
 .. 

en = 
 
 0 
1
heißen Einheitsvektoren des Rn .
c 2011 by M. Gerdts
70
KAPITEL 2. VEKTOREN UND MATRIZEN
Bemerkung 2.1.35
Im Folgenden verstehen wir unter einem Vektor stets einen Spaltenvektor. Falls nichts anderes gesagt wird, sind die Komponenten eines Vektors stets reelle Zahlen. Wir schreiben
x ∈ Rn f¨
ur einen n-dimensionalen Vektor mit reellen Komponenten. Alternative Schreibweisen in der Literatur sind x, x oder einfach x.
Zwei Vektoren x und y sind genau dann gleich, wenn ihre Komponenten gleich sind, d.h.

 

x1
y1
 ..   .. 
⇐⇒
xi = yi f¨
ur i = 1, . . . , n.
 . = . 
xn
yn
Vektoren unterschiedlicher Dimension sind also niemals gleich!
Die Multiplikation eines Vektors mit einem Skalar und die Addition zweier Vektoren gleicher Dimension sind komponentenweise definiert:



λx1
x1
 . 
 . 
λ  ..  :=  ..  ,
λxn
xn
 



y1
x1 + y 1
  .. 


..
 +  .  := 
.
.


x1
 ..
 .
xn
yn
xn + y n
F¨
ur Vektoren unterschiedlicher Dimension ist die Addition nicht definiert!
Durch Nachrechnen ergibt sich
Satz 2.1.36 (Rechenregeln)
Seien a, b und c Vektoren gleicher Dimension und λ und µ Zahlen. Dann gelten folgende
Rechenregeln:
a+b=b+a
(a + b) + c = a + (b + c)
a+0=a
a + (−a) = 0
λ(µa) = (λµ)a
(Kommutativgesetz)
(Assoziativgesetz)
(Neutralit¨at des Nullvektors bzgl. Addition)
(Existenz eines additiv inversen Vektors)
(Assoziativit¨at bei Multiplikation mit Skalaren)
λ(a + b) = λa + λb
(Distributivgesetz I)
(λ + µ)a = λa + µa
(Distributivgesetz II).
c 2011 by M. Gerdts
2.1. VEKTOREN
71
Sp¨ater werden wir den Spieß umdrehen und einen Vektorraum (also eine Menge von
Vektoren) dadurch definieren, dass in einem solchen Raum genau die Rechenregeln in
Satz 2.1.36 gelten. Dies kann auf sehr allgemeine Mengen f¨
uhren, deren Elemente formal
als Vektoren bezeichnet werden, die aber nichts mehr mit der u
¨blichen geometrischen
Vorstellung von Vektoren zu tun haben m¨
ussen. Dennoch kann man mit diesen Vektoren
wie in Satz 2.1.36 angegeben rechnen.
Die folgende Normdefinition gilt f¨
ur reelle und komplexe Vektoren:
Definition 2.1.37 (Norm (L¨
ange) eines Vektors)
Die (euklidische) Norm (L¨
ange) des Vektors


x1
 . 
x =  .. 
xn
ist definiert als
x :=
|x1 |2 + . . . + |xn |2 .
Ein Vektor x mit x = 1 heißt normiert.
F¨
ur Vektoren x mit reellen Komponenten k¨onnen die Betr¨age in den Termen |xk |2 , k =
1, . . . , n, in Definition 2.1.37 auch weggelassen werden.
Die Normabbildung
·
besitzt folgende Eigenschaften:
Satz 2.1.38 (Normeigenschaften)
Seien x und y Vektoren gleicher Dimension und λ eine Zahl. Dann gelten:
λx = |λ| · x
x+y ≤ x + y
(Dreiecksungleichung)
x+y ≥| x − y |
x =0
⇐⇒
x=0
Analog zu Satz 2.1.14 ist das Skalarprodukt auch f¨
ur n-dimensionale Vektoren definiert.
c 2011 by M. Gerdts
72
KAPITEL 2. VEKTOREN UND MATRIZEN
Definition 2.1.39 (Skalarprodukt)
F¨
ur reelle Vektoren


x1
 . 
x =  .. 

und

y1
 . 
y =  .. 
xn
yn
ist das Skalarprodukt x, y definiert als
n
x, y :=
xi yi .
i=1
Satz 2.1.40 (Cauchy-Schwarz’sche Ungleichung)
F¨
ur alle Vektoren x und y gleicher Dimension gilt
| x, y | ≤ x · y .
Bemerkung 2.1.41
(a) Die geometrische Definition des Skalarprodukts aus Definition 2.1.9 mit
x, y = x · y · cos ϕ
gilt unver¨andert.
(b) Sind die Komponenten von x und y komplexe Zahlen, so muss die Definition des
Skalarprodukts modifiziert werden zu
n
x, y :=
xi y i ,
i=1
um die wichtige Eigenschaft x, x ≥ 0 zu erhalten.
2.2
Allgemeine Vektorr¨
aume
Mit Hilfe der Rechenregeln in Satz 2.1.36 lassen sich allgemeine Vektorr¨aume definieren. Deren Elemente – die Vektoren – gen¨
ugen dann automatisch den Rechenregeln in
c 2011 by M. Gerdts
¨
2.2. ALLGEMEINE VEKTORRAUME
73
Satz 2.1.36. Die bisher betrachteten n-dimensionalen Vektoren des Rn bilden damit einen
speziellen Vektorraum.
Definition 2.2.1 (Vektorraum, linearer Raum)
Ein Vektorraum (V, +, ·) u
¨ber dem Skalarenk¨orper K = R oder K = C besteht aus einer
Menge V , auf der die Addition zweier Elemente und die Multiplikation mit einem Skalar
aus K mit den folgenden Eigenschaften definiert sind:
(a) Abgeschlossenheit: Mit x, y ∈ V ist auch x + y ∈ V . Mit x ∈ V und λ ∈ K ist
auch λx ∈ V .
(b) Kommutativgesetz: F¨
ur alle x, y ∈ V gilt
x + y = y + x.
(c) Assoziativgesetz: F¨
ur alle x, y, z ∈ V gilt
x + (y + z) = (x + y) + z.
(d) Existenz eines Nullelements: Es existiert 0 ∈ V (Nullelement), so dass f¨
ur alle
x ∈ V gilt:
x + 0 = x.
(e) Existenz eines additiv inversen Elements: Zu jedem x ∈ V gibt es genau ein
Element y ∈ V mit
x + y = 0.
(f ) Neutralit¨
at der 1: F¨
ur alle x ∈ V gilt
1 · x = x.
(g) Multiplikation mit Skalar: F¨
ur alle x, y ∈ V und λ, µ ∈ K gelten
λ(µx) = (λµ)x,
(λ + µ)x = λx + µx,
λ(x + y) = λx + λy.
Man schreibt h¨aufig V an Stelle von (V, +, ·), wenn klar ist, welche Addition und welche
Multiplikation gemeint ist. Die Elemente des Vektorraums V nennt man Vektoren.
c 2011 by M. Gerdts
74
KAPITEL 2. VEKTOREN UND MATRIZEN
Beispiel 2.2.2
(a) Rn ist ein Vektorraum u
¨ber K = R und Cn ist ein Vektorraum u
¨ber K = C.
(b) Die Menge aller stetigen Funktionen auf dem Intervall [0, 1] versehen mit der punktweisen Addition und Multiplikation ist ein Vektorraum.
(c) Die Menge aller Polynome vom H¨ochstgrad n definiert einen Vektorraum u
¨ber R
(Zeige dies durch Nachpr¨
ufen der Bedingungen (a)-(f )!).
(d) Die Gerade
1
−1
x(t) ∈ R2 x(t) = t
, t∈R
definiert einen Vektorraum u
¨ber R.
(e) Die Gerade
x(t) ∈ R2 x(t) =
1
0
+t
1
−1
, t∈R
definiert keinen Vektorraum u
¨ber R (Warum nicht?).
Vektorr¨aume k¨onnen also sehr viel abstrakter aussehen als die bisher betrachteten geometrischen Vektorr¨aume, daher schreibt man f¨
ur die Elemente eines Vektorraums in der
Regel auch x (ohne Pfeil) anstatt x. Mit x verbinden wir stets die geometrischen Vektoren im Rn . Dennoch gelten stets dieselben Rechenregeln in allen Vektorr¨aumen. Kann
man Aussagen f¨
ur allgemeine Vektorr¨aume beweisen, so gelten diese somit auch f¨
ur alle
speziellen Vektorr¨aume.
Definition 2.2.3 (Linearkombination)
Seien m ∈ N Vektoren x1 , . . . , xm aus einem Vektorraum und Zahlen λ1 , . . . , λm gegeben.
Dann heißt
m
λi xi
λ 1 x1 + . . . + λ m x m =
i=1
eine Linearkombination der Vektoren x1 , . . . , xm .
c 2011 by M. Gerdts
¨
2.2. ALLGEMEINE VEKTORRAUME
75
Beispiel 2.2.4
Wegen



x1


 .. 
 .  = x1 


xn



0

 . 

 . 
 + . . . + xn  .  = x 1 e 1 + . . . + xn e n =

 

 0 
0
1
1
0
..
.
n
xi ei
i=1
l¨asst sich jeder Vektor x ∈ Rn als Linearkombination der Einheitsvektoren darstellen.
Definition 2.2.5 (Lineare Unabh¨
angigkeit, lineare Abh¨
angigkeit)
Seien m ≥ 2 Vektoren x1 , . . . , xm aus einem Vektorraum gegeben.
(a) Die Vektoren xk , k = 1, . . . , m, sind linear unabh¨
angig genau dann, wenn aus
der Darstellung
m
0=
λk xk = λ1 x1 + . . . + λm xm
k=1
stets folgt
λ1 = . . . = λm = 0.
(b) Die Vektoren xk , k = 1, . . . , m, sind linear abh¨
angig genau dann, wenn es Zahlen
λk , k = 1, . . . , m, gibt, die nicht alle Null sind und
m
λk xk = λ1 x1 + . . . + λm xm .
0=
k=1
erf¨
ullen.
Beispiel 2.2.6
(a) Die Einheitsvektoren e1 , . . . , en ∈ Rn sind linear unabh¨angig.
(b) Die Vektoren


1
 
 1 ,
0


1


 −1  ,
0


1
 
 1 
1
sind linear unabh¨angig.
c 2011 by M. Gerdts
76
KAPITEL 2. VEKTOREN UND MATRIZEN
(c) Die Vektoren


1
 
 1 ,
0


0


 0 ,
−1


1
 
 1 
1
sind linear abh¨angig, denn es gilt

 
  
1
0
1
  
  
−  1  +  0  +  1  = 0.
0
−1
1
Sind die Vektoren x1 , . . . , xm linear abh¨angig, so l¨aßt sich stets einer dieser Vektoren als
Linearkombination der u
¨brigen Vektoren darstellen, da es dann Zahlen λ1 , . . . , λm gibt,
die nicht alle Null sind, mit
0 = λ 1 x1 + . . . + λ m xm .
Ist dann etwa λk = 0 f¨
ur k ∈ {1, . . . , m}, so folgt
1
xk = −
λk
m
λj xj .
j=1
j=k
Eine solche Darstellung ist nicht m¨oglich, wenn die Vektoren linear unabh¨angig sind.
Definition 2.2.7 (Basis, Dimension, Unterraum)
Sei V ein Vektorraum.
(a) Die Menge B ⊆ V heißt Basis von V , wenn sich jedes Element aus V eindeutig
als Linearkombination von Elementen aus B darstellen l¨asst. Die Elemente in B
heißen Basiselemente oder Basisvektoren.
(b) Die Dimension des Vektorraums V ist definiert als die Anzahl der Basiselemente
in B. Ist B endlich, so ist V ein endlichdimensionaler Vektorraum, andernfalls
ein unendlichdimensionaler Vektorraum.
(c) Eine Teilmenge U von V heißt Untervektorraum oder Teilraum von V , wenn
U selbst ein Vektorraum ist.
c 2011 by M. Gerdts
¨
2.2. ALLGEMEINE VEKTORRAUME
77
Beispiel 2.2.8
(a) B = {e1 , . . . , en } ist eine Basis des Vektorraums Rn . Die Dimension von Rn ist n.
(b) B =
1
0
,
1
−1
(c) B =
1
0
,
1
−1
ist eine Basis des R2 . Die Dimension ist 2.
,
0
1
ist keine Basis des R2 .
(d) Die Menge
x(t) ∈ R2 x(t) = t
1
−1
, t∈R
definiert einen Untervektorraum des R2 .
(e) Die Menge der elementaren Polynome
{1, x, x2 , . . . , xn }
ist eine (n+1)-dimensionale Basis des Vektorraums der Polynome mit H¨ochstgrad
n.
Bemerkung 2.2.9
Die Basiselemente einer Basis B sind stets linear unabh¨angig im Sinne von Definition 2.2.5. Andernfalls k¨onnten die Elemente eines Vektorraums durch verschiedene Linearkombinationen dargestellt werden, was per Definition einer Basis ausgeschlossen ist.
Da sich die in Vektorr¨aumen g¨
ultigen Rechenregeln auf Teilmengen vererben, gen¨
ugt es,
die Abgeschlossenheit einer Teilmenge zu u
ufen:
¨berpr¨
Satz 2.2.10
U ⊆ V ist genau dann ein Untervektorraum von V , wenn U abgeschlossen ist, d.h. wenn
x, y ∈ U =⇒ x + y ∈ U,
x ∈ U, λ ∈ K =⇒ λx ∈ U.
c 2011 by M. Gerdts
78
KAPITEL 2. VEKTOREN UND MATRIZEN
Durch Vorgabe von endlich vielen Vektoren wird ein Vektorraum durch das Bilden aller
Linearkombinationen erzeugt:
Definition 2.2.11
Sei V ein Vektorraum und x1 , . . . , xn ∈ V gegebene Vektoren. Dann heißt
n
U :=
x∈V
λk xk , λk ∈ R, k = 1, . . . , n
x=
k=1
der von {x1 , . . . , xn } erzeugte Vektorraum.
Man muss noch nachweisen, dass der von {x1 , . . . , xn } erzeugte Vektorraum tats¨achlich ein
Vektorraum ist. Dies gelingt am einfachsten mit Hilfe von Satz 2.2.10 durch Nachrechnen.
Die Dimension des von {x1 , . . . , xn } erzeugten Vektorraums ist gleich der maximalen
Anzahl linear unabh¨angiger Vektoren in {x1 , . . . , xn }.
Beispiel 2.2.12
Der durch

1


a= 0 
−1

1
 
b= 1 
0


und
erzeugte Vektorraum lautet



λ
+
λ
1
2



U= 
λ2



−λ1



λ1 , λ2 ∈ R .


Dieser erzeugte Vektorraum ist eine Ebene durch den Ursprung:
c 2011 by M. Gerdts
2.3. MATRIZEN
79
1
0.5
0
-0.5
-1
-2-1.5
-1-0.5
00.5
11.5
2 -1
-0.5
0
0.5
1
Beachte, dass der Nullvektor 0 stets im erzeugten Vektorraum enthalten ist. In diesem Beispiel sind die Vektoren a und b linear unabh¨angig und spannen daher einen 2-dimensionalen
Untervektorraum des R3 auf.
2.3
Matrizen
Eine Matrix ist ein mathematisches Objekt, welches u.a. eine effiziente Schreibweise f¨
ur die
in Kapitel 3 behandelten linearen Gleichungssysteme und lineare Abbildungen erm¨oglicht.
Matrizen entstehen, wenn man mehrere Spaltenvektoren gleicher Dimension hintereinander schreibt und zusammenfasst. Vektoren sind dabei spezielle Matrizen mit nur einer
Spalte.
Definition 2.3.1 (Matrix)
(a) F¨
ur m, n ∈ N und nm Zahlen aij , i = 1, . . . , m, j = 1, . . . , n, heißt


a11 a12 · · · a1n


 a21 a22 · · · a2n 
A := 
..
.. 
...

 ..
.
. 
.

am1 am2 . . . amn
eine m × n-Matrix mit m Zeilen und n Spalten. Man sagt, die Matrix hat die
c 2011 by M. Gerdts
80
KAPITEL 2. VEKTOREN UND MATRIZEN
Dimension m × n. Als abk¨
urzende Schreibweise wird
A = [aij ] i=1,...,m
j=1,...,n
verwendet.
(b) Die Zahlen aij , i = 1, . . . , m, j = 1, . . . , n, heißen Elemente der Matrix A. Sind
alle Elemente reellwertig, so spricht man von einer reellen Matrix und schreibt
A ∈ Rm×n . Sind die Elemente komplexe Zahlen, so spricht man von einer komplexen Matrix und schreibt A ∈ Cm×n .
(c) Die m-dimensionalen Spaltenvektoren


a1j


 a2j 
 . ,
 . 
 . 
j = 1, . . . , n,
amj
bezeichnen die Spalten von A und die n-dimensionalen Zeilenvektoren
,
ai1 ai2 . . . ain
i = 1, . . . , m,
bezeichnen die Zeilen von A.
(d) Im Fall m = n heißt die Matrix A quadratisch.
(e) Eine Matrix, deren Elemente alle Null sind, heißt Nullmatrix und wird mit 0
bezeichnet.
(f ) Die Matrix


In := 

1
..

n×n
∈R ,
.
1
die auf ihrer Hauptdiagonalen lauter Einsen und sonst nur Nullen enth¨alt, heißt
Einheitsmatrix. Es ist u
¨blich, Nulleintr¨age wegzulassen.
Matrizen sind sehr n¨
utzlich, um eine Vielzahl von Informationen kompakt zusammenzufassen.
Beispiel 2.3.2 (Matrixspiel)
Gegeben seien zwei Spieler X und Y . Der Spieler X kann aus Zahlen {1, . . . , m} ausw¨ahlen
c 2011 by M. Gerdts
2.3. MATRIZEN
81
und Spieler Y aus den Zahlen {1, . . . , n}. W¨ahlt Spieler X die Zahl i ∈ {1, . . . , m} und
Spieler Y die Zahl j ∈ {1, . . . , n}, so zahlt der Spieler Y einen vor Beginn des Spiels
festgelegten Betrag aij ∈ R an Spieler X. Negative Werte von aij bedeuten, dass Spieler
Y von Spieler X den Betrag |aij | bekommt. Dies definiert ein so genanntes Matrixspiel
mit der Auszahlungsmatrix A = [aij ] i=1,...,m .
j=1,...,n
Ein konkretes Matrixspiel ist gegeben durch die Auszahlungsmatrix


2 2 3 9


A =  6 5 4 6 .
7 6 2 1
Es stellt sich nun die Frage, welche Zeilen- bzw. Spaltenwahl f¨
ur Zeilen- und Spaltenspieler
m¨oglichst gut sind. Der Zeilenspieler m¨ochte seinen Gewinn maximieren, w¨ahrend der
Spaltenspieler seinen Verlust minimieren m¨ochte. Hier entsteht offenbar ein Konflikt. Was
soll gew¨ahlt werden?
Was ergibt sich f¨
ur die Auszahlungsmatrix


2 2 3 9


B= 6 5 6 6 ?
7 6 2 1
Definition 2.3.3
Zwei Matrizen
A = [aij ] i=1,...,m
j=1,...,n
und B = [bij ] i=1,...,m
j=1,...,n
gleicher Dimension heißen gleich, wenn ihre Elemente gleich sind, d.h. wenn
aij = bij
∀i = 1, . . . , m, j = 1, . . . , n.
Addition und Multiplikation mit Skalaren ist wie bei Vektoren komponentenweise definiert.
Definition 2.3.4 (Matrixaddition, Multiplikation mit Skalaren)
(a) Die Addition zweier Matrizen
A = [aij ] i=1,...,m
j=1,...,n
und
B = [bij ] i=1,...,m
j=1,...,n
c 2011 by M. Gerdts
82
KAPITEL 2. VEKTOREN UND MATRIZEN
gleicher Dimension ist definiert als

a11 + b11

..
A + B := 
.

a1n + b1n

..
.
.
···
...
am1 + bm1 · · ·
amn + bmn
F¨
ur Matrizen unterschiedlicher Dimension ist die Matrixaddition nicht definiert.
(b) Die Multiplikation einer Matrix A = [aij ] i=1,...,m mit einem Skalar λ ist definiert als
j=1,...,n

λa11
 ..
λA :=  .
···
...
λam1 · · ·

λa1n
.. 
. .
λamn
Durch Nachrechnen folgt
Satz 2.3.5 (Rechenregeln I)
Seien A, B und C Matrizen gleicher Dimension und λ und µ Zahlen. Dann gelten folgende
Rechenregeln:
A+B =B+A
(A + B) + C = A + (B + C)
A+0=A
A + (−A) = 0
λ(µA) = (λµ)A
(Kommutativgesetz)
(Assoziativgesetz)
(Neutralit¨at der Nullmatrix bzgl. Addition)
(Existenz einer additiv inversen Matrix)
(Assoziativit¨at bei Multiplikation mit Skalaren)
λ(A + B) = λA + λB
(Distributivgesetz I)
(λ + µ)A = λA + µA
(Distributivgesetz II).
Matrizen k¨onnen miteinander multipliziert werden, wenn ihre Dimensionen passen. Das
Ergebnis ist wieder eine Matrix. Das Element ij des Matrixprodukts berechnet sich nach
dem Prinzip Zeile i der ersten Matrix multipliziert mit der Spalte j der zweiten Matrix“,
”
wobei die Multiplikation im Sinne des Skalarprodukts erfolgt. Dieses Skalarprodukt ist
jedoch nur definiert, wenn die Anzahl der Spalten der ersten Matrix mit der Anzahl der
Zeilen der zweiten Matrix u
¨bereinstimmt. Wir definieren diesen Vorgang zun¨achst formal
c 2011 by M. Gerdts
2.3. MATRIZEN
83
und veranschaulichen ihn dann an Beispielen.
Definition 2.3.6 (Matrixmultiplikation)
Gegeben seien die m × n-Matrix A und die n × p-Matrix B gem¨aß

a11
 ..
A= .
···
..
.
am1 · · ·

a1n
.. 
. ,
amn

b11 · · · b1p
 .
. 
B =  .. . . . ..  .
bn1 · · · bnp

Das Matrixprodukt C = AB ist eine m × p-Matrix, deren Elemente cij f¨
ur i = 1, . . . , m
und j = 1, . . . , p gegeben sind durch
n
cij =
aik bkj
(Zeile i von A mal Spalte j von B).
k=1
Schema: “Zeile i mal Spalte j ergibt das Element ij”
..
..
.
.

 ai1 · · ·

..
..
.
.

..
.
ain
..
.
m×n−Matrix
 .
..
b1j

···
···
 

..
 ···

··· 
.
 =  ···


···
···
bnj
..
.
n×p−Matrix
..
.


n
aik bkj
k=1
..
.
.. 
.


··· 
.

..
.
m×p−Matrix
Bemerkung 2.3.7
Mit Hilfe des Skalarprodukts f¨
ur Vektoren kann die Matrixmultiplikation f¨
ur reelle Man
trizen wie folgt dargestellt werden. Bezeichnen ai ∈ R , i = 1, . . . , m, die Zeilenvektoren
von A und bj ∈ Rn , j = 1, . . . , p, die Spaltenvektoren von B, so ist das Element cij von
C gegeben durch das Skalarprodukt
cij = ai , bj .
Beispiel 2.3.8
(a)
2 −1
0
4
1 −1
2
3
=
0 −5
8 12
c 2011 by M. Gerdts
84
KAPITEL 2. VEKTOREN UND MATRIZEN
(b)
2 −1
0
4
1
−1
=
3
−4
(c)


5


 −3 
0


5 −5 10


=  −3
3 −6 
0
0
0
1 −1 2
(d)


5


 −3  =
0
1 −1 2
8
(e) Die Matrizen





5
−3
0
0






1 −7


4 
 −2
0
1

und
k¨onnen nicht miteinander multipliziert werden.
(f ) Wegen

1





a11 · · · a1n
a11 · · · a1n
  .. . .
 . .
.. 
.. 
..
.
.
 .
.  =  .. . .
. 
1
an1 · · · ann
an1 · · · ann


a11 · · · a1n
1
 .. . .
..  
...
=  .
.
. 

an1 · · ·



1
ann
gilt f¨
ur alle m × n-Matrizen stets
Im A = AIn = A.
Wegen
2 −1
0
4
1 −1
2
3
=
0 −5
8 12
=
2 −5
4 10
=
1 −1
2
3
2 −1
0 4
ist die Matrixmultiplikation im Allgemeinen nicht kommutativ (!), d.h. es gilt im Allgemeinen
AB = BA.
c 2011 by M. Gerdts
2.3. MATRIZEN
85
Satz 2.3.9 (Rechenregeln II)
Seien A, B und C Matrizen passender Dimension. Dann gelten folgende Rechenregeln:
(AB)C = A(BC)
(Assoziativgesetz)
A(B + C) = AB + AC
(Distributivgesetz I)
(A + B)C = AC + BC
(Distributivgesetz II).
Durch Spiegeln der Elemente an der Hauptdiagonalen entsteht die sogenannte transponierte Matrix. Aus der i-ten Zeile wird dann in der transponierten Matrix die i-te Spalte.
Definition 2.3.10 (Transponierte Matrix)
Die zur m × n-Matrix

a11 a12 · · ·

 a21 a22 · · ·
A=
..
..
 ..
.
.
 .
am1 am2 · · ·

a1n

a2n 



amn
transponierte Matrix A ist definiert als die n × m-Matrix


a11 a21 · · · am1


 a12 a22 · · · am2 

.
A :=  . .
..

.
.
. .
 .

a1n a2n · · ·
amn
Matrizen mit A = A heißen symmetrisch. Komplexe Matrizen mit A¯
hermitesch, wobei A¯ die zu A konjugiert komplexe Matrix bezeichnet.
= A heißen
Beispiel 2.3.11
(a)
2 −1
0
4
=
2 0
−1 4
c 2011 by M. Gerdts
86
KAPITEL 2. VEKTOREN UND MATRIZEN
(b)


5


 −3  =
0
5 −3 0
(c)


1 −7


4  =
 −2
0
1
1 −2 0
−7
4 1
(d) Die Matrix


1
2 5


 2 −3 7 
5
7 1
ist symmetrisch.
(e) Die komplexe Matrix
1
4 − 2i
4 + 2i
5
ist hermitesch.
Symmetrische und hermitesche Matrizen haben besondere Eigenschaften in Bezug auf
ihre Eigenwerte. Dies wird in Kapitel 4 deutlich werden.
Satz 2.3.12 (Rechenregeln)
Seien A und B m × n-Matrizen, C eine n × k-Matrix und λ ein Skalar. Dann gelten die
folgenden Rechenregeln:
(A )
(A + B)
= A,
= A +B ,
(λA)
= λA ,
(BC)
= C B .
Beweis: Die ersten drei Eigenschaften kann man leicht nachrechnen. Die letzte Eigenschaft ergibt sie wie folgt. Zun¨achst bemerken wir, dass BC eine m × k-Matrix ist. Damit
c 2011 by M. Gerdts
2.3. MATRIZEN
87
ist (BC) eine k × m-Matrix. Die Matrix C ist eine k × n-Matrix und B eine n × mMatrix. Das Produkt C B ist damit eine k × m-Matrix. Wir berechnen nun jeweils das
Element mit dem Index ij von (BC) und C B .
F¨
ur BC ergibt sich das Element
n
(BC)µν =
bµ c ν .
=1
Damit lautet das Element ij von (BC)
n
(BC)ij =
bj c i .
=1
F¨
ur das Produkt C B ergibt sich das Element ij, indem die i-te Spalte von C mit der
j-ten Zeile von B multipliziert wird, d.h.
n
(C B )ij =
c i bj .
=1
Folglich stimmen beide Darstellungen u
¨berein.
Bemerkung 2.3.13
Das Skalarprodukt zweier Vektoren a ∈ Rn und b ∈ Rn kann mit der Transposition dargestellt werden als
n
a, b = a b =
ai b i .
i=1
Beim L¨osen von linearen Gleichungssystemen spielt die Inverse einer Matrix eine entscheidende Rolle.
Definition 2.3.14 (Inverse einer Matrix)
Gegeben sei die n × n-Matrix A. Jede n × n-Matrix X heißt Inverse von A (inverse
Matrix von A) genau dann, wenn
AX = XA = In
gilt. Die Inverse von A wird mit A−1 bezeichnet.
Besitzt A eine inverse Matrix A−1 , so heißt sie invertierbar, andernfalls singul¨
ar.
Beispiel 2.3.15
Die Matrix
A=
1 −1
1
1
c 2011 by M. Gerdts
88
KAPITEL 2. VEKTOREN UND MATRIZEN
besitzt die Inverse
A−1 =
1
2
1
2
1
2
− 21
,
denn
AA−1 =
1
2
− 12
1 −1
1
1
1
2
1
2
=
1 0
0 1
=
1
2
− 12
1
2
1
2
1 −1
1
1
= A−1 A.
Satz 2.3.16 (Eindeutigkeit)
Existiert die Inverse einer Matrix, so ist sie eindeutig.
Beweis: Annahme: Die n × n-Matrix A besitzt zwei Inverse X und Y mit X = Y .
Dann gilt AX = In = AY . Multiplikation von links mit X liefert
X = XIn = XAX = XAY = In Y = Y.
Dies ist ein Widerspruch zur Annahme. Daher ist die Annahme falsch und die Aussage
bewiesen.
Nicht jede Matrix besitzt eine Inverse, wie das folgende Beispiel verdeutlicht.
Beispiel 2.3.17
Die Matrix
A=
1 0
0 0
besitzt keine Inverse, da
AX =
1 0
0 0
x11 x12
x21 x22
=
x11 x12
0
0
= I2 ,
f¨
ur alle 2 × 2-Matrizen X.
Definition 2.3.18 (Lineares Gleichungssystem)
Seien A eine n × n-Matrix und b ein Vektor der Dimension n.
Die Gleichung
Ax = b
heißt lineares Gleichungssystem fu
¨ r den Vektor x.
Jeder Vektor x mit Ax = b heißt L¨
osung des linearen Gleichungssystems.
c 2011 by M. Gerdts
2.3. MATRIZEN
89
Kennt man die Inverse einer Matrix A, so ist die L¨osung x eines linearen Gleichungssystems Ax = b durch
x = A−1 b
ur hochdimensionale Magegeben, da Ax = AA−1 b = In b = b. Leider ist es insbesondere f¨
trizen sehr aufw¨andig, die Inverse zu berechnen. Daher wird die Inverse einer Matrix in der
Regel nicht explizit berechnet, sondern es werden andere Techniken (Gauß-Algorithmus,
vgl. Abschnitt 3.1) zur L¨osung eines linearen Gleichungssystems verwendet. Als theoretisches Hilfsmittel ist die Inverse aber unverzichtbar in der linearen Algebra.
Satz 2.3.19 (Eigenschaften der Inversen)
Seien A und B invertierbar. Dann gelten folgende Rechenregeln:
(A−1 )−1 = A,
(AB)−1 = B −1 A−1 ,
(A )−1 = (A−1 ) .
Beweis: Die erste Aussage folgt aus
A−1 A = I = AA−1 .
Die zweite folgt wegen
(AB)B −1 A−1 = A(BB −1 )A−1 = AA−1 = I
und
B −1 A−1 (AB) = B −1 (A−1 A)B = B −1 B = I.
Die dritte Aussage folgt wie folgt. Transposition der Gleichung A−1 A = I liefert
I = I = (A−1 A) = A (A−1 )
und Transposition der Gleichung AA−1 = I liefert
I = I = (AA−1 ) = (A−1 ) A .
Beide Gleichungen zusammen zeigen die Behauptung.
Definition 2.3.20 (Rang einer Matrix)
Sei A ∈ Rm×n eine Matrix.
c 2011 by M. Gerdts
90
KAPITEL 2. VEKTOREN UND MATRIZEN
(a) Der Zeilenrang der Matrix A ist die maximale Anzahl von linear unabh¨angigen Zeilen von A.
(b) Der Spaltenrang der Matrix A ist die maximale Anzahl von linear unabh¨angigen
Spalten von A.
Beispiel 2.3.21
(a) Die Matrix
1 −1 2 0
0 0 1 0
hat Zeilenrang 2 und Spaltenrang 2.
(b) Die Matrix

1 −1 2


 0 1 1 
0 0 1

hat Zeilenrang 3 und Spaltenrang 3.
(c) Die Matrix

1 4 8


 0 0 0 
0 0 0

hat Zeilenrang 1 und Spaltenrang 1.
Bemerkung 2.3.22
Zeilen- und Spaltenrang einer Matrix A stimmen stets u
¨berein. Daher spricht man auch
nur vom Rang von A und schreibt Rang(A) oder Rg(A).
2.4
Lineare Abbildungen und Matrizen
Im Folgenden wird der Zusammenhang zwischen linearen Abbildungen und Matrizen hergestellt.
c 2011 by M. Gerdts
2.4. LINEARE ABBILDUNGEN UND MATRIZEN
91
Definition 2.4.1 (Lineare Abbildung)
Eine Abbildung T : Rn −→ Rm heißt lineare Abbildung, wenn
T (x + y) = T (x) + T (y),
T (λx) = λT (x)
f¨
ur alle x, y ∈ Rn und alle λ ∈ R gilt.
Beispiel 2.4.2
Sei A ∈ Rm×n . Dann ist durch
T (x) = Ax
eine lineare Abbildung T : Rn −→ Rm gegeben, denn f¨
ur x, y ∈ Rn und λ ∈ R gilt:
T (x + y) = A(x + y) = Ax + Ay = T (x) + T (y),
T (λx) = A(λx) = λAx = λT (x).
Die Umkehrung in Beispiel 2.4.2 gilt ebenfalls: Jede lineare Abbildung kann durch eine
Matrix dargestellt werden:
Satz 2.4.3
Sei T : Rn −→ Rm eine lineare Abbildung. Dann gibt es eine Matrix A ∈ Rm×n mit
T (x) = Ax f¨
ur alle x ∈ Rn .
Beweis: Sei
n
x=
xi ei
i=1
ein beliebiger Vektor. Aus der Linearit¨at von T folgt dann
n
T (x) = T
n
xi ei
i=1
=
xi T (ei ) = Ax,
i=1
wobei die Matrix A ∈ Rm×n sich aus den Spalten T (ei ) ∈ Rm , i = 1, . . . , n, zusammensetzt:
A := T (e1 ) · · · T (en ) .
c 2011 by M. Gerdts
92
KAPITEL 2. VEKTOREN UND MATRIZEN
Definition 2.4.4 (Bild und Kern)
Sei A ∈ Rm×n eine Matrix und T : Rn −→ Rm die zugeh¨orige durch T (x) := Ax definierte
lineare Abbildung.
(a) Der Nullraum (oder Kern) von A bzw. T ist definiert als
Kern(A) := {x ∈ Rn | Ax = 0}.
(b) Das Bild (engl. image) von A bzw. T ist definiert als
Bild(A) := {y ∈ Rm | y = Ax, x ∈ Rn }.
Der Kern von A ∈ Rm×n ist ein Untervektorraum des Rn und das Bild von A ist ein
Untervektorraum des Rm , wie man mit Hilfe von Satz 2.2.10 leicht nachpr¨
uft.
Beispiel 2.4.5
F¨
ur
A=
1 −1
0 0
ist
Bild(A) =
t
0
t∈R
und
Kern(A) =
t
1
1
t∈R .
Wir fassen noch einige aus der linearen Algebra bekannte Resultate zusammen:
Satz 2.4.6
Sei A ∈ Rm×n . Dann gelten folgende Aussagen:
(a)
n = dim(Kern(A)) + dim(Bild(A))
m = dim(Kern(A )) + Rang(A)
Kern(A) = Bild(A )⊥ ,
Bild(A ) = Kern(A)⊥ ,
Kern(A) = Kern(A A),
Bild(A ) = Bild(A A).
c 2011 by M. Gerdts
2.4. LINEARE ABBILDUNGEN UND MATRIZEN
93
Hierin bezeichnet V ⊥ = {w ∈ Rn | w, v = 0 ∀v ∈ V } das orthogonale Komplement
des Unterraums V ⊆ Rn .
(b) Im Fall n = m sind folgende Aussagen ¨aquivalent:
–
–
–
–
–
–
A ist regul¨ar (invertierbar)
Kern(A) = {0}
Bild(A) = Rn
Rang(A) = n
Ax = 0 ⇐⇒ x = 0
Ax = b hat f¨
ur jedes b genau eine L¨osung
c 2011 by M. Gerdts
Kapitel 3
Lineare Gleichungssysteme
Nachdem wir in Kapitel 2 bereits gerlernt haben, mit Vektoren und Matrizen zu rechnen,
geht es in diesem Kapitel um das L¨osen von linearen Gleichungssystemen mit dem GaussAlgorithmus.
3.1
Lineare Gleichungssysteme
Als Motivation f¨
ur dieses Kapitel betrachten wir eine Aufgabe, die in nahezu allen Anwendungen fr¨
uher oder sp¨ater auftritt: die L¨osung eines linearen Gleichungssystems.
Beispiel 3.1.1 (Elektrische Schaltkreise und Kirchhoffsches Gesetz)
Gegeben sei das folgende station¨are elektronische Netzwerk mit gegebenen ohmschen Widerst¨anden R1 , . . . , R5 und gegebenem Eingangsstrom I0 .
I4
R3
I1
I0
R1
R2
4
1
R4 I2
R2
3
R5
I8
I10
I5 R4 2
I6
I3
R1
I9
R3
I7
Das erste Kirchhoffsche Gesetz (Knotensatz)
An jedem Knotenpunkt ist die Summe aller zu- (positiven) und abfließenden
(negativen) Str¨
ome unter Beachtung der durch die Pfeile angegebenen
Richtungen in jedem Zeitpunkt gleich Null
94
3.1. LINEARE GLEICHUNGSSYSTEME
95
liefert die Beziehungen
−I1 + I3 = −I0 ,
I1 − I2 − I4 + I6 = 0,
I2 − I3 − I7 = 0,
I4 − I5 + I8 = 0,
I5 − I6 + I7 − I9 = 0,
−I8 + I9 − I10 = 0.
Aus dem Ohmschen Gesetz
U =R·I
und dem zweiten Kirchhoffschen Gesetz (Maschensatz)
In einer Masche ist die Summe aller Teilspannungen in jedem Zeitpunkt
gleich Null
folgen die Gleichungen
R1 · I1 + R4 · I2 + R2 · I3 = 0,
R2 · I8 + R4 · I5 + R1 · I9 = 0,
R4 · I2 + R5 · I6 + R3 · I7 = 0,
R3 · I4 + R4 · I5 + R5 · I6 = 0.
Diese 10 Gleichungen f¨
ur die Str¨ome I1 , . . . , I10 k¨onnen als lineares Gleichungssystem
geschrieben werden:

 
 

−1
0
1
0
0
0
0
0
0
0
I1
−I0

 
 

 1 −1
0 −1
0
1
0
0
0
0   I2   0 

 
 

 0

 

1 −1
0
0
0 −1
0
0
0 

  I3   0 

 
 

0
0
1 −1
0
0
1
0
0   I4   0 
 0

 
 

 0
  I5   0 
0
0
0
1
−1
1
0
−1
0

·
 

 0
  I  =  0 .
0
0
0
0
0
0
−1
1
−1

  6  


 
 

 R1 R4 R2
0
0
0
0
0
0
0   I7   0 
 


 
 0
  I8   0 
0
0
0
R
0
0
R
R
0
4
2
1

 
 


 
 

0
0
0 R5 R3
0
0
0   I9   0 
 0 R4
0
0
0 R3 R4 R5
0
0
0
0
I10
0
Das Folgende gilt sowohl f¨
ur reellwertige als auch f¨
ur komplexwertige Vektoren und Matrizen. Wir beschr¨anken uns jedoch auf den reellen Fall.
c 2011 by M. Gerdts
96
KAPITEL 3. LINEARE GLEICHUNGSSYSTEME
Problem 3.1.2 (Lineares Gleichungssystem)
Gesucht ist die L¨osung x ∈ Rn des linearen Gleichungssystems
a11 x1 + a12 x2 + . . . + a1n xn = b1 ,
a21 x1 + a22 x2 + . . . + a2n xn = b2 ,
..
.
(3.1)
an1 x1 + an2 x2 + . . . + ann xn = bn ,
wobei aij , i, j = 1, . . . , n, und bi , i = 1, . . . , n, gegebene Zahlen sind.





a11 a12 · · · a1n
b1





 a21 a22 · · · a2n 
 b2 

n×n
n
A=
∈R , b=
∈R , x=
.. . .
.. 
.. 




 ..
. . 
.
 .
 . 

an1 an2 · · ·
ann
bn
Mit

x1

x2 
n
.. 
∈R
. 
(3.2)
xn
lautet das lineare Gleichungssystem in Matrixschreibweise
Ax = b.
(3.3)
Lineare Gleichungssysteme treten in nahezu allen Anwendungen und Verfahren auf.
Unser Ziel ist es, Verfahren zur Bestimmung einer L¨osung x von (3.3) zu entwickeln und
zu analysieren.
3.2
Existenz und Eindeutigkeit von L¨
osungen
Es stellt sich die Frage, welche Voraussetzungen an A und b gestellt werden m¨
ussen,
damit das lineare Gleichungssystem (3.3) u
¨berhaupt eine L¨osung x besitzt. Zun¨achst ist
klar, dass das lineare Gleichungssystem genau eine L¨
osung besitzt, falls die Matrix A
invertierbar (regul¨ar) ist. Die eindeutige L¨osung des Gleichungssystems ist dann durch
x = A−1 b
(3.4)
gegeben. Es kann aber auch der Fall eintreten, dass (3.3) mehrere L¨osungen oder gar keine
L¨osung besitzt. Offensichtlich kann die Matrix A dann nicht regul¨ar sein.
Beispiel 3.2.1
Das folgende lineare Gleichungssystem besitzt keine L¨osung:
1 0
0 0
x1
x2
=
1
1
c 2011 by M. Gerdts
¨
3.2. EXISTENZ UND EINDEUTIGKEIT VON LOSUNGEN
97
Das folgende lineare Gleichungssystem besitzt genau eine L¨osung:
1 0
0 1
x1
x2
=
1
1
Das folgende lineare Gleichungssystem besitzt unendlich viele L¨osungen:
1 0
0 0
x1
x2
=
1
0
Es gilt das folgende Kriterium, welches die Frage der L¨osbarkeit von (3.3) abschließend
beantwortet.
Satz 3.2.2
Das lineare Gleichungssystem (3.3) besitzt genau dann mindestens eine L¨
osung, falls
gilt:
Rang(A) = Rang(A|b).
Unter (A|b) wird die um die rechte Seite b erweiterte Matrix


a11 a12 · · · a1n b1


 a21 a22 · · · a2n b2 

(A|b) =  .
.. 
.. . .
..

.
.
.
.
. 
 .
an1 an2 · · · ann bn
verstanden.
Beweis: Offenbar besitzt das lineare Gleichungssystem genau dann eine L¨osung, wenn
b ∈ Bild(A) gilt.
Sei nun b ∈ Bild(A). Dann gilt auch Bild(A) = Bild(A|b) und somit Rang(A) = Rang(A|b).
Gilt nun Rang(A) = Rang(A|b), so l¨aßt sich b als Linearkombination der Spalten von A
schreiben. Also gilt b ∈ Bild(A) und somit besitzt das Gleichungssystem eine L¨osung.
Die Struktur der L¨osungsmenge eines linearen Gleichungssystems wird im folgenden Satz
behandelt.
Satz 3.2.3
Seien A ∈ Rn×n und b ∈ Rn gegeben. Sei z eine L¨osung von Ax = b. Die gesamte
L¨osungsmenge von Ax = b ist gegeben durch z + Kern(A).
c 2011 by M. Gerdts
98
KAPITEL 3. LINEARE GLEICHUNGSSYSTEME
Beweis: Sei y ∈ Kern(A), d.h. Ay = 0. Dann gilt A(z + y) = Az + Ay = b und z + y
ist L¨osung.
Sei x L¨osung. Dann gilt A(x − z) = b − b = 0 und somit x − z ∈ Kern(A) bzw. x ∈
z + Kern(A).
3.3
Gauss’sches Eliminationsverfahren
Zur Motivation betrachten wir ein System aus 3 linearen Gleichungen in den 3 Unbekannten x, y, z:
6x − 2y + 2z = 12
12x − 8y + 6z = 34
3x − 13y + 9z = 28

  

6 −2 2
x
12

  

 12 −8 6   y  =  34 
3 −13 9
z
28
⇐⇒
=A∈R3×3
=x∈R3
=b∈R3
Gesucht sind Werte f¨
ur x, y und z, die diese drei Gleichungen erf¨
ullen.
In der Schule geht man u
¨blicherweise so vor, dass man eine der Gleichungen nach einer der Variablen aufl¨ost und letztere dann in den beiden u
¨brigen Gleichungen ersetzt.
Dieser Vorgang wird solange wiederholt, bis man f¨
ur eine Variable einen Wert ausrechnen kann und durch Einsetzen erh¨alt man dann schrittweise alle anderen Variable. Diese
Vorgehensweise f¨
uhrt zwar auf das richtige Ergebnis, aber es ist etwas willk¨
urlich.
Wir wollen einen systematischen Weg zur L¨osung des linearen Gleichungssystems kennen
lernen – das Gauß’sche Eliminationsverfahren (Gauß-Algorithmus). Die Idee des
Gauß’schen Eliminationsverfahrens besteht darin, die Koeffizienten im Gleichungssystem
durch elementare Zeilenumformungen schrittweise in obere Dreiecksform zu u
uhren.
¨berf¨
Dieses kann dann mittels R¨
uckw¨artssubstitution gel¨ost werden. Wichtig ist hierbei, dass
die L¨osung des Ausgangsproblems mit der des transformierten Problems u
¨bereinstimmt.
Dies ist bei der Verwendung elementarer Zeilenumformungen gew¨ahrleistet. Elementare Zeilenumformungen sind
• die Multiplikation einer Zeile mit einem Wert ungleich Null,
• die Addition bzw. Subtraktion zweier Zeilen,
• sowie das Vertauschen zweier Zeilen.
Wir wenden den Gauß-Algorithmus auf unser Gleichungssystem
6x − 2y + 2z = 12
12x − 8y + 6z = 34
3x − 13y + 9z = 28

←→

6 −2 2 12


 12 −8 6 34 
3 −13 9 28
c 2011 by M. Gerdts
3.3. GAUSS’SCHES ELIMINATIONSVERFAHREN
99
an und gehen schrittweise vor. Auf der rechten Seite fassen wir die Gleichungssysteme in
Kurzform zusammen, in der nur die Koeffizienten dargestellt sind.
-fache der ersten Zeile von
Wir lassen die erste Zeile unver¨andert und subtrahieren das 12
6
3
der zweiten Zeile und das 6 -fache der ersten Zeile von der dritten Zeile und erhalten


6x − 2y + 2z = 12
6 −2 2 12


←→
−4y + 2z = 10
 0 −4 2 10 
−12y + 8z = 22
0 −12 8 22
Nun lassen wir die ersten beiden Zeilen unver¨andert und subtrahieren das
zweiten Zeile von der dritten Zeile und erhalten


6x − 2y + 2z = 12,
6 −2 2 12


←→
−4y + 2z = 10,
 0 −4 2 10 
0
0 2 −8
2z = −8.
−12
-fache
−4
der
Dieses Gleichungssystem besitzt dieselbe L¨osung wie unser Ausgangssystem, da wir nur
elementare Zeilenumformungen verwendet haben. Es hat jedoch den Vorteil, dass es Dreiecksgestalt besitzt, so dass wir die letzte Zeile leicht nach z aufl¨osen k¨onnen:
z = −4.
Mit Kenntnis von z k¨onnen wir nun die zweite Gleichung nach y aufl¨osen und erhalten
1
1
9
y = − (10 − 2z) = − (10 + 8) = − .
4
4
2
Damit folgt aus der ersten Gleichung
1
1
11
(12 + 2y − 2z) = (12 − 9 + 8) = .
6
6
6
Die L¨osung des linearen Gleichungssystems lautet also
x=
11
9
,
y=− ,
z = −4.
6
2
3.3.1 Die allgemeine Vorgehensweise
Unser Gleichungssystem steht stellvertretend f¨
ur das folgende allgemeine lineare Gleichungssystem in den 3 Variablen x, y, z:

  

a11 x + a12 y + a13 z = b1
a11 a12 a13
x
b1

  

⇐⇒
a21 x + a22 y + a23 z = b2
 a21 a22 a23   y  =  b2 
z
b3
a31 x + a32 y + a33 z = b3
a31 a32 a33
x=
=A∈R3×3
=x∈R3
=b∈R3
mit gegenenen Koeffizienten aij , i, j = 1, 2, 3, und bi , i = 1, 2, 3.
Wir wiederholen dieselben Schritte wie in unserem konkreten Beispiel.
Schritt 1:
c 2011 by M. Gerdts
100
KAPITEL 3. LINEARE GLEICHUNGSSYSTEME
• erste Zeile bleibt unver¨andert
• subtrahiere das
a21
-fache
a11
der ersten Zeile von der zweiten Zeile, falls a11 = 0
• subtrahiere das
a31
-fache
a11
der ersten Zeile von der dritten Zeile, falls a11 = 0
a22 −
a21
a12
a11
a11 x + a12 y + a13 z = b1
a21
a21
y + a23 −
a13 z = b2 −
b1
a11
a11
(1)
a32 −
(1)
(1)
=:a22
=:b2
=:a23
a31
a31
a31
a12 y + a33 −
a13 z = b3 −
b1
a11
a11
a11
(1)
(1)
(1)
=:a32
=:b3
=:a33

a11 a12 a13 b1

(1)
(1)
(1) 
 0 a22 a23 b2 
(1)
(1)
(1)
0 a32 a33 b3

←→
Schritt 2:
• ersten beiden Zeilen bleiben unver¨andert
(1)
• subtrahiere das
a32
(1)
a22
(1)
-fache der zweiten Zeile von der dritten, falls a22 = 0
a11 x + a12 y + a13 z = b1
(1)
(1)
(1)
a22 y + a23 z = b2

(1)
(1)
a33 −
a32
(1)
(1)
a
(1) 23
a22
(1)
z = b3 −
a32
←→
(1)
b
(1) 2
a22

a11 a12 a13 b1

(1)
(1)
(1) 
 0 a22 a23 b2 
(2)
(2)
0
0 a33 b3
(2)
(2)
=:b3
=:a33
Ru
artssubstitution: L¨ose Gleichungssystem schrittweise auf:
¨ ckw¨
(2)
z =
y =
x =
b3
(2)
a33
1
(1)
a22
(2)
(falls a33 = 0),
(1)
(1)
b2 − a23 z
1
(b1 − a12 y − a13 z)
a11
(1)
(falls a22 = 0),
(falls a11 = 0).
Nat¨
urlich funktioniert die obige Vorgehensweise nur, wenn die sogenannten Pivotelemente
(1)
(2)
a11 , a22 und a33 alle ungleich Null sind. Es kann aber sehr wohl der Fall eintreten, dass einer dieser Werte gleich Null ist. Was macht man dann? Nun, u
¨blicherweise verwendet man
c 2011 by M. Gerdts
3.3. GAUSS’SCHES ELIMINATIONSVERFAHREN
101
sogenannte Pivotstrategien bei denen man im einfachsten Fall zwei Zeilen miteinander
vertauscht.
Beispiel 3.3.1 (Pivoting)
Gegeben sei das lineare Gleichungssystem
−2y + 2z = 1
3x − 4y + 6z = 33
3x − 12y + 9z = 27

0 −2 2 1


 3 −4 6 33 
3 −12 9 27

←→
Rein formal k¨onnen wir das Gauß-Verfahren nicht anwenden, da in der ersten Zeile der
Koeffizient 0 vor dem x steht. Da der Koeffizient in der zweiten Zeile vor x nicht Null
ist, vertauschen wir die erste und die zweite Zeile:


3x − 4y + 6z = 33
3 −4 6 33


←→
−2y + 2z = 1
 0 −2 2 1 
3x − 12y + 9z = 27
3 −12 9 27
Nun k¨onnen wir das Gauß-Verfahren anwenden. Subtraktion des 33 -fachen der ersten Zeile
von der dritten Zeile liefert


3 −4 6 33
3x − 4y + 6z = 33


←→
−2y + 2z = 1
1 
 0 −2 2
−8y + 3z = −6
0 −8 3 −6
Subtraktion des
−8
-fachen
−2
der zweiten Zeile von der dritten Zeile liefert


33
3x − 4y + 6z = 33
3 −4
6


←→
2
−2y + 2z = 1
1 
 0 −2
−5z = −10
0
0 −5 −10
Dieses System hat obere Dreiecksform und wir k¨onnen aufl¨osen:
z = 2,
1
3
y = − (1 − 2z) = ,
2
2
1
x =
(33 + 4y − 6z) = 9.
3
Trotz Vertauschens zweier Zeilen kann es vorkommen, dass man den Gauß-Algorithmus
nicht fortsetzen kann. In diesem Fall besitzt das lineare Gleichungssystem jedoch keine
oder unendlich viele L¨osungen. Die Matrix enth¨alt in diesem Fall linear abh¨angige Zeilen
oder Spalten und besitzt keinen vollen Rang.
c 2011 by M. Gerdts
102
KAPITEL 3. LINEARE GLEICHUNGSSYSTEME
Beispiel 3.3.2
Betrachte f¨
ur gegebenes b3 das folgende lineare Gleichungssystem


x − 2y + 2z = 1
1 −2 2 1


←→
3x − 4y + 6z = 33
 3 −4 6 33 
2 −2 4 b3
2x − 2y + 4z = b3
Anwendung des Gauß-Verfahrens liefert im ersten Schritt:


x − 2y + 2z = 1
1
1 −2 2


←→
30 
2y = 30
2 0
 0
0
2 0 b3 − 2
2y = b3 − 2
Der n¨achste Gauß-Schritt liefert
x − 2y + 2z = 1
2y = 30
0 = b3 − 32

1 −2 2
1


2 0
30 
 0
0
0 0 b3 − 32

←→
Die letzte Gleichung ist nur f¨
ur b3 = 32 l¨osbar, andernfalls besitzt das Gleichungssystem
keine L¨osung.
F¨
ur b3 = 32 ergibt sich aus der zweiten Gleichung y = 15. Die erste Gleichung liefert
dann
x = 1 + 2y − 2z = 31 − 2z.
Hierin kann z ∈ R beliebig gew¨ahlt werden, so dass es unendlich viele L¨osungen gibt.
Der Rang der Matrix ist 2, d.h. sie besitzt nur 2 linear unabh¨angige Zeilen oder Spalten.
3.3.2 Der n-dimensionale Fall
Die bisherige Vorgehensweise l¨asst sich leicht auf den n-dimensionalen Fall u
¨bertragen.
Die Idee des Gauss’schen Eliminationsverfahrens besteht nun darin, die Matrix A durch
elementare Zeilenumformungen schrittweise in eine rechte obere Dreiecksmatrix R und
die rechte Seite b in einen Vektor c zu u
uhren, so dass ein Gleichungssystem der Form
¨berf¨
Rx = c
f¨
ur x mit rechter oberer Dreiecksmatrix

r11 r12 r13 · · ·
r1n


r22 r23 · · ·
r2n

..

...
R=
r33
.

..

. rn−1,n

rnn
(3.5)





,



rii = 0, i = 1, . . . , n,
c 2011 by M. Gerdts
3.3. GAUSS’SCHES ELIMINATIONSVERFAHREN
103
entsteht. Dann kann man die Gleichungen
r11 x1 + r12 x2 + . . . + r1n xn = c1 ,
r22 x2 + . . . + r2n xn = c2 ,
..
.
rn−1,n−1 xn−1 + rn−1,n xn = cn−1 ,
rnn xn = cn
beginnend mit der letzten Zeile nach xi , i = n, n − 1, . . . , 1, aufl¨osen:
x1 =
x2 =
..
.
xn−1 =
xn =
1
r11
1
r22
(c1 − r12 x2 − r13 x3 − . . . − r1n xn ) ,
(c2 − r23 x3 − . . . − r2n xn ) ,
1
rn−1,n−1
cn
rnn
(cn−1 − rn−1,n xn ) ,
Diesen Vorgang nennt man Ru
artssubstitution.
¨ ckw¨
Schematisch l¨auft der Gauss’sche Eliminationsalgorithmus wie folgt ab.
Gauss’scher Eliminationsalgorithmus:
(i) Setze A(1) := A und b(1) := b.
(ii) Beginnend mit A(1) x = b(1) f¨
uhre n − 1 Transformationsschritte durch bis ein ¨aquivalentes lineares Gleichungssystem mit oberer Dreiecksstruktur erreicht ist:
A(1) x = b(1)
⇔
A(2) x = b(2)
⇔ ... ⇔
A(n) x = b(n)
(iii) L¨ose das lineare Gleichungssystem A(n) x = b(n) durch R¨
uckw¨artssubstitution.
Beispiel 3.3.3





6 −2 2
4
12 −8 6
10
3 −13 9
3
−6
4 1 −18





x1
x2
x3
x4
=A(1)


 
 
=
 
12
34
27
−38





=b(1)
Gauss’sche Elimination liefert folgendes Ergebnis:
c 2011 by M. Gerdts
104
KAPITEL 3. LINEARE GLEICHUNGSSYSTEME
Start:



=

A(1) b(1)
6 −2 2
4
12
12 −8 6
10
34
3 −13 9
3
27
−6
4 1 −18 −38





Subtraktion des 2-fachen der 1. Zeile von der 2. Zeile und des 0.5-fachen der 1. Zeile von
der 3. Zeile und des −1-fachen der 1. Zeile von der 4. Zeile liefert:

(2)
A
b
(2)

12
6 −2 2
4
0 −4 2
2
10
0 −12 8
1
21
0
2 3 −14 −26


=





Subtraktion des 3-fachen der 2. Zeile von der 3. Zeile und des −0.5-fachen der 2. Zeile
von der 4. Zeile liefert:

(3)
A
b
(3)


=

6 −2 2
4
12
0 −4 2
2
10
0
0 2 −5 −9
0
0 4 −13 −21





Subtraktion des 2-fachen der 3. Zeile von der 4. Zeile liefert:

(4)
A
b
(4)


=

6 −2 2
4 12
0 −4 2
2 10
0
0 2 −5 −9
0
0 0 −3 −3





R¨
uckw¨artssubstitution:



x=

1
−3
−2
1



.

Im Folgenden wird der Schritt von i → i + 1 im Detail beschrieben. Der Algorithmus sei
c 2011 by M. Gerdts
3.3. GAUSS’SCHES ELIMINATIONSVERFAHREN
105
bis zum i-ten Schritt fortgeschritten mit
(i)
A

a11 · · ·
(i)
a1i
(i)
...
a1n
(i)








=






...
..
.
...
..
.
(i)
...
ain
(i)
ai+1,i
...
(i)
ai+1,n
..
.
..
..
.
(i)







,






...
aii
ani
(i)
.
(i)
(i)

b(i)
b1
 ..
 .

 b(i)
 i
=  (i)
 bi+1

 ..
 .
(i)
bn






.




ann
(i)
Ziel ist es, die Elemente aji , j = i + 1, . . . , n, durch elementare Zeilenumformungen zu
(i)
eliminieren. Es gelte aii = 0 f¨
ur das sogenannte Pivotelement. Die Matrix A(i+1) erh¨alt
(i)
man, indem das
aji
(i)
aii
-fache der i-ten Zeile von den Zeilen j = i + 1, . . . , n subtrahiert wird:

(i+1)
A
(i+1)
a11







= 






(i+1)
···
a1,i+1
..
..
.
.
(i+1)
. . . a1n

..
.














..
.
(i+1)
(i+1)
(i+1)
(i+1)
ai+1,i+1 . . . ai+1,n
ai+2,i+1 . . . ai+2,n
..
.
..
(i+1)
.
..
.
(i+1)
an,i+1
. . . ann

a11 · · ·
a1i
(i)
...
a1n
(i)









:= 







...
..
.
...
..
.
(i)
...
ain








.







(i)
aii
(i)
ai+1,i −
(i)
ai+1,i (i)
(i) aii
a
..
.
(i)
ani −
(i)
(i)
ii
..
(i)
ani
(i)
aii
(i)
aii
ai+1,i (i)
(i) ain
a
(i)
. . . ai+1,n −
.
...
ii
..
.
(i)
ann −
(i)
ani
(i)
aii
(i)
ain
Die Matrix A(i+1) hat formal dieselbe Struktur wie A(i) mit dem Unterschied, dass in A(i+1)
unterhalb der Hauptdiagonalen der i-ten Spalte, die in A(i) noch voll besetzt war, Nullen
(i+1)
erzeugt wurden. Im n¨achsten Schritt w¨
urden dann die Elemente aj,i+1 , j = i + 2, . . . , n
elimiert werden.
c 2011 by M. Gerdts
106
KAPITEL 3. LINEARE GLEICHUNGSSYSTEME
Entsprechend muss der Vektor b(i) transformiert werden:

b(i+1)
(i+1)
b1
 ..
 .

 b(i+1)

=  i(i+1)
 bi+1

 ..
 .
(i+1)
bn


(i)
b1
..
.





(i)


bi




(i)
 :=  b(i) − ai+1,i b(i)

 i+1
(i)
i
aii


..




.

(i)
a
(i)
(i)
bn − ni
(i) bi







.





aii
Bemerkung 3.3.4 (Pivoting)
(i)
Der Gauss’sche Eliminationsalgorithmus ist durchf¨
uhrbar, solange die Pivotelemente aii =
0, i = 1, . . . , n − 1, erf¨
ullen. Ist dies nicht der Fall, m¨
ussen ggf. Zeilen- oder Spaltenvertauschungen (Pivoting) durchgef¨
uhrt werden, um den Algorithmus fortsetzen zu k¨onnen.
Ist es trotz aller Zeilen- oder Spaltenvertauschungen nicht m¨oglich, ein Pivotelement ungleich Null zu finden, so ist die Matrix A nicht invertierbar und es entsteht eine rechte
obere Dreiecksmatrix der Form
R=
˜ ∗
R
0 0
˜ der Dimension r × r mit r < n.
mit einer invertierbaren rechten oberen Dreiecksmatrix R
Der Rang der Matrix A ist dann gleich r, vgl. Beispiel 3.3.2.
Beispiel 3.3.5 (Berechnung der Inversen A−1 )
Die Inverse X = A−1 einer invertierbaren Matrix A erf¨
ullt die Gleichung
A · X = I.
Falls x(i) die i-te Spalte von X und ei den i-ten Einheitsvektor bezeichnen, m¨
ussen wir
zur Bestimmung von X die folgenden n linearen Gleichungssysteme l¨osen:
Ax(i) = ei ,
i = 1, 2, . . . , n.
Dies k¨onnen wir mit dem Gauß’schen Eliminationsverfahren simultan erledigen, indem
c 2011 by M. Gerdts
3.4. DETERMINANTEN
107
wir die Transformationen auf jeden der Vektoren

1

A·X =I
←→
 2
2

1

←→
 0
0

1

←→
 0
0
ei , i = 1, 2, . . . , n, anwenden:

2 0 1 0 0

4 1 0 1 0 
1 0 0 0 1

1 0 0
2 0

0 1 −2 1 0 
−3 0 −2 0 1

1 0 0
2 0

−3 0 −2 0 1 
0 1 −2 1 0
R¨
uckw¨artssubstitution f¨
ur jede rechte Seite liefert

− 31

A−1 = X =  23
−2
die Inverse Matrix

2
0
3

0 − 13 
1
0
3.4
Determinanten
Determinanten sind n¨
utzliche Hilfsmittel, mit deren Hilfe man z.B. die Invertierbarkeit
einer Matrix charakterisieren kann oder sogar die L¨osung eines linearen Gleichungssystems
mit Hilfe der Cramer’schen Regel angeben kann. Determinanten werden auch in Kapitel 4
eine wichtige Rolle spielen.
Definition 3.4.1 (Determinante)
Sei A ∈ Rn×n eine Matrix. Die Determinante von A,
det A =
a11 a12
a21 a22
..
..
.
.
an1 an2
· · · a1n
· · · a2n
. ,
..
. ..
· · · ann
ist rekursiv durch die folgenden Vorschriften definiert:
(a) F¨
ur n = 1 mit A = [a] gilt det A = a.
(b) F¨
ur n ≥ 2 gilt
det A = a11 det A11 − a12 det A12 ± . . . + (−1)1+n a1n det A1n
n
(−1)1+k a1k det A1k ,
=
k=1
c 2011 by M. Gerdts
108
KAPITEL 3. LINEARE GLEICHUNGSSYSTEME
wobei Aij f¨
ur 1 ≤ i, j ≤ n diejenige (n − 1) × (n − 1)-Matrix bezeichnet, die sich aus
A durch Streichen der i-ten Zeile und der j-ten Spalte ergibt.
Beispiel 3.4.2
(a)
a11 a12
a21 a22
= a11 a22 − a12 a21
Die Determinante einer 2x2-Matrix ist also gerade das Produkt aus den Diagonalelementen a11 · a22 minus dem Produkt der Nichtdiagonalelemente a12 · a21 .
(b)
a11 a12 a13
a21 a22 a23
a31 a32 a33
= a11
a22 a23
a32 a33
− a12
a21 a23
a31 a33
+ a13
a21 a22
a31 a32
= (a11 a22 a33 − a11 a23 a32 ) − (a12 a21 a33 − a12 a23 a31 )
+ (a13 a21 a32 − a13 a22 a31 )
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32
−a31 a22 a13 − a32 a23 a11 − a33 a21 a12 .
Die letzte Formel kann man sich leicht mit
Sarrus) merken:
a11 a12 a13
a21 a22 a23
a31 a32 a33
dem folgenden Schema (Regel von
a11 a12
a21 a22
a31 a32
Zur Berechnung der Determinante wird diagonal ausmultipliziert, wobei die Produkte
von links oben nach rechts unten (jeweils beginnend mit a11 , a12 , a13 ) positiv und
die Produkte von links unten nach rechts oben (jeweils beginnend mit a31 , a32 , a33 )
negativ gewichtet werden.
(c) Die Determinante einer linken unteren Dreiecksmatrix berechnet sich zu
a11
a21 a22
..
.. . .
.
.
.
an1 an2 · · · ann
= a11
a22
..
.
...
an2 · · ·
= . . . = a11 a22 · · · ann .
ann
c 2011 by M. Gerdts
3.4. DETERMINANTEN
109
Bemerkung 3.4.3
Wir hatten in Kapitel 2 bereits erw¨ahnt, dass sich das Kreuzprodukt zweier Vektoren
formal darstellen l¨asst als
e1 e2 e3
a × b = a1 a2 a3 ,
b1 b2 b3
und f¨
ur das Spatprodukt dreier Vektoren gilt
a1 b 1 c 1
a2 b 2 c 2 .
a3 b 3 c 3
[a, b, c] =
In Definition 3.4.1 (b) haben wir zur rekursiven Definition der Determinante die erste
Zeile der Matrix verwendet. Diese Wahl ist recht willk¨
urlich und wir h¨atten auch andere
Zeilen oder Spalten verwenden k¨onnen. Es gilt
Satz 3.4.4 (Determinantenentwicklungssatz)
Sei A = [aij ]i,j=1,...,n eine n × n-Matrix. Dann gilt:
(a) Entwicklung nach der i-ten Zeile: F¨
ur einen beliebigen, aber fest gew¨ahlten
Zeilenindex i ∈ {1, . . . , n} gilt
n
(−1)i+k aik det Aik .
det A =
k=1
(b) Entwicklung nach der j-ten Spalte: F¨
ur einen beliebigen, aber fest gew¨ahlten
Spaltenindex j ∈ {1, . . . , n} gilt
n
(−1)j+k akj det Akj .
det A =
k=1
Satz 3.4.5 (Eigenschaften)
Determinanten besitzen folgende Eigenschaften:
c 2011 by M. Gerdts
110
KAPITEL 3. LINEARE GLEICHUNGSSYSTEME
(a) Es gilt det A = det A .
(b) Werden zwei Zeilen in der Matrix A vertauscht, so ¨andert die Determinante ihr
Vorzeichen.
(c) Wird eine Zeile oder Spalte von A mit einem Skalar λ multipliziert, so multipliziert
sich die Determinante mit λ.
(d) Addiert man zu einer Zeile (bzw. Spalte) ein Vielfaches einer anderen Zeile (bzw.
Spalte), so ¨andert sich die Determinante nicht.
(e) F¨
ur n × n-Matrizen A und B gilt
det(AB) = det A · det B.
Auf Grund der Eigenschaften (a), (b), (c) und (d) kann man Determinanten mit dem
Gauss-Algorithmus berechnen, da dieser lediglich Linearkombinationen von Zeilen und
ggf. Spaltenvertauschungen verwendet. Am Ende des Gauss-Algorithmus entsteht eine
rechte obere Dreiecksmatrix, welche dann bis auf das Vorzeichen dieselbe Determinante
wie die urspr¨
ungliche Matrix besitzt. Man u
¨berlege sich hierzu, dass die Determinante einer Dreiecksmatrix gegeben ist durch das Produkt ihrer Diagonalelemente. Dar¨
uber
hinaus ist die rechte obere Dreiecksmatrix invertierbar genau dann, wenn die urspr¨
ungliche Matrix invertierbar war. Aus diesem Zusammenhang zwischen Gauss-Verfahren und
Determinanten ergibt sich
Satz 3.4.6
Sei A eine n × n-Matrix. Dann sind folgende Aussagen ¨aquivalent:
(a) det A = 0
(b) A ist invertierbar.
Im Umkehrschluss ergibt sich, dass die Determinante einer nicht invertierbaren Matrizen
stets Null ist.
Satz 3.4.7 (Cramer’sche Regel)
Sei A eine invertierbare n × n-Matrix und b ein Vektor der Dimension n. Dann besitzt
c 2011 by M. Gerdts
3.4. DETERMINANTEN
111
das lineare Gleichungssystem Ax = b die eindeutige L¨osung
xk =
det Ak
,
det A
k = 1, . . . , n.
Hierbei entsteht die Matrix Ak durch Ersetzen der k-ten Spalte in A durch b.
Beweis: Nach Satz 3.4.5 (c), (d) gilt
x1 det(A) =
a11 x1 + . . . + a1n xn a12 · · · a1n
..
..
..
..
.
.
.
.
an1 x1 + . . . + ann xn an1 · · · ann
= det(A1 )
und wegen det(A) = 0 folgt
x1 =
det(A1 )
.
det(A)
F¨
ur x2 , . . . , xn zeigt man die Behauptung analog.
Beispiel 3.4.8
Gegeben seien
A=
1 2
0 −1
,
b=
1
1
.
Es gilt det A = −1 und die Cramer’sche Regel liefert
x1 =
x2 =
1 2
1 −1
det A
1 1
0 1
det A
=
=
−3
= 3,
−1
1
= −1.
−1
Die Cramer’sche Regel ist in der Regel nur von theoretischem Interesse, numerisch aufw¨andig
und anf¨allig f¨
ur Rundungsfehler. Zum L¨osen eines Gleichungssystems sollte stattdessen
die Gauss-Elimination verwendet werden.
c 2011 by M. Gerdts
Kapitel 4
Eigenwertaufgaben
Eigenwerte spielen in vielen Anwendungen eine wichtige Rolle und geben zum Beispiel
Auskunft u
¨ber die Stabilit¨at von dynamischen Systemen (wichtig bei Reglerentwurf), das
Kr¨
ummungsverhalten von Funktionen (wichtig in der Optimierung) oder Eigenfrequenzen
und Eigenschwingungen von Bauteilen (wichtig bei der Konstruktion von Bauwerken).
Beispiel 4.0.1
Betrachte f¨
ur k = 0, 1, 2, . . . und gegebene Zahlen λ1 und λ2 die folgende diskrete Dynamik:
xk+1
yk+1
zk+1 =
=
λ1 λ2 − λ1
0
λ2
xk
yk
= Azk ,
z0 =
1
1
.
(4.1)
Derartige Modelle werden h¨aufig zur Beschreibung eines zeitabh¨angigen Vorgangs verwendet, wobei der Index k sich auf verschiedene Zeitpunkte bezieht. Der Zustandsvektor zk
beschreibt z.B. die Gr¨oße einer Population mit zwei Spezies xk und yk zum Zeitpunkt k.
Man kann die Matrix A durch Multiplikation mit einer geeignet gew¨ahlten Matrix T und
dessen Inversen T −1 diagonalisieren:
T −1 AT =
λ1
λ2
=: Λ,
T =
1 1
0 1
T −1 =
,
1 −1
0 1
Setzt man diese Beziehung in Gleichung (4.1) ein, so erh¨alt man
T −1 zk+1 = T −1 AT T −1 zk = ΛT −1 zk ,
k = 0, 1, 2, . . .
Mit der Substitution vk := T −1 zk folgt dann
vk+1 = Λvk ,
k = 0, 1, 2, . . . .
Wiederholte Anwendung dieser Iterationsvorschrift liefert
vk = Λk v0 ,
k = 0, 1, 2, . . .
bzw. in Koordinaten
vk1
vk2
=
λk1
λk2
v01
v02
=
112
λk1 v01
λk2 v02
,
k = 0, 1, 2, . . . .
.
113
Die Werte λ1 und λ2 sind die sogenannten Eigenwerte der Matrix A. An Hand ihrer Werte
kann man ablesen, wie sich das dynamische System f¨
ur k −→ ∞ verh¨alt: F¨
ur j = 1, 2
folgt
|λj | > 1 =⇒ |vkj | −→ ∞,
|λj | < 1 =⇒ vkj −→ 0,
|λj | = 1 =⇒ |vkj | = |v0j |.
Im ersten Fall ist die Dynamik instabil (Teile der Population explodieren), im zweiten
Fall ist die Dynamik asymptotisch stabil (die Population stirbt aus), im dritten Fall ist
die Dynamik stabil. Beachte, dass hier nur Aussagen f¨
ur vk = T −1 zk getroffen wurden.
Man muss sich noch u
ur zk = T vk bedeutet.
¨berlegen, was dies f¨
Beispiel 4.0.2 (Eigenwerte und Schwingungen)
Eigenwertprobleme in einer allgemeineren Form treten auch in der Mechanik im Zusammenhang mit Schwingungen auf. Betrachte einen elastischen Balken der L¨ange L, der am
linken und rechten Rand eingespannt ist und schwingen kann, siehe Abbildung.
L
11
00
00
11
00
11
00
11
00
11
00
11
00
11
00
11
00
11
00
11
00
11
x
111111
000000
000000
111111
z
Ein Eigenwertproblem f¨
ur diesen Balken lautet wie folgt. Finde eine Eigenfrequenz ω
mit
z (x) = ω 2
ρA
z(x),
EI
z(0) = 0,
z (0) = 0,
z(L) = 0,
z (L) = 0,
wobei die Massenbelegung ρA und die Biegesteifigkeit EI materialabh¨angige Konstanten
sind. Die zugeh¨origen Eigenvektoren“ z sind L¨osungen des Randwertproblems und somit
”
c 2011 by M. Gerdts
114
KAPITEL 4. EIGENWERTAUFGABEN
Funktionen. Sie heißen Eigenschwingungen. Interessiert ist man hierbei insbesondere
an nichttrivialen L¨osungen z ≡ 0.
Dass die Untersuchung von Eigenschwingungen und Eigenfrequenzen in Bezug auf Resonanz wichtig bei der Konstruktion von z.B. Br¨
ucken ist, zeigt der Zusammensturz der
Tacoma Bridge, bei der Wind zur einer Anregung gef¨
uhrt hat, was letztendlich in einem
Aufschaukeln der Anregung endete und zum Einsturz der Br¨
ucke f¨
uhrte. Details finden
sich auf der WWW-Seite
http://de.wikipedia.org/wiki/Tacoma-Narrows-Br%C3%BCcke
4.1
Eigenwerte und Eigenvektoren
Die Definition eines Eigenwerts und eines zugeh¨origen Eigenvektors ist motiviert durch
die Aufgabe, Hauptrichtungen (Eigenvektoren) und Skalierungsfaktoren (Eigenwerte) bei
der Matrixmultiplikation zu finden.
Definition 4.1.1
Sei A ∈ Cn×n .
(a) Die Zahl λ ∈ C heißt Eigenwert der Matrix A, wenn
Ax = λx
f¨
ur ein x = 0
gilt. Ein Vektor 0 = x ∈ Cn mit Ax = λx heißt Eigenvektor zum Eigenwert λ.
(b) Die Menge aller Eigenwerte von A heißt Spektrum von A.
(c) Der Spektralradius von A ist definiert als
ρ(A) := max{|λ| | λ ist Eigenwert von A}.
Aus der Definition des Eigenwerts ergibt sich, dass λ genau dann Eigenwert von A ist,
wenn die Matrix A − λIn singul¨ar ist, da das homogene lineare Gleichungssystem
(A − λIn ) x = 0
eine nichttriviale L¨osung x = 0 (n¨amlich einen Eigenvektor zum Eigenwert λ) hat. Nach
Satz 3.4.6 ist die Singularit¨at von A − λIn aber gleichbedeutend mit
det(A − λIn ) = 0.
c 2011 by M. Gerdts
4.1. EIGENWERTE UND EIGENVEKTOREN
115
Die Eigenwerte einer Matrix A sind also durch die Nullstellen des sogenannten charakteristischen Polynoms gegeben.
Definition 4.1.2 (charakteristisches Polynom)
Sei A ∈ Cn×n . Die Funktion
ϕA (µ) := det(A − µIn )
heißt charakteristisches Polynom von A und die Gleichung
ϕA (µ) = det(A − µIn ) = 0
heißt charakteristische Gleichung.
Beispiel 4.1.3
Das charakteristische Polynom der rechten oberen Dreiecksmatrix


a11 · · · a1n

. . . .. 
A=
. 
ann
lautet
ϕA (µ) = (a11 − µ)(a22 − µ) · · · (ann − µ).
Die Eigenwerte von A sind also gerade die Diagonalelemente aii , i = 1, . . . , n, von A.
Eine analoge Aussage gilt f¨
ur linke untere Dreiecksmatrizen.
Hat man einen Eigenwert λ einer Matrix A berechnet, so erh¨alt man einen zugeh¨origen
Eigenvektor x durch L¨osen des linearen Gleichungssystems (A − λI)x = 0. Hierbei muss
man allerdings ber¨
ucksichtigen, dass die Matrix A − λI nicht invertierbar ist. Es gibt also
mehrere L¨osungen des Gleichungssystems.
Beispiel 4.1.4
Gegeben sei die Matrix
A=
1 2
0 3
.
Das charakteristische Polynom lautet
ϕA (µ) = det(A − µI) =
1−µ
2
0
3−µ
= (1 − µ)(3 − µ).
Die Eigenwerte von A sind gegeben durch die Nullstellen des charakteristischen Polynoms
und lauten
λ1 = 1,
λ2 = 3.
c 2011 by M. Gerdts
116
KAPITEL 4. EIGENWERTAUFGABEN
Wir bestimmen nun einen Eigenvektor zum Eigenwert λ1 = 1. Dazu m¨
ussen wir das
folgende Gleichungssystem l¨osen:
(A − λ1 I)x =
0 2
0 2
x1
x2
t
0
t∈R
=
0
0
.
Jeder Vektor der Form
x=
,
l¨ost dieses Gleichungssystem und jeder solcher Vektor mit t = 0 ist daher auch Eigenvektor
zum Eigenwert λ1 = 1.
Wir bestimmen nun einen Eigenvektor zum Eigenwert λ2 = 3. Dazu m¨
ussen wir das
folgende Gleichungssystem l¨osen:
(A − λ2 I)x =
−2 2
0 0
x1
x2
=
0
0
.
Jeder Vektor der Form
x=t
1
1
,
t∈R
l¨ost dieses Gleichungssystem und jeder solcher Vektor mit t = 0 ist daher auch Eigenvektor
zum Eigenwert λ2 = 3.
Mit Hilfe des Determinantenentwicklungssatzes l¨asst sich allgemein zeigen, dass ϕA ein
Polynom n-ten Grades der Form
ϕA (µ) = (−1)n µn + αn−1 µn−1 + . . . + α0
ist. Damit besitzt das charakteristische Polynom stets n Nullstellen u
¨ber C, die auch
komplex sein k¨onnen, selbst wenn die Matrix A reell war.
Sind λi ∈ C, i = 1, . . . , k, die verschiedenen Nullstellen von ϕA mit Vielfachheit σi ,
i = 1, . . . , k, so l¨aßt sich ϕA in der Form
ϕA (µ) = (−1)n (µ − λ1 )σ1 (µ − λ2 )σ2 · · · (µ − λk )σk
darstellen. Die Zahl σi wird auch als algebraische Vielfachheit des Eigenwerts λi
bezeichnet und wir bezeichnen mit σ diejenige Funktion, die einem Eigenwert λi dessen
algebraische Vielfachheit zuordnet, d.h. σ(λi ) = σi .
Die Menge der Eigenvektoren (zzgl. des Nullvektors)
L(λ) := {x ∈ Cn | (A − λIn )x = 0} = Kern(A − λIn )
c 2011 by M. Gerdts
4.1. EIGENWERTE UND EIGENVEKTOREN
117
bildet einen Untervektorraum des Cn mit Dimension n − Rang(A − λIn ). Insbesondere
ist mit x und y auch jede Linearkombination c1 x + c2 y = 0 mit c1 , c2 ∈ C ein Eigenvektor
zum Eigenwert λ. Die Zahl (λ) = dim(L(λ)) = n − Rang(A − λI) heißt geometrische
Vielfachheit des Eigenwerts λ und gibt die maximale Anzahl linear unabh¨angiger
Eigenvektoren zum Eigenwert λ an.
Im Allgemeinen sind die algebraische und geometrische Vielfachheit zum selben Eigenwert
verschieden.
Beispiel 4.1.5
Betrachte die Matrix (Jordank¨astchen)

λ 1

.

λ ..

J(λ) = 
...

1
λ



 ∈ Cn×n .


Das charakteristische Polynom lautet ϕJ(λ) (µ) = (λ − µ)n und µ = λ ist der einzige
Eigenwert mit algebraischer Vielfachheit σ(λ) = n. Der Rang von J(λ) − λI ist jedoch
n − 1, so dass die geometrische Vielfachheit (λ) = n − (n − 1) = 1 betr¨agt.
Satz 4.1.6
Zwischen algebraischer und geometrischer Vielfachheit eines Eigenwerts λ besteht folgender Zusammenhang:
1 ≤ (λ) ≤ σ(λ) ≤ n.
Es stellt sich die Frage, welche Transformationen einer Matrix die Eigenwerte nicht ver¨andern.
Insbesondere k¨onnen solche Transformationen dann benutzt werden, um Matrizen auf einfache Form zu bringen, ohne dabei die Eigenwerte zu ¨andern. Eine solche Transformation
haben wir bereits in Beispiel 4.0.1 verwendet.
Definition 4.1.7
(a) Zwei Matrizen A, B ∈ Cn×n heißen ¨
ahnlich, wenn es eine regul¨are Matrix T ∈ Cn×n
gibt mit
B = T −1 · A · T.
(b) A heißt diagonalisierbar, wenn A ¨ahnlich ist zu einer Diagonalmatrix.
c 2011 by M. Gerdts
118
KAPITEL 4. EIGENWERTAUFGABEN
(c) A heißt normal, wenn A · A∗ = A∗ · A gilt, wobei A∗ := A¯ .
(d) A heißt hermitesch, wenn A∗ = A gilt.
(e) A heißt unit¨
ar, wenn A∗ = A−1 gilt. Ist A eine reelle Matrix, so heißt sie orthogonal, falls A = A−1 gilt.
Beispiel 4.1.8
(a) Symmetrische und hermitesche Matrizen sind normal. Eine symmetrische reelle Matrix ist hermitesch.
(b) Die Drehmatrix

1
0
0


 0 cos α − sin α 
0 sin α cos α

ist orthogonal. Sie beschreibt eine Drehung um die x-Achse des R3 um den Winkel
α, wenn sie von links an einen Vektor multipliziert wird.
(c) Die Matrix
A=
λ1 λ2 − λ1
0
λ2
ist diagonalisierbar, denn es gilt
T −1 AT =
λ1
λ2
,
T −1 =
1 −1
0 1
, T =
1 1
0 1
Der folgende Satz fasst zusammen, wie sich u
¨bliche Matrixtransformationen, wie zum
¨
Beispiel Ahnlichkeitstransformationen,
Transponierung und Invertierung, auf Eigenwerte
auswirken.
Satz 4.1.9
Seien A, B ∈ Cn×n gegeben.
(a) Ist λ Eigenwert von A, so ist λ auch Eigenwert von A
A∗ .
¯ ist Eigenwert von
und λ
c 2011 by M. Gerdts
4.1. EIGENWERTE UND EIGENVEKTOREN
119
(b) Seien A und B ¨ahnlich mit B = T −1 AT . Dann besitzen A und B dieselben Eigenwerte.
Ist x Eigenvektor von A zum Eigenwert λ, so ist T −1 x Eigenvektor von B zum
Eigenwert λ.
Ist y Eigenvektor von B zum Eigenwert λ, so ist T y Eigenvektor von A zum Eigenwert λ.
(c) Ist A invertierbar, λ Eigenwert von A und x Eigenvektor von A zum Eigenwert λ,
so ist λ1 Eigenwert von A−1 und x ist Eigenvektor zum Eigenwert λ1 .
(d) Ist A orthogonal, so sind alle Eigenwerte betragsm¨aßig gleich eins und der Betrag
der Determinante ist eins. Dar¨
uber hinaus sind die Spalten von A paarweise orthonormale Vektoren.
Beweis:
(a) Folgt aus
det(A − λI) = det((A − λI) ) = det(A − λI),
¯
det(A∗ − λI)
= det((A − λI)∗ ) = det (A − λI) = det(A − λI).
(b) Seien A, B ¨ahnlich, d.h. es gibt T invertierbar mit B = T −1 · A · T . Sei λ Eigenwert
von A, d.h. Ax = λx f¨
ur ein x = 0. Dann gilt f¨
ur y = T −1 x:
By = BT −1 x = T −1 AT T −1 x = T −1 Ax = λT −1 x = λy.
Umgekehrt gilt f¨
ur einen Eigenwert λ von B mit zugeh¨origem Eigenvektor y und
x = T y:
Ax = AT y = T BT −1 T y = T By = λT y = λx.
(c) Ist A invertierbar, so ist λ = 0, da ansonsten Ax = 0 f¨
ur ein x = 0 erf¨
ullt w¨are,
woraus die Singularit¨at von A folgen w¨
urde.
Der Rest folgt aus
Ax = λx
=⇒
1
x = A−1 x.
λ
(d) Sei A orthogonal, λ Eigenwert von A und x Eigenvektor zum Eigenwert λ. Dann
gilt
= |λ|2 x 2
=⇒
|λ| = 1.
Ax 2
=x A Ax= x
2
c 2011 by M. Gerdts
120
KAPITEL 4. EIGENWERTAUFGABEN
Desweiteren folgt aus I = A A, dass
1 = det(I) = det(A A) = det(A ) det(A) = det(A)2
und somit | det(A)| = 1. Aus I = A A folgt auch sofort, dass die Spalten von A
paarweise orthonormal sind.
✷
Da ¨ahnliche Matrizen dieselben Eigenwerte besitzen, liegt der Versuch nahe, eine Ma¨
trix mittels Ahnlichkeitstransformationen
auf rechte obere Dreiecksform, linke untere
Dreiecksform oder sogar Diagonalgestalt bringen zu wollen, da die Eigenwerte in diesen F¨allen auf der Diagonalen stehen und damit leicht abzulesen sind. Wir beginnen mit
¨
der Schur’schen Normalform, welche eine Ahnlichkeitstransformation
auf rechte obere
Dreiecksform darstellt.
Satz 4.1.10 (Schur’sche Normalform)
Sei A ∈ Cn×n . Dann gibt es eine unit¨are Matrix T mit

λ1 r12 . . .
r1n

..
.
.
..
..

.
−1

T AT = Λ + R := 
λn−1 rn−1,n

λn






Insbesondere enth¨alt Λ := diag(λ1 , . . . , λn ) die Eigenwerte von A.
Bemerkung 4.1.11
Die Schur’sche Normalform einer Matrix kann numerisch mithilfe von sogenannten Householder-Transformationen berechnet werden.
Mit Hilfe der Schur’schen Normalform kann der folgende Satz zur Diagonalisierung von
Matrizen mittels unit¨arer Transformationen bewiesen werden:
Satz 4.1.12
(a) A ist genau dann normal, wenn es eine unit¨are Matrix T ∈ Cn×n gibt mit


λ1


...
n×n
T −1 · A · T = Λ := 
∈C .
λn
Man nennt diese Transformation auch Hauptachsentransformation.
c 2011 by M. Gerdts
4.1. EIGENWERTE UND EIGENVEKTOREN
121
(b) A ist genau dann hermitesch, wenn es eine unit¨are Matrix T ∈ Cn×n gibt mit


λ1

T −1 · A · T = Λ := 
...

n×n
∈R .
λn
Die Eigenwerte einer hermiteschen Matrix sind insbesondere alle reell.
Satz 4.1.12 besagt, dass es genau die normalen Matrizen sind, die mittels unit¨arer Matri¨
zen diagonalisierbar sind. Beachte, dass Ahnlichkeitstransformationen
mit einer unit¨aren
−1
∗
Matrix T besonders angenehm sind, da T = T gilt.
Schreibt man die Beziehung T −1 AT = Λ in der Form
A·T =T ·Λ
⇔
Ati = λi ti ,
i = 1, . . . , n,
wobei ti , i = 1, . . . , n, die Spaltenvektoren von
T =
t1 · · ·
tn
bezeichnet, so sieht man unmittelbar, dass der i-te Spaltenvektor ti gerade ein Eigenvektor
zum Eigenwert λi ist. Da T unit¨ar ist, sind die Eigenvektoren t1 , . . . , tn linear unabh¨angig
und orthogonal zueinander.
Die Spalten von T definieren also eine Basis des Cn aus orthogonalen Eigenvektoren
zu den Eigenwerten λ1 , . . . , λn . Dar¨
uber hinaus stimmen geometrische und algebraische
Vielfachheit u
¨berein. Wir fassen zusammen:
Folgerung 4.1.13
Sei A normal. Dann gelten folgende Aussagen:
(a) Alle Eigenwerte von A sind reell, falls A hermitesch ist.
(b) Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal.
(c) Algebraische und geometrische Vielfachheit jedes Eigenwertes sind gleich.
Beispiel 4.1.14
Gegeben sei ein eingespannter elastischer Balken, der sich durch Krafteinwirkung verformt, siehe Abbildung.
c 2011 by M. Gerdts
122
KAPITEL 4. EIGENWERTAUFGABEN
Die mechanischen Spannungen an einem bestimmten Punkt des Balkens werden in einem
kartesischen Referenzkoordinatensystem durch den Spannungstensor

σx τxy τxz


S =  τyx σy τyz 
τzx τzy σz

beschrieben, wobei σx , σy und σz Spannungen senkrecht zu den Schnittfl¨achen eines sehr
kleinen Volumenelements bezeichnen (Normalspannungen) und τxy , τyx , τxz , τzx , τyz und
τzy Schubspannungen innerhalb der Schnittfl¨achen darstellen, vgl. Abbildung (Quelle: Wikipedia).
Durch eine Haupachsentransformation, d.h. durch Diagonalisierung der (symmetrischen)
Matrix S, kann man den Spannungszustand, der durch die Matrix S beschrieben wird,
in ein Koordinatensystem umrechnen, in dem die Schubspannungen verschwinden und
nur noch Normalspannungen auftreten, vgl. zur Verdeutlichung den ebenen Fall in der
folgenden Abbildung (Quelle: Wikipedia):
c 2011 by M. Gerdts
4.1. EIGENWERTE UND EIGENVEKTOREN
123
Die Hauptspannungen σ1 , σ2 (und im dreidimensionalen Fall σ3 ) sind dabei gerade die
Eigenwerte von S und die Hauptspannungsrichtungen sind durch die zugeh¨origen Eigenvektoren gegeben.
Es stellt sich jetzt noch die Frage, wie eine solche unit¨are Matrix T mit T −1 AT = Λ
konstruiert werden kann? Hierzu beschr¨anken wir uns auf den reellen Fall und gehen wir
wie folgt vor:
Algorithmus 4.1.15 (Bestimmung einer unit¨
aren Matrix)
(0) Gegeben sei eine symmetrische Matrix A ∈ Rn×n .
(1) Berechne die Eigenwerte λ1 , . . . , λn der Matrix.
(2) Bestimme linear unabh¨angige Eigenvektoren x1 , . . . , xn . Treten mehrfache Eigenwerte auf, so bestimme entsprechend ihrer Vielfachheit linear unabh¨angige Eigenvektoren f¨
ur jeden Eigenwert.
(3) Orthonormalisiere die Eigenvektoren x1 , . . . , xn mit Hilfe des Gram-Schmidt’schen
Orthonormalisierungsverfahrens und berechne orthonormale Vektoren t1 , . . . , tn .
(4) Definiere T :=
t1 · · ·
tn .
Zu kl¨aren ist, wie die Orthonormalisierung in Schritt (3) erfolgen soll. F¨
ur beliebige linear
unabh¨angige Vektoren x1 , . . . , xn kann dies beispielsweise durch das Gram-Schmidtsche
Orthogonalisierungsverfahren bzgl. des Skalarprodukts ·, · erfolgen. Zur Konstrukc 2011 by M. Gerdts
124
KAPITEL 4. EIGENWERTAUFGABEN
tion geht man iterativ wie folgt vor. Zun¨achst wird t1 := xx11 gesetzt. Sind dann bereits
orthonormale Vektoren t1 , . . . , tk−1 bestimmt, so wird tk u
¨ber den Ansatz
k−1
tk = xk −
αj tj
j=1
mit noch zu bestimmenden Koeffizienten αj , j = 1, . . . , k − 1, gew¨ahlt. Die Koeffizienten
αj , j = 1, . . . , k − 1, sind so zu bestimmen, dass t , tk = 0 f¨
ur alle = 1, . . . , k − 1 gilt.
Daraus ergibt sich f¨
ur = 1, . . . , k − 1 auf Grund der Orthonormalit¨at von t1 , . . . , tk−1 die
Bedingung
k−1
0 = t , tk = t , xk −
αj t , tj = t , xk − α t , t = t , xk − α
j=1
und somit
α = t , xk ,
= 1, . . . , k − 1.
Normiert man die Vektoren noch, so erh¨alt man zusammenfassend
Algorithmus 4.1.16 (Gram-Schmidt’sches Orthonormalisierungsverfahren)
(0) Gegeben seien linear unabh¨angige Vektoren x1 , . . . , xn .
(1) Setze t1 :=
x1
x1
.
(2) F¨
ur k = 2, . . . , n berechne
k−1
sk := xk −
tj , xk tj ,
j=1
tk :=
sk
.
sk
¨
Wir demonstrieren die Konstruktion einer unit¨aren Ahnlichkeitstransformation
an Hand
einer symmetrischen Matrix.
Beispiel 4.1.17
Gegeben sei die symmetrische Matrix


1
− 12 0
2


A =  0 −1 0  .
1
0 − 12
2
c 2011 by M. Gerdts
4.1. EIGENWERTE UND EIGENVEKTOREN
125
Die charakteristische Gleichung lautet
1
1
0 = det(A − λI) = (−1 − λ)(− − λ)2 − (−1 − λ) = −λ(λ + 1)2 .
2
4
Also besitzt A die Eigenwerte λ1 = 0 und λ2 = −1 (doppelt).
Ein Eigenvektor zum Eigenwert λ1 = 0 lautet
 
1
 
x1 =  0  .
1
Zum Eigenwert λ2 = −1 geh¨oren die linear unabh¨angigen Eigenvektoren
 


0
1
 


x2 =  1  ,
x3 =  1  .
0
−1
Orthonormalisierung mit dem Gram-Schmidt-Verfahren liefert:
 
1
1  
t1 = √  0  ,
2
1
 
0
 
t2 = x2 − t1 , x2 t1 =  1  ,
0

   

1
0
1

   

s3 = x3 − t1 , x3 t1 − t2 , x3 t2 =  1  −  1  =  0  ,
−1
0
−1


1
1 

t3 = √  0  .
2
−1
Eine orthogonale Transformationsmatrix lautet daher

 1
√
0 √12
2


T = 0 1
0 .
√1
0 − √12
2


0


¨
Uberpr¨
ufe, dass T T = I und T AT = 
−1
.
−1
Beispiel 4.1.18
Wir interessieren uns f¨
ur sogenannte Quadriken (auch Hyperfl¨
achen 2. Ordnung
c 2011 by M. Gerdts
126
KAPITEL 4. EIGENWERTAUFGABEN
genannt). Darunter versteht man die L¨osungen x ∈ Rn der quadratischen Gleichung
x Ax + 2b x + c = 0,
wobei A ∈ Rn×n eine symmetrische Matrix, b ∈ Rn ein Vektor und c ∈ R eine Zahl sind.
Wir beschr¨anken uns auf den zweidimensionalen Fall n = 2 und diskutieren einige F¨alle
(es gibt noch weitere F¨alle, die man untersuchen kann):
(a)
A=
1
a2
1
b2
,
b=
0
0
,
x=
x1
x2
.
Die quadratische Gleichung lautet dann
x21 x22
+ 2 = −c.
a2
b
F¨
ur c > 0 besitzt die Gleichung offenbar keine relle L¨osung. F¨
ur c ≤ 0 beschreibt sie
eine Ellipse mit Mittelpunkt (0, 0) und Radien |a| |c| und |b| |c| (in der Abbildung
wurde a = 2, b = 1 und c = −1 gew¨ahlt):
(b)
A=
− a12
1
b2
,
b=
0
0
,
x=
x1
x2
.
c 2011 by M. Gerdts
4.1. EIGENWERTE UND EIGENVEKTOREN
127
Die quadratische Gleichung lautet dann
−
x21 x22
+ 2 = −c.
a2
b
Die L¨osungen sind hyperbolische Funktionen. F¨
ur a = 2, b = 1 und c = −1 (Abb.
links) bzw. c = 1 (Abb. rechts) erh¨alt man die folgenden Abbildungen:
(c)
A=
0
1
b2
,
b=
0
0
,
x=
x1
x2
.
Die quadratische Gleichung lautet dann
x22
= −c.
b2
Sie besitzt nur f¨
ur c ≤ 0 eine reelle L¨osung und man erh¨alt Geraden:
c 2011 by M. Gerdts
128
KAPITEL 4. EIGENWERTAUFGABEN
(d) Ist A keine Diagonalmatrix, so kann man die Form der L¨osungsmenge nicht direkt ablesen. Aber man kann die Matrix mit Hilfe einer Hauptachsentransformation
diagonalisieren. Sei hierzu
A=
3
2
− 12
− 21
3
2
,
b=
0
0
,
x=
x1
x2
.
Das charakteristische Polynom von A berechnet sich zu
ϕA (λ) = λ2 − 3λ + 2
und die Eigenwerte von A ergeben sich aus den Nullstellen zu λ1 = 1 und λ2 = 2.
Die Spalten der folgenden orthogonalen Matrix T enthalten zugeh¨orige orthonormale
Eigenvektoren:
√
√
1
2 12 2
2√
√
T := 1
.
1
2
−
2
2
2
Es gilt T −1 AT = Λ = diag(1, 2). Mit der Substitution y = T −1 x transformiert sich
die quadratische Gleichung in diesem Fall zu
0 = x Ax + c = (T y) AT y + c = y T AT y + c = y
1
2
y + c = y12 + 2y22 + c.
Dies definiert wie in (a) eine Ellipse. Macht man die Transformation y = T −1 x
r¨
uckg¨angig, so ergibt sich eine gedrehte Ellipse:
c 2011 by M. Gerdts
4.1. EIGENWERTE UND EIGENVEKTOREN
129
Es gibt jedoch auch Matrizen, die nicht diagonalisierbar sind, z.B.
1 1
0 1
.
Immerhin kann man auch f¨
ur solche Matrizen noch eine weitere Normalform erreichen.
Es gilt:
Satz 4.1.19 (Jordan’sche Normalform)
Sei A ∈ Cn×n und λ1 , . . . , λk ihre verschiedenen Eigenwerte. λi sei eine σi -fache Nullstelle
des charakteristischen Polynoms mit der geometrischen Vielfachheit i , i = 1, . . . , k. Zu
jedem λi existieren dann i eindeutig bestimmte Zahlen
(i)
(i)
νn(i) ≥ νn−1 ≥ . . . ≥ νn−
mit
i +1
∈N
n
(i)
νj = σi ,
i = 1, . . . , k,
j=n− i +1
sowie eine invertierbare Matrix T mit J = T −1 AT , wobei

Jν (1) (λ1 )
 n
..

.


Jν (1)
(λ1 )

n− 1 +1


..
J =
.


Jνn(k) (λk )


...



Jν (k)
n− k +1
(λk )














c 2011 by M. Gerdts
130
KAPITEL 4. EIGENWERTAUFGABEN
die Jordanmatrix und

λi


Jν (i) (λi ) = 

j


1
λi
..


(i)
(i)
 ∈ Cνj ×νj

...
1 
λi
.
die Jordank¨
astchen bezeichnen.
Aus der Jordan’schen Normalform kann man insbesondere ablesen, dass A genau dann
diagonalisierbar ist, wenn geometrische und algebraische Vielfachheit f¨
ur jeden Eigenwert
gleich sind.
(1)
F¨
ur die Spalten t1 , . . . , tνn von T folgt aus T −1 (A − λ1 I)T = J − λ1 I sofort
(A − λ1 I)tm = tm−1 ,
m = νn(1) , νn(1) − 1, . . . , 2,
und
(A − λ1 I)t1 = 0.
(1)
Die Spalten tνn , . . . , t1 bilden eine Hauptvektorkette zum Eigenwert λ1 , wobei t1 ein
(1)
Eigenvektor zum Eigenwert λ1 ist. Die Vektoren tνn , . . . , t2 heißen Hauptvektoren.
Analoge Bezeichnungen gelten f¨
ur die u
¨brigen Jordank¨astchen, so dass die Spalten von T
aus Eigen- und Hauptvektoren von A bestehen.
Die Schur’sche und Jordan’sche Normalform sind prim¨ar von theoretischem Interesse,
da man die Eigenwerte zur Bestimmung der Normalformen bereits kennen muss. Zur
Berechnung von Eigenwerten m¨
ussen andere Verfahren verwendet werden.
Verwendet man anstatt orthogonaler Matrizen in T AT lediglich invertierbare Matrizen,
so bleiben die Eigenwerte in der Regel nicht mehr erhalten, allerdings gilt im reellen Fall
noch folgender
Satz 4.1.20 (Tr¨
agheitssatz von Sylvester)
n×n
Sei A ∈ R
symmetrisch und T ∈ Rn×n invertierbar. Dann haben A und T AT dieselbe
Anzahl positiver, negativer und Nulleigenwerte.
c 2011 by M. Gerdts
¨
4.2. EIGENWERTE, KRUMMUNG,
SPUR UND DETERMINANTE
4.2
131
Eigenwerte, Kru
¨ mmung, Spur und Determinante
Definition 4.2.1
Sei A ∈ Cn×n .
(a) A heißt positiv semidefinit, falls x∗ Ax ≥ 0 f¨
ur alle x ∈ Cn gilt. Analog wird
negative Semidefinitheit definiert.
(b) A heißt positiv definit, falls x∗ Ax > 0 f¨
ur alle x ∈ Cn , x = 0, gilt. Analog wird
negative Definitheit definiert.
(c) A heißt indefinit, falls A weder positiv noch negativ semidefinit ist.
Ist A positiv definit (bzw. positiv semidefinit), so sind die Diagonalelemente von A notwendigerweise positiv (bzw. ≥ 0). Desweiteren besteht der folgende Zusammenhang:
Satz 4.2.2
Sei A ∈ Cn×n hermitesch.
(a) A ist positiv semidefinit genau dann, wenn alle Eigenwerte von A gr¨oßer oder gleich
Null sind. A ist negativ semidefinit genau dann, wenn alle Eigenwerte von A kleiner
oder gleich Null sind.
(b) A ist positiv definit genau dann, wenn alle Eigenwerte von A gr¨oßer Null sind. A
ist negativ definit genau dann, wenn alle Eigenwerte von A kleiner Null sind.
(c) A ist genau dann positiv definit, wenn alle Hauptminoren von A positiv sind.
Entsprechend ist A negativ definit, falls alle Hauptminoren von −A positiv sind.
Unter den Hauptminoren einer n × n-Matrix A = [aij ] versteht man dabei die
Determinanten
a11 ,
a11 a12
,
a21 a22
a11 a12 a13
a21 a22 a23 , . . . ,
a31 a32 a33
a11
..
.
an1
. . . a1n
. . . .. .
.
· · · ann
Beispiel 4.2.3 (Kru
¨ mmung und Eigenwerte)
Eigenwerte geben Auskunft u
ummungsverhalten von quadratischen Funktionen.
¨ber das Kr¨
Wir veranschaulichen m¨ogliche F¨alle im R2 :
c 2011 by M. Gerdts
132
KAPITEL 4. EIGENWERTAUFGABEN
• f (x, y) = x2 + y 2 =
1 0
0 1
x y
x
y
(Matrix ist positiv definit, hat nur
positive Eigenwerte):
x^2 + y^2
2
1.8
1.6
1.4
1.2
1
0.8
0.6
0.4
0.2
0
2
1.5
1
0.5
0
1
-1
-0.5
x
• f (x, y) = −x2 − y 2 =
0
0.5
−1 0
0 −1
x y
-0.5
0.5
0
y
1 -1
x
y
(Matrix ist negativ definit, hat
nur negative Eigenwerte):
-x^2 - y^2
0
-0.2
-0.4
-0.6
-0.8
-1
-1.2
-1.4
-1.6
-1.8
-2
0
-0.5
-1
-1.5
-2
1
-1
-0.5
x
0
0.5
-0.5
0.5
0
y
1 -1
c 2011 by M. Gerdts
¨
4.2. EIGENWERTE, KRUMMUNG,
SPUR UND DETERMINANTE
• f (x, y) = x2 − y 2 =
1 0
0 −1
x y
x
y
133
(Matrix ist indefinit, hat positive und
negative Eigenwerte):
x^2 - y^2
1
0.8
0.6
0.4
0.2
0
-0.2
-0.4
-0.6
-0.8
-1
1
0.5
0
-0.5
-1
1
-1
-0.5
x
0
-0.5
0.5
0.5
0
y
1 -1
Es gibt weitere interessante und u
¨berraschende Zusammenh¨ange mit der Spur einer Matrix. Diese wird h¨aufig in der Topologieoptimierung f¨
ur Stabbauwerke verwendet.
Definition 4.2.4 (Spur)
Die Spur (engl. trace) einer n × n-Matrix A ist definiert als die Summe ihrer Hauptdiagonalelemente, d.h.
n
Spur(A) :=
akk = a11 + a22 + . . . + ann .
k=1
Satz 4.2.5
(a) Die Summe aller Eigenwerte einer n × n-Matrix A ist gleich der Spur von A, d.h.
n
Spur(A) =
λk .
k=1
c 2011 by M. Gerdts
134
KAPITEL 4. EIGENWERTAUFGABEN
(b) Das Produkt aller Eigenwerte ist gleich der Determinante einer n × n-Matrix A,
d.h.
n
det(A) =
λk .
k=1
(c) Die zu verschiedenen Eigenwerten geh¨orenden Eigenvektoren sind linear unabh¨angig.
4.3
Eigenwertabsch¨
atzungen
Ziel dieses Abschnitts ist die Absch¨atzung von Eigenwerten allein mit Hilfe der Matrix
A ∈ Cn×n .
Satz 4.3.1 (Gerschgorin)
Sei A ∈ Cn×n gegeben. Definiere Radien ri gem¨aß
n
|aij |,
ri =
i = 1, . . . , n,
j=1,j=i
und Kreisscheiben (Gerschgorin-Kreise) gem¨aß
Ki := {z ∈ C | |z − aii | ≤ ri },
i = 1, . . . , n.
Dann gelten folgende Aussagen.
(a) F¨
ur jeden Eigenwert λ von A gilt
n
λ∈
Ki .
i=1
(b) Sei U1 die Vereinigung von m dieser Kreissscheiben und sei U2 die Vereinigung der
verbleibenden n−m Kreissscheiben. Gilt U1 ∩U2 = ∅, so enth¨alt U1 m Eigenwerte von
A und U2 n−m Eigenwerte von A (Eigenwerte und Kreisscheiben sind entsprechend
ihrer Vielfachheit zu z¨ahlen.).
¨
Mit Hilfe des Satzes von Gerschgorin erh¨alt man insbesondere dann einen guten Uberblick
u
¨ber die Lage der Eigenwerte, wenn s¨amtliche Kreissscheiben paarweise disjunkt sind,
da dann in jeder Kreisscheibe genau ein Eigenwert liegt. Dar¨
uber hinaus k¨onnen durch
Anwendung des Satzes auf A (A und A besitzen dieselben Eigenwerte!) mitunter bessere
c 2011 by M. Gerdts
¨
4.3. EIGENWERTABSCHATZUNGEN
135
Absch¨atzungen f¨
ur einige Eigenwerte erreicht werden. Ein Ansatz zum Erreichen besserer
¨
Absch¨atzungen besteht darin, eine Ahnlichkeitstransformation
D−1 AD mit einer geeignet
gew¨ahlten Diagonalmatrix D vor Anwendung des Satzes von Gerschgorin durchzuf¨
uhren.
D sollte idealerweise so gew¨ahlt werden, dass die Radien kleiner werden, was h¨aufig aber
nur f¨
ur einige Radien erreicht werden kann, wobei sich die u
¨brigen vergr¨oßern.
Beispiel 4.3.2
Betrachte


1
0.1 −0.1


A= 0
2
0.4  .
−0.2 0
3
Die Gerschgorin-Kreise
1
2
3
K1 = {z ∈ C | |z − 1| ≤ 0.2},
K2 = {z ∈ C | |z − 2| ≤ 0.4},
K3 = {z ∈ C | |z − 3| ≤ 0.2}
sind paarweise disjunkt, d.h. in jedem Kreis liegt genau ein Eigenwert von A.
F¨
ur die symmetrische Matrix

1 2
0


B =  2 2 0.4  .
0 0.4 3

u
¨berschneiden sich die Gerschgorin-Kreise
−1
0
1
2
3
4
c 2011 by M. Gerdts
136
KAPITEL 4. EIGENWERTAUFGABEN
K1 = {z ∈ C | |z − 1| ≤ 2},
K2 = {z ∈ C | |z − 2| ≤ 2.4},
K3 = {z ∈ C | |z − 3| ≤ 0.4},
so dass man aus dem Satz von Gerschgorin nur die Absch¨atzung
−1 ≤ λ ≤ 4.4
f¨
ur die Eigenwerte λ von B erh¨alt. Beachte, dass die Eigenwerte von B reell sind, da B
symmetrisch ist.
c 2011 by M. Gerdts
Literaturverzeichnis
[BHW07] Burg, K., Haf, H. and Wille, F. H¨ohere Mathematik f¨
ur Ingenieure. Band II:
Lineare Algebra. Teubner, Stuttgart, 1987/2007.
[BS89]
Bronstein, I. and Semendjaev, K. A., editors. Taschenbuch der Mathematik .
Verlag Harri Deutsch, Thun, 24th edition, 1989.
[MV93]
Meyberg, K. and Vachenauer, P. H¨ohere Mathematik I-II . Springer, BerlinHeidelberg-New York, 2nd edition, 1993.
[Pap08]
Papula, L. Mathematik f¨
ur Ingenieure und Naturwissenschaftler. Band 1-2 .
Vieweg+Teubner, Wiesbaden, 2008.
[Pap14]
Papula, L. Mathematische Formelsammlung: Fr Ingenieure und Naturwissenschaftler . Springer Vieweg, Wiesbaden, 2014.
137
Document
Kategorie
Gesundheitswesen
Seitenansichten
22
Dateigröße
1 358 KB
Tags
1/--Seiten
melden