close

Anmelden

Neues Passwort anfordern?

Anmeldung mit OpenID

Lineare Algebra - alles was man wissen muß 1 Reelle - Lectures

EinbettenHerunterladen
Statistik f¨
ur Bioinformatiker SoSe 2003
Rainer Spang
Lineare Algebra - alles was man wissen muß
Der Titel ist nat¨urlich gelogen, aber was wir hier zusammengetragen haben ist zumindest
ein Anfang. Weniger sollte man nicht wissen. Zur Weiterf¨uhrung und Vertiefung eignet sich
besonders das Buch von J¨anich [J], daran ist auch dieses kurze Skript orientiert.
In der Vorlesung kommen Vektoren als Punkte z. B. im R2 vor und Matrizen als Zahlenschemata, in denen die Daten abgelegt sind. Hinter beiden Begriffen verbirgt sich aber weit mehr
mathematische Struktur.
1
Reelle Vektorr¨
aume
Das Musterbeispiel ist der Rn . Er besteht aus n-tupeln reeller Zahlen, auf denen eine Addition
und eine skalare Multiplikation elementweise definiert ist: Sind (x1 , . . . , xn ) und (y1 , . . . , yn )
n-tupel reeller Zahlen und λ ∈ R, dann definieren wir
(x1 , . . . , xn ) + (y1 , . . . , yn ) := (x1 + y1 , . . . , xn + yn ) ∈ Rn
λ (x1 , . . . , xn ) := (λx1 , . . . , λxn ) ∈ Rn
Das Ergebnis liegt also wieder im Rn . Man sagt: Der Rn ist abgeschlossen gegen¨uber Addition
und skalarer Multiplikation.
Frage: Warum betont man, daß es eine “skalare” Multiplikation ist? Warum heißt es nicht
einfach Multiplikation (ohne Zusatz)?
Ohne Probleme lassen sich die Rechenregeln, die wir f¨ur reelle Zahlen kennen auf die n-tupel
im Rn erweitern. F¨ur die Addition gilt:
1. Assoziativgesetz. F¨ur alle x, y, z ∈ Rn gilt (x + y) + z = x + (y + z).
2. Kommutativgesetz. F¨ur alle x, y ∈ Rn gilt x + y = y + x.
3. Existenz des Nullelements. Schreiben wir kurz 0 statt (0, . . . , 0) ∈ Rn , so gilt x + 0 = x
f¨ur alle x ∈ R.
4. Existenz des Inversen. Schreiben wir −(x1 , . . . , xn ) f¨ur (−x1 , . . . , −xn ), so gilt x +
(−x) = 0 f¨ur alle x ∈ Rn .
Und f¨ur die (skalare) Multiplikation:
5. Assoziativgesetz. F¨ur alle λ, µ ∈ R und x ∈ Rn gilt λ(µx) = (λµ)x.
6. Existenz des Einselements. F¨ur alle x ∈ Rn gilt 1x = x.
7. Distributivgesetz I. F¨ur alle λ ∈ R und x, y ∈ Rn gilt λ(x + y) = λx + λy.
8. Distributivgesetz II. F¨ur alle λ, µ ∈ R und x ∈ Rn gilt (λ + µ)x = λx + µx.
Wie gesagt: Der Rn ist nur ein Beispiel f¨ur den allgemeinen Begriff des Vektorraums. Mit dieser
Sammlung von Eigenschaften haben wir aber schon alles zusammen, was einen Vektorraum
definiert.
Definition [Vektorraum] Ein Tripel (V, +, ·) bestehend aus einer Menge V , einer Abbildung
(genannt Addition)
+ : V × V → V, (x, y) → x + y
und einer Abbildung (gennannt skalare Multiplikation)
· : R × V → V,
(λ, x) → λx
heißt ein reeller Vektorraum, wenn f¨ur die Abbildungen + und · die obigen acht Axiome erf¨ullt
sind (nat¨urlich mit “V ” anstelle von “Rn ”).
Weitere Beispiele f¨ur Vektorr¨aume sind Polynome vom Grad n ≤ 3 oder Matrizen mit m Zeilen
und n Spalten (kurz m × n Matrizen).
Um zu zeigen, daß die m × n Matrizen einen Vektorraum Rm×n bilden, m¨ussen wir auf ihnen
eine Addition und Multiplikation definieren und die acht Axiome nachrechnen. Eine m × n
Matrix u¨ber R ist eine Anordnung von m · n Elementen aus R nach folgendem Schema


a11 · · · a1n
 ..
.. 
 .
. 
am1 · · · amn
Addition und skalare Multiplikation werden jetzt wie auf Vektoren elementweise definiert, also:




 
a11 + b11 · · · a1n + b1n
b11 · · · b1n
a11 · · · a1n

 ..
..
..
..  := 
..  +  ..


 .
.
.
. 
.   .
am1 + bm1 · · · amn + bmn
bm1 · · · bmn
am1 · · · amn




λa11 · · · λa1n
a11 · · · a1n

..  :=  ..
.. 
λ  ...
 .
. 
. 
am1 · · · amn
Die acht Axiome rechnen sich jetzt fast wie von selbst. (
λam1 · · · λamn
selber mal machen!)
Der Vollst¨andigkeit wegen: Was ist eigentlich die transponierte Matrix? Ist A = (aij ) ∈ Rm×n ,
so heißt die durch atij := aji definierte Matrix At = (atij ) ∈ Rn×m die transponierte
Matrix von A. Man kann sich die Transposition auch als “Spiegelung an der Hauptdiagonalen”
vorstellen, da jedes Matrixelement aij von seinem Platz (i, j) auf den Spiegelplatz (j, i) versetzt
wird.
2
Die Dimension eines Vektorraums
Was ist die Dimension eines Vektorraums? Im R1 , R2 und R3 mag das anschaulich noch klar
sein, aber wie sieht es bei Matrizen oder Polynomen aus? Wir entwickeln den Dimensionsbegriff
am Beispiel des Rn , der Transfer zu Matrizen und Polynomen ist dann leicht. Wir brauchen
zuerst den Begriff der Basis eines Vektorraumes. Jedes
der folgenden Form schreiben:


 

x1
1
0
 x2 
 0 
 1


 

x =  ..  = x1 ·  ..  + x2 ·  ..
 . 
 . 
 .
xn
0
0
x = (x1 , . . . , xn )t ∈ Rn l¨aßt sich in






 + · · · + xn · 


0
0
..
.
1



.

Die Vektoren auf der rechten Seite sind die sogenannten Einheitsvektoren. Wir nennen sie
kurz (e1 , . . . , en ). Die Gleichung besagt, daß sich jeder Vektor x ∈ Rn als Linearkombination
aus den Einheitsvektoren schreiben l¨aßt. Man sagt: Die Einheitsvektoren spannen den Rn
auf. Die Menge aller m¨oglichen Linearkombinationen von Vektoren (v1 , . . . , vn ) nennt man
span(v1 , . . . , vn ). Hier also: span(e1 , . . . , en ) = Rn .
Außerdem sind die Vektoren (e1 , . . . , en ) linear unabh¨angig, d. h. eine Linearkombination von
(e1 , . . . , en ) kann nur dann Null sein, wenn alle “Koeffizienten” verschwinden, und das heißt:
aus λ1 e1 + · · · + λn en = 0 folgt stets λ1 = · · · = λn = 0. (Analog definiert man lineare
Unabh¨angigkeit f¨ur beliebige Vektoren (v1 , . . . , vr ).) Diese beiden Eigenschaften machen eine
Basis aus:
Definition [Basis] Sei V ein Vektorraum u¨ber R. Ein n-tupel (v1 , . . . , vn ) von Vektoren in
V heißt Basis von V , wenn es linear unabh¨angig ist und span(v1 , . . . , vn ) = V erf¨ullt.
Je zwei Basen ein und desselben Vektorraums sind gleich lang. Das erm¨oglicht die folgende
Definition:
Definition [Dimension] Besitzt der Vektorraum V eine Basis (v1 , . . . , vn ), so heißt die Anzahl
der Basisvektoren n die Dimension von V , abgek¨urzt dimV .
Aufgaben:
• Ist (e1 , . . . , en ) die einzige Basis des Rn ? Nat¨urlich nicht! Geben Sie weitere Beispiele
an.
• Wie sieht eine Basis (1.) des Vektorraums der 2 × 2 Matrizen und (2.) des Vektorraums
der Polynome vom Grad n ≤ 3 aus? Welche Dimensionen haben diese R¨aume?
• Welche der folgenden Mengen von Vektoren sind linear unabh¨angig?
✷
3
3
2
,
7
1
,
2
5
✷

    
1
0
1
 1 , 1 , 0 
0
1
1
✷

  
1
2
 1 , 2 
1
2
Multiplikation von Vektoren und Matrizen
Bis jetzt haben wir Vektoren und Matrizen nur mit reellen Zahlen multipliziert. F¨ur die Definition des Begriffes “Vektorraum” brauchten wir nicht mehr. Jetzt aber: Wie multipliziert man
Vektoren miteinander? Wie Matrizen? Und wie Vektoren mit Matrizen?
3.1
Vektor mal Vektor
F¨ur zwei Vektoren x, y ∈ Rn nennt man die Zahl
n
x, y
:= x1 y1 + · · · + xn yn =
xi yi
i=1
das Standard-Skalarprodukt von x und y. Ist in einem Vektorraum ein Skalarprodukt erkl¨art,
dann nennt man diesen Vektorraum euklidisch. In einem euklidischen Vektorraum heißt
x
:=
x, x
der Betrag, die L¨ange oder die Norm von x und
α(x, y) := arccos
x, y
,
x y
f¨ur x = 0 und y = 0, der Winkel zwischen x und y. Ist x, y = 0, dann nennt man x und y
orthogonal: x, y = 0 ⇔ x ⊥ y.
Aufgaben: Berechnen Sie den Winkel zwischen den Vektoren x und y:
 
 
1
1
2
5
(1.) x =
y=
(2.) x =  1  y =  2 
−1
3
1
1
3.2
Matrix mal Vektor
F¨ur x = (x1 , . . . , xn ) ∈ Rn und A ∈ Rm×n wird A · x ∈ Rm durch
n
A·x=
n
a1i xi ,
i=1
n
a2i xi , . . . ,
i=1
ami xi ,
i=1
definiert. Das l¨aßt sich u¨bersichtlicher auch so schreiben:




 x1

a11 · · · · · · a1n
a11 x1 + · · · + a1n xn
 .. 

 ..
..   .  = 
..


 .

. 
.
.
 .. 
am1 · · · · · · amn
am1 x1 + · · · + amn xn
xn
Eine m × n Matrix definiert also eine Abbildung vom Rn in den Rm . Sogar eine besondere
Art von Abbildung, sie ist n¨amlich linear. Das bedeutet: F¨ur alle x, y ∈ Rn und λ ∈ R gilt
A(x + y) = Ax + Ay,
A · (λx) = λ · Ax.
Aufgabe: Berechnen Sie:

1
 −1

 0
1
0
0
3
1

3  
1
3 
  2  = ???
5 
3
1
3.3
Matrix mal Matrix
Sei B = (bik ) ∈ Rr×m und A = (akj ) ∈ Rm×n . Dann ist das Produkt BA ∈ Rr×n definiert
durch
m
(B · A)ij =
bik akj
k=1
Merkregel f¨ur die Dimensionen der Matrizen: r × m mal m × n gibt r × n.
Die Transponierte eines Matrizenprodukts ist das Produkt der Transponierten in umgekehrter
Reihenfolge: Es gilt (BA)t = At B t , denn f¨ur C := BA ist cij = k bik akj , also ctij = cji =
bjk aki = atik btkj .
Das Matrixprodukt entspricht dem Hintereinanderausf¨uhren (Zusammensetzen) der zugeh¨origen linearen Abbildungen: (BA)x = B(Ax).
/ Rm
??
?? B
BA ? A
Rn ?
?
Rn
Die Matrizenmultiplikation ist assoziativ: (AB)C = A(BC) und bez¨uglich der Addition distributiv: A(B + C) = AB + AC und (A + B)C = AC + BC. ABER sie ist nicht kommutativ
und nicht nullteilerfrei, d. h. (1.) es gibt (quadratische) Matrizen A, B mit AB = BA; und
(2.) es gibt Matrizen A = 0 und B = 0 mit AB = 0.
Beispiel (und Beweis) f¨ur (1.) und (2.): W¨ahlen wir etwa A =
0 1
0 1
und B =
1 1
0 0
haben wir gleich ein Beispiel f¨ur beide Ph¨anomene:
0 1
0 1
AB =
1 1
0 0
=
0 0
0 0
= 0,
0 2
0 0
= AB.
und
BA =
1 1
0 0
0 1
0 1
=
Frage: Warum ist hier ein Beispiel auch schon gleich ein Beweis?
Aufgaben:
1. F¨ur welche der folgenden 3 × 3 Matrizen A



1 0 0
✷ A= 0 1 0 
✷ A=
0 0 1
gilt: AB = BA = B f¨ur alle B


0 0 1
1


0 1 0
1
✷ A=
1 0 0
1
∈ R3×3 ?

1 1
1 1 
1 1
2. Welches der folgenden Produkte von Matrizen ist Null?
✷
1 −1
1 −1
2
3
−2 −3
✷
−1 1
−1 1
2 3
2 3
✷
1 −1
1 −1
2 2
3 3
4
Die Inverse einer Matrix
Sei E die Einheitsmatrix:


1
..

E = 
.
1


Eine Matrix A ∈ Rn×n heißt invertierbar, wenn es eine Matrix B ∈ Rn×n gibt, so daß AB = E
gilt. Wie rechnet man die Inverse praktisch aus? Dazu braucht man sogenannte elementare
Zeilenumformungen. Davon gibt es drei Typen:
1. Vertauschung zweier Zeilen.
2. Multiplikation einer Zeile mit λ = 0.
3. Addition eines beliebigen Vielfachen einer Zeile zu einer anderen (nicht derselben!) Zeile.
Rezept zur Invertierung einer Matrix A.
1. Schreibe A und E nebeneinander: ( A | E ).
¨
2. Uberf¨
uhre A durch wiederholtes Anwenden elementarer Umformungen in die Einheitsmatrix.
3. Wende dieselben Umformungen gleichzeitig auf E an.
4. Wenn links aus A die Einheitsmatrix geworden ist, dann steht rechts die Matrix A−1 .
Die Behauptung in Punkt 4. l¨aßt sich nat¨urlich einfach dadurch u¨berpr¨ufen, daß man die rechte
Matrix mit A multipliziert.
Lassen sich alle Matrizen mit diesem Rezept invertieren? Nein! Zum einen m¨ussen die Matrizen quadratisch sein, zum anderen brauchen sie “vollen Rang”. Ein einfaches Kriterium f¨ur
Invertierbarkeit bietet die Determinante einer Matrix: A ist invertierbar, wenn det(A) nicht
Null ist. Wie man diese Determinante ausrechnet, steht im n¨achsten Abschnitt.
Aufgaben: Invertieren Sie die folgenden Matrizen:
A1 = (5)
5
A2 =
3 0
0 5


0 2 0

3 0 0 
A3 =
0 0 1

1
0 1
 1
1 2
A4 = 
 0 −1 0
1
0 0

1
1 

1 
2
Die Determinante
Wir wollen nur die Determinanten von 2 × 2 und 3 × 3 Matrizen behandeln. Hier kommen wir
noch mit Kopfrechnen weiter, bei gr¨oßeren Matrizen wird das i. A. m¨uhsam. (In den Aufgaben
findet sich allerdings auch ein einfaches Beispiel einer 4 × 4 Matrix.)
det
a b
c d
= ad − bc
F¨ur eine 3 × 3 Matrix A kann man z. B. nach der ersten Spalte entwickeln:


a11 a12 a13
a22 a23
a12 a13
det  a21 a22 a23  = a11 det
−a21 det
+a31 det
a32 a33
a32 a33
a31 a32 a33
a12 a13
a22 a23
Wenn wir nach dem Element aij entwickeln, m¨ussen wir noch die Determinante der Untermatrix berechnen, die sich nach Streichen der i-ten Zeile und j-ten Spalte in A ergibt. Die
Vorzeichen + und − verteilen sich abwechselnd. Diese Technik l¨aßt sich auch auf gr¨oßere
Matrizen verallgemeinern.
Im Fall der

a11

det a21
a31
3 × 3 Matrizen entspricht das Ergebnis der “J¨agerzaunregel”:

a12 a13
a22 a23  = a11 a22 a33 +a12 a23 a31 +a13 a21 a32 −a11 a23 a32 −a12 a21 a33 −a13 a22 a31
a32 a33
Aufgaben:
1. Stimmt die Aussage: det(A + B) = det A + det B f¨ur beliebige quadratische Matrizen
A und B?
2. Berechnen Sie die Determinante der Matrizen




1 2 3
1 2 3
A= 4 5 6 
B= 4 5 6 
5 7 9
7 8 9
3. F¨ur welche λ ∈ R ist die folgende reelle Matrix invertierbar?

1
 λ
Aλ = 
 0
0
λ
1
λ
0
0
0
1
λ

0
0 

0 
1
Literatur
[J]
Klaus J¨anich, Lineare Algebra, Springer 5 1995. Wunderbares Buch zum Einstieg. Der
Autor spart nicht mit Erkl¨arungen, Aufmunterungen und Tipps.
¨
[A] Howard Anton, Lineare Algebra: Einf¨uhrung, Grundlagen, Ubungen,
Spektrum Verlag
¨
1995. Ein Rechen- und Ubungsbuch. Dicker W¨alzer mit vielen Beispielen.
[F] Gerd Fischer, Lineare Algebra, Vieweg 10 1995. Der Klassiker! Im Gegensatz zu den ersten
beiden kann man hiermit auch ein Mathestudium bestreiten.
Document
Kategorie
Seele and Geist
Seitenansichten
11
Dateigröße
140 KB
Tags
1/--Seiten
melden