close

Anmelden

Neues Passwort anfordern?

Anmeldung mit OpenID

Gegeben ein Endomorphismus φ, wie kann man die Basis finden, in

EinbettenHerunterladen
Gegeben ein Endomorphismus φ, wie kann man die Basis
finden, in welcher die Matrix von φ Jordan-Form hat?
Dieselbe Frage in algebraischer Sprache: Gegeben ist A ∈ Mat(n, n).
Wie findet man eine Basistransformationsmatrix B sodass J = B −1 AB
Jordan-Form hat?
Zuerst ein ineffizienter Brute-Force-Ansatz:
J = B −1 AB impliziert offenbar BJ − AB = 0. Durch komponentenweise
Betrachtung erh¨alt man daraus
n
n
ur alle k, l ∈ {1, . . . , n}.
j=1 Jjl Bkj −
j=1 Akj Bjl = 0 f¨
Dies ist ein lineares (homogenes) Gleichungssystem von n2 Gleichungen
in den n2 Unbekannten Bkl , k, l ∈ {1, . . . , n}. Der L¨
osungsraum ist
nichttrivial. Findet man unter den L¨
osungen B = (Bkl )k,l∈{1,...,n} eine
regul¨are Matrix, so ist B eine Basistransformation mit J = B −1 AB.
(Solch eine Matrix B existiert auch, falls J die Jordansche Normalform
von A ist.)
Nachteile des Brute-Force-Ansatz
◮
Man muss ein lineares Gleichungssystem mit n2 Variablen auf n2
Unbekannten l¨osen – sehr schwierig f¨
ur große n.
◮
Nicht jede L¨osung entspricht einer NICHTAUSGEARTETEN Matrix
B, denn die Gleichung J = B −1 AB ist nicht zur Gleichung
BJ − AB = 0 ¨aquivalent: Die zweite Gleichung folgt aus der ersten,
die erste Gleichung folgt aus der zweiten nur f¨
ur nichtausgeartete
Matrizen B. Zum Besipiel ist die Nullmatrix B = 0 immer eine
L¨
osung, die nicht invertierbar ist.
Was suchen wir eigentlich? Bsp.
Gegeben sei ein Endomorphismus von z.B. C6 , gegeben durch z.B. eine
6 × 6-Matrix. Wir suchen eine Basis, s.d. die Matrix des
Endomorphismus’ in dieser Basis Jordan-Form hat. Beispiel:
¾ 2 1 0 0 0 0 ¿
0
2
1
0
0
0
0
0
2
0
0
0
0
0
0
3
1
0
0
0
0
0
3
0
0
0
0
0
0
3
Wir suchen also ein Basis (v1 , u1 , w1 , v1 , u1 , v1 ) (die Vektoren mit
verschiedenen Farben, z.B. v1 , v1 und v1 sollen als verschiedene Vektoren
angesehen werden), sodass
φ(v1 ) − 2v1 = 0, φ(u1 ) − 2u1 = v1 , φ(w1 ) − 2v1 = u1 , φ(v1 ) − 3v1 = 0, φ(u1 ) − 3u1 = v1 , φ(v1 ) − 3v1 = 0.
Wie k¨
onnte man verfahren? Man suche einen Eigenvektor v1 zum
Eigenwert 2 (l¨ose also die Gleichung φ(v1 ) − 2v1 = 0); dann den Vektor
u1 mit φ(u1 ) − 2u1 = v1 (wieder LGS), dann w1 mit φ(w1 ) − 2w1 = w1 ,
dann einen Eigenvektor v1 zum Eigenwert 3; dann den Vektor u1 mit
φ(u1 ) − 3u1 = v1 , dann noch einen Eigenvektor v1 zum Eigenwert 3.
Es k¨onnte etwas schiefgehen.
¾
2
1
0
0
0
0
0
2
1
0
0
0
0
0
2
0
0
0
0
0
0
3
1
0
0
0
0
0
3
0
0
0
0
0
0
3
¿
Und zwar gibt es in diesem Beispiel zwei Bl¨
ocke zum Eigenwert 3. Also
gibt es einen 2-dimensionalen Eigenraum von Vektoren v1 und v1 . Wenn
man statt Vektor v1 den Vektor v1 + v1 ausw¨ahlt, kann man kein u1
finden. Wir m¨
ussen deswegen den Vektor v1 so suchen, dass
v1 ∈ Bild(φ − 3Id) ist.
Was k¨
onnte noch schief gehen?
¾ 2 1 0
0
0
0
0
2
1
0
0
0
0
0
2
0
0
0
0
0
0
2
1
0
0
0
0
0
2
0
0
0
0
0
0
2
¿
K¨
onnte es sein, dass ein solches naives Verfahren linear abh¨angige
Vektoren liefert? Nein, wenn wir das kontrollieren. Und zwar, wenn wir
die Eigenvektoren zum gleichen Eigenwert aussuchen, m¨
ussen wir diese
linear unabh¨angig w¨ahlen. (Wir haben 3 solche f¨
ur eine Matrix, deren
Jordanform wie oben ist.) Die Vektoren aus verschiedenen verallg.
Eigenr¨aumen sind sowieso linear unabh¨angig. Wenn wir die u−Vektoren
aus einem verallg. Eigenraum (zu λ) aussuchen, m¨
ussen wir nur
dim(Kern(φ − λId)2 ) − dim(Kern(φ − λId)) aussuchen, also 3 f¨
ur die
Matrix oben. Wenn wir die w −Vektoren aus einem verallg. Eigenraum
(zu λ) aussuchen, m¨
ussen wir nur
dim(Kern(φ − λId)3 ) − dim(Kern(φ − λId)2 ) aussuchen, also 1 f¨
ur die
Matrix oben.
¾
2
1
0
0
0
0
0
2
1
0
0
0
0
0
2
0
0
0
0
0
0
2
1
0
0
0
0
0
2
0
0
0
0
0
0
2
¿
K¨
onnte es sein, dass ein solches naives Verfahren linear abh¨
angige Vektoren liefert? Nein, wenn wir
das kontrollieren. Und zwar, wenn wir die Eigenvektoren zum gleichen Eigenwert aussuchen, m¨
ussen
wir diese linear unabh¨
angig w¨
ahlen. (Wir haben 3 solche f¨
ur eine Matrix, deren Jordanform wie oben
ist.) Die Vektoren aus verschiedenen verallg. Eigenr¨
aumen sind sowieso linear unabh¨
angig. Wenn wir die
u−Vektoren aus einem verallg. Eigenraum (zu λ) aussuchen, m¨
ussen wir nur dim(Kern(φ − λId)2 ) −
dim(Kern(φ − λId)) aussuchen, also 3 f¨
ur die Matrix oben. Wenn wir die w −Vektoren aus einem verallg.
Eigenraum (zu λ) aussuchen, m¨
ussen wir nur dim(Kern(φ − λId)3 ) − dim(Kern(φ − λId)2 ) aussuchen,
also 1 f¨
ur die Matrix oben.
Die Vektoren, die wir damit konstruieren, werden automatisch linear
unabh¨angig sein, denn die Vektoren aus verschiedenen verallg.
Eigenr¨aumen sind linear unabh¨angig. Die v −Vektoren z.B. (also die
Vektoren aus Kern(φ − λId)) und die u−Vektoren (also die Vektoren aus
Kern(φ − λId)2 \ Kern(φ − λId)) sind auch linear unabh¨angig. Um dies
zu zeigen, wenden wir φ − λId auf die Gleichung
α1 v1 + ... + αk vk + β1 u1 + ... + βk um = 0 an. Wir bekommen
β1 v1 + ... + βm vm = 0, also βi = 0. Dann sind auch die αi = 0. Beweis
f¨
ur w −Vektoren usw. ist analog.
Was k¨
onnte noch schief gehen?
¾ 2 1 0
0
0
0
0
2
1
0
0
0
0
0
2
0
0
0
0
0
0
2
1
0
0
0
0
0
2
0
0
0
0
0
0
2
¿
K¨
onnte es sein, dass wir nicht genug linear unabh¨
angige Vektoren
bekommen?
Nein, weil wir konsequent in jedem verallg. Vektorraum zuerst
Kern(φ − λId), dann Kern(φ − λId)2 , dann Kern(φ − λId)3 Vektoren
konstruieren. Am Ende bekommen wir also die richtige Anzahl von
Vektoren.
Als Beispiel betrachte man hierzu den Endomorphismus mit der Matrix


25 −16 30 −44 −12
 13
−7
18 −26 −6 



12 
A := −18 12 −21 36
.
 −9
6
−12 21
6 
11
−8
15 −22 −3
Es gilt
Kern(A − 3Id) = span
¼
¼−2½
¼ 2½
1
2
0
0
0
0
1
0
v1 =
, v2 =
¼ 2½ ½
2
, v3 =
00
und Kern(A − 3Id)2 = C5 .
1
Das Polynom χA ist in diesem Fall (t − 3)5 .
(t − 3)2 . Also lautet Jordannormalform

3 1 0 0
0 3 0 0

J=
0 0 3 1
0 0 0 3
0 0 0 0
Das Polynom MinA ist

0
0

0
.
0
3
Man w¨ahle
u1 ∈ Kern(A − 3Id)2 \ Kern(A−
3Id)1
1
0
 

beliebig, beispielsweise u1 := 
0. Dann ist
0
 0

22
 13 



v1 := (A − 3Id)u1 = 
−18 zu w¨ahlen. Daraus erh¨alt man bereits die
 −9 
11
erstenzwei Spalten der Transformationsmatrix

22 1 ∗ ∗ ∗
 13 0 ∗ ∗ ∗



B := 
−18 0 ∗ ∗ ∗ .
 −9 0 ∗ ∗ ∗
11 0 ∗ ∗ ∗
Nun gehe man zum zweiten Jordanblock der Gr¨
oße 2 u
¨ber. Man w¨ahle
nun u2 ∈ Kern(A − 3Id)2 \ Span(Kern(A − 3Id) ∪ {u2 }) beliebig,
¼ 0½
¼−16½
beispielsweise
¼ 22
B =
1
0
0
0
0
13
−18
−9
11
1
u2 :=
−16
−10
12
6
−8
00 . Dann ist
0
½
0
∗
1
0
0
0
∗
∗
∗
∗
−10
v2 := (A − 3Id)u2 =
126
und man landet bei
−8
.
Schließlich ist der letzte Jordanblock (der Gr¨
oße 1) an der Reihe. Man
w¨ahle hierzu
v3 ∈ Kern(A − 3Id) \ Span({v1 , u1 , u2 , v2 }) beliebig, beispielsweise
¼ 2½
0
v3 :=
01
.
Dann ist
¼ 22
0
B =
13
−18
−9
11
1
0
0
0
0
−16
−10
12
6
−8
eine regul¨are Matrix mit J = B −1 AB.
0
1
0
0
0
2
0
0
1
0
½
Exkurs: Komplexifizieren von R-Bilinearformen
Sei V ein Vektorraum u
¨ber R. VC := {u + iv | u, v ∈ V } = (V × V ).
Addition und Muptiplikation :
◮
u + iv + u ′ + iv ′ = (u + u ′ ) + i(v + v ′ ).
◮
F¨
ur α + iβ ∈ C wir definieren (α + iβ)(u + iv ) = (αu − βv ) + i(αv + βu).
Wir haben letztes Mal gesehen, dass wir jedem Endomorphismus
φ : V → V einen eindeutigen Endomorphismus φC : VC → VC zuordnen
k¨
onnen, sodass φC eingeschr¨ankt auf {u + i 0 | u ∈ V } mit φ
u
¨bereinstimmt (wenn wir den Untervektorraum {u + i 0 | u ∈ V } wie
folgt nat¨
urlich mit V identifizieren: das Element u + i 0 identifizieren wir
mit u ∈ V ).
Bemerkung. Letztes mal haben wir jedoch dieses Ergebnis anders
formuliert: Wir haben gezeigt, dass die Abbildung φC : VC → VC ,
definiert durch
φC (u + iv ) = φ(u) + iφ(v )
(∗)
ein Endomorphismus von VC ist.
Dieser Endomorphismus hat offensichtlich die Eigenschaft, dass er
eingeschr¨ankt auf {u + i 0 | u ∈ V } mit φ u
¨bereinstimmt. In der Tat,
wenn wir einen Vektor der Form u + i 0 in (∗) einsetzen, bekommen wir
den Vektor φC (u + i 0) = φ(u) + i 0, den wir mit φ(u) identifiziert haben.
Bemerkung. Letztes mal haben wir jedoch dieses Ergebnis anders formuliert: Wir haben gezeigt, dass die
Abbildung φC : VC → VC , definiert durch
φC (u + iv ) = φ(u) + iφ(v )
(∗)
ein Endomorphismus von VC ist.
Dieser Endomorphismus hat offensichtlich die Eigenschaft, dass er eingeschr¨
ankt auf {u + i 0 | u ∈ V }
mit φ u
¨bereinstimmt. In der Tat, wenn wir einen Vektor der Form u + i 0 in (∗) einsetzen, bekommen
wir den Vektor φC (u + i 0) = φ(u) + i 0, den wir mit φ(u) identifiziert haben.
Fortsetzung der Bemerkung. Dass ein solcher Endomorphismus von VC
(d.h. einer mit der Eigenschaft, dass die Einschr¨ankung auf
{u + i 0 | u ∈ V } mit φ u
¨bereinstimmt) eindeutig ist, folgt (mindestens
f¨
ur endlichdimensionale Vektorr¨aume) aus der letztes Mal bewiesenen
Aussage, dass f¨
ur eine Basis (b1 , ..., bn ) von V das Tupel
(b1 + i 0, ..., bn + i 0) eine Basis von VC ist. Da die Bilder von
Basiselementen einen Endomorphismus eindeutig bestimmen, gibt es
h¨
ochstens einen Endomorphismus von C mit der Eigenschaft, dass die
Beschr¨ankung auf {u + i 0 | u ∈ V } mit φ u
¨bereinstimmt.
Kann man die Bilinearformen und eventuell das
Skalarprodukt komplexifizieren?
Zwischenfrage: Was sollte man dazu verlangen? Beim
Komplexifizieren von Endomorphismen haben wir verlangt, dass
1. φC mit φ auf Vektoren der Form u + i 0 u
¨bereinstimmt und dass
2. φC ein Endomorphismus ist.
Wenn wir analog vorgehen, sollten wir auch beim Komplexifizieren einer
Bilinearform verlangen, dass (f¨
ur eine Bilinearform σ auf dem
R-Vektorraum V )
1. σC mit σ auf Vektoren der Form u + i 0 u
¨bereinstimmt und dass
2. σC eine Bilinearform ist.
Das ist ein sinnvoller Vorschlag. Der Nachteil davon ist, dass die positive
Definitheit f¨
ur Bilinearformen u
¨ber C sinnlos ist und man deswegen ein
Skalarprodukt (und das ist die n¨
utzliche“ Bilinearform) nicht unter
”
Verlangen von (1), (2) so komplexifizieren kann, dass die positive
Definitheit erf¨
ullt ist.
Warum gibt es kein Skalarprodukt auf einem nichtrivialen C-Vektorraum? Weil f¨
ur ein v = 0 und
∀c = 0 gilt: v , v > 0 und cv , cv > 0. Wenn wir u
¨ber C arbeiten und c = i nehmen, bekommen
wir v , v > 0 und − v , v > 0, was einander widerspricht.
Komplexifizieren von Bilinearformen unter Verlangen von
(1), (2)
1. σC mit σ auf Vektoren der Form u + i 0 u
¨bereinstimmt und dass
2. σC eine Bilinearform ist.
Sei σ eine Bilinearform auf einem R-Vektorraum V . Wir denken uns, dass
V endlichdimensional ist, obwohl die Aussagen f¨
ur alle Vektorr¨aume
gelten: Wir werden die Beweise am Ende des Semesters nachliefern.
Wir definieren σC : VC × VC → C durch
σC (u + iv , u˜ + i v˜ ) = σ(u, u˜) − σ(v , v˜ ) + i(σ(u, v˜ ) + σ(v , u˜)).
(Vergleichen Sie diese Formel mit
˜ = (α · α
˜ + i(α · β˜ + β · α
(α + iβ) · (˜
α + i β)
˜ − β · β)
˜ ).)
¨
Es ist eine gute Ubung
zu zeigen, ¨ahnlich wie wir das im Abschnitt
“Komplexifizieren von Endomorphismen” getan haben, dass die so
definierte Abbildung eine Bilinearform ist. Es ist auch offensichtlich, dass
ullt ist:
(1) erf¨
σC (u + i 0, u˜ + i 0) = σ(u, u˜) − σ(0, 0) + i(σ(u, 0) + σ(v , 0)) = σ(u, u˜).
Wir haben vorher gesehen, dass f¨
ur eine Basis (b1 , ..., bn ) in V das Tupel
(b1 + i 0, ..., bn + i 0) eine Basis in VC ist.
Die Gramsche Matrix der Bilinearform σC in dieser Basis ist gleich der
Gramschen Matrix von σ in der Basis (b1 , ..., bn ), weil die Komponenten
der Gramschen Matrix durch die Formel
aij = σ(bi , bj )
gegeben sind und diese Formel f¨
ur σC und f¨
ur die Basis
(b1 + i 0, ..., bn + i 0) wie folgt aussieht:
aij = σ(bi + i 0, bj + i 0) = σ(bi , bj ).
Daraus folgt auch, dass die Bilinearform σC , die die Eigenschaften (1)
und (2) hat, eindeutig ist.
Was, wenn wir unbedingt positive Definitheit wollen?
Hermitesche Formen
Def. Eine hermitesche Form auf einem C− Vektorraum U ist eine
Abbildung σ : U × U → C, die die folgenden Eigenschaften (f¨
ur alle
u, v , u ′ , v ′ ∈ U und α + iβ, α′ + iβ ′ ∈ C) hat:
(a) Linearit¨at bzgl. 2tem Argument:
σ(u, (α + iβ)v + (α′ + iβ ′ )v ′ ) = (α + iβ)σ(u, v ) + (α′ + iβ ′ )σ(u, v ′ ).
(b) “Antilinearit¨at” bzgl. 1tem Argument:
σ((α+iβ)u+(α′ +iβ ′ )u ′ , v ) = (α − iβ) σ(u, v )+(α′ − iβ ′ ) σ(u ′ , v ).
α+iβ
α′ +iβ ′
(c) σ(x, y ) = σ(y , x) (“Hermitesche Symmetrie”).
Dabei bezeichnet “kdjgl” komplexe Konjugation.
Bemerkung. F¨
ur die Reihenfolge von linearem und antilinearem
Argument gibt es unterschiedliche Konventionen.
Def. Eine hermitesche Form auf einem C− Vektorraum U ist eine Abbildung σ : U × U → C, die die
folgenden Eigenschaften (f¨
ur alle u, v , u ′ , v ′ ∈ U und α + iβ, α′ + iβ ′ ∈ C) hat:
(a) Linearit¨
at bzgl. 2tem Argument:
′
′
′
′
′
′
σ(u, (α + iβ)v + (α + iβ )v ) = (α + iβ)σ(u, v ) + (α + iβ )σ(u, v ).
(b) “Antilinearit¨
at” bzgl. 1tem Argument:
′
′
′
′
′
′
σ((α + iβ)u + (α + iβ )u , v ) = (α − iβ) σ(u, v ) + (α − iβ ) σ(u , v ).
ßÞ
ßÞ
α′ +iβ ′
α+iβ
(c) σ(x, y ) = σ(y , x) (“Hermitesche Symmetrie”).
Bsp. Hermitesche Standard-Form auf Cn : F¨
ur x, y ∈ Cn definiert
man σ(x, y ) = x, y = x¯i yi = x¯1 y1 + ... + x¯n yn .
Hauptbsp. Wir betrachten eine n × n-Matrix A ∈ Mat(n, n, C) mit
At = A und definieren eine hermitesche Form auf Cn :
n
aij x¯i yj .
σ(x, y ) = (¯
x1 , ..., x¯n ) Ay =
x¯t
i,j=1
¨
Eigenschaften (a), (b), (c) sind einfache Ubungen
(siehe Vorl. 18 LA I).
Positive Definitheit
Def. Eine hermitesche Form σ auf einem C-Vektorraum V ist
positiv definit, wenn f¨
ur jedes v ∈ V mit v = 0 gilt: σ(v , v ) > 0.
Bsp. Wir betrachten die hermitesche Standard-Form auf Cn :
σ(x, y ) = x, y =
x¯i yi = x¯1 y1 + ... + x¯n yn . Sie ist positiv definit,
da σ(x, x) = x¯1 x1 + ... + x¯n xn und x¯i xi ≥ 0 und > 0 f¨
ur xi = 0.
Fakt (wird nicht bewiesen). Jede positiv definite hermitesche
Form (auf einem endlichdimensionalen C-Vektorraum) ist die
hermitesche Standard-Form in einer geeigneten Basis.
Man kann eine Bilinearform σ von einem R-Vektorraum V auf VC wie
folgt fortsetzen: Man setze
σC (u + iv , u ′ + iv ′ ) = (σ(u, u ′ ) + σ(v , v ′ )) + i(−σ(v , u ′ ) + σ(u, v ′ )).
(Vergleichen Sie diese Formel mit
(α + iβ) · (α′ + iβ ′ ) = (α · α′ + β · β ′ ) + i(−β · α′ + α · β ′ ).)
Man kann zeigen, dass σC hermitesch ist und dass wenn σ positiv definit
ist, auch σC positiv definit ist.
Neues Thema: Affine Geometrie
Def. Ein Affiner Raum u
¨ber einem K-Vektorraum V ist eine Menge
A = ∅ mit einer Abbildung + : A × V → A, f¨
ur die gilt
(A1 ) f¨
ur alle a ∈ A, v , w ∈ V gilt
(a + v ) + w = a +
(v + w )
¨
Ubliche
Addition von Vektoren
(A2 ) f¨
ur alle a1 , a2 ∈ A existiert genau ein v ∈ V s.d. a2 = a1 + v (Der
→
Vektor v wird −
a−
1 a2 ) bezeichnet.
Die Dimension des affinen Raums ist die Dimension von V . Die Elemente
von A heißen Punkte.
Standardbsp. Sei V ein K-Vektorraum. Wir setzen A = V . “+” sei die
u
¨bliche Addition in V . Das ist ein affiner Raum:
(A1 ): (a + v ) + w = a + (v + w ) entspricht Assoziativit¨at der Addition,
(A2 ) entspricht der Existenz eindeutiger Inverser
eindeutig
(weil a2 = a1 + v ⇐⇒ v = a2 − a1 .)
¨
Motivationsbsp: E = Ubliche
( schulgeometrische“) Ebene, V –
”
die Menge der geometrischen Vektoren (geordnete Strecken) mit Anfang
in A1 , “+” sei die Addition von Vektoren und Punkten in der Ebene
−−−→
Sei A ∈ E, v = A1 B1 sei ein Vektor auf E,. Die Summe A + v ist ein
−→
Punkt B ∈ E so dass die geordnete Strecke AB gleich v ist ( = parallel
und hat die gleiche L¨ange und die gleiche Richtung).
Addition von Vektoren und Punkten
Addition von Vektoren und Punkten
B
A
A
B1
A
B1
A
1
1
Eigenschaft (A1 ): A sei ein Punkt, v , u seien Vektoren. Es gilt:
(A + v ) + u = A + (u + v ).
A+v
v
A
A+v
v
u
Sehen wir uns noch einmal die Eigenschaften (A1), (A2) an.
(A1 ) f¨
ur alle a ∈ A, v , w ∈ V gilt (a + v ) + w = a + (v + w )
(A2 ) f¨
ur alle a1 , a2 ∈ A existiert genau ein v ∈ A s.d. a2 = a1 + v (Der
→
Vektor v wird mit −
a−
1 a2 bezeichnet.)
Falls wir einen festen Punkt a ∈ A gew¨ahlt haben, ist A “fast” ein
→ zugeordnet. Also gibt es eine
Vektorraum: jedem a1 ist eindeutiges −
aa
1
nat¨
urliche Bijektion zwichen den Elementen von A und den Elementen
→ abgebildet.
von V : Element a1 ∈ A wird auf das Element −
aa
1
Die Umkehrabbildung zu dieser Bijektion ist eine Abbildung von V nach
A und bildet den Vektor v auf den Punkt a + v ab.
Plan f¨ur Heute
Theorie von affinen R¨aumen
◮
Affiner Raum
◮
Affiner Unterraum
◮
Affine Abbildungen
◮
Affine Koordinaten
◮
Hauptsatz der affinen
Geometrie
→
Lemma 7 F¨
ur alle a, a1 , a2 , a3 ∈ A gilt: a + 0 = a, −
aa = 0,
−
−
→
−
−
→
−
−
→
−
−
→
−
−
→
a1 a2 = −a2 a1 , a1 a2 + a2 a3 = a1 a3 .
Beweis: Hausaufgabe.
Def. Sei A ein affiner Raum u
¨ber dem K- Vektorraum V . Eine
Teilmenge U ⊆ A heißt ein affiner Unterraum, falls ein Untervektorraum
VU und ein a0 ∈ A existieren, so dass
U = {a0 + v , wobei v ∈ VU }.
dim(U) := dim(VU ). Die affinen Unterr¨aume der Dimension 1 heißen
Gerade, die affinen Unterr¨aume der Dimension 2 heißen Ebenen.Falls V
n-dimensional ist, heißen die affinen Unterr¨aume der Dimension n − 1
Hyperebenen.
Triviales Bsp. Jede 1-Punkt-Menge {a} ⊆ A ist ein affiner Unterraum
Lem. 7
(weil {0} ein Vektoraum ist, und a + 0 = a ) der Dimension 0 .
A selbst ist auch ein affiner Unterraum, da nach (A2 )
{a0 + v , wobei v ∈ V } = A. dim(A) = dim(V )
Bemerkung Ein affiner Unterraum U ist ein affiner Raum u
¨ber VU
Bsp. Unterr¨aume von E2
Unteräume von Ebene
A
Punkt ist ein 0-dim. aff. Unterraum
B
Gerade={ B+ t v, wobei t aus R ist}
=Hyperebene
Die ganze Ebene ist ein 2-dim. aff. Unterraum
ist ein 1-dim. aff. Unterraum
Bsp. Unterr¨aume von E3
Unteräume vom Raum
Gerade={ B+ t v, wobei t aus R ist}
Punkt ist ein 0-dim. aff. Unterraum
ist ein 1-dim. aff. Unterraum
A
B
w
C
v
Der ganze Raum
ist ein 3-dim. aff. Unterraum
Die Ebene {C+t v + r w, wobei t,r aus R sind}
und v, w linear unabhängig sind
ist ein 2-dim. aff. Unterraum
ist ein Hyperebene
Lemma 8 Sei U ⊆ A affiner Unterraum (d.h.
U = {a0 + v , wobei v ∈ VU }). W¨ahle a1 ∈ U. Dann gilt:
U = {a1 + v , wobei v ∈ VU }.
In Worten: Als Fusspunkt k¨
onnen wir einen beliebigen Punkt des
Unterraums w¨ahlen.
Geraden {A+ tv},
{B+t v}, {C+t v}
sind gleich
C
B
A
Beweis.Wir zeigen: Jeder Punkt a aus {a0 + v , wobei v ∈ VU } liegt
auch in {a1 + v , wobei v ∈ VU }. Tats¨achlich, a = a0 + v , wobei
v ∈ VU . Dann ist
Lem.7
Lem.7
→ −−→ (A1)
a−
a0 + v = a0 + v + 0 = a0 + v + −
0 a1 + a1 a0 =
−
−
→
−
−
→
(a + a a ) + (v + a a ) ∈ {a + u, wobei u ∈ V }.
0 1
0
a1
1 0
1
U
∈VU
Genauso liegt auch jedes a aus {a1 + v , wobei v ∈ VU } in
{a0 + v , wobei v ∈ VU }. Also sind die Mengen gleich.
Lemma 9 Sind U1 , U2 affine Unterr¨aume s.d. U1 U2 = ∅, so ist
U1 U2 auch ein affiner Unterraum und VU1 Ì U2 = VU1 VU2 .
Beweis: W¨ahle a0 ∈ U1 U2 . Nach Lemma 8 gilt
U1 = {a0 + v , wobei v ∈ VU1 },
U2 = {a0 + v , wobei v ∈ VU2 }.
Dann ist U1 U2 = {a0 + v wobei v ∈ VU1 VU2 }.
Bsp. Betrachte den affinen Raum aus dem Standardbsp., wobei V = Kn .
D.h. A = V = Kn und die Addition ist die u
¨bliche Addition in Kn . Sei
A ∈ Mat(m, n, K). Betrachte das lineare Gleichungssystem Ax = b.
Angenommen, das System ist l¨
osbar.
Dann ist die L¨osungsmenge U ein affiner Unterraum und VU = KernfA .
Tats¨achlich, nach LA I ist die L¨
osungsmenge {˜
x + v wobei v ∈ KernfA }.
Affine Abbildungen
Def. Seien A1 , A2 affine R¨aume u
¨ber V1 , V2 . Eine Abbildung
F : A1 → A2 heißt affin, wenn es eine lineare Abbildung f : V1 → V2
gibt, so dass f¨
ur jedes a, b ∈ A1 gilt
−−−−−−→
−
→
f (ab) = F (a) F (b).
(∗)
Eine bijektive affine Abbildung heißt Affinit¨at oder ein affiner
Isomorphismus.
Bedingung (∗) umformulieren: F¨
ur alle a1 ∈ A1 , v ∈ V1 gilt
F (a1 + v ) = F (a1 ) + f (v ).
(∗∗)
Lemma 10
Eine affine Abbildung F ist eine Affinit¨at ⇐⇒ f ist ein Isomorphismus.
Beweis ⇐=. Bijektiv = surjektiv und injektiv
−
→
f sei injektiv. Betrachte a = b ∈ A1 . Nach Lemma 7 ab = 0. Dann ist
−−−−−−→
F (a) F (b) = f (ab) = 0. Dann ist F (a) = F (b), also F ist injektiv.
f sei surjektiv. Betrachte a1 ∈ A1 , a2 := F (a1 ) ∈ A2 . Nach (A2 ) gilt:
A1 := {a1 + v1 wobei v1 ∈ V1 } und A2 := {a2 + v2 wobei v2 ∈ V2 }.
Da alle v2 ∈ V2 Bilder von Elementen von V1 sind, ist wegen (∗∗) auch
BildF = A2 . Ist f also bijektiv, so ist F auch bijektiv.
Def. – noch einmal Seien A1 , A2 affine R¨aume u
¨ber V1 , V2 . Eine
Abbildung F : A1 → A2 heißt affin, wenn es eine lineare Abbildung
f : V1 → V2 gibt, so dass f¨
ur jedes a, b ∈ A1 gilt
−−−−−−→
−
→
f (ab) = F (a) F (b).
Eine bijektive affine Abbildung heißt Affinit¨at oder ein affiner
Isomorphismus.
(∗)
Bedingung (∗) ist ¨aquivalent zu:
F (a1 + v ) = F (a1 ) + f (v ).
(∗∗)
Beweis =⇒. Sei F injektiv. Betrachte u = v ∈ V1 und a1 ∈ A1 . Nach
(A2 ) gilt a1 + v = a1 + u. Dann ist F (a1 + v ) = F (a1 + u), also
F (a1 ) + f (v ) = F (a1 ) + f (u), also f (v ) = f (u), also ist f injektiv.
−−→
Sei F surjektiv. Betrachte ein beliebiges v2 = a2 b2 ∈ V2 . Da F surjektiv,
ist a2 = F (a1 ), b2 = F (b1 ) f¨
ur irgendwelche a1 , b1 ∈ A1 . Dann ist
−−→ (∗) −−−−−−−−→
f (a1 b1 ) = F (a1 ) F (b1 ), also v2 ∈ Bildf , also f ist surjektiv.
Bsp. (Parallelverschiebung) Sei A1 = A2 = A und V1 = V2 = V . Sei
v0 ∈ V ein fester Vektor. Dann ist die Abbildung F : A → A,
−−−−−−→
F (a) := a + v0 affin. In diesem Fall ist f = Id. Tats¨achlich, F (a) F (b) ist
der Vektor w ∈ V s.d. F (a) + w = F (b). Da F (a) = a + v0 ,
F (b) = b + v0 ist F (a) + w = a + v0 + w = a + w + v0 = F (a + w ). Also
f (w ) = w .
Eine solche Abbildung heißt Translation (oder Parallelverschiebung) . Sie
ist eine Affinit¨at nach Lemma 8.
Hauptbsp. Seien a1 ∈ A1 , a2 ∈ A2 sowie f : V1 → V2 eine lineare
Abbildung. Dann ist
F : A1 → A2 , F (a) := a2 + f (−
a→
1 a)
eine affine Abbildung.
Tats¨achlich, F (a1 + v ) = F (a1 ) + f (v ).
Also: Alle affine Abbildungen sind wie im Hauptbsp.
In Worten: Jede affine Abbildung ist eine Verkettung von einer
Translation und einer linearen Abbildung.
Def. Sei A ein affiner Raum u
¨ber einem K- Vektorraum V ,
dim(V ) = n ≥ 1. Ein (n + 1)-Tupel (a0 , ..., an ) von Punkten a0 , ..., an aus
A heißt Koordinatensystem f¨
ur A, falls die Vektoren
−
→ −−→ −−→
−−→
a−
angig sind (und damit eine Basis von
0 a1 , a0 a2 , a0 a3 , ..., a0 an linear unabh¨
V bilden). Ist x ∈ A ein beliebiger Punkt, so gilt
−
a→
0x =
n
→
xi −
a−
0 ai
i=1
mit durch x eindeutig bestimmten xi ∈ K. Diese xi heißen die
¼x1 ½
Koordinaten von x bzgl. des Koordinatensystems (a0 , ..., an ) und ...
xn
heißt der Koordinatenvektor von x.
Koordinaten auf einer Gerade
Gerade = 1-dimensionaler affiner Raum
Koordinatensystem besteht aus n + 1 = 2 Punkten (a0 , a1 ) s.d.
a0 = a1 .
Koordinatenvektor eines Punktes a besteht aus einem Zahl x s.d.
→
a0 + x −
a−
0 a1 = a
a1
a0
Punkt
a1
a0
a
b
Koordinate
1
0
2
-1/2
Koordinaten auf einer Ebene
Ebene = 2-dimensionaler affiner Raum
Koordinatensystem besteht aus n + 1 = 3 Punkten (a0 , a1 , a2 ) s.d.
→ −−→
→ −−→
{−
a−
angig sind. Dann sind auch −
a−
0 a1 , a0 a2 } linear unabh¨
0 a1 a0 a2
nichtproportional.
−−→
→
Koordinatenvektor eines Punkts a ist xx12 s.d. a0 + x1 −
a−
0 a1 + x2 a0 a2 = a
F¨
ur a auf dem Bild:
1
1
F¨
ur b:
−1
1
F¨
ur c:
a1
1/2
2
a
c
c1
a0
a2
b
c2
Frage Wann sind affine Koordinaten auf der (¨
ublichen) Ebene
kartesisch?
Antwort Wenn die Strecken (a0 , ai ) die L¨ange 1 haben und
paarweise orthogonal sind.
Weil in diesem Fall das Parallelogramm a0 c1 cc2 ein Rechteck ist
und deswegen die Punkte c1 , c2 die Projektionen von c auf die
Geraden a0 a1 , a0 a2 sind. Da die L¨ange von λv gleich |λ||v | ist,
sind die Koordinaten von c die L¨angen von (a0 , c1 ) und (a0 , c2 )
(mit Vorzeichen).
a1
c
c1
a0
c2
a2
Satz 9(Haupsatz der affinen Geometrie) Seien A1 , A2 zwei
affine R¨aume der gleichen Dimension n (¨
uber K−Vektorr¨aumen V1
bzw. V2 ). Seien (a0 , ...an ) und (b0 , ..., bn ) die Koordinatensysteme
in A1 bzw. A2 . Dann existiert genau eine affine Abbildung
F : A1 → A2 s.d. F (ai ) = bi . Diese Abbildung ist eine Affinit¨at.
→ −−→ −−→
−−→
Beweis. Nach Definition sind (−
a−
0 a1 , a0 a2 , a0 a3 , ..., a0 an ) und
−−→ −−→ −−→
−−→
(b0 b1 , b0 b2 , b0 b3 , ..., b0 bn ) Basen von V1 bzw. V2 . Nach Satz 30
LAAG I (Vorl. 12) gibt es genau eine lineare Abbildung f , so dass
−−→
→
f (−
a−
0 ai ) = b0 bi . Da die Tupel Basen sind, ist f ein Isomorphismus.
Betrachte die Abbildung
F : A → A , F (a) := b + f (−
a→a) (aus dem Hauptbsp.)
1
2
0
0
Die Abbildung ist eine Affinit¨at nach Lemma 8. Z.z.: F (ai ) = bi .
Lem.7
Lem.7
F (a ) = b , da −
a−→
a = 0 und b + f (0) = b
0
0
0 0
0
0
−−→
→
−−→
F (ai ) = F (a0 + −
a−
0 ai ) = F (a0 ) + f (a0 ai ) = b0 + b0 bi = bi .
Folgerung Alle affinen R¨aume (¨
uber einem K − Vektorraum) der
gleichen endlichen Dimension sind affin isomorph.
Diese Aussage erlaubt, alle Probleme der (endlichdimensionalen)
affinen Geometrie in einem Kn zu betrachten.
Wir wollen alle affinen Abbildungen von A1 nach A2 beschreiben.
Satz 10. Seien A1 = Kn , A2 = Km Standard-R¨aume. (Diese
sind affine R¨aume u
¨ber Kn bzw. Km .) Dann kann man jede affine
Abbildung F : A1 → A2 als F (x) = a + Ax schreiben, wobei
a ∈ Km und A ∈ Mat(m, n, K) sind.
Beweis. Setze a = F (0). Da 0 + x = x, ist
(∗∗)
F (x) = F (0 + x) = F (0) + f (x) = a1 + Ax f¨
ur eine Matrix
A ∈ Mat(m, n, K).
Document
Kategorie
Seele and Geist
Seitenansichten
9
Dateigröße
200 KB
Tags
1/--Seiten
melden