Lineaire algebra - Vrije Universiteit Brussel

advertisement
VE
NI
U
RSIT EIT
BR
S
US
EL
VRIJ
E
Vrije Universiteit Brussel
Faculteit Toegepaste Wetenschappen
V IN
N
NT
EB
RAS
SCIE
IA
CERE
TE
Lineaire algebra
S. Caenepeel
Syllabus bij de cursus “Algebra en meetkunde”
Eerste Kandidatuur Burgerlijk Ingenieur
Eerste Jaar Brugprogramma Burgerlijk Ingenieur
1994-2001
Inhoudsopgave
1
2
3
4
Vectorruimten
4
1.1
Reële en complexe vectorruimten . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.2
Deelruimte en directe som van vectorruimten . . . . . . . . . . . . . . . . . . . .
8
1.3
Lineaire onafhankelijkheid . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4
Basis en dimensie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5
De eerste dimensiestelling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Lineaire Afbeeldingen en Matrices
22
2.1
Lineaire afbeeldingen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2
Kern en beeld van een lineaire afbeelding . . . . . . . . . . . . . . . . . . . . . . 24
2.3
De vectorruimte van de lineaire afbeeldingen . . . . . . . . . . . . . . . . . . . . 29
2.4
Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.5
Het product van matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.6
Verandering van basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.7
De rang van een matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
Lineaire variëteiten en stelsels lineaire vergelijkingen
48
3.1
Lineaire variëteiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.2
Stelsels lineaire vergelijkingen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
Determinanten
58
4.1
Permutaties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.2
De determinant van een vierkante matrix . . . . . . . . . . . . . . . . . . . . . . . 63
4.3
De ontwikkeling van de determinant volgens een rij of een kolom . . . . . . . . . 71
1
5
6
7
8
9
Eigenwaarden en eigenvectoren
80
5.1
Eigenwaarden en eigenvectoren . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.2
Diagonalizatie van een vierkante matrix . . . . . . . . . . . . . . . . . . . . . . . 82
5.3
De formule van Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
Euclidische ruimten
91
6.1
Inwendige produkten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.2
Orthonormale basissen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
6.3
Toegevoegde lineaire afbeeldingen . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.4
Orthogonale lineaire afbeeldingen . . . . . . . . . . . . . . . . . . . . . . . . . . 101
6.5
Volume en vectorieel produkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
Prehilbertruimten
110
7.1
Prehilbertruimten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
7.2
Hermitische en unitaire lineaire afbeeldingen . . . . . . . . . . . . . . . . . . . . 113
7.3
Diagonalizatie van hermitische en unitaire lineaire afbeeldingen . . . . . . . . . . 116
7.4
Banachruimten en Hilbertruimten . . . . . . . . . . . . . . . . . . . . . . . . . . 120
Isometrieën
122
8.1
Isometrieën . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
8.2
Classificatie van de isometrieën . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
Kwadratische vormen en kwadrieken
134
9.1
Bilineaire afbeeldingen en kwadratische vormen . . . . . . . . . . . . . . . . . . . 134
9.2
Toepassing: extreme waarden van scalaire functies . . . . . . . . . . . . . . . . . 141
9.3
Toegevoegde en singuliere punten . . . . . . . . . . . . . . . . . . . . . . . . . . 146
9.4
Kwadratische functies en kwadrieken . . . . . . . . . . . . . . . . . . . . . . . . 148
9.5
Affiene classificatie van de kwadrieken . . . . . . . . . . . . . . . . . . . . . . . . 160
9.6
Kwadrieken en rechten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
10 Inleiding tot de groepentheorie
171
10.1 Groepen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
10.2 Symmetriegroepen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
2
A Verzamelingen en functies
186
A.1 Het begrip verzameling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
A.2 Bewerkingen met verzamelingen . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
A.3 Functies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
A.4 Injecties, surjecties en bijecties . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
B De complexe getallen
194
3
Hoofdstuk 1
Vectorruimten
1.1
Reële en complexe vectorruimten
In het middelbaar onderwijs hebben we gezien dat een handige manier om vlakke meetkunde te
bedrijven de volgende is: we voeren een (eventueel rechthoekig) coördinatenstelsel in. Elk punt
van het vlak stemt dan overeen met een koppel reële getallen (x, y). Dit levert ons een manier
om met punten in het vlak te “rekenen”: ze worden weergegeven door getallen. Dit laat ons
toe om meetkundige begrippen te beschrijven op een algebraische manier. Zo wordt een rechte
bijvoorbeeld beschreven door een vergelijking van het type ax + by + c = 0.
Een concept dat hierin een centrale rol speelt is het concept vector: voor twee punten A en B in het
~ voor de “vector”die de punten A en B verbindt. Hierbij wordt per definitie de
vlak, noteren we AB
~ en CD
~ aan mekaar gelijk zijn als A, B, D en C de
overeenkomst gemaakt dat twee vectoren AB
hoekpunten van een parallellogram zijn. Indien we een punt O (de oorsprong genaamd) in het vlak
fixeren, dan is het gemakkelijk in te zien (dit volgt uit de axioma’s van Euclides) dat elke vector
~ op een unieke manier kan geschreven worden onder de vorm OP
~ voor een zeker punt P in het
AB
~ noteren.
vlak. Het is daarom dat we soms ~P = OP
Op deze manier krijgen we een één-éénduidige correspondentie tussen de punten van het vlak en de
~ = OP
~ stemt overeen
vectoren in het vlak, en daardoor met de koppels reële getallen: de vektor AB
met het punt P in het vlak, en dit komt overeen met de coördinaten (x, y) van P in R2 .
Een belangrijk hulpmiddel blijkt te zijn het feit dat we vectoren (en a fortiori ook koppels reële
getallen en punten in het vlak) met mekaar kunnen optellen. Dit gaat als volgt:
voor vectoren:
~ + BC
~ = AC;
~
AB
voor punten in het vlak:
~ = ~R
~P + Q
als O, P, R en Q de hoekpunten van een parallellogram zijn;
voor koppels reële getallen:
(x, y) + (x0 , y0 ) = (x + x0 , y + y0 )
4
Op analoge manier kan men vectoren (punten, koppels reële getallen) vermenigvuldigen met reële
getallen. Deze vermenigvuldiging wordt scalaire vermenigvuldiging genoemd. Voor koppels reële
getallen gaat dit als volgt:
α(x, y) = (αx, αy)
Deze optelling en vermenigvuldiging voldoen aan een aantal - voor de hand liggende eigenschappen. Laten we deze even opsommen, we identificeren onze vectoren (of punten) vanaf nu met
koppels reële getallen.
De verzameling der koppels reële getallen R2 vormt een commutatieve groep voor de optelling:
de optelling van koppels reële getallen is commutatief en associatief, (0, 0) is een neutraal element
voor de optelling, en elke tweetal (a, b) heeft een tegengestelde (−a, −b).
Verder geldt dat de scalaire vermenigvuldiging distributief is ten opzichte van de optelling:
α(~a +~b) = α~a + α~b
(α + β)~a = α~a + β~a
voor α, β ∈ R, ~a, ~b ∈ R2 . De vermenigvuldiging is gemengd associatief:
α(β~a) = (αβ)~a
voor α, β ∈ R, ~a ∈ R2 . Tenslotte is
1~a = ~a
voor alle ~a ∈ R2 .
Dezelfde redenering kunnen we volgen als we meetkunde in de ruimte bedrijven. Het enige verschil is dat we nu met drietallen in plaats van koppels reële getallen werken. Het ligt daarom voor
de hand om te onderstellen dat dit in nog andere situaties kan werken. Dit is inderdaad het geval,
zoals we in de volgende voorbeelden zullen zien. Daarom voeren we het volgende abstracte begrip
in : een vectorruimte is een verzameling V , uitgerust met een optelling en een vermenigvuldiging
met reële getallen, die voldoet aan de eigenschappen hierboven opgesomd. In sommige gevallen is
het nuttig om ook vectorruimten te bekijken waarop een vermenigvuldiging met complexe getallen gedefiniëerd is. Om de definitie geen twee keer te moeten schrijven noteren we daarom in het
vervolg K voor de reële of de complexe getallen : K = R of K = C. Bij een eerste lezing van deze
nota’s is het aanbevolen om enkel het geval K = R te beschouwen, en dus in gedachten overal K
door R te vervangen.
Definitie 1.1.1 Een verzameling V uitgerust met twee bewerkingen
+ : V ×V −→V
: K ×V −→V
is een vectorruimte (Eng. vector space, Fr. espace vectoriel) over K indien volgende eigenschappen gelden:
V is een commutatieve groep, d.w.z.
1. + is associatief:
(~a +~b) +~c = ~a + (~b +~c)
voor elke ~a,~b,~c ∈ V .
5
(1.1)
2. Er is een neutraal element ~0 :
~a +~0 = ~0 +~a = ~a
(1.2)
voor elke ~a ∈ V .
3. Elke element ~a ∈ V heeft een tegengestelde −~a:
~a + (−~a) = −~a +~a = ~0
(1.3)
~a +~b = ~b +~a
(1.4)
4. + is commutatief:
voor elke ~a,~b ∈ V .
De scalaire vermenigvuldiging K ×V −→V voldoet aan de volgende eigenschappen:
1. gemengde associativiteit:
(αβ)~a = α(β~a)
(1.5)
α(~a +~b) = α~a + α~b
(α + β)~a = α~a + β~a
(1.6)
(1.7)
1~a = ~a
(1.8)
voor elke α, β ∈ K en ~a ∈ V ;
2. distributiviteit:
voor elke α, β ∈ K en ~a,~b ∈ V ;
3. 1 is neutraal element:
voor elke ~a ∈ V .
Opmerkingen 1.1.2 1) Indien K = R, dan spreken we van een reële vectorruimte. Als K = C, dan
spreken we van een complexe vectorruimte. De elementen van V worden vectoren genoemd, en
meestal genoteerd door letters met een pijltje erboven; in sommige werken worden deze aangeduid
door een letter in vetjes gedrukt, of door een hoofdletter. De elementen van K worden scalairen
genoemd. Wij zullen deze meestal noteren door Griekse letters.
2) De aftrekking wordt gedefinieerd door volgende formule:
~a −~b = ~a + (−~b)
3) De volgende eigenschappen gelden in elke vectorruimte:
0~a
α~0
(α − β)~a
α~a = ~0
=
=
=
⇒
~0
~0
α~a − β~a
α = 0 of ~a = ~0
6
(1.9)
(1.10)
(1.11)
(1.12)
Bewijs deze zelf als oefening.
4) In feite hoeven we ons niet te beperken tot K = R of K = C. We kunnen voor K eender welk
lichaam nemen. Herhaal dat een (commutatief) lichaam (ook genaamd veld, Eng. field, Fr. corps)
bestaat uit een verzameling K uitgerust met een optelling + en een vermenigvuldiging . zodat
volgende eigenschappen gelden:
1. K is een commutatieve groep voor de optelling;
2. K \ {0} is een commutatieve groep voor de vermenigvuldiging;
3. . is distributief t.o.v. +.
Zo kan men bijvoorbeeld K = Q nemen. Een ander belangrijk voorbeeld is dat waar men voor
K een eindig lichaam neemt. Men kan bewijzen dat voor elk priemgetal p, en voor elk natuurlijk
getal n er juist een lichaam met pn elementen bestaat. Dit wordt genoteerd door F pn . Eindige
lichamen spelen een cruciale rol in de algebraische codetheorie.
5) Een vectorruimte is nooit leeg als verzameling, aangezien steeds ~0 ∈ V .
Voorbeelden 1.1.3 1) Rn is een reële vectorruimte. Optelling en vermenigvuldiging worden gegeven door:
(a1 , a2 , · · · , an ) + (b1 , b2 , · · · , bn ) = (a1 + b1 , a2 + b2 , · · · , an + bn )
α(a1 , a2 , · · · , an ) = (αa1 , αa2 , · · · , αan )
Voor n = 2 en n = 3 krijgen we opnieuw de voorbeelden die aanleiding gaven tot het invoeren van
vectorruimten. Als we n = 1 stellen, dan bekomen we dat R zelf een reële vectorruimte is.
2) Cn is een complexe vectorruimte. Definitie van optelling en vermenigvuldiging zijn dezelfde
als hierboven.
3) Neem een willekeurige verzameling A, en schrijf RA voor de verzameling van alle functies van
A naar R.
RA = { f : A → R| f is een functie}
RA is een vectorruimte, met volgende bewerkingen: voor f , g : A → R en α ∈ R definieren we
f + g en α f door
( f + g)(a) = f (a) + g(a)
(α f )(a) = α f (a)
voor elke a ∈ A. Op analoge manier is CA een complexe vectorruimte.
4) We noteren
R[X] = {P(X)|P is een veelterm met reële coëfficiënten}
voor de verzameling der reële veeltermen. R[X] is een reële vectorruimte. Schrijf zelf de definitie
van optelling en vermenigvuldiging op. Op dezelfde manier is C[X] een complexe vectorruimte.
7
5) Voor elke n ∈ N noteren we
Rn [X] = {P ∈ R[X]|gr(P) ≤ n}
voor de verzameling der veeltermen van graad ten hoogste n. Rn [X] is een vectorruimte.
6) {~0} is een vectorruimte.
7) Elke complexe vectorruimte is tevens een reële vectorruimte. Inderdaad, indien een scalaire
vermenigvuldiging met complexe getallen gedefinieerd is, dan is ook automatisch een scalaire
vermenigvuldiging met reële getallen gedefinieerd, en het is gemakkelijk te zien dat deze voldoet
aan de voorwaarden (1.5-1.8). Men noemt dit restrictie van scalairen.
1.2
Deelruimte en directe som van vectorruimten
We hebben hierboven gezien dat Rn [X] een vectorruimte is, en dat bovendien
Rn [X] ⊂ R[X]
De bewerkingen op Rn [X] zijn hier de restricties van de bewerkingen op R[X]. We zeggen dat
Rn [X] een deelruimte is van R[X].
Definitie 1.2.1 Onderstel dat V een vectorruimte is. Dan is een deelverzameling W ⊂ V een deelvectorruimte of deelruimte (Eng. subspace, Fr. sousespace) als W met de beperking van de som
en de scalaire vermenigvuldiging op V zelf een vectorruimte is.
In de hiernavolgende stelling zullen we een gemakkelijk criterium zien om na te gaan of een deel
W van V een deelruimte is. Vooraf herhalen we even de Σ-notatie voor een eindige som:
n
∑ ai = a1 + a2 + · · · + an
i=1
voor ai ∈ K of voor de ai vectoren in een vectorruimte V .
Stelling 1.2.2 Zij W een niet-lege deelverzameling van de vectorruimte V . Dan zijn de volgende
uitspraken equivalent:
1. W is een deelruimte van V ;
2. ∀~a,~b ∈ W, ∀α ∈ K : ~a +~b ∈ W en α~a ∈ W ;
3. ∀~a,~b ∈ W, ∀α, β ∈ K : α~a + β~b ∈ W ;
4. voor ~a1 , · · · ,~an ∈ W en α1 , · · · , αn ∈ K geldt dat ∑ni=1 αi~ai ∈ W .
8
Een uitdrukking van de vorm
n
∑ αi~ai = α1~a1 + · · · + αn~an
i=1
noemen we een lineaire combinatie van de vectoren ~a1 , · · · ,~an . Stelling 1.2.2 vertelt ons dus dat
een deelruimte niets anders is dan een deelverzameling die gesloten is onder het nemen van lineaire
combinaties.
Bewijs. 1) ⇒ 2) ⇔ 3) ⇔ 4) is triviaal.
2) ⇒ 1). Het volgt direct uit 2) dat W gesloten is onder het nemen van som en scalaire vermenigvuldiging. Het volstaat dus de voorwaarden (1.1-1.8) te controleren. (1.1,1.4, 1.5,1.6,1.7,1.8) zijn
automatisch voldaan, omdat deze gelden in V . Het volstaat dus om te controleren dat ~0 ∈ W en
dat −~a ∈ W indien ~a ∈ W . Voor (1.2) volstaat het een ~a ∈ W te nemen (W is bij onderstelling niet
leeg), en α = 0 te stellen. Voor (1.3) nemen we α = −1.
Voorbeelden 1.2.3 1) {~0} en V zijn steeds deelruimten van V . We noemen deze de triviale deelruimten.
2) C [a, b] = { f : [a, b] → R| f continu} is een deelruimte van de vectorruimte R[a,b] . Inderdaad,
een lineaire combinatie van continue functies is steeds continu.
3) Beschouw C als een reële vectorruimte. Dan is R een deelruimte van C.
4) Als W1 en W2 deelruimten zijn van V , dan is ook W1 ∩W2 een deelruimte van V . Inderdaad, als
W1 en W2 gesloten zijn onder het nemen van lineaire combinaties, dan is W1 ∩W2 het ook.
5) Neem weer twee deelruimten W1 en W2 van V . Per definitie stellen we de som W1 + W2 gelijk
aan
W1 +W2 = {~a +~b|~a ∈ W1 , ~b ∈ W2 }
Bewijs zelf met behulp van bovenstaande stelling dat W1 +W2 een nieuwe deelruimte van V is.
Voorbeeld 4) hierboven kan veralgemeend worden, tot de doorsnede van een willekeurig (eventueel
oneindig) aantal deelruimten. Herhaal eerst dat de doorsnede van een verzameling verzamelingen
{Ai |i ∈ I} geı̈ndexeerd door een indexverzameling I gegeven wordt door
∩{Ai |i ∈ I} = ∩i∈I Ai = {x|x ∈ Ai , ∀i ∈ I},
met andere woorden
x ∈ ∩i∈I Ai ⇔ x ∈ Ai , ∀i ∈ I.
Merk op dat dit impliceert dat voor elke j ∈ I:
∩i∈I Ai ⊂ A j
Stelling 1.2.4 Indien {Wi |i ∈ I} een verzameling deelruimten van een vectorruimte V is, dan is
W = ∩i∈IWi ook een deelruimte van V
Bewijs. We controleren voorwaarde 3) in stelling 1.2.2. Neem α, β ∈ K en ~a,~b ∈ ∩i∈IWi . Dan geldt
voor elke i ∈ I dat ~a,~b ∈ Wi , en dus vanwege voorwaarde 3) in stelling 1.2.2:
α~a + β~b ∈ Wi
9
Maar dan is
α~a + β~b ∈ ∩i∈IWi
en dus voldoet ∩i∈IWi aan voorwaarde 3).
Neem nu een deelverzameling A van V die zelf (niet noodzakelijk) een vectorruimte is, en bekijk
de verzameling
{W |W deelruimte van V en A ⊂ W }
van alle deelruimten van V die A bevatten. Deze verzameling is zeker niet leeg, want V zelf zit
erin. Uit stelling 1.2.4 volgt dat
X = ∩{W |W deelruimte van V en A ⊂ W }
een deelruimte is van V . Aangezien A zelf een deel is van alle W die A bevatten, geldt dat A ⊂ X.
Dus is X de (unieke) deelruimte van V met de volgende eigenschappen:
1. A ⊂ X;
2. Als A ⊂ W en W een deelruimte, dan is X ⊂ W .
Met andere woorden, X is de kleinste deelruimte van V die A bevat. We noemen X de vectorruimte
voortgebracht door A, en we noteren dit als
X = vct (A)
We zeggen ook dat de verzameling A de vectorruimte X voortbrengt. In de volgende stelling zullen
we een expliciete beschrijving van vct (A) geven.
Stelling 1.2.5 Onderstel dat 0/ 6= A ⊂ V . Dan is
n
vct (A) = { ∑ αi~ai |n ∈ N, αi ∈ K, ~ai ∈ A},
i=1
met andere woorden, vct (A) is de verzameling van alle lineaire combinaties van elementen van A.
Bewijs. Stel Y de verzameling van alle lineaire combinaties van elementen van A. Het volstaat aan
te tonen dat Y een deelruimte is en aan de twee hierboven vermelde voorwaarden voldoet:
1. A ⊂ Y ;
2. Als A ⊂ W en W een deelruimte, dan is Y ⊂ W .
het is duidelijk dat Y een deelruimte is, omdat een lineaire combinatie van lineaire combinaties
van elementen van A opnieuw een lineaire combinatie is van elementen van A is. Het is ook
duidelijk dat A ⊂ Y , omdat de elementen van A zelf - op triviale wijze - lineaire combinaties zijn
van elementen van A. Tenslotte, als W een deelruimte is van V die A bevat, dan bevat deze, vanwege
stelling 1.2.2 ook alle lineaire combinaties van A en dus Y .
10
We hebben hierboven gezien dat de doorsnede van twee deelruimten opnieuw een deelruimte is.
De lezer zal zich afvragen of dit ook geldt voor de unie van twee deelruimten. Dit is niet het geval.
Wel hebben we
Stelling 1.2.6 Indien W1 en W2 twee deelruimten van V zijn, dan geldt
vct (W1 ∪W2 ) = W1 +W2
waarbij W1 +W2 gedefiniëerd wordt zoals in voorbeeld 5 hierboven.
Bewijs. We hebben al gezien dat W1 +W2 een deelruimte is. Het volstaat dus om te bewijzen dat
1. W1 ∪W2 ⊂ W1 +W2 ;
2. Als W1 ∪W2 ⊂ W en W een deelruimte, dan is W1 +W2 ⊂ W .
De eerste voorwaarde is duidelijk. Voor voorwaarde 2) gaan we als volgt tewerk: Onderstel W een
deelruimte die W1 en W2 bevat. Vanwege voorwaarde 3) in stelling 1.2.2 geldt dan dat, voor elke
~a ∈ W1 ⊂ W , ~b ∈ W2 ⊂ W en α, β ∈ K dat
α~a + β~b ∈ W
en dus W1 +W2 ⊂ W .
Definitie 1.2.7 Beschouw twee deelruimten W1 en W2 van de vectorruimte V . We noemen de vectorruimte W de directe som als voldaan is aan de twee volgende voorwaarden:
1. W = W1 +W2 ;
2. W1 ∩W2 = {~0}.
We noteren dit als volgt : W = W1 ⊕W2 .
Stelling 1.2.8 W is de directe som van twee deelruimten W1 en W2 van de vectorruimte V als en
slechts als elke element van W op een unieke manier kan geschreven worden als een som van een
element van W1 en een element van W2 , m.a.w. als
∀~w ∈ W, ∃!~w1 ∈ W1 , ∃!~w2 ∈ W2 : ~w = w
~1 + w
~2
Bewijs. Onderstel eerst dat W = W1 ⊕W2 . We weten reeds dat elke vector in W de som is van een
vector in W1 en een in W2 . We moeten enkel bewijzen dat deze ontbinding uniek is. Onderstel dat
~w = ~w1 + ~w2 = ~w01 + ~w02
met ~w1 , ~w01 ∈ W1 en ~w2 , ~w02 ∈ W2 . Dan is
~w1 − ~w01 = ~w02 − ~w2 ∈ W1 ∩W2 = {~0}
11
zodat
~w1 − ~w01 = ~w2 − ~w02 = ~o
en dus
~w1 = ~w01
~w2 = ~w02
zodat de ontbinding inderdaad uniek is.
Omgekeerd, onderstel dat elke vector in W de unieke som is van een vector in W1 en een in W2 . Dan
is uiteraard W = W1 +W2 , zodat we enkel hoeven te bewijzen dat W1 ∩W2 = {~0}. Als ~w ∈ W1 ∩W2 ,
dan zijn
~w = ~w +~0
~w = ~0 + ~w
twee manieren om ~w als een som van elementen uit W1 en W2 te schrijven. Derhalve is, vanwege
de uniciteit, ~w = ~0.
Alvorens een eenvoudig voorbeeld te geven voeren we de volgende notatie in: voor ~a ∈ V noteren
we
K~a = {α~a|α ∈ K}
Voorbeeld 1.2.9
R2 = R(1, 0) ⊕ R(0, 1)
1.3
Lineaire onafhankelijkheid
Alvorens dit begrip formeel te definiëren keren we even terug naar de meetkunde in de ruimte.
Bekijk twee vectoren ~a en ~b. Er zijn twee mogelijkheden:
1) Het kan zijn dat ~a en ~b dezelfde richting hebben. In dit geval geldt
~a = α~b of ~b = β~a
(we moeten deze laatste mogelijkheid ook beschouwen, omdat het zou kunnen dat ~a = ~0). We
kunnen dit herschrijven als volgt:
α~a + β~b = ~0
met α 6= 0 of β 6= 0. We zeggen in dit geval dat ~a en ~b lineair afhankelijk zijn.
2)
α~a + β~b = ~0
is enkel mogelijk indien zowel α = 0 als β = 0. In dit geval zijn ~a en ~b geen evenwijdige vectoren,
en we zeggen dat ~a en ~b lineair onafhankelijk zijn.
Neem nu drie vectoren ~a,~b en ~c. Er zijn weer twee mogelijkheden:
1) Er bestaan α, β, γ ∈ R, niet alle drie nul, zodat
α~a + β~b + γ~c = ~0
12
In dit geval is een van de drie vectoren een lineaire combinatie van de twee anderen. Inderdaad,
als bijvoorbeeld α 6= 0, dan is
β
γ
~a = − ~b − ~c
α
α
en dus liggen de drie vectoren ~a,~b en ~c in eenzelfde vlak.
2) De enige mogelijkheid opdat
α~a + β~b + γ~c = ~0
is dat α = β = γ = 0. In dit geval is het dus onmogelijk om een van de drie vectoren als een lineaire
combinatie van de twee anderen te schrijven. De drie vectoren zijn dan niet coplanair.
Laten we deze beschouwingen nu veralgemenen.
Definitie 1.3.1 Onderstel dat V een vectorruimte, en dat ~a1 , · · · ,~an ∈ V . We noemen {~a1 , · · · ,~an }
lineair afhankelijk als er α1 , α2 , · · · , αn ∈ K bestaan, niet allen nul, zodat de lineaire combinatie
n
∑ αi~ai = ~0
i=1
de nulvector is.
We kunnen nu gemakkelijk bewijzen dat
Stelling 1.3.2 {~a1 , · · · ,~an } is lineair afhankelijk als en slechts als een van de vectoren ~a1 , · · · ,~an
een lineaire combinatie is van de overigen.
Bewijs. Indien
Dan is
~ai = α1~a1 + · · · + αi−1~ai−1 + αi+1~ai+1 + · · · + αn~an
α1~a1 + · · · + αi−1~ai−1 −~ai + αi+1~ai+1 + · · · + αn~an = ~0
met tenminste de i-de coëfficiënt verschillend van 0, en dus is {~a1 , · · · ,~an } lineair afhankelijk.
Omgekeerd, onderstel dat {~a1 , · · · ,~an } lineair afhankelijk is. Dan is
n
∑ αi~ai = ~0
i=1
met tenminste één van de coëfficënten, bijvoorbeeld α j 6= 0. Dan hebben we dat
~a j = −
α j−1
α j+1
αn
α1
~a1 + · · · + −
~a j−1 −
~a j−1 − · · · − ~an
αj
αj
αj
αj
een lineaire combinatie is van de overige vectoren.
(1.13)
Men kan de voorgaande stelling nog een beetje verfijnen als volgt:
Stelling 1.3.3 {~a1 , · · · ,~an } is lineair afhankelijk als en slechts als een van de vectoren ~a1 , · · · ,~an
een lineaire combinatie is van de voorgaanden.
13
Bewijs. Neem in het voorgaande bewijs de maximale index j waarvoor α j 6= 0 (eventueel j = n).
Dan wordt (1.13):
α j−1
α1
~a j = − ~a1 + · · · −
~a j−1
(1.14)
αj
αj
en dit is juist wat we hebben moeten.
Definitie 1.3.4 De verzameling {~a1 , · · · ,~an } wordt lineair onafhankelijk genoemd als ze niet lineair afhankelijk is, dus als een lineaire combinatie
n
∑ αi~ai = ~0
i=1
enkel nul kan zijn als alle coëfficiënten αi nul zijn.
Gevolg 1.3.5 De volgende eigenschappen zijn equivalent:
1. {~a1 , · · · ,~an } is lineair onafhankelijk;
2. geen enkel van de vectoren ~a1 , · · · ,~an is een lineaire combinatie van de overigen;
3. geen enkel van de vectoren ~a1 , · · · ,~an is een lineaire combinatie van de vorigen.
Bewijs. Dit volgt onmiddellijk uit de stelling 1.3.2 en 1.3.3, door contrapositie.
1.4
Basis en dimensie
Definitie 1.4.1 Beschouw een vectorruimte V en een eindig deel B = {~e1 ,~e2 , · · · ,~en }. B wordt een
basis genoemd indien
1. B een voortbrengend deel van V is: vct (B) = V ;
2. B lineair onafhankelijk is.
Stelling 1.4.2 B = {~e1 ,~e2 , · · · ,~en } ⊂ V is een basis van V als en slechts als elke vector ~v van V op
een unieke manier kan geschreven worden als een lineaire combinatie van de vectoren ~ei :
n
∀~v ∈ V, ∃! α1 , · · · , αn ∈ K : ~v = ∑ αi~ei
i=1
Bewijs. Onderstel eerst dat B een basis is. Omdat B de vectorruimte V voortbrengt, kunnen we
elke vector ~v als een lineaire combinatie van de ~ei schrijven. Onderstel nu dat
n
n
i=1
i=1
~v = ∑ αi~ei = ∑ α0i~ei
14
Dan is
n
∑ (αi − α0i)~ei = 0,
i=1
zodat
αi − α0i = 0
voor elke i, omdat B lineair onafhankelijk is. Dus αi = α0i , en de uniciteit is bewezen.
Omgekeerd, onderstel dat elke ~v ∈ V op een unieke manier een lineaire combinatie is van de
vectoren in B. Dan is B voortbrengend. Als
α1~e1 + · · · + αn~en = ~0
dan hebben we
α1~e1 + · · · + αn~en = 0~e1 + · · · + 0~en = ~0
en dus α1 = α2 = · · · = αn = 0, omdat we anders ~0 op meer dan een manier als een lineaire
combinatie van de vectoren in B kunnen schrijven. B is dus ook lineair onafhankelijk.
Voorbeeld 1.4.3 B = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} is een basis van R3 . Immers, voor elke (a, b, c) ∈
R3 hebben we
(a, b, c) = a(1, 0, 0) + b(0, 1, 0) + c(0, 0, 1)
zodat B voortbrengend is. Bovendien impliceert
a(1, 0, 0) + b(0, 1, 0) + c(0, 0, 1) = (0, 0, 0)
dat a = b = c = 0, zodat B lineair onafhankelijk. We noemen B de standaardbasis van R3 . Schrijf
zelf de standaardbasis voor Rn op.
Stelling 1.4.4 Onderstel dat een eindig deel A = {~a1 ,~a2 , · · · ,~am } de vectorruimte V voortbrengt.
Dan bestaat er een basis B van V die bevat is in A.
Bewijs. Indien A lineair onafhankelijk is, dan valt er niets te bewijzen. Indien A lineair afhankelijk
is, dan is een van de a~ j een lineaire combinatie van de overigen. Maar dan is duidelijk
vct (A \ {~a j }) = vct (A) = V
en dus is A \ {~a j } voortbrengend. Weer zijn er twee mogelijkheden: indien A \ {~a j } lineair onafhankelijk is, dan is het een basis en is de stelling bewezen. Anders kunnen we weer een vector
schrappen en zodoende een voortbrengende verzameling met m − 2 elementen bekomen. We zetten dit verder tot we een lineair onafhankelijk stel overhouden. Dit wordt bereikt na ten hoogste
m stappen, want als we m vectoren schrappen, dan behouden we een voortbrengende verzameling
/ en 0/ is dan een basis voor V . met 0 elementen (dus de lege verzameling). Dan is V = vct (0),
Een vectorruimte V die een eindig voortbrengend stel bezit (en dus een basis bezit) wordt eindigdimensionaal genoemd. Anders noemen we V oneindigdimensionaal. In het volgende voorbeeld
zullen we aantonen dat oneindigdimensionale vectorruimten wel degelijk bestaan. In deze cursus
bestuderen we voornamelijk eindigdimensionale vectorruimten.
15
Voorbeeld 1.4.5 R[X] is een oneindigdimensionale vectorruimte. Immers, onderstel dat
{P1 , P2 , · · · , Pn }
een eindig deel van R[X] is, en stel
r = max{gr(Pi )|i = 1, · · · , n}
Dan bevat
n
vct ({P1 , P2 , · · · , Pn }) = { ∑ αi Pi |αi ∈ R}
i=1
enkel veeltermen van graad ten hoogste r. Dus brengt {P1 , P2 , · · · , Pn } niet de volledige ruimte
R[X] voort.
Een vectorruimte die een basis heeft, heeft meer dan één basis (zelfs oneindig veel). Ons volgend
doel is te bewijzen dat alle basissen van eenzelfde vectorruimte hetzelfde aantal elementen hebben.
Hiervoor hebben we eerst een lemma nodig.
Lemma 1.4.6 Als B = {~e1 , · · · ,~en } een basis is voor V , en S = {~v1 , · · · ,~vr } een lineair onafhankelijke verzameling, dan is r ≤ n.
Bewijs. Stel S1 = {~v1 ,~e1 , · · · ,~en }. Omdat B een basis is, is~v1 een lineaire combinatie van de~ei ’s, en
dus is S1 een lineair afhankelijke verzameling. Maar dan is een van de vectoren in S1 een lineaire
combinatie van de vorigen, cf. stelling 1.3.3. Dit kan natuurlijk niet ~v1 zijn, en dus is het ~e j voor
een bepaalde index j. We schrappen deze ~e j , en noemen de nieuw bekomen verzameling B1 :
B1 = {~v1 ,~e1 , · · · ,~e j−1 ,~e j+1 , · · · ,~en }
Dan is vct (B1 ) = V . Bekijk nu
S2 = B1 ∪ {~v2 } = {~v1 , v~2 ,~e1 , · · · ,~e j−1 ,~e j+1 , · · · ,~en }
Dan is vct (S2 ) = V ; en S2 is lineair afhankelijk, omdat ~v2 een lineaire combinatie is van de overigen. Dus is een van de vectoren in S2 een lineaire combinatie van de vorigen. Dit kan niet ~v1 of ~v2
zijn, omdat {~v1 ,~v2 } lineair onafhankelijk is. Dus is het een van de overblijvende ~ei ’s. Schrap deze.
We bekomen dan een voortbrengende verzameling B2 bestaande uit ~v1 , ~v2 en n − 2 vectoren uit B.
Indien r > n, dan kunnen we dit procédé n keer herhalen. We krijgen dan dat
Bn = {~v1 ,~v2 , · · · ,~vn }
voortbrengend is. Maar dan is ~vn+1 een lineaire combinatie van ~v1 ,~v2 , · · · ,~vn , en dus is S lineair
afhankelijk. Dit is strijdig met de onderstelling, en dus moet r ≤ n.
Gevolg 1.4.7 Als B1 = {~e1 ,~e2 , · · · ,~en } en B2 = {~f1 , ~f2 , · · · , ~fm } twee basissen zijn van de vectorruimte V , dan is n = m. Alle basissen hebben dus hetzelfde aantal elementen.
Bewijs. B1 is lineair onafhankelijk en B2 is een basis, dus n ≤ m, door voorgaande stelling. Op
dezelfde manier is m ≤ n omdat B2 lineair onafhankelijk is en B1 een basis.
16
Definitie 1.4.8 De dimensie van een eindigdimensionale vectorruimte V is het aantal elementen n
in een basis van V . We noteren dit
dim (V ) = dim K (V ) = n
De index K wordt weggelaten indien er geen verwarring mogelijk is.
Voorbeelden 1.4.9 1) dim R (Rn ) = n. Inderdaad, de standaardbasis
{(1, 0, · · · , 0), (0, 1, · · · , 0), · · · , (0, 0, · · · , 1)}
bevat n elementen.
2) dim K (K) = 1. Inderdaad, {1} is een basis voor K.
3) dim R (C) = 2. Inderdaad, {1, i} is een basis van C over R. Wat is dim R (Cn )?
4) dim R (Rn [X]) = n + 1. Inderdaad, de verzameling
{1, X, X 2 , X 3 , · · · , X n }
is een basis (ga dit zelf na).
Gevolg 1.4.10 Onderstel dat dim (V ) = n. Als B een maximaal lineair onafhankelijk deel van V
is, dan is B een basis, en dan bevat B n elementen.
Bewijs. Onderstel B = {~b1 , · · · ,~bk }. Vanwege lemma 1.4.6 is k ≤ n. We moeten bewijzen dat B
voortbrengend is. Indien B niet voortbrengend is, dan bestaat er een vector ~v die geen lineaire
combinatie is van de vectoren in B. Dan is in
B0 = {~b1 , · · · ,~bk ,~v}
geen enkele vector een lineaire combinatie van de vorigen, en dus is B0 lineair onafhankelijk. Maar
dit is strijdig met het feit dat B een maximaal stel lineair onafhankelijke vectoren was. Derhalve
moet B voortbrengend zijn, en dus is B een basis, en dan is het aantal elementen in B juist n.
Gevolg 1.4.11 Als dim (V ) = n, en vct (B) = V , dan bevat B tenminste n vectoren.
Bewijs. Als B een voortbrengend stel voor V is, dan bevat B een basis voor V (cf. stelling 1.4.4),
en deze basis bestaat uit n elementen (gevolg 1.4.7). Dus bevat B tenminste n elementen.
Gevolg 1.4.12 Onderstel dim (V ) = n, en B ⊂ V bestaande uit m elementen.
m < n =⇒ B niet voortbrengend
m > n =⇒ B lineair afhankelijk
Bewijs. Door contrapositie uit gevolg 1.4.11 en lemma 1.4.6.
We zagen reeds dat elk voortbrengend stel vectoren van V kan beperkt worden tot een basis. In de
volgende stelling zullen we bewijzen dat elke lineair onafhankelijke verzameling kan aangevuld
worden tot een basis van V .
17
Stelling 1.4.13 Onderstel dat dim (V ) = n, en S = {~v1 , · · · ,~vm } ⊂ V lineair onafhankelijk. Dan
bestaat er een basis B van V die S bevat.
Bewijs. Neem een basis {~e1 , · · · ,~en } van V . Uit lemma 1.4.6 volgt dat m ≤ n. Bekijk nu
S1 = {~v1 , · · · ,~vm ,~e1 , · · · ,~en }
Dan is vct (S1 ) = V , en S1 kan beperkt worden tot een basis; de procedure hiervoor die geschetst
werd in het bewijs van stelling 1.4.4 is de volgende: men neemt de eerste vector in de rij die een
lineaire combinatie is van de vorige, en men laat deze weg. Dan neemt men uit de overblijvende
vectoren weer de eerste die een lineaire combinatie is van de vorigen, en men laat deze weer weg.
Aangezien S lineair onafhankelijk is, wordt bij geen enkele stap een van de vectoren~vi weggelaten.
Men bekomt dus uiteindelijk een basis B die S bevat.
Stelling 1.4.14 Onderstel dat dim (V ) = n, en dat B ⊂ V bestaat uit n elementen. Dan hebben we
1. B lineair onafhankelijk =⇒ B basis voor V ;
2. vct (B) = V =⇒ B basis voor V ;
met andere woorden, voor een stel van n vectoren volstaat het een van de twee voorwaarden uit de
definitie te controleren, om na te gaan of het stel een basis vormt.
Bewijs. Onderstel eerst dat B lineair onafhankelijk is. Indien B niet voortbrengend is, dan bestaat
een vector ~v die geen lineaire combinatie van de vectoren uit B is. Dan is B ∪ {~v} een lineair onafhankelijk stel van n + 1 elementen, en dit is strijdig met gevolg 1.4.12. Dus is B voortbrengend en
daardoor ook een basis.
Onderstel dat B voortbrengend is. Als B niet lineair onafhankelijk is, dan is een van de vectoren
van B een lineaire combinatie van de overige. Als we deze schrappen, dan houden we een voortbrengende verzameling met n − 1 elementen over. Dit is weerom strijdig met gevolg 1.4.12. Dus
B moet lineair onafhankelijk zijn, en dus is B een basis.
Voorbeeld 1.4.15 We werken in de vectorruimte V = R3 . Bekijk
B = {~a = (1, 2, 3),~b = (1, 0, 1),~c = (2, 3, 4)}
Aangezien dim (R3 ) = 3 volstaat het na te gaan dat B lineair onafhankelijk is, om te kunnen besluiten dat B een basis is.
Onderstel dat
α~a + β~b + γ~c = ~0
Dan geldt

 α + β + 2γ = 0
2α + 3γ = 0

3α + β + 4γ = 0
Dit lineair stelsel in α, β, γ heeft enkel α = β = γ = 0 als oplossing. Dus is B lineair onafhankelijk
en dus een basis.
18
Stelling 1.4.16 Onderstel V eindigdimensionaal en W een deelruimte van V . Dan is W ook eindigdimensionaal, en dim (W ) ≤ dim (V ). Als dim (W ) = dim (V ), dan is noodzakelijkerwijze V = W .
Bewijs. Onderstel dat dim (V ) = n. Als W oneindigdimensionaal, dan kan aan elk eindig stel lineair onafhankelijke vectoren in W steeds een vector toegevoegd worden, met behoud van lineaire
onafhankelijkheid. Inderdaad, anders is dit stel ook voortbrengend, en dan is het een basis. Op die
manier kunnen we dus een lineair onafhankelijk stel met een willekeurig groot aantal vectoren erin
construeren. Maar het is onmogelijk dat V , en dus ook W een lineair onafhankelijk stel van meer
dan n lineair onafhankelijke vectoren bevat. Dus is noodzakelijkerwijze W eindigdimensionaal.
Neem een basis voor W . De vectoren in die basis zijn lineair onafhankelijk in W en dus ook in V .
Hun aantal is dus maximaal n = dim (V ), en dus dim (W ) ≤ dim (V ).
Indien dim (W ) = dim (V ) = n, dan bevat een basis B van W n vectoren. Deze zijn lineair onafhankelijk, en vormen dus ook een basis voor V , vanwege stelling 1.4.13. Dus is W = vct (B) = V .
1.5
De eerste dimensiestelling
Onderstel dat W1 en W2 twee eindigdimensionale deelruimten zijn van een vectorruimte V . We
hebben gezien dat W1 ∩ W2 en W1 + W2 ook deelruimten zijn. We weten ook (stelling 1.4.16)
dat W1 ∩ W2 eindigdimensionaal is. De bedoeling van deze paragraaf is om aan te tonen dat ook
W1 +W2 eindigdimensionaal is, en een formule op te stellen die het verband geeft dus de dimensies
van W1 , W2 ,W1 ∩W2 en W1 +W2 . Eerst hebben we het volgende eenvoudig resultaat nodig:
Stelling 1.5.1 Onderstel dat W een eindigdimensionale vectorruimte is met basis B = {~e1 , · · · ,~en }.
Neem 1 ≤ k ≤ n, en stel
W1 = vct {~e1 , · · · ,~ek }
W2 = vct {~ek+1 , · · · ,~en }
Dan is W = W1 ⊕W2 .
Bewijs. Het is duidelijk dat W1 + W2 = vct {~e1 , · · · ,~en } = W . We moeten dus enkel aantonen dat
W1 ∩W2 = {~0}, en dit gaat als volgt : onderstel dat ~x ∈ W1 ∩W2 . Dan is
~x = α1~e1 + · · · + αk~ek = αk+1~ek+1 + · · · + αn~en
voor zekere coëfficiënten αi ∈ K. Dan is
α1~e1 + · · · + αk~ek − αk+1~ek+1 − · · · − αn~en = ~0
en dus zijn alle αi = 0, omdat de ~ei ’s lineair onafhankelijk zijn. Dus is ~x = ~0.
In de situatie van stelling 1.5.1 hebben we dat dim (W1 ) = k en dim (W2 ) = n − k. Dus geldt dat
dim (W1 ) + dim (W2 ) = dim (W ). In de volgende stelling zullen we zien dat deze formule altijd
geldt voor een directe som van vectorruimten.
19
Stelling 1.5.2 Onderstel dat W1 en W2 twee eindigdimensionale deelruimten van W zijn en dat
W1 ∩W2 = {~0}. Dan is
dim (W1 ⊕W2 ) = dim (W1 ) + dim (W2 )
Bewijs. Onderstel dat
B1 = {~e1 , · · · ,~en }
een basis is voor W1 , en dat
B2 = {~f1 , · · · , ~fm }
een basis is voor W2 . Dan is dim (W1 ) = n, dim (W2 ) = m. Het volstaat nu om aan te tonen dat
B1 ∪ B2 = {~e1 , · · · ,~en , ~f1 , · · · , ~fm }
een basis is voor W1 ⊕W2 . Het is duidelijk dat B1 ∪ B2 een voortbrengend stel is:
vct (B1 ∪ B2 ) = vct (B1 ) + vct (B2 ) = W1 +W2 = W1 ⊕W2
Bovendien is B1 ∪ B2 lineair onafhankelijk: indien
α1~e1 + · · · + αn~en + β1 ~f1 + · · · + βm ~fm = ~0
dan is
α1~e1 + · · · + αn~en = −β1 ~f1 − · · · − βm ~fm
gelegen in W1 ∩W2 . Dus is
α1~e1 + · · · + αn~en = −β1 ~f1 − · · · − βm ~fm = ~0
Omdat B1 en B2 lineair onafhankelijke verzamelingen zijn, moeten daarom alle coëfficiënten αi en
β j nul zijn. Dus is B1 ∪ B2 lineair onafhankelijk.
Stelling 1.5.3 (Eerste dimensiestelling)
Onderstel dat W1 en W2 twee eindigdimensionale deelruimten van een vectorruimte V zijn. Dan
geldt volgende formule:
dim (W1 ) + dim (W2 ) = dim (W1 +W2 ) + dim (W1 ∩W2 )
Bewijs. We hebben al opgemerkt dat W1 ∩W2 eindigdimensionaal is. Neem een basis
B = {~e1 , · · · ,~ek }
van W1 ∩W2 . Vul deze basis aan tot een basis
B0 = {~e1 , · · · ,~ek , ~f1 , · · · , ~fm }
van W1 (gebruik stelling 1.4.13). Stel nu
X = vct {~f1 , · · · , ~fm }
20
We weten dan uit stelling 1.5.1 dat
W1 = X ⊕ (W1 ∩W2 )
(1.15)
W1 +W2 = X ⊕W2
(1.16)
We beweren nu dat
Aangezien
W1 +W2 = X + (W1 ∩W2 ) +W2 = X +W2
(W1 ∩W2 ⊂ W2 ), volstaat het te bewijzen dat
X ∩W2 = {~0}
Dit gaat als volgt: neem ~x ∈ X ∩W2 . Dan is ~x ∈ X ⊂ W1 en ~x ⊂ W2 , zodat
~x ∈ W1 ∩W2
en
~x ∈ X ∩ (W1 ∩W2 ) = {~0}
Dit bewijst (1.16). We combineren nu alle gegevens, gebruik makende van stelling 1.5.2: (1.15)
vertelt ons dat
dim (W1 ) = dim (X) + dim (W1 ∩W2 )
en uit (1.16) volgt dat
dim (W1 +W2 ) = dim (X) + dim (W2 )
Eliminatie van dim (X) geeft onmiddellijk de gevraagde formule.
21
Hoofdstuk 2
Lineaire Afbeeldingen en Matrices
2.1
Lineaire afbeeldingen
Definitie 2.1.1 Neem twee vectorruimten V en W , en een functie f : V → W . We noemen f
een lineaire afbeelding of homomorfisme indien voldaan is aan een van de volgende equivalente
eigenschappen:
1. f (~a +~b) = f (~a) + f (~b) en f (α~a) = α f (~a), voor elke ~a,~b ∈ V en α ∈ K;
2. f (α~a + β~b) = α f (~a) + β f (~b), voor elke ~a,~b ∈ V en α, β ∈ K;
3. f (∑ni=1 αi~ai ) = ∑ni=1 αi f (~ai ) voor elke ~ai ∈ V, αi ∈ K.
Een lineaire afbeelding is dus een afbeelding die lineaire combinaties omzet in lineaire combinaties.
Voorbeelden 2.1.2 1) f : R3 → R2 gedefinieerd door
f (a, b, c) = (a, b)
2) f : R → R gedefinieerd door
f (x) = mx,
waarbij m een vast gegeven getal is. Elke lineaire afbeelding R → R is van deze vorm. Inderdaad,
onderstel f : R → R lineair. Dan is
f (x) = f (x.1) = f (1)x,
voor elke x ∈ R.
3) f : Rn [X] → Rn−1 [X] gedefinieerd door
f (P) = P0
22
4) f : R2 → R2 gedefinieerd door
f (x, y) = (cos(θ)x − sin(θ)y, sin(θ)x + cos(θ)y)
waarbij θ ∈ R gegeven is. Meetkundig gezien is f een rotatie over de hoek θ in het xy-vlak.
5) f : R[X] → R gedefinieerd door
Z b
f (P) =
P(x)dx
a
voor elke veelterm P, waarbij a, b ∈ R gegeven zijn.
6) Onderstel dat V een vectorruimte is, en noteer iV : V → V voor de identieke afbeelding. Deze
wordt gedefinieerd door iV (~v) =~v, voor elke ~v ∈ V . iV is steeds een lineaire afbeelding.
Stelling 2.1.3 Onderstel dat f : V → W lineair is. Dan is f (~0) = ~0.
Stelling 2.1.4 Onderstel dat f : V → W en g : W → X lineaire afbeeldingen zijn. Dan is g ◦ f :
V → X ook een lineaire afbeelding.
Stelling 2.1.5 Onderstel dat f , g : V → W lineaire afbeeldingen zijn, en dat α ∈ K. Dan zijn de
afbeeldingen f + g en α f , gedefinieerd door
( f + g)(~a) = f (~a) + g(~a) en (α f )(~a) = α f (~a)
voor elke ~a ∈ V ook lineaire afbeeldingen.
Bewijs. Bewijs zelf als oefening de drie bovenstaande stellingen.
Stelling 2.1.6 Onderstel dat V = V1 ⊕ V2 de directe som van twee vectorruimten is. Dan is de
afbeelding f : V → V1 gedefinieerd door
f (~v) =~v1
indien ~v =~v1 +~v2 , met ~v1 ∈ V1 en ~v2 ∈ V2 een lineaire afbeelding, die voldoet aan de eigenschap
f ◦ f = f.
We noemen f de projectie van V op V1 evenwijdig met V2 .
Bewijs. Voor ~v ∈ V is de ontbinding ~v =~v1 +~v2 , met ~v1 ∈ V1 en ~v2 ∈ V2 uniek, zodat de afbeelding
f welgedefinieerd is. f is lineair: als ~v =~v1 +~v2 en ~w = ~w1 + ~w2 , met ~v1 , ~w1 ∈ V1 en ~v2 , ~w2 ∈ V2 ,
dan is
~v + ~w = (~v1 + ~w1 ) + (~v2 + ~w2 ),
zodat
f (~v + ~w) =~v1 + ~w1 = f (~v) + f (~w)
Tenslotte is
f (α~v) = f (α~v1 + α~v2 ) = α~v1 = α f (~v)
23
2.2
Kern en beeld van een lineaire afbeelding
Definitie 2.2.1 Voor een lineaire afbeelding f : V → W tussen twee vectorruimten V en W noteren
we
Ker ( f ) = f −1 {~0} = {~x ∈ V | f (~x) = ~0}
Im ( f ) = f (V ) = { f (~x)|~x ∈ V }
(2.1)
(2.2)
We noemen Ker ( f ) de kern en Im ( f ) het beeld van de lineaire afbeelding f .
Stelling 2.2.2 Ker ( f ) is een deelruimte van V en Im ( f ) is een deelruimte van W .
Bewijs. Als ~a,~b ∈ Ker ( f ) en α, β ∈ K, dan is
f (α~a + β~b) = α f (~a) + β f (~b) = ~0
en hieruit volgt dat ook α~a + β~b ∈ Ker ( f ). Op analoge manier kunnen we aantonen dat een lineaire
combinatie van twee vectoren in het beeld van f nog steeds in het beeld van f ligt.
In de volgende stelling zullen we injectieve lineaire afbeeldingen karakteriseren aan de hand van
hun kern. Herhaal dat een afbeelding f : A → B tussen twee verzamelingen injectief genoemd
wordt als geldt dat geen twee verschillende elementen van A hetzelfde beeld kunnen hebben
∀a, a0 ∈ A : f (a) = f (a0 ) =⇒ a = a0
Stelling 2.2.3 Voor een lineaire afbeelding f : V → W zijn de volgende uitspraken equivalent:
1. f is injectief;
2. Ker ( f ) = {~0};
3. Het beeld onder f van een stel lineair onafhankelijke vectoren in V is lineair onafhankelijk
in W .
Bewijs. 1. ⇒ 2. is duidelijk, aangezien f (~x) = ~0 = f (~0) per definitie impliceert dat ~x = ~0.
2. ⇒ 1. Onderstel dat Ker ( f ) = {~0}. Als f (~a) = f (~b), dan is f (~a −~b) =~0, en dus ~a −~b ∈ Ker ( f ),
en ~a = ~b.
2. ⇒ 3. Onderstel dat {~a1 , · · · ,~an } lineair onafhankelijk is in V . Als nu
n
∑ αi f (~ai) = ~0
i=1
dan geldt, vanwege de lineariteit van f ;
n
f
∑ αi~ai
i=1
24
= ~0
zodat
n
∑ αi~ai = ~0
i=1
want Ker ( f ) = {~0}. Maar dan moet
α1 = · · · = αn = 0
omdat de ~ai lineair onafhankelijk zijn. Dus is { f (~a1 ), · · · , f (~an )} lineair onafhankelijk in W .
3. ⇒ 2. Onderstel dat het beeld van een lineair onafhankelijk stel vectoren in V lineair onafhankelijk is in W . Neem~a 6=~0. Dan is {~a} lineair onafhankelijk in V , en dus { f (~a)} lineair onafhankelijk
in W , en f (~a) 6= ~0. A fortiori Ker ( f ) = {~0}.
Een afbeelding f : A → B wordt surjectief genoemd indien elk element van B het beeld is van een
element uit A:
∀b ∈ B, ∃a ∈ A : f (a) = b
Voor surjectieve lineaire afbeeldingen hebben we een eigenschap die analoog is aan stelling 2.2.3:
Stelling 2.2.4 Voor een lineaire afbeelding f : V → W zijn de volgende uitspraken equivalent:
1. f is surjectief;
2. Im ( f ) = W ;
3. Als vct (A) = V , dan is vct ( f (A)) = W .
Bewijs. 1. ⇔ 2. is triviaal
2. ⇔ 3. volgt uit de volgende redenering: voor A ⊂ V geldt
n
vct ( f (A)) = { ∑ αi f (~ai )|αi ∈ K, ~ai ∈ A}
i=1
n
= {f
∑ αi~ai
|αi ∈ K, ~ai ∈ A}
i=1
= f (vct (A))
zodat f surjectief en vct (A) = V impliceren dat vct ( f (A)) = f (V ) = W . Omgekeerd, als vct (A) =
V impliceert dat vct ( f (A)) = W , dan volgt uit vct (V ) = V dat f (V ) = vct ( f (V )) = W .
Een afbeelding die tegelijkertijd injectief en surjectief is wordt bijectief genoemd. Men kan aantonen dat f : A → B een bijectie is als en slechts als er een afbeelding g : B → A bestaat zodanig dat
g ◦ f = iA en f ◦ g = iB . We noteren dan g = f −1 , en noemen g de inverse van f . Merk op dat voor
a ∈ A, b ∈ B geldt:
f −1 (b) = a ⇐⇒ f (a) = b
(2.3)
Definitie 2.2.5 Een bijectieve lineaire afbeelding noemen we ook een isomorfisme. Als er een
isomorfisme bestaat tussen twee vectorruimten V en W dan zeggen we dat deze twee vectorruimten
isomorf zijn, en we noteren dit door V ∼
= W.
25
Stelling 2.2.6 Als f : V → W een isomorfisme is, dan is het beeld van elke basis van V een basis
van W . Bijgevolg hebben (eindigdimensionale) isomorfe vectorruimten dezelfde dimensie.
Bewijs. Dit volgt onmiddellijk uit de twee voorgaande stellingen 2.2.3 en 2.2.4.
Stelling 2.2.7 Als f : V → W een isomorfisme, dan is ook de inverse afbeelding f −1 : W → V een
isomorfisme.
Bewijs. We hoeven enkel aan te tonen dat f −1 lineair is: voor elke α, β ∈ K en ~w1 , ~w2 ∈ W hebben
we
f −1 (α~w1 + β~w2 ) = f −1 α f ( f −1 (~w1 )) + β f ( f −1 (~w2 ))
= f −1 f α f −1 (~w1 ) + β f −1 (~w2 )
= α f −1 (~w1 ) + β f −1 (~w2 )
Stelling 2.2.8 Als f : V → W en g : W → X isomorfismen zijn, dan is ook g ◦ f : V → X een
isomorfisme.
Bewijs. Oefening
Stelling 2.2.9 Voor elke vectorruimte V is iV : V → V een isomorfisme.
Bewijs. Oefening
Merk op dat de drie voorgaande eigenschappen ons vertellen dat de relatie “isomorf metëen equivalentierelatie is.
Onderstel nu dat V een eindigdimensionale vectorruimte is, met basis
E = {~e1 ,~e2 , · · · ,~en }
We zullen vanaf nu impliciet aannemen dat de volgorde van de elementen van E vastligt - in principe was dit tot nu toe niet zo, aangezien E een verzameling is - en E een geordende basis noemen.
Bekijk nu de volgende afbeelding f : V → Rn . Voor elke ~v ∈ V bestaat er een uniek n-tal
(α1 , α2 , · · · , αn ) zodanig dat
n
~v = ∑ αi~ei
i=1
We stellen
f (~v) = (α1 , α2 , · · · , αn )
en noemen (α1 , α2 , · · · , αn ) de coördinaten van ~v ten opzichte van de geordende basis E. Om redenen die verderop duidelijk zullen worden noteren we de elementen van het n-tal (α1 , α2 , · · · , αn )
26
soms liever in een kolom:

α1

 
 α2 

(α1 , α2 , · · · , αn ) = 
 ... 
 
αn
We zullen ook volgende notatie gebruiken:

α1

 
 α2 

f (~v) = [~v]E = 
 ... 
 
αn
Stelling 2.2.10 Voor elke n-dimensionale vectorruimte V met geordende basis E geldt dat
[•]E : V −→K n : ~v 7→ [~v]E
een isomorfisme is.
Bewijs. Oefening
Stelling 2.2.10 heeft als belangrijk gevolg dat de eindigdimensionale vectorruimten op isomorfie
na door hun dimensie geklasseerd worden:
Gevolg 2.2.11 Als dim (V ) = dim (W ) = n, dan is
V∼
=W ∼
= Rn
We hebben gezien dat het bestaan van een isomorfisme f : V → W impliceert dat V en W dezelfde
dimensie hebben. Wat kunnen we zeggen als er een lineaire afbeelding f : V → W gegeven is. Het
antwoord wordt gegeven door de volgende stelling, ook bekend als de tweede dimensiestelling:
Stelling 2.2.12 (Tweede dimensiestelling) Onderstel dat V een eindigdimensionale vectorruimte
is, en f : V → W lineair. Dan is
dim (Ker ( f )) + dim (Im ( f )) = dim (V )
Bewijs. Omdat V eindigdimensionaal is weten we dat ook Ker ( f ) eindigdimensionaal is (cf. stelling 1.4.16). Neem een basis {~v1 , · · · ,~vk } van Ker ( f ), en vul deze aan tot een basis
{~v1 , · · · ,~vk ,~vk+1 , · · · ,~vn }
van V (stelling 1.4.13). Stel nu X = vct {~vk+1 , · · · ,~vn }, dan geldt vanwege stelling 1.5.1 dat
V = Ker ( f ) ⊕ X
27
Bekijk nu de beperking van de functie f tot X:
g = f|X : X → Im ( f )
We beweren dat g een isomorfisme is:
g is injectief: voor elke ~x ∈ X geldt:
g(~x) = ~0 =⇒ f (~x) = ~0
=⇒ ~x ∈ Ker ( f ) ∩ X = {~0}
en dus is Ker (g) = {~0}.
g is surjectief: neem ~y ∈ Im ( f ). Dan bestaat er een ~x ∈ V zodanig dat f (~x) = ~y. Als we zouden
weten dat ~x ∈ X, dan is het gestelde bewezen. In het algemeen is ~x ∈
/ X, maar wel hebben we dat
~x =~x1 +~x2 met ~x1 ∈ Ker ( f ) en ~x2 ∈ X. Hieruit volgt dat
~y = f (~x) = f (~x1 ) + f (~x2 ) = f (~x2 ) = g(~x2 )
aangezien ~x2 ∈ X. Dit toont aan dat g surjectief is.
Uit het bovenstaande volgt nu dat
dim (V ) = dim (Ker ( f )) + dim (X) = dim (Ker ( f )) + dim (Im ( f ))
en dit bewijst onze stelling.
Gevolg 2.2.13 Onderstel dat V en W vectorruimten zijn met dezelfde dimensie, en dat f : V → W
een lineaire afbeelding. Volgende eigenschappen zijn equivalent:
1. f is een isomorfisme;
2. f is injectief;
3. f is surjectief.
Bewijs. 1. ⇒ 2. en 1. ⇒ 3. zijn triviaal.
2. ⇒ 1. Als f injectief is, dan heeft Ker ( f ) = {~0} dimensie 0, en dan volgt uit voorgaande stelling
dat
dim (Im ( f )) = dim (V ) = dim (W )
en dus moet Im ( f ) = W , vanwege stelling 1.4.16. Dus f is surjectief, en daardoor een isomorfisme.
3. ⇒ 1. Als f surjectief is, dan is
dim (Im ( f )) = dim (W ) = dim (V )
en dus is dim (Ker ( f )) = 0 vanwege de vorige stelling. Maar dan is Ker ( f ) = {~0}, en dus is f ook
injectief, en daardoor een isomorfisme.
We beëindigen deze paragraaf met enige terminologie - die we verderop niet meer zullen gebruiken. Zoals reeds vermeld wordt een lineaire afbeelding ook een homomorfisme genoemd. Een
lineaire surjectie wordt ook epimorfisme genoemd, en een lineaire injectie een monomorfisme. Een
endomorfisme is een lineaire afbeelding van een vectorruimte naar zichzelf, en een automorfisme
een isomorfisme van een vectorruimte naar zichzelf.
28
2.3
De vectorruimte van de lineaire afbeeldingen
Onderstel dat V en W vectorruimten zijn. De verzameling van alle lineaire afbeeldingen van V
naar W zullen we noteren door
Hom K (V,W ) = { f ∈ W V | f is een lineaire afbeelding}
De index K wordt weggelaten indien er geen verwarring mogelijk is. Uit stelling 2.1.5 en stelling
1.2.2 volgt onmiddellijk dat
Stelling 2.3.1 Hom K (V,W ) is een deelruimte van W V .
In het vervolg zullen we een beschrijving geven van Hom K (V,W ) indien V en W eindigdimensionaal zijn.
Uit stelling 2.1.4 volgt dat de samenstelling van functies een afbeelding
◦ : Hom K (V,W ) × Hom K (W, X)−→Hom K (V, X)
definieert, voor elke drietal vectorruimten V, W en X. Indien V = W = X, dan krijgen we dus een
afbeelding
◦ : Hom K (V,V ) × Hom K (V,V )−→Hom K (V,V )
Hom K (V,V ) voldoet aan de volgende eigenschappen:
1. Hom K (V,V ) is een vectorruimte;
2. ◦ is associatief;
3. iV ◦ f = f ◦ iV = f , voor elke f ∈ Hom K (V,V );
4. ◦ is distributief ten opzichte van +:
f ◦ (g + h) = ( f ◦ g) + ( f ◦ h)
( f + g) ◦ h = ( f ◦ h) + (g ◦ h)
voor alle f , g, h ∈ Hom K (V,V )
We vatten deze eigenschappen samen door te zeggen dat Hom K (V,V ) een K-algebra is.
2.4
Matrices
De matrix van een lineaire afbeelding
Onderstel dat V en W vectorruimten zijn, en dat
E = {~e1 , · · · ,~en }
29
een basis voor V is. Neem nu een lineaire afbeelding f : V → W . We merken eerst op dat f
volledig bepaald is door het geven van de beelden van de n basisvectoren. Inderdaad, als we
f (~e1 ), · · · , f (~en )
kennen, dan kennen we voor elke ~v = ∑ni=1 xi~ei ook
n
f (~v) = ∑ xi f (~ei )
i=1
Onderstel nu bovendien dat W eindigdimensionaal is, met basis
F = {~f1 , · · · , ~fm }
Elk van de n vectoren f (~ei ) wordt gegeven door zijn m coördinaten ten opzichte van de basis F.
De lineaire afbeelding f is dus volledig bepaald als we de m coördinaten van de beelden van de
n basisvectoren van V kennen. We moeten dus in het totaal nm getallen kennen om de lineaire
afbeelding f volledig te bepalen. We noteren deze mn getallen in een tabel met m rijen en n
kolommen, waarbij we de volgende overeenkomst maken : in de i-de kolom van de tabel schrijven
we de m coördinaten van het beeld van de i-de basisvector ~ei . We noemen deze tabel de matrix van
de lineaire afbeelding f ten opzichte van de basissen E en F, en we noteren dit als volgt:


a11 a12 · · · a1i · · · a1n


 a21 a22 · · · a2i · · · a2n 

[ f ]E,F =  .
(2.4)
..
..
.. 
.
.
.
.
. 


am1
· · · ami
am2
· · · amn
Formule (2.4) betekent dus dat, voor i = 1, · · · , n:
f (~ei ) = a1i ~f1 + a2i ~f2 + · · · + ami ~fm
(2.5)
m
=
∑ a ji ~f j
j=1
n
en dus, voor ~v = ∑ xi~ei
i=1
n
f (~v) = ∑ xi f (~ei )
i=1
m
n
=
∑ xi ∑ a ji ~f j
i=1
m
=
j=1
n
∑ ∑ a jixi
~f j
(2.6)
j=1 i=1
De coördinaten van f (~v) zijn dus

a11 x1 + a12 x2 + · · · + a1n xn

 a21 x1 + a22 x2 + · · · + a2n xn

..

.

a11
a12
···
a1n
 
  a21
= .
  ..
 
a22
..
.
···
 
a2n   x2 
 . 
.. 


. 
 .. 
am1
am2
· · · amn


am1 x1 + am2 x2 + · · · + amn xn
30

x1
xn

(2.7)
Met andere woorden als we de coördinaten van ~v noteren door X, en de matrix [ f ]E,F van de
lineaire afbeelding f door A dan worden de coördinaten van f (~v) gegeven door AX.
We hebben de coördinaten van ~v hier geschreven als een kolom, die we ook als een matrix kunnen
beschouwen (een matrix met slechts één kolom). Als we overeenkomen dat we matrices door
hoofdletters zullen voorstellen, dan rechtvaardigt dit de notatie X voor de coördinaten van ~v.
Het product van de matrices A en X wordt dan per definitie gegeven door (2.7). Verderop zullen
we deze definitie veralgemenen.
De matrix


a11 a12 · · · a1n


 a21 a22 · · · a2n 

A= .
..
.. 
.
.
. 
 .

am1
· · · amn
am2
wordt een m × n-matrix genoemd (m rijen en n kolommen). Het is de gewoonte om als eerste index
de rijindex te nemen, en als tweede index de kolomindex. De verzameling van alle m × n matrices
wordt als volgt genoteerd:
Mmn (K) = {A|A is een m × n matrix}
De vermelding (K) wordt soms weggelaten, indien er geen verwarring mogelijk is. Een andere
veelgebruikte notatie hiervoor is K m×n .
Indien f en g twee lineaire afbeeldingen zijn, met matrices A en B, met elementen respectievelijk
ai j en bi j , dan is het gemakkelijk om aan te tonen dat de matrix van de lineaire afbeelding f + g
ai j + bi j als elementen heeft. Op dezelfde manier zien we dat de matrix van α f αai j als elementen
heeft. Vandaar de volgende definitie voor de som en de scalaire vermenigvuldiging van m × nmatrices:

 

a11 a12 · · · a1n
b11 b12 · · · b1n

 

 a21 a22 · · · a2n   b21 b22 · · · b2n 
 .
+
=
..
.. 
..
.. 
 ..
 .
.
. 
.
. 

  ..

am1
am2
· · · amn
bm1

a11

 a21
α
 ...

a12
am1
am2
a22
..
.
· · · bmn
a11 + b11
a12 + b12
···
a1n + b1n


 a21 + b21

..

.

a22 + b22
..
.
···
a2n + b2n
..
.






en
bm2
am1 + bm1 am2 + bm2 · · · amn + bmn
 

· · · a1n
αa11 αa12 · · · αa1n
 

· · · a2n   αa21 αa22 · · · αa2n 


..  =  ..
..
.. 
.   .
.
. 

αam1
· · · amn
Met deze notaties hebben we de volgende eigenschap:
31
αam2
· · · αamn
Stelling 2.4.1 Mm,n (K) is een vectorruimte, en de afbeelding
[•]E,F : Hom K (V,W )−→Mm,n (K)
is een isomorfisme. Bovendien geldt dat
dim (Mm,n (K)) = dim (Hom K (V,W )) = mn
Bewijs. Bewijs zelf als oefening dat Mm,n (K) een vectorruimte is. Hierboven toonden we reeds
aan dat [•]E,F lineair en bijectief is. Laten we tenslotte een basis zoeken voor Mm,n (K).
Neem voor Ei j de matrix die op plaats (i, j) een 1 staan heeft, en een 0 op alle andere plaatsen:

0
 ...


Ei j = rij i 0
 ..
.
0
kolom j
···
0
..
.
···
1
..
.
···
0

··· 0
.. 
.
··· 0

.. 
.
··· 0
Voor een matrix A = (ai j ) hebben we nu dat
m
A= ∑
n
∑ ai j Ei j
i=1 j=1
zodat {Ei j |i = 1, · · · , m, j = 1, · · · , n} Mm,n (K) voortbrengt. Het is gemakkelijk te bewijzen dat de
Ei j ook lineair onafhankelijk zijn.
Voorbeelden 2.4.2 1) Een lineaire afbeelding f : R → Rn is volledig gegeven door het beeld van
1 ∈ R, aangezien f (α) = α f (1), voor elke α ∈ R. Als f (1) = (a1 , a2 , · · · , an ), dan is de matrix van f
ten opzichte van de basissen {1} en de standaardbasis {(1, 0, · · · , 0), (0, 1, · · · , 0), · · · , (0, 0, · · · , 1)}
de kolomvector
 
a1
 
 a2 
 .  ∈ Mn1
 .. 
 
an
2) Onderstel dat E = {~e1 ,~e2 , · · · ,~en } een basis is van de vectorruimte V . De matrix van een lineaire
afbeelding
f : V −→R
ten opzichte van de basissen E en {1} wordt gegeven door de rijvector
( a1
a2
· · · an )
waarbij ai = f (~ei ).
32
3) Beschouw de vectorruimte R2 , en identificeer deze met het vlak door middel van een (orthonormaal) assenstelsel. Wat is de matrix van de rotatie f van het vlak rond de oorsprong over een hoek
θ? Met behulp van een tekening zien we gemakkelijk in dat
f (~e1 ) = cos(θ)~e1 + sin(θ)~e2
f (~e2 ) = − sin(θ)~e1 + cos(θ)~e2
2.5
Het product van matrices
Onderstel dat V, W en X vectorruimten zijn, en dat E = {~e1 ,~e2 , · · · ,~en }, F = {~f1 , ~f2 , · · · , ~fm } en G =
{~g1 ,~g2 , · · · ,~gr } basissen zijn voor respectievelijk V, W en X. Beschouw twee lineaire afbeeldingen
f : V → W en g : W → X.
Onderstel verder dat
a11
a12
···
a1n

 a21
=A=
 ...

a22
..
.
···

a2n 
.. 
. 

am1
am2
b11
b12

 b21
[g]F,G = B = 
 ...

b22
..
.
· · · amn

· · · b1m

· · · b2m 
.. 
. 


[ f ]E,F
en

br1 br2
Zoals we reeds gezien hebben is de samenstelling
···

brm
g ◦ f : V −→X
een nieuwe lineaire afbeelding. Wat is de matrix van deze nieuwe lineaire afbeelding, m.a.w, wat
is [g ◦ f ]E,G ?
Om deze vraag te beantwoorden moeten we de coördinaten kennen van de beelden van de basisvectoren van V . We weten dat (cf. (2.5))
m
f (~ei ) =
∑ a ji ~f j
j=1
en, analoog,
g(~f j ) =
r
∑ bk j~gk
k=1
waaruit volgt dat
m
(g ◦ f )(~ei ) =
=
r
∑ ∑ a jibk j~gk
j=1 k=1
r m
∑
∑ bk j a ji ~gk
k=1 j=1
33
Hiermee hebben we aangetoond dat [g ◦ f ]E,G de r × n matrix C is met componenten
m
cki =
∑ bk j a ji
j=1
voor k = 1, · · · , r, i = 1, · · · , n. Vandaar de volgende definitie:
Definitie 2.5.1 Onderstel dat B ∈ M(K)rm en A ∈ M(K)mn , met elementen bk j en a ji , zoals hierboven. Per definitie is het product BA van de matrices B en A de r × n matrix met elementen
m
cki =
∑ bk j a ji
j=1
voor k = 1, · · · , r, i = 1, · · · , n.
We hebben dan ook onmiddellijk de eigenschap
Stelling 2.5.2 Als V,W en X eindigdimensionale vectorruimten zijn met basissen respectievelijk
E, F en G, en f : V → W, g : W → X lineaire afbeeldingen zijn, dan geldt dat de matrix van de
samenstelling g ◦ f gegeven wordt door het product van de matrices van g en van f :
[g ◦ f ]E,G = [g]F,G [ f ]E,F
Gevolg 2.5.3 Het product van matrices is associatief
Bewijs. Twee mogelijke bewijzen zijn mogelijk: ofwel past men stelling 2.5.2 toe, en beroept men
zich op de associativiteit van de samenstelling van afbeeldingen, ofwel bewijst men de eigenschap
rechtstreeks uit de definitie.
Opmerkingen 2.5.4 1) Merk op dat enkel het product van een m × n en een n0 × r-matrix alleen
gedefinieerd is als n = n0 ;
2) Men kan definitie 2.5.1 ook als volgt bekijken: om het element met indices k en i van het product
van de matrices B en A te berekenen, neemt men de k-de rij van B, en men vermenigvuldigt deze
met de i-de kolom van A.
3) Indien B en A beiden n × n-matrices zijn, dan is zowel BA als AB gedefinieerd. Beide producten
zijn echter meestal niet gelijk, met andere woorden het product van matrices is niet commutatief.
Dit blijkt uit het volgende eenvoudige voorbeeld:
!
!
!
1 1
1 0
1 0
=
0 1
0 0
0 0
!
!
!
1 0
1 1
1 1
=
0 0
0 1
0 0
34
De eenheidsmatrix
Neem een n-dimensionale vectorruimte V met basis E, en bekijk de identiteit
iV : V → V
De matrix van deze afbeelding is
1
0
··· 0

0
In = 
 ...

1
..
.

··· 0
∈ Mnn
.. 
.

0
0
··· 1


In wordt de eenheidsmatrix genoemd, en voldoet aan:
In A = AIn = A
De inverse van een matrix
Onderstel dat g : V → V een lineaire afbeelding is, waarbij V een n-dimensionale vectorruimte
met basis E. Dan is A = [g]E,E ∈ Mnn (K).
Indien g een isomorfisme is, dan bestaat de inverse afbeelding g−1 : V → V . De matrix van g−1
noemen we per definitie de inverse van de matrix A. We noteren deze
A−1 = [g−1 ]E,E
Aangezien g ◦ g−1 = g−1 ◦ g = iV geldt:
AA−1 = A−1 A = In
voor elke matrix A die de matrix is van een isomorfisme.
Omgekeerd, als er een n × n-matrix B bestaat zodanig dat
AB = BA = In
dan is g een isomorfisme: neem voor h de lineaire afbeelding die B als matrix heeft, dan geldt:
g ◦ h = h ◦ g = iV
Definitie 2.5.5 Een n × n-matrix A wordt een reguliere matrix genoemd als deze de matrix is van
een isomorfisme, of, equivalent, indien deze matrix een inverse bezit voor de vermenigvuldiging
van matrices. Een matrix die niet regulier is wordt ook singulier genoemd.
Het is duidelijk dat niet elke matrix regulier is, aangezien niet elke lineaire afbeelding een isomorfisme is! We zullen in een volgend hoofdstuk verdere karakteriseringen zien van reguliere matrices,
en methoden om de inverse van een matrix te berekenen. Laten we alvast volgende eigenschappen
bewijzen.
35
Stelling 2.5.6 Als A, B ∈ Mnn (K) regulier zijn, dan is ook AB regulier. Verder is
(AB)−1 = B−1 A−1
Bewijs. ABB−1 A−1 = In en B−1 A−1 AB = In .
Stelling 2.5.7 Als A ∈ Mnn (K) regulier is, en B, C ∈ Mnm (K), dan geldt
AB = AC =⇒ B = C
Bewijs. Als AB = AC, dan is B = A−1 AB = A−1 AC = C.
Als A singulier is, dan is stelling 2.5.7 niet langer waar. Dit blijkt uit volgend voorbeeld:
!
!
!
1 0
1 1
1 1
=
1 0
a b
1 1
voor elke a, b ∈ K.
2.6
Verandering van basis
De overgangsmatrix
We beschouwen weer een n-dimensionale vectorruimte V . Onderstel nu dat twee verschillende
basissen E en E 0 van V gegeven zijn:
E = {~e1 , · · · ,~en }
E 0 = {~e1 0 , · · · ,~en 0 }
Wat is dan het verband tussen de coördinaten van een vector ~v in de twee coördinatenstelsels? Om
deze vraag te beantwoorden nemen we een van de basisvectoren ~e j 0 , en schrijven deze als een
lineaire combinatie van de ~ei :
n
~e j 0 = ∑ mi j~ei
i=1
of, equivalent:

m1 j



 m2 j 

[~e j ]E = 
 .. 
 . 
0
mn j
Neem ~v ∈ V , en onderstel

a1


a01

 
 0
 a2 
 a2 



[~v]E =  .  en [~v]E 0 = 
 .. 
.
.
 
 . 
a0n
an
36
Dan is
n
n
~v = ∑ ai~ei =
∑ a0j~e j 0
i=1
j=1
n
n
∑ ∑ mi j~ei
=
a0j
j=1
n
i=1
n
∑ ∑ mi j a0j ~ei
=
i=1 j=1
zodat
n
ai =
∑ mi j a0j
(2.8)
j=1
De matrix
m11
m12
· · · m1n

 m21
M=
 ...

m22
..
.

· · · m2n 
.. 
. 



mn1 mn2 · · · mnn
wordt de overgangsmatrix genoemd. Met deze notatie kunnen we (2.8) herformuleren:
[~v]E = M[~v]E 0
(2.9)
Op analoge manier kunnen we een matrix M 0 opstellen die toelaat om [~v]E 0 te berekenen als we
[~v]E kennen. We zullen aantonen dat M 0 de inverse is van de matrix M. We hebben
n
~ei =
∑ m0ki~ek 0
k=1
zodat
~e j 0 =
n
∑ mi j~ei
i=1
n
=
∑ mi j
i=1
n
=
n
∑ m0ki~ek 0
k=1
n
∑ ∑ m0kimi j ~ek 0
k=1 i=1
en
n
∑ m0kimi j = δk j
i=1
of
M 0 M = In
Op dezelfde manier kunnen we aantonen dat MM 0 = In . Hiermee hebben we volgende eigenschap
bewezen:
37
Stelling 2.6.1 Onderstel dat E en E 0 twee basissen zijn voor een eindigdimensionale vectorruimte
V , en dat de elementen mi j van de matrix M gegeven worden door de formule
n
~e j 0 = ∑ mi j~ei
i=1
Dan is M regulier en voor elke ~v ∈ V hebben we dat
[~v]E = M[~v]E 0 en [~v]E 0 = M −1 [~v]E
De overgangsformules voor de matrix van een lineaire afbeelding
We behouden de notaties van hierboven: V is een n-dimensionale vectorruimte met twee gegeven
basissen E en E 0 . Onderstel dat W een vectorruimte is met dimensie m, met basissen
F = {~f1 , · · · , ~fm }
F 0 = {~f10 , · · · , ~fm0 }
en dat f : V → W een lineaire afbeelding is. Wat is nu het verband tussen de matrices A = [ f ]E,F
en A0 = [ f ]E 0 ,F 0 ?
Onderstel dat N de m × m-matrix is met elementen nlk , waarbij
~fk 0 =
m
∑ nlk ~fl
l=1
Gebruik makend van stelling 2.6.1 vinden we, voor elke ~v ∈ V en ~w ∈ W
[~v]E = M[~v]E 0
[~w]F 0 = N −1 [~w]F
zodat
[ f (~v)]F 0 = N −1 [ f (~v)]F
= N −1 A[~v]E
= N −1 AM[~v]E 0
zodat
A0 = N −1 AM
Samengevat:
Stelling 2.6.2 Beschouw een lineaire afbeelding f : V → W , en basissen E en E 0 van V en F en
F 0 van W . Als de matrices M en N gegeven zijn door de formules
n
~e j 0 = ∑ mi j~ei en ~fk 0 =
i=1
m
∑ nlk ~fl
l=1
dan is
[ f ]E 0 ,F 0 = N −1 [ f ]E,F M
38
Opmerking 2.6.3 Omgekeerd, indien A de matrix is van een lineaire afbeelding, en M ∈ Mnn (K)
en N ∈ Mmm (K) reguliere matrices zijn, dan zijn de matrices A en N −1 AM de matrices van dezelfde
lineaire afbeelding, maar ten opzichte van verschillende basissen. Schrijf zelf op welke nieuwe
basissen E 0 en F 0 we moeten kiezen om N −1 AM als nieuwe matrix te krijgen.
Gevolg 2.6.4 Beschouw een lineaire afbeelding f : V → V , en basissen E en E 0 van V . Als de
matrix M gegeven wordt door de formule
n
~e j 0 = ∑ mi j~ei
i=1
dan is
[ f ]E 0 ,E 0 = M −1 [ f ]E,E M
Voorbeeld 2.6.5 Onderstel dat V = Rn en W = Rm , en dat E en F de standaardbasissen zijn van
Rn en Rm . Schrijf
E 0 = {E1 , · · · , En } en F 0 = {F1 , · · · , Fm }
waarbij de Ei en Fj kolomvectoren zijn. Dan is
M = ( E1
E2
· · · En ) en N = ( F1
F2
· · · Fm )
Als X ∈ Rn een kolomvector is, dan is
[X]E = X en [X]E 0 = M −1 X
Als
f : Rn → Rm : X 7→ AX
de afbeelding is die de kolomvector X afbeeldt op AX, dan is [ f ]E,F = A, en
[ f ]E 0 ,F 0 = N −1 AM
2.7
De rang van een matrix
Definitie 2.7.1 Neem een lineaire afbeelding f : V → W . De dimensie van het beeld Im ( f ) noemen we ook de rang van f :
rg ( f ) = dim K (Im ( f ))
De rang van de m × n-matrix A is de rang van de lineaire afbeelding
mA : K n −→K m : X 7→ AX
Voor een m × n-matrix A kunnen we de definitie als volgt herschrijven: noteer
A = ( A1
A2
39
· · · An )
waarbij

a1 j



 a2 j 

Aj = 
 .. 
.


am j
de j-de kolom van A is. Dan is
Im (mA ) = vct {A1 , A2 , · · · , An } ⊂ K m
en dus is
rg (A) = dim (vct {A1 , A2 , · · · , An })
het maximaal lineair onafhankelijke kolommen (in K m ) onder de kolommen van A:
Stelling 2.7.2 De rang van een matrix A is het maximaal aantal lineair onafhankelijke kolommen
van A.
Stelling 2.7.3 Onderstel dat f : V → W een lineaire afbeelding, en dat E, F basissen zijn voor
respectievelijk V en W . Als A = [ f ]E,F , dan is
rg (A) = rg ( f )
Bewijs. Onderstel dat dim (V ) = n, dim (W ) = m. Dan is A een m × n-matrix. Bekijk de coordinaatafbeelding
[•]E : V → K n
Voor elke ~v ∈ V geldt dat
[ f (~v)]F = A[~v]E = mA ([~v]E )
(2.10)
en dus beperkt [•]E zich tot een afbeelding
g : Ker ( f ) → Ker (mA )
g is injectief, omdat [•]E injectief is. g is ook surjectief: neem X ∈ Ker (mA ) ⊂ K n , en ~v ∈ V zodat
[~v]E = X. Uit (2.10) volgt dan dat
[ f (~v)]F = A[~v]E = AX = 0
en dus is f (~v) = ~0, en ~v ∈ Ker ( f ). Aangezien
g(~v) = [~v]E = X
volgt dat g surjectief is. Dus is g een isomorfisme, en
Ker ( f ) ∼
= Ker (mA )
Tenslotte is
rg (A) = dim (Im (mA )) = n − dim (Ker (mA ))
= n − dim (Ker ( f )) = dim (Im ( f )) = rg ( f )
40
Gevolg 2.7.4 Beschouw een m × n-matrix A, een reguliere n × n-matrix M, en een reguliere m × mmatrix N. Dan geldt
rg (N −1 AM) = rg (A)
Bewijs. Bekijk de lineaire afbeelding
mA : K n → K m
gegeven door mA (X) = AX. Per definitie is rg (A) = rg (mA ). Maar om rg (mA ) te berekenen mogen
we met gelijk welke basissen van K n en K m werken (door stelling 2.7.3). We nemen de volgende
basissen:
de basis E 0 van K m die bestaat uit de kolommen van N;
de basis F 0 van K n die bestaat uit de kolommen van M.
Vanwege stelling 2.6.2 is de matrix van mA tenopzichte van E 0 en F 0 :
[mA ]E 0 ,F 0 = N −1 AM
en dus is rg (mA ) = rg (N −1 AM), en de gewenste eigenschap volgt.
We willen nu aantonen dat de rang van een matrix A ook het maximaal aantal lineair onafhankelijke
rijen is. Daartoe voeren we eerst de getransponeerde van een matrix A in: dit is de matrix met
dezelfde elementen als A, maar met rijen en kolommen omgewisseld.
Definitie 2.7.5 De getransponeerde van de matrix

a11 a12 · · ·

 a21 a22 · · ·
A=
..
 ...
.

a1n


a2n 
∈ Mmn
.. 
. 

am2
· · · amn
a11
a21
· · · am1

 a12
A =
 ...

a22
..
.

· · · am2 
∈ Mnm
.. 
. 

a1n
a2n
· · · amn
am1
is de matrix

t

De volgende eigenschap zegt dat de getransponeerde van het product van twee matrices gelijk is
aan het product van de getransponeerden, in omgekeerde volgorde.
Stelling 2.7.6 Voor elke m × n-matrix A, en n × p-matrix B geldt:
(AB)t = Bt At
Bewijs. Het element op plaats (i, k) in de matrix AB is
n
∑ ai j b jk
j=1
41
en dit is tevens het element op plaats (k, i) in de matrix (AB)t . In de matrix Bt At vinden we op
plaats (k, i):
n
∑ b jk ai j
j=1
en de gewenste formule volgt.
Stelling 2.7.7 De rang van elke matrix A is gelijk aan die van zijn getransponeerde
rg (A) = rg (At )
Bijgevolg is de rang van A gelijk aan het maximaal aantal lineair onafhankelijke rijen van A.
Bewijs. We bekijken weer de lineaire afbeelding
mA : K n → K m
gegeven door linksvermenigvuldiging met A: mA (X) = AX. Onderstel dat rg (A) = rg (mA ) = k.
0 , . . . , E 0 } van Ker (m ), en vul deze aan tot
Dan is dim (Ker (mA )) = n − k. Neem een basis {Ek+1
A
n
0
0
0
n
een basis E = {E1 , . . . , En } van K . Stel X = vct {E10 , . . . , Ek0 }. In het bewijs van stelling 2.2.12
hebben we gezien dat
g = f|X : X−→Im (mA )
een isomorfisme is. Stel nu Fi0 = AEi0 , voor i = 1, . . . , k. Dan is {F10 , . . . , Fk0 } een basis voor Im (mA ),
en we kunnen deze aanvullen tot een basis {F10 , . . . , Fm0 } van K m .
De matrix van mA tenopzichte van de standaardbasissen van K n en K m is A; de matrix van mA
tenopzichte van de basissen E 0 en F 0 is
!
Ik
0k(n−k)
B=
0(m−k)k 0(m−k)(n−k)
waarbij we 0mn noteerden voor de m × n-matrix met enkel nul erin.
Door stelling 2.6.2 bestaan er reguliere matrices N en M zodat
B = N −1 AM
Aangezien
Bt = Mt At (N −1 )t
en
Bt =
Ik
0k(m−k)
0(n−k)k
0(n−k)(m−k)
!
vinden we, met behulp van de voorgaande stellingen, dat
rg (At ) = rg (Bt ) = k = rg (A)
42
Stelling 2.7.8 Onderstel dat A ∈ Mnn (K). Dan is A regulier als en slechts als rg (A) = n.
Bewijs. Beschouw de lineaire afbeelding f : K n → K n : X 7→ AX. Als A regulier is, dan is f een
isomorfisme, zodat Im ( f ) = K n en rg (A) = n.
Omgekeerd, als rg (A) = n, dan is f surjectief. Maar dan is f een isomorfisme, door gevolg 2.2.13,
en dan is A regulier.
Matrices in echelonvorm
In deze paragraaf zullen we zien hoe men in de praktijk de rang van een matrix (en dus van een
lineaire afbeelding) kan bepalen.
Definitie 2.7.9 We zeggen dat een m × n-matrix A in gereduceerde rij echelon vorm staat als voldaan is aan de volgende eigenschappen:
1. alle rijen van de matrix die volledig uit nullen bestaan staan onderaan in de matrix;
2. in elke andere rij is het eerste van nul verschillende element gelijk aan 1; we noemen dit
element het hoofdelement van de rij;
3. het hoofdelement op rij i + 1 staat rechts van het hoofdelement op rij i, voor elke i;
4. als een kolom het hoofdelement van een bepaalde rij bevat, dan bevat die kolom voor de rest
enkel nullen.
Een matrix die voldoet aan de voorwaarden 1, 2 en 3 (maar niet noodzakelijk 4) staat in rij echelon
vorm. Een matrix A staat in (gereduceerde) kolom echelon vorm als zijn getransponeerde At in
(gereduceerde) rij echelon vorm staat.
Voorbeelden 2.7.10 Volgende matrices staan in rij echelon vorm:


1 5 0 2 −2 4

1


0 1 0 3 4
8 



0


A =  0 0 0 1 7 −2  , B = 
0



0 0 0 0 0

0 

0
0 0 0 0 0
0
en de volgende matrices staan in gereduceerde rij echelon vorm:


1 0 0 0 −2 4

1


0 1 0 0 4
8 



0


C =  0 0 0 1 7 −2  , D = 
0



0 0 0 0 0

0 

0
0 0 0 0 0
0
43

2
3
4
1
2
0
1

3

3

0
0
1
0
0
0
1
0
0
1

0

0

0
0
1

Het grote voordeel van een matrix in echelon vorm is dat de rang ervan onmiddellijk kan bepaald
worden:
Stelling 2.7.11 De rang van een matrix in rij (kolom) echelon vorm is gelijk aan het aantal van
nul verschillende rijen (kolommen).
Bewijs. Noteer R1 , R2 , · · · , Rk voor de van nul verschillende rijen van een matrix A. Dan is rg (A) =
dim (vct {R1 , R2 , · · · , Rk }) ≤ k. Het volstaat dus om aan te tonen dat de k rijen lineair onafhankelijk
zijn. Onderstel dat ∑ki=1 αi Ri = 0. Schrijf
· · · ain )
Ri = ( ai1
dan hebben we dus dat, voor elke kolom j:
k
∑ αiai j = 0
(2.11)
i=1
Neem in (2.11) voor j de kolomindex van het hoofdelement van de eerste rij. Dan zijn alle andere
ai j in die kolom 0, zodat noodzakelijkerwijze α1 = 0.
We gaan verder per inductie: onderstel dat bewezen is dat α1 = · · · = α`−1 = 0. Neem nu in (2.11)
voor j de kolomindex van het hoofdelement van de rij R` . Dan volgt dat α` = 0.
Per inductie volgt dat alle α` = 0, en bijgevolg zijn de k rijen R1 , R2 , · · · , Rk lineair onafhankelijk.
Definitie 2.7.12 Beschouw een matrix A. Een elementaire rij (kolom) operatie op A is een operatie
van een van de volgende types:
• type I: verwisseling van twee rijen (kolommen);
• type II: vermenigvuldiging van een rij (kolom) met c 6= 0;
• type III: optelling van c maal i-de rij (kolom) bij de j-de rij (kolom), waarbij i 6= j.
Twee matrices A en B heten rijequivalent (kolomequivalent) als B uit A kan verkregen worden
door het toepassen van elementaire rij (kolom) operaties.
Stelling 2.7.13 Onderstel dat de matrix B met rijen S1 , · · · , Sn rijequivalent is met de matrix A met
rijen R1 , · · · , Rn . Dan is
vct {S1 , · · · , Sn } = vct {R1 , · · · , Rn }
en bijgevolg is
rg (A) = rg (B)
Een analoge eigenschap geldt voor kolomequivalente matrices.
Bewijs. We zien onmiddellijk dat de vectorruimte voortgebracht door de rijen van een matrix niet
verandert als we een elementaire rijoperatie toepassen.
44
Stelling 2.7.14 Elke matrix A is rijequivalent (kolomequivalent) met een matrix in rij (kolom)
echelon vorm.
Bewijs. Kijk naar de eerste kolom in A met een van nul verschillend element erin. Verwissel de
rij waar dit element in voorkomt met de eerste rij, en deel de nieuwe eerste rij door dit element.
We krijgen dus een nieuwe matrix B met de eerste j − 1 kolommen nul, en b1 j = 1. Trek van alle
andere rijen bi j maal de eerste rij af. We krijgen dan een nieuwe matrix C met de eerste j − 1
kolommen nul, c1 j = 1 en ci j = 0 voor i > 1.
Herhaal nu de bovenstaande procedure voor de matrix


c2, j+1 · · · c2,n
.. 
 ..
. 
 .
cm, j+1
· · · cm,n
We krijgen dan een nieuwe matrix D, rijequivalent met A, waarvoor de eerste j − 1 kolommen nul,
d1 j = d2k = 1, k > j, d pq = 0 voor p > 1 en j < q < k, di j = 0 voor i > 1 en dik = 0 voor i > 2.
Herhaal deze procedure tot er onderaan in de matrix enkel nog rijen met enkel 0 erin voorkomen.
De matrix staat dan in echelonvorm.
Met behulp van stelling 2.7.14 kunnen we dus de rang van een matrix bepalen, en ook de vectorruimte voortgebracht door een stel vectoren in een eindigdimensionale ruimte. We kunnen ons
resultaat nog een beetje verscherpen:
Stelling 2.7.15 Elke matrix A is rijequivalent (kolomequivalent) met een matrix in gereduceerde
rij (kolom) echelon vorm.
Bewijs. Pas zelf het algoritme uit het bewijs van stelling 2.7.14 aan zodat we een matrix in gereduceerde rij (kolom) echelon vorm krijgen.
Voorbeeld 2.7.16 We beschouwen de matrix

0 2

0 0
A=
2 2

2
0
3
−4
2
3
−5
2
−6
9
1


4

4

7
We zullen de matrix A in rijechelonvorm brengen, en hiervoor het algoritme uit het bewijs van
stelling 2.7.14 gebruiken. De eerste kolom is de eerste met een van nul verschillend element erin,
en dit staat op de derde rij. We verwisselen de eerste en de derde rij, en we krijgen de matrix


2 2 −5 2 4


0 0 2
3 4

B1 = 
 0 2 3 −4 1 


2
0
−6
45
9
7
Deel nu de eerste rij van B1 door b11 = 2:

1
1
− 25
1

0
B2 = 
0

0
2
3
2
3
2
0
−6
Tel nu −2 maal de eerste rij op bij de vierde rij:

1 1 − 52

0 0
2
B3 = 
0 2
3

0
−2
−1
2


4

−4 1 

9
1
7
2

3

4

−4 1 

7
3
Vervolgens verwisselen we de tweede en derde rij van B3 om een van nul verschillend element in
de positie (2, 2) te krijgen:


1 1 − 52 1 2


0 2
3 −4 1 

B4 = 
0 0
2
3 4


0
−2
−1
7
3
1
1
− 52
1
2

0
B5 = 
0

1
3
2
−2
0
2
3
4

−2
−1
7
3
Deel de tweede rij van B4 door 2:

0
Tel 2 maal de tweede rij op bij de vierde rij:

1 1

0 1
B6 = 
0 0

1
2

− 25
1
3
2
−2
2
3
4

2

1
2

0
0
2
3
4
1
1
− 25
1
2
3
2
−2
1
3
2
2

2
3
4
Deel nu de derde rij door 2:



0 1
B7 = 
0 0

0
0
46

1
2

Trek 2 maal de derde rij af van de vierde rij:

1 1

0 1
B7 = 
0 0

0
− 25
1
3
2
−2
1
3
2
2

0
0
0
0
2

1
2

De matrix B7 staat in rij echelon vorm, en is rijequivalent met A. We kunnen besluiten dat rg (A) =
rg (B7 ) = 3, en dat
{( 1
1
− 25
1
2),(0
1
3
2
−2
1
2 ),(0
0
1
3
2
een basis is voor de vectorruimte voortgebracht door de rijen van de matrix A.
47
2 )}
Hoofdstuk 3
Lineaire variëteiten en stelsels lineaire
vergelijkingen
3.1
Lineaire variëteiten
Beschouw de vectorruimte R3 , en onderstel dat W ⊂ R3 een deelruimte is. Er zijn dan vier mogelijkheden:
• dim (W ) = 0. Dan is W = {~0}.
• dim (W ) = 1. Dan is W = R~a, voor een van nul verschillende vector ~a, en W is dan een
rechte door de oorsprong.
• dim (W ) = 2. Dan is W = R~a + R~b, voor twee niet evenwijdige vectoren ~a en ~b, en W is een
vlak door de oorsprong.
• dim (W ) = 3. Dan is W = R3 .
De niet-triviale deelruimten van R3 zijn dus de rechten en vlakken door de oorsprong. Rechten en
vlakken die niet door ~0 gaan zijn uiteraard geen vectorruimten, maar we kunnen ze wel gemakkelijk beschrijven: neem een rechte W = R~a door de oorsprong. Voor elke vector ~b ∈ R3 is de
verzameling L = ~b + R~a de rechte door ~b en evenwijdig met ~a. Inderdaad, L is de verzameling
vectoren van de vorm
~v = ~b + α~a,
met α ∈ R. Dit is de vectorvergelijking van de rechte door ~b en evenwijdig met ~a.
Op dezelfde manier kunnen we elk vlak in R3 schrijven als de som~c +W , waarbij W een vlak door
de oorsprong is. Vandaar de volgende definitie:
Definitie 3.1.1 Onderstel dat V een vectorruimte is. Een lineaire variëteit L is een deelverzameling van V van de vorm
L = ~a +W
waarbij ~a ∈ V en W een deelruimte van V .
48
Laten we om te beginnen aantonen dat de deelruimte W uniek bepaald is door de lineaire variëteit
L.
Stelling 3.1.2 Neem ~a, ~a0 ∈ V , en W, W 0 deelruimten van V . Dan geldt
~a +W = ~a0 +W 0 ⇐⇒ W = W 0 en ~a0 −~a ∈ W
Bewijs. Merk eerst op dat voor elke deelruimte W van V en ~w ∈ W geldt dat (bewijs dit zelf)
~w +W = W
(3.1)
Onderstel nu dat ~a0 −~a ∈ W , en W = W 0 . Dan geldt dat
~a0 +W 0 = ~a + (~a0 −~a) +W = ~a +W
Onderstel omgekeerd dat ~a +W = ~a0 +W 0 . Dan is ~a = ~a +~0 ∈ ~a +W = ~a0 +W 0 , zodat ~a = ~a0 + ~w0 ,
met ~w0 ∈ W 0 , en dus is ~a0 −~a ∈ W 0 .
Op dezelfde manier geldt voor elke ~w ∈ W dat
~a + ~w ∈ ~a +W = ~a0 +W 0 ,
zodat ~a + ~w = ~a0 + ~w0 , met ~w0 ∈ W 0 , en dus
~w = (~a0 −~a) + ~w0 ∈ W 0
en dit impliceert dat W ⊂ W 0 . Op volledig analoge wijze bewijzen we dat W 0 ⊂ W , en dit bewijst
onze stelling.
Stelling 3.1.2 laat ons toe om de dimensie van een lineaire variëteit te definieren: het is de dimensie
van de bijhorende deelruimte W :
dim (~a +W ) = dim (W )
Een eendimensionale variëteit wordt gewoonlijk een rechte genoemd. Als dim (V ) = n, dan noemen we een n − 1-dimensionale variëteit een hypervlak.
De vectorvergelijking van een lineaire variëteit
Onderstel dat L een eindigdimensionale lineaire variëteit is, met bijhorende deelruimte W van V .
Voor elke ~a ∈ L geldt dat
L = ~a +W
(bewijs dit zelf). Neem een basis {~b1 ,~b2 , · · · ,~bk } van W . Dan wordt L beschreven door de vectoren
k
~v = ~a + ∑ αi~bi
i=1
49
(3.2)
waarbij α1 , · · · , αk ∈ R. We noemen (3.2) de vectorvergelijking van de lineaire variëteit L. Als
bijzonder geval kunnen we de vectorvergelijking van de rechte L door het punt ~a en met bijhorende
vectorruimte W = R~b opschrijven:
~v = ~a + α~b
(3.3)
Indien dim (V ) = n, en E = {~e1 , · · · ,~en } een basis is van V , dan kunnen we (3.3) herschrijven. Als
[~a]E = (a1 , a2 , · · · , an ), [~b]E = (b1 , b2 , · · · , bn ) en [~v]E = (x1 , x2 , · · · , xn ), dan wordt (3.3)


x1 = a1 + αb1


 x2 = a2 + αb2
(3.4)
..

.


 x = a + αb
n
n
n
Men noemt deze vergelijking de parametervergelijking van de rechte L. Stel zelf de parametervergelijking op van de rechte L die door twee gegeven punten ~a en ~b gaat.
Als we uit (3.4) de parameter α elimineren, dan krijgen we de vergelijking van de rechte L. Indien
alle bi 6= 0, dan wordt deze
x1 − a1 x2 − a2
xn − an
=
= ··· =
b1
b2
bn
(3.5)
Schrijf zelf de vergelijking op van L in het geval dat een of meer van de bi nul zijn.
De vergelijking van een hypervlak
Herinner dat de vergelijking van een vlak in de driedimensionale ruimte van de volgende vorm is:
ax + by + cz = d
We gaan dit nu veralgemenen voor hypervlakken in een n-dimensionale vectorruimte V .
Stelling 3.1.3 Onderstel dat f : V → W een lineaire afbeelding is, en dat ~b ∈ Im ( f ). Dan is
f −1 {~b} een lineaire variëteit in V .
Bewijs. Aangezien ~b in het beeld van f ligt weten we dat er een ~a ∈ V is zodat f (~a) =~b. We weten
ook (cf. stelling 2.2.2) dat ker( f ) = f −1 {~0} een deelruimte van V is. We beweren nu dat
f −1 {~b} = ~a + Ker ( f )
(3.6)
Onderstel ~x ∈ f −1 {~b}. Dan is f (~x) = ~b, en dus is f (~x −~a) = ~b −~b = ~0, zodat ~x −~a ∈ Ker ( f ), en
~x ∈ ~a + Ker ( f ).
Omgekeerd, indien ~x ∈ ~a + Ker ( f ), dan is ~x = ~a +~y, met f (~y) = ~0, zodat f (~x) = f (~a) = ~b en
~x ∈ f −1 {~b}.
Dit bewijst (3.6), en de stelling volgt.
We gaan nu het omgekeerde van stelling 3.1.3 bewijzen: elke lineaire variëteit kan geschreven
worden als het inverse beeld van een vector ~b onder een lineaire afbeelding f :
50
Stelling 3.1.4 Onderstel dat dim (V ) = n, en L ⊂ V een lineaire variëteit van dimensie n − k. Als
W een vectorruimte is van dimensie ten minste k, dan bestaat er een lineaire afbeelding f : V → W ,
en ~b ∈ W zodat L = f −1 {~b}.
Bewijs. Stel dat L = ~a + X, waarbij X een n − k-dimensionale deelruimte van V is met basis
{~ek+1 , · · · ,~en }. Vul deze basis aan tot een basis {~e1 , · · · ,~ek ,~ek+1 , · · · ,~en } van V (cf. stelling 1.4.13).
De dimensie van W is tenminste k, en W bevat een stel van k lineair onafhankelijke vectoren, noem
deze {~f1 , · · · , ~fk }.
We definiëren nu f : V → W door
~fi als i ≤ k;
f (~ei ) =
~0 als i > k.
Merk op dat Ker ( f ) = vct {~ek+1 , · · · ,~en } = X. Stel f (~a) = ~b. Dan geldt
f (~x) = ~b ⇐⇒ f (~x) −~b = f (~x −~a) = ~0
⇐⇒ ~x −~a ∈ Ker ( f ) = X
⇐⇒ ~x ∈ ~a + X = L
Hiermee hebben we aangetoond dat L = f −1 (~b).
Laten we dit toepassen om de vergelijking van een hypervlak op te stellen. Indien k = 1 in de
voorgaande stelling, dan kunnen we W = K nemen (W moet dimensie tenminste 1 hebben). Er
bestaat dus een f : V → K en b ∈ K zodat
f −1 (b) = L
of
L = {~v ∈ V | f (~v) = b}
met andere woorden, het hypervlak L bestaat uit de oplossingen van de vergelijking
f (~v) = b
(3.7)
Kies een basis E = {~e1 , · · · ,~en }. Onderstel dat de matrix van f ten opzichte van de basissen E en
{1} gegeven wordt door de rijvector
( a1
a2
· · · an )
Dan bestaat het hypervlak L uit de vectoren met coördinaten (x1 , x2 , · · · , xn ) die voldoen aan
a1 x1 + a2 x2 + · · · + an xn = b
(3.8)
We noemen (3.8) de vergelijking van het hypervlak L = f −1 {~b}.
Evenwijdige variëteiten
Definitie 3.1.5 Twee lineaire variëteiten L = ~a +W en L0 = ~a0 +W 0 in een vectorruimte V worden
evenwijdig genoemd als W ⊂ W 0 of W 0 ⊂ W .
51
Affiene afbeeldingen
Een afbeelding g : V → V wordt een affiene afbeelding genoemd als er een ~a ∈ V en een lineaire
afbeelding f : V → V bestaan zodat
g(~x) = ~a + f (~x)
Stelling 3.1.6 De samenstelling van twee affiene afbeeldingen is affien.
Bewijs. Oefening.
3.2
Stelsels lineaire vergelijkingen
Het stelsel vergelijkingen


a11 x1 + a12 x2 + · · · + a1n xn = b1


 a21 x1 + a22 x2 + · · · + a2n xn = b2
..

.


 a x +a x +···+a x = b
mn n
m
m1 1
m2 2
(3.9)
noemen we een stelsel van m lineaire vergelijkingen in n onbekenden x1 , x2 , · · · , xn . We kunnen dit
als volgt herschrijven:
n
∑ ai j x j = bi
j=1
voor i = 1, · · · , m. We voeren nu de volgende notaties in:


 
 
a11 a12 · · · a1n
b1
x1


 
 
 a21 a22 · · · a2n 
 b2 
 x2 

A=
, B=
, X =
.. 
..
.. 
 ...



 ... 
.
. 

 . 
 
am1
am2
· · · amn
bm
xn
Het stelsel (3.9) kan dus als volgt herschreven worden:
AX = B
(3.10)
De afbeelding f : K n → K m , f (X) = AX is lineair, en de verzameling oplossingen van (3.10) is
het invers beeld van B onder de afbeelding f :
Opl(AX = B) = f −1 {B}
Er zijn nu twee mogelijkheden. Ofwel is B ∈ Im ( f ), en dan heeft AX = B oplossingen, ofwel is
/
B 6∈ Im ( f ), en dan is Opl(AX = B) = 0.
Noteer A1 , A2 , · · · , An voor de kolommen van de matrix A. Het stelsel (3.10) kan dan herschreven
worden onder de volgende vorm:
x1 A1 + x2 A2 + · · · xn An = B
52
(3.11)
We zien nu dat
B ∈ Im ( f )
⇐⇒ (3.11) heeft tenminste 1 oplossing
⇐⇒ B ∈ vct {A1 , A2 , · · · , An } ⊂ K m
⇐⇒ vct {A1 , A2 , · · · , An , B} = vct {A1 , A2 , · · · , An }
⇐⇒ dim (vct {A1 , A2 , · · · , An , B}) = dim (vct {A1 , A2 , · · · , An })
⇐⇒ rg A1 , A2 , · · · , An , B = rg A1 , A2 , · · · , An
⇐⇒ rg (A) = rg (A, B)
waarbij we (A, B) noteren voor de m × (n + 1)-matrix met kolommen A1 , A2 , · · · , An , B.
Door contrapositie vinden we dat
B 6∈ Im ( f ) ⇐⇒ rg (A) 6= rg (A, B)
en in dit geval is noodzakelijkerwijze rg (A, B) = rg (A) + 1. Immers, als we aan de matrix A een
kolom toevoegen, dan kan het aantal lineair onafhankelijke kolommen van A met ten hoogste 1
verhogen.
Onderstel dat rg (A) = rg (A, B), en dat X0 een particuliere oplossing van het stelsel (3.10) is. Gebruik makende van stelling 3.1.3 vinden we dat Opl(AX = B) een lineaire variëteit is in K n , en dat
(cf. 3.6)
Opl(AX = B) = X0 + Ker ( f ) = X0 + Opl(AX = 0)
Het stelsel AX = 0 noemen we het homogeen stelsel geassocieerd aan het stelsel AX = B. De oplossing van het oorspronkelijk stelsel is dus de som van een particuliere oplossing en de algemene
oplossing van het geassocieerd homogeen stelsel. Gebruik makend van de tweede dimensiestelling
vinden we bovendien dat
dim (Opl(AX = B)) = dim (Ker ( f )) = n − dim (Im ( f )) = n − rg (A)
We vatten onze resultaten samen als volgt:
Stelling 3.2.1 Beschouw A ∈ Mmn (K), B ∈ K m , en het lineair stelsel AX = B. Dan geldt
AX = B heeft oplossingen ⇐⇒ rg (A) = rg (A, B)
AX = B heeft geen oplossingen ⇐⇒ rg (A) + 1 = rg (A, B)
Als rg (A) = rg (A, B) dan is Opl(AX = B) een lineaire variëteit in K n , met dimensie n − rg (A). Als
X0 een particuliere oplossing is, dan geldt bovendien
Opl(AX = B) = X0 + Opl(AX = 0)
Oplossen van stelsels lineaire vergelijkingen
Stelling 3.2.2 Beschouw twee lineaire stelsels AX = B en CX = D van m vergelijkingen in n onbekenden. Indien de matrices (A, B) en (C, D) rijequivalent zijn (cf. definitie 2.7.12). Dan is
Opl(AX = B) = Opl(CX = D)
53
Bewijs. Het volstaat om na te gaan dat het uitvoeren van elementaire rijoperaties op de matrix
(A, B) de oplossingsverzameling ongemoeid laten. Dit is duidelijk: een operatie van type I komt er
op neer twee vergelijkingen met elkaar te verwisselen; type II komt er op neer een van de vergelijkingen met c 6= 0 te vermenigvuldigen; type III komt er op neer om bij een van de vergelijkingen
c maal een van de anderen op te tellen. Als we een van deze drie operaties uitvoeren krijgen we
telkens een equivalent stelsel.
Uit stellingen 2.7.14, 3.2.1 en 3.2.2 volgt nu dat we een stelsel lineaire vergelijkingen als volgt
kunnen oplossen:
Algoritme 3.2.3 (Gauss eliminatie) Neem een lineair stelsel AX = B. Dit kunnen we als volgt
oplossen.
1. Gebruik het algorimte uit het bewijs van stelling 2.7.14 om de matrix (A, B) in rij echelonvorm te brengen. Noem de nieuwe matrix (C, D).
2. Men vergelijkt de rangen van de matrices C en (C, D). Hiervoor volstaat het het aantal van
nul verschillende rijen te vergelijken. Er zijn twee mogelijkheden:
• rg (C) = rg (C, D) − 1. Dan heeft het stelsel geen oplossingen.
• rg (C) = rg (C, D). Men lost het stelsel CX = D op door te vertrekken vanaf de onderste
vergelijking.
Voorbeeld 3.2.4 We lossen het stelsel

 x + 2y + 2z + 3t = 13
x − 2y + z + t
= 8

3x + y + z − t
= −1
op met behulp van Gauss eliminatie. Eerst brengen we de matrix


.
1 2 2 3 .. 13
.


(A, B) =  1 −2 1 1 .. 8 
.
3 1 1 −1 .. −1
in rij echelon vorm. We krijgen achtereenvolgens de volgende matrices:

1
2
2
3

0
−4
−1
−2
0
−5
−5
−10

1
2
2
3

0
1
1/4
1/2
0
0
3/4
3/2
..
.
..
.
..
.
..
.
..
.
..
.

13


−5 
1
2
2

0
1
1/4
0
1
1
−40
13



5/4 
27/4
54
..
.
.
1/2 ..
..
2
.
3
1
2
2
3

0
1
1/4
1/2
0
0
1
2
..
.
..
.
..
.
13


5/4 
8
13


5/4 
9
Ons stelsel is dus equivalent met het stelsel

 x + 2y + 2z + 3t = 13
y + z/4 + t/2 = 5/4

z + 2t = 9
We lossen dit stelsel op van onder naar boven:
z = 9 − 2t
y = 5/4 − z/4 − t/2
1
(5 − 9 + 2t − 2t) = −1
=
4
x = 13 − 2y − 2z − 3t
= 13 + 2 − 18 + 4t − 3t
= −3 + t
We kunnen dus besluiten dat
Opl(AX = B) = {(−3 + t, −1, 9 − 2t,t)|t ∈ K}
Dit is een lineaire variëteit van dimensie 1. De rang van de matrix A is drie.
Een variante van algorimte 3.2.3 bestaat erin om de matrix (A, B) in gereduceerde rij echelon vorm
te brengen. Dit heeft het voordeel dat de oplossingen onmiddellijk af te lezen zijn uit het nieuwe
stelsel CX = D. Een nadeel is echter dat het meer berekeningen vergt om tot de gereduceerde rij
echelon matrix (C, D) te komen. Men noemt deze methode de Gauss-Jordan eliminatie methode.
Voorbeeld 3.2.5 We hernemen het bovenstaande voorbeeld, en passen de Gauss-Jordan eliminatie
methode toe. We krijgen nu achtereenvolgens de volgende matrices:




.
..
1 2 2 3 .. 13
1 2
2
3
. 13
.
.




 1 −2 1 1 .. 8 
 0 −4 −1 −2 .. −5 
.
.
3 1 1 −1 .. −1
0 −5 −5 −10 .. −40


.
..


1 0 3/2
2 .. 21/2
1 2
2
3
. 13


.


 0 1 1/4 1/2 ... 5/4 
 0 1 1/4 1/2 .. 5/4 


..
..
0 1
1
2
. 8
0 0 3/4 3/2 . 27/4


..


.
1 0 3/2
2
. 21/2
1 0 0 −1 .. −3


.


 0 1 1/4 1/2 ... 5/4 
 0 1 0 0 .. −1 


.
..
0 0 1 2 .. 9
0 0
1
2
.
9
Ons stelsel is dus equivalent met het stelsel

 x − t = −3
y = −1

z + 2t = 9
waaruit de oplossing volgt.
55
Beide methoden werken perfect indien het aantal vergelijkingen en onbekenden niet te groot is.
Ze kunnen ook gemakkelijk in een computerprogramma geı̈mplementeerd worden. Indien we een
stelsel met een groot aantal vergelijkingen en onbekenden hebben (bijvoorbeeld een 1000 bij 1000
stelsel, dit komt in de praktijk voor), dan kunnen allerlei numerieke moeilijkheden optreden. Er
bestaan dan allerlei varianten op de Gauss eliminatie methode die deze moeilijkheden trachten te
omzeilen. We zullen enkele hiervan bespreken in de cursus numerieke algoritmen.
In vele gevallen kan men iteratieve methoden gebruiken om de oplossing van een lineair stelsel te
bepalen: men construeert een rij vectoren die naar de oplossing convergeert. We verwijzen hier
eveneens naar de cursus numerieke algoritmen.
Bepalen van de inverse van een matrix
Neem een vierkante matrix A ∈ Mnn (K), en onderstel dat rg (A) = n. Dan zet de lineaire afbeelding
f : K n → K n gegeven door linksvermenigvuldiging met de matrix A een basis van K n om in
een basis van K n , en dus is f een isomorfisme, en A een reguliere matrix. Als we de GaussJordan eliminatie methode toepassen op het stelsel AX = B, dan krijgen we dat de matrix (A, B)
rijequivalent is met de matrix (In , X0 ), waarbij In de eenheidsmatrix is, en X0 de (unieke) oplossing
van het stelsel. Dit is natuurlijk een interessante opmerking op zichzelf, maar ze kan ook gebruikt
worden om de inverse van de matrix A te bepalen.
Hiervoor maken we eerst volgende opmerkingen: om de inverse van de matrix A te bepalen volstaat
het om het stelsel
AX = Ei
met Ei = (0, · · · , 1, · · · , 0) op te lossen voor i = 1, · · · , n. Als Xi de oplossing is van dit stelsel, dan is
A−1 = ( X1
X2
· · · Xn )
Twee stelsels AX = B en AX = C kunnen we gelijktijdig oplossen door de matrix (A, B,C) in gereduceerde rij echelon vorm te brengen.
Indien we de matrix (A, In ) in gereduceerde rij echelon vorm brengen, dan krijgen we dus noodzakelijkerwijs de matrix (In , A−1 ). We vatten dit samen als volgt:
Algoritme 3.2.6 Onderstel dat A ∈ Mnn (K) een reguliere matrix is. Dan is de gereduceerde rij
echelon vorm van de matrix (A, In ) de matrix (In , A−1 ).
Voorbeeld 3.2.7 Neem de matrix


1
1
1

A = 0
2

3
5
5
1
We brengen de matrix

1
1
1

(A, I3 ) =  0
2
3
5
5
1
56
..
.
..
.
..
.

1
0
0
0
1

0
0
0
1
in gereduceerde rij echelon vorm. We krijgen achtereenvolgens de volgende matrices:


.
1 1 1 .. 1 0 0
.


 0 2 3 .. 0 1 0 
.
5 5 1 .. 0 0 1
Trek van de derde rij 5 maal de eerste rij af:

1 1 1

0 2 3
0
..
.
..
.
..
.
−4
0
0
0
0
1

0
−5
0
1
Deel de tweede rij door 2, en de derde door −4:
..

1 1 1
.
1
0
..

0
1/2
 0 1 3/2 .
..
0 0 1
. 5/4
0
Trek de tweede rij af van de eerste rij:

1 0 −1/2

 0 1 3/2

0 0
1
..
.
..
.
..
.

1

0

0 
−1/4
1
−1/2
0
1/2
5/4
0
0


0 

−1/4
Tel bij de tweede rij −3/2 maal de derde rij op:


.
1 0 −1/2 ..
1
−1/2
0


..
0 1

0
.
−15/8
1/2
3/8


..
0 0
1
.
5/4
0
−1/4
Tel de helft van de derde rij op bij de eerste rij:


.
1 0 0 .. 13/8 −1/2 −1/8


 0 1 0 ... −15/8 1/2

3/8


..
0 0 1 .
5/4
0
−1/4
We kunnen besluiten dat

−1/2
13/8

A−1 =  −15/8
5/4
1/2
0
Verifieer zelf dat AA−1 = A−1 A = I3 .
57
−1/8


3/8 
−1/4
Hoofdstuk 4
Determinanten
4.1
Permutaties
Neem een verzameling A. Een permutatie van A is een bijectie van A naar zichzelf. We noteren
S(A) voor de verzameling van alle permutaties van A.
Stelling 4.1.1 Voor elke verzameling A is S(A), ◦ een groep. Deze groep wordt de symmetrische
groep van de verzameling A genoemd.
In het vervolg zijn we vooral geı̈nteresseerd in het geval waarin we voor A een eindige verzameling
nemen. We kunnen dan voor A evengoed de verzameling {1, 2, · · · , n} nemen, en daarom noteren
we Sn = S({1, 2, · · · , n}).
Stelling 4.1.2 Onderstel dat A een eindige verzameling is, en dat #(A) = n. Dan is #(S(A)) = n!.
Bewijs. Oefening.
We kunnen een permutatie σ van A = {a1 , a2 , · · · , an } opschrijven als volgt:
σ = {(a1 , σ(a1 )), (a2 , σ(a2 )), · · · , (an , σ(an ))}
Een iets meer overzichtelijke notatie is de volgende:
"
#
a1
a2
···
an
σ=
σ(a1 ) σ(a2 ) · · · σ(an )
Voorbeeld 4.1.3 Neem A = {1, 2, 3, 4, 5, 6, 7, 8} en bekijk volgende permutatie:
"
#
1 2 3 4 5 6 7 8
σ=
3 4 5 6 7 2 1 8
σ kan voorgesteld worden met behulp van een Venn-diagram (zie Figuur 4.1). We noemen [1, 3, 5, 7],
58
1
3
7
5
2
4
6
8
Figuur 4.1: Een permutatie van {1, 2, · · · , 8}
[2, 4, 6] en [8] de banen van σ. We zullen daarom ook schrijven:
σ = [1, 3, 5, 7][2, 4, 6][8]
(4.1)
Merk op dat het niet belangrijk is in welke volgorde we de banen opschrijven. Het heeft ook geen
belang met welk element van een baan we beginnen: de baan [1, 3, 5, 7] kunnen we ook opschrijven
als [3, 5, 7, 1] of [5, 7, 1, 3] of [7, 1, 3, 5] De banen van lengte 1 (deze corresponderen met de lussen
in de permutatie) laten we soms weg:
σ = [1, 3, 5, 7][2, 4, 6]
Zo stelt bijvoorbeeld [2, 4, 6] de volgende permutatie voor:
"
1 2 3 4 5 6 7
1
4
3
6
5
2
7
8
8
#
,
of de permutatie [2, 4, 6][1][3][5][7][8]. Er is dus een dubbelzinnigheid in onze notaties: [2, 4, 6] stelt
zowel een baan voor als een volledige permutatie; dit leidt in het algemeen niet tot verwarring. Dit
laat ons tevens toe om (4.1) als volgt te herschrijven:
σ = [1, 3, 5, 7] ◦ [2, 4, 6]
Laten we dit voorbeeld veralgemenen. Eerst bewijzen we het volgende lemma:
Lemma 4.1.4 Onderstel dat A een eindige verzameling is. Dan geldt:
∀σ ∈ S(A), ∀a ∈ A, ∃m ≥ 1 : σm (a) = a
Bewijs. Bekijk de rij (a, σ(a), σ2 (a), σ3 (a), · · ·). Aangezien A eindig is bestaan m en n zodanig
dat σn (a) = σm (a). Onderstel dat m > n, en pas σ−1 n maal toe op beide leden. Dan volgt dat
a = σm−n (a).
59
Neem een permutatie σ van een eindige verzameling A. Neem a ∈ A, en neem m ≥ 1 minimaal
zodat σm (a) = a. Als we de permutatie σ op a laten werken, dan krijgen we achtereenvolgens de
waarden a, σ(a), σ2 (a), · · · , σm−1 (a). We noemen
[a, σ(a), σ2 (a), · · · , σm−1 (a)]
de baan van a onder de permutatie σ. m noemen we de lengte van de baan.
Neem nu een ander element b ∈ A. Er zijn dan twee mogelijkheden: 1) b = σi (a), voor een zekere
i ∈ N. b ligt dan in de baan van a, en de banen van a en b zijn dan dezelfden. We zeggen dat a en
b op dezelfde baan liggen, en noteren dit door
[a, σ(a), σ2 (a), · · · , σm−1 (a)] = [b, σ(b), σ2 (b), · · · , σm−1 (b)]
Zo zijn bijvoorbeeld de banen [a, b, c, d] en [c, d, a, b] dezelfden.
2) Voor elke i is b 6= σi (a). We zeggen dan dat a en b op verschillende banen liggen.
De relatie ”· · · ligt op dezelfde baan als · · ·ı̈s een equivalentierelatie. De equivalentieklassen van
deze relatie zijn de verzamelingen bepaald door de banen van σ en deze vormen een partitie van A.
Als we de banen van een permutatie σ kennen, dan kennen we de permutatie σ volledig; van elk
element van A kennen we dan immers het beeld.
Een permutatie van A met slechts een baan wordt ook wel een cyclische permutatie van A genoemd.
Verwisselingen
Een verwisseling van A is een permutatie van A waarbij twee elementen met elkaar verwisseld
worden, en alle andere op zichzelf afgebeeld. Een verwisseling is dus een permutatie van het type
τ = [a, b]
met a 6= b ∈ A. In Figuur 4.2 zien we een verwisseling voorgesteld op een Venn-diagram.
A
b
c
a
d
g
e
f
Figuur 4.2: Een verwisseling
Stelling 4.1.5 Elke permutatie van een eindige verzameling A kan geschreven worden als een samenstelling van verwisselingen.
60
Bewijs. Het volstaat om aan te tonen dat elke baan van de permutatie, dit is een cyclische permutatie
van een deel van A, te schrijven is als een samenstelling van verwisselingen. We beweren dat
[a1 , a2 , · · · , ar ] = [a1 , ar ] ◦ [a1 , ar−1 ] ◦ · · · ◦ [a1 , a2 ]
Dit kan bewezen worden per inductie op r. Voor r = 2 is de formule triviaal.
Onderstel dat de formule waar is voor r − 1. Het volstaat om dan te bewijzen dat
[a1 , a2 , · · · , ar ] = [a1 , ar ] ◦ [a1 , a2 , · · · , ar−1 ]
Noteer
σ = [a1 , a2 , · · · , ar−1 ] en τ = [a1 , ar ]
De samenstelling τ ◦ σ bepalen we dan als volgt.
σ
a1
7→
a2
7→
a3
..
.
7→
ar−1
7→
ar
7→
σ
σ
σ
τ
a2 7→
τ
a3 7→
τ
a4 7→
τ
a1 7→
σ
τ
ar 7→
a2
a3
a4
ar
a1
en we zien dat (τ ◦ σ)(ai ) = ai+1 voor i < r en (τ ◦ σ)(ar ) = a1 , met andere woorden
τ ◦ σ = [a1 , a2 , · · · , ar ]
Als een permutatie σ kan geschreven worden als de samenstelling van een even aantal verwisselingen, dan zeggen we dat de pariteit van σ even is, en noteren dit door ε(σ) = 1. Als σ de
samenstelling is van een oveven aantal verwisselingen, dan zeggen we dat de pariteit oneven is, en
we noteren ε(σ) = −1.
Er is hier een probleem, omdat een permutatie op vele manieren kan geschreven worden als een
product van verwisselingen. Zo is bijvoorbeeld
#
"
1 2 3
[3, 2, 1] =
3 1 2
= [3, 1] ◦ [3, 2]
= [1, 2] ◦ [2, 3] ◦ [3, 1] ◦ [1, 2]
Om aan te tonen dat de pariteit welgedefinieerd is, moeten we dus bewijzen dat als een permutatie
op twee manieren kan geschreven worden als de samenstelling van verwisselingen, dat dan het
verschil in aantal verwisselingen even is.
Het bewijs hiervan behoort niet tot de leerstof, maar we vermelden het wel, voor de volledigheid.
We gaan als volgt te werk: we geven eerst een alternatieve definitie van de pariteit. Het voordeel van de definitie is dat er geen probleem is met de welgedefinieerdheid, maar het nadeel is
dat de definitie wat artificiëler lijkt. Daarna zullen we aantonen dat beide definities op hetzelfde
neerkomen.
61
Definitie 4.1.6 De afbeelding ε : S(A) → {−1, 1} wordt als volgt gedefinieerd:
1
als het aantal banen van σ met een even lengte even is;
ε(σ) =
−1 als het aantal banen van σ met een even lengte oneven is.
ε(σ) wordt de pariteit van de permutatie σ genoemd.
De permutatie σ van {1, 2, 3, 4, 5, 6, 7, 8} uit het voorbeeld hierboven heeft 1 baan van even lengte,
en twee van oneven lengte. Derhalve is ε(σ) = −1.
Uit het bewijs van stelling 4.1.5 blijkt dat een permutatie van even pariteit kan geschreven worden
als de samenstelling van een even aantal verwisselingen, en dat een permutatie van oneven pariteit
kan geschreven worden als de samenstelling van een oneven aantal verwisselingen. We zullen
nu aantonen dat, omgekeerd, de samenstelling van een (on)even aantal verwisselingen (on)even
pariteit heeft. We bewijzen eerst volgend lemma:
Lemma 4.1.7 Onderstel dat a, b ∈ A en σ ∈ S(A). Dan geldt dat
ε([a, b] ◦ σ) = −ε(σ)
Bewijs. Eerste geval: a en b liggen op dezelfde baan van σ. Schrijf deze baan als volgt:
[a = a1 , a2 , · · · , ai = b, · · · , am ]
We kunnen nu gemakkelijk verifieren dat (ga tewerk zoals in het bewijs van Stelling 4.1.5)
[a1 , ai ] ◦ [a1 , · · · , am ] = [a1 , · · · , ai−1 ] ◦ [ai , · · · , am ]
De andere banen veranderen helemaal niet, en we zien dat de pariteit in elk geval verandert: als
m even, dan hebben de twee nieuwe banen ofwel beiden even lengte, ofwel beiden oneven lengte,
zodat het totaal aantal banen van even lengte ofwel met een toeneemt ofwel met een afneemt.
Indien m oneven, dan heeft een van de twee nieuwe banen even lengte, en de andere oneven lengte,
zodat het aantal banen met even lengte met een toeneemt.
Tweede geval: a en b liggen niet op eenzelfde baan van σ. Schrijf deze banen op als volgt:
[a = a1 , · · · , am ] en [b = b1 , · · · , br ]
Nu is
[a1 , b1 ] ◦ [a1 , · · · , am ] ◦ [b1 , · · · , br ] = [a1 , · · · , am , b1 , · · · , br ]
Alle andere banen blijven onveranderd. Op dezelfde manier als in het eerste geval verandert in elk
geval de pariteit.
Stelling 4.1.8 Als σ ∈ S(A) kan geschreven worden als de samenstelling van p verwisselingen,
dan is
ε(σ) = (−1) p
De afbeelding ε : S(A) → {−1, 1} voldoet aan volgende eigenschap:
ε(σ ◦ τ) = ε(σ)ε(τ)
voor elke σ, τ ∈ S(A).
62
Bewijs. De eerste bewering volgt onmiddellijk uit lemma 4.1.7. De tweede volgt dan gemakkelijk
uit de eerste: Als
σ = σ1 ◦ · · · ◦ σ p en τ = τ1 ◦ · · · ◦ τq
met de σi en τ j verwisselingen, dan is
σ ◦ τ = σ1 ◦ · · · ◦ σ p ◦ τ1 ◦ · · · ◦ τq
en
ε(σ) = (−1) p , ε(τ) = (−1)q , ε(σ ◦ τ) = (−1) p+q
en dit bewijst de tweede bewering.
We noteren
An = {σ ∈ Sn |ε(σ) = 1}
An is een deelgroep van Sn die n!/2 elementen bevat, en wordt de alternerende groep van de
verzameling {1, 2, · · · , n} genoemd.
4.2
De determinant van een vierkante matrix
De formules voor de determinant van een 2 × 2-matrix en een 3 × 3-matrix zijn welbekend:
!
a11 a12
det
= a11 a22 − a12 a21
a21 a22
en

a11
a12

det  a21
a22
a31
a32
a13

a a a + a12 a23 a31 + a13 a21 a32

a23  = 11 22 33
−a11 a23 a32 − a12 a21 a33 − a13 a22 a31
a33
We willen deze definities uitbreiden tot n × n-matrices. Alvorens we dit doen sommen we enkele
eigenschappen op van de determinant van 3 × 3-matrices:
1. De determinant is lineair in elk van de kolommen:



αa11 + βa011 a12 a13
a11 a12



det  αa21 + βa021 a22 a23  = α det  a21 a22
αa31 + βa031
a32
a33
a31
a32
a011
a12
a13


a23  + β det  a021
a22

a23 
a031
a32
a33
a13

a33
gelijkaardige formules hebben we voor de tweede en de derde kolom;
2. De determinant van een matrix met twee gelijke kolommen is nul;
3. De determinant van de eenheidsmatrix I3 is 1.
63


Er is nog meer: de determinant is de enige functie die aan de drie bovenstaande eigenschappen
voldoet. Laten we dit even aantonen. Onderstel dat een functie f : M33 → K voldoet aan de drie
bovenstaande eigenschappen. Schrijf A1 , A2 , A3 voor de drie kolommen van A, zodat we A kunnen
schrijven als
A = ( A1 A2 A3 )
Merk eerst op dat f van teken wisselt als we twee kolommen van A met elkaar verwisselen:
0 =
=
=
=
f ( A1 + A2 A1 + A2 A3 )
f ( A1 A1 + A2 A3 ) + f ( A2 A1 + A2 A3 )
f ( A1 A1 A3 ) + f ( A1 A2 A3 ) + f ( A2 A1
f ( A1 A2 A3 ) + f ( A2 A1 A3 )
A3 ) + f ( A2
A2
A3 )
Schrijf
 
 
 
1
0
0
 
 
 
E1 =  0  , E2 =  1  , E3 =  0 
0
0
1
Dan is
A1 = a11 E1 + a21 E2 + a31 E3
A2 = a12 E1 + a22 E2 + a32 E3
A3 = a13 E1 + a23 E2 + a33 E3
zodat
f (A) = f ( A1 A2 A3 )
= f ( a11 E1 + a21 E2 + a31 E3
3
=
3
a12 E1 + a22 E2 + a32 E3
a13 E1 + a23 E2 + a33 E3 )
3
∑ ∑ ∑ ai1a j2ak3 f ( Ei
Ej
Ek )
i=1 j=1 k=1
In de laatste stap maakten we gebruik van het feit dat f lineair is in de kolommen van A. We
krijgen dus een som van in het totaal 27 termen waarvan er gelukkig heel wat wegvallen: indien
minstens twee van de indexen i, j, k gelijk zijn, dan is f ( Ei E j Ek ) = 0. De enige termen die
overblijven zijn die waarvoor i, j en k verschillend zijn, of, met andere woorden, die waarvoor
"
#
1 2 3
i
j
k
een permutatie is. Er zijn er zo zes, namelijk
"
# "
1 2 3
1
2
3
3
2
1
"
2
3
1
2
3
3
2
1
1
# "
1
2
3
2
3
1
64
# "
# "
1
2
3
3
1
2
1
2
3
2
1
3
#
#
Uit eigenschap 3) hierboven volgt dat
f ( E1
E2
E3 ) = f (I3 ) = 1
Verwisselen van telkens twee kolommen geeft achtereenvolgens:
f ( E1
f ( E3
f ( E3
f ( E2
f ( E2
E3
E1
E2
E3
E1
E2 )
E2 )
E1 )
E1 )
E3 )
=
=
=
=
=
−1
1
−1
1
−1
en dus is
f (A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32
− a11 a23 a32 − a12 a21 a33 − a13 a22 a31
= det(A)
De determinant van 3 × 3-matrices is dus volledig bepaald door de drie eigenschappen van hierboven. Ga zelf na dat we een zelfde redenering ook kunnen gebruiken om de formule voor de
determinant van een 2 × 2-matrix te bepalen. We zullen ons hierop nu inspireren om de determinant van een n × n-matrix te definiëren. Eerst enkele algemene definities:
Definitie 4.2.1 Onderstel dat V,W vectorruimten zijn. Een afbeelding
f : Vn → W
heet multilineair indien
f (~v1 ,~v2 , · · · , α~vi + β~v0i , · · · ,~vn ) = α f (~v1 ,~v2 , · · · ,~vi , · · · ,~vn ) + β f (~v1 ,~v2 , · · · ,~v0i , · · · ,~vn )
voor elke ~v1 , · · · ,~vi ,~v0i · · · ,~vn ∈ V en α, β ∈ K.
f wordt alternerend genoemd als f (~v1 , · · · ,~vn ) = ~0 zodra ~vi =~v j voor twee verschillende indices i
en j.
We zullen deze definitie toepassen op Mnn (K), waarbij we de vectorruimten Mnn (K) en (K n )n met
elkaar identificeren. We beschouwen een matrix A dus als een rij van kolommatrices:
A = ( A1
A2
· · · An )
waarbij
Ai = ( a1i , a2i , · · · , ani )
de i-de kolom van A is.
Stelling 4.2.2 Onderstel dat de afbeelding d : Mnn (K) → K multilineair en alternerend is. Dan
gelden volgende eigenschappen:
65
1. d(A) verandert van teken als we twee kolommen met elkaar verwisselen:
d ( A1
A2
· · · Ai
··· Aj
· · · An ) = −d ( A1
A2
··· Aj
· · · Ai
· · · An )
2. d(A) verandert niet als we bij een kolom een lineaire combinatie van de andere kolommen
optellen:
d ( A1
A2
· · · Ai + ∑ j6=i α j A j
· · · An ) = d ( A1
A2
· · · Ai
· · · An )
3. d(A) = 0 als een van de kolommen van A gelijk is aan 0:
d ( A1
A2
· · · 0 · · · An ) = 0
4. Als we de kolommen van A permuteren, dan wordt d(A) vermenigvuldigd met de pariteit van
de toegepaste permutatie:
d ( Aσ(1)
Aσ(2)
· · · Aσ(n) ) = ε(σ)d ( A1
A2
· · · An )
voor elke σ ∈ Sn .
5. Als rg (A) < n dan is d(A) = 0.
Bewijs. 1) Dit bewijs is volledig analoog aan het bewijs dat we hierboven zagen in het geval n = 3:
0 =
=
+
=
d ( A1
d ( A1
d ( A1
d ( A1
A2
A2
A2
A2
···
···
···
···
Ai + A j
Ai · · ·
Aj ···
Ai · · ·
···
Ai
Ai
Aj
Ai + A j · · · An )
· · · An ) + d ( A1 A2 · · · Ai · · · A j · · · An )
· · · An ) + d ( A1 A2 · · · A j · · · A j · · · An )
· · · An ) + d ( A1 A2 · · · A j · · · Ai · · · An )
2) Uit de multilineariteit van d volgt:
d ( A1 A2 · · · Ai + ∑ j6=i α j A j · · · An )
= d ( A1 A2 · · · Ai · · · An ) + ∑ α j d ( A1
A2
··· Aj
· · · An )
j6=i
In de j-de term van deze laatste som zijn de i-de en de j-de kolom aan elkaar gelijk. Vanwege 1)
is dus elke term in deze som 0, en
d ( A1
A2
· · · Ai + ∑ j6=i α j A j
· · · An ) = d ( A1
A2
· · · Ai
· · · An )
3) Uit de multilineariteit volgt dat
d ( A1
A2
· · · 0 · · · An ) = 0d ( A1
A2
· · · 0 · · · An ) = 0
4) σ is de samenstelling van p verwisselingen, en ε(σ) = (−1) p (cf. stelling 4.1.8). Uit het
eerste deel van de stelling volgt dat d(A) van teken verandert telkens we een verwisseling op de
kolommen toepassen. Na het toepassen van p verwisselingen wordt d(A) dus vermenigvuldigd
met ε(σ) = (−1) p .
66
5) Dit volgt onmiddellijk uit 2) en 3): als rg (A) < n, dan is een van de kolommen van A een lineaire
combinatie van de overigen:
Ai = ∑ α j A j
j6=i
en dan is
d(A) = d ( A1
= d ( A1
= 0
A2
A2
· · · ∑ j6=i α j A j · · · An )
· · · 0 · · · An )
Definitie 4.2.3 Een determinantafbeelding
det : Mnn (K)−→K
is een afbeelding die voldoet aan de volgende voorwaarden:
1. det is multilineair;
2. det is alternerend;
3. det(In ) = 1.
We zullen hierna bewijzen dat er juist een determinantafbeelding Mnn (K) → K bestaat. Dit zal ons
bovendien een expliciete formule voor de determinant opleveren.
Onderstel dat det : Mnn (K) → K een determinantafbeelding is. Neem een n × n-matrix A. De j-de
kolom van A kunnen we schrijven als
n
A j = ∑ ai j Ei
i=1
waarbij
 
0
 .. 
.
 
 
Ei =  1 
.
 .. 
 
0
Gebruik makende van de multilineariteit van det vinden we dat
det(A) = det ( A1 A2 · · · An )
= det ( ∑ni1 =1 ai1 1 Ei1 , ∑ni2 =1 ai2 2 Ei2 , · · · , ∑nin =1 ain n Ein )
n
=
∑
ai1 1 ai2 2 · · · ain n det ( Ei1
i1 ,i2 ,···,in =1
67
Ei2
· · · Ein )
Dit is een som van nn termen. Bekijk een van de termen apart, die in indices i1 , i2 , · · · , in . Definieer
σ : {1, 2, · · · , n} → {1, 2, · · · , n}
door σ( j) = i j . Indien σ geen permutatie is, dan is
det ( Ei1
Ei2
· · · Ein ) = 0
omdat tenminste twee kolommen in de matrix aan elkaar gelijk zijn. Indien σ wel een permutatie
is, dan volgt uit eigenschap 4) in stelling 4.2.2 dat
det ( Ei1
Ei2
We hebben dus dat
det(A) =
· · · Ein ) = ε(σ) det(In ) = ε(σ)
∑ ε(σ)aσ(1)1aσ(2)2 · · · aσ(n)n
(4.2)
σ∈Sn
Stelling 4.2.4 Er bestaat juist één determinantafbeelding Mnn (K) → K, en deze wordt gegeven
door formule (4.2).
Bewijs. We hebben hierboven reeds gezien dat als er een determinantafbeelding bestaat, dat deze
dan gegeven wordt door formule (4.2). Er kan dus ten hoogste een determinantafbeelding bestaan.
Om de stelling te bewijzen volstaat het dus om aan te tonen dat de afbeelding gedefinieerd door
formule (4.2) voldoet aan de drie voorwaarden van definitie 4.2.3.
1) det is multilineair: elke term in (4.2) bevat juist 1 factor uit de j-de kolom, omdat σ een permutatie is. Dus is elke term lineair in de j-de kolom, en det is dus lineair in de j-de kolom, en dit voor
elke j. det is dus multilineair.
2) det is alternerend. Onderstel voor de eenvoud dat de eerste twee kolommen van A aan elkaar
gelijk zijn, het algemeen bewijs verloopt analoog. We hebben dus dat A1 = A2 , of ai1 = ai2 voor
elke i.
Neem een σ ∈ Sn , en de term in (4.2) die correspondeert met σ:
ε(σ)aσ(1)1 aσ(2)2 · · · aσ(n)n
(4.3)
De term die correspondeert met de permutatie τ = [σ(2), σ(1)] ◦ σ is dan
ε(τ)aσ(2)1 aσ(1)2 · · · aσ(n)n
(4.4)
Omdat ε(τ) = −ε(σ) en aσ(1)1 aσ(2)2 = aσ(2)1 aσ(1)2 heffen (4.3) en (4.4) mekaar op. De n! termen
in (4.2) vallen dus twee bij twee tegenover mekaar weg, zodat het resultaat nul is.
3) Indien A = In , dan zijn alle termen in (4.2) 0, behalve degene waarvoor σ de identieke permutatie
is. Alle factoren in deze term zijn 1 zodat det(In ) = 1.
We hebben dus nu een unieke determinantafbeelding, die we vanaf nu de determinant zullen noemen. Verifieer zelf dat de formules voor de 2 × 2 en 3 × 3 determinant waarvan we aan het begin
68
van deze paragraaf vertrokken zijn speciale gevallen zijn van (4.2). We zullen ook nog volgende
notatie gebruiken:
a11 a12 · · · a1n a21 a22 · · · a2n det(A) = .
..
.. .
.
. .
a
a
··· a n1
n2
nn
Formule (4.2) laat in principe toe om de determinant te berekenen, maar als n groot wordt, dan
is ze niet practisch: inderdaad, het aantal termen (n!) wordt zeer snel groot. Daarom zullen we
andere formules opstellen.
De determinant van de getransponeerde matrix
Stelling 4.2.5 De determinant van een matrix is gelijk aan die van zijn getransponeerde:
det(A) = det(At )
Bewijs.
det(A) =
∑ ε(σ)aσ(1)1aσ(2)2 · · · aσ(n)n
σ∈Sn
=
∑ ε(σ−1)aσ−1(1)1aσ−1(2)2 · · · aσ−1(n)n
σ∈Sn
=
∑ ε(σ)a1σ(1)a2σ(2) · · · anσ(n)
σ∈Sn
= det(At )
Hierbij maakten we gebruik van het feit dat ε(σ) = ε(σ−1 ) (zie stelling 4.1.8).
Gevolg 4.2.6 De eigenschappen uit stelling 4.2.2 gelden ook voor de rijen van een matrix:
1. De determinant is multilineair als functie van de rijen van A;
2. det(A) verandert van teken als we twee rijen met elkaar verwisselen;
3. det(A) verandert niet als we bij een rij een lineaire combinatie van de andere rijen optellen;
4. det(A) = 0 als een van de rijen van A gelijk is aan 0;
5. Als we de rijen van A permuteren, dan wordt det(A) vermenigvuldigd met de pariteit van de
toegepaste permutatie.
69
De determinant van het product van matrices
Het is onze bedoeling te bewijzen dat de determinant van het product van twee matrices het product
van de determinanten is. Eerst bewijzen we een hulpstelling:
Lemma 4.2.7 Als d : Mnn (K) → K een multilineaire alternerende afbeelding is, dan is d =
d(In ) det.
Bewijs. Uit de redenering die voorafging aan het bewijs van stelling 4.2.4 volgt dat voor elke
multilineaire alternerende afbeelding d geldt:
d(A) = det(A)d(In )
Stelling 4.2.8 Voor A, B ∈ Mnn (K) geldt dat
det(AB) = det(A) det(B)
Bewijs. Neem A ∈ Mnn (K) vast, en beschouw de afbeelding
d : Mnn (K) −→ K
gegeven door
d(B) = det(AB)
of
d ( B1
B2
· · · Bn ) = det ( AB1
AB2
· · · ABn )
Het is eenvoudig om in te zien dat d multilineair en alternerend is, zodat, vanwege lemma 4.2.7,
d(B) = det(B)d(In )
Nu is
d(In ) = det(A)
en daarom hebben we dat
det(AB) = d(B) = det(A) det(B)
Gevolg 4.2.9 Voor een n × n-matrix A zijn de volgende eigenschappen equivalent:
1. rg (A) = n;
2. A is regulier;
3. det(A) 6= 0.
70
Bewijs. 1) ⇐⇒ 2) is stelling 2.7.8. 3) =⇒ 1) volgt uit stelling 4.2.2,5), door contrapositie. 2) =⇒
3) volgt uit stelling 4.2.8: als A regulier is, dan bestaat A−1 , en dus is 1 = det(In ) = det(AA−1 ) =
det(A) det(A−1 ), zodat det(A) 6= 0.
Merk op dat voor elke reguliere matrix A geldt dat
det(A−1 ) =
1
det(A)
(4.5)
Gevolg 4.2.10 Onderstel dat f een lineaire afbeelding is van een eindigdimensionale vectorruimte
V naar zichzelf. Als E en F twee basissen zijn van V , dan is
det([ f ]E,E ) = det([ f ]F,F )
Bewijs. Noteer de overgangsmatrix door M. In gevolg 2.6.4 hebben we bewezen dat
[ f ]F,F = M −1 [ f ]E,E M
zodat
det([ f ]F,F ) = det(M −1 ) det([ f ]E,E ) det(M) = det([ f ]E,E )
Gevolg 4.2.10 laat ons toe om de determinant van een lineaire afbeelding van een eindigdimensionale vectorruimte V naar zichzelf te definieren:
det( f ) = det([ f ]E,E )
waarbij E een willekeurige basis van V is.
4.3
De ontwikkeling van de determinant volgens een rij of een
kolom
De ontwikkeling van de determinant volgens een kolom
Beschouw een n × n-matrix A. We willen een nieuw algoritme ontwikkelen om de determinant van
A te berekenen. Zoals voorheen schrijven we
 
a1 j
 
n
 a2 j 


A j =  .  = ∑ ai j Ei
 ..  i=1
an j
71
voor de j-de kolom van A. Gebruik makende van de multilineariteit van de determinant kunnen
we dus schrijven:
n
det(A) = det A1 · · · A j−1 ∑ ai j Ei A j+1 · · · An
i=1
n
=
∑ ai j det ( A1
· · · A j−1
Ei
A j+1
· · · An )
(4.6)
i=1
Om det(A) te berekenen volstaat het dus om de determinanten
Ai j = det ( A1 · · · A j−1
a11 · · · a1, j−1
..
..
.
.
= ai1 · · · ai, j−1
..
..
.
.
a
··· a
n1
n, j−1
Ei
A j+1
0
..
.
a1, j+1
..
.
1
..
.
ai, j+1
..
.
0
an, j+1
· · · An )
· · · ann .. . · · · ain .. . ··· a nn
te berekenen voor een vaste j en i = 1, · · · , n. De determinant Ai j wordt de minor van het element
ai j in de matrix A genoemd. We zullen hierna zien hoe we de minoren Ai j kunnen berekenen.
We merken eerst op dat
Ai j = det ( A1
= (−1)
j−1
· · · A j−1
det ( Ei
Ei
A1
A j+1
· · · A j−1
· · · An )
A j+1
· · · An )
Immers, om de j-de kolom Ei op de eerste plaats te krijgen moeten we j − 1 verwisselingen van
kolommen uitvoeren. Vervolgens brengen we de i-de rij op de eerste plaats. Hiertoe moeten we
i − 1 maal rijen verwisselen zodat
1
a
·
·
·
a
a
·
·
·
a
in
i1
i,
j−1
i,
j+1
0 a11
· · · a1, j−1
a1, j+1 · · · a1n ..
..
..
..
.. .
.
.
.
. i+ j
Ai j = (−1) 0 ai−1,1 · · · ai−1, j−1 ai−1, j+1 · · · ai−1,n 0 a
i+1,1 · · · ai+1, j−1 ai+1, j+1 · · · ai+1,n .
..
..
..
.. ..
.
.
.
. 0 an1
· · · an, j−1
an, j+1 · · · ann 72
Door van elke kolom een gepast veelvoud van de eerste kolom af te trekken vinden we:
1
0
···
0
0
···
0 0 a11
· · · a1, j−1
a1, j+1 · · · a1n ..
..
..
..
.. .
.
.
.
. Ai j = (−1)i+ j 0 ai−1,1 · · · ai−1, j−1 ai−1, j+1 · · · ai−1,n 0 a
·
·
·
a
a
·
·
·
a
i+1,1
i+1, j−1
i+1, j+1
i+1,n .
..
..
..
.. ..
.
.
.
. 0 an1
· · · an, j−1
an, j+1 · · · ann Het volgende lemma laat nu toe om Ai j te bepalen:
Lemma 4.3.1 Voor elke B ∈ Mnn (K) geldt dat
det
1
0
0
B
!
= det(B)
Bewijs. De afbeelding d : Mnn (K) → K gedefinieerd door
!
1 0
d(B) = det
0 B
is multilineair en alternerend. Bovendien is
d(In ) = det(In+1 ) = 1
zodat d = det.
Als we bovenstaande argumenten samenvatten, dan krijgen we de volgende stelling:
Stelling 4.3.2 Neem een n × n-matrix A. De minor Ai j is dan de
ontstaat door uit A de i-de rij en de j-de kolom weg te laten:
a11
· · · a1, j−1
a1, j+1
..
..
..
.
.
.
ai−1,1 · · · ai−1, j−1 ai−1, j+1
Ai j = (−1)i+ j ai+1,1 · · · ai+1, j−1 ai+1, j+1
.
..
..
.
.
.
.
a
· · · an, j−1
an, j+1
n1
determinant van de matrix die
· · · ai−1,n · · · ai+1,n .. . · · · ann ···
a1n
..
.
De determinant van de matrix A wordt gegeven door de formule
n
det(A) = ∑ ai j Ai j = a1 j A1 j + · · · + an j An j
i=1
Deze formule wordt de ontwikkeling van det(A) volgens de j-de kolom genoemd.
73
(4.7)
De ontwikkeling van de determinant volgens een rij
We passen formule (4.7) nu toe op de getransponeerde matrix At :
n
det(A ) = ∑ a ji (At )i j
t
i=1
(At )i j is de determinant die ontstaat door uit At de i-de rij en de j-de kolom te schrappen. Men kan
evengoed uit A de j-de rij en de i-de kolom schrappen en dan transponeren, m.a.w. (At )i j = A ji ,
omdat de determinant van een matrix gelijk is aan de determinant van de getransponeerde (stelling
4.2.5), zodat
n
det(A ) = ∑ a ji A ji
t
i=1
Als we de rollen van i en j omwisselen (dus i een vaste index en j een sommatieindex), dan wordt
deze formule:
det(A) = det(At ) =
n
∑ ai j Ai j
j=1
Stelling 4.3.3 Voor een n × n-matrix A geldt:
n
det(A) =
∑ ai j Ai j = ai1Ai1 + · · · + ainAin
j=1
voor elke i = 1, · · · , n. Deze formule wordt de ontwikkeling van det(A) volgens de i-de rij genoemd.
Stellingen 4.3.2 en 4.3.3 laten
bijvoorbeeld
1 2
3 2
6 8
ons toe om de determinant van een matrix uit te rekenen. Zo is
4
2 1
3 1
3
1 = 1
−2
+4
8 2
6 2
6
2
= −4 − 0 + 48 = 44
2 8
Hierbij ontwikkelden we deze determinant volgens de eerste rij. Merk op dat we in feite niets
winnen ten opzichte van de formule uit de definitie: we hebben nog steeds een som te berekenen
van 6 = 3! termen, die elk een product zijn van drie elementen uit de matrix. Een alternatieve
werkwijze is de volgende: gebruik makende van de eigenschappen van de determinant uit de
vorige paragraaf, herleiden we de berekening tot de berekening van een determinant waarvan een
rij of kolom op een element na uitsluitend nul bevat. Men ontwikkelt dan de determinant volgens
die rij of kolom. Als we op deze manier bovenstaande determinant opnieuw uitrekenen krijgen we
1 2 4 1 0
0 −4 −11 3 2 1 = 3 −4 −11 = 1 = 88 − 44 = 44
−4 −22 6 8 2 6 −4 −22 74
In de eerste stap trokken we van de tweede kolom tweemaal de eerste af, en van de derde kolom
viermaal de eerste. Zoals we gezien hebben (stelling 4.2.2) verandert dit de determinant niet.
Daarna ontwikkelden we de determinant volgens de eerste rij.
Zoals we hierboven gezien hebben volstaat het om de minor Ai j te berekenen om de i-de rij en de
j-de kolom uit A te schrappen, de determinant te nemen en te vermenigvuldigen met (−1)i+ j . Men
kan het teken makkelijk als volgt memoriseren:


+ − + −


!
+ − +


− + − +
+ −

 


, − + −, 

− +
+
−
+
−


+ − +
− + − +
enzovoort. Het element in de linkerbovenhoek krijgt steeds een plusteken, en men vult de matrix
dan met plus en mintekens zoals een schaakbord.
De geadjugeerde van een matrix
Als toepassing van hetgeen voorafgaat zullen we een formule opstellen die ons toelaat om de
inverse van een reguliere matrix te berekenen. De geadjugeerde van een vierkante matrix A is de
matrix adj(A) die ontstaat door elk element van de matrix te vervangen door zijn minor en daarna
te transponeren. Het element op plaats (i, j) in adj(A) is dus A ji . Met deze notaties hebben we
Stelling 4.3.4 Voor elke n × n-matrix A geldt:
adj(A)A = Aadj(A) = det(A)In
Bewijs. Het element op plaats (i, j) in het product adj(A)A is
n
∑ Akiak j
k=1
Voor i = j is dit
n
∑ Akiaki = det(A)
k=1
door stelling 4.3.2. Eveneens gebruik makende van stelling 4.3.2 vinden we voor i 6= j dat
n
∑ Akiak j = det ( A1
· · · Ai−1
Aj
Ai+1
· · · A j−1
Aj
A j+1
· · · An ) = 0
k=1
en dus is adj(A)A = det(A)In . De andere gelijkheid wordt op analoge manier bewezen, gebruik
makend van stelling 4.3.3.
Gevolg 4.3.5 Als det(A) 6= 0, dan is
A−1 =
1
adj(A)
det(A)
75
Voorbeelden 4.3.6 1) Beschouw weer de matrix

1 2

A = 3 2
6
4


1
8
2
We hebben hierboven al gezien dat det(A) = 44. Ga zelf na dat


−4 28 −6


adj(A) =  0 −22 11 
zodat

A−1 =
12
4
−4
−4
28
−6
1 
 0
44
12
−22


11 
−4
4
2) We kunnen nu de algemene formule voor de inverse van een 2 × 2-matrix opschrijven:
!−1
!
a b
d −b
1
=
ad − bc −c a
c d
De regel van Cramer
Als toepassing van gevolg 4.3.5 zullen we nu een elegante formule opstellen voor de oplossing van
een stelsel van Cramer. Dit is een lineair stelsel van n vergelijkingen met n onbekenden
AX = B
waarbij A ∈ Mnn (K) regulier is. De unieke oplossing wordt gegeven door
X = A−1 B =
Noteer
1
adj(A)B
det(A)
a11
a12
· · · a1n

 a21
A=
 ...

a22
..
.

 
 
 b2 
 x2 
· · · a2n 




..  , B =  ..  , X = 
 ... 
.
. 
 
 
an1
an2
· · · ann



b1

bn

x1

xn
dan krijgen we
xi =
=
1
det(A)
det ( A1
n
∑ A jib j
j=1
· · · Ai−1 B Ai+1
det(A)
· · · An )
waarbij we weer gebruik maakten van stelling 4.3.3. Deze laatste formule staat bekend als de regel
van Cramer.
76
Stelling 4.3.7 Als A een reguliere n × n-matrix is, dan wordt de unieke oplossing van het lineaire
stelsel AX = B gegeven door de formule
a11 · · · a1,i−1 b1 a1,i+1 · · · a1n a
·
·
·
a
b
a
·
·
·
a
2,i−1
2
2,i+1
2n 1 21
xi =
..
..
..
.. det(A) ...
.
.
.
. a
n1 · · · an,i−1 bn an,i+1 · · · ann
Opmerking 4.3.8 De regel van Cramer is wel zeer elegant geformuleerd, en zeer nuttig voor theoretische doeleinden, maar in de praktijk is hij niet erg bruikbaar als n groot wordt (vb. n ≥ 1000).
De determinanten die dan in de formule voorkomen worden praktisch onberekenbaar, zelfs met
een krachtige computer. Men gaat dan op zoek naar andere algoritmen om stelsels lineaire vergelijkingen numeriek op te lossen. We verwijzen hier naar de cursus ”Numerieke algoritmen”.
Karakteriserende eigenschappen voor reguliere matrices
In de voorbije hoofdstukken hebben we heel wat eigenschappen gezien die de regulariteit van een
matrix A karakteriseren. In de volgende eigenschap zetten we deze op een rijtje. Voor nog meer
karakterisaties verwijzen we naar oefening 11 bij hoofdstuk 3.
Stelling 4.3.9 Beschouw een vierkante matrix A ∈ Mnn (K), en noteer f voor de lineaire afbeelding
K n → K n : X 7→ AX. Dan zijn de volgende eigenschappen equivalent:
1. A is regulier;
2. A heeft een linksinverse A0 : A0 A = In ;
3. A heeft een rechtsinverse A00 : AA00 = In ;
4. f is bijectief;
5. f is injectief;
6. f is surjectief ;
7. voor elke B ∈ K n heeft het stelsel AX = B een unieke oplossing;
8. AX = 0 heeft enkel X = 0 als oplossing;
9. voor elke B ∈ K n heeft het stelsel AX = B minstens oplossing;
10. rg (A)=n;
11. de kolommen van A zijn lineair onafhankelijk;
12. rg (At ) = n;
13. de rijen van A zijn lineair onafhankelijk;
77
14. det(A) 6= 0.
Bewijs. 1) =⇒ 2), 1) =⇒ 3) zijn triviaal.
1) ⇐⇒ 4) is triviaal (zie definitie 2.5.5).
4) ⇐⇒ 5) ⇐⇒ 6): dit is gevolg 2.2.13.
2) =⇒ 5). Voor X1 , X2 ∈ K n geldt
f (X1 ) = f (X2 ) =⇒ AX1 = AX2
=⇒ X1 = A0 AX1 = A0 AX2 = X2
en dus is f injectief.
3) =⇒ 6). Voor elke Y ∈ K n geldt dat Y = AA00Y ∈ Im ( f ), en dus is f surjectief.
4) ⇐⇒ 7), 5) ⇐⇒ 8), 6) ⇐⇒ 9) zijn triviaal.
1) ⇐⇒ 10) ⇐⇒ 14): dit is stelling 4.2.9.
10) ⇐⇒ 11), 11) ⇐⇒ 12) zijn triviaal.
10) ⇐⇒ 12) volgt uit stelling 2.7.7.
12) ⇐⇒ 13) is 10) ⇐⇒ 11) toegepast op At .
Beschouw nu een stelsel van n vergelijkingen in n onbekenden:


a11 x1 + a12 x2 + · · · + a1n xn = b1


 a21 x1 + a22 x2 + · · · + a2n xn = b2
..

.


 a x +a x +···+a x = b
nn n
n
n1 1
n2 2
(4.8)
of, in matrixvorm, AX = B. Onderstel dat (4.8) een oplossing heeft. Voeg nu aan (4.8) een vergelijking toe:


a11 x1 + a12 x2 + · · · + a1n xn
= b1




a
x
+
a
x
+
·
·
·
+
a
x
= b2
22 2
2n n
 21 1
..
(4.9)
.



an1 x1 + an2 x2 + · · · + ann xn
= bn


 a
x
+
a
x
+
·
·
·
+
a
x
n+1,1 1
n+1,2 2
n+1,n n = bn+1
Wanneer heeft dit nieuwe uitgebreide stelsel nog een oplossing?
Stelling 4.3.10 Als (4.9) een oplossing heeft, dan is
a11
a12
···
a1n
a21
a22
···
a2n
.
.
..
..
D = ..
.
a
an2
···
ann
n1
an+1,1 an+1,2 · · · an+1,n
b1 b2 .. . =0
bn bn+1 Omgekeerd, indien det(A) 6= 0 en D = 0, dan heeft (4.9) een unieke oplossing.
78
Bewijs. Onderstel dat X = (x1 , x2 , · · · , xn ) een oplossing is van (4.9). Dan is
X 0 = (x1 , x2 , · · · , xn , −1) een oplossing is van het homogene stelsel


a11 x1 + a12 x2 + · · · + a1n xn + b1 xn+1
=




=
 a21 x1 + a22 x2 + · · · + a2n xn + b2 xn+1
..
.



an1 x1 + an2 x2 + · · · + ann xn + bn xn+1
=


 a
n+1,1 x1 + an+1,2 x2 + · · · + an+1,n xn + bn+1 xn+1 =
0
0
(4.10)
0
0
Deze oplossing is verschillend van 0, en dus is de determinant D van het stelsel (4.10) gelijk aan 0.
Omgekeerd, indien det(A) 6= 0, dan heeft (4.8) een unieke oplossing. (4.9), met een vergelijking
meer, heeft dus ten hoogste één oplossing.
Omdat D = 0 bezit (4.10) een van nul verschillende oplossing (y1 , y2 , · · · , yn , yn+1 ). Indien yn+1 6=
0, dan is
y
y2
yn 1
,−
,···,−
−
yn+1 yn+1
yn+1
een oplossing van (4.9), en dan is de stelling bewezen. Indien yn+1 = 0, dan is (y1 , y2 , · · · , yn ) een
niet-triviale oplossing van het stelsel AX = 0. Dit is onmogelijk aangezien det(A) 6= 0.
79
Hoofdstuk 5
Eigenwaarden en eigenvectoren
5.1
Eigenwaarden en eigenvectoren
Onderstel dat V een eindigdimendimensionale vectorruimte is, en dat f : V → V een lineaire
afbeelding is. Als E een basis van V is, dan kunnen we de matrix A van f ten opzichte van de
basis E beschouwen. In dit hoofdstuk kijken we naar het volgende probleem: voor welke keuze
van de basis E ziet de matrix van de lineaire afbeelding f er zo eenvoudig mogelijk uit? Hoe meer
elementen van A nul zijn, hoe gemakkelijker het wordt om bewerkingen met de matrix A uit te
voeren. De ideale situatie is die waarbij de matrix van A een diagonale matrix is:


a11 0 · · · 0


 0 a22 · · · 0 

A= .
..
.. 
.
.
. 
 .

0
0
· · · ann
Immers, indien A een diagonaalmatrix, dan is het stelsel AX = B zeer eenvoudig op te lossen.
Het zal verderop blijken dat het niet altijd mogelijk is om een basis van V zo te kiezen dat de
matrix A diagonaal wordt. We zullen dan al tevreden zijn als we A kunnen schrijven als een
bovendriehoeksmatrix:


a11 a12 · · · a1n


 0 a22 · · · a2n 
A=
..
.. 
 ...
.
. 


0
0
· · · ann
Onderstel dat de matrix van de lineaire afbeelding f ten opzichte van een basis U = {~u1 ,~u2 , · · · ,~un }
een diagonaalmatrix is. Dan is
f (~ui ) = aii~ui ,
met andere woorden, het beeld van de basisvector ~ui is een veelvoud van ~ui . Om een basis van V
te vinden waarvoor de matrix van f diagonaal wordt moeten we dus die vectoren ~u zien te vinden
waarvoor f (~u) een veelvoud is van ~u. Vandaar de volgende definitie.
80
Definitie 5.1.1 Beschouw een lineaire afbeelding f : V → V . Een vector ~u 6= ~0 ∈ V noemen we
een eigenvector van f als
f (~u) = λ~u
We noemen dan λ de eigenwaarde behorende bij de eigenvector ~u.
We hebben dan onmiddellijk volgende eigenschap.
Stelling 5.1.2 De matrix van een lineaire afbeelding f : V → V ten opzichte van een basis E is
diagonaal als en alleen als E een basis is die bestaat uit eigenvectoren.
In deze paragraaf zullen we zien hoe we eigenwaarden en eigenvectoren van een matrix kunnen
bepalen.
Stelling 5.1.3 Onderstel dat V een eindigdimensionale ruimte is. λ ∈ K is een eigenwaarde van
een lineaire afbeelding f : V → V als en slechts als det( f − λIV ) = 0.
Bewijs. λ ∈ K is een eigenwaarde van f als er een vector ~u 6= ~0 bestaat zodat f (~u) = λ~u, of,
equivalent, ( f −λIV )(~u) =~0. Deze laatste voorwaarde betekent dat f −λIV niet injectief is, hetgeen
equivalent is met de voorwaarde det( f − λIV ) = 0.
De vergelijking
det( f − λIV ) = 0
(5.1)
wordt de karakteristieke vergelijking genoemd. Kies een basis E = {~e1 , · · · ,~en }, en onderstel dat
A = [ f ]E,E . Dan wordt (5.1):
det(A − λIn ) = 0
(5.2)
of
a11 − λ
a21
.
..
a
n1
a1n ···
a2n .. = 0
. · · · ann − λ ···
a12
a22 − λ
..
.
an2
(5.3)
Voor n = 2 wordt deze vergelijking:
λ2 − Sp(A)λ + det(A) = 0
(5.4)
−λ3 + Sp(A)λ2 − Sp(adj(A))λ + det(A) = 0
(5.5)
en voor n = 3:
In het algemeen is det(A − λIn ) een veelterm van graad n in λ. Immers, het is een som van n!
termen die elke, op het teken na, het produkt zijn van n elementen uit de matrix, waarvan er geen
twee op eenzelfde rij of kolom staan. Bijgevolg zijn er hiervan ten hoogste n van de vorm aii − λ.
We noemen deze veelterm de karakteristieke veelterm van de lineaire afbeelding f (of van de
matrix A). Van de coëfficiënten van deze veelterm kunnen we er enkele expliciet opschrijven:
PA (λ) = det(A − λIn ) = (−1)n λn + (−1)n−1 Sp(A)λn−1 + · · · − Sp(adj(A))λ + det(A)
81
(5.6)
De karakteristieke veelterm van een lineaire afbeelding f hangt niet af van de gekozen basis. Met
andere woorden:
Stelling 5.1.4 Als A en B de matrices zijn van een lineaire afbeelding f tenopzichte van twee
verschillende basissen van V , dan is PA = PB .
Bewijs. We kunnen dit ook rechtstreeks bewijzen: uit stelling 2.6.2 volgt dat B = MAM −1 , waarbij
M, de overgangsmatrix tussen de twee basissen een reguliere matrix is. Dan is (cf. stelling 4.2.8)
PB (λ) = det(MAM −1 − λIn ) = det(M) det(A − λIn ) det(M)−1 = PA (λ)
Als λ ∈ K een eigenwaarde is van de lineaire afbeelding f , dan zijn de bijhorende eigenvectoren
de oplossingen van de vergelijking
f (~u) = λ~u
De verzameling van de eigenvectoren is dus Ker ( f − λIV ), dit is een deelruimte van V .
Als we een basis E van V kiezen dan wordt de vergelijking
AX = λX
Dit is een homogeen stelsel lineaire vergelijkingen, en de oplossing is nu een deelruimte van K n .
Algoritme 5.1.5 Om de eigenwaarden en eigenvectoren van een vierkante matrix A te vinden gaan
we als volgt te werk:
1. Bepaal de wortels λ van de karakteristieke vergelijking
PA (λ) = det(A − λIn ) = 0
2. Voor elke wortel λ lossen we het lineair stelsel
AX = λX
op.
Als n groot wordt, dan is dit algoritme in de praktijk niet handig. Men kan dan numerieke technieken ontwikkelen om de eigenwaarden en eigenvectoren te bepalen. We verwijzen hier naar de
cursus numerieke algoritmen.
5.2
Diagonalizatie van een vierkante matrix
Laten we terugkeren naar ons oorspronkelijk probleem: kunnen we een basis van V vinden waarin
de matrix van f diagonaal is? Hiertoe moet deze basis bestaan uit eigenvectoren van f . Onderstel dat we een stel eigenvectoren hebben. De volgende stelling vertelt ons wanneer deze lineair
onafhankelijk zijn.
82
Stelling 5.2.1 Onderstel dat ~u1 , · · · ,~uk eigenvectoren zijn van een lineaire afbeelding f : V → V
met eigenwaarden λ1 , · · · , λk die twee aan twee verschillend zijn. Dan zijn de vectoren ~u1 , · · · ,~uk
lineair onafhankelijk.
Bewijs. Onderstel dat de vectoren ~u1 , · · · ,~uk lineair afhankelijk zijn. Dan is een van de vectoren ~us
een lineaire combinatie van de vorigen:
s−1
~us =
∑ αi~ui
(5.7)
i=1
Neem voor s de kleinst mogelijk index waarvoor ~us een lineaire combinatie van de vorige vectoren
~u1 , · · · ,~us−1 is. Uit (5.7) volgt dat
s−1
f (~us ) =
∑ αi f (~ui)
i=1
of
λs~us =
s−1
∑ αiλi~ui
(5.8)
i=1
Vermenigvuldig (5.7) met λs en trek hiervan (5.8) af. Dan volgt dat
~0 =
s−1
∑ αi(λs − λi)~ui
(5.9)
i=1
Omdat λs 6= λi is hierin tenminste een coëfficiënt αi (λs −λi ) 6= 0. Dus is het stel vectoren~u1 , · · · ,~us−1
lineair afhankelijk, en dit is strijdig met de minimaliteit van s.
De karakteristieke vergelijking PA (λ) = 0 is een veeltermvergelijking van graad n. Indien deze
n verschillende wortels heeft, dan zijn de bijhorende eigenvectoren lineair onafhankelijk, en dan
vormen deze een basis van V . Dan hebben we een basis van eigenvectoren, en dus is A diagonaliseerbaar.
Voorbeeld 5.2.2 Beschouw de matrix

2

A = 0
0
−2
3


−2 
3
−1
2
Dan is
det(A) = 8, Sp(A) = 7, Sp(adj(A)) = 14
en dus is de karakteristieke vergelijking
−λ3 + 7λ2 − 14λ + 8 = 0
De wortels hiervan zijn λ1 = 1, λ2 = 2 en λ3 = 4. De bijhorende eigenvectoren zijn
 
 
 
7
−1
1
 
 
 
X1 =  1  , X2 =  0  , X3 =  −4 
1
0
Deze vormen een basis, en de matrix A is dus diagonaliseerbaar.
83
2
Als we werken over de complexe getallen, dan is de karakteristieke veelterm steeds te schrijven als
een produkt van lineaire factoren (cf. stelling B.0.15). Als we werken over de reële getallen, dan
kan het zijn dat de karakteristieke vergelijking niet volledig te ontbinden is. De matrix A is dan
niet diagonaliseerbaar.
Voorbeeld 5.2.3 Beschouw de matrix
A=
cos θ
− sin θ
sin θ
cos θ
!
Dit is de matrix van een rotatie over een hoek θ. De karakteristieke vergelijking
cos θ − λ − sin θ =0
sin θ
cos θ − λ wordt nu
(cos θ − λ)2 + sin2 θ = 0
en deze heeft geen reële wortels, tenzij θ = kπ. Meetkundig is dit trouwens duidelijk: als we
het vlak draaien over een hoek die geen veelvoud van π is, dan wordt geen enkele vector in een
veelvoud van zichzelf omgezet.
Indien we werken over de complexe getallen, dan heeft de karakteristieke vergelijking wel wortels:
cos θ − λ = ∓i sin θ
of
λ = cos θ ± i sin θ = e±iθ
De eigenvectoren behorende bij de eigenwaarde eiθ worden gevonden uit het stelsel
cos θx − sin θy = cos θx + i sin θx
sin θx + cos θy = cos θy + i sin θy
of
−y = ix
De oplossingen zijn dus de veelvouden van de vector (1, −i). We hebben inderdaad dat
!
!
!
!
cos θ + i sin θ
1
cos θ − sin θ
1
= eiθ
=
−i
sin θ − i cos θ
sin θ cos θ
−i
De eigenvectoren behorende bij de eigenwaarde e−iθ zijn de veelvouden van de vector (1, i) (verifieer dit zelf).
De lezer zou nu kunnen denken dat over C elke matrix diagonaliseerbaar is. Immers, over C is
elke veelterm te ontbinden in lineaire factoren. Er is echter nog een andere moeilijkheid: het zou
kunnen dat de karakteristieke veelterm een meervoudige wortel heeft.
84
Herhaal dat α ∈ C een wortel is van de veelterm P met multipliciteit m als we P kunnen ontbinden
tot
P(X) = (X − α)m Q(X)
met Q(α) 6= 0.
Onderstel nu dat λ een wortel is van de karakteristieke vergelijking met multipliciteit m > 1. Indien
de dimensie d van de deelruimte van de eigenvectoren behorende bij λ ook m is, dan is er geen
probleem: bij de eigenwaarde λ horen dan m lineaire onafhankelijke eigenvectoren. We zullen
hierna bewijzen dat steeds geldt dat d ≤ m. Hierbij is het wel mogelijk dat d < m, zoals blijkt uit
het volgend voorbeeld.
Voorbeeld 5.2.4 Beschouw de matrix
A=
De karakteristieke vergelijking is nu
1
1
0
1
!
(1 − λ)2 = 0
en λ = 1 is een dubbele wortel. De eigenvectoren zijn de oplossingen van het stelsel
x+y = x
y = y
De eigenvectoren zijn dus de veelvouden van (1, 0), en deze vormen een vectorruimte van dimensie
1. We kunnen dus besluiten dat de matrix A niet kan gediagonalizeerd worden, zelfs niet als we
hem als een complexe matrix beschouwen.
Stelling 5.2.5 Als λ een wortel is met multipliciteit m van de karakteristieke vergelijking Pf (X) = 0
van een lineaire afbeelding f : V → V , dan geldt voor de ruimte Ker ( f − λIV ) van eigenvectoren
behorende bij λ dat
dim (Ker ( f − λIV )) ≤ m
Bewijs. Onderstel dat {~v1 , · · · ,~vd } een basis is van Ker ( f − λIV ). Vul deze aan tot een basis
{~v1 , · · · ,~vd ,~vd+1 , · · · ,~vn } van V . Ten opzichte van deze basis is de matrix van f van de vorm
!
λId B
0
C
waarbij C een vierkante (n − d) × (n − d)-matrix is. Hieruit volgt dat
Pf (X) = (λ − X)d PC (X)
en dus is λ een wortel van de karakteristieke vergelijking met multipliciteit tenminste d, zodat
d ≤ m.
Hoe weten we of een matrix A al dan niet kan gediagonalizeerd worden? In de praktijk kan men
natuurlijk altijd de eigenwaarden en eigenvectoren uitrekenen en kijken of men voldoende lineair
85
onafhankelijk eigenvectoren heeft. In het volgende hoofdstuk zullen we aantonen dat een reële
symmetrische matrix (en meer algemeen een complexe hermitische matrix) steeds te diagonaliseren is.
Uit het bovenstaande voorbeeld weten we dat niet elke matrix diagonaliseerbaar is, zelfs niet over
de complexe getallen. In deze paragraaf behandelen we het volgende probleem: kunnen we voor
een lineaire afbeelding f : V → V (V eindigdimensionaal) een basis vinden zodanig dat de matrix
van f tenopzichte van deze basis een bovendriehoeksmatrix wordt? We zullen zien dat dit over de
complexe getallen steeds het geval is.
Stelling 5.2.6 Onderstel dat f : V → V een lineaire afbeelding is, en dat de karakteristieke veelterm Pf kan ontbonden worden als een product van lineaire termen over K. Dan bestaat er een
basis van V tenopzichte waarvan de matrix van f een bovendriehoeksmatrix is.
Bewijs. We zullen de stelling bewijzen per inductie op de dimensie van V . Indien dim (V ) = 1, dan
is de stelling triviaal. Onderstel dat de stelling waar is voor dim (V ) = n. Het volstaat dan om de
stelling te bewijzen voor dim (V ) = n + 1.
Neem een wortel α van de karakteristieke veelterm Pf , en een bijhorende eigenvector ~v0 , zodat
f (~v0 ) = α~v0
Vul {~v0 } aan tot een basis {~v0 ,~w1 , · · · ,~wn } van V , en schrijf W = vct {~w1 , · · · ,~wn }. Dan is
V = K~v0 ⊕W
We noteren p1 : V → K~v0 en p2 : V → W voor de projecties van V op K~v0 en W . Voor elke ~v ∈ V
geldt dan dat
~v = p1 (~v) + p2 (~v)
(5.10)
Bekijk nu de afbeelding g : W → W gedefinieerd door
f|W
p2
g : W −→V −→W
De matrix van f ten opzichte van {~v0 ,~w1 , · · · ,~wn } is van de vorm


α a01 a02 · · · a0n


 0 a11 a12 · · · a1n 
.
..
..
.. 
 ..
.
.
. 


0
an1
an2
· · · ann
en de matrix van g tenopzichte van {~w1 , · · · ,~wn } is dan

a11 a12 · · ·
..
 ..
.
 .
an1
Hieruit volgt ook dat
an2

a1n
.. 
. 
· · · ann
Pf (λ) = (α − λ)Pg (λ)
86
Ook Pg kan dus volledig ontbonden worden in lineaire factoren. We kunnen de inductiehypothese
toepassen op W , en er bestaat een basis {~v1 , · · · ,~vn } van W waarin de matrix van g een bovendriehoeksmatrix is:


b11 b12 · · · b1n


 0 b22 · · · b2n 
 .
..
.. 
 ..
.
. 


0
· · · bnn
0
Dit betekent dat voor r = 1, 2, · · · , n:
r
g(~vr ) = p2 ( f (~vr )) = ∑ bir~vi
i=1
en dus is
r
f (~vr ) = p1 ( f (~vr )) + p2 ( f (~vr )) = b0r~v0 + ∑ bir~vi
i=1
waarbij we b0r~v0 noteerden voor p1 ( f (~vr )). De matrix van f tenopzichte van de basis {~v0 ,~v1 , · · · ,~vn }
is nu


α b01 b02 · · · b0n


 0 b11 b12 · · · b1n 




 0 0 b22 · · · b2n 
.
..
..
.. 
 ..
.
.
. 


0 0
0 · · · bnn
en dit is een bovendriehoeksmatrix.
Gevolg 5.2.7 Onderstel dat V een eindigdimensionale complexe vectorruimte is. Voor elke lineaire afbeelding f : V → V kan een basis van V gevonden worden tenopzichte waarvan de matrix
van f een bovendriehoeksmatrix is.
Bewijs. Dit volgt onmiddellijk uit stelling 5.2.6 en stelling B.0.15.
Men kan zich nu afvragen in hoeverre men dit resultaat kan verbeteren, met in het achterhoofd het
volgend idee: hoe meer nullen in de matrix van een lineaire afbeelding, hoe beter. Zonder bewijs
vermelden we volgend resultaat:
Stelling 5.2.8 Onderstel dat V een eindigdimensionale complexe vectorruimte is. Voor elke lineaire afbeelding f : V → V kan een basis E van V gevonden worden tenopzichte waarvan de matrix
van f de volgende vorm aanneemt:


B1 0 · · · 0


 0 B2 · · · 0 

[ f ]E,E =  .
..
.. 
.
.
. 
 .

0
0
87
· · · Bn
Hierin stelt 0 steeds de nulmatrix voor, en is Bi een matrix van de vorm


λi 1 0 · · · 0 0


 0 λi 1 · · · 0 0 
.
.. ..
..
.. 
.

Bi =  .
. .
.
.


 0 0 0 ··· λ 1 
i


0 0 0 · · · 0 λi
Men noemt dit de Jordanvorm, en men noemt de Bi de Jordanblokken.
5.3
De formule van Cayley-Hamilton
Beschouw een veelterm
P(X) = a0 + a1 X + · · · + an X n
met reële of complexe coëfficiënten. We kunnen hierin X vervangen door een reëel of complex
getal x, en zo krijgen we de veeltermfunctie
P : K → K : x 7→ P(x)
Evengoed kunnen we X vervangen door een vierkante matrix. Het resultaat is dan opnieuw een
vierkante matrix.
Voorbeeld 5.3.1 Voor P(X) = X 2 − X + 1 en
A=
vinden we
P(A) =
1
1
0
1
!2
−
1
1
0
1
1
1
0
1
!
!
+
1
0
0
1
!
=
1
1
0
1
!
Merk op dat de constante term in de veelterm in feite vervangen wordt door deze term maal de
eenheidsmatrix. We kunnen zelfs X vervangen door een lineaire afbeelding f , als we overeenkomen om X n te vervangen door f ◦ f ◦ · · · ◦ f . De gewone rekenregels blijven geldig, bijvoorbeeld,
indien een veelterm P(X) kan gefactorizeerd worden al P(X) = M(X)N(X), dan geldt voor elke
vierkante matrix A dat P(A) = M(A)N(A).
Onderstel nu dat A een vierkante matrix is, en dat A een diagonaalmatrix is:


λ1 0 · · · 0


 0 λ2 · · · 0 

A= .
..
.. 
.
.
. 
 .

0
0
88
· · · λn
De karakteristieke veelterm van A is dan
PA (X) = (λ1 − X)(λ2 − X) · · · (λn − X)
Het is nu gemakkelijk in te zien dat
PA (A) = 0
met andere woorden de matrix A voldoet aan zijn eigen karakteristieke vergelijking. De formule
van Cayley-Hamilton vertelt ons dat elke matrix voldoet aan zijn karakteristieke vergelijking.
Stelling 5.3.2 Onderstel dat V een eindigdimensionale vectorruimte is, en dat f : V → V een
lineaire afbeelding is met karakteristieke veelterm Pf . Dan is Pf ( f ) = 0.
Bewijs. Het volstaat om de formule aan te tonen voor de matrix van de lineaire afbeelding f tenopzichte van een welgekozen basis. Immers, Pf = PA als A de matrix van f is in eender welke basis
van V . Het volstaat verder om de stelling te bewijzen voor complexe vectorruimten, aangezien elke
reële matrix ook beschouwd kan worden als een complexe matrix.
Onderstel dus dat V een complexe vectorruimte is, en kies een basis E = {~v1 ,~v2 , · · · ,~vn } van V
waarin de matrix van f een bovendriehoeksmatrix is (stelling 5.2.7):


a11 a12 · · · a1n


 0 a22 · · · a2n 
[ f ]E,E = A = 
..
.. 
 ...
.
. 


0
0
· · · ann
De karakteristieke veelterm van f is nu
Pf (X) = (a11 − X)(a22 − X) · · · (ann − X)
Stel
Vi = vct {~v1 ,~v2 , · · · ,~vi }
dan hebben we dat
{~0} = V0 ⊂ V1 ⊂ V2 ⊂ · · · ⊂ Vn = V
en
dim (Vi ) = i
Bovendien geldt dat f (Vi ) ⊂ Vi , immers, voor j ≤ i geldt dat
j
f (~v j ) =
∑ ak j~vk ∈ V j ⊂ Vi
k=1
We beweren nu dat
(aii − f )(~x) ∈ Vi−1 voor ~x ∈ Vi
Schrijf ~x =~y + α~vi , waarbij ~y ∈ Vi−1 en α ∈ K. Dan is
(aii − f )(~y) = aii~y − f (~y) ∈ Vi−1
89
(5.11)
en
i
(aii − f )(α~vi ) = αaii~vi − α ∑ aki~vk
k=1
i−1
= −α ∑ aki~vk ∈ Vi−1
k=1
en (5.11) volgt.
Neem nu ~x ∈ V = Vn . Dan geldt achtereenvolgens
(ann − f )(~x) ∈ Vn−1
(an−1,n−1 − f )(ann − f )(~x) ∈ Vn−2
..
.
(a11 − f ) · · · (an−1,n−1 − f )(ann − f )(~x) ∈ V0 = {~0}
en dus geldt voor elke ~x ∈ V dat
Pf ( f )(~x) = (a11 − f ) · · · (an−1,n−1 − f )(ann − f )(~x) = ~0
zodat Pf ( f ) = 0, en dit bewijst de formule van Cayley-Hamilton.
90
Hoofdstuk 6
Euclidische ruimten
In de voorgaande hoofdstukken hebben we gezien hoe we de begrippen rechte en vlak uit de klassieke vlakke en driedimensionale meetkunde konden veralgemenen tot het begrip lineaire variëteit
in een willekeurige vectorruimte. Het begrip evenwijdigheid werd eveneens gedefinieerd, maar
tot nu toe zwegen we over begrippen als loodrechte stand, hoek en lengte. Om deze te kunnen
beschrijven moet onze vectorruimte uitgerust zijn met een rijkere structuur. Het zal blijken dat de
theorie voor reële en complexe vectorruimten verschillend is; in dit hoofdstuk behandelen we het
reële geval, het complexe geval is voor het volgend hoofdstuk.
6.1
Inwendige produkten
In dit hoofdstuk zijn alle vectorruimten reële vectorruimten.
Definitie 6.1.1 Neem een reële vectorruimte E. Een afbeelding
b : E × E−→R
wordt een inwendig produkt (Eng. inner product) genoemd indien b volgende eigenschappen bezit:
1. b is bilineair
b(α~x + β~y,~z) = αb(~x,~z) + βb(~y,~z)
b(~x, α~y + β~z) = αb(~x,~y) + βb(~x,~z)
(6.1)
voor alle α, β ∈ R en ~x,~y,~z ∈ E;
2. b is symmetrisch
b(~x,~y) = b(~y,~x)
(6.2)
~x 6= ~0 =⇒ b(~x,~x) > 0
(6.3)
voor alle ~x,~y ∈ E;
3. b is positief
91
We zullen dikwijls volgende notatie gebruiken:
b(~x,~y) = h~x,~yi
Een reële vectorruimte E die uitgerust is met een inwendig produkt h•, •i wordt een Euclidische
ruimte (Eng. Euclidean space, inner product space) genoemd.
Voorbeelden 6.1.2 1) Neem E = Rn , en definieer een inwendig produkt b als volgt:
n
b(~x,~y) =~x ·~y = ∑ xi yi
i=1
voor ~x = (x1 , x2 , · · · xn ), ~y = (y1 , y2 , · · · yn ) Het gewone scalair produkt op Rn is dus een voorbeeld
van een inwendig produkt. Er zijn echter vele andere voorbeelden.
2) Kies a, b, c ∈ R zodat b2 − ac < 0 en a, c > 0. Op R2 kunnen we dan een inwendig produkt
definieren als volgt.
h(x, y), (x0 , y0 )i = axx0 + b(xy0 + yx0 ) + cyy0
Ga zelf na dat voldaan is aan de eigenschappen (6.1, 6.2, 6.3).
3) Op E = C [a, b] = { f : [a, b] → R|f continu} kunnen we het volgende inwendig produkt definieren:
Z
b
h f , gi =
f (x)g(x)dx
a
Verifieer zelf dat h•, •i een inwendig produkt is.
De norm van een vector
Bekijken we even voorbeeld 1 in het geval n = 2. De lengte van een vector ~x = (x1 , x2 ) wordt dan
gegeven door de formule
q
k~xk =
x12 + x22
(zie bijvoorbeeld [5, Hoofdstuk 1]). De volgende definitie is op deze formule geı̈nspireerd.
Definitie 6.1.3 Beschouw een Euclidische ruimte E. De lengte of norm van ~x ∈ E wordt gegeven
door de formule
p
k~xk = h~x,~xi
De afstand tussen de vectoren ~x en ~y wordt gegeven door de formule
d(~x,~y) = k~x −~yk
We zullen nu enkele elementaire eigenschappen van de norm bewijzen; deze zijn allemaal veralgemeningen van corresponderende eigenschappen in R2 of Rn .
Stelling 6.1.4 (ongelijkheid van Cauchy-Schwarz)
Voor elke koppel vectoren ~x, ~y in een Euclidische ruimte E geldt dat
|h~x,~yi| ≤ k~xkk~yk
92
(6.4)
Bewijs. Als ~x = ~0 of ~y = ~0 dan is de formule triviaal. We kunnen dus onderstellen dat beide
vectoren verschillend van nul zijn. Voor elke α, β ∈ R geldt dat
0 ≤ hα~x − β~y, α~x − β~yi
= α2 h~x,~xi − 2αβh~x,~yi + β2 h~y,~yi
Neem nu
α = k~yk2 en β = h~x,~yi
dan volgt dat
k~yk4 k~xk2 − 2k~yk2 h~x,~yi2 + k~yk2 h~x,~yi2 ≥ 0
en
h~x,~yi2 ≤ k~yk2 k~xk2
Stelling 6.1.5 Neem een Euclidische ruimte E. De norm k•k voldoet aan de volgende eigenschappen, voor alle ~x,~y ∈ E en α ∈ R.
1. k~xk = 0 ⇐⇒ ~x = ~0;
2. kα~xk = |α|k~xk;
3. k~x +~yk ≤ k~xk + k~yk.
Deze laatste eigenschap wordt ook de driehoeksongelijkheid genoemd.
Bewijs. Bewijs 1) en 2) zelf als oefening. 3) volgt uit de ongelijkheid van Cauchy-Schwarz:
k~x +~yk2 =
=
≤
=
h~x +~y,~x +~yi
k~xk2 + 2h~x,~yi + k~yk2
k~xk2 + 2k~xkk~yk + k~yk2
(k~xk + k~yk)2
(6.5)
Opmerking 6.1.6 Een reële of complexe vectorruimte E die uitgerust is met een functie
k • k : E−→R+ : ~x 7→ k~xk
die voldoet aan de drie eigenschappen uit stelling 6.1.5 wordt een genormeerde ruimte genoemd.
Stelling 6.1.5 vertelt ons dus dat elke Euclidische ruimte een genormeerde ruimte is.
Gevolg 6.1.7 (parallellogramregel)
In een Euclidische ruimte E geldt volgende eigenschap, voor elke ~x,~y ∈ E.
k~x +~yk2 + k~x −~yk2 = 2k~xk2 + 2k~yk2
93
(6.6)
Bewijs. Uit (6.5) volgt
2h~x,~yi = k~x +~yk2 − k~xk2 − k~yk2
(6.7)
−2h~x,~yi = k~x −~yk2 − k~xk2 − k~yk2
(6.8)
en
Optellen van deze twee formules geeft (6.6).
Orthogonale vectoren
In de Euclidische ruimte R2 zijn twee vectoren ~x en ~y orthogonaal als hun scalair produkt ~x ·~y = 0.
De hoek θ tussen twee vectoren ~x en ~y wordt er gegeven door de formule
cos θ =
~x ·~y
k~xkk~yk
We nemen deze eigenschap als definitie voor een willekeurige Euclidische ruimte.
Definitie 6.1.8 Twee vectoren ~x en ~y in een Euclidische ruimte E worden orthogonaal genoemd
indien
h~x,~yi = 0
We noteren dit als volgt:
~x ⊥~y
De hoek θ tussen ~x en ~y wordt gegeven door de formule
cos θ =
h~x,~yi
k~xkk~yk
Gevolg 6.1.9 (stelling van Pythagoras)
Voor twee vectoren ~x en ~y in een Euclidische ruimte E geldt
~x ⊥~y =⇒ k~x +~yk2 = k~xk2 + k~yk2
Bewijs. Dit volgt onmiddellijk uit formule (6.5)
6.2
Orthonormale basissen
We werken in een Euclidische ruimte E.
Definitie 6.2.1 Een stel van nul verschillende vectoren {~e1 ,~e2 , · · ·} (eindig of aftelbaar) in een
Euclidische ruimte E wordt orthogonaal genoemd indien ~ei ⊥ ~e j zodra i 6= j. We noemen het stel
orthonormaal indien bovendien geldt dat k~ei k = 1 voor elke i.
94
Merk op dat een rij vectoren ~e1 ,~e2 , · · · ,~en , · · · orthonormaal is als voor elke i en j geldt
h~ei ,~e j i = δi j
Stelling 6.2.2 Een eindig stel orthogonale vectoren {~e1 ,~e2 , · · · ,~en } is steeds lineair onafhankelijk.
Bewijs. Onderstel dat
α1~e1 + α2~e2 + · · · + αn~en = ~0
Neem het inwendig produkt met ~ei , voor een willekeurige i. Dan volgt
αi h~ei ,~ei i = ~0
en dus is αi = 0.
Definitie 6.2.3 Als een basis van E bestaat uit een stel orthogonale (orthonormale) vectoren, dan
noemen we deze basis een orthogonale (orthonormale) basis.
We zullen nu bewijzen dat elke eindigdimensionale Euclidische ruimte een orthonormale basis
heeft. Een aftelbare rij vectoren ~x1 ,~x2 , · · · ,~xn , · · · is per definitie lineair onafhankelijk als elke
eindige deelrij lineair onafhankelijk is.
Stelling 6.2.4 (orthogonalizatieprocédé van Gram-Schmidt) Onderstel dat
~x1 ,~x2 , · · · ,~xn , · · ·
een eindig of aftelbaar stel lineair onafhankelijke vectoren is in een Euclidische ruimte E. Dan
bestaat er een orthonormale rij vectoren
~e1 ,~e2 , · · · ,~en , · · ·
zodat voor elke m geldt dat
vct {~e1 ,~e2 , · · · ,~em } = vct {~x1 ,~x2 , · · · ,~xm }
Bewijs. We construeren eerst een rij orthogonale vectoren
~b1 ,~b2 , · · · ,~bn , · · ·
waarvoor (6.9) geldt. We doen dit per inductie op m.
m = 1: neem ~b1 =~x1 .
Onderstel nu dat ~b1 ,~b2 , · · · ,~bm geconstrueerd zijn en voldoen aan (6.9), en schrijf
m
~bm+1 =~xm+1 + ∑ αi~bi
i=1
Dan geldt dat
vct {~b1 ,~b2 , · · · ,~bm ,~bm+1 } = vct {~b1 ,~b2 , · · · ,~bm ,~xm+1 }
= vct {~x1 ,~x2 , · · · ,~xm ,~xm+1 }
95
(6.9)
Hieruit volgt in het bijzonder dat {~b1 ,~b2 , · · · ,~bm ,~bm+1 } lineair onafhankelijk is, want de dimensie
van de voortgebrachte ruimte is m + 1. Hieruit volgt ook dat ~bm+1 6= ~0.
De coëfficiënten α1 , · · · , αm worden nu zo gekozen dat voor j = 1, · · · , m:
~bm+1 ⊥ ~b j
of
h~bm+1 ,~b j i = h~xm+1 ,~b j i + α j h~b j ,~b j i = 0
Het volstaat om
αj = −
h~xm+1 ,~b j i
h~b j ,~b j i
te kiezen.
Om de rij vectoren orthonormaal te maken stellen we tenslotte
~e j =
~b j
k~b j k
Gevolg 6.2.5 Elke eindigdimensionale Euclidische ruimte heeft een orthonormale basis.
Bewijs. We weten dat elke eindigdimensionale vectorruimte een basis heeft. Gebruik het GramSchmidt procédé om deze om te vormen tot een orthonormale basis.
Onderstel dat {~e1 ,~e2 , · · · ,~en } een orthonormale basis is van een Euclidische ruimte E. Het inwendig produkt kan nu gemakkelijk uitgerekend worden: voor
n
n
i=1
i=1
~a = ∑ αi~ei , ~b = ∑ βi~ei
hebben we
n
n
h~a,~bi = h ∑ αi~ei , ∑ β j~e j i
i=1
n n
=
j=1
∑ ∑ αiβ j h~ei,~e j i
i=1 j=1
n n
=
∑ ∑ α i β j δi j
i=1 j=1
n
=
∑ αiβi
i=1
Gevolg 6.2.6 Onderstel dat E een n-dimensionale Euclidische ruimte is. Dan bestaat er een isomorfisme f : E → Rn die het inwendig product in E omzet in het standaardinwendig product op
Rn .
Bewijs. Neem een orthonormale basis van E, en neem voor f de afbeelding die een vector afbeeldt
op de coördinaten tenopzichte van deze orthonormale basis.
96
Het orthogonaal complement van een deelruimte
Definitie 6.2.7 Neem een Euclidische ruimte E, en X ⊂ E. De verzameling
X ⊥ = {~y ∈ E|~y ⊥~x, ∀~x ∈ X}
noemen we het orthogonaal complement van de verzameling X
Stelling 6.2.8 X ⊥ is een deelruimte van E.
Bewijs. Onderstel ~y,~z ∈ X ⊥ . Voor alle α, β ∈ R geldt dat
hα~y + β~z,~xi = αh~y,~xi + βh~z,~xi = 0
en dus is α~y + β~z ∈ X ⊥ .
Stelling 6.2.9 Onderstel dat E een Euclidische ruimte is, en dat F een eindigdimensionale deelruimte is. Dan geldt
E = F ⊕ F⊥
We zeggen dat E de orthogonale directe som is van F en F ⊥ .
Bewijs. We moeten eerst bewijzen dat F ∩ F ⊥ = {~0}. Dit gaat als volgt:
~x ∈ F ∩ F ⊥ =⇒ ~x ⊥~x
=⇒ h~x,~xi = 0
=⇒ ~x = ~0
We zullen nu aantonen dat E = F + F ⊥ . Uit stelling 6.2.5 weten we dat F een orthonormale basis
{~f1 , ~f2 , · · · , ~fm } heeft. Neem ~x ∈ E en stel
m
~y = ∑ h~x, ~fi i~fi ∈ F
i=1
en
~z =~x −~y
Voor j = 1, · · · , m hebben we nu dat
m
h~f j ,~zi = h~f j ,~xi − ∑ h~x, ~fi ih~fi , ~f j i
i=1
m
= h~f j ,~xi − ∑ h~x, ~fi iδi j = 0
i=1
zodat~z ∈ F ⊥ . We hebben dus bewezen dat ~x =~y +~z met ~y ∈ F en~z ∈ F ⊥ .
97
We merken op (zonder bewijs) dat stelling 6.2.9 niet altijd geldig is indien F oneindigdimensionaal
is.
Voor F eindigdimensionaal kunnen we de projectie
m
p : E−→F : ~x 7→ ∑ h~x, ~fi i~fi
i=1
beschouwen. We noemen deze de orthogonale projectie van E op F. De afstand d(~x, F) van ~x ∈ E
tot F is per definitie
d(~x, F) = k~x − p(~x)k
(6.10)
Laten we aantonen dat dit een zinnige definitie is:
Stelling 6.2.10 Onderstel dat F een eindigdimensionale deelruimte is van een Euclidische ruimte
E, en ~x ∈ E. Dan is
d(~x, F) = min{k~x − ~f k : ~f ∈ F}
Bewijs. Neem ~x ∈ E. Voor elke ~f ∈ F geldt:
k~x − ~f k2 = k~x − p(~x) + p(~x) − ~f k2
= k~x − p(~x)k2 + kp(~x) − ~f k2
≥ k~x − p(~x)k2
Hierbij maakten we gebruik van de stelling van Pythagoras, gecombineerd met het feit dat
~x − p(~x) ⊥ p(~x) − ~f
Voor een verzameling X ⊂ E kunnen we het orthogonale complement van het orthogonale complement bekijken:
X ⊥⊥ = (X ⊥ )⊥
Hiervoor geldt de volgende eigenschap.
Stelling 6.2.11 Voor elke deelverzameling X van een Euclidische ruimte E geldt
X ⊂ X ⊥⊥
Bewijs. Als ~x ∈ X, dan geldt voor elke ~y ∈ X ⊥ dat ~x ⊥~y zodat ~x ∈ X ⊥⊥ .
Stelling 6.2.12 Als F een eindigdimensionale vectorruimte is van een Euclidische ruimte E, dan
is F = F ⊥⊥ .
Bewijs. We weten reeds dat F ⊂ F ⊥⊥ . Neem ~x ∈ F ⊥⊥ , en schrijf
~x =~y +~z
98
met ~y ∈ F, ~z ∈ F ⊥ (cf. stelling 6.2.9). Nu geldt
h~x,~zi = 0
aangezien~z ∈ F ⊥ en ~x ∈ F ⊥⊥ . We hebben ook
h~y,~zi = 0
aangezien ~y ∈ F en~z ∈ F ⊥ . Als we deze twee eigenschappen combineren vinden we dat
h~z,~zi = h~x,~zi − h~y,~zi = 0
en dus moet~z = ~0. Maar dan is ~x =~y ∈ F.
6.3
Toegevoegde lineaire afbeeldingen
We nemen twee eindigdimensionale Euclidische ruimten, met basissen
E = {~e1 , . . . ,~en } voor E
F = {~f1 , . . . , ~fm } voor F
De matrix A = [ f ]E ,F van een lineaire afbeelding f : E → F kan geschreven worden in termen
van het inwendig product. Immers, voor elke i ∈ {1, . . . , n} hebben we
m
f (~ei ) =
∑ aki ~fk
k=1
en dus, voor elke j ∈ {1, . . . , m}:
m
h f (~ei ), ~f j i = h ∑ aki ~fk , ~f j i =
k=1
m
∑ akiδk j = a ji
(6.11)
k=1
Deze formule is ondermeer nuttig in het bewijs van de volgende stelling:
Stelling 6.3.1 Zij f : E → F een lineaire afbeelding tussen twee eindigdimensionale Euclidische
ruimten E en F. Er bestaat dan een unieke lineaire afbeelding f † : F → E waarvoor geldt
h f (~x),~yi = h~x, f † (~y)i
(6.12)
voor elke ~x ∈ E en ~y ∈ F. Als A = [ f ]E ,F de matrix is van f tenopzichte van twee orthonormale
basissen E en F , dan is
[ f † ]F ,E = At
(6.13)
de getransponeerde van de matrix A. We noemen f † de toegevoegde van f .
99
Bewijs. We bewijzen eerst het bestaan van de afbeelding f † . Zoals hierboven nemen we orthonormale basissen voor E en F, en we definiëren f † door (6.13). Als we (6.11) toepassen op f † , dan
vinden we
h f † (~f j ),~ei i = a ji
(6.14)
en, als we (6.11) en (6.14) vergelijken:
h f (~ei ), ~f j i = h~ei , f † (~f j )i
(6.15)
(6.12) volgt nu gemakkelijk uit de lineariteit van f en f † : voor~x = ∑ni=1 αi~ei ∈ E en~y = ∑mj=1 β j ~f j ∈
F hebben we namelijk
n
h f (~x),~yi =
m
∑ ∑ αiβ j h f (~ei), ~f j i
i=1 j=1
n m
=
∑ ∑ αiβ j h~ei, f †(~f j )i
i=1 j=1
†
= h~x, f (~y)i
De uniciteit wordt bewezen als volgt: onderstel dat f † : F → E voldoet aan (6.12). Kies orthonormale basissen E en F , zoals hierboven. Uit (6.12) volgt onmiddellijk dat
h f (~ei ), ~f j i = h~ei , f † (~f j )i
en dus, als we (6.12) toepassen op f en f † :
[ f † ]F ,E = [ f ]tE ,F
en de matrix van f † , en a fortiori f † , is dus volledig bepaald.
Gevolg 6.3.2 Voor een lineaire afbeelding f : E → F hebben we
f †† = f
Bewijs. Stel [ f ]E ,F = A. De matrix van f †† is dan Att = A, en het gestelde volgt.
Een afbeelding f : E → E heet zelftoegevoegd indien f = f † . Uit stelling 6.3.1 volgt dat een
lineaire afbeelding zelftoegevoegd is als de matrix van die lineaire afbeelding symmetrisch is,
d.w.z. ai j = a ji voor elk koppel indices i en j. Voor een zelftoegevoegde lineaire afbeelding f
geldt dus dat
h f (~x),~yi = h~x, f (~y)i
voor alle ~x,~y ∈ E.
100
6.4
Orthogonale lineaire afbeeldingen
Definitie 6.4.1 Een lineaire afbeelding f : E → E van een Euclidische ruimte naar zichzelf wordt
orthogonaal genoemd als
k f (~x)k = k~xk
voor elke ~x ∈ E.
Stelling 6.4.2 Een lineaire afbeelding f : E → E is orthogonaal als en alleen als
h f (~x), f (~y)i = h~x,~yi
voor alle ~x,~y ∈ E.
Bewijs. Een implicatie is triviaal, en de tweede volgt uit (6.7).
Stelling 6.4.3 Een orthogonale lineaire afbeelding f : E → E is steeds injectief. Indien E eindigdimensionaal is, dan is f bijectief.
Bewijs. Als f (~x) = ~0, dan is k f (~x)k = k~xk = 0, en dus ~x = ~0.
Vanaf nu beperken we ons tot de situatie waarin E eindigdimensionaal is. In dat geval is de inverse
van de orthogonale lineaire afbeelding f gelijk aan de toegevoegde f † .
Stelling 6.4.4 Onderstel f : E → E lineair, met E een eindigdimensionale Euclidische ruimte.
Dan geldt
f is orthogonaal ⇐⇒ f † ◦ f = iE
Bewijs. Onderstel dat f orthogonaal is. Dan geldt voor alle ~x,~y ∈ E
h( f † ◦ f )(~x),~yi = h f (~x), f (~y)i = h~x,~yi
zodat f † ◦ f = iE .
Omgekeerd, indien f † ◦ f = iE , dan hebben we voor elke ~x,~y ∈ E
h~x,~yi = h( f † ◦ f )(~x),~yi = h f (~x), f (~y)i
en dus is f orthogonaal.
Gevolg 6.4.5 Als f : E → E orthogonaal is, dan is ook f † orthogonaal.
We kunnen orthogonale lineaire afbeeldingen ook nog karakteriseren met behulp van orthonormale
basissen.
Stelling 6.4.6 Een lineaire afbeelding f : E → E is orthogonaal als en alleen als f orthonormale
basissen omzet in orthonormale basissen.
101
Bewijs. Uit definitie 6.4.1 en stelling 6.4.2 volgt onmiddellijk dat f orthonormale basissen omzet
in orthonormale basissen. Onderstel dat {~e1 , · · · ,~en } een orthonormale basis is van E, en dat ook
{ f (~e1 ), · · · , f (~en )} een orthonormale basis is. Neem ~x = ∑ni=1 αi~ei ∈ E. Dan is
k f (~x)k
2
n
= k ∑ αi f (~ei )k2
i=1
n
∑ α2i
=
i=1
= k~xk2
en dus is f orthogonaal.
Een vierkante matrix A wordt een orthogonale matrix genoemd als de lineaire afbeelding Rn →
Rn : X 7→ AX, waarbij Rn uitgerust is met het standaard inwendig produkt, orthogonaal is. Uit
6.4.4, 6.4.5 en 6.4.6 volgt nu onmiddellijk:
Gevolg 6.4.7 Voor een n × n-matrix A zijn volgende eigenschappen equivalent.
1. A is orthogonaal;
2. A−1 = At ;
3. de kolommen van A vormen een orthonormale basis van Rn ;
4. de rijen van A vormen een orthonormale basis van Rn .
Rn is hier uitgerust met het standaard inwendig produkt.
Gevolg 6.4.8 Voor een orthogonale matrix A geldt dat det(A) = ±1.
Bewijs. 1 = det(AAt ) = det(A) det(At ) = det(A)2 .
Voorbeelden 6.4.9 De matrices
√1
 12
√
 2

cos θ
− sin θ
sin θ
cos θ
!
en
0
√1
3
√
− 13
√1
3
zijn orthogonale matrices.
Orthogonale transformaties van R
Onderstel dat
A = ( a ) ∈ M11 (R) = R
102
√1
6

√
− 16 

√
2
− √3

orthogonaal is. Uit 6.4.7 volgt dat {a} een orthonormale basis van R is, en dus is a = ±1. Er zijn
dus juist twee orthogonale transformaties van R. Stel nu
V = {x ∈ R|ax = x}
V is de verzameling der dekpunten van de orthogonale transformatie, en V is een deelruimte van
R. Als a = 1, dan is V = R, en dim (V ) = 1. Als a = −1, dan is V = {0}, en dim (V ) = 0.
Orthogonale transformaties van R2
Onderstel dat
a
c
b
d
n a
!
A=
!
∈ M22 (R)
orthogonaal is. Uit 6.4.7 volgt dat
b
,
!
c o
d
een orthonormale basis is. Dus is
a2 + b2 = 1 en c2 + d 2 = 1
en we kunnen schrijven
a = cos θ, b = sin θ, c = sin ψ, d = cos ψ
Uit de orthogonaliteit van de twee kolommen volgt
ac + bd = cos θ sin ψ + sin θ cos ψ = sin(θ + ψ) = 0
en dus is θ + ψ = 0 of θ + ψ = π.
Eerste geval : ψ = −θ. In dit geval is
A=
cos θ
− sin θ
sin θ
cos θ
!
de matrix van een rotatie rond de oorsprong over de hoek θ. Merk op dat in dit geval det(A) = 1.
Tweede geval : ψ = π − θ. In dit geval is
!
cos θ
sin θ
A=
sin θ − cos θ
de matrix van de orthogonale spiegeling ten opzichte van de rechte door de oorsprong die een hoek
θ/2 insluit met de x-as. Merk op dat in dit geval det(A) = −1.
We kunnen de orthogonale transformaties ook classeren volgens de dimensie van de ruimte der
dekpunten V . Als A een rotatie voorstelt om een hoek θ 6= 0, dan is dim (V ) = 0. Als A een
spiegeling voorstelt, dan is dim (V ) = 1. Als A de eenheidsmatrix is (d.i. een rotatie over hoek 0),
dan is dim (V ) = 2.
Stelling 6.4.10 Er zijn twee soorten lineaire transformaties van R2 : rotaties rond de oorsprong
(deze hebben determinant 1), en spiegelingen tenopzichte van rechten door de oorsprong (deze
hebben determinant −1).
103
Orthogonale transformaties van R3
Beschouw een orthogonale lineaire afbeelding f : R3 → R3 , en neem
V = {X ∈ R3 |AX = X}
V is de deelruimte behorende bij de eigenwaarde 1, of nog, V is de verzameling van de dekpunten
van de lineaire transformatie f . Er zijn nu vier mogelijke gevallen: dimV = 0, 1, 2 of 3.
Eerste geval : dimV = 3. Dan is f de identiteit, en A = I3 . In dit geval is det( f ) = 1.
Tweede geval : dimV = 2. Neem een orthonormale basis {F1 , F2 } van V . Vul deze aan tot een
basis {F1 , F2 , X3 } van R3 , en zet deze met behulp van het Gram-Schmidt procédé om tot een orthonormale basis {F1 , F2 , F3 }. Dan staat f (F3 ) loodrecht op f (F1 ) = F1 en f (F2 ) = F2 . Dus moet
f (F3 ) = λF3 , en aangezien k f (F3 )k = kF3 k = 1 is λ = ±1. λ = 1 is onmogelijk, want F3 is geen
dekpunt, en dus is f (F3 ) = −F3 . De matrix van f ten opzichte van de basis {F1 , F2 , F3 } is dus


1 0 0


0 1 0 
0
0
−1
en f is de orthogonale spiegeling om het vlak door F1 en F2 . In dit geval is det( f ) = −1.
Derde geval : dimV = 1. Stel V = RF1 , met kF1 k = 1. Vul {F1 } aan tot een orthonormale basis
{F1 , F2 , F3 } van R3 . Stel W = RF2 ⊕ RF3 . Omdat f (F2 ) ⊥ f (F1 ) = F1 , is f (F2 ) ∈ W . Op dezelfde
manier volgt dat f (F3 ) ∈ W , en dus is de beperking van f tot W een orthogonale transformatie van
W:
f|W : W → W
f|W heeft bij onderstelling slechts één dekpunt, de oorsprong, en dus is f|W een rotatie in het F2 F3 -vlak rond de oorsprong over een hoek θ. De matrix van f ten opzichte van de basis {F1 , F2 , F3 }
is nu


1
0
0


 0 cos θ − sin θ 
0
sin θ
cos θ
f is dus een rotatie rond de as F1 . In dit geval is det( f ) = 1.
Vierde geval : dimV = 0. f heeft dus geen niet-triviale dekpunten. De karakteristieke veelterm Pf
van f is van graad 3, en heeft dus minstens een reëel nulpunt. f heeft dus een eigenvector F1 met
een reële eigenwaarde λ.
f (F1 ) = λF1
Omdat k f (F1 )k = k f1 k moet |λ| = 1. λ = 1 is niet mogelijk, want f heeft geen niet-triviale
dekpunten, en dus is λ = −1, en
f (F1 ) = −F1
104
Zorg ervoor dat F1 lengte 1 heeft, en vul {F1 } aan tot een orthonormale basis {F1 , F2 , F3 } van
R3 . Stel W = RF2 ⊕ RF3 . Net zoals in het vorige geval is de beperking f|W een orthogonale
transformatie van W zonder dekpunten. f|W is dus een rotatie in het F2 -F3 -vlak rond de oorsprong
over een hoek θ. De matrix van f ten opzichte van de basis {F1 , F2 , F3 } is nu


−1
0
0


 0 cos θ − sin θ 
0
sin θ
cos θ
f is dus een rotatie rond de as F1 , gevolgd door een spiegeling om het vlak door F2 en F3 . In dit
geval is det( f ) = −1.
In de volgende stelling vatten we onze resultaten samen:
Stelling 6.4.11 Onderstel dat f : R3 → R3 een orthogonale transformatie is, en neem voor V de
verzameling van de dekpunten van f . Er zijn dan vier mogelijkheden.
1. dimV = 3. Dan is f de identieke afbeelding.
2. dimV = 2. Dan is f de orthogonale spiegeling ten opzichte van een vlak door de oorsprong.
3. dimV = 1. Dan is f een rotatie rond een rechte door de oorsprong.
4. dimV = 0. Dan is f een rotatie rond een rechte door de oorsprong, gevolgd door de spiegeling tenopzichte van het vlak door de oorsprong loodrecht op deze rechte.
6.5
Volume en vectorieel produkt
Georiënteerde Euclidische ruimten
Onderstel dat E een eindigdimensionale ruimte is. Kies een vaste orthonormale basis
B = {~e1 ,~e2 , · · · ,~en }
van E. In het vervolg zal de volgorde van de basisvectoren een rol spelen. We noemen een basis
A = {~a1 ,~a2 , · · · ,~an } positief georiënteerd indien de overgangsmatrix bij overgang van basis B naar
basis A een positieve determinant heeft. Indien deze determinant negatief is, dan noemen we A een
negatief georiënteerde basis. De ruimte E wordt georiënteerd door het vastleggen van een positief
georiënteerde basis.
In R2 kiest men de positieve basis {~e1 ,~e2 } gewoonlijk als volgt: als men de vector ~e1 op de kortst
mogelijk manier draait tot in ~e2 , dan draait men in tegenuurwijzerzin.
In R3 is de conventie de volgende: als men de duim van een rechterhand in de ~e1 -richting laat
wijzen, en de wijsvinger in de ~e2 -richting, dan wijst de middelvinger in de ~e3 -richting. Deze regel
staat bekend als de rechterhandregel.
Merk op dat de oriëntatie van een basis verandert als men twee vectoren van de basis met elkaar
verwisselt.
105
Het georiënteerde volume in een Euclidische ruimte
Neem twee vectoren (a, b) en (c, d) in R2 . Het is welbekend dat de oppervlakte van het parallellogram opgespannen door deze twee vectoren gegeven wordt door de formule
a c ±S = (6.16)
b d We veralgemenen (6.16) formeel tot n-dimensionale Euclidische ruimten, en komen zo tot de volgende definitie.
Definitie 6.5.1 Onderstel dat ~a1 ,~a2 , · · · ,~an vectoren zijn in een n-dimensionale georiënteerde vectorruimte E. Als
(a1i , a2i , · · · , ani )
de coordinaten zijn van ~ai ten opzichte van een positief georiënteerde orthonormale basis B =
{~e1 ,~e2 , · · · ,~en }, dan noemen we
a11 a12 · · · a1n a21 a22 · · · a2n voln (~a1 ,~a2 , · · · ,~an ) = .
..
.. .
.
.
. a
n1 an2 · · · ann
het georiënteerd volume van het hyperparallellepipedum opgespannen door de vectoren
~a1 ,~a2 , · · · ,~an .
Is dit wel een goede definitie? Eerst zullen we aantonen dat de definitie onafhankelijk is van de
gekozen georiënteerde basis B, en daarna zullen we aantonen dat de definitie overeenstemt met ons
intuitief idee over oppervlakte en volume.
Stelling 6.5.2 Definitie 6.5.1 is onafhankelijk van de keuze van de georiënteerde orthonormale
basis B van E.
Bewijs. Onderstel dat C = {~f1 , ~f2 , · · · , ~fn } een andere positief georiënteerde basis van E is, en dat
M de overgangsmatrix bij overgang van de basis C naar de basis B is. Omdat B en C orthonormale
basissen zijn, is M een orthogonale matrix, zodat det(M) = ±1. Omdat B en C allebei positief
georiënteerd zijn is det(M) = 1. Uit hoofdstuk 2 weten we dat
A0i = [~ai ]C = M[~ai ]B = MAi
(cf. (2.9)). Hieruit volgt dat
det ( A01
A02
· · · A0n ) = det ( MA1 MA2 · · · MAn )
= det(M) det ( A1 A2 · · · An )
= det ( A1 A2 · · · An )
106
en dit is net wat we wilden bewijzen.
We zullen nu aantonen dat definitie 6.5.1 overeenstemt met ons intuitief idee over oppervlakte en
volume. Herhaal uit het lager onderwijs dat de oppervlakte van een parallellogram het produkt is
van de basis en de hoogte van het parallellogram. We kunnen deze formule herschrijven als volgt:
onderstel dat het parallellogram wordt opgespannen door de vectoren ~a en ~b, en beschouw ~a als
de basis van het parallellogram. De hoogte is dan niets anders dan de afstand d(~b,V ) van ~b tot de
vectorruimte V voortgebracht door de vector ~a.
Een analoge eigenschap geldt voor het volume van een parallellepipedum opgespannen door drie
vectoren ~a,~b,~c ∈ R3 : het volume is de oppervlakte van het parallellogram opgespannen door de
vectoren ~a en ~b en de hoogte van het parallellepipedum. De hoogte van het parallellepipedum is in
feite de afstand d(~c,V ) van ~c tot de vectorruimte V voortgebracht door de vectoren ~a en ~b.
We zullen nu aantonen dat deze eigenschap volgt uit definitie 6.5.1.
Stelling 6.5.3 Beschouw een n-tal vectoren {~a1 ,~a2 , · · · ,~an } in een n-dimensionale Euclidische
ruimte E, en stel V = vct {~a2 ,~a3 , · · · ,~an }. Dan geldt dat
|voln (~a1 ,~a2 , · · · ,~an )| = d(~a1 ,V )|voln−1 (~a2 ,~a3 , · · · ,~an )|
Bewijs. Als de vectoren {~a1 ,~a2 , · · · ,~an } lineair afhankelijk zijn, dan zijn beide leden nul, en is de
stelling bewezen (ga dit zelf na). We kunnen dus onderstellen dat {~a1 ,~a2 , · · · ,~an } een basis van E
is, en {~a2 ,~a3 , · · · ,~an } een basis van V . Uit stelling 6.5.2 volgt dat we vrij een positief georiënteerde
basis van E mogen kiezen om volumes te berekenen. We doen dit als volgt: neem een orthonormale
basis {~e2 ,~e3 , · · · ,~en } van V , en vul deze aan tot een positief georiënteerde basis {~e1 ,~e2 , · · · ,~en } van
E. Dan hebben we, met dezelfde notaties als hierboven voor de coordinaten van de vectoren ~ai :
d(~a1 ,V ) = |a11 |
De ~e1 -componenten van de vectoren ~a2 ,~a3 , · · · ,~an zijn nul, zodat
a11 0 · · · 0 a21 a22 · · · a2n |voln (~a1 ,~a2 , · · · ,~an )| = | .
..
.. |
.
.
. .
a
n1 an2 · · · ann
a22 · · · a2n .
.. .
= |a11 || .
. |
a
n2 · · · ann
= d(~a1 ,V )|voln−1 (~a2 ,~a3 , · · · ,~an )|
De determinant krijgt dus nu een meetkundige betekenis: bekijk de kolommen van de matrix A
als vectoren in Rn met de standaardbasis als positief georiënteerde basis. De determinant van A is
107
dan het volume van het hyperparallellepipedum opgespannen door de kolommen van A vermenigvuldigd met plus of min 1 alnaargelang de kolommen van A een positief of negatief georiënteerde
basis van Rn vormen; indien rg (A) < n, dan is de determinant 0 en is er geen discussie over het
teken.
Het vectorieel produkt
We werken nu in een driedimensionale georiënteerde Euclidische ruimte E. Neem een positief
georiënteerde orthonormale basis {~e1 ,~e2 ,~e3 }.
Definitie 6.5.4 Het vectorieel produkt van twee vectoren ~a = a1~e1 + a2~e2 + a3~e3 en ~b = b1~e1 +
b2~e2 + b3~e3 is de vector
~e1 ~e2 ~e3 ~
(6.17)
~c = ~a × b = a1 a2 a3 b b b 1
2
3
Formule (6.17) moet als volgt gelezen worden: vergeet even dat er vectoren in de determinant
staan, ontwikkel de determinant naar de eerste rij, en interpreteer dan opnieuw de elementen van
de eerste rij in de determinant als de drie basisvectoren. (6.17) kan dus herschreven worden als
volgt:
~a ×~b = (a2 b3 − a3 b2 )~e1 + (a3 b1 − a1 b3 )~e2 + (a1 b2 − a2 b1 )~e3
(6.18)
Formule (6.17) is natuurlijk gemakkelijker om te onthouden. Als ~a k ~b, dan is ~a ×~b = ~0. Indien ~a
en ~b niet evenwijdig zijn, dan hebben we volgende eigenschap.
Stelling 6.5.5 Onderstel dat de vectoren ~a en ~b niet evenwijdig zijn. Het vectorieel produkt ~c =
~a ×~b is de unieke vector met de volgende eigenschappen:
1. ~c ⊥ ~a en ~c ⊥ ~b;
2. k~ck is de oppervlakte van het parallellogram opgespannen door ~a en ~b;
3. {~a,~b,~c} is een positief georiënteerde basis van E.
Bewijs. We schrijven
~c = ~a ×~b = c1~e1 + c2~e2 + c3~e3
Dan is
a1
h~a,~ci = a1
b
1
a2
a2
b2
a3 a3 = 0
b3 zodat ~c ⊥ ~a. Op dezelfde manier zien we dat ~c ⊥ ~b, en dit bewijst de eerste uitspraak. Laten we nu
aantonen dat
q
|Opp(~a,~b)| = k~ck = c21 + c22 + c23
108
De vector
~u =
1
~c
k~ck
is een eenheidsvector die loodrecht staat op het parallellogram dat opgespannen wordt door ~a en
~b. Dus is
|Opp(~a,~b)| = |Vol(~u,~a,~b)|
c1 c2 c3 1 =
a1 a2 a3 k~ck b b b 1
2
3
1 2
=
(c + c22 + c23 )
k~ck 1
= k~ck
Dit bewijst onze tweede uitspraak. We hebben ook dat
c1 c2 c3 a1 a2 a3 = c21 + c22 + c23 > 0
b b b 1
2
3
zodat {~a,~b,~c} een positief georiënteerde basis is.
109
Hoofdstuk 7
Prehilbertruimten
7.1
Prehilbertruimten
Hilbert inwendige produkten
In dit hoofdstuk zijn alle vectorruimten complexe vectorruimten. Om de gedachten te vestigen
bekijken we C als vectorruimte over zichzelf. Laten we trachten om een inwendig produkt
b : C×C → C
te definiëren. Het ligt voor de hand om volgende formule te proberen:
b(z1 , z2 ) = z1 z2
(7.1)
Dit werkt echter niet, omdat b(z, z) niet noodzakelijk een positief reëel getal is. Met deze definitie
kunnen we dus niet de lengte van een complex getal definiëren. Daarom passen we de definitie een
beetje aan: we schrijven
(7.2)
b(z1 , z2 ) = z1 z2
Herinner dat het complex toegevoegde z van een complex getal z = x + iy gegeven wordt door de
formule z = x − iy. We krijgen dus dat
b(z, z) = zz = (x + iy)(x − iy) = x2 + y2 > 0
als z 6= 0. Merk op dat het inwendig produkt gegeven door de formule (7.2) niet bilineair en niet
symmetrisch is. Wel hebben we de eigenschappen
b(z1 , z2 ) = b(z2 , z1 )
en
b(αz1 , z2 ) = αb(z1 , z2 )
b(z1 , αz2 ) = αb(z1 , z2 )
We inspireren ons hierop bij de volgende definitie:
110
Definitie 7.1.1 Neem een complexe vectorruimte H. Een afbeelding
b : H × H−→C
wordt een Hilbert inwendig produkt genoemd indien b volgende eigenschappen bezit:
1. b is sesquilineair
b(α~x + β~y,~z) = αb(~x,~z) + βb(~y,~z)
b(~x, α~y + β~z) = αb(~x,~y) + βb(~x,~z)
(7.3)
voor alle α, β ∈ C en ~x,~y,~z ∈ H;
2.
b(~x,~y) = b(~y,~x)
(7.4)
~x 6= ~0 =⇒ b(~x,~x) > 0
(7.5)
voor alle ~x,~y ∈ H;
3. b is positief
Net zoals in het voorgaand hoofdstuk zullen we dikwijls volgende notatie gebruiken:
b(~x,~y) = h~x,~yi
Een complexe vectorruimte E die uitgerust is met een Hilbert inwendig produkt h•, •i wordt een
prehilbertruimte genoemd.
Voorbeeld 7.1.2 Neem H = Cn , en definieer een Hilbert inwendig produkt h•, •i als volgt:
n
h~w,~zi = ∑ wi zi
i=1
voor ~w = (w1 , w2 , · · · wn ), ~z = (z1 , z2 , · · · zn ). We noemen dit het standaard inwendig produkt op
Cn .
De norm van een vector en de ongelijkheid van Cauchy-Schwarz
Definitie 7.1.3 Beschouw een prehilbertruimte H. De lengte of norm van ~z ∈ H wordt gegeven
door de formule
p
k~zk = h~z,~zi
De afstand tussen de vectoren ~w en~z wordt gegeven door de formule
d(~w,~z) = k~w −~zk
De meeste eigenschappen uit het voorgaand hoofdstuk kunnen veralgemeend worden tot prehilbertruimten. We behandelen enkele van deze eigenschappen
111
Stelling 7.1.4 (ongelijkheid van Cauchy-Schwarz)
Voor elke koppel vectoren ~w, ~z in een prehilbertruimte H geldt dat
|h~w,~zi| ≤ k~wkk~zk
(7.6)
Bewijs. Als ~w = ~0 of ~z = ~0 dan is de formule triviaal. We kunnen dus onderstellen dat beide
vectoren verschillend van nul zijn. Voor elke α, β ∈ R geldt dat
0 ≤ hα~w − β~z, α~w − β~zi
= ααh~w,~wi − αβh~w,~zi − αβh~z,~wi + ββh~z,~zi
Neem nu
α = k~zk2 en β = h~w,~zi
dan volgt dat
k~zk4 k~wk2 − k~zk2 h~z,~wih~w,~zi − k~zk2 h~w,~zih~z,~wi + k~zk2 h~w,~zih~z,~wi ≥ 0
en
|h~w,~zi|2 ≤ k~wk2 k~zk2
Stelling 7.1.5 Neem een prehilbertruimte H. De norm k • k voldoet aan de volgende eigenschappen, voor alle ~w,~z ∈ H en α ∈ C.
1. k~zk = 0 ⇐⇒ ~z = ~0;
2. kα~zk = |α|k~zk;
3. k~w +~zk ≤ k~wk + k~zk.
Een prehilbertruimte is dus een genormeerde ruimte.
Bewijs. Oefening.
Orthonormale basissen
We werken in een prehilbertruimte H. Twee vectoren ~w en ~z worden orthogonaal genoemd als
hun inwendig produkt h~w,~zi = 0. Een stel van nul verschillende vectoren {~e1 ,~e2 , · · ·} (eindig of
aftelbaar) wordt orthogonaal genoemd indien~ei ⊥~e j zodra i 6= j. We noemen het stel orthonormaal
indien bovendien geldt dat k~ei k = 1 voor elke i. Een eindig stel orthogonale vectoren is steeds
lineair onafhankelijk. Een basis van H die bestaat uit een stel orthogonale (orthonormale) vectoren
wordt een orthogonale (orthonormale) basis genoemd.
112
Stelling 7.1.6 Het orthogonalizatieprocédé van Gram-Schmidt Onderstel dat
~x1 ,~x2 , · · · ,~xn , · · ·
een eindig of aftelbaar stel lineair onafhankelijke vectoren is in een prehilbertruimte H. Dan
bestaat er een orthonormale rij vectoren
~e1 ,~e2 , · · · ,~en , · · ·
zodat voor elke m geldt dat
vct {~e1 ,~e2 , · · · ,~em } = vct {~x1 ,~x2 , · · · ,~xm }
Bewijs. Het bewijs is volledig hetzelfde als het bewijs van stelling 6.2.4.
Gevolg 7.1.7 Elk eindigdimensionale prehilbertruimte heeft een orthonormale basis.
Het orthogonaal complement van een deelruimte
Neem een prehilbertruimte H, en X ⊂ H. De verzameling
X ⊥ = {~y ∈ H|~y ⊥~x, ∀~x ∈ X}
noemen we het orthogonaal complement van de verzameling X. Net zoals in het voorgaand hoofdstuk kunnen we gemakkelijk bewijzen dat X ⊥ een deelruimte van H is.
Stelling 7.1.8 Onderstel dat H een prehilbertruimte is, en dat F een eindigdimensionale deelruimte is. Dan geldt
E = F ⊕ F⊥
We zeggen dat H de orthogonale directe som is van F en F ⊥ .
Bewijs. Het bewijs is analoog met het bewijs van stelling 6.2.9. Verifieer zelf de details.
7.2
Hermitische en unitaire lineaire afbeeldingen
De hermitsch toegevoegde van een lineaire afbeelding
We nemen twee eindigdimensionale prehilbertruimten, met basissen
E = {~e1 , . . . ,~en } voor H
F = {~f1 , . . . , ~fm } voor K
Voor een lineaire afbeelding f : H → K met matrix A = [ f ]E ,F geldt, net zoals in het Euclidisch
geval (zie (6.11)):
h f (~ei ), ~f j i = a ji
(7.7)
113
Stelling 7.2.1 Zij f : H → K een lineaire afbeelding tussen twee eindigdimensionale Prehilbertruimten H en K. Er bestaat dan een unieke lineaire afbeelding f † : K → H waarvoor geldt
h f (~x),~yi = h~x, f † (~y)i
(7.8)
voor elke ~x ∈ H en ~y ∈ K. Als A = [ f ]E ,F de matrix is van f tenopzichte van twee orthonormale
basissen E en F , dan is
t
(7.9)
[ f † ]F ,E = A
de complex toegevoegde van de getransponeerde van de matrix A. We noemen f † de hermitisch
toegevoegde van f .
Bewijs. Het bewijs verloopt analoog aan dat van stelling 6.3.1. We definiëren f † : K → H door
(7.9). Als we (7.7) toepassen op f en f † , vinden we
h f (~ei ), ~f j i = a ji
h f † (~f j ),~ei i = a ji
h~ei , f † (~f j )i = a ji
en
h f (~ei ), ~f j i = h~ei , f † (~f j )i
De rest van het bewijs is identiek aan dat van stelling 6.3.1.
t
We noteren vanaf nu A† = A voor een vierkante matrix A. Merk op dat A†† = A, en dus ook
f †† = f , voor elke lineaire afbeelding f .
Hermitische lineaire afbeeldingen
Een afbeelding f : H → H heet hermitisch indien f = f † . Uit stelling 7.2.1 volgt dat een lineaire
afbeelding hermitisch is als de matrix van die lineaire afbeelding hermitisch is, d.w.z. ai j = a ji
voor elk koppel indices i en j.
Unitaire lineaire afbeeldingen
Een unitaire lineaire afbeelding tussen prehilbertruimten wordt gedefinieerd zoals een orthogonale
lineaire afbeelding tussen Euclidische ruimten.
Definitie 7.2.2 Een lineaire afbeelding f : H → H van een prehilbertruimte naar zichzelf wordt
unitair genoemd als
k f (~x)k = k~xk
voor elke ~x ∈ H.
Unitaire lineaire afbeeldingen hebben dezelfde eigenschappen als orthogonale lineaire afbeeldingen, en ook de bewijzen zijn nagenoeg identiek. We sommen hierna de voornaamste eigenschappen op, en laten de details aan de lezer.
114
Stelling 7.2.3 Een lineaire afbeelding f : H → H is unitair als en alleen als
h f (~x), f (~y)i = h~x,~yi
voor alle ~x,~y ∈ H. Een unitaire afbeelding is steeds injectief, en ze is steeds bijectief als H eindigdimensionaal is.
Stelling 7.2.4 Onderstel dat H een eindigdimensionale prehilbertruimte, en f : H → H lineair.
Dan zijn de volgende eigenschappen equivalent:
1. f is unitair;
2. f is bijectief en f −1 = f † ;
3. f † is unitair;
4. f zet orthonormale basissen van H om in orthonormale basissen.
Een vierkante complexe matrix A wordt een unitaire matrix genoemd als de lineaire afbeelding
Cn → Cn : Z 7→ AZ, waarbij Cn uitgerust is met het standaard inwendig produkt, unitair is. Uit de
voorgaande stellingen volgt nu onmiddellijk:
Gevolg 7.2.5 Voor een complexe n × n-matrix A zijn volgende eigenschappen equivalent.
1. A is unitair;
2. A−1 = A† ;
3. de kolommen van A vormen een orthonormale basis van Cn ;
4. de rijen van A vormen een orthonormale basis van Cn .
Cn is hier uitgerust met het standaard inwendig produkt.
Gevolg 7.2.6 Voor een unitaire matrix A geldt dat det(A) = eiθ . De determinant van een unitaire
matrix A ligt dus op de eenheidscirkel in het complexe vlak.
Bewijs. Onderstel dat det(A) = reiθ . Dan is
det(A† ) = re−iθ
en
1
det(A−1 ) = e−iθ
r
zodat r = 1/r en r = 1. Dus is det(A) = eiθ .
115
7.3
Diagonalizatie van hermitische en unitaire lineaire afbeeldingen
Diagonalizatie van hermitische lineaire afbeeldingen
In het hoofdstuk eigenwaarden en eigenvectoren hebben we al vermeld dat elke symmetrische
reële matrix kan gediagonalizeerd worden. We zullen dit nu bewijzen. In het vervolg is H een
eindigdimensionale prehilbertruimte, en f : H → H een hermitische lineaire afbeelding. f heeft
dus volgende eigenschap
h f (~x),~yi = h~x, f (~y)i
(7.10)
voor elke ~x,~y ∈ H. Vooraleer we het belangrijkste resultaat uit deze paragraaf, stelling 7.3.3,
bewijzen, hebben we eerst enkele lemmas nodig.
Lemma 7.3.1 Alle eigenwaarden van een hermitische lineaire afbeelding f : H → H zijn reëel.
Bewijs. Onderstel dat λ een eigenwaarde is van f , en dat ~v een bijhorende eigenvector is. Gebruik
makend van (7.10) en het feit dat f (~v) = λ~v vinden we
λh~v,~vi = hλ~v,~vi = h f (~v),~vi
= h~v, f (~v)i = h~v, λ~vi = λh~v,~vi
Omdat ~v 6= ~0 volgt hieruit dat λ = λ en dus is λ ∈ R.
Lemma 7.3.2 Beschouw een hermitische lineaire afbeelding f : H → H en onderstel dat een
deelruimte V van H invariant is onder f , dit wil zeggen dat f (V ) ⊂ V . Dan is ook het orthogonaal
complement V ⊥ invariant onder f , m.a.w. f (V ⊥ ) ⊂ V ⊥ .
Bewijs. Neem ~y ∈ V ⊥ . Dan geldt voor elke ~x ∈ V dat
h~x, f (~y)i = h f (~x),~yi = 0
aangezien f (~x) ∈ V en ~y ∈ V ⊥ . Hieruit volgt dat f (~y) ∈ V ⊥ , en dit bewijst het lemma.
Stelling 7.3.3 Voor elke hermitische lineaire afbeelding f : H → H bestaat een orthonormale
basis B van eigenvectoren van f . Tenopzichte van deze basis is de matrix van f een reële diagonaalmatrix.
Bewijs. We zullen de stelling bewijzen per inductie op de dimensie van H. Voor dim (H) = 1 is de
stelling triviaal.
Onderstel dat de stelling waar is voor dim (H) < n. Beschouw een n-dimensionale prehilbertruimte
H, en een hermitische afbeelding f : H → H. Uit lemma 7.3.1 volgt dat de karakteristieke veelterm
Pf enkel reële wortels heeft. Neem een van deze wortels λ, en neem een bijhorende eigenvector~e1 .
Kies ~e1 zo dat k~e1 k = 1. Stel V = C~e1 . Omdat f (~e1 ) = λ~e1 is f (V ) ⊂ V , en dus ook f (V ⊥ ) ⊂ V ⊥
(cf. lemma 7.3.2). Bekijk de afbeelding
g = f|V ⊥ : V ⊥ → V ⊥
116
Omdat dim (V ⊥ ) = n−1 bestaat vanwege de inductiehypothese een orthonormale basis {~e2 , · · · ,~en }
van V ⊥ bestaande uit eigenvectoren van g. ~e2 , · · · ,~en zijn duidelijk ook eigenvectoren van f , en
~e1 staat loodrecht op elk van de overige ~ei (omdat ~e1 ∈ V en ~e j ∈ V ⊥ . {~e1 ,~e2 , · · · ,~en } is dus een
orthonormale basis van eigenvectoren van f .
Gevolg 7.3.4 Voor elke complexe hermitische matrix A bestaat een unitaire matrix M zodat M † AM =
D een reële diagonaalmatrix is.
Bewijs. Uit stelling 7.3.3 weten we dat de matrix van de lineaire hermitische afbeelding f : Cn →
Cn gegeven door linksvermenigvuldiging met A tenopzichte van een zekere orthonormale basis
van Cn een reële diagonaalmatrix is. De overgangsmatrix M is een unitaire matrix, en M † = M −1 .
De eigenschap volgt dan uit de overgangsformules.
Bovenstaande resultaten gelden - mutatis mutandis - ook voor zelftoegevoegde lineaire afbeeldingen van een eindigdimensionale Euclidische ruimte naar zichzelf. Bewijs zelf volgende stelling.
Stelling 7.3.5 Onderstel dat E een eindigdimensionale Euclidische ruimte is, en dat f : E → E
een zelftoegevoegde lineaire afbeelding.
• alle eigenwaarden van f zijn reëel;
• als een deelruimte V van E invariant is onder f , dan is ook het orthogonaal complement V ⊥
invariant;
• er bestaat een orthonormale basis van E bestaande uit eigenvectoren van f .
Voor elke reële symmetrische matrix A bestaat een orthogonale matrix M zodat Mt AM = D een
reële diagonaalmatrix is.
Diagonalizatie van commuterende hermitische afbeeldingen
Onderstel dat V een eindigdimensionale vectorruimte is, en dat f , g : V → V twee lineaire afbeeldingen. We stellen onszelf nu de volgende vraag: kunnen f en g gelijktijdig gediagonalizeerd
worden, m.a.w., bestaat er een basis van V tenopzichte waarvan zowel de matrices van f als van g
diagonaal worden? Uit de volgende stelling blijkt dat een nodige voorwaarde hiervoor is dat f en
g commuteren.
Stelling 7.3.6 Onderstel dat V een eindigdimensionale reële of complexe vectorruimte is. Indien
er een basis E van V bestaat ten opzichte waarvan de matrices van f en g diagonaalmatrices zijn,
dan commuteren f en g, d.w.z.
f ◦g = g◦ f
Bewijs. Onderstel dat [ f ]E,E = D1 en [g]E,E = D2 diagonaalmatrices zijn. Omdat diagonaalmatrices
steeds commuteren (ga dit zelf na) hebben we
[g ◦ f ]E,E = D2 D1 = D1 D2 = [ f ◦ g]E,E
117
en dus
g◦ f = f ◦g
Wanneer geldt ook de omgekeerde van stelling 7.3.6, m.a.w. wanneer kunnen commuterende lineaire afbeeldingen samen gediagonaliseerd worden? In de volgende stelling zullen we bewijzen
dat commuterende hermitische lineaire afbeeldingen in een prehilbertruimte tezamen kunnen gediagonalizeerd worden.
Stelling 7.3.7 Onderstel dat H een eindigdimensionale prehilbertruimte is, en dat f , g : H → H
twee commuterende hermitische lineaire afbeeldingen zijn. Dan bestaat er een orthonormale basis
van H waarin zowel de matrices van f als g reële diagonaalmatrices zijn.
Als A1 en A2 twee commuterende complexe hermitische matrices zijn, dan bestaat er een unitaire
matrix M zodanig dat
M † A1 M = D1 en M † A2 M = D2
reële diagonaalmatrices zijn.
Bewijs. We bewijzen de stelling per inductie op dim (H). Voor dim (H) = 1 is de stelling triviaal.
Onderstel dat de stelling waar is voor dim (H) < n.
Onderstel dat dim (H) = n, en neem een eigenwaarde λ van f . We weten dat λ ∈ R (cf. lemma
7.3.1). Beschouw de eigenruimte
V = {~v ∈ H| f (~v) = λ~v}
Er zijn twee gevallen:
Eerste geval : dim (V ) = n. Dan is V = H, en f = λiH . De matrix van f is dan diagonaal met
λ op de diagonaal tenopzichte van eender welke basis. Vanwege stelling 7.3.3 bestaat er een
orthonormale basis B zodat [g]B,B reëel en diagonaal is. Aangezien [ f ]B,B = λIn zijn f en g dus
samen diagonaliseerbaar.
Tweede geval : dim (V ) < n. Omdat dim (V ) > 0 (λ is een eigenwaarde) is ook 0 < dim (V ⊥ ) < n.
Verder hebben we
f (V ) ⊂ V
(7.11)
en dus ook
f (V ⊥ ) ⊂ V ⊥
(7.12)
g(V ) ⊂ V
(7.13)
(cf. lemma 7.3.2). We beweren nu dat ook
Neem ~x ∈ V . Dan is
f (g(~x)) = g( f (~x)) = g(λ~x) = λg(~x)
en dus is g(~x) een eigenvector van f met eigenwaarde λ. Dit impliceert dat g(~x) ∈ V , en dit bewijst
(7.13). Uit (7.13) en lemma 7.3.1 volgt nu ook
g(V ⊥ ) ⊂ V ⊥
118
(7.14)
Beschouw de afbeeldingen
f|V , g|V : V → V
Dit zijn commuterende hermitische lineaire afbeeldingen, en aangezien dim (V ) < n bestaat vanwege de inductiehypothese een orthonormale basis {~e1 , · · · ,~er } van V tenopzichte waarvan de matrices van f|V en g|V reëel en diagonaal zijn. Eenzelfde redenering kunnen we toepassen op
f|V ⊥ , g|V ⊥ : V ⊥ → V ⊥
Uit de inductiehypothese en het feit dat dim (V ⊥ ) < n volgt dat er een orthonormale basis {~er+1 , · · · ,~en }
van V ⊥ bestaat tenopzichte waarvan de matrices van f|V ⊥ en g|V ⊥ reëel en diagonaal zijn. De matrices van f en g tenopzichte van de basis {~e1 , · · · ,~en } van H zijn nu reëel en diagonaal. Dit bewijst
het eerste deel van de stelling; het tweede deel volgt er onmiddellijk uit.
Uiteraard geldt stelling 7.3.7 ook voor Euclidische ruimten. Verifieer zelf de details.
Stelling 7.3.8 Onderstel dat E een eindigdimensionale Euclidische ruimte is, en dat f , g : E → E
twee commuterende zelftoegevoegde lineaire afbeeldingen zijn. Dan bestaat er een orthonormale
basis van E waarin zowel de matrices van f als g reële diagonaalmatrices zijn.
Als A1 en A2 twee commuterende reële symmetrische matrices zijn, dan bestaat er een orthogonale
matrix M zodanig dat
Mt A1 M = D1 en Mt A2 M = D2
reële diagonaalmatrices zijn.
Diagonalizatie van unitaire afbeeldingen
We zullen nu aantonen dat er voor elke unitaire lineaire afbeelding een orthonormale basis van
eigenvectoren bestaat, en dat de eigenwaarden op de eenheidscirkel liggen. In het vervolg is H een
eindigdimensionale prehilbertruimte.
Lemma 7.3.9 Alle eigenwaarden van een unitaire lineaire afbeelding f : H → H zijn van de vorm
λ = eiθ , m.a.w. de eigenwaarden liggen op de eenheidscirkel in het complexe vlak.
Bewijs. Onderstel dat λ een eigenwaarde is van f , en dat ~v een bijhorende eigenvector is. Dan
hebben we dat
h~v,~vi = h f (~v), f (~v)i = hλ~v, λ~vi = λλh~v,~vi
en dus is λλ = 1, zodat λ op de eenheidscirkel ligt.
Stelling 7.3.10 Voor elke unitaire lineaire afbeelding f : H → H bestaat een orthonormale basis
B van eigenvectoren van f . Tenopzichte van deze basis is de matrix van f een diagonaalmatrix
met diagonaalelementen gelegen op de eenheidscirkel.
Bewijs. We zullen de stelling bewijzen per inductie op de dimensie van H. Voor dim (H) = 1 is de
stelling triviaal.
119
Onderstel dat de stelling waar is voor dim (H) < n. Onderstel dat dim (H) = n en neem f : H → H
unitair. Neem een eigenwaarde λ, en neem een bijhorende eigenvector~e1 . Kies~e1 zo dat k~e1 k = 1.
Stel V = C~e1 . Omdat f (~e1 ) = λ~e1 is f (V ) ⊂ V . We beweren nu dat ook f (V ⊥ ) ⊂ V ⊥ .
Voor elke ~x ∈ V geldt f (~x) = λ~x, zodat f † (~x) = λ−1~x. Neem ~y ∈ V ⊥ . Voor elke ~x ∈ V geldt dan
h~x, f (~y)i = h f † (~x),~yi = hλ−1~x,~yi = λ−1 h~x,~yi = 0
zodat f (~y) ∈ V ⊥ .
Pas nu de inductiehypothese toe op de afbeelding
g = f|V ⊥ : V ⊥ → V ⊥
Omdat dim (V ⊥ ) = n − 1 bestaat een orthonormale basis {~e2 , · · · ,~en } van V ⊥ bestaande uit eigenvectoren van g. ~e2 , · · · ,~en zijn duidelijk ook eigenvectoren van f , en ~e1 staat loodrecht op elk
van de overige ~ei (omdat ~e1 ∈ V en ~e j ∈ V ⊥ . {~e1 ,~e2 , · · · ,~en } is dus een orthonormale basis van
eigenvectoren van f .
7.4
Banachruimten en Hilbertruimten
We ronden deze syllabus af met enkele definities. Deze zijn bedoeld ter informatie. We hebben
hierboven reeds impliciet de definitie van een genormeerde ruimte gezien. We herhalen deze voor
de volledigheid.
Definitie 7.4.1 Een reële of complexe vectorruimte V uitgerust met een afbeelding
k • k : V → R+
wordt een genormeerde ruimte genoemd als voldaan is aan de volgende eigenschappen
1. k~xk = 0 ⇐⇒ ~x = ~0;
2. kα~xk = |α|k~xk;
3. k~x +~yk ≤ k~xk + k~yk.
voor alle ~x,~y ∈ V en α ∈ K.
We hebben reeds gezien dat elke Euclidische ruimte en elke prehilbertruimte een genormeerde
ruimte is. Uit volgend voorbeeld blijkt dat dit niet de enige voorbeelden van genormeerde ruimten
zijn.
Voorbeeld 7.4.2 Neem V = Rn , en definieer een norm als volgt
k(x1 , x2 , · · · , xn )k = max{|x1 |, |x2 |, · · · , |xn |}
120
Ga zelf na dat deze voldoet aan alle gewenste eigenschappen. Deze norm is echter niet afkomstig
van een inwendig produkt, en dit kunnen we als volgt zien : deze norm voldoet niet aan de parallellogramregel (ga dit zelf na voor bijvoorbeeld het eenheidsvierkant). Het grote voordeel van
deze norm tenopzichte van de Euclidische norm is dat hij eenvoudiger gedefinieerd is en in vele
situaties gemakkelijker te hanteren.
Definitie 7.4.3 Onderstel dat V, k • k een genormeerde ruimte is, en beschouw een rij vectoren (~xn )
in V . We zeggen dat
lim ~xn =~x
n→∞
indien
∀ε > 0, ∃N : n > N =⇒ k~xn −~xk < ε
De rij (~xn ) wordt een Cauchyrij genoemd indien
∀ε > 0, ∃N : n, m > N =⇒ k~xn −~xm k < ε
In elke genormeerde ruimte geldt dat een convergente rij een Cauchyrij is. Het omgekeerde geldt
echter niet altijd, en vandaar volgende definitie:
Definitie 7.4.4 Een genormeerde ruimte wordt volledig genoemd indien elke Cauchyrij in die genormeerde ruimte een limiet heeft. Een volledige genormeerde ruimte wordt ook een Banachruimte
genoemd. Een volledige prehilbertruimte wordt ook een Hilbertruimte genoemd.
121
Hoofdstuk 8
Isometrieën
8.1
Isometrieën
Isometrieën
Definitie 8.1.1 Onderstel dat E een Euclidische ruimte is. Een afbeelding g : E → E (niet noodzakelijk lineair) is een isometrie als voor elke ~x,~y ∈ E geldt dat
kg(~y) − g(~x)k = k~y −~xk
Een isometrie is dus een afbeelding die de afstand bewaart.
We zullen nu bewijzen dat een isometrie steeds te schrijven is als een orthogonale afbeelding
gevolgd door een verschuiving. Eerst bewijzen we het volgend lemma.
Lemma 8.1.2 Onderstel dat E eindigdimensionaal is, dat g : E → E een isometrie is, en dat
g(~0) = ~0. Dan is g een orthogonale lineaire afbeelding.
Bewijs. Voor elke ~x ∈ E geldt
kg(~x)k = kg(~x) − g(~0)k = k~x −~0k = k~xk
Uit (6.8) volgt nu ook dat
2h~x,~yi = k~xk2 + k~yk2 − k~x −~yk2
= kg(~x)k2 + kg(~y)k2 − kg(~x) − g(~y)k2
= 2hg(~x), g(~y)i
voor elke ~x,~y ∈ E. We hoeven dus enkel te bewijzen dat g lineair is. Als {~e1 ,~e2 , · · · ,~en } een
orthonormale basis is van E, dan is dus ook {g(~e1 ), g(~e2 ), · · · , g(~en )} een orthonormale basis. Voor
122
elke ~x,~y ∈ E, α, β ∈ R en i ∈ {1, · · · , n} hebben we nu
hg(α~x + β~y) − αg(~x) − βg(~y), g(~ei )i
= hg(α~x + β~y), g(~ei )i − αhg(~x), g(~ei )i − βhg(~y), g(~ei )i
= hα~x + β~y,~ei i − αh~x,~ei i − βh~y,~ei i
= 0
en dus is
g(α~x + β~y) = αg(~x) + βg(~y)
en g is lineair.
Stelling 8.1.3 Onderstel dat E een eindigdimensionale Euclidische ruimte is. Elke isometrie g
van E kan op unieke wijze geschreven worden als de samenstelling van een verschuiving en een
orthogonale lineaire afbeelding, meer bepaald
g(~x) = g(~0) + f (~x)
voor elke ~x ∈ E. Hierbij is f een orthogonale lineaire afbeelding.
Bewijs. Definieer f door
f (~x) = g(~x) − g(~0)
f is dan nog steeds een isometrie, en f (~0) = ~0, zodat f een orthogonale lineaire afbeelding is.
De uniciteit kunnen we als volgt aantonen: als
g(~x) = ~a + f1 (~x)
dan volgt onmiddellijk dat ~a = g(~0) en dus is f1 (~x) = g(~x) − g(~0) = f (~x).
Vooraleer we de volgende eigenschap formuleren herhalen we nog eens de definitie van een groep.
Dit is een verzameling G, uitgerust met een bewerking ∗ : G × G → G : (a, b) 7→ a ∗ b, waarvoor
geldt:
1. ∗ is associatief:
(a ∗ b) ∗ c = a ∗ (b ∗ c)
voor alle a, b, c ∈ G;
2. er is een neutraal element e voor ∗ in G: er bestaat een e ∈ G zodat voor elke a ∈ G geldt:
a∗e = e∗a = a
3. elk element a in G heeft een invers: er bestaat een b ∈ G zodat
a∗b = b∗a = e
123
Stelling 8.1.4 De verzameling van alle isometrieën van een eindigdimensionale Euclidische ruimte E is een groep voor de samenstelling. De verzameling van alle orthogonale transformaties van
E is hiervan een deelgroep.
Bewijs. Het is duidelijk dat de samenstelling van twee isometrieën opnieuw een isometrie is.
De samenstelling van isometrieën is associatief (want de samenstelling van afbeeldingen is altijd
associatief). De identieke afbeelding iE bewaart de afstand en is dus een isometrie. Uit stelling
6.4.3 volgt dat elke orthogonale afbeelding bijectief is. Uit stelling 8.1.3 volgt dezelfde eigenschap
voor isometrieën: als
g(~x) = g(~0) + f (~x)
waarbij f een orthogonale lineaire transformatie is, dan wordt de inverse van de isometrie g gegeven door de formule
g−1 (~x) = f −1 (~x) − f −1 (g(~0))
Immers, voor elke ~x ∈ E hebben we
g−1 (g(~x)) = f −1 (g(~x)) − f −1 (g(~0))
= f −1 (g(~x) − g(~0))
= f −1 ( f (~x)) =~x
en
g(g−1 (~x)) =
=
=
=
g( f −1 (~x) − f −1 (g(~0)))
g(~0) + f ( f −1 (~x) − f −1 (g(~0)))
g(~0) + f ( f −1 (~x)) − f ( f −1 (g(~0)))
g(~0) +~x − g(~0) =~x
De isometrieën vormen dus een groep. Om in te zien dat de orthogonale transformaties een deelgroep vormen volstaat het om op te merken dat de samenstelling van twee orthogonale transformaties opnieuw een orthogonale transformatie is, en dat de inverse van een orthogonale transformatie
opnieuw een orthogonale transformatie is.
De determinant van een orthogonale transformatie is steeds 1 of −1. Als de determinant van
het lineair gedeelte van een isometrie 1 is, dan noemen we deze een verplaatsing of positieve
isometrie. Anders spreken we van een negatieve isometrie. We zullen nu enkele speciale gevallen
nader bespreken.
Symmetrieën en orthogonale projecties
Onderstel dat L =~a +V een lineaire variëteit is in een Euclidische ruimte E. Elke vector~x ∈ E kan
dan op een unieke manier geschreven worden onder de vorm
~x = ~a +~v + ~w
124
waarbij ~v ∈ V en ~w ∈ V ⊥ . De afbeelding
sL : E−→E : ~x = ~a +~v + ~w 7→ sL (~x) = ~a +~v − ~w
noemen we de symmetrie tenopzichte van de lineaire variëteit L.
De afbeelding
pL : E−→E : ~x = ~a +~v + ~w 7→ sL (~x) = ~a +~v
noemen we de orthogonale projectie van E op de lineaire variëteit L.
Speciale gevallen
1) Als V = E (en dus L = E en r = dim (V ) = n = dim (E)), dan is sL de identiteit iE .
2) Als V = {~0} (en dus L = {~a} en r = dim (V ) = 0), dan noemen we s~a de puntsymmetrie ten
opzichte van het punt ~a.
3) Als r = dim (V ) = dim (E) − 1, dan noemen we sL de spiegeling ten opzichte van het hypervlak
L.
4) Als r = dim (V ) = 1, dan is L = ~a + R~b een rechte. sL noemen we de symmetrie ten opzichte
van de rechte L.
Voorbeeld 8.1.5 Zij L de rechte met vergelijking x + y = 1 in het Euclidische vlak R2 uitgerust
met het standaard inwendig produkt. De onderliggende vectorruimte V is dan de rechte met vergelijking x + y = 0, en {~e1 = √12 (1, −1)} is een orthonormale basis voor V .
{~e2 = √12 (1, 1)} is dan een orthonormale basis voor V ⊥ . Met notaties als hierboven kunnen we
~a = (1, 0) stellen. Elke ~x = (x, y) kan dus geschreven worden onder de vorm
~x = ~a + α~e1 + β~e2
waarbij de coëfficiënten α en β kunnen gevonden worden door oplossing van het lineair stelsel

α
β


 x = 1+ √ + √
2
2
α
β


 y = −√ + √
2
2
Oplossen van dit lineair stelsel geeft ons
√


 α = 2 (x − y − 1)
√2

 β = 2 (x + y − 1)
2
zodat
√
√
2
2
~x = ~a +
(x − y − 1)~e1 +
(x + y − 1)~e2
2
2
125
en
√
2
2
(x − y − 1)~e1 −
(x + y − 1)~e2
sL (~x) = ~a +
2 !
!2
1
1
1
1
+ (x − y − 1)
=
− (x + y − 1)
2
2
0
−1
!
1−y
=
1−x
√
Ook de projectie op L kunnen we expliciet uitrekenen:
√
2
pL (~x) = ~a +
(x − y − 1)~e1
!2
1
1
=
+ (x − y − 1)
2
0
!
x−y+1
1
=
2 −x + y + 1
1
1
!
1
!
−1
Stelling 8.1.6 sL is een isometrie. sL is een verplaatsing als dim E − dim L even is; als dim E −
dim L oneven is, dan is sL een negatieve isometrie.
Bewijs. Zoals hierboven schrijven we L =~a +V . Onderstel dat {~e1 , · · · ,~er } een orthonormale basis
van V is, en {~er+1 , · · · ,~en } een orthonormale basis van V ⊥ .
Omdat sL een isometrie is weten we dat
sL (~x) = sL (~0) + f (~x)
waarbij f een orthogonale afbeelding is. Om f te bepalen gaan we als volgt tewerk.
~a = sL (~a) = sL (~0) + f (~a)
Beide formules van mekaar aftrekken levert
sL (~x) −~a = f (~x) − f (~a) = f (~x −~a)
We schrijven nu ~x −~a uit in de basis {~er+1 , · · · ,~en }: we vinden unieke coëfficiënten α1 , · · · , αn ∈ R
zodat
n
~x −~a = ∑ αi~ei
i=1
We vinden dat
r
sL (~x) = sL ~a + ∑ αi~ei +
i=1
r
= ~a + ∑ αi~ei −
i=1
= ~a + f (~x −~a)
126
n
∑
αi~ei
i=r+1
n
∑
i=r+1
αi~ei
en we zien dat f : E → E de lineaire afbeelding is bepaald door de formule
f
n
r
α
~
e
=
∑ i i ∑ αi~ei −
i=1
i=1
n
∑
αi~ei
i=r+1
De matrix van f ten opzichte van de orthonormale basis E = {~e1 , · · · ,~en } is dus
!
Ir
0
A=
0 −In−r
Tenslotte zien we dat
det( f ) = det(A) = (−1)n−r
Men noemt een deel X ⊂ E symmetrisch tenopzichte van de lineaire variëteit L als sL X op zichzelf
afbeeldt:
sL (X) = X
Als X symmetrisch is tenopzichte van de (nuldimensionale) lineaire variëteit L = {~m}, dan noemen
we ~m een middelpunt van X.
Als X symmetrisch is tenopzichte van de rechte (= ééndimensionale lineaire variëteit) L, dan noemen we ~L een symmetrieas van X.
Als X symmetrisch is tenopzichte van het vlak (= tweedimensionale lineaire variëteit) L, dan noemen we ~L een symmetrievlak van X.
Voorbeelden 8.1.7 1) Zij X de (regelmatige) zeshoek in R2 met hoekpunten
√
√
√
√
1 3
1 3
1
3
1
3
(1, 0), ( ,
), (− ,
), (−1, 0), (− , −
), en ( , −
)
2 2
2 2
2
2
2
2
Het punt (0, 0) is een middelpunt van X, en de rechten met vergelijking
y = xtg
kπ
6
(k = 0, 1, 2, 3, 4, 5) zijn symmetrieassen.
2) Stel nu X = {(m, n) ∈ R2 |m, n ∈ Z} = Z2 . X bestaat dus uit die punten in het vlak die gehele
coördinaten hebben.
Elke (m, n) ∈ Z2 is een middelpunt. Ook de punten (m + 12 , n), (m, n + 12 ) en (m + 12 , n + 12 ) zijn
middelpunten (voor m, n ∈ Z). De rechten y = m, x = m, x + y = m, x − y = n (n ∈ Z) zijn
symmetrieassen.
Een functie ψ : E → E wordt symmetrisch ten opzichte van de lineaire variëteit L genoemd als
ψ ◦ sL = ψ
127
of
ψ(sL (~x)) = ψ(~x)
voor elke ~x ∈ E.
Als ψ symmetrisch is tenopzichte van L, dan is het hyperoppervlak S in E met vergelijking
ψ(~x) = c
symmetrisch tenopzichte van L. S wordt ook het niveauhyperoppervlak van ψ op niveau c genoemd.
Immers, indien ~x ∈ S, dan is ψ(~x) = c, en dus ook ψ(sL (~x)) = c, zodat ook sL (~x) ∈ S, en dus beeldt
sL X opzichzelf af.
Voorbeelden 8.1.8 1) De functie ψ : R3 → R3 gegeven door de formule
ψ(x, y, z) = (x − a)2 + (y − b)4 + (z − c)6
is symmetrisch tenopzichte van het punt (a, b, c).
2) De functie ψ : R3 → R3 gegeven door de formule
ψ(x, y, z) = (x − a)3 + (y − b)3 + (z − c)6
is symmetrisch tenopzichte van de rechte met vergelijking
x=a
y=b
Rotaties en omwentelingssymmetrie
Zij E een Euclidische ruimte van dimensie n ≥ 2, en L = ~a +V een lineaire variëteit van dimensie
n − 2. Dan is V een deelruimte van E van dimensie n − 2 en V ⊥ een deelruimte van dimensie 2.
Kies een orthonormale basis {~e1 ,~e2 } van V ⊥ . Elke ~x ∈ E kan op unieke wijze geschreven worden
onder de vorm
~x = x~e1 + y~e2 +~a +~v
waarbij x, y ∈ R en ~v ∈ V . Neem nu θ ∈ R, en beschouw de afbeelding ρ : E → E gedefinieerd
door
ρ(~x) = (x cos θ − y sin θ)~e1 + (x sin θ + y cos θ)~e2 +~a +~v
(8.1)
We noemen ρ de rotatie om L over een hoek θ in de richting van ~e1 naar ~e2 .
Beschouw het bijzonder geval E = R2 (met het standaard inwendig produkt). Dan is dim (L) =
dim (V ) = 0, zodat de lineaire variëteit L zich herleidt tot het punt ~a. Schrijf ~a = (a, b). We kunnen
elke vector ~x ∈ E schrijven onder de vorm
!
!
!
!
1
0
a
x+a
~x = x
+y
+
=
0
1
b
y+b
128
We vinden nu dat
ρ
a+x
b+y
!
=
a
b
!
+
cos θ
− sin θ
sin θ
cos θ
!
x
!
y
Dit stelt inderdaad een rotatie in het vlak voor, over een hoek θ, rond het punt ~a = (a, b).
We noemen X ⊂ E omwentelingssymmetrisch ten opzichte van de lineaire variëteit L van dimensie
n − 2 als X door elke rotatie om L op zichzelf wordt afgebeeld, dit wil zeggen
ρ(X) = X
voor elke rotatie ρ om L.
Voorbeeld 8.1.9 De cilinder x2 + y2 = a2 in R3 is omwentelingssymmetrisch ten opzichte van de
z-as.
Een functie ψ : E → E wordt omwentelingssymmetrisch ten opzichte van de lineaire variëteit L
van dimensie n − 2 genoemd als
ψ◦ρ = ψ
of
ψ(ρ(~x)) = ψ(~x)
voor elke rotatie ρ om L en ~x ∈ E.
Voorbeeld 8.1.10 De functie ψ : R3 → R3 gegeven door de formule
ψ(~x) = (x − a)2 + (z − c)2
is omwentelingssymmetrisch tenopzichte van de rechte met vergelijking
x=a
z=c
Als de functie ψ omwentelingssymmetrisch is tenopzichte van L, dan zijn de niveauhyperoppervlakken (dit zijn de hyperoppervlakken met vergelijking ψ(~x) = c) omwentelinggsymmetrisch tenopzichte van L.
8.2
Classificatie van de isometrieën
In deze paragraaf zullen we achtereenvolgens de isometrieën van de Euclidische ruimten van dimensies 1, 2 en 3 bepreken. In § 6.2 hebben we reeds de orthogonale transformaties van R, R2 en
R3 besproken. We klasseerden deze volgens de dimensie van de vectorruimte der dekpunten, en
we zullen deze classificatie verder uitgebreid gebruiken. In het vervolg is
g: E →E
een isometrie. Hierbij zal E de Euclidische ruimte R, R2 of R3 zijn, steeds uitgerust met het
standaard inwendig produkt. We schrijven ~a = g(~0) en f = g −~a. f is dan een orthogonale lineaire
transformatie, en we noteren de vectorruimte der dekpunten door V .
129
De isometrieën van R
De orthogonale transformaties van R kunnen eenvoudig geklasseerd worden: als
f : R → R : x 7→ mx
een orthogonale transformatie, dan is noodzakelijkerwijs
det( f ) = m = ±1
Er zijn dus slechts twee lineaire transformaties van R:
1) de identiteit; in dit geval is dim (V ) = 1;
2) de symmetrie x 7→ −x; in dit geval is dim (V ) = 0.
De isometrieën van R kunnen dus als volgt beschreven worden:
eerste geval: dim (V ) = 1
g(x) = a + x
is dan de verschuiving over a.
tweede geval: dim (V ) = 0
g(x) = a − x
is dan de puntsymmetrie tenopzichte van het punt a/2.
De isometrieën van R2
eerste geval: dim (V ) = 2
f is de identiteit op R2 , en g wordt gegeven door de formule
g(~x) = ~a +~x
g is dus de verschuiving over ~a.
tweede geval: dim (V ) = 0
In dit geval is f een rotatie rond de oorsprong, met hoek θ 6= 0. De matrix van f is dan van de
vorm
!
cos θ − sin θ
A=
sin θ cos θ
Schrijf ~x = (x1 , x2 ), g(~x) = ~y = (y1 , y2 ), ~a = (a1 , a2 ). De isometrie g wordt dan gegeven door de
formules
y1 = a1 + x1 cos θ − x2 sin θ
(8.2)
y2 = a2 + x1 sin θ + x2 cos θ
Om te zien wat (8.2) meetkundig voorstelt zoeken we eerst de dekpunten van g. Dit zijn de oplossingen van het lineair stelsel
x1 (cos θ − 1) − x2 sin θ = −a1
(8.3)
x1 sin θ + x2 (cosθ − 1) = −a2
130
De determinant van (8.3) is
(cos θ − 1)2 + sin2 θ = 2 − 2 cos θ 6= 0
omdat θ 6= 0. (8.3) is dus een stelsel van Cramer, en heeft een unieke oplossing, we noemen deze
(m1 , m2 ). (8.2) kan nu herschreven worden onder de vorm
y1 − m1 = (x1 − m1 ) cos θ − (x2 − m2 ) sin θ
(8.4)
y2 − m2 = (x1 − m1 ) sin θ + (x2 − m2 ) cos θ
en hieruit volgt dat g de rotatie is rond (m1 , m2 ) over de hoek θ.
derde geval: dim (V ) = 1
In dit geval is f de orthogonale spiegeling ten opzichte van een rechte Rd~ door de oorsprong, en g
wordt gegeven door een formule van de vorm
g(~x) = ~a + f (~x)
Schrijf
~a = ~a1 +~a2
~ We bekijken eerst de isometrie g2 gegeven door de formule
waarbij ~a1 k d~ en ~a2 ⊥ d.
g2 (~x) = ~a2 + f (~x)
Omdat d~ en ~a2 een basis van R2 vormen kunnen we elke ~x ∈ R2 schrijven onder de vorm
~x = α~a2 + βd~
Nu is
en
f (~x) = −α~a2 + βd~
g2 (~x) = ~a2 − α~a2 + βd~
~x is een dekpunt van g2 als en alleen als α = 1 − α of α = 1/2. Daarom noteren we α0 = α − 1/2
en
~a2
~x = + α0~a2 + βd~
2
en
~a2
g2 (~x) = − α0~a2 + βd~
2
~ We vinden
We zien nu dat g2 = sl de spiegeling is tenopzichte van de rechte l = ~a2 /2 + Rd.
tenslotte dat
g(~x) = ~a1 + sl (x)
De isometrie g kan dus beschreven worden als een spiegeling gevolgd door een verschuiving evenwijdig met de as van de spiegeling. Soms noemt men zulk een samenstelling een schuifspiegeling.
131
De isometrieën van R3
eerste geval: dim (V ) = 3
f is de identiteit op R3 , en g wordt gegeven door de formule
g(~x) = ~a +~x
g is dus de verschuiving over ~a.
tweede geval: dim (V ) = 2
f is nu de spiegeling tenopzichte van het vlak V door de oorsprong. We schrijven
~a = ~a1 +~a2
met ~a1 ∈ V en ~a2 ⊥ V . Beschouw het vlak
L=
~a2
+V
2
Elke ~x ∈ R3 kunnen we schrijven onder de vorm
~x =
~a2
+ α~a2 +~z
2
met α ∈ R en~z ∈ V . Merk nu op dat
~a2
− α~a2 +~z
2
~a
2
= ~a2 −
+ α~a2 +~z
2
= ~a2 + sV (~x)
= ~a2 + f (~x)
sL (~x) =
en dus
g(~x) = ~a1 + sL (~x)
We besluiten dat g bestaat uit een spiegeling tenopzichte van het vlak L gevolgd door een verschuiving evenwijdig met L. De isometrie g wordt soms schuifspiegeling genoemd.
derde geval: dim (V ) = 1
Nu is f een rotatie over een hoek θ 6= 0 rond een rechte door de oorsprong. We kiezen een orthonormale basis B = {~e1 ,~e2 ,~e3 } van R3 zodanig dat ~e1 langs de rotatieas gelegen is. De matrix van
f tenopzichte van B is dan


1
0
0


 0 cos θ − sin θ 
0 sin θ cos θ
Als we noteren ~a = (a1 , a2 , a3 ), ~x = (x1 , x2 , x3 ) en g(~x) = (y1 , y2 , y3 ), dan kunnen we volgende
formule opschrijven voor de isometrie g:

 y1 = a1 + x1
y2 = a2 + x2 cos θ − x3 sin θ
(8.5)

y3 = a3 + x2 sin θ + x3 cos θ
132
Omdat θ 6= 0 bestaat er juist één koppel (m2 , m3 ) zodat
m2 = a2 + m2 cos θ − m3 sin θ
m3 = a3 + m2 sin θ + m3 cos θ
en we kunnen dus schrijven

 y1 = a1 + x1
y2 − m2 = (x2 − m2 ) cos θ − (x3 − m3 ) sin θ

y3 − m3 = (x2 − m2 ) sin θ + (x3 − m3 ) cos θ
(8.6)
g is dus een rotatie om de as m2~e2 + m3~e3 + R~e1 over de hoek θ, gevolgd door een verschuiving
over a1~e1 .
Vierde geval: dim (V ) = 0
f is nu een rotatie, gevolgd door een spiegeling tenopzichte van het vlak door de oorsprong en
loodrecht op de rotatieas. We kiezen nu een orthonormale basis B = {~e1 ,~e2 ,~e3 } van R3 zodanig
dat ~e1 langs de rotatieas gelegen is. Ditkeer wordt g gegeven door de formules

 y1 = a1 − x1
y2 = a2 + x2 cos θ − x3 sin θ
(8.7)

y3 = a3 + x2 sin θ + x3 cos θ
We gaan tewerk zoals in het tweede geval en vinden (m1 , m2 ) zodat

 y1 = a1 − x1
y2 − m2 = (x2 − m2 ) cos θ − (x3 − m3 ) sin θ

y3 − m3 = (x2 − m2 ) sin θ + (x3 − m3 ) cos θ
(8.8)
Dit betekent dat g een rotatie is, gevolgd door een spiegeling om een vlak loodrecht op de rotatieas.
Sommige auteurs gebruiken voor dit type isometrie de benaming spiegelrotatie.
133
Hoofdstuk 9
Kwadratische vormen en kwadrieken
9.1
Bilineaire afbeeldingen en kwadratische vormen
In het vervolg is E een n-dimensionale Euclidische ruimte. Herhaal dat een afbeelding
b : E × E−→R
bilineair is als
b(α~x + β~y,~z) = αb(~x,~z) + βb(~y,~z)
b(~x, α~y + β~z) = αb(~x,~y) + βb(~x,~z)
voor elke ~x,~y,~z ∈ E en α, β ∈ R.
Neem een basis B = {~e1 , · · · ,~en } van E. Voor ~x,~y ∈ E schrijven we
 
 
y1
x1
 
 
 x2 
y 
 en [~y]B = Y =  .2 
[~x]B = X = 
.
 .. 
 . 
 
 . 
xn
yn
We berekenen nu gemakkelijk dat
b(~x,~y) = b
n
n
i=1
n
j=1
n
∑ xi~ei, ∑ y j~e j
∑ ∑ xiy j b(~ei,~y j )
=
i=1 j=1
We noteren ai j = b(~ei ,~y j ). Onderstel dat A de n × n matrix is met ai j in de i j-positie. Dan is
n
b(~x,~y) = ∑
n
∑ xiai j y j = X t AY
i=1 j=1
134
Definitie 9.1.1 Onderstel dat b : E ×E → R een bilineaire afbeelding is. De afbeelding q : E → R
gedefinieerd door de formule
q(~x) = b(~x,~x)
noemen we de kwadratische vorm geassocieerd aan de bilineaire afbeelding b.
Voorbeeld 9.1.2 Neem E = R2 met het standaard inprodukt, en B de standaardbasis. We hebben
dan dat
b(X,Y ) = X t AY = a11 x1 y1 + a12 x1 y2 + a21 x2 y1 + a22 x2 y2
en
q(X) = b(X, X) = a11 x12 + (a12 + a21 )x1 x2 + a22 x22
In het algemeen hebben we dat
n
q(~x) = ∑
n
∑ ai j xix j
i=1 j=1
Onderstel dat een kwadratische vorm q gegeven is. Kunnen we hieruit de bilineaire afbeelding b
vanwaaruit q geconstrueerd is opnieuw berekenen? Merk op dat
q(~x +~y) = b(~x +~y,~x +~y)
= b(~x,~x) + b(~x,~y) + b(~y,~x) + b(~y,~y)
= q(~x) + b(~x,~y) + b(~y,~x) + q(~y)
zodat
b(~x,~y) + b(~y,~x) = q(~x +~y) − q(~x) − q(~y)
Als we weten dat b een symmetrische bilineaire afbeelding is, dan volgt dat
b(~x,~y) =
1
q(~x +~y) − q(~x) − q(~y)
2
(9.1)
In hoeverre geeft dit een antwoord op onze vraag? Een bilineaire afbeelding b kan steeds geschreven worden onder de vorm
b = b1 + b2
waarbij
b1 (~x,~y) =
1
b(~x,~y) + b(~y,~x)
2
en
1
b(~x,~y) − b(~y,~x)
2
Hierbij is b1 een symmetrische en b2 een alternerende bilineaire afbeelding. De kwadratische
vorm geassocieerd aan b1 is dezelfde als die geassocieerd aan b, terwijl de kwadratische vorm
geassocieerd aan b2 nul is:
q1 (~x) = 12 b(~x,~x) + b(~x,~x) = q(~x)
q2 (~x) = 12 b(~x,~x) − b(~x,~x) = 0
b2 (~x,~y) =
135
Positief en negatief definiete kwadratische vormen
Definitie 9.1.3 Zij E een eindigdimensionale Euclidische ruimte, en q : E → R een kwadratische
vorm.
We noemen q positief definiet als
q(~x) > 0
voor elke ~x 6= ~0; we noemen q negatief definiet als
q(~x) < 0
voor elke ~x 6= ~0; we noemen q positief semidefiniet als
q(~x) ≥ 0
voor elke ~x 6= ~0; we noemen q negatief semidefiniet als
q(~x) ≤ 0
voor elke ~x 6= ~0; we noemen q indefiniet als q zowel positieve als negatieve waarden aanneemt.
Voorbeeld 9.1.4 We beschouwen het allereenvoudigste geval: E = R. Een kwadratische vorm q
is dan te schrijven als volgt:
q(x) = ax2
waarbij a ∈ R.
1) a > 0 =⇒
2) a < 0 =⇒
3) a = 0 =⇒
Er zijn drie gevallen:
q is positief definiet;
q is negatief definiet;
q is zowel positief als negatief semidefiniet.
Voorbeeld 9.1.5 Het op een na eenvoudigste is het geval E = R2 . Een kwadratische vorm kan nu
geschreven worden als
q(x, y) = rx2 + 2sxy + ty2
We moeten het teken onderzoeken van q(x, y) voor (x, y) 6= (0, 0). Voor y 6= 0 geldt dat het teken
van q(x, y) hetzelfde is als dat van
x 2
x
r
+ 2s + t
(9.2)
y
y
Dit is een kwadratische functie van x/y. Als de (vereenvoudigde) discriminant D = s2 − rt negatief
is, dan heeft deze kwadratische functie geen nulpunten, en dus een constant teken. Dit teken is dan
het teken van t. Als y = 0, dan weten we dat x 6= 0, en dan neemt q hetzelfde teken aan als
y y 2
r + 2s + t
x
x
Als D negatief is, dan heeft q hetzelfde teken als r, en dit is hetzelfde teken als t. We kunnen dus
concluderen:
Als D = s2 − rt < 0, en r > 0 (of t > 0), dan is q positief definiet;
Als D = s2 − rt < 0, en r < 0 (of t < 0), dan is q negatief definiet.
136
Onderstel nu dat D = 0. Herhaling van bovenstaande redenering levert nu dat q nog steeds een
constant teken heeft, maar op sommige plaatsen nul wordt. Immers, in dit geval is
s2 t
=
r2 r
zodat
q(x, y) = rx2 + 2sxy + ty2
s
t = r x2 + 2 xy + y2
r
r
s 2
= r x+ y
r
hetzelfde teken heeft als r. Voor rx + sy = 0 is q(x, y) = 0 en we kunnen besluiten:
Als D = s2 − rt = 0, en r > 0 (of t > 0), dan is q positief semidefiniet (maar niet positief definiet);
Als D = s2 − rt = 0, en r < 0 (of t < 0), dan is q negatief semidefiniet (maar niet negatief definiet).
Als tenslotte D < 0, dan neemt (9.2) zowel positieve als negatieve waarden aan, en dus is q indefiniet.
Voorbeeld 9.1.6 In vele gevallen kan men aan een kwadratische vorm onmiddellijk zien of hij
definiet of indefiniet is. De kwadratische vormen
q(x, y)
q(x, y)
q(x, y, z)
q(x, y, z)
=
=
=
=
x2 + y2
(x + y)2 + (x − y)2
(x + y)2 + z2 + (x + y − z)2
x2 + 2y2 + 3z2
zijn allen positief definiet. De kwadratische vormen
q(x, y)
q(x, y)
q(x, y, z)
q(x, y, z)
q(x, y)
=
=
=
=
=
x2 − y2
(x + y)2 − (x − y)2
(x + y)2 − z2 + (x + y − z)2
x2 − 2y2
(x + y)(x − y)
zijn allen indefiniet. De kwadratische vormen
q(x, y)
q(x, y)
q(x, y, z)
q(x, y, z)
=
=
=
=
x2
(x + y)2
x2 + y2
(x + y)2 + z2
zijn positief semidefiniet. Verklaar dit zelf.
137
Onderstel nu het algemeen geval: E is een n-dimensionale Euclidische ruimte. We leggen een
orthonormale basis B = {~e1 , · · · ,~en } vast. Zij b de symmetrische bilineaire vorm waaraan q geassocieerd is, en schrijf
b(~ei ,~e j ) = ai j
De matrix A met ai j op de positie (i, j) is dan symmetrisch. Uit stelling 7.3.5 volgt nu dat er een
orthogonale matrix M bestaat zodat
Mt AM = D
een reële diagonaalmatrix is. We schrijven nu
n
~ui =
∑ m ji~e j
j=1
U = {~u1 , · · · ,~un } is dan een nieuwe orthonormale basis van E, en
n
~ei =
∑ mi j~u j
j=1
Bovendien is
n
b(~ui ,~u j ) =
n
∑ ∑ b(mki~ek , ml j~el )
k=1 l=1
n n
=
∑ ∑ mkiakl ml j
k=1 l=1
het element op positie (k, l) van de matrix Mt AM = D. Als we het i-de diagonaalelement van de
matrix D dii noemen, dan volgt dus dat
b(~ui ,~u j ) = δi j dii
Merk op dat de dii de eigenwaarden van de matrix A zijn. Omgekeerd, indien we een orthonormale
basis U = {~u1 , · · · ,~un } zo kunnen kiezen dat
b(~ui ,~u j ) = δi j dii
dan is A = MDMt en dus Mt AM = D, en dan zijn de dii noodzakelijkerwijs de eigenwaarden van
de matrix A.
We rangschikken de vectoren ~ui nu zodanig dat
• 1 ≤ k ≤ s =⇒ dkk > 0. We noteren dkk = α2k ;
• s < k ≤ d =⇒ dkk < 0. We noteren dkk = −β2k ;
• k > d =⇒ dkk = 0.
138
n
n
i=1
i=1
Neem nu ~x = ∑ xi~ui en ~y = ∑ yi~ui in E. Dan is
n
b(~x,~y) =
n
∑ ∑ xiy j b(~ui,~u j )
i=1 j=1
n
=
=
en we vinden dat
∑
xi yi dii
i=1
α21 x1 y1 + · · · + α2s xs ys − β2s+1 xs+1 ys+1 − · · · − β2d xd yd
2
− · · · − β2d xd2
q(~x) = α21 x12 + · · · + α2s xs2 − β2s+1 xs+1
(9.3)
(9.4)
Hiermee is de volgende stelling bewezen.
Stelling 9.1.7 (Sylvester) Onderstel dat b : E × E → R een symmetrische bilineaire afbeelding
is. Er bestaat een orthonormale basis U = {~u1 ,~u2 , · · · ,~un } van E en unieke getallen s ≤ d zodat
b(~ui ,~u j ) = 0
b(~ui ,~ui ) = α2i
b(~ui ,~ui ) = −β2i
> 0
< 0
b(~ui ,~ui ) = 0
als i 6= j
als 1 ≤ i ≤ s
als s + 1 ≤ i ≤ d
als d + 1 ≤ i ≤ n
De bilineaire afbeelding b en de geassocieerde kwadratische vorm q worden dan expliciet beschreven door de formules (9.3) en (9.4).
We kunnen nu gemakkelijk zien wanneer een kwadratische vorm definiet, semidefiniet of indefiniet
is.
Gevolg 9.1.8 Onderstel dat q : E → R de kwadratische vorm is geassocieerd aan de symmetrische
bilineaire vorm b : E × E → R. Met notaties zoals in stelling 9.1.7 hebben we dat
q is positief definiet
q is positief semidefiniet
q is negatief definiet
q is negatief semidefiniet
q is indefiniet
⇐⇒
⇐⇒
⇐⇒
⇐⇒
⇐⇒
s=d=n
s=d≤n
s = 0, d = n
s = 0, d ≤ n
0<s<d
Een kwadratische vorm is dus positief (semi)definiet als de bijhorende symmetrische matrix A
enkel positieve (niet-negatieve) eigenwaarden heeft. q is negatief (semi)definiet als de bijhorende
symmetrische matrix A enkel negatieve (niet-positieve) eigenwaarden heeft. q is indefiniet als A
zowel positieve als negatieve eigenwaarden heeft.
Voorbeeld 9.1.9 We beschouwen weer het tweedimensionaal geval E = R2 :
!
!
r s
x
2
2
q(x, y) = rx + 2sxy + ty = ( x y )
s t
y
139
We hebben hierboven reeds besproken wanneer q definiet of indefiniet is. We zullen nu met onze
nieuwe methode hetzelfde resultaat opnieuw afleiden. We moeten enkel de eigenwaarden zoeken
van de matrix
!
r s
A=
s t
De karakteristieke vergelijking luidt:
!
r−λ
s
det(A − λI2 ) = = λ2 − (r + t)λ + rt − s2 = 0
s
t −λ De discriminant is
(r + t)2 − 4rt + 4s2 = (r − t)2 + 4s2 ≥ 0
zoals moet. Noem de twee wortels λ1 en λ2 . Uit de som- en produktregel volgt
λ1 λ2 = rt − s2 en λ1 + λ2 = r + t
Als rt −s2 < 0, of s2 −rt > 0, dan hebben de twee wortels verschillend teken, en dan is q indefiniet.
Als rt − s2 > 0, of s2 − rt < 0, dan hebben de twee wortels hetzelfde teken. Indien r > 0 (en dus
t > 0), dan is q positief definiet; indien r < 0 (en dus t < 0), dan is q negatief definiet.
Als s2 − rt = 0, dan is een van de twee wortels nul, en dan is q positief semidefiniet (als r ≥ 0 en
t ≥ 0) of negatief semidefiniet (als r ≤ 0 en t ≤ 0).
Voorbeeld 9.1.10 Bekijk de volgende kwadratische vorm in drie veranderlijken:
q(x, y, z) = 5x2 + 9y2 + 2z2 + 12xy + 4xz + 6yz
of

q(x, y, z) = ( x
y
5
6

z)6
9
 
x
 
3y
2
2 3 2
z
Om na te gaan of deze definiet is berekenen we de eigenwaarden van


5 6 2


A = 6 9 3
2
3
2
De karakteristieke vergelijking is
−λ3 + 16λ2 − 24λ + 9 = 0
(reken dit zelf na). λ1 = 1 is een wortel, en de twee andere wortels zijn zijn de oplossingen van de
vergelijking
λ2 − 15λ + 9 = 0
of
√
√
15 ± 189 15 ± 3 21
λ23 =
=
2
2
140
De drie eigenwaarden zijn dus positief, zodat q definiet positief is.
Dit kan men ook nog zien door op te merken dat
q(x, y, z) = (x + 2y)2 + (2x + 2y + z)2 + (y + z)2 > 0
voor elke (x, y, z) 6= (0, 0, 0).
9.2
Toepassing: extreme waarden van scalaire functies
Beschouw een willekeurige functie f : Rn → R, gedefinieerd op een omgeving van een punt A
(we zullen de elementen van Rn voorstellen als kolomvectoren). In [5, §II.3.4] werd het volgende
bewezen:
Stelling 9.2.1 Indien f een locaal extremum bereikt in A ∈ Rn , en f differentieerbaar is in A, dan
is grad f (A) = 0, of, anders gezegd,
∂f
(A) = 0
∂xi
voor i = 1, 2, · · · , n.
Onderstel nu dat A een stationnair punt van f is, dit wil zeggen dat grad f (A) = 0. Hoe kunnen
we nu weten of f in A een maximum, een minimum of helemaal geen extremum bereikt? In [5,
§II.3.4] werd dit probleem behandeld in de gevallen n = 1 en n = 2. De volgende resultaten werden
bewezen:
n=1
Als f een eindige afgeleide van orde 3 bezit op een omgeving van A, dan geldt:
f 00 (A) > 0 =⇒ f bereikt een minimum in A
f 00 (A) < 0 =⇒ f bereikt een maximum in A
Als f 00 (a) = 0, dan is er geen besluit.
n=2
Als f continue partiële afgeleiden bezit op een omgeving van A tot op orde minstens 3, dan geldt:
s2 − rt > 0 =⇒ f bereikt geen extremum in A
s2 − rt < 0, r < 0 =⇒ f bereikt een maximum in A
s2 − rt < 0, r > 0 =⇒ f bereikt een minimum in A
Als s2 − rt = 0, dan is er geen besluit.
Hierbij is
∂2 f
∂2 f
∂2 f
r = 2 (A), s =
(A), t = 2 (A)
∂x
∂x∂y
∂y
141
We gaan dit nu veralgemenen voor functies van n veranderlijken. Onderstel dat A een stationnair
punt is, en dat f continue partiële afgeleiden bezit tot op orde 3 op een omgeving van A. We
schrijven nu de Taylorontwikkeling van f in het punt A op tot op orde 2 en met restterm van orde
3 (zie [5, §II.3.3]):
∂f
(A)hi
i=1 ∂xi
n
f (A + H) = f (A) + ∑
+
1 n n ∂2 f
∑ ∑ ∂xi∂x j (A)hih j
2 i=1
j=1
+
1 n n n
∂3 f
∑ ∑ ∑ ∂xi∂x j ∂xk (A + θH)hih j hk
6 i=1
j=1 k=1
waarbij θ ∈ (0, 1). Omdat A een stationnair punt is valt de lineaire term weg. De kwadratische
term
n n
∂2 f
(A)hi h j
q(H) = ∑ ∑
i=1 j=1 ∂xi ∂x j
is een kwadratische vorm in H (op een factor 2 na). Deze kan herschreven worden als
q(H) = H t BH
waarbij
∂2 f
(A) · · ·
∂x1 x2
∂2 f
(A) · · ·
∂x12
..
.
2
∂ f
(A) · · ·
∂xn x2
 ∂2 f
(A)
 ∂x12

 ∂2 f

(A)

B =  ∂x2 x1

..


.
 ∂2 f
(A)
∂xn x1
We beschouwen nu verschillende gevallen.

∂2 f
(A)

∂x1 xn

2

∂ f
(A) 

∂x2 xn


..


.

2
∂ f
(A)
∂xn2
Eerste geval: q is indefiniet
Er bestaan kolomvectoren H1 en H2 zodat q(H1 ) > 0 en q(H2 ) < 0. Beschouw de functie
g1 : R−→R : t 7→ f (A + tH1 )
Dan is
∂f
(A + tH1 )h1,i
i=1 ∂xi
n
g01 (t) = ∑
en
g01 (0) = 0
zodat 0 een stationnair punt is van g1 . Verder is
g001 (t) =
∂2 f
(A + tH1 )h1,i h1, j
∑∑
i=1 j=1 ∂xi ∂x j
n
n
142
zodat
g001 (0) = H1t BH1 = q(H1 ) > 0
g1 bereikt dus een minimum in 0. Dit betekent dat f een minimum bereikt in A als we H enkel
laten variëren in de H1 -richting.
Beschouw nu
g2 : R−→R : t 7→ f (A + tH1 )
Net zoals voor g1 vinden we dat g02 (0) = 0 en g002 (0) = H2t BH2 = q(H2 ) < 0. g2 bereikt dus een
maximum in 0, en f bereikt een maximum in A als we H enkel laten variëren in de H2 -richting.
We kunnen dus concluderen dat f geen extremum bereikt in A.
Tweede geval: q is positief definiet
We schrijven nu H = ρU, waarbij ρ = kHk en U een eenheidsvector. We kunnen nu schrijven
f (A + H) − f (A) =
ρ 2 n n ∂2 f
∑ ∑ ∂xi∂x j (A)uiu j
2 i=1
j=1
+
=
Stel nu
ρ3 n n n
∂3 f
∑ ∑ ∑ ∂xi∂x j ∂xk (A + θH)uiu j uk
6 i=1
j=1 k=1
ρ2
ρ
(q(U) + β(H))
2
3
Γ = {U ∈ Rn |kUk = 1}
De functie
n
q : Γ−→R+ : U 7→ ∑
∂2 f
n
∑ ∂xi∂x j (A)uiu j = 2q(U)
i=1 j=1
is continu. Γ is een gebied in
(gesloten, begrensd en boogsamenhangend), en dus bereikt q
een minimum op Γ (zie [5, §I.4.3]). Omdat q uitsluitend positieve waarden aanneemt op Γ, is de
bereikte minimumwaarde strikt positief. Stel
Rn
q0 = min{q(U)|U ∈ Γ} > 0
β is een continue functie, gedefinieerd op een omgeving van A. Beperk β tot een gesloten bol
V met middelpunt A en straal r, volledig binnen deze omgeving gelegen. Dan bereikt |β|V | een
maximum, dit volgt weer uit [5, §I.4.3]. Stel
m = max{|β(H)| : H ∈ V }
Voor kH − Ak < r vinden we dat
f (A + H) − f (A) =
ρ2
ρ
(q(U) + β(H))
2
3
Voor kHk < min{3q0 /m, r} geldt dus dat f (A + H) > f (A) en f bereikt een minimum in A.
143
Derde geval: q is negatief definiet
Op analoge wijze vinden we nu dat f een maximum bereikt in A.
Vierde geval: q is positief semidefiniet
Er bestaat een H1 6= 0 zodanig dat q(H1 ) = 0. Dan geldt dat
f (A + tH1 ) − f (A) =
1 n n n
∂3 f
∑ ∑ ∑ ∂xi∂x j ∂xk (A + θtH1)t 3h1,ih1, j h1,k
6 i=1
j=1 k=1
en over het teken hiervan weten we niets. We kunnen dus geen enkel besluit trekken. In dit geval
kan f in A zowel een minimum bereiken als geen extremum. Dit blijkt uit de volgende voorbeelden:
1) f (x, y, z) = x2 + y2 + z4 . (0, 0, 0) is een stationnair punt, en q(x, y, z) = x2 + y2 is positief semidefiniet. f bereikt een minimum in (0, 0, 0).
2) f (x, y, z) = x2 + y2 + z3 . (0, 0, 0) is een stationnair punt, en q(x, y, z) = x2 + y2 is positief semidefiniet. f bereikt geen extremum in (0, 0, 0).
Vijfde geval: q is negatief semidefiniet
Net als in het vorige geval is er geen besluit.
We kunnen bovenstaande resultaten als volgt samenvatten.
Stelling 9.2.2 Onderstel dat f : Rn → R een scalaire functie is die continue partiële afgeleiden
tot op orde minstens 3 bezit op een omgeving van het punt A. Onderstel ook dat A een stationnair
punt is van de functie f :
∂f
(A) = 0
∂xi
voor i = 1, · · · , n. We beschouwen de kwadratische vorm q gegeven door de formule q(H) = H t BH,
waarbij B de n × n-matrix met de tweede partiële afgeleide
∂2 f
(A)
∂xi ∂x j
in de (i, j)-positie.
Als q indefiniet is, dan bereikt f geen extremum in A;
als q positief definiet is, dan bereikt f een minimum in A;
als q negatief definiet is, dan bereikt f een maximum in A;
als q semidefiniet is, dan is er geen besluit.
Voorbeeld 9.2.3 We beschouwen de functie f : R3 → R gedefinieerd door
f (x, y, z) = −x + 4y + 6z + x2 + 2y2 + 3z2 + 4xy + 6xz + x3
De stationnaire punten worden gevonden door het volgende stelsel vergelijkingen op te lossen:

 −1 + 2x + 4y + 6z + 3x2 = 0
4 + 4y + 4x = 0

6 + 6z + 6x = 0
144
Uit de tweede en de derde vergelijking volgt onmiddellijk dat
y = z = −x − 1
Substitutie in de eerste vergelijking levert
3x2 − 8x − 11 = 0
√
zodat x = 4 ± 16 + 33. De twee stationnaire punten zijn dus
(11, −12, −12) en (−3, 2, 2)
We onderzoeken nu of het hier gaat om een maximum, minimum of geen extremum.
1) x = 11. De matrix B wordt nu


68 4 6


B =  4 4 0
6
0
6
zodat
q(x, y, z) = 68x2 + 4y2 + 6z2 + 8xy + 12xz
Merk op dat
(4x + y)2 = 16x2 + y2 + 8xy
(3x + 2z)2 = 9x2 + 4z2 + 12xz
zodat
q(x, y, z) = (4x + y)2 + (3x + 2z)2 + 43x2 + 3y2 + 2z2
positief definiet is. In (11, −12, −12) bereikt f dus een minimum.
2) x = −3. De matrix A wordt nu


−16 4 6


a= 4
4 0
6
0
6
zodat
q(x, y, z) = −16x2 + 4y2 + 6z2 + 8xy + 12xz
Aangezien
q(0, 1, 1) = 10 > 0 en q(1, 0, 0) = −16 < 0
is q indefiniet, en f bereikt geen extremum in (−3, 2, 2).
9.3
Toegevoegde en singuliere punten
E is een n-dimensionale Euclidische ruimte, en b : E × E → R is een symmetrische bilineaire
afbeelding. q is de geassocieerde kwadratische vorm. We leggen een orthonormale basis B =
145
{~e1 , · · · ,~en } vast, en we noteren A voor de matrix van b, en X voor de coördinaten van een vector
~x. We hebben dus dat
b(~x,~y) = X t AY en q(~x) = X t AX
Het allereenvoudigste voorbeeld van een symmetrische bilineaire vorm is het Euclidische inprodukt. In dit geval is b(~x,~y) = h~x,~yi, en A = In .
In het algemeen noemen we twee vectoren toegevoegd tenopzichte van b (of q) als
b(~x,~y) = 0
Twee vectoren die toegevoegd zijn ten opzichte van het inwendig produkt op E zijn dus gewoon
twee orthogonale vectoren. We weten dat de verzameling van de vectoren die loodrecht staan op
een gegeven van 0 verschillende vector een hypervlak vormen in E. Men kan zich afvragen of deze
eigenschap ook geldt voor toegevoegde punten ten opzichte van een kwadratische vorm.
Om dit probleem op te lossen berekenen we eerst de partiële afgeleiden van de kwadratische vorm
q, waarbij we q bekijken als een functie
q : Rn → R
We hebben
n
q(~x) = ∑
n
∑ ai j xix j
i=1 j=1
Aangezien de veranderlijken x1 , x2 , · · · , xn onafhankelijk zijn, geldt
∂xi
= δi j
∂x j
Met behulp van de produktregel voor het berekenen van afgeleiden vinden we
∂q
=
∂xk
=
n
∑
n
n
∑ ai j δik x j + ∑
i=1 j=1
n
n
∑ ai j xiδ jk
i=1 j=1
n
∑ ak j x j + ∑ aik xi
j=1
n
i=1
n
= 2 ∑ ak j x j = 2 ∑ aik xi
j=1
i=1
Merk ook op dat
∂2 q
= akl
∂xk ∂xl
Dit toont opnieuw aan dat de symmetrische bilineaire vorm kan gereconstrueerd worden uit de
kwadratische vorm. Bovendien geldt
n
2b(~x,~y) = 2 ∑
n
∑ ai j xiy j
i=1 j=1
n
=
∂q
∑ ∂x j (~x)y j
j=1
= hgrad q(~x),~yi
Hieruit volgt onmiddellijk
146
Stelling 9.3.1 Twee vectoren ~x en ~y zijn aan elkaar toegevoegd tenopzichte van de kwadratische
vorm q als en alleen als
n
∂q
∑ ∂x j (~x)y j = hgrad q(~x),~yi = 0
j=1
Als grad q(~x) 6= ~0, dan is de verzameling van de punten toegevoegd aan ~x het hypervlak door de
oorsprong en loodrecht op grad q(~x). Als grad q(~x) = ~0, dan zijn alle punten toegevoegd aan ~x. In
dit geval noemen we ~x een singulier punt van q
De singuliere punten van q zijn dus de oplossingen van het stelsel lineaire vergelijkingen
n
∑ ak j x j = 0
j=1
voor k = 1, · · · , n. Dit is een homogeen stelsel, en de matrix van het stelsel is A. De singuliere
punten vormen dus een deelruimte van Rn met dimensie n − rang(A). Als er niet-triviale singuliere
punten van q bestaan, dan noemen we de kwadratische vorm q ontaard.
Meetkundige interpretatie
Neem c ∈ R, en beschouw het niveauoppervlak
q(~x) = c
Voor elke ~x0 ∈ E kunnen we het niveauoppervlak door ~x0 beschouwen; de vergelijking hiervan is
q(~x) = q(~x0 )
Onderstel dat ~x0 geen singulier punt is. Dan staat de vector grad q(~x0 ) loodrecht op het niveauoppervlak in het punt ~x0 (zie [WISA2]). De vergelijking van het raakhypervlak in ~x0 is dus
hgrad q(~x0 ),~x −~x0 i = 0
Het raakhypervlak bestaat dus uit die punten ~x waarvoor ~x −~x0 toegevoegd is aan ~x0 .
Als ~x0 een singulier punt is, dan is grad q(~x0 ) = ~0. De normaal op en het raakhypervlak aan het
oppervlak zijn dan niet gedefinieerd.
Voorbeelden 9.3.2 1) q(x, y) = x2 − y2 . (0, 0) is een singulier punt. De niveaukromme door (0, 0)
heeft als vergelijking
x2 − y2 = 0
Dit zijn twee snijdende rechten. In het punt (0, 0) is de raaklijn niet gedefinieerd.
2)q(x, y, z) = x2 + y2 − z2 . (0, 0, 0) is een singulier punt. Het niveauoppervlak door (0, 0, 0) heeft
als vergelijking
x2 + y2 − z2 = 0
Dit is de vergelijking van een kegel, met top (0, 0, 0). In (0, 0, 0) is het raakvlak aan de kegel niet
gedefinieerd.
147
9.4
Kwadratische functies en kwadrieken
Beschouw een n-dimensionale Euclidische ruimte E. We leggen een orthonormale basis B =
{~e1 , · · · ,~en } vast. Voor ~x ∈ E schrijven we
 
x1
 
 x2 

[~x]B = X = 
 ... 
 
xn
Een functie f : E → R noemen we een kwadratische functie als f kan geschreven worden onder
de vorm
f (~x) = q(~x) + 2g(~x) + c
(9.5)
waarbij
• q : E → R een kwadratische vorm is; we noteren b voor de symmetrische bilineaire vorm
waaraan q geassocieerd is;
• g : E → R een lineaire afbeelding is;
• c ∈ R.
Net zoals in de vorige paragrafen schrijven we voor A de matrix met elementen ai j = b(~ei ,~e j ). B is
de rijvector met elementen bi = g(~ei ), of, m.a.w., B = [g]B ,1 . (9.5) kan nu herschreven worden als
f (~x) = X t AX + 2BX + c
(9.6)
Definitie 9.4.1 Een kwadriek K in E is de nulpuntenverzameling van een kwadratische functie f
K = {~x ∈ E| f (~x) = ~0}
In deze paragraaf zullen we kwadrieken op isometrie na bestuderen. Hoe kunnen we de vergelijking van een kwadriek K zo eenvoudig mogelijk schrijven, als we een nieuwe orthonormale basis,
en een nieuwe oorsprong mogen kiezen. Uit § 9.1 weten we dat er een orthonormale matrix M
bestaat zodat
Mt AM = D
een diagonaalmatrix is. Stel nu X = MY (of Y = Mt X). Dan is
Y = [~x]U
n
met U = {~u1 ,~u2 , · · · ,~un } en ~ui =
∑ m ji~ei. Bovendien is
j=1
n
q(~x) = Y t Mt AMY = Y t DY = ∑ dii y2i
i=1
en
e +c
f (~x) = Y t DY + 2BMY + c = Y t DY + 2BY
We gebruiken nu dezelfde notatie als in § 9.1:
148
• 1 ≤ k ≤ s =⇒ dkk = α2k > 0;
• s < k ≤ d =⇒ dkk = −β2k < 0;
• k > d =⇒ dkk = 0.
Voor k ≤ d kunnen we schrijven
e
b2
bk 2 e
dkk y2k + 2e
bk yk = dkk yk +
− k
dkk
dkk
Voor k = 1, · · · , d stellen we
zk = yk +
e
bk
dkk
We krijgen nu
d
f (~x) =
∑ dkk z2k +
k=1
n
∑
l=d+1
2e
bl yl + ce
Schrijf zelf neer wat ce is. We beschouwen nu twee gevallen.
Eerste geval: De lineaire term is nul, met andere woorden
e
bd+1 = · · · = e
bn = 0
We stellen yl = zl voor l = d + 1, · · · , n. We hebben dan dat
d
f (~x) =
∑ dkk z2k + ce
k=1
en de vergelijking van de kwadriek kan geschreven worden onder de vorm
α21 z21 + · · · + α2s z2s − β2s+1 z2s+1 − · · · − β2d z2d + ce = 0
(9.7)
Tweede geval: De lineaire term is niet nul.
We werken nu even in de Euclidische ruimte Rn−d . We zullen de elementen van Rn−d voorstellen
door overlijnde hoofdletters, en we laten de indexen van de coördinaten lopen van d + 1 tot n. We
zullen dus bijvoorbeeld schrijven


yd+1
 . 
Y =  .. 
yn
Stel
e 
bd+1
 .. 
B= . 
e
bn
en
E d+1 = B/kBk
149
Vul {E d+1 } aan tot een orthonormale basis {E d+1 , E d+2 , · · · , E n } van Rn−d . De matrix
M = ( E d+1
E d+2
· · · En )
is een orthogonale matrix. We voeren nu de volgende orthogonale coördinatentransformatie uit:
t
T = M Y en Y = MT
We noteren

td+1
 . 
T =  .. 

tn
De lineaire term van q kunnen we nu herschrijven als
n
∑
t
t
e
bl yl = B Y = kBkE d+1 MT = kBktd+1
l=d+1
Immers,
t
t
E d+1 M = ( E d+1 E d+1
t
E d+1 E d+2
t
· · · E d+1 E n ) = ( 1
0
··· 0)
We voeren tenslotte een laatste verschuiving uit:
zd+1 = td+1 +
ce
kBk
De lineaire en constante term van f tezamen geteld geven dan
kBktd+1 + ce = kBkzd+1
en we vinden tenslotte
d
f (~x) =
∑ dkk z2k + kBkzd+1
k=1
Als we γ = kBk noteren, dan kunnen we de vergelijking van de kwadriek schrijven onder de vorm
α21 z21 + · · · + α2s z2s − β2s+1 z2s+1 − · · · − β2d z2d + γzd+1 = 0
(9.8)
We kunnen de bovenstaande resultaten samenvatten als volgt:
Stelling 9.4.2 Zij E een n-dimensionale Euclidische ruimte, en f : E → R een kwadratische functie. Na een geschikte keuze van de oorsprong en van een orthonormale basis kan men de vergelijking van de kwadriek
f (~x) = 0
herschrijven onder de vorm (9.7) of (9.8). Men noemt (9.7) of (9.8) de (Euclidische) standaardvergelijking van de kwadriek.
We zullen nu stelling 9.4.2 gebruiken om de kwadrieken in het twee- en driedimensionaal geval te
klasseren. Een kwadriek in R2 noemt men ook een kegelsnede.
150
Classificatie van de kegelsneden
We werken in een tweedimensionale Euclidische ruimte E. In dit geval is n = 2. Voor de eenvoud
vervangen we de veranderlijken z1 en z2 opnieuw door x en y. We onderscheiden twee gevallen:
d = 1 en d = 2.
eerste geval: d = 2.
1.1: s = 2
De vergelijking (9.7) wordt dan
α21 x2 + α22 y2 + ce = 0
(9.9)
Hier zijn drie mogelijke deelgevallen te onderscheiden.
1.1.a ce < 0. (9.9) kan herschreven worden als
x2 y2
+ =1
a2 b2
Dit is de vergelijking van een ellips
1.1.b ce = 0. De enige oplossing van (9.9) is het punt (0, 0).
1.1.c ce > 0. (9.9) heeft geen enkele oplossing.
1.2: s = 1
De vergelijking (9.7) wordt nu
α21 x2 − β22 y2 + ce = 0
(9.10)
Er zijn weer drie deelgevallen te onderscheiden.
1.2.a ce < 0. (9.10) kan herschreven worden als
x2 y2
− =1
a2 b2
Dit is de vergelijking van een hyperbool
1.2.b ce = 0. (9.10) wordt nu
of
α21 x2 − β22 y2 = 0
(α1 x + β1 x)(α1 x − β1 x) = 0
Dit is de vergelijking van twee rechten die mekaar snijden in (0, 0).
1.2.c ce > 0. (9.10) kan herschreven worden als
x2 y2
− = −1
a2 b2
Dit is weer de vergelijking van een hyperbool. We kunnen geval 1.2.c trouwens herleiden
tot 1.2.a door x en y om te wisselen.
151
1.3: s = 0
Dit levert niets nieuws op. Als we de vergelijking van de kegelsnede herschrijven als − f (~x) = 0,
dan zijn we opnieuw in het geval s = 2.
Tweede geval: d = 1.
2.1: De lineaire term van de vergelijking is nul. (9.7) wordt nu
α21 x2 + ce = 0
(9.11)
Er zijn weer drie deelgevallen:
2.1.a ce < 0. De vergelijking wordt
p
x = ± −e
c/α1
Dit zijn twee evenwijdige rechten.
2.1.b ce = 0. De vergelijking wordt
x2 = 0
Dit zijn twee samenvallende rechten.
2.1.c ce > 0. (9.11) heeft geen oplossingen.
2.2: De lineaire term van de vergelijking is niet nul. (9.8) wordt nu
x2 ± γy = 0
(9.12)
Dit is de vergelijking van een parabool
Classificatie van de kwadrieken in R3
We werken in een driedimensionale Euclidische ruimte E. In dit geval is n = 3. Voor de eenvoud
vervangen we de veranderlijken z1 , z2 en z3 door x, y en z. We onderscheiden drie gevallen: d = 1,
d = 2 en d = 3.
eerste geval: d = 3.
1.1: s = 3
De vergelijking (9.7) wordt nu
α21 x2 + α22 y2 + α23 z2 + ce = 0
Hier zijn drie mogelijke deelgevallen te onderscheiden.
1.1.a ce < 0. (9.13) kan herschreven worden als
x2 y2 z2
+ + =1
a2 b2 c2
152
(9.13)
geval 1.1.a: ellips
2
geval 1.2.a: hyperbool
6
1.5
4
1
2
y-as
y-as
0.5
0
-0.5
0
-2
-1
-4
-1.5
-2
-3
-2
-1
1
2
-6
-6
3
3
6
2
5
1
4
-1
2
-2
1
-3
-2
-1
0
x-as
1
2
3
-4
-4
geval 2.1.a: twee evenwijdige rechten
4
2
2
1
1
y-as
3
0
-1
-2
-2
-3
-3
-2
-1
0
x-as
1
2
3
4
0
x-as
2
4
6
-2
-1
0
x-as
1
2
3
4
3
4
geval 2.1.b: twee samenvallende rechten
0
-1
-3
-3
4
3
-4
-4
-2
geval 1.2.b: twee snijdende rechten
0
3
0
-3
-4
4
7
y-as
y-as
8
y-as
0
x-as
geval 2.2.a: parabool
-4
-4
-3
-2
-1
Figuur 9.1: De kegelsneden
153
0
x-as
1
2
geval 1.1.a: ellipsoide
geval 1.2.b: elliptische kegel
1
3
2
0.5
1
0
0
-1
-0.5
-2
-1
1
-3
4
1
0.5
0
0
-0.5
5
2
0.5
0
0
-2
-0.5
-1
-4
-1
-5
Figuur 9.2: De ellipsoide en de kegel
Dit is de vergelijking van een ellipsoı̈de. De doorsnede met een vlak evenwijdig met een van
de coördinaatvlakken is ofwel leeg ofwel een ellips. Neem bijvoorbeeld de doorsnede met
het vlak met vergelijking z = d. De doorsnede is de kromme met vergelijking
x 2 y2
d2
+
=
1
−
a2 b2
c2
en dit is een ellips als |d| ≤ |c|. Indien |d| > |c| is de doorsnede leeg. Het is dan ook niet
moeilijk om in te zien dat de grafiek van de kwadriek eruit ziet als een rugbybal (een gewone
voetbal indien a = b = c), zoals geschetst Figuur 9.2. Merk ook op dat de ellipsoide in
parametervorm kan geschreven worden als volgt:
x = a sin θ cos ϕ
y = b sin θ sin ϕ
z = c cos θ
1.1.b ce = 0. De enige oplossing van (9.13) is het punt (0, 0, 0).
1.1.c ce > 0. (9.13) heeft geen enkele oplossing.
1.2 s = 2
De vergelijking (9.7) wordt nu
α21 x2 + α22 y2 − β23 z2 + ce = 0
Er zijn weer drie deelgevallen te onderscheiden.
1.2.a ce < 0. (9.14) kan herschreven worden als
x2 y2 z2
+ − =1
a2 b2 c2
154
(9.14)
geval 1.2.a: eenbladige hyperboloide
geval 1.2.c: tweebladige hyperboloide
5
6
4
2
0
0
-2
-4
-5
20
-6
4
20
10
0
0
-10
5
2
10
0
0
-2
-10
-20
-4
-20
-5
Figuur 9.3: De eenbladige en de tweebladige hyperboloide
Dit is de vergelijking van een éénbladige hyperboloı̈de.
Om te zien hoe de grafiek eruitziet merken we op dat de doorsnede met een horizontaal vlak z = d
volgende vergelijking heeft:
d2
x2 y2
+
=
1
+
a2 b2
c2
en dit is een ellips. De doorsnede met het xz-vlak is de hyperbool met vergelijking
x 2 z2
− =1
a2 c2
Op analoge manier zien we dat de doorsnede met elk verticaal vlak door de oorsprong een hyperbool is. De grafiek van de eenbladige hyperboloide wordt geschetst in Figuur 9.3. In parametervorm kunnen we de vergelijking van de eenbladige hyperboloide als volgt herschrijven:
x = ach v cos ϕ
y = bch v sin ϕ
z = csh v
1.2.b ce = 0. (9.14) wordt nu
α21 x2 + α22 y2 − β23 z2 = 0
of
z2
x2 y2
+
=
a2 b2 c2
Dit is de vergelijking van een elliptische kegel. Immers, de doorsnede met een horizontaal vlak
z = d is de ellips met vergelijking
x2 y2 d 2
+ = 2
a2 b2
c
terwijl de doorsnede met een verticaal vlak y = mx bestaat uit twee rechten die elkaar snijden in de
oorsprong:
1 m2
z2
( 2 + 2 )x2 − 2 = 0
a
b
c
155
of
r
r
z
z
1 m2
1 m2
(
+
x
+
)(
+ 2 x− ) = 0
2
2
2
a
b
c
a
b
c
De grafiek van de elliptische kegel wordt geschetst in Figuur 9.1. Een stel parametervergelijkingen
is bijvoorbeeld:
x = ar cos ϕ
y = br sin ϕ
z = cr
1.2.c ce > 0. (9.9) kan herschreven worden als
x2 y2 z2
+ − = −1
a2 b2 c2
De doorsnede met het horizontaal z = d is de ellips met vergelijking
x2 y2 d 2
+ = 2 −1
a2 b2
c
indien |d| ≥ |c|. Als |d| < |c| is deze doorsnede leeg. De doorsnede met het verticale vlak y = mx
heeft als vergelijking
1 m2 z2
2
+
x
−
= −1
a2 b2
c2
en is een hyperbool. Men noemt dit type kwadriek een tweebladige hyperboloı̈de. Een stel parametervergelijkingen van de tweebladige hyperboloı̈de is bijvoorbeeld
x = ash v cos ϕ
y = bsh v sin ϕ
z = cch v
1.3 s = 1
Dit levert niets nieuws op. Als we de vergelijking van de kwadriek herschrijven als − f (~x) = 0,
dan zijn we opnieuw in het geval s = 2.
1.4 s = 0
Dit levert niets nieuws op. Als we de vergelijking van de kwadriek herschrijven als − f (~x) = 0,
dan zijn we opnieuw in het geval s = 3.
tweede geval: d = 2.
2.1 de lineaire term is nul. (9.7) neemt nu volgende vorm aan
d11 x2 + d22 y2 + ce = 0
Alnaargelang de tekens van d11 , d22 en ce kunnen we de vergelijking herschrijven in van de volgende vormen:
156
geval 2.1.1: elliptische cilinder
geval 2.1.2: hyperbolische cilinder
3
3.5
3
2
2.5
1
2
0
1.5
-1
1
-2
0.5
-3
4
0
5
2
2
1
0
0
-2
10
5
0
0
-1
-4
-5
-5
-2
-10
Figuur 9.4: De elliptische en de hyperbolische cilinder
2.1.1
2.1.2
x2 y2
+
= 1. Dit is de vergelijking van een elliptische cilinder (zie Figuur 9.4 voor de
a2 b2
grafiek). Een stel parametervergelijkingen is bijvoorbeeld

 x = a cos ϕ
y = b sin ϕ

z=z
x2 y2
− = 1. Dit is de vergelijking van een hyperbolische cilinder. (zie Figuur 9.4 voor de
a2 b2
grafiek). Een stel parametervergelijkingen is bijvoorbeeld

 x = ach ϕ
y = bsh ϕ

z=z
2.1.3
x2 y2
+ = −1. De vergelijking heeft dan geen oplossingen, en de kwadriek is leeg.
a2 b2
2.1.4
x2 y2
+ = 0. De kwadriek bestaat nu uit de z-as.
a2 b2
2.1.5
x2 y2
− = 0, of
a2 b2
x
a
+
y x y −
=0
b a b
Dit zijn twee snijdende vlakken.
2.2 de lineaire term is niet nul.
157
geval 2.2.1: elliptische paraboloide
geval 2.2.2: hyperbolische paraboloide of zadeloppervlak
6
20
5
10
4
3
0
2
-10
1
0
4
-20
30
5
2
0
20
0
-2
-4
10
0
-5
0
5
10
15
20
25
30
Figuur 9.5: De elliptische en de hyperbolische paraboloide
2.2.1 s = 2. (9.8) kan herschreven worden als
x2 y2
+ = ±z
a2 b2
De doorsnede met het horizontaal vlak z = d is een ellips als ±d ≥ 0 en leeg als ±d < 0. De
doorsnede met het verticaal vlak y = mx is de parabool met vergelijking
±z =
1 m2 +
x2
a2 b2
We noemen deze kwadriek een elliptische paraboloide. (zie Figuur 9.5). We geven ook weer
een stel parametervergelijkingen: een stel parametervergelijkingen is bijvoorbeeld
x = ar cos ϕ
y = br sin ϕ
z = ±r2
2.2.2 s = 1. (9.8) kan herschreven worden als
x2 y2
− = ±z
a2 b2
We bekijken het geval waarin de coëfficiënt van z 1 is. De doorsnede met het horizontale
vlak z = c is dan de hyperbool met vergelijking
x2 y2
− =c
a2 b2
De doorsnede met het xy-vlak z = 0 bestaat uit twee rechten die mekaar snijden in de oorsprong:
x y x y
( + )( − ) = 0
a b a b
158
De doorsnede met het xz-vlak y = 0 is de parabool met vergelijking
x2
=z
a2
Dit is een parabool met als top de oorsprong, en de top is een minimum.
De doorsnede met het yz-vlak x = 0 is de parabool met vergelijking
y2
=z
b2
Dit is een parabool met als top de oorsprong, en de top is een maximum.
Op het eerste zicht is het moeilijk om al deze gegevens in een grafiek met mekaar te verenigen. Dit type kwadriek is dan ook degene die het moeilijkste is om te tekenen. De grafiek
wordt geschetst in Figuur 9.5. We noemen een kwadriek van dit type een hyperbolische
paraboloide of zadeloppervlak. Een stel parametervergelijkingen is bijvoorbeeld

 x = arch ϕ
y = brsh ϕ

z = r2
derde geval: d = 1.
3.1: de lineaire term is nul. (9.7) neemt nu volgende vorm aan
d11 x2 + ce = 0
3.1.1 d11 ce < 0. De vergelijking wordt
s
x=± −
ce
d11
De kwadriek bestaat uit twee evenwijdige vlakken.
3.1.2 d11 ce > 0. De kwadriek is leeg.
3.1.3 ce = 0. De vergelijking wordt nu z2 = 0, en de kwadriek bestaat uit twee samenvallende
vlakken.
3.1 de lineaire term is verschillend van nul.
d11 x2 + γy = 0
is de vergelijking van een parabolische cilinder (zie Figuur 9.6).
9.5
Affiene classificatie van de kwadrieken
Bij de classificatie van de kwadrieken in de vorige paragraaf hebben we enkel overgangen naar
nieuwe orthonormale basissen toegelaten. Op die manier verkregen we de classificatie van de
kwadrieken op isometrie na, men noemt dit soms de Euclidische classificatie van de kwadrieken.
We zullen nu ook niet-orthogonale basistransformaties toelaten. Dit geeft een iets eenvoudigere
classificatie, men spreekt nu van de affiene classificatie.
159
geval 3.1: parabolische cilinder
6
5
4
3
2
1
0
25
20
15
10
5
0
0
5
10
15
20
25
Figuur 9.6: De parabolische cilinder
Stelling 9.5.1 Zij E een n-dimensionale Euclidische ruimte, en f : E → R een kwadratische functie. Na een geschikte keuze van de oorsprong en van een basis kan men de vergelijking van de
kwadriek
f (~x) = 0
herschrijven onder de vorm
u21 + · · · + u2s − u2s+1 − · · · − u2d = 0
(9.15)
u21 + · · · + u2s − u2s+1 − · · · − u2d = 1
(9.16)
u21 + · · · + u2s − u2s+1 − · · · − u2d = ud+1
(9.17)
of
of
Men noemt (9.15), (9.16) of (9.17) de (affiene) standaardvergelijking.
Bewijs. Uit stelling stelling 9.4.2 volgt dat we na geschikte keuze van de oorsprong en een (orthonormale) basis de vergelijking kunnen schrijven in de vorm (9.7) of (9.8). Beschouw eerst de
vergelijking (9.7).
α21 z21 + · · · + α2s z2s − β2s+1 z2s+1 − · · · − β2d z2d + ce = 0
Onderstel dat ce = 0. We voeren nu de volgende transformatie uit:

(i ≤ s)
 ui = αi zi
ui = βi zi
(s < i ≤ d)

ui = zi
(i > d)
We verkrijgen dan de vergelijking (9.15).
Onderstel nu dat ce 6= 0. Door eventueel de vergelijking van teken te veranderen en de rollen van s
en d − s met elkaar om te wisselen kunnen we onderstellen dat ce < 0. We voeren nu de volgende
transformatie uit

√
c
(i ≤ s)
 ui = αi zi /√ −e
u = βi zi / −e
c
(s < i ≤ d)
 i
ui = zi
(i > d)
160
De nieuwe vergelijking van de kwadriek is dan (9.16).
Onderstel tenslotte dat de vergelijking van de kwadriek kan gebracht worden onder de vorm (9.8).
α21 z21 + · · · + α2s z2s − β2s+1 z2s+1 − · · · − β2d z2d + γzd+1 = 0
Net zoals hierboven kunnen we onderstellen dat γ < 0.

ui = αi zi



ui = βi zi
√
ud+1 = −γzd



ui = zi
Onze coördinatentransformatie is nu:
(i ≤ s)
(s < i ≤ d)
(i > d + 1)
Dit levert (9.17)als nieuwe vergelijking.
Uitgaande van de Euclidische classificatie van kegelsneden en kwadrieken in R3 kunnen we nu
gemakkelijk de affiene classificatie van kegelsneden en kwadrieken maken.
Kegelsneden
x2 + y2 = 1
x2 − y2 = 1
y = x2
x2 − y2 = 0
x2 = 0
x2 = 1
x2 + y2 = 0
x2 + y2 = −1
ellips
hyperbool
parabool
snijdende rechten
samenvallende rechten
evenwijdige rechten
punt
leeg
Kwadrieken in R3
x2 + y2 + z2 = 1
x2 + y2 − z2 = 1
x2 + y2 − z2 = −1
x2 + y2 − z2 = 0
z = x2 + y2
z = x2 − y2
x2 + y2 = 1
x2 − y2 = 1
y = x2
x2 − y2 = 0
x2 = 0
x2 = 1
x2 + y2 = 0
x2 + y2 + z2 = 0
x2 + y2 + z2 = −1
ellipsoı̈de
eenbladige hyperboloı̈de
tweebladige hyperboloı̈de
elliptische kegel
elliptische paraboloı̈de
hyperbolische paraboloı̈de
elliptische cilinder
hyperbolische cilinder
parabolische cilinder
snijdende vlakken
samenvallende vlakken
evenwijdige vlakken
rechte
punt
leeg
161
Voorbeeld 9.5.2 De affiene classificatie laat soms toe om op een relatief eenvoudige manier te
bepalen van welk type een kwadriek is. Er zijn immers meer coördinatentransformaties toegelaten.
Als voorbeeld nemen we de kwadriek
x2 + y2 + z2 + 2xy + 4yz + 2x − 4z = 1
We herschrijven de vergelijking als
(x + y)2 + (z + 2y)2 − 4y2 + 2x − 4z = 1
Voer nu volgende coördinatentransformatie uit:

 u1 = x + y
v1 = z + 2y
of

w1 = y

 x = u 1 − w1
y = w1

z = v1 − 2w1
De vergelijking wordt nu
u21 + v21 − 4w21 + 2u1 − 4v1 + 6w1 = 1
of
Stel nu
3
9
(u1 + 1)2 + (v1 − 2)2 − (2w1 − )2 − 1 − 4 + = 1
2
4

 u2 = u1 + 1
v2 = v1 − 2

w2 = 2w1 − 32
zodat de vergelijking wordt
(u2 )2 + (v2 )2 − w22 =
15
4
We voeren onze laatste subsitutie uit:
√

 u = 2u2 /√ 15
v = 2v2 / √15

w = 2w2 / 15
We krijgen nu de standaardvergelijking van de kwadriek:
u2 + v2 − w2 = 1
en we zien dat dit een eenbladige hyperboloı̈de is.
9.6
Kwadrieken en rechten
We werken in een n-dimensionale Euclidische ruimte E, en beschouwen een kwadriek K met
vergelijking
f (~x) = q(~x) + 2g(~x) + c = 0
162
Zoals in de voorgaande paragraaf is q een kwadratische vorm (geassocieerd aan de bilineaire vorm
b), g een lineaire afbeelding, en c een constante.
De bedoeling van deze paragraaf is te onderzoeken wat de doorsnede kan zijn van de kwadriek K
met een rechte L. We schrijven de vergelijking van de rechte L in parametervorm:
~x = ~a + t d~
Om de doorsnede van K en L te bepalen moeten we de parameters t vinden waarvoor ~a + t d~ op de
kwadriek K ligt, m.a.w. waarvoor
~ =0
f (~a + t d)
(9.18)
We zien gemakkelijk dat
~ = b(~a + t d,~
~ a + t d)
~ + 2g(~a + t d)
~ +c
f (~a + t d)
~ + q(d)t
~ 2 + 2g(~a) + 2tg(d)
~ +c
= q(~a) + 2b(~a, d)t
~ 2 + 2(b(~a, d)
~ + g(d))t
~ + q(~a) + 2g(~a) + c
= q(d)t
~ 2 + 2(b(~a, d)
~ + g(d))t
~ + f (~a)
= q(d)t
Om de snijpunten van K en L te bepalen moeten we dus de volgende vergelijking oplossen
~ 2 + 2(b(~a, d)
~ + g(d))t
~ + f (~a) = 0
q(d)t
(9.19)
Dit is een kwadratische vergelijking in t, en we kunnen verschillende gevallen onderscheiden:
~ 6= 0. Alnaargelang de discriminant van (9.19) negatief, nul of positief is zijn er
Eerste geval: q(d)
0, 1 of 2 snijpunten van de kwadriek K met de rechte L.
~ = 0. De vergelijking (9.19) herleidt zich nu tot een vergelijking van de eerste
Tweede geval: q(d)
graad:
~ + g(d))t
~ + f (~a) = 0
2(b(~a, d)
Er zijn weer drie deelgevallen:
~ + g(d)
~ 6= 0. Er is dan juist 1 snijpunt;
2.1 b(~a, d)
~ + g(d)
~ = 0 en f (~a) 6= 0. Er zijn dan geen snijpunten;
2.2 b(~a, d)
~ + g(d)
~ = 0 en f (~a) = 0. Elke t ∈ R is nu een oplossing van (9.19), en dit betekent dat
2.3 b(~a, d)
L⊂K.
We kunnen dus besluiten:
Stelling 9.6.1 Een kwadriek K en een rechte L hebben 0, 1, 2 of een oneindig aantal punten met
elkaar gemeen. In het laatste geval is de rechte L volledig binnen K gelegen.
We bekijken nu het speciaal geval waarin het punt ~a op de kwadriek K gelegen is. We kunnen dit
nog als volgt bekijken: we nemen een punt ~a op K gelegen, en trekken daar een rechte L door met
~ Het is duidelijk dat L nu altijd tenminste 1 punt met K gemeen heeft (namelijk
richtingsvector d.
~a zelf). De vergelijking (9.19) herleidt zich nu tot
~ 2 + 2(b(~a, d)
~ + g(d))t
~ =0
q(d)t
163
(9.20)
De doorsnede van K en L bestaat nu uit enkel het punt ~a of de ganse rechte L indien
~ + g(d))
~ =0
2(b(~a, d)
(9.21)
~ + g(d))
~ = 0, dan zijn we ofwel in het eerste geval hierboven
Immers, indien f (~a) = 0 en 2(b(~a, d)
(de vergelijking (9.20) is dan t 2 = 0, en we hebben 1 snijpunt), ofwel in het geval 2.3 (de vergelijking is dan 0 = 0 en de rechte L ligt binnen de kwadriek). Vergelijking (9.21) kan herschreven
worden als
~ + 2hgrad g, di
~ =0
hgrad q(~a), di
of
~ =0
hgrad f (~a), di
(9.22)
We hebben dus aangetoond dat K ∩ L = {~a} of L indien d~ evenwijdig is met het raakhypervlak in
~a aan K . Immers, de vergelijking van dit raakhypervlak is juist
hgrad f (~a),~x −~ai = 0
Het kan natuurlijk zijn dat grad f (~a) =~0. In dat geval is het raakhypervlak in ~a aan K niet bepaald.
We noemen ~a dan een singulier punt van de kwadriek K .
Voorbeeld 1: het zadeloppervlak
We bekijken het zadeloppervlak K in R3 met vergelijking
z = x2 − y2
(9.23)
We hebben dus
f (x, y, z) = x2 − y2 − z
q(x, y, z) = x2 − y2
2g(x, y, z) = −z
Kies nu een punt ~a = (a, b, c = a2 − b2 ) op het zadeloppervlak K gelegen. De rechte L met vectorvergelijking
~x = ~a + t d~
(9.24)
ligt volledig op het zadeloppervlak indien
~ = 0
q(d)
~ = 0
hgrad f (~a), di
We noteren d~ = (d, e, f ). (9.25) luidt nu als volgt:
d 2 − e2 = 0
of
d = ±e
164
(9.25)
(9.26)
Aangezien grad f (~x) = (2x, −2y, −1) wordt (9.26)
2ad − 2be − f = 0
(9.27)
Eerste geval: d = e.
Aangezien d~ een richtingsvector is, is d~ slechts op een veelvoud na bepaald. We kunnen dus één
van de componenten van d~ vrij kiezen, bijvoorbeeld d. Stel d = 1, dan volgt dat e = 1, en uit (9.27)
dat
f = 2(ad − be) = 2(a − b)
Tweede geval: d = −e.
Stel weer d = 1. Nu volgt dat e = −1, en, uit (9.27),
f = 2(ad − be) = 2(a + b)
Besluit
Door elke punt ~a = (a, b, c) op het zadeloppervlak gaan twee rechten L1 en L2 die volledig op
het oppervlak liggen. De parametervergelijkingen van deze rechten kunnen als volgt geschreven
worden:


 x = a+t

y = b+t
L1 :
de blauwe rechten
z = a2 − b2 + 2t(a − b)



= (a − b)(a + b + 2t)
en

x = a+t



y = b−t
L2 :
de rode rechten
z = a2 − b2 + 2t(a + b)



= (a + b)(a − b + 2t)
Als we de unie van alle blauwe rechten L1 nemen, dan verkrijgen we het hele zadeloppervlak. Op
dezelfde manier geeft de unie van alle rode rechten L2 ons het hele oppervlak. Een zadeloppervlak
kan dus op twee manieren beschreven worden als een regeloppervlak .
We kunnen het zadeloppervlak nu ook op een nieuwe manier in parametervorm herschrijven. De
doorsnede van het zadeloppervlak en het xz-vlak is de parabool met vergelijking z = x2 .
Laat het punt ~a = (u, 0, u2 ) doorheen deze parabool lopen. De bijhorende blauwe rechten L1 beschrijven dan de volledige kwadriek, en hetzelfde geldt voor de rode rechten L2 . Dit geeft volgende
stellen parametervergelijkingen voor K :


 x = u+t
 x = u+t
y=t
y = −t


2
z = u + 2tu
z = u2 + 2tu
Voorbeeld 2: de kegel
We bekijken nu de kegel K in R3 met vergelijking
x2 + y2 = z2
165
(9.28)
Nu is
f (x, y, z) = x2 + y2 − z2 = q(x, y, z)
en
grad f (~x) = (2x, 2y, −2z)
Aangezien grad f (~0) = ~0 is de oorsprong ~0 een singulier punt. Het raakvlak in de top van de kegel
is immers niet gedefinieerd.
Neem nu een punt ~a = (a, b, c) 6= ~0 gelegen op de kegel. We hebben dus dat
a2 + b2 = c2
(9.29)
De rechte L met vectorvergelijking
~x = ~a + t d~
ligt volledig op de kegel als
~ = 0
q(d)
~ = 0
hgrad f (~a), di
(9.30)
(9.31)
We noteren weer d~ = (d, e, f ). (9.30) wordt dan
d 2 + e2 = f 2
(9.32)
en (9.31) wordt
2ad + 2be − 2c f = 0
of
ad + be = c f
(9.33)
Kwadrateren van (9.33) geeft, rekening houdend met (9.29) en (9.32)
(ad + be)2 = c2 f 2 = (a2 + b2 )(d 2 + e2 )
of
a2 d 2 + 2adbe + b2 e2 = a2 d 2 + b2 d 2 + a2 e2 + b2 e2
of
(bd − ae)2 = 0
waaruit
bd = ae
of
a
b
d =0
e
Hieruit volgt dat (d, e) een veelvoud is van (a, b). Omdat de richtingsvector d~ slechts op een
veelvoud na bepaald is kunnen we dus (d, e) = (a, b) kiezen. Uit (9.33) volgt dan dat
c f = ad + be = a2 + b2 = c2
166
en
f =c
We vinden dus dat er één rechte door ~a op de kegel ligt, namelijk die met vectorvergelijking
~x = ~a + t~a
of
~x = u~a
Dit is de rechte L = R~a die de top ~0 van de kegel en het punt ~a verbindt. Meetkundig konden we
dit reeds van in het begin inzien!
Voorbeeld 3: de eenbladige hyperboloide
Beschouw de eenbladige hyperboloide K met vergelijking
x2 + y2 − z2 = α2
Nu is
(9.34)
f (x, y, z) = x2 + y2 − z2 − α2
en
q(x, y, z) = x2 + y2 − z2
We kiezen een punt ~a = (a, b, c) op K . We hebben dus dat
a2 + b2 − c2 = α2
(9.35)
De rechte L met vectorvergelijking
~x = ~a + t d~
ligt op de hyperboloide K als
~ = 0
q(d)
~ = 0
hgrad f (~a), di
(9.36)
(9.37)
Aangezien grad f (~x) = (2x, 2y, −2z) kunnen we de vergelijkingen (9.35-9.37) herschrijven als
 2
 a + b2 = c2 + α2
(9.38)
d 2 + e2 = f 2

ad + be = c f
Het stelsel (9.38) kan op elegante wijze opgelost worden na overgang op cilindercoördinaten. Dit
is niet zo verwonderlijk, aangezien de eenbladige hyperboloide K omwentelingssymmetrisch is.
We schrijven dus
a = r cos ϕ
d = s cos θ
en
b = r sin ϕ
e = s sin θ
zodat
~a = (r cos ϕ, r sin ϕ, c) en d~ = (s cos θ, s sin θ, f )
167
De vector d~ mag altijd door een veelvoud van zichzelf vervangen worden, zodat we gerust s = 1
mogen kiezen. Ook de zin van d~ mogen we vrij kiezen. We nemen deze in de richting van de
positieve z-as, zodat f ≥ 0. Het stelsel (9.38) neemt nu volgende vorm aan:
 2
 r = c2 + α2
(9.39)
1 = f2

r cos φ cos θ + r sin φ sin θ = c f
Uit de tweede vergelijking van (9.39) volgt dat f = 1. Oplossen van de derde vergelijking geeft nu
achtereenvolgens
r cos(θ − ϕ) = c
c
r
c
θ = ϕ ∓ bgcos
r
ϕ − θ = ±bgcos
Hieruit kunnen we d~ berekenen:
c
c
d = cos θ = cos ϕ cos bgcos ± sin ϕ sin bgcos
r
r
r
c2
ac b
1− 2
±
=
rr r
r
ac ± bα
=
r2
c
c
e = sin θ = sin ϕ cos bgcos ∓ cos ϕ sin bgcos
r
r
r
2
bc a
c
=
∓
1− 2
rr r
r
cb ∓ aα
=
r2
~ namelijk
We vinden dus twee oplossingen voor d,
ac ± bα cb ∓ aα ~
,
,1
d=
r2
r2
Net zoals in het geval van het zadeloppervlak kunnen we besluiten dat er door het punt ~a = (a, b, c)
twee rechten gaan die op de eenbladige hyperboloide liggen:
ac + bα
r2
cb − aα
L1 :
y = b+t
r2
z = c+t
x = a+t
ac − bα
r2
cb + aα
en L2 :
y = b+t
r2
z = c+t
x = a+t
Merk op dat L1 en L2 samenvallen als α = 0. Immers, in dit geval ontaardt de hyperboloide tot een
kegel, en dan gaat er door elke punt slechts één rechte op de kegel gelegen. Dit toonden we reeds
aan in het vorige voorbeeld.
168
3
3
2
2
1
1
0
0
-1
-1
-2
-2
-3
4
-3
4
4
2
2
0
0
-2
4
2
0
-2
-2
-4
2
0
-2
-4
-4
-4
Figuur 9.7: De eenbladige hyperboloide beschreven door rechten
Net zoals het zadeloppervlak kan de eenbladige hyperboloide op twee manieren als een regeloppervlak beschreven worden. Als we ~a = (a, b, c) door de cirkel met middelpunt ~0 en straal α in het
xy-vlak laten lopen, dan doorlopen de rechten L1 (en ook de rechten L2 ) de eenbladige hyperboloide. Stel
~a = (α cos ϕ, α sin ϕ, 0)
Dan zijn
x = α cos ϕ + t sin ϕ
x = α cos ϕ − t sin ϕ
K : y = α sin ϕ − t cos ϕ en y = α sin ϕ + t cos ϕ
z=t
z=t
twee stellen parametervergelijkingen van K . Deze parametervergelijkingen werden gebruikt om
Figuur 9.7 te tekenen. Merk op dat de beschrijvende rechten L1 en L2 hierop duidelijk te zien zijn.
169
Hoofdstuk 10
Inleiding tot de groepentheorie
De definitie van een groep hebben we reeds op enkele plaatsen in deze syllabus gezien. Formeel
gezien is een groep een verzameling die uitgerust is met een bewerking die aan drie eigenschappen
voldoet: de bewerking is associatief, er is een neutraal element, en elk element heeft een invers
element. We zullen dit dadelijk uitgebreid herformuleren, maar laten we eerst de groepentheorie,
dit is het deelgebied van de wiskunde dat zich bezighoudt met de studie van de groepen, binnen
zijn kader plaatsen.
Binnen de wiskunde zelf zijn er talrijke toepassingen van de groepentheorie. Een van de meest
bekende is de oplossing van het volgende eeuwenoude probleem. Zoals we allen weten worden de
oplossingen van de tweedegraadsvergelijking
ax2 + bx + c = 0
gegeven door de formule
√
−b ± b2 − 4ac
x12 =
2a
Voor vergelijkingen van de derde en de vierdegraad bestaan er ook dergelijke formules. Deze zijn
echter zo ingewikkeld dat ze in de praktijk bijna nooit gebruikt worden. Het belang van deze
formules is dan ook voornamelijk theoretisch. Bestaan er ook formules die toelaten om de vergelijkingen van de vijfde, zesde,... graad op te lossen? Onder “formule”verstaan we hierbij een
wiskundige formule in functie van de coëfficiënten van de vergelijking die enkel optellingen, aftrekkingen, vermenigvuldigingen, delingen, en ook n-de machtswortels bevat.
Met behulp van de groepentheorie bewees Galois dat zulk een formule niet kan bestaan! Gelijkaardige technieken laten toe om aan te tonen dat de trisectie van een hoek niet kan uitgevoerd worden
met passer en lineaal alleen. Dit is een probleem dat teruggaat tot de oude Grieken!
Ook in de moderne natuurwetenschappen is de groepentheorie een veelvuldig toegepaste discipline. Bekijk een probleem dat op een of andere manier kan gesitueerd worden in R2 of R3 , het
probleem kan zich situeren binnen de meetkunde, de mechanica, de fysica of de scheikunde. In
vele gevallen zal er een zekere symmetrie in dit probleem zitten. Als we bijvoorbeeld de eigenschappen van het molecule benzeen (in de scheikunde of in de atoom- en molecuulfysica) willen
bestuderen, dan zullen we niet omheen het feit kunnen dat dit molecuul de vorm heeft van een
regelmatige zeshoek. En dit heeft natuurlijk zijn gevolgen voor de eigenschappen van deze molecule.
170
Vele fysische grootheden worden gemeten met reële getallen: een blok steen kan 154 kg wegen.
De symmetrie van een probleem wordt gegeven door een meer ingewikkelde grootheid: ze wordt
beschreven door een groep. In dit hoofdstuk geven we de definitie en enkele zeer elementaire eigenschappen van groepen. In de tweede paragraaf bespreken we symmetriegroepen, waarbij we
ons hoofdzakelijk beperken tot het geven van enkele voorbeelden.
Tot slot van deze inleiding vermelden we een belangrijk deelgebied van de groepentheorie, de
zogenaamde representatietheorie. Deze laat ondermeer toe om uit de symmetrie van een atoom
belangrijke eigenschappen over het spectrum van dit atoom af te leiden. De details van deze theorie
gaan echter ver boven het bereik van deze syllabus.
10.1
Groepen
Zij S een willekeurige verzameling. Een bewerking of inwendige wet in S is een afbeelding
f : S × S−→S
Met elk koppel (a, b) in S × S wordt dus een element f (a, b) geassocieerd. In vele gevallen noteren
we de bewerking als volgt:
f (a, b) = ab
We zeggen dan dat de bewerking multiplicatief genoteerd wordt. Soms noteren we de bewerking
additief, dit wil zeggen
f (a, b) = a + b
Definitie 10.1.1 Een verzameling G uitgerust met een inwendige wet wordt een groep genoemd
indien de volgende drie eigenschappen gelden:
1) De bewerking is associatief, dit wil zeggen
(ab)c = a(bc)
voor alle a, b, c ∈ G.
2) Er bestaat een element e ∈ G zodat
ae = ea = a
voor elke a ∈ G. We noemen e het neutraal element van G.
3) Voor elke a ∈ G bestaat er een b ∈ G zodat
ab = ba = e
We noemen b het invers element van a en noteren b = a−1 (in het geval waarin de bewerking
additief genoteerd wordt noteert men b = −a. De bewerking of inwendige wet op G noemen we nu
ook wel de groepswet op G.
Indien de bewerking bovendien commutatief is, dit wil zeggen dat
ab = ba
voor alle a, b ∈ G, dan noemen we G een commutatieve of abelse groep.
171
De additieve notatie gebruiken we uitsluitend voor abelse groepen. Merk op dat het neutraal element en het invers element van a ∈ G uniek zijn. Immers, als e0 een tweede neutraal element is,
dan geldt
e = ee0 = e0
en als b0 een tweede invers element van a is, dan is
b0 = eb0 = (ba)b0 = b(ab0 ) = be = b
Merk ook op dat een groep G nooit leeg is. Immers, het neutraal element e zit steeds in G.
Voorbeelden 10.1.2 1) Z, Q, R en C zijn additieve groepen (de groepswet is de optelling). Wat is
het neutraal element? N is geen groep, want niet elk element heeft een invers voor de optelling.
2) Q∗ , R∗ en C∗ zijn multiplicatieve groepen. Waarom is Z∗ geen groep?
3) Zij V een reële of complexe vectorruimte. V is een abelse groep voor de optelling.
4) Gln (R) = {A ∈ Mnn (R) | A regulier}. De groepswet is de vermenigvuldiging van matrices. We
noemen Gln (R) de algemene lineaire groep (Eng. general linear group) der n × n-matrices.
5) On = {A ∈ Mnn (R) | A orthogonaal}. De groepswet is weer de vermenigvuldiging van matrices.
We noemen On de orthogonale groep der n × n-matrices.
6) SOn = {A ∈ On | det(A) = 1}. De groepswet is weer de vermenigvuldiging van matrices. We
noemen SOn de speciale orthogonale groep der n × n-matrices.
7) Un = {A ∈ Mnn (C) | A unitair}. De groepswet is weer de samenstelling ◦. We noemen Un de
unitaire groep der n × n-matrices.
8) Cn = {0, 1, 2, · · · , n − 1} met groepswet gedefinieerd als volgt: i + j = r waarbij r de rest is bij
deling van i + j door n. We noemen Cn de cyclische groep van orde n.
9) Zij A een willekeurige verzameling. De verzameling S(A) van alle permutaties van A is een
groep voor de samenstelling. We hebben deze groep reeds besproken in hoofdstuk 4.
Definitie 10.1.3 Beschouw twee (multiplicatieve) groepen G1 en G2 . Een afbeelding f : G1 → G2
wordt een groepshomomorfisme genoemd indien
f (ab) = f (a) f (b)
voor alle a, b ∈ G1 . Een bijectief groepshomomorfisme noemen we een groepsisomorfisme. Als er
een groepsisomorfisme tussen de groepen G1 en G2 bestaat, dan zeggen we dat G1 en G2 isomorf
zijn.
Merk op dat een groepsisomorfisme het neutraal element e1 van G1 omzet in het neutraal element
e2 van G2 . Immers
f (e1 ) = f (e1 e1 ) = f (e1 ) f (e1 )
zodat
e2 = f (e1 )−1 f (e1 ) = f (e1 )−1 f (e1 ) f (e1 ) = f (e1 )
Voorbeelden 10.1.4 1) Onderstel dat f : V → W een lineaire afbeelding tussen twee vectorruimten is. Dan is f ook een groepshomomorfisme.
172
2) Onderstel dat V een n-dimensionale vectorruimte is met basis B, en stel G = { f : V → V | f isomorfisme van ve
G is dan een groep (de groepswet is de samenstelling), en de afbeelding
[•]B,B : G−→Gln (R) : f 7→ [ f ]B,B
is een groepsisomorfisme.
3) De exponentiële functie
exp : R → R∗+ : x 7→ ex
is een groepsisomorfisme tussen de (additieve) groep R en de multiplicatieve groep R∗+ .
Definitie 10.1.5 Beschouw een groep G. Een deelverzameling H van G noemen we een deelgroep
als H een groep is voor de beperking van de groepswet op G tot H.
Voorbeelden 10.1.6 1) Z ⊂ Q ⊂ R ⊂ C zijn deelgroepen van mekaar.
2) SOn ⊂ On ⊂ GLn (R) zijn deelgroepen van elkaar.
3) Zij G een willekeurige groep. G zelf en {e} zijn altijd deelgroepen van G. Men noemt deze de
triviale deelgroepen.
De meeste van de voorbeelden van groepen die we hierboven zagen zijn oneindige groepen. De
cyclische groep Cn is eindig (van orde n), en de symmetrische groep Sn = S({1, · · · , n}) is eindig
(van orde n!). De studie van de eindige groepen is een vak op zich, we beperken ons tot de volgende
belangrijke eigenschap.
Stelling 10.1.7 (Lagrange)
Onderstel dat H een deelgroep is van een eindige groep G. Dan deelt het aantal elementen #H van
de groep H het aantal elementen #G van G.
Bewijs. Neem a ∈ G en beschouw de verzameling
aH = {ah | h ∈ H}
Men noemt aH een linker nevenklasse van H in G. We beschouwen nu de verzameling P van alle
linker nevenklassen van H in G. We beweren dat deze een partitie van G vormen, dit wil zeggen
dat P G opslitst in een aantal disjuncte, niet-lege deelverzamelingen.
1) De linker nevenklasse aH is niet leeg, immers a = ae ∈ aH.
/ Immers,
2) Beschouw twee nevenklassen aH en bH. Ofwel is aH = bH ofwel is aH ∩ bH = 0.
onderstel dat
aH ∩ bH 6= 0/
Neem c ∈ aH ∩ bH. Dan kunnen we c schrijven onder de vorm
c = ah = bh0
met h, h0 ∈ H. Maar dan is a = bh0 h−1 , en voor elke k ∈ H geldt dan dat
ak = bh0 h−1 k ∈ bH
173
zodat aH ⊂ bH. Op dezelfde manier tonen we aan dat bH ⊂ aH en dus is aH = bH.
3) De unie van alle nevenklassen is de volledige verzameling : a ∈ G ligt steeds in de nevenklasse
aH.
We beweren nu bovendien dat alle nevenklassen hetzelfde aantal elementen hebben. Immers, de
afbeelding
fa : H−→aH : h 7→ ah
is een bijectie.
Schrijf m voor het aantal linkernevenklassen. Dan is G de disjuncte unie van m linkerklassen die
allen evenveel elementen hebben als H. Dus is
#G = m#H
en dit bewijst onze stelling.
Men noemt m = [G : H] de index van H in G. Men heeft dus #G = [G : H]#H.
Beschouw twee groepen G1 en G2 . Op de produktverzameling
G1 × G2 = {(g1 , g2 ) | g1 ∈ G1 , g2 ∈ G2 }
definiëren we de volgende inwendige wet:
(g1 , g2 )(g01 , g02 ) = (g1 g01 , g2 g02 )
Het is gemakkelijk om aan te tonen dat G1 × G2 opnieuw een groep is. We noemen G1 × G2 het
direct produkt van de groepen G1 en G2 . Op analoge manier kunnen we het direct produkt van een
eindig aantal groepen G1 , G2 , · · · , Gn definiëren. Zonder bewijs formuleren we de structuurstelling
voor eindige abelse groepen.
Stelling 10.1.8 Elke eindige abelse groep is isomorf met het direct produkt van een eindig aantal
cyclische groepen.
10.2
Symmetriegroepen
Zij E een n-dimensionale Euclidische ruimte, en beschouw een deel X ⊂ E. Een symmetrieoperatie van X is een isometrie van E die X op zichzelf afbeeldt. We noteren
S (X) = { f : E → E | f is een symmetrie-operatie van X}
voor de verzameling van alle symmetrie-operaties van X. We noteren verder:
T (X) = {~v ∈ E | ~v + X = X}
voor de verzameling van alle verschuivingen die X invariant laten. Verder schrijven we
O(X) = { f ∈ S (X) | f (~0) = ~0}
174
O(X) is dus de verzameling van de symmetrie-operaties op X die een bepaald punt (de oorsprong)
op zichzelf afbeelden. Omdat een isometrie die de oorsprong op zichzelf afbeeldt een orthogonale
transformatie van E is, kunnen we ook zeggen dat O(X) de verzameling van alle orthogonale
transformaties van E is die X op zichzelf afbeelden. Een orthogonale transformatie heeft steeds
determinant ±1, en we noteren
SO(X) = { f ∈ O(X)| det( f ) = 1}
Stelling 10.2.1 Zij X een deelverzameling van een n-dimensionale Euclidische ruimte E. SO(X),
O(X), T (X) en S (X) zijn groepen. Verder is
SO(X) ⊂ O(X) ⊂ S (X) en T (X) ⊂ S (X)
zijn groepen; de bewerking is steeds de samenstelling ◦. Tenslotte is
T (X) ∩ O(X) = {iE }
Bewijs. Als f en g twee isometrieën zijn die X invariant laten, dan is ( f ◦ g)(X) = f (g(X)) =
f (X) = X, zodat ook f ◦ g X invariant laat. De samenstelling van twee isometrieën is opnieuw een
isometrie, en de samenstelling van twee orthogonale transformaties is opnieuw een orthogonale
transformatie. Als f en g orthogonale transformaties zijn met determinant 1, dan is ook f ◦ g een
orthogonale transformatie met determinant 1. De samenstelling van twee afbeeldingen in respectievelijk SO(X), O(X) en S (X) is dus opnieuw een afbeelding in SO(X), O(X) en S (X).
De samenstelling van afbeeldingen is steeds associatief.
De identieke afbeelding iE laat elke deel X van E invariant, en zit dus in alle drie de bovenvermelde
verzamelingen. iE is een neutraal element voor de samenstelling.
Als f (X) = X, dan is ook X = iE (X) = ( f −1 ◦ f )(X) = f −1 ( f (X)) = f −1 (X), zodat ook f −1 X
invariant laat. Als f respectievelijk een isometrie, een orthogonale transformatie of een orthogonale transformatie met determinant 1 is, dan geldt hetzelfde voor f −1 . Elke f in respectievelijk
SO(X), O(X) en S (X) heeft dus een inverse in respectievelijk SO(X), O(X) en S (X). Op analoge
manier bewijzen we gemakkelijk dat T (X) een deelgroep van S (X) is. Tenslotte is het duidelijk
dat T (X) ∩ O(X) = {iE }, aangezien de identiteit de enige verschuiving is die de oorsprong op
zichzelf afbeeldt.
We noemen S (X) de symmetriegroep van X. O(X) wordt de orthogonale groep of puntgroep van
X genoemd. SO(X) wordt de speciale orthogonale groep genoemd. T (X) tenslotte, noemen we
de translatiegroep van X.
Bij vele fysische of chemische problemen is het nuttig om vooraf de symmetrie van het probleem
vast te stellen omdat deze ons informatie geeft over de oplossing. In de scheikunde rangschikt
men moleculen volgens hun orthogonale groep, en in de vaste stof fysica doet men hetzelfde voor
kristalroosters. We zullen hierna enkele voorbeelden bespreken.
Om de symmetriegroep van X te bepalen moeten we alle isometrieën bepalen die X invariant laten,
en ook moeten we nagaan hoe deze zich met mekaar samenstellen.
Beschouwen we even het geval waarin X = E de ganse Euclidische ruimte is. We kunnen voor
E dan Rn nemen uitgerust met het standaard inwendig produkt. We noteren On = O(Rn ) voor de
groep van alle orthogonale n × n-matrices en SOn = SO(Rn ) voor de groep van alle orthogonale
n × n-matrices met determinant 1. Bekijken we nu het speciale geval n = 1.
175
De symmetriegroep van R
De isometrieën van R werden opgesomd in § 8.2. Er zijn twee soorten isometrieën:
1) de verschuiving over a ∈ R. We stellen deze voor door het symbool (a, +).
2) de puntsymmetrie tenopzichte van het punt a/2. We stellen deze voor door het symbool (a, −).
We kunnen nu schrijven:
S (R) = {(a, ε)|a ∈ R, ε = ±1}
We kunnen nu de samenstellingswet expliciet beschrijven.
Voor elke x ∈ R hebben we
(a, +) ◦ (b, +) (x) = (a, +) b + x
= a+b+x
= (a + b, +)(x)
Op analoge wijze vinden we
(a, +) ◦ (b, −) (x) = (a, +) b − x
= a+b−x
= (a + b, −)(x)
en
(a, −) ◦ (b, +) (x) = (a, −) b + x
= a−b−x
= (a − b, −)(x)
en
(a, −) ◦ (b, −) (x) = (a, −) b − x
= a−b+x
= (a − b, +)(x)
We kunnen onze resultaten als volgt samenvatten:
Stelling 10.2.2 De groep van de isometrieën van de Euclidische rechte wordt beschreven als volgt:
S (R) = {(a, ε)|a ∈ R, ε = ±1}
waarbij de samenstellingswet wordt gegeven door de volgende formules:
(a, +) ◦ (b, +)
(a, +) ◦ (b, −)
(a, −) ◦ (b, +)
(a, −) ◦ (b, −)
=
=
=
=
176
(a + b, +)
(a + b, −)
(a − b, −)
(a − b, +)
(10.1)
(10.2)
(10.3)
(10.4)
We kunnen nu ook gemakkelijk de orthogonale groep en de speciale orthogonale groep bepalen:
(a, ε) is alleen dan een orthogonale transformatie als a = 0. We hebben dus dat
O1 = {(0, +), (0, −)}
de groep bestaande uit 2 elementen is. Deze groep noemt men soms de cyclische groep van 2
elementen, en men noteert deze door C2 . De speciale orthogonale groep SO1 bevat slechts 1
element:
SO1 = {(0, +)}
De orthogonale groep van R2
We zullen nu de groep van de orthogonale 2 × 2-matrices beschrijven. We weten dat er twee
soorten orthogonale tranformaties van het vlak bestaan:
1) de rotaties ρθ om de oorsprong over een hoek θ. Dit zijn de orthogonale transformaties met
determinant 1.
2) de spiegelingen σφ rond de as die een hoek φ/2 insluit met de x-as.
De matrices van ρθ en σφ worden gegeven door de formules
!
!
cos θ − sin θ
cos φ
sin φ
[ρθ ] =
en [σφ ] =
(10.5)
sin θ cos θ
sin φ − cos φ
Met behulp van deze matrixrepresentatie rekenen we nu gemakkelijk uit hoe de ρθ en σφ zich met
mekaar vermenigvuldigen:
!
!
cos θ − sin θ
cos φ − sin φ
[ρθ ◦ ρφ ] =
sin θ cos θ
sin φ cos φ
!
cos(θ + φ) − sin(θ + φ)
=
= [ρθ+φ ]
sin(θ + φ) cos(θ + φ)
[ρθ ◦ σφ ] =
=
[σφ ◦ ρθ ] =
=
cos θ
− sin θ
sin θ
cos θ
!
cos φ
sin φ
sin φ
− cos φ
!
cos(θ + φ)
sin(θ + φ)
sin(θ + φ)
− cos(θ + φ)
cos φ
sin φ
sin φ
− cos φ
!
cos(φ − θ)
sin(φ − θ)
sin(φ − θ)
− cos(φ − θ)
177
= [σθ+φ ]
cos θ − sin θ
sin θ
!
!
cos θ
!
= [σ(φ−θ) ]
[σθ ◦ σφ ] =
=
cos θ
sin θ
!
cos φ
sin φ
!
sin φ − cos φ
!
cos(θ − φ) sin(φ − θ)
= [ρ(θ−φ) ]
sin(θ − φ) cos(φ − θ)
sin θ
− cos θ
We kunnen onze resultaten als volgt samenvatten
Stelling 10.2.3
O2 = {ρθ |θ ∈ [0, 2π)} ∪ {σφ |φ ∈ [0, 2π)}
SO2 = {ρθ |θ ∈ [0, 2π)}
waarbij
ρθ ◦ ρφ = ρθ+φ
ρθ ◦ σφ = σθ+φ
σφ ◦ ρθ = σφ−θ
σθ ◦ σφ = ρθ−φ
(10.6)
Merk op dat σθ = ρθ ◦ σ0 . Elk element van SO2 kan dus geschreven worden onder de vorm ρθ of
ρθ ◦ σ0 . Uit (10.6) volgt ook dat σ20 = ρ0 (σ0 is een spiegeling) en dat
ρθ ◦ σ0 = σθ = σ0 ◦ ρ−θ
We hebben dus zeker volgende betrekkingen:
ρθ ◦ ρφ = ρθ+φ
σ20 = ρ0 (= iE )
ρθ ◦ σ0 = σ0 ◦ ρ−θ
(10.7)
We beweren dat (10.7) de groepsstructuur volledig bepaalt. Immers, (10.6) volgt uit (10.7): de
eerste betrekking is duidelijk. Voor de overige gaan we als volgt tewerk:
ρθ ◦ σφ = ρθ ◦ ρφ ◦ σ0 = ρθ+φ ◦ σ0 = σθ+φ
σφ ◦ ρθ = ρφ ◦ σ0 ◦ ρθ = ρφ ◦ ρ−θ ◦ σ0 = ρφ−θ ◦ σ0 = σφ−θ
σφ ◦ σθ = ρφ ◦ σ0 ◦ ρθ ◦ σ0 = ρφ ◦ σ0 ◦ σ0 ◦ ρ−θ = ρφ−θ
De orthogonale groep van een regelmatige zeshoek
We bekijken weer de regelmatige zeshoek X met middelpunt de oorsprong en hoekpunten
√
√
√
√
1 3
3
3
1 3
1
1
(1, 0), ( ,
), (− ,
), (−1, 0), (− , −
), en ( , −
)
2 2
2 2
2
2
2
2
De orthogonale groep O(X) is een deelgroep van de groep O2 die beschreven staat in de stelling 10.2.3. De rotaties die X invariant laten, zijn de rotaties over de hoeken
0,
4π 5π
π 2π
,
, π,
,
3 3
3 3
178
Noteer ρi voor de rotatie over de hoek
iπ
3.
Dan is
SO(X) = {ρi |i = 0, 1, 2, 3, 4, 5}
met
ρi ◦ ρ j = ρi+ j
Merk op dat ρi = ρi+6k voor elke k. Men noemt deze groep ook wel de cyclische groep van orde
6, en noteert deze door het symbool C6 .
De spiegelingen die X invariant laten zijn de spiegelingen σk (k = 0, · · · , 5) over de assen die een
hoek kπ/6 insluiten met de x-as. Dus is
O(X) = {ρi |i = 0, 1, 2, 3, 4, 5} ∪ {σi |i = 0, 1, 2, 3, 4, 5}
waarbij
ρi ◦ ρ j = ρi+ j
ρi ◦ σ j = σi+ j
σi ◦ ρ j = σi− j
σi ◦ σ j = ρi− j
(10.8)
(10.8) volgt onmiddellijk uit (10.6). We zien dat σi = ρi ◦ σ0 , en de groepsstructuur kan ook
beschreven worden door de formules
ρi ◦ ρ j = ρi+ j
σ20 = ρ0 (= iE )
ρi ◦ σ0 = σ0 ◦ ρ−i
(10.9)
Men noemt de orthogonale groep van de regelmatige zeshoek ook de diëdergroep van orde 12, en
men noteert deze door D6 . De orthogonale groep van de molecule benzeen (die de vorm heeft van
een regelmatige zeshoek, met een koolstofatoom in elk van de hoekpunten) is dus de diëdergroep
van orde 12.
We merken tenslotte op dat de translatiegroep T (X) triviaal is: geen enkele verschuiving beeldt de
regelmatige zeshoek op zichzelf af (behalve natuurlijk de identieke afbeelding).
De orthogonale groep van een regelmatige n-hoek met middelpunt de oorsprong noemt men de
diëdergroep van orde 2n, genoteerd door Dn . De beschrijving van Dn is volkomen analoog aan die
van D6 .
Stelling 10.2.4 Zij G een eindige deelgroep van O2 . Ofwel is G een cyclische groep, ofwel een
diëdergroep.
Bewijs. We onderstellen eerst dat G enkel uit rotaties bestaat. We kunnen dan schrijven
G = {ρ0 = iR2 , ρθ1 , ρθ2 , · · · , ρθn−1 }
waarbij de hoeken θ1 , θ2 , · · · , θn−1 ∈ (0, 2π). Als n = 1, dan is G = {iR2 } = C1 van de gewenste
vorm. Anders nemen we θ, de kleinste hoek die voorkomt onder de θi . Neem nu een willekeurige
θi , en neem
m = max{k ∈ N | kθ ≤ θi }
179
We hebben nu dat
waarbij 0 ≤ β < θ. Nu is
θi = mθ + β
ρβ = ρθi −mθ = ρθi ◦ ρ−m
θ ∈G
Hieruit volgt dat β noodzakelijk gelijk is aan nul of aan een van de θi . Maar β < θ, en θ is minimaal,
zodat β = 0 de enige overblijvende mogelijkheid is. Dus is θi = mθ een veelvoud van θ. Alle θi
zijn dus veelvouden van θ, en hieruit volgt dat
G = {ρ0 = iR2 , ρθ , ρ2θ , · · · , ρn−1
θ }
en nθ = 2π. Dus is G = Cn .
Onderstel nu dat G tenminste één spiegeling σ bevat. Noem de deelgroep van G die bestaat uit alle
rotaties van G H. Uit het eerste deel van het bewijs volgt dan dat H ∼
= Cn voor een zekere n. Schrijf
H = {ρ0 = iR2 , ρθ , ρ2θ , · · · , ρn−1
θ }
en
n−1
2
K = {ρ0 = iR2 , ρθ , ρ2θ , · · · , ρn−1
θ , σ, ρθ ◦ σ, ρθ ◦ σ, · · · , ρθ ◦ σ}
Het is nu niet moeilijk om aan te tonen dat K ∼
= Dn . Onze stelling is dus bewezen als we kunnen
aantonen dat K = G. Alle rotaties van G zitten reeds in K, dus we moeten alleen nog bewijzen dat
ook alle spiegelingen van K in G zitten. Neem een spiegeling σ0 ∈ G. Dan is σ0 ◦ σ ∈ G een rotatie,
en dus is σ0 ◦ σ = ρkθ , met k ∈ {0, 1, · · · , n − 1}. Hieruit volgt nu dat
σ0 = ρkθ ◦ σ ∈ K
Tweedimensionale roosters en kristallen
Neem een (niet noodzakelijk orthogonale) basis A = {~a,~b} van R2 . De verzameling punten
R = {m~a + n~b | m, n ∈ Z}
noemen we het rooster voortgebracht door ~a en ~b. Merk op dat R een additieve groep is, en een
deelgroep van R3 bekeken als abelse groep. R is echter geen deelvectorruimte van R3 !
We zijn nu geı̈nteresseerd in de symmetrieën van R. De translatiegroep van R is R zelf:
T (R) = R
Het is immers duidelijk dat verschuiving van het rooster over een vector die zelf in het rooster ligt
het rooster invariant laat. Omgekeerd, indien ~v ∈ R2 zo is dat ~v + R = R, dan is ~v ∈ R, want ~0 ∈ R.
We richten daarom onze aandacht op de orthogonale groep van R. Hiervoor zijn er niet zoveel
mogelijkheden, zoals blijkt uit de volgende stelling.
Stelling 10.2.5 Zij R een rooster in R2 . Dan is O(R) eindig, en SO(R) is de cyclische groep van
orde 1,2,3,4 of 6.
180
Bewijs. Onderstel dat de rotatie ρθ het rooster R invariant laat. De basisvectoren ~a en ~b worden op
roosterpunten afgebeeld, zodat
ρθ (~a) = m1~a + n1~b
ρθ (~b) = m2~a + n2~b
en dus is de matrix van ρθ tenopzichte van de basis A:
[ρθ ]A,A =
m1
m2
n1
n2
!
Tenopzichte van een orthonormale basis van B van R2 is de matrix van ρθ :
!
cos θ − sin θ
[ρθ ]B,B =
sin θ cos θ
zodat
Sp(ρθ ) = m1 + n2 = 2 cos θ
Hieruit volgt dat
1
cos θ ∈ Z
2
De enige mogelijke waarden voor cos θ zijn dus −1, −1/2, 0, 1/2 en 1. De waarden die θ kan
aannemen zijn dus:
2π π π
π, , , , 0
3 2 3
Hieruit volgt dat de speciale orthogonale groep SO(R) de cyclische groep van orde 1,2,3,4 of 6 is.
We moeten nu enkel nog bewijzen dat O(R) eindig is. Als O(R) geen spiegelingen bevat, dan is
O(R) = SO(R) eindig. Als O(R) een spiegeling σ bevat, dan is het aantal spiegelingen in O(R) gelijk aan het aantal rotaties. Dit wordt aangetoond via hetzelfde argument als hetgeen we gebruikten
in de tweede helft van de vorige stelling.
We kunnen nu definiëren wat een vlak kristal is.
Definitie 10.2.6 Een vlak kristal of behangpapier is een verzameling X ⊂ R2 waarvoor geldt dat
de translatiegroep T (X) een rooster R is.
Zij X een vlak kristal met onderliggend rooster R. Het is duidelijk dat
O(X) ⊂ O(R) ⊂ S (X) ⊂ S (R)
Uit stelling 10.2.5 volgt nu dat de enige mogelijke groepen die de orthogonale groep van een vlak
kristal kan zijn de volgende zijn:
C1 ,C2 ,C3 ,C4 ,C6 , D1 , D2 , D3 , D4 , D6
De volledige symmetriegroep S (X) van een vlak kristal noemen we een vlakke kristalgroep of
behangpapiergroep. Men kan aantonen dat er 17 verschillende vlakke kristalgroepen bestaan, en
181
we hebben de 17 bijhorende kristallen (of behangpapiermotieven als je dat liever hoort) geschetst
in Figuur 10.2.
Het mooiste, best bewaarde en oudste van alle oude Arabische paleizen waar ook ter wereld is
het Alhambra te Granada (Andaloezië, Spanje). Het werd gebouwd in de dertiende eeuw, en de
vele muurversieringen die men er aantreft kunnen beschouwd worden als vlakke kristallen (men
moet natuurlijk onderstellen dat de versieringen zich oneindig ver uitstrekken). Prof. P. Jara (Univ.
Granada) heeft kunnen nagaan dat alle 17 de vlakke kristalgroepen in de muurversieringen van het
Alhambra kunnen teruggevonden worden.
Driedimensionale roosters en kristallen
Zoals de lezer mag verwachten kunnen de hierboven vermelde resultaten uitgebreid worden tot het
hogerdimensionale geval. Het is evenmin verwonderlijk dat de classificaties die we hierboven in
het tweedimensionaal geval kort besproken snel ingewikkelder worden als we de dimensie laten
toenemen.
Het driedimensionaal geval is zeer belangrijk in de fysica der vaste stoffen, meer bepaald in de
kristallografie. De atomen in een vaste stof (beter gezegd: in een kristal) zijn op zulke wijze gerangschikt dat hun translatiegroep een driedimensionaal rooster vormt (hierbij nemen we aan dat
het kristal zich tot in het oneindige uitstrekt). Een kristal in de fysische zin is dus ook een kristal in
de meetkundige zin, zoals hierboven ingevoerd, maar dan in het driedimensionaal geval. Dit laat
toe om de diverse kristallen die in de natuur voorkomen te classificeren volgens hun kristalgroep;
bovendien kunnen soms fysische eigenschappen van het kristal uit de symmetrie afgeleid worden.
We vermelden enkele eigenschappen, en voor meer details verwijzen we naar de cursus “Natuurkunde II, Inleiding tot de vaste stof fysica”(2de kandidatuur).
Stelling 10.2.7 Zij G een eindige deelgroep van SO3 . Dan is G isomorf met een van de volgende
groepen.
• De cyclische groep Ck (k = 0, 1, 2, · · ·);
• de diëdergroep Dk (k = 0, 1, 2, · · ·);
• de tetraëdergroep T ; dit is de speciale orthogonale groep van een regelmatig viervlak, en
bestaat uit 12 rotaties;
• de octaëdergroep; dit is de speciale orthogonale groep van een kubus of van een regelmatig
achtvlak, en bestaat uit 24 rotaties;
• de icosaëdergroep; dit is de speciale orthogonale groep van een regelmatig twaalfvlak (dodecaëder) of van een regelmatig twintigvlak (icosaëder), en bestaat uit 60 rotaties.
Bewijs. Zie bijvoorbeeld M. Artin, Algebra, Prentice Hall, Englewood Cliffs, New Jersey, 1991,
hoofdstuk 5.
Definitie 10.2.8 Zij B = {~a,~b,~c} een basis van R3 . De abelse groep
R = {m~a + n~b + p~c | m, n, p ∈ Z}
182
Figuur 10.1: De regelmatige veelvlakken
noemen we een driedimensionaal rooster. Een verzameling X ⊂ R3 noemen we een kristal als de
translatiegroep van X een rooster is. De symmetriegroep S (X) van een kristal noemen we een
ruimtegroep of driedimensionale kristalgroep .
Naar analogie met het tweedimensionale geval mogen we verwachten dat er slechts een eindig
aantal ruimtegroepen bestaan. Men kan aantonen dat er 230 ruimtegroepen bestaan; het spreekt
vanzelf dat de expliciete beschrijving een technische aangelegenheid is die ver buiten het bestek
van deze syllabus valt.
183
Figuur 10.2: De 17 vlakke kristallen (bron : M. Artin, Algebra, Prentice Hall, New Jersey,1991)
184
Bijlage A
Verzamelingen en functies
Hierna zullen we een aantal basisbegrippen uit de verzamelingenleer herhalen. De meeste begrippen heb je zeker vroeger gezien, en ze werden reeds herhaald in het eerste hoofdstuk van de
cursus “Wiskundige Analyse”. De uiteenzetting die volgt is trouwens grotendeels gelijklopende
met die van de aangehaalde cursus. Alleen zijn er enkele formele aspecten die we extra zullen
benadrukken, omdat ze voor deze cursus van belang zijn.
A.1
Het begrip verzameling
Het begrip verzameling ligt aan de gehele wiskunde ten grondslag en is daarom moeilijk te definiëren. Men kan het als volgt omschrijven: een verzameling is een vereniging van zaken, voorwerpen, dingen,... Hetgeen tot de verzameling behoort noemt men element van de verzameling. Een
verzameling is gegeven of bepaald als het mogelijk is te zeggen of een element tot de verzameling
behoort of niet. Men kan op verschillende manieren aanduiden welke dingen element zijn van een
verzameling: men kan een lijst opstellen van de elementen, of men kan de elementen bepalen door
hun kenmerkende eigenschap(pen).
Voorbeelden A.1.1 V = {a, b, c}; de verzameling V bestaat uit de elementen a, b, en c;
de verzameling van de studenten van een klas;
de verzameling van de klassen van een school (de elementen van een verzameling kunnen zelf
verzamelingen zijn);
de natuurlijke getallen N = {0, 1, 2, 3, · · ·}
Men kan een verzameling ook karakteriseren binnen een gegeven verzameling door een eigenschap
van de elementen op te geven. Zo kunnen we bijvoorbeeld de verzameling van de natuurlijke
getallen deelbaar door 3 als volgt opschrijven: V = {n ∈ N | n is deelbaar door 3}.
De verzameling van de ”mooie schilderijen”bestaat niet. We kunnen namelijk niet bepalen of een
element al dan niet tot de verzameling behoort (wat is mooi?)
De lege verzameling (deze bezit geen enkel element) wordt 0/ genoteerd.
Opmerkingen A.1.2 1) Er bestaan twee soorten verzamelingen: eindige verzamelingen en oneindige verzamelingen. Als A een eindige verzameling is, dan noteren we #A voor het aantal
185
elementen in A.
2) De volgorde waarin de elementen van een verzameling voorkomen heeft geen belang: zo is
{a, b, c} = {b, a, c}. Merk ook op dat een element slechts eenmaal voorkomt: alle elementen in
de verzameling zijn verschillend. In Figuur A.1 stellen we een verzameling voor op een Venndiagram.
V
°d
°a
°b
°c
Figuur A.1: De verzameling V = {a, b, c}
Deelverzamelingen
Per definitie stellen we dat een verzameling A een deelverzameling is van een verzameling B indien
elk element van A een element is van B:
A ⊂ B ⇔ ∀a ∈ A : a ∈ B
Voorbeeld: {a, b} ⊂ {a, b, c} De lege verzameling is dus een deelverzameling van elke verzameling.
A.2
Bewerkingen met verzamelingen
De vereniging
De vereniging (of unie) van twee verzamelingen A en B is de verzameling van de elementen die tot
A of tot B behoren:
A ∪ B = {x|x ∈ A o f x ∈ B}
B
A
°a
°b
°c
Figuur A.2: A ⊂ B
186
Bewijs zelf de volgende eigenschappen:
A ∪ 0/
A∪B
A ∪ (B ∪C)
A∪A
0/ ∪ A = A
B ∪ A (commutativiteit)
(A ∪ B) ∪C (associativiteit)
A
=
=
=
=
Beschouw een rij verzamelingen A1 , A2 , A3 , · · ·. We definiëren de unie van deze rij verzamelingen
als volgt:
+∞
[
An = A1 ∪ A2 ∪ A3 ∪ · · · = {x | x ∈ Ai voor minstens 1 index i }
n=1
Voorbeeld
+∞
[
[−n, n] = R
n=1
De doorsnede
De doorsnede van twee verzamelingen A en B is de verzameling van de elementen die tot A en B
behoren:
A ∩ B = {x|x ∈ A en x ∈ B}
Bewijs zelf de volgende eigenschappen:
A ∩ 0/ =
A∩B =
A ∩ (B ∩C) =
A∩A =
A ∪ (B ∩C) =
A ∩ (B ∪C) =
A ⊂ B ⇐⇒
⇐⇒
0/ ∩ A = 0/
B ∩ A (commutativiteit)
(A ∩ B) ∩C (associativiteit)
A
(A ∪ B) ∩ (A ∪C)
(A ∩ B) ∪ (A ∩C)
A∩B = A
A∪B = B
Beschouw een rij verzamelingen A1 , A2 , A3 , · · ·. We definiëren de doorsnede van deze rij verzamelingen als volgt:
+∞
\
An = A1 ∩ A2 ∩ A3 ∩ · · · = {x | x ∈ Ai voor elke index i }
n=1
Voorbeeld
+∞
\
1
0, = {0}
n
n=1
187
Het verschil
Het verschil van twee verzamelingen A en B is de verzameling van de elementen van A die niet tot
B behoren:
A \ B = {x ∈ A|x 6∈ B}
Het produkt
Het produkt van twee verzamelingen A en B is de verzameling van de koppels (a, b) waarbij a ∈ A
en b ∈ B:
A × B = {(a, b) : a ∈ A en b ∈ B}
A.3
Functies
Definitie A.3.1 Gegeven zijn twee verzamelingen X en Y . Onderstel dat met ieder element x ∈ X
een enig element y ∈ Y overeenstemt. De verzameling f van de koppels (x, y) noemt men een
functie of afbeelding van X naar Y . Men kan een functie van X naar Y dus ook definiëren als
een deelverzameling van X × Y zodanig dat elk element van X juist eenmaal optreedt als eerste
element in een koppel. Men noteert
f : X −→ Y
Het element y van Y dat met x ∈ X overeenstemt noteert men f (x), en men noemt f (x) het beeld
van x. We kunnen dus schrijven:
f = {(x, f (x)) | x ∈ X}
Liever gebruiken we de notatie:
f : X −→ Y : x −→ y = f (x)
Een functie is dus volledig bepaald als men de verzameling koppels (x, f (x)) voor elke x ∈ X geeft.
Twee functies f en g zijn identiek als voor iedere x ∈ X geldt dat f (x) = g(x).
X noemt men de definitieverzameling of het domein van f . Y noemt men de variatieverzameling
of de waardeverzameling van f .
Voorbeelden A.3.2 1) X = {a, b, c, d}, Y = {α, β, γ, δ}
f (a) = β ; f (b) = α ; f (c) = β , f (d) = δ
f bestaat dus uit de koppels (a, β), (b, α), (c, β), (d, δ). We kunnen f voorstellen op een Venndiagram (zie Figuur A.3)
2) f : R −→ R : x −→ x2 = f (x)
3) f : X −→ X : x −→ x = f (x)
Deze functie noemt men de identiteit op de verzameling X.
188
a
a
b
b
c
g
d
d
Figuur A.3: Een functie f voorgesteld op een Venn-diagram
Opmerkingen A.3.3 1) We maken geen onderscheid tussen de begrippen functie en afbeelding.
2) Niet ieder element van Y is noodzakelijk het beeld van een element uit X (zie voorbeelden 1) en
2)).
3) Het is belangrijk om in te zien dat er een verschil is tussen f en f (x). f staat voor de functie (en
is dus een verzameling pijlen of puntenkoppels), terwijl f (x) staat voor het beeld van x in Y . f (x)
is dus een element van de verzameling Y .
4) Onderstel dat een functie f : X → Y gegeven is en dat A een deelverzameling is van X. We
kunnen dan de beperking van f tot A beschouwen: we bekijken enkel die puntenkoppels die tot
de functie f behoren waarvan het eerste element tot de verzameling A behoort. We noteren deze
nieuwe functie door f|A . We hebben dus een nieuwe functie
f|A : A−→Y
Voor a ∈ A hebben we dus dat f|A (a) = f (a). In vele gevallen is het niet de moeite om verschillende
notaties te gebruiken voor f en f|A . Soms blijkt dit wel van belang te zijn.
Zij A en B twee verzamelingen. We noteren
BA = { f | f : A → B is een functie}
voor de verzameling van alle functies van A naar B. De keuze van deze notatie werd geı̈nspireerd
door de volgende eigenschap.
Stelling A.3.4 Beschouw twee eindige verzamelingen A en B. Het aantal functies van A naar B is
gelijk aan (#B)#A , met andere woorden
#(BA ) = (#B)#A
(A.1)
Bewijs. We gaan als volgt tewerk: we bewijzen eerst dat (A.1) geldig is als #A = 1. Daarna
bewijzen we dat, in de onderstelling dat (A.1) geldt voor #A = n, ze ook geldt voor #A = n + 1.
Achtereenvolgens is de formule dan geldig voor #A = 1, 2, 3, · · ·. Men noemt zulk een bewijs een
bewijs per inductie.
Neem #A = 1, m.a.w. A = {a}. Een functie van A naar B bestaat dan uit slechts 1 pijl, namelijk
(a, b), waarbij b ∈ B. Het aantal functies van A naar B is dan gelijk aan het aantal elementen in B,
en is dus gelijk aan (#B)#A .
Onderstel nu dat de formule geldt voor #A = n, en neem een verzameling A met n + 1 elementen.
189
Neem a ∈ A, en stel A0 = A \ {a}. A0 bevat nu n elementen zodat het aantal functies van A0 naar B
is gelijk aan (#B)n . Een functie f 0 : A0 → B kan op #B manieren worden uitgebreid tot een functie
f : A → B. Immers, we hoeven enkel het beeld van a vast te leggen om een gegeven functie f 0 uit
te breiden tot f , en er zijn hiervoor #B mogelijkheden (namelijk alle elementen van B). Het totaal
aantal functies A → B is dus
(#B)n #B = (#B)n+1 = (#B)#A
Zij [a, b] ⊂ R een interval, en beschouw de verzameling R[a,b] van alle functies van [a, b] naar R.
Deze verzameling is zo immens groot, dat het onmogelijk is om ze in haar geheel te bestuderen.
Bovendien bevat R[a,b] ook een groot aantal functies die zich zo wild gedragen dat ze in de praktijk
minder belangrijk blijken. Daarom beperkt men zich tot een deelverzameling van R[a,b] . In de
Analyse kijkt men haast uitsluitend naar continue functies. In deze cursus beperken we ons nog
verder, en beschouwen we hoofdzakelijk functies die lineair zijn.
A.4
Injecties, surjecties en bijecties
Gegeven zijn twee functies f : X −→ Y en g : Y −→ Z. We definiëren een nieuwe functie g
na f , of g ”bolletje” f , genoteerd g ◦ f : X −→ Z door
(g ◦ f )(x) = g( f (x))
voor elke x ∈ X. We noemen g ◦ f de samenstelling van de functies f en g. Merk op dat de samenY
X
Z
gof
x
f(x)
g
g(f(x))
f
g(y)
y
Figuur A.4: De samenstelling van functies
stelling van functies associatief is, maar niet kommutatief; dit blijkt uit het volgende voorbeeld:
Voorbeeld A.4.1
f
g
g◦ f
f ◦g
=
=
=
=
R
R
R
R
−→
−→
−→
−→
R
R
R
R
:
:
:
:
190
x
x
x
x
−→
−→
−→
−→
x2
ax + b
ax2 + b
(ax + b)2
De inverse functie
Noteer iX voor de identiteit op de verzameling X. Deze wordt gedefinieerd als volgt:
∀x ∈ X : iX (x) = x
Merk op dat voor elke functie f : X −→ Y geldt dat f ◦ iX = f en iY ◦ f = f . Bestaat er een
functie g : Y −→ X zodanig dat f ◦ g = iY en g ◦ f = iX ? Een eerste idee om dit probleem op te
lossen is gewoon: keer alle pijlen van f om. We krijgen dan echter niet noodzakelijk opnieuw een
functie! Om een functie te hebben moeten twee voorwaarden vervuld zijn:
• g moet welbepaald zijn: in elk punt van Y moet een pijl van g vertrekken, of, wat hetzelfde
is, in elk punt van Y moet een pijl van f aankomen;
• g moet éénduidig zijn: in elk punt van Y mag ten hoogste één pijl van g vertrekken, of,
wat hetzelfde is, mag ten hoogste één pijl van f aankomen. Dit betekent ook nog dat twee
verschillende elementen van X op twee verschillende elementen van Y afgebeeld worden.
Vandaar de volgende definities:
Definitie A.4.2 Een functie f : X −→ Y heet surjectie als elk element van Y het beeld is van een
element van X, m.a.w.,
∀y ∈ Y, ∃x ∈ X : f (x) = y
Definitie A.4.3 Een functie f : X −→ Y heet injectie als elk element van Y het beeld is van ten
hoogste één element van X, m.a.w.,
x1 6= x2 =⇒ f (x1 ) 6= f (x2 )
of
f (x1 ) = f (x2 ) =⇒ x1 = x2
Definitie A.4.4 Een functie f : X −→ Y heet bijectie als f zowel injectief als surjectief is, of
∀y ∈ Y, ∃! x ∈ X : f (x) = y
of er bestaat een g : Y −→ X zodanig dat f ◦ g = iY en g ◦ f = iX .
Een bijectie van een verzameling A naar zichzelf wordt ook een permutatie van A genoemd.
We noteren in dit geval g = f −1 , en we noemen f −1 de inverse functie van f . We zeggen dan dat
f inverteerbaar is, en we hebben de eigenschap:
∀y ∈ Y : f −1 (y) = x ⇐⇒ f (x) = y
Opmerkingen A.4.5 1) Van een functie f : X −→ Y kan men een surjectie maken door de
variatieverzameling te beperken tot {y ∈ Y | ∃x ∈ X : f (x) = y}. Men kan er een injectie van
maken door de definitieverzameling X zo te beperken dat in elk element van Y slechts één pijl
191
aankomt.
2) Voor B ⊂ Y noteert men
f −1 (B) = {x ∈ X : f (x) ∈ B}
Indien f geen bijectie is, noteert men soms ook voor y ∈ Y :
f −1 (y) = f −1 ({y})
Stelling A.4.6 Onderstel dat A en B eindige verzamelingen zijn en dat m = #B ≥ n = #A. Het
aantal injecties van A naar B is dan
m(m − 1)(m − 2) · · · (m − n + 1) =
m!
(m − n)!
Het aantal permutaties van A gelijk aan n!.
Bewijs. We bewijzen dit per inductie op n = #A. Voor #A = 1 is de formule duidelijk. In dit geval
is het aantal functies van A naar B gelijk aan m = #B. Bovendien is elke functie in dit geval een
injectie, en de formule volgt.
Onderstel nu dat de formule waar is voor willekeurige m en voor #A = n. Onderstel nu dat A n + 1
elementen bevat en dat n + 1 ≤ m. We stellen weer A0 = A \ {a} waarbij a ∈ A vast gekozen is. Het
aantal injecties van A0 naar B is nu m(m − 1)(m − 2) · · · (m − n + 1), door de inductiehypthese. Een
gegeven injectie f 0 : A0 → B kan op m − n manieren uitgebreid worden tot een injectie f : A → B.
Immers, de beelden van de elementen van A0 bezetten reeds n plaatsen in B, zodat er voor het
beeld van a slechts m − n keuzemogelijkheden overblijven. Het totaal aantal injecties A → B is dus
m(m − 1)(m − 2) · · · (m − n + 1)(m − n), en dit bewijst de eerste formule.
Hieruit volgt ook onmiddellijk dat het aantal injecties van A naar zichzelf gelijk is aan n!. Een
injectie van een eindige verzameling naar zichzelf is automatisch ook surjectief, en dus is het
aantal bijecties van A naar zichzelf gelijk aan n!.
192
Bijlage B
De complexe getallen
In de verzameling der reële getallen heeft geen enkele negatief getal een vierkantswortel. Het
kwadraat van een reëel getal is namelijk steeds positief. Men kan R uitbreiden tot een grotere verzameling waarin elk getal een vierkantswortel heeft. Dit gebeurt als volgt: neem de vectorruimte
R2 , en definieer hierop een vermenigvuldiging als volgt:
(a, b)(c, d) = (ac − bd, ad + bc)
Hieruit volgt in het bijzonder dat
(a, 0)(c, 0) = (ac, 0)
zodat de elementen van de vorm (a, 0) optellen en vermenigvuldigen als reële getallen. Daarom
voeren we de volgende identificatie uit:
(a, 0) = a ∈ R
Verder zien we dat
(0, 1)(0, 1) = (−1, 0) = −1
Het element (0, 1) is dus een vierkantswortel uit −1. We voeren de volgende notatie in:
(0, 1) = i
zodat
i2 = −1
We kunnen dus schrijven:
(a, b) = (a, 0) + b(0, 1) = a + bi
en de definitie van de vermenigvuldiging kunnen we nu als volgt schrijven:
(a + bi)(c + di) = (ac − bd) + (ad + bc)i
Merk ook op dat
a + bi = c + di ⇐⇒ a = c en b = d
193
We noemen a + bi een complex getal. a wordt het reëel gedeelte van a + bi genoemd. bi heet het
imaginair gedeelte. Men noteert:
a = Re(a + bi)
b = Im(a + bi)
De verzameling van de complexe getallen noteert men
C = {z = a + bi | a, b ∈ R}
Merk op dat
(a + bi)(a − bi) = a2 + b2
a − bi wordt het complex toegevoegde van z = a + bi genoemd. Notatie:
a − bi = a + bi = z
Eigenschap B.0.7 C is een lichaam.
Bewijs. We laten het bewijs over aan de lezer. We merken op dat het inverse voor de vermenigvuldiging gegeven wordt door de formule:
(a + bi)−1 =
a − bi
a2 + b2
Meetkundige interpretatie
Als (reële) vectorruimte is C isomorf met R2 . We kunnen dus de complexe getallen identificeren
met de punten van het vlak. We spreken dan van het complexe vlak. Neem een complex getal
z = a + bi en bekijk de volgende reële getallen: r, de afstand in het vlak tussen de oorsprong en
het punt z, en θ, de hoek tussen de x-as en de rechte door de oorsprong en z (Figuur B.2). Uit
y
yi
x+yi=z
q
x
x
Figuur B.1: Meetkundige voorstelling van een complex getal
bovenstaande figuur leiden we gemakkelijk af dat
x = r cos θ
y = r sin θ
194
en
r2 = x2 + y2
We kunnen dus schrijven
z = r(cos θ + i sin θ)
Men noemt dit de goniometrische vorm van het complex getal z. r en θ noemt men de poolcoördinaten van het punt (x, y). Het grote voordeel van de goniometrische vorm is dat men
complexe getallen in goniometrische vorm gemakkelijk kan vermenigvuldigen: Als z = r(cos θ +
i sin θ) en z0 = r0 (cos θ0 + i sin θ0 ) dan hebben we
zz0 = rr0 (cos θ + i sin θ)(cos θ0 + i sin θ0 )
= rr0 (cos θ cos θ0 − sin θ sin θ0 + i(cos θ sin θ0 + cos θ0 sin θ))
= rr0 (cos(θ + θ0 ) + i sin(θ + θ0 ))
De complexe exponentiële functie
Voor z = x + yi ∈ C definieren we
ex+yi = exp(x + yi) = ex (cos(y) + i sin(y))
ex+yi is dus het complex getal met poolcoördinaten ex en y, zodat we onmiddellijk de volgende
eigenschap, karakteristiek voor de exponentiële functie, hebben:
Eigenschap B.0.8 Voor elke z,z0 in C geldt:
0
ez+z = ez ez
en
e−z =
0
1
ez
Opmerking B.0.9 Uit de definitie van de exponentiële functie volgt de beroemde formule
eiπ = −1
Eigenschap B.0.10 De complexe exponentiële functie exp : C −→ C0 is surjectief. Verder geldt
0
ez = ez ⇐⇒ ∃k ∈ Z : z − z0 = 2kπi
Bewijs. De eerste bewering volgt onmiddellijk uit het voorgaande: neem een complex getal z =
x + yi 6= 0, en neem de poolcoördinaten r en θ. Dan is
z = r(cos(θ) + i sin(θ)) = eln(r)+iθ
0
0
Voor de tweede bewering redeneren we als volgt: onderstel dat ez = ez . Dan is ez−z = 1. Stel
z − z0 = a + bi. Dan is
ea+bi = ea (cos(b) + i sin(b)) = 1
195
zodat
(
ea cos(b) = 1
ea sin(b) = 0
Uit de tweede vergelijking volgt dat sin(b) = 0, waaruit b = nπ voor een geheel getal n. Substitueren we dit in de eerste vergelijking, dan krijgen we
ea cos(b) = ea (−1)n = 1
Aangezien ea ≥ 0 volgt dat n noodzakelijk even is: n = 2k. Maar dan is ea = 1, zodat a = 0.
Bijgevolg is z − z0 = a + bi = 2kπi.
De logaritmische functie
De exponentiële functie wordt bijectief als we de definitieverzameling beperken tot een horizontale
strip met breedte 2π, zo is bijvoorbeeld
exp : {z ∈ C | − π < Im(z) ≤ π} −→ C0
bijectief. De inverse functie noemt men de complexe logaritme :
Ln : C0 −→ {z ∈ C | − π < Im(z) ≤ π}
iy
ip
x
-ip
Figuur B.2: Waardeverzameling van de complexe logaritme
De complexe trigonometrische functies
Herneem de definitie van exponentiële functie:
(
eix = cos(x) + i sin(x)
e−ix = cos(x) − i sin(x)
Hieruit volgt onmiddellijk dat
(
cos(x) =
sin(x) =
eix +e−ix
2
eix −e−ix
2i
We gebruiken deze formules om de complexe sinus en cosinus te definiëren:
196
Definitie B.0.11 Voor elke z ∈ C stellen we
(
cos(z) =
eiz +e−iz
2
eiz −e−iz
2i
sin(z) =
Op dezelfde manier definiëren we de complexe hyperbolische functies:
Definitie B.0.12 Voor elke z ∈ C stellen we
(
cosh(z) =
sinh(z) =
ez +e−z
2
ez −e−z
2
Uit voorgaande definities volgen nu onmiddellijk de volgende betrekkingen:
cosh(iz) = cos(z)
cos(iz) = cosh(z)
sinh(iz) = i sin(z)
sin(iz) = i sinh(z)
De complexe n-demachtswortel
Gebruik makende van het voorgaande kunnen we makkelijk volgende eigenschap bewijzen:
Eigenschap B.0.13 Elk van nul verschillend complex getal c heeft precies n n-demachtswortels in
C.
Bewijs. We zoeken naar complexe getallen z zodat
zn = c
Schrijf c = seiφ en z = reiθ . Dan wordt de voorgaande betrekking
rn einθ = seiφ
of
rn = s
nθ = φ + 2kπ
dus
z=
√
n
se
φ+2kπ
n i
Omdat e2iπ = 1 hoeven we slechts hierin k de waarden 0, 1, 2, · · · , n − 1 te laten aannemen om alle
oplossingen te krijgen. Dit bewijst onze eigenschap.
197
Complexe veeltermen
Een complexe veelterm P(Z) is een uitdrukking van de vorm
n
P(Z) = an Z n + an−1 Z n−1 + · · · a1 Z + a0 = ∑ ai Z i
i=0
waarbij de coëfficiënten a0 , a1 , · · · , an complexe getallen zijn. Het symbool Z wordt de veranderlijke genoemd. Bij elke complexe veelterm P(Z) kunnen we een functie
P : C → C : z 7→ P(z) = an zn + an−1 zn−1 + · · · a1 z + a0
associëren. Deze functie wordt een complexe veeltermfunctie genoemd.
De graad van een veelterm is de hoogste macht van Z die in deze veelterm voorkomt:
n
gr( ∑ ai Z i ) = n
i=0
indien an 6= 0. De verzameling van alle complexe veeltermen wordt C[Z] genoteerd. Net zoals reële
veeltermen kan met complexe veeltermen bij elkaar optellen en met mekaar vermenigvuldigen. Dit
gebeurt op de voor de hand liggende manier. Deling van veeltermen is niet altijd mogelijk, maar
we hebben wel de quotiëntstelling.
Stelling B.0.14 (quotiëntstelling voor complexe veeltermen) Beschouw twee complexe veeltermen M(Z) en N(Z), en onderstel dat N(Z) 6= 0. Er bestaan twee unieke veelterm Q(Z) en R(Z) die
voldoen aan de volgende twee voorwaarden:
• M(Z) = Q(Z)N(Z) + R(Z);
• gr(R) < gr(N).
Q en R worden respectievelijk het quotiënt en de rest bij deling van de veelterm M door de veelterm
N genoemd.
Bewijs. We bewijzen eerst de existentie. Dit gebeurt per inductie op de graad van M. Onderstel
gr(N) = n. Voor gr(M) = 0, 1, · · · , n − 1 is de stelling waar: het volstaat om Q = 0 en M = R te
nemen.
Onderstel nu dat de stelling waar is voor gr(M) < m, met m een gegeven getal dat we minstens
gelijk aan n mogen onderstellen. We zullen aantonen dat de stelling ook geldt voor gr(M) = m.
Stel
M(Z) = am Z m + M1 (Z)
met gr(M1 ) < m. Vanwege de inductiehypothese hebben we dat
M1 (Z) = Q1 (Z)N(Z) + R1 (Z)
met gr(R1 ) < n. Schrijf nu
N(Z) = bn Z n + N1 (Z)
198
met gr(N1 ) < n. Dan is
am Z m =
Merk op dat
gr(
am m−n
am
Z
N(z) − Z m−n N1 (z)
bn
bn
am m−n
Z
N1 (z)) ≤ m − n + n − 1 = m − 1
bn
Vanwege de inductiehypothese vinden we dus veeltermen Q2 (Z) en R2 (Z) met gr(R2 ) < n zodat
−
am m−n
Z
N1 (z) = Q2 (Z)N(Z) + R2 (Z)
bn
Als we de bovenstaande formules met elkaar combineren vinden we
am m−n
M(Z) =
Z
+ Q1 (Z) + Q2 (Z) N(Z) + R1 (Z) + R2 (Z)
bn
en dit bewijst de existentie.
Voor de uniciteit gaan we als volgt te werk: onderstel dat
e
e
M(Z) = Q(Z)N(Z) + R(Z) = Q(Z)N(Z)
+ R(Z)
e
met de graad van R(Z) en R(Z)
allebei kleiner dan de graad van N(Z). Dan volgt dat
e
e − R(Z) = (Q(Z) − Q(Z))N(Z)
R(Z)
e
Als Q(Z) 6= Q(Z),
dan is de graad van het rechterlid tenminste gelijk aan de graad van N. De graad
van het linkerlid is echter strikt kleiner dan de graad van N, en dit is een contradictie. Het is dus
e
e
e
onmogelijk dat Q(Z) 6= Q(Z),
en dus moet Q(Z) = Q(Z).
Maar dan is ook R(Z) = R(Z),
en dit
impliceert de uniciteit.
Ten slotte formuleren we nog, zonder bewijs, de volgende stelling:
Stelling B.0.15 (Grondstelling van de algebra) Elke complexe veeltermfunctie P(z) = an zn +
an−1 zn−1 + · · · + a1 z + a0 kan ontbonden worden in lineaire factoren:
P(z) = an (z − z0 )(z − z1 )(z − z2 ) · · · (z − zn )
voor zekere zi ∈ C.
De stelling vertelt ons echter niet hoe de zi berekend kunnen worden!
199
Index
éénbladige hyperboloı̈de 155
affiene afbeelding 52
afstand 111
afstand 92
afstand tot een deelruimte 98
algebra 29
algemene lineaire groep 173
Alhambra 183
alternerende afbeelding 65
alternerende groep 63
automorfisme 29
baan van een permutatie 60
Banachruimte 121
basis 14
beeld van een lineaire afbeelding 24
behangpapier 183
behangpapiergroep 183
bewerking 172
bijectie 192
bijectie 25
bilineaire afbeelding 91
Cayley-Hamilton 89
coördinaten 27
commutatieve groep 5
complexe logaritme 197
cyclische groep 173
cyclische permutatie 60
deelgroep 174
deelruimte 8
deelverzameling 187
definitieverzameling 189
determinant 68
diëdergroep 180
dimensie 17
direct produkt van groepen 175
directe som van vectorruimten 11
domein 189
echelon vorm van een matrix 43
eenheidsmatrix 35
eigenvector 81
eigenwaarde 81
eindigdimensionale vectorruimte 16
element 186
elementaire kolom operatie 44
elementaire rij operatie 44
ellips 151
ellipsoı̈de 154
elliptische cilinder 157
elliptische kegel 156
elliptische paraboloide 158
endomorfisme 29
epimorfisme 29
Euclidische ruimte 92
functie 189
Gauss eliminatie 54
Gauss-Jordan eliminatie 55
geadjugeerde matrix 75
genormeerde ruimte 120
genormeerde ruimte 93
georiënteerd volume 106
getransponeerde matrix 41
goniometrische vorm 196
groep 172
groepshomomorfisme 173
groepsisomorfisme 173
hermitisch toegevoegde afbeelding 114
hermitische lineaire afbeelding 114
Hilbert inwendig produkt 111
Hilbertruimte 121
homomorfisme 22
hyperbolische cilinder 157
hyperbolische paraboloide 159
hyperbool 152
hyperbool 152
200
hypervlak 49
icosaëdergroep 184
identieke afbeelding 23
indefiniet 136
index 175
injectie 192
injectie 24
inverse functie 193
inverse matrix 35
inverteerbare functie 193
inwendig produkt 91
inwendige wet 172
isomorpfisme 26
Jordanvorm van een matrix 88
karakteristieke veelterm 81
karakteristieke vergelijking van een lineaire
afbeelding 81
kegelsnede 151
kern van een lineaire afbeelding 24
kolomequivalente matrices 45
kristal 184
kristalgroep 184
kwadratische functie 148
kwadratische vorm 135
kwadriek 148
lengte van een vector 111
lengte van een vector 92
lichaam 7
lineair afhankelijke vectoren 13
lineair onafhankelijke vectoren 14
lineaire afbeelding 22
lineaire combinatie 9
lineaire variëteit 48
linker nevenklasse 174
matrix van een lineaire afbeelding 30
middelpunt 127
minor 72
monomorfisme 29
multilineaire afbeelding 65
negatief definiet 136
negatief georiënteerde basis 106
negatief semidefiniet 136
negatieve isometrie 124
niveauhyperoppervlak 128
norm van een vector 111
norm van een vector 92
octaëdergroep 184
oneindigdimensionale vectorruimte 16
ontaarde kwadratische vorm 147
orthogonaal complement 113
orthogonaal complement 97
orthogonale directe som 113
orthogonale directe som 97
orthogonale groep 173
orthogonale groep 176
orthogonale lineaire afbeelding 101
orthogonale projectie 98
orthogonale vectoren 112
orthogonale vectoren 94
overgangsmatrix 37
parabolische cilinder 160
parabool 152
parametervergelijking van een rechte 50
pariteit 61
permutatie 58
poolcoördinaten 196
positief definiet 136
positief georiënteerde basis 106
positief semidefiniet 136
positieve isometrie 124
prehilbruimte 111
projectie 23
puntgroep 176
puntsymmetrie 125
quotiëntstelling 199
rang van een lineaire afbeelding 40
rang van een matrix 40
rechte 49
rechterhandregel 106
regel van Cramer 76
regeloppervlak 166
reguliere matrix 36
rijequivalente matrices 45
rooster 182
ruimtegroep 184
samengestelde functie 191
schuifspiegeling 131
sesquilineaire afbeelding 111
singulier punt 147
singulier punt 164
201
singuliere matrix 36
som van deelruimten 9
speciale orthogonale groep 173
speciale orthogonale groep 176
spiegeling 125
spiegelrotatie 133
standaardbasis 15
standaardvergelijking van een kwadriek 161
stelling van Pythagoras 94
stelling van Sylvester 139
stelsel van Cramer 76
surjectie 192
surjectie 25
symmetrie 125
symmetrieas 127
symmetriegroep 176
symmetrieoperatie 175
symmetrievlak 127
symmetrische afbeelding 91
symmetrische groep 58
tetraëdergroep 184
toegevoegde lineaire afbeelding 100
toegevoegde punten 146
translatiegroep 176
tweebladige hyperboloı̈de 156
unitaire groep 173
unitaire lineaire afbeelding 114
variatieverzameling 189
vectorieel produkt 108
vectorruimte 5
veld 7
verplaatsing 124
verwisseling 60
verzameling 186
vlak kristal 183
vlakke kristalgroep 183
waardeverzameling 189
zadeloppervlak 159
zelftoegevoegde lineaire afbeelding 101
202
Bibliografie
[1] M. Artin, Algebra, Prentice Hall, New Jersey, 1991.
[2] P.M. Cohn, Algebra Volume I, John Wiley, New York, 1974.
[3] S. Lang, Linear Algebra, Addison-Wesley, 1965.
[4] B. Kolman, Elementary Linear Algebra, MacMillan, New York, 1970.
[5] S. Caenepeel, Analyse I en II, VUB Uitgaven, 2001.
203
Download