LINEAIRE ALGEBRA EN MEETKUNDE

advertisement
LINEAIRE ALGEBRA EN MEETKUNDE
G. Van Steen
13 november 2001
Inhoudsopgave
1 Verzamelingenleer
1.1 Bewerkingen met verzamelingen
1.2 Relaties . . . . . . . . . . . . .
1.3 Functies . . . . . . . . . . . . .
1.4 Equivalentierelaties . . . . . . .
1.5 Orderelaties . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Matrixen en stelsels
2.1 Matrixen . . . . . . . . . . . . . . . . . . . . . . .
2.1.1 De lichamen R en C . . . . . . . . . . . .
2.1.2 Matrixen - Definities . . . . . . . . . . . .
2.1.3 Bewerkingen met matrixen . . . . . . . . .
2.1.4 Blokvermenigvuldiging . . . . . . . . . . .
2.2 Stelsels van lineaire vergelijkingen . . . . . . . . .
2.2.1 Stelsels, echelonmatrixen en Gaussreductie
2.2.2 Angels en Valkuilen . . . . . . . . . . . . .
2.3 Determinanten . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Vectorruimten
3.1 Vectorruimten en basissen . . . . . . . . . . . . . . . . . . .
3.1.1 Definities en voorbeelden . . . . . . . . . . . . . . . .
3.1.2 Voortbrengers en lineaire combinaties . . . . . . . . .
3.1.3 Lineaire afhankelijkheid en onafhankelijkheid . . . . .
3.1.4 Basissen en dimensie . . . . . . . . . . . . . . . . . .
3.1.5 Verandering van basis in een K-vectorruimte . . . . .
3.1.6 De nulruimte, de kolommenruimte en de rang van een
matrix . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Lineaire afbeeldingen . . . . . . . . . . . . . . . . . . . . . .
1
.
.
.
.
.
3
4
7
10
14
20
.
.
.
.
.
.
.
.
.
25
26
26
28
31
34
38
38
50
52
.
.
.
.
.
.
65
66
66
72
78
81
90
. 91
. 96
3.3
Een eenvoudige matrixvoorstelling . . . . . . . . . . . . . . . . 108
3.3.1 Eigenwaarden en eigenvectoren . . . . . . . . . . . . . 108
3.3.2 Iteratieve oplossingsmethoden voor stelsels . . . . . . . 117
4 Elementaire analytische meetkunde
4.1 Affiene ruimten en referentiestelsels . . . . . . . . .
4.1.1 De richtingsvectorruimte van een vlak . . . .
4.1.2 Affiene referentiestelsels voor het vlak . . . .
4.1.3 Verandering van referentiestelsel in een vlak
4.1.4 De richtingsvectorruimte voor de 3D ruimte
4.1.5 Affiene referentiestelsels voor E . . . . . . .
4.1.6 Doorsnede van rechten en vlakken . . . . . .
4.1.7 Verandering van referentiestelsel . . . . . . .
4.2 Orthogonaliteit . . . . . . . . . . . . . . . . . . . .
4.2.1 Bilineaire vormen . . . . . . . . . . . . . . .
4.2.2 Orthogonaliteit in het vlak π . . . . . . . .
4.2.3 Orthogonaliteit in E . . . . . . . . . . . . .
4.2.4 Oriëntaties . . . . . . . . . . . . . . . . . . .
4.2.5 Hoeken . . . . . . . . . . . . . . . . . . . . .
4.2.6 Poolcoördinaten en sferische coördinaten . .
4.2.7 Het vectorieel product . . . . . . . . . . . .
4.3 Affiene transformaties . . . . . . . . . . . . . . . .
4.4 Euclidische transformaties . . . . . . . . . . . . . .
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
121
122
122
127
132
132
134
139
141
142
142
147
154
159
161
162
165
169
173
Hoofdstuk 1
Verzamelingenleer
3
1.1
Bewerkingen met verzamelingen
We zullen in dit hoofdstuk het begrip verzameling steeds op een intuı̈tieve
manier benaderen. We moeten hierbij echter voorzichtig te werk gaan. intuı̈tieve
verzamelingenleer kan tot contradicties leiden.
Definitie 1.1.1 Een verzameling is een geheel van objecten die samen behandeld worden. De objecten noemt men de elementen van de verzameling.
Opmerking Om contradicties te vermijden zullen we steeds verzamelingen beschouwen die zelf deelverzameling zijn van een vaste grote verzameling.
Deze verzameling noemt men een universum en wordt dikwijls als U genoteerd.
Notaties
• Verzamelingen worden meestal genoteerd met hoofdletters A, B, . . . , X, Y, . . ..
objecten noteert men meestal met kleine letters a, b, . . .
• Als A een verzameling is en als x een element is van A dan noteert men
x ∈ A.
• Verzamelingen kunnen op twee verschillende manieren beschreven worden :
1. door opsomming van de elementen. Als A een eindige verzameling
is en als a1 , . . . , an de elementen zijn van A dan noteert men
A = {a1 , . . . , an }
2. door een beschrijving te geven van de elementen. Als A een verzameling is waarvan de elementen gekenmerkt zijn door een voorwaarde P dan noteert men
A = x x voldoet aan P
Deze manier om verzamelingen te noteren kan ook gebruikt worden voor oneindige verzamelingen.
4
• Zij A en B verzamelingen.
A ∪ B = x x ∈ A of x ∈ B ( unie van A en B)
A ∩ B = x x ∈ A en x ∈ B ( doorsnede van A en B)
• Als A en B verzamelingen zijn dan noemt men de verzameling
A \ B = x x ∈ A en x 6∈ B
het verschil van A en B.
De verzameling
A4B = (A ∪ B) \ (A ∩ B)
noemt men het symmetrisch verschil van A en B.
De verzameling
Ac = U \ A
noemt men het complement van A. (U is het universum.)
Definitie 1.1.2 Zij A en B verzamelingen. Als elk element van A ook een
element is van A dan zeggen we dat A een deelverzameling is van B. We
noteren A ⊂ B of A ⊆ B.
Met symbolen noteren we dus
A ⊂ B ⇐⇒ ∀x : x ∈ A ⇒ x ∈ B
Eén van de belangrijkste regels in de verzamelingenleer is het
Extensionaliteitsprincipe : Twee verzamelingen A en B zijn gelijk als en
slechts als ze dezelfde elementen hebben. Dus :
A = B ⇐⇒ ∀x : a ∈ A ⇐⇒ x ∈ B
of nog :
A = B ⇐⇒ A ⊂ B en B ⊂ A
Dit principe heeft enkele belangrijke gevolgen.
1. Als een verzameling beschreven wordt door opsomming van de elementen dan heeft de volgorde waarin deze elementen vernoemd worden
geen belang.
{a, b, c} = {b, a, c}
5
2. Als een verzameling beschreven wordt door opsomming van de elementen en als in deze opsomming een element meerdere keren voorkomt
dan mag dit één keer weggelaten worden.
{a, b, a, c, a} = {a, b, c, a} = {a, b, c}
3. Er bestaat exact één verzameling die geen enkel element bevat. We
noemen ze de lege verzameling en we noteren ∅.
Definitie 1.1.3 Een vezameling waarvan de elementen zelf verzamelingen
zijn noemt men een familie. Families worden dikwijls genoteerd met ronde
letters A, B. . . .
Als A een familie is dan noemt men
∪A = x ∃A ∈ A zodat x ∈ A
de unie van de familie A en
∩A = x ∀A ∈ A : x ∈ A
noemt men de doorsnede van A.
Families worden dikwijls genoteerd met indexen. De elementen van de familie
worden genoteerd als Ai waarbij de index i element is van een indexverzameling I.
Men noteert de familie dan als (Ai )i∈I . De unie van de familie wordt dan
genoteerd als ∪i∈I Ai en de doorsnede als ∩i∈I Ai .
Opmerkingen
1. De lege verzameling ∅ kan ook opgevat worden als een familie. Toon
zelf aan dat ∪∅ = ∅ en ∩∅ = U.
2. Als A een verzameling is dan noemt men de familie
X X⊂A
de machtsverzameling van A. Men noteert deze familie als 2X of als
P(X).
6
Propositie 1.1.4 Zij A,B en C verzamelingen. Dan gelden de volgende
gelijkheden :
1. A ∪ B = B ∪ A
2. A ∩ B = B ∩ A
3. (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C)
4. (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C)
5. (A ∩ B)c = Ac ∪ B c
6. (A ∪ B)c = Ac ∩ B c
7. (Ac )c = A
Bewijs
Oefening! (Toepassing van het extensionaliteitsprincipe.)
Merk de analogie op met de regels uit de propositielogica.
1.2
Relaties
Uit het extensionaliteitsprincipe volgt dat {a, b} = {b, a}. Om toch met het
begrip volgorde te kunnen werken voeren we de volgende definitie in.
Definitie 1.2.1 (inductieve definitie)
1) Als a1 , a2 elementen zijn dan noemen we de verzameling
(a1 , a2 ) = {{a1 }, {a1 , a2 }}
het geordend tweetal met coëfficiënten a1 en a2 .
Inductiehypthese : Onderstel dat het begrip “geordend k-tal” gedefinieerd is
voor k = 2, . . . , n − 1.
2)
Als a1 , . . . , an elementen zijn dan noemt men de verzameling
(a1 , . . . , an ) = ((a1 , . . . , an−1 ), an )
het geordend n-tal met coëfficiënten a1 , . . . , an .
7
De belangrijkste eigenschap van geordende n-tallen wordt gegeven door de
volgende stelling.
Propositie 1.2.2 Zij a1 , . . . , an en b1 , . . . , bn elementen. Dan geldt :
(a1 , . . . , an ) = (b1 , . . . , bn ) ⇐⇒ a1 = b1 , . . . , an = bn
Definitie 1.2.3 Als A1 , . . . , An verzamelingen zijn dan noemt men de verzameling
A1 × · · · × An = (a1 , . . . , an ) a1 ∈ A1 , . . . , an ∈ An
het (Carthesisch) product van A1 , . . . , An .
Opmerking Als één van de verzamelingen A1 , . . . , An leeg is dan is het
product A1 × · · · × An ook leeg.
Definitie 1.2.4 Zij A en B verzamelingen. Een relatie van A naar B is een
deelverzameling R ⊂ A × B.
Een deelverzameling R ⊂ A × A noemt men een relatie op A.
Als een koppel (a, b) element is van de relatie R dan noteert men dikwijls aRb
in plaats van (a, b) ∈ R.
Voorbeelden
1. (x, y) x ∈ Z, y ∈ N, y = x2 is een relatie van Z naar N.
2. ∅ en A × B zijn relaties van A naar B.
3. Zij A een verzameling. Dan is
∆ = (a, a) a ∈ A
een relatie van A naar zichzelf. Men noemt ∆ de diagonaal op A.
Definitie 1.2.5 Zij R ⊂ A × B een relatie van A naar B. Men noemt de
relatie
R−1 = (b, a) aRb ⊂ B × A
de inverse relatie van R.
8
Definitie 1.2.6 Zij R ⊂ A × B een relatie van A naar B. Als U ⊂ A een
deelverzameling is dan noteert men
R(U ) = b ∈ B ∃a ∈ U zodat aRb
Men noemt R(U ) het beeld van U .
Definitie 1.2.7 Zij R ⊂ A× B een relatie.
De verzameling Dom(R) = a ∈ A ∃b ∈ B zodat aRb noemt men het domein
van R.
De verzameling Ran(R) = b ∈ B ∃a ∈ A zodat aRb noemt men het beeld
van R. Dus Ran(R) = R(A).
Uit de definities volgt dus dat voor een relatie R ⊂ A × B geldt :
Ran(R) = R(A) en Dom(R) = R−1 (B)
Propositie 1.2.8 Zij R ⊂ A × B een relatie van A naar B.
1. R(∅) = ∅
2. ∀X, Y ⊂ A : X ⊂ Y ⇒ R(X) ⊂ R(Y )
3. ∀X, Y ⊂ B : X ⊂ Y ⇒ R−1 (X) ⊂ R−1 (Y )
4. ∀X, Y ⊂ A : R(X ∪ Y ) = R(X) ∪ R(Y )
5. ∀X, Y ⊂ A : R(X ∩ Y ) ⊂ R(X) ∩ R(Y )
Definitie 1.2.9 Zij A, B en C verzamelingen en zij R ⊂ A×B en S ⊂ B×C
relaties. De relatie
S ◦ R = (a, c) a ∈ A, c ∈ Cen ∃b ∈ B zodat aRb en bSc ⊂ A × C
noemt men de samenstelling van R en S.
Propositie 1.2.10 Zij R ⊂ A × B, S ⊂ B × C en T ⊂ C × D relaties. Dan
geldt :
1. (R−1 )−1 = R
2. (S ◦ R)−1 = R−1 ◦ S −1
3. T ◦ (S ◦ R) = (T ◦ S) ◦ R
We zullen verder drie bijzondere soorten relaties bestuderen.
9
1.3
Functies
Definitie 1.3.1 Zij A en B verzamelingen. Een functie van A naar B is
een relatie F ⊂ A × B die voldoet aan de volgende voorwaarde:
∀a ∈ A
∃1b ∈ B zodat aF b
In het bijzonder betekent dit dat Dom(F ) = A. Als a ∈ A dan noteert men
het unieke element b ∈ B met de eigenschap aF b als F (a). Men noemt dit
element het beeld van a.
In plaats van F ⊂ A × B noteert men voor een functie F : A → B
Definitie 1.3.2 Zij F : A → B een functie.
1. Men zegt dat de functie injectief is als
∀x, y ∈ A : F (x) = F (y) ⇒ x = y
2. Men zegt dat de functie surjectief is als
∀z ∈ B
∃x ∈ A zodat z = F (x)
3. als F zowel injectief als surjectief is dan zegt men dat F bijectief is.
Voorbeelden
1. F : N → N met F (n) = 0 voor elke n ∈ N is noch injectief noch
surjectief.
2. F : Z → N met F (x) = x2 is niet surjectief en niet injectief.
3. F : N → N met F (x) = 2x is injectief maar niet surjectief.
4. Zij A een verzameling en zij X ⊂ A een deelverzameling. Definieer de
functie 1X : A → {0, 1} door
1X (a) = 0 als a 6∈ X
1X (a) = 1 als a ∈ X
Men noemt 1X de karakteristieke functie van X.
10
5. Als F : A → {0, 1} een functie is dan is
XF = a ∈ A F (a) = 1
een deelverzameling van A en de karakterisiteke functie 1XF van XF is
F zelf.
Propositie 1.3.3 Zij F : A → B een functie. De inverse relatie F −1 ⊂
B × A is een functie als en slechts als F bijectief is.
Bewijs
Oefening!
De inverse relatie F −1 van een functie F bestaat dus altijd maar is meestal
zelf geen functie. Als je ergens F −1 ziet staan denk dan niet direct dat F
bijectief is.
Propositie 1.3.4 Zij F : A → B en G : B → C functies. Dan is de
samenstelling G ◦ F : A → C ook een functie. Bovendien geldt :
1. F, G injectief ⇒ G ◦ F injectief
2. F, G surjectief ⇒ G ◦ F surjectief
3. F, G bijectief ⇒ G ◦ F bijectief
4. G ◦ F injectief ⇒ F injectief
5. G ◦ F surjectief ⇒ G surjectief
6. G ◦ F surjectief en G injectief ⇒ F surjectief en G bijectief
7. G ◦ F injectief en F surjectief ⇒ G injectief en F bijectief
8. G ◦ F bijectief en F surjectief ⇒ F en G bijectief
9. G ◦ F bijectief en G injectief ⇒ F en G bijectief
Definitie 1.3.5 Een verzameling A heet oneindig als er een injectieve functie F : N → A bestaat. Als A niet oneindig is dan zeggen we dat A een eindige
verzameling is. In dit geval kunnen we spreken over het aantal elementen van
A. We noteren dit aantal als |A| of als #A.
Een oneindige verzameling A heet aftelbaar als er een bijectieve functie F : N → A
bestaat. Als de oneindige verzameling A niet aftelbaar is dan zeggen we dat
A overaftelbaar is.
11
Opmerkingen
1. Het begrip “aantal elementen van een verzameling”hebben we wiskundig
niet correct gedefinieerd. Het is echter wel mogelijk om dit begrip op
een rigoureuze manier in te voeren. Dit zou ons echter te ver leiden.
We werken daarom verder met het intuı̈tieve begrip “aantal”.
2. Het aantal elementen van een oneindige verzameling is niet gedefinieerd.
(Het is wel mogelijk om dit te doen.) Als A en B oneindige verzamelingen zijn en als er een bijectie F : A → B bestaat dan zullen we
wel zeggen dat A en B evenveel elementen hebben. We noteren dan
|A| = |B|. De verzameling A is aftelbaar betekent dus |A| = |N|.
Voorbeelden
1. N, Z en Q zijn aftelbaar.
2. R en C zijn niet aftelbaar.
Propositie 1.3.6
1. Een verzameling A is oneindig als en slechts als er
een bijectieve functie F : B → A bestaat waarbij B ( A een echte
deelverzameling is van A.
2. Als A een overaftelbare verzameling is en als F : A → B een injectieve
functie is dan is B ook overaftelbaar.
3. Zij A en B eindige verzamelingen. Dan geldt :
|A| ≤ |B| ⇐⇒
∃F : A → B injectief
Propositie 1.3.7 (Pigeon Hole Principe) Zij A en B eindige verzamelingen met |A| = |B| en zij F : A → B een functie. Dan geldt :
F injectief ⇐⇒ F surjectief ⇐⇒ F bijectief
Gevolg 1.3.8 Zij A een deelverzameling van een eindige verzameling B. Als
|A| = |B| dan is A = B.
In deze propositie is de voorwaarde dat A en B eindig zijn essentieel. We
kunnen dit zien aan volgend voorbeeld.
Zij F : N → N gedefinieerd door F (n) = n + 1. Deze functie is injectief maar
niet surjectief.
12
Propositie 1.3.9 Zij A en B eindige verzamelingen. Dan geldt:
1. |A × B| = |A|.|B|
2. | R R is een relatie van A naar B | = 2|A|.|B|
3. | F F : A → B is een functie | = |B||A|
4. |2A | = 2|A|
Bewijs
1) Dit volgt rechtstreeks uit de productregel.
2) Dit volgt uit (4) en (1).
3) Om een functie van A naar B te definiëren moeten we voor elk element
van A (|A| mogelijkheden) een uniek element uit B kiezen (|B| mogelijkheden). Uit de productregel volgt dat er in totaal |B|.|B| . . . |B| = |B||A| mo|
{z
}
|A| keer
gelijkheden zijn.
4) Definieer een functie
φ : 2A → F F : A → {0, 1}
door φ(U ) = 1U waarbij 1U de karakteristieke functie van U is, gedefinieerd
door :
1U (a) = 1 als a ∈ U
1U (a) = 0 als a 6∈ U
Het is eenvoudig te verifëren dat φ een bijectie is. Bijgevolg is
|2A | = | F F : A → {0, 1} | = 2|A|
Propositie 1.3.10 Zij A en B eindige verzamelingen met |A| = n en |B| =
m. Dan geldt :
1. het aantal injectieve functies van A naar B is
0
als n > m
m!
als n ≤ m
(m−n)!
13
2. het aantal surjectieve functies van A naar B is
m
X
m
k
(−1)
(m − k)n
m
−
k
k=0
Bewijs We bewijzen enkel het eerste deel van de stelling. Het tweede deel
is een toepassing van een combinatorische stelling die later aan bod komt.
Stel A = {a1 , . . . , an } en onderstel n ≤ m. Om een injectieve functie
F : A → B vast te leggen bepalen we achtereenvolgens een beeld voor
a1 , a2 , . . . Voor het beeld F (a1 ) hebben we m mogelijkheden. (Elk element
van B komt in aanmerking.)
Vermits F (a2 ) 6= F (a1 ) hebben we voor F (a2 ) nog maar m − 1 mogelijkheden.
Vermits F (a3 ) 6= F (a1 ), F (a2 ) hebben we voor F (a3 ) nog maar m − 2 mogelijkheden.
We gaan zo verder tot alle beelden van a1 , . . . , an bepaald zijn. Wegens de
m!
productregel zijn er in totaal m.(m − 1). · · · .(m − n + 1) = (m−n)!
mogelijkheden.
Als n > m dan loopt de bovenstaande procedure om F te bepalen vast na de
m-de stap. In dat geval bestaan er dus geen injectieve functies van A naar
B.
Opmerking Als A een vezameling is dan bestaat er nooit een bijectie
tussen A en de machtsverzameling 2A .
1.4
Equivalentierelaties
Definitie 1.4.1 Zij R een relatie op een niet lege verzameling X.
1. R heet reflexief als
∀x ∈ X : xRx
2. R heet transitief als
∀x, y, z ∈ X : (xRy en yRz) ⇒ xRz
14
3. R heet symmetrisch als
∀x, y ∈ X : xRy ⇒ yRx
4. R heet antisymmetrisch als
∀x, y ∈ X : (xRy en yRx) ⇒ x = y
Definitie 1.4.2 Zij R een relatie op een niet lege verzameling X. Dan heet
R een equivalentierelatie als R reflexief, transitief en symmetrisch is.
Equivalentierelaties worden dikwijls genoteerd als ≡, ∼, ', . . ..
Voorbeelden
1. Definieer de relatie ∼ op R door
a ∼ b ⇐⇒ a2 = b2
2. Definieer de relatie ≡ op Z door
a ≡ b ⇐⇒ 3|(a − b)
Definitie 1.4.3 Zij ∼ een equivalentierelatie op een verzameling A. Als
a ∈ A dan noemen we de verzameling
b∈Aa∼b
de equivalentieklasse van a. We noteren deze equivalentieklasse dikwijls als
a.
Equivalentieklassen zijn dus deelverzamelingen van A.
De verzameling
A/∼ = a a ∈ A ⊂ 2A
noemt men de quotiëntverzameling van A.
De afbeelding π : A → A/∼ die een element a ∈ A afbeeldt op π(a) = a noemt
men de kanonieke surjectie. (Verifieer zelf dat dit een surjectieve afbeelding
is.)
Voorbeelden
15
1. Zij ∼ de equivalentierelatie op R, gedefinieerd door
a ∼ b ⇐⇒ a2 = b2
Als a ∈ R dan is de equivalentieklasse van a gelijk aan
a = {a, −a}
De quotiëntverzameling is dus
R/∼ = {{a, −a}|a ∈ R}
2. Zij ≡ de equivalentierelatie op Z, gedefinieerd door
a ≡ b ⇐⇒ 3|(a − b)
Als a ∈ Z dan is de equivalentieklasse van a gelijk aan
a = a + 3k k ∈ Z
De quotiëntverzameling bevat nu exact 3 verschillende elementen :
Z/≡ = a a ∈ Z = 0, 1, 2
De volgende eigenschap is essentieel in de studie van equivalentierelaties.
Propositie 1.4.4 Zij ∼ een equivalentierelatie op een verzameling A. Dan
geldt :
1. ∀a ∈ A : a ∈ a
2. ∀a ∈ A : a 6= ∅ en ∪a∈A a = A
3. ∀a, b ∈ A : a = b ⇐⇒ a ∼ b
4. ∀a, b ∈ A : a 6= b ⇐⇒ a ∩ b = ∅
16
Bewijs 1) Dit volgt direct uit de reflexiviteit van ∼.
2) Dit volgt direct uit (1).
3) Als a = b dan is b ∈ a en dus is a ∼ b.
Omgekeerd, onderstel dat a ∼ b. Als x ∈ b dan is b ∼ x. Wegens de
transitiviteit van de relatie ∼ is a ∼ x en dus is x ∈ a. Hieruit volgt dat
b ⊂ a. Vermits de relatie ∼ ook symmetrisch is vinden we op een analoge
manier dat a ⊂ b.
4) Als a ∩ b = ∅ dan is a 6= b want a, b 6= ∅.
Omgekeerd, onderstel dat a ∩ b 6= ∅.
⇒ ∃x ∈ a ∩ b
Bijgevolg is a ∼ x en b ∼ x. Wegens de symmetrie en de transitiviteit van
de relatie ∼ is dan a ∼ b en dus is a = b.
Definitie 1.4.5 Zij A een niet lege verzameling. Een deelverzameling A ⊂ 2A
heet een partitie van A als :
1. ∀X ∈ A : X 6= ∅
2. A = ∪A
3. ∀X, Y ∈ A : X 6= Y ⇐⇒ X ∩ Y = ∅
Uit de voorgaande propositie volgt dat voor elke equivalentierelatie ∼ op een
verzameling A de quotiëntverzameling A/∼ een partitie is van A.
Zij A een partitie van een niet lege verzameling A. Definieer dan de relatie
∼A op A door
x ∼A y ⇐⇒ ∃U ∈ A zodat x, y ∈ U
Dan is ∼A een equivalentierelatie op A. De quotientverzameling A/∼A van
deze equivalentierelatie is dus ook een partitie van A. Deze partitie is echter
gelijk aan de oorspronkelijke A.
We verifiëren dit even.
• Als x ∈ A dan is er een U ∈ A zodat x ∈ U . Men heeft dan
x ∈ U en x ∈ U
Bijgevolg is x ∼A x en dus is ∼A reflexief.
17
• Als x ∼A y dan :
∃U ∈ A zodat x ∈ U en y ∈ U
Men heeft bijgevolg ook :
y ∈ U en x ∈ U
en dus y ∼A x. Bijgevolg is ∼A symmetrisch.
• Onderstel dat x ∼A y en y ∼A z. Dan bestaan er U, V ∈ A zodat
x, y ∈ U en y, z ∈ V . Maar dan is y ∈ U ∩ V en dus is U ∩ V 6= ∅.
Hieruit volgt dat U = V en dus x, z ∈ U en dus is x ∼A z. De relatie
∼A is dus ook transitief en is dus een equivalentierelatie.
• Als x ∈ U met U ∈ A dan heeft men
y ∈ x̄ ⇐⇒ x ∼A y ⇐⇒ y ∈ U
en dus is x̄ = U .
We kunnen de voorgaande constructies ook nog in een andere volgorde uitvoeren. We kunnen namelijk vertrekken met een equivalentierelatie ∼ op A.
Dit geeft een quotientverzameling A/ ∼ en dus een partitie van A. Met deze
partitie maken we de nieuwe equivalentierelatie ∼A/∼ . Deze nieuwe equivalentierelatie is echter gelijk aan de oorspronkelijke ∼. (Verifiëer dit zelf.)
We vinden dus dat de begrippen “equivalentierelatie” en “partitie” in essentie
dezelfde zijn.
We bewijzen nog enkele combinatorische stellingen.
Propositie 1.4.6 Zij A een eindige verzameling met |A| = n. Het aantal
reflexieve relaties op A is gelijk aan 2n(n−1) .
Bewijs Een reflexieve relatie R op A heeft altijd de diagonaal 4 als
deelverzameling. We kunnen R dan schrijven als
R = 4 ∪ (R \ 4)
en R is volledig bepaald door het stuk R \ 4 ⊂ (A × A) \ 4.
Omgekeerd, als S ⊂ (A × A) \ 4 een deelverzameling is dan is S ∪ 4 een
18
reflexieve relatie op A.
Er zijn dus evenveel reflexieve relaties als er deelverzamelingen zijn in
(A × A) \ 4. Vermits |(A × A) \ 4| = n2 − n is het aantal deelverzamelingen
2
gelijk aan 2n −n .
Propositie 1.4.7 Zij A een eindige verzameling met |A| = n. Het aantal
n(n+1)
symmetrische relaties op A is gelijk aan 2 2 .
Bewijs Stel A = {a1 , . . . , an }.
Elke relatie R op A kan geschreven worden als de unie van twee disjuncte
delen R ∩ 4 en R \ 4.
Als we een relatie op A willen definiëren dan moeten we dus afzonderlijk de
delen R ∩ 4 en R \ 4 kiezen. Bovendien moeten we er hier voor zorgen dat
de relatie symmetrisch is.
De symmetrie van R legt geen beperkingen op het deel R ∩ 4. Het aantal
mogelijkheden voor dit stuk is dus gelijk aan het aantal deelverzamelingen
van 4. Vermits |4| = n is dit aantal gelijk aan 2n .
Om het stuk R \ 4 vast te leggen moeten we een aantal koppels kiezen van
de vorm (ai , aj ) met i 6= j. Om aan de eis voor symmetrie te voldoen moeten
we echter voor elke keuze van (ai , aj ) ook het omgekeerde koppel (aj , ai ) mee
kiezen. Het volstaat dus een aantal koppels van de vorm (ai , aj ) te kiezen
met i < j en dan aan te vullen met de corresponderende omgekeerde koppels
(aj , ai ).
Het enige dat we vrij kunnen kiezen is dus een deelverzameling van
(ai , aj ) 1 ≤ i < j ≤ n
Het aantal mogelijkheden voor het stuk R \ 4 is dus gelijk aan het aantal
deelverzamelingen van
(ai , aj ) 1 ≤ i < j ≤ n
Deze verzameling bevat n(n − 1)/2 elementen en bijgevolg is het aantal
n(n−1)
deelverzamelingen gelijk aan 2 2 .
Wegens de productregel is het totale aantal moglijkheden voor R gelijk aan
n(n−1)
n(n+1)
2n .2 2 = 2 2 .
19
Opmerking Er is geen formule gekend om die het aantal transitieve relatie
geeft op een eindige verzameling.
1.5
Orderelaties
Definitie 1.5.1 Zij X een niet lege verzameling. Een relatie R ⊂ X×X heet
een (partiele) ordening op X als R reflexief, transitief en antisymmetrisch
is. Als bovendien geldt dat
∀x, y ∈ X : xRy of yRx
dan zeggen we dat R een totale ordening is. Orderelaties worden meestal
genoteerd met symbolen ≤, < . . .
Als ≤ een ordening is op X en als x ≤ y dan zeggen we dat x kleiner is dan
y
Voorbeelden
1. N, Z, R zijn totaal geordend voor de gewone ordening.
2. C is partieel geordend voor de ordening ≤ die gedefinieerd word door :
a + bi ≤ c + di ⇐⇒ a ≤ c en b ≤ d
Deze ordening is niet totaal.
3. Zij A een verzameling. De relatie ⊆ op de machtsverzameling 2A die
gedefinieerd is door :
U ⊆ V ⇐⇒ U is een deelverzameling van V
is een partiele ordening. Men spreekt hier van de inclusieordening.
Definitie 1.5.2 Zij (X, ≤) een geordende verzameling en zij Y ⊂ X een
deelverzameling.
• Een element x ∈ X heet een bovengrens (majorant) voor Y als
∀y ∈ Y : y ≤ x
20
• Een element x ∈ X heet een ondergrens (minorant) voor Y als
∀y ∈ Y : x ≤ y
• een element a ∈ Y heet een maximum als
∀y ∈ Y : y ≤ a
• een element a ∈ Y heet een minimum als
∀y ∈ Y : a ≤ y
• een element a ∈ Y heet een maximaal element als
∀y ∈ Y : a ≤ y ⇒ a = y
• een element a ∈ Y heet een minimaal element als
∀y ∈ Y : y ≤ a ⇒ a = y
Propositie 1.5.3 Zij (X, ≤) een geordende verzameling en zij Y ⊂ X een
deelverzameling. Als a een element is in Y dan geldt :
1. a is maximum ⇒ a is maximaal element
Bovendien bestaat er hoogstens één maximum in Y .
Als de ordening totaal is dan is een maximaal element ook een maximum.
2. a is minimum ⇒ a is minimaal element
Bovendien bestaat er hoogstens één minimum in Y .
Als de ordening totaal is dan is een minimaal element ook een minimum.
Voorbeeld
Neem X de machtsverzameling van 1, 2, 3.
X = {∅, {1} , {2} , {3} , {1, 2} , {1, 3} , {2, 3} , {1, 2, 3}}
Stel
Y = {∅, {1} , {2} , {3} , {1, 2} , {2, 3}}
21
Dan zijn {1, 2} en {2, 3} maximale elementen voor Y . Het zijn echter geen
maxima. Bovendien is ∅ een minimum.
Uit dit voorbeeld blijkt dat een maximaal element niet altijd een maximum
is. Bovendien zijn maximale en minimale elementen in het algemeen niet
uniek.
Definitie 1.5.4 Zij (X, ≤) een geordende verzameling en zij a, b ∈ X met
a ≤ b.
• De verzameling [a, b] = x ∈ X a ≤ x ≤ b noemt men het gesloten
interval met eindpunten a en b.
• De verzameling ]a, b[= x ∈ X a < x < b noemt men het open interval met eindpunten a en b.
• De verzamelingen [a, b[= x ∈ X a ≤ x < b en ]a, b] = x ∈ X a < x ≤ b
noemt men de halfopen intervallen met eindpunten a en b.
Definitie 1.5.5 Zij (X, ≤) een geordende verzameling en zij Y ⊂ X een
deelverzameling. Als de verzameling
x ∈ X x is bovengrens voor Y
een minimum heeft dan noemt men dit minimum het supremum van Y . We
noteren dit element als SupX (Y ).
Als de verzameling
x ∈ X x is ondergrens voor Y
een maximum heeft dan noemt men dit maximum het infimum van Y . We
noteren dit element als InfX (Y ).
Het supremum en het infimum van Y hangen af van de grotere verzameling
X. Men heeft bijvoorbeeld :
SupR x ∈ Q 0 < x < π = π
maar
SupQ
x∈Q0<x<π
22
bestaat niet.
Als (X, ≤) een eindige partieel geordende verzameling is dan kunnen we de
orderelatie grafisch voorstellen. We laten elk element van X overeenkomen
met een punt in het vlak. We tekenen een pijl van x naar y als x ≤ y.
De gerichte graf die we op deze manier bekomen ziet er al vlug ingewikkeld
en onoverzichtelijk uit. We kunnen een eenvoudiger voorstelling geven op de
volgende manier.
We laten elk element van X overeenkomen met een punt in het vlak. Als
x y dan zorgen we ervoor dat het punt dat overeenkomt met x lager gelegen
is dan het punt dat overeenkomt met y.
Als x y en als er geen punt z bestaat zodat x z en z y dan verbinden
we x en y met een opwaarts gericht lijnstuk.
Op de graf die we nu bekomen kunnen we nagaan of a ≤ b. Men heeft :
a ≤ b ⇐⇒ a = b of er bestaat een opwaarts gerichte weg van a naar b
Men noemt deze graf het Hassediagram van de ordening.
Voorbeeld X = {∅, {1}, {2}, {3}, {1, 2}, {2, 3}} met de inclusieordening.
Propositie 1.5.6 Zij (X, ≤) een partieeel geordende verzameling. Dan bestaat
er een totale ordening 4 op X die de ordening ≤ uitbreidt, d.w.z. ≤ ⊂ 4.
Bewijs [Topologisch zoekalgoritme]
Stel |A| = n.
• Stap 1 Stel k = 1. Stel H1 het Hasse diagram van de partiele ordening.
23
• Stap 2 Kies een punt vk in Hk zodat vanuit vk geen opwaartse lijn
vertrekt.
• Stap 3 Als k = n dan stopt de procedure. Definieer dan de orde 4
door
vn 4 vn−1 4 . . . 4 v1
Als k < n verwijder dan het punt vk uit Hk samen met alle opwaarts
gerichte lijnen die in vk aankomen. Stel Hk+1 de graf die we zo bekomen.
Verhoog k met waarde 1 en ga naar stap 2.
Verifieer zelf dat elke stap steeds kan uitgevoerd worden, dat alle punten van
X aan bod komen en dat wel degelijk ≤ ⊂ 4.
24
Hoofdstuk 2
Matrixen en stelsels
25
2.1
2.1.1
Matrixen
De lichamen R en C
In dit deel van de cursus is K steeds gelijk aan R (reële getallen) of C (complexe getallen). R en C zijn bijzondere gevallen van een algemener soort
algebraische structuren die men lichamen of velden noemt. Deze structuur
wordt bepaald door de optelling en de vermenigvuldiging. Definities, eigenschappen en voorbeelden van lichamen vindt men in eender welk boek over
algebra. Alle stellingen die we zullen zien kunnen veralgemeend worden voor
algemene lichamen. Op dit moment hebben we deze veralgemeningen niet
nodig. We beperken ons dus tot R en C. We zullen af en toe ook de notatie
K ∗ gebruiken. We bedoelen hiermee
K ∗ = x ∈ K x 6= 0
Op R is buiten optelling en de vermenigvuldiging ook nog een totale ordening
en een absolute waarde gedefinieerd.
Als a een getal is in R dan is de absolute waarde van a gedefinieerd door
|a| = a
als a ≥ 0
|a| = −a als a < 0
De totale orderelatie op R kan niet op een kanonieke manier uitgebreid worden tot een totale orderelatie op C. De absolute waarde functie heeft echter
wel een uitbreiding die als volgt gedefinieerd wordt.
Definitie 2.1.1 Als c = x+iy een complex getal is dan is de absolute waarde
van c gelijk aan
p
|c| = x2 + y 2
Naast de klassieke voorstelling is er nog een tweede manier om complexe
getallen voor te stellen. Hiervoor hebben we de complexe exponentiële functie
nodig. We definiëren deze functie op de volgende manier.
Als x ∈ R dan definiëren we
eix = cos(x) + isin(x)
Merk op dat
|eix | = |cos(x) + isin(x)| =
26
p
cos2 (x) + sin2 (x) = 1
Bovendien is
eπi = cos(π) + isin(π) = −1
en
e2πi = cos(2π) + isin(2π) = 1
Als c ∈ C een complex getal is met c = x + iy dan definiëren we
ec = ex .eiy
Merk op dat ec nooit 0 is. Bijgevolg is ec ∈ C∗ .
De functie e : C → C∗ die c ∈ C afbeeldt op ec voldoet aan de gewone
eigenschappen van de exponentiële functie. We hebben dus
0
ec+c = ec .ec
0
Vermits e2πi = 1 volgt hieruit dat voor elk complex getal c en voor elk geheel
getal k ∈ Z geldt :
k
ec+2kπi = ec . e2πi = ec
p
Zij nu c = x + iy een getal in C∗ . Stel ρ = |c| = x2 + y 2 . Dan is ρ > 0 en
2 2
x
+ yρ = 1. Bijgevolg bestaat er een reëel getal θ zodat
ρ
cos(θ) =
x
ρ
en
sin(θ) =
y
ρ
We krijgen dan
c = x + iy = ρ (cos(θ) + isin(θ)) = ρ.eiθ
We kunnen het volgende besluiten.
Propositie 2.1.2 Elk complex getal c ∈ C∗ kan geschreven worden in de
vorm
c = ρ.eiθ met ρ, θ ∈ R en ρ > 0
Bovendien is |c| = ρ en |eiθ | = 1 Het getal θ is slechts bepaald op gehele
veelvouden van 2π na.
27
2.1.2
Matrixen - Definities
Definitie 2.1.3 Zij m, n ∈ N. Een (m, n)-matrix met coëfficiënten in K is
een verzameling
ai,j i = 1, . . . , m en j = 1, . . . , n ⊂ K
De elementen ai,j noemt men de coëfficiënten van de matrix.
Men noemt i de rijindex en j de kolomindex van het element ai,j .
Matrixen worden meestal genoteerd met hoofdletters.
Als m = n dan spreekt men van een vierkante matrix.
De verzameling der (m, n)-matrixen noteert men Mm,n .
De matrix
A = ai,j i = 1, . . . , m en j = 1, . . . , n
noteert men meestal als een tabel op de volgende manier :


a11 a12 . . . a1n
 a21 a22 . . . a2n 


A =  ..
.. 
 .
. 
am1 am2 . . . amn
De matrix
ak1 ak2 . . . akn
noemt men de k-de rij van A.
De matrix


a1l
 a2l 
 
 .. 
 . 
aml
noemt men de l-de kolom van A.
Een (m, n)-matrix heeft dus m rijen en n kolommen.
Opmerking Als A een matrix is met coëfficiënten aij dan noteert men
dikwijls A = (aij )
28
Definitie 2.1.4 Zij A = (aij ) een (m, n)-matrix en zij i1 , . . . , ir en j1 , . . . , js
getallen zodat 1 ≤ i1 < i2 < . . . < ir ≤ m en 1 ≤ j1 < j2 < . . . < js ≤ n Dan
noemt men de (r, s)-matrix


ai1 j1 ai1 j2 . . . ai1 js
ai j ai j . . . ai j 
2 2
2 s
 21
 ..
.. 
 .
. 
air j1 air j2 . . . air js
een deelmatrix van A.
Voorbeelden
1. Als


2 5 3 9
A = 4 2 7 9
3 9 1 5
dan zijn


2 3
5 9
en 4 7
9 5
3 1
deelmatrixen.
2. In elke matrix zijn de rijen en de kolommen deelmatrixen.
Een aantal bijzondere matrixen hebben aan aparte naam of notatie.
• De (n, n)-matrix met coëfficiënten
δij = 0
δij = 1
als i 6= j
als i = j
noemt men de eenheidsmatrix. Men noteert

1 0 0 ...
0 1 0 . . .

In =  ..
.
0 ... 0 0
De i-de rij van deze matrix noteren we ei .
29
deze matrix als In .

0
0

.. 
.
1
• Een (n, n)-matrix A = (aij ) met aij
onderdriehoeksmatrix.

a11 0
 a21 a22


A =  a31 a32
 ..
 .
an1
= 0 voor elke i < j noemt men een
0 ...
0 ...
a33 . . .
...

0
0
0
..
.






ann
• Een (n, n)-matrix A = (aij ) met aij = 0 voor elke i > j noemt men een
bovendriehoeksmatrix.

a11 a12
 0 a22


0
A= 0
 ..
 .
0
0
• Een (n, n)-matrix A = (aij ) met aij
diagonaalmatrix.

a11 0
 0 a22

A =  ..
 .
0
0

a13 . . . a1n
a23 . . . a2n 

a33 . . . a3n 

.. 
. 
...
0
ann
= 0 voor elke i 6= j noemt men een
0
0
...
...
0
0
..
.
...
0
ann





• Een diagonaal matrix waarvoor alle coëfficiënten op de diagonaal onderling gelijk zijn noemt men een scalaire matrix.
• De (m, n)-matrix waarvan alle coëfficiënten 0 zijn noemt men de nulmatrix. Deze matrix wordt meestal ook 0 genoteerd. (We zullen dit
symbool nog in veel verschillende betekenissen gebruiken.)
Opmerking Een (1, 1)-matrix met (enige) coëfficiënt a identificeert men
met het getal a. Men noteert dus a in plaats van (a).
30
2.1.3
Bewerkingen met matrixen
Definitie 2.1.5 Zij A = (aij ) en B = (bij ) (m, n)-matrixen.
De (m, n)-matrix C = (cij ) met
cij = aij + bij
noemt men de som van A en B. Men noteert de matrix C als A + B.
Opmerking Zij A = (aij ) een (m, n)-matrix. De (m, n)-matrix met
coëfficiënten −aij noteert men −A. Als A = (aij ) en B = (bij ) (m, n)matrixen zijn dan noteert men A − B in plaats van A + (−B).
Het is duidelijk dat A − A = 0.
Voorbeelden
1.

 
 

2 5 1 4
5 1 3 4
7 6 4 8
3 4 2 5 + 2 −1 3 0 = 5 3 5 5
9 5 2 1
0 −2 4 1
9 3 6 2
2. De matrix
3 4 1 5
3 4 1
−
7 5 1 9
7 5 1
bestaat niet
Definitie 2.1.6 Zij A = (aij ) ∈ Mm,n een (m, n)-matrix. De (n, m)-matrix
B = (bij ) met
∀i, j : bij = aji
noemt men de getransponeerde van A. Men noteert B = tA.
De rijen van tA komen dus overeen ment de kolommen van A.
Voorbeeld
t


1 4
1 2 3
= 2 5
4 5 6
3 6
31
Als A een vierkante matrix
metrische matrix is.
Voorbeeld De matrixen

4
2
1
is en als tA = A dan zegt men dat A een sym-



2 1
2 0 0
1 5 en 0 6 0
5 3
0 0 1
zijn symmetrisch.
Definitie 2.1.7 Zij A = (aij ) een (m, n)-matrix en zij B = (bkl ) een (n, p)matrix. De (m, p)-matrix C = (cil ) met
cil =
n
X
aik .bkl
k=1
noemt men het product van A en B. Men noteert deze matrix als A.B.
Let op de afmetingen van A en B.
Voorbeelden
1.
2.
3.

3 1
20 14
2 1 5


. 4 2 =
6 3 −2
26 8
2 2



−2
4 −6 3 .  1  = −5
3




−2
−8
−2
6
 1  . 4 −6 3 =  4 −6 −3
3
12 −18 −9
Uit de laatste voorbeelden blijkt dat voor matrixen A en B in het algemeen
A.B 6= B.A
32
1. Als A ∈ Mm,n dan is Im .A = A.In = A.
Propositie 2.1.8
2. Als A ∈ Mm,n en B ∈ Mn,p dan is
t
(A.B) = tB.tA
en
t
(A + B) = tA + tB
3. Als A ∈ Mm,n , B ∈ Mn,p en C ∈ Mp,q dan is
A.(B.C) = (A.B).C
4. Als A ∈ Mm,n , B ∈ Mn,p en C ∈ Mn,p dan is
A.(B + C) = A.B + A.C
Bewijs
en
(B + C).A = B.A + C.A
Oefening!
Definitie 2.1.9 Zij A ∈ Mn,n een vierkante matrix. Men zegt dat A inverteerbaar (of omkeerbaar) is als er een matrix B ∈ Mn,n bestaat zodat
A.B = B.A = In
Men noteert de matrix B als A−1 en men noemt A−1 de inverse van A.
De verzameling van alle inverteerbare (n, n)-matrixen met coëfficiënten in K
noteert men als GLn (K).
Opmerkingen
1. De matrix B uit de voorgaande definitie is uniek bepaald door A. Stel
namelijk dat B en B 0 beide voldoen aan de betrekkingen
A.B = B.A = In en A.B 0 = B 0 .A = In
Dan is
B 0 = In B 0 = (B.A).B 0 = B.(A.B 0 ) = B.In = B
2. We zullen later zien hoe we de inverse matrix A−1 kunnen berekenen.
33
Propositie 2.1.10
1. Als A, B ∈ Gln (K) inverteerbare matrixen zijn
dan is A.B ∈ GLn (K) en
(A.B)−1 = B −1 .A−1
2. Als A ∈ GLn (K) inverteerbaar is dan is
−1 t −1 t
A
= A
Bewijs
1) Uit de voorgaande rekenregels blijkt dat
(A.B).(B −1 .A−1 ) = A(B.B −1 ).A−1 = A.In .A−1 = A.A−1 = In
Op een analoge manier vindt men dat (B −1 .A−1 ).(A.B) = In en dus is
(A.B)−1 = B −1 .A−1 .
2) Vermits
A.t(A−1 ) = t(A−1 .A) = tIn = In
t
en
(A−1 ).tA = t(A.A−1 ) = tIn = In
t
is (tA)−1 = t(A−1 ).
2.1.4
Blokvermenigvuldiging
Als we matrixproducten Y.A en A.X moeten uitrekenen dan is het soms
handig om A te beschouwen als een kolom waarvan elk element een rij is of
als een rij waarvan elk element een kolom is.
Stel dat A een (m, n)-matrix is met rijen R1 , . . . , Rm en kolommen C1 , . . . , Cn .
We schrijven dan


R1
 R2 


A =  ..  en A = C1 C2 · · · Cn
 . 
Rm
Bij het berekenen van een matrixproduct behandelen we R1 , . . . , Rm en C1 , . . . , Cn
alsof het gewone coëfficiënten zijn. Nadien houden we er rekening mee dat
34
Ri en Cj in feite rijen en kolommen zijn.
We vinden dus




R1
R1 .X
 R2 
 R2 .X 




A.X =  ..  .X = 

..
 . 


.
Rm
Rm .X
In deze kolom is Ri .X dan het matrixproduct van de rij Ri en X.
Zo vinden we ook
Y.A = Y. C1 C2 · · · Cn = Y.C1 Y.C2 · · · Y.Cn
In deze rij is Y.Cj het matrixproduct van Y en de kolom Cj .
Als X een (n, p)-matrix is en als Y een (l, m)-matrix is dan is Ri .X een
(1, p)-matrix en dus is A.X een (m, p)-matrix (zoals het hoort).
Analoog is Y.Cj een (l, 1)-matrix en dus is Y.A een (l, n)-matrix.
We kunnen dit systeem nog veralgemenen door matrixen op te delen in
kleinere matrixen die we blokken noemen. We doen dit door (denkbeeldige)
lijnen te trekken tussen rijen en kolommen.
Bijvoorbeeld :



A=


en

1
0 |
0 0 0
0
1 |
0 0 0 

I2 0

− − | − − − =
P Q
2 −1 |
4 2 1 
3
1 | −1 7 5




B=




4 −2
5
6 
 − − 
X
=
7
3 
Y


−1
0
1
6
We behandelen nu elk blok als één geheel en we rekenen het product A.B uit
als
I2 0
X
I2 .X + 0.Y
X
A.B =
.
=
=
P Q
Y
P.X + Q.Y
P.X + Q.Y
35
We houden er nu rekening mee dat in dit resultaat X en P.X +Q.Y matrixen
zijn. Na in vulling vinden we dan


4 −2
 5
6 


X

A.B =
= − − 

P.X + Q.Y
 30
8 
8 27
Het algemene geval kunnen we als volgt formuleren.
Propositie 2.1.11 We kunnen een matrixproduct uitrekenen door de matrixen op te delen in blokken en dan deze blokken als coëfficiënten te behandelen. De enige beperking is dat de blokken compatibel moeten zijn, d.w.z.
alle producten van alle blokken die in de uitrekening voorkomen moeten uitvoerbaar zijn.
In de matrix die we dan bekomen moeten de coëfficiënten op hun beurt als
matrixen behandeld worden.
Bewijs Het bewijs is een omslachtige berekening met veel matrixproducten
en coëfficiënten waaraan we ons niet zullen wagen.
We geven eerst nog een enkele voorbeelden van een slechte opdeling in blokken
:
Voorbeeld Stel


1
0 |
0 0 0
 0
1 |
0 0 0 


I
0
2

A=
 − − | − − − = P Q
 2 −1 |
4 2 1 
3
1 | −1 7 5
en




B=




4 −2
− − 
 5
6 
X
=
7
3 
Y


−1
0
1
6
36
We zouden dan vinden :
I2 0
X
I2 .X + 0.Y
A.B =
.
=
P Q
Y
P.X + Q.Y
In dit resultaat is echter
I2 .X =
1 0
0 1
.
4 −2
Dit product bestaat niet. De opdeling in blokken is dus niet goed.
We nemen nu





B=





4 −2
− − 
 

5
6 
X

 Y 
7
3 
=

− − 
Z
−1
0 
1
6
We vinden dan
A.B =
I2 0
P Q


X
. Y 
Z
De afmetingen van de blokmatrixen zijn nu niet compatibel en dus kan het
product niet op deze manier uitgerekend worden.
Eén van de belangrijkste gevallen van blokvermenigvuldiging is het geval
waarbij matrixen in rijen en in kolommen worden opgesplitst.
Voorbeeld Stel C1 , . . . , Cn de kolommen van een (m, n)-matrix A en stel
R1 , . . . , Rn de rijen van een (n, m)-matrix B Dan is


R1


A.B = C1 · · · Cn .  ...  = C1 .R1 + · · · + Cn .Rn
Rn
Elke term Ci .Ri is een (m, m)-matrix en dus is A.B ook een (m, m)-matrix.
37

R1


B.A =  ...  .
Rn


C1

R1 .C1


..
· · · Cn = 

.
Rn .Cn
Elke coëfficiënt Rj .Cj is een (1, n)-matrix en dus is B.A een (n, n)-matrix.
2.2
Stelsels van lineaire vergelijkingen
2.2.1
Stelsels, echelonmatrixen en Gaussreductie
Door gebruik te maken van matrixnotatie’s kan men soms ingewikkelde dingen op een eenvoudige manier noteren en bestuderen. Een voorbeeld hiervan
is het oplossen van stelsels van lineaire vergelijkingen.
Definitie 2.2.1
• Zij a1 , . . . , an , b ∈ K en zij X1 , . . . , Xn een rij symbolen. Een uitdrukking van de vorm
a1 X1 + · · · + an Xn = b
noemt men een lineaire vergelijking in de onbekenden X1 , . . . , Xn en
met coëfficiënten a1 , . . . , an , b. Als b = 0 dan spreekt men van een
homogene vergelijking.
Men noemt het geordend n-tal (x1 , . . . , xn ) ∈ K n een oplossing van de
vergelijking als
a1 x 1 + · · · + an x n = b
• Een eindige verzameling lineaire vergelijkingen in onbekenden X1 , . . . , Xn
noemt men een stelsel van lineaire vergelijkingen.
Men noemt het geordend n-tal (x1 , . . . , xn ) ∈ K n een oplossing van het
stelsel als (x1 , . . . , xn ) een oplossing is voor elke vergelijking afzonderlijk.
De coëfficiënten van de vergelijkingen in een stelsel van lineaire vergelijkingen worden meestal genummerd door twee indexen. De eerste index geeft
38
het nummer van de vergelijking. De tweede index duidt de plaats in de
vergelijking aan. Het stelsel krijgt dan de volgende vorm :


a11 X1 + · · · + a1n Xn = b1


 a21 X1 + · · · + a2n Xn = b2
..

.


 a X +···+ a X = b
m1 1
mn n
m
Men noemt de (m, n)-matrix

a11 a12 · · ·
 a21 a22 · · ·

A =  ..
 .
am1 am2 · · ·
a1n
a2n
..
.





amn
de matrix van het stelsel.
We kunnen het stelsel nu als een matrixproduct noteren.
 

 
b1
X1
a11 a12 · · · a1n
 a21 a22 · · · a2n   X2   b2
 

 
 ..
 .  ..  =  ..
..
 .
  .   .
.
bm
Xn
am1 am2 · · · amn





Als we nu
X=
X1 · · · Xn
en b =
b1 · · · bm
noteren dan hebben we :
A.tX = tb
Een element x = (x1 , . . . , xn ) ∈ K n is dus een oplossing van het stelsel als
A.tx = tb
De matrix





a11
a21
..
.
a12
a22
· · · a1n
· · · a2n
..
.
am1 am2 · · · amn

b1
b2 



bn
noemt men de uitgebreide matrix van het stelsel.
39
Propositie 2.2.2 Beschouw een stelsel met m vergelijkingen en n onbekenden
A.tX = tb
en zij C ∈ GLm (K). Dan hebben de stelsels
A.tX = tb en (C.A).tX = C.tb
dezelfde oplossingen.
Bewijs Als x = (x1 , . . . , xn ) een oplossing is van het stelsel A.tX = tb dan
is A.tx = tb en bijgevolg is dus ook C.A.tx = C.tb.
Omgekeerd, als x = (x1 , . . . , xn ) een oplossing is van het stelsel C.A.tX = C.tb
dan is
A.tx = C −1 .C.A.tx = C −1 .C.tb = tb
en dus is x een oplossing van het oorspronkelijke stelsel.
Door in de voorgaande propositie de matrix C goed te
kiezen kunnen we ervoor zorgen dat de matrix C.A een
eenvoudige vorm krijgt waardoor het gemakkelijk wordt
om de oplossingen van het stelsel te bepalen.
Definieer de matrix Eij ∈ Mmm met op de i-de rij en op de j-de kolom een
1 en met alle andere coëfficiënten 0.
We kunnen hiermee drie soorten matrixen in GLm K definiëren.
type 1
1 ···
...





0 ···
1 ···
...


a


 of 
..


.
a
1
0 ···
0


0
..


 = Im + a.Eij

.
1
40

(a ∈ K ∗
i 6= j)
type 2


1











..
.
0





 = Im + Eij + Eji − Eii − Ejj





1
..
.
1
0
...
(i 6= j)
1
type 3












1
...





 = Im + (c − 1)Eii




1
c
1
...
(c ∈ K ∗ )
1
Matrixen van deze vorm noemen we elementaire matrixen
Om te verifiëren dat deze matrixen wel degelijk inverteerbaar zijn bewijzen
we eerst volgende lemma’s.
Lemma 2.2.3 Voor alle k, l met 0 ≤ k, l ≤ m is Ekl = tek .el
Bewijs
Oefening !
Lemma 2.2.4 Als i 6= j dan is
∀k, l : Eki .Ejl = 0
en
∀k, l : Eki .Eil = Ekl
41
Bewijs We rekenen deze producten uit met behulp van blokvermenigvuldiging.
1) Stel dat i =
6 j. Dan is

0 ···
Eki .Ejl =
t
ek
|{z}
i−de plaats

0
. 

 .. 
··· 0


.  el 
 . 
 .. 
(j−de plaats)
=
0
0 + · · · + tek .0 + · · · t0.el + · · · + 0 = 0
2) Bovendien is

Eki .Eil =
0 ···
t
ek
|{z}
i−de plaats

0
. 

 .. 
··· 0


.  el 
 . 
 .. 
(i−de plaats)
=
0
0 + · · · + tek .el + · · · + 0 = Ekl
We kunnen nu voor de elementaire matrixen de inversen bepalen.
type 1
2
(Im + a.Eij )(Im − a.Eij ) = Im
− a.Im .Eij + a.Eij .Im − a2 .Eij2
vermits
2
Im
= Im
Im .Eij = Eij .Im = Eij
en vermits
Eij .Eij = 0
vinden we dat
(Im + a.Eij )(Im − a.Eij ) = Im
en dus is
(Im + a.Eij )−1 = (Im − a.Eij )
42
type 2
(Im + Eij + Eji − Eii − Ejj ).(Im + Eij + Eji − Eii − Ejj ) =
Im + Eij + Eji − Eii − Ejj
+ Eij + Eij2 + Eij .Eji − Eij .Eii − Eij .Ejj
2
+ Eji + Eji .Eij + Eji
− Eji .Eii − Eji .Ejj
− Eii − Eii .Eij − Eii .Eji + Eii2 + Eii .Ejj
2
− Ejj − Ejj .Eij − Ejj .Eji + Ejj .Eii + Ejj
= Im
en dus is
(Im + Eij + Eji − Eii − Ejj )−1 = (Im + Eij + Eji − Eii − Ejj )
type 3 Op een analoge wijze verifieert men dat
(Im + (c − 1)Eii ).(Im + (c−1 − 1)Eii ) = Im
en dus is
(Im + (c − 1)Eii )−1 = (Im + (c−1 − 1)Eii )
Als A een (m, n)-matrix is en als E een elementaire (m, m)-matrix is dan
bekomt men E.A door :
type 1 bij de i-de rij van A a keer de j-de rij op te tellen.
type 2 de i-de rij en de j-de rij van A te verwisselen.
type 3 de i-de rij van A met c te vermenigvuldigen.
Men noemt dit elementaire bewerkingen op een matrix.
Beschouw nu een stelsel met m vergelijkingen en n onbekenden A.tX = tb.
Als E een elementaire (m, m)-matrix is dan heeft het stelsel E.A.tX =
E.tb dezelfde oplossingen. De elementaire bewerkingen op A en op tb die
overeenkomen met de matrix E zijn dezelfde.
Hieruit kunnen we besluiten :
Propositie 2.2.5 Beschouw een stelsel met m vergelijkingen en n onbekenden A.tX = tb. De oplossingen van dit stelsel blijven dezelfde als we één
van de volgende acties uitvoeren.
43
• bij één van de vergelijkingen een veelvoud van een andere vergelijking
optellen
• twee vergelijkingen met mekaar verwisselen
• de twee leden van eenzelfde vergelijking met een constante vermenigvuldigen.
We zullen zien hoe we elke (m, n)-matrix door een opeenvolging van elementaire bewerkingen in de volgende vorm kunnen brengen :


0···0 1 ∗···∗ ∗···∗ ∗···∗ ∗···∗ ∗···∗ ∗···∗


1
∗···∗ ∗···∗ ∗···∗ ∗···∗




1
∗
·
·
·
∗
∗
·
·
·
∗
∗
·
·
·
∗




1


...
De sterretjes staan hier voor willekeurige elementen en de open plaatsten
staan voor 0.
Een matrix van deze vorm noemt men een rijechelon matrix. Een rijechelonmatrix voldoet dus aan volgende voorwaarden :
1 alle nulrijen staan onderaan.
2 op elke rij die geen nulrij is, is de eerste coëfficiënt die niet 0 is gelijk
aan 1. (men noemt dit element de leidende 1 van deze rij)
3 elke leidende 1 staat rechts van alle leidende 1-en in de hoger gelegen
rijen
Als bovendien ook nog aan volgende voorwaarde voldaan is dan spreekt men
ven een gereduceerde rijechelon matrix
4 elke leidende 1 is het enige element in zijn kolom dat niet 0 is
Voorbeelden
1.


1 6 0 1
 0 0 1 2 
0 0 0 0
is een gereduceerde rijechelon matrix.
44
2.


1 5 3 2 1
 0 0 1 8 1 
0 0 0 1 2
is een rijechelon matrix maar is niet gereduceerd
Om een willekeurige matrix in rijechelonvorm te brengen kunnen we als volgt
te werk gaan :
Reductiealgortime van Gauss
Stap 1 Als alle coëfficiënten van de matrix 0 zijn dan stopt het algoritme. De
matrix is dan reeds in de goede vorm.
Stap 2 Anders, zoek de eerste kolom van links te beginnen die een coëfficiënt
heeft die niet 0 is. Kies één van deze coëfficiënten. (Noem deze
coëfficiënt a.) Men noemt de gekozen coëfficiënt dikwijls een pivot element. Zet de rij waarop dit element vookomt op de eerste plaats.
Stap 3 Vermenigvuldig de eerste rij met 1/a. We creëren zo een leidende 1.
Stap 4 Trek van alle volgende rijen een veelvoud van de eerste rij af zodat de
coëfficiënten onder de leidende 1 gelijk aan 0 worden.
Hiermee is de eerste rij afgewerkt. Alle verdere bewerkingen gebeuren met
de volgende rijen.
Stap 5 Herhaal de stappen 1-4 op de matrix die bestaat uit de overblijvende
rijen.
De procedure stopt als er geen rijen meer over zijn of als alle resterende rijen
nulrijen zijn.
De matrix die we bekomen hebben is een rijechelonmatrix.
We kunnen de matrix nog verder bewerken tot we een gereduceerde rijechelonmatrix bekomen. Dit kan door aan het algoritme nog een stap toe te
voegen.
Stap 5 Voor elke rij die een leidende 1 bevat trekt men van alle hogergelegen
rijen een veelvoud van deze rij af zodat boven de leidende 1 uitsluitend
coëfficiënten 0 komen te staan.
45
Deze laatste stap noemt men backtracking.
Voor de keuze van een pivot element in stap 2 zijn er in het algemeen meerdere
mogelijkheden. Vanuit theoretisch standpunt heeft het geen belang welke
coëfficiënt we als pivot kiezen. In de praktijk, als we de oplossing van een
stelsel door de computer laten berekenen dan kan door een slechte keuze van
de pivot en door de afrondingsfouten die de computer maakt de oplossing
volledig verwoest worden. Het is daarom een goede regel om van de verschillende mogelijkheden diegene met de grootste absolute waarde te nemen. We
zullen dit later met een voorbeeld illustreren.
Voorbeelden
1. We brengen de volgende matrix in rijechelon vorm.


0
0
0
2 1 9
 0 −2 −6
2 0 2 


 0
2
6 −2 2 0 
0
3
9
2 2 19
Stap 1 De matrix heeft niet alle coëfficiënten 0. We gaan dus naar stap
2.
Stap 2 De tweede kolom is de meest linkse die niet de nulkolom is. Stel
a = −2. Verwissel rij 1 en rij 2. We bekomen dan :


0 −2 −6
2 0 2
 0
0
0
2 1 9 


 0
2
6 −2 2 0 
0
3
9
2 2 19
Stap 3 Vermenigvuldig de eerste rij met −1/2. We bekomen dan :


0 1 3 −1 0 −1
 0 0 0
2 1
9 


 0 2 6 −2 2
0 
0 3 9
2 2 19
Stap 4 Trek van de 3-de rij 2 maal de eerste rij af en trek van de 4-de rij
3 maal de eerste af. We bekomen dan :


0 1 3 −1 0 −1
 0 0 0
2 1
9 


 0 0 0
0 2
2 
0 0 0
5 2 22
46
Stap 5 De eerste rij is nu klaar.Vanaf nu negeren we deze rij en we passen
de stappen 1-4 toe op de resterende drie rijen.
Stappen 1-3 betekenen hier dat we de 2-de rij vemenigvuldigen
met 1/2. In stap 4 trekken we van de 4-de rij 5 keer de eerste af.
We bekomen dan


0 1 3 −1
0 −1
9 
1
 0 0 0
1
2
2 

 0 0 0
0
2
2 
0 0 0
0 − 12 − 12
De tweede rij is nu klaar en we kunnen de stappen 1-4 toepassen
op de laatste twee rijen.
Toepassing van de stappen 1-4 op de laatste twee rijen geeft uiteindelijk


0 1 3 −1 0 −1
9 
 0 0 0
1 21
2 

 0 0 0
0 1
1 
0 0 0
0 0
0
De reductiemethode van Gauss kan toegepast worden bij het oplossen van
stelsels.
Beschouw het stelsel A.tX = tb. Door reductie brengen we de uitgebreide ma0
0
trix (A tb) in rijechelonvorm (A0 tb ). Het stelsel A0 .tX = tb heeft dan dezelfde
oplossingen als het oorspronkelijk stelsel. Als in een vergelijking van dit laatste stelsel de coëfficiënt van Xi een leidende 1 uit de rijechelonmatrix is dan
kan men uit deze vergelijking Xi oplossen als uitdrukking in Xi+1 , . . . , Xn .
Als de onbekende Xi in geen enkele vergelijking optreedt met een leidende 1
als coëfficiënt dan mag men de waarde van Xi vrij kiezen. Op deze manier
vinden we achtereenvolgens waarden voor Xn , Xn−1 , . . . , x1 .
Deze methode noemt men de eliminatiemethode van Gauss.
We illustreren dit met enkele voorbeelden.
Voorbeeld

x1 −3x2 +x3 −x4
= −1



−x1 +3x2
+3x4 +x5 =
3
2x
−6x
+3x
−x
=
2

1
2
3
5


−x1 +3x2 +x3 +5x4 +x5 =
6
47
De uitgebreide matrix van het stelsel ziet er dan als volgt uit :


1 −3 1 −1
0 −1
 −1
3 0
3
1
3 


 2 −6 3
0 −1
2 
−1
3 1
5
1
6
Na reductie wordt deze matrix in

1 −3
 0
0

 0
0
0
0
rijechelonvorm gebracht :

1 −1 0 −1
1
2 1
2 

0
0 1 −1 
0
0 0
0
Deze matrix komt overeen met volgend stelsel

= −1
 x1 −3x2 +x3 −x4
x3 +2x4 +x5 =
2

x5 = −1
Hieruit halen we :
x5 = −1
Als we in de tweede vergelijking x4 vrij kiezen dan vinden we
x3 = 3 − 2x4
Als in de eerste vergelijking x2 ook vrij kiezen dan vinden we
x1 = −4 + 3x2 + 3x4
De vrije variabelen x2 en x4 worden als parameters beschouwd die we meestal
aanduiden met letters s, t, . . ..
Als we x2 = s en x4 = t stellen dan vinden we
x1 = −4 + 3s + 3t x2 = s x3 = 3 − 2t x4 = t x5 = −1
Voorbeeld In het volgend stelsel zijn a, b en c parameters. We zoeken
voor welke waarden van a, b en c het stelsel oplossingen heeft.

 x +3y +z = a
−x −2y +z = b

3x +7y −z = c
48
De uitgebreide matrix van dit stelsel is


1
3
1 a
 −1 −2
1 b 
3
7 −1 c
Na reductie geeft dit de volgende

1 3
 0 1
0 0
rijechelonmatrix

1
a
2
b+a 
0 c − a + 2b
Als c 6= a − 2b dan geeft de laatste vergelijking een contradictie.
Als c = a − 2b dan geeft de derde vergelijking een triviale gelijkheid. Uit
de tweede vergelijking volgt dan dat we z kunnen opvatten als een vrije
parameter. Stel z = t. Dan vinden we
x = 5t − (2a + 3b) y = (a + b) − 2t z = t
De rijechelonvorm die men bekomt met de reductiemethode van Gauss is niet
uniek. Men kan bewijzen dat de gereduceerde rijechelonvorm wel uniek is.
Het aantal leidende 1-en in de rijechelonvorm is echter steeds hetzelfde.
Definitie 2.2.6 Als een matrix A door elementaire operaties op de rijen in
rijechelonvorm gebracht wordt dan noemt men het aantal leidende 1-en in
deze matrix de rang van A. We noteren dit getal als rg(A).
Propositie 2.2.7 Beschouw een stelsel van m lineaire vergelijkingen met n
onbekenden. Als de rang van de uitgebreide matrix r is dan treden in de
verzameling oplossingen van het stelsel n − r vrije parameters op.
Bewijs Als de rang van de uitgebreide matrix r is dan zijn er r leidende
1-en in de rijechelonvorm van deze matrix. Met deze leidende 1-en corresponderen r variabelen. De overige variabelen kunnen vrij gekozen worden
en kunnen als parameters beschouwd worden. Het aantal is n − r.
49
2.2.2
Angels en Valkuilen
De eliminatiemethode van Gauss geeft de exacte oplossingen van een stelsel
op voorwaarde dat we exact met getallen kunnen rekenen. In de praktijk in
een computer is dat echter niet het geval. In een computer wordt gerekend
met floating point getallen binnen een zeker bereik. Bij de rekenkundige
bewerkingen worden de uitkomsten afgerond naar het dichtsbijgelegen getal
binnen het bereik van de computer. Door deze afrondingsfouten kunnen
de berekende resultaten soms sterk afwijken van de echte uitkomsten. We
illustreren dit met een voorbeeld. Het opstellen van rekentechnieken die het
verschil tussen berekend en echt resusltaat minimaliseren behoort echter niet
tot het onderwerp van deze cursus.
Onderstel dat de computer werkt met floating point getallen met basis 10,
met 3 beduidende decimalen en met 1 beduidende decimaal voor de exponent.
Elk getal heeft dus een voorstellling van de vorm
±.d1 d2 d3 ∗ 10c
met 0 ≤ d1 , d2 , d3 ≤ 9 en −9 ≤ c ≤ 9. We lossen nu het volgend stelsel op.
.0001x + y = 1
x + y = 2
Merk op dat het getal .0001 = .1 ∗ 10−3 binnen het computerbereik valt.
De uitgebreide matrix van dit stelsel is
.0001 1 1
1 1 2
Door het algoritme van Gauss toe te passen vinden we de volgende rijechelonmmatrix :
1 10000 10000
9998
0
1
9999
Dit levert de exacte oplossing
10000
9998
= 1.0001 . . . y =
= .9998 . . .
9999
9999
In werkelijkheid worden de getallen 9999 en 9998 afgerond tot 10000. De
rijechelonvorm wordt dus
1 10000 10000
0
1
1
x=
50
Dit levert een oplossing
x=0 y=1
De berekende waarde voor y is nog wel een goede benadering van de exacte
waarde maar voor x loopt het helemaal fout.
We gaan nu na wat er gebeurt met de
vergelijkingen van volgorde verwisselen.
verschil.)
Het stelsel wordt dus
x +
.0001x +
berekende oplossing als we de twee
(Op theoretisch vlak maakt dit geen
y = 2
y = 1
De uitgebreide matrix van dit stelsel is
1 1 2
.0001 1 1
Na één cyclus in de Gaussreductie vinden we :
1
1
2
0 .9999 .9998
Na afronding wordt dit
1 1 2
0 1 1
Dit levert een berekende oplossing
x=1 y=1
De gevonden oplossing is nu een goede benadering van de echte oplossing.
In het vorige voorbeeld kon men door het algoritme van Gauss op een goede
manier toe te passen de oplossing van het stelsel goed benaderen. Somige
stelsels hebben echter de eigenschap dat een kleine verandering van de coëfficiënten
een grote verandering van de oplossing veroorzaakt. Dit betekent dat afrondingen bij de tussentijdse berekeningen de oplossing van het stelsel volledig onbetrouwbaar maken. Een stelsel met deze eigenschappen noemt men slecht
geconditioneerd. Er bestaan methodes om de mate van slechte conditionering te meten. Ook dit behoort niet tot het onderwerp van deze cursus. We
geven wel een voorbeeld.
51
Beschouw volgend stelsel
x +
y = 2
x + 1.0001y = 2.0001
De (exacte) oplossing van dit stelsel is x = 1 en y = 1.
We veranderen nu één van de coëfficiënten in het vierde cijfer na de komma.
x +
y = 2
x + 1.0001y = 2.0002
Dit stelsel heeft als oplossing x = 0 en y = 2.
Geen enkele numerieke methode kan hier baat brengen.
2.3
Determinanten
In deze paragraaf beschouwen we uitsluitend vierkante matrixen.
Zij A volgende (n, n)-matrix :


a11 · · · a1n

.. 
A =  ...
. 
an1 · · · ann
De (n − 1, n − 1)-matrix die we bekomen door de i-de rij en de j-de kolom
van A te schrappen noteren we als Aij .
We definiëren het begrip determinant van een (n, n)-matrix A nu op een
inductieve manier.
Definitie 2.3.1
n = 1 Als A = (a) dan definiëren we de determinant van A als det(A) = a.
• We onderstellen nu dat het begrip determinant van een matrix gedefinieerd
is voor (r, r)-matrixen met r = 1, . . . , n − 1.
52
n > 1 Als A een (n, n)-matrix is met coëfficiënten aij dan is de determinant
van A gegeven door
det(A) =
n
X
(−1)i+1 ai1 .det(Ai1 )
i=1
In het bijzonder geeft dit voor n = 2 :
a11 a12
det
= (−1)1+1 a11 .det(a22 ) + (−1)1+2 a21 .det(a12 )
a21 a22
en dus
det
a11 a12
a21 a22
= a11 .a22 − a21 .a12
In het geval n = 3 krijgen we

a11 a12

det a21 a22
a31 a32
1+1
(−1) a11 .det

a13
a23  =
a33
a12 a13
a12 a13
a22 a23
1+3
1+2
+(−1) a31 .det
+(−1) a21 .det
a22 a23
a32 a33
a32 a33
= a11 (a22 .a33 − a32 .a23 ) − a21 (a12 a33 − a32 a13 ) + a31 (a12 .a23 − a22 .a13 )
Opmerking De formule voor det(A) uit de definitie noemt men de Laplace
ontwikkeling van det(A) volgens de eerste kolom.
Definitie 2.3.2 Zij A een (n, n)-matrix met coëfficiënten aij .
Men noemt det(Aij ) de (i, j)-de minor van A.
Men noemt (−1)i+j det(Aij ) de (i, j)-de cofactor van A en −1i+j noemt men
het teken van de (i, j)-de plaats.
Propositie 2.3.3 Zij A een (n, n)-matrix en zij B de matrix die men bekomt
door in A twee opeenvolgende rijen te verwisselen.
Dan is det(B) = −det(A).
53
Bewijs (Inductie naar n.) Voor n = 2 is de bewering triviaal te verifiëren.
Inductiehypothese
Stel dat de bewering klopt voor (r, r)-matrixen met 2 ≤ r < n.
Stel dat we B bekomen door in A de k-de en de k + 1-de rij te verwisselen.
Stel aij de coëfficiënten van A en bij de coëfficiënten van B.
Dan is aij = bij als i 6= k, k + 1, akj = bk+1j en ak+1j = bkj .
Bovendien is Bkj = Ak+1j en Bk+1j = Akj . Als i 6= k, k + 1 dan bekomt men
Bij door in Aij twee opeenvolgende rijen te verwisselen en dus is wegens de
inductiehypothese det(Bij ) = −det(Aij ). We vinden dan :
det(B) =
n
X
(−1)1+i bi1 .det(Bi1 )
i=1
"
=
n
X
#
(−1)1+i bi1 .det(Bi1 ) +
i=1,i6=k,k+1
(−1)1+k bk1 .det(Bk1 ) + (−1)1+k+1 bk+1,1 .det(Bk+1,1 )
"
#
n
X
=−
(−1)1+i ai1 .det(Ai1 ) +
i=1,i6=k,k+1
(−1)1+k ak+1,1 .det(Ak+1,1 ) + (−1)1+k+1 ak1 .det(Ak1 )
"
#
n
X
=−
(−1)1+i ai1 .det(Ai1 ) −
i=1,i6=k,k+1
(−1)1+k ak1 .det(Ak1 ) − (−1)1+k+1 ak+11 .det(Ak+1,1 )
" n
#
X
i+1
=−
(−1) ai1 .det(Ai1 )
i=1
= −det(A)
Gevolg 2.3.4 Als men in een (n, n)-matrix twee verschillende rijen van
plaats verwisselt dan verandert de determinant van de matrix van teken.
Bewijs Elke verwisseling van twee verschillende rijen kan men bekomen
door een opeenvolging van een oneven aantal verwisselingen van opeenvol54
gende rijen toe te passen.
Gevolg 2.3.5 Als een (n, n)-matrix A twee gelijke rijen heeft dan is det(A) =
0.
Propositie 2.3.6 Zij A = (aij ) een (n, n)-matrix met rijen R1 , . . . , Rn . Stel
B de matrix die men bekomt door de k-de rij van A met een constante a ∈ K
te vermenigvuldigen. Dan is
det(B) = a.det(A)
Bewijs (Inductie naar n.)
Voor n = 1 is de bewering triviaal.
Inductiehypothese Stel dat de bewering waar is voor (r, r)-matrixen met r =
1, . . . , n − 1.
Stel bij de coëfficiënten van B. Dan is bij = aij als i 6= k en bkj = a.akj .
Wegens de inductiehypothese is det(Bij ) = a.det(Aij ) als i 6= k. Verder is
Akj = Bkj .
We vinden
det(B) =
n
X
(−1)i+1 bi1 .det(Bi1 )
i=1
"
=
n
X
#
(−1)i+1 bi1 .det(Bi1 ) + (−1)k+1 bk1 .det(Bk1 )
i=1,i6=k
"
=
n
X
#
(−1)i+1 ai1 .a.det(Ai1 ) + (−1)k+1 a.ak1 .det(Ak1 )
i=1,i6=k
= a.det(A)
55
Propositie 2.3.7 Zij A = (aij ) een (n, n)-matrix met rijen R1 , . . . , Rn . Stel
dat de rij Rk een som is van twee rijen Sk en Tk . Als we noteren




R1
R1
 .. 
 .. 
 . 
 . 




B =  Sk  en C =  Tk 
 . 
 . 
 .. 
 .. 
Rn
Rn
dan is
det(A) = det(B) + det(C)
Bewijs (Inductie naar n.)
Voor n = 1 is de bewering triviaal.
Inductiehypothese
Stel dat de bewering waar is voor (r, r)-matrixen met r = 1, . . . , n − 1.
Stel nu dat Sk = bk1 · · · bkn en Tk = ck1 · · · ckn .
Als i 6= k dan heeft Ai1 een rij van de vorm
bk2 · · · bkn + ck2 · · · ckn
Wegens de inductiehypothese is dan
det(Ai1 ) = det(Bi1 ) + det(Ci1 ) als i 6= k
en
Bk1 = Ck1 = Ak1
56
Bijgevolg is
det(A) =
n
X
(−1)i+1 ai1 .det(Ai1 )
i=1
"
n
X
=
#
(−1)i+1 ai1 .det(Ai1 ) + (−1)k+1 ak1 .det(Ak1 )
i=1,i6=k
"
=
n
X
#
(−1)i+1 ai1 . (det(Bi1 ) + det(Ci1 )) + (−1)k+1 (bk1 + ck1 ).det(Ak1 )
i=1,i6=k
=
+
n
X
i=1,i6=k
n
X
(−1)i+1 ai1 .det(Bi1 ) + (−1)k+1 bk1 .det(Bk1 )
(−1)i+1 ai1 .det(Ci1 ) + (−1)k+1 ck1 .det(Ck1 )
i=1,i6=k
= det(B) + det(C)
Gevolg 2.3.8 Als één van de rijen van een (n, n)-matrix A de nulrij is dan
is det(A) = 0.
Bewijs Stel R1 , . . . , Rn de rijen van A en stel dat Rk = 0.
Dan is Rk = Rk + Rk en dus is
det(A) = det(A) + det(A)
Hieruit volgt dat det(A) = 0.
Gevolg 2.3.9 Als men bij een rij van een (n, n)-matrix A een veelvoud van
een andere rij optelt dan verandert det(A) niet.
57
Bewijs Stel R1 , . . . , Rn de rijen van A. Bij de k-de rij tellen we de rij a.Rl
op waarbij k 6= l en a ∈ K. Dan is






R1
R1
R1
..


 .. 
 .. 
.


 . 
 . 






det  Rk + a.Rl  = det  Rk  + det  a.Rl  =






..


 ... 
 ... 
.
Rn
Rn
Rn




R1
R1
 .. 
 .. 
 . 
 . 




det  Rk  + a.det  .Rl  = det(A)
 . 
 . 
 .. 
 .. 
Rn
Rn


R1
 .. 
 . 


want de matrix  Rl  heeft twee gelijke rijen Rl en dus is zijn determinant
 . 
 .. 
Rn
gelijk aan 0.
In de eigenschappen Gevolg 2.3.4, Gevolg 2.3.9, en Propositie 2.3.6 hebben
we het gedrag van de determinant bij elementaire rijbewerkingen beschreven.
We kunnen deze eigenschappen ook interpreteren als eigenschappen van elementaire matrixen.
Propositie 2.3.10 Als E een elementaire (n, n)-matrix is en als A een
(n, n)-matrix is dan is det(E.A) = det(E).det(A).
Bewijs
We onderscheiden drie gevallen.
type 1 Als E van type 1 dan is det(E) = 1. Bovendien bekomt men E.A door
bij een rij van A een veelvoud van een andere rij van A op te tellen en
dus is wegens 2.3.9
det(E.A) = det(A) = det(E).det(A)
58
type 2 Als E van type 2 is dan is det(E) = −1. Bovendien bekomt men E.A
door in A twee verschillende rijen te verwisselen en dus is wegens 2.3.4
det(E.A) = −det(A) = det(E).det(A)
type 3 Als E van type 3 is met E = In + (c − 1)Eii en c ∈ K ∗ dan is
det(E) = c. Bovendien bekomt men E.A door de i-de rij van A met c
te vermenigvuldigen en dus is wegens 2.3.6
det(E.A) = c.det(A) = det(E).det(A)
We zagen vroeger dat we een (n, n)-matrix A door een opeenvolging van
elementaire bewerkingen in gereduceerde rijechelonvorm kunnen brengen. Er
bestaan dus elementaire matrixen E1 , . . . , Es zodat de matrix
A0 = E1 . . . Es .A
een gereduceerde rijechelonmatrix is.
Herhaaldelijk toepassen van de voorgaande propositie geeft dan
∃λ ∈ K ∗ zodat det(A0 ) = λ.det(A)
We onderscheiden twee gevallen :
rg(A) = n In dit geval is A0 = In want de enige gereduceerde rijechelonmatrix met
n leidende 1-en is In .
⇒ 1 = det(In ) = λ.det(A)
⇒ det(A) 6= 0
In dit geval vinden we bovendien dat A inverteerbaar is en
A−1 = (E1 . . . Es )
59
rg(A) < n In dit geval is de laatste rij van A0 zeker de nulrij.
⇒ 0 = det(A0 ) = λ.det(A)
⇒ det(A) = 0
In dit geval is A niet omkeerbaar. Onderstel namelijk dat er een matrix
B bestaat zodat A.B = In . Stel E = E1 . . . Es .
Dan is E.A.B = E. Vermits de laatste rij van E.A de nulrij is, is de
laatste rij van E.A.B ook de nulrij en dus is
0 = det(E.A.B) = det(E1 . . . Es ) = det(E1 ) . . . det(Es ) 6= 0
Dit is een contradictie en dus bestaat de matrix B niet.
We kunnen dit resultaat samenvatten in de volgende stelling.
Propositie 2.3.11 Als A een (n, n)-matrix is dan is
det(A) = 0 ⇐⇒ rg(A) < n ⇐⇒ A 6∈ GLn K
det(A) 6= 0 ⇐⇒ rg(A) = n ⇐⇒ A ∈ GLn K
Propositie 2.3.12 Zij A en B (n, n)-matrixen. Dan is
det(A.B) = det(A).det(B)
Bewijs
We onderscheiden twee gevallen.
rg(A) < n In dit geval is det(A) = 0 en dus is A 6∈ GLn K. Bovendien is ook
A.B 6∈ GLn K.
Onderstel namelijk dat A.B wel inverteerbaar zou zijn.
⇒ ∃C zodat (A.B).C = In
Maar dan is A.(B.C) = In en dus is A ook omkeerbaar. Contradictie !
We vinden dus dat det(A.B) = 0
⇒ det(A.B) = det(A).det(B) = 0
60
rg(A) = n In dit geval is det(A) 6= 0 en A is inverteerbaar.
Zoals hiervoor vinden we elementaire matrixen E1 , . . . , Es zodat
E1 . . . Es .A = In en dus A = Es−1 . . . E1−1
⇒ A.B = Es−1 . . . E1−1 .B
Vermits de inverse van een elementaire matrix weer een elementaire
matrix is vinden we
det(A.B) = det(Es−1 . . . E1−1 .B) =
det(Es−1 ) . . . det(E1−1 ).det(B) = det(A).det(B)
Propositie 2.3.13 Als A een (n, n)-matrix is dan is det(tA) = det(A).
Bewijs
We onderscheiden weer twee gevallen.
rg(A) < n Onderstel dat rg(tA) = n. Dan is tA inverteerbaar en dus bestaat er
een matrix B zodat tA.B = In .
⇒ tB.A = tI n = In
en dus is ook A inverteerbaar.Dit is een contradictie en dus is rg(tA) <
n. We vinden
det(A) = det(tA) = 0
rg(A) = n Zoals in het vorige bewijs vinden we dat A de inverse is van een product van elementaire matrixen. Als A = (E1 . . . Es )−1 dan is tA =
−1
−1
−1
t −1
E 1 . . . tE s en dus is det(tA) = det(tE 1 ) . . . det(tE s ). Het is eenvoudig te verifëren dat voor een elementaire matrix E geldt dat det(E) =
±1
det(tE ). Hieruit volgt dat det(A) = det(tA).
Gevolg 2.3.14 Zij A een (n, n)-matrix.
61
1. Als we in A twee kolommen verwisselen dan verandert de determinant
van teken.
2. Als we bij een kolom van A een veelvoud van een andere kolom optellen
dan verandert de deteminant niet.
3. Als A een nulkolom heeft dan is det(A) = 0.
4. Als we een kolom van A met een constante vermenigvuldigen dan wordt
de determinant ook met deze constante vermenigvuldigd.
Propositie 2.3.15 (Laplaceontwikkeling volgens de j-de kolom) Zij A =
(aij ) een (n, n)-matrix en zij i een willekeurige kolomindex. Dan is
det(A) =
n
X
(−1)i+j aji .det(Aji )
j=1
Bewijs
Stel C1 , . . . , Cn de kolommen van A. Dan is
A = C1 · · · Ci · · · Cn
Stel
B=
Ci C1 · · · Ci−1 Ci+1 · · · Cn
Dan kunnen we B bekomen door i − 1 opeenvolgende kolomverwisselingen
toe te passen op A. Bijgevolg is det(B) = (−1)i−1 .det(A). We vinden
i−1
det(A) = (−1)
n
X
(−1)1+j aji det(Bj1 )
j=1
Vermits Bj1 = Aji vinden we
det(A) =
n
X
(−1)i+j aji det(Aji )
j=1
62
Propositie 2.3.16 (Laplaceontwikkeling volgens de j-de rij) Zij A =
(aij ) een (n, n)-matrix en zij i een willekeurige rijindex. Dan is
det(A) =
n
X
(−1)i+j aij .det(Aij )
j=1
Bewijs De formule geeft de Laplaceontwikkeling volgens de i-de kolom
van de matrix tA. De bewering volgt dan uit het feit dat det(A) = det(tA).
We weten al waneer een (n, n)-matrix een inverse heeft. We kunnen deze
inverse nu ook expliciet berekenen.
Propositie 2.3.17 Zij A een omkeerbare (n, n)-matrix. Dan is de inverse
matrix A−1 de matrix met op de (i, j)-de plaats het element
(−1)i+j det(Aji )/det(A)
Bewijs Stel bij = (−1)i+j det(Aji )/det(A) en stel B de matrix met coëfficiënten
bij . Dan is de (k, l)-de coëfficiënt van A.B gelijk aan
n
X
aki .bil
i=1
Als k = l dan geeft dit
n
X
aki .(−1)i+k det(Aki )/det(A) = det(A)/det(A) = 1
i=1
Als k 6= l dan vinden we
n
X
(−1)l+i aki det(Ali )/det(A)
i=1
De som
n
X
(−1)l+i aki det(Ali )
i=1
63
is echter de determinant van de matrix die we bekomen door in A de l-de
rij door de k-de te vervangen. Vermits deze matrix twee gelijke rijen heeft is
zijn determinant gelijk aan 0.
We vinden dus
n
X
aki .bil = 0
i=1
en dus is de (k, l)-de coëfficiënt van A.B gelijk aan 0.
Opmerking De matrix met op de (i, j)-de plaats het element (−1)i+j det(Aji )
noemt men de geadjungeerde matrix van A. Men noteert deze matrix adj(A).
We kunnen de voorgaande stelling dan als volgt herformuleren :
A.adj(A) = det(A)In
Uit de voorgaande stelling volgt een zeer gekende manier om stelsels op te
lossen.
Propositie 2.3.18 (Regel van Cramer) Zij A = (aij ) een (n, n)-matrix
met rg(A) = n. Zij C1 , . . . , Cn de kolommen van A en zij b = (b1 , . . . , bn ) ∈
K n . Dan worden de oplossingen (x1 , . . . , xn ) van het stelsel A.tX = tb gegeven
door
xi = det C1 · · · Ci−1 tb Ci+1 · · · Cn /det(A)
Bewijs
We vinden als oplossing van het stelsel
x = A−1 .tb
t
Hieruit vinden we
xi =
n
X
!
(−1)i+j det(Aji ).bj
/det(A)
j=1
De teller in deze breuk is juist de ontwikkeling
volgens de i-de kolom van
det C1 · · · Ci−1 tb Ci+1 · · · Cn
64
Hoofdstuk 3
Vectorruimten
65
In dit hoofdstuk is K steeds R of C.
3.1
3.1.1
Vectorruimten en basissen
Definities en voorbeelden
Definitie 3.1.1 Een vectorruimte (over K) bestaat uit een niet lege verzameling V waarop een bijkomende structuur gedefinieerd is. De elementen van
V noemen we vectoren. De structuur op V ziet er uit als volgt.
Vectoren kunnen we onderling optellen en we kunnen ze vermenigvuldigen
met elementen uit K zodanig dat
1. voor alle x, y ∈ V : x + y ∈ V
2. voor alle λ ∈ K en voor alle x ∈ V : λ.x ∈ V
Bovendien moet aan volgende voorwaarden voldaan zijn.
1. voor alle x, y, z ∈ V : x + (y + z) = (x + y) + z
2. voor alle x, y ∈ V : x + y = y + x
3. er bestaat een unieke vector in V , meestal 0 genoteerd, zodat voor alle
x ∈ V : 0 + x = x. Men noemt deze vector de nulvector.
4. voor elke vector x ∈ V bestaat er een unieke vector in V , meestal −x
genoteerd zodat x + (−x) = 0
5. voor alle λ, µ ∈ K en voor alle x ∈ V : (λ.µ).x = λ.(µ.x)
6. voor alle λ ∈ K en voor alle x, y ∈ V : λ.(x + y) = λ.x + λ.y
7. voor alle λ, µ ∈ K en voor alle x ∈ V : (λ + µ).x = λ.x + µ.x
8. voor alle x ∈ V : 1.x = x
66
Opmerkingen
1. Het symbool 0 wordt in twee verschillende betekenissen gebruikt :
(a) als neutraal element voor de optelling in het lichaam K
(b) als nulvector in V .
Uit de context blijkt steeds welk element we bedoelen.
2. Als a en b vectoren zijn in V dan noteren we a−b in plaats van a+(−b).
3. Men noemt de vermenigvuldiging van vectoren met elementen uit K
een scalaire vermenigvuldiging.
We bewijzen eerst enkele elementaire eigenschappen van vectorruimten.
In de definitie werd geëist dat er in een vectorruimte V een unieke nulvector
bestaat. De uniciteit is eigenlijk een overbodige eis want er kunnen nooit
twee verschillende nulvectoren bestaan. Er werdt ook geëist dat er voor elke
vector v ∈ V een unieke vector −v bestaat. Ook hier is de uniciteit een
overbodige eis. Deze beweringen volgen namelijk uit de volgende eigenschap.
Propositie 3.1.2 Zij V een vectorruimte.
1. Als 0 en 00 beide voldoen aan de eis
∀v ∈ V : v + 0 = v + 00 = v
dan is 0 = 00 .
2. Als v ∈ V en als w en w0 twee vectoren zijn met de eigenschap
v + w = v + w0 = 0
dan is w = w0 .
Bewijs 1) Vermits v + 0 = v voor elke vector v is in het bijzonder
00 + 0 = 00 .
Vermits ook v + 00 = v voor elke vector v is in het bijzonder 0 + 00 = 0.
Hieruit volgt
00 = 00 + 0 = 0 + 00 = 0
67
2) Uit de gegevens volgt
w = w + 0 = w + (v + w0 ) = (w + v) + w0 = 0 + w0 = w0
Propositie 3.1.3 Zij V een vectorruimte. Dan geldt :
1. ∀x ∈ V : −(−x) = x
2. ∀x, y ∈ V : −(x + y) = −x − y
3. ∀λ ∈ K, x ∈ V : −(λ.x) = (−λ).x = λ.(−x)
4. ∀x ∈ V : 0.x = 0
5. ∀λ ∈ K : λ.0 = 0
Bewijs
Oefening!
Definitie 3.1.4 Zij V een vectorruimte. Een deelverzameling W ⊂ V is een
deelruimte van V als :
1. ∀x, y ∈ W : x + y ∈ W
2. ∀λ ∈ K, x ∈ W : λ.x ∈ W
3. 0 ∈ W
Opmerkingen
1. Een deelruimte is nooit leeg want ze bevat steeds de nulvector.
2. We kunnen de drie eigenschappen uit de voorgaande defintie samenvatten in twee eenvoudige voorwaarden:
W 6= ∅
∀λ, µ ∈ K, x, y ∈ W : λ.x + µ.y ∈ W
Voorbeelden
68
1. V = K n met n ∈ N
Optelling en scalaire vermeniguldiging op V zijn gedefinieerd door
(a1 , . . . , an ) + (b1 , . . . , bn ) = (a1 + b1 , . . . , an + bn )
λ.(a1 , . . . , an ) = (λ.a1 , . . . , λ.an )
Het is duidelijk dat
∀(a1 , . . . , an ) ∈ K n : (a1 , . . . , an ) + (0, . . . , 0) = (a1 , . . . , an )
De nulvector in K n is dus de vector (0, . . . , 0).
Bovendien is
∀(a1 , . . . , an ) ∈ K n : (a1 , . . . , an ) + (−a1 , . . . , −an ) = (0, . . . , 0)
Bijgevolg is −(a1 , . . . , an ) = (−a1 , . . . , −an ).
2. V = Kn [X] is de verzameling der veeltermen in de variabele X met
coëfficiënten in K en met graad hoogstens n.
V = a0 + a1 X + · · · + an X n a1 , . . . , an ∈ K
Optelling en scalaire vermenigvuldiging zijn gedefinieerd door :
(a0 + a1 X + · · · + an X n ) + (b0 + b1 X + · · · + bn X n ) =
(a0 + b0 ) + (a1 + b1 )X + · · · + (an + bn )X n
λ.(a0 + a1 X + · · · + an X n ) = (λ.a0 ) + (λ.a1 )X + · · · + (λ.an )X n
De nulvector in Kn [X] is de veelterm
0 + 0.X + 0.X 2 + · · · + 0.X n
en
−(a0 + a1 X + · · · + an X n ) = −a0 − a1 X − · · · − an X n
3. V = K[X] is de verzameling der veeltermen n de variabele X met
coëfficiënten in K en met willekeurige graad.
V = a0 + a1 X + · · · + an X n a1 , . . . , an ∈ K, n ∈ N
Net zoals in het vorige voorbeeld zijn de bewerkingen de gewone veeltermbewerkingen.
69
4. Neem K = R en zij a, b ∈ R zodat a < b. Neem
V = f : [a, b] → R f is een continue functie
Optelling en scalaire vermenigvuldiging op V zijn gedefinieerd door :
∀f, g ∈ V, x ∈ [a, b] : (f + g)(x) = f (x) + g(x)
∀λ ∈ R, f ∈ V, x ∈ R : (λ.f )(x) = λ.f (x)
Stel f0 : [a, b] → R de constante nulfunctie, i.e.
∀x ∈ [a, b] : f0 (x) = 0
Deze functie is duidelijk continu en
∀f ∈ V : f + f0 = f
De functie f0 is dus nulvector in V .
Als f ∈ V dan is −f gelijk aan de functie die x ∈ [a, b] afbeeldt op
−f (x) want de som van deze twee functies is duidelijk de nulfunctie f0 .
Zij nu K =R. We bekijken
een aantal
voorbeelden van deelruimten van R3 .
Stel W1 = (a1 , a2 .0) a1 , a2 ∈ R . Dan is W1 een deelruimte van R3 want
(1) ∀(a1 , a2 , 0), (b1 , b2 , 0) ∈ W1 : (a1 , a2 , 0) + (b1 , b2 , 0)
= (a1 + b1 , a2 + b2 , 0) ∈ W1
(2) ∀λ ∈ K, (a1 , a2 , 0) ∈ W1 : λ.(a1 , a2 , 0) = (λ.a1 , λ.a2 , 0) ∈ W1
(3) (0, 0, 0) ∈ W1
Het is nu eenvoudig te verifëren dat W1 zelf ook voldoet aan de voorwaarden
van Definitie 3.1.1. Dit betekent dat W1 zelf ook een vectorruimte is.
Stel W2 = (a1 , 0, 0) a1 ∈ R . Verifieer zelf dat W2 een deelruimte is van
W1 .
Stel W3 = (a1 , a2 , a3 ) ∈ R3 a1 + 3a2 − 2a3 = 0 . Dan is W3 ook een deelruimte van R3 want:
1. als (a1 , a2 , a3 ), (b1 , b2 , b3 ) ∈ W3 dan is
(a1 + b1 ) + 3(a2 + b2 ) − 2(a3 + b3 )
= (a1 + 3a2 − 2a3 ) + (b1 + 3b2 − 2b3 ) = 0
en dus is (a1 , a2 , a3 ) + (b1 , b2 , b3 ) ∈ W3
70
2. als λ ∈ R en (a1 , a2 , a3 ) ∈ W3 dan is
(λ.a1 ) + 3(λ.a2 ) − 2(λ.a3 ) = λ.(a1 + 3a2 − 2a3 ) = 0
en dus is λ.(a1 , a2 , a3 ) ∈ W3
3. (0, 0, 0) ∈ W3 want 0 + 3.0 − 2.0 = 0
Propositie 3.1.5 Zij V, W deelruimten van eenzelfde vectorruimte U .
1. Dan is V ∩ W ook een deelruimte van U .
2. Stel
V + W = v + w v ∈ V,
w∈W
Dan is V + W ook een deelruimte van U .
Bewijs 1) Vermits 0 ∈ V en 0 ∈ W is V ∩ W 6= ∅. Bovendien geldt voor
alle λ, µ ∈ K en voor alle x, y ∈ V ∩ W dat
λ.x + µ.y ∈ V (want V is deelruimte van U )
λ.x + µ.y ∈ W (want W is deelruimte van U )
Bijgevolg is
λ.x + µ.y ∈ V ∩ W
en dus is V ∩ W een deelruimte van U .
2) Vermits 0 = 0 + 0 ∈ V + W is V + W =
6 ∅.
Zij nu λ, µ ∈ K en zij x, y ∈ V + W . Dan is x = v + w en y = v 0 + w0 voor
zekere v, v 0 ∈ V en w, w0 ∈ W .
⇒ λ.x + µ.y = λ.(v + w) + µ.(v 0 + w0 )
= (λ.v + µ.v 0 ) + (λ.w + µ.w0 )
Vermits λ.v + µ.v 0 ∈ V en vermits λ.w + µ.w0 ∈ W is λ.x + µ.y een vector in
V + W een dus is V + W een deelruimte van U .
71
Definitie 3.1.6 Zij V en W deelruimten van eenzelfde vectoruimte U dan
noemt men de deelruimte V + W de somruimte van V en W .
Opmerking Men kan de voorgaande definitie op een eenvoudige manier
veralgemenen.
Als V1 , . . . , Vn deelruimten zijn van U dan definieert men
V1 + · · · + Vn = v1 + · · · + vn v1 ∈ V1 , . . . , vn ∈ Vn
Verifieer zelf dat V1 + · · · + Vn een deelruimte is van U .
Definitie 3.1.7 Zij V1 , . . . , Vn vectorruimten. Definieer op de productverzameling V1 × . . . × Vn bewerkingen op de volgende manier :
• (v1 , . . . , vn ) + (w1 , . . . , wn ) = (v1 + w1 , . . . , vn + wn )
• λ.(v1 , . . . , vn ) = (λ.v1 , . . . , λ.vn )
(λ ∈ K)
Dan is V1 × . . . × Vn voor deze bewerkingen een vectorruimte. (Verifieer !)
Men noemt deze vectorruimte de productruimte van V1 , . . . , Vn .
Opmerking Als V1 , . . . , Vn vectorruimten zijn dan bestaat de productruimte altijd. De somruimte bestaat alleen als de de vectorruimten deelruimten
zijn van eenzelfde grotere vectorruimte U .
3.1.2
Voortbrengers en lineaire combinaties
Definitie 3.1.8 Zij V een vectorruimte en zij P ⊂ V een deelverzameling.
Een lineaire combinatie van P is een uitdrukking van de vorm :
λ1 .x1 + λ2 .x2 + · · · + λn .xn
met n ∈ N, λ1 , . . . , λn ∈ K en x1 , . . . , xn ∈ P . De elementen λ1 , . . . , λn ∈ K
noemt men de coëfficiënten van de lineaire combinatie.
Als de uitkomst van de lineaire combinatie gelijk is aan 0 dan spreekt men
van een nulcombinatie
De nulcombinatie
0.x1 + · · · + 0.xn
noemt men de triviale nulcombinatie.
72
Voorbeelden
1. Neem K = R en V = R3 .
2(3, 5, 1) + 5(2, 1, 4) − (3, 2, 1)
is een lineaire combinatie van de verzameling
{(3, 5, 1), (2, 1, 4), (3, 2, 1)}
We kunnen de uitdrukking ook opvatten als een lineaire combinatie van
{(0, 6, 2)(3, 5, 1), (2, 1, 4), (3, 2, 1)}
of evengoed als lineaire combinatie van de oneindige verzameling
(x1 , x2 , x3 ) x3 ≤ 5
Vermits
2(3, 5, 1) + 5(2, 1, 4) − (3, 2, 1) = (13, 13, 21)
is de uitdrukking geen nulcombinatie.
2. In R3 zijn
2(5, 1, 2) − (2, 1, 3) + 3(1, 1, 1) en (11, 0, 0) + 2(0, 2, 0) + (0, 0, 4)
verschillende lineaire combinaties. De uitkomsten van deze lineaire
combinaties zijn echter gelijk want :
2(5, 1, 2)−(2, 1, 3)+3(1, 1, 1) = (11, 0, 0)+2(0, 2, 0)+(0, 0, 4) = (11, 4, 4)
73
Opmerkingen
1. Uit de voorbeelden blijkt dat de verzameling P in Definitie 3.1.8 best
oneindig mag zijn. In een lineaire combinatie van P treden echter
slechts eindig veel vectoren uit P op.
2. Uit de voorbeelden blijkt nog dat we een onderscheid maken tussen de
uitdrukking die de lineaire combinatie voorstelt en de uitkomst van de
combinatie.
3. In een lineaire combinatie worden termen van de vorm 0.x meestal niet
opgeschreven. Dit verandert uiteraard niets aan de uitkomst van de
lineaire combinatie.
4. Als P = {a1 , . . . , an } een eindige verzameling is dan is elke lineaire
combinatie van P van de vorm
λ1 .a1 + · · · + λn .an
met λ1 , . . . , λn ∈ K. Hierbij kunnen sommige of alle λi ’s nul zijn.
74
Definitie 3.1.9 Zij V een vectorruimte en zij P ⊂ V een deelverzameling.
Als P = ∅ dan definiëren we vct(P ) = {0}.
Als P 6= ∅ dan definiëren de deelverzameling vct(P ) ⊂ V door
vct(P ) = x ∈ V x is lineaire combinatie van P
75
Propositie 3.1.10 Zij P een deelverzameling van een vectorruimte V . Dan
is vct(P ) een deelruimte van V . Bovendien is vct(P ) de kleinste deelruimte
van V die alle vectoren uit P bevat.
Bewijs We geven het bewijs alleen voor het geval dat P een eindige verzameling is.
Als P = ∅ dan is de bewering triviaal. We mogen dus P 6= ∅ onderstellen.
Stel P = {a1 , . . . , an }. Als x, y ∈ vct(P ) en als λ, µ ∈ K dan is
x = λ 1 a1 + · · · λ n an
y = µ 1 a1 + · · · µ n an
voor zekere λ1 , . . . , λn , µ1 , . . . , µn ∈ K.
⇒ λ.x + µ.y = (λ.λ1 + µµ1 ).a1 + · · · (λ.λn + µµn ).an
Bijgevolg is λ.x+µ.y een lineaire combinatie van P en is dus ook een element
van vct(P ). Hieruit volgt dat vct(P ) een deelruimte is van V .
Elke vector ai ∈ P is een lineaire combinatie van P want
a1 = 1a1 + 0a2 + · · · + 0an
a2 = 0a1 + 1a2 + · · · + 0an
..
.
Bijgevolg is P ⊂ vct(P ).
Zij nu W ⊂ V nog een deelruimte zodat P ⊂ W . Dan is elke lineaire
combinatie van P ook een element van W en dus vct(P ) ⊂ W . Hieruit volgt
dat vct(P ) de kleinste deelruimte is die alle elementen van P bevat.
76
Definitie 3.1.11 Men noemt vct(P ) de deelruimte voortgebracht door P .
Als W een deelruimte is van V en als er een eindige verzameling P bestaat
zodat W = vct(P ) dan zegt men dat W eindig voortgebracht is.
Propositie 3.1.12 Zij V een vectorruimte en zij P ⊂ Q deelverzamelingen
van V . Dan is vct(P ) ⊂ vct(Q).
Bewijs
Q.
Elke lineaire combinatie van P is ook een lineaire combinatie van
Voorbeelden
1. Neem K = R, V = R3 en
P = {(2, 0, 1), (0, 1, 0), (1, 0, 2)}
Dan is
vct(P ) = λ(2, 0, 1) + µ(0, 1, 0) + ν(1, 0, 2) λ, µ, ν ∈ R
Als (x, y, z) ∈ V een willekeurige vector is dan is
(x, y, z) =
2x − z
2z − x
(2, 0, 1) + y(0, 1, 0) +
(1, 0, 2)
3
3
end dus is (x, y, z) een element van vct(P ).
We vinden dat vct(P ) de volledige vectorruimte R3 is.
2. Neem K = R, V = R3 en
P = {(1, 0, 0), (0, 1, 0), }
Dan is
vct(P ) = λ(1, 0, 0)+ µ(0, 1, 0)
λ, µ ∈ R
= (λ, µ, 0) λ, µ ∈ R = (λ, µ, ν) ∈ V ν = 0
3. Neem K = R en
V = f f : R → R is een continue functie
Dan is V niet eindig voortgebracht.
77
3.1.3
Lineaire afhankelijkheid en onafhankelijkheid
Definitie 3.1.13 Zij P een deelverzameling van een vectorruimte V .
Men zegt dat P lineair onafhankelijk is als de enige nulcombinatie van P de
triviale nulcombinatie is.
Men zegt dat P lineair afhankelijk is als P niet onafhankelijk is.
We zullen dikwijls moeten aantonen dat een bepaalde verzameling P lineair
afhankelijk of onafhankelijk is. Dit gebeurt steeds met hetzelfde systeem.
• Als we van een gegeven verzameling P = {a1 , . . . , an } moeten aantonen
dat ze lineair onafhankelijk is dan doen we dit als volgt.
We onderstellen dat de lineaire combinatie
λ 1 a1 + · · · λ n an
een nulcombinatie is. We tonen dan aan dat de coëfficiënten λ1 , . . . , λn
noodzakelijk 0 moeten zijn.
• Als we moeten aantonen dat P lineair afhankelijk is dan moeten we
een concrete lineaire combinatie
λ 1 a1 + · · · λ n an
vinden die uitkomst 0 geeft en waarbij minstens één van de coëfficiënten
λ1 , . . . , λn verschillend is van 0.
Voorbeelden
1. In R3 zijn de vectoren (2, 1, 1), (1, 0, 2) en (0, 1, −3) lineair afhankelijk
want
1(2, 1, 1) − 2(1, 0, 2) + 1(0, 1, −3) = (0, 0, 0)
2. In R3 zijn de vectoren (1, 0, 0), (0, 1, 0) en (0, 0, 1) lineair onafhankelijk
want als
λ1 (1, 0, 0) + λ2 (0, 1, 0) + λ3 (0, 0, 1) = (0, 0, 0)
dan moet λ1 = λ2 = λ3 = 0.
78
Propositie 3.1.14 Zij V een vectorruimte.
1. Als x ∈ V dan is {x} lineair afhankelijk als en slechts als x = 0. Dit
betekent :
λ.x = 0 ⇐⇒ λ = 0 of x = 0
2. Twee vectoren x, y 6= 0 in V zijn lineair afhankelijk als en slechts als
er een element λ ∈ K ∗ bestaat zodat x = λ.y.
Bewijs 1) {0} is lineair afhankelijk want 1.0 is een niet triviale nulcombinatie.
Zij x ∈ V met λ.x = 0. Als λ 6= 0 dan bestaat λ−1 en
x = 1.x = (λ−1 .λ).x = λ−1 .(λ.x) = λ−1 .0 = 0
Dus λ = 0 of x = 0.
2) Als x = λ.y met λ 6= 0 dan is 1.x−λ.y = 0 een niet triviale nulcombinatie.
De vectoren x en y zijn dus lineair afhankelijk.
Omgekeerd, onderstel dat x en y lineair afhankelijk zijn. Dan bestaan er
α, β ∈ K zodat
α.x + β.y = 0 en α 6= 0 of β 6= 0
We tonen eerst aan dat zowel α als β verschillend van 0 zijn.
Als α = 0 dan is β.y = 0. Vermits y 6= 0 is y lineair onafhankelijk wegens
het eerste gedeelte van de stelling. Bijgevolg is ook β = 0. Dit is kan dus
niet. We vinden α 6= 0.
Op een analoge manier vinden we β 6= 0.
⇒ x = −(α−1 β).y
Vermits α en β niet 0 zijn is ook −α−1 .β 6= 0. Voor het element λ dat we
zoeken kunnen we dus −α−1 β nemen.
Propositie 3.1.15 Zij P ⊂ Q deelverzamelingen van de vectorruimte V .
1. Als Q lineair onafhankelijk is dan is P ook lineair onafhankelijk.
2. Als P lineair afhankelijk is dan is Q ook lineair afhankelijk.
79
Bewijs 1) Elke niet triviale nulcombinatie van P kan ook opgevat worden
als een niet triviale nulcombinatie van Q.
2) Dit is een herformulering van de voorgaande uitspraak.
Voorbeeld In R3 zijn de vectoren (1, 1, 1), (1, 1, 0) en (0, 1, 1) lineair onafhankelijk. (Verifieer dit!)
Als (1, 1, 1) en (0, 1, 1) lineair afhankelijk zouden zijn dan bestaat er λ ∈ R∗
zodat
(1, 1, 1) = λ.(0, 1, 1)
Maar dan is
(1, 1, 1) + 0.(1, 1, 0) − λ.(0, 1, 1) = 0
een niet triviale nulcombimnatie van drie onafhankelijke vectoren. Dit kan
niet.
Propositie 3.1.16 Zij V een vectorruimte en zij P een deelverzameling.
Dan zijn de volgende uitspraken equivalent.
1. P is lineair onafhankelijk.
2. elk element in vct(P ) is op een unieke manier te schrijven als lineaire
combinatie van P .
Bewijs
We geven het bewijs enkel in het geval dat P eindig is. Stel dan
P = {a1 , . . . , an }
(1 ⇒ 2) Elk element in vct(P ) is per definitie te schrijven als een lineaire
combinatie van P . We moeten dus enkel de uniciteit verifiëren.
Stel dat de vector x ∈ vct(P ) toch op twee manieren te schrijven is als lineaire
combinatie van P .
Dan is
x = λ1 .a1 + · · · + λn .an
en
x = µ1 .a1 + · · · + µn .an
80
waarbij λi 6= µi voor minstens één index i.
⇒ 0 = (λ1 − µ1 ).a1 + · · · + (λn − µn ).an
Hierbij is λi − µi 6= 0 voor minstens één index i. We hebben dus een niet
triviale nulcombinatie van P en dit kan niet.
(2 ⇒ 1) We weten nu dat elk element in vct(P ) een unieke lineaire combinatie is van P .
Onderstel dat P toch lineair afhankelijk zou zijn. Dan bestaat er een nulcominatie
λ1 .a1 + · · · + λn .an
met minstens één λi 6= 0. Maar de triviale nulcombinatie geeft dan een
tweede manier om de nulvector te schrijven als combinaite van P . Dit is
strijdig met de uniciteit.
3.1.4
Basissen en dimensie
Definitie 3.1.17 Een deelverzameling B van een vectorruimte V heet een
basis als B zowel lineair onafhankelijk als voortbrengend is voor V .
Uit propositie 3.1.16 volgt dat elke vector v ∈ V op een unieke manier te
schrijven is als een lineaire combinatie van de basis B.
Voorbeelden
1. Neem V = K n en stel
e1 = (1, 0, . . . , 0),
e2 = (0, 1, 0, . . . , 0), . . . ,
en = (0, . . . , 0, 1)
Dan is e1 , . . . , en een basis voor V . Men noemt deze basis de kanonieke
basis.
Als (x1 , . . . , xn ) ∈ K n dan is
(x1 , . . . , xn ) = x1 .e1 + · · · xn .en
Bijgevolg zijn de vectoren e1 , . . . , en voortbrengend.
81
Bovendien zijn de vectoren e1 , . . . , en lineair onafhankelijk want als
λ1 .e1 + · · · + λn .en = 0
dan is
(λ1 , . . . , λn ) = (0, . . . , 0)
en dus is λ1 = · · · = λn = 0.
2. De vectoren (1, 2) en (2, 1) vormen een basis voor R2 .
Als (x, y) ∈ R2 dan is
(x, y) = (
2x − y
2y − x
).(1, 2) + (
).(2, 1)
3
3
Bijgevolg zijn de vectoren voortbrengend voor R2 .
Als λ.(1, 2) + µ.(2, 1) = 0 dan is
λ + 2µ = 0
2λ + µ = 0
Bijgevolg is λ = µ = 0. Hieruit volgt dat de vectoren ook lineair
onafhankelijk zijn.
We zullen nu aantonen dat eindig voortgebrachte vectorruimten altijd een
basis hebben. We zullen zien hoe we basissen kunnen vinden.
Lemma 3.1.18 Zij v1 , . . . , vn een geordend stel lineair afhankelijke vectoren
in een vectorruimte V (met vi 6= 0). Dan bestaat er een eerste vector vi in
de rij die lineaire combinatie is van de voorgaande vectoren v1 , . . . , vi−1 .
Bewijs Vermits v1 6= 0 is {v1 } lineair onafhankelijk.
We kijken dan naar {v1 , v2 }. Als deze verzameling ook lineair onafhankelijk
is dan kijken we naar {v1 , v2 , v3 } enz. . . Vermits de vectoren v1 , . . . , vn lineair
afhankelijk zijn moeten we op een bepaald moment een index i vinden zodat
{v1 , . . . , vi−1 } lineair onafhankelijk is en zodat {v1 , . . . , vi } lineair afhankelijk
is.
Er bestaan dus coëfficiënten λ1 , . . . , λi ∈ K zodat
λ1 .v1 + · · · + λi .vi = 0
82
en zodat niet alle λk = 0.
Als de laatste coëfficiënt λi = 0 dan staat er eigenlijk een niet triviale nulcombinatie van v1 , . . . , vi−1 . Dit kan niet en dus is λi 6= 0.
We vinden
−1
vi = −(λ−1
i .λ1 ).v1 − · · · − (λi .λi−1 ).vi−1
Bijgevolg is vi een lineaire combinatie van v1 , . . . , vi−1 . Dat i de eerste index is
met deze eigenschap volgt uit het feit dat {v1 , . . . , vi−1 } lineair onafhankelijk
is.
Propositie 3.1.19 Als v1 , . . . , vn voortbrengende vectoren zijn voor een vectorruimte V en als de vector vi lineaire combinatie is van de overige vectoren
dan is de verzameling {v1 , . . . , 6 vi , . . . , vn } ook voortbrengend voor V .
Bewijs
Stel
vi = λ1 .v1 + · · · + λi−1 .vi−1 + λi+1 .vi+1 + · · · + λn .vn
Als v een vector is in V dan is v een lineaire combinatie van v1 , . . . , vn . Stel
v = µ1 .v1 + · · · + µn .vn
Dan is
v = µ1 .v1 + · · · +
µi .(λ1 .v1 + · · · + λi−1 .vi−1 + λi+1 .vi+1 + · · · + λn .vn )
+ · · · + µn .vn
en dus is
v = (µ1 + µi .λ1 ).v1 + · · · + (µi−1 + µi .λi−1 ).vi−1
+ (µi+1 + µi .λi+1 ).vi+1 + · · · + (µn + µi .λn ).vn
Bijgevolg is v een lineaire combinatie van {v1 , . . . , 6 vi , . . . , vn }
Propositie 3.1.20 (Schrapstelling) Als P een eindige voortbrengende verzameling is voor een vectorruimte V dan kan men deze verzameling verkleinen
tot een basis.
83
Bewijs Stel P = {v1 , . . . , vn }. We mogen onderstellen dat de vectoren vk
niet 0 zijn en dus zijn de verzamelingen {vk } lineair onafhankelijk.
Als P lineair onafhankelijk is dan is P een basis voor V .
Als P lineair afhankelijk is dan bestaat er een eerste index i zodat vi een lineaire combinatie is van de voorgaande vectoren. Uit de voorgaande stelling
volgt dat de verzameling P \ {vi } ook voortbrengend is voor V . We kunnen
nu deze redenering herhalen op de verzameling P \ {vi } enz...
Na een aantal schrappingen moeten we een lineair onafhankelijke verzameling overhouden want de verzamelingen {vk } zijn lineair onafhankelijk. De
lineair onafhankelijke verzameling die we nu bekomen hebben is nog steeds
voortbrengend en is dus een basis.
Gevolg 3.1.21 Een eindig voortgebrachte vectorruimte heeft steeds een basis.
Een tweede manier om een basis te construeren is gebaseerd op de volgende
fundamentele stelling.
Propositie 3.1.22 Zij V een vectorruimte en zij P ⊂ V een eindige voortbrengende verzameling. Als |P | = n dan heeft elk lineair onafhankelijk deel
van V hoogstens n elementen.
Bewijs Stel P = {e1 , . . . , en }. (We mogen onderstellen dat ek 6= 0.)
Zij B ⊂ V lineair onafhankelijk en onderstel dat |B| > n. Stel
B = {y1 , . . . , yn+1 , . . .}
Dan is
P ⊂ {y1 , e1 , . . . , en }
en dus is
V = vct(P ) ⊂ vct {y1 , e1 , . . . , en } ⊂ V
De verzameling
P1 = {y1 , e1 , . . . , en }
is dus ook voortbrengend. Vermits y1 lineaire combinatie is van P is deze
verzameling bovendien lineair afhankelijk.
∃ei zodat ei lineaire combinatie is van y1 , e1 , . . . , ei−1
84
Stel dan
Q1 = {y1 , e1 , . . . , 6 ei , . . . , en }
Deze verzameling is nog steeds voortbrengend voor V .
Stel nu
P2 = {y2 , y1 , e1 , . . . , 6 ei , . . . , en }
Dan is P2 voortbrengend. Vermits y2 lineaire combinatie is van Q1 is P2
lineair afhankelijk en dus is er een eerste vector in de rij die lineaire combinatie is van de voorgaande vectoren. Deze vector is één van de vectoren
e1 , . . . , 6 ei , . . . , en . Stel ej deze vector. Dan is de verzameling
Q2 = {y2 , y1 , e1 , . . . , 6 ei , . . . , 6 ej , . . . , en }
nog steeds voortbrengend voor V .
We herhalen deze procedure tot we vinden dat de verzameling
Qn = {yn , . . . , y1 }
ook voortbrengend is voor V .
⇒ yn+1 is lineaire combinatie van y1 , . . . , yn
⇒ {y1 , . . . , yn+1 } is lineair afhankelijk
Dit is een contradictie en bijgevolg is |B| ≤ |P |.
Propositie 3.1.23 (Uitbreidingstelling) Zij V een eindig voortgebrachte
vectorruimte. Dan is elke lineair onafhankelijke deelverzameling P ⊂ V uit
te breiden tot een basis voor V .
Bewijs Vermits V eindig voortgebracht is bestaat er eindige voortbrengende deelverzameling. Stel dat deze verzameling n elementen heeft. Dan is
|P | ≤ n. Stel
P = {e1 , . . . , ek }
Als P voortbrengend is voor V dan is P een basis. Als P niet voortbrengend
is dan is vct(P ) ( V en dus bestaat er een vector ek+1 ∈ V \ vct(P ).
De verzameling P1 = {e1 , . . . , ek+1 } is dan nog steeds lineair onafhankelijk.
85
We kunnen nu de redenering herhalen voor P1 enz... Na hoogstens n uitbreidingen vinden we een verzameling
Pm = {e1 , . . . , em }
die zowel lineair onafhankelijk als voortbrengend is.
De propositie 3.1.22 heeft nog een tweede belangrijke toepassing.
Propositie 3.1.24 Zij V een eindig voortgebrachte vectorruimte. Dan zijn
alle basissen voor V eindig en ze hebben allemaal evenveel elementen.
Bewijs Er bestaat een eindig voortbrengend deel voor P ⊂ V . Uit propositie 3.1.22 volgt dat het aantal elementen van elke basis hoogstens |P | is en
dus eindig is.
Stel nu dat B1 en B2 basissen zijn voor V . Dan geldt :
B1 voortbrengend
⇒ |B2 | ≤ |B1 |
B2 lineair onafhankelijk
en
B2 voortbrengend
B1 lineair onafhankelijk
⇒ |B1 | ≤ |B2 |
We vinden dus dat |B1 | = |B2 |.
Definitie 3.1.25 Zij V een eindig voortgebrachte vectorruimte. Het aantal
elementen van een willekeurige basis voor V noemt men de dimensie van V .
We noteren dit getal als dim(V ). We zeggen ook dat V eindigdimensionaal
is.
Voorbeelden
1. dim(K n ) = n want de kanonieke basis voor K n heeft n elementen.
2. Stel V = vct{(1, 2, 1), (1, 0, 1), (3, 2, 3)} ⊂ R3 . Dan is dim(V ) = 2 want
(3, 2, 3) = (1, 2, 1) + 2.(1, 0, 1)
en dus is V = vct{(1, 2, 1), (1, 0, 1)}. Bovendien zijn de vectoren (1, 2, 1)
en (1, 0, 1) lineair onafhankelijk.
86
Opmerking Zij V een eindigdimensionale vectorruimte en zij B ⊂ V een
eindige deelverzameling. Om na te gaan of B een basis is moeten we twee
dingen verifiëren : B is voortbrengend en B is lineair onafhankelijk.
Onderstel nu echter dat we een verzameling B hebben met |B| = dim(V ).
Als B voortbrengend is dan is B automatisch een basis. (Waarom ?) Als B
lineair onafhankelijk is dan is B ook automatisch een basis. (Waarom ?)
We bewijzen nu een aantal resultaten over dimensies van deelruimten.
Propositie 3.1.26 Zij V een deelruimte van een eindigdimensionale vectorruimte U . Dan is dim(V ) ≤ dim(U ).
Bewijs Zij B een basis voor V en zij B 0 een basis voor U . Vermits B
lineair onafhankelijk is en vermits B 0 voortbrengend is voor U volgt uit prop
3.1.22 dat
dim(V ) = |B| ≤ |B 0 | = dim(U )
Propositie 3.1.27 Zij V en W deelruimten van een eindigdimensionale vectorruimte U . Dan is
dim(V + W ) = dim(V ) + dim(W ) − dim(V ∩ W )
Bewijs Kies een basis e1 , . . . , en voor V ∩ W . We kunnen deze basis
uit breiden tot een basis e1 , . . . , en , a1 , . . . , ar voor V . We kunnen eveneens
uitbreiden tot een basis e1 , . . . , en , b1 , . . . , bs voor W .
We tonen aan dat e1 , . . . , en , a1 , . . . , ar , b1 , . . . , bs een basis is voor V + W .
a) Als u ∈ V + W dan is u = v + w met v ∈ V en w ∈ W . We kunnen v
en w schrijven als
Pn
P
v =
λi .ei + rj=1 αj .aj
i=1
Pn
Ps
w =
i=1 µi .ei +
k=1 βk .bk
⇒u=
n
X
(λi + µi ).ei +
i=1
r
X
j=1
87
αj .aj +
s
X
k=1
βk .bk
Bijgevolg zijn de vectoren e1 , . . . , en , a1 , . . . , ar , b1 , . . . , bs voortbrengend voor
V + W.
(Let op, het bewijs dat e1 , . . . , en , a1 , . . . , ar , b1 , . . . , bs voortbrengend zijn is
volledig af. We beginnen nu opnieuw met een volledig nieuwe redenering. De
coëfficiënten νi , αj , βk in het volgende deel van het bewijs hebben niets meer
te maken met de vorige coëfficiënten.)
We bewijzen nu dat de verzameling
{e1 , . . . , en , a1 , . . . , ar , b1 , . . . , bs }
lineair onafhankelijk is.
Onderstel dat
n
X
νi .ei +
i=1
r
X
αj .aj +
j=1
s
X
βk .bk = 0
k=1
een nulcombinatie is. Dan is
n
r
s
X
X
X
νi .ei +
αj .aj =
−βk .bk
i=1
j=1
k=1
Het linkerlid van deze gelijkheid is een vector in V en het rechter lid is een
vector in W . Bijgevolg liggen deze vectoren in V ∩ W en ze zijn dus te
schrijven als een lineaire combinatie van e1 , . . . , en .
⇒
n
X
i=1
νi .ei +
r
X
αj .aj =
j=1
s
X
−βk .bk =
n
X
k=1
τi .ei
i=1
voor zekere τ1 , . . . , τn ∈ K. We vinden
Pn
P
(νi − τi ).ei + rj=1 αj .aj = 0
i=1
Pn
Ps
i=1 τi .ei +
k=1 βk .bk = 0
Wegens de lineair onafhankelijkheid van {e1 , . . . , en , a1 , . . . , ar } en van
{e1 , . . . , en , b1 , . . . , bs } volgt hieruit dat
νi = αj = βk = 0 voor alle i, j, k
De vectoren e1 , . . . , en , a1 , . . . , ar , b1 , . . . , bs zijn dus lineair onafhankelijk en
vormen dus een basis voor V + W .
We vinden nu :
dim(V +W ) = n+r+s = (n+r)+(n+s)−n = dim(V )+dim(W )−dim(V ∩W )
88
Definitie 3.1.28 Zij V en W deelruimten van een vectorruimte U . Als
V ∩ W = 0 dan zegt men dat V + W de directe som is van V en W . We
noteren V ⊕ W in plaats van V + W .
Propositie 3.1.29 Zij V en W deelruimten van een vectorruimte U . Dan
is V ∩ W = 0 als en slechts als elke vector in V + W een unieke ontbinding
heeft van de vorm v + w met v ∈ V en w ∈ W .
Bewijs 1) Stel dat V ∩W = 0. Elke vector in V +W heeft een ontbinding
van de vorm v + w met v ∈ V en w ∈ W . We moeten enkel de uniciteit
controleren.
Stel dat u = v + w = v 0 + w0 twee ontbindigen zijn van u met v, v 0 ∈ V en
w, w0 ∈ W . Dat is v − v 0 = w0 − w. Deze gelijke vectoren liggen zowel in V
als in W en dus in V ∩ W . Bijgevolg is v − v 0 = w0 − w = 0.
⇒ v = v 0 en w = w0
2) Stel nu dat elk element in V + W een unieke ontbinding heeft. Als
u ∈ V ∩ W dan is 0 = 0 + 0 = u − u. Dit zijn twee ontbindingen van dezelfde
vector 0. Wegens de uniciteit van de ontbinding is u = 0. We vinden dus
dat V ∩ W = 0.
Gevolg 3.1.30 Als e1 , . . . , en een basis is voor een vectorruimte V dan is
V = vct{e1 } ⊕ · · · ⊕ vct{en }
Gevolg 3.1.31 Als U = V ⊕ W dan is
dim(V ⊕ W ) = dim(V ) + dim(W )
Definitie 3.1.32 Zij V en W deelruimten van een vectorruimte U . Als
U = V ⊕ W dan zegt men dat W een supplement is van V .
89
Propositie 3.1.33 Als V een deelruimte is van een vectorruimte U dan
bestaat er steeds een supplement voor V .
Bewijs Zij e1 , . . . , en een basis voor V . We kunnen deze basis aanvullen
tot een basis e1 , . . . , en , . . . , en+1 , . . . , em voor U .
Stel W = vct{en+1 , . . . , em }. Dan is W een supplement voor V .
3.1.5
Verandering van basis in een K-vectorruimte
Zij V een K-vectorruimte met dim(V ) = n. Stel dat {e1 , . . . , en } en {e01 , . . . , e0n }
twee basissen zijn voor V .
Een vector v ∈ V kan dan op twee manieren ontbonden worden als lineaire
combinatie.
v = x1 .e1 + · · · + xn .en
v = x01 .e01 + · · · + x0n .e0n
We zoeken het verband tussen de coëfficiënten x = (x1 , . . . , xn ) en
x0 = (x01 , . . . , x0n ).
Elke basisvector e0i is op een unieke manier te schrijven als een lineaire combinatie van e1 , . . . , en . Stel
n
X
0
ei =
aji ej
j=1
(Let op : we sommeren over de eerste index.)
Stel dan


a11 · · · a1n

.. 
A =  ...
. 
an1 · · · ann
We vinden dan dat
v =
=
=
=
Pn
0 0
i=1 xi .ei
Pn 0 Pn
aji ej
x.
Pni=1 Pi n j=1
0
xi .aji .ej
Pj=1
Pi=1
n
n
0
i=1 aji .xi ) ej
j=1 (
90
P
Vermits ook v = nj=1 xj .ej en vermits e1 , . . . , en lineair onafhankelijk zijn is
voor elke j = 1, . . . , n :
n
X
xj =
aji x0i
i=1
In matrixnotatie geeft dit
x = A.tx0
t
Opmerking We kunnen elke vector ei ook schrijven als lineaire combinatie
van e01 , . . . , e0n . Stel
n
X
ei =
bji .e0j
j=1
Dan is
P
e0i = nj=1 aji ej
P
P
= nj=1 aji ( nk=1 bkj e0k )
P
Pn
0
= nk=1
j=1 bkj aji ek
Hieruit volgt dat
n
X
bkj aji = 0 als k 6= i
j=1
en
n
X
bkj aji = 1 als k = i
j=1
Stel


b11 · · · b1n

.. 
B =  ...
. 
bn1 · · · bnn
Dan betekent dit dat B.A = In . Op een analoge manier bewijst men dat
A.B = In . We vinden dat A een inverteerbare matrix is en dat B = A−1 .
3.1.6
De nulruimte, de kolommenruimte en de rang
van een matrix
In dit deel associëren we met een matrix een aantal vectorruimten. We
geven ook een nieuwe definitie voor de rang van een matrix. We zullen dan
91
laten zien dat deze nieuwe definitie toch hetzelfde betekent als die in vorige
paragraaf.
Definitie 3.1.34 Zij A ∈ Mm,n een matrix. Stel
N (A) = x ∈ K n A.tx = 0
We noemen N (A) de nulruimte van A. De vectorrruimte K(A) ⊂ Mm,1
voortgebracht door de kolommen van A noemen we de kolommenruimte van
A. De dimensie van K(A) noemen we de rang van A. We noteren deze
dimensie als rg(A).
Propositie 3.1.35 Zij A ∈ Mm,n een matrix. Dan is de nulruimte N (A)
een deelruimte van K n .
Bewijs Zij x en y vectoren in de nulruimte N (A) en zij c, d ∈ K. Dan is
A.tx = 0 en A.ty = 0.
⇒ A.t(cx + dy) = cA.tx + dA.ty = 0
Bijgevolg is cx + dy ∈ N (A) en dus is N (A) een deelruimte van K n .
Propositie 3.1.36 Zij A ∈ Mm,n (K) een matrix en zij b ∈ K m een vector.
Het stelsel A.tX = tb heeft een oplossing als en slechts als tb ∈ K(A).
Bewijs Stel e1 , . . . , en de kanonieke basis voor K n en stel C1 , . . . , Cn de
kolommen van A. Dan is Ci = A.tei .
Onderstel dat x = (x1 , . . . , xn ) een oplossing is van het stelsel A.tX = tb Dan
is
n
n
n
X
X
X
t
b = A.tx = A.t(
xi .ei ) =
xi A.tei =
xi Ci ∈ K(A)
i=1
i=1
i=1
t
t
Omgekeerd, onderstel dat b ∈ K(A). Dan is b een lineaire combinatie van
de kolommen C1 , . . . , Cn . Stel
t
b=
n
X
i=1
92
ci Ci
en stel c = (c1 , . . . , cn ).
Dan is
t
t
A. c = A. (
n
X
ci .ei ) =
n
X
i=1
t
ci A. ei =
i=1
n
X
ci Ci = tb
i=1
Bijgevolg is c een oplossing van het stelsel.
Gevolg 3.1.37 Als x ∈ K n dan is A.tx een vector in de kolommenruimte
K(A).
Een verband tussen nulruimte en kolommenruimte wordt gegeven door de
volgende dimensieformule. We zullen deze formule later nog veralgemenen.
Propositie 3.1.38 Zij A ∈ Mm,n (K) een matrix.
Dan is
dim(N (A)) + dim(K(A)) = n
Bewijs We kiezen willekeurige {b1 , . . . , br } ∈ K n zodat {tb1 , . . . , tbr }een
basis is voor K(A). Uit de vorige stelling volgt dan het stelsel A.tX = tbi een
oplossing heeft voor elke i = 1, . . . , r. Kies oplossingen a1 , . . . , ar voor deze
stelsels.
Kies verder een willekeurige basis {c1 , . . . , cs } voor de nulruimte N (A).
We tonen aan dat {a1 , . . . , ar , c1 , . . . , cs } een basis is voor K n .
Als x ∈ K n dan is A.tx ∈ K(A). Bijgevolg is A.tx een lineaire combinatie
t
van de vectoren
b1 , . . . , tbr .
P
r
Stel A.tx = i=1 λi .tbi .
Dan is
A.t(x −
r
X
r
r
r
X
X
X
λi ai ) = A.tx − A.(
λi tai ) =
λi .tbi −
λi A.tai = 0
i=1
i=1
i=1
i=1
P
Dit betekent dat x − ri=1 λi ai ∈ N (A). Deze vector is dus een lineaire
combinatie
c1 , . . . , c s .
Ps
Prvan de vectoren
Stel x − i=1 λi ai = j=1 µj cj .
Dan is
r
s
X
X
x=
λ i ai +
µj c j
i=1
j=1
93
We vinden dus dat de verzameling {a1 , . . . , ar , c1 , . . . , cs } voortbrengend is
voor K n .
We tonen nu aan dat deze verzameling ook nog lineair onafhankelijk is.
Stel dat
r
s
X
X
λ i ai +
µj c j = 0
i=1
j=1
een nulcombinatie is.
Dan is
A.
t
r
X
i=1
λ i ai +
s
X
!
µj c j
=
j=1
r
X
t
λi A. ai +
i=1
X
t
µj A. cj =
j=1
r
X
λi tbi = 0
i=1
Vermits de vectoren tb1 , . . . , tbr lineair onafhankelijk zijn volgt hieruit dat
λ1 = · · · = λP
r = 0.
Bijgevolg is sj=1 µj cj = 0.
Vermits de vectoren c1 , . . . , cs ook lineair onafhankelijk zijn vinden we
µ1 = · · · = µs = 0. Dit bewijst de lineaire onafhankelijkheid.
Propositie 3.1.39 Als A ∈ Mm,n en B ∈ Mn,p matrixen zijn dan is
rg(A.B) ≤ rg(B)
Bewijs
Stel K1 , . . . , Kp de kolommen van B. Dan is B = (K1 . . . Kp ) en
A.B = (A.K1 . . . A.Kp )
Stel rg(B) = r. Uit de voortbrengende verzameling {K1 , . . . , Kp } kunnen
we kolommen schrappen tot we een basis voor K(B) overhouden. Stel dat
{Ki1 , . . . , Kir } zo een basis is. Elke kolom Kj is dan een lineaire combinatie
van deze basiskolommen en is dus te schrijven in de vorm
Kj =
r
X
cj,k Kik
(cj,k ∈ K)
k=1
Maar dan is
A.Kj =
r
X
k=1
94
cj,k A.Kik
Hieruit volgt dat de kolommenruimte K(A.B) wordt voortgebracht door
{A.Ki1 , . . . A.Kir }. Bijgevolg is rg(A.B) ≤ r.
Gevolg 3.1.40 Als A ∈ Mm,n en als C ∈ GLm (K) dan is rg(A) = rg(C.A).
Bewijs Uit de stelling volgt dat rg(C.A) ≤ rg(A).
Deze ongelijkheid geldt voor elke matrix A en elke C ∈ GLm (K). Vermits
ook C −1 ∈ GLm (K) vinden we
rg(A) = rg(C −1 .C.A) ≤ rg(C.A)
Hieruit volgt dus de gelijkheid.
We kunnen nu bewijzen dat de vroegere definitie van rg(A) hetzelfde getal
geeft als de nieuwe definitie.
Om een matrix A in rijechelonvorm te brengen moeten we deze A een aantal
keren aan linkerkant vermenigvuldigen met een omkeerbare matrix. De rang
van de matrix blijft dan ongewijzigd. We vinden dus dat A en de bekomen
rijechelonmatrix dezelfde rang hebben. Het is bovendien eenvoudig te verifiëren dat de rang van een rijechelonmatrix (in de nieuwe betekenis) juist
gelijk is aan het aantal leidende 1-en dat optreedt.
Propositie 3.1.41 Voor elke matrix A ∈ Mm,n is rg(A) = rg(tA).
Bewijs Zij A = (ai,j ) ∈ Mm,n . Stel K1 , . . . , Kn de kolommen van A en
stel R1 , . . . , Rm de rijen van A.
Stel rg(A) = r. We kiezen dan willekeurige b1 , . . . , br ∈ K n zodat {b1 , . . . , br }
een basis is
voor de
 kolommenruimte K(A).
b1,k
 .. 
t
Stel bk =  . .
bm.k
Dan is elke kolom Kj een lineaire combinatie van de basiskolommen en is
duste schrijven in de vorm
Kj = c1,j tb1 + · · · + cr,j tbr
95
(ci,j ∈ K)
Dit betekent dat
∀i = 1, . . . , m : ai,j = c1,j bi,1 + · · · + cr,j bi,r
en dus is
Ri = (ai,1 . . . ai,n ) =
r
X
ck,1 bi,k
k=1
r
X
ck,2 bi,k . . .
k=1
r
X
!
ck,n bi,k
k=1
=
r
X
bi,k (ck,1 . . . ck,n )
k=1
Na transponeren geeft dit


ck,1


t
Ri =
bi,k  ... 
k=1
ck,n
r
X
De kolommen van tA zijn juist tR1 , . . . tRm . Deze
in de ruimte



c1,1
cr,1
 .. 
 ..
vct( .  , . . . ,  .
c1,n
cr,n
kolommen liggen dus allen


)
Deze ruimte wordt voortgebracht door r kolommen. De dimensie is dus
hoogstens r. Bovendien is K(tA) een deelruimte van deze ruimte. Hieruit
volgt dat rg(tA) ≤ rg(A).
Deze ongelijkheid geldt voor elke matrix. Dus ook voor tA. We vinden dan
rg(A) = rg t(tA) ≤ rg(tA)
We vinden zo dat rg(A) = rg(tA).
3.2
Lineaire afbeeldingen
Definitie 3.2.1 Zij V en W vectorruimte. Een functie f : V → W is een
lineaire afbeelding als
96
1. ∀v, v 0 ∈ V : f (v + v 0 ) = f (v) + f (v 0 )
2. ∀λ ∈ K, v ∈ V : f (λ.v) = λ.f (v)
Als f bovendien bijectief is dan zeggen we dat f een isomorfisme is.
Als er tussen de vectorruimtem V en W een isomorfisme bestaat dan zeggen
we dat V en W isomorfe vectorruimten zijn. We noteren dan V ∼
= W.
Voorbeelden
1. f : R3 → R2 met f (x, y, z) = (x − z, y − z).
2. f : R2 → R2 met f een rotatie met centrum (0,0) over een hoek θ.
Propositie 3.2.2 Zij V en W vectorruimten en zij f : V → W een functie.
Dan is f een lineaire afbeelding als en slechts als
∀λ, µ ∈ K en v, w ∈ V : f (λ.v + µ.w) = λ.f (v) + µ.f (w)
Bewijs
Onderstel dat f lineair is. Als λ, µ ∈ K en als v, w ∈ V dan is
f (λ.v + µ.w) = f (λ.v) + f (µ.w) = λ.f (v) + µ.f (w)
Omgekeerd, onderstel dat de bovenstaande formule geldt voor alle λ, µ ∈ K
en v, w ∈ V . Als we µ = 0 en w = v kiezen dan geeft deze formule
∀λ ∈ K, v ∈ V : f (λ.v) = f (λ.v + 0.v) = λ.f (v) + 0.f (v) = λ.f (v)
Als we λ = µ = 1 nemen dan geeft de formule
∀v, w ∈ V : f (v + w) = f (v) + f (w)
Propositie 3.2.3 Zij f : V → W een lineaire afbeelding.
1. Als U een deelruimte is van V dan is f (U ) een deelruimte van W .
2. Als U 0 een deelruimte is van W dan is f −1 (U 0 ) een deelruimte van V .
97
Bewijs 1) Zij λ, µ ∈ K en zij a, b ∈ f (U ). Dan is a = f (u) en b = f (v)
voor zekere u, v ∈ U .
⇒ λ.a + µ.b = λ.f (u) + µ.f (v) = f (λ.u + µ.v ) ∈ f (U )
| {z }
∈U
Uit Prop 3.2.2 volgt nu dat f (U ) een deelruimte is van W .
2) Zij λ, µ ∈ K en zij u, v ∈ f −1 (U 0 ). Dit betekent dat f (u), f (v) ∈ U 0 .
⇒ f (λ.u + µ.v) = λ.f (u) + µ.f (v) ∈ U 0
Dit betekent dat λ.u + µ.v ∈ f −1 (U 0 ) en uit Prop 3.2.2 volgt dan dat f −1 (U 0 )
een deelruimte is van V .
Gevolg 3.2.4 Zij f : V → W een lineaire afbeelding. Dan geldt :
1. f (0) = 0
2. f (V ) is een deelruimte van W
3. v ∈ V f (v) = 0 is een deelruimte van V
Bewijs 1) {0} is een deelruimte van V en dus is {f (0)} een deelruimte
van W . Vermits een deelruimte altijd de nulvector bevat is f (0) = 0.
2) Dit volgt rechtstreeks uit de voorgaande stelling, toegepast op V zelf.
3) Dit volgt ook rechtstreeks uit de voorgaande stelling, toegepast op de
deelruimte {0} van W .
Definitie 3.2.5 Zij f : V → W een lineaire afbeelding.
1. Men noemt de deelruimte f (V ) ⊂ W de beeldruimte van f . Men noteert
deze deelruimte als Im(f ).
2. Men noemt de deelruimte v ∈ V f (v) = 0 de kern van f . Men
noteert deze deelruimte als Ker(f ).
98
Voorbeeld
Neem f : R3 → R2 met f (x, y, z) = (x − z, y − z). Dan is
∀(a, b) ∈ R2 : (a, b) = f (a, b, 0) ∈ Im(f )
en dus is Im(f ) = R2 .
∀(x, y, z) ∈ R3 : (x, y, z) ∈ Ker(f ) ⇐⇒
(x − z, y − z) = (0, 0) ⇐⇒ x = y = z
Bijgevolg is Ker(f ) = (x, x, x) x ∈ R .
Propositie 3.2.6 Zij f : V → W een lineaire afbeelding. Dan geldt :
1. f is injectief ⇐⇒ Ker(f ) = 0
2. f is surjectief ⇐⇒ Im(f ) = W
Bewijs
1) Stel dat f injectief is. Dan heeft men
x ∈ Ker(f ) ⇐⇒ f (x) = 0 ⇐⇒ f (x) = f (0) ⇐⇒ x = 0
en dus Ker(f ) = 0.
Omgekeerd, stel dat Ker(f ) = 0. Als f (x) = f (y) dan is
f (x − y) = f (x) − f (y) = 0
en dus x − y ∈ Ker(f ) en dus x − y = 0.
2) Dit is juist de definitie van surjectiviteit.
Als we een functie f willen definiëren tussen twee verzamelingen A en B dan
moeten we voor elk element uit A op een ondubbelzinnige manier een beeld
in B vastleggen.
Om een lineaire afbeelding tussen twee vectorruimten te definiëren hebben
we echter veel minder data nodig. Dit blijkt uit de volgende stelling.
Propositie 3.2.7 Zij V en W eindigdimensionale vectorruimten en zij e1 , . . . , en
een geordende basis voor V . Zij c1 , . . . , cn een willekeurig stel vectoren in W .
99
1. Dan bestaat er een unieke lineaire afbeelding f : V → W zodat
f (e1 ) = c1 , . . . , f (en ) = cn
2. De lineaire afbeelding f is injectief als en slechts als c1 , . . . , cn lineair
onafhankelijk zijn in W .
3. De lineaire afbeelding f is surjectief als en slechts als c1 , . . . , cn voortbrengend zijn voor W .
Bewijs
1) Elke vector v ∈ V heeft een unieke ontbinding van de vorm
v = λ1 .e1 + · · · + λn .en
Definieer
f (v) = λ1 .c1 + · · · + λn .cn
Het is duidelijk dat f (e1 ) = c1 , . . . , f (en ) = cn .
Bovendien is f lineair. (Verifieer!)
Voor elke lineaire afbeelding f 0 die ei afbeeldt op ci geldt bovendien dat
f 0 (v) = λ1 .f (e1 ) + · · · + λn .f (en ) = λ1 .c1 + · · · + λn .cn = f (v)
Dit bewijst de uniciteit van f .
2) De lineaire afbeelding f is injectief als en slechts als Ker(f ) = {0}. Een
vector x = λ1 .e1 + . . . + λn .en ligt nu juist in Ker(f ) als en slechts als
λ1 .c1 + . . . + λn .cn = 0
We vinden dus :
f injectief
⇐⇒
⇐⇒
Pn
(λ1 , . . . , λn ) i=1 λi .ci = 0 = {(0, . . . , 0)}
c1 , . . . , cn lineair onafhankelijk
3) De afbeelding f is surjectief als en slechts als Im(f ) = W . Vermits
Im(f ) = λ1 .c1 + · · · + λn .cn λ1 , . . . , λn ∈ K = vct(c1 , . . . , cn )
Vinden we
f surjectief ⇐⇒ W = vct(c1 , . . . , cn )
100
Gevolg 3.2.8 Een lineaire afbeelding f : V → W ligt volledig vast als de
beelden van een stel basisvectoren bepaald zijn.
Propositie 3.2.9 Zij f : V → W een lineaire afbeelding. Dan is
dim(V ) = dim(Ker(f )) + dim(Im(f ))
Bewijs Kies een basis e1 , . . . , en voor Ker(f ). We kunnen deze basis
aanvullen tot een basis e1 , . . . , en , en+1 , . . . , em voor V . (Met deze notaties is
dus dim(Ker(f )) = n en dim(V ) = m.)
Als w ∈ Im(f ) dan is w = f (v) voor zekere v ∈ V . Stel
v = λ1 .e1 + · · · + λm .em
Dan is
w = λ1 .f (e1 ) + · · · + λn .f (en ) + · · · + λm .f (em )
= λn+1 .f (en+1 ) + · · · λm .f (em )
want f (e1 ) = · · · = f (en ) = 0. Hieruit volgtdat de vectoren f (en+1 ), . . . , f (em )
voortbrengend zijn voor Im(f ).
Stel nu dat
µn+1 .f (en+1 ) + · · · + µm .f (em ) = 0
Dan is
f (µn+1 .f (en+1 ) + · · · + µm .f (em )) = 0
en dus is
µn+1 .en+1 + · · · + µm .em ∈ Ker(f )
Vermits de vectoren e1 , . . . , en voortbrengend zijn voor Ker(f ) bestaan er
µ1 , . . . , µn ∈ K zodat
µ1 .e1 + · · · + µn .en = µn+1 .en+1 + · · · + µm .em
Vermits de vectoren e1 , . . . , em lineair onafhankelijk zijn volgt hieruit dat
µ1 = · · · = µm = 0
Bijgevolg zijn de vectoren f (en+1 ), . . . , f (em ) lineair onafhankelijk. Ze vormen bijgevolg een basis voor Im(f . We vinden dat
dim(Im(f )) = m − n = dim(V ) − dim(Ker(f ))
101
Propositie 3.2.10 (Alternatiefstelling) Zij U en V eindigdimensionale
vectorruimten met dim(U ) = dim(V ) en zij f : U → V een lineaire afbeelding. Dan geldt :
f is injectief ⇐⇒ f is surjectief ⇐⇒ f is bijectief
Bewijs Het volstaat om aan te tonen dat f injectief is als en slechts als f
surjectief is.
Zij e1 , . . . , en een basis voor U . Dan geldt :
f is injectief
⇐⇒
⇐⇒
⇐⇒
⇐⇒
f (e1 ), . . . , f (en ) lineair onafhankelijk in V
f (e1 ), . . . , f (en ) basis voor V
f (e1 ), . . . , f (en ) voortbrengend voor V
f surjectief
(Merk de gelijkenis met het Pigeonhole principe.)
Zij nu f : V → W een lineaire afbeelding. Zij e1 , . . . , en een (geordende)
basis voor V en zij f1 , . . . , fm een (geordende) basis voor W . Elke vector
f (ei ) kan dan geschreven worden als een lineaire combinatie van f1 , . . . , fm .
Stel
m
X
f (ei ) =
λji .fj
j=1
met λji ∈ K. We kunnen de elementen λji opvatten als coëfficiënten van een
(m, n)-matrix. Men noemt deze matrix de matrix van f ten opzichte van de
basissen {e1 , . . . , en } en {f1 , . . . , fm }. We noteren deze matrix meestal als
M (f ).


λ11 λ12 · · · λ1n
 λ21 λ22 · · · λ2n 


M (f ) =  ..

..
 .

.
λm1 λm2 · · · λmn
Let op de afmetingen van M (f ) !
Vermits f volledig bepaald is door de beelden van e1 , . . . , en en vermits elk van
deze beelden bepaald is door de coëfficiënten λij is f zelf volledig bepaald
102
door de matrix M (f ). We kunnen een lineaire afbeelding dus beschrijven
met een beperkt aantal data. We zullen verder zien dat rekenen met lineaire
afbeeldingen overeenkomt met rekenen met de matrixenvoorstellingen. We
hebben hier dus te doen met een zeer efficiënte methode.
Als v ∈ V een vector is dan is v te schrijven als lineaire combinatie van
e1 , . . . , en en f (v) is een lineaire combinatie van f1 , . . . , fm . We zoeken
het verband tussen de coëfficiënten van v ten opzichte van e1 , . . . , en en de
coëfficiënten van f (v) ten opzichte van f1 , . . . , fm .
Stel dat
v = x1 .e1 + · · · + xn .en en f (v) = y1 .f1 + · · · + ym .fm
De vector f (v) is dan ook nog gelijk aan
f (v) = x1 .f (e1 ) + · · · + xn .f (en )
En dus is
P
m
j=1
P
m
j=1
f (v) = x1
λj1 fj + · · · + xn
λjn fj
Pn
Pn
= ( i=1 λ1i xi ) .f1 + · · · + ( i=1 λmi xi ) .fm
Bijgevolg is
m
X
j=1
yj .fj =
m
n
X
X
j=1
!
λji .xi fj
i=1
en dus is
∀j = 1, · · · , m : yj =
n
X
λji .xi
(∗)
i=1
We kunnen de formules (*) dan samenvatten

 
x1

 
M (f ).  ...  = 
xn
in matrixvorm :

y1
.. 
. 
ym
Opmerking Als de vectorruimten V en W dezelfde zijn dan nemen we bij
voorkeur twee keer dezelfde basis.
Voorbeelden
103
1. f : R3 → R2 met f (x, y, z) = (x − z, y − z)
Kies in R3 de kanonieke basis
e1 = (1, 0, 0),
e2 = (0, 1, 0),
e3 = (0, 0, 1)
en voor R2 de kanonieke basis
f1 = (1, 0),
f2 = (0, 1)
Dan is
f (e1 ) =
(1, 0)
=
1. f1 + 0. f2
f (e2 ) =
(0, 1)
=
0. f1 + 1. f2
f (e3 ) = (−1, −1) = −1. f1 − 1. f2
Bijgevolg is
M (f ) =
1 0 −1
0 1 −1
En als f (x, y, z) = (s, t) dan is
1 0 −1
0 1 −1


x
s


. y
=
t
z
We zien in dit voorbeeld dat de matrixvoorstelleing heel eenvoudig te
vinden is als we werken met de kanonieke basissen. Spijtig genoeg is
dit niet altijd mogelijk.
2. f : R3 → R2 met f (x, y, z) = (x − z, y − z) Neem nu voor R3 de basis
e1 = (0, 1, 1),
e2 = (1, 0, 1),
e3 = (1, 1, 0)
en voor R2 de basis
f1 = (2, 1),
Dan is
f2 = (1, 2)
f (e1 ) = (−1, 0) = − 32 .f1 + 13 .f2
1
f (e2 ) = (0, −1) =
.f − 23 .f2
3 1
1
.f + 13 .f2
f (e3 ) = (1, 1) =
3 1
en bijgevolg is
M (f ) =
− 23
1
3
104
1
3
− 23
1
3
1
3
Als (x, y, z) ∈ R3 en als f (x, y, z) − (s, t) dan is
(x, y, z) =
−x + y + z
x−y+z
x+y−z
.e1 +
.e2 +
.e3
2
2
2
en
2s − t
2t − s
.f1 +
.f2
3
3
(s, t) =
De matrixformule geeft dan
− 23
1
3
1
3
− 23
1
3
1
3
−x+y+z
2
x−y+z
2
x+y−z
2

.

=
2s−t
3
2t−s
3
3. Stel Id : V → V de identieke afbeelding op een eindigdimensinale
vectorruimte V . Als we in V twee keer dezelfde basis kiezen dan is
M (Id) = In .
Na keuze van geordende basissen e1 , . . . , en voor V en f1 , . . . , fm voor W
heeft elke lineaire afbeelding van V naar W een uniek bepaalde matrix. We
kunnen echter ook omgekeerd te werk gaan.
Zij A = (aji ) ∈ Mm,n (K) een matrix. Stel dan
ci =
m
X
aji .fj
(i = 1, . . . , n)
j=1
Dan bestaat er een unieke lineaire afbeelding f : V → W zodat f (ei ) = ci
voor elke i = 1, . . . , n. Dit betekent juist dat de matrix van f ten opzichte
van deze basissen de matrix A is.
We vinden dus dat er een 1-1 correspondentie is tussen lineaire afbeeldingen
van V naar W en (m, n)-matrixen
De matrix van een lineaire afbeelding hangt af van de basiskeuze. We zullen
nu nagaan wat er gebeurt bij overgang naar nieuwe basissen.
Propositie 3.2.11 Zij f : V → W een lineaire afbeelding. Zij e1 , . . . , en
0
en e01 , . . . , e0n geordende basissen voor V en zij f1 , . . . , fm en {f10 , . . . , fm
}
geordende basissen voor W . Onderstel
e0i
=
n
X
uji .ej
en
j=1
fk0
=
m
X
l=1
105
vlk .fl
Stel U = (uji ) ∈ Mnn en V = (vlk ) ∈ Mmm .
Stel M = (aji ) ∈ Mmn de matrix van f ten opzichte van de basissen e1 , . . . , en
en f1 , . . . , fm . Stel M 0 = (a0ji ) de matrix van f ten opzichte van de basissen
0
e01 , . . . , e0n en f10 , . . . , fm
. Dan is
M 0 = V −1 .M.U
Bewijs
Oefening !
Gevolg 3.2.12 Zij f : V → V een linieaire afbeelding en zij e1 , . . . , en en
e01 , . . . , e0n basissen voor V . Stel
e0i
=
n
X
aji .ej
j=1
Stel U = (aji ) en stel M de matrix van f ten opzichte van de basis e1 , . . . , en
en M 0 de matrix van f ten opzichte van de basis e01 , . . . , e0n . Dan is
M 0 = U −1 .M.U
Propositie 3.2.13 Zij U, V en W eindigdimensionale vectorruimten en zij
f : U → V en g : V → W lineaire afbeeldingen.
Na een keuze van geordende basissen voor U, V en W geldt dan
M (g ◦ f ) = M (g).M (f )
Bewijs Zij e1 , . . . , ep een basis voor U . Zij f1 , . . . , fn een basis voor V en
zij g1 , . . . , gm een basis voor W .
Stel M (f ) = (aji ), M (g) = (blk ) en M (g ◦ f ) = (cts ) de matrixen van f, g en
g ◦ f ten opzichte van deze basissen. Dan geldt dus :
f (ei ) =
n
X
aji .fj ,
g(fk ) =
j=1
m
X
blk .gl ,
g ◦ f (es ) =
l=1
Maar we hebben ook :
g ◦ f (es ) =
=
=
=
P
g(f (es )) = g( nj=1 ajs .fj )
Pn
ajs .g(fj )
Pj=1
P
n
ajs ( m
b .g )
j=1
Pm Pn t=1 tj t
t=1 (
j=1 btj ajs )gt
106
m
X
t=1
cts .gt
Bijgevolg is
cts =
n
X
btj .ajs
j=1
Dit beteken dat M (g ◦ f ) = M (g).M (f ).
Gevolg 3.2.14 Een lineaire afbeelding f : V → W is een isomorfisme als
en slechts als M (f ) een inverteerbare matrix is.
In dat geval is M (f )−1 = M (f −1 ).
Bewijs Kies geordende basissen e1 , . . . , en voor V en f1 , . . . , fn voor W .
Dan is f ◦ f −1 = IdW en f −1 ◦ f = IdV . Bijgevolg is
M (f ).M (f −1 ) = M (f ◦ f −1 ) = M (IdW ) = In
en
M (f −1 ).M (f ) = M (f−1 ◦ f ) = M (IdV ) = In
Hieruit volgt dat M (f )−1 = M (f −1 ).
We geven nog een toepassing van het voorgaande.
Zij f : V → W een lineaire afbeelding tussen eindigdimensionale vectorruimten V en W . Zij e1 , . . . , en een basis voor V en zij f1 , . . . , fm een basis
voor W . Stel
PA = (aij ) de matrix van f ten opzichte van deze basissen. Een
vector x = ni=1 xi .ei ligt in de kern van f als en slechts als f (x) = 0. Dus
x ∈ Ker(f )
⇐⇒
⇐⇒
⇐⇒
⇐⇒
⇐⇒
fP(x) = 0
n
xi .fP
(ei ) = 0
Pi=1
n
m
i .(
i=1 xP
j=1 aji .fj ) = 0
Pm
n
(
i=1 aji xi )fj = 0
Pj=1
n
i=1 aji xi = 0 voor alle j = 1, . . . , n
Dit betekent dat (x1 , . . . , xn ) een oplossing is van het homogene stelsel

  
X1
0
 ..   .. 
A.  .  =  . 
Xn
0
107
en dus is (x1 , . . . , xn ) een element van de nulruimte N (A).
Als w ∈ Im(f ) dan bestaat er een vector v ∈ V zodat f (v) = w.
Stel v = x1 .e1 + · · · + xn .en en stel w = b1 .f1 + · · · + bm .fm .
Stel b = (b1 , . . . , bm ).
Dan is
A.tx = tb
Bijgevolg is tb een element van de kolommenruimte K(A).
We zien hier dat de dimensieformule
dim(V ) = dim(Ker(f )) + dim(Im(f ))
hetzelfde is als
n = dim(N (A)) + dim(K(A))
3.3
3.3.1
Een eenvoudige matrixvoorstelling
Eigenwaarden en eigenvectoren
In deze paragraaf is V steeds een n-dimensionale vectorrruimte.
We bestuderen lineaire afbeeldingen f : V → V . Zulk een lineaire afbeelding
noemt men een endomorfisme van V .
Propositie 3.3.1 Zij f : V → V een lineaire afbeelding. Dan bestaan er
basissen e1 , . . . , en en f1 , . . . , fn voor V zodat de matrix van f ten opzichte
van deze basissen van de volgende vorm is


0 | 0
M (f ) =  − − − 
0 | Ik
Bewijs Kies een basis e1 , . . . , em voor Ker(f ). Vermits deze vectoren
lineair onafhankelijk zijn kunnen we de rij aanvullen tot een basis
e1 , . . . , em , em+1 , . . . , en
voor V .
Stel fm+1 = em+1 , . . . , fn = en . We tonen aan dat fm+1 , . . . , fn een basis is
voor Im(f ).
108
Als v ∈ Im(f ) dan is v = f (u) voor zekere u ∈ V .
Stel
u = c1 .e1 + · · · + cn .en
Dan is
v = f (u) = c1 .f (e1 ) + · · · + cn .f (en ) = cm+1 .fm+1 + · · · + cn .fn
Bijgevolg is Im(f ) = vct{fm+1 , . . . , fn }.
Vermits
dim(Im(f )) = dim(V ) − dim(Ker(f )) = n − m = |{fm+1 , . . . , fn }|
is {fm+1 , . . . , fn } een basis voor Im(f ).
We kunnen de rij vectoren fm+1 , . . . , fn dus aanvullen tot een nieuwe basis
f1 , . . . , fm , fm+1 , . . . , fn voor V . Ten opzichte van de basissen e1 , . . . , en en
f1 , . . . , fn heeft M (f ) de gewenste vorm.
We vinden dus een zeer eenvoudige voorstelling van de lineaire afbeelding
f . De complexiteit van de situatie zit echter verscholen in de keuze van de
basissen. Het zou beter zijn als we een eenvoudige matrixvoorstelling voor f
zouden vinden ten opzichte van twee keer dezelfde basis voor V .
We zoeken een basis e1 , . . . , en voor V zodat de matrix van f een diagonaalmatrix wordt, d.w.z.


c1 0 . . . 0
 0 c2 . . . 0 


M (f ) = 

.
..


0 0 . . . cn
Als zo een basis bestaat dan is f (ei ) = ci .ei voor elke vector ei . We zeggen
dan dat de matrix van f diagonaliseerbaar is.
Definitie 3.3.2 Zij f een endomorfisme van V . Een vector v ∈ V met
v 6= 0 en waarvoor geldt dat f (v) = c.v noemt men een eigenvector van f .
Het getal c noemt men de corresponderende eigenwaarde.
109
Opmerking De begrippen uit deze definitie worden ook voor matrixen
gebruikt We kijken hiervoor naar het volgende bijzonder geval.
Zij A ∈ Mn,n (K) een matrix. Definieer dan een lineaire afbeelding
f : Kn → Kn
door f (x) = x.tA. Een vector x is dan een eigenvector van f als x 6= 0 en als
x.tA = c.x voor zekere c ∈ K, dit betekent dat A.tx = c.tx. We zeggen dan
dat x een eigenvector is van A met eigenwaarde c.
Om de matrix van f te diagonaliseren hebben we dus een basis nodig die
bestaat uit eigenvectoren. We zullen eerst de eigenwaarden van f opzoeken.
Propositie 3.3.3 Een getal c ∈ K is een eigenwaarde van het endomorfisme
f : V → V als en slechts als het endomorfisme f − c.IdV niet injectief is.
Bewijs Als c een eigenwaarde is dan bestaat er een vector v ∈ V zodat
v 6= 0 en zodat f (v) = c.v. Dit betekent dat (f − c.IdV )(v) = 0 en dus is
Ker(f − c.IdV ) 6= 0. Dit betekent dat f − c.IdV niet injectief is.
Omgekeerd, als f − c.IdV niet injectief is dan bestaat er vector v in de kern
met v 6= 0. Deze vector is dan een eigenvector van f met eigenwaarde c.
Zij nu e1 , . . . , en een willekeurige basis voor V en zij A = (ai,j ) de matrixvoorstelling van f ten opzichte van deze basis.Als c ∈ K dan is de matrixvoorstelling van f − c.IdV gelijk aan A − c.In .
Oplossingen x = (x1 , . . . , xn ) van het stelsel (A − c.In ).tX = 0 komen overeen
met vectoren x1 e1 +· · ·+xn en in Ker(f −c.IdV ). Het endomorfisme f −c.IdV
is dus niet injectief als en slechts als het stelsel
(A − c.In ).tX = 0
een niet triviale oplossing heeft. Dit is het geval als en slechts als
det(A − c.In ) = 0
We vinden dus :
c is een eigenwaarde van f ⇐⇒
c is oplossing van de vergelijking det(A − t.In ) = 0
110
Propositie 3.3.4 Zij e1 , . . . , en en f1 , . . . , fn twee basissen voor V en zij
f : V → V een endomorfisme. Stel A = (aij ) en A0 = (a0ij ) de matrixen van
f ten opzichte van deze basissen. Dan is
det(A − t.In ) = det(A0 − t.In )
Bewijs Stel U P
= (uij ) de overgangsmatrix tussen de twee basissen. We
hebben dus ej = ni=1 uij fi . Bovendien is U omkeerbaar en A0 = U.A.U −1 .
Bijgevolg is
det(A0 − t.In ) = det(U.A.U −1 − t.U.U −1 ) = det(U.(A − t.In )U −1 )
= det(U ).det(A − t.In )det(U −1 ) = det(A − t.In )
Merk op dat de uitdrukking det(A − t.In ) na uitwerking een n-de graads
veelterm in t geeft met ±1 als hoogste graadscoëfficiënt. Deze veelterm hangt
niet af van de gekozen basis e1 , . . . , en voor V maar hangt uitsluitend af van
de afbeelding f . Men noemt det(A − t.In ) de karakteristieke veelterm van f .
Propositie 3.3.5 Als f : V → V een lineaire afbeelding is dan heeft f
hoogstens n eigenwaarden (multipliciteiten meegerekend).
Bewijs De eigenwaarden zijn juist de wortels van de karakteristieke veelterm van f . Aangezien deze veelterm graad n heeft zijn er hoogstens n
verschillende eigenwaarden.
Propositie 3.3.6 Zij c1 , . . . , cm onderling verschillende eigenwaarden van
de lineaire afbeelding f : V → V en zij v1 , . . . , vm corresponderende eigenvectoren. Dan zijn de vectoren v1 , . . . , vm lineair onafhankelijk.
Bewijs Onderstel dat de vectoren v1 , . . . , vm lineair afhankelijk zijn. Dan
bestaat er een eerste vector vk in de rij die lineaire combinatie is van de
voorgaande vectoren v1 , . . . , vk−1 . Dit betekent dat
vk = a1 .v1 + · · · + ak−1 .vk−1
111
(a1 , . . . , ak ∈ K)
en dat de vectoren v1 , . . . , vk−1 lineair onafhankelijk zijn. We vinden dan
ck .vk = f (vk ) = a1 f (v1 ) + · · · + ak−1 .f (vk−1 )
= c1 a1 v1 + · · · + ck−1 .ak−1 .vk−1
en anderzijds is
ck vk = ck a1 v1 + · · · + ck .ak−1 .vk−1
Bijgevolg is
(c1 − ck )a1 v1 + · · · + (ck−1 − ck )ak−1 vk−1 = 0
Vermits de vectoren v1 , . . . , vk−1 lineair onafhankelijk zijn volgt hieruit dat
(c1 − ck )a1 = · · · = (ck−1 − ck )ak−1 = 0
Vermits de eigenwaarden c1 , . . . , ck onderling verschillend zijn volgt hieruit
dat a1 = · · · = ak−1 = 0. Maar dit betekent dat vk = 0. Dit is strijdig met
het feit dat vk een eigenvector is.
De vectoren v1 , . . . , vm zijn dus lineair onafhankelijk.
Gevolg 3.3.7 Als de karakteristieke veelterm n verschillende eigenwaarden
heeft dan dan is de matrix van f diagonaliseerbaar
Bewijs Kies voor elke eigenwaarde een corresponderende eigenvector. Deze
n vectoren zijn lineair onafhankelijk. Vermits dim(V ) = n vormen de vectoren een basis. Ten opzichte van deze basis is de matrixvoorstelling van f
een diagonaalmatrix (met de verschillende eigenwaarden op de diagonaal).
Definitie 3.3.8 Als c ∈ K een eigenwaarde is van de lineaire afbeelding
f : V → V , stel dan
Vc = v ∈ V f (v) = c.v)
Men noemt Vc de eigenruimte met eigenwaarde c.
112
Uit de definitie volgt dat Vc bestaat uit alle eigenvectoren met eigenwaarde
c samen met de nulvector.
Propositie 3.3.9 Als c een eigenwaarde is van het endomorfisme f : V → V
dan is Vc een deelruimte van V .
Bewijs Het is duidelijk dat Vc = Ker(f − c.IdV ). Bijgevolg is Vc een
deelruimte.
Definitie 3.3.10 Zij f : V → V een endomorfisme en zij c een eigenwaarde
van f . Dan noemt men de dimensie van de eigenruimte Vc de geometrische
multipliciteit van c. De multipliciteit van c als wortel van de karakteristieke
veelterm van f noemt men de algebraische multipliciteit. Het getal m is
dus de algebraische multipliciteit van c als de karakteristieke veelterm P (t)
deelbaar is door (t−c)m maar niet deelbaar is door (t−c)m+1 . Anders gezegd,
er bestaat een veelterm Q(t) met P (t) = (t − c)m Q(t) en met Q(c) 6= 0.
Propositie 3.3.11 Zij f : V → V een endomorfisme en zij c een eigenwaarde van f . Dan is de geometrische multipliciteit van c altijd kleiner of
gelijk aan de algebraische multipliciteit.
Bewijs Stel P (t) de karakteristieke veelterm van f .
Stel dim(Vc ) = r en stel m de algebraische multipliciteit van c. Dan is
P (t) = (t − c)m .Q(t) met Q(t) een veelterm zodat Q(c) 6= 0.
Kies een basis e1 , . . . , er voor Vc . We kunnen de rij dan aanvullen tot een
basis e1 , . . . , en voor V . Ten opzichte van deze basis heeft f een matrix van
de vorm :


c
B


..


.




c
0
C
waarbij B een (r, n − r)-matrix en C een (n − r, n − r)-matrix is. Voor de
karakteristieke veelterm vinden we dan


c−t
B


...


P (t) = det 



c−t
0
C − t.In−r
113
Na uitwerking vinden we
P (t) = ±1(t − c)r .det(C − t.In−r )
Hieruit volgt dan dat r ≤ m.
Zij c1 , . . . , ct de verschillende eigenwaarden van de lineaire afbeelding f :
V → V . Als v een vector is in Vc1 + · · · + Vct dan heeft v een ontbindig van
de vorm
v = v1 + · · · + vt met vi ∈ Vci
Aangezien eigenvectoren die bij verschillende eigenwaarden horen lineair onafhankelijk zijn is deze ontbinding uniek. Dit betekent dat de somruimte
Vc1 + · · · + Vct in feite een directe som is. Als mi de geometrische multipliciteit is van ci dan volgt hieruit dat
dim(Vc1 + · · · + Vct ) = m1 + · · · + mt
Propositie 3.3.12 Zij f : V → V een lineaire afbeelding. De matrix van f
is diagonaliseerbaar als en slechts de volgende voorwaarden voldaan zijn
1. de karakteristieke veelterm is te ontbinden als een product van lineaire
factoren
2. voor elke eigenwaarde van f is de geometrische multipliciteit gelijk aan
de algebaische.
Bewijs Stel c1 , . . . , ct de verschillende eigenwaarden van f . Stel mi de
geometrische multipliciteit van ci en stel ni de algebraische multipliciteit van
ci .
Onderstel dat de matrix van f diagonaliseerbaar is. Dan heeft V een basis
e1 , . . . , en van eigenvectoren. Stel ri het aantal vectoren in deze basis met
eigenwaarde ci . Deze vectoren liggen in Vci en zijn lineair onafhankelijk. Bijgevolg is ri ≤ mi .
We kunnen de basisvectoren nummeren zodat de eerste r1 vectoren eigenwaarde c1 hebben, de daaropvolgende r2 vectoren eigenwaarde c2 hebben
114
enz. . .
Ten opzichte van deze basis heeft de matrix van f de volgende blokvorm :


C1 0 . . . 0
 0 C2 . . . 0 


 ..
.. 
 .
. 
0
...
0
Ct
waarbij
Ci = ci Iri
De karakteristieke veelterm van f wordt dan
P (t) = (c1 − t)r1 . . . (ct − t)rt
De karakteristieke veelterm is dus een product van lineaire factoren. Bovendien is ri = ni voor elke i = 1, . . . , t. Aangezien ri ≤ mi ≤ ni vinden we ook
dat mi = ni .
Omgekeerd, onderstel dat de karakteristieke veelterm P (X) in lineaire factoren ontbindbaar is en dat mi = ni voor elke i = 1, . . . , t.
We vinden dan dat
P (t) = ±(t − c1 )n1 . . . (t − ct )nt
en dus
dim(Vc1 + · · · + Vct ) = m1 + · · · + mt = n1 + · · · + nt = n
Bijgevolg is V = Vc1 + · · · + Vct . Als we nu voor elke eigenruimte Vci een basis
kiezen dan vormen al deze vectoren samen een basis voor de somruimte en dus
voor V . Ten opzichte van deze basis is de matrix van f een diagonaalmatrix.
De stellingen die we bewezen werden steeds geformuleerd voor algemene endomorfismen van V . Ze kunnen in het bijzonder toegepast worden voor
endomorfismen van de vorm f : K n → K n met f (x) = x.tA waarbij A een
(n, n)-matrix is met coëfficiënten in K. We vinden op die manier eigenschappen over eigenwaarden en eigenvectoren van matrices.
115
Onderstel dat de matrix A diagonaliseerbaar is. Dan bestaat er dus een basis
u1 , . . . , un voor K n zodat elke ui een eigenvector is. Dus
A.tui = ∗ ∗ .tui met ∗∗ de corresponderende eigenwaarde.
Stel U de matrix met tu1 , . . . , tun als kolommen. Dan is


∗∗ 0 . . . 0
 0 ∗∗ . . . 0 


A.U =  ..
.U
. . . .. 
 .
. 
0 . . . 0 ∗∗
Dit betekent dat U −1 .A.U de diagonaal matrix is met de eigenwaarden op de
diagonaal. Dit is dus de matrixvoorstelling van f ten opzichte van de basis
u1 , . . . , u n .
Tot hiertoe was het niet nodig om onderscheid te maken tussen reële en
complexe vectorruimten.
Voor reële vectorruimten kan men de volgende stelling bewijzen.
Propositie 3.3.13 Zij V een n-dimensionale reële vectorruimte en zij
f :V →V
een lineaire afbeelding. Als de matrix van f symmetrisch is dan voldoet f
aan de voorwaarden van de voorgaande stelling en dus is de matrix van f
diagonaliseerbaar.
In het geval van een complexe vectorruimte kunnen we echter gebruik maken
van de volgende belangrijke stelling.
Propositie 3.3.14 (Hoofdstelling van de algebra) Als F (t) een complexe
veelterm is met graad(F ) ≥ 1 dan heeft F (t) een wortel in C. Hieruit volgt
dat elke complexe veelterm te ontbinden is als een product van lineaire factoren.
Uit deze stelling volgt dat een complexe matrix diagonaliseerbaar is als en
slechts als de geometrische multipliciteiten van de wortels van de karakteristieke veelterm gelijk zijn aan de algebraische multipliciteiten.
116
3.3.2
Iteratieve oplossingsmethoden voor stelsels
We zagen vroeger hoe we stelsels van lineaire vergelijkingen kunnen oplossen
met het algoritme van Gauss. In theorie is dit een zeer goede methode die
de exacte oplossingen van het stelsel geeft. In de practijk kunnen we met een
computer de oplossingen slechts in benaderende vorm vinden. Bovendien kan
de gevonden oplossing door slechte toepassing van het algoritme van Gauss
totaal verkeerd zijn.
We zullen hier een andere oplossingsmethode beschrijven. Deze methode
kan echter niet altijd toegepast worden. Bovendien zijn de oplossingen die
we vinden zijn (bijna) nooit exact maar steeds benaderend. Voor geschikte
stelsels is de fout echter kleiner dan door de commputer kan beschreven
worden. De gevonden oplossingen zijn dus evengoed als degene die door
Gauss gevonden worden.
Beschouw het stelsel A.tX = tb waarbij A een omkeerbare (n, n)-matrix is en
waarbij b = (b1 , . . . , bn ) ∈ Rn .
We splitsen de matrix A in twee stukken. Stel A = S−T met S inverteerbaar.
Een vector x ∈ Rn is dan een oplossing van het stelsel als en slechts als
S.tx = T.tx + tb.
We starten nu met een initiële benadering x0 . (Een gok dus.) Op een iteratieve manier berekenen we met deze beginwaarde een rij vectoren x0 , x1 , . . . , xk , . . .
waarbij
S.txk+1 = T.txk + tb
We hopen dan dat de vectoren xk steeds betere benaderingen worden van de
echte oplossing x van het stelsel.
Om bruikbaar te zijn verlangen we van de methode eigenlijk twee dingen :
1. de nieuwe vector xk+1 moet eenvoudig te berekenen zijn. Hiervoor moet
S een eenvoudige en gemakkelijk te inverteren matrix zijn.
2. de rij x0 , x1 , . . . , xk , . . . moet naar de werkelijke oplossing convergeren,
en liefst zo snel mogelijk.
Voor elke xk noteren we ek = x − xk de foutvector. Dan is
S.tek+1 = T.tek
en dus
ek+1 = (S −1 .T ).tek
t
117
Als e0 = x − x0 de initiële fout is dan is
ek = (S −1 .T )k .e0
Het is duidelijk dat de rij x0 , x1 , . . . , xk , . . . naar de oplossing x convergeert
als en slechts als de rij e0 , e1 , . . . , ek , . . . naar 0 convergeert.
Propositie 3.3.15 De iteratieve methode convergeert naar de werkelijke oplossing van het stelsel als en slechts als elke eigenwaarde λ van S −1 .T voldoet
aan de eis |λ| < 1. De convergentiesnelheid wordt bepaald door de maximumwaarde van |λ|. Men noemt deze maximumwaarde de spectraalradius
van S −1 .T .
Bewijs Voor een algemeen bewijs van de stelling verwijzen we naar een
boek over numerieke methoden.
In het geval dat de matrix S −1 .T diagonaliseerbaar is wordt het bewijs eenvoudig. In dit geval bestaat er een basis v1 , . . . , vn van eigenvectoren voor
Rn . Stel λ1 , . . . , λn de corresponderende eigenvectoren.
Als
e0 = x1 .v1 + · · · + xn .vn
dan is
ek = x1 λk1 .v1 + · · · + xn λkn .vn
Het is duidelijk dat ek naar 0 convergeert als en slechts als elke λki naar 0
convergeert. Dit laatste is het geval als en slechts als |λi | < 1.
De efficiëntie van de methode wordt bepaald door de keuze van S en T . De
twee eisen die moeten voldaan zijn om een goede iteratiemethode te hebben
zijn in zekere zin strijdig met mekaar.
De snelste convergentie bekomen we door S = A en T = 0 te nemen. In
dit geval geeft x1 reeds de exacte oplossing. Het berekenen van A−1 is hier
echter de moeilijkheid. Dit is juist de reden waarom we A gaan splitsen.
Als ander uiterste kunnen we voor S het diagonaalgedeelte van A nemen.
We krijgen dan de zogenaamde methode van Jacobi.
Dus


a11 . . . 0


...
S= 0
0 
0
. . . ann
118
Noteer xi = (xi,1 , . . . , xi,n ). Dan vinden we
a11 xk+1,1 = −(a12 xk,2 + a13 xk,3 + · · · a1n xk,n ) + b1
..
.
ann xk+1,n = −(an1 xk,1 + an2 xk,2 + · · · ann−1 xk,n−1 ) + bn
Deze keuze van S is goed als aii 6= 0 voor alle i = 1, . . . , n. Als A bovendien
veel nulcoëffiënten heeft dan is het rechterlid eenvoudig te berekenen.
Voorbeeld Neem
2 −1
2 0
0 −1
0 21
−1
A=
,S =
,T =
, S .T =
1
−1 2
0 2
−1 0
0
2
Noteer de foutvector ei = (ei1 , ei2 ).
Dan vinden we
1
0 21
t
.txk + tb
xk+1 =
1
0
2
2
De spectraalradius is in dit geval
fout gehalveerd.
1
2
en
t
ek+1 =
1
e
2 k2
1
e
2 k1
en bij elke iteratiestap wordt de totale
Een nadeel bij de Jacobimethode is dat we gedurende de volledige berekening
van xk+1 alle componenten van xk moeten onthouden. Vooral bij het oplossen
van grote stelsels kan dit een probleem zijn. Om dit de verhelpen zouden we
de oude waarde xk,j kunnen vervangen door de nieuwe waarde xk+1,j van
zodra we deze laatste kennen. We krijgen dan de volgende formules.
De eertse vergelijking blijft dezelfde.
a11 xk+1,1 = −(a12 xk,2 + a13 xk,3 + · · · a1n xk,n ) + b1
De tweede vergelijking wordt nu
a22 xk+1,2 = −(a21 xk+1,1 + a23 xk,3 + · · · + a2n xk,n ) + b2
In de laatste vergelijking zijn alle oude waarden xk,j verdwenen.
ann xk+1,n = −(an1 xk+1,1 + an2 xk+1,2 + · · · ann−1 xk+1,n−1 ) + bn
119
Deze methode wordt de methode van Gauss-Seidel genoemd. Het is eenvoudig te verifiëren dat deze methode overeenkomt met de splitsig van A
waarbij S het onderdriehoeksgedeelte van A en T het strikte bovendriehoeksgedeelte van A is.
Het voorbeeld van hiervoor wordt nu
Voorbeeld Neem
0
2 −1
2 0
0 −1
−1
A=
,S =
,T =
, S .T =
−1 2
−1 2
0 0
0
We vinden nu
2 0
0 1
t
. xk+1 =
.txk + tb
−1 2
0 0
en
t
ek+1 =
1
e
2 k2
1
e
4 k2
1
2
1
4
We zien dus dat bij elke iteratiestap de fout door 4 gedeeld wordt. De
methode vereist dus niet alleen minder geheugenruimte maar is ook sneller.
Een variant op de Gauss-Seidel methode is de successieve relaxatiemethode.
Stel D het diagonaalgedeelte van A, L het strikte onderdriehoeksgedeelte en
U het strikte bovendriehoelsgedeelte van A. Dan is A = L + D + U .
Kies nu een getal ω ≥ 1 en stel S = ω −1 D+L. Dan wordt T = (ω −1 −1)D−U .
(Gauss-Seidel komt dus overeen met de keuze ω = 1.)
De convergentiesnelheid van de iteraties hangt af van het probleem en van de
waarde van ω. Men zal de waarde van ω geval per geval zo optimaal mogelijk
kiezen. In de praktijk is steeds ω < 2.
In het voorbeeld van hiervoor blijkt de optimale waarde ongeveer 1.07 te zijn.
Voor deze waarde convergeert de rij oplossingen bijna 30 keer zo snel als met
de Jacobimethode.
120
Hoofdstuk 4
Elementaire analytische
meetkunde
121
4.1
4.1.1
Affiene ruimten en referentiestelsels
De richtingsvectorruimte van een vlak
Om al te abstracte constructies en definities te vermijden zullen we uitgaan
van een aantal intuı̈tieve basisbegrippen. We onderstellen een intuı̈tieve kennis van het vlak en de 3D ruimte. In het bijzonder gaan we ervan uit dat
we in de ruimte de begrippen afstand en paralelle verschuiving kennen. We
gebruiken ook de volgende aantal elementaire eigenschappen van punten en
rechten.
1. Door twee verschillende punten gaat juist één rechte.
2. Als op een rechte een punt gekozen wordt dan heeft de rechte twee
kanten.
3. Als P en Q twee verschillende punten zijn dan bestaat er een unieke
parallelle verschuiving die P op Q afbeeldt.
We zullen eerst deze intuı̈tieve kennis proberen te vertalen in wiskundige
termen. Hierdoor worden bijkomende structuren op het vlak gedefinieerd die
het mogelijk maken om zuiver meetkundige eigenschappen te herleiden tot
eigenschappen van getallen. Hierdoor wordt het mogelijk om meetkundige
feiten te verifëren en te bewijzen door berekeningen te maken.
Om te beginnen zullen we met een vlak π een vectorruimte Vπ associëren.
Deze vectorruimte Vπ vertelt iets over de onderlinge ligging van punten in
het vlak.
Notatie Vlakken duiden we aan met griekse letters π, α, . . ..
Punten in het vlak duiden we aan met hoofdletters P, QA, B, . . ..
Rechten duiden we aan met kleine letters l, r, s, . . .
Als P en Q verschillende punten zijn dan noteren we de unieke rechte door
deze punten als lP Q .
Stel P = (A, B) A, B punten in het vlak π de verzameling van alle puntenkopels in π.
Op P definiëren we een relatie ∼ door :
(A, B) ∼ (C, D) als en slechts als er een parallelle verschuiving bestaat op π
die A op C en B op D afbeeldt.
122
Het is eenvoudig te verifëren dat dit een equivalentierelatie is. Definieer nu
Vπ = P/ ∼ de quotiëntruimte.
Als P en Q punten zijn in het vlak dan noteren we de equivalentieklasse van
−→
(P, Q) als P Q.
Propositie 4.1.1 (Parallellogrammenwet) Zij A, B, C, en D punten in
het vlak π. Dan geldt :
(A, B) ∼ (C, D) ⇐⇒ (A, C) ∼ (B, D)
Eén van de belangrijkste eigenschappen is het volgende verband tussen punten in π en elementen van Vπ .
Propositie 4.1.2 Zij v ∈ Vπ en zij P ∈ π een punt. Dan bestaat er een
−→
uniek punt Q ∈ π zodat v = P Q.
−→
Bewijs Stel v = AB. Er bestaat dan een unieke parallelle verschuiving
die A op B afbeeldt. Stel Q het beeld van P onder deze verschuiving. Dan
is (A, P ) ∼ (B, Q) en dus ook (A, B) ∼ (P, Q).
−→
−→
Dit betekent dat v = AB = P Q.
Met behulp van voorgaande stelling kunnen we op Vπ een optelling en een
vermenigvuldiging met reële getallen geven.
Zij v, w ∈ Vπ Kies dan een punt P ∈ π willekeurig.
(
−→
∃1Q ∈ π zodat P Q = v
⇒
−→
∃1R ∈ π zodat QR = w
−→
Definieer dan v + w = P R.
123
Op het eerste zicht lijkt deze definitie af te hangen van de keuze van het punt
P . Dit is echter niet het geval.
Zij P 0 een ander punt in π.
(
−→
∃1Q0 ∈ π zodat P 0 Q0 = v
⇒
−→
∃1R0 ∈ π zodat Q0 R0 = w
Dan is (P, Q) ∼ (P 0 , Q0 ) en dus (P, P 0 ) ∼ (Q, Q0 ). Verder is (Q, R) ∼ (Q0 , R0 )
en dus (Q, Q0 ) ∼ (R, R0 ). Uit de transitiviteit van de relatie ∼ volgt dan dat
−→
−→
(P, P 0 ) ∼ (R, R0 ) en dus is (P, R) ∼ (P 0 , R0 ). Dit betekent dat P R = P 0 R0
en dus hangt de somvector niet af van het gekozen punt P .
Uit de definitie van de optelling volgt direct de volgende eigenschap
Propositie 4.1.3 Als P, Q en R punten zijn in het vlak dan is
−→
−→
−→
P Q = P R + RQ
Zij nu v ∈ Vπ en λ ∈ R. Kies een punt P ∈ π willekeurig.
−→
⇒ ∃1Q ∈ π zodat v = P Q
Stel T de parallelle verschuiving die P afbeeldt op Q. Als λ > 0 stel dan T 0
de parallelle verschuiving die een punt verschuift in de zelfde richting als T
maar over een afstand die gelijk is aan λ( lengte van T ) Als λ < 0 stel dan
T 0 de parallelle verschuiving met lengte −λ.(lengte van T ), evenwijdig met
T en in tegengestelde richting als T .
−→
Stel R het beeld van Q onder T 0 . We definiëren dan λ.v = P R.
Merk op dat in deze constructie de punten P, Q en R op een rechte liggen.
Maar ook het omgekeerde is waar. Als P.Q en R op een rechte liggen dan
zijn de parallelle verschuivingen die P op Q en P op R afbeelden op een
−→
−→
evenredigheidsfactor dezelfde. Dit betekent dat P Q en P R evenredig zijn
(met dezelfde evenredigheidsfactor).
124
Ook deze constructie hangt niet af van de keuze van het punt P .
Aangezien de definitie van Vπ een resultaat is van een vertaling van intuı̈tieve
kennis in wiskundige termen heeft het geen zin om rigoureuze bewijzen van
elementaire stellingen proberen te geven. De volgende eigenschap van Vπ
nemen we dus maar aan zonder bewijs.
Propositie 4.1.4 (Vπ , +, .) is een tweedimensionale reële vectorruimte. Voor
−→
elk punt P ∈ π is P P gelijk aan de nulvector in Vπ .
We noemen Vπ de richtingsvectorruimte van het vlak π.
Uit de definitie van het product van vectoren in Vπ met getallen in R volgt
direct de volgende stelling.
Propositie 4.1.5 Zij P, Q en R drie verschillende punten in het vlak π.
−→
Dan liggen deze punten op een rechte als en slechts als de vectoren P Q en
−→
P R lineair afhankelijk zijn.
−→
Bewijs
−→
Vermits de punten P, Q en R verschilend zijn is P Q, P R 6= 0.
−→
−→
Uit prop volgt dan dat P Q en P R lineair afhankelijk zijn als en slechts als
−→
−→
P R = λ.P Q voor zekere λ ∈ R∗ . Maar dit betekent juist dat P, Q en R op
een rechte liggen. (Zie de opmerkingen hiervoor.)
We kunnen deze stelling nog een beetje veralgemenen.
Propositie 4.1.6 Zij P, Q, R en S punten in π met P 6= Q en R 6= S. Dan
−→
−→
zijn de vectoren P Q en RS lineair afhankelijk als en slechts als de rechten
lP Q en lRS evenwijdig zijn.
−→
Bewijs
−→
−→
−→
Onderstel dat P Q en RS lineair afhankelijk zijn. Dan is P Q =
λ.RS voor zekere λ ∈ R∗ .
Stel T de unieke parallelle verschuiving die P afbeeldt op R en stel S 0 = T (Q).
Dan is lRS 0 = T (lP Q ). Bovendien is
−→
−→
−→
RS 0 = P Q = λ.RS
125
Uit de vorige stelling volgt dan dat R, S en S 0 op één rechte liggen, i.e.
S 0 ∈ lRS . Maar dan is lRS 0 = lRS en dus T (lP Q ) = lRS . De rechten lP Q een
lRS zijn dus evenwijdig.
Omgekeerd, onderstel dat de rechten lP Q en lRS evenwijdig zijn. Neem T en
S 0 zoals hiervoor. Dan is T (lP Q ) = lRS en S 0 ∈ lRS . Uit de vorige stelling
−→
−→
−→
volgt weer dat RS en RS 0 = P Q lineair afhankelijk zijn.
Zij l een rechte in het vlak en zij P en Q twee verschillende punten op l. De
verzameling
n −→ o
Vl = λ.P Q λ ∈ R
−→
is dan een 1-dimensionale deelruimte van Vπ met basis {P Q}. Deze deelruimte hangt niet af van de keuze van de punten P en Q. Als R en S nog
−→
−→
punten zijn op l (met R 6= S) dan zijn P Q en RS lineair afhankelijk. Bi−→
−→
jgevolg bestaat er een getal µ ∈ R∗ zodat RS = µ.P Q. De deelruimtes
voortgebracht door deze vectoren zijn bijgevolg dezelfde.
Uit stelling 4.1.6 volgt bovendien :
Propositie 4.1.7 Twee rechten l en l0 zijn evenwijdig als en slechts als Vl =
Vl0 .
Definitie 4.1.8 Als l een rechte is dan noemt men Vl de richtingsruimte van
l. Een basisvector voor Vl noemt men een richtingsvector voor l.
Zij nu W een 1-dimensionale deelruimte van Vπ en zij w ∈ W een vector met
−→
w 6= 0. Dan is {w} een basis voor W . Elk puntenkoppel (P, Q) met w = P Q
bepaalt een rechte. Uit stelling 4.1.6 volgt weer dat een andere basisvector of
een andere representant van de basisvector een evenwijdige rechte bepaalt.
Uit deze en de vorige overwegingen kunnen we dus besluiten dat er 1-1 correspondenties bestaan tussen de volgende soorten data :
1. klassen van evenwijdige rechten π.
2. 1-dimensionale deelruimten van Vπ
3. klassen van lineair afhankelijke vectoren in Vπ .
126
Kies nu een vast punt O in π. We noemen dit punt de oorsprong van π.
−→
Elk punt P ∈ π bepaalt nu een unieke vector OP in Vπ . Omgekeerd, voor
−→
elke vector v ∈ Vπ bestaat er een uniek punt P ∈ π zodat v = OP .
Opmerking In sommige boeken wordt een vector altijd beschouwd als
aangehecht aan de oorsprong. Hierdoor vervalt eigenlijk het onderscheid
tussen punten en vectoren. Het heeft echter zijn nut om vectoren algemener
te bekijken.
We hebben dus een 1-1 correspondentie tussen punten in π en vectoren in
Vπ . Eigenschappen en relaties tussen punten in π komen dan overeen met
eigenschappen en relaties tussen vectoren in Vπ en omgekeerd.
Als voorbeeld stellen we een eerste versie op van een parametervergelijking
voor een rechte.
Zij l een rechte in π en zij P en Q twee verschillende punten op l. Dan is
−→
P Q een basisvector voor Vl . Een punt R ligt ook op de rechte als en slechts
−→
−→
−→
als P R ∈ Vl . Dit betekent dat P R = t.P Q voor zekere t ∈ R.
Hieruit volgt dat l bestaat uit de punten R die voldoen aan de volgende
vergelijking :
−→
−→
−→
OR = OP + t.P Q (t ∈ R)
4.1.2
Affiene referentiestelsels voor het vlak
We beschouwen weer een vlak π met bijbehorende richtingsvectorruimte Vπ
en oorsprong O.
Definitie 4.1.9 Zij e1 , e2 een basis voor Vπ . Het drietal (O, e1 , e2 ) noemt
men een affien referentiestelsel voor π.
−→
Als P een punt is in π dan is de vector OP een lineaire combinatie van e1 en
e2 .
−→
−→
De vector OP is dus op een unieke manier te schrijven in de vorm OP =
p1 .e1 + p2 .e2 . Men noemt (p1 , p2 ) de coördinaten van P ten opzichte van het
referentiestelsel (O, e1 , e2 ). We noteren deze coördinatenrij meestal als p.
127
Elk punt in π bepaalt dus een stel coördinaten in R2 . Omgekeerd, elk koppel
(p1 , p2 ) in R2 bepaalt een uniek punt in het vlak want (p1 , p2 ) bepaalt een
unieke vector v = p1 .e1 + p2 .e2 . Er bestaat dan een uniek punt P in het vlak
−→
zodat v = OP .
We hebben dus een 1-1 correspondentie tussen punten in π en koppels in
R2 . Eigenschappen en betrekkingen tussen punten komen nu overeen met
eigenschappen en betrekkingen tussen getallen.
Propositie 4.1.10 Zij P en Q punten in π met coördinaten p en q ten
−→
opzichte van een affien referentiestelsel (O, e1 , e2 ). De coëfficiënten van P Q
ten opzichte van de basis {e1 , e2 } zijn dan qp, i.e.
−→
P Q = (q1 − p1 )e1 + (q2 − p2 )e2
Bewijs
Oefening!
Propositie 4.1.11 (Parameter vergelijking van een rechte) Zij P en
Q twee verschillende punten in π met coördinaten p en q ten opzichte van
een affien referentiestelsel (O, e1 , e2 ).
Een punt R met coördinaten x ligt op de rechte lP Q als en slechts als x voldoet
aan de vergelijking
x = (1 − t)p + tq
Bewijs
jking
Het punt R ligt op lP Q als en slechts als R voldoet aan de vergeli−→
−→
−→
OR = OP + t.P Q
voor zekere t ∈ R.
Dit betekent dat
x = p + t.(q − p)
Hieruit volgt de vergelijking.
128
Propositie 4.1.12 (Parameter vrije vergelijking van eeen rechte) Zij
P en Q twee verschillende punten in π met coördinaten p en q ten opzichte
van een affien referentiestelsel (O, e1 , e2 ).
Een punt R met coördinaten x ligt op de rechte lP Q als en slechts als x voldoet
aan de vergelijking
x 1 − p 1 q1 − p 1
det
=0
x 2 − p 2 q2 − p 2
of nog
x1 (q2 − p2 ) − x2 (q1 − p1 ) = p1 q2 − p2 q1
Bewijs
jking
Het punt R ligt op lP Q als en slechts als R voldoet aan de vergelix = p + t.(q − p)
en dus
x − p = t.(q − p)
Dit betekent dat de vectoren x − p en q − p in R2 lineair afhankelijk zijn. Dit
laatste is waar als en slechts als
x 1 − p 1 q1 − p 1
det
=0
x 2 − p 2 q2 − p 2
De coördinaten (x1 , x2 ) van een punt op L zijn dus oplossing van een lineaire
vergelijking van de vorm
u 1 x 1 + u 2 x 2 = u0
Bovendien is (u1 , u2 ) 6= (0, 0).
Ook het omgekeerde is waar, een lineaire vergelijking (in twee onbekenden
x1 en x2 ) bepaalt een unieke rechte in het vlak.
Propositie 4.1.13 Zij u0 , u1 en u2 getallen in R zodat (u1 , u2 ) 6= (0, 0).
Dan is
u 1 x 1 + u 2 x 2 = u0
de vergelijking van een rechte l in het vlak π. De vector u = u2 .e1 − u1 .e2 is
een basivector voor de richtingsruimte Vl .
129
Bewijs We onderstellen dat u1 6= 0. (Als u1 wel 0 is dan is u2 6= 0. In dat
geval kunnen we een analoog bewijs geven.)
De koppels
u0
u0 − 1)
p = ( , 0) en q = (
)
u1
u1
zijn oplossingen van de vergelijking en kunnen opgevat worden als de coördinaten
van twee verschillende punten P en Q.
Als we de vergelijking van de rechte lP Q door deze punten berekenen dan
−→
vinden we juist de gegeven vergelijking terug. Bovendien is de vector P Q
een basisvector voor lP Q . Vermits u1 6= 0 is echter
−→
−u1 .P Q = u2 .e1 − u1 .e2
ook een basisvector.
Definitie 4.1.14 Als de rechte l vergelijking u1 x1 + u2 x2 = u0 heeft dan
noemt men u = (u1 , u2 ) de richtingsgetallen van l
Gevolg 4.1.15 Zij l en l0 rechten met richtingsgetallen u en v. Dan geldt :
len l0 evenwijdig ⇐⇒ ∃c ∈ R∗ zodat u = c.v
Bewijs De rechten zijn evenwijdig als en slechts als ze dezelfde richtingsruimte hebben. Alle basisvectoren voor deze richtingsruimte zijn onderling evenredig.
Opmerking De vergelijking van een rechte is slechts bepaald op vermenigvuldiging met een evenredigheidsfactor λ ∈ R∗ na. De vergelijkingen
u1 .x1 + u2 .x2 = u0
en
(λ.u1 ).x1 + (λ.u2 ).x2 = λ.u0
bepalen dus de dezelfde rechte.
130
We bepalen nu de doorsnede van twee rechten in het vlak π.
Stel dat l1 en l2 rechten zijn met vergelijkingen
u 1 x 1 + u 2 x 2 = u0
(l1 )
v1 x 1 + v2 x2 = v0
(l2 )
Een punt P met coördinaten x = (x1 , x2 ) ligt in de doorsnede van de rechten
als x een oplossing is van het stelsel
u1 u2
X1
u0
.
=
v1 v2
X2
v0
Of korter
U.tX = tw
met
U=
u1 u 2
v1 v2
en w =
u0 v 0
Er zijn 3 mogelijkheden.
1. rg(U ) = 2
In dit geval heeft het stelsel exact één oplossing
x = wtU −1
De richtingsgetallen van de rechten zijn niet evenredig en dus zijn de
rechten niet evenwijdig. Ze snijden elkaar in één punt.
2. rg(U ) = 1 en rg(U tw) = 2 Het stelsel is dan strijdig er heeft dus geen
oplossingen. De richtingsgetallen van de rechten zijn evenredig en dus
zijn ze evenwijdig maar verschillend.
3. rg(U ) = 1 en rg(U tw) = 1 De rechten l1 en l2 hebben dan evenredige
vergelijkingen en vallen dus samen. Het stelsel heeft oneindig veel
oplossingen.
131
4.1.3
Verandering van referentiestelsel in een vlak
Zij (O, e1 , e2 ) en (O0 , e01 , e02 ) twee affiene referentiestelsels voor het vlak π.
Dan zijn e01 en e02 lineaire combinaties van e1 en e2 . Stel
0
e1 = a11 e1 + a21 e2
e02 = a12 e1 + a22 e2
en stel
A=
a11 a12
a21 a22
Stel c = (c1 , c2 ) de coördinaten van O0 ten opzichte van het affien referentiestelsel (O, e1 , e2 ). Zij P een punt in π. Stel x = (x1 , x2 ) de coördinaten van
P t.o.v. (O, e1 , e2 ) en x0 = (x01 , x02 ) de coördinaten van P t.o.v. (O0 , e01 , e02 ).
−→
−→
⇒ OP = x1 e1 + x2 e2 en O0 P = x01 e01 + x02 e02
Anderzijds is
−→
−→
−→
−→
OP = OO0 + O0 P = OO0 + x01 e01 + x02 e02
−→
= OO0 + x01 (a11 e1 + a21 e2 ) + x02 (a12 e1 + a22 e2 )
= c1 e1 + c2 e2 + x01 (a11 e1 + a21 e2 ) + x02 (a12 e1 + a22 e2 )
= (c1 + a11 x01 + a12 x02 )e1 + (c2 + a21 x01 + a22 x02 )e2
en dus is
x1 = c1 + a11 x01 + a12 x02
x2 = c2 + a21 x01 + a22 x02
In matrixnotatie geeft dit :
x = tc + A.tx0
t
4.1.4
De richtingsvectorruimte voor de 3D ruimte
We kunnen de methode die we gebruikten om het vlak te bestuderen zonder
problemen aanpassen voor de 3D ruimte E.
Stel
PE = (P, Q) P, Q punten in E
Definieer een relatie ∼ op PE op dezelfde manier als voor het vlak. Dan is
∼ weer een equivalentierelatie op PE . Stel VE = PE / ∼.
132
Als P, Q punten zijn in E dan noteren we de equivalentieklasse van (P, Q)
−→
als P Q.
De parallellogrammenwet geld ook hier.
Op VE definiëren we een optelling en een vermenigvuldiging met reële getallen
op dezelfde manier als voor Vπ . Op deze manier wordt VE een driedimensionale vectorruimte. We noemen VE de richtingsruimte van E. De nulvector in
−→
VE is dan P P . Bovendien geldt de volgende propositie.
Propositie 4.1.16 Als P, Q en R punten zijn in E dan is
−→
−→
−→
P Q = P R + RQ
Als π een vlak is in E dan is Pπ ⊂ PE . Bovendien is de relatie ∼ op Pπ
op dezelfde manier gedefinieerd als op PE . Hierdoor kunnen we Vπ opvatten
als deelverzameling van VE . Vermits ook de bewerkingen op Vπ en op VE op
dezelfde manier gedefinieerd zijn is Vπ een deelvectorruimte van VE .
Als P, Q en R punten zijn in E die niet op één rechte liggen dan gaat er juist
−→
één vlak door deze punten. We noteren dit vlak als πP QR . De vectoren P Q
−→
en P R zijn dan lineair onafhankelijk en vormen dus een basis voor VπP QR .
Eigenschappen uit het vorige deel blijven geldig in E of kunnen zonder problemen aangepast worden voor het 3D geval. We laten de bewijzen als oefening.
Propositie 4.1.17 Drie punten P, Q en R liggen op één rechte als en slechts
−→
−→
als P Q en P R lineair afhankelijk zijn.
Propositie 4.1.18
1. Twee rechten in E zijn evenwijdig als en slechts
als hun richtingsruimten dezelfde zijn.
2. Twee vlakken in E zijn evenwijdig als en slechts als hun richtingsruimten
dezelfde zijn.
Kies nu een vast punt O in E. We noemen O de oorsprong. Elk punt P ∈ E
−→
bepaalt dan een unieke vector OP in VE . Op die manier vinden we nu een
1-1 correspondentie tussen punten in E en vectoren in VE .
We kunnen nu weer parametervergelijkingen opstellen voor rechten en vlakken.
Zij P.Q en R punten in een vlak π die niet op één rechte liggen. Dan vormen
133
−→
−→
P Q en P R een basis voor Vπ .
−→
Een punt S ligt in π als en slechts als P S een lineaire combinatie van deze
basisvectoren is.
−→
⇒
−→
−→
∃s, t ∈ R zodat P S = s.P Q + t.P R
We vinden dan
−→
−→
−→
−→
−→
−→
OS = OP + P S = OP + sP Q + tP R
en dus
n −→
−→
−→
−→ o
π = S ∃s, t ∈ R zodat OS = OP + sP Q + tP R
We krijgen nu dus een vergelijking die van twee parameters s en t afhangt.
−→
Als P en Q verschillende punten zijn op een rechte l in E dan is P Q een
basisvector voor Vl .
−→
Een punt R ligt ook op l als een slechts als P R een veelvoud is van deze
−→
−→
basisvector. Als P R = t.P Q dan is
−→
−→
−→
OR = OP = t.P Q
Bijgevolg is
4.1.5
n −→
−→
−→ o
L = R ∃t ∈ R zodat OR = OP + t.P Q
Affiene referentiestelsels voor E
We kiezen in E een vaste oorsprong O en een geordende basis e1 , e2 , e3 voor
VE .
Definitie 4.1.19 Het geordend viertal (O, e1 , e2 , e3 ) noemt men een affien
referentiestelsel voor E.
−→
Als P een punt is in E dan bepaalt P een unieke plaatsvector OP in VE . Deze
−→
vector is te schrijven als een lineaire combinatie OP = p1 .e1 + p2 .e2 + p3 .e3 .
Men noemt het geordend drietal p = (p1 , p2 , p3 ) de coördinaten van P ten
opzichte van het affiene referentiestelsel.
We hebben nu een 1-1 correpondentie gevonden tussen punten in E en geordende drietallen in R3 . Meetkundige eigenschappen corresponderen nu met
eigenschappen van R3 .
134
Propositie 4.1.20 Als P en Q punten zijn met coördinaten p en q ten
−→
opzichte van een affien referentiestelsel (O, e1 , e2 , e3 ) dan heeft de vector P Q
coëfficiënten q − p ten opzichte van de basis {e1 , e2 , e3 }.
De vergelijking van een vlak in E.
Zij P, Q en R punten in E die niet op één rechte liggen. Stel p, q en r de
coördintaten van P, Q en R t.o.v een affien referentiestelsel (O, e1 , e2 , e3 ). Stel
π = πP QR het vlak door deze drie punten.
Een punt S met coördinaten x ligt in π als en slechts
−→
−→
−→
−→
OS = OP + s.P Q + t.P R
voor zekere s, t ∈ R. Voor de coëfficiënten betekent dit :
x − p = s.(q − p) + t.(r − p)
We vinden dus dat π bestaat uit al de punten waarvan de coördintaten voldoen aan de volgende verglijking :
x = p + s.(q − p) + t.(r − p) (s, t ∈ R)
De coördinaten x hangen dus af van twee parameters s en t. We noemen dit
de parametervergelijking van π.
We kunnen deze vergelijking bewerken zodat de parameters s en t verwijnen.
Propositie 4.1.21 (Parameter vrije vergelijking van een vlak) Het vlak
π bestaat uit alle punten met coördinaten x die voldoen aan de vergelijking :


x 1 − p 1 q1 − p 1 r 1 − p 1
det  x2 − p2 q2 − p2 r2 − p2  = 0
x 3 − p 3 q3 − p 3 r 3 − p 3
Bewijs
Een punt met coördinaten x ligt in π als en slechts als
x = p + s.(q − p) + t.(r − p)
voor zekere s, t ∈ R. Dit betekent dat (x − p), (q − p) en (r − p) lineair
afhankelijk zijn. Dit betekent ook dat


x 1 − p 1 q1 − p 1 r 1 − p 1
det  x2 − p2 q2 − p2 r2 − p2  = 0
x 3 − p 3 q3 − p 3 r 3 − p 3
135
De ontwikkeling van deze determinant geeft een lineaire vergelijking van de
vorm
u 1 x 1 + u2 x 2 + u3 x 3 = u 0
met u0 , u1 , u2 , u3 ∈ R. In matrix vorm geeft dit
u.tx = u0
met u = (u1 , u2 , u3 ). Het is eenvoudig te verifiëren dat u 6= 0
Ook hier hebben we een omgekeerde eigenschap.
Propositie 4.1.22 Zij (u1 , u2 , u3 ) 6= (0, 0, 0).
De punten in E met coördinaten x = (x1 , x2 , x3 ) ten opzichte van een affien
referentiestelsel (O, e1 , e2 , e3 ) die voldoen aan de lineaire vergelijking
u1 .x1 + u2 .x2 + u3 .x3 = u0
vormen een vlak π in E.
De verzameling
{(u2 .e1 − u1 .e2 ), (u3 .e2 − u2 .e3 ), (u1 .e3 − u3 .e1 )}
is voortbrengend Vπ .
Bewijs We mogen onderstellen dat u1 6= 0. (Als u1 = 0 dan is u2 6= 0
of u3 6= 0. We kunnen de onderstaande redenering dan zonder problemen
aanpassen.)
De volgende drietallen zijn oplossingen van de vergelijking :
u0 − u 2
u0 − u 3
u0
, 0, 0
, 1, 0
, 0, 1
u1
u1
u1
We kunnen deze drietallen opvatten als de coördinaten van punten P, Q en
R.
Het is eenvoudig te verifiëren dat deze coördinaten lineair onafhankelijk zijn.
136
Bijgevolg liggen P, Q en R niet op één rechte. De parameter vrije vergelijking
van het vlak πP QR is dan
u0
u2
u3
x1 −
+ x2 . + x3 . = 0
u1
u1
u1
Op vermenigvuldiging met u1 na is dit de gegeven vergelijking. Beide vergelijkingen hebben dezelfde oplossingen en dus is de gegeven vergelijking juist
de vergelijking van πP QR .
−→
−→
Bovendien vormen de vectoren P Q en P R een basis voor VπP QR . Als we
beide vectoren met ±u1 vermenigvuldigen dan hebben we nog steeds een basis. (Want u1 6= 0.)
De vectoren die we zo vinden zijn u2 .e1 − u1 .e2 en u1 .e3 − u3 .e1 . Als we de
derde vector u3 .e2 − u2 .e3 bijvoegen dan krijgen we dus zeker een voortbrengende verzameling. (Als we de redenering opnieuw uitvoeren maar nu met
de onderstelling dat u2 6= 0 of u3 6= 0 dan vinden we dezelfde voortbrengende
verzameling.)
In de vorige stelling vinden we een voortbrengende verzameling voor Vπ die
eigenlijk te groot is. Deze formulering heeft echter het voordeel dat de voortbrengende verzameling symmetrisch is in de indexen 1,2 en 3. Als één of twee
van de ui ’s 0 zijn dan kunnen we uit deze verzameling toch nog een basis
halen.
• Als u1 6= 0 dan is
{u2 .e1 − u1 .e2 , u1 .e3 − u3 .e1 }
een basis voor Vπ . Dit volgt uit het bewijs van de stelling.
• Als u2 6= 0 dan is
{u3 .e2 − u2 .e3 , u2 .e1 − u1 .e2 }
een basis voor Vπ . (Analoog.)
• Als u3 6= 0 dan is
{u1 .e3 − u3 .e1 , u3 .e2 − u2 .e3 }
een basis voor Vπ . (Analoog.)
137
Propositie 4.1.23 Zij α en β vlakken met de volgende vergelijkingen ten
opzichte van een affien rreferentiestelsel (O, e1 , e2 , e3 ) :
u1 , x1 + u2 .x2 + u3 .x3 = u0
v1 , x1 + v2 .x2 + v3 .x3 = v0
(α)
(β)
Dan zijn deze vlakken evenwijdig als en slechts als er een getal c ∈ R∗ bestaat
zodat
(v1 , v2 , v3 ) = c.(u1 , u2 , u3 )
Bewijs Onderstel dat (v1 , v2 , v3 ) = c.(u1 , u2 , u3 ) met c ∈ R∗ . Met behulp
van de vorige stelling vinden we voortbrengers voor Vα en Vβ . De voortbrengers voor Vα zijn dan telkens evenredig met de voortbrengers voor Vβ
(met evenredigheidsfactor c). Hieruit volgt direct dat Vα = Vβ .
Omgekeerd, onderstel dat Vα = Vβ . We mogen weer onderstellen dat u1 6= 0.
In dit geval is
{u2 .e1 − u1 .e2 , u1 .e3 − u3 .e1 }
een basis voor Vα en bovendien is ook v1 6= 0. Als v1 wel 0 zou zijn dan is
v2 6= 0 of v3 6= 0. We vinden dan uit de vorige stelling dat e1 ∈ Vβ en dus
e1 ∈ Vα . Hieruit volgt dat de verzameling
{e1 , u2 .e1 − u1 .e2 , u1 .e3 − u3 .e1 }
lineair afhankelijk is en dus de rang van de matrix


1 u2 −u3
A =  0 −u1 0 
0 0
u1
gelijk aan 2. Maar dan is det(A) = −u21 = 0. Dit is strijdig met de onderstelling u1 6= 0.
Uit de vorige stelling vinden we nu dat
{v2 .e1 − v1 .e2 , v1 .e3 − v3 .e1 }
een basis is voor Vβ . Tussen de twee basissen die we gevonden hebben voor
Vα (= Vβ ) bestaat een overgangsmatrix B ∈ Gl2 (R).
138
Na vergelijking van de verschillende schrijfwijzen van de basisvectoren vinden
we
u2 −u1 0
v2 −v1 0
t
= B.
u3 0 −u1
v3 0 −v1
Hieruit volgt

 u3 .u1 = det(B).v3 v1
u2 .u1 = det(B).v2 v1
 2
u1
= det(b).v12
Bijgevolg is
(u1 , u2 , u3 ) =
We kunnen dus c =
v1
u1
u1
(v1 , v2 , v3 )
v1
nemen.
Als een vlak π vergelijking
u1 .x1 + u2 .x2 + u3 .x3 = u0
heeft dan noemt men het drietal (u1 , u2 , u3 ) de richtingsgetallen van het vlak
π.
4.1.6
Doorsnede van rechten en vlakken
Zij α en β vlakken met vergelijkingen
u 1 x 1 + u 2 x 2 + u 3 x 3 = u0
(α)
v1 x1 + v2 x2 + v3 v3 = v0
(β)
Een punt met coördinaten x = (x1 , x2 , x3 ) ligt in de doorsnede van α en β
als x oplossing is van het stelsel


X1
u 1 u2 u 3
u0


. X2
=
v1 v2 v3
v0
X3
of korter
U.tX = tw
139
met
U=
u 1 u2 u3
v1 v2 v3
en w =
u0 v 0
We onderscheiden drie gevallen
rg(U ) = 2
In dit geval is ook rg(U tw) = 2.
Uit het hoofdstuk over stelsels volgt dat er oneindig veel oplossingen zijn
voor het stelsel die afhangen van één parameter. We tonen aan dat al deze
oplossingen corresponderen met de punten op een rechte.
Zij p en q twee verschillende oplossingen. We kunnen deze oplossingen opvatten als de coördinaten van punten P en Q. Stel l de rechte door deze punten.
Het verschil q − p is dan een oplossing van het homogene stelsel U.tX = 0.
Zij R een punt op l met coördinaten r. Dan is
−→
−→
−→
OR = OP + tP Q
voor zekere t ∈ R.
⇒ r = p + t.(q − p)
en dus is
U.tr = U.tp + t.U.(tq − tp) = tw
Bijgevolg is r ook een oplossing en R is een punt van de doorsnede van α en
β.
Omgekeerd, zij S een punt van de doorsnede. Stel s de coördinaten van S.
Dan is s − p een oplossing van het homogene stelsel en dus is s − p = t.(q − p)
voor zekere t ∈ R.
⇒ s = p + t.(q − p)
−→
−→
−→
⇒ OS = OP + t.P Q
en dus is S een punt op de rechte l.
We vinden dus dat de doorsnede van α en β een rechte is.
rg(U ) = 1 en rg(U tw) = 2
In dit geval is het stelsel strijdig. Er liggen dan geen punten in de doorsnede.
Uit propositie 4.1.23 volgt dat de vlakken evenwijdig zijn. Ze zijn bovendien
verschillend.
140
rg(U ) = 1 en rg(U tw) = 1
De vlakken α en β vallen samen. De doorsnede is dus α zelf.
Zij α een vlak en l een rechte in E. We onderzoeken de doorsnede van α en
l.
Stel u.tx = u0 de vergelijking van α met u = u1 u2 u3 en stel x =
p + t(q − p) de parameter vergelijking van l waarbij p en q coördinaten zijn
van punten P en Q op de rechte l.
Een punt R met coördinaten x ligt in de doorsnede als er een getal t ∈ R
bestaat zodat
= p + t(q − p)
x
u.t(p + t(q − p)) = u0
We onderscheiden drie gevallen.
u.t(q − p) 6= 0 In dit geval is er één oplossing voor t namelijk :
t = (u0 − u.tp)/u.t(q − p)
De doorsnede van l en α is dus een punt.
u.t(q − p) = 0 en u.tp 6= u0
Er is geen enkel getal t dat voldoet.
In dit geval is P geen punt van α en l is evenwijdig met α. De doorsnede
van l en α is leeg.
u.t(q − p) = 0 en u.tp = u0
Elke waarde voor t voldoet. In dit geval zij P en Q punten in α en is l een
rechte in het vlak α.
4.1.7
Verandering van referentiestelsel
De berekeningen zijn analoog als voor affiene referentiestelsels voor een vlak.
Voor de volledigheid herhalen we nog eens de formules voor verandering van
basis in een vectorruimte.
0
0
0
Als
Pn e1 , . . . , en en e1 , . . . , en basissen zijn voor een vectorruimte V dan is ei =
j=1 aji .ej voor zekere getallen aji . Als v ∈ V een vector is dan heeft v
ontbindingen t.o.v. de basissen van de volgende vorm :
v = v1 e1 + · · · + vn en
v = v10 e01 + · · · + vn0 e0n
141
Het verband tussen v = (v1 , . . . , vn ) en v 0 = (v10 , . . . , vn0 ) wordt dan gegeven
door
A.tv 0 = tv
Zij nu (O, e1 , e2 , e3 ) en (O0 , e01 , e02 , e03 ) twee affiene referentiestelsels voor E.
Stel
 0
 e1 = a11 .e1 + a21 .e2 + a31 .e3
e02 = a12 .e1 + a22 .e2 + a32 .e3
 0
e3 = a13 .e1 + a23 .e2 + a33 .e3
en stel


a11 a12 a13
A =  a21 a22 a23 
a31 a32 a33
Zij P een punt in E met coördinaten x = (x1 , x2 , x3 ) t.o.v. (O, e1 , e2 , e3 ) en
x0 = (x01 , x02 , x03 ) t.o.v. (O0 , e01 , e02 , e03 ).
Dan is
( −→
OP = x1 .e1 + x2 .e2 + x3 .e3
−→
O0 P = x01 .e01 + x02 .e02 + x03 .e03
Stel c = (c1 , c2 , c3 ) de coördinaten van O0 t.o.v. (O, e1 , e2 , e3 ). Dan is
−→
OO0 = c1 .e1 + c2 .e2 + c3 .e3
We vinden dan
−→
−→
−→
P
P
OP = OO0 + O0 P = 3i=1 ci .ei + 3i=1 x0i .e0i
P3
P3
P
= i=1 ci .ei + i=1 x0i ( 3j=1 aji ej )
P
P
P
= 3i=1 ci .ei + 3j=1 ( 3i=1 aji x0i )ej
Bijgevolg is
x = tc + A.tx0
t
4.2
Orthogonaliteit
4.2.1
Bilineaire vormen
Definitie 4.2.1 Een bilineaire vorm op een R-vectorruimte V is een functie
f :V ×V →R
142
die voldoet aan volgende eigenschappen :
• ∀u, u0 , v ∈ V : f (u + u0 , v) = f (u, v) + f (u0 , v)
• ∀u, v, v 0 ∈ V : f (u, v + v 0 ) = f (u, v) + f (u, v 0 )
• ∀λ ∈ R, u, v ∈ V : f (λ.u, v) = f (u, λ.v) = λ.f (u, v)
Men zegt dat f symmetrisch is als
∀u, v ∈ V : f (u, v) = f (v, u)
Men zegt dat f niet ontaard is als
u 6= 0 ⇒ ∃v ∈ V zodat f (u, v) 6= 0
Men zegt dat f positief definiet is als
∀u ∈ V : u 6= 0 ⇒ f (u, u) > 0
Merk op dat een positief definiete bilineaire vorm nooit ontaard is want als
u 6= 0 dan is f (u, u) 6= 0.
Voorbeelden
1. Stel V = Rn en definieer
f : Rn × R n → R
door
f (x, y) = x.ty
Dan is f een symmetrische positief definiete bilineaire vorm. Men
noemt deze vorm het scalair product op Rn .
2. Het voorgaande voorbeeld kan op de volgende manier veralgemeend
worden.
Zij A een reële (n, n)-matrix. De afbeelding
f : Rn × Rn → R met f (x, y) = x.Aty
is een bilineaire vorm. Bovendien is f symmetrisch als en slechts als
t
A=A
143
3. Stel
V = F : R → R F is integreerbare functie
Definieer
f :V ×V →R
door
1
Z
F (x).G(x)dx
f (F, G) =
0
Dan is f een symmetrische bilineaire vorm.
Definitie 4.2.2 Zij f : V × V → R een symmetrische bilineaire vorm op
een vectorruimte V .
Twee vectoren heten orthogonaal of loodrecht ten opzichte van f als
f (u, v) = 0
We noteren u⊥v. Als S en T deelverzamelingen zijn van V dan zegt men
dat S en T orthogonaal zijn als
∀u ∈ S, v ∈ T : u⊥v
We noteren S⊥T .
Als S ⊂ V een deelverzameling is dan noteert men
S ⊥ = v ∈ V ∀u ∈ S : u⊥v
Propositie 4.2.3 Zij f : V × V → R een symmetrische bilineaire vorm op
een vectorruimte V en zij S ⊂ V een deelverzameling.
Dan is S ⊥ een deelruimte van V .
Bewijs
Zij v, v 0 ∈ S ⊥ en zij λ, λ0 ∈ R. Dan is voor elke vector v ∈ S :
f (u, λ.v + λ0 .v 0 ) = λ. f (u, v) +λ0 . f (u, v 0 ) = 0
| {z }
| {z }
=0
=0
Bijgevolg is λ.v + λ0 .v 0 ∈ S ⊥ en dus is S ⊥ een deelruimte van V .
Voorbeeld Stel B = {e1 , . . . , en } de kanonieke basis op Rn . Ten opzichte
van het scalair product op Rn is ei ⊥ej voor alle i 6= j. Bovendien is ei .tei = 1
voor elke i. Als S ⊂ B een deelverzameling is dan is
S ⊥ = vct(B \ S)
144
Stel namelijk dat een vector v = v1 .e1 + · · · + vn .en element is van S ⊥ . Dan
is
n
X
t
v. ej =
vi .(ei .tej ) = vj = 0
i=1
voor elke ej ∈ S. Bijgevolg is
v=
X
vi .ei
ei 6∈S
Propositie 4.2.4 Zij f : V × V → V een symmetrische bilineaire vorm.
Zij R een deelruimte met basis e1 , . . . , ek en zij S een deelruimte met basis
f1 , . . . , fl . Dan geldt :
R⊥S ⇐⇒ ∀i, j : ei ⊥fj
Bewijs Als R⊥S dan is elke vector in R orthogonaal met elke vector in
S. In het bijzonder is ei ⊥fj voor alle i en j.
Omgekeerd, stel dat ei ⊥fj voor alle i en j.
Zij r = r1 .e1 + · · · + rk .ek ∈ R en zij s = s1 .f1 + · · · + sl .fl ∈ S. Dan is
f (r, s) =
k X
l
X
ri sj f (ei , fj ) = 0
i=1 j=1
en dus is r⊥s.
Zij nu verder f : V × V → R een positief definiete bilineaire vorm op V . Als
v een vector is in V dan noteert men
p
||v|| = f (v, v)
Men noemt ||v|| de lengte van v ten opzichte van de vorm f .
Definitie 4.2.5 Zij f : V × V → R een symmetrische positief definiete
bilineaire vorm. Zij e1 , . . . , en een basis voor V
Men zegt dat de basis orthogonaal is als ei ⊥ej voor elke i 6= j.
Men zegt dat de basis orthonormaal is als bovendien ||ei || = 1 voor elk i.
145
Voorbeeld De kanonieke basis voor Rn is orthonormaal ten opzichte van
het gewone scalair product op Rn .
Men kan aantonen dat de vectorruimte V een orthonormale basis heeft.
Propositie 4.2.6 Zij f : V × V → R een positief definiete bilineaire vorm
op de vectorruimte V . Als W ⊂ V een deelruimte is dan is V = W ⊕ W ⊥
Bewijs De restrictie van f tot W × W is een positief definiete bilineaire
vorm op W . We kunnen bijgevolg een orthonormale basis {e1 , . . . , er } vinden
voor W .
We tonen eerst aan dat V = W + W ⊥ .
Als v ∈ V een vector is stel dan
w = f (v, e1 ).e1 + · · · + f (v, er ).er
en stel w0 = v − w. Dan is w ∈ W en v = w + w0 . We verifiëren nu dat
w0 ∈ W ⊥ .
Voor elke i ∈ {1, . . . , r} is
f (w0 , ei ) = f (v−w, ei ) = f (v, ei )−f (w, ei ) = f (v, ei )−f
r
X
!
f (v, ej ).ej , ei
j=1
= f (v, ei ) −
r
X
f (v, ej ).f (ej , ei ) = f (v, ei ) − f (v, ei ) = 0
j=1
We tonen nu aan dat W ∩ W ⊥ = 0.
Als v ∈ W ∩ W ⊥ dan is v⊥v en dus f (v, v) = 0. Vermits f positief definiet
is volgt hieruit dat v = 0.
Gevolg 4.2.7 Als W ⊂ V een deelruimte is dan is
dim(V ) = dim(W ) + dim(W ⊥ )
Propositie 4.2.8 Zij f : V ×V → R een positief definiete bilineaire vorm op
de vectorruimte V . Als S ⊂ V een deelverzameling is dan is S ⊥⊥ = vct(S).
146
Bewijs Het is duidelijk dat S ⊂ S ⊥⊥ en dus is ook vct(S) ⊂ S ⊥⊥ .
Uit hetgeen voorafging volgt ook dat
1. S ⊥ = vct(S)⊥ en bijgevolg is
dim(V ) = dim(S ⊥ ) + dim(vct(S))
2. dim(V ) = dim(S ⊥ ) + dim(S ⊥⊥ )
Hieruit volgt dat dim(vct(S)) = dim(S ⊥⊥ ) en dus vct(S) = S ⊥⊥ .
4.2.2
Orthogonaliteit in het vlak π
In het begin onderstelden we dat we een intuı̈tieve kennis hadden over een
paar elementaire begrippen in het vlak. We onderstelden dat we weten wat
de afstand tussen twee punten betekent. Het blijkt dat we in het vlak π drie
punten O0 , P0 , QO kunnen vinden zodat

 de afstand tussen O0 en P0 is 1
de afstand tussen O0 en Q0 is √
1

de afstand tussen P0 en Q0 is 2
−→
−→
De vectoren f1 = O0 P0 en f2 = O0 Q0 zijn dan lineair onafhankelijk en vormen
dus een basis voor Vπ .
Met deze basis kunnen we een bilineaire vorm op Vπ definiëren.
Zij v = v1 .f1 + v2 .f2 en w = w1 .f1 + w2 .f2 . Stel dan v.w = v1 .w1 + v2 .w2 .
Propositie 4.2.9 De afbeelding
.
Vπ × Vπ → R
die (v, w) afbeeldt op v.w is een symmetrische positief definiete bilineaire
vorm op Vπ .
Ten opzichte van deze kanonieke bilineaire vorm heeft elke vector uit Vπ dus
een lengte.
147
Definitie 4.2.10 Als P en Q punten zijn in π dan definiëren we de afstand
−→
tussen P en Q als de lengte ||P Q||. We noteren deze afstand als d(P, Q).
Een eenvoudige verificatie geeft dan :
d(O0 , P0 ) = ||f1 || = 1 d(O0 , Q0 ) = ||f2 || = 1 d(P0 , Q0 ) =
√
2
We zien dus dat afstandsbegrip dat we invoerden via de bilineaire vorm
overeenkomt met het intuı̈tieve begrip afstand.
Uit de definitie van de bilineaire vorm blijkt bovendien dat f1 ⊥f2 . Dit
betekent dat f1 , f2 een orthonormale basis is voor Vπ
Propositie 4.2.11 Zij e1 , e2 een basis voor Vπ met
e1 = a11 .f1 + a21 .f2
e2 = a12 .f1 + a22 .f2
Dan is e1 , e2 orthonormaal als en slechts als de matrix
a11 a12
A=
a21 a22
voldoet aan de betrekking :
t
A.A = I2
Als v = v1 .e1 + v2 .e2 en w = w1 .e1 + w2 .e2 dan is v.w = v1 .w1 + v2 .w2 .
Bewijs
Uit de definitie van de bilineaire vorm op Vπ volgt dat
e1 .e1
e1 .e2
e2 .e1
e2 .e2
= a11 .a11 + a21 .a21
= a11 .a12 + a21 .a22
= a12 .a11 + a22 .a21
= a12 .a12 + a22 .a22
en dus is
t
A.A =
e1 .e1 e1 .e2
e2 .e1 e2 .e2
Anderzijds is e1 , e2 een orthonormale basis als en slechts als
e1 .e1 e1 .e2
= I2
e2 .e1 e2 .e2
148
Dit betekent juist dat tA.A = I2 . Dit betekent ook dat tA = A−1
Stel nu dat
v = v10 f1 + v20 .f2
w = w10 f1 + w20 .f2
Dan is
v10
v20
w10
w20
= A.
v1
v2
w10
w20
= A.
w1
w2
We vinden dus :
v.w =
v10
v20
.
=
v1 v2
t
. A.A.
w1
w2
=
v1 v2
.
w1
w2
en dus is v.w = v1 w1 + v2 w2 .
Definitie 4.2.12 Een affien referentiestelsel (O, e1 , e2 ) heet orthonormaal
als e1 , e2 een orthonormale basis is voor Vπ .
Het refentiestelsel (O0 , f1 , f2 ) is dus orthonormaal.
Propositie 4.2.13 Als O een punt is in π en als e1 een vector is in Vπ met
||e1 || = 1 dan bestaat er een vector e2 zodat (O, e1 , e2 ) een orthonormaal
referentiestelsel is.
Bewijs Stel (O0 , f1 , f2 ) het orthonormaal referentiestelsel van in het begin.
Stel e1 = a11 .f1 + a21 .f2 . Vermits ||e1 || = 1 is a211 + a221 = 1.
Neem nu e2 = −a21 .f1 + a11 .f2 . De transformatiematrix is dan
a11 −a21
A=
a21
a11
Deze matrix voldoet aan de betrekking tA.A = I2 . Hieruit volgt dat det(A) =
±1 6= 0 en dus is e1 , e2 een basis voor Vπ . Dit betekent bovendien dat
(O, e1 , e2 ) een orthonormaal referentiestelsel is.
Opmerking Als we in het voorgaande bewijs e2 vervangen door −e2 dan
houden we nog steeds een orthonormaal referentiestelsel. Hiermee zijn dan
149
wel alle mogelijkheden uitgeput. Een gegeven stel (O, e1 ) met ||e1 || = 1 kan
dus op twee manieren aangevuld worden tot een orthonormaal referentiestelsel.
Het verband tussen een orthonormaal referentiestelsel (O, e1 , e2 ) en het basis
referentiestelsel O0 , f1 , f2 ) kan veralgemeend worden tot een algemeen verband tussen orthonormale referentiestelsels.
Propositie 4.2.14 Zij (O, e1 , e2 ) een orthonormaal referentiestelsel. Zij (O0 , e01 , e02 )
een ander affien referentiestelsel met
e01 = a11 .e1 + a21 .e2
e02 = a12 .e1 + a22 .e2
Dan is (O0 , e01 , e02 ) orthonormaal als en slechts als de matrix
a11 a12
A=
a21 a22
voldoet aan de betrekking :
A.tA = I2
Bewijs
Uit Prop 4.2.11 volgt dat
e01 .e01 e01 .e02
a211 + a221
a11 a12 + a21 a22
=
= tA.A
e02 .e01 e02 .e02
a12 a11 + a22 a21
a212 + a222
Anderzijds is e01 , e02 een orthonormale basis als en slechts als
0 0 0 0 e1 .e1 e1 .e2
= I2
e02 .e01 e02 .e02
Bijgevolg is e01 , e02 een orthonormale basis als en slechts als tA.A = I2 .
Propositie 4.2.15 Zij P en Q punten in π met coördinaten p en q t.o.v.
een orthonormaal referentiestelsel (O, e1 , e2 ). Dan is
q
d(P, Q) = (q − p).t(q − p)
150
−→
Bewijs De vector P Q heeft coëfficiënten q − p heeft ten opzichte van de
basis e1 , e2 . Bijgevolg is
q
−→
d(P, Q) = ||P Q|| = (q − p).t(q − p)
Definitie 4.2.16 We zeggen dat twee rechten l en l0 in π orthogonaal of
loodrecht zijn als de corresponderende richtingsruimten Vl en Vl0 orthogonale
deelruimten zijn in Vπ . We noteren l⊥l0 .
Propositie 4.2.17 Twee rechten l en l0 in het vlak π zijn orthogonaal als er
−→
−→
verschillende punten P, Q ∈ l en R, S ∈ l0 bestaan zodat P Q⊥RS.
Bewijs
Als P en Q verschillende punten zijn op l en als R en S verschil−→
−→
lende punten zijn op l0 dan is P Q een basis voor Vl en RS is een basis voor
Vl0 . Hieruit volgt dan dat
−→
−→
l⊥l0 ⇐⇒ Vl ⊥Vl0 ⇐⇒ P Q⊥RS
Propositie 4.2.18 Zij l en l0 rechten in het vlak π met richtingsgetallen u =
(u1 , u2 ) en v = (v1 , v2 ) ten opzichte van een orthonormaal referentiestelsel
(O, e1 , e2 ).
Dan is
l⊥l0 ⇐⇒ u.tv = 0
Bewijs Er bestaan getallen u0 en v0 zodat l een l0 de volgende vergelijkingen hebben :
u1 x1 + u2 x2 = u0 (l)
v1 x1 + v2 x2 = v0 (l0 )
Neem P en Q verschillende punten op l en R en S verschillende punten op
l0 . Dan bestaan er getallen λ, µ ∈ R∗ zodat
(u1 , u2 ) = λ(q2 − p2 , p1 − q1 )
151
(v1 , v2 ) = µ(s2 − r2 , r1 − s1 )
We vinden
−→
−→
l⊥l0 ⇐⇒ P Q⊥RS ⇐⇒ (q1 −p1 )(r1 −s1 )+(q2 −p2 )(r2 −s2 ) = 0 ⇐⇒ u2 v2 +u1 v1 = 0
In matrixnotatie geeft dit u.tv = 0.
Propositie 4.2.19 Zij l een rechte in π en zij P een punt. Dan bestaat er
een unieke rechte l0 door P zodat l⊥l0 .
Bewijs
Stel dat l een vergelijking
u 1 x 1 + u 2 x 2 = u0
heeft ten opzichte van een orthonormaal referentiestelsel. Stel p = (p1 , p2 ) de
coördinaten van P .
De rechte l0 met vergelijking
v1 x1 + v2 x2 = v0
voldoet als de getallen v0 , v1 , v2 oplossingen zijn van het stelsel
v1 p1 + v2 p2 = v0
v 1 u1 + v 2 u 2 = 0
Neem v1 = u2 en v2 = −u1 en v0 = u2 p1 − u1 p2 . Deze getallen voldoen. Bovendien is elke andere oplossing van het stelsel evenredig hiermee
en bepaalt dus dezelfde rechte l0
Uit de vorige stelling volgt dus dat de loodlijn op l door het punt P de
volgende vergelijking heeft ten opzichte van een orthonormaal referentiestelsel
u 2 x 1 − u 1 x 2 = u2 p 1 − u1 p 2
Hierbij is p = (p1 , p2 ) en is de vergelijking van l gelijk aan
u 1 x 1 + u 2 x 2 = u0
152
We kunnen echter ook op een eenvoudige manier een voortbrenger voor Vl0
bepalen. Een rechte l0 door P heeft een richtingsruimte Vl0 die voortgebracht
wordt door een vector v = v1 .e1 + v2 .e2 . De rechte l0 staat loodrecht op l als
−→
v⊥RS voor elk stel punten R en S op l. Als R en S punten zijn op l met
coördinaten r en s dan betekent dit
v1 (s1 − r1 ) + v2 (s2 − r2 ) = 0
Bovendien geldt :
u.ts = u0
u.tr = u0
en dus is u.(t(s − r) = 0. We kunnen dus v = u1 .e1 + u2. e2 nemen. Deze
vector is dan de gezochte voortbrenger voor Vl0 = Vl⊥ .
Definitie 4.2.20 Zij l een rechte in π en zij P een punt. Stel Q het snijpunt
van de loodlijn op l door P . Dan noemt men d(P, Q) de afstand van P tot l.
We noteren deze afstand als d(P, l).
Propositie 4.2.21 Zij l een een rechte met vergelijking
u1 .x1 + u2 .x2 = u0
ten opzichte van een orthonormaal referentiestelsel (O, e1 , e2 ) en zij P een
punt met coördinaten p = (p1 , p2 ).
Dan is
|u.tp − u0 |
d(P, l) = √ t
u. u
Bewijs
Stel l0 de loodlijn op l door P . Dan is
Vl0 = t.v t ∈ R
met v = u1 .e1 + u2 .e2 . Stel Q het snijpunt van l en l0 met coördinaten q. Dan
is
u.tq = u0 en q − p = tu t ∈ R
−→
(want Q ∈ l en P Q ∈ Vl0 ). We vinden dan dat
u.tq − u.tp = t.u.tu
153
en dus is t = (u0 − u.tp)/u.tu. We vinden dan dat
d(P, l) = d(P, Q) =
4.2.3
q
(q − p).t(q − p) =
p
t2 u.tu =
|u0 − u.tp|
√ t
u. u
Orthogonaliteit in E
De constructie uit de vorige paragraaf kan zonder problemen aangepast worden voor de 3D-ruimte E.
In E kunnen we punten O0 , P0 , Q0 , R0 vinden met de eigenschap
• de afstand tussen O0 en P0 =1
• de afstand tussen O0 en Q0 =1
• de afstand tussen O0 en R0 =1
√
• de afstand tussen P0 en Q0 = 2
√
• de afstand tussen P0 en R0 = 2
√
• de afstand tussen Q0 en R0 = 2
−→
−→
−→
De vectoren f1 = O0 P0 , f2 = O0 Q0 , f3 = O0 R0 zijn dan lineair onafhankelijk
en vormen dus een basis voor VE .We definiëren dan een symmetrische positief
definiete bilineaire vorm op VE op de volgende manier. Als
v = v1 .f1 + v2 .f2 + v3 .f3
en als
w = w1 .f1 + w2 .f2 + w3 .f3
dan stellen we
v.w = v1 .w1 + v2 .w2 + v3 .w3
Definitie 4.2.22 Als P en Q punten zijn in E dan noemen we de lengte
−→
||P Q|| de afstand tussen P en Q. We noteren dit getal als d(P, Q).
154
De afstand die we hier definiëerden correspondeert dan weer met ons intuı̈tief
afstandsbegrip op E.
Bovendien is f1 , f2 , f3 een orthonormale basis voor VE .
Propositie 4.2.23 Zij e1 , e2 , e3 een basis voor VE met

 e1 = a11 .f1 + a21 .f2 + a31 .f3
e2 = a12 .f1 + a22 .f2 + a32 .f3

e3 = a13 .f1 + a23 .f2 + a33 .f3
Dan is e1 , e2 , e3 een orthonormale basis als

a11 a12

a21 a22
A=
a31 a32
en slechts als de matrix

a13
a23 
a33
voldoet aan de betrekking
t
A.A = I3
Als v = v1 .e1 + v2 .e2 + v3 .e3 en als w = w1 .e1 + w2 .e2 + w3 .e3 dan is
v.w = v1 .w1 + v2 .w2 + v3 .w3
Bewijs
Het bewijs gaat helemaal zoals in het 2-dimensionale geval.
Definitie 4.2.24 Een affien referentiestelsel (O, e1 , e2 , e3 ) heet orthonormaal
als e1 , e2 , e3 een orthonormale basis is voor VE .
Propositie 4.2.25 Zij (O, e1 , e2 , e3 ) een orthonormaal referentiestelsel. Zij
(O0 , e01 , e02 , e03 ) een ander referentiestelsel met
 0
 e1 = a11 .e1 + a21 .e2 + a31 .e3
e0 = a12 .e1 + a22 .e2 + a32 .e3
 20
e3 = a13 .e1 + a23 .e2 + a33 .e3
Dan is (O, , e,1 , e,2 , e,3 ) orthonormaal als

a11 a12

a21 a22
A=
a31 a32
voldoet aan de betrekking
t
A.A = I3
155
en slechts als de matrix

a13
a23 
a33
Bewijs
Het bewijs gaat helemaal zoals in het 2-dimensionale geval.
Propositie 4.2.26 Zij P en Q punten in E met coördinaten p en q ten
opzichte van een orthonormaal referentiestelsel (O, e1 , e2 , e3 ). Dan is
q
d(P, Q) = (q − p).t(q − p)
Bewijs
Het bewijs gaat helemaal zoals in het 2-dimensionale geval.
Definitie 4.2.27
1. Een vlak α en een rechte l zijn orthogonaal als Vα ⊥Vl .
We noteren α⊥l.
2. Twee rechten l en l0 zijn orthogonaal als Vl ⊥Vl0 . (Zulke rechten kunnen
elkaar snijden of elkaar kruisen.) We noteren l⊥l0 .
Propositie 4.2.28 Zij α een vlak en zij P een punt in E. Dan bestaat er
een unieke rechte door P die orthogonaal is met α.
Bewijs Kies een orthonormaal referentiestelsel (O, e1 , e2 , e3 ) voor E. Zij
{f, g} een basis voor Vα en stel
f = f1 .e1 + f2 .e2 + f3 .e3
g = g1 .e1 + g2 .e2 + g3 .e3
Als p de coördinaten zijn van P dan heeft een rechte l door P een parametervergelijking
x = p + t.v t ∈ R
waarbij v = v1 .e1 + v2 .e2 + v3 .e3 een basisvector is voor Vl . We hebben dan
l⊥α ⇐⇒ v⊥f en v⊥g
Dit betekent
f1 .v1 + f2 .v2 + f3 .v3 = 0
g1 .v1 + g2 .v2 + g3 .v3 = 0
en dus is v een oplossing van een homogeen stelsel met twee onafhankelijke vergelijkingen en 3 onbekenden. Dit stelsel heeft een oplossing en alle
156
oplossingen zijn onderling evenredig.
De vector v bestaat dus en is uniek op evenredigheid na. Al deze vectoren
bepalen echter dezelfde rechte l.
In de vorige stelling bewezen we eigenlijk dat voor elk vlak α ⊂ E de deelruimte Vα⊥ 1-dimensionaal is. Als P een punt is in E en als l de rechte is
door P die loodrecht staat op α dan is Vl = Vα⊥ .
Als α gegeven is door een vergelijking
u1 .x1 + u2 .x2 + u3 .x3 = u0
ten opzichte van een orthonormaal referentiestelsel dan kunnen we gemakkelijk een voortbrenger voor Vα⊥ bepalen.
Zij P, Q en R punten in α met coördinaten p, q en r die niet op één rechte
−→
−→
liggen. Dan is {P Q, P R} een basis voor Vα . Een vector v = v1 .e1+ v2 .e2 +v3 .e3
−→
−→
is een voortbrenger voor Vα⊥ als v⊥P Q en als v⊥P R. Dit alles betekent dat
t
u. p = u0 u.tq = u0 u.tr = u0
v.t(q − p) = 0 v.t(r − p) = 0
Uit de eerste rij vergelijkingen volgt dat
u.t(q − p) = 0 u.t(r − p) = 0
en dus kunnen we v = u nemen. We vinden dus :
Vα⊥ = t.(u1 .e1 + u2 .e2 + u3 .e3 t ∈ R
Definitie 4.2.29 Zij α en β vlakken in E. We zeggen dat α en β orthogonaal
zijn als Vα⊥ ⊥Vβ⊥ We noteren α⊥β.
(Let op : er staat NIET dat Vα ⊥Vβ .)
Propositie 4.2.30 Zij α en β vlakken met vergelijkingen
u1 x1 + u2 x2 + u3 x3 = u0 (α)
v1 x1 + v2 x2 + v3 x3 = v0 (β)
ten opzichte van een orthonormaal referentiestelsel (O, e1 , e2 , e3 ). Dan geldt
α⊥β ⇐⇒ u1 .v1 + u2 .v2 + u3 .v3 = 0
157
Bewijs De vlakken α en β zijn orthogonaal als Vα⊥ ⊥Vβ⊥ . We weten dat
Vα⊥ voortgebracht is door de vector
u = u1 .e1 + u2 .e2 + u3 .e3
en Vβ⊥ door de vector
v = v1 .e1 + v2 .e2 + v3 .e3
Bijgevolg is
Vα⊥ ⊥Vβ⊥ ⇐⇒ u⊥v ⇐⇒ u1 .v1 + u2 .v2 + u3 .v3 = 0
Definitie 4.2.31 Zij α een vlak in E en zij P een punt. Als Q het snijpunt
is van α en de loodlijn door P dan noemt men d(P, Q) de afstand van P tot
α. We noteren dit getal als d(P, α).
Propositie 4.2.32 Zij α een vlak met vergelijking
u1 .x1 + u2 .x2 + u3 .x3 = u0
ten opzichte van een orthonormaal referentiestelsel en zij P een punt met
coördinaten p = (p1 , p2 , p3 ).
Dan is
|u.tp − u0 |
d(P, α) = √ t
u. u
Bewijs
De loodlijn l op α door P heeft een parametervergelijking
x = p + t.u (t ∈ R)
Stel Q het snijpunt van l en α en stel q de coördinaten van Q.
Dan is
q = p + t.u voor zekere t ∈ R
u.tq = u0
We vinden dat
t = (u.t(q − p))/u.tu
= (u0 − u.tp)/u.tu
158
Bijgevolg is
d(P, α) = d(P,
q Q)
= (q − p).t(q − p)
p
2 .u.tu
= t√
= |t|. u.tu
u0 −u.tp
= √
t
u. u
Opmerking We beschouwden hiervoor matrixen A met de eigenschap dat
t
A.A de eenheidsmatrix is. Een (n, n)-matrix met de eigenschap tA.A = In
noemt men een orthogonale matrix. Een orthogonale matrix is dus inverteerbaar en A−1 = tA. Bovendien is
1 = det(In ) = det(tA.A) = det(tA).det(A) = det(A)2
en bijgevolg is det(A) = ±1.
4.2.4
Oriëntaties
Op een rechte
Zij l een rechte in E met richtingsruimte Vl . Als v ∈ Vl niet 0 is dan is {v}
een basis voor Vl . Als w ∈ Vl nog een vector met w 6= 0 dan is w = λ.v voor
zekere λ ∈ R∗ .
Als λ > 0 dan zeggen we dat v en w dezelfde oriëntatie bepalen op l.
Als λ < 0 dan zeggen we dat v en w verschillende oriëntaties bepalen op l.
Elke rechte heeft dus twee mogelijke oriëntaties die bepaald worden door een
keuze van een basis voor Vl . Een georiënteerde rechte noemt men een as.
Op een vlak
Zij π een vlak met richtingsruimte Vπ en zij {e1 , e2 } een geordende basis voor
Vπ .
Als {f1 , f2 } nog een geordende basis is voor Vπ dan is
f1 = a11 .e1 + a21 .e2
f2 = a12 .e1 + a22 .e2
159
voor zekere
A=
a11 a12
a21 a22
De matrix A is inverteerbaar want {f1 , f2 } is een basis. Bijgevolg is det(A) 6=
0.
Als det(A) > 0 dan zegt men dat {e1 , e2 } en {f1 , f2 } dezelfde oriëntatie
bepalen op π.
Als det(A) < 0 dan zegt men dat {e1 , e2 } en {f1 , f2 } verschillende oriëntaties
bepalen op π.
Elk vlak heeft dus twee mogelijke oriëntaties die bepaald worden door een
keuze van een geordende basis voor Vπ .
Op de 3D ruimte
We doen nog een keer hetzelfde voor E.
Zij {e1 , e2 , e3 } en {f1 , f2 , f3 } geordende basissen voor VE .
Dan is
f1 = a11 .e1 + a21 .e2 + a31 .e3
f2 = a12 .e1 + a22 .e2 + a32 .e3
f3 = a13 .e1 + a23 .e2 + a33 .e3
voor zekere


a11 a12 a13
A =  a21 a22 a23 
a31 a32 a33
De matrix A is inverteerbaar want {f1 , f2 , f3 } is ook een basis voor VE en
dus is det(A) 6= 0.
Als det(A) > 0 dan zeggen we dat {e1 , e2 , e3 } en {f1 , f2 , f3 } dezelfde oriëntatie
bepalen op E.
Als det(A) < 0 dan zeggen we dat {e1 , e2 , e3 } en {f1 , f2 , f3 } verschillende
oriëntaties bepalen op E. Er zijn dus twee mogelijke oriëntaties op E die
bepaald worden door de keuze van een geordende basis voor VE .
In het begin kozen we punten O0 , P0 , Q0 , R0 in E. Als we
−→
f1 = O0 P0
−→
f2 = O0 Q0
−→
f1 = O0 R0
nemen dan is {f1 , f2 , f3 } een geordende orthonomale basis voor E. De
oriëntatie die bepaald is door deze basis zullen we positief noemen. De andere
oriëntatie heet dan negatief.
160
Propositie 4.2.33 Zij π een vlak in E en zij {e1 , e2 } een geordende orthonormale basis voor Vπ . Dan bestaat er een unieke vector e3 ∈ VE zodat
{e1 , e2 , e3 } een geordende orthonormale basis is voor VE die een positieve
oriëntatie bepaalt op E.
Bewijs We weten dat Vπ⊥ een 1-dimensionale deelruimte van VE is. Als
v ∈ Vπ⊥ niet 0 is dan is e1 , e2 , v een orthogonale basis voor VE en door v als
v
derde vector te kiezen is de basis geordend. Stel e = ||v||
. Dan is ||e|| = 1 en
dus is e1 , e2 , e een geordende orthonormale basis. Als deze basis een positieve
oriëntatie bepaalt dan kunnen we e3 = e nemen. Als de basis een negatieve
oriëntatie bepaalt dat nemen we e3 = −e. Hiermee zijn alle mogelijkheden
uitgeput.
4.2.5
Hoeken
Zij a1 = (l1 , e1 ) en a2 = (l2 , e2 ) twee assen in een vlak π. Dit betekent dus
dat l1 en l2 rechten zijn en dat e1 en e2 basissen vormen voor Vl1 en voor Vl2
die de rechten een oriëntatie geven. Als f1 ∈ Vl1 en als f2 ∈ Vl2 niet 0 zijn
dan is
f1 = λ1 .e1 en f2 = λ2 .e2
voor zekere λ1 , λ2 ∈ R∗ . We vinden dan dat
f1 .f2
λ1 .λ2
e1 .e2
e1 .e2
=
.
=±
||f1 ||.||f2 ||
|λ1 |.|λ2 | ||e1 ||.||e2 ||
||e1 ||.||e2 ||
Als f1 en e1 dezelfde oriëntatie bepalen op l1 en als f2 en e2 dezelfde oriëntatie
bepalen op l2 dan zijn λ1 en λ2 positief en dus is
f1 .f2
e1 .e2
=
||f1 ||.||f2 ||
||e1 ||.||e2 ||
Bovendien kan men bewijzen dat
−1 ≤
e1 .e2
≤1
||e1 ||.||e2 ||
Er bestaat bijgevolg een uniek getal θ met 0 ≤ θ ≤ π en zodat
cos(θ) =
e1 .e2
||e1 ||.||e2 ||
161
Men noemt dit getal θ de maat van de hoek tussen de assen a1 en a2 .
In deze betekenis is de maat van een hoek altijd een positief getal. Het heeft
in deze definitie ook geen belang in welke volgorde de assen a1 en a2 vernoemd
worden. We spreken hier van een niet georiënteerde hoek. Als we het vlak
een oriëntatie geven dan kunnen we ook georiënteerde hoeken beschouwen.
Stel zoals hiervoor θ de maat van de niet georiënteerde hoek tussen de assen a1
en a2 . Als de geordende basis {e1 , e2 } (in deze volgorde) positief georiënteerd
is dan noemen we θ de maat van de hoek van het assenkoppel (a1 , a2 ). Als de
basis negatief georiënteerd is dan noemen we −θ de maat van dit assenkoppel.
Uit deze definitie volgt dat de maten van de hoeken tussen (a1 , a2 ) en tussen
(a2 , a1 ) tegengesteld zijn. Inderdaad, de oriëntaties van de geordende basissen
{e1 , e2 } en {e2 , e1 } (telkens in deze volgorde vernoemd) zijn tegengesteld.
4.2.6
Poolcoördinaten en sferische coördinaten
Zij (O, e1 , e2 ) een positieg georiënteerd orthonormaal affien referentiestelsel
voor het vlak π. Stel ai de as door O met positieve richting ei , (i = 1, 2).
−→
Zij P een punt in π met P 6= O. Stel a = (lOP , OP ) de as door de punten O
−→
−→
en P met richting OP . Stel ρ = ||OP || en stel θ de maat van de georiënteerde
hoek van het assenkoppel (a1 , a).
Dan is de plaats van P in het vlak volledig bepaald door de getalle ρ en θ.
Stel namelijk p = (p1 , p2 ) de coördinaten van P ten opzichte van het gekozen
orthonormaal referentiestelsel. Dan is
−→
q
e
.
OP
p1
1
ρ = p21 + p22 en cos(θ) =
=
−→
ρ
||e1 ||.||OP ||
Hieruit volgt dat p1 = ρ.cos(θ) en p2 = ±ρ.sin(θ).
−→
De oriëntatie van de geordende basis {e1 , OP } wordt bepaald door het teken
van
1 p1
det
= p2
0 p2
Dus θ is positief als en slechts als p2 positief is . Hieruit volgt dat p2 =
ρ.sin(θ).
Definitie 4.2.34 Het geordend tweetal (ρ, θ) noemt men de poolcoördinaten
van het punt P .
(Het koppel (p1 , p2 ) noemt men dikwijls de carthesische coördinaten van P .)
162
Opmerking De poolcoördinaten van de oorsprong O zijn niet ondubbelzinnig gedefinieerd. De waarde voor ρ is 0 maar voor de hoek θ kan men eender
welke waarde nemen.
Uit de voorgaande redenring volgt direct de volgende stelling.
Propositie 4.2.35 Zij P een punt met carthesische coördinaten (p1 , p2 ) 6=
(0, 0) en met poolcoördinaten (ρ, θ). Dan is
p1 = ρ.cos(θ) en p2 = ρ.sin(θ)
q
p1
p2
ρ = p21 + p22 cos(θ) = p 2
sin(θ) = p 2
2
p1 + p2
p1 + p22
en dus θ = arctan( pp12 ).
Merk de gelijkenis op met de twee voorstellingen van complexe getallen. Men
maakt gewoonlijk een identificatie tussen C en het vlak π. Het getal 1 correspondeert dan met het punt met carthesische coördinaten (1, 0) en i correspondeert met het punt met carthesische coördinaten (0, 1).
In het algemeen correspondeert een complex getal a + i.b met het punt met
carthesische coördinaten (a, b). Als (ρ, θ) de poolcoördinaten zijn van dit
punt dan is a + i.b = ρ.ei.θ .
Voor de 3D ruimte kan men een analoog coördinaten systeem invoeren. Men
krijgt dan de zogenaamde sferische coördinaten of bolcoördinaten van een
punt.
We kiezen in E een vast positief georiënteerd orthonormaal referentiestelsel
(O, e1 , e2 , e3 ). Stel ai de as door O met positieve richting ei . Stel π het vlak
met vergelijking x3 = 0. Dit is het vlak door de assen a1 en a2 . In π wordt
(O, e1 , e2 ) opgevat als een positief georënteerd orthonormaal referentiestelsel.
Zij nu P een punt in E met P 6= O. Stel P 0 de orthogoonale projectie
van P op het vlak π. Als P coördinaten p = (p1 , p2 , p3 ) heeft dan heeft P 0
coördinaten p0 = (p1 , p2 , 0).
De positie van P in de ruimte is volledig bepaald door de volgende getallen :
−→
1. ρ : de lengte van de vector OP
q
ρ = p21 + p22 + p23
163
2. θ : de georënteerde hoek tussen de assen (a1 , a0 ) waar bij a0 de as
−→
(lOP 0 , OP 0 ) is
−→
3. φ : de georiënteerde hoek tussen de assen (a3 , a) waarbij a de as lOP , OP
is.
−→
We vinden namelijk dat p3 = ρ.cos(φ). Bovendien is de lengte ||OP 0 || gelijk
is aan ρ.sin(φ). Het punt P 0 heeft in π dus poolcoördinaten (ρ.sin(φ), θ).
Bijgevolg is
p1 = ρ.sin(φ).cos(θ)
p2 = ρ.sin(φ).sin(θ)
Definitie 4.2.36 Het drietal (ρ, θ, φ) noemt men de sferische coördinaten
van P .
Opmerking De sferische coördinaten van de oorsprong O zijn niet ondubbelzinnig gedefinieerd. De waarde voor ρ is 0 maar de voor θ en φ kan
men eender welke waarde nemen.
Uit de voorgaande redenering volgt direct de volgende stelling.
Propositie 4.2.37 Zij P een punt met carthesische coördinaten (p1 , p2 , p3 ) 6=
(0, 0, 0) en met poolcoördinaten (ρ, θ, φ). Dan is :
1. p1 = ρ.sin(φ).cos(θ)
2. p2 = ρ.sin(φ).sin(θ)
3. p3 = ρ.cos(φ)
en
1. ρ =
p
p21 + p22 + p23
2. θ = arctan( pp21 )
3. φ = arccos( √
p3
)
p21 +p22 +p23
164
4.2.7
Het vectorieel product
Zij {e1 , e2 , e3 } en {e01 , e02 , e03 } positief georiënteerde geordende orthonormale
basissen voor VE Zij u, v, w ∈ VE vectoren met coëfficiënten u, v, w ten
opzichte van de basis {e1 , e2 , e3 } en met coëfficiënten u0 , v 0 , w0 ten opzichte
van de basis {e01 , e02 , e03 } Stel A = (aij ) de overgangsmatrix tussen de twee
basissen. We hebben dus
 0
 e1 = a11 .e1 + a21 .e2 + a31 .e3
e0 = a12 .e1 + a22 .e2 + a32 .e3
 20
e3 = a13 .e1 + a23 .e2 + a33 .e3
Dan is A een orthogonale matrix en dus is det(A) = ±1. Vermits de twee
basissen echter dezelfde oriëntatie bepalen op E is det(A) > 0 en dus is
det(A) = 1. Bovendien is
u = A.tu0
t
v = A.tv 0
t
w = A.tw0
t
We vinden dan dat


 0  
 0t 
u
u .A
u
0 t






v 0  .tA
det v
= det v . A
= det
w
w0 .tA
w0
 0 
 0 
u
u
t
0 


= det v
.det A = det v 0 
w0
w0


u
Het getal det  v  is dus hetzelfde voor alle positief georiënteerde georw
dende orthonormale basissen voor VE . We noteren dit getal als det u v w
en we noemen dit de determinant van de vectoren u, v en w.
Net zoals voor gewone determinanten heeft men dat det u v w = 0 als
twee van de drie vectoren u, v en w gelijk zijn aan mekaar en de determinant
verandert van teken als twee vectoren van plaats verwisseld worden.
Propositie 4.2.38 Zij u en v vectoren in VE . Dan bestaat er een unieke
vector w in VE zodat
∀x ∈ VE : det u v x = w.x
165
Bewijs Kies een positief georiënteerde geordende orthonormale basis {e1 , e2 , e3 }
voor VE . Stel u, v de coëfficiënten van u en v. We zoeken dan een stel
coördinaten w = (w1 , w2 , w3 ) zodat voor alle x = (x1 , x2 , x3 ) geldt :
 
u

det v  = x1 .w1 + x2 .w2 + x3 .w3
x
Dit betekent dat
x1 (u2 .v3 −u3 .v2 )+x2 (u3 .v1 −u1 .v3 )+x3 (u1 .v2 −u2 .v1 ) = x1 .w1 +x2 .w2 +x3 .w3
Vermits deze gelijkheid moet gelden voor alle x1 , x2 , x3 volgt hieruit dat
w1 = u2 .v3 − u3 .v2
w2 = u3 .v1 − u1 .v3
w3 = u1 .v2 − u2 .v1
De vector w = w1 .e1 + w2 .e2 + w3 .e3 die we zo vinden voldoet aan de gestelde
voorwaarde.
Definitie 4.2.39 Als u, v ∈ VE dan noteren we de unieke vector w uit de
voorgaande stelling als v × w. We noemen v × w het vectorieel product van
v en w.
Uit de definities kunnen we volgende eigenschap afleiden.
Propositie 4.2.40 Zij u, v ∈ VE en zij {e1 , e2 , e3 } een positief georiënteerde
geordende orthonormale basis voor VE . Dan is :
u × v = det(u v e1 ).e1 + det(u v e2 ).e2 + det(u v e3 ).e3
Bewijs
Stel u × v = w1 .e1 + w2 .e2 + w3 .e3 . Dan is
(u × v).ei = w1 .(e1 .ei ) + w2 .(e2 .ei ) + w3 .(e3 .ei ) = wi
Anderzijds is volgens de definitie van vectorieelproduct :
(u × v).ei = det(u v ei )
Bijgevolg is wi = det(u v ei ).
166
Propositie 4.2.41 Zij u, u, v ∈ VE en zij λ ∈ R. Dan geldt :
1. (u + u0 ) × v = u × v + u0 × v
2. u × v = −(v × u)
3. u × u = 0
4. (λ.u) × v = λ.(u × v)
5. (u × v)⊥u
(u × v)⊥v
6. als u en v lineair afhankelijk zijn dan is u × v = 0
7. als u en v lineair onafhankelijk zijn dan vormen u, v, u × v in die volgorde een positief georiënteerde geordende basis voor VE
Bewijs Zij {e1 , e2 , e3 } een positief georiënteerde geordende orthonormale
basis voor VE . Het bewijs van (1), (2), (3) en (4) volgt uit vorige stelling en
uit de eigenschappen van determinanten. We verfiëren enkel eigenschap (1).
P
(u + u0 ) × v = 3i=1 det(u + u0 v ei ).ei
P
= 3i=1 (det(u v ei ) + det(u0 v ei )) .ei
P3
P
= i=1 det(u v ei ).ei + 3i=1 det(u0 v ei ).ei
= u × v + u0 × v
Uit de definitie volgt ook :
(u × v).u = det(u v u) = 0 (u × v).v = det(u v v) = 0
Bijgevolg is (u × v)⊥u en (u × v)⊥v.
Als u en v lineair afhankelijk zijn dan is u = λ.v voor zekere λ ∈ R en dus is
u × v = λ(u × u) = 0.
Als u en v lineair onafhankelijk zijn dan is u × v 6= 0 en u × v is orthogonaal
met u en met v. Bijgevolg zijn u, v, u × v lineair onafhankelijk. De vectoren
vormen dus een basis voor VE . Als u = (u1, u2 , u3 ) en v = (v1, v2 , v3 ) de
167
coëfficiënten zijn van u en v ten opzichte van {e1 , e2 , e3 } dan is overgangsmatrix gelijk aan


u1
u2
u3

v1
v2
v3
A=
u 2 v 3 − u 3 v 2 u 3 v 1 − u1 v 3 u1 v 2 − u2 v 1
Bijgevolg is
det(A) = (u2 v3 − u3 v2 )2 + (u3 v1 − u1 v3 )2 + (u1 v2 − u2 v1 )2 > 0
Dit betekent dat {u, v, u × v} ook de positieve oriëntatie geeft.
Propositie 4.2.42 Als u, v ∈ VE met u, v 6= 0 dan is
||u × v|| = ||u||.||v||.sin(θ)
waarbij θ de maat is van de hoek tussen assen die bepaald worden door u en
v.
Bewijs We werken weer ten opzichte van een een positief georiënteerde
geordende orthonormale basis {e1 , e2 , e3 }. Stel u = (u1 , u2 , u3 ) en v =
(v1 , v2 , v3 ) de coëfficiënten van u en van v.
We onderstellen eerst dat ||u|| = ||v|| = 1.
Dan is
sin2 (θ) = 1 − cos2 (θ) = 1 − (u.v)2
en
||u × v||2 = (u2 v3 − u3 v2 )2 + (u3 v1 − u1 v3 )2 + (u1 v2 − u2 v1 )2
= u22 v32 + u23 v22 + u23 v12 + u21 v32 + u21 v22 + u22 v12
−2(u2 u3 v2 v3 + u3 u1 v3 v1 + u1 u2 v1 v2 )
= u22 (v32 + v12 ) + u23 (v22 + v12 ) + u21 (v32 + v22 )
−2(u2 u3 v2 v3 + u3 u1 v3 v1 + u1 u2 v1 v2 )
= u21 (1 − v12 ) + u22 (1 − v22 ) + u23 (1 − v32 )
−2(u2 u3 v2 v3 + u3 u1 v3 v1 + u1 u2 v1 v2 )
= (u21 + u22 + u23 ) − (u21 v12 + u22 v22 + u23 v32 )
−2(u2 u3 v2 v3 + u3 u1 v3 v1 + u1 u2 v1 v2 )
= 1 − (u1 .v1 + u2 .v2 + u3 .v3 )2
= 1 − (u.v)2 = sin2 (θ)
168
We nemen nu u en v willekeurig. Dan hebben de vectoren u0 =
1
v 0 = ||v||
.v lengte 1 en dus is
1
.u
||u||
en
||u0 × v 0 || = sin(θ)
Hieruit volgt dat
||u × v|| = ||u||.||v||.sin(θ)
4.3
Affiene transformaties
Definitie 4.3.1 Een affiene transformatie φ van een vlak π (of van de 3Druimte E) is een bijectieve functie φ : π → π (of φ : E → E) met de volgende
eigenschappen
• als P, Q, R punten zijn op één rechte, dan liggen de punten φ(P ), φ(Q), φ(R)
ook op één rechte (hieruit volgt dat het beeld van een rechte weer een
rechte is)
• als l1 en l2 evenwijdige rechten zijn dan zijn φ(l1 ) en φ(l2 ) ook evenwijdige rechten.
Zij φ een affiene transformatie van π (of van E) en stel V de corresponderende
richtingsvectorruimte. (Dus V = Vπ als φ een transformatie is van π en
V = VE als φ een transformatie is van E.)
Definier een nieuwe functie φ∗ : V → V op de volgende manier :
−→
als v ∈ V en als v gerepresenteerd wordt door v = P Q stel dan φ∗ (v) =
−→
φ(P )φ(Q).
−→
−→
Deze afbeelding is welgedefinieerd, d.w.z. als P Q en RS dezelfde vector rep−→
−→
resenteren dan representeren φ(P )φ(Q) en φ(R)φ(S) ook dezelfde vector. Dit
volgt uit het feit dat φ evenwijdigheid bewaart.
169
−→
−→
Zij v, w ∈ V en stel v = P Q. Dan bestaat er een uniek punt R zodat w = QR
−→
en v + w = P R. We vinden dat
−→
φ∗ (v + w) = φ(P )φ(R)
−→
−→
= φ(P )φ(Q) + φ(Q)φ(R)
= φ∗ (v) + φ∗ (w)
Op een analoge wijze bewijst men dat
φ∗ (λ.v) = λ.φ∗ (v)
voor alle λ ∈ R en v ∈ V .
We vinden dus dat φ∗ een lineaire afbeelding is.
Bijzonder geval : Tranlaties
Zij a ∈ V een vaste vector. We definiëren een afbeelding Ta op de volgende
manier :
−→
als P een punt is π of in E dan bestaat er een uniek punt P 0 zodat a = P P 0 .
We stellen Ta (P ) = P 0 .
−→
Voor elk punt P hebben we dus a = P Ta (P ). We noemen Ta de translatie
over de vector a.
−→
Zij nu v ∈ V een willekeurige vector en stel v = P Q. Dan is
−→
−→
a = P Ta (P ) = QTa (Q)
170
Wegens de parallellogrammenwet is
−→
−→
v = P Q = Ta (P )Ta (Q) = Ta∗ (v)
We vinden dus dat voor elke vector a ∈ V de afbeelding Ta∗ gelijk is aan IdV .
We gaan nu in de omgekeerde richting te werk. Zij φ een affiene transformatie
zodat φ∗ = IdV .
Dan is voor alle punten P en Q
−→
−→
−→
P Q = φ∗ (P Q) = φ(P )φ(Q)
Uit de parallellogrammenwet volgt weer dat
−→
−→
∀P, Q : P φ(P ) = Qφ(Q)
−→
We vinden dus dat de vector a = P φ(P ) niet afhangt van het gekozen punt
P dat bovendien φ gelijk is aan de translatie Ta .
Besluit : als φ een affiene transformatie is zodat φ∗ = IdV dan is φ een
translatie.
Propositie 4.3.2 Zij φ en ψ affiene transformaties van π (of van E). Dan
is (φ ◦ ψ)∗ = φ∗ ◦ ψ ∗
−→
Bewijs
Zij v ∈ V een vector en stel v = P Q. Dan is
−→
φ∗ ◦ ψ ∗ (v) = φ∗ (ψ ∗ (v))
= φ∗ (ψ(P )ψ(Q))
−→
−→
= φ(ψ(P ))φ(ψ(Q)) = φ ◦ ψ(P )φ ◦ ψ(Q)
−→
= (φ ◦ ψ)∗ (P Q)
= (φ ◦ ψ)∗ (v)
Gevolg 4.3.3 Als φ een affiene transformatie is dan is φ∗ : V → V een
isomorfisme en (φ−1 )∗ = (φ∗ )−1 .
171
Propositie 4.3.4 Zij φ en ψ affiene transformaties van π of E.
Dan geldt :
φ∗ = ψ ∗ ⇐⇒ ∃a ∈ V zodat φ = Ta ◦ ψ
Bewijs
a) Stel dat φ∗ = ψ ∗ . Dan is
(φ ◦ ψ −1 )∗ = φ∗ ◦ (ψ ∗ )−1 = IdV
Bijgevolg bestaat er een vector a ∈ V zodat φ◦ψ −1 = Ta en dus is φ = Ta ◦ψ.
b) Onderstel nu dat φ = Ta ◦ ψ. Dan is
φ∗ = (Ta ◦ ψ)∗ = Ta∗ ◦ φ∗ = IdV ◦ φ∗ = φ∗
Zij nu α : V → V een isomorfisme. Kies een oorsprong O. Als nu P een
−→
−→
punt is dan bestaat er een uniek punt P 0 zodat α(OP ) = OP 0 . We kunnen
dan een functie φ : π → π (of φ : E → E) definiëren door φ(P ) = P 0 .
Men kan zonder veel problemen aantonen dat φ een affiene transformatie is.
Bovendien is voor alle punten P en Q :
−→
−→
−→
φ∗ (P Q) = φ(P )φ(Q)
−→
= Oφ(Q) − Oφ(P )
−→
−→
= α(OQ) − α(OP )
−→
−→
−→
= α(OQ − OP )
= α(P Q)
We vinden dus dat φ∗ = α.
De definite van φ hangt af van de gekozen oorsprong O. Als we een andere
oorsprong O0 kiezen dan vinden we ook een andere functie φ0 .
De transformaties φ en φ0 zijn dus bepaald door de regel
−→
−→
α(OP ) = Oφ(P )
−→
α(O0 P ) = O0 φ0 (P )
Uit de constructies volgt wel dat φ∗ = (φ0 )∗ = α en dus zijn φ en φ0 gelijk op
een samenstelling met een translatie na. We gaan na over welke translatie
het hier gaat.
172
−→
Stel a = O0 O − α−1 (OO0 ). Merk op dat (φ−1 )∗ = α−1 en φ(O) = O.
We vinden voor elk punt P dat
−→
−→
−→
−→
Oφ−1 (P ) = φ−1 (O)φ−1 (P ) = (φ−1 )∗ (OP ) = α−1 (OP )
en dus
−→
−→
Oφ−1 (P ) = α−1 (OP )
−→
Zij nu P een willekeurig punt en stel Q = Ta (P ). Dan is a = P Q.
−→
⇒
−→
−→
−→
−→
Oφ(Q) = α(OQ) = α(OP ) + α(P Q) = α(OP ) + α(a)
−→
−→
−→
α(OP ) + α(O0 O) + α ◦ α−1 (OO0 )
−→
−→
−→
α(O0 O + OP ) + OO0
−→
−→
= α(O0 P ) + OO0
−→
−→
= OO0 + O0 φ0 (P )
−→
= Oφ0 (P )
We vinden dat φ0 (P ) = φ(Q) = φ ◦ Ta (P ). Besluit: Als α : V → V een
isomorfisme is en als O en O0 twee keuzen zijn voor een oorsprong dan bepaalt
α affiene transformaties φ en φ0 door
−→
−→
−→
−→
α(OP ) = Oφ(P ) en α(O0 P ) = O0 φ0 (P )
Men heeft verder α = φ∗ = (φ0 )∗ en
−→
−→
φ0 = φ ◦ Ta met a = O0 O + α−1 (OO0 )
4.4
Euclidische transformaties
Definitie 4.4.1 Een Euclidische transformatie φ van een vlak π (of van E)
is een affiene transformatie die bovendien afstanden bewaart, d.w.z.
−→
−→
∀P, Q : ||P Q|| = ||φ(P )φ(Q)||
173
1e Geval : Transformaties van π
Zij φ : π → π een Euclidische transformatie.
Als we een orthonormaal referentiestelsel (O, e1 , e2 , e3 ) kiezen voor π dan
wordt een punt met coördinaten p = (p1 , p2 ) getransformeerd in een een punt
φ(P ) met coördinaten q = (q1 , q2 ). Door een geschikte keuze van het referentiestelsel worden deze coördinaatvoorstellingen eenvoudig. De volgende
gevallen kunnen voorkomen :
1. q1 = p1 + β q2 = p2 (waarbij β een vast reëel getal is). In dit geval is
φ een translatie over de vector β.e1 . Dus φ = Tβ.e1 .
2. q1 = p1 + β q2 = −p2 (waarbij β een vast reëel getal is). In dit geval
is φ = Tβ.e1 ◦ σ waarbij σ de spiegeling is om de rechte met vergelijking
x2 = 0.
Als β = 0 dan is φ dus een spiegeling.
Als β 6= 0 dan spreekt men van een schuifspiegeling.
3. q1 = cos(θ).p1 + sin(θ).p2 q2 = −sin(θ).p1 + cos(θ).p2 waarbij θ een
vast reëel getal is. In dit geval spreken we van een rotatie met centrum
O over een hoek θ.
We vinden dus dat er 4 soorten Euclidische transformaties van π bestaan :
translaties, spiegelingen, schuifspiegelingen en rotaties.
2e Geval : Transformaties van E
174
Zij φ : E → E een Euclidische transformatie. Door weer een geschikt orthonormaal referentiestelsel (O, e1 , e2 , e3 ) te kiezen kunnen we φ op een eenvoudige manier voorstellen. Een punt P met cördinaten p = (p1 , p2 , p3 ) wordt
getransformeerd in een punt φ(P ) met coördinaten q = (q1 , q2 , q3 ) waarbij de
volgende drie types kunnen optreden.
1. q1 = p1 + β q2 = p2 q3 = p3 (waarbij β een vast reëel getal is). In
dit geval is φ de translatie Tβ.e1 .
2. q1 = p1 + β q2 = p2 q3 = −p3 (waarbij β een vast reëel getal is). In
dit geval is φ gelijk aan Tβ.e1 ◦ σ waarbij σ de spiegeling is om het vlak
met vergelijking x3 = 0.
Als β = 0 dan is φ dus een spiegeling.
Als β 6= 0 dan spreekt men van een schuifspiegeling.
3. q1 = .p1 + β q2 = cos(θ).p2 + sin(θ).p3 q3 = −sin(θ).p2 + cos(θ).p3
waarbij = ±1 en waarbij θ een vast reëel getal is.
Als β = 0 en = 1 dan is φ een rotatie over een hoek θ rond de rechte
met vergelijking x2 = x3 = 0.
Als β 6= 0 en als = 1 dan spreekt men van een schroefbeweging.
175
Download