Lineaire Algebra - science.uu.nl project csg

advertisement
Lineaire Algebra
WISB121
F.Beukers
Departement Wiskunde
2013
UU
Inhoudsopgave
1 Vectoren in de ruimte
1.1 Het intuı̈tieve vectorbegrip . . .
1.2 Vlakke en ruimtelijke meetkunde
1.3 Coördinaten . . . . . . . . . . . .
1.4 Analytische meetkunde . . . . . .
1.5 Opgaven . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Inwendige producten
2.1 Inproduct . . . . . . . . . . . . . . . .
2.2 Inproducten en coördinaten . . . . . .
2.3 Vergelijking van een vlak . . . . . . . .
2.4 Voorbeelden van rekenen met lijnen en
2.5 Hoger dimensionale vectorruimten . .
2.6 Meetkunde in dimensie n (optioneel) .
2.7 Opgaven . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
9
11
12
15
. . . . .
. . . . .
. . . . .
vlakken
. . . . .
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
20
20
20
23
24
25
27
29
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Matrices en lineaire vergelijkingen
3.1 Matrices . . . . . . . . . . . . . . . . . . . .
3.2 Lineaire vergelijkingen en Gauss eliminatie
3.3 n vergelijkingen in n onbekenden . . . . . .
3.4 Homogene en inhomogene stelsels . . . . . .
3.5 Deelruimten en opspansels . . . . . . . . . .
3.6 Scalairen (optioneel) . . . . . . . . . . . . .
3.7 Coderingstheorie (optioneel) . . . . . . . . .
3.8 Opgaven . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
33
33
35
40
44
45
45
47
48
4 Onafhankelijkheid en rang
4.1 Afhankelijkheid . . . . . . . . . . .
4.2 Dimensie en rang . . . . . . . . . .
4.3 Rang van een matrix . . . . . . . .
4.4 Dimensies van lineaire deelruimten
4.5 Opgaven . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
57
57
59
62
64
66
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5 Determinanten in dimensies 2,3
69
5.1 Geörienteerd volume in R2 . . . . . . . . . . . . . . . . . . . . . . 69
5.2 Uitwendig product . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.3 Georienteerd volume in R3 . . . . . . . . . . . . . . . . . . . . . . 71
3
4
INHOUDSOPGAVE
5.4
5.5
Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
Opgaven . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6 Determinanten
6.1 Permutaties . . . . . . . . . . . . . . . . .
6.2 Algemene determinanten . . . . . . . . . .
6.3 Eigenschappen van determinanten . . . .
6.4 De berekening van determinanten . . . . .
6.5 De VanderMonde determinant (optioneel)
6.6 Regel van Cramer . . . . . . . . . . . . .
6.7 Geadjungeerde en inverse . . . . . . . . .
6.8 Opgaven . . . . . . . . . . . . . . . . . . .
6.9 Extra opgaven . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
76
76
78
80
83
86
88
88
90
93
7 Vectorruimten
7.1 Axioma’s . . . . . . . . . . . . . . . . . .
7.2 Afhankelijkheid . . . . . . . . . . . . . . .
7.3 Lineaire afbeeldingen . . . . . . . . . . . .
7.4 Lineaire afbeeldingen in eindige dimensie .
7.5 Vectorruimteconstructies (optioneel) . . .
7.6 Scalairen (optioneel) . . . . . . . . . . . .
7.7 Opgaven . . . . . . . . . . . . . . . . . . .
7.8 Extra opgaven . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
96
96
99
103
107
112
113
114
120
.
.
.
.
.
.
.
.
122
. 122
. 124
. 126
. 129
. 132
. 133
. 134
. 137
8 Eigenwaarden en eigenvectoren
8.1 Inleiding . . . . . . . . . . . . . . . . . . . . . .
8.2 Berekening van eigenwaarden en eigenvectoren
8.3 Basiseigenschappen . . . . . . . . . . . . . . . .
8.4 Polynomen en hun nulpunten (optioneel) . . . .
8.5 Multipliciteiten en Jordan normaalvorm . . . .
8.6 Cayley-Hamilton (optioneel) . . . . . . . . . . .
8.7 Een toepassing, Google’s Pagerank (optioneel)
8.8 Opgaven . . . . . . . . . . . . . . . . . . . . . .
9 Vectorruimten met inproduct
9.1 Inwendige producten . . . . . . . . .
9.2 Orthogonale en orthonormale stelsels
9.3 Orthogonale projecties . . . . . . . .
9.4 Opgaven . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
144
. 144
. 147
. 152
. 157
10 Symmetrische en orthogonale afbeeldingen
10.1 Symmetrische afbeeldingen . . . . . . . . .
10.2 Orthogonale matrices . . . . . . . . . . . . .
10.3 Orthogonale afbeeldingen . . . . . . . . . .
10.4 Standaardvorm orthogonale afbeeldingen . .
10.5 Opgaven . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
161
161
163
165
167
169
INHOUDSOPGAVE
11 Antwoorden
11.1 Hoofdstuk
11.2 Hoofdstuk
11.3 Hoofdstuk
11.4 Hoofdstuk
11.5 Hoofdstuk
11.6 Hoofdstuk
11.7 Hoofdstuk
11.8 Hoofdstuk
11.9 Hoofdstuk
11.10Hoofdstuk
1 .
2 .
3 .
4 .
5 .
6 .
7 .
8 .
9 .
10
5
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
172
. 172
. 173
. 173
. 175
. 176
. 176
. 178
. 184
. 190
. 198
Hoofdstuk 1
Vectoren in de ruimte
1.1
Het intuı̈tieve vectorbegrip
Het begrip vector komen we tegen in grote delen van de wiskunde en natuurkunde. Ook komen ze in heel veel verschillende gedaanten voor. Zo worden
bijvoorbeeld krachten en snelheden in de natuurkunde voorgesteld door vectoren. In de wiskunde gebruiken we vectoren om punten in de ruimte weer
te geven, maar later zal blijken dat ook oplossingen van lineaire (differentiaal)vergelijkingen gezien kunnen worden als vectoren. In het begin gaat het
om grootheden die een richting en een grootte hebben, tegen het eind zullen we
ook met het abstractere vectorbegrip kennismaken. Wij zullen deze cursus heel
aanschouwelijk beginnen en zo de basis leggen voor algemenere vectorbegrippen
die we later zullen zien.
We introduceren het begrip vector als een translatie (= verschuiving) van de
ruimte. Een dergelijke translatie kunnen we ons voorstellen door middel van
een pijl, die aangeeft in welke richting de verschuiving moet plaatsvinden en
over welke afstand de verschuiving plaatsvindt. Daarbij hebben we meerdere
mogelijkheden om de pijl te tekenen. Het is hopelijk duidelijk dat onderstaande
twee pijlen dezelfde translatie representeren (Ze zijn even lang, parallel, en
wijzen in dezelfde richting).
Kies een punt A en een vector v. Dan zal v het punt A naar een ander punt
−−→
B verschuiven. We zullen de vector v dan ook wel eens als AB aangeven.
Dezelfde vector v kan ook een punt C naar een ander punt D verplaatsen. Dan
−−→
−−→
−−→
kunnen we ook schrijven v = CD . De notaties AB en CD stellen in dit geval
dus dezelfde vector voor.
7
8
HOOFDSTUK 1. VECTOREN IN DE RUIMTE
B
D
A
C
De verplaatsingsafstand van een vector zullen we de lengte van onze vector
noemen. Er is één vector met lengte 0, en dat noemen we de nulvector. Notatie:
0. Deze correspondeert met geen translatie of, als je wilt, een translatie over
afstand 0. Als a een vector is, dan noteren we zijn lengte met |a| (we geven al
onze vectoren met vette letters aan).
Stel dat we twee vectoren a en b hebben. We kunnen nu de somvector definiëren
als de translatie die ontstaat door eerst translatie a uit te voeren en vervolgens
b. Deze opeenvolging van translaties is uiteraard weer een translatie en we
zullen die noteren met a + b. In een plaatje,
b
a
a
a+b
a+b
b
In het rechterplaatje hebben we voor b een andere pijl gekozen die in hetzelfde
punt begint als waar de pijl voor a begint. Hopelijk is het uit dit plaatje
duidelijk waarom vectoroptelling volgens de zogenaamde parallelogramwet gaat.
Verder hebben we ook de verschilvector van a en b. Dat is precies de vector
die bij b opgeteld weer a geeft. In een plaatje,
a
a-b
b
Notatie: a−b. Naast optelling van vectoren is er ook scalaire vermenigvuldiging.
Kies een vector a en een getal λ ∈ R. Stel λ > 0. De vector die dezelfde richting
als a heeft, maar waarvan de lengte λ maal zo groot is als die van a noemen we
het scalaire product van a met λ. Als λ < 0, dan verstaan we onder het scalaire
product van a met λ de vector met tegengestelde richting aan a en lengte gelijk
aan |λ| · |a|. Het scalaire product van a met λ noteren we als λa. Tenslotte
nemen we altijd 0a = 0. Hier is een illustratie,
1.2. VLAKKE EN RUIMTELIJKE MEETKUNDE
9
2a
a
a
a
-a
0a
De optelling en scalaire vermenigvuldiging voldoen aan een aantal min of meer
voor de hand liggende regels, die we hier verder niet zullen afleiden, maar wel
noemen. Voor elk drietal vectoren a, b, c en elk tweetal getallen λ, µ ∈ R gelden
de volgende regels,
1. a + b = b + a (commutativiteit)
2. a + (b + c) = (a + b) + c (associativiteit)
3. λ(a + b) = λa + λb (distributiviteit)
4. (λ + µ)a = λa + µa (distributiviteit)
5. λ(µa) = (λµ)a (associativiteit)
Onthoudt deze regels en gebruik ze. Later zullen we de boel op z’n kop zetten
en vectoren definiëren als objecten die aan bovenstaande rekenregels voldoen
en niets anders. Maar voorlopig is het nog niet zover en houden we aan ons
meetkundige vectorbegrip vast.
1.2
Vlakke en ruimtelijke meetkunde
Kies een vast punt O in de ruimte die we de oorsprong noemen. Kies nu een
willekeurig punt P in de ruimte. De vector die O naar P verplaatst geven we
−−→
aan met OP . Omgekeerd, gegeven een vector p, dan zal deze het punt O naar
een ander ruimtelijk punt verplaatsen. Als we dat weer met P aangeven, dan
−−→
zien we dat p = OP . Op deze manier zie je dat, door keuze van een punt
O als oorsprong, aan elke vector een ruimtelijk punt kan worden toegekend en
omgekeerd. Vaak zullen we stilzwijgend van de keuze van een oorspong uitgaan
en de begrippen ‘punt in de ruimte’ en ‘vector’ door elkaar gebruiken. Dit geeft
hopelijk geen verwarring.
Met de identificatie punten↔vectoren kunnen we bijvoorbeeld een rechte lijn
door middel van een verzameling vectoren beschrijven.
−−→
Neem om te beginnen een punt A ̸= O en zij a = OA . Het zal duidelijk
zijn dat de verzameling vectoren m = {λa|λ ∈ R} precies de lijn door O en
−−→
A voorstelt. Kies nu een punt P en zij p = OP . Verschuif de lijn m over
−−→
de vector p = OP en noem de verschoven lijn l. Deze loopt evenwijdig aan
m en gaat door het punt P . De punten van de lijn l worden gegeven door de
verzameling l = {p + λa|λ ∈ R}. We noemen p + λa een parametervoorstelling
of vectorvoorstelling van de lijn l. De vector p heet een steunvector van de lijn
10
HOOFDSTUK 1. VECTOREN IN DE RUIMTE
l en a ̸= 0 een richtingvector. Een parametervoorstelling van de lijn die gaat
door twee verschillende punten P en Q, gegeven door de vectoren p en q, luidt
p + λ(q − p).
Hier is een ander voorbeeld van ‘meetkunde door middel van vectoren’.
Lemma 1.2.1 Kies een oorsprong O en zij P, Q een tweetal punten. Stel p =
−−→
−−→
OP en q = OQ . Dan wordt het punt precies in het midden van het lijnstuk
P Q gegeven door 12 (p + q).
Bewijs: Beschouw het parallellogram OP QR waarin R het punt corresponderend met p + q is. De diagonalen van dit parallellogram snijden elkaar middendoor. Het snijpunt is dus precies het midden van de diagonaal P Q. Tevens
is dat het midden van de diagonaal OR. En dat correspondeert met de vector
1
2 (p + q).
2
Hier is een kleine meetkundestelling als toepassing.
Stelling 1.2.2 De zwaartelijnen van een driehoek snijden elkaar in precies één
punt.
Bewijs: Geef de hoekpunten van de driehoek aan met A, B, C. Kies ergens
−−→
−−→
−−→
een punt O in het vlak en stel a = OA , b = OB en c = OC . Merk nu op dat
1
het punt Z gegeven door 3 (a + b + c) op de zwaartelijn door B ligt. Immers,
2 1
1
(a + b + c) = b + ( (a + c) − b)
3
3 2
hetgeen laat zien dat Z ligt op de lijn door B en het midden van het lijnstuk
AC. Op analoge manier zien we dat het punt Z ook op de zwaartelijnen door
A en C ligt. Dus snijden de zwaartelijnen elkaar in het punt Z. We noemen
dit punt het zwaartepunt van de driehoek.
2
We kunnen ook parametervoorstellingen van vlakken geven. Een tweetal vectoren a, b heet onafhankelijk als de één geen scalair veelvoud is van de ander.
Anders gezegd, a, b zijn onafhankelijk als ze beide niet 0 zijn en ze wijzen in
verschillende en niet-tegengestelde richtingen.
Stel dat a, b onafhankelijk zijn en met de punten A resp. B corresponderen.
Overtuig je er zelf van dat de verzameling W = {λa + µb|λ, µ ∈ R} precies
het vlak door O, A, B voorstelt. Zij nu P een willekeurig punt in de ruimte
met bijbehorende vector p. Geef het vlak door P , evenwijdig aan W , aan met
V . Omdat we V ook kunnen krijgen door W over de vector p te transleren
zien we dat V gegeven wordt door de vectoren {p + λa + µb|λ, µ ∈ R}. We
noemen dit een parametervoorstelling van het vlak V . De vector p noemen we
een steunvector van V en a, b richtingvectoren. Evenals bij de lijnen zijn deze
vectoren niet uniek vastgelegd.
Stel we hebben drie punten A, B, C in de ruimte, aangegeven met een drietal
vectoren a, b, c. We nemen aan dat de punten niet op één lijn liggen, met
1.3. COÖRDINATEN
11
andere woorden er gaat precies één vlak door deze punten. Een tweetal richtingsvectoren wordt bijvoorbeeld gegeven door b − a en c − a. Kiezen we a
als steunvector dan wordt een parametervoorstelling van het vlak door A, B, C
gegeven door a + λ(b − a) + µ(c − a).
1.3
Coördinaten
Om echt met vectoren te kunnen rekenen is het handig om met coördinaten van
vectoren te werken. Dit idee is afkomstig van Descartes (1596-1650) en wordt
sindsdien intensief gebruikt.
Kies een drietal onderling loodrechte vectoren e1 , e2 , e3 elk met lengte 1. Dan
weten we dat we elke vector a kunnen schrijven in de vorm λe1 + µe2 + νe3
voor geschikt gekozen getallen λ, µ, ν. Populair gezegd, de vectoren e1 , e2 en
e3 zouden we respectievelijk kunnen aangeven met ‘1 stap naar voren’, ‘1 stap
naar rechts’ en ‘1 stap naar boven’. De vector λe1 + µe2 + νe3 zou dan de
instructie ‘λ stappen naar voren, µ stappen naar rechts en ν stappen naar
boven’ betekenen. Het is duidelijk dat elke vector (= translatie) a met dergelijke
instructies gevormd kan worden. De getallen λ, µ, ν noemen we de coördinaten
of kentallen van de vector a ten opzichte van de basis e1 , e2 , e3 .
Zij nu x en y een tweetal vectoren met kentallen respectievelijk x1 , x2 , x3 en
y1 , y2 , y3 . Dan geldt,
x + y = x1 e1 + x2 e2 + x3 e3 + y1 e1 + y2 e2 + y3 e3
= (x1 + y1 )e1 + (x2 + y2 )e2 + (x3 + y3 )e3
Met andere woorden, de kentallen van x+y zijn x1 +y1 , x2 +y2 , x3 +y3 . Evenzo
geldt voor elke λ ∈ R dat
λx = λ(x1 e1 + x2 e2 + x3 e3 )
= λx1 e1 + λx2 e2 + λx3 e3
De kentallen van λx zijn dus λx1 , λx2 , λx3 .
De ruimte R3 is per definitie de ruimte van geordende drietallen reële getallen,
die we de coördinaten van het drietal noemen. In R3 hebben we een coördinaatsgewijze
optelling en scalaire vermenigvuldiging. Door van elke vector zijn kentallen te
nemen, kunnen we de ruimte van vectoren identificeren met R3 . Let op dat deze
identificatie afhankelijk is van de keuze van de basisvectoren ei (i = 1, 2, 3).
Het is een gebruik om de elementen van R3 te schrijven als een kolom van drie
getallen met haakjes eromheen. Dus
 
x1
 x2  ∈ R 3
x3
Dit is de kolomvector notatie. Omdat deze notatie binnen een tekst weer onhandig is, geven we de kolomvector met coördinaten x1 , x2 , x3 binnen een tekst
vaak aan met (x1 , x2 , x3 )t waarin t (voor transpositie) betekent, dat we van de
rij een kolom maken.
12
1.4
HOOFDSTUK 1. VECTOREN IN DE RUIMTE
Analytische meetkunde
Door de keuze van een vast punt O in de ruimte, die we de oorsprong zullen
noemen, kunnen we een 1-1-duidig verband aanbrengen tussen de punten van
de ruimte en vectoren. De vectoren staan weer in 1-1-verband met de punten
van R3 en dit geeft de welbekende identificatie van de ruimte om ons heen
met R3 . We kunnen nu ruimtelijke meetkunde bedrijven door te rekenen met
elementen uit R3 . Vroeger noemde men dit wel de analytische meetkunde. Het
gebruik van coördinaten voor punten in de ruimte zou je een algebraı̈sering van
de meetkunde kunnen noemen, en dit was de grote bijdrage van Descartes.
In het verhaal dat nu volgt hebben we een oorsprong O gekozen en identificeren
we vectoren met de punten van de ruimte. Verder zullen we impliciet een
vastgekozen basis e1 , e2 , e3 voor onze coördinaten aannemen.
In een vorige paragraaf hebben we al gezien wat de parametervoorstelling van
een lijn is, door gebruik van coördinaten kunnen we er ook heel expliciet mee
rekenen.
Voorbeeld 1.4.1. De rechte lijn door de punten (1, 2, −1)t en (2, 0, 1)t wordt
gegeven door de parametervoorstelling
 

  


2
1
2
2−ν
 0  + ν( 2  −  0 ) =  2ν 
1
−1
1
1 − 2ν
♢
Voorbeeld 1.4.2. Het vlak door de punten (1, 0, 1)t , (1, 1, 0)t , (1, 1, 1)t wordt
gegegeven door de parametervoorstelling
 
   
   


1
1
1
1
1
1
 1  + λ( 0  −  1 ) + µ( 1  −  1 ) =  1 − λ 
1
1
1
0
1
1−µ
♢
Voorbeeld 1.4.3. We kunnen het snijpunt van bovenstaand vlak en lijn
bepalen door oplossing van λ, µ, ν uit de gelijkheid

 

2−ν
1
 1 − λ  =  2ν  .
1 − 2ν
1−µ
In feite staat hier het stelsel van lineaire vergelijkingen
1 = 2−ν
1 − λ = 2ν
1 − µ = 1 − 2ν
Uit de eerste vergelijking volgt ν = 1. Na invullen van ν = 1 volgt uit de tweede
vergelijking 1 − λ = 2 en dus λ = −1. Uit de derde vergelijking 1 − µ = −1 en
1.4. ANALYTISCHE MEETKUNDE
dus µ = 2. Het snijpunt wordt dus (1, 2, −1)t .
13
♢
Voorbeeld 1.4.4. Gegeven zijn de lijnen met parametervoorstellingen
 


 


1
1
2
0
l : x =  0  + λ  1  , m : x =  3  + µ  −1 
1
−1
4
2
Hebben deze lijnen een snijpunt? Hiertoe moeten we λ, µ bepalen zó dat
1+λ = 2
0+λ = 3−µ
1 − λ = 4 + 2µ
Uit de eerste vergelijking volgt λ = 1. Uit de tweede, µ = 3 − λ = 2. Echter,
λ = 1, µ = 2 is geen oplossing van de derde vergelijking. De lijnen l, m snijden
elkaar dus niet.
Verder zijn de richtingsvectoren (1, 1, −1)t en (0, −1, 2)t geen veelvoud van
elkaar (ze zijn onafhankelijk). Dat betekent dat l, m niet evenwijdig zijn. We
noemen een tweetal niet-evenwijdige lijnen dat elkaar niet snijdt, kruisend.
♢
Behalve parametervoorstellingen van een vlak kunnen we een vlak ook karakteriseren door een vergelijking van een vlak . Bijvoorbeeld, beschouw het vlak
bestaande uit de punten met coördinaten x1 , x2 , x3 die gegeven wordt door de
parametervoorstelling
   




x1
1
1
−2
 x2  =  3  + λ  −1  + µ  0  .
x3
1
−1
−1
Uitgeschreven,
x1 = 1 + λ − 2µ
x2 = 3 − λ
x3 = 1 − λ − µ
We elimineren λ, µ uit deze vergelijkingen als volgt. Tel de tweede bij de eerste
op en trek de tweede van de derde af,
x1 + x2 = 4 − 2µ
x2 = 3 − λ
x3 − x2 = −2 − µ
Trek nu twee maal de derde van de eerste af,
x1 + 3x2 − 2x3 = 8
x2 = 3 − λ
x3 − x2 = −2 − µ
14
HOOFDSTUK 1. VECTOREN IN DE RUIMTE
De eerste vergelijking luidt x1 + 3x2 − 2x3 = 8, waaruit λ, µ verdreven zijn. We
noemen dit een vergelijking van het vlak.
Omgekeerd kunnen we uit een vergelijking van een vlak ook weer een parametervoorstelling afleiden. Dit kunnen we doen door twee geschikte coördinaten
als parameter te kiezen. Bijvoorbeeld, voor het vlak x1 + 3x2 − 2x3 = 8 kunnen
we als parameters x2 , x3 kiezen. We krijgen dan
  


 
  
8
8 − 3x2 + 2x3
−3
x1
2
 =  0  + x2  1  + x3  0 
 x2  = 
x2
x3
0
x3
0
1
en dit is een keurige parametervoorstelling met parameters x2 , x3 . Merk op
dat deze parametervoorstelling verschilt van degene waarmee we gestart zijn.
Parametervoorstellingen van lijnen en vlakken zijn niet uniek vastgelegd.
Voorbeeld 1.4.5. Met bovenstaande vaardigheden kunnen we ook lastiger
problemen aanpakken. Bijvoorbeeld, gegeven het tweetal kruisende lijnen
 




 
2
−1
3
1







l:
1 +λ
1
, m:
0
+ µ 1
0
0
−2
1
en het punt P met coördinaten (1, 0, 1)t . Bestaat er een lijn door P die l en m
snijdt?
Voor de oplossing moet je je eerst een meetkundige voorstelling maken van het
probleem door de twee lijnen en het punt in gedachten te nemen en vervolgens
een strategie te bedenken. De gevraagde lijn moet natuurlijk liggen in het vlak
V door P en l. Verder moet de gevraagde lijn m snijden. Dat betekent dat
het snijpunt van m en V ook op de gevraagde lijn moet liggen. We bepalen dit
snijpunt en noemen het Q. De lijn door P en Q ligt in V en moet dus ook l
snijden (tenzij de lijn door P, Q en l evenwijdig zijn). Daarmee is de lijn door
P, Q de gevraagde lijn.
Nadat we deze strategie hebben bedacht gaan we aan het rekenen. Eerst een
parametervoorstelling van het vlak V . Kies als steunpunt (2, 1, 0) en als richtingen dit steunpunt minus P , dus (2, 1, 0)t − (1, 0, 1)t = (1, 1, −1)t , en de richting
van l: (−1, 1, 0)t . Dus




 
−1
1
2
V :=  1  + ρ  1  + σ  1  .
0
−1
0
Snijden met de lijn m geeft het stelsel vergelijkingen
2 + ρ
1 + ρ
− ρ
−
+
σ
σ
=
=
=
3
+
+
−2 +
µ
µ
µ
Trek de eerste van de tweede en derde af,
2 +
−1
−2 −
ρ
2ρ
− σ
+ 2σ
+ σ
=
=
=
3
−3
−5
+ µ
.
1.5. OPGAVEN
15
Uit de tweede vergelijking lezen we af dat 2σ = −2, dus σ = −1. Vul dit
in de derde vergelijking in, dan krijgen we ρ = 1 en tenslotte, uit de eerste,
µ = 1. Het gevraagde punt Q wordt dus (3, 0, −2)t + (1, 1, 1)t = (4, 1, −1)t . De
−−→
parametervoorstelling van de gevraagde lijn met steunpunt P en richting P Q
wordt
 


1
3
0 + λ 1 .
1
−2
♢
1.5
Opgaven
In alle opgaven denken we ons een vast gekozen oorsprong O en we identificeren
vectoren en punten in de ruimte door middel van O. De vector die A naar het
−−→
punt B transleert geven we kortheidshalve aan met AB .
Opgave 1.5.1 Zij a, b, c een drietal vectoren. Neem de volgende schets over
a
c
b
Schets zelf in deze figuur de vectoren a + b, b + c, (a + b) + c en a + (b + c).
Concludeer dat (a + b) + c = a + (b + c) (associativiteit van de vectoroptelling).
Opgave 1.5.2 Geef in elk van de volgende onderdelen een parametervoorstelling
van de rechte door de gegeven punten.
1. (1, 3, −5)t en (−2, −1, 0)t
2. (1/2, 1/4, 1)t en (−1, 1, 1/3)t
Opgave 1.5.3 Bepaal de punten die het segment tussen de gegeven punten in
drieën delen.
1. (2, 4, 1)t en (−1, 1, 7)t .
2. (−1, 1, 5)t en (4, 2, 1)t .
3. p en q.
Opgave 1.5.4 Ga na of de volgende paren rechten elkaar snijden en zo ja,
bepaal het snijpunt,
16
HOOFDSTUK 1. VECTOREN IN DE RUIMTE
1.
 
 
2
1
3 + λ1,
4
1
 


3
3
2 + µ 1 
1
−1
2.
 
 
3
1
4 + λ1,
5
1
 


2
2
4 + µ 3 
1
−2
3.
 


1
3
 0  + λ  −1  ,
1
2
 


5
−2
0 + µ 2 
7
2
Opgave 1.5.5 Drie punten heten collineair als ze allen op één rechte liggen.
Geef een algemene methode om na te gaan of drie punten collineair zijn. Welk
van de volgende drietallen zijn collineair?
1. (2, 1, 1)t , (1, 2, 3)t , (4, −1, −3)t
2. (2, −4, 1)t , (1, 0, 2)t , (0, 2, 3)t
3. (1, −3, 1)t , (0, 1, 2)t , (−1, 3, 4)t
Opgave 1.5.6 Bepaal de snijpunten van de volgende lijnen en vlakken.
1. x = (2, 3, 1)t + λ(1, −2, −4)t en 3x1 − 2x2 + 5x3 = 11
2. x = (1, 1, 2)t + λ(1, −1, −2)t en 2x1 + x2 − x3 = 5
Opgave 1.5.7 Zij P, Q een tweetal verschillende punten in de ruimte. Kies
een oorsprong O en noem de bijbehorende vectoren p, q. Geef een parametervoorstelling van de lijn door P en Q in termen van p, q.
Opgave 1.5.8 Zij P, Q, R een drietal punten in de ruimte dat niet op één lijn
ligt. Kies een oorsprong O en noem de bijbehorende vectoren P, Q, R. Geef een
parametervoorstelling van het vlak door P, Q en R in termen van p, q, r.
Opgave 1.5.9 In de tekst hebben we het gehad over het zwaartepunt van een
driehoek. In deze opgaven laten we de ruimtelijke versie zien.
Stel dat de punten A, B, C, D in de ruimte niet in één vlak liggen en stel a =
−−→
−−→
−−→
−−→
OA , b = OB , c = OC , d = OD . Deze punten vormen de hoekpunten van een
viervlak. Als we het zwaartepunt van elk zijvlak verbinden met het overstaande
hoekpunt, dan krijgen we vier lijnen. Bewijs dat deze lijnen door één punt gaan.
Dit punt noemen we het zwaartepunt van het viervlak en we geven het aan met
−−→
Z. Druk OZ uit in de vectoren a, b, c, d.
Opgave 1.5.10 We bekijken hetzelfde viervlak als in de voorgaande opgave.
Bewijs dat de drie lijnen die de middens van de overstaande ribben van het
−−→
viervlak met elkaar verbinden, elkaar in één punt P snijden. Druk OP uit in
a, b, c, d.
1.5. OPGAVEN
17
Opgave 1.5.11 Beschouw het parallelle blok
EF GH
ABCD ,
H
E
G
F
D
A
C
B
De lichaamsdiagonaal AG wordt doorsneden door de vlakken BDE en CF H
−−→
−−→
−−→
in de punten S respectievelijk T . Stel b = AB , d = AD , e = AE .
−−→
−−→
1. Druk AS en AT uit in b, d, e en leidt hieruit af dat de lijnstukken
AS, ST, T G even lang zijn.
2. Bepaal een parametervoorstelling van ieder der vlakken BDE en CF H
en laat zien dat deze vlakken onderling evenwijdig zijn.
Opgave 1.5.12 Zij A = (3, 3, 3), B = (4, 1, 1), C = (1, 2, −1).
1. Bepaal een parametervoorstelling van de lijn l door A en B.
2. Bepaal een parametervoorstelling van het lijnstuk AB.
3. Laat zien dat l niet door C gaat.
4. Bepaal een parametervoorstelling en een vergelijking van het vlak door
A, B, C.
5. Bepaal de punten D zodanig dat A, B, C, D de hoekpunten van een parallelogram zijn.
Opgave 1.5.13 Bereken de coördinaten van het snijpunt van de lijn l en het
vlak V gegeven door:






 


−4
−3
5
2
1
l : x =  7  + λ  4  , V : x =  −1  + α  1  + β  −1  .
2
1
1
0
1
Opgave 1.5.14 Hoeveel punten hebben de lijn l en het vlak V gemeen, waarin,
 

 

 
1
1
1
1
l : x =  1  + λ  −1  V : x = α  0  + β  2 
3
1
0
1
Opgave 1.5.15 Zij

l:

 
1
1
x =  −2  + λ  1  ,
1
2
m:


 
1
2
x =  0  + µ  −1 
0
3
18
HOOFDSTUK 1. VECTOREN IN DE RUIMTE
n:
 
 
3
6
x = 2 + ν 3.
1
4
Bereken de coördinaten van A op l en B op m zodanig dat AB evenwijdig is
met n.
Opgave 1.5.16 Zij
l:
 
 
1
3



x = 1 + λ 2.
1
1
Bepaal de vergelijkingen van twee vlakken die l als snijlijn hebben.
Opgave 1.5.17 Bepaal een parametervoorstelling van de snijlijn l van de
vlakken V : x2 − 2x3 + 1 = 0 en W : x1 − x2 − x3 + 1 = 0.
Opgave 1.5.18 Zij V : x1 − x2 − x3 = 0 en W : x1 + x2 − 3x3 + 2 = 0.
1. Bepaal een parametervoorstelling van de lijn l door het punt O = (0, 0, 0)
zodanig dat l evenwijdig is aan de snijlijn van V en W .
2. Bepaal de vergelijking van het vlak door l, evenwijdig aan W .
Opgave 1.5.19 Bereken α zodanig dat de lijn l : x = λ(−2, 3, 2)t evenwijdig is
met het vlak V : x1 − 2x2 + αx3 = β. Mag β iedere waarde aannemen?
Opgave 1.5.20 Zij
 
 
1
1



l : x = 1 + λ 0,
0
1




3
1
n : x =  −3  + ν  −4  ,
4
3
 


4
0
m : x = 1 + µ 1 
2
−1




5
4
p : x =  −1  + τ  −6  .
3
5
1. Bewijs dat l en m elkaar kruisende lijnen zijn (dat wil zeggen, ze snijden
elkaar niet en zijn ook niet evenwijdig).
2. Bewijs dat n en p elkaar snijdende lijnen zijn en bereken de coördinaten
van hun snijpunt S.
3. Bepaal een vergelijking van het vlak door n en p.
4. Bepaal een parametervoorstelling van de lijn door S die l en m snijdt.
Opgave 1.5.21 Van de vierzijdige pyramide OABCD is het grondvlak ABCD
een parallelogram. De diagonalen AC en BD snijden elkaar in E. Op de lijn
door O en A ligt een punt A1 dat niet met O of A samenvalt. Op analoge
wijze hebben we de punten B1 (op OB), C1 (op OC) en D1 (op OD). Stel
−−−→
−−→ −−−→
−−→ −−−→
−−→ −−−→
−−→
OA1 = αOA , OB1 = β OB , OC1 = γ OC , OD1 = δ OD .
1.5. OPGAVEN
19
1. Stel dat de punten A1 , B1 , C1 , D1 in één vlak liggen dat door E gaat.
Bewijs dat α1 + γ1 = β1 + 1δ = 2.
2. Stel dat α1 + γ1 = β1 + 1δ = 2. Bewijs dat de punten A1 , B1 , C1 , D1 in één
vlak liggen dat door E gaat.
Opgave 1.5.22 Gegeven zijn de rechte lijnen,






 
4
1
−1
1







a : x = −2 + λ −1 , b : x =
1
+ µ 0
−2
−1
−3
2
 


1
0
2x1 + x2 + x3 = 4
c : x =  0  + ν  −2  , d :
x1 + 2x2 − x3 = −1
5
1
1. Bewijs dat a en d onderling evenwijdig zijn.
2. Toon aan dat a en b elkaar snijden. Bereken de coördinaten van het
snijpunt S van a en b en bepaal de vergelijking van het vlak V door a en
b.
3. Bepaal een parametervoorstelling van de lijn l die a, b, c en d snijdt.
Opgave 1.5.23 Gegeven zijn het punt P met coördinaten (1, −2, 1)t en de
lijnen


 
 
 
2
1
2
0
l :  0  + λ1 m : 1 + µ0.
−1
0
2
1
Bepaal een parametervoorstelling van de lijn n door P die zowel l als m snijdt.
Hoofdstuk 2
Inwendige producten
2.1
Inproduct
Tot nog toe hebben we het bij de besprekening van vectoren nog niet gehad
over het begrip hoek tussen twee vectoren en het begrip loodrechtheid. Om dit
te kunnen doen voeren we het begrip inwendig product of, korter, inproduct in.
Zij a en b een tweetal vectoren die we beiden ̸= 0 veronderstellen. Zij ϕ de
hoek tussen de richtingen van a en b. De hoek ϕ ligt dus tussen 0 en π radialen
in (we meten onze hoeken in radialen). Het inwendig product van a en b is het
getal |a||b| cos ϕ. Notatie: a · b. Deze laatste notatie zorgt ervoor dat we het
inproduct ook wel een dotproduct noemen. In het bijzonder geldt dat als a en b
loodrecht op elkaar staan, d.w.z. ϕ = π/2, dan a · b = 0. Omgekeerd, als a ̸= 0
en b ̸= 0, dan volgt uit a · b = 0 dat ϕ = π/2. Als a of b de nulvector is, dan
is het begrip hoek tussen a en b niet goed gedefinieerd. In dat geval spreken
we af dat a · b = 0.
2.2
Inproducten en coördinaten
We voeren nu een coördinatenstelsel in dat gegeven wordt door drie onderling
loodrechte vectoren e1 , e2 , e3 . Aan onze vectoren kunnen we nu coördinaten
toekennen. Het is nu mogelijk om de lengte van een vector en het inproduct
van twee vectoren uit te schrijven in termen van hun coördinaten. De lengte
van x met kentallen x1 , x2 , x3 wordt, via de Stelling van Pythagoras, gegeven
door
|x|2 = x21 + x22 + x23 .
Om het inproduct in coördinaten uit te drukken, maken we gebruik van de
cosinusregel voor driehoeken.
Stelling 2.2.1 (Cosinusregel) Beschouw een driehoek met hoekpunten A, B, C.
Zij ϕ = ∠BAC. Dan geldt,
BC 2 = AB 2 + AC 2 − 2AB · AC · cos ϕ
Schets:
20
2.2. INPRODUCTEN EN COÖRDINATEN
21
C
y
y-x
φ
A
x
B
Met behulp van de cosinusregel kunnen we laten zien dat
Stelling 2.2.2 Voor elk tweetal vectoren x, y met kentallen (x1 , x2 , x3 ) en (y1 , y2 , y3 )
geldt
x · y = x1 y1 + x2 y2 + x3 y3 .
−−→
Bewijs: In het bovenstaande plaatje identificeren we x met AB en y met
−−→
−−→
AC . Dan geldt y − x = BC . Uit de cosinus regel volgt dat
|y − x|2 = |x|2 + |y|2 − 2|x||y| cos ϕ.
(2.1)
We schrijven nu |y − x|2 uit in coördinaten,
|y − x|2 = (y1 − x1 )2 + (y2 − x2 )2 + (y3 − x3 )2
= x21 + x22 + x23 + y12 + y22 + y32 − 2(x1 y1 + x2 y2 + x3 y3 )
= |x|2 + |y|2 − 2(x1 y1 + x2 y2 + x3 y3 )
Vergelijken we de laatste gelijkheid met de cosinusregel (2.1) dan concluderen
we dat
2(x1 y1 + x2 y2 + x3 y3 ) = 2|x||y| cos ϕ.
Omdat |x||y| cos ϕ = x · y, volgt onze Stelling na deling aan beide zijden door
2.
2
In het bijzonder geldt voor de lengte van een vector x dat
|x|2 = x · x = x21 + x22 + x23 .
De formule voor het inproduct stelt ons in staat om de hoek tussen twee vectoren
̸= 0 uit te rekenen, gegeven de kentallen van beide vectoren,
cos ϕ =
x·y
x1 y1 + x2 y2 + x3 y3
√
=√ 2
|x||y|
x1 + x22 + x23 y12 + y22 + y32
In het bijzonder weten we dat de hoek tussen twee vectoren x ̸= 0 en y ̸= 0
gelijk is aan 90o precies dan als hun inproduct nul is, m.a.w. x1 y1 +x2 y2 +x3 y3 =
0.
We zeggen dat twee vectoren x, y onderling orthogonaal zijn als x · y = 0.
Concreet bezien betekent dat ofwel minstens één van de vectoren de nulvector
is, òf dat de vectoren niet nul zijn en loodrecht op elkaar staan.
Met de formule voor het inproduct kunnen we aantal nuttige eigenschappen
van het inproduct aantonen.
22
HOOFDSTUK 2. INWENDIGE PRODUCTEN
Stelling 2.2.3 Voor het inwendig product op R3 gelden de volgende eigenschappen.
1. Voor elk tweetal vectoren x, y geldt x · y = y · x.
2. Voor elk tweetal vectoren x, y en elke λ ∈ R geldt (λx) · y = λ(x · y).
3. Voor elk drietal vectoren x, y, z geldt (x + y) · z = x · z + y · z.
4. Voor elke vector x geldt x · x ≥ 0 en x · x = 0 ⇐⇒ x = 0.
Bewijs: Het bewijs van deze stelling volgt door direct uitschrijven van de
beweringen. Bijvoorbeeld, eigenschap (3). Er geldt, door haakjes wegwerken,
(x + y) · z = (x1 + y1 )z1 + (x2 + y2 )z2 + (x3 + y3 )z3
= x1 z1 + x2 z2 + x3 z3 + y1 z1 + y2 z2 + y3 z3
= x·z+y·z
Eigenschap (4) volgt uit het feit dat x · x = x21 + x32 + x23 en het feit dat een
som van drie kwadraten altijd ≥ 0 is. De som is gelijk aan nul precies dan als
alle kwadraten nul zijn.
Geef zelf het bewijs van de overige twee eigenschappen.
2
Hier is nog een meetkundestelling als toepassing.
Stelling 2.2.4 De hoogtelijnen in een driehoek snijden elkaar in precies één
punt.
Schets:
C
c
H
B
h
A
b
−−→
−−→
Bewijs: Stel b = AB en c = AC . Zij H het snijpunt van de hoogtelijnen
−−→
door B en C en stel h = AH . Dan geldt dat (h − c) · b = 0 en (h − b) · c = 0
(Ga na!). Na uitwerken, h · b − c · b = 0 en h · c − b · c = 0. Trekken we
deze ongelijkheden van elkaar af, dan houden we over dat h · (b − c) = 0. Met
andere woorden, ofwel h = 0, d.w.z. H = A, ofwel h staat loodrecht op c − b.
In beide gevallen gaat de loodlijn vanuit A door het punt H.
2
2.3. VERGELIJKING VAN EEN VLAK
2.3
23
Vergelijking van een vlak
We hebben in het vorige hoofdstuk gezien dat een vlak in de ruimte ook kan
worden gegeven door een vergelijking. Met behulp van het inproduct krijgen
we een elegante interpretatie van de coëfficienten van deze vergelijking. Bij elk
vlak hoort een zogenaamde normaalvector welke loodrecht op het vlak staat.
Deze is op een scalaire factor na vastgelegd. Kies een normaalvector n van V
en stel p ∈ V .
n
x-p
V
p
O
x
Dan zien we dat elk punt x ∈ V de eigenschap heeft dat n · (x − p) = 0. Ofwel,
n · x = n · p. In coördinaten uitgeschreven,
n1 x1 + n2 x2 + n3 x3 = n1 p1 + n2 p2 + n3 p3
Hierin zijn n1 , n2 , n3 en p1 , p2 , p3 uiteraard de kentallen van n resp. p. We noemen deze vergelijking voor x1 , x2 , x3 een vergelijking voor het vlak V . Het is niet
moeilijk om, gegeven een parametervoorstelling van een vlak, een vergelijking
te bepalen.
Voorbeeld 2.3.1. Neem bijvoorbeeld het vlak met parametervoorstelling
  





x1
2
1
0
 x2  =  −1  + λ  1  + µ  2 
x3
3
−1
−1
We kunnen een vergelijking vinden door eliminatie van λ, µ uit
x1 = 2 + λ
x2 = −1 + λ + 2µ
x3 = 3 − λ − µ
Doe dit en check dat we de vergelijking x1 + x2 + 2x3 = 7 krijgen.
Een iets andere manier is om eerst de normaalvector te bepalen, dat wil zeggen
een vector n zó dat




0
1
n ·  1  = n ·  2  = 0.
−1
−1
Uitgeschreven,
n1 + n2 − n3 = 0
2n2 − n3 = 0
24
HOOFDSTUK 2. INWENDIGE PRODUCTEN
We hoeven niet perse alle oplossingen te hebben, één is genoeg. Kies hiertoe
n2 = 1. Dan volgt uit de tweede vergelijking dat n3 = 2 en daarna uit de eerste
dat n1 = 1. Dus n = (1, 1, 2)t is een normaalvector en een vergelijking van het
vlak wordt gegeven door x1 + x2 + 2x3 = (1, 1, 2)t · (2, −1, 3)t = 7.
♢
2.4
Voorbeelden van rekenen met lijnen en vlakken
Door gebruik van coördinaten kunnen we expliciete berekeningen maken.
Voorbeeld 2.4.1. Hoek tussen de vectoren a = (1, 1, 2)t en b = (1, −3, 1)t .
a · b = 1 · 1 + 1 · (−3) + 2 · 1 = 0, dus a staat loodrecht op b.
♢
Voorbeeld 2.4.2. Gegeven zijn de lijn l en het punt p,
 


 
1
1
2





l :x= 0 +λ
1
, p = 0
1
−1
1
Bepaal de (kortste) afstand van P tot de lijn l.
Oplossing: De kortste afstand van P tot l is precies de lengte van het lijnstukje
dat begint bij p en loodrecht eindigt op l. Noem het voetpunt van de loodlijn x.
Dan geldt dat x−p loodrecht staat op de richting van l. Dus (1, 1, −1)·(x−p) =
0. Uitgeschreven, x1 + x2 − x3 = 1. Omdat x ook op l ligt moet gelden
x1 = 1 + λ, x2 = λ, x3 = 1 − λ. Invullen in de vergelijking van het vlak geeft
3λ = 1. En dus λ = 1/3. Het punt x wordt hiermee (4/3, 1/3, 2/3) en de
afstand van x tot p,
√
√
(−2 + 4/3)2 + (1/3)2 + (−1 + 2/3)2 = 2/3.
♢
Voorbeeld 2.4.3. Gegeven is het vlak V : x1 − 2x2 + 3x3 = 5 en het punt
r = (2, 2, 2)t . Bepaal de afstand van r tot V .
Oplossing: De afstand is precies de lengte van het lijnstuk beginnend in r
en eindigend loodrecht op het vlak V . Zij v voetpunt van de loodlijn. Dan
is r − v een scalair veelvoud van de normaalvector (1, −2, 3)t van V . Dus
r − v = λ(1, −2, 3)t . Anders geschreven,

 

2−λ
1
v = r − λ  −2  =  2 + 2λ 
2 − 3λ
3
Omdat v ook in het vlak V ligt, kunnen we λ bepalen door de coördinaten van
v (met λ en al) in de vergelijking in te vullen. We vinden, 2 − λ − 2(2 + 2λ) +
3(2 − 3λ) = 5. Hieruit volgt, 4 − 14λ = 5 ⇒ λ = −1/14. De afstand is gelijk
aan
1√ 2
1
|r − v| = |λ||(1, −2, 3)t | =
1 + 22 + 32 = √
14
14
2.5. HOGER DIMENSIONALE VECTORRUIMTEN
25
♢
Voorbeeld 2.4.4. Gegeven zijn de twee kruisende lijnen l, m uit Voorbeeld
1.4.4. Bepaal de afstand tussen deze lijnen, dat wil zeggen de lengte van het
kortste verbindingslijnstuk tussen l en m.
−−→
Oplossing: We bepalen punten P en Q op l respectievelijk m zó dat P Q
−−→
loodrecht op zowel l als m staat. De gevraagde afstand is dan gelijk aan |P Q |.
Stel dat P parameterwaarde λ heeft en Q parameterwaarde µ. Dan geldt
   



 
 

1
2
1
0
−1
λ
−−→    
P Q = 0 − 3 + λ  1  − µ  −1  =  −3  +  λ + µ  .
1
4
−1
2
−3
−λ − 2µ
−−→
De eis dat deze vector loodrecht op l staat vertaalt zich in P Q · (1, 1, −1)t = 0.
−−→
Uitgeschreven, −1 + 3λ + 3µ = 0. Evenzo volgt uit de orthogonaliteit van P Q
en m dat −3 − 3λ − 5µ = 0. Oplossing van λ, µ uit deze vergelijkingen geeft
t
λ = 7/3 en µ = −2. De punten worden gegeven door
√ P = (10/3, 7/3, −4/3)
t
en Q = (2, 5, 0) . De afstand tussen deze punten is 32/3.
♢
2.5
Hoger dimensionale vectorruimten
We hebben gezien hoe onze ruimte geı̈dentificeerd kan worden met de punten
van R3 . Op analoge manier kunnen we de punten binnen een plat vlak identificeren met R2 , de geordende paren (x1 , x2 )t met x1 , x2 ∈ R.
In de geschiedenis hebben veel filosofen, natuurkundigen en ook wiskundigen
zich afgevraagd of er een vierde dimensie bestaat. Dat wil zeggen een richting
die loodrecht op de richtingen ‘naar voren’, ‘opzij’ en ‘omhoog’ staat. Van alle
antwoorden die op deze vraag gegeven zijn is het wiskundige antwoord nog
het meest pragmatische. Of de vierde dimensie nu wel of niet in werkelijkheid
bestaat, de wiskundige doet of hij bestaat en hij rekent erin door gewoon met
geordende viertallen (x1 , x2 , x3 , x4 )t te rekenen. De afstand tussen twee punten
(x1 , x2 , x3 , x4 )t en (y1 , y2 , y3 , y4 )t wordt gegeven door
√
(x1 − y1 )2 + (x2 − y2 )2 + (x3 − y3 )2 + (x4 − y4 )2
Op deze manier krijgen we echte meetkunde in een ruimte met vier vrijheidsgraden, die we als vier dimensies kunnen opvatten.
Als we dan toch bezig zijn dan kunnen we net zo goed een voorschot nemen
op onze generalisatie van het begrip vectorruimte en de ruimte Rn van geordende n-tallen reële getallen zien als een vectorruimte met n dimensies. De
optelling en scalaire vermenigvuldiging van vectoren in Rn gaan, net als bij R3 ,
coördinaatsgewijs. Ook kunnen we op Rn het begrip inwendig product invoeren
door voor x = (x1 , . . . , xn )t en y = (y1 , . . . , yn )t te nemen,
x · y = x1 y 1 + x2 y 2 + · · · + xn y n
26
HOOFDSTUK 2. INWENDIGE PRODUCTEN
De lengte van de vector x wordt gegeven door
√
|x| = x · x
Je kunt zelf met niet al te veel moeite nagaan dat dit inproduct precies de
eigenschappen uit Stelling 2.2.3 heeft (Doe dit!).
Het inproduct in Rn zou via de formule x · y = |x||y| cos ϕ het begrip hoek
in Rn een betekenis kunnen geven. Maar dan willen we natuurlijk graag dat
| cos ϕ| ≤ 1, met andere woorden |x · y| ≤ |x||y|. Deze ongelijkheid blijkt
inderdaad te gelden en staat bekend als de ongelijkheid van (Cauchy)-Schwarz.
Stelling 2.5.1 (Ongelijkheid van Schwarz) Voor elk tweetal vectoren x, y ∈
Rn geldt dat
|x · y| ≤ |x||y|
Hoewel de naam van de stelling verbonden is aan H.A.Schwarz (1843-1921),
was hij al eerder bekend bij de Franse wiskundige Cauchy (1789-1857).
Bewijs: Dit is tamelijk verrassend, zoals je zult zien. Als x = 0 dan zijn
zowel |x · y| als |x||y| gelijk aan nul en is de stelling waar. Dat was makkelijk.
Laten we nu aannemen dat x ̸= 0. Uit de elementaire eigenschappen van het
inproduct weten we dat voor elke λ ∈ R geldt 0 ≤ (λx+y)·(λx+y). Uitwerking
van het inproduct geeft dat voor elke λ geldt,
0 ≤ (λx + y) · (λx + y)
= λ2 x · x + λx · y + λy · x + y · y
= λ2 |x|2 + 2λx · y + |y|2
De laatste uitdrukking is een kwadratische functie in λ die ≥ 0 is voor elke
keuze van λ. Dat betekent dat de discriminant van deze functie ≤ 0 is. Dus
4(x·y)2 −4|x|2 |y|2 ≤ 0 Hieruit volgt (x·y)2 ≤ |x|2 |y|2 , waaruit na worteltrekken
de ongelijkheid van Schwarz volgt.
2
Het is illustratief om de ongelijkheid van Schwarz voluit te schrijven. Voor elke
x1 , . . . , xn , y1 , . . . , yn ∈ R geldt,
|x1 y1 + x2 y2 + · · · + xn yn |2 ≤ (x21 + x22 + · · · + x2n )(y12 + y22 + · · · + yn2 )
Dit ziet er geenszins triviaal uit! Ter illustratie kunnen we y1 = · · · = yn = 1
nemen. We krijgen,
(x1 + x2 + · · · + xn )2 ≤ n(x21 + x22 + · · · + x2n ).
Delen we aan beide zijden door n2 ,
(
)
x1 + · · · + xn 2 x21 + · · · + x2n
≤
.
n
n
Met andere woorden, het kwadraat van het gemiddelde van n getallen is altijd
kleiner of gelijk aan het gemiddelde van de kwadraten van die getallen. Probeer
dit maar eens te bewijzen zonder gebruik van de ongelijkheid van Schwarz.
Een direct gevolg van de ongelijkheid van Schwarz is de zogenaamde driehoeksongelijkheid.
2.6. MEETKUNDE IN DIMENSIE N (OPTIONEEL)
27
Stelling 2.5.2 Stel x, y ∈ Rn . Dan geldt
|x + y| ≤ |x| + |y|.
Deze ongelijkheid impliceert dat de lengte van de zijde van een driehoek altijd
kleiner of gelijk is aan de som van de lengten van de overige zijden. Als driehoek
kunnen we een driehoek nemen met hoekpunten A, B, C. Dan geldt AC ≤
−−→
−−→
AB + BC. Om dit te laten zien nemen we x = AB en y = BC . Dan geldt
−−→
x + y = AC . We moeten dus laten zien dat |x + y| ≤ |x| + |y|. Dit is de
vectorversie van de driehoeksongelijkheid en hier is het bewijs.
Bewijs: Merk op dat
|x + y|2 = (x + y) · (x + y)
= x · x + 2x · y + y · y
Gebruiken we nu de ongelijkheid van Schwarz, die zegt dat 2 x · y ≤ 2 |x||y|,
dan krijgen we,
|x + y|2 ≤ |x|2 + 2 |x||y| + |y|2 = (|x| + |y|)2
Na worteltrekken volgt de gewenste ongelijkheid |x + y| ≤ |x| + |y|.
2
Nu we weten dat het hoekbegrip in Rn zinvol gedefinieerd kan worden, noemen
we één hoek met name. Als x · y = 0 en x, y ̸= 0 dan is die hoek π/2. We
noemen twee vectoren x, y waarvan het inproduct nul is, orthogonale vectoren.
2.6
Meetkunde in dimensie n (optioneel)
In de vorige paragrafen hebben we een afstand gedefinieerd tussen de punten
van Rn die bovendien aan de driehoeksongelijkheid voldoet. Hiermee hebben
we een meetkunde in Rn gevonden. Ter illustratie laten we hier een meetkundig
probleem in Rn zien dat een verrassende oplossing heeft in R8 en R24 .
Onder een bol in Rn met centrum a ∈ Rn en straal R verstaan we de verzameling
punten x gegeven door |x−a| ≤ R. We zeggen dat twee bollen elkaar overlappen
als de afstand tussen de centra strikt kleiner is dan de som van de stralen van
de bollen. We zeggen dat de bollen raken als de afstand tussen de centra precies
gelijk is aan de som van de stralen. Het probleem luidt nu als volgt.
Probleem 2.6.1 Gegeven een bol B in Rn met straal R. Wat is het maximale
aantal niet overlappende bollen met straal R dat aan B kan raken?
Laten we beginnen in dimensie 2. Bollen in R2 zijn in dit geval gewoon schijven.
In het volgende plaatje zien we een schijf B met daaromheen 6 schijven van
dezelfde straal die B raken. Ze overlappen elkaar niet.
28
HOOFDSTUK 2. INWENDIGE PRODUCTEN
Deze schijven vormen het begin van een honingraat, de dichtst mogelijke pakking
van schijven in het vlak. Het is duidelijk dat het antwoord op onze vraag in R2
luidt: 6.
We gaan nu naar R3 . Denk allereerst aan een stapel sinaasappels bij de groenteboer. Elke sinaasappel binnen in de stapel wordt omringd door 12 andere
sinaasappels, 6 in één laag, 3 extra in de laag erboven, en nog eens drie in
de laag eronder. Er zit echter wat bewegingsruimte tussen die 12 omringende
sinaasappels, waarbij ze blijven raken aan de centrale sinaasappel. We kunnen
de 12 sinaasappels zo manoevreren dat hun centra de hoekpunten vormen van
een zogenaamde icosaeder, ofwel het regelmatige twintingvlak. Deze ziet er zo
uit.
Er√zijn 12 hoekpunten. De afstand tussen twee naburige hoekpunten is 2(1 −
1/ 5) = 1.1055 maal de afstand van een hoekpunt tot het centrum van de
icosaeder. Dat houdt in dat we rond een gegeven bol B 12 bollen met dezelfde
straal kunnen laten raken en waarbij de omringende bollen nog zo’n 10 procent
extra ruimte hebben. Grote vraag is of we deze bollen niet zodanig kunnen
manoevreren dat er nog een dertiende bij kan. Er is veel gediscussieerd over
deze vraag, maar in 1953 werd aangetoond dat 12 toch echt het maximale aantal
is.
Het getal waar we naar zoeken wordt ook wel ’kissing number’ genoemd. Het
’kissing’-getal voor n = 2 bedraagt dus 6 en voor n = 3 is dat 12. Hopelijk
is het duidelijk dat we onze vraag ook als vraag over de centra van de bollen
kunnen formuleren, waarbij we aannemen dat de straal van elke bol precies d/2
is, en de binnenste bol het punt 0 als centrum heeft.
Probleem 2.6.2 Stel we hebben in Rn een k-tal punten v1 , . . . , vk zó dat |v1 | =
· · · = |vk | = d en |vi − vj | ≥ d voor elk tweetal i, j met i ̸= j. Wat is de
maximale waarde van k?
2.7. OPGAVEN
29
In dimensie 4 hebben we geen meetkundige voorstelling meer, maar we kunnen
wel met coördinaten werken. Beschouw alle punten van de vorm
(
)
1 1 1 1
± ,± ,± ,±
.
2 2 2 2
We kiezen voor elke coördinaat dus een plus- of minteken. We hebben 24 = 16
van deze punten en hun lengte is d = 1. Neem nu de 8 extra punten in R4 die
we krijgen door alle coördinaten 0 te nemen, behalve op één plaats waar we 1
of −1 zetten. Deze vectoren hebben ook lengte 1. Het is nu een eenvoudige
oefening om in te zien dat de afstand tussen elk tweetal van deze 24 punten ≥ 1
is. Daarmee is het ’kissing’-getal voor n = 4 minstens 24. Het heeft tot 2003
geduurd alvorens werd aangetoond dat dit ook het correcte ’kissing’-getal is.
Voor dimensies n > 4 is het ’kissing’-getal onbekend, met uitzondering van
n = 8, 24 waar iets heel bijzonders gebeurt. In n = 8 bestaat het zogenaamde
E8 -rooster, ontdekt in 1867. Het is de verzameling punten geven door
(x1 , x2 , . . . , x8 ),
x1 , . . . , x8 ∈ Z
en
1
x1 , . . . , x8 ∈ + Z,
2
∑
beiden met de extra eigenschap dat i xi een geheel even getal is. Dit is een
verzameling punten met buitengewone symmetrie, waar we√hier helaas niet op
kunnen ingaan. De kleinste lengte van deze punten is d = 2. De punten met
deze lengte zijn
(
)
1 1
1
± ,± ,...,±
2 2
2
(x1 , x2 , . . . , x8 ),
waarbij het aantal mintekens even moet zijn, en de punten met alle coördinaten
0, behalve op twee plaatsen waar 1 of −1 staat. Van de eerste soort zijn er 128,
√
van de tweede soort 112. De onderlinge afstand tussen deze 240 punten is ≥ 2
en hiermee zien we dat het ’kissing’-getal minstens 240 is. Het is bekend dat
dit ook de correcte waarde is.
Voor n = 24 bestaat er een nog wonderlijker rooster, het zogenaamde Leechrooster, genoemd naar de ontdekker John Leech (1965). Deze is lastig te beschrijven, maar dank zij het bestaan van dit rooster weten we dat het ’kissing’-getal
in dimensie 24 gelijk is aan 196560. Er is blijkbaar heel veel ruimte in de
24-dimensionale ruimte!
2.7
Opgaven
Opgave 2.7.1 Bereken de hoek tussen de lijnen




 
 
5
2
5
1
l : x =  1  + λ  4  en m : x =  −1  + µ  −3 
4
0
3
2
Opgave 2.7.2 Bepaal de hoek tussen de volgende paren vectoren
30
HOOFDSTUK 2. INWENDIGE PRODUCTEN
1. (2, 1, 4)t en (4, −2, 1)t
2. (1, −2, 1)t en (3, 1, 0)t
3. (5, 1, 1)t en (2, 3, −2)t
Opgave 2.7.3 Bepaal de vergelijking van het vlak waarvan een punt a en de
normaal n gegeven zijn.
1. a = (−1, 2, −3)t , n = (2, 4, −1)t
2. a = (2, 5, 4)t , n = (3, 0, 5)t
3. a = (1, −1, 1), n = (3, −1, 1)t
Opgave 2.7.4 Gegeven zijn V : 2x1 + 2x2 − x3 = 5 en W : x1 − x3 = 0.
1. Bereken de hoek tussen V en W .
2. Bepaal, onafhankelijk van elkaar, de vergelijking en een parametervoorstelling
van het vlak loodrecht op V en W dat door het punt (1, 2, 2) gaat.
Opgave 2.7.5 Bereken de hoek tussen de lijn l en het vlak V , waarin
 
 
1
1
l : x =  2  + λ  0  , V : x1 + x2 + 2x3 = 5
3
7
Opgave 2.7.6 Gegeven is het vlak V : a · x = 9 met a = (2, −3, 6)t . Bereken
de afstand van O = (0, 0, 0) en P = (1, −2, −1) tot V .
Opgave 2.7.7 Gegeven het vlak V met de vergelijking n · x = b, waarin n ̸= 0
een normaalvector van V is. Zij p een punt in de ruimte. Bewijs dat de afstand
van p tot V gegeven wordt door
|n · p − b|
.
|n|
Opgave 2.7.8 Gegeven een tweetal lijnen l en m met parametervoorstellingen
p + λa respectievelijk q + µb. Stel dat a en b onafhankelijk zijn. Zij n ̸= 0 een
vector die loodrecht op zowel a als b staat. Bewijs dat de afstand tussen l en
m gegeven wordt door
|n · p − n · q|
.
|n|
Opgave 2.7.9 Bereken de afstand van P = (3, −1, 5) tot de lijn x = (0, −1, 2)t +
λ(2, 2, 1)t .
Opgave 2.7.10 Bepaal de vergelijking van de bissectricevlakken van V : 2x1 +
3x2 + x3 = 0 en W : 3x1 − 2x2 + x3 = 6.
2.7. OPGAVEN
31
Opgave 2.7.11 Bepaal een parametervoorstelling van de lijn die de rechten



 



3
0
4
3
l : x =  2  + λ  2  , m : x =  −3  + µ  −4 
5
−1
−1
1
loodrecht snijdt en bereken de afstand tussen l en m.
Opgave 2.7.12 Gegeven zijn
 


 


1
−1
2
2
l : x =  0 +λ  2  , m : x =  1 +µ  −1  ,
0
−2
0
2




1
−4
n : x =  3 +ν  8  .
−2
9
Bepaal de vergelijking van het vlak V door de rechte n, dat loodrecht staat op
het vlak door l en m (verifieer eerst dat l en m elkaar inderdaad snijden).
Opgave 2.7.13 Gegeven zijn,
 
 
1
1



l : x = 0 + λ 0,
0
1
 
 
0
0



m : x = 1 + µ 0.
0
1
Bepaal een parametervoorstelling van elk der rechten die l onder een hoek π/3
en m onder een hoek π/2 snijden.
Opgave 2.7.14 De orthogonale projectie van de lijn




3
4
l : x =  −10  + λ  −9 
6
7
op het vlak V : x1 − 5x2 + 3x3 = 1 is m. Bepaal twee vergelijkingen waar de
coördinaten van de punten van m aan moeten voldoen.
Opgave 2.7.15 Schrijf de vector (5, 2, −3)t als som van twee vectoren, waarvan
één vector loodrecht op het vlak V : x1 − 5x2 + 3x3 = 1 staat, terwijl de andere
parallel met V is.
Opgave 2.7.16 Ontbindt de vector (6, −5, −1)t in drie componenten a, b, c
die aan de volgende voorwaarden voldoen: a is afhankelijk van (2, 0, 1)t , b is
afhankelijk van (1, 2, 0)t en c is orthogonaal met a en b.
Opgave 2.7.17 Bepaal de vergelijking van de bol met middelpunt (−1, 2, 3) en
straal 3. Schrijf deze vergelijking met behulp van een inproduct.
Opgave 2.7.18 Zij B de bol met middelpunt (3, 2, 1) en straal 3.
1. Toon aan dat P = (1, 0, 2) een punt van de bol is.
2. Bepaal de vergelijking aan het raakvlak in P aan de bol B.
3. Toon aan dat de lijn l gegeven door


 
−3
0
x = 3 + λ 2 
4
0
geen snijpunt met B heeft.
32
HOOFDSTUK 2. INWENDIGE PRODUCTEN
4. Bepaal de vergelijking van elk der raakvlakken aan B die door l gaan (zie
vorige onderdeel).
Opgave 2.7.19 De cirkel C wordt gegeven door het stelsel vergelijkingen |x −
x0 |2 = r2 en n · x = α, waarin x ∈ R3 . Bewijs dat C een niet-lege verzameling
is precies dan als |α − n · x0 | ≤ r|n|.
Opgave 2.7.20 Zij p, q ∈ Rn een tweetal vectoren zó dat p ̸= q en p ̸= −q.
1. Bewijs, zonder in coördinaten uit te schrijven, dat (p − q) · (p + q) =
|p|2 − |q|2
2. Bewijs, zonder in coördinaten uit te schrijven, dat |p| = |q| ⇐⇒ p −
q en p + q zijn orthogonaal.
3. Bewijs dat in een ruit (=parallelogram waarvan alle zijden dezelfde lengte
hebben) de diagonalen elkaar loodrecht snijden.
Opgave 2.7.21 Gebruik de driehoeksongelijkheid |p + q| ≤ |p| + |q| om aan
te tonen dat
||p| − |q|| ≤ |p − q|
voor alle p, q ∈ Rn (Hint: gebruik |u| = |u − v + v| voor geschikte u, v).
Hoofdstuk 3
Matrices en lineaire
vergelijkingen
3.1
Matrices
Een m × n-matrix is een mn-tal getallen dat in een rechthoekig patroon van m
rijen en n kolommen is gerangschikt. We omlijsten deze rechthoek meestal met
een tweetal kromme haken. De getallen in de matrix noemen we de matrixelementen. Een m × n-matrix ziet er als volgt uit,


a11 a12 · · · a1n
 a21 a22 · · · a2n 
 .
..
.. 
 ..
.
. 
am1
am2
···
amn
of in kortere notatie, (aij )i=1,...,m;j=1,...,n . De verzameling m × n-matrices geven
we aan met Mmn . Een speciaal element is de zogenaamde nulmatrix O ∈
Mmn waarvan alle elementen nul zijn. Een andere speciale matrix is de n × n
identiteitsmatrix waarvan alle elementen nul zijn, behalve de elementen op de
diagonaal, die 1 zijn. Notatie: In .
In Mmn kunnen we een optelling en een scalaire vermenigvuldiging definiëren.
De som A + B van twee matrices krijgen we door optelling van de overeenkomstige matrixelementen. Als de elementen van A, B gegeven worden door aij
resp. bij met i = 1, . . . , m; j = 1, . . . , n dan worden de elementen van de som
gegeven door aij +bij . Het scalaire product λA van een matrix A met een scalair
λ ∈ R is de matrix die we krijgen door elk element van A te vermenigvuldigen
met λ. Voor optelling en scalaire vermenigvuldiging gelden de volgende makkelijk te verifiëren eigenschappen. Voor elk drietal matrices A, B, C en elk tweetal
λ, µ ∈ R geldt
1. A + B = B + A
2. (A + B) + C = A + (B + C)
3. λ(A + B) = λA + λB
4. (λ + µ)A = λA + µA
33
34
HOOFDSTUK 3. MATRICES EN LINEAIRE VERGELIJKINGEN
5. (λµ)A = λ(µA)
Merk op, dat deze eigenschappen volkomen analoog zijn aan de elementaire
eigenschappen voor vectoren die in paragraaf 1.1 genoemd zijn. Om deze reden
zullen we Mmn later ook gaan zien als een vectorruimte.
Een andere belangrijke operatie is die van matrixvermenigvuldiging . Gegeven
een m × n-matrix A = (aij ) en een n × p-matrix B = (bij ), dan definiëren we
de m × p product matrix AB als de matrix met elementen
(AB)ik =
n
∑
aij bjk ,
i = 1, . . . , m; k = 1, . . . , p.
j=1
Let op, het product AB van twee matrices A en B kan alleen gedefinieerd worden
als het aantal kolommen van A gelijk is aan het aantal rijen van B.
Behalve dat vermenigvuldiging van matrices alleen mogelijk is als aantallen rijen en kolommen kloppen, zijn er meer eigenaardigheden die niet voorkomen
bij vermenigvuldiging van getallen. Bijvoorbeeld niet-commutativiteit van vermenigvuldiging. Stel dat A, B een tweetal matrices is zodat m = aantal kolommen van A = aantal rijen van B en n = aantal rijen van A = aantal kolommen
van B. Dan zijn AB en BA beiden goed gedefiniëerd, maar in het algemeen zal
gelden dat AB ̸= BA. In de eerste plaats is AB een m × m-matrix en BA een
n × n-matrix. Dus als m ̸= n, dan kunnen AB en BA nooit gelijk zijn. Hier is
een voorbeeld met m = 3, n = 1,
 
 


5
5
10 20 30
( 2 4 6 )  3  = ( 28 ) ,  3  ( 2 4 6 ) =  6 12 18 
1
1
2 4 6
Maar zelfs als m = n dan hoeven A en B nog niet gelijk te zijn. Hier is een
voorbeeld,
(
)
(
)
(
)
(
)
1 2
1 0
5 2
1 2
A=
B=
⇒ AB =
, BA =
.
0 1
2 1
2 1
2 5
Indien voor twee n × n-matrices geldt dat AB = BA dan zeggen we dat A en
B commuteren. Bijvoorbeeld, iedere n × n-matrix commuteert met zichzelf en
met de n × n-identiteitsmatrix In (Controleer!).
Matrixvermenigvuldiging voldoet aan een aantal gemakkelijk te verifiëren eigenschappen. Voor elk drietal matrices A, B, C en elke λ ∈ R geldt,
1. A(BC) = (AB)C (associativiteit).
2. A(B + C) = AB + AC en (A + B)C = AC + BC (distributiviteit).
3. (λA)B = A(λB) = λ(AB)
4. IA = A = AI
Uiteraard nemen we bij alle producten aan dat ze gedefinieerd zijn.
Bewijs:
Het bewijs van bovenstaande eigenschappen is voornamelijk veel
schrijfwerk. Ter illustratie laten we hier het bewijs van de regel A(B + C) =
3.2. LINEAIRE VERGELIJKINGEN EN GAUSS ELIMINATIE
35
AB + AC zien. Geef de elementen van A, B, C aan met resp. aij , bij en cij .
Dan wordt het matrixelement met indices i, k in A(B + C) gegeven door
∑
aij (bjk + cjk )
j
Het element met indices i, k in AB + AC wordt gegeven door
∑
aij bjk +
j
∑
aij cjk
j
Dat deze twee sommaties gelijk zijn volgt meteen door haakjes weg te werken
uit de eerste.
2
Tenslotte hebben we nog het begrip getransponeerde van een m × n-matrix A.
Dat is de n × m-matrix B die we uit A krijgen door Bij = Aji te nemen voor
alle mogelijke i, j. Notatie B = At . Bijvoorbeeld,


(
)
2 −1
2 3 1
A=
At =  3 0 
−1 0 1
1 1
of, een ander voorbeeld,

−1

A=
0
−3

3 2
2 5
−1 4

−1 0
t

A =
3 2
2 5

−3
−1  .
4
Een belangrijke eigenschap is de volgende.
Stelling 3.1.1 Zij A, B een tweetal matrices zó dat AB gedefinieerd is. Dan
geldt dat
(AB)t = B t At .
Bewijs: Opgave.
2
3.2
Lineaire vergelijkingen en Gauss eliminatie
Een stelsel lineaire vergelijkingen is een verzameling vergelijkingen van de vorm
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
..
.
. = ..
am1 x1 + am2 x2 + · · · + amn xn = bm
36
HOOFDSTUK 3. MATRICES EN LINEAIRE VERGELIJKINGEN
in de onbekenden x1 , x2 , . . . , xn . De getallen aij , bk zijn gegeven. Met behulp
van matrixvermenigvuldiging kunnen we dit stelsel iets anders schrijven als

   
a11 a12 · · · a1n
x1
b1
 a21 a22 · · · a2n   x2   b2 
 .
 . = . 
..
.. 
 ..
.
.   ..   .. 
am1
am2
···
amn
xn
bn
Door A = (aij ), x = (x1 , . . . , xn )t en b = (b1 , . . . , bn )t te nemen kunnen we het
stelsel verkort noteren met
Ax = b
in de onbekende x ∈ Rn . We noemen A de coëfficientenmatrix van het stelsel.
De matrix (A|b) die we krijgen door de kolom b aan A toe te voegen, noemen
we de uitgebreide coëfficientenmatrix .
Dè manier om stelsels lineaire vergelijkingen op te lossen is door zogenaamde
Gauss-eliminatie. Dit is niets anders dan een systematische versie van de
gewone eliminatie zoals je misschien al gewend bent en die je ook in de voorgaande hoofdstukken gebruikt hebt. Hier is een voorbeeld.
Voorbeeld 3.2.1. Stel we moeten het volgende drietal vergelijkingen in de
onbekenden x1 , x2 , x3 oplossen,
−x1 + x2 + x3 = −1
2x1 − x2 − x3 = 0
3x1 + 2x2 − x3 = 2
Zoals bekend doen we dit door eliminatie van variabelen. Tel 2 maal de eerste
vergelijking bij de tweede op, en 3 maal de eerste bij de laatste. We vinden,
−x1 + x2 + x3 = −1
x2 + x3 = −2
5x2 + 2x3 = −1
Merk op dat door de laatste twee vergelijkingen alleen nog maar de onbekenden
x2 en x3 bevatten. De onbekende x1 is uit deze vergelijkingen geëlimineerd.
Trek nu 5 maal de tweede van de laatste af,
−x1 + x2 + x3 = −1
x2 + x3 = −2
−3x3 = 9
Uit de laatste vergelijking volgt, x3 = −3. Uit de tweede volgt, x2 = −2−x3 = 1
en uit de eerste, x1 = 1 + x2 + x3 = 1 + 1 − 3 = −1. De oplossing luidt dus,
x1 = −1, x2 = 1, x3 = −3. Controleer dat dit inderdaad een oplossing is.
♢
Het kan zijn dat er oneindig veel oplossingen zijn, zoals uit het volgend voorbeeld blijkt.
3.2. LINEAIRE VERGELIJKINGEN EN GAUSS ELIMINATIE
37
Voorbeeld 3.2.2. Het stelsel
x1
2x1
−x1
−
−
+
2x2
3x2
− x3
+ 2x3
−
+
−
x4
x4
x4
=
=
=
2
−1
0
We elimineren eerst x1 uit de tweede en derde vergelijking. Hiertoe trekken we
de eerste vergelijking 2 maal van de tweede af, en tellen hem één keer bij de
derde op.
x1
−
−
2x2
x2
2x2
− x3
+ 2x3
−
+
−
x4
3x4
2x4
= 2
= −5
= 2
Uit de laatste twee vergelijkingen elimineren we x2 door twee maal de tweede
bij de derde op te tellen.
x1
−
2x2
x2
− x3
− x4
+ 3x4
4x4
=
=
=
2
−5
−8
Uit de laatste vergelijking volgt dat x4 = −2. De waarde van x3 mogen we zelf
kiezen, zeg x3 = t. Dan volgt x2 uit de tweede vergelijking, x2 = x3 − 3x4 − 5 =
t + 1. De waarde van x1 volgt uit de eerste, x1 = 2x2 + x4 + 2 = 2t + 2. De
oplossing wordt dus gegeven door
  
 

 
x1
2t + 2
2
2
 x2   t + 1   1 
1
 =
 

 
 x3   t  =  0  + t  1  .
x4
−2
−2
0
De variabelen x1 , x2 , x4 die we gebruikt hebben om eliminaties uit te voeren
noemen we pivot variabelen (van het Engelse pivot, scharnier). De niet-pivot
variabele x3 kunnen we vrij kiezen.
♢
Het is ook mogelijk om vergelijkingen aan te geven die helemaal geen oplossing
hebben. Triviaal voorbeeld, 0 · x1 = 1. Dit ziet er erg flauw uit, maar ook in
algemenere stelsels zonder oplossing komen we na de eliminatie-procedure altijd
uit op dit soort onmogelijke vergelijkingen. Stelsels lineaire vergelijkingen die
geen oplossing hebben noemen we strijdig.
Bovenstaande aanpak om vergelijkingen op te lossen is nogal schrijf-intensief.
Eigenlijk is het niet nodig om steeds weer x1 , x2 , x3 , . . . op te schrijven. We laten
ze gewoon achterwege, evenals het ‘=’ teken, en geven de eliminatie schematisch
weer in de uitgebreide coëfficientenmatrix.
Voorbeeld 3.2.3. Noteer het stelsel vergelijkingen uit Voorbeeld 3.2.1 door
de matrix


−1 1
1 −1
 2 −1 −1 0 
3
2 −1 2
38
HOOFDSTUK 3. MATRICES EN LINEAIRE VERGELIJKINGEN
De eerste rij 2 maal bij de tweede en 3

−1 1
 0 1
0 5
maal bij de derde opgeteld,

1 −1
1 −2 
2 −1
De tweede rij 5 maal van derde aftrekken,


−1 1 1 −1
 0 1 1 −2 
0 0 −3 9
De laatste rij staat schematisch voor de vergelijking −3x3 = 9 en we vinden
hier weer x3 = −3 uit. Door de vergelijkingen behorend bij tweede en eerste rij
te bekijken vinden we ook weer x2 = −x3 − 2 = 1 en −x1 = −x2 − x3 − 1 = 1,
dus x1 = −1.
♢
Uit voorgaande voorbeelden is hopelijk duidelijk dat eliminatie van variabelen
in lineaire vergelijkingen neerkomt op manipulaties van de rijen in de uitgebreide coëfficientenmatrix. De regels die we bij deze eliminatie hanteren zijn de
volgende.
Stelling 3.2.4 De oplossingsverzameling van een stelsel verandert niet als we
1. de volgorde van vergelijkingen verwisselen
2. een vergelijking met een getal ̸= 0 vermenigvuldigen
3. een reëel veelvoud van een vergelijking bij een andere optellen.
In termen van de uitgebreide coëfficientenmatrix betekent dit dat de oplossingsverzameling van een stelsel niet verandert als we
1. twee rijen verwisselen
2. een rij met een getal ̸= 0 scalair vermenigvuldigen
3. een reëel veelvoud van een rij bij een andere rij optellen
Hier volgt een beschrijving van de algemene Gauss-eliminatie procedure.
Stel we hebben een stelsel (A) van m lineaire vergelijkingen in n onbekenden
x1 , x2 , . . . , xn . Kies de kleinste index i1 zó dat xi1 met coëfficient ̸= 0 in minstens één van de vergelijkingen voorkomt. Kies zo’n vergelijking en verwissel
deze met de eerste vergelijking. Tel daarna veelvouden ervan bij de overige op,
op zo’n manier dat in de overige vergelijkingen geen xi1 meer voorkomt. De
eerste vergelijking bevat dan nog xi1 , de andere m − 1 vergelijkingen niet meer.
Geef het stelsel van deze m − 1 vergelijkingen met (A’) aan. Herhaal de procedure met het stelsel (A’). Dat wil zeggen, we kiezen vervolgens de kleinste index
i2 zó dat xi2 met coëfficient ̸= 0 in minstens één van de vergelijkingen uit (A’)
voorkomt. Kies wederom zo’n vergelijking en wissel deze met de eerste vergelijking van (A’). Tel veelvouden ervan bij de volgende overgebleven vergelijking
3.2. LINEAIRE VERGELIJKINGEN EN GAUSS ELIMINATIE
39
vergelijkingen op, zo dat ze geen xi2 meer bevatten. We gaan zo door tot er
geen vergelijkingen meer over zijn, of dat alle overgebleven vergelijkingen van de
vorm 0 = b zijn. Als voor minstens één van deze vergelijkingen de rechterzijde
b niet nul is, dan hebben we een strijdig stelsel. Geen enkele keuze van de xi
kan ervoor zorgen dat 0 = b wordt als b ̸= 0. Er zijn dus geen oplossingen. Stel
nu dat het stelsel niet strijdig is. Dan moeten alle overgebleven vergelijkingen
van de vorm 0 = 0 zijn. We kunnen deze triviale vergelijkingen net zo goed
weglaten.
Nu kunnen we tot de oplossing overgaan. De variabelen xi1 , xi2 , . . . , xir (met
i1 < i2 < · · · < ir ) die we gebruikt hebben bij de eliminatie noemen we
pivot variabelen. In onze oplossing kunnen we de niet-pivot variabelen een
willekeurige waarde geven. De laatste vergelijking stelt ons in staat om xir uit
te drukken in xi met i > ir . Op zijn beurt stelt de één na laatste vergelijking
ons in staat om xir−1 uit te drukken in xi met i > ir−1 , etc., tot we de waarde
van xi1 hebben.
Als we Gauss-eliminatie in termen van de uitgebreide coëfficientenmatrix uitgevoerd hebben, dan staat deze matrix in zogenaamde rijgereduceerde vorm of
trapvorm . We zeggen dat een matrix in rijgereduceerde vorm staat als voor
elke rij, behalve de eerste, één van de volgende eigenschappen geldt,
1. de rij bevat uitsluitend nullen
2. het aantal leidende nullen is strikt groter dan het aantal leidende nullen
in de voorgaande rij.
In een dergelijke matrix noemen we het eerste element ̸= 0 in een rij het pivotelement van die rij. Het proces om een matrix in rijgereduceerde vorm te
brengen noemen we rijreductie van de matrix. Merk op dat rijreductie geen
uniek bepaald proces is. Bij elke stap kunnen we immers zelf de rij kiezen
waarin het volgende pivot-element voorkomt.
We kunnen de rijreductie nog een stap verder doorvoeren met de Gauss-Jordan
reductie. Het Jordan-gedeelte bestaat eruit dat we, na rijreductie, de pivotelementen door vermenigvuldiging gelijk aan 1 maken en vervolgens met deze
elementen de overige elementen in de kolom vegen. Hier is een voorbeeld, die
voortzetting is van Voorbeeld 3.2.3.
Voorbeeld 3.2.5. We eindigden met


−1 1 1 −1
 0 1 1 −2  .
0 0 −3 9
Vermenigvuldig de laatste rij met −1/3 en de eerste met −1,

1 −1 −1 1
0 1
1 −2 
0 0
1 −3

Vegen met de 1 in de derde kolom levert
40
HOOFDSTUK 3. MATRICES EN LINEAIRE VERGELIJKINGEN

1
0
0
vegen met de 1 in de tweede kolom

1
0
0
−1
1
0

0 −2
0 1 
1 −3
geeft,

0 0 −1
1 0 1 
0 1 −3
Merk op dat we meteen de oplossing van ons stelsel kunnen aflezen.
♢
De uiteindelijke uitgebreide coëfficientenmatrix komt dan een vorm te staan die
we volledig rijgereduceerd noemen. We zeggen dat een matrix volledig rijgereduceerd is als hij rijgereduceerd is, als elk pivot-element gelijk aan 1 is, en als
elke kolom met een pivot-element verder alleen nullen bevat. Het proces om
een matrix in volledig rijgereduceerde vorm te brengen noemen we volledige
rijreductie of Jordanreductie.
3.3
n vergelijkingen in n onbekenden
Stelsels lineaire vergelijkingen waarin het aantal onbekenden even groot is als
het aantal variabelen komen veelvuldig voor. Doorgaans hebben dergelijke
stelsels precies één oplossing, maar dat hoeft niet altijd zo te zijn. In deze
paragraaf zoeken we uit hoe dat zit.
Beschouw een stelsel van n vergelijkingen in n onbekenden.
Ax = b
waarin A ∈ Mnn en x, b ∈ Rn . Voor het geval n = 3 kunnen we ons hier een
meetkundige voorstelling van maken. De drie vergelijkingen kunnen we zien
als de vergelijkingen van drie vlakken in R3 . Meestal snijdt een drietal vlakken
elkaar in één punt. In dat geval heeft het stelsel precies één oplossing. Maar dat
hoeft niet. Als twee van de vlakken evenwijdig zijn en ongelijk aan elkaar, zullen
er geen oplossingen zijn. Het stelsel vergelijkingen is dan strijdig. Maar we
kunnen ook de situatie hebben waarin de drie vlakken elkaar in één lijn snijden
of alledrie samenvallen. In dat geval hebben we oneindig veel oplossingen, die
meetkundig gezien een lijn of vlak vormen.
Dergelijke mogelijkheden kunnen ook voor algemene n optreden.
Stelling 3.3.1 Zij A ∈ Mnn en b ∈ Rn . Stel dat A na een rijreductie r
pivotelementen bevat. Dan geldt,
1. Als r = n dan heeft het stelsel Ax = b precies één oplossing x ∈ Rn .
2. Als r < n dan heeft het stelsel Ax = b ofwel géén oplossing, ofwel oneindig
veel oplossingen x ∈ Rn .
3.3. N VERGELIJKINGEN IN N ONBEKENDEN
41
Omgekeerd, als er een b ∈ Rn bestaat zó dat Ax = b exact één oplossing x
heeft, dan geldt dat r = n.
Bewijs: Om deze stelling in te zien passen we Gauss-eliminatie toe op Ax = b.
We houden r vergelijkingen over waarin een pivot-variabele voorkomt, en n − r
vergelijkingen van de vorm 0 = b′i (i = r + 1, . . . , n).
Als r = n dan ontbreken deze laatste vergelijkingen. Elke variabele is dan
pivot-variabele en met onze oplossingsmethode van de vorige paragraaf zien we
dat er precies één oplossing bestaat.
Als r < n dan kan het zijn dat één van de vergelijkingen 0 = b′i strijdig is
doordat b′i ̸= 0. In dat geval zijn er geen oplossingen. Als echter b′i = 0 voor
i = r+1, . . . , n dan hebben we alleen te maken met de r vergelijkingen behorend
bij elke pivot-variabele. In dat geval zijn er ook niet-pivot variabelen die we
willekeurig kunnen kiezen. Dit levert ons oneindig veel oplossingen op.
De laatste uitspraak volgt onmiddelijk uit het feit dat als r < n zou zijn, geen
enkele vergelijking Ax = b exact één oplossing heeft.
2
Een belangrijk begrip bij de oplossing van n × n-vergelijkingen is de inverse van
een matrix. Ter illustratie lossen we weer vergelijking 3.2.1 op, maar nu met
een rechterzijde die gelijk is aan een willekeurig gekozen y.
Voorbeeld 3.3.2.
−x1 + x2 + x3 = y1
2x1 − x2 − x3 = y2
3x1 + 2x2 − x3 = y3
Tel 2 maal de eerste vergelijking bij de tweede op, en 3 maal de eerste bij de
laatste. We vinden,
−x1 + x2 + x3 = y1
x2 + x3 = 2y1 + y2
5x2 + 2x3 = 3y1 + y3
Trek nu 5 maal de tweede van de laatste af,
−x1 + x2 + x3 = y1
x2 + x3 = 2y1 + y2
−3x3 = −7y1 − 5y2 + y3
Het stelsel is gereduceerd, we gaan nu volledige reductie uitvoeren. Vermenigvuldig
de eerste vergelijking met −1 en de derde met −1/3,
x1 − x2 − x3 = −y1
x2 + x3 = 2y1 + y2
x3 = 7y1 /3 + 5y2 /3 − y3 /3
42
HOOFDSTUK 3. MATRICES EN LINEAIRE VERGELIJKINGEN
Elimineer x3 uit de eerste en tweede vergelijking,
x1 − x2 = 4y1 /3 + 5y2 /3 − y3 /3
x2 = −y1 /3 − 2y2 /3 + y3 /3
x3 = 7y1 /3 + 5y2 /3 − y3 /3
Elimineer nu x2 uit de eerste,
x1 = y 1 + y 2
x2 = −y1 /3 − 2y2 /3 + y3 /3
x3 = 7y1 /3 + 5y2 /3 − y3 /3
In matrixvermenigvuldigingsvorm,

x = By,
met
1
1
B =  −1/3 −2/3
7/3
5/3

0
1/3  .
−1/3
Met andere woorden, ons stelsel kan worden opgelost door gewoon de matrix B
op y los te laten. We noemen B de inverse matrix van de coefficienten matrix
van ons stelsel. Als we de 3 × 3-matrix van ons oorspronkelijke stelsel aangeven
met A, dan blijft te gelden dat zowel AB = I3 als BA = I3 . Controle,



−1 1
1
1
1
0
AB =  2 −1 −1   −1/3 −2/3 1/3  = I3
3
2 −1
7/3
5/3 −1/3
en


1
1
0
−1 1
1
BA =  −1/3 −2/3 1/3   2 −1 −1
7/3
5/3 −1/3
3
2 −1

 = I3 .
♢
In de volgende stelling tonen we het bestaan van de inverse matrix en zijn
eigenschappen op iets formelere manier aan.
Stelling 3.3.3 Zij A ∈ Mnn en stel dat A na rijreductie precies n pivot elementen heeft. Dan is er een unieke n × n-matrix B zodanig dat AB = In .
Bovendien geldt dat BA = In .
Bewijs: Uit Stelling 3.3.1 weten we dat voor willekeurige y ∈ Rn het stelsel
Ax = y precies één oplossing heeft. Zij voor i = 1, 2, . . . , n de vector bi de
(unieke) oplossing van Abi = ei , waarin ei de i-de standaard basisvector van
Rn is. Zij B de n×n-matrix met b1 , b2 , . . . , bn als achtereenvolgende kolommen.
Dan zien we dat AB de n×n-matrix is met de vectoren e1 , . . . , en als kolommen.
Met andere woorden, AB = In .
We gaan nu het stelsel Bx = 0 oplossen. Laat aan beide zijden A los, en we
vinden links ABx = In x = x. Rechts vinden we A0 = 0. Dus x = 0, met
andere woorden: Bx = 0 heeft alleen de triviale oplossing. Dat wil zeggen,
3.3. N VERGELIJKINGEN IN N ONBEKENDEN
43
volgens Stelling 3.3.1, dat B na rijreductie ook precies n pivot-elementen heeft.
Dus is er, net als bij A, een matrix C zó dat BC = In . Laat nu weer aan beide
zijden A erop los. We vinden ABC = A, en omdat AB = In houden we over,
C = A. We concluderen dat BA = BC = In .
Tenslotte, B is uniek bepaald. Stel namelijk dat er nog een B ′ is met AB ′ = In .
Laat B aan beide zijden van links los, BAB ′ = B. Omdat BA = In volgt hieruit
dat B ′ = B.
2
We noemen de matrix B zó dat AB = In de inverse matrix van A. Notatie,
A−1 . De oplossing van Ax = b, mits uniek, kan nu ook gevonden worden door
A−1 b uit te rekenen.
Om de inverse van een gegeven matrix A te bepalen moeten we de vergelijkingen
Ax = ei oplossen voor i = 1, . . . , n. Met een beetje handigheid kan dit in
één keer gebeuren door meteen alle kolommen ei in de uitgebreide matrix te
schrijven. Hier is als voorbeeld de coëfficienten matrix van ons doorlopende
voorbeeld 3.2.1.
Voorbeeld 3.3.4.


−1 1
1 1 0 0
 2 −1 −1 0 1 0 
3
2 −1 0 0 1
De eerste rij 2 maal bij de tweede en 3 maal bij de derde opgeteld,


−1 1 1 1 0 0
 0 1 1 2 1 0
0 5 2 3 0 1
De tweede rij 5 maal van derde aftrekken,


−1 1 1 1
0 0
 0 1 1 2
1 0
0 0 −3 −7 −5 1
Eén derde maal de laatste

−1
 0
0
rij bij de eerste en tweede optellen,

1 0 −4/3 −5/3 1/3
1 0 −1/3 −2/3 1/3 
0 −3 −7
−5
1
Tweede van de eerste aftrekken,

−1 0 0 −1
 0 1 0 −1/3
0 0 −3 −7
−1
−2/3
−5

0
1/3 
1
De eerste rij met −1, de derde met −1/3 vermenigvuldigen,


1
0
1 0 0 1
 0 1 0 −1/3 −2/3 1/3 
5/3 −1/3
0 0 1 7/3
De gewenste inverse matrix staat nu in de rechterhelft van de uitgebreide matrix.
♢
44
HOOFDSTUK 3. MATRICES EN LINEAIRE VERGELIJKINGEN
3.4
Homogene en inhomogene stelsels
Zij A ∈ Mmn en b ∈ Rm . Beschouw het stelsel
Ax = b
in de onbekende x ∈ Rn . Als b = 0, dan noemen we ons stelsel homogeen, als
b ̸= 0 dan noemen we het stelsel inhomogeen.
De oplossingsverzameling van een homogeen stelsel vergelijkingen heeft de volgende gemakkelijk te verifiëren eigenschappen,
1. Als x en y oplossingen zijn, dan is x + y ook een oplossing. Immers,
A(x + y) = Ax + Ay = 0 + 0 = 0.
2. Als x een oplossing is en λ ∈ R, dan is λx ook een oplossing. Immers,
A(λx) = λAx = λ0 = 0.
3. De nulvector 0 ∈ Rn is een oplossing. We noemen dit de triviale oplossing.
In heel veel situaties in de wiskunde zijn we geı̈nteresseerd in niet-triviale
oplossingen van homogene vergelijkingen. De volgende stelling is hierbij van
cruciaal belang,
Stelling 3.4.1 Een homogeen stelsel van m lineaire vergelijkingen in n onbekenden heeft minstens één niet-triviale oplossing als n > m.
Bewijs: Het bewijs volgt uit een goed begrip van de Gauss-eliminatie. Omdat er m vergelijkingen zijn kunnen er na Gauss-eliminatie hooguit m pivotvariabelen zijn. Omdat het aantal variabelen gelijk is aan n > m, zijn er
ook niet-pivot variabelen. Deze konden we voor de oplossing van ons stelsel
willekeurig kiezen. Laten we de niet-pivot variabelen allemaal 1 kiezen. De
waarden van de pivot-variabelen volgen hieruit. En dus hebben we een niettriviale oplossing.
2
Bovenstaande stelling geldt zeker niet voor inhomogene stelsels, getuige het
flauwe stelsel
x1 + x2 + x3 + x4 = 1
x1 = 0
x1 = 1
dat duidelijk strijdig is.
Over inhomogene stelsels kunnen we wel een andere algemene opmerking maken.
Stel dat we een oplossing x0 van Ax = b hebben. We noemen dit een particuliere oplossing . Zij x een andere oplossing. Dan geldt, A(x−x0 ) = Ax−Ax0 =
b − b = 0. Met andere woorden, x − x0 is een oplossing van het homogeen
gemaakte stelsel Ay = 0. Zij Shom de oplossingsverzameling van het homogeen
gemaakte stelsel en Sinhom de oplossingsverzameling van Ax = b. Daarnet
3.5. DEELRUIMTEN EN OPSPANSELS
45
zagen we dat bij elke x ∈ Sinhom een y ∈ Shom hoort zó dat x = x0 + y.
Omgekeerd, voor elke y ∈ Shom geldt dat x0 + y ∈ Sinhom (ga na!). Conclusie,
Sinhom = {x0 + y | y ∈ Shom }
of korter, Sinhom = x0 + Shom .
3.5
Deelruimten en opspansels
Zoals we in de vorige paragraaf zagen, heeft de oplossingsverzameling W van
een homogeen stelsel vergelijkingen de volgende eigenschappen:
1. Als x ∈ W en y ∈ W , dan geldt x + y ∈ W
2. Als x ∈ W en λ ∈ R, dan geldt λx ∈ W .
3. De nulvector 0 is bevat in W .
Deelverzamelingen van vectorrruimten die aan deze eigenschappen voldoen noemen we (lineaire) deelruimten. Omdat we in deelruimten een optelling en
scalaire vermenigvuldiging van vectoren hebben, kunnen we ze zien als een
nieuw voorbeeld van vectorruimten.
Een belangrijk voorbeeld van lineaire deelruimten zijn de zogenaamde opspansels.
Deze worden als volgt gedefinieerd. Zij v1 , v2 , . . . , vr een r-tal vectoren. Een
lineaire combinatie van deze vectoren is een vector van de vorm λ1 v1 + λ2 v2 +
· · · + λr vr met λi ∈ R. Het opspansel van v1 , . . . , vr is de verzameling lineaire
combinaties van deze vectoren. Notatie: Span(v1 , . . . , vr ). Dus
Span(v1 , . . . , vr ) = {λ1 v1 + · · · + λr vr | λi ∈ R}.
Een ander belangrijk voorbeeld van een lineaire deelruimte is de nulruimte
van een matrix. Zij A een m × n-matrix. Dan is, zoals we boven zagen de
verzameling vectoren x ∈ Rn met Ax = 0 een lineaire deelruimte. We noemen
dit de nulruimte van de matrix A. Notatie: Nul(A).
3.6
Scalairen (optioneel)
In de matrices en lineaire vergelijkingen die we tot nu toe bekeken hebben,
werden reële getallen als coëfficienten gebruikt. Niets houdt ons tegen om ook
matrices en lineaire vergelijkingen in andere getalsystemen te bekijken. Bijvoorbeeld de complexe getallen, die we met C aangeven. Alle stellingen en
beschouwingen die we tot nu toe gedaan hebben gaan onverminderd op voor
de complexe getallen. We kunnen in al onze stellingen R door C vervangen.
Maar in plaats van R kunnen we ook Q nemen. Merk op dat alle tot nu
toe behandelde voorbeelden zelfs voorbeelden met coëfficienten in Q zijn! De
verzamelingen R, C, Q hebben als gemeenschappelijk kenmerk dat het getalsystemen zijn waarin we kunnen optellen, aftrekken, vermenigvuldigen en delen
46
HOOFDSTUK 3. MATRICES EN LINEAIRE VERGELIJKINGEN
(behalve door nul) met de gebruikelijke eigenschappen. Dergelijke getalsystemen heten lichamen. In het tweede jaars college Algebra wordt dieper ingegaan
op het wiskundige begrip lichaam. Hier volstaan we slechts met een aantal
voorbeelden.
Er bestaan ook eindige lichamen. We noemen er één van, namelijk F2 , het
lichaam bestaande uit de elementen 0, 1 en met de optel- en vermenigvuldigingsregels
0 + 0 = 0, 0 + 1 = 1, 1 + 1 = 0, 0 × 0 = 0, 1 × 0 = 0, 1 × 1 = 1.
Eigenlijk is rekenen in F2 hetzelfde als met de gehele getallen modulo 2 rekenen.
Ook in F2 kunnen we lineaire vergelijkingen oplossen. Hier is een voorbeeld.
Voorbeeld 3.6.1.
x1
x1
x1
+ x2
De uitgebreide coëfficientenmatrix

1
1
1
+ x3
+ x3
+ x4
+ x4
+ x4
ziet er uit
0 1 1 1 1 1 0 0 1
Standaard Gauss-eliminatie geeft

1 0
0 1
0 0
= 1
= 0
= 1
als

1
0
1

1 1 1
0 0 1 
1 0 0
en de oplossing luidt
x3 = 0, x2 = 1, x1 = 1 − x3 − x4 = 1 − x4 =, x4 ∈ F2
en omdat −1 = 1 in F2 ,
x3 = 0, x2 = 1, x1 = 1 + x4 , x4 ∈ F2 .
♢
Merk op, dat Z, de gehele getallen, geen lichaam vormen. Het quotient van
twee gehele getallen hoeft namelijk niet geheel te zijn. Als gevolg daarvan gaan
niet alle stellingen uit dit hoofdstuk voor Z op. Bijvoorbeeld, de vergelijking
3x = 0 heeft precies één gehele oplossing, namelijk 0. Maar 3x = 1 heeft geen
oplossing in Z. Daarom gaat Stelling 3.3.3 met n = 1 niet op als we R door Z
willen vervangen.
De verzamelingen R, C, Q, F2 zullen we in de lineaire algebra lichamen van
scalairen noemen.
3.7. CODERINGSTHEORIE (OPTIONEEL)
3.7
47
Coderingstheorie (optioneel)
Een toepassing van matrices met coëfficienten in F2 is de coderingstheorie. In
de digitale wereld vindt communicatie plaats door uitwisseling van rijen nullen
en enen. Bijvoorbeeld, muziek en films op onze computer worden vastgelegd
door middel van muziek- en beeldfiles die uit niets anders dan bits (dat wil
zeggen de symbolen 0,1) bestaan. Bij de communicatie van zulke data gaat
het nog wel eens mis door storingen in het communicatiekanaal. Op een CD,
die digitale informatie bevat, kunnen bijvoorbeeld krassen ontstaan. Tijdens
de eerste reizen naar Mars door de Mariner’s in de 70-er jaren was de kwaliteit
van de foto’s die over grote afstand tot ons kwamen, uiterst belabberd. In de
begintijd van de computers waren storingen in de datatransmissie een grote
bron van ergernis.
Om deze problemen tegemoet te komen, deelt men het signaal in blokken van
een standaardlengte in, en voegt daar één of meer zogenaamde checksums aan
toe. Bijvoorbeeld aan een rij bits in een geheugenchip van een computer voegt
men een extra bit toe dat gelijk is aan 0 als het aantal geheugenbits even is, en
0 als het aantal bits oneven is. Dus bijvoorbeeld, aan de 8 bits 01100010 voegt
men een 1 toe en slaat deze mee op. Mocht bij uitlezen van het geheugen de
checksum niet meer kloppen, door een storing, dan wordt groot alarm geslagen
in de computer door de waarschuwing ’check sum error’. Wat minder technisch,
ISBN nummers van boeken worden zo gevormd dat 10 maal het eerste cijfer, 9
maal het tweede, etc een getal oplevert dat deelbaar is door 11. Bijvoorbeeld,
ISBN 0-306-40615-2 is een geldig nummer omdat
10 × 0 + 9 × 3 + 8 × 0 + 7 × 6 + 6 × 4 + 5 × 0 + 4 × 6 + 3 × 1 + 2 × 5 + 1 × 2 = 132
deelbaar is door 11. Het laatste cijfer doet eigenlijk dienst als checksum.
Checksums zijn heel handig om fouten te constateren, maar ze geven geen aanwijzing over de plaats en de aard van de fout. Richard Hamming introduceerde
in de 50-er jaren een methode die dat wel mogelijk maakte. In de begintijd van
de computers traden veel fouten op bij bijvoorbeeld het lezen van ponskaarten.
Gefrusteerd door de steeds terugkerende problemen bedacht Hamming het volgende. Signalen worden opgedeeld in blokjes van 4 bits. Hamming voegde daar
zelf 3 checkbits aan toe op een ingenieuze manier. We kunnen deze het best
beschrijven aan de hand van een stelsel lineaire vergelijkingen. Bekijk de matrix


1 0 1 0 1 0 1
H = 0 1 1 0 0 1 1
0 0 0 1 1 1 1
met elementen in F2 . Merk op dat kolommen van deze matrix precies alle vectoren in F32 zijn, behalve de nulvector. Verder staan ze precies zo gerangschikt
dat elke kolom de tweetallige cijfers van het volgnummer van de kolom bevatten.
Ga maar na. De nulruimte van deze matrix heeft als basis
(1, 0, 0, 0, 0, 1, 1)t
(0, 1, 0, 0, 1, 0, 1)t
48
HOOFDSTUK 3. MATRICES EN LINEAIRE VERGELIJKINGEN
(0, 0, 1, 0, 1, 1, 0)t
(0, 0, 0, 1, 1, 1, 1)t
Verder vermelden we als bijzonderheid dat elke niet-triviale vector in de nulruimte minstens drie enen bevat. Dit kun je zelf nagan.
Stel dat in ons signaal het blok bits a, b, c, d voorkomt. Dan voegen we daaraan
to de drie bits gegeven door b + c + d, a + c + d, a + b + d aan toe. Het zo ontstane
blok van 7 bits geeft een vector in de nulruimte van H. We geven het aangevulde
blok, dat we B noemen, in ons signaal door aan de ontvanger. Stel dat die het
blok C ontvangt. Het kan zijn dat dit B is, in ongeschonden vorm, maar er
kunnen ook fouten opgetreden zijn. Als dat zo is dan zal de verschilvector
∆ = C − B niet nul zijn. De ontvanger bepaalt als test HC. Deze is gelijk aan
H∆. Als C = B dan geldt zeker HC = H∆ = 0. Maar de ontvanger kent B
niet en moet dus een oordeel vellen. Wat als H∆ = 0 en ∆ ̸= 0? Dan zit ∆
in de nulruimte en moet minstens drie verschillende enen bevatten. Er zouden
dus minstens drie fouten opgetreden moeten zijn. Op een kanaal waar de kans
op fouten bijvoorbeeld 10% is, lijkt dit nogal onwaarschijnlijk en de ontvanger
kiest ervoor te concluderen dat het signaal ongeschonden is doorgekomen. In
0.1% van de gevallen zal dit misschien een onjuiste aanname zijn, maar het is
wel een flinke verbetering tav de oorspronkelijke 10% foutenkans.
Stel nu dat de ontvanger constateert dat HC ̸= 0. In ieder geval is er een fout
opgetreden. Laten we even aannemen dat er precies 1 fout is opgetreden. Zeg
dat die op de vierde plaats staat. De ontvanger ziet dan dat HC = H∆ =
(0, 0, 1)t . Met andere woorden, aangenomen dat er 1 fout is, dan moet het wel
op plaats 4 zijn, want (0, 0, 1)t is de vierde kolom van H. Vervolgens kan de
ontvanger het bericht corrigeren door op de vierde plaats het bit te veranderen.
Om deze reden noemen Hamming’s code een foutencorrigerende code. Preciezer,
het is mogelijk 1 fout recht te zetten.
Er zijn ook foutencorrigerende codes die twee of meer fouten kunnen corrigeren.
Bij de Mariner-9 expeditie werd een Hadamard code gebruikt die 7 fouten kan
corrigeren.
3.8
Opgaven
Opgave 3.8.1 Gegeven zijn de matrices


(
)
7 0 −1
−1 4 1


,
B=
A = −1 5 2
5 −3 0
0 1 3
(
)
(
)
(
)
1 4
5 0
7
C=
,
D=
,
E=
−4 0
−2 1
−3
1. Bepaal, indien mogelijk, de volgende matrices:
−2A,
A − B,
BC,
CB,
3C − D,
CE,
EC,
CD,
2. Bepaal A − I3 en A − 3I3 waarin I3 de 3 × 3-identiteitsmatrix is.
DC
3.8. OPGAVEN
49
3. Laat zien dat I2 B = B en dat BI3 = B.
Opgave 3.8.2 Geef twee 2 × 2-matrices A, B, beiden niet de nulmatrix, zó dat
AB = O waarin O de 2 × 2-nulmatrix voorstelt.
Opgave 3.8.3 Zij
(
A=
3 −4
−5 1
)
(
,
B=
7 4
5 k
)
Voor welke waarde(n) van k, indien ze bestaan, geldt AB = BA?
Opgave 3.8.4 Zij A, B een tweetal 2 × 2-matrices. Gaat de volgende gelijkheid
altijd op: (A − B)(A + B) = A2 − B 2 ?
Opgave 3.8.5 Los de volgende stelsels lineaire vergelijkingen op:
1.
2.
3.
2x1
x1
−4x1
+ 2x2
+ 5x2
− 3x3
+ 2x3
+ 6x3
=0
=1
=2
2x1
x1
−4x1
+ 2x2
+ 5x2
− 3x3
+ 2x3
+ 6x3
=0
=0
=0
2x1
x1
4.
5.
6.
x1
2x1
2x1
7.
x1
−2x1
−6x1
+ 3x2
+ 6x2
x1
−2x1
−6x1
+ 3x2
+ 6x2
+ 4x2
+ 2x2
+ 7x2
2x1
3x1
x1
8.
3x1
−x1
4x1
+ 2x2
+ 5x2
− 6x2
+ 2x2
− 8x2
− 3x3
+ 2x3
=0
=0
− x3
− x3
=0
=0
=0
− x3
− x3
=1
=0
=0
+ 9x3
+ 6x3
+ 16x3
+ 4x2
x2
+ 3x2
+ 2x2
− x3
+ 2x3
− 3x3
+ 2x4
− 3x4
+ 3x4
+ x3
+ 3x3
− x3
+ 3x3
+ x4
+ 3x4
− 2x4
=0
=0
=0
=7
=7
=9
= 11
+ 5x5
+ 3x5
+ x5
=0
=0
=0
50
HOOFDSTUK 3. MATRICES EN LINEAIRE VERGELIJKINGEN
9.
3x1
−x1
4x1
−
+
−
6x2
2x2
8x2
− x3
+ 2x3
− 3x3
+
+
−
x4
3x4
2x4
=5
=3
=1
Opgave 3.8.6 Schrijf alle gereduceerde 2 × 2-matrices op door de nullen met
0 aan te geven, de pivotcoefficienten met pi en de overige elementen met ⋆.
Bijvoorbeeld,
(
)
p1 ⋆
0 p2
Opgave 3.8.7 Zelfde vraag als de vorige, maar nu voor 3 × 3-matrices (Hint:
er zijn 8 gevallen).
Opgave 3.8.8 Bepaal voor elk van de volgende stelsels de waarden van b1 , b2 , b3 , b4
waarvoor het stelsel een oplossing heeft.
1.
2.
3.
4.
x1
−2x1
−6x1
+ 3x3
+ 6x2
x1
2x1
−6x1
− x3
− x3
− 2x2
− 4x2
+ 12x2
x1
−2x2
+ 2x2
− 4x2
x1
−2x1
3x1
2x1
+ 3x2
− 3x2
= b1
= b2
= b3
= b1
= b2
= b3
− 6x3
+ 12x3
= b1
= b2
−
−
= b1
= b2
= b3
= b4
x3
x3
− 2x3
Opgave 3.8.9 Laat zien dat het stelsel vergelijkingen
ax1 + 2x2 + ax3 = 5a
x1 + 2x2 + (2 − a)x3 = 5
3x1 + (a + 2)x2 + 6x3 = 15
voor iedere waarde van a oplosbaar is. Los het stelsel op voor die waarden van
a waarvoor er meer dan één oplossing is. Geef in ieder van deze gevallen een
meetkundige interpretatie van het stelsel vergelijkingen en zijn oplossingen.
Opgave 3.8.10 Bepaal de waarden van a waarvoor het stelsel vergelijkingen
x1 − 3x3 = −3
2x1 + ax2 − x3 = −2
x1 + 2x2 + ax3 = −1
3.8. OPGAVEN
51
niet oplosbaar is. Geef voor die waarden van a een meetkundige interpretatie.
Opgave 3.8.11
1. Bepaal de waarde(n) van a waarvoor het stelsel
x1 + 4x2 − 3x3 + 2x4 = 0
2x1 + 7x2 − 4x3 + 4x4 = 0
−x1 + ax2 + 5x3 − 2x4 = 0
3x1 + 10x2 − 5x3 + (a2 + 4a + 1)x4 = 0
meer dan één oplossing heeft.
2. Voor welke waarde van a is de oplossingsruimte 2-dimensionaal (dwz 2
parameters)? Bepaal in dit geval de oplossingsverzameling.
3. Bepaal de waarde van b waarvoor het stelsel
x1 + 4x2 − 3x3 + 2x4 = 2
2x1 + 7x2 − 4x3 + 4x4 = 3
−x1 − 5x2 + 5x3 − 2x4 = b
3x1 + 10x2 − 5x3 + 6x4 = 4
oplosbaar is en bepaal de oplossingsverzameling.
Opgave 3.8.12 Gegeven zijn drie getallen b1 , b2 , b3 .
1. Bewijs dat er een unieke quadratische functie p(x) = ax2 + bx + c bestaat
zó dat p(1) = b1 , p(2) = b2 , p(3) = b3 .
2. Bewijs dat er een unieke quadratische functie p(x) = ax2 + bx + c bestaat
zó dat p(1) = b1 , p′ (1) = b2 , p′′ (1) = b3 .
Opgave 3.8.13 Bepaal de inverse van elke van de volgende matrices:
(
)
(
)
cos α sin α
cos α
sin α
,
− sin α cos α
sin α − cos α
Opgave 3.8.14 In deze opgave kijken we naar 3 × 3-matrices. In het bijzonder
definieren we de elementaire 3 × 3-matrices
- Eij (λ) als de matrix die we uit I3 krijgen door het element op plaats i, j
te vervangen door λ.
- Sij als de matrix die uit I3 ontstaat door de i-de en j-de kolom te verwisselen.
Schrijf E33 (λ), E13 (λ), E31 (λ) en S12 uit.
Zij M een willekeurige 3 × 3-matrix.
52
HOOFDSTUK 3. MATRICES EN LINEAIRE VERGELIJKINGEN
1. Geef een omschrijving van de volgende matrixproducten:
E33 (λ)M,
E13 (λ)M,
E31 (λ)M,
S12 M
2. Wat is de inverse van E33 (λ), E13 (λ), E31 (λ) en S12 ?
3. Zij M een matrix die door volledige rijreductie (Jordanreductie) tot de
identiteitsmatrix gereduceerd kan worden. Laat zien dat M geschreven
kan worden als matrixproduct van elementaire matrices.
4. Geef een omschrijving van de volgende matrixproducten:
M E33 (λ),
M E13 (λ),
M E31 (λ),
M S12
Natuurlijk is in bovenstaande opgave de beperking tot 3×3-matrices niet nodig,
een analoog verhaal geldt ook voor n × n-matrices.
Opgave 3.8.15 Zij A een m × n-matrix. Stel dat Ax = 0 voor alle x ∈ Rn .
Bewijs dat A de m × n nul-matrix is (dwz: alle elementen nul).
Opgave 3.8.16 Zij A, B een tweetal m × n-matrices met matrixelementen aij
respectievelijk bij . Hoe ziet het element op plaats i, j van A + B er uit? En hoe
ziet het element van At , B t respectievelijk (A + B)t op plaats i, j er uit? Laat
zien dat (A + B)t = At + B t . Met M t geven we de getransponeerde aan van de
matrix M .
Opgave 3.8.17 Zij A een m × p-matrix en B een p × n-matrix. De elementen
van A, B respectievelijk AB geven we aan met aij , bjk repectievelijk cik waarin
i = 1, . . . , m; j = 1, . . . , p; k = 1, . . . , n. Met M t geven we de getransponeerde
aan van de matrix M .
Bewijs dat (AB)t = B t At (Hint: gegeven dat een matrix M matrixelementen
mij op plaats i, j heeft dan
M t het matrixelement mji op plaats i, j?
∑heeft
p
Gebruik ook de regel cik = j=1 aij bjk ).
Opgave 3.8.18 Een n×n-matrix M heet symmetrisch als M = M t . De matrix
M heet anti-symmetrisch als M t = −M .
1. Welk van de volgende matrices zijn symmetrisch, anti-symmetrisch, geen
van beide?
(
)
(
)
(
)
1 2
0 −1
−20 21
,
,
−2 3
1 0
21 −22






0 0 0
0 1 2
0
3 −1
 −3 0
2  ,  −1 0 5  ,  0 0 0 
0 0 0
2 5 0
1 −2 0
2. Laat zien dat de diagonaalelementen van een anti-symmetrische matrix
nul zijn.
3. Stel dat A, B symmetrische n × n-matrices zijn. Bewijs dat AB symmetrisch is precies dan als AB = BA.
3.8. OPGAVEN
53
4. Zij A een willekeurige n × n-matrix. Bewijs dat A + At symmetrisch is en
A − At antisymmetrisch.
5. Bewijs dat elke n × n-matrix geschreven kan worden als som van een
symmetrische en een anti-symmetrische matrix. Illustreer dit aan de hand
van de voorbeelden in onderdeel a).
Opgave 3.8.19 Ga na of het volgende stelsel lineaire vergelijkingen oplosbaar
is. Zo ja, los het stelsel op.
x1 + 2x2 − 3x3 + x4 = 5
2x1 − x2 + x3 + x4 = −1
4x1 + 3x2 − 5x3 + 3x4 = 9
3x1 + 11x2 − 16x3 + 4x4 = 26
2x1 − 6x2 + 8x3 = −12
Opgave 3.8.20 Zelfde vraag als boven voor het stelsel
x1 + 2x2 + 3x3 = 0
x1 − 6x3 = 0
2x1 + 4x2 + x3 = 0
Opgave 3.8.21 Zelfde vraag als boven voor het stelsel
3x1 − 2x2 = −1
2x1 − 3x2 + x3 = −1
5x2 − 3x3 = 1
Opgave 3.8.22 Zelfde vraag als boven voor het stelsel
3x1 + 10x2 + 14x3 − 6x4 + x5 = 0
x1 + 6x2 + 4x3 + x5 = 0
2x1 + 8x2 + 9x3 − 3x4 + x5 = 0
Opgave 3.8.23 Zelfde vraag als boven voor het stelsel
x1 + x2 + 2x3 + 3x4 − 2x5 = 1
2x1 + 4x2 − 8x5 = 3
−2x2 + 4x3 + 6x4 + 4x5 = 0
54
HOOFDSTUK 3. MATRICES EN LINEAIRE VERGELIJKINGEN
Opgave 3.8.24 Zelfde vraag als boven voor het stelsel
x1 + x2 − 2x3 = 0
2x1 + x2 − 3x3 = 0
4x1 − 2x2 − 2x3 = 0
6x1 − x2 − 5x3 = 0
7x1 − 3x2 − 4x3 = 1
Opgave 3.8.25 Zelfde vraag als boven voor het stelsel
x1 + 2x2 = 0
x1 + 4x2 − 2x3 = 4
2x1 + 4x3 = −8
3x1 + 6x3 = −12
−2x1 − 8x2 + 4x3 = −8
Opgave 3.8.26 Het stelsel lineaire vergelijkingen
3x1 − 5x2 + 7x3 = 11
4x1 − 6x2 + 8x3 = 12
5x1 − 8x2 + 11x3 = α
6x1 − 9x2 + 12x3 = 18
is oplosbaar. Bereken α en bepaal de oplossingsverzameling.
Opgave 3.8.27 Bepaal de waarden voor α waarvoor het stelsel
7x1 − 3x2 − x3 + x4 = αx1
−3x1 + 7x − 2 + x3 − x4 = αx2
−x1 + x − 2 + 7x3 − 3x4 = αx3
x1 − x2 − 3x − 3 + 7x4 = αx4
een niet-triviale oplossing heeft. Los het stelsel voor deze waarden op.
Opgave 3.8.28 Bepaal de inverse van de volgend matrices, indien ze bestaan,
(
)
(
)
(
)
3 6
6 7
−2 3
,
,
.
4 8
8 9
5 −1
Opgave 3.8.29 Bepaal de inverse van de volgend matrices, indien ze bestaan,






−1 2
1
2 1 4
1 1 −1
 2 0 3  ,  3 2 5  ,  2 −3 5  .
1
0 12
0 −1 1
−3 1 −7
3.8. OPGAVEN
55
Opgave 3.8.30 Bepaal de inverse van de volgend



2 0 0
0
0
0 0
 0 −3 0

 0 0
0
0



0 0 5
,  0 0
0
0



 0 0 0 −11 0 
 0 1
0 0 0
0
3
−9 0
matrices, indien ze bestaan,

0 0 7
0 −4 0 

3 0 0
.
0 0 0
0 0 0
Opgave 3.8.31 Zij A, B een tweetal n × n-matrices zó dat AB = In . Laat zien
dat Ax = 0 alleen de triviale oplossing heeft.
Opgave 3.8.32 Zij A, B een tweetal inverteerbare n × n-matrices. Bewijs dat
AB dan ook inverteerbaar is, en dat de inverse wordt gegeven door B −1 A−1 .
Opgave 3.8.33 Zij A een inverteerbare matrix. Bewijs dat At ook inverteerbaar
is. Wat is zijn inverse?
Opgave 3.8.34 Een n × n-matrix heet nilpotent als er een gehele r bestaat zó
dat Ar de nulmatrix is.
1. Geef een voorbeeld van een niet-triviale, nilpotente 2 × 2-matrix.
2. Zij A een inverteerbare n × n-matrix. Laat zien dat A niet nilpotent is.
3. (Lastig) Stel A een nilpotente n × n-matrix is. Laat zien dat er een gehele
r bestaat, met 0 ≤ r ≤ n zó dat Ar = O.
Opgave 3.8.35 We vervolgen onze vragen over nilpotente matrices (zie voorgaande opgave).
1. Laat zien dat

0 a1
0 0

0 0
0 0
a2
b2
0
0

a3
b3 

c3 
0
nilpotent is.
2. Bovenstaande matrix is voorbeeld van een bovendriehoeksmatrix (alleen
niet-triviale elementen in rechterbovendriehoek). Zo zijn er ook beneden
driehoeksmatrices (alleen niet-triviale elementen in de linker- benedenhoek). Laat zien dat er nilpotente 4 × 4-matrices zijn, die noch benedennoch bovendriehoeksmatrix zijn.
Opgave 3.8.36 Zij S = {v1 , . . . , vr } ⊂ Rn een eindige verzameling vectoren.
Laat zien dat het opspansel van S een lineaire deelruimte van Rn is.
Stel dat W ⊂ Rn een deelruimte is, die S bevat. Laat zien dat W dan ook
Span(S) bevat.
Opgave 3.8.37 Zij V, W een tweetal deelruimten van Rn .
56
HOOFDSTUK 3. MATRICES EN LINEAIRE VERGELIJKINGEN
1. Bewijs dat de doorsnijding V ∩ W ook een deelruimte is.
2. Bewijs dat de vereniging V ∪ W is een deelruimte precies als V ⊂ W of
W ⊂V.
Hoofdstuk 4
Onafhankelijkheid en rang
In dit hoofdstuk behandelen we een aantal begrippen die fundamenteel voor de
lineaire algebra zijn. Bij de vectoren waarover we het in dit hoofdstuk hebben
denken we in de eerste plaats aan vectoren in Rn . Echter, de stellingen in
dit hoofdstuk zijn zo geformuleerd, dat ze ook bruikbaar zijn in algemenere
vectorruimten die we later in zullen voeren.
De afleiding van de hoofdresultaten in dit hoofdstuk berusten allen op Stelling
3.4.1 over homogene lineaire vergelijkingen, die hiermee centraal in de lineaire
algebra komt te staan.
4.1
Afhankelijkheid
Zij v1 , v2 , . . . , vr een r-tal vectoren. Een som van de vorm λ1 v1 +· · ·+λr vr noemen we een lineaire combinatie van v1 , . . . , vr . We noemen een vector w lineair
afhankelijk van v1 , . . . , vr als hij geschreven kan worden als lineaire combinatie
van v1 , . . . , vr .
De vectoren v1 , . . . , vr zelf noemen we een (lineair) afhankelijk stelsel als minstens één van de vi een lineaire combinatie is van de overige. We noemen
het stelsel v1 , . . . , vr onafhankelijk als géén van de vi van de overige vectoren
afhangt.
Het begrip lineaire onafhankelijkheid kunnen we iets eleganter formuleren in
termen van lineaire relaties. We zeggen dat er tussen de vectoren v1 , . . . , vr
een lineaire relatie bestaat, als er getallen λ1 , . . . , λr ∈ R zijn zó dat
λ1 v1 + λ2 v2 + · · · + λr vr = 0.
Dat zo’n relatie altijd bestaat zien we door alle λi nul te kiezen. We noemen
dit de triviale relatie . Een relatie heet niet-triviaal als λi ̸= 0 voor minstens
één i. Er geldt,
Stelling 4.1.1 Het stelsel v1 , v2 , . . . , vr is afhankelijk precies dan als er een
niet-triviale relatie tussen v1 , . . . , vr bestaat.
Voorbeeld 4.1.2. Zij a, b, c ∈ Rn een drietal vectoren. Stel we weten dat
a = 2b − c. Dan is a afhankelijk van b, c, met andere woorden, a, b, c is een
afhankelijk stelsel. Een niet-triviale relatie volgt onmiddelijk, 0 = −a + 2b − c.
57
58
HOOFDSTUK 4. ONAFHANKELIJKHEID EN RANG
Stel omgekeerd dat er een niet-triviale relatie is, bijvoorbeeld 2a − 3b + 4c = 0.
Dan volgt hieruit dat a = 3b/2 − 2c, dus a is afhankelijk van b, c.
♢
Het algemene bewijs gaat helemaal analoog.
Bewijs: We moeten eerst laten zien dat uit afhankelijkheid het bestaan van
een niet-triviale relatie volgt. Stel dat vi afhankelijk is van de overige vj , j ̸= i.
Dus er zijn λ1 , . . . , λi−1 , λi+1 , . . . , λr zó dat
vi = λ1 v1 + · · · + λi−1 vi−1 + λi+1 vi+1 + · · · + λr vr
Door nu vi naar rechts te brengen zien we dat we een relatie krijgen met λi =
−1. Hiermee hebben we een niet-triviale relatie gevonden.
Omgekeerd moeten we laten zien dat uit het bestaan van een niet-triviale relatie
afhankelijkheid volgt. Stel dat 0 = λ1 v1 + · · · + λr vr en stel dat λi ̸= 0 voor
zekere i. Door nu de term λi vi naar links te brengen en aan beide zijden door
−λi te delen krijgen we vi als lineaire combinatie van v1 , . . . , vi−1 , vi+1 , . . . , vr .
2
Bovenstaande stelling kunnen we ook op een iets andere manier formuleren. Ga
zelf na dat het volgende geldt.
Stelling 4.1.3 Het stelsel v1 , . . . , vr is onafhankelijk precies dan als tussen
v1 , . . . , vr alleen de triviale relatie bestaat.
Deze laatste vorm gebruiken we veelal om (on)afhankelijkheid van vectoren aan
te tonen.
Voorbeeld 4.1.4. Zijn de vectoren

  
1
2
 −2   1 
0
1
afhankelijk? Om dit te beantwoorden
vergelijkingen

1 0
 −2 5
0 1
 
0
5
1
 
3
4
2
lossen we het homogene stelsel lineaire

2 3 0
1 4 0 
1 2 0
op. Na Gauss-eliminatie houden we het volgende stelsel over


1 0 2 3 0
0 1 1 2 0
0 0 0 0 0
Dit stelsel heeft niet-triviale oplossingen en dus is ons stelsel van vier vectoren
afhankelijk.
We zien nog meer in dit voorbeeld. De pivotvariabelen in onze eliminatie zijn
x1 en x2 . Kiezen we x3 = −1 en x4 = 0 dan volgt uit de vergelijkingen dat
4.2. DIMENSIE EN RANG
59
x1 = 2, x2 = 1. Bij de keuze x3 = 0 en x4 = −1 volgt x1 = 3, x2 = 2
automatisch. We vinden daarmee de relaties
 

  
 


 
2
1
0
3
1
0
 1  = 2  −2  +  5  ,
 4  = 3  −2  + 2  5 
1
0
1
2
0
1
Bovendien zijn de eerste twee vectoren onafhankelijk omdat er geen niet-triviale
relaties met x3 = x4 = 0 zijn.
♢
Hier is nog een stelling voor later gebruik.
Stelling 4.1.5 Stel b1 , . . . , br onafhankelijk en v is afhankelijk van de bi . Dan
kan v precies op één manier geschreven worden als lineaire combinatie van
b1 , . . . , br .
Bewijs:
Stel dat v op twee manieren geschreven kan worden als lineaire
combinatie van b1 , . . . , br . Zeg,
v = λ1 b1 + · · · + λr br = µ1 b1 + · · · + µr br .
Na aftrekken volgt, (λ1 − µ1 )b1 + · · · + (λr − µr )br = 0. Omdat b1 , . . . , br
onafhankelijk zijn concluderen we hieruit dat λi − µi = 0 voor i = 1, . . . , r en
dus λi = µi voor alle i.
2
4.2
Dimensie en rang
Definitie 4.2.1 Zij S een niet lege verzameling vectoren. Het grootste getal
r, zó dat S een r-tal onafhankelijke vectoren bevat, noemen we de rang van S.
Notatie: rang(S).
In het bijzonder, als S = {0}, dan zeggen we dat rang(S) = 0.
Als S een deelruimte is dan noemen we de rang van S ook wel dimensie. Notatie:
dim(S).
Als r niet bestaat, dan zeggen we dat de rang (of dimensie) van S oneindig is.
We kunnen alleen r = ∞ hebben als S voor elke positief gehele r een r-tal
onafhankelijke vectoren bevat. Zolang we met vectoren in Rn werken zal dit
niet gebeuren. Later, vanaf Hoofdstuk 7, krijgen we wel te maken met oneindig
dimensionale vectorruimten.
De volgende stelling kunnen we zien als de hoofdstelling van de lineaire algebra.
Stelling 4.2.2 (Hoofdstelling) Zij S een verzameling vectoren en stel dat S
bevat is in het opspansel van n vectoren b1 , . . . , bn . Dan geldt dat rang(S) ≤ n.
60
HOOFDSTUK 4. ONAFHANKELIJKHEID EN RANG
Een gevolg is dat bijvoorbeeld elke deelverzameling S ⊂ Rn een rang ≤ n heeft,
want Rn is het opspansel van de standaard basisvectoren e1 , . . . , en .
Bewijs: Het bewijs van de stelling krijgen we door aan te tonen dat ieder
n + 1-tal vectoren in S afhankelijk is. Daarmee bestaat elk onafhankelijk stelsel
vectoren in S uit hooguit n vectoren. En dus rang(S) ≤ n.
Kies s1 , s2 , . . . , sn+1 ∈ S. Elk van de si is afhankelijk van b1 , . . . , bn . Dat wil
zeggen, er zijn aij zó dat
s1 = a11 b1 + a12 b2 + · · · + a1n bn
..
..
.
.
sn+1 = an+1,1 b1 + an+1,2 b2 + · · · + an+1,n bn
De rijen (ai1 , ai2 , . . . , ain ), i = 1, 2 . . . , n+1 kunnen gezien worden als elementen
van Rn . Er zijn n + 1 van deze rijen en dus bestaat er volgens Stelling 3.4.1 een
niet-triviale oplossing λ1 , . . . , λn+1 van het stelsel
λ1 a11 + λ2 a21 + · · · + λn+1 an+1,1 = 0
..
.
λ1 a1n + λ2 a2n + · · · + λn+1 an+1,n = 0
Als gevolg hiervan geldt dat
λ1 s1 + · · · + λn+1 sn+1 = (λ1 a11 + · · · + λn+1 an+1,1 )b1 +
..
.
+(λ1 a1n + · · · + λn+1 an+1,n )bn
= 0 · b1 + · · · + 0 · bn = 0.
Dus s1 , . . . , sn+1 zijn lineair afhankelijk.
2
Om de rang van een verzameling te kunnen bepalen en ermee te rekenen voeren
we het begrip basis in.
Definitie 4.2.3 Zij S een verzameling vectoren. Een eindige deelverzameling
B ⊂ S heet een basis van S als
1. B onafhankelijk is, en
2. elke v ∈ S afhankelijk is van B.
Het bekendste voorbeeld is natuurlijk de standaardbasis e1 , . . . , en van Rn .
Samen met Stelling 4.1.5 volgt dat als B een basis van S is en v ∈ S, de
vector v op precies één manier geschreven kan worden als lineaire combinatie
van vectoren uit B.
Een ander voorbeeld,

1
 −2 
0

 
2
1
1
 
3
3
2
4.2. DIMENSIE EN RANG
61
is een basis van de verzameling S = R3 . Leg uit waarom dit zo is!
Het zal blijken dat een basis van R3 altijd uit drie vectoren bestaat. Hier volgt
de karakterisatie van een basis.
Stelling 4.2.4 Zij S een verzameling vectoren van rang n. Dan geldt:
1. Elke basis van S bestaat uit n vectoren.
2. Elk onafhankelijk stelsel vectoren uit S bestaande uit n vectoren is een
basis van S.
Bewijs: Stel we hebben een basis B met m elementen. Omdat n = rang(S)
het maximum van alle mogelijke aantallen onafhankelijke vectoren is, geldt
m ≤ n. Anderzijds, S is bevat in het opspansel van de vectoren uit B. Dus,
volgens de eerste hoofdstelling, n ≤ m. Conclusie: m = n.
Zij B een deelverzameling van S bestaande uit n onafhankelijke elementen.
Stel v ∈ S. Als v onafhankelijk van de vectoren B is, dan zouden we n + 1
onafhankelijke vectoren in S hebben, in tegenspraak met rang(S) = n. We
concluderen dat v afhankelijk van B is. Daarmee is B een basis van S.
2
Voorbeeld 4.2.5. We nemen nog even het stelsel S van vectoren uit Voorbeeld
4.1.4,

      
1
2
0
3
 −2   1   5   4  .
0
1
1
2
Om afhankelijkheid aan te tonen, losten we het homogene stelsel lineaire vergelijkingen


1 0 2 3 0
 −2 5 1 4 0 
0 1 1 2 0
op. Na Gauss-eliminatie hielden we het stelsel


1 0 2 3 0
0 1 1 2 0
0 0 0 0 0
over. We zagen uit deze gereduceerde vorm dat de derde en vierde vector
lineaire combinaties zijn van de eerste twee, en dat de eerste twee vectoren
onafhankelijk zijn. We concluderen dat de eerste twee vectoren een basis van
ons viertal vormen en dat de rang gelijk is aan 2.
♢
Dit voorbeeld illustreert de volgende handige regel.
Stelling 4.2.6 Zij gegeven een n-tal kolomvectoren b1 , . . . , bn ∈ Rm . Zij B de
m × n-matrix met de vectoren bi als kolommen. Zij i1 , i2 , . . . , ir de verzameling
kolomindices corresponderend met de pivot-elementen na een rijreductie van B.
Dan is bi1 , . . . , bir een basis van het stelsel b1 , . . . , bn . In het bijzonder is de
rang van dit stelsel gelijk aan het aantal pivot-elementen.
62
HOOFDSTUK 4. ONAFHANKELIJKHEID EN RANG
Stelling 4.2.7 Zij S, S ′ ⊂ Rn een tweetal verzamelingen vectoren met S ⊂ S ′ .
Dan geldt,
1. Elke basis van S kan worden uitgebreid tot een basis van S ′ .
2. rang(S) ≤ rang(S ′ ).
Bewijs: Stel dat we een basis b1 , . . . , bs van S hebben. We kunnen dan een
basis van S ′ construeren door een vector bs+1 ∈ S ′ te kiezen die onafhankelijk
is van b1 , . . . , bs , vervolgens bs+2 onafhankelijk van de voorgaande, etcetera.
Dit proces breekt af omdat er niet meer dan n onafhankelijke vectoren in S ′
kunnen zitten. We houden een basis van S ′ over, die de basis b1 , . . . , bs van S
bevat.
Het feit dat rang(S) ≤ rang(S ′ ) volgt uit de definitie van het rangbegrip.
2
Tenslotte vermelden we een paar nuttige feiten. Geef zelf een bewijs hiervoor.
Stelling 4.2.8 Zij S een verzameling vectoren. De rang van S verandert niet
als
1. we een vector v ∈ S vervangen door λv, waarin λ ̸= 0
2. we een vector v ∈ S vervangen door v + λw, waarin w ∈ S, w ̸= v en λ
een willekeurige scalair is.
4.3
Rang van een matrix
Beschouw een m × n-matrix A. We kunnen op twee manieren de matrix A een
rang toekennen. Namelijk de rang van de rijvectoren van A en de rang van de
kolomvectoren van A. We noemen dit rijenrang respectievelijk kolommenrang
van A. We hebben de volgende verrassende stelling.
Stelling 4.3.1 De rijenrang van een matrix is gelijk aan zijn kolommenrang.
Bewijs: Noem de matrix A. Voer een rijreductie op A en noem de gereduceerde matrix Ã. Stel dat à precies r pivotelementen bevat. Omdat bij
rijreductie de relaties tussen de kolommen niet veranderen, geldt dat de kolommenrang van A en à gelijk zijn aan r (zie ook Stelling 4.2.6).
Verder volgt uit Stelling 4.2.8 dat bij rijreductie de rijenrang van A en à hetzelfde zijn. Omdat à in de trapvorm staat zien we dat de rijen die een pivotelement bevatten een onafhankelijk stelsel vormen. De overige rijen bestaan
alleen uit nullen. De rijenrang van à is dus r en dit is tevens gelijk aan de
rijenrang van A.
We concluderen dat de rijenrang en kolommenrang van A beiden gelijk zijn aan
r.
2
In de vorige paragraaf, Stelling 4.2.6, zagen hoe we de rang van een stelsel
kolomvectoren konden uitrekenen. Hiermee zien we dat de rang van een matrix
4.3. RANG VAN EEN MATRIX
63
gelijk is aan het aantal pivot-variabelen dat optreedt bij rijreductie van de
matrix.
Ten slotte hebben we het begrip nulruimte van een matrix A. Dit is niets anders
dan de oplossingsverzameling van het homogene stelsel lineaire vergelijkingen
Ax = 0. Notatie: Nul(A).
Na al het voorgaande is het niet meer lastig om de volgende Stelling in te zien.
Stelling 4.3.2 Zij A een m × n-matrix. Dan is de dimensie (of rang) van
Nul(A) gelijk aan n − rangA.
Bewijs: Bij oplossing van het stelsel door Gauss-eliminatie vinden we een
gereduceerd stelsel vergelijkingen met r pivot-variabelen en n − r niet-pivot
variabelen. Uit de opmerking boven weten we dat r = rangA. Verder krijgen
we de volledige oplossingsverzameling door elk van de niet-pivot variabelen een
willekeurige waarde te geven. Hierdoor krijgt de oplossingsverzameling rang (of
dimensie, de oplossingsverzameling is een lineaire deelruimte) n − r. En dit is
gelijk aan n − rangA.
2
Hier is een toepassing.
Stelling 4.3.3 Bij elke lineaire deelruimte V van Rn bestaat een m × n-matrix
A zó dat V de nulruimte van A is. Bovendien kunnen we m = n − dim(V )
kiezen.
Bewijs: Kies een basis van V en schrijf de basisvectoren in rijvorm op als
een dim(V ) × n-matrix die we B noemen. Kies een basis van de nulruimte
van B. Deze bestaat uit n − dim(V ) elementen. Schrijf deze basisvectoren als
kolommen in een matrix C. Dus BC = 0. Na transponeren, C t B t = 0. Stel nu
A = C t . We hebben de volgende feiten, rang(A) = rang(C) = n − dim(V ) en
V is bevat in de nulruimte van A wegens AB t = C t B t = 0. Verder,
dim(Nul(A)) = n − (n − dim(V )) = dim(V ).
Hieruit volgt dat: Nul(A) = V (zie Opgave 4.5.10).
2
Voorbeeld 4.3.4. Zij V de deelruimte in R4 opgespannen door de vectoren
(2, 0, −3, 1)t en (3, 4, 2, 2)t . Zij B de matrix met deze vectoren als rijvectoren.
Dus
(
)
2 0 −3 1
B=
.
3 4 2 2
Ga zelf na dat de nulruimte van deze matrix wordt opgespannen door (0, −2, 1, 3)t
en (4, 1, 0, −8)t . De deelruimte V is dus nulruimte van bijvoorbeeld
(
)
0 −2 1 3
.
4 1 0 −8
♢
64
HOOFDSTUK 4. ONAFHANKELIJKHEID EN RANG
4.4
Dimensies van lineaire deelruimten
Stel dat we een tweetal lineaire deelruimten U, V ⊂ Rn gegeven hebben. We
kunnen nu de somruimte definieren als
U + V = {u + v|u ∈ U, v ∈ V }.
Ga zelf na dat U + V weer een deelruimte van Rn is. Het is niet altijd zo dat de
dimensie van U + V gelijk is aan de som van de dimensies van U en V . Als we
bijvoorbeeld U = V zouden nemen, dan geldt natuurlijk U + V = U = V en we
hebben een voorbeeld waarvoor geldt dat dim(U + V ) = dim(U ) = dim(V ) ̸=
dim(U ) + dim(V ) (mits dim(U ) > 0). Ook als de som van de dimensies van U
en V groter dan n is, kan de dimensie van U + V (die altijd kleiner of gelijk
n is) nooit gelijk zijn aan de som dim(U ) + dim(V ) (die groter is dan n). We
hebben wel de volgende stelling.
Stelling 4.4.1 Met dezelfde notatie als hierboven geldt
dim(U + V ) = dim(U ) + dim(V ) − dim(U ∩ V ).
Bewijs: Stel p = dim(U ), q = dim(V ) en r = dim(U ∩ V ). We beginnen een
basis w1 , . . . , wr te kiezen voor U ∩ V . Vul deze basis met ur+1 , . . . , up aan
tot een basis van U en met vr+1 , . . . , vq aan tot een basis van V . Elke vector
uit U + V kan nu geschreven worden als lineaire combinatie van w1 , . . . , wr ,
ur+1 , . . . , up , vr+1 , . . . , vq . Wij beweren dat deze vectoren onafhankelijk zijn
en daarmee per definitie een basis van U + V vormen. Stel dat we een relatie
λ1 w1 + · · · + λr wr + µr+1 ur+1 + · · · + µp up + νr+1 vr+1 + · · · + νq νq = 0
hebben. De som νr+1 vr+1 + · · · + νq vq is nu bevat in zowel V als U via bovenstaande relatie. Dus is de vector bevat in U ∩ V en kan geschreven worden als
lineaire combinatie van w1 , . . . , wr . Dus zijn coefficienten κ1 , . . . , κr zó dat
νr+1 vr+1 + · · · + νq vq = κ1 w1 + · · · + κr wr .
We hebben nu een lineaire relatie tussen w1 , . . . , wr , vr+1 , . . . , vq en aangezien
deze vectoren onafhankelijk zijn (ze vormen een basis van V ) moet gelden dat
alle coefficienten nul zijn. In het bijzonder νr+1 = · · · = νq = 0. Van de relatie
waarmee wij begonnen houden wij nu over dat
λ1 w1 + · · · + λr wr + µr+1 ur+1 + · · · + µp up = 0.
Omdat de vectoren w1 , . . . , wr , ur+1 , . . . , up lineair onafhankelijk zijn (ze vormen een basis van U ), concluderen we dat λ1 = · · · = λr = µr+1 = · · · = µp = 0.
We hebben nu een basis van U + V gevonden en er geldt dat
dim(U + V ) = r + (p − r) + (q − r) = p + q − r = dim(U ) + dim(V ) − dim(U ∩ V ).
2
4.4. DIMENSIES VAN LINEAIRE DEELRUIMTEN
65
In het bijzonder volgt uit deze Stelling en het feit dim(U + V ) ≤ n, dat als de
som dim(U ) + dim(V ) groter dan n is, de doorsnijding U ∩ V niet triviaal is,
dat wil zeggen, positieve dimensie moet hebben.
In de praktijk, als we een deelruimte U opgespannen door p vectoren u1 , . . . , up ∈
Rn en een deelruimte V opgespannen door q vectoren v1 , . . . , vq ∈ Rn hebben,
dan kunnen we als volgt een basis van U ∩ V bepalen. Hiertoe bepalen we alle
vectoren x die zowel in de vorm x = λ1 u1 + · · · + λp up als x = µ1 v1 + · · · + µq vq
geschreven kunnen worden. Met andere woorden, we moeten het stelsel vergelijkingen
λ1 u1 + · · · + λp up = µ1 v1 + · · · + µq vq
oplossen in λ1 , . . . , λp , µ1 , . . . , µq . Kies een basis van de oplossingen en bepaal
voor elke oplossing uit deze basis λ1 u1 + · · · + λp up (of µ1 v1 + · · · + µq vq , wat op
hetzelfde neerkomt). Oplossing van het stelsel vergelijkingen gebeurt door een
n × (p + q)-matrix op te stellen met de ui , vj als kolommen en het bijbehorende
homogene stelsel vergelijkingen op te lossen.
Voorbeeld 4.4.2. Beschouw de matrix

1
1
1
 −2 1 −1
A=
 0
3
0
1 −2 1
0
4
3
1

−1
−2 
.
−2 
−3
De deelruimte opgespannen door de eerste twee kolommen van A geven we aan
met U , de deelruimte opgespannen door de laatste drie kolommen van A geven
we aan met V . Gevraagd wordt om een basis van U ∩ V te bepalen. We lossen
het homogene stelsel met coefficientenmatrix A op. Gewone rijreductie van A
levert ons het rijgereduceerde stelsel met matrix


1 1 1
0 −1
0 3 1
4 −4 


 0 0 −1 −1 2 
0 0 0
4 −4
op (Controleer dit!!). We zie dat er een 1-dimensionale oplossingsruimte is, dus
heeft U ∩ V dimensie 1. Een basis voor de oplossingsruimte wordt gegeven door
(1/3, −1/3, 1, 1, 1) (controleer!). Hieruit volgt dat U ∩ V wordt opgespannen
door


 


0
1
1


 

1
 −2  + −1  1  =  1  .





1 
0
3
3
3
−1
1
−2
Tevens zien we uit bovenstaande berekening ook dat de pivotvariabelen van de
reductie horen bij de eerste vier kolommen. De eerste vier kolommen vormen
dus een basis van U + V , die in dit voorbeeld natuurlijk gelijk is aan R4 .
♢
Stel dat U, V een tweetal deelruimten van Rn is en stel dat U ∩ V = {0}. In dat
geval geldt dim(U + V ) = dim(U )+dim(V ). Verder volgt uit Opgave 4.5.19 dat
66
HOOFDSTUK 4. ONAFHANKELIJKHEID EN RANG
in dit geval iedere vector uit U + V op precies één manier geschreven worden
als lineaire combinatie van een element uit U en een element uit V . In dit
geval geval zeggen we dat U + V een directe som is van U en V en noteren de
somruimte met U ⊕ V .
4.5
Opgaven
Opgave 4.5.1 Bepaal voor de volgende matrices achtereenvolgens: a) de rang
van de matrix, b) een basis van de rijen, c) een basis van de kolommen, d) een
basis van de nulruimte.




5 −1 0 2
(
)
0 1 2 1
1 2

2 0 −3 1
1
0
 2 1 0 2.

 3 1 −2 4 
3 4 2 2
0 2 1 1
0 4 −1 2
Opgave 4.5.2 Bepaal de rang en een basis van elk der volgende stelsels vectoren:

 
 
   

1
2
4
0
−1
 −2   −3   −1   1   0 

 
 
   

 0  ,  1  ,  7  ,  1  ,  −2 
−2
−2
6
2
−2
en
 
    

 
 
−2
3
3
5
4
0
 −4   6   1   2   4   0 

 
 
 
    
 0   −1   2   4   3   1 

, 
, 
, 
    
 2   3   −2   −3  ,  0  ,  0 

 
 
 
    
 −8   11   4   8   11   1 
−2
2
10
17
11
1
Opgave 4.5.3 Bepaal voor elke waarde van α de rang van het volgende stelsel
vectoren,
     


2
0
2
α−1
 3  α  4   1 
     


 0 ,  0 , α,  0 
α−3
0
1
0
Opgave 4.5.4 Bewijs Stelling 4.2.8.
Opgave 4.5.5 Geef een tweetal 2×2-matrices A, B zó dat rang(AB) ̸= rang(BA).
Opgave 4.5.6 Zij A, C een tweetal matrices waarvan het product AC bestaat.
1. Laat zien dat rang(AC) ≤ rang(A).
2. Geef een voorbeeld waarin rang(AC) ≤ rang(A).
3. Geldt altijd rang(AC) ≤ rang(C) ? Zo niet, geef een tegenvoorbeeld.
4.5. OPGAVEN
67
Opgave 4.5.7 (Lastig) Zij A een n × n-matrix. Laat zien dat rang(At A) =
rang(A).
Opgave 4.5.8 Zij A een n × n-matrix van rang 1. Laat zien dat er getallen
a1 , a2 , . . . , an en b1 , b2 , . . . , bn bestaan, zó dat voor elke i, j het matrixelement
van A op plaats i, j gegeven wordt door ai bj .
Opgave 4.5.9 Zij S een verzameling vectoren. Laat zien dat de rang van S
gelijk is aan de dimensie van Span(S).
Opgave 4.5.10 Zij S, S ′ ⊂ Rn en stel dat S ⊂ S ′ . Bewijs:
rang(S) = rang(S ′ ) ⇐⇒ Span(S) = Span(S ′ ).
Opgave 4.5.11Zij V, W een tweetal deelruimten van Rn en stel dat W ⊂ V .
Bewijs dat dim(W ) = dim(V ) ⇒ V = W .
Opgave 4.5.12 Zij gegeven een drietal vectoren u, v, w ∈ Rn en dat het stelsel
u, v onfhankelijk is en het stelsel u, v, w afhankelijk. Bewijs dat w is het
opspansel van u en v zit.
Opgave 4.5.13 Bepaal een matrix A zó dat de nulruimte van A gelijk is aan
de ruimte opgespannen door de kolommen van


1 1 1
0 2 0

B=
0 0 0
2 1 0
Opgave 4.5.14 Bepaal een matrix A zó dat de nulruimte van A gelijk is aan
de ruimte opgespannen door de rijen van


1 1 1 2 −1
B = 0 2 0 0 4 
0 0 0 2 2
Opgave 4.5.15 Gegeven is de matrix

1 1 1
A = 0 2 0
0 0 0
2
0
2

−1
4 
2
Zij U de deelruimte opgespannen door de eerste 3 kolommen van A en V de
deelruimte opgespannen door de laatste twee kolommen van A. Onder U + V
verstaan we de deelruimte U + V = {u + v | u ∈ U, v ∈ V }.
Bepaal een basis voor U, V, U + V en U ∩ V .
Opgave 4.5.16 Gegeven is de matrix

1 0
0 2
A=
0 0
0 0
1
0
1
0
1
0
2
1

1
1

2
1
68
HOOFDSTUK 4. ONAFHANKELIJKHEID EN RANG
Zij U de deelruimte opgespannen door de eerst drie kolommen van A en V de
deelruimte opgespannen door de laatste drie kolommen van A. Bepaal een basis
voor U, V, U + V en U ∩ V .
Opgave 4.5.17 Gegeven is de matrix

1 2
1
 0 −1 1

A=
 0 0 −2
0 1
1
0 1
0
0
−1
2
−1
1

1 0
0 0

−1 0 

1 0
1 1
Zij U de deelruimte opgespannen door de eerste drie kolommen van A en V
de deelruimte opgespannen door de laatste drie kolommen van A. Bepaal een
basis voor U, V, U + V en U ∩ V .
Opgave 4.5.18 (opm: dit is Stelling 4.4.1) Zij U, V een tweetal deelruimten
van Rn en U + V de somruimte U + V = {u + v | u ∈ U, v ∈ V }. Bewijs dat
dim(U + V ) = dim(U ) + dim(V ) − dim(U ∩ V ).
Opgave 4.5.19 Zij U, V een tweetal deelruimten van Rn en U +V de somruimte
(zien voorgaande opgave). Stel dat U ∩ V = {0}. Bewijs dat iedere vector uit
U + V op precies één manier geschreven kan worden als som van een vector uit
U en een vector uit V .
Opgave 4.5.20 (lastig) Zij nu U, V, W een drietal deelruimten van Rn . Bewijs
dat
dim((U + V ) ∩ W ) ≥ dim(U ∩ W ) + dim(V ∩ W ) − dim(U ∩ V ∩ W ).
Bewijs met behulp van een voorbeeld dat de beide zijden van de ongelijkheid
niet gelijk hoeven zijn. Bewijs vervolgens dat
dim(U + V + W ) ≤ dim(U ) + dim(V ) + dim(W )
− dim(U ∩ V ) − dim(U ∩ W ) − dim(V ∩ W ) + dim(U ∩ V ∩ W ).
Opgave 4.5.21 Zij A een n × n-matrix met de eigenschap dat A2 = O.
Bewijs dat rang(A) ≤ n/2.
Opgave 4.5.22 Zij A een n × n-matrix met de eigenschap dat A2 = A.
Bewijs dat rang(In − A) = n − rang(A), waarin In de n × n identiteitsmatrix
is.
Hoofdstuk 5
Determinanten in dimensies
2,3
5.1
Geörienteerd volume in R2
Zij a, b een tweetal vectoren in R2 . Zij P het parallellogram opgespannen door
a, b. Dat wil zeggen,
P = {λa + µb | 0 ≤ λ, µ ≤ 1}.
b = (b1,b2)
P
a = (a1,a2)
β
α
Gevraagd wordt het oppervlak van P te berekenen. Zij α, β de hoek die a
respectievelijk b maken met de positieve x-as, tegen de klok in gemeten. Dan
wordt het oppervlak van P gegeven door ||a| · |b| · sin(β − α)|. We willen dit
oppervlak graag schrijven als functie van de coördinaten van a = (a1 , a2 ) en
b = (b1 , b2 ). Merk nu op dat a1 = |a| cos α, a2 = |a| sin α en b1 = |b| cos β, b2 =
|b| sin β. We gebruiken dit in de volgende afleiding,
|a| · |b| sin(β − α) = |a| · |b|(cos α sin β − sin α cos β)
= |a| cos α|b| sin β − |a| sin α|b| cos β
= a1 b2 − a2 b1
De gevraagde oppervlakte wordt dus |a1 b2 − a2 b1 |. Echter, door de absolute
waarde te nemen, verliezen we twee dingen. De functie a1 b2 − a2 b1 heeft de
69
70
HOOFDSTUK 5. DETERMINANTEN IN DIMENSIES 2,3
eigenschap dat hij lineair is in a1 , a2 en lineair in b1 , b2 . Ten tweede, de functie
a1 b2 − a2 b1 is positief als sin(β − α) > 0 en negatief als sin(β − α) < 0. Merk
op dat sin(β − α) precies dan positief is als 0 < β − α < π. Meer meetkundig
gezegd, als we a over de kortst mogelijke hoek naar de richting van b draaien,
moeten we tegen de klok in draaien. Dit is extra informatie, die we zouden
verliezen als we de absolute waarde zouden nemen. We noemen a1 b2 − a2 b1
het georienteerde oppervlak van het blok opgespannen door het geordende paar
vectoren a, b. Notaties,
a1 b1 ∆(a, b)
a2 b2 .
We zeggen dat het geordende paar a, b positief georienteerd is als ∆(a, b) > 0
en negatief georienteerd als ∆(a, b) < 0. Merk op dat onze standaard basis
e1 , e2 ook positief georienteerd is.
5.2
Uitwendig product
Zij nu een tweetal vectoren a, b ∈ R3 gegeven en zij P het parallellogram
opgespannen door a = (a1 , a2 , a3 ) en b = (b1 , b2 , b3 ). Wederom vragen we
naar het oppervlak van P uitgedrukt in de coördinaten van a en b. Zij ϕ de
ingesloten hoek tussen a en b. Dan geldt,
Opp(P )2 = |a|2 |b|2 (sin ϕ)2
= |a|2 |b|2 − |a|2 |b|2 (cos ϕ)2
= |a|2 |b|2 − (a · b)2
= (a21 + a22 + a23 )(b21 + b22 + b23 ) − (a1 b1 + a2 b2 + a3 b3 )2
= (a2 b3 − a3 b2 )2 + (a3 b1 − a1 b3 )2 + (a1 b2 − a2 b1 )2
Het blijkt dus dat het gevraagde oppervlak gelijk is aan de lengte van de vector
(a2 b3 − a3 b2 , a3 b1 − a1 b3 , a1 b2 − a2 b1 ).
We noemen deze vector het uitwendig product van a en b. Notatie: a × b. Dit
uitwendig product heeft de volgende eigenschappen.
Stelling 5.2.1 Zij a, b ∈ R3 . Dan geldt,
1. a×b is orthogonaal met a en b, dat wil zeggen, a·(a×b) = b·(a×b) = 0.
2. a × b = −b × a.
3. a × (λb) = (λa) × b = λ(a × b) voor elke λ ∈ R.
4. a × (b + c) = a × b + a × c voor elke c ∈ R3 .
5. Het oppervlak van het parallellogram opgespannen door a en b is gelijk
aan de lengte van a × b.
5.3. GEORIENTEERD VOLUME IN R3
71
De eerste vier eigenschappen zijn direct na te rekenen. De laatste eigenschap
hebben we boven afgeleid. We zien uit de laatste eigenschap ook dat a en b
afhankelijk zijn (dat wil zeggen in dezelfde of tegengestelde richting wijzen)
precies dan als a × b = 0. Het oppervlak van het parallellogram is immers
precies dan nul als a en b afhankelijk zijn.
Als a en b onafhankelijk zijn, dan wordt a × b bijna gekarakteriseerd door
het feit dat zijn lengte vastligt en het feit dat het uitproduct loodrecht op a
en b staat. Er zijn precies twee onderling tegengestelde vectoren die aan deze
eisen voldoen. De juiste richting van a×b wordt vastgelegd door de zogenaamde
kurketrekkerregel (wordt op college uitgelegd). Ook hier krijgen we dus te maken
met orientatie-kwesties.
5.3
Georienteerd volume in R3
Zij nu a, b, c een drietal vectoren in R3 en zij B het blok opgespannen door
deze vectoren. dat wil zeggen,
B = {λa + µb + νc | 0 ≤ λ, µ, ν ≤ 1}.
We willen het volume van B berekenen in termen van de coördinaten van a, b, c.
Laten we het vlak opgespannen door a, b beschouwen als grondvlak. Geef de
normaalvector van dit vlak met lengte 1 aan door n. De hoogte van het blok is
dan gelijk aan |c · n|. Het volume van het blok is gelijk aan de oppervlakte van
het grondvlak maal de hoogte van het blok. Het oppervlak is gelijk aan |a × b|
en omdat n = (a × b)/|a × b|, is de hoogte gelijk aan |(a × b) · c|/|a × b|. Het
volume wordt dus,
Vol(B) = |a × b|
|(a × b) · c|
= |(a × b) · c|.
|a × b|
Stel nu a = (a1 , a2 , a3 ), b = (b1 , b2 , b3 ), c = (c1 , c2 , c3 ). Dan geldt
(a × b) · c = a1 b2 c3 − a1 b3 c2 + a2 b3 c1 − a2 b1 c3 + a3 b1 c2 − a3 b2 c1 .
Deze laatste uitdrukking noemen we het georienteerde volume van het blok
opgespannen door a, b, c. Notaties:
a1 b1 c1 a2 b2 c2 .
∆(a, b, c)
a3 b3 c3 Merk op dat ∆(a, b, c) een lineaire functie is in elk van zijn argumenten. Dit
is een eigenschap die we zouden verliezen bij de functie |∆(a, b, c)|. Ook hier
loont het dus de moeite het geörenteerde volume te beschouwen in plaats van het
positieve volume. Bovendien krijgen we met het voorteken van het geörienteerde
volume extra informatie over de orientatie van de vectoren a, b, c. We zeggen
dat het geordende drietal vectoren a, b, c positief geörienteerd is als ∆(a, b, c) >
0. Meetkundig gezien is het geordende drietal a, b, c positief georienteerd, als ze
georienteerd zijn via de kurketrekkerregel. Belangrijk hierbij is dat de geordende
standaard basis e1 , e2 , e3 ook georienteerd is via de kurketrekkerregel. Tenslotte
is het geörienteerde volume ∆(a, b, c) gelijk aan nul als één van de vectoren ligt
in het vlak opgespannen door de twee andere vectoren.
72
5.4
HOOFDSTUK 5. DETERMINANTEN IN DIMENSIES 2,3
Determinanten
Historisch gezien kwamen de formules voor geörienteerde volumes op een heel
andere manier tot stand, namelijk bij het oplossen van stelsels van n lineaire
vergelijkingen in n onbekenden. Beschouw bijvoorbeeld het stelsel vergelijkingen
a11 x1 + a12 x2 = b1
a21 x1 + a22 x2 = b2
in de onbekenden x1 , x2 . In het algemeen luidt de oplossing als volgt.
x1 =
b1 a22 − b2 a12
,
a11 a22 − a21 a12
x1 =
−b1 a21 + b2 a11
.
a11 a22 − a21 a12
Anders geschreven,
b1 a12 b2 a22 ,
x1 = a
a
11
12
a21 a22 a11 b1 a21 b2 .
x2 = a
a
11
12
a21 a22 De oplossing van het stelsel
a11 x1 + a12 x2 + a13 x3 = b1
a21 x1 + a22 x2 + a23 x3 = b2
a31 x1 + a32 x2 + a33 x3 = b3
ziet er uiteraard ingewikkelder uit. Na veel rekenwerk komt de waarde van x1
uit op
x1 =
b1 a22 a33 − b1 a23 a32 + b2 a32 a13 − b2 a12 a33 + b3 a12 a23 − b3 a22 a13
.
a11 a22 a33 − a11 a23 a32 + a21 a32 a13 − a21 a12 a33 + a31 a12 a23 − a31 a22 a13
Anders geschreven,
b1 a12 a13 b2 a22 a23 b3 a32 a33 x1 = a
a
a
11
12
13
a21 a22 a23 a31 a32 a33 met een analoge formule voor x2 en x3 . De volumefunctie wordt in deze gevallen
ook wel de determinant van de coëfficientenmatrix genoemd. In Hoofdstuk 6
zullen we het determinantbegrip uitbreiden naar n × n-matrices.
5.5
Opgaven
Opgave 5.5.1 Bepaal het oppervlak van de driehoek in R2 met hoekpunten
(−1, 4), (3, 2), (0, 1).
5.5. OPGAVEN
73
Opgave 5.5.2 Bepaal het oppervlak van de driehoek in R2 met hoekpunten
(6, 1), (1, 2), (−3, 1).
Opgave 5.5.3 Bepaal het oppervlak van de driehoek in R3 met hoekpunten
(1, 1, 1), (0, −1, 2), (1, 3, 4).
Opgave 5.5.4 Bepaal het oppervlak van de driehoek in R3 met hoekpunten
(1, 0, −1), (2, 3, −1), (1, 2, 5).
Opgave 5.5.5 Bepaal het volume van het viervlak in R3 met hoekpunten
(1, 0, 0), (2, 3, 4), (−1, 0, 2), (3, 2, −1).
Opgave 5.5.6 Zij a, b, c, d ∈ R3 en λ ∈ R. Bewijs de volgende eigenschappen
van de determinantfunctie ∆, gebruik hiervoor de definitie ∆(a, b, c) = (a×b)·c
(dus niet verder uitschrijven, maar uitsluitend de regels voor in- en uitproducten
gebruiken, dwz Stellingen 2.2.3 en 5.2.1) .
1. Lineariteit in het eerste argument:
(a) ∆(λa, b, c) = λ∆(a, b, c)
(b) ∆(a′ + a′′ , b, c) = ∆(a′ , b, c) + ∆(a′′ , b, c).
2. Lineariteit in het laatste argument:
(a) ∆(a, b, λc) = λ∆(a, b, c)
(b) ∆(a, b, c′ + c′′ ) = ∆(a, b, c′ ) + ∆(a, b, c′′ ).
3. ∆(a, a, b) = 0.
4. ∆(a, b, c) = −∆(b, a, c).
5. ∆(a, b, b) = 0.
6. ∆(a, b, c) = −∆(a, c, b) (hint: werk ∆(a, b − c, b − c) = 0 uit).
7. Stel a = λb + µc dan geldt ∆(a, b, c) = 0.
Opgave 5.5.7 Bewijs dat ∆(a, b, c) = ∆(b, c, a) = ∆(c, a, b). (cyclische verwisseling van a, b, c). Gebruik hiervoor opgave 5.5.6 onderdelen (4) en (6).
Opgave 5.5.8 Bepaal de volgende determinanten,
−1 3 , −1 0 , 3 4 .
−1 2 0 8
5 1
Opgave 5.5.9 Bepaal de volgende determinanten,
1 −1 2 2
1 3 4 −1 0 , 3 1 −2 .
1 2
−7 2 1 3 74
HOOFDSTUK 5. DETERMINANTEN IN DIMENSIES 2,3
Opgave 5.5.10 Bewijs dat
a1 b1
a2 b2
a3 b3
c1 a1
c2 = b1
c3 c1
a2
b2
c2
a3 b3 .
c3 Gebruik hiervoor de 6-terms formule voor de determinant.
Opgave 5.5.11 Zij a, b, c, d ∈ R3 . Toon de volgende eigenschappen aan:
1. ∆(a, b, a × b) = |a × b|2 .
2. a × (b × c) = (a · c)b − (a · b)c
3. (a × b) · (c × d) = (a · c)(b · d) − (a · d)(b · c)
4. a × (b × c) + b × (c × a) + c × (a × b) = 0 (Jacobi’s identiteit).
Opgave 5.5.12 Zij A, B, C een drietal punten in de ruimte en neem aan dat ze
niet op één rechte liggen. Zij a, b, c het drietal bijbehorende vectoren. Bewijs
dat de vergelijking van het vlak door A, B, C gegeven wordt door
∆(x, b, c) + ∆(x, c, a) + ∆(x, a, b) = ∆(a, b, c).
Opgave 5.5.13 Gegeven een drietal punten A, B, C in R2 met coördinaten
(a1 , a2 ), (b1 , b2 ), (c1 , c2 ). Laat zien dat het oppervlak van ∆ABC gelijk is aan
de absolute waarde van de determinant
a1 b1 c1 1 a2 b2 c2 .
2
1 1 1
Opgave 5.5.14 Stel we hebben drie punten in R3 gegeven door de vectoren
a, b, c. Bewijs dat de punten op één lijn liggen precies dan als
a × b + b × c + c × a = 0.
Opgave 5.5.15 In R3 hebben we een punt P gegeven door de vector p en een
rechte lijn l gegeven door de parametervoorstelling p + λa. Stel dat P niet op
l ligt. Bewijs dat een vergelijking van het vlak door P en l gegeven wordt door
∆(x, b, p − a) = ∆(a, b, p).
Opgave 5.5.16 In R3 hebben we twee rechte lijnen l, m met parametervoorstellingen p + λa en q + µb. Neem aan dat a en b onafhankelijk zijn. Laat zien dat
de afstand tussen l en m gegeven wordt door
|∆(a, b, p − q)|
.
|a × b|
5.5. OPGAVEN
75
Opgave 5.5.17 Bewijs onderdelen (1),(2),(3),(4) van Stelling 5.2.1 uit het dictaat. Gebruik hierbij de definitie
a × b = (a2 b3 − a3 b2 , a3 b1 − a1 b3 , a1 b2 − a2 b1 ).
Bewijs verder ook dat a × a = 0 voor alle a ∈ R3 .
Hoofdstuk 6
Determinanten
6.1
Permutaties
Determinanten van n × n-matrices kunnen er ingewikkeld uitzien. Voor een
goed begrip van het onderliggende patroon van determinanten is het begrip
permutatie van cruciaal belang.
Een permutatie van 1, 2, 3, . . . , n is een herrangschikking van de getallen 1, 2, 3, . . . , n.
Later, bij Algebra, zul je een iets andere definitie van een permutatie aanleren. Echter, voor de eenvoud hanteren we hier het begrip permuatie als herrangschikking. Hier volgt een lijstje met permutaties van 1, 2, 3,
1
2
3
1
3
2
2
3
1
3
2
1
3
1
2
2
1
3
Schrijf zelf alle permutaties van 1, 2, 3, 4 op. Je zult zien dat het er 24 zijn. In het
algemeen zijn er n! permutaties van 1, 2, . . . , n. Een paarswisseling is een operatie waarmee twee elementen verwisseld worden en de anderen vastgelaten Elke
permutatie kan door een opeenvolging van paarswisselingen gevormd worden.
Bijvoorbeeld de permutatie 3, 5, 1, 2, 4 bereiken we als volgt vanuit 1, 2, 3, 4, 5.
Eerst 1, 3 verwisselen geeft 3, 2, 1, 4, 5, vervolgens 2, 4 verwisselen: 3, 4, 1, 2, 5 en
tenslotte geeft 4, 5 verwisselen onze permutatie. Het zal duidelijk zijn dat een
permutatie op vele manieren door paarswisselingen samengesteld kan worden.
Het aantal benodigde paarswisselingen kan daarbij zelfs variëren. Wat echter
niet varieert is de pariteit (even of oneven zijn) van het aantal paarswisselingen.
We vatten dit in de volgende stelling samen.
Stelling 6.1.1 Het aantal paarswisselingen nodig om een gegeven permutatie
samen te stellen is altijd even of altijd oneven.
Later, bij Algebra, zal deze stelling bewezen worden. We noemen een permutatie even als we er een even aantal paarswisselingen voor nodig hebben,
oneven als we er een oneven aantal paarswisselingen voor nodig hebben. We
76
6.1. PERMUTATIES
77
noteren de pariteit met de signum functie sign. Als een permutatie σ even is,
zetten we sign(σ) = 1 en als σ oneven is, sign(σ) = −1. Controleer zelf dat
sign(1, 2, 3) = 1 en sign(3, 2, 1) = −1.
Een andere, grafische manier om de pariteit te bepalen, illustreren we aan de
hand van ons voorbeeld 3, 5, 1, 2, 4.
1
2
3
4
5
In dit plaatje is wordt 1 naar plaats 3 verschoven, 2 naar plaats 4, etc. De
verbindingslijnen zijn losjes getekend om ervoor te zorgen dat niet verbindingslijnen in één punt snijden. Tellen we nu het totale aantal snijpunten van
de verbindingsstukjes dan komen we op 7. Dit is een oneven getal, precies
overeenkomend met het oneven zijn van onze permutatie.
Hier geven we bij de permutaties van 1, 2, 3 aan welke even (met +) en welke
oneven (met −) zijn,
1
2
3
1
3
2
2
3
1
3
2
1
3 +
1 +
2 +
2 −
1 −
3 −
Laten we nu eens kijken naar de algemene 3 × 3-determinant
a11
a21
a31
a12
a22
a32
a13 a23 a33 welke gelijk is aan
a11 a22 a33 − a11 a32 a23 + a21 a32 a13 − a21 a12 a33 + a31 a12 a23 − a31 a22 a13 .
Een dergelijke determinant zijn we in Hoofdstuk 5 al tegengekomen. De zes
termen zijn zodanig opgeschreven dat de kolom-indices op de volgorde 1, 2, 3
staan. Merk nu op dat elk van de zes termen overeenkomt met een permutatie
van de rij-indices 1, 2, 3. Bovendien komt het voorteken dat bij elke term staat
precies overeen met de pariteit van de permutatie van de rij-indices. Dit zal in
de volgende paragraaf het algemene patroon in een n × n-determinant zijn.
78
HOOFDSTUK 6. DETERMINANTEN
6.2
Algemene determinanten
Zij gegeven de n × n-matrix
a11
 a21
A=
 ...
a12
a22
..
.
...
...

a1n
a2n 
.. 
. 
an1
an2
...
ann

De determinant van A wordt gedefinieerd door
∑
sign(i1 , i2 , . . . , in ) ai1 1 ai2 2 · · · ain n
(6.1)
i1 ,i2 ,...,in
ij ̸=ik
Notaties:
det(A),
a11
a21
.
..
an1
a12
a22
..
.
...
...
an2
...
a1n a2n .. .
. ann
Indien we de kolommen van A aangeven met a1 , a2 , . . . , an dan noteren we de
determinant ook wel als
det(a1 , a2 , . . . , an ).
Hoewel de determinantdefinitie er ingewikkeld uitziet, heeft deze functie een
aantal elegante eigenschappen. Het zal blijken dat vrijwel alleen deze afgeleide
eigenschappen bij determinantberekeningen gebruikt worden. De oorspronkelijke definitie wordt in de praktijk nauwelijks gebruikt.
Allereerst vermelden een drietal fundamentele eigenschappen.
Stelling 6.2.1 (Basiseigenschappen determinant) Neem de notatie zoals
net geschetst. Dan geldt,
1. De functie det is lineair in elk van zijn argumenten. Dat wil zeggen, voor
elke r, 1 ≤ r ≤ n geldt
(a) Voor elke (n + 1)-tal a1 , . . . , an , a′ , a′′ ∈ Rn geldt,
det(a1 , . . . , a′ +a′′ , . . . , an ) = det(a1 , . . . , a′ , . . . , an )+det(a1 , . . . , a′′ , . . . , an )
waarbij a′ , a′′ , a′ + a′′ allen op de r-de plaats staan.
(b) Voor elke a1 , . . . , an ∈ Rn en λ ∈ R geldt,
det(a1 , . . . , λar , . . . , an ) = λdet(a1 , . . . , ar , . . . , an )
2. det(a1 , . . . , an ) = 0 als ar = as voor zekere r ̸= s.
3. det(e1 , . . . , en ) = 1, waarin ei de standaardbasis vectoren van Rn zijn.
Anders gezegd, det(In ) = 1.
6.2. ALGEMENE DETERMINANTEN
79
Bewijs: Eigenschap (1) volgt vrijwel direct uit de definitie. Immers,
∑
sign(i1 , . . . , in )ai1 1 . . . (a′ir r + a′′ir r ) . . . ain n
i1 ,i2 ,...,in
ij ̸=ik
is gelijk aan
∑
∑
sign(i1 , . . . , in ) ai1 1 . . . a′ir r . . . ain n +
i1 ,i2 ,...,in
ij ̸=ik
Verder,
∑
sign(i1 , . . . , in ) ai1 1 . . . a′′ir r . . . ain n
i1 ,i2 ,...,in
ij ̸=ik
sign(i1 , . . . , in ) ai1 1 . . . (λair r ) . . . ain n = λ
i1 ,i2 ,...,in
ij ̸=ik
∑
sign(i1 , . . . , in ) ai1 1 . . . ain n
i1 ,i2 ,...,in
ij ̸=ik
Eigenschap (2) is iets subtieler. Stel dat r < s. Kies een permutatie i1 , i2 , . . . , in
van 1, 2, . . . , n en beschouw de sommand
sign(i1 , . . . , ir , . . . , is , . . . , in ) ai1 1 · · · air r · · · ais s · · · ain n .
Beschouw ook de sommand
sign(i1 , . . . , is , . . . , ir , . . . , in ) ai1 1 · · · ais r · · · air s · · · ain n .
In ieder geval geldt dat
sign(i1 , . . . , ir , . . . , is , . . . , in ) = −sign(i1 , . . . , is , . . . , ir , . . . , in )
omdat de twee permutaties een paarswisseling verschillen. Omdat ar = as ,
geldt ook dat ai1 1 · · · air r · · · ais s · · · ain n = ai1 1 · · · ais r · · · air s · · · ain n . Met andere woorden de som van de twee termen is 0. Omdat de termen in de determinant kunnen opgedeeld worden in dergelijke paren, is de determinant zelf ook
0.
Eigenschap (3) volgt uit het feit dat de elementen aij van de identiteitsmatrix
alleen ongelijk nul zijn als i = j. In dat geval is de waarde 1. Van de termen in
de determinant blijft dus alleen de term sign(1, 2, . . . , n) a11 a22 · · · ann over, en
deze is gelijk aan 1.
2
Bovenstaande eigenschappen hadden we in Hoofdstuk 5 al voor het geval n =
2, 3 gezien. Hoewel de definitie van de determinant er vrij ingewikkeld uitziet,
is het toch een natuurlijke voortzetting van het begrip georienteerd volume dat
we in dimensies 2 en 3 gezien hebben. Dit blijkt uit de volgende stelling.
Stelling 6.2.2 Zij ∆ een functie die aan ieder geordend n-tal a1 , a2 , . . . , an ∈
Rn een waarde ∆(a1 , a2 , . . . , an ) ∈ R toekent met de volgende eigenschappen,
1. ∆ is lineair in elk van zijn argumenten. Dat wil zeggen, voor elke r, 1 ≤
r ≤ n geldt
80
HOOFDSTUK 6. DETERMINANTEN
(a) Voor elke a1 , . . . , an , a′ , a′′ ∈ Rn geldt,
∆(a1 , . . . , a′ +a′′ , . . . , an ) = ∆(a1 , . . . , a′ , . . . , an )+∆(a1 , . . . , a′′ , . . . , an )
waarbij a′ a′′ , a′ + a′′ allen op de r-de plaats staan.
(b) Voor elke a1 , . . . , an en λ ∈ R geldt,
∆(a1 , . . . , λar , . . . , an ) = λ∆(a1 , . . . , ar , . . . , an )
2. ∆(a1 , . . . , . . . , an ) = 0 als ar = as voor zekere r ̸= s.
3. ∆(e1 , . . . , en ) = 1, waarin ei de standaardbasis vectoren van Rn zijn.
Dan geldt, ∆ = det.
Hoewel het niet lastig is, zullen we geen bewijs van deze stelling geven. Wel laat
deze stelling zien dat als we het bestaan van een volumefunctie aannemen die
lineair is in elk van zijn argumenten en die nul is als twee vectoren hetzelfde zijn,
we automatisch op het door ons gedefinieerde determinantbegrip terechtkomen.
6.3
Eigenschappen van determinanten
We leiden eerst een aantal andere nuttige eigenschappen van determinanten af.
Stelling 6.3.1 (Afgeleide eigenschappen determinant) Zij det de determinantfunctie. Dan geldt,
1. De waarde van det(a1 , . . . , an ) verandert niet als we ai vervangen door
ai + λaj met λ ∈ R en j ̸= i.
2. De waarde van det(a1 , . . . , an ) gaat in zijn tegengestelde over bij verwisseling van ai en aj met i ̸= j.
3. det(a1 , . . . , an ) = 0 als a1 , . . . , an een afhankelijk stelsel is.
Deze stelling zegt dus dat de waarde van een determinant niet verandert bij
vegen en dat de determinant in zijn tegengestelde verandert bij verwisseling
van twee kolommen. Uit Stelling 6.2.1(1b) wisten we al dat de determinant
met λ vermenigvuldigt als we een kolom met λ vermenigvuligen.
Bewijs: Eerst bewijzen we eigenschap (1).
det(a1 , . . . , ai + λaj , . . . , an ) = det(a1 , . . . , ai , . . . , an ) + det(a1 , . . . , λaj , . . . , an )
= det(a1 , . . . , ai , . . . , an ) + λdet(a1 , . . . , aj , . . . , an )
Deze twee regels volgen uit de lineariteitseigenschap van det. De laatste detwaarde is nul omdat de vector aj tweemaal als argument voorkomt. Dit volgt
uit eigenschap (2) van Stelling 6.2.1. We houden dus over,
det(a1 , . . . , ai + λaj , . . . , an ) = det(a1 , . . . , ai , . . . , an )
6.3. EIGENSCHAPPEN VAN DETERMINANTEN
81
Eigenschap (2) kunnen we inzien door herhaalde toepassing van eigenschap (1),
det(a1 , . . . , ai , . . . , aj , . . . , an ) = det(a1 , . . . , ai − aj , . . . , aj , . . . , an )
= det(a1 , . . . , ai − aj , . . . , ai , . . . , an )
= det(a1 , . . . , −aj , . . . , ai , . . . , an )
= −det(a1 , . . . , aj , . . . , ai , . . . , an )
De laatste gelijkheid volgt weer uit de lineariteit van det.
Eigenschap (3) volgt direct uit eigenschap (1). Stel bijvoorbeeld dat a1 =
λ2 a2 + · · · + λn an dan geldt,
det(a1 , a2 , . . . , an ) = det(a1 − λ2 a2 − · · · − λn an , a2 , . . . , an )
= det(0, a2 , . . . , an ) = 0
2
Merk op dat het bewijs van Stelling 6.3.1 vrij direct volgt uit de eigenschappen
van Stelling 6.2.1. Hier volgt nog een tweetal eigenschappen die direct uit de
determinantdefinitie volgen.
Stelling 6.3.2 Zij A een n × n-matrix. Dan geldt, det(A) = det(At ).
Bewijs: Stel A = (aij )i,j=1,...,n . Dan geldt,
∑
sign(i1 , i2 , . . . , in )ai1 1 ai2 2 · · · ain n
det(A) =
i1 ,i2 ,...,in
il ̸=ik
Deze schrijfwijze is zo gekozen dat de rij-indices in de factoren aij in de oplopende
volgorde 1, 2, . . . , n staan. We gaan nu de factoren aij in elke term zodanig van
volgorde verwisselen dat de tweede indices in de volgorde 1, 2, . . . , n. We krijgen
dan ai1 1 ai2 2 · · · ain n = a1j1 a2j2 · · · anjn en nu staan de eerste indices in de permutatie j1 , j2 , . . . , jn . Merk op dat sign(i1 , i2 , . . . , in ) = sign(j1 , j2 , . . . , jn ). Het
aantal paarswisselingen nodig om j1 , . . . , jn uit 1, 2, . . . , n te vormen is immers
even groot als het aantal paarswisselingen nodig om 1, 2, . . . , n uit i1 , . . . , in te
vormen. Verder, als we over de indices i1 , . . . , in met il ̸= ik sommeren, kunnen
we net zo goed over de indices j1 , . . . , jn sommeren. Dus,
∑
det(A) =
sign(j1 , j2 , . . . , jn )a1j1 a2j2 · · · anjn
j1 ,j2 ,...,jn
jl ̸=jk
Deze laatste uitdrukking is echter precies de determinant van de getransponeerde
matrix At . Dus det(A) = det(At ).
2
Als gevolg van deze Stelling kunnen we de rol van rijen en kolommen in een
matrix verwisselen. Samen met eigenschappen (1),(2) van Stelling 6.3.1 en (1b)
van 6.2.1 geeft dit de volgende observatie.
82
HOOFDSTUK 6. DETERMINANTEN
Gevolg 6.3.3 Zij A een n × n-matrix. Dan geldt,
De waarde van det(A) verandert niet als we een veelvoud van een rij of
kolom optellen bij een andere rij, respectievelijk kolom.
De waarde van det(A) gaat in zijn tegengestelde over als twee rijen verwisselen, of twee kolommen verwisselen.
De waarde van det(A) wordt met λ vermenigvuldigd als we een rij of
kolom met λ vermenigvuldigen.
Een tweede belangrijke eigenschap is de volgende.
Stelling 6.3.4 Zij A, B een tweetal n × n-matrices. Dan geldt
det(AB) = det(A)det(B).
Bewijs: Geef de elementen van B aan met bij . De j-de kolomvector van A
geven we aan met aj voor j = 1, 2, . . . , n. Ga nu zelf na dat de
∑i-de kolomvector
van AB gegeven wordt door b1i a1 + b2i a2 + · · · + bni an ofwel j bji aj . We gaan
nu de lineariteit van de determinantfunctie gebruiken,
(
)
∑
∑
det(AB) = det
bi1 1 ai1 , . . . ,
bin n ain
∑
=
i1
in
bi1 1 · · · bin n det(ai1 , . . . , ain )
i1 ,i2 ,...,in
De waarde det(ai1 , . . . , ain ) is nul als ik = il voor zekere k ̸= l. Als alle ik
verschillend zijn, is ai1 , . . . , ain een permutatie van a1 , . . . , an en we hebben
det(ai1 , . . . , ain ) = sign(i1 , . . . , in )det(a1 , . . . , an ). Conclusie,
∑
det(AB) =
sign(i1 , . . . , in )bi1 1 · · · bin n det(a1 , . . . , an )
i1 ,i2 ,...,in
= det(B)det(a1 , . . . , an ) = det(B)det(A)
2
Tenslotte geeft een determinant van een matrix A een numeriek criterium om
te zien of A al of geen maximale rang heeft.
Stelling 6.3.5 Zij A een n×n-matrix. Dan zijn de volgende beweringen equivalent,
1. rang(A) = n
2. A is inverteerbaar
3. det(A) ̸= 0
6.4. DE BEREKENING VAN DETERMINANTEN
83
Bewijs: Dat (2) uit (1) volgt hadden we al eerder gezien bij het oplossen van
lineaire vergelijkingen. Stel nu dat A inverteerbaar is. Dan is er een n × nmatrix B zó dat In = AB. Neem aan beide zijden de determinant. We vinden
1 = det(AB) = det(A)det(B). Hieruit zien we dat det(A) ̸= 0. Dus deel (2)
impliceert deel (3). Stel tenslotte dat det(A) ̸= 0. Dan kunnen de rijen van A
nooit afhankelijk zijn want Stelling 6.3.1(3) zegt dat de determinant nul is in
dat geval. Conclusie, rang(A) = n en de implicatie (3)⇒(1) is bewezen.
2
6.4
De berekening van determinanten
De snelste methode om een determinant te berekenen is met behulp van Gevolg
6.3.3 waarmee we een Gauss-Jordan-eliminatie kunnen nabootsen. Om te laten
zien wat we bedoelen geven we hier een illustratie.
We gaan
1 −1 0
2
0
2
3 −1 ∆=
(6.2)
1
2 −1 0
0
2 −2 −1 berekenen. We kunnen veelvouden van rijen bij andere rijen kunnen optellen
zonder dat de waarde verandert. Tel de eerste bij de derde rij op. We krijgen
1 −1 0
2 0 2
3 −1 ∆ = 4 0 −1 1
0 2 −2 −1 We verwisselen de tweede en derde rij en gebruiken de nieuwe tweede rij om de
derde en vierde rij te vegen,
1 −1 0 2 0 −1 1 4 ∆ = −
(6.3)
0
0
5
7
0 0 0 7
Let op, het −teken is ontstaan door de rijverwisseling. Tenslotte kunnen we de
elementen boven de diagonaal nul maken door Gauss-Jordan-reductie,
1 0 0 0
0 −1 0 0 ∆ = −
0
0
5
0
0 0 0 7
We gebruiken nu de lineariteit van de volumefunctie en vinden,
1 0 0 0
0 1 0 0
= 35.
∆ = −(−35) 0 0 1 0
0 0 0 1
84
HOOFDSTUK 6. DETERMINANTEN
Als we daarmee tot een sneller resultaat komen, kunnen we gedurende dit proces ook veelvouden van kolommen bij andere kolommen optellen, of kolommen
verwisselen.
Als we er goed over nadenken, zien we dat we vanaf formule (6.3) kunnen zien
wat de determinant gaat worden. De matrix staat in bovendriehoeksvorm en
de determinant wordt gewoon het product van de diagonaalelementen van de
bovendriehoeksmatrix. We vatten dit expliciet samen.
Stelling 6.4.1 Zij A een n × n bovendriehoeksmatrix met op de diagonaal de
elementen a11 , a22 , . . . , ann . Dan geldt
det(A) = a11 a22 · · · ann .
Dezelfde uitspraak geldt voor een benedendriehoeksmatrix.
Een tweede manier om determinanten uit te rekenen is door ontwikkeling naar
een rij of kolom. We geven eerst een beschrijving van dit proces.
Stelling 6.4.2 Zij gegeven een n × n-matrix A. Voor elke i, j geven we met
Aij de (n − 1) × (n − 1)- matrix aan, die we krijgen als we uit A de i-de rij en
j-de kolom wegstrepen. Dan,
∑
1. Voor elke i geldt dat det(A) = nj=1 (−1)i+j aij det(Aij )
∑
2. Voor elke j geldt dat det(A) = ni=1 (−1)i+j aij det(Aij )
In het eerste geval spreken we van ontwikkeling van de determinant naar de
i-de rij (de kolom-index j laten we immers lopen) in het tweede geval spreken
van een ontwikkeling naar de j-de kolom (nu loopt de rij-index i op).
Voorbeeld 6.4.3. Hier volgt als voorbeeld de ontwikkeling van onze voorbeelddeterminant (6.2) naar de tweede rij,
−1 0
2 1
0
2 1
−0 0
1
2 +2 −1 1
2 −3 −1
2 −2 −1 0 −2 −1 0
−1
0
2
1 −1
2 2 +(−1) −1 0
0
−1 2
0 1 −2 Elk van de drie bij drie determinanten kunnen we weer naar een rij of kolom
ontwikkelen en we gaan zo door tot we alleen één bij één determinanten hebben,
m.a.w. getallen.
♢
Bewijs: De reden dat we determinanten naar hun kolommen kunnen ontwikkelen berust op het feit dat
1
0
0
.
..
0
a12
a22
a32
...
...
...
an2
...
a1n a
a2n 22
a
a3n = 32
.
.. ..
. an2
ann
...
...
...
a2n a3n .. = det(A11 )
. ann
(6.4)
6.4. DE BEREKENING VAN DETERMINANTEN
85
Dit kunnen we direct uit formule (6.1) zien. We zijn nu in het geval dat ai1 1 =
1 als i1 = 1 en ai1 1 = 0 als i1 ̸= 1. Alleen de termen met i1 = 1 geven
dus een bijdrage. De overige indices i2 , i3 , . . . , in zijn dus een permutatie van
2, 3, . . . , n en sign(1, i2 , . . . , in ) = sign(i2 , . . . , in ). We houden de formule voor
de determinant det(A11 ) over.
Stel nu dat we de determinant van een matrix willen hebben waarvan de j-de
kolom nullen bevat, op de i-de plaats na, waar een 1 staat.
a11 . . . a1,j−1 0 a1,j+1 . . . a1n a21 . . . a2,j−1 0 a2,j+1 . . . a2n ..
..
..
.. .
.
.
. ∆ij := ai1 . . . ai,j−1 1 ai,j+1 . . . ain ..
.
.
.
..
..
.. .
an1 . . . an,j−1 0 an,j+1 . . . ann We verwisselen nu de j-de kolom met de j − 1-de kolom, vervolgens met de
j − 2-de kolom enzovoorts, tot hij helemaal links staat,
0 a11 . . . a1,j−1 a1,j+1 . . . a1n 0 a21 . . . a2,j−1 a2,j+1 . . . a2n ..
..
..
.. .
.
.
.
∆ij := (−1)j−1 1
a
.
.
.
a
a
.
.
.
a
i1
i,j−1
i,j+1
in
..
..
..
.. .
.
.
. 0 an1 . . . an,j−1 an,j+1 . . . ann Vervolgens verwisselen we de i-de rij met de i − 1-de rij, dan de i − 2-de,
enzovoorts, tot deze rij bovenaan staat,
1
a
.
.
.
a
a
.
.
.
a
i1
i,j−1
i,j+1
in
0
a11
. . . a1,j−1
a1,j+1 . . .
a1n ..
..
..
..
.. .
.
.
.
. i+j−2 ∆ij := (−1)
0 ai−1,1 . . . ai−1,j−1 ai−1,j+1 . . . ai−1,n 0 ai+1,1 . . . ai+1,j−1 ai+1,j+1 . . . ai+1,n ..
.
.
.
.
.
.
.
.
.
.
.
.
. 0
an1
. . . an,j−1
an,j+1 . . . ann Merk op dat deze determinant weer de gedaante van (6.4) heeft, met de matrix Aij in het rechteronder deel. Deze determinant is dus gelijk aan ∆ij =
(−1)i+j det(Aij ).
Stel nu dat we een willekeurige determinant det(A) moeten uitrekenen. Gebruik
makend van de lineariteit van de determinant in de j-de kolom vinden we dat
det(A) = a1j ∆1j + a2j ∆2j + · · · + anj ∆nj
Met bovenstaande afleiding voor ∆ij geeft dit,
det(A) = (−1)j+1 a1j det(A1j ) + (−1)j+2 a2j det(A2j ) + · · · + (−1)j+n anj det(Anj ).
86
HOOFDSTUK 6. DETERMINANTEN
Hiermee hebben we de algemene ontwikkeling van een determinant naar de j-de
kolom. Op dezelfde manier kunnen we aantonen dat we determinanten naar een
rij kunnen ontwikkelen.
2
Met bovenstaande notaties noemen we det(Aij ) de onderdeterminant van A
behorend bij de plaats i, j. Het element ∆ij = (−1)i+j det(Aij ) noemen we de
minor van A behorend bij plaats i, j.
6.5
De VanderMonde determinant (optioneel)
In de praktijk gebeurt het heel vaak dat de determinant van een matrix met
een regelmatig patroon een verrassend eenvoudig antwoord heeft. Het beste
voorbeeld hiervan is de VanderMonde determinant .
Stelling 6.5.1 Voor elke x1 , x2 , . . . , xn geldt,
1
1
...
1 x1
x2
...
xn ∏
2
x2
x2
...
x2n =
(xj − xi ).
1
..
..
.. i<j
.
.
. n−1
n−1
n−1 x
x
.
.
.
x
n
1
2
Bewijs: Het bewijs van deze stelling gaat met volledige inductie naar n. Voor
n = 2 is de Stelling duidelijk, we berekenen direct
1
1 x1 x2 = x2 − x1 .
Stel nu n > 2 en dat de Stelling waar is voor (n − 1) × (n − 1) VanderMonde
determinanten. In de n × n-determinant trekken we nu xn maal de n − 1-de
rij van de n-de rij af. Vervolgens xn maal de n − 2-de rij van de n − 1-de rij
enzovoort. Als laatste trekken we xn maal de eerste rij van de tweede af. We
houden de volgende determinant over,
1
1
...
1
1 x1 − xn
x2 − xn
...
xn−1 − xn
0 2
2
x2 − xn x1
x2 − xn x2
. . . xn−1 − xn xn−1 0 1
..
..
..
.. .
.
.
.
xn−1 − xn xn−2 xn−1 − xn xn−2 . . . xn−1 − xn xn−2 0 1
1
2
2
n−1
n−1
De laatste kolom bestaat uit nullen, behalve op de eerste plaats, waar een 1
staat. De determinant is dus gelijk aan de (n − 1) × (n − 1)-determinant
x1 − xn
x2 − xn
...
xn−1 − xn x2 − xn x1
x22 − xn x2
. . . x2n−1 − xn xn−1 1
n
(−1) ..
..
..
.
.
n−1 .
n−2
n−1
n−2
n−1
n−2 x
−
x
x
x
−
x
x
.
.
.
x
−
x
x
n
n
n
1
1
2
2
n−1
n−1
6.5. DE VANDERMONDE DETERMINANT (OPTIONEEL)
87
Merk nu op dat alle termen van de eerste kolom deelbaar zijn door x1 − xn .
De termen van de tweede kolom zijn allen deelbaar door x2 − xn , enzovoort.
We gebruiken nu de lineariteit van de determinant in de kolommen om deze
factoren eruit te halen. We krijgen,
1
1
.
.
.
1
x1
x2
. . . xn−1 2
x22
. . . x2n−1 (xn − x1 )(xn − x2 ) · · · (xn − xn−1 ) x1
.
..
.. ..
.
. xn−1 xn−1 . . . xn−1 1
2
n−1
De laatste determinant is een (n − 1) × (n − 1) VanderMonde
determinant.
∏
Volgens onze inductieveronderstelling is deze gelijk aan 1≤i<j≤n−1 (xj − xi ).
Onze n × n- determinant wordt hiermee
∏
∏
(xn − x1 ) · · · (xn − xn−1 )
(xj − xi ) =
(xj − xi ).
1≤i<j≤n−1
1≤i<j≤n
Hiermee is de inductiestap voltooid.
2
De VanderMonde determinant komt op veel verschillende plaatsen in de wiskunde
voor. Hier is een kleine toepassing. Onder een polynoom of veelterm verstaan we
een functie van de vorm P (x) = pn xn + pn−1 xn−1 + · · · + p2 x2 + p1 x + p0 , waarin
de pi reële of complexe getallen zijn. We nemen aan dat pn ̸= 0. We zeggen
dan dat P (x) graad n heeft. Een nulpunt van P (x) is een reëel of complex getal
a zó dat P (a) = 0. Je weet dat een kwadratisch (=tweede graads) polynoom
nooit meer dan 2 nulpunten kan hebben. Dit geldt ook in het algemeen.
Stelling 6.5.2 Zij P (x) een polynoom van graad n. Dan heeft P (x) niet meer
dan n verschillende nulpunten.
Bewijs: Stel namelijk dat P (x) meer dan n nulpunten heeft. Neem daarvan
n + 1 stuks en noem ze a1 , a2 , . . . , an+1 . Dan geldt
pn ani + pn−1 an−1
+ · · · + p2 a2i + p1 ai + p0 ,
i
i = 1, 2, . . . , n + 1.
We kunnen nu de zaak omdraaien door de punten a1 , . . . , an+1 als gegeven te
beschouwen en de vergelijkingen als een stelsel van n + 1 lineaire vergelijkingen
in de n + 1 onbekenden pn , . . . , p1 , p0 te zien. Omdat pn ̸= 0 voor ons gegeven
polynoom, bestaat er een niet-triviale oplossing. Dit betekent volgens Stelling
6.3.5 dat de coëfficientendeterminant nul is. Met andere woorden,
n
an−1
...
a1
1
a1
1
n
n−1
a2
...
a2
1
a2
=0
.
..
..
.
.
.
.
n
n−1
an+1 an+1 . . . an+1 1
Anderzijds is deze determinant
een VanderMonde determinant, waarvan de
∏
waarde gelijk is aan 1≤i<j≤n+1 (aj − ai ). Omdat de nulpunten ai allen verschillend zijn, is dit product ongelijk nul. Dit is in tegenspraak met het nul
88
HOOFDSTUK 6. DETERMINANTEN
worden van de coëfficientendeterminant. We concluderen dat we niet meer dan
n nulpunten kunnen hebben.
2
6.6
Regel van Cramer
In de eerste paragraaf hebben we erop gewezen dat determinanten van oudsher
optreden bij de oplossing van n lineaire vergelijkingen in n onbekenden,
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
..
..
.
.
an1 x1 + an2 x2 + · · · + ann xn = bn
De coefficientenmatrix van dit stelsel geven we aan met A. De i-de kolomvector
van A geven we aan met ai . De kolom bestaande uit de bi geven we aan met
b. De oplossing van ons stelsel wordt door de volgende stelling gegeven.
Stelling 6.6.1 (Regel van Cramer) Stel det(A) ̸= 0. Dan heeft het stelsel
vergelijkingen een unieke oplossing x1 , x2 , . . . , xn gegeven door
xi =
det(a1 , . . . , ai−1 , b, ai+1 , . . . , an )
det(a1 , a2 , . . . , an )
voor i = 1, 2, . . . , n.
Bewijs: Omdat det(A) ̸= 0 weten we dat er een unieke oplossing x1 , x2 , . . . , xn
bestaat. Dat wil zeggen, b = x1 a1 + x2 a2 + · · · + xn an . Merk nu op dat
det(a1 , . . . , ai−1 , b, ai+1 , . . . , an )
=
det(a1 , . . . , ai−1 , x1 a1 + x2 a2 + · · · + xn an , ai+1 , . . . , an )
=
det(a1 , . . . , ai−1 , xi ai , ai+1 , . . . , an )
=
xi det(a1 , . . . , ai−1 , ai , ai+1 , . . . , an )
De tweede gelijkheid volgt uit het feit dat we xj maal de j-de kolom kunnen
aftrekken van de i-de kolom voor elke j ̸= i. Uit de laatste regel volgt onze
formule voor xi direct.
2
6.7
Geadjungeerde en inverse
Stel dat A een n × n-matrix is met det(A) ̸= 0. Geef, net als in de vorige paragraaf, de kolommen aan met a1 , . . . , an . Kies j en los het stelsel vergelijkingen
Ax = ei op. Volgens de regel van Cramer wordt de oplossing gegeven door
xj =
det(a1 , . . . , aj−1 , ei , aj+1 , . . . , an )
,
det(A)
j = 1, 2 . . . , n.
6.7. GEADJUNGEERDE EN INVERSE
89
Merk nu op dat de determinant in de teller precies de minor ∆ij van A is op
plaats i, j. De oplossingsvector wordt dus gegeven door
1
(∆i1 , ∆i2 , . . . , ∆in )t .
det(A)
Tevens is de oplossingsvector voor het stelsel Ax = ei precies de i-de kolom van
A−1 . Conclusie, de inverse matrix van A wordt gegeven door de formule
∆11

1  ∆12
=
.
det(A)  ..
∆21
∆22
···
···

∆n1
∆n2 
.
.. 
. 
∆1n
∆2n
···
∆nn

A−1
We hebben de volgende stelling bewezen.
Stelling 6.7.1 Zij A een inverteerbare n × n-matrix. Dan wordt het element
van A−1 op plaats i, j gegeven door
∆ji /det(A) = (−1)i+j det(Aji )/det(A).
Let op, de indices i, j zijn verwisseld in deze formule! De matrix met het
element (−1)i+j det(Aji ) op plaats i, j noemen we de geadjungeerde matrix van
A. Notatie: Ad(A). Er geldt het volgende.
Stelling 6.7.2 Zij A een n × n-matrix en Ad(A) zijn geadjungeerde. Dan geldt
dat AAd(A) = Ad(A)A = det(A)In .
Voorbeeld 6.7.3. Stel, we willen de inverse van


2 0 1
A =  −1 1 2 
1 2 4
bepalen met behulp van de geadjungeerde. De determinant van A is −3. De
eerste rij van Ad(A) vinden we door de onderdeterminanten te bepalen behorend
bij de eerste kolom van A en die van ± te voorzien. Dat worden:
1 2
= 0, − 0 1 = 2, 0 1 = −1.
1 2
2 4
2 4
De tweede rij van de geadjungeerde krijgen we door de tweede kolom van A af
te lopen:
2 1
2 1
−1 2 = 6, − 1 4 = 7, − −1 2 = −5.
1 4
En tenslotte de derde
−1
1
rij van Ad(A):
2 0
1 = −4,
= −3, − 1 2
2
2 0
−1 1 = 2.
90
HOOFDSTUK 6. DETERMINANTEN
We concluderen dat de inverse van A wordt gegeven door


0
2 −1
−1 
A−1 =
6
7 −5  .
3
−3 −4 2
Het kan zijn dat je er sneller uit was gekomen als je veegprocedure had toegepast,
maar dat hangt helemaal van de situatie af waarin we verkeren. Het is in elk
geval goed om op de hoogte te zijn van het bestaan van een formule voor de
inverse van een matrix.
♢
6.8
Opgaven
Opgave 6.8.1 Bepaal de volgende determinanten
kolommen te ontwikkelen,
2 −3 2 0 1
1 4
4 0
0
,
0 1 −5 3 2
door in zelfgekozen rijen of
2 3 1
Opgave 6.8.2 Bepaal de volgende determinanten door in zelfgekozen rijen of
kolommen te ontwikkelen,
−1 1
−1 −2 2
2
3 1 2
0
0 −5 0 0 −1 0 ,
0
0
0 −1 0
1 −1 0
3 −3 1
4
1 −1 1 −1 Opgave 6.8.3 Bepaal de volgende determinanten door in zelfgekozen rijen of
kolommen te ontwikkelen,
a b 0
0 a 0
0 a b,
b c d
a 0 b
0 e 0
Opgave 6.8.4 Er is gegeven dat
a b
d e
g h
c f = 4.
i
Bepaal de volgende determinanten
3a −b 2c 2a 2b 2c d e f , 3d −e 2f ,
3g −h 2i g h i a
2d − 3g
g
b
c
2e − 3h 2f − 3i h
i
6.8. OPGAVEN
91
a−b a+b c
d−e d+e f
g − h g + h i a
d
g b + 2a e + 2d h + 2g −c
−f
−i Opgave 6.8.5 Bereken de volgende determinanten
5 2 1 0
0 1 4 −1 1 −1 4 1 2 , 2 3 1
3 0 2 1
1 4 1 −3 .
1 0 2 1
1 1 −4 1 Opgave 6.8.6 Bereken de volgende
1 2 0
6 2 8
4 2 1
4 5 4
1 2 0
1 0 1
determinant
−1 2
4 1 −1 1 2
2 −5 .
5
1
2 −1 2
4 8
1
5 Opgave 6.8.7 Stel n ≥ 2. Ga na van de volgende uitspraken na of hij waar of
onwaar is voor elke tweetal n × n-matrices A en B
1. det(AB) = det(A)det(B).
2. det(A + B) = det(A) + det(B).
3. det(Ak ) = det(A)k voor elke gehele k ≥ 0.
4. det(A−1 ) = det(A)−1 (mits det(A) ̸= 0).
5. det(λA) = λdet(A).
Opgave 6.8.8 Bereken de determinant
1 0 2 0 0
3 −1 1 0 0 1 2 2 0 0.
0 0 0 4 5
0 0 0 2 3
Opgave 6.8.9 Bovenstaande determinant heeft het volgende patroon. Een
n × n matrix A met overal nullen, behalve op de plaats van een r × r deelmatrix
92
HOOFDSTUK 6. DETERMINANTEN
R en een s × s deelmatrix S, zodat r + s = n en R en S hebben geen gemeenschappelijke rijen of kolommen. Verder liggen de diagonalen van R en S op die
van A. Bewijs dat det(A) = det(R)det(S)
Opgave 6.8.10 In R2 is een drietal rechte lijnen gegeven door vergelijkingen
van de vorm ai x + bi y = ci voor i = 1, 2, 3, waarbij (ai , bi ) ̸= (0, 0) voor
i = 1, 2, 3. Bewijs: als de drie lijnen door één punt gaan, dan geldt
a1 b1 c1 a2 b2 c2 = 0.
a3 b3 c3 De omkering geldt niet altijd: geef een drietal lijnen waarvoor bovenstaande
determinant nul is, maar die niet door één punt gaan.
Opgave 6.8.11 Gebruik de regel van Cramer om de volgende stelsels lineaire
vergelijkingen op te lossen,
1.
2.
3.
4.
5.
x1
x1
+
−
x1
x1
+ 3x2
− x2
− 2x2
x1
x1
x1
− 2x2
x1
x1
x1
+ x2
+ 2x2
+ 3x2
x1
+
x2
x2
x2
x2
=3
= −1
=4
=0
+
+
x3
x3
= −1
=3
=0
+
+
−
x3
x3
x3
=2
=2
= −4
+
+
x3
x3
x3
=a
=b
=c
Opgave 6.8.12 Bepaal de geadjungeerde en inverse (indien deze bestaat) van
de volgende matrices.
(
)
(
)
1 2
a b
,
3 4
c d




0 1 4
1 0 1
2 1 2, 3 1 2
6 1 0
1 1 2


2 1 0
3 0 1
0 1 1
6.9. EXTRA OPGAVEN
93
Opgave 6.8.13 Laat zien dat de volgende determinanten nul zijn (door handig
te redeneren)
0
1
a
a b 1
1 b
c −a 0 c , a
b
c , a + x b + x c + x −b −c 0 b + c a + c a + b
a+y b+y c+y
Opgave 6.8.14 Zij A een n×n-matrix met gehele getallen coëfficienten. Bewijs
A−1 heeft gehele coefficienten ⇐⇒ det(A) = ±1.
Opgave 6.8.15 De vergelijking van een cirkel in het platte vlak met middelpunt
(a, b) en straal r luidt: (x − a)2 + (y − b)2 = r2 . Uitgeschreven: x2 + y 2 − 2ax −
2by + a2 + b2 − r2 = 0.
Stel we hebben vier punten (xi , yi ) met i = 1, 2, 3, 4 waarvan we weten dat ze
op een cirkel liggen. Bewijs dat
2
x1 + y12 x1 y1 1 2
x2 + y22 x2 y2 1 x2 + y 2 x3 y3 1 .
3
3
x2 + y 2 x4 y4 1 4
4
Geldt de omkering ook, dat wil zeggen als de determinant nul is, liggen de vier
punten (xi , yi ) dan op een cirkel?
6.9
Extra opgaven
Opgave 6.9.1 (Lastig) Zij a = (a1 , a2 , . . . , an ), b = (b1 , b2 , . . . , bn ) een tweetal
vectoren in Rn . Stel dat het oppervlak O van het parallellogram opgespannen
door a en b gelijk is aan |a| · |b| · | sin ϕ| waarin ϕ de hoek is tussen a en b. Laat
zien dat
∑
O2 =
(ai bj − aj bi )2 .
1≤i<j≤n
Opgave 6.9.2 Bereken
1 2
2 3
3 4
4 5
5 1
3
4
5
1
2
4
5
1
2
3
5 1 2 3 4
en
2
x
2
b
a2
d2
ax x
ab b
bc x
ad d
1 1 1 1
Opgave 6.9.3 Bereken (met gebruikmaking van volledige inductie) de volgende
n × n-determinanten,
1 + a2
1 1 1 ... 1 a
0
...
0 a
1 2 2 ... 2 1 + a2
a
...
0 0
1 2 3 ... 3 a
1 + a2 . . .
0 ,
.
. . .
.. ..
.. ..
.. .. ..
.
.
. 0
1 2 3 ... n
0
...
a 1 + a2 94
HOOFDSTUK 6. DETERMINANTEN
1
1
0
..
.
0
0
−1
0
Opgave 6.9.4 Bereken
λ 1 1
1 λ 1
1 1 λ
.
..
1 1 1
1
2
..
.
0
0
0
−2
0
..
.
0 ...
0 ...
−3 . . .
..
.
0
0
0
0
...
...
−(n − 1) 0
0
0
0
..
.
0
0
0
..
.
0
1
n−1
de n × n-determinanten
x
··· 1
1
1
1
··· 1
en
.
.. ..
.
1
··· λ
Opgave 6.9.5 Zij gegeven de n × n-determinant
x 1 0 ···
1 x 1 ···
0 1 x ···
∆n = 0. 0 1 · · ·
..
0 0 ··· 1
x x ···
x x ···
1 x ···
1
1
···
x
x
x .. .
x
0
0
0 0 .. .
x
Bewijs dat ∆n = x∆n−1 − ∆n−2 .
Opgave 6.9.6 Het Kroneckersymbool δij wordt gegeven door δij = 1 als i = j
en δij = 0 als i ̸= j. Zij x1 , · · · , xn een willekeurig n-tal scalairen. Zij M de
n × n-matrix met op plaats i, j het element δij + xi xj . Bewijs dat det(M ) =
1 + x21 + x22 + · · · + x2n .
Opgave 6.9.7 Bewijs,
x b12
a1 x
a1 a2
..
..
.
.
a1 a2
a1 a2
b13
b23
x
..
.
b14
b24
b34
..
.
. . . b1,n−1
. . . b2,n−1
. . . b3,n−1
..
.
a3
a3
a4
a4
...
...
Opgave 6.9.8 Stel n ≥ 3. Bewijs
a1 + b1 a1 + b2
a2 + b1 a2 + b2
..
..
.
.
an + b1 an + b2
x
an−1
1 1 ∏
1 n−1
(x − ak ).
.. =
. k=1
1 1
dat voor elke keuze van ai , bj geldt:
a1 + b3 . . . a1 + bn a2 + b3 . . . a2 + bn = 0.
..
..
.
.
an + b3 . . . an + bn
6.9. EXTRA OPGAVEN
Opgave 6.9.9
0 x
x 0
y z
z y
95
Bewijs,
y z z y = (x + y + z)(x − y − z)(x + y − z)(x − y + z).
0 x x 0
Opgave 6.9.10 Bewijs dat als a1 a2 · · · an ̸= 0,
1
1
...
1 1 + a1
1
1 + a2
1
...
1 1
1
1 + a3 . . .
1 = a1 a2 · · · an (1 + 1 + 1 + · · · + 1 ).
.
a1 a2
an
..
..
.. ..
.
.
. 1
1
1
. . . 1 + an
Hoofdstuk 7
Vectorruimten
7.1
Axioma’s
Tot nu toe hebben we het uitsluitend over Rn gehad. In de geschiedenis van
de wiskunde blijkt dat veel andere verzamelingen ook gezien kunnen worden
als vectorruimten. Met name oplossingsverzamelingen van lineaire differentiaalvergelijkingen. Misschien is dit niet één-twee-drie duidelijk, maar we zullen
er later in dit hoofdstuk op terugkomen. Voorbeelden waarvan je je misschien
wel kunt voorstellen dat ze Rn generaliseren zijn bijvoorbeeld de oneindige rijtjes reële getallen, aan te geven met R∞ .
Een andere generalisatie is om de reële getallen los te laten en in andere
getalsystemen te rekenen. Bijvoorbeeld, we kunnen naar verzameling vectoren (x1 , . . . , xn ) met xi ∈ C kijken en deze ruimte Cn noemen. Matrixvermenigvuldiging, oplossing van lineaire vergelijkingen, lineaire deelruimten, determinanten, dit alles zou even goed kunnen plaats vinden met complexe getallen.
Ook gaan onze stellingen over rang en dimensie onveranderd door. Evenzo kunnen we kijken naar Qn . Om niet alles tegelijk te generaliseren beperken we ons
voorlopig tot vectorruimten met scalairen R.
De belangrijkste idee is dat we vectoren zien als objecten die los staan van hun
beschrijving door coördinaten, vaak hebben we die niet eens nodig. We concentreren ons op de belangrijkste eigenschappen van vectoren, namelijk dat er
een optelling en scalaire vermenigvuldiging bestaan. De rest, zoals coördinaten,
komt later als dat nodig mocht blijken.
Een vectorruimte over R is een niet-lege verzameling V met daarin een optelling
x, y ∈ V 7→ x + y en een scalaire vermenigvuldiging λ ∈ R, x ∈ V 7→ λx die
voldoet aan de volgende eigenschappen.
1. Voor alle x, y ∈ V geldt x + y = y + x.
2. Voor alle x, y, z ∈ V geldt (x + y) + z = x + (y + z).
3. Bij elke x, y ∈ V is er een uniek bepaalde z ∈ V zó dat x + z = y.
4. Voor alle λ, µ ∈ R en x ∈ V geldt λ(µx) = (λµ)x.
5. Voor alle λ ∈ R en alle x, y ∈ V geldt λ(x + y) = λx + λy.
96
7.1. AXIOMA’S
97
6. Voor alle λ, µ ∈ R en alle x ∈ V geldt (λ + µ)x = λx + µx
7. Voor alle x ∈ V geldt 1 · x = x.
De elementen van V noemen we vectoren. Allereerst een aantal belangrijke
opmerkingen.
1. We noemen de oplossing z in eigenschap (3) het verschil van de vectoren
y en x. Notatie: y − x.
2. Er is een uniek bepaald element 0 ∈ V zó dat x + 0 = x voor alle x ∈ V .
Om te zien dat zo’n element bestaat kiezen we v ∈ V (dat kan, V is
immers niet leeg) en nemen 0 = v−v. Dus v+0 = v. Zij nu x willekeurig
en tel aan beide zijden x − v op. We vinden (x − v) + v + 0 = (x − v) + v.
Per definitie geldt dat (x − v) + v = x. Onze gelijkheid gaat dus over in
x + 0 = x. Het element 0 heeft dus de gewenste eigenschap.
Nu moeten we ons er nog van overtuigen dat er maar één element is met
deze eigenschap. Stel dat er nog een element 0′ is zo dat x + 0′ = x voor
alle x ∈ V . Dan geldt in het bijzonder dat 0 + 0′ = 0. Anderzijds, omdat
0 ook de rol van nulelement speelt, geldt dat 0′ + 0 = 0′ . We zien dat de
som 0 + 0′ gelijk is aan zowel 0 als 0′ . Dus zijn deze gelijk 0′ = 0.
3. Voor elke x ∈ V geldt 0 · x = 0. Dit zien we uit het feit dat x + 0 · x =
(1 + 0)x = 1 · x = x. Aangezien 0 de unieke vector is met de eigenschap
dat x + 0 = x concluderen we dat 0 · x = 0.
4. Voor elke x, y ∈ V geldt y − x = y + (−1) · x. Stel z = y + (−1) · x. Dan
geldt x + z = x + y + (−1) · x = y + (1 − 1)x = y + 0 · x = y. Hieruit
zien we dat ook z = y − x.
Voortaan noteren we 0 − x als −x. In het bijzonder geldt −x = (−1) · x.
Hier zijn een aantal voorbeelden van vectorruimten. Ga van elk van de voorbeelden na dat ze inderdaad een vectorruimte vormen.
1. De intuı̈tieve vectoren uit onze inleiding.
2. De verzamelingen Rn (eindige rijen van lengte n van elementen uit R,
R∞ (oneindige rijen) en R∞
0 (oneindige rijen met eindig veel termen ̸= 0)
vormen vectorruimten over R. Optelling en scalaire vermenigvuldiging
zijn de gebruikelijke coördinaatsgewijze bewerkingen.
3. De verzameling van m × n-matrices met elementen uit R en gebruikelijke
optelling en scalaire vermenigvuldiging vormen een vectorruimte over R.
4. De verzameling van polynomen
{ak X k + ak−1 X k−1 + · · · + a1 X + a0 | ai ∈ R}
met de voor de hand liggende optelling en scalaire vermenigvuldiging.
Notatie: R[X]
98
HOOFDSTUK 7. VECTORRUIMTEN
5. Zij I ⊂ R een interval. De verzameling van continue functies f : I → R
vormen een vectorruimte over R als we optelling en scalaire vermenigvuldiging als volgt kiezen:
(f + g)(x) = f (x) + g(x)
(λf )(x) = λf (x).
Notatie: C 0 (I).
6. In plaats van bovenstaand voorbeeld kunnen we natuurlijk ook de verzameling van continu differentieerbare functies, (C 1 (I)) oneindig vaak differentieerbare functies (C ∞ (I)), of willekeurige functies nemen.
7. De complexe getallen vormen een vectorruimte over R als we gebruikelijke
optelling en scalaire vermenigvuldiging nemen.
Definitie 7.1.1 (Deelruimte) Zij V een vectorruimte over R en W ⊂ V een
deelverzameling. We noemen W een (lineaire) deelruimte van V als de volgende
eigenschappen gelden:
1. 0 ∈ W .
2. Als x, y ∈ W dan x + y ∈ W .
3. Als λ ∈ R en x ∈ W dan λx ∈ W
Stelling 7.1.2 Een lineaire deelruimte W van een vectorruimte V is zelf ook
een vectorruimte als we de optelling en scalaire vermenigvuldiging uit V nemen.
Bewijs: Zij W een deelruimte van V . Uit de definitie van deelruimte volgt
dat we in W een optelling en scalaire vermenigvuldiging van vectoren hebben.
Omdat deze optelling en vermenigvuldiging aan de axioma’s voor de ruimte
V voldoen, voldoen ze zeker ook als we ons beperken tot de vectoren in W .
Daarmee is W zelf ook een vectorruimte.
2
Voorbeelden van deelruimten.
1. V = Rn en W is oplossingsverzameling van een stelsel homogene lineaire
vergelijkingen Ax = 0 in x ∈ Rn . (Deze kenden we al).
2. Zij I ⊂ R een interval en V = C 0 (I). Dan zijn C 1 (I) en C ∞ (I) voorbeelden van lineaire deelruimten.
3. Zij V = R[X]. Dan zijn de volgende deelverzamelingen ook deelruimten
(a) Kies n ∈ N. De polynomen met graad ≤ n. Notatie: R[X]n .
(b) De verzameling p(X) ∈ R[X] met p(1) = 0. Of algemener, kies a ∈ R
en neem als W de verzameling polynomen met p(a) = 0.
4. V = R∞ . Ga na dat de volgende deelverzamelingen lineaire deelruimten
zijn:
7.2. AFHANKELIJKHEID
99
∞ met x = 0 als n
(a) R∞
n
0 : de verzameling van alle (x1 , x2 , . . .) ∈ R
groot genoeg is.
(b) l∞ : de verzameling (x1 , x2 , . . .) ∈ R∞ zó dat limn→∞ xn = 0.
(c) l2 : (lastig) de verzameling (x1 , x2 , . . .) ∈ R∞ zó dat limn→∞ x21 +
x22 + · · · + x2n bestaat.
Ga tevens na dat we in dit voorbeeld de inclusies
2
∞
R∞
⊂ R∞
0 ⊂l ⊂l
hebben.
5. Gegeven een vectorruimte V over R en een eindige verzameling vectoren
v1 , . . . , vn . Het opspansel van deze vectoren gegeven door
Span(v1 , . . . , vn ) = {λ1 v1 + · · · + λn vn |λ1 , . . . , λn ∈ R}
is een lineaire deelruimte van V .
6. Gegeven een vectorruimte V over R en een willekeurige deelverzameling
S ⊂ V . De verzameling van alle (eindige) lineaire combinaties van elementen uit S noemen we het opspansel van S. Notatie: Span(S). Merk
op dat Span(S) ook een lineaire deelruimte van V is.
Verder geldt voor elke deelruimte W ⊂ V met de eigenschap S ⊂ W , dat
alle lineaire combinaties van elementen uit S ook in W bevat moeten zijn.
Met andere woorden, Span(S) ⊂ W . Op deze manier kunnen we Span(S)
zien als de kleinste deelruimte die een gegeven verzameling S omvat.
7.2
Afhankelijkheid
Ook in onze abstracte vectorruimten hanteren we het begrip (on)afhankelijkheid.
Stel we hebben een vectorruimte V over het lichaam R en zij v1 , v2 , . . . , vr een
r-tal vectoren in V . Een lineaire combinatie van v1 , v2 , . . . , vr is een vector van
de vorm
λ1 v1 + λ2 v2 + · · · + λr vr
waarin λ1 , . . . , λr ∈ R. Onder een (lineaire) relatie tussen v1 , v2 , . . . , vr verstaan we een lineaire combinatie die de nulvector oplevert.
Definitie 7.2.1 Zij V een vectorruimte over het lichaam R. Een r-tal vectoren
v1 , v2 , . . . , vr ∈ V noemen we (lineair) onafhankelijk als de enige relatie
λ1 v1 + λ2 v2 + · · · + λr vr = 0
met λ1 , λ2 , . . . , λr ∈ R de triviale is, dat wil zeggen λ1 = λ2 = · · · = λr = 0.
We noemen de vectoren (lineair) afhankelijk als er een niet-triviale relatie
bestaat.
We kunnen ook lineaire onafhankelijkheid voor willekeurige verzamelingen definiëren
(dus ook oneindige verzamelingen).
100
HOOFDSTUK 7. VECTORRUIMTEN
Definitie 7.2.2 Zij V een vectorruimte over het lichaam R. Een deelverzameling S ⊂ V heet (lineair) onafhankelijk als elke eindige deelverzameling van
S onafhankelijk is.
We kunnen nu ook het begrip rang invoeren.
Definitie 7.2.3 Zij V een vectorruimte en S ⊂ V een niet lege verzameling
vectoren. Het grootste getal r, zó dat S een r-tal onafhankelijke vectoren bevat,
noemen we de rang van S. Notatie: rang(S).
In het bijzonder, als S = {0}, dan zeggen we dat rang(S) = 0.
Als S een deelruimte is dan noemen we de rang van S ook wel dimensie. Notatie:
dim(S).
Als r niet bestaat, dan zeggen we dat de rang (of dimensie) van S oneindig is.
We kunnen alleen r = ∞ hebben als S voor elke positief gehele r een r-tal
onafhankelijke vectoren bevat.
De volgende stelling hebben we ook al in Hoofdstuk 4 gezien. Het bewijs gaat
op precies dezelfde manier, dus zullen we dat niet herhalen.
Stelling 7.2.4 (Hoofdstelling) Zij V een vectorruimte en S ⊂ V een verzameling vectoren en stel dat S bevat is in het opspansel van n vectoren b1 , . . . , bn .
Dan geldt dat rang(S) ≤ n.
Het begrip basis hebben we ook in Hoofdstuk 4 gezien, met als enige subtiliteit
dat hier een basis uit oneindig veel elementen kan bestaan.
Definitie 7.2.5 Zij V een vectorruimte S ⊂ V een verzameling vectoren. Een
deelverzameling B ⊂ S heet een basis van S als
1. B onafhankelijk is, en
2. elke v ∈ S afhankelijk is van B (dat wil zeggen v is een lineaire combinatie
van een eindig aantal elementen uit B).
In deze definitie hebben we het woord eindig onderstreept om duidelijk te maken
dat we in dit stadium niet kunnen spreken over lineaire combinatie van een
oneindig aantal elementen. Om over oneindige sommen te kunnen spreken
hebben we ook een convergentiebegrip nodig. In een aantal gevallen zullen we
deze later zien. Vooralsnog hebben oneindige sommen geen betekenis in de
lineaire algebra.
Bij abstracte vectorruimten kan het gebeuren dat er helemaal geen eindige
basis bestaat. In dat geval bevat de vectorruimte een oneindige onafhankelijke
deelverzamneling en waarmee de dimensie van V oneindig is. In dergelijke
gevallen kan het gebeuren dat we een oneindige basis kunnen aanwijzen, maar
veel vaker gebeurt het dat er helemaal geen basis aangegeven kan worden.
Twee mooie voorbeelden worden gegeven door R∞ bestaande uit de oneindige
rijen reële getallen, en R∞
0 , bestaande uit de oneindige rijen reële getallen die
7.2. AFHANKELIJKHEID
101
vanaf zeker moment nul zijn. De vectoren
(1, 0, 0, 0, . . .)
(0, 1, 0, 0, . . .)
(0, 0, 1, 0, . . .)
...
vormen een basis van R∞
0 . Ga zelf na dat dit zo is. Begrijp je ook waarom
bovenstaand stelsel geen basis van R∞ is?
Analoog, en met het zelfde bewijs als in Stelling 4.2.4 kunnen we hier ook
eindige bases karakteriseren.
Stelling 7.2.6 Zij S een verzameling vectoren van rang n. Dan geldt:
1. Elke basis van S bestaat uit n vectoren.
2. Elk onafhankelijk stelsel vectoren uit S bestaande uit n vectoren is een
basis van S.
Hier volgt een aantal voorbeelden van (on)afhankelijke verzamelingen en eventuele
bases van vectorruimten.
Voorbeeld 7.2.7. Beschouw de vectorruimte over R bestaande uit de reëelwaardige
continue functies op ]0, 1[. We geven deze aan met C 0 (]0, 1[). De rol van de nulvector in deze ruimte wordt gespeeld door de constante functie 0. Als voorbeeld
laten we zien dat 1/x, 1/x2 , 1/(1 − x) onafhankelijk zijn. Stel namelijk
a
1
1
1
+b 2 +c
≡0
x
x
1−x
voor zekere a, b, c ∈ R. Met het ≡-teken geven we hier nog een keer extra aan
dat het om een gelijkheid van functies gaat. Dat wil zeggen dat de gelijkheid
geldt voor alle keuzen van x.
Om onafhankelijkheid aan te tonen kunnen we een aantal waarden van x kiezen.
Neem bijvoorbeeld achtereenvolgens x = 1/3, 1/2, 2/3. We vinden dan,
3a + 9b + 3c/2 = 0
2a + 4b + 2c = 0
3a/2 + 9b/4 + 3c = 0
Oplossing van dit stelsel leert dat a = b = c = 0. Met andere woorden, alleen
de triviale relatie geldt, en de functies zijn onafhankelijk.
♢
Voorbeeld 7.2.8. De ruimte C(R) van continue functies op R. De nulvector in
deze ruimte is de triviale functie 0. Beschouw de functies f0 , f1 , f2 , . . . gegeven
door fm (x) = emx . Wij beweren dat de functies f0 , f1 , . . . , fn onafhankelijk zijn
voor elke gehele n. Stel dat er a0 , a1 , . . . , an ∈ R bestaan, zó dat
an fn + an−1 fn−1 + · · · + a1 f1 + a0 f0 = 0
102
HOOFDSTUK 7. VECTORRUIMTEN
Anders gezegd,
an enx + an−1 e(n−1)x + · · · + a1 ex + a0
is identiek gelijk nul voor alle keuzen van x. Anders geschreven, P (ex ) = 0 voor
alle x, waarin
P (X) = an X n + an−1 X n−1 + · · · + a1 X + a0 .
Anders gezegd, het polynoom P (X) heeft oneindig veel verschillende nulpunten,
namelijk X = ex met x ∈ R willekeurig. Als P (X) een niet-triviaal polynoom
zou zijn, dan kunnen er hooguit n nulpunten zijn. We moeten dus concluderen
dat P (X) het triviale polynoom is. Met andere woorden, an = an−1 = · · · =
a1 = a0 = 0.
In het bijzonder zien we dat het opspansel van f0 , f1 , f2 , . . . in C(R) een oneindigdimensionale deelruimte van C(R) is.
♢
Voorbeeld 7.2.9. Oplossingen van een homogene lineaire differentiaalvergelijking
dn
dn−1
d
y
+
p
(x)
y + · · · + p1 (x) y + p0 (x)y = 0
n−1
n
n−1
dx
dx
dx
waarin de pi (x) voldoende vaak differentieerbare functies in het open interval
(−1, 1) zijn (je kunt natuurlijk ook andere open intervallen kiezen). We kunnen
de vergelijking iets korter schrijven door
y (n) + pn−1 (x)y (n−1) + · · · + p1 (x)y ′ + p0 (x)y = 0.
Zij V de verzameling oplossingen van deze vergelijking. Ga zelf het volgende
na: als y1 , y2 twee oplossingen zijn en λ ∈ R, dan zijn y1 + y2 en λy1 ook
oplossingen. Met andere woorden, V is een vectorruimte ten aanzien van de
gewone optelling en scalaire vermenigvuldiging van functies.
Uit de theorie van de lineaire differentiaalvergelijkingen volgt dat de dimensie
van V gelijk is aan n. Met andere woorden, er bestaan n onafhankelijke oplossingen y1 , . . . , yn van onze differentiaalvergelijking zo dat iedere iedere oplossing
in de vorm λ1 y1 + · · · + λn yn te schrijven is met λi ∈ R voor alle i.
Hier volgen een paar specifieke voorbeelden.
1.
dn
y = 0.
dxn
De verzameling oplossingen bestaat uit alle polynomen van graad < n,
λ0 + λ1 x + λ2 x2 + · · · + λn−1 xn−1 .
2.
d2
d
y − 3 y + 2y = 0.
2
dx
dx
Laten we een oplossing van de vorm y = eλx voor nog nader te bepalen λ ∈
R proberen. Invullen in de vergelijking geeft (λ2 − 3λ + 2)eλx = 0, waaruit
volgt λ2 − 3λ + 2 = 0 en dus λ = 1 of 2. Twee oplossingen zijn dus ex en
e2x en volgens de theorie spannen deze de volledige oplossingsverzameling
op.
7.3. LINEAIRE AFBEELDINGEN
3.
103
d2
y − xy = 0.
dx2
Deze vergelijking is niet met de ons bekende klassieke functies op te lossen
en we moeten oneindige Taylorontwikkelingen in de strijd gooien. Dit
zullen we hier niet doen, maar wel opmerken dat desondanks de oplossingsruimte een vectorruimte over R van dimensie 2 is.
♢
Voorbeeld 7.2.10. De vectorruimte van complexe getallen√over R. Elk complex getal
√ kan op unieke manier geschreven worden als a + b −1. Hieruit volgt
dat 1, −1 een basis van onze vectorruimte is. De dimensie van C over R is
dus twee.
♢
7.3
Lineaire afbeeldingen
Van bijzonder belang zijn afbeeldingen tussen vectorruimten die de vectorruimtestructuur intact laten. Om wat preciezer te zijn, zij V, W een tweetal
vectorruimten over het scalairenlichaam R. Een lineaire afbeelding A : V → W
is een afbeelding met de volgende eigenschappen
1. Voor elke x, y ∈ V geldt A(x + y) = A(x) + A(y).
2. Voor elke λ ∈ R, x ∈ V geldt A(λx) = λA(x).
Om wat houvast te hebben, matrixvermenigvuldiging is het standaardvoorbeeld van een lineaire afbeelding. Preciezer, zij M een m × n-matrix met reële
coëfficienten. De afbeelding Rn → Rm die aan x ∈ Rn de vector M x ∈ Rm
toekent, is een lineaire afbeelding. Uit de elementaire regels van matrixvermenigvuldiging volgt immers dat
M (x + y) = M x + M y
en
M (λx) = λM x.
In het volgende hoofdstuk zal blijken dat lineaire afbeeldingen tussen eindigdimensionale vectorruimten allemaal kunnen worden teruggebracht tot matrixvermenigvuldiging met een matrix M waarvan met coëfficienten in R.
Alvorens verdere voorbeelden te bespreken, maken we een aantal opmerkingen
en voeren wat begrippen in.
Lemma 7.3.1 Zij V, W een tweetal vectorruimten over het scalairenlichaam R
en A : V → W een lineaire afbeelding. Dan geldt,
1. Voor elk tweetal x, y ∈ V en λ, µ ∈ R geldt A(λx + µy) = λA(x) + µA(y).
104
HOOFDSTUK 7. VECTORRUIMTEN
2. A(0) = 0.
Geef zelf een bewijs voor dit Lemma.
Een belangrijke ruimte die bij een lineaire afbeelding hoort is de kern. Zij
f : V → W een lineaire afbeelding, dan is de kern van f de verzameling van
alle x ∈ V met f (x) = 0. Notatie: ker(f ).
In het voorbeeld van matrixvermenigvuldiging x 7→ M x wordt de kern gegeven
door de nulruimte van de matrix M .
Lemma 7.3.2 De kern van een lineaire afbeelding f : V → W is een lineaire
deelruimte van V .
Geef ook van dit Lemma zelf een bewijs. Verder geldt,
Stelling 7.3.3 Zij V, W een tweetal vectorruimten en A : V → W een lineaire
afbeelding. Dan is A injectief precies dan als ker(A) = {0}.
Bewijs: Dit is niet lastig in te zien. Stel namelijk dat A injectief is. Dan geldt
x ∈ ker(A) ⇒ A(x) = 0 = A(0) en wegens injectiviteit van A volgt hieruit dat
x = 0. Dus ker(A) = {0}.
Stel anderzijds dat ker(A) alleen uit de nulvector bestaat. Dan volgt uit Ax =
A(y) dat A(x − y) = 0 wegens de lineariteit van A. Omdat de kern triviaal is
impliceert dit x − y = 0 en dus x = y. Met andere woorden, A is injectief.
2
Hier zijn een aantal voorbeelden van lineaire afbeeldingen.
1. Als vectorruimte V nemen we de intuı̈tieve vectoren in de ruimte, waarmee
we dit college begonnen. Meetkundig realiseren we deze ruimte door de
punten in de driedimensionale ruimte met gegeven oorsprong O. Let op:
we voeren geen coördinaten in! Beschouw nu de volgende twee speciale
voorbeelden.
(a) Zij W een vlak door O met normaalvector n. De loodrechte projectie
P van V op W is een voorbeeld van een lineaire afbeelding. Zij
namelijk v ∈ V . De loodrechte projectie van v op W is dat punt op
de lijn x = v+λn met de eigenschap dat x·n = 0. Dus (v+λn)·n = 0
waaruit volgt v · n + λ|n|2 . Dus λ = −v · n/|n|2 en
P (v) = v −
v·n
n.
|n|2
Dat P lineair is volgt uit:
(x + y) · n
n
|n|2
x·n
y·n
= x+y−
n−
n
2
|n|
|n|2
= P (x) + P (y)
P (x + y) = x + y −
(7.1)
7.3. LINEAIRE AFBEELDINGEN
105
en
(λx) · n
n
|n|2
x·n
= λx − λ 2 n
|n|
= λP (x)
P (λx) = λx −
De kern bestaat uit alle vectoren die naar 0 geprojecteerd worden,
in dit geval alle vectoren die loodrecht op het vlak W staan.
2. Zij V = R[X], de ruimte van polynomen. Dan is differentiatie naar X een
lineaire afbeelding van V naar V . Immers,
d
d
(λf (X)) = λ
f (X).
dX
dX
en
d
d
d
(f (X) + g(X)) =
f (X) +
g(X).
dX
dX
dX
De enige polynomen die na differentiatie nul worden, zijn de constante
polynomen. Deze constante polynomen vormen dus de kern.
3. Zij V = C(R) de ruimte van continue functies op R. Integratie van een
continue functie over het interval [0, 1] (of een ander interval) geeft een
lineaire afbeelding van V naar R. Immers,
∫
∫
1
0
en
∫
1
(f (x) + g(x))dx =
f (x)dx +
0
∫
λf (x)dx = λ
0
g(x)dx
0
∫
1
1
1
f (x)dx.
0
De kern wordt gegeven door alle functies waarvan de integraal nul is.
4. Zij M2,2 de ruimte van 2 × 2-matrices met elementen in R. De afbeelding
M2,2 → R4 gegeven door
(
a b
c d
)
7→ (a, b, c, d)t
is lineair. Ga dit na!
We noemen twee vectorruimten V, W isomorf als er een bijectieve lineaire afbeelding A : V → W bestaat. Er geldt:
Stelling 7.3.4 Zij A : V → W een bijectieve lineaire afbeelding tussen twee
vectorruimten V, W . Dan is de inverse afbeelding A−1 : W → V ook lineair.
106
HOOFDSTUK 7. VECTORRUIMTEN
Bewijs: Zij x, y ∈ W . Kies u, v ∈ V zó dat A(u) = x en A(v) = y. Dan
geldt, wegens lineariteit van A, dat A(u + v) = A(u) + A(v) = x + y. Gevolg:
A−1 (x + y) = u + v = A−1 (x) + A−1 (y). Hiermee is het eerste kenmerk van
lineariteit aangetoond.
Kies nu x ∈ W en λ ∈ R. Stel v zó dat x = A(v). Dan geldt dat A(λv) =
λA(v) = λx. Dus A−1 (λx) = λv = λA−1 (x).
2
We kunnen isomorfe vectorruimten zien als twee incarnaties van dezelfde vectorruimte structuur. De 1-1-duidige correspondentie tussen de twee wordt gegeven
door de bijectie A. Hier zijn een paar voorbeelden.
1. Zij M2,2 de ruimte van 2 × 2-matrices met elementen in R. De afbeelding
M2,2 → R4 gegeven door
(
)
a b
7→ (a, b, c, d)t
c d
is een bijectieve lineaire afbeelding tussen M2,2 en R4 . Goed beschouwd
maakt het ook niet uit of we de vier componenten van vectoren uit R4 in
een rij, kolom of vierkantsvorm opschrijven.
2. Zij R een oneindig lichaam. De ruimten R[X] van polynomen en R∞
0 zijn
isomorf via de lineaire bijectie
a0 + a1 X + a2 X 2 + · · · + an X n 7→ (a0 , a1 , a2 , . . . , an , 0, 0, 0, 0, . . .).
Hier is nog een algemene opmerking.
Lemma 7.3.5 Zij V, W een tweetal vectorruimten en A : V → W een lineaire
afbeelding. Dan is A(V ) een lineaire deelruimte van W .
Opgave 7.3.6 Geef zelf een bewijs van dit Lemma.
Tenslotte wijzen we erop dat een eindigdimensionale vectorruimte over R altijd
isomorf is met Rn . Dit gaat als volgt Zij V een eindigdimensionale vectorruimte
over R en B = {b1 , . . . , bn } een geordende basis. Elke vector x ∈ V kan
op unieke manier geschreven worden als x = x1 b1 + x2 b2 + · · · + xn bn met
xi ∈ R. We noemen x1 , x2 , . . . , xn de coördinaten van x ten opzichte van B.
De kolom bestaande uit deze coördinaten noemen we de coördinatenkolom van
x ten opzichte van B. We geven deze aan met xB .
Opgave 7.3.7 Laat zien dat de toekenning
x 7→ xB
een bijectieve lineaire afbeelding tussen V en Rn geeft.
We zien hieruit dat alle eindigdimensionale vectorruimten over R isomorf zijn
met Rn voor zekere n. Men zou dus kunnen zeggen dat, wat betreft eindigdimensionale vectorruimten, alles weer bij het oude is. In de praktijk blijkt het
echter vaak onhandig of omslachtig een basis te kiezen. Vaak is zo’n keuze
helemaal niet voor de hand liggend. In zulke gevallen is het veel eleganter
om coördinaatvrij te werken. Dit is de kracht van een axiomatische opzet van
vectorruimten.
7.4. LINEAIRE AFBEELDINGEN IN EINDIGE DIMENSIE
7.4
107
Lineaire afbeeldingen in eindige dimensie
In deze paragraaf geven we aan wat het verband is tussen lineaire afbeeldingen en matrixvermenigvuldiging. Zij V, W een tweetal vectorruimten over
het scalairenlichaam R en A : V → W een lineaire afbeelding. We nemen
aan dat V, W eindigdimensionaal zijn met dimensies n respectievelijk m. Zij
B = {b1 , b2 , . . . , bn } een geordende basis van V en C = {c1 , c2 , . . . , cm } een
geordende basis van W . We geven de coördinatenkolom van x ∈ V ten opzichte
van B aan met xB . En evenzo is yC de coördinatenkolom van y ∈ W ten
opzichte van C.
Stelling 7.4.1 Gegeven V, W , hun geordende bases B, C, en A : V → W als
daarnet. Stel x ∈ V, y ∈ W zó dat y = A(x). Zij AB
C de m × n-matrix die we
krijgen door als i-de kolom de coördinatenkolom van A(bi ) ten opzichte van C
te nemen. Dan geldt:
yC = AB
C xB .
Bewijs: De volgende stappen spreken hopelijk voor zich. We beginnen met
y = A(x). Neem nu de coördinatenkolommen ten opzichte van C,
yC
= (A(x))C
n
∑
= (
xi A(bi ))C
i=1
=
=
n
∑
xi A(bi )C
i=1
AB
C xB
2
Hier is een viertal voorbeelden van de vorm A : V → V , dus W = V . We kiezen
in beide copieën van V dezelfde basis B = C.
Voorbeeld 7.4.2. We nemen de projectie afbeelding (7.1) op pagina 104 met
n = (1, 1, 2) ten opzichte van de standaard basis e1 , e2 , e3 die we aangeven met
E. Er geldt

 
  
5/6
1
1
1
e1 · n
n =  0  −  1  =  −1/6  .
P (e1 ) = e1 −
2
|n|
6
−1/3
0
2
Evenzo volgt

−1/6
P (e2 ) =  5/6  ,
−1/3


−1/3
P (e3 ) =  −1/3  .
1/3

De matrix van P ten opzichte van E wordt dus gegeven door


5/6 −1/6 −1/3
PEE =  −1/6 5/6 −1/3  .
−1/3 −1/3 1/3
108
HOOFDSTUK 7. VECTORRUIMTEN
♢
b)
Voorbeeld 7.4.3. Beschouw het platte vlak met een oorsprong en een coördinatenkeuze
zo dat we het kunnen identificeren met R2 . We beschouwen nu de rotatieafbeelding R van het vlak naar zichzelf met de oorsprong (0, 0) als rotatiepunt,
tegen de richting van de klok in, over een hoek α. Wij beweren dat R een
lineaire afbeelding is. Om eigenschap (1) te zien kiezen we twee vectoren a en
b en draaien die beide om de hoek α. Hieronder staan het optelparallellogram
van a en b met daarnaast het resultaat na draaiing door R.
R(
a+
a
R(
R(
b
b)
a)
a+b
Uit het plaatje rechts is nu direct duidelijk dat de gedraaide somvector R(a+b)
precies de diagonaal is van het parallellogram opgespannen door R(a) en R(b).
Met andere woorden, R(a + b) = R(a) + R(b). Op analoge manier heeft voor
willekeurige λ ∈ R≥0 de gedraaide vector R(λa) precies dezelfde richting als
R(a) en is de lengte λ maal de lengte van R(a). Dus R(λa) = λR(a) als
λ ∈ R≥0 . Voor negatieve λ kunnen we een soortgelijk argument geven.
Als basis in R2 kiezen we de geordende standaard basis e1 , e2 die we kort
aangeven met E. De matrix die bij R hoort is de matrix waarvan de eerste
kolom gelijk is aan R(e1 ) en de tweede kolom R(e2 ) (beiden in gewone coordinaten, dus ten opzichte van e1 , e2 ). Ga zelf na dat
(
)
(
)
cos α
− sin α
R(e1 ) =
, R(e2 ) =
sin α
cos α
De matrix behorende bij R wordt dus
(
cos α
E
RE =
sin α
− sin α
cos α
)
.
♢
Voorbeeld 7.4.4. Zij R[X]3 de vectorruimte van polynomen van graad ≤ 3
en beschouw de lineaire afbeelding D : R[X]3 → R[X]3 gegeven door D :
p(X) 7→ p′ (X). Omdat bereik en domein hetzelfde zijn kunnen we voor B en C
dezelfde basis van de ruimte R[X]3 nemen. We kiezen B = {1, X, X 2 , X 3 }. De
afbeelding D losgeleten op deze elementen geeft achtereenvolgens 0, 1, 2X, 3X 2 .
Schrijven we deze vectoren uit ten opzichte van C = B, dan vinden we de
7.4. LINEAIRE AFBEELDINGEN IN EINDIGE DIMENSIE
coördinaten kolommen
 
0
0
 ,
0
0
 
1
0
 ,
0
0
 
0
2
 ,
0
0
109
 
0
0
 .
3
0
De matrix van D ten opzichte van B wordt dus


0 1 0 0
0 0 2 0
B

DB
=
0 0 0 3.
0 0 0 0
♢
Voorbeeld 7.4.5. Zij C de vectorruimte van complexe getallen over R. Kies
a + bi ∈ C. De afbeelding µ : C → C geven door µ : z 7→ (a + bi)z is linear. We
kiezen de natuurlijke basis B = {1, i} van C. Deze basisvectoren gaan onder µ
over in a + bi, −b + ai. De coördinaatkolommen van deze vectoren ten opzichte
van C = B zijn,
( )
(
)
a
−b
,
.
b
a
De matrix van µ ten opzichte van B wordt dus
(
)
a −b
.
b a
Controle, als we het complexe getal x + iy met a + bi vermenigvuldigen krijgen
we ax − by + (bx + ay)i. Matrixvermenigvuldiging levert
(
)( ) (
)
a −b
x
ax − by
=
.
b a
y
bx + ay
Vergelijk de resultaten!
√
Merk op ook dat de gevonden matrix precies a2 + b2 maal de draaiingsmatrix
(
) (
)
1
a −b
cos ϕ − sin ϕ
√
=
sin ϕ cos ϕ
a2 + b2 b a
waarin ϕ het argument van a + bi is.
♢
Een speciaal geval van Stelling 7.4.1 is het geval dat W = V en A de identieke
afbeelding I : V → V gegeven door I : x → x. De stelling toegepast op y = x
luidt nu als volgt.
Gevolg 7.4.6 Zij B, C een tweetal geordende bases van V en ICB de n × nmatrix die we krijgen door als i-de kolom de coördinaten ten opzichte van C
van de vector bi te nemen. Dan geldt
xC = ICB xB .
110
HOOFDSTUK 7. VECTORRUIMTEN
Dit gevolg is te interpreteren als de relatie tussen de B-coördinaten en Ccoördinaten van x. We noemen dit een coördinatentransformatie .
C )−1 .
Lemma 7.4.7 Met de notaties als boven geldt dat ICB = (IB
Bewijs: Als we in Gevolg 7.4.6 B en C verwisselen dan zien we dat xB =
C x . Anderzijds volgt door inverteren ook dat x = (I B )−1 x . We concludIB
C
B
C
C
C = (I B )−1 .
eren dat IB
C
2
Voorbeeld 7.4.8. Gegeven de vector v = (1, 1, 0)t in R3 . Beschouw nu de
geordende basis F van R3 bestaande uit f1 = (1, 2, 0)t , f2 = (0, 1, 1)t , f3 =
(1, 0, 1)t . Gevraagd wordt de coördinaten van v ten opzichte van F te bepalen.
Laten we de standaardbasis van R3 aangeven met E.
We zullen het eerst doen zonder de expliciete coördinatentransformaties aan te
geven. Er wordt gevraagd naar getallen y1 , y2 , y3 zó dat
 
 
 
  
 
1
1
0
1
1 0 1
y1
 1  = y1  2  + y2  1  + y3  0  =  2 1 0   y2  .
0
0
1
1
0 1 1
y3
Hieruit volgt dat

−1   
1
2/3
1
0   1  =  −1/3  .
0
1/3
1

 
y1
1 0
 y2  =  2 1
y3
0 1
De 3 × 3-matrix van daarnet is precies de matrix IEF . Volgens onze formules
geldt IEF = (IFE )−1 en vF = IEF vE . Voeren we deze berekening uit,
  

1
2/3
vF = IFE vE = (IEF )−1  1  =  −1/3  .
0
1/3
Kijk goed naar de parallel tussen de aanpak boven en de formules.
♢
Het zal duidelijk zijn dat de matrix van een lineaire afbeelding sterk afhangt van
de bases ten opzichte waarvan deze wordt uitgeschreven. Zij V, W en A : V →
W als aan het begin van deze paragraaf. In plaats van B, C kiezen we een tweetal andere geordende bases B ′ , C ′ van V respectievelijk W . Het verband tussen
B′
AB
C en AC ′ kan bepaald worden door de coördinatentransformatieformules uit
Gevolg 7.4.6. Er geldt
Stelling 7.4.9 Met de notaties als boven,
′
′
C B B
AB
C ′ = IC ′ AC IB .
7.4. LINEAIRE AFBEELDINGEN IN EINDIGE DIMENSIE
111
Bewijs: Dit is een kwestie van uitschrijven. Kies een vector x ∈ V . We
moeten laten zien dat de matrix aan de rechterkant, losgelaten of xB ′ de
B ′ los
coördinatenkolom A(x)C ′ geeft. Dit gaat in stapjes. We laten eerst IB
op xB ′ . Dit geeft xB volgens Gevolg 7.4.6 toegepast op B = B ′ en C = B. De
matrix AB
C losgelaten op xB geeft A(x)C , de coördinatenkolom van A(x) ten
opzichte van C. laten we hier tenslotte ICC′ op los dan eindigen we met A(x)C ′ ,
zoals we wilden.
2
Stelling 7.4.9 wordt het meest gebruikt bij lineaire afbeeldingen van een eindigdimensionale vectorruimte V naar zichzelf. We kiezen daarbij C = B en C ′ = B ′ .
Gevolg 7.4.10 Zij V een eindigdimensionale vectorruimte en A : V → V een
lineaire afbeelding. Zij B, B ′ een tweetal geordende bases van V en gebruik
verder de notaties zoals boven. Geef bovendien de coördinatentransformatie
B ′ aan met S. Dan geldt,
matrix IB
′
−1 B
AB
B ′ = S AB S.
Het bewijs volgt door Stelling 7.4.9 toe te passen met C = B, C ′ = B ′ .
Zij V een eindigdimensionale vectorruimte en A : V → V een lineaire afbeelding.
Kies een geordende basis B van V en zij AB
B de matrix van A ten opzichte van
B. Dan geldt dat det(AB
)
onafhankelijk
van de keuze van B is. Om dit te
B
zien maken we gebruik van de regels dat als M een n × n-matrix is en S een
inverteerbare n × n-matrix, dan det(SM S −1 ) = det(M ). Passen we dit toe met
B , M = AB dan vinden we
Gevolg 7.4.10 en S = IB
′
B
′
′
B B B
B B B −1
B
det(AB
B ′ ) = det(IB ′ AB IB ) = det(IB ′ AB (IB ′ ) ) = det(AB ).
We noemen det(AB
B ) determinant van de lineaire afbeelding A : V → V . Later
zal blijken dat ook het spoor (=som van de diagonaalelementen) van AB
B onafhankelijk is van de keuze van B. We kunnen dus ook spreken van het spoor
van de afbeelding A : V → V .
Tenslotte nog een aantal opmerkingen over het verband tussen lineaire afbeeldingen en hun matrices. Stel A : V → W een lineaire afbeelding met V, W
eindigdimensionaal en geordende bases B = (b1 , . . . , bn ) en C = (c1 , . . . , cm ).
Zij A de matrix van A ten opzichte van deze twee bases. Het beeld A(V ) wordt
opgespannen door de vectoren A(b1 ), . . . , A(bn ). De coördinatenkolommen ten
opzichte van C van de vectoren in A(x) worden opgespannen door de kolommen
A(b1 )C , . . . , A(bn )C . Dit zijn precies de kolommen van de m × n-matrix A. We
concluderen,
rang(A) = dim(A(V )).
Zij nu n1 , . . . , nr een basis van de kern van A. Dan vormen hun kolomvectoren
ten opzichte van C, (n1 )C , . . . , (nr )C een basis van de nulruimte van A. We
concluderen,
rang(Nul(A)) = dim(ker(A)).
112
HOOFDSTUK 7. VECTORRUIMTEN
Uit Stelling 4.3.2 weten we dat
n = dim(Nul(A)) + rang(A).
Hieruit volgt meteen de volgende belangrijke stelling.
Stelling 7.4.11 (Dimensiestelling) Stel we hebben een lineaire afbeelding A :
V → W met dim(V ) en dim(W ) eindig. Dan geldt,
dim(V ) = dim(ker(A)) + dim(A(V )).
Merk op deze stelling geheel vrij is van eventuele basiskeuzen die we maken.
7.5
Vectorruimteconstructies (optioneel)
Gegeven een aantal vectorruimten, dan is het vaak mogelijk om daaruit op
abstracte wijze nieuwe vectorruimten te creëren. Met deze constructies zullen
we als beginners in de lineaire algebra niet veel in aanraking komen. Later
zullen ze evenwel van steeds groter belang worden in de algebra, meetkunde en
analyse.
1. Zij V, W een tweetal vectorruimten over R. De directe som van V en W is
de vectorruimte bestaande uit alle geordende paren (v, w), v ∈ V, w ∈ W
met als optelling (v1 , w1 ) + (v2 , w2 ) = (v1 + v2 , w1 + w2 ) en scalaire
vermenigvuldiging λ(v, w) = (λv, λw). Notatie V ⊕ W .
2. Zij V een vectorruimte en W een deelruimte. We zeggen dat twee vectoren
v1 , v2 ∈ V equivalent zijn modulo W als v1 −v2 ∈ W . De verzameling van
vectoren die equivalent modulo W zijn met een gegeven vector v noemen
we de equivalentieklasse van v. Notatie: v(mod W ). Merk op, als v1 ∈ V
en v2 ∈ V niet equivalent zijn modulo W dan zijn de klassen v1 (mod W )
en v2 (mod W ) disjunct. Als ze namelijk een element W gemeenschappelijk zouden hebben, dan v1 − w ∈ W en v2 − w ∈ W . Na verschil
nemen, v1 − v2 ∈ W en we hebben een tegenspraak. De ruimte V kan
dus opgedeeld worden in een disjuncte vereniging van equivalentieklassen
modulo W .
Zij v1 (mod W ) en v2 (mod W ) een tweetal klassen modulo W en w1 , w2
een tweetal elementen in de respectievelijke klassen. Dan geldt w1 − v1 ∈
W en w2 − v2 ∈ W . Na optelling, (w1 + w2 ) − (v1 + v2 ) ∈ W . Met andere
woorden, kiezen we twee elementen uit v1 (mod W ) respectievelijk v2
(mod W ) dan zal hun som altijd in de klasse v1 + v2 (mod W ) liggen.
Hiermee hebben we een optelling gedefinieerd op de equivalentieklassen
modulo W . Op dezelfde manier kunnen we een scalaire vermenigvuldiging invoeren, en daarmee krijgen de klassen modulo W een vectorruimte
structuur die we de quotientruimte zullen noemen. Notatie: V /W .
3. Zij V, W een tweetal vectorruimten over R. De verzameling lineaire afbeeldingen A : V → W vormen een vectorruimte als we optelling en
7.6. SCALAIREN (OPTIONEEL)
113
scalaire vermenigvuldiging als volgt definiëren: (A + B)x = Ax + Bx
voor alle x ∈ V en (λA)x = λ(Ax) voor alle λ ∈ R, x ∈ V . Notatie
Hom(V, W ).
4. Nemen we in het bijzonder in voorgaand voorbeeld W = R, dan krijgen
we de vectorruimte Hom(V, R), die we de duale vectorruimte noemen.
Notatie: V d . Een lineaire afbeelding V → R noemen we ook wel een
lineaire vorm op V . De duale vectorruimte is dus de ruimte van lineaire
vormen op V .
5. Zij V, W een tweetal vectorruimten over R. Het tensorproduct van V, W
bestaat uit alle (eindige) lineaire combinaties van symbolen v ⊗ w met
v ∈ V, w ∈ W die voldoen aan de volgende relaties
(a) λ(v ⊗ w) = (λv) ⊗ w = v ⊗ (λw) voor alle v ∈ V, w ∈ W, λ ∈ R.
(b) (v1 + v2 ) ⊗ w = v1 ⊗ w + v2 ⊗ w voor alle v1 , v2 ∈ V, w ∈ W .
(c) v ⊗ (w1 + w2 ) = v ⊗ w1 + v ⊗ w2 voor alle v ∈ V, w1 , w2 ∈ W .
Notatie: V ⊗ W . In het bijzonder, als V, W eindigdimensionaal zijn en
e1 , . . . , en is een basis van V en f1 , . . . , fm een basis van W , dan is ei ⊗ fj
met i = 1, 2, . . . , n; j = 1, 2, . . . , m een basis van V ⊗ W .
7.6
Scalairen (optioneel)
De verzamelingen R en C zijn voorbeelden van zogenaamde lichamen. Dat zijn
verzamelingen waarin we een optelling en vermenigvuldiging met de gebruikelijke regels hebben en waarbij we door elk element ongelijk aan nul kunnen delen. De gehele getallen Z = {. . . , −2, −1, 0, 1, 2, . . .} vormen bijvoorbeeld geen
lichaam, want deling van een geheel getal door een ander geheel getal levert niet
altijd een geheel getal op. Daarentegen vormen de rationale getallen (breuken)
Q wel een lichaam. Een ander voorbeeld van een lichaam is de verzameling van
2 elementen {0, 1} met als optelling
0+0=0
1+1=0
0+1=1
en vermenigvuldiging
0·0=0
0·1=0
1 · 1 = 1.
We geven dit lichaam aan met F2 .
We kunnen de vectorruimte axiomas en alle daarop volgende begrippen ook
hanteren als we een ander scalairenlichaam in plaats van R nemen. Vrijwel alles
uit dit hoofdstuk gaat op precies dezelfde manier door. Hier is een voorbeeld.
De reële getallen vormen een vectorruimte met als scalairen Q als we gebruikelijke optelling en scalaire vermenigvuldiging
(met elementen uit Q) nemen.
√
Beschouw de reële getallen 1, 2. Wij beweren dat ze lineair onafhankelijk
over √
Q zijn. Stel namelijk dat er a, b ∈ Q, niet beide nul, bestaan zó dat
a + b 2 = 0. Er geldt natuurlijk b ̸= 0, want anders zou uit de relatie volgen
114
HOOFDSTUK 7. VECTORRUIMTEN
√
√
dat a ook nul is. Dus 2 = −a/b, met andere woorden, 2 is een rationaal
getal (een breuk). We weten echter dat dit niet
√ zo is. Dus onststaat er een
tegenspraak en we moeten concluderen dat 1, 2 onafhankelijk over Q zijn.
We zien hier een voorbeeld waarin lineaire onafhankelijk van getallen over Q
neerkomt op irrationaliteitseigenschappen van getallen.
Het is zelfs mogelijk om oneindige verzamelingen reële getallen aan te geven die
lineair onafhankelijk over Q zijn. Het bewijs hiervan is echter bijzonder lastig.
Voorbeelden zijn,
{1, e, e2 , e3 , . . .}
{1, π, π 2 , π 3 , . . .}
√ √ √ √ √
{1, 2, 3, 5, 7, 11, . . .}
Het laatste voorbeeld bestaat uit de wortels van alle priemgetallen.
Hier is iets wat je wellicht wèl kunt aantonen:
√
1. Laat zien dat de verzameling { n} met n positief geheel, afhankelijk is
over Q.
2. Laat zien dat de verzameling
{log 2, log 3, log 5, log 7, log 11, . . .}
de logaritmen van de priemgetallen, onafhankelijk is over Q.
7.7
Opgaven
Een aantal van de opgaven hieronder zijn ontleend aan het boekje ”Lineaire
Algebra”van Paul Igodt en Wim Veys.
Opgave 7.7.1 Controleer of de verzameling R2 = {(x, y)|x, y ∈ R} een vectorruimte is met de optelling en scalaire vermenigvuldiging gedefinieerd als volgt:
1. (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 − 1, y1 + y2 − 1) en λ(x, y) = (λx, λy).
2. (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) en λ(x, y) = (λx, λy).
3. (x1 , y1 ) + (x2 , y2 ) = (x1 + 2x2 , y1 + 2y2 ) en λ(x, y) = (λx, λy).
4. (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) en λ(x, y) = (λx, y/λ) als λ ̸= 0 en
0(x, y) = (0, 0).
Opgave 7.7.2 Definieer voor x, y ∈ Rn twee bewerkingen ⊕ en · als volgt:
x ⊕ y = x − y,
λ · x = −λx
waarbij de bewerkingen in de rechterleden het gewone verschil en de gewone
scalaire vermenigvuldiging zijn. Aan welke vectorruimte axiomas voldoen deze
bewerkingen? en welke niet?
Opgave 7.7.3 Welk van de volgende verzamelingen met de voor de hand
liggende optelling en scalaire vermeningvuldiging vormen een vectorruimte?
7.7. OPGAVEN
115
1. De reële continue functies op het gesloten interval [0, 1].
2. De reële niet-negatieve functies op [0, 1].
3. De verzameling polynomen met coefficienten in R van exacte graad n.
4. De symmetrische n × n-matrices met elementen in R.
Opgave 7.7.4 Geef in de voorbeelden van pagina 97 van het dictaat de nulvector aan.
Opgave 7.7.5 Laat in de voorbeelden op pagina 98 van het dictaat zien dat
de gegeven ruimten inderdaad lineaire deelruimten zijn.
Opgave 7.7.6 Welk van de volgende verzamelingen zijn deelruimten van de
gegeven vectorruimte over R? Leg uit.
1. W1 = {(x, y, z) ∈ R3 |xyz = 0}
2. W2 = {(x, y, z) ∈ R3 |x2 + y 2 − z 2 = 0}
3. W3 = {(x, y, z) ∈ R3 |x, y, z ∈ Q}
4. W4 = {(x, y, z) ∈ R3 |x2 + y 2 + z 2 ≤ 1}
∑
5. W5 = {A ∈ M3,3 (R)| 3i,j=1 Aij = 0}
6. W6 = {A ∈ M3,3 (R)|det(A) ̸= 0}
7. W7 = {A ∈ M3,3 (R)|At = A}
8. W8 = {A ∈ M3,3 (R)|At = −A}
9. W9 = {(x, y, z) ∈ R3 |x = 0 of y = 0}
10. W10 = {f : R → R|f (0) = 1}
11. W11 = {f : R → R|f (−x) = −f (x)}
12. W12 = {f : R → R|f is integreerbaar en
∫1
0
f (x)dx = 0}
13. W13 = Q ⊂ R
Opgave 7.7.7 Beschouw de functies f : R → R gegeven door
f (x) = cos2 x, g(x) = sin2 x, h(x) = 1, exp(x) = ex
als elementen van de vectorruimte van alle functies R → R. Bewijs dat f, g, h, exp
lineair onafhankelijk over R zijn.
Opgave 7.7.8 Welk van de volgende verzamelingen vectoren zijn onafhankelijk?
1. {(1, 2, 0), (2, −1, 1), (1, 7, −1)} in R3
{(
) (
) (
) (
)}
−1 1
1 1
0 0
0 0
2.
,
,
,
in M2,2 (R).
0 0
0 0
1 0
0 1
116
HOOFDSTUK 7. VECTORRUIMTEN
3. {X 3 + 2X 2 , −X 2 + 3X + 1, X 3 − X 2 + 2X − 1} in R[X].
Opgave 7.7.9 Laat zien dat {X + 1, X 2 + 1, X 2 + X} een basis is van R[X]≤2 ,
de vectorruimte over R van polynomen van graad ≤ 2. Bepaal de coördinaten
van elk van de vectoren 1, X, X 2 ten opzichte van deze basis.
Opgave 7.7.10 Zijn V de vectorruimte van symmetrische 2 × 2-matrices met
coefficienten in R. Bewijs dat de geordende drietallen
((
)
(
)
(
))
1 0
0 0
0 1
B1 =
,
,
0 0
0 1
1 0
((
en
B2 =
1
1
1
1
)
(
,
−1 1
1 0
)
(
,
0 1
1 2
))
elk een basis van V vormen.
Bepaal van elk element van B2 de coördinaten ten opzichte van B1 .
Bepaal van elk element van B1 de coördinaten ten opzichte van B2 .
Opgave 7.7.11 Beschouw de verzameling V gegeven door de rijen (xn )n≥1
(termen in R) die voldoen aan de differentievergelijking xn+1 = xn + xn−1 voor
n ≥ 2.
1. Schrijf de eerste vijf termen op van de rij beginnend met (0, 1, . . .).
2. Schrijf de eerste vijf termen op van de rij beginnend met (1, 0, . . .).
3. Laat zien dat met de voor de hand liggende optelling en scalaire vermenigvuldiging V een vectorruimte is van dimensie 2.
√
√
4. Stel η = (1 + 5)/2 en η ′ = (1 − 5)/2. Laat zien dat de rijen (η n )n≥1
en (η ′n )n≥1 voldoen aan de differentievergelijking.
5. Zij (un )n≥1 de oplossing van de differentievergelijking met begintermen
0, 1. Dit is de rij van Fibonacci. Geef een formule voor un in termen van
η n en η ′n .
Opgave 7.7.12 Zijn de volgende uitspraken juist of onjuist? Bewijs of geef een
tegenvoorbeeld.
1. Als S, T onafhankelijke deelverzamelingen zijn van een vectorruimte V ,
dan is S ∪ T ook onafhankelijk.
2. Als U, W deelruimten zijn van een vectorruimte V en BU een basis van U
en BW een basis van W , dan is BU ∩ BW een basis van U ∩ W .
3. Als U een deelruimte is van een vectorruimte V en v, w ∈ V zó dat
v + w ∈ U dan is v ∈ U en w ∈ U .
4. Zij V een n-dimensionale vectorruimte en deelruimten Ui ⊂ V voor i =
1, . . . , r zó dat
U1 ⊂ U2 ⊂ · · · ⊂ Ur .
Als r > n + 1 dan is er een index i zó dat Ui = Ui+1 .
7.7. OPGAVEN
117
5. Zij V een vectorruimte met basis {b1 , b2 , b3 }. Zij W = Span(b1 , b2 ).
Dan is er een basis van v1 , v2 , v3 van V met vi ̸∈ W voor i = 1, 2, 3.
Opgave 7.7.13 Beschouw de verzameling V = R>0 × R>0 met een optelling en scalaire vermenigvuldiging ⊙ gedefineerd door
(x1 , y1 ) (x2 , y2 ) = (x1 x2 , y1 y2 ),
λ ⊙ (x, y) = (xλ , y λ ).
Is V met deze bewerkingen een vectorruimte over R?
Opgave 7.7.14 Welk van de volgende afbeeldingen zijn lineair? Bepaal de kern
en het beeld van de lineaire afbeeldingen en controleer de dimensiestelling.
1. L1 : R → R gegeven door L1 : x 7→ 2x + 1
2. L2 : R2 → R gegeven door L2 : (x, y) 7→ x + y
3. L3 : R2 → R gegeven door L3 : (x, y) 7→ |x − y|
4. L4 : R2 → R3 gegeven door L4 : (x, y) 7→ (sin x, 7y, xy)
5. L5 : R3 → R2 gegeven door L5 : (x, y, z) 7→ (3y + z, x − y − z)
6. L6 : M2,2 (R) → R gegeven door L6 : A 7→ det(A)
7. L7 : M2,2 → M2,2 gegeven door L7 : A 7→ At
8. L8 : R → R gegeven door L8 : x 7→ xn voor n > 1
9. L9 : R[X] → R[X] gegeven door L9 : Q(X) 7→ P (X)Q(X) voor vast
gegeven P (X) ∈ R[X].
10. L10 : F(R) → R gegeven door L10 | : f 7→ f (a) voor vast gegeven a ∈ R
(hier is F(R) de vectorruimte van reële functies met R als domein.
11. L11 : R → R gegeven door L11 : x 7→ ex .
Opgave 7.7.15 Bepaal de matrix van de lineaire afbeelding T : R[X]≤3 →
R[X]≤3 gegeven door T : f 7→ f ′′ − 4f ′ + f ten opzichte van de geordende basis
(X, 1 + X, X + X 2 , X 3 ).
Opgave 7.7.16 Beschouw de lineaire afbeelding L : R[X]≤4 → R2 gegeven
door
L : a + bX + cX 2 + dX 3 + eX 4 7→ (a + b, c + d + e)
en de geordende basis α = (1, 1 + X, (1 + X)2 , (1 + X)3 , (1 + X)4 ) voor R[X]≤4
en de geordende basis β = e1 + e2 , e1 − e2 ) van R2 .
1. Bepaal de coördinatentransformatie matrix van vectoren ten opzichte van
de basis α naar de standaardbasis 1, X, X 2 , X 3 , X 4 .
2. Bepaal de coördinaten van de vector X + X 3 + X 4 ten opzichte van de
basis α.
118
HOOFDSTUK 7. VECTORRUIMTEN
3. Bepaal de matrix van L ten opzichte van de standaardbases 1, X, X 2 , X 3 , X 4
en e1 , e2
4. Bepaal de matrix van L ten opzichte van de bases α en β.
Opgave 7.7.17 Beschouw de vectorruimte
R[X, Y ]≤2 = {aX 2 + bXY + cY 2 + dX + eY + f | a, b, c, d, e, f ∈ R}
met de voor de hand liggende optelling en scalaire vermenigvuldiging. Definieer
L : R[X, Y ]≤2 → R[X]≤2 door
L : f (X, Y ) 7→ f (X, 2).
1. Toon aan dat L lineair is.
2. Geef de matrix van L ten opzichte van de geordende bases (X 2 , XY, Y 2 , X, Y, 1)
en (X 2 , X, 1).
3. Bepaal kern, beeld en rang van L.
Opgave 7.7.18 Beschouw de volgende deelverzameling in de ruimte M2,2 (R)
van twee bij twee matrices
{(
)
}
a b
V =
|a, b, c ∈ R .
0 c
Bewijs dat V een deelruimte van M2,2 (R) is, die isomorf is met R3 .
Opgave 7.7.19 Bepaal twee onafhankelijke oplossingen van de lineaire differentiaalvergelijking
d2
d
y + 3 y − 4y = 0.
2
dx
dx
(hint: probeer oplossingen eλx met nader te bepalen λ.
Opgave 7.7.20 Bepaal twee onafhankelijke oplossingen van de lineaire differentiaalvergelijking
d2
3 d
3
y+
y − 2 y = 0.
2
dx
x dx
x
(hint: probeer oplossingen y = xa voor nader te bepalen a).
Opgave 7.7.21 De lineaire afbeelding A : R3 → R3 wordt gegeven door

   
 


 

3
1
6
2
5
1
A  −1  =  4  , A  −1  =  2  , A  1  =  4  .
2
2
−2
1
−4
1
1. Bereken de matrix van A ten opzichte van de standaardbasis van R3 .
7.7. OPGAVEN
2. Zij gegeven de geordende basis




1
−2
f1 =  2  , f2 =  1  ,
−2
0
119
 
2

f3 = 4 
5
van R3 . Bepaal de matrix van A ten opzichte van f1 , f2 , f3 .
Opgave 7.7.22 Zij V en W een tweetal vectorruimten met geordende bases
e1 , e2 , e3 respectievelijk f1 , f2 , f3 . De lineaire afbeelding A : V → W wordt
gedefinieerd door A(e1 ) = f1 + f2 , A(e2 ) = 2f2 − f3 , A(e3 ) = 4f1 + 2f2 − f3 .
In V is een tweede basis e′1 = 3e1 + e3 , e′2 = e1 + 2e2 + e3 , e′3 = −e1 + 2e2 + 2e3
gegeven, en in W een tweede basis f1′ = f2 , f2′ = 3f1 + 2f2 + 3f3 , f3′ = −3f1 +
f2 + 2f3 .
1. Bereken de matrix van A ten opzichte van de bases e1 , e2 , e3 en f1 , f2 , f3 .
2. Bereken de matrix van A ten opzichte van de bases e′1 , e′2 , e′3 en f1′ , f2′ , f3′ .
3. Bewijs dat A een bijectieve afbeelding is en bereken de matrix van A−1
ten opzichte van e1 , e2 , e3 en f1 , f2 , f3 .
Opgave 7.7.23 In R3 zijn de vectoren
 
 
 
 
 
 
1
1
1
1
2
1











e1 = 1 , e2 = 0 , e3 = 1 , f1 = 1 , f 2 = 2 , f3 = 2 
0
1
1
2
1
2
gegeven.
1. Bewijs dat E = e1 , e2 , e3 en F = f1 , f2 , f3 een tweetal bases van R3 is.
2. Bereken de overgangsmatrix IFE .
3. De lineaire afbeelding A : R3 → R3 heeft ten opzichte van E de matrix


1 1 2
2 2 1.
3 1 2
Bereken de matrix van A ten opzichte van F .
Opgave 7.7.24 Zij e1 , e2 , e3 de standaard basis van R3 . De afbeelding A :
R3 → R3 wordt gegeven door A(x) = (e1 + e2 + e3 ) × x voor elke x ∈ R3 .
1. Bewijs dat A een lineaire afbeelding is.
2. Bereken de matrix van A ten opzichte van de standaard basis.
3. Zij f1 = e1 , f2 = e1 + e2 , f3 = e1 + e2 + e3 . Bereken de matrix van A ten
opzichte van f1 , f2 , f3 .
120
HOOFDSTUK 7. VECTORRUIMTEN
Opgave 7.7.25 Zij W1 , W2 een tweetal deelruimten van een vectorruimte V .
Laat zien dat W1 ∩ W2 een deelruimte van V is.
Opgave 7.7.26 Zij W1 , W2 een tweetal deelruimten van de vectorruimte V .
Laat zien dat W1 ∪ W2 een deelruimte is precies dan als W1 ⊂ W2 of W2 ⊂ W1 .
Opgave 7.7.27 Zij W1 , W2 een tweetal eindigdimensionale deelruimten van een
vectorruimte V . Laat zien dat W1 + W2 eindigdimensionaal is en dat
dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) − dim(W1 ∩ W2 ).
(Hint: breidt een basis van W1 ∩ W2 uit tot een basis van W1 en van W2 ).
Opgave 7.7.28 Als S1 , S2 niet-lege deelverzamelingen van een vectorruimte V
zijn, dan geven we met S1 + S2 de verzameling {x + y|x ∈ S1 , y ∈ S2 } aan.
Stel dat W1 , W2 deelruimten van V zijn. Laat zien dat W1 + W2 een deelruimte
van V is die W1 , W2 omvat. Laat ook zien dat W1 + W2 de kleinste deelruimte
van V is die W1 en W2 omvat (dat wil zeggen, elke deelruimte die W1 en W2
bevat moet ook W1 + W2 bevatten).
Opgave 7.7.29 Zij V, W een tweetal vectorruimten en A : V → W een lineaire
afbeelding.
1. Bewijs, als dim(V ) < dim(W ), dan is A niet surjectief.
2. Bewijs, als dim(V ) > dim(W ), dan is A niet injectief.
7.8
Extra opgaven
(Optioneel) NB: De meeste opgaven zijn aangegeven met optioneel en lastig.
Ze horen niet tot de standaard(=tentamen)stof en behandelen ook het begrip
directe som. Ze zijn er alleen voor degenen die meer willen doen of extra
uitdaging nodig hebben.
Opgave 7.8.1 (Optioneel) Gegeven is een vectorruimte V en twee deelruimten
W1 , W2 met de eigenschappen dat V = W1 + W2 en W1 ∩ W2 = {0}. Bewijs
dat V isomorf is met de directe som W1 ⊕ W2 . (hint: bekijk de afbeelding
W1 ⊕ W2 → V gegeven door w1 ⊕ w2 7→ w1 + w2 ).
Opgave 7.8.2(Optioneel) Gebruik Opgave 7.8.1 om de volgende vragen te
beantwoorden.
1. Laat zien dat Rn de directe som is van de deelruimten
W1 = {(a1 , a2 , . . . , an ) ∈ Rn |an = 0}
en
W2 = {(a1 , a2 , . . . , an ) ∈ Rn |a1 = a2 = · · · = an−1 = 0}.
2. Beschouw de ruimte van polynomen R[X] en de deelruimten W1 = {P (X)|P (x) =
P (−X)} (even polynomen) en W2 = {P (X)|P (X) = −P (X)} (oneven
polynomen. Laat zien dat R[X] = W1 ⊕ W2 .
7.8. EXTRA OPGAVEN
121
Opgave 7.8.3(Optioneel) Zij W1 een deelruimte van een eindigdimensionale
vectorruimte V . Laat zien dat er een deelruimte W2 van V bestaat zó dat
V = W 1 ⊕ W2 .
(Opmerking: als V oneindig-dimensionaal is dan is dit helemaal niet voor de
hand liggend. Neem als voorbeeld W1 = C 1 (I) de ruimte van differentieerbare
functies op I = (0, 1) en V = C 0 (I) de ruimte van continue functies op I =
(0, 1).)
√ √ √
Opgave 7.8.4 (Lastig) Laat zien dat 1, 2, 3, 6√lineair
√ onafhankelijk zijn
over de rationale getallen. Hint: bewijs eerst dat 1, 2, 3 onafhankelijk over
Q zijn.
Opgave 7.8.5 (Lastig) Laat zien, dat voor elke n de functies 1, cos(x), cos(2x), ..., cos(nx)
lineair onafhankelijk over R zijn (Om de gedachten te bepalen: neem eerst het
geval n = 2 en gebruik differentiatie).
Opgave 7.8.6(Optioneel) Zij L een lineaire afbeelding van een vectorruimte V
naar zichzelf. Toon aan dat L2 = L ⇒ V = ker(L) ⊕ Im(L).
Hoofdstuk 8
Eigenwaarden en
eigenvectoren
8.1
Inleiding
In Voorbeeld 7.4.2 hebben we gekeken naar de loodrechte projectie P van R3 op
het vlak gegeven door x + y + 2z = 0. De matrix ten opzichte van de standaard
basis van R3 werd gegeven door

5/6 −1/6
 −1/6 5/6
−1/3 −1/3

−1/3
−1/3  .
1/3
Hoewel de projectie P meetkundig gezien heel eenvoudig is, kunnen we dit niet
meteen aan de matrix aflezen. Dat we te maken hebben met een projectie blijkt
pas als we opmerken dat de vector (1, 1, 2)t naar de nulvector wordt afgebeeld
en de vectoren (1, −1, 0) en (2, 0, −1), die in het vlak liggen, naar zichzelf. Deze
vectoren spelen dus een speciale rol ten aanzien van de projectie, en door hun
gedrag onder P de projectie zelf gekenmerkt. Ten opzichte van de geordende
basis F gegeven door f1 = (1, 1, 2)t , f2 = (1, −1, 0)t , f = (2, 0, −1)t zou onze
projectie P de matrix


0 0 0
PFF =  0 1 0 
0 0 1
hebben. Een stuk eenvoudiger dus.
Voor de studie van de werking van een willekeurige lineaire afbeelding is het
van belang dergelijke bijzondere vectoren op te sporen. Dit is het onderwerp
van dit hoofdstuk.
Zij V een vectorruimte over R en A : V → V een lineaire afbeelding. Een vector
v ∈ V heet eigenvector van A als
1. v ̸= 0
2. er is een scalair λ ∈ R is, zó dat A(v) = λv.
122
8.1. INLEIDING
123
We noemen λ de eigenwaarde van A behorend bij v. In ons voorbeeld zou
(1, 1, 2) een eigenvector van P zijn met eigenwaarde 0 en (1, −1, 0) en (2, 0, −1)
eigenvectoren met eigenwaarde 1.
Voorbeeld 8.1.1. Hier is nog een voorbeeld, de afbeelding A : R2 → R2
gegeven door matrixvermenigvuldiging met
(
Q=
3
4
−1 −2
)
(
)
.
Merk op dat
(
Q
−4
1
)
(
=2
−4
1
en
Q
1
−1
)
(
= −1
1
−1
)
.
De afbeelding A heeft dus een eigenvector met eigenwaarde 2 en(een )
eigen−4
vector met eigenwaarde −1. Merk op dat ook ieder veelvoud van
een
1
(
)
1
eigenvector met eigenwaarde 2 is, en ieder veelvoud van
eigenvector
−1
met eigenwaarde −1. We zullen zien dat er geen andere eigenvectoren van A
bestaan.
♢
Voorbeeld 8.1.2. Voor V nemen we de vectorruimte C ∞ (R), de oneindig vaak
differentieerbare functies op R en als lineaire afbeelding D kiezen we differentiatie: D : f 7→ f ′ . Het is duidelijk dat de exponentiele functie eax voor willeurige
d
(eax ) = aeax . Tevens zijn
a een eigenfunctie is met eigenwaarde a. Immers, dx
deze vectoren, en hun veelvouden, de enige eigenvectoren.
♢
Voorbeeld 8.1.3. Neem V = R[X] en als lineaire afbeelding P (X) 7→ XP ′ (X).
Eigenvectoren zijn de monomen X n en hun veelvouden (met eigenwaarde n).
♢
Stelling 8.1.4 Zij V een vectorruimte over R en A : V → V een lineaire
afbeelding. Zij λ ∈ R een gegeven scalair. Dan vormt de verzameling
Eλ := {x ∈ Rn | M x = λx}
een lineaire deelruimte van Rn .
Het bewijs van deze stelling bestaat uit een eenvoudige controle. Voer deze controle uit! De ruimte Eλ , indien deze niet alleen uit de nulvector bestaat, noemen
we de eigenruimte van A behorend bij de eigenwaarde λ. In ons voorbeeld van
de projectiematrix P zien we dat de vectoren loodrecht op het projectievlak de
eigenruimte met eigenwaarde 0 vormen, en het projectievlak zelf is de eigenruimte behorend bij eigenwaarde 1.
124
8.2
HOOFDSTUK 8. EIGENWAARDEN EN EIGENVECTOREN
Berekening van eigenwaarden en eigenvectoren
In het algemeen is de berekening van eigenwaarden en eigenvectoren van een
lineaire afbeelding een lastige klus als we te maken hebben met oneindig dimensionale vectorruimten. Veel trillingsverschijnselen (trommels, snaren, atomen)
in de natuurkunde zijn terug te brengen tot eigenvector/waarde problemen van
differentiaaloperatoren op functieruimten. Vaak komt hier ook nogal wat analyse bij kijken.
Hier stellen we ons wat bescheidener op en berekenen alleen eigenwaarden en
eigenvectoren in eindig dimensionale gevallen. We beginnen met het speciale
geval van matrixvermenigvuldiging in Rn met een n × n-matrix M . De eigenvectoren en eigenwaarden van de lineaire afbeelding gegeven door M zullen we
ook wel gewoonweg de eigenvectoren en eigenwaarden van M noemen.
Hier volgt het principe van de berekening van eigenvectoren en eigenwaarden
van M . Stel dat λ een eigenwaarde is. De vergelijking M x = λx in x ∈ Rn
kunnen we zien als een stelsel lineaire vergelijkingen in de n componenten van
x. We herschrijven de rechterkant als λIn x en brengen deze naar links. We
vinden,
(M − λIn )x = 0.
Opdat dit stelsel van n vergelijkingen in n onbekenden een niet-triviale oplossing
heeft, is het nodig en voldoende dat de coëfficientendeterminant nul is. Met
andere woorden,
det(M − λIn ) = 0
(8.1)
Deze vergelijking staat bekend als de eigenwaardevergelijking van M . Het polynoom det(M − λIn ) in λ noemen we ook wel het karakteristieke polynoom van
M . Stel


m11 m12 . . . m1n
 m21 m22 . . . m2n 
M =
..
.. 
 ...
.
. 
mn1
mn2
...
mnn
dan luidt de eigenwaardevergelijking uitgeschreven,
m12
...
m1n m11 − λ
m21
m22 − λ . . .
m2n = 0.
..
..
..
.
.
.
mn1
mn2
. . . mnn − λ
Oplossing van deze polynoom geeft ons een eindig aantal oplossingen. Gegeven
een oplossing λ0 van deze vergelijking, dan is het bepalen van de bijbehorende
eigenruimte slechts een kwestie van oplossing van het lineaire stelsel vergelijkingen
(M − λ0 In )x = 0
(8.2)
Voorbeeld 8.2.1. Hier berekenen we eigenwaarden en eigenvectoren van de
matrix Q uit de vorige paragraaf. De eigenwaardevergelijking luidt
3 − λ
4 =0
−1
−2 − λ 8.2. BEREKENING VAN EIGENWAARDEN EN EIGENVECTOREN 125
Uitgeschreven, λ2 − λ − 2 = 0. De oplossingen zijn λ = −1, 2. De eigenvectoren
bij elk van deze λ’s vinden we door oplossing van het lineaire stelsel
(
Dus bij λ = −1,
3−λ
−1
4
−2 − λ
)( ) ( )
x
0
=
.
y
0
(
)( ) ( )
4
4
x
0
=
−1 −1
y
0
(
)
1
met als oplossingen t
, t willekeurig. Bij λ = 2 vinden we het stelsel
−1
(
(
met als oplossingen t
1
4
−1 −4
)( ) ( )
x
0
=
y
0
)
4
, t willekeurig.
−1
♢
Voorbeeld 8.2.2.Elk eigenwaarde probleem A : V → V met dim(V ) < ∞ kan
worden teruggebracht tot de bepaling van eigenwaarden en -vectoren van een
n × n-matrix, waarin n = dim(V ).
Neem bijvoorbeeld V = R[X]≤2 de polynomen van graad ≤ 2 en de lineaire
afbeelding A : P (X) mapsto (X + 1)P ′ (X). We bepalen de matrix van A ten
opzichte van de basis 1, X, X 2 .
A(1) = 0,
De matrix van A wordt
A(X) = X + 1,

0 1
0 1
0 0
Eigenwaardevergelijking,
−λ
1
0= 0 1−λ
0
0
A(X 2 ) = 2X 2 + 2X.

0
2.
2
0 2 = −λ(λ − 1)(λ − 2).
2 − λ
De eigenwaarden zijn dus 0, 1, 2. Eigenvectoren bij λ = 0 zijn µ(1, 0, 0)t , eigenvectoren bij λ = 1 zijn µ(1, 1, 0)t en eigenvectoren bij λ = 2 zijn µ(1, 2, 1)t . De
eigenvectoren in hun polynoomnotatie worden dus
λ = 0 : µ,
λ = 1 : µ(X + 1),
λ = 2 : µ(X 2 + 2X + 1) = µ(X + 1)2 .
♢
126
8.3
HOOFDSTUK 8. EIGENWAARDEN EN EIGENVECTOREN
Basiseigenschappen
Stelling 8.3.1 Zij A : V → V een lineaire afbeelding van een vectorruimte V
naar zichzelf. Zij v1 , v2 , . . . , vr een r-tal eigenvectoren van A met verschillende
eigenwaarden λ1 , λ2 , . . . , λr . Dan zijn v1 , v2 , . . . , vr onafhankelijk.
Bewijs: We voeren inductie naar r uit. Als r = 1 dan is er één eigenvector
v1 is. Omdat deze niet de nulvector is, is v1 een onafhankelijk stelsel.
Stel nu r > 1 en dat elk r − 1-tal eigenvectoren met verschillende eigenwaarden
onfahankelijk is. We gaan nu µ1 , . . . , µr oplossen uit de relatie
µ1 v1 + µ2 v2 + · · · + µr vr = 0.
Laat de afbeelding A op beide zijden los. We vinden de nieuwe relatie
µ1 λ1 v1 + µ2 λ2 v2 + · · · + µr λr vr = 0.
Trek hiervan λr maal de oorspronkelijke relatie af. We vinden,
µ1 (λ1 − λr )v1 + µ2 (λ2 − λr )v2 + · · · + µr−1 (λr−1 − λr )vr−1 = 0.
Omdat v1 , . . . , vr−1 onafhankelijk zijn, geldt µi (λi −λr ) = 0 voor i = 1, 2, . . . , s−
1. We hadden aangenomen dat λi ̸= λr voor i < r. Gevolg, µi = 0 voor
i = 1, 2, . . . , r − 1. De relatie tussen v1 , . . . , vr impliceert nu dat µr vr = 0.
Omdat vr ̸= 0 volgt hieruit dat µr = 0. Met andere woorden, alleen de triviale
relatie bestaat tussen v1 , v2 , . . . , vr . Conclusie: v1 , v2 , . . . , vr zijn onafhankelijk.
2
Voorbeeld 8.3.2.Van Stelling 8.3.1 kunnen we slim gebruik maken om onafhankelijkheid van vectoren aan te tonen in bijvoorbeeld functieruimten. Neem
V = C ∞ (R), de oneindig vaak differentieerbare functies op R. Kies de functies
f1 = ex , f2 = e2x , . . . , fn = enx . We hadden in Voorbeeld 7.2.8 de lineaire onafhankelijkheid van deze functies aangetoond. Nu is dat heel simpel te zien. De
functies fi (i = 1, . . . , n) zijn immers eigenfuncties van de lineaire afbeelding
f 7→ f ′ met de verschillende eigenwaarden 1, 2, . . . , n.
♢
Laten we teruggaan naar een eindigdimensionale vectorruimte V van dimensie
n en een lineaire afbeelding A : V → V . We zeggen dat A een basis van
eigenvectoren heeft als er een basis v1 , . . . , vn van V is, zodat v1 , . . . , vn tevens
eigenvectoren van A zijn. Stel dat A een basis F van eigenvectoren v1 , . . . , vn
heeft met eigenvectoren λ1 , . . . , λn . Dan wordt de matrix van A ten opzichte
van de basis B gegeven door

λ1

0
AFF = 
 ...
0
λ2
...
...

0
0 
.
.. 
. 
0
0
...
λn
8.3. BASISEIGENSCHAPPEN
127
We zeggen dat we A gediagonaliseerd hebben.
Voorbeeld 8.3.3.We gaan weer terug naar de lineaire afbeelding A : Rn → Rn
gegeven door matrixvermenigvuldiging met een n × n-matrix M . Merk op dat
M gewoon de matrix van A is ten opzichte van de standaard basis E van Rn .
Dus M = AE
E . Stel dat A een basis van eigenvectoren v1 , . . . , vn heeft met
eigenwaarden λ1 , . . . , λn . Noem deze basis F . Dan geldt


λ1 0 . . . 0
 0 λ2 . . . 0 
AFF = 
.
.. 
 ...
. 
0
0
...
λn
Deze matrix staat dus in diagonaalvorm. We weten ook dat AFF = S −1 M S
is waarin S = IEF de coordinatentransformatie matrix tussen E, F . Als de
matrix M een basis van eigenvectoren toelaat, dan is M geconjugeerd met een
diagonaalmatrix. En omgekeerd.
♢
Voorbeeld 8.3.4.We behandelen een speciaal geval met de 2 × 2-matrix
(
)
3
4
Q=
.
−1 −2
We hadden al eerder gezien dat
(
)
(
)
−4
−4
Q
=2
1
1
(
en
Q
1
−1
)
(
= −1
1
−1
)
,
dus we hebben een basis van eigenvectoren. We schrijven bovenstaande iets
anders,
(
) (
) (
)(
)
−4 1
−8 −1
−4 1
2 0
Q
=
=
.
1 −1
2
1
1 −1
0 −1
En hieruit zien we dat
S
−1
QS =
(
2 0
0 −1
)
(
,
met S =
−4 1
1 −1
)
.
Dus Q is geconjugeerd met een diagonaalmatrix. De conjugatie gebeurt met de
coordinatentransformatie matrix S.
♢
Een belangrijk gevolg van Stelling 8.3.1 is het volgende.
Gevolg 8.3.5 Als een n × n-matrix n verschillende eigenwaarden heeft, dan
heeft M een basis van eigenvectoren.
Bewijs: Noem de eigenwaarden λ1 , . . . , λn en kies bij elk eigenwaaarde een
eigenvector v1 , . . . , vn . Omdat de eigenwaarden verschillend zijn, volgt uit
Stelling 8.3.1 dat v1 , . . . , vn onafhankelijk zijn. Ze vormen dus een basis van
Rn .
2
Hier volgen nog een paar eigenschappen van conjugatie.
128
HOOFDSTUK 8. EIGENWAARDEN EN EIGENVECTOREN
Lemma 8.3.6 Zij S een inverteerbare n × n-matrix en M een n × n- matrix.
Dan hebben M en S −1 M S hetzelfde karakteristieke polynoom
Bewijs: Dit volgt direct uit de volgende afleiding
det(S −1 M S − λIn ) = det(S −1 M S − λS −1 In S)
= det(S −1 (M − λIn )S)
= det(S)−1 det(M − λIn )det(S) = det(M − λIn )
2
Een andere belangrijke observatie is de volgende. Het karakteristieke polynoom
van een n × n-matrix M heeft de gedaante
det(M − λIn ) = (−λ)n + a1 (−λ)n−1 + · · · + an−1 (−λ) + an
(8.3)
De coëfficienten ai zijn natuurlijk functies van de matrixelementen van M .
Voor de meeste coëfficienten zien deze functies er nogal ingewikkeld uit. Het
blijkt echter dat de coëfficienten a1 en an een eenvoudige interpretatie hebben.
Daartoe definiëren we het spoor van een n × n-matrix A als de som van de
diagonaalelementen van A. Notatie: Spoor(A).
Stelling 8.3.7 Met de zojuist ingevoerde notaties geldt:
an = det(M ),
a1 = Spoor(M ).
Bewijs: De eerste bewering volgt door in (8.3) links en rechts λ = 0 in te
vullen. We vinden dan det(M ) = an . Dit was onze eerste bewering. Om de
tweede bewering in te zien bepalen we de coëfficient van (−λ)n−1 in det(M −λIn )
We bepalen deze door uitschrijven van de somformule voor
m12
...
m1n m11 − λ
m21
m22 − λ . . .
m2n .
det(M − λIn ) = ..
..
.
.
mn1
mn2
. . . mnn − λ
Bij uitschrijven van deze determinant blijkt dat het enige product dat bijdraagt
tot de coëfficient van (−λ)n−1 het product van de diagonaalelementen (m11 −
λ)(m22 − λ) · · · (mnn − λ) is. De bijdrage is precies gelijk aan m11 + m22 + · · · +
mnn . We concluderen nu dat
a1 = m11 + m22 + · · · + mnn .
2
Een direct gevolg van bovenstaande Stelling is dat we bij een diagonaliseerbare
matrix direct het product en de som van de eigenwaarden in de matrix M terug
kunnen zien.
8.4. POLYNOMEN EN HUN NULPUNTEN (OPTIONEEL)
129
Stelling 8.3.8 Zij M een diagonaliseerbare n × n-matrix met eigenwaarden
λ1 , λ2 , . . . , λn . Dan geldt
λ1 λ2 · · · λn = det(M )
λ1 + λ2 + · · · + λn = Spoor(M ).
Bewijs: We gebruiken hiervoor Stelling 8.3.7 en het feit dat
(λ1 − λ) · · · (λn − λ) = λ1 · · · λn − · · · + (λ1 + · · · + λn )(−λ)n−1 + (−λ)n .
De constante coefficient is nu det(M ) = an = λ1 · · · λn en de coefficient van
(−λ)n−1 is Spoor(M ) = a1 = λ1 + · · · + λn .
2
Helaas is niet iedere n × n matrix diagonaliseerbaar. Er zijn twee belangrijke
obstructies die we aan de hand
van)een voorbeeld aangeven. Neem als eerste
(
0 −1
voorbeeld de 2 × 2-matrix
, die een rotatie om 90o voorstelt. Het is
1 0
duidelijk dat er bij een rotatie in het vlak geen eigenvectoren kunnen zijn. Dit
wordt ook duidelijk als we de eigenwaardevergelijking opstellen.
−λ −1 2
1 −λ = λ + 1 = 0.
Deze vergelijking heeft geen reële oplossingen, en dus vinden we ook geen reële
eigenvectoren. De eerste obstructie is dus dat de eigenwaardevergelijking niet
voldoende oplossingen in R heeft.
De tweede obstructie treedt op als we eigenwaarden
met hogere multipliciteit
(
)
1 1
hebben. Neem bijvoorbeeld de matrix
. De eigenwaarde vergelijking
0 1
luidt
1 − λ
1 = (1 − λ)2 = 0.
0
1 − λ
Er is één eigenwaarde, namelijk λ = 1. Berekenen we de bijbehorende eigenruimte, dan vinden we de veelvouden van (1, 0). De eigenruimte is dus 1dimensionaal en aangezien er geen andere eigenwaarden dan 1 zijn, zijn dit de
enige eigenvectoren. In dit geval is er dus ook geen basis van eigenvectoren.
Beide obstructies zullen we in de komende paragrafen nader bekijken. Eerst
vertellen we iets over nulpunten van polynomen.
8.4
Polynomen en hun nulpunten (optioneel)
Zij gegeven een polynoom of veelterm. Dat is een functie van de vorm
P (x) = pn xn + pn−1 xn−1 + · · · + p1 x + p0
met pi ∈ R of in C. Als pn ̸= 0 dan noemen we pn de kopcoëfficient en n
de graad van het polynoom P . Notatie: deg(P ). De graad van een constant
polynoom̸= 0, zoals 1 of 2 is nul. Merk op dat de graad van het triviale
polynoom 0 niet gedefinieerd is. Een eenvoudige doch nuttige eigenschap is de
volgende,
130
HOOFDSTUK 8. EIGENWAARDEN EN EIGENVECTOREN
Stelling 8.4.1 Zij P, Q een tweetal niet-triviale polynomen. Dan geldt deg(P Q) =
deg(P ) + deg(Q).
Met andere woorden, de graden van twee polynomen tellen op als we ze vermenigvuldigen.
We noemen een element a een nulpunt van P als P (a) = 0. We hadden reeds
gezien in Stelling 6.5.2 dat P (x) niet meer dan n verschillende nulpunten kan
hebben. Verder geldt,
Stelling 8.4.2 Zij a een nulpunt van het polynoom P (x). Dan is er een polynoom Q(x) zó dat P (x) = (x − a)Q(x).
Bewijs: Allereerst merken we op dat elk polynoom van de vorm xm − am als
volgt ontbindt,
xm − am = (x − a)(xm−1 + axm−2 + · · · + am−2 x + am−1 ).
We schrijven nu P (x) even uit
P (x) = pn xn + pn−1 xn−1 + · · · + p1 x + p0
en trekken daar 0 = P (a) = pn an + pn−1 an−1 + · · · + p1 a + p0 vanaf. We krijgen
P (x) = pn (xn − an ) + pn−1 (xn−1 − an−1 ) + · · · + p1 (x − a).
Elk van de termen xm − am rechts is deelbaar door x − a en dus ook hun som.
Daarmee is P (x) deelbaar door x − a. Met andere woorden er bestaat een
polynoom Q(x) zó dat P (x) = (x − a)Q(x).
2
Het kan wel eens gebeuren dat als een polynoom P het nulpunt a heeft, het
polynoom P meerdere factoren x − a bevat. Bijvoorbeeld P (x) = x4 − x3 + x2 −
3x + 2 heeft x = 1 als nulpunt. We kunnen nu schrijven P (x) = (x − 1)Q(x)
waarin Q(x) = x3 + x − 2. Maar het polynoom Q(x) heeft ook een nulpunt in
x = 1. Dus Q(x) = (x−1)(x2 +x+2). We vinden dus P (x) = (x−1)2 (x2 +x+2)
en de laatste factor heeft geen nulpunten x = 1 meer. We zeggen dat x = 1
een nulpunt van multipliciteit 2 is. In het algemeen, stel dat P (x) een nulpunt
a heeft en zij k het grootste getal zó dat P (x) = (x − a)k Q(x) voor een zeker
polynoom Q(x). Dan noemen we k de multipliciteit van het nulpunt x = a.
Het is lang niet altijd zo dat een polynoom een nulpunt heeft, denk maar aan
P (x) = x2 + 1, dat geen nulpunten in R heeft. Als we echter over de complexe
getallen werken, dan zijn er wel altijd nulpunten.
Stelling 8.4.3 (Hoofdstelling van de algebra) Zij P (x) een niet-triviaal polynoom met reële of complexe coëfficienten. Dan is er een complex getal a zó dat
P (a) = 0.
We zullen deze stelling hier niet bewijzen, maar vermelden wel het belangrijkste
gevolg.
8.4. POLYNOMEN EN HUN NULPUNTEN (OPTIONEEL)
131
Gevolg 8.4.4 Zij P (x) = xn + pn−1 xn−1 + · · · + p1 x + p0 een polynoom van
graad n met reële of complexe coëfficienten. Dan zijn er n complexe getallen
a1 , a2 , . . . , an zó dat
P (x) = (x − a1 )(x − a2 ) · · · (x − an ).
Bewijs: We zien dit het makkelijkst door inductie naar n. Voor n = 1 is
P (x) = x + p0 meteen al van de vereiste vorm.
Stel nu n > 1 en dat ons Gevolg waar is voor polynomen van graad n − 1. Uit
de hoofdstelling van de algebra weten we dat ons n-de graads polynoom P (x)
een nulpunt an ∈ C heeft. Maar dan bestaat er een polynoom Q(x) van graad
n − 1 zó dat P (x) = (x − an )Q(x). Wegens onze inductiehypothese ontbindt
Q(x) in n − 1 factoren Q(x) = (x − a1 )(x − a2 ) . . . (x − an−1 ). We vinden dus
P (x) = (x − a1 )(x − a2 ) . . . (x − an ), waarmee onze bewering bewezen is.
2
Een ander gevolg van de hoofdstelling van de algebra is dat we ook iets kunnen
zeggen over reële polynomen.
Stelling 8.4.5 Zij P (x) = xn + pn−1 xn−1 + · · · + p1 x + p0 een polynoom van
graad n met coëfficienten in R. Dan bestaan er reële getallen a1 , a2 , . . . , am en
paren reële getallen bi , ci (i = 1, . . . , s) met m + 2s = n en b2i − 4ci < 0 zó dat
P (x) = (x − a1 )(x − a2 ) · · · (x − am )(x2 + b1 x + c1 ) · · · (x2 + bs x + cs ).
Het kan voorkomen dat m = 0 of s = 0, hetgeen betekent dat er geen lineaire factoren of kwadratische factoren hoeven zijn. Ruw samengevat zegt onze
stelling dat elk polynoom met reële coëfficienten geschreven kan worden als
product van lineaire en kwadratische polynomen met reële coëfficienten, waarbij de kwadratische polynomen negatieve discriminant hebben.
Bewijs: Deze bewering is een gevolg van Gevolg 8.4.4. Er bestaan namelijk
complexe getallen a1 , . . . , an zó dat
P (x) = (x − a1 )(x − a2 ) . . . (x − an ).
Een aantal van de ai , zeg de eerste m kunnen reëel zijn. De overige, niet-reële,
nulpunten komen in complex geconjugeerde paren voor. Als namelijk a een
complex nulpunt van P is, dan geldt, omdat P reële coëfficienten heeft, dat
P (a) = P (a) = 0. Dus a is ook een (complex) nulpunt van P . Het polynoom
(x − a)(x − a) is een kwadratisch polynoom met reële coëfficienten en negatieve
discriminant. Door de paren complex geconjugeerde nulpunten van P (x) bij
elkaar te nemen, vinden we de gewenste kwadratische factoren.
2
Gevolg 8.4.6 Een polynoom met coëfficienten in R en oneven graad heeft minstens één reëel nulpunt.
Bewijs:
Als de graad oneven is, kan de ontbinding van het polynoom in
kwadratische en lineaire factoren niet uitsluitend uit kwadratische factoren
bestaan. Er moet een lineaire factor zijn, en dus een reëel nulpunt.
2
132
8.5
HOOFDSTUK 8. EIGENWAARDEN EN EIGENVECTOREN
Multipliciteiten en Jordan normaalvorm
Zoals gezegd wordt afwezigheid van een basis van eigenvectoren van een matrix
M deels veroorzaakt door meervoudige nulpunten van het karakteristieke polynoom van M . Zij λ0 een eigenwaarde van M . De dimensie van de eigenruimte
Eλ0 noemen we de meetkundige multipliciteit van λ0 . De multipliciteit van λ0
als nulpunt van det(M − λIn ) noemen we de algebraı̈sche multipliciteit . Dan
geldt
Stelling 8.5.1 De algebraı̈sche multipliciteit van een eigenwaarde λ0 is groter
of gelijk aan de meetkundige multipliciteit.
Bewijs: Om deze stelling in te zien, stellen we de meetkundige multipliciteit
van λ0 gelijk aan m. Kies een basis v1 , . . . , vm van de eigenruimte van λ0 en
breidt deze uit tot een basis v1 , . . . , vn van Rn . Zij S de matrix met als i-de
kolom de kolomvector vi . We schrijven ook wel S = (v1 , . . . , vn ). Laat nu de
matrix M − λIn van links los op S. Omdat v1 , . . . , vm eigenvectoren van M
zijn, geldt
(M − λIn )S = ((λ0 − λ)v1 , . . . , (λ0 − λ)vm , M vm+1 − λvm+1 , . . . , M vn − λvn ).
Merk op dat de eerste m kolommen van de laatste matrix allen een factor
(λ0 − λ) bevatten. Dus
det(M − λIn )det(S) = (λ0 − λ)m Q(λ)
waarin Q(λ) de determinant is die we overhouden na wegdeling van de factoren
λ0 − λ. Merk op dat Q(λ) een polynoom in λ is en det(S) een constante ̸= 0.
We zien nu dat de algebraı̈sche multipliciteit van λ0 minstens gelijk is aan m,
waarmee de stelling bewezen is.
2
Een extreem geval waarin meetkundige en algebraı̈sche multipliciteit uiteenlopen zijn matrices van de vorm


a 1 0 ... 0
0 a 1 ... 0


0 0 a ... 0
.
.
.. 
 ..
.


0 0 0 ... 1
0 0 0 ... a
Met andere woorden, matrices met hetzelfde element a op de diagonaal, allemaal
enen op de nevendiagonaal erboven en nullen op alle andere plaatsen. Een
dergelijke matrix word ook wel Jordan blok genoemd met eigenwaarde a. Zij J
een n × n Jordan blok met eigenwaarde a. De eigenwaarde vergelijking luidt
(a−λ)n = 0 (ga na!). We zien dus dat de algebraı̈sche multipliciteit van a gelijk
is aan n. Daarentegen zien we ook dat de rang van J − aIn gelijk is aan n − 1,
en dus heeft de eigenruimte bij a dimensie 1. De meetkundige multipliciteit
8.6. CAYLEY-HAMILTON (OPTIONEEL)
133
van a is daarmee 1. We zien dus dat Jordanblokken niet diagonaliseerbaar zijn,
tenzij we n = 1 hebben, het 1 × 1-blok. In het geval n = 1 is het Jordan triviaal
diagonaliseerbaar, het staat immers al in die vorm.
Met behulp van Jordanblokken kunnen we ook matrices vormen waarbij voor
meerdere eigenwaarden de meetkundige en algebraı̈sche multipliciteit uit elkaar
loopt. We doen dit door Jordanblokken als volgt op elkaar te stapelen. De
blokken


(
)
3 1 0
2 1
 0 3 1  en
0 2
0 0 3
stapelen we op tot

3
0

0

0
0
1
3
0
0
0
0
1
3
0
0
0
0
0
2
0

0
0

0
.
1
2
In het algemeen:

J1
O
 .
 ..
O
J2
O
O
...
..
.
...

O
O 
.. 
. 
Jm
waarin J1 , J2 , . . . , Jm Jordanblokken van eventueel verschillende afmetingen
zijn. De symbolen O staan voor nulmatrices van diverse afmetingen. Een
diagonaalmatrix kunnen we ons opgebouwd denken uit 1 × 1 Jordanblokken.
Matrices, opgebouwd uit Jordanblokken, noemen we Jordan matrices.
Stelling 8.5.2 (Jordan normaalvorm) Zij M een n × n-matrix met elementen in R resp C, waarvan de eigenwaardevergelijking al zijn oplossingen
in R resp. C heeft. Dan is er een inverteerbare matrix S en een Jordan matrix
J zó dat
S −1 M S = J.
Bovendien, als de eigenwaarde λ0 van M algebraı̈sche multipliciteit m heeft,
dan komt de λ0 precies m maal op de diagonaal van J voor.
8.6
Cayley-Hamilton (optioneel)
Stel dat we een diagonaliseerbare n × n-matrix M hebben. Zij S inverteerbaar zó dat S −1 M S een diagonaalmatrix D is. De diagonaal elementen van
D zijn precies de eigenwaarden λ1 , . . . , λn van M . Stel dat het karakteristieke
polynoom van M , na vermenigvuldiging met (−1)n , gelijk is aan
λn + a1 λn−1 + · · · + an−1 λ + an .
De eigenwaarden λi zijn precies de nulpunten van dit polynoom. Dus moet ook
gelden,
Dn + a1 Dn−1 + · · · + an−1 D + an = O,
(8.4)
134
HOOFDSTUK 8. EIGENWAARDEN EN EIGENVECTOREN
waarin O de n × n nulmatrix is. Merk nu op dat SDS −1 = M , SD2 S −1 =
M 2 , . . . SDn S −1 = M n . Conjugatie van (8.4) levert
SDn S −1 + a1 SDn−1 S −1 + · · · + an−1 SDS −1 + an = O
en dus,
M n + a1 M n−1 + · · · + an−1 M + an = O.
Deze laatste identiteit is een speciaal geval van de volgende stelling.
Stelling 8.6.1 (Cayley-Hamilton) Zij M een n×n matrix en zij λn +a1 λn−1 +
· · · + an−1 λ + an het karakteristieke polynoom van M . Dan geldt,
M n + a1 M n−1 + · · · + an−1 M + an = O.
Het argument dat we boven gaven levert een bewijs van de Stelling van CayleyHamilton voor het geval dat M diagonaliseerbaar is. De stelling geldt echter
voor iedere willekeurige n × n matrix M . Het bewijs voor dit algemene geval
volgt later.
8.7
Een toepassing, Google’s Pagerank (optioneel)
Eigenwaarden en eigenvectoren komen in de praktijk in talloze toepassingen
voor. Met name in de natuurkunde, waarin trillingsverschijnselen en quantummechanica allen voorbeelden geven van eigenvectoren in (oneindigdimensionale)
vectorruimten en operatoren die erop werken. Ook in de techniek, wiskunde,
scheikunde etc. spelen ze een belangrijke rol. In deze paragraaf bespreken we
de wiskunde achter een heel eigentijdse toepassing, namelijk de bepaling van
de zogenaamde page rank die op gezette tijden door Google wordt opgesteld
om een ranglijst naar relevantie van webpaginas over de hele wereld te geven.
Hierover zijn veel artikelen op internet te vinden, wij noemen
http://www.ams.org/samplings/feature-column/fcarc-pagerank die je als
achtergrondmateriaal zou kunnen lezen. Wij behandelen hier eerst het wiskundige
idee en geven daarna kort weer hoe het bij Google toegepast wordt. De precieze
details van de berekening zijn bedrijfsgeheim.
Zij A een m × m matrix en kies een startvector x0 . Laat A hier herhaald op
los,
x1 = Ax0 , x2 = Ax1 , . . . xk+1 = Axk , . . .
De vector xk wordt natuurlijk gegeven door xk = Ak x0 voor elke k ∈ Z≥0 .
Grote vraag is wat er gebeurt met Ak x0 als k → ∞. Voor de beantwoording
van deze vraag zijn eigenvectoren en eigenwaarden van A bijzonder handig.
Neem om te beginnen aan dat A een basis van eigenvektoren v1 , . . . , vm heeft
met eigenwaarden λ1 , . . . , λm (eventueel over de complexe getallen). Schrijf nu
x0 als lineaire combinatie van de eigenvectoren, x0 = α1 v1 + · · · + αm vm en
merk op, dat
xk = Ak x0 = α1 λk1 v1 + · · · + αm λkm vm .
(8.5)
8.7. EEN TOEPASSING, GOOGLE’S PAGERANK (OPTIONEEL)
135
In het bijzonder, als |λi | < 1 voor alle i, dan geldt limk→∞ xk = 0, ongeacht de
startvektor x0 . Trouwens, ook als er geen basis van eigenvektoren bestaat dan
blijft deze uitspraak waar.
Stelling 8.7.1 Stel dat de m×m matrix A eigenwaarden heeft die allen kleiner
dan 1 zijn in absolute waarde (zowel de reële als complexe). Dan geldt dat
limn→∞ Ak = 0 d.w.z., voor elke i, j gaat het element met index (i, j) in Ak
naar 0 als k → ∞.
Laten we nu een matrix nemen met eigenwaarde 1 en |λ| < 1 voor alle andere
eigenwaarden λ ∈ C. Bijvoorbeeld,


0
1 1
1
A =  −1 −2 5  .
2
−1 −1 4
Deze matrix heeft eigenwaarden 1, 1/2, −1/2 en de eigenwaarde 1 heeft als bijbehorende eigenvector (1, 1, 1)t . Voor de 5e en 10e macht van A vinden we, tot
op vier decimalen,




−0.9375 −0.9062 2.8437
−0.99804 −0.99902 2.9970
A5 =  −0.9687 −1.0000 2.9687  A10 =  −0.99902 −0.99804 2.9970 
−0.9687 −0.9687 2.9375
−0.99902 −0.99902 2.9980
Het lijkt er dus op dat de kolommen van Ak naar een veelvoud van de eigenvector (1, 1, 1)t convergeren als k → ∞. A fortiori convergeert Ak x0 voor elke
startvector x0 naar een veelvoud van (1, 1, 1)t . De eigenwaarde is de grootste
van de drie eigenwaarden en we noemen het de dominante eigenwaarde. Deze
speelt een belangrijke rol bij de bepaling van Ak als k → ∞.
In het algemeen noemen we de eigenwaarde λ van de m × m matrix A een
dominante eigenwaarde als λ algebraische multipliciteit 1 heeft en als voor iedere
andere eigenwaarde µ, ook de complexe, geldt dat |µ| < |λ|.
Stelling 8.7.2 Stel dat de m×m matrix A een dominante eigenwaarde λ heeft.
Zij v een eigenvektor bij λ. Dan is er bij elke x0 ∈ Rm een scalair c(x0 ) zó dat
( )k
1
lim
Ak x0 = c(x0 )v.
k→∞ λ
Merk op dat (1/λ)k Ak = (A/λ)k en dat A/λ een matrix met dominante eigenwaarde 1 is. Dit is precies de situatie uit ons voorbeeld.
Indien A in Stelling 8.7.2 een basis van eigenvektoren heeft, dan is het bewijs
niet lastig. Beschouw (8.5) en stel v1 = v en λ1 = λ. We vinden,
(1/λ)k Ak x0 = α1 v + α2 (λ2 /λ)k v2 + · · · + αm (λm /λ)k vm .
Omdat |λ1 | > |λi | voor alle i > 1 volgt hieruit dat limk→∞ (1/λ)k Ak x0 = α1 v.
De coëfficient α1 is de scalair c(x0 ) uit de Stelling. Het bewijs voor het geval
er geen basis van eigenvectoren bestaat is lastiger en laten we hier achterwege.
136
HOOFDSTUK 8. EIGENWAARDEN EN EIGENVECTOREN
In de praktijk hebben de matrices A waarmee we werken elementen die groter of
gelijk aan nul zijn. Aan dergelijke matrices kunnen we een zogenaamde gerichte
graaf toekennen. Voor elke index i = 1, . . . , m tekenen we een punt in het vlak
en trekken een verbindingslijn van punt i naar punt j als het matrix element
aij strikt positief is (dus niet nul). Voorbeeld, de matrix heeft als gerichte graaf
(3)
(1)
(2)
Definitie 8.7.3 Onder een pad in de graaf verstaan we een opeenvolging van
gerichte lijnstukken, waarbij het eindpunt van de één weer beginpunt van de
ander is. Een gerichte graaf heet samenhangend als elk punt van de graaf via
een pad met elk ander punt verbonden is. De graaf heet a-cyclisch als de grootste
gemeenschappelijke deler van alle lengtes van gesloten paden gelijk is aan 1.
Merk in het bijzonder op dat de graaf bij een matrix A a-cyclisch is als A
een positief diagonaal-element aii heeft. De bijbehorende graaf heeft dan een
verbinding van het punt (i) naar zichzelf en dat is een gesloten pad met lengte
1.
We hebben nu de volgende klassieke stelling, waarvan we het bewijs niet zullen
geven.
Stelling 8.7.4 (Perron-Frobenius) Zij A een m × m-matrix met alle elementen ≥ 0. Als de bijbehorende graaf samenhangend en a-cyclisch is, dan
heeft A een dominante eigenwaarde.
Dat de twee voorwaarden(nodig )
zijn moge blijken uit de volgende simpele voor2 0
beelden. De graaf van
heeft de twee eigenwaarden 2 en dus geen
0 2
dominante eigenwaarde. De bijbehorende graaf bestaat uit twee punten die
alleen met zichzelf verbonden zijn, maar niet
De graaf is dus niet
( met elkaar.
)
0 1
samenhangend. Een ander voorbeeld is A =
. De eigenwaarden zijn ±1
1 0
en er is dus geen dominante eigenwaarde. De graaf bestaat uit twee punten (1)
en (2), waarbij (1) verbonden wordt met (2) en (2) met (1). Het is duidelijk dat
elk gesloten pad bestaat uit herhaling van (1)→(2)→(1) of van (2)→(1)→(2).
Elk gesloten pad heeft even lengte en de graaf is dus niet a-cyclisch.
We gaan nu terug naar Google’s page rank. Het idee is om aan elke webpagina
P een gewicht I(P ) van belangrijkheid toe te kennen. Stel bijvoorbeeld dat
webpagina Pj lj links heeft. Als zo’n link naar pagina Pi wijst, dan krijgt
die pagina een bijdrage I(Pj )/lj aan zijn gewicht van webpagina Pj . Als we de
8.8. OPGAVEN
137
verzameling pagina’s die een link naar Pi hebben, aangeven met Bi , dan krijgen
we:
∑ I(Pj )
I(Pi ) =
.
lj
Pj ∈Bi
Om de waarden van I(P ) te vinden moeten we dit stelsel lineaire vergelijkingen
oplossen. Gezien de grootte van de coefficienten matrix is dit een onmogelijke
taak. Het idee is om de oplossing te benaderen door er een eigenwaarde probleem van te maken. Stel we hebben N webpaginas. We stellen de N ×N -matrix
G op door op plaats i, j de waarde 1/lj te zetten als Pj naar Pi wijst en 0 anders. Geven we de vector met componenten I(Pi ) aan met I dan kunnen we
bovenstaand stelsel vergelijkingen herschrijven als
I = GI.
Met andere woorden, I is een eigenvector met eigenwaarde 1 van G. We gaan
ervan uit dat G bekend is, en de opgave is om I te berekenen. We gebruiken nu
de Stelling van Perron-Frobenius. Kies een startvector I0 en laat G herhaald
los, I1 = GI0 , I2 = GI1 , . . . , Ik+1 = GIk , . . .. De opzet is dat de rij Ik naar
een stationaire vector, de oplossing van ons probleem, convergeert en dat dit
in redelijk snelle tijd gebeurt. Zoals we boven zagen zijn er restricties op de
matrix opdat we convergentie krijgen. Die kunnen we forceren door in plaats
van G de matrix αG + (1 − α)H/N te nemen waarin α een kleine parameter is
en H de N × N -matrix met 1 op elke plaats. Deze maatregel dempt eventuele
ongewenste fluctuaties. Met een parameterwaarde van 0.85 lijkt het dat er 50
tot 100 iteraties nodig zijn om een acceptabele benadering van I te vinden. Een
dergelijke berekening duurt enkele dagen. Dat de berekening met de reusachtige
matrix G mogelijk is, komt doordat G een zogenaamde sparse matrix is. Dat
wil zeggen, het merendeel van de coefficienten is nul en hoeft niet meegenomen
te worden in de berekeningen.
Op gezette tijden (eens per maand?) wordt bij Google de benadering van de
gewichtsvector I bijgewerkt en aangepast aan het veranderende internet.
8.8
Opgaven
Opgave 8.8.1 Bepaal voor de volgende matrices het karakteristieke polynoom,
de eigenwaarden en de eigenvectoren.
(
)
(
)
1 0
2 1
a)
,
b)
2 3
0 −1
(
)
(
)
2 −1
13 −16
c)
,
d)
−1 2
9 −11
(
)
(
)
1 −1
2 2
e)
,
f)
1 3
3 3




−2 −1 0
−6 −1 2
h)  0
1
1 
g)  3
2 0,
−2 −2 −1
−14 −2 5
138
HOOFDSTUK 8. EIGENWAARDEN EN EIGENVECTOREN

i)
k)

m)

−7
4
−3
j)  8
−3
3 
32 −16 13




6 4 4 1
2 4 4
4 6 1 4

 0 1 −1  ,
l) 
4 1 6 4
0 1 3
1 4 4 6



4 1 1
1 −1 −1 −1
 −1 1 −1 −1 
5 1 1
,

n) 

 −1 −1 1 −1 
1 4 2
1 2 4
−1 −1 −1 1
3
 −12
4
5
4

1
1

−1 −1
0
5 ,
−2 −1

Opgave 8.8.2 Zij A, B een tweetal n × n-matrices. Stel dat λ een eigenwaarde
van A is en µ een eigenwaarde van B.
1. Laat met een voorbeeld zien dat λ + µ geen eigenwaarde hoeft te zijn van
A + B.
2. Laat met een voorbeeld zien dat λµ geen eigenwaarde hoeft te zijn van
AB.
3. Stel dat λ en µ behoren bij dezelfde eigenvector. Laat zien dat A + B
eigenwaarde λ + µ heeft en AB eigenwaarde λµ.
Opgave 8.8.3 Zij A een n × n-matrix. Bewijs dat A en At dezelfde eigenwaardevergelijking hebben.
Opgave 8.8.4 Zij A een n × n matrix zó dat de som van de elementen uit elke
rij gelijk is aan 1. Bewijs dat A eigenwaarde 1 heeft.
Zij A een n × n-matrix zó dat de som van de elementen uit elke kolom gelijk is
aan 1. Bewijs dat A eigenwaarde 1 heeft.
Opgave 8.8.5 Zij A een n × n-matrix en λ een eigenwaarde. Laat zien dat Ak
eigenwaarde λk heeft voor elke k ∈ Z≥1 .
Stel bovendien dat A inverteerbaar is. Bewijs dat λ−1 een eigenwaarde is.
Opgave 8.8.6 Zij A een nilpotente n × n-matrix, dat wil zeggen, er is een
k ∈ Z≥0 zó dat Ak = O. Bewijs dat 0 de enige eigenwaarde van A is.
Opgave 8.8.7 Gegeven is

−3
A =  −7
−6
1
5
6

−1
−1 
2
Bereken de eigenwaarden en eigenvectoren. Bepaal een inverteerbare matrix S
zó dat S −1 AS een diagonaalmatrix is.
Is S uniek bepaald? Geef meerdere mogelijkheden voor S.
8.8. OPGAVEN
139
Opgave 8.8.8 Zelfde vraag als daarnet maar nu voor


1 −2 2
A =  −2 −2 4 
2
4 −2
Opgave 8.8.9 Zijn de volgende

1 −2
 −2 0
0
2
matrices diagonaliseerbaar?



0
2 0 0
1 2 0.
−2  ,
1
0 1 2
Opgave 8.8.10 Gegeven is de n×n diagonaal matrix Λ met elementen λ1 , . . . , λn
op de diagonaal. Gegeven is dat alle λi verschillend zijn. Zij S een inverteerbare
n × n-matrix zó dat S −1 ΛS = Λ. Bewijs dat S een diagonaalmatrix is.
Opgave 8.8.11 Zij A een n×n matrix met n verschillende positieve eigenwaarden. Bewijs dat er een matrix B bestaat zó dat B 2 = A. Is B uniek bepaald?
Opgave 8.8.12 Zij A en B een tweetal geconjugeerde n × n-matrices (dwz er
bestaat een inverteerbare S zó dat B = S −1 AS). Bewijs dat A en B dezelfde
eigenwaarde vergelijking hebben.
Opgave 8.8.13 Zij A, B een tweetal n × n-matrices. Bewijs dat AB en BA
dezelfde eigenwaardenvergelijking hebben. (Hint: begin met A of B inverteerbaar en gebruik de voorgaande opgave).
Laat ook zien dat Spoor(AB) = Spoor(BA).
Opgave 8.8.14 Gegeven is het polynoom q(t) = tn + an−1 tn−1 + · · · + a1 t + a0 .
Beschouw de matrix


−an−1 −an−2 · · · −a1 −a0
 1
0
···
0
0 


 0

1
·
·
·
0
0
Q=
.. 
 ...
. 


 0
0
···
0
0 
0
0
···
1
0
Bewijs dat det(Q − λIn ) = (−1)n q(λ). Met andere woorden, q(λ) = 0 is de
eigenwaardevergelijking van Q.
Opgave 8.8.15 Verifieer de Stelling van Cayley-Hamilton aan de hand van het
voorbeeld
(
)
1 1
M=
2 3
Opgave 8.8.16 Zij A een inverteerbare 2 × 2-matrix met eigenwaardevergelijking λ2 + aλ + b = 0. Laat zien dat A−1 gegeven wordt door A−1 = − 1b A − ab I2 .
140
HOOFDSTUK 8. EIGENWAARDEN EN EIGENVECTOREN
Opgave 8.8.17 Zij M een n×n-matrix met alleen maar eigenwaarden 0. Bewijs
dat M nilpotent is (hint: gebruik Cayley-Hamilton).
Opgave 8.8.18 Beschouw de lineaire afbeelding A : R3 → R3 gegeven door de
matrix


1 −2 0
M =  −2 0 −2  .
0
2
1
1. Bereken de eigenwaarden en eigenvectoren van A.
2. Bereken de kern van A.
3. Bepaal een basis van A(R3 ).
Opgave 8.8.19 De lineaire afbeelding A :
matrix

7 −3 −1
 −3 7
1

 −1 1
7
1 −1 −3
R4 → R4 wordt gegeven door de

1
−1 
.
−3 
7
Bereken de eigenwaarden en eigenvectoren van A.
Opgave 8.8.20 Zij α ∈ R. De lineaire afbeelding Aα : R3 → R3 heeft de
matrix


1 −α2 + α − 2
0
1
2α − 1
α − 1.
0
4
1
1. Bereken de eigenwaarden van Aα .
2. Eén eigenwaarde is onafhankelijk van α. Bepaal de eigenruimte behorend
bij deze eigenwaarde.
3. Voor welke waarde(n) van α heeft Aα een tweedimensionale eigenruimte
in R3 ?
Opgave 8.8.21 De lineaire afbeelding A : R3 → R3 wordt gegeven door de
matrix


−10 7 11
 −6 5 6  .
−6 4 7
Bereken de eigenwaarden en eigenvectoren van A.
Opgave 8.8.22 De lineaire afbeelding A : R3 → R3 heeft de eigenwaarden
1, −1 en 0. Ten opzichte van de standaardbasis is (1, 1, 1) een eigenvector bij
de eigenwaarde 1, (1, 2, 0) een eigenvector bij de eigenwaarde −1 en (3, 0, 1) een
eigenvector bij de eigenwaarde 0. Bereken de matrix van A ten opzichte van de
standaardbasis.
8.8. OPGAVEN
141
Opgave 8.8.23 De lineaire afbeelding A : R3 → R3 heeft ten opzichte van de
standaardbasis de matrix


−3 1 −1
 −7 5 −1  .
−6 6 2
1. Bereken de eigenwaarden van A en de corresponderende eigenvectoren.
2. Is het mogelijk om een basis e1 , e2 , e3 te vinden, zó dat de matrix van
A ten opzichte van deze basis een diagonaalmatrix is? Hoeveel van deze
bases kunnen gevonden worden?
Opgave 8.8.24 Zelfde opgave als daarnet, maar nu met de matrix


1 −2 2
 −2 −2 4  .
2
4 −2
Opgave 8.8.25 Dezelfde vragen als daarnet maar nu twee afbeeldingen B :
R3 → R3 en C : R3 → R3 met respectievelijk de matrices




1 −2 0
2 0 0
 −2 0 −2 
1 2 0.
0
2
1
0 1 2
Opgave 8.8.26 In een n-dimensionale vectorruimte V zijn A : V → V en
B : V → V een tweetal lineaire afbeeldingen.
1. (Lastig als A, B niet inverteerbaar) Bewijs dat de lineaire afbeeldingen
AB en BA dezelfde eigenwaarden hebben.
2. Als A een bijectieve afbeelding is en λ een eigenwaarde van A, dan is λ−1
een eigenwaarde van A−1 .
3. Bewijs dat, als A een eigenwaarde λ heeft met bijbehorende eigenvector
v, deze vector tevens eigenvector van An is met eigenwaarde λn .
4. Zij A, B en tweetal n × n-matrices. Bewijs dat Spoor(AB) = Spoor(BA).
Opgave 8.8.27 Zij A : Rn → Rn een lineaire afbeelding. Gegeven is dat
A2 = A. Bewijs dat elke eigenwaarde van A of 0 of 1 is.
(
)
α β
2
2
Opgave 8.8.28 De lineaire afbeelding A : R → R heeft de matrix
γ δ
met γ ̸= 0. Bovendien is gegeven dat A2 = A.
α β = 0. Druk β in α en γ uit.
1. Bewijs dat α + δ = 1 en dat γ δ
2. Bereken de eigenwaarden van A of beredeneer welke eigenwaarden A heeft.
142
HOOFDSTUK 8. EIGENWAARDEN EN EIGENVECTOREN
Opgave 8.8.29 De lineaire afbeelding A : R3 → R3 heeft de matrix


2 1 −1
2 2 1 .
3 0 3
1. Bereken de eigenwaarden van A en bepaal de corresponderende eigenruimten.
2. Bepaal de vergelijking van het vlak dat onder A invariant is.
Opgave 8.8.30 Zij M22 (C) de vectorruimte van twee bij twee matrices met
elementen in C. Een basis van deze vectorruimte wordt gegeven door
(
)
(
)
(
)
(
)
1 0
0 1
0 0
0 0
f1 =
, f2 =
, f3 =
, f4 =
.
0 0
0 0
1 0
0 1
Definieer de afbeelding T : M22 (C) → M22 (C) door
(
)
(
)
a b
a b
T :
7→ M
M t,
c d
c d
(
)
2 0
waarin M =
.
1 −1
1. Bewijs dat T een lineaire afbeelding is.
2. Bepaal de matrix van T ten opzichte van f1 , f2 , f3 , f4 .
3. Bepaal de eigenwaarden en eigenvectoren van T .
Opgave 8.8.31 Zij C[X]2 de ruimte van polynomen van graad hooguit 2 met
coefficienten in C. Definieer de afbeelding T : C[X]2 → C[X]2 door T : p(X) 7→
p(X + 1).
1. Bewijs dat T lineair is.
2. Bepaal de matrix van T ten opzichte van de basis 1, X, X 2 .
3. Bepaal de eigenwaarden en eigenvectoren van T .
Opgave 8.8.32 Definieer T : R[X] → R[X] door T : p(X) 7→
∫X
0
p(t)dt.
1. Bewijs dat T een lineaire afbeelding is, en dat T injectief, maar niet
surjectief is.
2. Bewijs dat T geen eigenvectoren heeft.
Opgave 8.8.33 Zij R[X]n de vectorruimte van polynomen met graad ≤ n.
Definieer T : R[X]n → R[X]n door T : p(X) 7→ p(X) + Xp′ (X).
1. Bewijs dat T inderdaad R[X]n naar zichzelf afbeeldt en lineair is.
8.8. OPGAVEN
143
2. Laat zien dat 1, X, X 2 , . . . , X n een basis van R[X]n is.
3. Vindt alle eigenwaarden en eigevectoren van T in het geval dat n = 2.
4. Vindt alle eigenwaarden en eigenvectoren in het algemene geval.
Opgave 8.8.34 Definieer T : R[X] → R[X] door T : p(X) 7→ xp′′ (X) + p′ (X).
Bepaal alle eigenwaarden en eigenvectoren van T .
Opgave 8.8.35 Zij R[X]n de vectorruimte van polynomen met graad ≤ n.
Definieer T : R[X]n → R[X]n door T : p(X) 7→ −p′′ (X) + Xp′ (X).
1. Bewijs dat T inderdaad R[X]n naar zichzelf afbeeldt en lineair is.
2. Laat zien dat 1, X, X 2 , . . . , X n een basis van R[X]n is.
3. Vindt alle eigenwaarden van T in het geval dat n = 2.
4. Vindt alle eigenwaarden in het algemene geval.
Opgave 8.8.36 Zij R[X]n de vectorruimte van polynomen met graad ≤ n.
Definieer T : R[X]2 → R[X]2 door T : p(X) 7→ (X 3 − X)p′′ (X) + X 2 p′ (X) −
4Xp(X).
1. Verifieer dat T de ruimte R[X]2 naar zichzelf afbeeldt en dat T lineair is.
2. Schrijf de matrix van T uit ten opzichte van de geordende basis 1, X, X 2 .
3. Bepaal de eigenwaarden en eigenvectoren van T .
4. Laat zien dat T de ruimte R[X]3 niet naar zichzelf afbeeldt.
Opgave 8.8.37 Beschouw de lineaire afbeelding A : R∞ → R∞ gegeven door
A : (x1 , x2 , . . .) 7→ (0, x1 , x2 , . . .) (’shift operator’). Bewijs dat A geen eigenvectoren heeft.
Opgave 8.8.38 Bewijs dat de functies sin(kx) voor k = 1, 2, . . . lineair onafhankelijk zijn door middel van Stelling 8.3.1 en een geschikte lineaire afbeelding van de ruimte C ∞ (R) naar zichzelf.
Hoofdstuk 9
Vectorruimten met inproduct
9.1
Inwendige producten
Zij V een vectorruimte over R. Een inwendig product op V is een functie
V × V → R, genoteerd met x, y 7→ ⟨x, y⟩, die aan de volgende eigenschappen
voldoet.
1. ⟨x, y⟩ = ⟨y, x⟩ voor elke x, y ∈ V .
2. ⟨λx, y⟩ = λ ⟨x, y⟩ voor elke x, y ∈ V en λ ∈ V .
3. ⟨x + y, z⟩ = ⟨x, z⟩ + ⟨y, z⟩ voor elke x, y, z ∈ V .
4. ⟨x, x⟩ ≥ 0 voor alle x ∈ V en bovendien: ⟨x, x⟩ = 0 ⇐⇒ x = 0.
Eigenschappen (ii) en (iii) laten zien dat een inproduct linear is in het eerste
argument. Wegens de symmetrie (i) geldt nu dat een inproduct ook lineair is
in het tweede argument. Dat wil zeggen:
⟨x, λy + µz⟩ = λ ⟨x, y⟩ + µ ⟨x, z⟩
voor alle x, y, z ∈ V en λ, µ ∈ R.
Hier zijn een aantal voorbeelden.
Voorbeeld 9.1.1. V = Rn met het standaard inproduct of dotproduct
♢
Voorbeeld 9.1.2. V = R∞
0 , de ruimte van oneindige rijen reële getallen die
vanaf zeker moment nul zijn. Als inproduct kunnen we nemen:
⟨(x1 , x2 , x3 , . . .), (y1 , y2 , y3 , . . .)⟩ = x1 y1 + x2 y2 + x3 y3 + · · ·
♢
2
Voorbeeld 9.1.3. (optioneel) Iets interessanter is de deelruimte
R∞
∑l∞ van
2
bestaande uit alle oneindige rijen (x1 , x2 , x3 , . . .) zó dat de reeks i=1 xi convergent is. Dat l2 een deelruimte is, volgt uit de volgende observaties.
144
9.1. INWENDIGE PRODUCTEN
1. 0 = (0, 0, . . .) ∈ l2 want
∑∞
i=1 0
145
2
= 0.
2. Stel ∑
x = (x1 , x2 , . . .) en λ ∈ R. Dan convergeert de reeks
2
2
ook ∞
i=1 (λxi ) . Dus λx ∈ l .
∑∞
2
i=1 xi ,
en dus
3. Stel
. . .) en y = (y1 , y2 , . . .). Dan geldt
∑n x = (x12, x2 ,∑
∑∞voor2 elke∑n∞ dat2
n
2 + y 2 ). Omdat de reeksen
(x
+
y
)
≤
2(x
i
i
i
i
i=1
i=1
i=1 xi en
i=1 yi
∑
2 ook.
convergeren, convergeert ∞
(x
+
y
)
i
i=1 i
∑
Als inproduct van x = (x1 , x2 , . . .) en y = (y1 , y2 , . . .) nemen we ∞
i=1 xi yi .
We moeten wel laten zien dat deze reeks convergeert. Deze convergentie blijkt
zelfs absoluut te zijn. Voor elke n geldt namelijk volgens de ongelijkheid van
Schwarz dat,
v
v
u n
u n
n
∑
u∑
u∑
2
t
xi · t
yi2 .
|xi yi | ≤
i=1
Omdat de reeksen
ook.
∑∞
2
i=1 xi
en
∑∞
i=1
2
i=1 yi
i=1
convergeren, convergeert
∑∞
i=1 |xi yi |
♢
Voorbeeld 9.1.4. V = R2 met
⟨(x1 , y1 ), (x2 , y2 )⟩ = 2x1 y1 + x1 y2 + x2 y1 + 2x2 y2
Opgave: ga zelf na dat dit een inproduct is. We zien hiermee onder anderen
dat er vele andere inproducten op R2 , en ook Rn , zijn naast het gebruikelijke
dotproduct.
♢
Voorbeeld∫ 9.1.5. V = C([0, 1]), de verzameling van continue functies op [0, 1]
1
en ⟨f, g⟩ = 0 f (x)g(x)dx. We zullen eigenschappen (i) tot en met (iv) voor dit
inproduct controleren.
∫1
∫1
1. ⟨f, g⟩ = 0 f (x)g(x)dx = 0 g(x)f (x)dx = ⟨g, f ⟩.
∫1
∫1
2. ⟨λf, g⟩ = 0 λf (x)g(x)dx = λ 0 f (x)g(x)dx = λ ⟨f, g⟩.
∫1
∫1
∫1
3. ⟨f + g, h⟩ = 0 (f (x) + g(x))h(x)dx = 0 f (x)h(x)dx + 0 g(x)h(x)dx =
⟨f, h⟩ + ⟨g, h⟩.
∫1
∫1
4. ⟨f, f ⟩ = 0 f (x)2 dx ≥ 0 0 · dx = 0. We moeten nu nog laten zien
dat ⟨f, f ⟩ = 0 impliceert dat f (x) = 0 voor alle x ∈ [0, 1]. Vaak is
dit de lastigste stap in het bewijs dat we met een inproduct te maken
hebben. In dit geval maken gebruik van de continuiteit van f (x). Stel
namelijk dat er een punt x0 ∈ [0, 1] is met f (x0 ) ̸= 0. Dat betekent
dat f (x0 )2 > 0. Wegens de continuiteit van f (x)2 is er een δ > 0 zodat
f (x)2 ≥ f (x0 )2 /2 voor alle x0 ∈ [0, 1] ∩ ∫[−δ, δ]. De lengte van dit laatste
1
interval is minstens δ. Dat betekent dat 0 f (x)2 dx groter of gelijk δ maal
∫
1
f (x0 )2 /2 is. Conclusie, 0 f (x)2 dx > 0. Dit is in tegenspraak met het
gegeven dat de integraal 0 is. Het kan blijkbaar dus niet gebeuren dat
f (x0 ) ̸= 0. Gevolg, f (x0 ) = 0 voor alle x0 ∈ [0, 1].
146
HOOFDSTUK 9. VECTORRUIMTEN MET INPRODUCT
∫∞
♢
−x2
Voorbeeld 9.1.6. V = R[x] met als inproduct ⟨p, q⟩ = −∞ p(x)q(x)e dx.
Het bewijs dat dit een inproduct is verloopt op analoge wijze als bij het vorige
voorbeeld.
♢
Voorbeeld 9.1.7. Er zijn ook vectorruimten waarbij het helemaal niet duidelijk
is of er een inproduct op te definiëren valt. Probeer maar eens een inproduct
te bedenken op R∞ , of op C(R), de ruimte van continue functies op R.
♢
Stel dat V een vectorruimte
met inproduct is. We definiëren de lengte van een
√
vector v ∈ V als ⟨v, v⟩. Notatie: ||v||. Evenals bij het dotproduct geldt ook
hier de ongelijkheid van Cauchy-Schwarz.
Stelling 9.1.8 Zij V een vectorruimte met inproduct. Dan geldt voor elk tweetal x, y ∈ V de ongelijkheid
| ⟨x, y⟩ | ≤ ||x|| · ||y||.
Bewijs: Het bewijs kunnen we hier verbatim overnemen van het bewijs voor
het dotproduct. Als x = 0 dan zijn beide zijden van de ongelijkheid nul, en
dus klopt de ongelijkheid. Stel nu x ̸= 0. Dan geldt ook dat ||x|| > 0. Dit
volgt uit eigenschap (iv) van het inproduct. Voor elke keuze van λ ∈ R geldt
0 ≤ ||λx + y||. Laten we dit uitwerken.
0 ≤ ⟨λx + y, λx + y⟩
= λ2 ⟨x, x⟩ + 2λ ⟨x, y⟩ + ⟨y, y⟩
De rechterkant kan gezien worden als een kwadratische functie in λ die uitsluitend waarden ≥ 0 aanneemt. De discriminant is dus ≤ 0. Met andere woorden,
4 ⟨x, y⟩2 − 4 ⟨x, x⟩ ⟨y, y⟩ ≤ 0.
Hieruit volgt dat ⟨x, y⟩2 ≤ ⟨x, x⟩ ⟨y, y⟩ en dus de ongelijkheid van CauchySchwarz.
2
De ongelijkheid van Schwarz in het geval van de ruimte van continue functies
op [0, 1] luidt dus,
∫ 1
2 (∫ 1
) (∫ 1
)
2
2
f (x) dx
g(x) dx .
f (x)g(x)dx ≤
0
0
0
Het waren ongelijkheden van dit type die door H.A.Schwarz in zijn werk gebruikt werden.
Stel dat V een vectorruimte over R met een inproduct ⟨., .⟩. Voor elk tweetal
elementen x, y kunnen we afstand tussen x en y definiëren door ||x − y||. Voor
deze afstand geldt,
9.2. ORTHOGONALE EN ORTHONORMALE STELSELS
147
1. Voor alle x, y ∈ V geldt ||x − y|| = ||y − x|| en ||x − y|| ≥ 0.
2. Voor alle x, y, z ∈ V geldt
||x − y|| ≤ ||x − z|| + ||y − z||
(driehoeksongelijkheid).
3. ||x − y|| = 0 ⇐⇒ x = y.
Met de afstandsfunctie ||x−y|| is V een zogenaamde metrische ruimte geworden.
9.2
Orthogonale en orthonormale stelsels
Zij V een vectorruimte met inproduct. We zeggen dat twee vectoren x, y orthogonaal zijn ten aanzien van het inproduct als ⟨x, y⟩ = 0. Een verzameling
vectoren S ⊂ V heet orthogonaal stelsel als 0 ̸∈ S en ⟨x, y⟩ = 0 voor elk tweetal
verschillende vectoren x, y ∈ S. Een verzameling S ⊂ V heet orthonormaal
stelsel als S een orthogonaal stelsel is en bovendien ||x|| = 1 voor elke x ∈ S.
Stelling 9.2.1 Zij S een orthogonaal stelsel vectoren. Dan is S een onafhankelijk stelsel.
Bewijs: Stel dat we een relatie hebben van de vorm
λ1 x1 + λ2 x2 + · · · + λr xr = 0
met xi ∈ S. Kies i en neem aan beide zijden het inproduct met xi . We krijgen,
vanwege de lineariteit van het inproduct in zijn eerste argument,
λ1 ⟨x1 , xi ⟩ + λ2 ⟨x2 , xi ⟩ + · · · + λr ⟨xr , xi ⟩ = ⟨0, xi ⟩ = 0.
Wegens de orthogonaliteit van de vectoren xj zijn alle inproducten ⟨xk , xi ⟩ nul,
behalve die met k = i. We houden dus over,
λi ⟨xi , xi ⟩ = 0.
Gegeven is dat xi ̸= 0. Dus ⟨xi , xi ⟩ > 0 en we concluderen dat λi = 0. We
kunnen alleen maar triviale relaties tussen de elementen van S hebben, en dus
is S onafhankelijk.
2
Voorbeeld 9.2.2. (optioneel) Zij V∫ de vectorruimte van continue functies op
π
[−π, π] met als inproduct ⟨f, g⟩ = π1 −π f (x)g(x)dx. Dan is het stelsel functies
1
√ , sin x, cos x, sin 2x, cos 2x, . . . , sin mx, cos mx, . . .
2
een orthonormaal stelsel. Ter illustratie laten we de orthonormaliteit van het
stelsel functies sin mx met m ∈ Z>0 zien. We maken daarbij gebruik van de
gonio-identiteit
sin mx sin nx =
1
1
cos(m − n)x − cos(m + n)x.
2
2
148
HOOFDSTUK 9. VECTORRUIMTEN MET INPRODUCT
Stel nu m, n ∈ Z>0 . Merk op dat
∫
1 π
⟨sin mx, sin nx⟩ =
sin mx sin nxdx
π −π
∫ π
∫ π
1
1
=
cos(m − n)xdx −
cos(m + n)xdx
2π −π
2π −π
∫π
Als k ∈ Z en k ̸= 0 dan weten we dat −π cos kxdx = 0. Dus, als m ̸= n dan
volgt uit bovenstaande berekening dat
∫ π ⟨sin mx, 2sin nx⟩ = 0. Als m = n dan
1
vinden we dat ⟨sin mx, sin mx⟩ = 2π
−π (sin mx) · dx = 1.
We laten het aan de lezer over om orthonormaliteit van het stelsel inclusief de
overige vectoren aan te tonen.
♢
Een orthogonaal respectievelijk orthonormaal stelsel dat tevens basis is van de
vectorruimte V noemen we een orthogonale basis respectievelijk orthonormale
basis.
Stelling 9.2.3 Zij V een eindigdimensionale vectorruimte met inproduct. Dan
heeft V een orthonormale basis.
Bewijs: Het bewijs van deze stelling volgt door inductie naar dim(V ). Stel
dat dim(V ) = 1. In dat geval is de stelling duidelijk, elke vector met lengte 1
vormt een orthonormale basis.
Stel nu n = dim(V ) > 1, en neem aan dat de stelling bewezen is voor elke
vectorruimte van dimensie n − 1. Kies een basis v1 , v2 , . . . , vn van V . Definieer
nu
⟨vi , v1 ⟩
vi∗ = vi −
v1
⟨v1 , v1 ⟩
voor i = 2, . . . , n. Dan vormen v1 , v2∗ , . . . , vn∗ ook een basis van V en vi∗ is
orthogonaal met v1 voor alle i ≥ 2 (controleer dit door uit te rekenen!). De
deelruimte Span(v2∗ , . . . , vn∗ ) heeft dimensie n−1. Volgens de inductiehypothese
heeft deze deelruimte een orthonormale basis. Laten we deze w2 , . . . , wn noemen. Dan vormen de vectoren v1 , w2 , . . . , wn samen een orthonormale basis
van V .
2
In bovenstaand bewijs zit een inductief proces verborgen om daadwerkelijk een
orthormale basis te construeren. Deze constructie staat bekend als het GramSchmidt procédé.
Gegeven een basis v1 , v2 , . . . , vn van een vectorruimte V met inproduct. Vorm
hieruit de zogenaamde Gram-matrix met als elementen de inproducten ⟨vi , vj ⟩.
Vul deze Gram-matrix van rechts aan met de vectoren v1 , . . . , vn . Dus,

⟨v1 , v1 ⟩
 ⟨v2 , v1 ⟩

..

.
···
···
⟨vn , v1 ⟩ · · ·
⟨v1 , vn ⟩ ⟨v2 , vn ⟩ ..
.
⟨vn , vn ⟩

v1
v2 
.
.. 
. 
vn
9.2. ORTHOGONALE EN ORTHONORMALE STELSELS
149
We brengen nu door rijen te vegen de Gram-matrix in bovendriehoeksvorm. We
mogen hierbij alleen veelvouden van rijen bij andere rijen optellen of aftrekken!
Verwisseling van rijen of scalaire vermenigvuldiging met een rij is absoluut verboden! Bij het veegproces nemen we ook de vectoren rechts van de Gram-matrix
mee. Het resultaat is een nieuwe basis w1 , w2 , . . . , wn van V zó dat


⟨w1 , v1 ⟩ · · · ⟨w1 , vn ⟩ w1
 ⟨w2 , v1 ⟩ · · · ⟨w2 , vn ⟩ w2 

. ,
..
..
.. 

.
.
⟨wn , v1 ⟩ · · · ⟨wn , vn ⟩ wn
en wi ∈ Span(v1 , . . . , vi ) voor alle i en wi ⊥ vj voor alle i, j met j <
i. In het bijzonder volgt hieruit dat wi loodrecht staat op alle vectoren in
Span(v1 , . . . , vi−1 ) en in het bijzonder, wi ⊥ wj voor alle j = 1, 2, . . . , i − 1. De
vectoren w1 , . . . , wn vormen een orthogonale basis van V en door de vectoren
te normaliseren krijgen we een orthonormale basis.
Een bijzondere bonus van deze procedure is dat de diagonaalelementen van de
gereduceerde matrix precies de inproducten ⟨wi , wi ⟩ zijn.
Voorbeeld 9.2.4. Gevraagd een orthonormale basis van de deelruimte W ⊂ R4
opgespannen door (1, 1, 0, 1), (2, 0, 1, 1), (0, 1, −1, 0). Laten we deze vectoren
aangeven met respectievelijk v1 , v2 en v3 . Als inproduct nemen we het standaard inproduct op R4 . De Gram matrix wordt

 

⟨v1 , v1 ⟩ ⟨v1 , v2 ⟩ ⟨v1 , v3 ⟩
3 3
1
 ⟨v2 , v1 ⟩ ⟨v2 , v2 ⟩ ⟨v2 , v3 ⟩  =  3 6 −1  .
⟨v3 , v1 ⟩ ⟨v3 , v2 ⟩ ⟨v3 , v3 ⟩
1 −1 2
Samen met de rijvectoren v1 , v2 , v3 geeft

3 3
1 1
 3 6 −1 2
1 −1 2 0
dit de matrix

1 0 1
0 1 1.
1 −1 0
We passen nu veegoperaties toe zodanig dat de Gram-matrix in bovendriehoeksvorm
komt. In de eerste kolom vegen,


1
0
1
3 3
1 1
0 3
−1 1
0 .
−2 1
0 −2 5/3 −1/3 2/3 −1 −1/3
In de tweede kolom vegen,


1
0
1
3 3 1 1
 0 3 −2 1
−1
1
0 .
0 0 1/3 1/3 0 −1/3 −1/3
De rijvectoren in het rechterdeel zijn nu orthogonaal geworden en de gevraagde
orthonormale basis wordt gegeven door
1
1
1
√ (1, 1, 0, 1), √ (1, −1, 1, 0), √ (1, 0, −1, −1).
3
3
3
150
HOOFDSTUK 9. VECTORRUIMTEN MET INPRODUCT
Merk op dat de diagonaalelementen 3, 3, 1/3 precies de lengten in het kwadraat
van de orthogonale basisvectoren zijn.
♢
Voorbeeld 9.2.5. Zij V = R2 met inproduct ⟨(x1 , x2 ), (y1 , y2 )⟩ = 2x1 y1 +
x1 y2 + x2 y1 + 2x2 y2 . We starten met v1 = (1, 0), v2 = (0, 1). De bijbehorende
Gram-matrix is
(
)
2 1
.
1 2
Samen met v1 , v2 geeft dit
(
2 1 1
1 2 0
0
1
)
Vegen in eerste kolom van de Gram-matrix,
(
)
2 1 1
0
.
0 3/2 −1/2 1
De vectoren (1, 0) en√
(−1/2,√
1) zijn orthogonaal met betrekking van ons inproduct. De lengtes zijn 2 en 3/2. De orthonormale basis wordt dus
1
√ (1, 0),
2
1
√ (−1, 2).
6
♢
∫1
Voorbeeld 9.2.6. Zij V = R[x] met inproduct ⟨p, q⟩ = 0 p(x)q(x)dx. We
nemen v0 = 1, v1 = x, v2 = x2 , . . . , vn = xn , . . . en passen hierop het GramSchmidt procédé toe. Laten we, om de gedachten te bepalen, beginnen met
1, x, x2 . De Gram-matrix wordt


1 1/2 1/3
 1/2 1/3 1/4  .
1/3 1/4 1/5
Uitgebreid met de vectoren 1, x, x2 geeft dit

1 1/2 1/3
 1/2 1/3 1/4
1/3 1/4 1/5
We vinden achtereenvolgens,

1 1/2
 0 1/12
0 1/12
en

1
0
0
1/3
1/12
4/45
1/2
1/3
1/12 1/12
0
1/180

1
x .
x2

1
x − 1/2 
x2 − 1/3

1
x − 1/2  .
x2 − x + 1/6
9.2. ORTHOGONALE EN ORTHONORMALE STELSELS
151
We zien dat
x2 −x+1/6 een orthognaal stelsel vormen en hun lengtes
√
√ 1, x−1/2,
zijn 1, 1/ 12, 1/ 180. Het is duidelijk dat we dit proces kunnen voortzetten
met x3 , x4 , . . .. We vinden de polynomen
P0 (x) = 1
P1 (x) = x −
1
2
P2 (x) = x2 − x +
1
6
3
3
1
P3 (x) = x3 − x2 + x −
2
5
20
..
..
.
.
De polynomen die we op deze wijze krijgen zijn, op een factor na, de zogenaamde
Legendre polynomen op het interval [0, 1]. De algemene formule luidt
( )n
d
1
xn (x − 1)n .
Pn (x) =
2n(2n − 1) · · · (n + 1) dx
Deze polynomen vormen een voorbeeld van zogenaamde orthogonale polynomen
en zijn belangrijk in vele, vaak numerieke, toepassingen.
∫∞
2
Het orthogonalisatieprocédé ten aanzien van ⟨p, q⟩ = −∞ p(x)q(x)e−x dx levert
weer een andere klasse van orthogonale polynomen op, de zogenaamde Hermite
polynomen.
♢
Hoewel we gezien hebben dat er op Rn vele inproducten mogelijk zijn, blijkt
het in de praktijk wel weer mee te vallen. De volgende stelling is daar verantwoordelijk voor.
Een orthonormale basis e1 , . . . , en van een eindigdimensionale vectorruimte met
inproduct heeft de eigenschap dat
{
1 als i = j
⟨ei , ej ⟩ = δij =
0 als i ̸= j
Het symbool δij staat bekend als de Kronecker delta.
Stelling 9.2.7 Zij V een eindigdimensionale vectorruimte met inproduct en
zij e1 , . . . , en een orthonormale basis. Van het tweetal vectoren x, y ∈ V geven
we de coördinaten t.o.v. de geordende basis e1 , . . . , en aan met x1 , x2 , . . . , xn
respectievelijk y1 , y2 , . . . , yn . Dan geldt:
⟨x, y⟩ = x1 y1 + x2 y2 + · · · + xn yn .
Bewijs: Deze stelling kunnen we afleiden door in ⟨x, y⟩ de expansies x =
x1 e1 + · · · + xn en en y = y1 e1 + · · · + yn en in te vullen en van de lineariteitseigenschappen van het inproduct gebruik te maken.
⟨ n
⟩
n
∑
∑
⟨x, y⟩ =
xi e i ,
yj ej
i=1
j=1
152
HOOFDSTUK 9. VECTORRUIMTEN MET INPRODUCT
=
n ∑
n
∑
xi yj ⟨ei , ej ⟩
i=1 j=1
=
=
n ∑
n
∑
xi yj δij
i=1 j=1
n
∑
xi yi
i=1
= x1 y1 + x2 y2 + · · · + xn yn
2
9.3
Orthogonale projecties
Zij V een vectorruimte met inproduct en W een deelverzameling. Het orthogonaal complement van W is de verzameling vectoren
{v ∈ V | ⟨v, w⟩ = 0 voor alle w ∈ W }.
Notatie: W ⊥ .
Het zal duidelijk zijn dat iedere vector uit W loodrecht op alle vectoren van
W ⊥ staat. Dus W ⊂ (W ⊥ )⊥ . Verder geldt dat W ∩ W ⊥ = {0}. Stel namelijk
x ∈ W en x ∈ W ⊥ . Dat betekent dat x loodrecht op zichzelf staat, m.a.w.
⟨x, x⟩ = 0. Maar dit impliceert dat x = 0.
Stelling 9.3.1 Zij V een vectorruimte met inproduct en W een eindigdimensionale deelruimte. Dan bestaat er bij iedere v ∈ V een uniek bepaalde vector
w ∈ W zó dat v − w ∈ W ⊥ .
Bewijs: We zullen eerst een vector w aangeven die inderdaad de gewenste
eigenschap heeft. Neem hiertoe een orthonormale basis e1 , . . . , em van W . Dan
heeft de vector
w = ⟨e1 , w⟩ e1 + ⟨e2 , w⟩ e2 + · · · + ⟨em , w⟩ em
de eigenschap dat v − w ∈ W ⊥ . Om dit aan te tonen is het voldoende om te
laten zien dat v − w ⊥ ei voor i = 1, 2, . . . , m. En inderdaad,
⟨ei , v − w⟩ = ⟨ei , v⟩ −
= ⟨ei , v⟩ −
m
∑
j=1
m
∑
⟨ej , v⟩ ⟨ei , ej ⟩
⟨ej , v⟩ δij
j=1
= ⟨ei , v⟩ − ⟨ei , v⟩ = 0
De existentie van een w zo dat v − w ∈ W ⊥ is hiermee aangetoond. Nu moeten
we nog laten zien dat w uniek bepaald is. Stel dat we een andere vector w′
9.3. ORTHOGONALE PROJECTIES
153
hebben zo dat v − w′ ∈ W ⊥ . Dan geldt w − w′ = (v − w′ ) − (v − w) ∈ W ⊥ .
Anderzijds geldt ook dat w − w′ ∈ W . Omdat W en W ⊥ een triviale doorsnede
hebben, moet gelden w − w′ = 0, en dus w = w′ . Daarmee is ook de uniciteit
van w aangetoond.
2
We noemen de vector w de loodrechte of orthogonale projectie van v op W . De
afbeelding v 7→ w noemen we ook de orthogonale projectie op W en we zullen
deze afbeelding aangeven met PW . Als verder e1 , . . . , em een orthonormale
basis van W is, dan hebben in bovenstaand bewijs gezien dat
PW (v) = ⟨e1 , v⟩ e1 + ⟨e2 , v⟩ e2 + · · · + ⟨em , v⟩ em .
(9.1)
Stelling 9.3.2 Neem notaties zoals hierboven. De afbeelding PW : V → V is
een lineaire afbeelding. Bovendien geldt dat ⟨x, PW (y)⟩ = ⟨PW (x), y⟩ voor elk
tweetal x, y ∈ V .
Bewijs: Dat PW lineair is volgt direct uit formule (9.1). Omdat x − PW (x)
in W ⊥ bevat is, geldt dat ⟨x, PW (y)⟩ = ⟨PW (x), PW (y)⟩. Dezelfde redenatie
kunnen we ook voor y houden en daarmee zien we dat het laatste inproduct
gelijk is aan ⟨PW (x), y⟩.
2
Voorbeeld 9.3.3. Zij W een deelruimte van R4 opgespannen door w1 =
(1, 1, 0, 2)t en w2 = (1, −1, −1, 1)t . Bepaal de orthogonale projectie van de
vector a = (1, 0, 0, 1)t op W .
Allereerst bepalen we een orthonormale basis van W met het Gram-Schmidt
procédé toegepast op w1 , w2 . Schrijf deze vectoren in rij-vorm, aangevuld met
de Gram-matrix van w1 , w2
(
)
6 2 1 1
0 2
2 4 1 −1 −1 1 .
Veeg de eerste kolom van de Gram-matrix,
(
6
2
1
1
0 10/3 2/3 −4/3
0
−1
2
1/3
)
.
De tweede rij vector staat nu loodrecht op de eerste. We krijgen een orthonormale basis als we de lengtes op 1 normaliseren. Dus een orthonormale basis
wordt gegeven door
1
f1 = √ (1, 1, 0, 2),
6
1
f2 = √ (2, −4, −3, 1).
30
Volgens Stelling ?? wordt de projectie van a = (1, 0, 0, 1)t gegeven door
(a · f1 )f1 + (a · f2 )f2 =
=
3
3
(1, 1, 0, 2)t + (2, −4, −3, 1)t
6
30
1
(7, 1, −3, 11)t
10
154
HOOFDSTUK 9. VECTORRUIMTEN MET INPRODUCT
We kunnen ook de matrix van de orthogonale projectie uitrekenen. Dit doen
we bijvoorbeeld door de projectie van de standaard basisvectoren e1 , e2 , e3 , e4
van R4 uit te rekenen.
(e1 · f1 )f1 + (e1 · f2 )f2 =
(e2 · f1 )f1 + (e2 · f2 )f2 =
(e3 · f1 )f1 + (e3 · f2 )f2 =
(e4 · f1 )f1 + (e4 · f2 )f2 =
1
(3, −1, −2, 4)t
10
1
(−1, 7, 4, 2)t
10
1
(−2, 4, 3, −1)t
10
1
(4, 2, −1, 7)t
10
De matrix van de projectie bestaat uit de beelden van e1 tot en met e4 , kolomsgewijs opgeschreven,


3 −1 −2 4
1 
4
2 
 −1 7

3 −1 
10  −2 4
4
2 −1 7
Merk op dat deze matrix symmetrisch is!
♢
Tevens volgt uit bovenstaande de volgende belangrijke opmerking.
Opmerking 9.3.4 Zij V een eindigdimensionale vectorruimte met inproduct
en e1 , e2 , . . . , en een geordende orthonormale basis. Dan worden de coördinaten
van een vector x ∈ V t.o.v e1 , . . . , en gegeven door ⟨e1 , x⟩ , ⟨e2 , x⟩ , . . . , ⟨en , x⟩.
Een tweede belangrijke opmerking betreft matrices van lineaire afbeeldingen
ten opzichte van orthonormale bases.
Opmerking 9.3.5 Zij V een eindigdimensionale vectorruimte met inproduct
en e1 , e2 , . . . , en een geordende orthonormale basis. Zij A : V → V een lineaire
afbeelding. Zij A de matrix van A ten opzichte van de basis e1 , e2 , . . . , en . Zij
aij het matrix element van A op plaats i, j. Dan geldt aij = ⟨ei , Aej ⟩.
Bewijs: Het matrixelement aij is de i-de coördinaat van Aej ten opzichte van
de basis e1 , . . . , en . Dus volgt uit voorgaande opmerking dat aij = ⟨ei , Avj ⟩
2
Studenten die ook colleges quantummechanica volgen, komen bovenstaande
regels talloze malen tegen.
Voorbeeld 9.3.6. (optioneel) Een mooie toepassing van orthogonale projectie
is die van de zogenaamde Fouriersommen. We starten met de continue
functies
∫π
op het interval [−π, π], dus C([−π, π]), met inproduct ⟨f, g⟩ = π1 π f (x)g(x)dx.
We projecteren deze loodrecht op de ruimte W opgespannen door
1
√ , sin x, cos x, sin 2x, cos 2x, . . . , sin mx, cos mx.
2
9.3. ORTHOGONALE PROJECTIES
155
We zagen eerder dat deze functies een orthormaal stelsel vormen. Ter illustratie
√
starten we met de functie f (x) = x en projecteren deze op W . Omdat x/√ 2 en
x cos kx oneven zijn voor elke k, zien we dat het inproduct van x met 1/ 2 en
de functie cos kx, k ∈ Z>0 nul is. We hoeven dus alleen het inproduct van x en
sin kx, k ∈ Z>0 uit te rekenen. We doen dit met partiele integratie als volgt.
∫
1 π
⟨x, sin kx⟩ =
x sin kxdx
π −π
∫ π
1
1
π
cos kxdx
=
[−x(cos kx)/k]−π +
π
πk −π
= 2 · (−1)k−1 /k.
In de één na laatste regel gebruiken we dat de integraal van de symmetrische
cos kx nul is. De gevraagde projectie wordt dus:
(
)
sin x sin 2x sin 3x
m−1 sin mx
fm (x) := 2
.
−
+
+ · · · + (−1)
·
1
2
3
m
Hier zie je een plaatje van de grafieken van x en de projectie f10 (x),
4
2
-3
-2
1
-1
2
3
-2
-4
Hier zie je een plaatje van de grafieken van x en de projectie f50 (x),
4
2
-3
-2
1
-1
2
3
-2
-4
♢
156
HOOFDSTUK 9. VECTORRUIMTEN MET INPRODUCT
Voorbeeld 9.3.7. (optioneel) Een mooie toepassing van loodrechte projecties is die van de zogenaamde kleinste kwadraten methode van Gauss. Deze
wordt gebruikt om de optimale rechte lijn te bepalen die langs een stel meetpunten gaat bij bijvoorbeeld een fysisch experiment. In zo’n experiment doen
we metingen van een grootheid, zeg y, die met de tijd t varieert. We nemen
aan dat de afhankelijkheid van y met de tijd t gegeven wordt door een lineaire functie y = at + b waarvan de coëfficienten a, b onbekend zijn. We willen
graag de waarden van a, b uit ons experiment willen bepalen. We doen de meting op een aantal tijdstippen t1 , t2 , . . . , tn . De bijbehorende meetwaarden zijn
y1 , y2 , . . . , yn . Door allerlei meetfouten, storingen, etc zullen de punten (ti , yi )
niet precies op één rechte lijn liggen. De vraag is nu om die a, b te bepalen zó
dat de punten (ti , yi ) gezamenlijk zo dicht mogelijk bij de lijn y = at + b komen
te liggen. Door overwegingen van practische aard wordt deze vraag als volgt
concreet gemaakt: Bepaal a, b zodanig dat (−y1 +at1 +b)2 +· · ·+(−yn +atn +b)2
een minimale waarde heeft. Ervan uitgaande dat de meetfouten een statistisch
normale verdeling hebben, geeft deze aanpak de meest waarschijnlijke waarden
voor a, b.
We kunnen deze vraag een meetkundige interpretatie geven. Gegeven is het
punt y = (y1 , . . . , yn )t ∈ Rn . Verder hebben we de deelruimte W opgespannen
door t = (t1 , . . . , tn )t en 1 = (1, . . . , 1)t . De som van de kwadraten is gelijk aan
het kwadraat van de afstand | − y + at + b1|. Minimalisatie van deze afstand
komt nu neer op de bepaling van de loodrechte projectie van y op W (zie opgave
9.4.8). We moeten dus a, b bepalen zó dat −y +at+b1 loodrecht staat op zowel
t als 1. Dit geeft ons twee lineaire vergelijkingen, te weten
0 = (−y + at + b1) · t = −(y · t) + a(t · t) + b(1 · t)
= −t1 y1 − · · · − yn tn + a(t21 + · · · + t2n ) + b(t1 + · · · + tn )
0 = (−y + at + b1) · 1 = −(y · 1) + a(t · 1) + b(1 · 1)
= −y1 − · · · − yn + a(t1 + · · · + tn ) + bn
Oplossing van a, b hieruit levert ons
( )
(
)
1
a
ty − (y)2
=
2
b
t2 − (t)2 (t )(y) − (t)(ty)
waarin we de volgende afkortingen gebruiken,
t =
t2 =
y =
ty =
1
(t1 + · · · + tn )
n
1 2
(t + · · · + t2n )
n 1
1
(y1 + · · · + yn )
n
1
(t1 y1 + · · · + tn yn )
n
De methode werd in 1809 door C.F.Gauss gepubliceerd. Een spectaculaire
toepassing was het gebruik van de methode in de herontdekking van de destijds
pas gevonden planetoı̈de Ceres. Deze planetoı̈de was in 1801 door de astronoom
9.4. OPGAVEN
157
G.Piazzi ontdekt. Na 40 dagen verdween Ceres uit het zicht doordat hij achter
de zon verdween. Dank zij Gauss’ berekeningen kon hij een jaar later weer
worden teruggevonden.
♢
9.4
Opgaven
Opgave 9.4.1 Verifieer in de volgende onderdelen dat de opspannende vectoren
van W orthogonaal zijn en bepaal de projectie van b op W .
1. W = Span((2, 3, 1), (−1, 1, −1)) en b = (2, 1, 4).
2. W = Span((−1, 0, 1), (1, 1, 1)) en b = (1, 2, 3).
3. W = Span((1, −1, −1, 1), (1, 1, 1, 1), (−1, 0, 0, 1)) en b = (2, 1, 3, 1).
4. W = Span((1, −1, 1, 1), (−1, 1, 1, 1), (1, 1, −1, 1)) en b = (1, 4, 1, 2).
Opgave 9.4.2 Vind een orthonormale basis voor de vectoren in de deelruimte
gegeven door 2x + 3y + z = 0.
Opgave 9.4.3 Bepaal een orthonormale basis voor de deelruimte in R4 gegeven
door x1 = x2 + 2x3 en x4 = −x2 + x3 .
Opgave 9.4.4 Pas het Gram-Schmidt procédé toe op de vectoren (1, 0, 1), (0, 1, 2), (2, 1, 0).
Opgave 9.4.5 Pas het Gram-Schmidt procédé toe op de vectoren
(1, 0, 1, 0), (1, 1, 1, 0), (1, −1, 0, 1) ∈ R4 .
Opgave 9.4.6 Pas het Gram-Schmidt procédé toe op de vectoren
(1, −1, 1, 0, 0), (−1, 0, 0, 0, 1), (0, 0, 1, 0, 1), (1, 0, 0, 1, 1) ∈ R5 .
Opgave 9.4.7 Beschouw de lineaire deelruimte W ⊂ R4 gegeven door
x1 + x2 − 2x3 = 0, x1 − 2x2 + x4 = 0.
Hierin zijn x1 , x2 , x3 , x4 de standaard coördinaten in R4 .
1. Bepaal een orthonormale basis w1 , w2 van W .
2. Bepaal de orthogonale projectie van x = (1, 1, 1, 1)t op W .
158
HOOFDSTUK 9. VECTORRUIMTEN MET INPRODUCT
Opgave 9.4.8 Gegeven is een deelruimte W ⊂ Rn en een vector a. Geef met
a′ de loodrechte projectie van a op W aan. Bewijs dat voor elke x ∈ W met
x ̸= a′ geldt |a − x| > |a − a′ |. Met andere woorden, a′ is het unieke punt
x ∈ W waarvan de afstand tot a minimaal is.
Opgave 9.4.9 Gegeven is een lineaire deelruimte W ⊂ Rn . Zij P : Rn → Rn
de orthogonale projectie afbeelding op W . Kies een basis a1 , . . . , ar van W . Zij
A de matrix met als rijen de vectoren a1 , . . . , ar .
1. Laat zien dat de Gram-matrix van de ai gegeven wordt door het matrixproduct AAt .
2. Laat zien dat de matrix van P gegeven wordt door At (AAt )−1 A (hint:
het beeld van een willekeurige vector in W en van een willekeurige vector
in W ⊥ ).
3. Laat zien dat de matrix van P symmetrisch is.
9.4.10 Gegeven is de vectorruimte R[X] met inproduct ⟨f (X), g(X)⟩ =
∫Opgave
1
f
(t)g(t)dt.
0
1. Bepaal van elk van de vectoren
p1 (X) = 1 + X,
p2 (X) = 1 + X 2 ,
p3 (X) = X + X 2
de lengte. Bepaal ook van elk tweetal de hoek ertussen.
2. Vindt alle polynomen van graad ≤ 2 die loodrecht op p1 (X) staan.
9.4.11 Gegeven is de vectorruimte R[X] met inproduct ⟨f (X), g(X)⟩ =
∫Opgave
1
0 f (t)g(t)dt.
1. Bepaal een polynoom van graad ≤ 2 dat loodrecht staat op alle vectoren
X n met n ≥ 1.
2. Toon aan dat het enige polynoom in R[X] dat loodrecht staat op alle
vectoren X n met n ≥ 1 het nulpolynoom is. (Hint: er is gegeven dat de
determinant det(1/(i + j))i,j=1,...,m ̸= 0 is voor alle m ≥ 1).
Opgave 9.4.12 Zij V de vectorruimte R4 met daarop het standaard inproduct.
Zij W ⊂ V de deelruimte opgespannen door de vectoren (1, 1, 1, 1), (5, −1, 5, −1)
en (2, 1, −8, 1).
1. Bepaal met behulp van het Gram-Schmidt procédé een orthonormale basis
van W .
2. Zij f1 , f2 , f3 een orthonormale basis van W die je in onderdeel (a) gevonden
hebt. Vul deze basis aan tot een orthonormale basis f1 , f2 , f3 , f4 van R4 .
3. De orthogonale spiegeling S : R4 → R4 ten aanzien van de deelruimte W
wordt gegeven door Sfi = fi voor i = 1, 2, 3 en Sf4 = −f4 . Bepaal de
matrix van S ten opzichte van de standaardbasis van R4 .
9.4. OPGAVEN
159
Opgave 9.4.13 Beschouw de vectorruimte Mnn van n × n-matrices met reële
coëfficienten.
∑
1. Laat zien dat Spoor(AB t ) = ni,j=1 Aij Bij waarin Aij en Bij de matrixelementen van A resp. B zijn.
2. Bewijs nu dat ⟨A, B⟩ = Spoor(AB t ) een inproduct op Mnn is.
Opgave 9.4.14 Gegeven is de vectorruimte Mnn over R bestaande uit n × nmatrices met elementen in R. Als inproduct nemen we ⟨A, B⟩ = Spoor(AB t )
sym
(zie Opgave 9.4.13). Verder zijn gegeven de deelruimten Mnn
van symmetrische
asym
t
matrices (dwz A = A) en Mnn van antisymmetrische matrices (dwz At =
−A).
1. Stel dat A een symmetrische matrix is en B een antisymmetrische. Bewijs
dat ⟨A, B⟩ = 0.
asym
sym
2. Bewijs dat de doorsnijding van Mnn
en Mnn
uit de nulvector bestaat.
3. Bewijs dat iedere n×n-matrix te schrijven is als som van een symmetrische
en een antisymmetrische matrix.
sym
asym
4. Bewijs dat Mnn
het orthogonaal complement is van Mnn
.
Opgave 9.4.15
1. Bewijs dat de afbeelding die aan elk tweetal u = (x, y, z), u′ = (x′ , y ′ , z ′ ) ∈
R3 het getal

 
2 −1 0
x
⟨ ′ ⟩
u , u = (x′ , y ′ , z ′ )  −1 2 −1   y 
0 −1 2
z
toekent, een inwendig produkt op R3 is.
2. Bepaal een orthonormale basis van het orthogonale complement van (0, 0, 1)t
met betrekking tot het inwendig produkt uit het voorgaande onderdeel.
Opgave 9.4.16 Gegeven is R4 met het standaard inprodukt en standaardcoördinaten
x, y, z, u. Zij de P : R4 → R4 de lineaire afbeelding die elke x ∈ R4 afbeeldt
naar zijn loodrechte projektie op het hypervlak x + y − z + u = 0.
1. Bepaal het beeld van (1, 2, 2, 1)t onder P .
2. Bepaal de eigenwaarden en eigenvektoren van P .
3. Laat zien dat P een symmetrische afbeelding is.
4. Bepaal de matrix van P ten opzichte van de standaardbasis van R4 .
160
HOOFDSTUK 9. VECTORRUIMTEN MET INPRODUCT
Opgave 9.4.17 Gegeven is de vectorruimte R[X] met inproduct
∫
⟨f (X), g(X)⟩ =
1
f (t)g(t)dt.
−1
Voer de Gram-Schmidt procedure uit op 1, X, X 2 .
Opgave 9.4.18 Gegeven is de vectorruimte R[X] met inproduct
∫ ∞
1
⟨f (X), g(X)⟩ = √
f (t)g(t) exp(−t2 )dt.
π −∞
Voer
Gram-Schmidt procedure uit op 1, X, X 2 . (Hint: er is gegeven dat
∫ ∞ de
√
n
2
−∞ x exp(−x )dx gelijk is aan 0 als n oneven en (1/2) · (3/2) · · · (k − 1/2) π
als n = 2k even.)
Opgave 9.4.19] Gegeven is de vectorruimte R[X] met inproduct
∫
⟨f (X), g(X)⟩ =
1
f (t)g(t)dt.
−1
Verder zijn gegeven de deelruimten R[X]sym bestaande uit de polynomen f (X)
met f (−X) = f (X) (symmetrische polynomen) en de deelruimte R[X]asym
gegeven door de polynomen f (X) met f (−X) = −f (X) (antisymmetrische
polynomen).
1. Stel f ∈ R[X]sym , g ∈ R[X]asym . Bewijs dat ⟨f (X), g(X)⟩ = 0.
2. Geef een basis van R[X]sym en van R[X]asym .
3. Bewijs dat elk element uit R[X] te schrijven is als som van een symmetrisch en een antisymmetrisch polynoom.
4. Bewijs dat R[X]sym het orthogonaal complement van R[X]asym is.
Opgave 9.4.20 Zij V een vectorruimte over R met inproduct ⟨., .⟩. Zij W een
deelruimte van V en W ⊥ het orthogonaal complement van W in V .
1. Bewijs dat als dim(W ) < ∞ dan V = W ⊕ W ⊥ .
2. Kun je een voorbeeld vinden waarbij V niet gelijk is met W ⊕W ⊥ ? (Hint:
zie Opgave 9.4.11).
Hoofdstuk 10
Symmetrische en orthogonale
afbeeldingen
10.1
Symmetrische afbeeldingen
Zij V een vectorruimte met inproduct. Een lineaire afbeelding A : V → V heet
symmetrisch als
⟨x, A(y)⟩ = ⟨A(x), y⟩
voor alle x, y ∈ V . Uit Stelling 9.3.2 zien we bijvoorbeeld dat loodrechte
projectie een symmetrische afbeelding is.
Stelling 10.1.1 Zij V een vectorruimte met inproduct en A : V → V een
symmetrische afbeelding. Dan gelden de volgende eigenschappen:
1. Eigenvectoren met verschillende eigenwaarden zijn orthogonaal.
2. Zij v een eigenvector en v⊥ het orthogonaal complement van v. Dan geldt
dat A(v⊥ ) ⊂ v⊥ .
3. Zij W een deelruimte van V zó dat A(W ) ⊂ W . Dan geldt voor het
orthogonaal complement W ⊥ dat A(W ⊥ ) ⊂ W ⊥ .
Bewijs: (i) Stel v1 , v2 een tweetal eigenvectoren met verschillende eigenwaarden λ1 , λ2 . Dan volgt uit ⟨v1 , A(v2 )⟩ = ⟨A(v1 ), v2 ⟩ dat λ1 ⟨v1 , v2 ⟩ = λ2 ⟨v1 , v2 ⟩.
Omdat λ1 ̸= λ2 volgt hieruit dat ⟨v1 , v2 ⟩ = 0.
(ii) Zij u een vector loodrecht op v. Zij λ de eigenwaarde van v. Dan volgt uit
⟨v, A(u)⟩ = ⟨A(v), u⟩ dat ⟨v, A(u)⟩ = λ ⟨v, u⟩ = 0. Dus Au staat ook loodrecht
op v.
(iii) Zij u ∈ W ⊥ . We moeten laten zien dat Au loodrecht staat op iedere
w ∈ W . Dit volgt uit ⟨w, A(u)⟩ = ⟨A(w), u⟩, het feit dat A(w) ∈ W en
u ∈ W ⊥.
2
Het verband tussen symmetrische matrices en afbeeldingen wordt door de volgende stelling gegeven.
161
162HOOFDSTUK 10. SYMMETRISCHE EN ORTHOGONALE AFBEELDINGEN
Stelling 10.1.2 Zij V een eindigdimensionale basis met inproduct en e1 , . . . , en
een geordende basis. Zij A : V → V een lineaire afbeelding. De matrix van A
t.o.v. e1 , . . . , en geven we aan met A. Dan is A een symmetrische afbeelding
precies dan als A een symmetrische matrix is.
Bewijs: Stel dat A symmetrisch is. Geef de matrixelementen van A aan met
aij . Dan geldt aij = ⟨ei , Aej ⟩. Omdat ⟨ei , Aej ⟩ = ⟨Aei , ej ⟩ = ⟨ej , Aei ⟩ = aji
volgt hieruit dat aij = aji voor alle i, j. Dus A is een symmetrische matrix.
Stel nu dat A een symmetrische matrix is. Zij x en y een willekeurig tweetal
vectoren. Geef de coördinaten van x en y t.o.v. e1 , . . . , en aan met
 
 
y1
x1
.
 .. 
 ...  .
xn
yn
Dan geldt


y1
.
⟨x, Ay⟩ = (x1 , . . . , xn )A  ..  .
yn
Omdat A symmetrisch is, is dit precies gelijk aan
 
x1
.. 

(y1 , . . . , yn )A
.
xn
en dit is weer precies gelijk aan ⟨y, Ax⟩ = ⟨Ax, y⟩. Dus is A een symmetrische
afbeelding.
2
De volgende stelling heeft een enorm aantal toepassingen zowel binnen als buiten
de wiskunde.
Stelling 10.1.3 (Hoofdstelling van de symmetrische afbeeldingen) Zij
V een eindigdimensionale vectorruimte met inproduct en A : V → V een symmetrische afbeelding. Dan is er een orthonormale basis van eigenvectoren van
A met reële eigenwaarden.
Bewijs: Stel n = dim(V ). We zullen een bewijs geven met volledige inductie naar n. Voor het geval n = 1 zijn we klaar omdat elke vector in een
ééndimensionale V eigenvector is.
Stel nu n > 1 is en dat de Stelling waar is voor ruimten van dimensie n − 1.
In het Lemma dat hierna komt zien we dat A een reële eigenwaarde λ heeft en
dus ook een bijbehorende eigenvector v, waarvan we aannemen dat de lengte
1 is. Zij nu v⊥ het orthogonaal complement van v. Volgens Stelling 10.1.1(ii)
geldt A : v⊥ → v⊥ . Omdat de dimensie van v⊥ gelijk is aan n − 1 volgt
uit onze inductiehypothese dat v⊥ een orthonormale basis heeft bestaande uit
eigenvectoren van A. Samen met v vormt dit een orthormale eigenvectorbasis
van de ruimte V .
2
10.2. ORTHOGONALE MATRICES
163
Lemma 10.1.4 Zij V een eindigdimensionale vectorruimte met inproduct en
A : V → V een symmetrische afbeelding. Dan heeft A minstens één reële
eigenwaarde.
Bewijs: We bewijzen dit Lemma door naar symmetrische matrices te kijken.
Wegens Stelling 10.1.2 is het voldoende om aan te tonen dat een symmetrische
matrix een reële eigenwaarde heeft. Zij A een symmetrisch n × n-matrix. Zij λ
een (complex) nulpunt van de eigenwaardenvergelijking. Dan zijn er complexe
getallen z1 , z2 , . . . , zn , niet allen nul, zó dat
 
 
z1
z1
.. 
.. 


=λ
.
A
.
.
zn
zn
Vermenigvuldig dit van links met de rijvector (z 1 , . . . , z n ). We vinden,
 
z1
.. 

(z 1 , . . . , z n )A
= λ(|z1 |2 + · · · + |zn |2 ).
.
zn
Neem aan beide zijden de getransponeerde en de complex geconjugeerde. Doordat A een symmetrische matrix is met reële coëfficienten, blijft de linkerzijde
hetzelfde. De rechterzijde gaat over in λ(|z1 |2 + · · · + |zn |2 ). Gevolg,
λ(|z1 |2 + · · · + |zn |2 ) = λ(|z1 |2 + · · · + |zn |2 ).
Omdat de zi niet allen zijn, geldt |z1 |2 + · · · + |zn |2 > 0 en dus λ = λ. Conclusie:
λ ∈ R.
2
10.2
Orthogonale matrices
Een n×n-matrix U met reële coëfficienten heet orthogonale matrix als de kolommen van U een orthonormaal stelsel vormen ten aanzien van het dotproduct.
Geef de matrixelementen van U aan met uij . Orthogonaliteit van U is equivalent met
n
∑
uki ukj = δij
k=1
voor alle i, j. Geven we de matrixelementen van de getransponeerde U t aan
met (ut )ij dan gaat de orthogonaliteitsrelatie over in
n
∑
(ut )ik ukj = δij .
k=1
Links herkennen we de matrixvermenigvuldiging U t U en we kunnen de orthogonaliteitsrelaties dus ook samenvatten door
U t U = In .
164HOOFDSTUK 10. SYMMETRISCHE EN ORTHOGONALE AFBEELDINGEN
Een matrix is dus orthogonaal precies dan als U t U = In . Anders gezegd,
U t = U −1 .
Uit U t U = In volgt tevens U U t = In . Met andere woorden, U t is ook orthogonaal en de rijen van U vormen dus een orthonormaal stelsel. Samenvattend:
Stelling 10.2.1 Zij U een n × n-matrix met reële coëfficienten. Dan zijn de
volgende beweringen equivalent,
1. U is ortogonaal.
2. U t U = In .
3. De rijen van U vormen een orthonormaal stelsel.
Verder hebben orthogonale matrices de volgende eigenschappen:
Stelling 10.2.2 Zij U, U ′ een tweetal orthogonale n × n-matrices. Dan geldt:
1. det(U ) = ±1.
2. U −1 is orthogonaal.
3. U U ′ is orthogonaal.
Bewijs: Merk allereerst op dat U t U = In impliceert det(U t )det(U ) = 1.
Omdat det(U t ) = det(U ) volgt hieruit dat (det(U ))2 = 1 en dus det(U ) = ±1.
Als U orthogonaal is, dan is U t ook orthogonaal en dus ook U −1 = U t .
Merk op dat (U U ′ )t U U ′ = (U ′ )t U t U U ′ = (U ′ )t U ′ = In . Dus U U ′ is orthogonaal.
2
Tenslotte volgt hier nog een uitspraak over de complexe nulpunten van de eigenwaardevergelijking van een orthogonale matrix.
Stelling 10.2.3 Zij U een orthogonale matrix en λ ∈ C een nulpunt van de
eigenwaardevergelijking det(U − λIn ) = 0. Dan geldt |λ| = 1. In het bijzonder
zijn de reële eigenwaarden van een orthogonale matrix ±1.
We kunnen met de gevonden λ ∈ C de bijbehorende complexe eigenvector
bepalen, zeg (z1 , z2 , . . . , zn )t met zi ∈ C. Met andere woorden,

 
z1
z1
.. 
.. 


.
=λ
U
.
.

zn
zn
Neem hiervan de complex geconjugeerde en de getransponeerde,
(z1 , . . . , zn )U t = λ(z1 , . . . , zn )
10.3. ORTHOGONALE AFBEELDINGEN
165
Voer hiermee een matrixvermenigvuldiging van links uit op de eerste relatie:
 
 
z1
z1
.. 
t  .. 

(z1 , . . . , zn )U U
= λλ(z1 , . . . , zn )
.
.
.
zn
zn
Gebruik nu dat U t U = In en we vinden:
|z1 |2 + · · · + |zn |2 = |λ|2 (|z1 |2 + · · · + |zn |2 ).
Omdat niet alle zi nul zijn geldt dat |z1 |2 + · · · + |zn |2 > 0 en we concluderen
na wegdeling van deze som dat |λ| = 1. 2
10.3
Orthogonale afbeeldingen
Zij V een vectorruimte met inproduct. Een lineaire afbeelding U : V → V heet
orthogonale afbeelding als
||U x|| = ||x||
voor elke x ∈ V . Met andere woorden, een orthogonale afbeelding is een lengtebehoudende lineaire afbeelding.
Stelling 10.3.1 Zij V een vectorruimte met inproduct en U : V → V een
orthogonale afbeelding. Dan geldt:
1. ⟨U x, U y⟩ = ⟨x, y⟩ voor alle x, y ∈ V .
2. Als dim(V ) eindig is, dan is U bijectief.
3. De (reële) eigenwaarden van U zijn ±1.
4. Zij v1 en v2 een tweetal eigenvectoren van U met eigenwaarden respectievelijk 1 en −1. Dan zijn v1 en v2 orthogonaal.
5. Zij v een eigenvector van U en v⊥ het orthogonaal complement van v.
Dan geldt U : v⊥ → v⊥ .
6. Zij W ⊂ V een eindig-dimensionale deelruimte zo dat U (W ) ⊂ W . Zij
W ⊥ het orthogonaal complement van W . Dan geldt U (W ⊥ ) ⊂ W ⊥ .
Bewijs: (1) Merk op dat ||U (x + y)|| = ||x + y||. Neem het kwadraat aan
beide zijden en werk uit. We vinden:
⟨U x, U x⟩ + 2 ⟨U x, U y⟩ + ⟨U y, U y⟩ = ⟨x, x⟩ + 2 ⟨x, y⟩ + ⟨y, y⟩ .
Omdat ⟨U x, U x⟩ = ⟨x, x⟩ en ⟨U y, U y⟩ = ⟨y, y⟩ houden we over dat ⟨U x, U y⟩ =
⟨x, y⟩.
(2) Stel dim(V ) eindig. Een lineaire afbeelding A : V → V is in dat geval
bijectief precies dan als de kern triviaal is. Stel U x = 0. Dan volgt uit ||U x|| =
||x|| dat ||x|| = 0. De kern van U is dus triviaal en U bijectief.
166HOOFDSTUK 10. SYMMETRISCHE EN ORTHOGONALE AFBEELDINGEN
(3) Neem een eigenvector v met eigenwaarde λ. Dan geldt ||U v|| = ||v||. De
linkerzijde is gelijk aan ||λv|| = |λ| · ||v||. Aangezien de rechterzijde gelijk is
aan ||v|| > 0 volgt dat |λ| = 1 en dus λ = ±1.
(4) Merk op dat ⟨U v1 , U v2 ⟩ = ⟨v1 , v2 ⟩. Gebruik makend van U v1 = v1 en
U v2 = −v2 volgt hieruit dat − ⟨v1 , v2 ⟩ = ⟨v1 , v2 ⟩. Conclusie: ⟨v1 , v2 ⟩ = 0
(5) Stel dat w ⊥ v. We moeten laten zien dat U w ⊥ v. Dit volgt uit
⟨U w, U v⟩ = ⟨w, v⟩ = 0 en het feit dat ⟨U w, U v⟩ gelijk is aan λ ⟨U w, v⟩.
(6) Stel u ∈ W ⊥ . We moeten laten zien dat U u ∈ W ⊥ . Merk op dat voor elke
w ∈ W geldt: ⟨U u, U w⟩ = ⟨u, w⟩ = 0. De vector U u staat dus loodrecht op
alle vectoren in U (W ). Omdat U beperkt tot W bijectief is (eigenschap (ii)),
geldt U (W ) = W en dus staat U u loodrecht op alle vectoren uit W .
2
Bij eigenschap (2) kunnen we opmerken dat de eis dim(V ) < ∞ essentieel is.
Neem bijvoorbeeld de oneindig dimensionale vectorruimte R∞
0 met standaard
inproduct. Het is makkelijk te controleren dat de afbeelding
(x1 , x2 , x3 , . . .) 7→ (0, x1 , x2 , x3 , . . .)
orthogonaal is. Maar hij is niet surjectief, en dus ook niet bijectief. Wel volgt
uit het bewijs van (2) dat elke orthogonale U : V → V injectief is.
Laten we ons nu beperken tot orthogonale U : V → V met dim(V ) eindig.
Het blijkt dat de theorie van orthogonale afbeeldingen gewoon neerkomt op de
theorie van orthogonale matrices.
Stelling 10.3.2 Zij V een eindigdimensionale vectorruimte met inproduct en
e1 , . . . , en een geordende orthonormale basis. Zij U : V → V een lineaire
afbeelding. De matrix van U t.o.v. e1 , . . . , en geven we aan met U. Dan is U
een orthogonale afbeelding precies dan als U een orthogonale matrix is.
Bewijs: Neem eerst aan dat U orthogonaal is. Geef
∑n de matrixelementen van
U aan met uij . Dan geldt voor elke i dat U ei = k=1 uki ek . We passen dit
toe op de gelijkheid ⟨U ei , U ej ⟩ = ⟨ei , ej ⟩ = δij . Uitwerking van de linkerzijde
geeft:
⟨ n
⟩
n
∑
∑
uki ek ,
ulj el
⟨U ei , U ej ⟩ =
=
=
k=1
n
n
∑∑
l=1
uki ulj ⟨ek , el ⟩
k=1 l=1
n
∑
uki ukj
k=1
∑
We zien dat orthogonaliteit van U impliceert dat nk=1 uki ukj = δij voor alle
i, j. Met andere woorden, U is orthogonaal.
Stel omgekeerd dat U orthogonaal is. Stel y = U x met x ∈ V willekeurig. We
moeten laten zien dat ||y|| = ||x||. Geef de coördinaten van x t.o.v. e1 , . . . , en
10.4. STANDAARDVORM ORTHOGONALE AFBEELDINGEN
167
aan met de coördinaten kolom (x1 , . . . , xn )t . Dan worden de coördinaten van y
gegeven door
 
 
y1
x1
 ...  = U  ... 
xn
yn
Dus

 
y1
x1
.. 
t  .. 
2

= (x1 , . . . , xn )U U
||y|| = (y1 , . . . , yn )
.
.
xn
yn

en omdat U t U = In volgt hieruit dat


x1
.
||y||2 = (x1 , . . . , xn )  ..  = ||x||2 .
xn
2
10.4
Standaardvorm orthogonale afbeeldingen
We bepalen hoe orthogonale afbeeldingen U : V → V er uit zien als dim(V ) =
2. Daartoe
( bepalen
) we de orthogonale 2 × 2-matrices. Dat wil zeggen, reële
a c
matrices
met de condities
b d
1. a2 + c2 = 1
2. b2 + d2 = 1
3. ab + cd = 0
Uit de eerste vergelijking volgt het bestaan van een hoek ϕ zó dat a = cos ϕ en
c = sin ϕ. Uit de derde vergelijking volgt dan b cos ϕ + d sin ϕ = 0. Oplossing
hiervan geeft dat b = −r sin ϕ, d = r cos ϕ voor zekere r ∈ R. Dit invullen
in de tweede vergelijking geeft r2 = 1 en dus r = ±1. We concluderen dat
orthogonale 2 × 2-matrices één van de volgende vormen aanneemt,
(
)
(
)
cos ϕ − sin ϕ
cos ϕ
sin ϕ
sin ϕ cos ϕ
sin ϕ − cos ϕ
In het eerste type matrix herkennen we de rotatie in het platte vlak om de hoek
ϕ. In het tweede voorbeeld zien we dat de eigenwaardevergelijking luidt λ2 −1 =
0. Er zijn dus twee reële eigenwaarden ±1. De bijbehorende eigenvectoren
staan loodrecht op elkaar (Stelling 10.3.1(iv). We hebben dus te maken met
een orthogonale spiegeling.
Merk ook op dat de determinant van de matrix gelijk is aan 1 in het eerste
geval en −1 in het tweede geval. We concluderen:
168HOOFDSTUK 10. SYMMETRISCHE EN ORTHOGONALE AFBEELDINGEN
Stelling 10.4.1 Een orthogonale afbeelding U : V → V met dim(V ) = 2 is
ofwel een draaiing, ofwel een spiegeling. In het eerste geval geldt det(U ) = 1,
in het tweede geval det(U ) = −1.
We onderzoeken nu orthogonale afbeeldingen U : V → V met dim(V ) = 3.
De eigenwaardevergelijking heeft graad 3. Er is dus altijd een reële oplossing
λ en deze moet dus ±1 zijn. Geef een bijbehorende eigenvector aan met v.
Zij W het orthogonaal complement van v. Volgens Stelling 10.3.1 (v) geldt
dat U : W → W . Omdat dim(W ) = 2, is U beperkt tot W een draaiing of
spiegeling. We hebben nu vier mogelijkheden:
1. λ = 1 en U : W → W is een draaiing. In dit geval kunnen we U zien als
een draaiing met v als draaiingsas. Merk op dat det(U ) = 1.
2. λ = 1 en U : W → W is een spiegeling. In W zijn er eigenvectoren v′
en v′′ met eigenwaarde 1 respectievelijk −1. In dit geval hebben we te
maken met een spiegeling. Merk op dat det(U ) = −1.
3. λ = −1 en U : W → W is een draaiing. Ditmaal hebben we te maken
met een draaiing in het vlak W rond de as v, gevolgd door een loodrechte
spiegeling in het vlak W waarbij v in −v overgaat. We noemen dit een
draaispiegeling. We hebben nu det(U ) = −1.
4. λ = −1 en U : W → W is een spiegeling. In het vlak W zijn er twee
onderling loodrechte vectoren v′ en v′′ met eigenwaarden 1 respectievelijk
−1. Merk nu op dat we een draaiing om de hoek π in het vlak opgespannen
door v en v′′ hebben. Merk op dat det(U ) = 1.
Samenvattend, een orthogonale afbeelding van een driedimensionale ruimte naar
zichzelf kan een draaiing of een draaispiegeling zijn. In het eerste geval is de
determinant 1, in het tweede −1.
Voor eindigdimensionale vectorruimten in het algemeen hebben we de volgende
stelling, die we hier niet zullen bewijzen.
Stelling 10.4.2 (Hoofdstelling orthogonale afbeeldingen) . Zij U : V →
V een orthogonale afbeelding en dim(V ) = n < ∞. Zij E1 de eigenruimte
van U bij de eigenwaarde 1 en E−1 de eigenruimte bij −1. Dan zijn er een
eindig aantal (mogelijk nul) onderling loodrechte, tweedimensionale deelruimten
W1 , W2 , . . . , Ws ⊂ V zó dat
1. Elke Wi staat loodrecht op zowel E1 als E−1 .
2. U : Wi → Wi en U beperkt tot Wi is een draaiing.
3. dim(E1 ) + dim(E−1 ) + 2s = n.
10.5. OPGAVEN
10.5
169
Opgaven
Opgave 10.5.1 Verifieer dat de onderstaande matrices orthogonaal zijn en
bepaal hun inverse,


(
)
3/5 0 4/5
1
1 1
 −4/5 0 3/5 
√
,
2 −1 1
0
1 0




1 −1 1
1
2 −3 6
1
1
1
1 
 −1 1

3
6 2,

1
1 −1 1 
7
2
−6 2 3
1
1
1 −1
Opgave 10.5.2 Geef een derde kolom voor de matrix zó dat de matrix orthogonaal wordt
√
√



 √
2/7 3/ √13
1/√3 1/ 2
,
 3/7 −2/ 13 
 1/ 3
0√
√
1/ 3 −1/ 2
6/7
0
Opgave 10.5.3 Zij v ∈ Rn een niet-triviale vector. Bewijs dat In − |v|2 2 vvt een
orthogonale matrix is.
Opgave 10.5.4 Zij Q1 een m × n-matrix waarvan de kolommen een orthonormaal stelsel vormen en Q2 een n×t-matrix waarvan de kolommen ook orthonormaal zijn. Bewijs dat de kolommen van Q1 Q2 een orthormaal stelsel vormen.
Opgave 10.5.5 Zij U : Rn → Rn een lineaire afbeelding met de eigenschap
dat x · y = 0 ⇒ U (x) · U (y) = 0. Met andere woorden de beelden van elk
tweetal orthogonale vectoren vormen weer een orthogonaal tweetal. Bewijs
dat U een scalair veelvoud van een orthogonale afbeelding is (hint: bewijs dat
|x|2 = |y|2 ⇒ |U (x)|2 = |U (y)|2 ).
Opgave 10.5.6 Beschouw R3 met standaard inprodukt en de lineaire afbeelding
A : R3 → R3 met als matrix t.o.v. de standaardbasis,


2 3
6
1
A =  3 −6 2 
7
6 2 −3
1. Toon aan dat A zowel een orthogonale als een symmetrische afbeelding
is.
2. Bewijs, zonder berekening van de eigenwaardevergelijking, dat de eigenwaarden 1, −1, −1 zijn.
3. Bepaal een 3 × 3-matrix Q en een 3 × 3 diagonale matrix D zó dat
QAQ−1 = D.
170HOOFDSTUK 10. SYMMETRISCHE EN ORTHOGONALE AFBEELDINGEN
Opgave 10.5.7 Zij V een reële vectorruimte van dimensie k met inproduct
⟨., .⟩. Stel dat a1 , a2 , . . . , ak een basis van V is. Zij tenslotte A : V → V de
lineaire afbeelding gegeven door
A : x 7→ ⟨a1 , x⟩ a1 + ⟨a2 , x⟩ a2 + · · · + ⟨ak , x⟩ ak
a) Bewijs dat A een symmetrische afbeelding is (d.w.z. ⟨Ax, y⟩ = ⟨x, Ay⟩
voor alle x, y ∈ V )
b) Bewijs dat ⟨Ax, x⟩ > 0 voor alle x ∈ V met x ̸= 0. Laat vervolgens zien
dat λ > 0 voor elke eigenwaarde λ van A.
Stel nu dat A tevens een orthogonale afbeelding is.
c) Laat met behulp van voorgaand onderdeel zien dat alle eigenwaarden van
A gelijk aan 1 zijn.
d) Leidt uit voorgaand onderdeel af dat A de identieke afbeelding is, d.w.z.
Ax = x voor alle x ∈ V .
Opgave 10.5.8 Zij M2 de vectorruimte van 2 × 2-matrices met reële elementen
en gebruikelijke optelling en scalaire vermenigvuldiging.Beschouw de funktie
die aan ieder tweetal X, Y ∈ M2 het getal ⟨X, Y ⟩ = Spoor(XY t ) toekent.
In de volgende onderdelen mag je gebruiken dat Spoor(AB) = Spoor(BA) en
Spoor(A) = Spoor(At ).
a) Bewijs dat ⟨X, Y ⟩ een inwendig produkt op M2 is.
Zij C een gegeven symmetrische 2 × 2-matrix.
b) Bewijs dat de lineaire afbeelding T : M2 → M2 gegeven door T (X) =
CX−XC symmetrisch is. (Symmetrisch wil zeggen: ⟨T (X), Y ⟩ = ⟨X, T (Y )⟩
voor alle X, Y ∈ M2 ).
c) Stel dat λ, µ de eigenwaarden van C zijn. Bewijs dat T de
eigenwaarden 0, 0, λ − µ, µ − λ heeft.
Opgave 10.5.9 Gegeven is de vectorruimte V over R van alle functies f :
[0, 1] → R met de eigenschap dat∫ alle afgeleiden van f bestaan en nul zijn in
1
0, 1. Neem als inproduct ⟨f, g⟩ = 0 f (t)g(t)dt. Definieer de lineaire afbeelding
A : V → V gegeven door A : f (x) 7→ f ′ (x).
1. Bewijs dat ⟨f, A(g)⟩ = ⟨A(f ), g⟩ voor alle f, g ∈ V (hint: gebruik partiele
integratie).
2. Bewijs dat A2 : V → V een symmetrische afbeelding is.
3. Bepaal de eigenvectoren van A2 .
10.5. OPGAVEN
171
Opgave 10.5.10 Gegeven is de vectorruimte R[X] met inproduct
∫ ∞
1
⟨f (X), g(X)⟩ = √
f (t)g(t) exp(−t2 )dt.
π −∞
Definieer de lineaire afbeelding A : R[X] → R[X] door A : p(X) 7→ p′ (X) −
Xp(X). Definieer de lineaire afbeelding B : R[X] → R[X] door B : p(X) 7→
Xp(X).
(
)
d
1. Bewijs dat A(p(X)) = exp(X 2 /2) dX
p(X) exp(−X 2 /2) .
2. Laat zien dat ⟨p(X), A(q(X))⟩ = − ⟨A(p(X), q(X)⟩ voor elk tweetal p, q ∈
R[X] (hint: gebruik partiele integratie).
3. Bewijs dat A2 een symmetrische afbeelding is.
4. Laat zien dat A2 geen eigenvectoren heeft.
5. Bewijs dat B een symmetrische afbeelding is.
6. Bepaal de eigenvectoren van A2 − B 2 van graad ≤ 2.
Hoofdstuk 11
Antwoorden
In dit hoofdstuk staan antwoorden en ook uitwerkingen van geselecteerde opgaven. Ze zijn grotendeels het werk van Tom Bannink, studentassistent die hier
veel tijd en energie in heeft gestoken. Hulde daarvoor. Omdat de antwoorden
nog niet dubbel zijn gecontroleerd, is in dit eerste jaar gebruik ervan voor eigen
risico. Mocht je onjuistheden constateren, geef deze dan meteen aan de docent
door!
11.1
Hoofdstuk 1
1.5.3 (3) 13 p + 32 q,
1.5.4
2
3p
+ 13 q.
1. (0, 1, 2)t
2. geen
3. (7, −2, 5)t
1.5.5 (1) collineair, (2) niet, (3) niet
1.5.6 (1) (20/13, 51/13, 37/13)t , (2) (7/3, −1/3, −2/3)t .
1.5.9 (a + b + c + d)/4.
1.5.13 (2, −1, 0)t
1.5.14 geen, l is evenwijdig aan V .
1.5.15 A = (−2, −5, −1)t , B = (4, −2, 3)t .
1.5.17 richting van l: (3, 2, 1)t of scalair veelvoud daarvan.
1.5.18
1. richting van l: (2, 1, 1)t of scalair veelvoud daarvan.
2. x1 + x2 − 3x3 = 0.
1.5.19 α = 4. Als β = 0 dan ligt l in het vlak V .
1.5.20 (2) S = (1, 5, −2)t , (3) −2x + 7y + 10z = 13, (4) Gevraagde lijn heeft
richting (1, −2, 2)t of scalair veelvoud daarvan. Hij verbindt de punten
(−1, 1, −2) op l en (4, −1, 4)t op m.
172
11.2. HOOFDSTUK ??
173
1.5.22 (2) S = (1, 1, 1)t , vlak V gegeven door −2x − 3y + z = −4. (3) de lijn l
gaat door S en heeft als richtingvector (0, 1, −1)t .
1.5.23 De lijn l gaat door P en heeft richtingsvector (1, 3, −4)
11.2
Hoofdstuk 2
2.7.1 π/3 radiaal
√
√
2.7.2 (1) arccos(10/21), (2) arccos(1/(2 15)), (3) arccos(11/(3 15)).
2.7.3
1. 2x1 + 4x2 − x3 = 9
2. 3x1 + 5x3 = 26
3. 3x1 − x2 + x3 = 5
2.7.4 (1) π/4, (2) vergelijking: 2x − y + 2z = 4.
2.7.5 π/3.
2.7.6 Afstand O tot V : 9/7, afstand P tot V : 1.
2.7.9 3.
2.7.10 5x1 + x2 + 2x3 = 6 en x1 − 5x2 = 6
2.7.11 7
2.7.12 3x1 − 3x2 + 4x3 = −14
2.7.13 (1, 0, 0)t + λ(1, −1, 0)t en (−1, 0, −2)t + λ(1, 1, 0)t (let op, steunvectoren
zijn niet uniek bepaald)
2.7.15 (5, 2, −3)t = (−2/5, 2, −6/5)t + (27/5, 0, −9/5)t
2.7.16 a = (6, 0, 3)t , b = (−2, −4, 0)t , c = (2, −1, −4)t
2.7.18 (2) 2x1 + 2x2 − x3 = −1 (4) 4x1 + 3x3 = 0 en 2x1 − x2 + 2x3 = −3.
11.3
Hoofdstuk 3
3.8.3 k = 9.
3.8.5
1. x1 = −13/14, x2 = 1/2, x3 = −2/7
2. x1 = 0, x2 = 0, x3 = 0
3. x1 = 19t, x2 = −7t, x3 = 8t, t ∈ R
4. x1 = t, x2 = t, x3 = t, t ∈ R
5. geen oplossing
6. x1 = −t, x2 = −2t, x3 = t, x4 = 0, t ∈ R
7. x1 = 6, x2 = −2, x3 = 3
174
HOOFDSTUK 11. ANTWOORDEN
8. x1 = −t + 2s, x2 = s, x3 = −2t, x4 = t, x5 = 0, s, t ∈ R (let op,
parametervoorstellingen van oplossingsverzamelingen zijn niet uniek,
het is dus mogelijk dat je oplossing een andere gedaante heeft). In
vectorvorm,
 


 
2
−1
x1
1
 0 
 x2 
 


 
 x3  = s  0  + t  −2 
 


 
0
 1 
 x4 
x5
0
0
9. geen oplossing.
(
3.8.6
3.8.8
p1
0
⋆
p2
) (
p1
,
0
⋆
0
) (
0
,
0
p1
0
) (
)
0 0
,
0 0
1. oplossing als 2b1 − 2b2 + b3 = 0
2. oplossing als b2 = 2b1 en b3 = −6b1
3. oplossing als b2 = −2b1
4. oplossing als b1 = b4 /2 en b2 = −b3 + b4 /2 (let op, het kan dat je
correcte antwoord in een andere vorm staat)
3.8.9 a = −2, 0, 1
3.8.10 a = −5, 2
3.8.19 Oplossing in vectorvorm
  

 


x1
3/5
1
−3
 x2   11/5 
7
 −1 
 =

 


 x3   0  + s  5  + t  0  , s, t ∈ R
x4
0
0
5
(niet uniek)
3.8.20 x1 = x2 = x3 = 0
3.8.21 Oplossing in vectorvorm

 
  
2
−1/5
x1
 x2  =  1/5  + t  3  , t ∈ R
5
0
x3
3.8.22 Oplossing in vectorvorm




 
18
−22
x1
 −3 
 1 
 x2 




 
 x3  = s  4  + t  0  , t ∈ R




 
 4 
 0 
 x4 
0
0
x5
(niet uniek)
11.4. HOOFDSTUK ??
175
3.8.23 geen oplossing
3.8.24 geen oplossing
3.8.25 Oplossing in vectorvorm



  
−4
−2
x1
 x2  =  2  + t  1  , t ∈ R
x3
0
1
3.8.26 α = 17 en oplossing

 

 
−3
x1
1
 x2  =  −4  + t  2  , t ∈ R
x3
0
1
3.8.27 α = 4, 8, 12. Oplossingen:
α=4:
(x1 , x2 , x3 , x4 ) = t(1, 1, 0, 0)t + s(0, 0, 1, 1)t , s, t ∈ R
α=8:
(x1 , x2 , x3 , x4 ) = t(−1, 1, −1, 1)t , t ∈ R
α = 12 :
(x1 , x2 , x3 , x4 ) = t(1, −1, −1, 1)t t ∈ R
(
3.8.28
geen,

3.8.29
geen,
−7
 3
3
−9/2 7/2
4
−3
5
−2
−2

3
−2  ,
−1
)
,

1
13
(
−36
 −19
3
1 3
5 2
)

−24 13
−13 7 
2
−1
3.8.30


1/2
0
0
0
0
 0
−1/3 0
0
0 


 0
0
1/5
0
0 

,
 0
0
0
−1/11 0 
0
0
0
0
1/3
11.4

0
0
0 0
 0
0
0 1

 0
0
1/3
0

 0
−1/4 0 0
1/7
0
0 0

−1/9
0 

0 

0 
0
Hoofdstuk 4
4.5.1 (a) Rangen zijn 2,4,3.
4.5.2 Rangen zijn 2 en 4.
4.5.3 Rang is 3 als a = 0, 1 of 3 en de rang is 4 als a ̸= 0, 1, 3.
4.5.15 Er geldt U + V = R3 . Basis van U : eerste 2 kolommen van A, basis van
V : laatste 2 kolommen van A, basis van U ∩ V : (−3, 4, 0)t .
176
HOOFDSTUK 11. ANTWOORDEN
4.5.16 Er geldt U + V = R4 . Basis van U : eerste 3 kolommen van A, basis van
V : laatste 3 kolommen van A, basis van U ∩ V : (1, 0, 1, 0)t , (0, 1, 0, 0)t (let
op: bases zijn niet uniek vastgelegd).
4.5.17 Er geldt rang(U + V ) = 3, basis: kolom 1,2 en 4 van A. Basis van U :
eerste 2 kolommen van A, basis van V : kolom 4 van A, basis van U ∩ V :
(3, −4, 0)t .
11.5
Hoofdstuk 5
5.5.1 Oppervlakte is 5.
5.5.5 Volume van het vierhoek is 16 maal de determinant van de drie vectoren
die het blok opspannen. Het volume is 16 · 14 = 2 13
−1 3 −1 0 3 4
= 10
5.5.8 = −16, = −8, 5 1
0 8
−1 2 5.5.10 Schrijf beide kanten uit
5.5.11
1) volgt uit de definitie ∆(a, b, c) = (a × b) · c dus vul in c = a × b.
2) volgt door de definitie van beide kanten uit te schrijven
5.5.14 Merk op dat als a = b de drie punten altijd op n lijn liggen, en in dat
geval geldt inderdaad a × b + b × c + c × a = 0. We nemen nu aan
dat a ̸= b. Schrijf b = a + b′ (dus b′ ̸= 0) en c = a + c′ dan krijgen we
a×b+b×c+c×a = b′ ×c′ door de regels van het uitproduct te gebruiken.
Er geldt b′ × c′ = 0 dan en slechts dan als b′ en c′ veelvouden van elkaar
zijn, dus c′ = λb′ (hier gebruiken we b′ ̸= 0). We zien dat er dan geldt
c = a + λ(b − a) dus c ligt op de lijn door a en b.
11.6
Hoofdstuk 6
2 −3 2 0 1 2
6.8.1 1 4
0 = −53 en 4 0 3 = 21
0 1 −5 3 2 1
−1 −2
−1 1
2
3 2
0
0
−5
0
= −14 en 0
6.8.2 0
0
0
0
0
−1
1 −1
3 −3 1
4 0
a b 0
2
2
6.8.3 0 a b = a b + ab = ab(a + b) en b
0
a 0 b
6.8.4 Antwoorden: 8, -24, 8, 8, -4
6.8.7
1. waar, stelling 6.3.4
2
−1
1
1
1 0 =3
−1 −1 a 0 c d = 0
e 0
11.6. HOOFDSTUK ??
177
(
2. onwaar, neem bijvoorbeeld
1
0
0
0
)
(
+
0
0
0
1
)
3. waar, volgt met inductie uit 1
4. waar, volgt uit 1 door 1 = detId = det(AA−1 ) = det(A)det(A−1 )
5. onwaar, er geldt det(λA) = λn det(A) omdat elke kolom met λ wordt
vermenigvuldigd en er zijn n kolommen
1 0 2 4 5
= 10 · 2 = 20
6.8.8 3 −1 1 · 1 2 2 2 3
(
6.8.9 Schrijf de matrix als A =
R
0
0
S
)
(
=
R
0
0
Ids
) (
Idr
·
0
0
S
)
en gebruik
det(AB) = det(A)det(B).
6.8.10 De lijnen gaan door (minstens) n punt dus er zijn x, y zodat ci = ai x + bi y
geldt voor i = 1, 2, 3 (dezelfde
x, y voor alle i). Vul dit in de determinant
a1 b1 a1 x + b1 y in: a2 b2 a2 x + b2 y en trek de eerste kolom x maal, en de tweede
a3 b3 a3 x + b3 y kolom y maal, van de laatste kolom af. Zo wordt de laatste kolom 0.
6.8.11 (3): (x1 , x2 , x3 ) = (4, 2, −1)
(4) (x1 , x2 , x3 ) = (−1, 0, 3)
6.8.12
(
(

1 2
3 4
a b
c d
1 0
2 1
1 1
6.8.13
)−1
=
)−1
=
−1
1
2
=
2
(
4 −2
−3 1
(
1
d
−c
ad − bc

0
1
1
−2 1
1
1 −1
1
−2
)
−b
a
)

−1
0 
1
1. Merk op dat At = −A, en dus det(A) = det(At ) = det(−A) =
(−1)n det(A) = −det(A) dus detA = −detA dus geldt detA = 0.
2. Tel de tweede rij bij de derde op, en trek vervolgens de eerste rij
(a + b + c) maal van de derde rij af om een rij nullen te krijgen.
3. Trek de eerste rij van de tweede en derde rij af. Als x = 0 dan zijn
we klaar (rij nullen). Als x ̸= 0 trek dan de tweede rij xy keer van de
derde af om een rij nullen te krijgen.
6.9.4 Trek de bovenste rij van alle andere rijen af, en tel vervolgens alle kolom-
178
HOOFDSTUK 11. ANTWOORDEN
men bij de
λ
1
1
.
..
1
eerste op.
1
λ
1
..
.
1
λ + n − 1
0
0
= ..
.
0
1
1
λ
..
.
1
1
1
···
1 1 λ
0
···
0 1 1 − λ λ − 1
0
λ − 1 ···
0 1 = 1 − λ
.. ..
..
..
.. ..
.
. .
. .
.
λ 1 − λ
0
0
··· λ − 1
1
1
···
1 λ−1
0
···
0 0
λ − 1 ···
0 = (λ + n − 1)(λ − 1)n−1 .
..
..
.. ..
.
.
.
. 0
0
··· λ − 1
···
···
···
..
.
···
Voor de tweede, trek de één-na-laatste kolom van de laatste af, en herhaal
dit vervolgens bij de kolommen ervoor.
x x x ··· x
0 x x x ··· x 1 x x ··· x
0 1 x x ··· x 0 1 1 x · · · x = 1. 1. x. ·. · · x.
.. . . . .
. . .
. . ..
. .. .. ..
. . ... . . .
1 1 1 ··· x
0
1 1 1 ··· x 1 1 1 ··· 1 x − 1
0
0
x
1 x−1
0
1
0
x−1
= ..
..
..
.
.
.
1
0
0
1
0
0
11.7
···
···
···
..
.
···
···
0
0
0
..
.
0
0
0
..
.
x−1
0
0
x−1
= x(x − 1)n−1 .
Hoofdstuk 7
7.7.1 Controleer alle 7 eigenschappen van een vectorruimte
1. nee, λ(x + y) ̸= λx + λy
2. ja
3. nee, x + y ̸= y + x
4. nee, (λ + µ)x ̸= λx + µx want
y1
λ
+
y1
µ
̸=
y1
λ+µ
7.7.2 De bewerkingen ⊕ en · voldoen aan 3 en 5 en voldoen niet aan 1,2,4,6,7.
7.7.3
1. ja
2. nee, (−1) · f zit er niet in als f erin zit
3. nee, de som van twee polynomen met graad n kan een polynoom van
lagere graad opleveren
4. ja, als At = A en B t = B dan (A + B)t = A + B en (λA)t = λA
11.7. HOOFDSTUK ??
7.7.4
1.
2.
3.
4.
5.
6.
7.
179
De vector (0, 0, ..., 0)
(0, 0, ...)
De nulmatrix
Het nulpolynoom P (X) = 0
De nulfunctie f (x) = 0
De nulfunctie f (x) = 0
Het getal 0
7.7.6 De verzamelingen W7 , W8 , W11 , W12 zijn deelruimten, en W1 , W2 , W3 , W4 , W6 , W9 , W10 , W13
zijn geen deelruimten.
7.7.7 Merk eerst op dat exp niet afhankelijk kan zijn van f, g, h omdat |f (x)|, |g(x)|, |h(x)| ≤
1 voor alle x ∈ R dus als exp = λ1 f + λ2 g + λ3 h dan zou exp(x) ≤
|λ1 | + |λ2 | + |λ3 | voor alle x ∈ R en dit kan niet. Nu laten we zien dat
f, g, h onafhankelijk zijn. Als f, g, h lineair afhankelijk zouden zijn dan
zou λ1 f + λ2 g + λ3 h = 0 een niet triviale oplossing hebben. Neem aan
λ1 cos2 x + λ2 sin(2x) + λ3 = 0 voor alle x ∈ R. Vul nu enkele waarden
van x in. x = π2 geeft λ3 = 0. Vul dan x = 0 in, dit geeft λ1 + λ3 = 0 dus
λ1 = 0. Vul nu x = π/4 in, dit geeft 12 λ1 + λ2 + λ3 = 0 oftewel λ2 = 0.
We concluderen dat alleen de triviale oplossing bestaat dus f, g, h zijn
lineair onafhankelijk. Omdat exp al lineair onafhankelijk van f, g, h was
concluderen we dat f, g, h, exp lineair onafhankelijk zijn.
7.7.8 1 is afhankelijk, 2 is onafhankelijk, 3 is onafhankelijk
7.7.9 Stel f (X) = X + 1, g(X) = X 2 + 1 en h(X) = X 2 + X. Laat P (X) =
aX 2 + bX + c ∈ R[X]≤2 dan
1
1
1
P (X) = (−a + b + c)f (X) + (a − b + c)g(X) + (a + b − c)h(X)
2
2
2
(
)
a b
7.7.10 Symmetrische matrices zijn altijd van de vorm S =
. Dit is een
b c
driedimensionale ruimte met de elementen van B1 als basis, immers
(
)
(
)
(
)
(
)
a b
1 0
0 0
1 0
=a
+c
+b
.
b c
0 0
0 1
0 1
Berekening leert dat de elementen van B2 onafhankelijk zijn en dus ook
B2
een basis vormen. De matrix IB
wordt gegeven door
1


1 −1 0
1 0 2.
1 1 1
De kolommen geven de coefficienten van de elementen van B2 ten opzichte
van B1 . Om de coordinaten van de elementen van B2 ten opzichte van
die van B1 te vinden bepalen we de inverse van deze matrix,


2 −1 2
1
−1 −1 2  .
3
−1 2 −1
180
7.7.12
HOOFDSTUK 11. ANTWOORDEN
1. onjuist, kies S = {a, b} en T = {a + b, c} en stel dat beide verzamelingen onafhankelijk zijn. Maar S ∪T = {a, b, a+b, c} is afhankelijk.
2. onjuist, kies U = W = {(x, y, 0) ∈ R3 } en BU = {(1, 0, 0) , (0, 1, 0)}
en BW = {(1, 1, 0) , (−1, 1, 0)}, dan volgt U ∩ W = U en BU ∩ BW =
∅.
3. onjuist, kies U = {0} en w = −v, dan v + w ∈ U maar v, w ∈
/ U.
4. juist als alle Ui deelruimten zijn anders onjuist. Er geldt dim Ui ≤
dim Ui+1 voor alle i. Stel dat er geen index i is met Ui = Ui+1
dan geldt dim Ui < dim Ui+1 (strikte ongelijkheid) en als r > n + 1
betekent dit dim Ur > n. Dit kan niet, dus moet er een index i zijn
met Ui = Ui+1 .
5. juist, kies v1 = b1 + b3 , v2 = b2 + b3 en v3 = b3 , dit vormt een basis
en vi ∈
/ W voor i = 1, 2, 3
7.7.14 De afbeeldingen 2,5,7,9,10 zijn lineair, en 1,3,4,6,8,11 zijn niet lineair.
7.7.16
1. We zoeken de beelden van de eenheidsvectoren in de basis α (dus
de basis-elementen van α) uitgedrukt in de basis (1, X, X 2 , X 3 , X 4 ).
Deze beelden zetten we als kolommen in een matrix


1 1 1 1 1
0 1 2 3 4


0 0 1 3 6


0 0 0 1 4
0 0 0 0 1
2. We lossen op:
X + X 3 + X 4 = λ1 · 1 + λ2 (1 + X) + λ3 (1 + X)2 + λ4 (1 + X)3 + λ5 (1 + X)5
= λ1 + λ2 + λ3 + λ4 + λ5 + (λ2 + 2λ3 + 3λ4 + 4λ5 )X
+(λ3 + 3λ4 + 6λ5 )X 2 + (λ4 + 4λ5 )X 3 + λ5 X 4
Dit is equivalent met het oplossen van A · x = (0, 1, 0, 1, 1)t waarbij
A bovenstaande matrix is.
Na enig rekenwerk vinden we λ5 = 1, λ4 = 1 − 4λ5 = −3, λ3 =
0 − 6λ5 − 3λ4 = 3, λ2 = 1 − 4λ5 − 3λ4 − 2λ3 = 0 en λ1 = 0 − λ5 −
λ4 − λ3 − λ2 = −1. De coordinaten van X + X 3 + X 4 ten opzichte
van de basis α zijn dus (−1, 0, 3, −3, 1).
3. We bepalen weer de beelden van de eenheidsvectoren: L(1) = (1, 0),
L(X) = (1, 0), L(X 2 ) = (0, 1), L(X 3 ) = (0, 1) en L(X 4 ) = (0, 1). De
matrix van L ten opzichte van de standaardbasis 1, X, X 2 , X 3 , X 4
en e1 , e2 wordt dus
(
)
1 1 0 0 0
L=
0 0 1 1 1
11.7. HOOFDSTUK ??
181
4. Nu zoeken we de beelden van de eenheidsvectoren uit α, uitgedrukt
in de basis β. We zien L(1) = (1, 0), L(1 + X) = (2, 0), L(1 +
X)2 = (3, 1), L(1 + X)3 = (4, 4), L(1 + X)4 = (5, 11). Merk op:
(1, 0) = 12 (e1 + e2 ) + 12 (e1 − e2 ) en (0, 1) = 21 (e1 + e2 ) + −1
2 (e1 − e2 ).
We drukken de vectoren {(1, 0), (2, 0), (3, 1), (4, 4), (5, 11)} uit in deze
basis en zetten de coordinaten in een matrix:
(1
)
1
2
4
8
Lα→β = 21
1 1 0 −3
2
7.7.17
1. Schrijf definitie uit.


1 0 0 0 0 0
2. L =  0 2 0 1 0 0 
0 0 4 0 2 1
3. Het beeld van L is heel R[X]≤2 , de rang is 3, en de kern is
 






a
0
0
0
b
 −1 
 0 
 0 
 






c
 0 
 −1 
 −1 
  = s





d
 2  + t 0  + u 0 
 






e
 0 
 2 
 0 
f
0
0
4
In polynomen is de kern het opspansel van −XY + 2X, −Y 2 +
2Y, −Y 2 + 4. Check dat deze polynomen inderdaad in de kern zitten.
7.7.18 Door de definitie van deelruimte uit te schrijven volgt dat V inderdaad
een deelruimte is. Als isomorfisme nemen we
ϕ : V → R3
 
(
)
a
a b
7→  b 
0 c
c
Dit is lineair (ga na) en voor alle (x, y,
R3 is er een matrix die op
( z) ∈ )
x y
deze vector wordt afgebeeld, namelijk
∈V.
0 z
7.7.19 Probeer eλx . Zo volgt (λ2 + 3λ − 4)eλx = 0 ofwel (λ + 4)(λ − 1) = 0
dus λ = 1 of λ = −4. Twee oplossingen zijn dus ex en e−4x en deze zijn
onafhankelijk.
7.7.21
1. Uit de drie gelijkheden

1

A −1
1
volgt dat
 
5
2 1


4
−1 1 =
−4
1 2
Hieruit kunnen we A oplossen

5
6
A= 4
2
−4 −2

6 3
2 4.
−2 2
door
−1

1
2 1
3
4   −1 −1 1 
1
1 2
2
182
HOOFDSTUK 11. ANTWOORDEN
en dat is gelijk aan

1
 −2
2

−2 2
−2 4 
4 −2
2. Stel E = (e1 , e2 , e3 ) en F = (f1 , f2 , f3 ). De overgangsmatrix IEF
wordt gegeven door


1 −2 2
IEF =  2
1 4.
−2 0 5
F
Zij AE
E dematrix van A ten opzichte van E en AF de matrix ten
−1
E
F
F
F
opzichte van F . Dan geldt, AF = (IE ) AE IE en dat is gelijk aan


−7 0 0
 0 2 0.
0 0 2
7.7.24
1. We gebruiken de rekenregels van het uitproduct en zo volgt meteen
dat A lineair is
A(x + λy) = (e1 + e2 + e3 ) × (x + λy)
= (e1 + e2 + e3 ) × x + λ((e1 + e2 + e3 ) × y)
= A(x) + λA(y)
2. We bepalen Aei voor i = 1, 2, 3. Tip: dit kan je met de rechterhandregel doen zodat je geen getallen hoeft in te vullen.
Ae1 = (e1 + e2 + e3 ) × e1 = 0 + e2 × e1 + e3 × e1 = −e3 + e2
Ae2 = (e1 + e2 + e3 ) × e2 = e1 × e2 + 0 + e3 × e2 = e3 − e1
Ae3 = (e1 + e2 + e3 ) × e3 = e1 × e3 + e2 × e3 + 0 = −e2 + e1
De matrix van A wordt dus

0 −1

A=
1
0
−1 1

1
−1 
0
3. We berekenen Afi , voor i = 1, 2, 3, uitgedrukt in {fi }:
Af1 = −e3 + e2 = −1 · f1 + 2 · f2 − 1 · f3
Af2 = −e3 + e2 + e3 − e1 = e2 − e1 = −2 · f1 + 1 · f2 + 0 · f3
Af3 = e2 − e1 − e2 + e1 = 0
Zo vinden we dus

−1 −2 0
Af =  2
1 0
−1 0 0

We kunnen ook de coordinaten transformatieformules gebruiken.
11.7. HOOFDSTUK ??
183
7.7.25 Stel x, y ∈ W1 ∩ W2 en λ ∈ R. Dan x, y ∈ W1 en x, y ∈ W2 en omdat W1
en W2 deelruimten zijn volgt dat x + λy ∈ W1 en x + λy ∈ W2 , en dus
x + λy ∈ W1 ∩ W2 .
7.7.26 Als W1 ⊂ W2 , of W2 ⊂ W1 , dan W1 ∪ W2 = W2 of W1 ∪ W2 = W1
dus inderdaad een deelruimte. Als W1 ̸⊂ W2 en W2 ̸⊂ W1 dan is er
een x ∈ W1 zodat x ∈
/ W2 en een y ∈ W2 zodat y ∈
/ W1 . Er geldt
x, y ∈ W1 ∪ W2 maar x + y ∈
/ W1 ∪ W2 want stel x + y ∈ W1 of x + y ∈ W2
dan (x + y) − x = y ∈ W1 of (x + y) − y = x ∈ W2 en dat kan niet. We
hebben dus x, y ∈ W1 ∪ W2 maar x + y ∈
/ W1 ∪ W2 dus het is inderdaad
geen deelruimte.
7.7.28 Schrijf de regels van deelruimte uit: als x + y , z + w ∈ W1 + W2 met
x, z ∈ W1 en y, w ∈ W2 dan x+y+λ(z+w) = (x+λz)+(y+λw) ∈ W1 +W2
want x + λz ∈ W1 en y + λw ∈ W2 .
Omdat W1 en W2 de nulvector bevatten volgt x + 0 ∈ W1 + W2 en 0 + y ∈
W1 + W2 voor x ∈ W1 en y ∈ W2 dus zijn W1 en W2 bevat in W1 + W2 .
Als een deelruimte W1 en W2 bevat, bevat hij ook sommen van elementen
uit W1 en W2 omdat het een deelruimte is, dus bevat de ruimte W1 + W2 .
7.7.29 Bewijs de opgave eerst voor vectorruimten van endige dimensie. Gebruik
hierbij stelling 12.4.6: dim(ker(A)) = n − rang(A) waarbij n = dim V .
Merk op: rang(A) is de rang van de matrix die bij de afbeelding A hoort,
in een willekeurige basis (de rang is in elke basis hetzelfde). De kolommen van de matrix A zijn precies de beelden van de eenheidsvectoren
ei . Het beeld van A, notatie Im(A), wordt opgespannen door de kolommen van A, en de dimensie van het beeld is dus het aantal onafhankelijke
kolomvectoren, oftewel de rang: dim(Im(A)) = rang(A).
1. Stel A is surjectief, dus Im(A) = W . Dan geldt rang(A) = dim Im(A) =
dim W . Zo volgt dim(ker(A)) = dim V − dim W ≥ 0 (de dimensie
kan niet negatief zijn) en dus dim V ≥ dim W . Uit contrapositie
volgt dat als dim V < dim W , dan kan A niet surjectief zijn.
2. We gebruiken stelling 12.3.3: A is injectief precies dan als kerA =
{0}.
Stel A is injectief, dus kerA = {0}, dan dim kerA = 0. Er geldt
dan volgens stelling 12.4.6 dus rang(A) = n oftewel dim(Im(A)) =
dim V . Het beeld van A is bevat in W per definitie, dus dim W ≥
dim(Im(A)) = dim V . We zien dim W ≥ dim V . Uit contrapositie
volgt dat als dim W < dim V , dan kan A niet injectief zijn.
In het geval dat V of W oneindige dimensie hebben geldt
1. Neem aan dim V < dim W dan moet dim V < ∞ dus V is eindig
dimensionaal. We nemen nu aan dat dim W = ∞. Als e1 , ..., en een
basis is van V (dit kan omdat V eindig dimensionaal is) dan wordt
Im(A) opgespannen door Ae1 , ..., Aen , en dit opspansel heeft maximaal dimensie n, en kan nooit heel W zijn want W heeft oneindige
dimensie. We concluderen dat A niet surjectief is.
184
HOOFDSTUK 11. ANTWOORDEN
2. Stel dim V > dim W , dan moet dim W eindig zijn, waarbij we nu
dus aannemen dat dim V = ∞. Stel dat A injectief is, dan is A
bijectief op zijn beeld, dus dan is V isomorf met Im(A) ⊂ W , en dus
dim V = dim(Im(A)) < dim W en dit is een tegenspraak: A kan dus
niet injectief zijn.
11.8
Hoofdstuk 8
λ2
( )
1
− λ − 2. Eigenvector
met eigenwaarde 2 en eigen0
λ2
( )
2
− 5λ. Eigenvector
met eigenwaarde 5 en eigenvec3
8.8.1 b) Polynoom:
(
)
−1
vector
met eigenwaarde −1
3
f) Polynoom:
(
)
−1
tor
met eigenwaarde 0.
1


1
h) Polynoom: −λ3 − 2λ2 − λ. Eigenvector  −1  met eigenwaarde −1,
2


1
en eigenvector  −2  met eigenwaarde 0.
2

  
−3
1
j) Polynoom: −λ3 + 3λ2 − 3λ + 1. Eigenvectoren  0 ,  2  met
8
0
eigenwaarde 1.
 
1

1

l) Polynoom: λ4 − 24λ3 + 150λ2 − 200λ − 375. Eigenvector 
 1  met
1

 

0
−1
 0   −1 

 
eigenwaarde 15, eigenvectoren 
 0 ,  1  met eigenwaarde 5 en
0
1


1
 −1 

eigenvector 
 −1  met eigenwaarde −1.
1
 
1

1

n) Polynoom: λ4 − 4λ3 + 16λ − 16. Eigenvector 
 1  met eigenwaarde
1
11.8. HOOFDSTUK ??
185
−2, en eigenvectoren

−1
 0 


 0 ,
1


−1
 0 


 1 ,
0


−1
 1 


 0 
0

met eigenwaarde 2.
(
)
(
)
1 0
0 1
8.8.2 1. Kies A =
met eigenwaarden 0 en 1, en B =
1 0
0) 1
(
1 1
ook met eigenwaarden 0 en 1. Dan geldt A + B =
met
1 1
eigenwaarden 0 en 2. Merk op dat λ = 0 een eigenwaarde van A is,
en µ = 1 een eigenwaarde van B, maar λ + µ = 1 gn eigenwaarde
van A + B.
(
)
(
)
1 0
3 0
2. Kies A =
met eigenwaarden 1 en 2, en B =
met
0 2
0 5
(
)
3 0
eigenwaarden 3 en 5, dan geldt AB =
met eigenwaarden
0 10
3 en 10. Merk op dat λ = 2 een eigenwaarde van A is, en µ = 3 een
eigenwaarde van B, maar dat λµ = 6 geen eigenwaarde van AB is.
3. Laat v de gemeenschappelijke eigenvector zijn. Er geldt Av = λv en
Bv = µv. Er volgt (A + B)v = Av + Bv = λv + µv = (λ + µ)v dus
λ + µ is een eigenwaarde van A + B. Verder geldt ABv = Aµv =
µAv = µλv dus we zien dat λµ een eigenwaarde is van AB.
8.8.3 Dit volgt uit det(M t ) = det(M ) en (λI)t = λI:
(
)
det(A − λI) = det (A − λI)t = det(At − (λI)t ) = det(At − λI)
8.8.4 Noteer de elementen van A als

a11
.
A =  ..
an1
Dan geldt
∑n
i=1 aki
···
..
.
···

a1n
.. 
.
.
ann
= 1 voor k = 0, .., n.
Beschouw de vector v = (1, 1, ..., 1). Als we A op deze vector loslaten
zien we dat het eerste element
de vector Av wordt gegeven coor
∑van
n
a11 · 1 + a12 · 1 + ... + a1n · 1 = i=1 a1i = 1. Op dezelfde manier
∑ zien we
dat elk element van Av op deze manier wordt gegeven door ni=1 aki = 1
(voor het k-de element). We concluderen Av = (1, 1, ..., 1). We zien dat
Av = v dus v is een eigenvector met eigenwaarde 1.
Het tweede gedeelte van de vraag volgt uit het resultaat van de vorige
opgave. Als de som van de elementen uit elke kolom van A gelijk is aan 1,
volgt dat de som van de elementen uit elke rij van At gelijk is aan 1, dus
186
HOOFDSTUK 11. ANTWOORDEN
weten we dat 1 een eigenwaarde is van At . De eigenwaardevergelijking is
hetzelfde als die van A dus zal 1 ook een oplossing van de eigenwaardevergelijking van A zijn.
8.8.5 Laat v een eigenvector van A zijn met eigenwaarde λ, dus Av = λv. We
bewijzen het gevraagde nu met inductie. Voor k = 1 is het duidelijk. Stel
nu dat het waar is voor k ∈ Z≥1 dus Ak v = λk v, dan volgt Ak+1 v =
Ak Av = Ak λv = λAk v = λk+1 v. We concluderen λk is een eigenwaarde
van Ak (met dezelfde eigenvector) dus hiermee is de inductiestap compleet.
Als A inverteerbaar is kunnen we op Av = λv aan beide kanten A−1
toepassen: A−1 Av = A−1 λv dus v = λA−1 v. We zien dus A−1 v = λ−1 v
dus er volgt dat λ−1 een eigenwaarde is.
8.8.10 Merk op dat de vectoren van de standaard basis van Rn precies de eigenvectoren van Λ zijn, oftewel Λei = λi ei . Verder is gegeven dat alle λi
verschillend zijn. Dit betekent dat als Λv = λk v dan volgt v = µek .
Dit zien we als volgt: stel v = µ1 e1 + ... + µn en , dan volgt Λv =
λ1 µ1 e1 + ... + λn µn en door de lineairiteit van Λ. Als dit gelijk is aan
λk v dan geldt dus
λ1 µ1 e1 + ... + λn µn en = λk µ1 e1 + ..λk µn e1
Omdat e1 , ..., en onafhankelijk zijn volgt dat alle coefficienten voor dezelfde
basisvectoren gelijk moeten zijn: λi µi = λk µi (de coefficient voor ei ).
Gegeven was dat λk ̸= λi als i ̸= k dus volgt µi = 0 als i ̸= k. Dit
impliceert v = µk ek zoals gezocht.
We kunnen nu de vraag bewijzen. Er geldt S −1 ΛS = Λ dus door beide
zijden met S te vermenigvuldigen volgtΛS = SΛ. Als we beide zijden op
ei toepassen volgt ΛSei = λi Sei . We zien dat (Sei ) een eigenvector van
Λ is met eigenwaarde λi en dus volgt dat Sei = µei zoals net bewezen.
Dit impliceert dat de i-de kolom van S de vector µei is. Dit werkt voor
alle i (met verschillende µ) en zo zien we dat S een diagonaal matrix is.
8.8.11 A heeft n verschillende eigenwaarden, en uit gevolg 8.3.5 volgt dan dat
er een basis van eigenvectoren is. In deze basis uitgedrukt is de matrix
van A een diagonaal matrix (A is diagonaliseerbaar) met de eigenwaarden
als diagonaal elementen. Dit betekent A = S −1 DS met D een diagonaal
matrix en S een inverteerbare matrix (de transformatie matrix naar de
basis van eigenvectoren). Laat λ1 , ..., λn de diagonaal elementen van D
zijn. Dit zijn de eigenwaarden van A zoals gezegd. Deze zijn allemaal
√
positief. Definieer nu de matrix C als een diagonaal matrix met λi op
de diagonaal (dit kan want λi > 0). Er geldt dan C 2 = D. Nu is B =
S −1 CS de gezochte matrix. Dit zien we als volgt: B 2 = S −1 CSS −1 CS =
S −1 CCS = S −1 DS = A. We zien B 2 = A dus we zijn klaar.
11.8. HOOFDSTUK ??
187
De√matrix B is NIET uniek bepaald. We kunnen namelijk voor C ook
− λi als diagonaal elementen nemen (voor elk element kunnen we + of
− apart kiezen). Dit geeft een andere matrix met dezelfde eigenschappen.
8.8.12 Zie ook Lemma 8.3.6. Stel B = S −1 AS dan:
det(B − λI) = det(S −1 AS − λI) = det(S −1 AS − λS −1 IS)
= det(S −1 (A − λI)S)
= det(S −1 )det(A − λI)det(S) = det(A − λI)
8.8.13 Stel A inverteerbaar, dan geldt BA = A−1 A(BA) = A−1 (AB)A. Uit
de vorige opgave volgt dat BA en BA dezelfde eigenwaarde vergelijking
hebben omdat BA en AB geconjugeerd zijn. Als B inverteerbaar is volgt
dit natuurlijk op dezelfde manier.
Er geldt dat Sp(AB) de som van de eigenwaarden is. We weten dat AB en
BA dezelfde eigenwaardevergelijking hebben dus zijn hun eigenwaarden
hetzelfde.
Als A en B niet inverteerbaar zijn vervangen we A door A−µI met µ ∈ R.
We weten dat een matrix A maximaal n eigenwaarden kan hebben, dus
det(A − µI) = 0 geldt voor hooguit n verschillende waarden van µ. Dit
betekent dat voor alle andere µ ∈ R geldt dat det(A − µI) ̸= 0 dus A − µI
is inverteerbaar. Nu passen we hetzelfde truukje als hiervoor toe, maar
dan op A − µI:
(
)
det ((A − µI)B − λI) = det (A − µI)B(A − µI)(A − µI)−1 − λ(A − µI)(A − µI)−1
(
)
= det (A − µI) (B(A − µI) − λI) (A − µI)−1
= det(A − µI)det(B(A − µI) − λI)det(A − µI)−1
= det(B(A − µI) − λI)
We zien dat (A − µI)B en B(A − µI) inderdaad dezelfde eigenwaarde
vergelijking hebben. Dit is nu echter alleen aangetoond voor µ ∈ R met
µ geen eigenwaarde van A. Het gaat er nu om dat het een gelijkheid is
van twee polynomen die voor alle µ ∈ R geldt behalve een eindig aantal
uitzonderingen. Dit impliceert dat de polynomen op heel R gelijk moeten
zijn (er kunnen geen discontinuiteiten in zitten) en dus moet het ook
voor µ = 0 gelden. Als we dit invullen vinden we terug det(AB − λI) =
det(BA − λI).
8.8.18
1. Het karakteristieke polynoom is −λ3 + 2λ2 − λ = −λ(λ
− 1)2
. De
−2
eigenwaarden zijn dus 0 en 1. Een eigenvector bij 0 is  −1  en
2


−1
een eigenvector bij eigenwaarde 1 is  0 .
1


 
−2
x
2. De nulruimte wordt gegeven door  y  = λ  −1  voor λ ∈ R.
2
z
188
HOOFDSTUK 11. ANTWOORDEN
3. Volgens de dimensiestelling heeft het beeld van A dimensie 2. Het
beeld A(R3 ) wordt opgespannen door de kolommen van de matrix.
De eerste twee kolommen
als pivot-kolommen gekozen wor
 kunnen


1
−2
den dus vormen  −2  en  0  een basis van A(R3 ).
0
2
8.8.22 Geef de matrix van A ten opzichte van de standaardbasis ook aan met A.
dan weten we,
   
1
1
A1 = 1,
1
1
  

1
−1
A  2  =  −2  ,
0
0
   
3
0
A0 = 0.
1
0
In matrixvorm,

1
A1
1
 

1 3
1 −1 0
2 0  =  1 −2 0  .
0 1
1 0 0
Oplossen geeft


−1

1 −1 0
1 1 3
−3
1
A =  1 −2 0   1 2 0  =  −4
5
1 0 0
1 0 1
−2
−1
−3
1

9
12  .
6

8.8.23

−1
1. Eigenwaarde 4 met eigenvector  2 , eigenwaarde −2 met eigen9
 


1
−1
vector  1  en eigenwaarde 2 met eigenvector  −1 
0
4
2. We kunnen de eigenvectoren als basis nemen, dan is de matrix van
A een diagonaal matrix met de eigenwaarden op de diagonaal. We
kunnen de eigenvectoren altijd schalen en wisselen en zo oneindig
veel bases vinden.
8.8.27 Stel dat λ een eigenwaarde is met een eigenvector v. (Dit betekent dat
v ̸= 0). Er geldt Av = λv, en dus ook AAv = Aλv oftewel Av = λAv.
Als λ = 0 zijn we klaar. Als λ ̸= 0 dan Av = λv ̸= 0 en dus volgt uit
Av = λAv dat λ = 1.
Opmerking: In het algemeen geldt dat als een afbeelding A voldoet aan
A2 = A dat het een projectie is.
8.8.31
1. Controleer de definitie van lineaire afbeelding. Er geldt
T ((f + λg)(X)) = (f +λg)(X+1) = f (X+1)+λg(X+1) = T (f (X))+λT (g(X))
11.8. HOOFDSTUK ??
189
2. We bepalen de beelden van de eenheidsvectoren en nemen deze beelden
als kolommen van de matrix


1 1 1
T = 0 1 2
0 0 1
3. De eigenwaardevergelijking van bovenstaande matrix wordt gegeven
door −λ3 + 3λ2 − 3λ + 1 = −(λ − 1)3 = 0. We zien dat λ =1 de

1
enige eigenwaarde is. Er is n eigenvector Op een scalair na):  0 
0
die met de constante polynomen correspondeert.
8.8.33
1. Lineair:
T ((f + λg)(X)) = (f + λg)(X) + X · (f + λg)′ (X)
= f (X) + λg(X) + X · (f ′ (X) + λg ′ (X))
= f (X) + X · f ′ (X) + λ(g(X) + X · g ′ (X))
= T (f (X)) + λT (g(X))
Om te laten zien dat T inderdaad R[X]n naar zichzelf afbeeldt moeten
we surjectiviteit aantonen. Laat f (X) een willekeurig polynoom in
R[X]n zijn: f (X) = an X n + ... + a1 X + a0 met ak ∈ R vaste cofficienten. Dan volgt als we T (f (X)) uitschrijven dat T (f (X)) =
(n + 1)an X n + ... + 2a1 X + a0 . Neem nu het polynoom g(X) =
1
1
n
n−1 + ... + 1 a X + a . Dan volgt dat T (g(X)) =
0
n+1 an X + n an X
2 1
f (X) en dus is T surjectief.
2. We kunnen elk polynoom in R[X]n schrijven als an X n +an−1 X n−1 +
... + a1 X + a0 . Verder geldt dat 1, X, ..., X n een onafhankelijk stelsel
is want als
a0 + a1 X + ... + an X n = 0
(∀X ∈ R)
dan volgt dat ak = 0 voor k = 0, .., n. Dit kunnen we als volgt zien:
omdat het polynoom 0 is, zijn al zijn afgeleiden ook 0. Vul X = 0 in
de k-de afgeleide in, dan volgt daaruit ak = 0. We concluderen dat
1, X, ..., X n een basis vormt.
3. Door T los te laten op de basisvectoren kunnen we de matrix van T
vinden:


1 0 0
T = 0 2 0
0 0 3
We kunnen hier direct aan zien dat 1, 2 en 3 eigenwaarden zijn met
eigenvectoren 1, X en X 2 .
4. We herhalen deel 3 voor algemene n en zo volgt


1 0 ···
0
0 2 ···
0 

T =
.
.
.
..
 .. ..
0 
0 0 0 n+1
190
HOOFDSTUK 11. ANTWOORDEN
De eigenwaarden van T zijn 1, 2, ..., n + 1 met bijbehorende eigenvectoren 1, X, ..., X n .
8.8.37 Stel dat A een eigenvector x = (x1 , x2 , ...) ̸= (0, 0, ...) heeft met eigenwaarde λ. Dan geldt Ax = λx oftewel
(0, x1 , x2 , ...) = (λx1 , λx2 , λx3 , ...)
We zien dat λx1 = 0, dus λ = 0 of x1 = 0.
Als λ = 0 volgt dat (0, x1 , x2 , ...) = (0, 0, 0, ...) dus x = 0 en dus is x geen
eigenvector.
Als λ ̸= 0 dan x1 = 0 en dan volgt uit de tweede component dat λx2 = 0
dus x2 = 0. Zo volgt uit de derde component dat λx3 = 0 dus x3 = 0
enzovoorts. Zo volgt voor alle i dat xi = 0 (door dit i keer te herhalen)
en dus x = 0.
We zien dat x geen eigenvector kan zijn.
8.8.38 Neem de afbeelding A : C ∞ (R) → C ∞ (R) gedefinieerd door A(f ) =
f ′′ (dus Af is de tweede afgeleide van f ). Deze is goed gedefinieerd
omdat functies in C ∞ (R) oneindig vaak differentieerbaar zijn. Schrijf
fk (x) = sin(kx) dan geldt fk′′ (x) = −k 2 sin(kx) = −k 2 fk (x). Dit betekent
Afk = −k 2 fk . We zien dat fk een eigenvector van A is met eigenwaarde
−k 2 .
Beschouw nu sin(kx) voor k = 1, 2, ..., r dan zijn dit r eigenvectoren met
verschillende eigenwaarden −1, −4, ..., −r2 en met stelling 13.3.1 volgt nu
dat de vectoren sin(kx) onafhankelijk zijn voor k = 1, 2, ..., r. Dit werkt
voor willekeurige r dus kunnen we concluderen dat de functies sin(kx)
onafhankelijk zijn voor k = 1, 2, ....
11.9
Hoofdstuk 9
9.4.1 Neem steeds het inproduct van elk paar vectoren die W opspannen. Dit
⟨a1 ,b⟩
geeft steeds 0. Voor de projecties gebruiken we P b = ⟨a
a1 + ... +
1 ,a1 ⟩
⟨ak ,b⟩
⟨ak ,ak ⟩ ak
waarbij ai de opspannende vectoren van W zijn. Deze formule
werkt alleen als deze vectoren inderdaad orthogonaal staan.
1.
2.
3.
4.
11
−5
68 29 103
14 (2, 3, 1) + 3 (−1, 1, −1) = ( 21 , 42 , 42 )
2
6
2 (−1, 0, 1) + 3 (1, 1, 1) = (1, 2, 3)
−1
7
−1
4 (1, −1, −1, 1) + 4 (1, 1, 1, 1) + 2 (−1, 0, 0, 1) = (2, 2, 2, 1)
0
6
6
4 (1, −1, 1, 1) + 4 (−1, 1, 1, 1) + 4 (1, 1, −1, 1) = (0, 3, 0, 3)
9.4.2 We zoeken eerst twee (omdat de dimensie 2 is) onafhankelijke vectoren in
de deelruimte (dus die voldoen aan de vergelijking). Neem bijvoorbeeld
v1 = (1, 0, −2) en v2 = (0, 1, −3). Hier passen we nu Gram-Schmidt op
6
6
−3
1 ,v2 ⟩
toe: v2 − ⟨v
⟨v1 ,v1 ⟩ v1 = v2 − 5 v1 = (− 5 , 1, 5 ). Orthonormaliseren geeft
√1 (1, 0, −2) en √1 (−6, 5, −3). (Er zijn natuurlijk meerdere oplossingen
5
70
mogelijk)
11.9. HOOFDSTUK ??
191
9.4.3 De deelruimte is twee dimensionaal (4 vrijheidsgraden met 2 vergelijkingen) dus we zoeken twee onafhankelijke vectoren. Kies bijvoorbeeld
v1 = (1, 1, 0, −1) en v2 = (2, 0, 1, 1). Nu passen we gram-schmidt doe:
1
5 −1
4
1 ,v2 ⟩
√1
v2 − ⟨v
⟨v1 ,v1 ⟩ v1 = v2 − 3 v1 = ( 3 , 3 , 1, 3 ). Normaliseren geeft 3 (1, 1, 0, −1)
en
??
√1 (5, −1, 3, 4).
51
1. We zoeken eerst twee onafhankelijke vectoren en passen hier vervolgens Gram-Schmidt op toe. Neem bijvoorbeeld v1 = (2, 0, 1, −2)
⟨v1 ,v2 ⟩
v1 = v2 − −7
en v2 = (0, 2, 1, 4). Gram-Schmidt: v2 − ⟨v
9 v1 =
1 ,v1 ⟩
14
16 22
1
1
( 9 , 2, 9 , 9 ). Normaliseren geeft w1 = 3 (2, 0, 1, −2) en w2 = √315
(7, 9, 8, 11).
2. We gebruiken de formule P x = ⟨w1 , x⟩ w1 + ⟨w2 , x⟩ w2 . Dit geeft
35
1
1
√35
3 w1 + 315 w2 = 9 (2, 0, 1, −2)+ 315 (7, 9, 8, 11) = (1, 1, 1, 1). Het blijkt
dat (1, 1, 1, 1) al in W ligt dus is de projectie gelijk aan de vector
zelf. Het is ook voldoende om direct op te merken dat (1, 1, 1, 1) in
W ligt en dus dat de projectie hetzelfde is.
??
9.4.10
1. Dit volgt door de matrix uit te schrijven en hier de inproducten in te
herkennen. Het element op plaats i, j van AAt wordt gevormd door
de i-de rij van A te combineren met de j-de kolom van At . Maar
deze laatste is precies de j-de rij van A na traanspositie. Dus staat
op plaat i, j het dotproduct ai · aj .
2. Het is voldoende om aan te tonen dat P (ai ) = ai voor i = 1, 2 . . . , r
en P (b) = 0 voor alle b loodrecht op W .
Merk op dat de componenten van A(x) precies a1 · x, . . . , ar · x zijn.
In het bijzonder geldt voor elke i dat A(ai ) = (a1 · ai , . . . , ar · ai )t
en dat is de i-de kolomvector van de Gram-matrix AAt . Daaruit
volgt dat (AAt )−1 A(ai ) precies de standaard basisvector ei van Rd
is. Laten we hier de matrix At op los, dan krijgen we de i-de kolom
van At en dat is precies de vector ai . Dus At (AAt )−1 A(ai ) = ai voor
alle i.
Als b loodrecht op W staat, dan A(b) = 0. En dus At (AAt )−1 A(b) =
0.
3. Er geldt (AB)t = B t At en zo ook (ABC)t = C t (AB)t = C t B t At .
(
)t
Zo zien we dat P t = At (AAt )−1 A = At ((AAt )−1 )t A. Er geldt
dat (B t )−1 = (B −1 )t (dit was een opgave uit een van de eerste
werkcolleges). Zo volgt ((AAt )−1 )t = ((AAt )t )−1 = (AAt )−1 dus
P t = At (AAt )−1 A = P .
√∫
√
√
1
7
2
1. ∥p1 ∥ = ⟨p1 , p1 ⟩ =
0 (1 + t) dt =
√∫
√3
√
1
28
2 2
∥p2 ∥ = ⟨p2 , p2 ⟩ =
15
0 (1 + t ) dt =
√
√
√
∫1
31
2
∥p3 ∥ = ⟨p3 , p3 ⟩ =
30
0 (t + t) dt =
2. Laat f (X) = aX 2 + bX + c. Dan
∫ 1
⟨f (X), p1 (X)⟩ =
(at2 + bt + c)(1 + t)dt
0
192
HOOFDSTUK 11. ANTWOORDEN
∫
1
at3 + (a + b)t2 + (b + c)t + c dt
=
0
=
=
1
1
1
a + (a + b) + (b + c) + c
4
3
2
7
5
3
a+ b+ c=0
12
6
2
Er moet dus gelden 7a + 10b + 18c = 0. Dit is de vergelijking van
een vlak. We vinden een twee-dimensionale oplossingsruimte:
 




a
−10
−18
b  = λ 7  + µ 0 .
c
0
7
9.4.11
1. Laat f (X) = aX 2 + bX + c. We eisen dat ⟨f (X), X n ⟩ = 0 voor alle
n ≥ 1. Dit geeft
∫ 1
⟨f (X), X n ⟩ =
at2+n + bt1+n + ctn dt
0
=
=
a
b
c
+
+
=0
3+n 2+n 1+n
(n + 1)(n + 2)a + (n + 3)(n + 1)b + (n + 2)(n + 3)c
=0
(n + 1)(n + 2)(n + 3)
Als we voor n de waarden 1, 2 en 3 invullen kunnen we de vergelijkingen in een matrix zetten:
 1

1 1 1 1
1
1
1
1
4
1
5
1
6
3
1
4
1
5
2
1
3
1
4
4
∼0
0
3
−1
60
−1
45
2
−1
15
−1
12
4
∼0
0
3
−1
60
0
2
−1
15
1
180

Er zijn alleen pivot variabelen, dus is er alleen een triviale oplossing.
Er moet dus gelden a = b = c = 0. Het enige polynoom van graad ≤
2 dat loodrecht op X n staat voor alle n ≥ 1 is dus het nulpolynoom.
2. Laat f (X) = a0 + a1 X + ... + ak X k een willekeurig k-de graads
polynoom zijn. Dan
⟨f (X), X n ⟩ =
a1
ak−1
ak
a0
+
+ ... +
+
=0
n+1 n+2
k+n k+n+1
We vullen nu voor n de waarden 1, ..., k, k + 1 in, dan verkrijgen we
k + 1 vergelijkingen die er in matrixvorm als volgt uitzien
 1
1
1 
· · · k+2
2
3
1
1 
 1
· · · k+3
 3

4
 .

.
.
.
..
..
.. 
 ..
1
1
1
· · · 2k+2
k+2
k+2
Dit is precies een matrix op op plek i, j het getal i + j en zoals in
de opgave is aangegeven mogen we gebruiken dat de determinant
11.9. HOOFDSTUK ??
193
hiervan ongelijk is aan 0. Dit betekent dat het stelsel alleen de
triviale oplossing heeft, dus moet gelden a0 = a1 = ... = ak =
0. Het enige polynoom loodrecht op alle vectoren X n is dus het
nulpolynoom.
9.4.12
1. We voeren het Gram-Schmidt procd uit zoals in voorbeeld 14.2.4.
Stel v1 = (1, 1, 1, 1), v2 = (5, −1, 5, −1) en v3 = (2, 1, −8, 1) dan

 

⟨v1 , v1 ⟩ ⟨v1 , v2 ⟩ ⟨v1 , v3 ⟩
4
8
−4
 ⟨v2 , v1 ⟩ ⟨v2 , v2 ⟩ ⟨v2 , v3 ⟩  =  8
52 −32 
⟨v3 , v1 ⟩ ⟨v3 , v2 ⟩ ⟨v3 , v3 ⟩
−4 −32 70
Dit geeft de volgende matrix:


4
8
−4 1 1
1
1
 8
52 −32 5 −1 5 −1 
−4 −32 70 2 1 −8 1
Vegen geeft


4 8 −4 1 1
1
1
 0 36 −24 3 −3 3 −3 
0 0
50 5 0 −5 0
De rijvectoren aan de rechterkant hoeven nu alleen nog maar genormaliseerd te worden. Een orthonormale basis van W wordt dus
gegeven door
1
1
1
f1 = (1, 1, 1, 1) , f2 = (1, −1, 1, −1) , f3 = √ (1, 0, −1, 0)
2
2
2
2. We zoeken een vector f4 die loodrecht op de drie vectoren hierboven
staan. Om dit op te lossen kunnen we voor f4 een willekeurige vector (x, y, z, u) nemen en dan eisen fi · f4 = 0 voor i = 1, 2, 3. Dit
geeft drie vergelijkingen waar een 1-dimensionale oplossingsruimte
uit volgt. Neem vervolgens de vector met lengte 1 en kies deze als
f4 .
Een andere mogelijkheid is bijvoorbeeld de vector (0, 0, 0, 1) te bekijken. Deze is onafhankelijk van f1 , f2 , f3 maar niet loodrecht. Vervolgens passen we hier opnieuw Gram-Schmidt op toe: vi = fi voor
i = 1, 2, 3 en v4 = (0, 0, 0, 1). Dit geeft

1
1
1
1 
1 0 0 21
2
2
2
2
1
−1
1
−1 
 0 1 0 −1
2
2
2
2
2 

−1
 0 0 1 0 √1
0 √
0 
1
2
−1
2
2
0
Na het vegen vinden we

1 0 0
 0 1 0

 0 0 1
0 0 0
2
1
0
0
0
1
1
2
−1
2
1
2
1
2
√1
2
1
2
−1
2
1
2
1
2
−1
√
2
1
2
−1
2
0
1
2
0
0
−1
2
0



0 
1
2
194
HOOFDSTUK 11. ANTWOORDEN
We concluderen f4 =
√1 (0, −1, 0, 1).
2
3. We kunnen de beelden van de standaardbasis ei bepalen door ei uit
te drukken in fi , dan S hierop los te laten en vervolgens de beelden
als kolommen in een te zetten.
e1 =
e2 =
e3 =
e4 =
1
2
1
2
1
2
1
2
1
1
· f2 + √ · f3 + 0 · f 4
2
2
−1
−1
· f1 +
· f 2 + 0 · f 3 + √ · f4
2
2
1
−1
· f 1 + · f2 + √ · f3 + 0 · f 4
2
2
−1
1
· f1 +
· f 2 + 0 · f 3 + √ · f4
2
2
· f1 +
We passen nu S toe door het teken voor f4 om te keren, en de resulterende vectoren zetten we als kolommen in een matrix. Dit geeft

1
0
S=
0
0
0
0
0
1
0
0
1
0
Een andere mogelijkheid is als volgt:
S gegeven door

1 0 0
0 1 0

0 0 1
0 0 0

0
1

0
0
In de basis fi is de matrix van

0
0 

0 
−1
Om de matrix van S in de standaard basis te vinden moeten we een
coordinaten transformatie toepassen:
1


S=

2
1
2
1
2
1
2
1
2
−1
2
1
2
−1
2
√1
2
0
−1
√
2
0
0

1
−1 
√

2 0

0 0
0
√1
2
0
1
0
0
 1
2
0 0
1

0 0  2

1 0   12
1
0 −1
2
1
2
−1
2
1
2
−1
2
√1
2
0
−1
√
2
0
0
−1



0 
−1
√
2
√1
2
Merk op dat de transformatie matrix orthogonaal is, wat betekent
dat de inverse simpelweg de getransponeerde is. Als we dit matrixproduct uitrekenen komen we op hetzelfde antwoord uit.
9.4.13
∑
1. Het element op plek i, j van AB wordt gegeven door nk=1 Aik Bkj .
Dit betekent
dat het element op plek i, j van AB t wordt gegeven
∑n
door
k=1 Aik Bjk . Het spoort is de som van de diagonaal elet
menten,
∑n ∑ndus de som van
∑nde elementen op plekken i, i: Spoor(AB ) =
i=1
k=1 Aik Bik =
i,j=1 Aij Bij . Bij de laatste stap is de dummy
variabele k hernoemd naar j.
11.9. HOOFDSTUK ??
195
2. We controleren de vier eigenschappen van een inproduct:
⟨A, B⟩ = Spoor(AB t ) = Spoor((AB t )t ) = Spoor(BAt ) = ⟨B, A⟩
⟨λA, B⟩ = Spoor(λAB t ) = λSpoor(AB t ) = λ ⟨A, B⟩
⟨A + B, C⟩ = Spoor((A+B)C t ) = Spoor(AC t +BC t ) = Spoor(AC t )+
Spoor(BC t ) = ⟨A, C⟩ + ⟨B,
∑ C⟩
⟨A, A⟩ = Spoor(AAt ) = ni,j=1 (Aij )2 ≥ 0 (want de cofficienten zijn
reel dus kwadraten zijn niet-negatief). Als de som van alle kwadraten
nul is, moet dus elk element van de som nul zijn: ⟨A, A⟩ = 0 dan en
slechts dan als ∀1 ≤ i, j ≤ n Aij = 0 dus A = 0.
9.4.14
1. We maken gebruik van de volgende regels die voor het spoor gelden,
Spoor(P ) = Spoor(At ) en Spoor(P Q) = Spoor(QP ). Uit deze regels
volgt,
⟨A, B⟩ = Spoor(AB t ) = Spoor(At (−B)) = −Spoor(At B) =
= −Spoor((B t A)t ) = −Spoor(B t A) = −Spoor(AB t ) = − ⟨A, B⟩ .
Hieruit volgt dat ⟨A, B⟩ = 0.
2. Stel dat M zowel symmetrisch als antisymmetrisch is. Dan geldt dat
M t = M , maar ook dat M t = −M . Dus M = −M waaruit volgt
dat M de nulmatrix is.
3. Laat A een willekeurige n × n matrix zijn. Definieer B = 12 (A + At )
en C = 21 (A − At ). Dan geldt B t = B en C t = −C, oftewel B
is symmetrisch en C is antisymmetrisch. Verder zien we A = B +
C dus kunnen we iedere n × n matrix schrijven als som van een
symmetrische en een antisymmetrische matrix.
sym
asym⊥
= Mnn
.
4. We moeten bewijzen dat Mnn
sym
We bewijzen eerst de inclusie ⊂. Laat A ∈ Mnn
een symmetrische
asym
matrix zijn, dan volgt uit 1 dat ⟨A, B⟩ = 0 voor alle B ∈ Mnn
dus
asym⊥
A ∈ Mnn
.
asym⊥
We bewijzen nu de inclusie ⊃. Laat A ∈ Mnn
, dan ⟨A, B⟩ = 0
asym
voor alle B ∈ Mnn . Verder volgt uit 3 dat we A kunnen schrijven
sym
asym
als A = Asym + Aasym met Asym ∈ Mnn
en Aasym ∈ Mnn
. Dit
betekent
⟨A, Aasym ⟩ = ⟨Asym + Aasym , Aasym ⟩ = ⟨Asym , Aasym ⟩+⟨Aasym , Aasym ⟩
Uit 1 volgt dat ⟨Asym , Aasym ⟩ = 0 dus vinden we ⟨A, Aasym ⟩ =
⟨Aasym , Aasym ⟩. Verder weten we dat ⟨A, B⟩ = 0 voor alle B ∈
asym
Mnn
dus ⟨A, Aasym ⟩ = 0. Dit betekent ⟨Aasym , Aasym ⟩ = 0 en dus
sym
Aasym = 0, oftewel A = Asym . We concluderen dat A ∈ Mnn
en
hiermee is de inclusie bewezen.
9.4.16
1. De normaal van het hypervlak is (1, 1, −1, 1)t dus we zoeken een punt
x = (1, 2, 2, 1)t + λ(1, 1, −1, 1)t dat in het hypervlak ligt: (1 + λ) +
(2 + λ) − (2 − λ) + (1 + λ) = 0 dus 4λ + 2 = 0 dus λ = − 12 . Het beeld
van (1, 2, 2, 1)t onder P is dus ( 12 , 32 , 25 , 12 )t .
196
HOOFDSTUK 11. ANTWOORDEN
2. Laat x = (x, y, z, u)t , dan geldt moet de projectie voldoen aan (x +
λ, y + λ, z − λ, u + λ)t en dus x + λ + y + λ − z + λ + u + λ = 0 ofwel
. Invullen geeft dus
λ = −x−y+z−u
4
Px =
1
(3x − y + z − u , −x + 3y + z − u , x + y + 3z + u , −x − y + z + 3u)
4
Nu lossen we op P x = λx, of P x − λx = 0
1
(3x − y + z − u , −x + 3y + z − u , x + y + 3z + u , −x − y + z + 3u)−λ(x, y, z, u) = 0
4
Zo hebben we vier vergelijkingen:
(3 − 4λ)x − y + z − u = 0
−x + (3 − 4λ)y + z − u = 0
x + y + (3 − 4λ)z + u = 0
−x − y + z + (3 − 4λ)u = 0
We zoeken niet-triviale oplossingen, dus de determinant van de bijbehorende matrix moet gelijk zijn aan nul:
3 − 4λ
−1
1
−1 −1
3 − 4λ
1
−1 = 0.
1
1
3 − 4λ
1 −1
−1
1
3 − 4λ Dit uitwerken geeft
λ4 − 3λ3 + 3λ2 − λ = 0
λ(λ − 1)3 = 0
We zien dat λ = 0 en λ = 1 de eigenwaarden zijn. We vullen dit in en
lossen de matrix op. Voor λ = 0 geeft dit (1, 1, −1, 1)t en voor λ = 1
vinden we de eigenvectoren (−1, 0, 0, 1)t , (1, 0, 1, 0)t en (−1, 1, 0, 0)t .
3. We moeten laten zien ⟨x, P y⟩ = ⟨P x, y⟩. Schrijf x = (x, y, z, u) en
y = (x′ , y ′ , z ′ , u′ ) dan geldt
⟨x, P y⟩ =
⟨P x, y⟩ =
1(
x(3x′ − y ′ + z ′ − u′ ) + y(−x′ + 3y ′ + z ′ − u′ )
4
)
+z(x′ + y ′ + 3z ′ + u′ ) + u(−x′ − y ′ + z ′ + 3u′ )
1( ′
x (3x − y + z − u) + y ′ (−x + 3y + z − u)
4
)
+z ′ (x + y + 3z + u) + u′ (−x − y + z + 3u)
Als we nu op de onderste regel de termen voor x bij elkaar zetten,
en de termen voor y bij elkaar zetten enzovoorts, dan vinden we de
bovenste regel terug. We concluderen dat P symmetrisch is.
11.9. HOOFDSTUK ??
197
4. De matrix hebben we eigenlijk al bepaald en is direct af te lezen
uit de determinant hierboven. We kunnen ook P ei bepalen en als
kolommen in een matrix zetten, dit komt op hetzelfde neer.


3 −1 1 −1
1  −1 3 1 −1 
.
P = 
1 3 1 
4 1
−1 −1 1 3
9.4.17 We voeren het Gram-Schmidt procd uit. Stel v1 = 1, v2 = X en v3 = X 2
dan


 
⟨v1 , v1 ⟩ ⟨v1 , v2 ⟩ ⟨v1 , v3 ⟩
2 0 23
 ⟨v2 , v1 ⟩ ⟨v2 , v2 ⟩ ⟨v2 , v3 ⟩  =  0 2 0  .
3
2
0 25
⟨v3 , v1 ⟩ ⟨v3 , v2 ⟩ ⟨v3 , v3 ⟩
3
Dit geeft de volgende matrix:



2 0 32 1
2 0
 0 2 0 X ⇒ 0 2
3
3
2
2
2
0 0
3 0 5 X
2
3
1
X
X2 −
0
8
45
We kunnen de polynomen nog normaliseren, dit geeft
√1 ,
2


1
3
√
3
2X
√
en
45
2
8 (X −
1
3 ).
9.4.18 We doen hetzelfde als bij de vorige opgave, maar nu met het andere inproduct:


 
⟨v1 , v1 ⟩ ⟨v1 , v2 ⟩ ⟨v1 , v3 ⟩
1 0 12
 ⟨v2 , v1 ⟩ ⟨v2 , v2 ⟩ ⟨v2 , v3 ⟩  =  0 1 0 
2
1
3
⟨v3 , v1 ⟩ ⟨v3 , v2 ⟩ ⟨v3 , v3 ⟩
0
2
4




1
1
1 0 2 1
1 0 2
1

 0 1 0 X ⇒ 0 1 0
X
2
2
3
1
1
1
2
2
0 0 2 X −2
2 0 4 X
√
√
Genormaliseerd: 1, 2X en 2(X 2 − 12 ).
Opmerking: de polynomen die men zo verkrijgt heten de Hermite polynomen (die in de praktijk vaak met andere scalaire voorfactoren worden gebruikt). Deze vormen oplossingen van een veelgebruikte differentiaalvergelijking.
9.4.19
1. Het product h(t) = f (t)g(t) is weer een antisymmetrisch polynoom:
h(−t) = f (−t)g(−t) = −f (t)g(t) = −h(t). Het is bekend dat een
integraal van een antisymmetrische functie over een interval [−a, a]
gelijk is aan 0, want:
∫ 1
∫ 0
∫ 1
⟨f (X), g(X)⟩ =
h(t)dt =
h(t)dt +
h(t)dt
−1
∫
= −
−1
∫
1
h(s)ds +
0
0
1
h(s)ds = 0
0
Hier hebben we een substitutie s = −t gebruikt in de eerste integraal.
198
HOOFDSTUK 11. ANTWOORDEN
2. Laat f (X) = ak X k +...+a1 X +a0 . Als f (X) = f (−X) dan volgt dat
de oneven coefficienten allemaal 0 moeten zijn en als f (X) = −f (X)
dan volgt dat de even coefficienten allemaal 0 moeten zijn. Een
basis voor R[X]sym wordt dus gegeven door {1, X 2 , X 4 , ...} en een
basis voor R[X]asym wordt gegeven door {X, X 3 , X 5 , ...}.
3. Laat f (X) ∈ R[X] willekeurig, dus f (X) = ak X k + ... + a1 X + a0 .
We kunnen dit splitsen in fsym (X) = a0 + a2 X 2 + ... + a2n X 2n en
fasym (X) = a1 X + a3 X 3 + ... + a2n+1 X 2n+1 . Er geldt dan f (X) =
fsym (X) + fasym (X).
4. Te bewijzen: R[X]sym = R[X]⊥
asym . Dit bewijs gaat hetzelfde als dat
van opgave 9.4.14(4) waar we hetzelfde hebben bewezen voor symmetrische en antisymmetrische matrices.
We bewijzen eerst de inclusie ⊆: Laat f (X) ∈ R[X]sym dan volgt
uit vraag 1 dat ⟨f (X), g(X)⟩ = 0 voor alle g(X) ∈ R[X]asym dus
concluderen we f (X) ∈ R[X]⊥
asym .
Nu bewijzen we ⊇: Laat f (X) ∈ R[X]⊥
asym dan geldt ⟨f (X), g(X)⟩ =
0 voor alle g(X) ∈ R[X]asym . Uit 3 volgt dat we f (X) kunnen schrijven als f (X) = fsym (X)+fasym (X). We nemen nu g(X) = fasym (X)
dan geldt dus ⟨f (X), fasym (X)⟩ = 0 en dus ⟨fsym (X), fasym (X)⟩ +
⟨fasym (X), fasym (X)⟩ = 0. Uit vraag 1 volgt dat de eerste term 0
is, en dus staat er nu ⟨fasym (X), fasym (X)⟩ = 0 en dit impliceert
fasym (X) = 0, dus f (X) = fsym (X). We concluderen f (X) ∈
R[X]sym .
11.10
Hoofdstuk 10
10.5.1 Bepaal de inproducten tussen de verschillende kolomvectoren en controleer dat deze 0 zijn. Bepaal de lengtes van de kolomvectoren en controleer dat deze 1 zijn.
Een andere mogelijkheid is om U t U te berekenen en te controleren dat
hier de identiteitsmatrix uitkomt.
10.5.2 Neem a, b, c als derde kolom. Uit de eis voor orthogonaliteit volgt een
stelsel van twee vergelijkingen. Normaliseren geeft vervolgens de goede
vector. Merk op dat je ook −a, −b, −c kan kiezen.



√1
3
√1
3
√1
3
√1
2
0
−1
√
2
√1
6
−2
√
6
√1
6

2


7
3
7
6
7


√3
13
−2
√
13
0
√12
637
√18
637
−13
√
637



10.5.3 Merk op dat de matrix ook symmetrisch is, want (vvt ) is symmetrisch.
We controleren nu dat U U t = U 2 = Idn . Er geldt
(
2
In −
vvt
|v|2
)2
= In −
4
4
vvt ) +
vvt vvt
2
|v|
|v|4
(1)
11.10. HOOFDSTUK ??
199
Omdat vt v de 1 × 1-matrix met element vt v = |v|2 is, volgt vvt vvt =
|v|2 (vvt ). Daarmee vallen de laatste twee termen van (1) tegen elkaar
weg.
Laten we deze matrix los op v dan krijgen we de vector −v. Laten we de
matrix los op een vector w ⊥ v, dan komt daar weer w uit. We zien dat
de matrix hoort bij een loodrechte spiegeling in het hypervlak loodrecht
op v¿
10.5.6
1. We zien At = A dus A is symmetrisch (dit is equivalent met de
definitie ⟨Ax, y⟩ = ⟨x, Ay⟩ ∀x, y volgens stelling 10.1.2)
Volgens stelling 10.3.2 is A een orthogonale afbeelding precies als de
matrix A een orthogonale matrix is. We berekenen de inproducten
tussen de kolommen van A en deze zijn allemaal 0. Verder berekenen we de lengtes van de kolomvectoren en deze zijn 1. Hiermee
concluderen we dat A een orthogonale afbeelding is.
2. Uit stelling 10.1.3 volgt dat A rele eigenwaarden heeft omdat A symmetrisch is. Volgens stelling 10.3.1(4) zijn de rele eigenwaarden van
A gelijk aan ±1 omdat A orthogonaal is. Alle eigenwaarden zijn reel
dus gelijk aan 1 of −1. Dit vertelt ons echt nog niet dat de eigenwaarde 1 n keer voorkomt en de eigenwaarde −1 twee keer voorkomt
zoals in de vraag staat. We gebruiken nu dat het spoor van een matrix gelijk is aan de som van de eigenwaarden. We zien Spoor(A) =
2 −6 −3
7 + 7 + 7 = −1. Dit betekent dat λ1 +λ2 +λ3 = ±1+±1+±1 = −1.
De enige manier waarop dit kan is n keer λ = 1 en tw keer λ = −1.
3. Om A te diagonaliseren moeten we de eigenvectoren berekenen. We
beginnen met λ = 1:




0
0
2−7
3
6
−5
3
6
1
1
3
−6 − 7
2
2
0  ⇒  3 −13
0 
7
7
6
2
−3 − 7 0
6
2
−10 0
Vegen geeft


 
 
1 −3 0 0
3
x
 0 −2 1 0  ⇒  y  = t  1  .
0 0 0 0
z
2
Normaliseren geeft w1 = √114 (3, 1, 2). Hetzelfde voor λ = −1:




2+7
3
6
0
9 3 6 0
1
1
3
−6 + 7
2
0 ⇒  3 1 2 0 
7
7
6
2
−3 + 7 0
6 2 4 0
We vegen deze matrix (deel de eerste rij door 3, en de laatste door
2) en krijgen






 
3 1 2 0
−2
−1
x
 0 0 0 0  ⇒ y  = t 3  + s 0 .
0 0 0 0
3
0
z
200
HOOFDSTUK 11. ANTWOORDEN
Twee onafhankelijke genormaliseerde eigenvectoren zijn dus (−1, 3, 0)
en (−2, 0, 3). We willen echter twee orthonormale vectoren (dit is
makkelijker later) dus we passen Gram-Schmidt doe en zo krijgen
we w2 = √110 (−1, 3, 0) en w3 = √135 (3, 1, −5). Er geldt nu dat Q−1
de matrix is met w1 , w2 , w3 als kolomvectoren. Echter omdat we de
vectoren wi orthogonaal hebben gekozen (w1 stond al orthogonaal op
w2 , w3 omdat deze bij een andere eigenwaarde hoorde) geldt dat Q−1
een orthogonale matrix is, en dus geldt Q = (Q−1 )t . Dit betekent
dat Q de matrix is met w1 , w2 , w3 als rijen Q−1 is de matrix met
w1 , w2 , w3 als kolommen. Er geldt dan QAQ−1 = D met
 3



√
√1
√2
1 0
0
14
14
14

√3
0 
D =  0 −1 0  .
Q =  √−1

10
10
3
1
−5
0 0 −1
√
√
√
35
35
35
10.5.7 (a) We vullen de definitie in:
⟨Ax, y⟩ = ⟨⟨a1 x⟩ a1 + ... + ⟨ak , x⟩ ak , y⟩
= ⟨⟨a1 , x⟩ a1 , y⟩ + ... + ⟨⟨ak , x⟩ ak , y⟩
regel 3 inproduct
= ⟨a1 , x⟩ ⟨a1 , y⟩ + ... + ⟨ak , x⟩ ⟨ak , y⟩
regel 2 inproduct
⟨x, Ay⟩ = ⟨x, ⟨a1 y⟩ a1 + ... + ⟨ak , y⟩ ak ⟩
= ⟨⟨a1 y⟩ a1 + ... + ⟨ak , y⟩ ak , x⟩
regel 1 inproduct
= ⟨a1 , y⟩ ⟨a1 , x⟩ + ... + ⟨ak , y⟩ ⟨ak , x⟩
regel 2 en 3 inproduct
We zien dat we dezelfde uitdrukking krijgen dus ⟨Ax, y⟩ = ⟨x, Ay⟩.
(b) Er geldt ⟨Ax, x⟩ = ⟨a1 , x⟩ ⟨a1 , x⟩+...+⟨ak , x⟩ ⟨ak , x⟩ = ⟨a1 , x⟩2 +
...+⟨ak , x⟩2 ≥ 0. De kwadraten zijn allemaal niet-negatief omdat
het om een rele vectorruimte gaat. Stel dat λ een eigenwaarde is
van A met eigenvector x ̸= 0, dan Ax = λx. Zo volgt ⟨Ax, x⟩ =
λ ⟨x, x⟩ > 0. We weten ⟨x, x⟩ > 0 en dus moet ook gelden λ > 0.
(c) A is orthogonaal dus we kunnen stelling 14.6.1 gebruiken. Deze
zegt dat alle eigenwaarden gelijk zijn aan +1 of −1, en omdat
de eigenwaarden positief moeten zijn (volgt uit 2) kunnen we
concluderen dat alle eigenwaarden gelijk moeten zijn aan 1.
(d) Gebruik stelling 10.1.3: A is symmetrisch dus er is een orthonormale basis van eigenvectoren van A. Alle eigenwaarden zijn
gelijk aan 1, dus alle eigenvectoren behoren tot dezelfde eigenwaarde. Dit betekent dat elke x ∈ V een eigenvector is met
eigenwaarde 1 oftewel Ax = x.
10 (a) Zie opgave 9.4.13. Hier is dit voor algemene n × n-matrices
bewezen.
(b) We vullen de definitie van symmetrisch in en gebruiken de regel
Spoor(AB) = Spoor(BA):
⟨T X, Y ⟩ = ⟨CX − XC, Y ⟩
11.10. HOOFDSTUK ??
201
= ⟨CX, Y ⟩ − ⟨XC, Y ⟩
= Spoor(CXY t ) − Spoor(XCY t )
= Spoor(XY t C) − Spoor(XC t Y t )
= Spoor(X(CY )t ) − Spoor(X(Y C)t )
= ⟨X, CY ⟩ − ⟨X, Y C⟩
= ⟨X, CY − Y C⟩ = ⟨X, T Y ⟩
(c) Ten eerste geldt T (C) = 0 en dus 0 is een eigenwaarde van T
met eigenvector C.
Verder geldt T (I) = 0 dus de identiteitsmatrix is ook een eigenvector met eigenwaarde 0.
Laat x = (x1 , x2 ) ̸= (0, 0) de eigenvector van C zijn met eigenwaarde λ en y = (y1 , y2 ) ̸= (0, 0) de eigenvector van C bij eigenwaarde µ, dus Cx = λx en Cy = µy.
Laat
X de matrix
zijn met y1 x en y2 x als kolommen, dus X =
(
)
y1 x1 y2 x1
. Dan geldt dat X t als kolommen de vectoren x1 y
y1 x2 y2 x2
en x2 y heeft. Er geldt Cyi x = λyi x en dus CX = λX (de matrix C werkt op beide kolommen apart). Verder geldt Cxi y =
µxi y en daarom CX t = µX t . Zo volgt XC = ((XC)t )t =
(CX t )t = (µX t )t = µX. Als we dit combineren krijgen we
T (X) = CX − XC = λX − µX = (λ − µ)X. We concluderen
dat X een eigenvector is van T met eigenwaarde λ − µ.
Op dezelfde manier kunnen we een matix Y maken met x1 y
en x2 y als kolommen (dus Y = X t ) en dan krijgen we juist
CY = µY en Y C = λY en dus T (Y ) = (µ − λ)Y en zo volgt
dat Y een eigenvector is van T met eigenwaarde µ − λ.
Index
afhankelijk, 57
afstand, abstract, 146
algebraı̈sche multipliciteit, 132
basis, 60
basis, abstract, 100
coëfficientenmatrix, 36
coördinaten, 11
coördinatenkolom, 106
coördinatentransformatie, 110
commuteren, 34
cosinusregel, 20
deelruimte, 45
determinant, 72, 78
determinant afbeelding, 111
dimensie, 59
dimensie, abstract, 100
directe som, 66, 112
dominante eigenwaarde, 135
dotproduct, 20
driehoeksongelijkheid, 26
duale vectorruimte, 113
eigenruimte, 123
eigenvector, 122
eigenwaarde, 123
eigenwaardevergelijking, 124
even permutatie, 76
Gauss-eliminatie, 36, 38
geadjungeerde matrix, 89
georienteerd oppervlak, 70
georienteerd volume, 71
getransponeerde, 35
graad, 129
Gram-matrix, 148
Gram-Schmidt procédé, 148
homogeen, 44
inhomogeen, 44
inproduct, 20
inverse matrix, 43
inwendig product, 20, 25
isomorf, 105
Jordan blok, 132
Jordan matrices, 133
Jordanreductie, 40
karakteristieke polynoom, 124
kentallen, 11
kern, 104
kolommenrang, 62
kopcoëfficient, 129
Kronecker delta, 151
kurketrekkerregel, 71
lengte, 8, 26
linaire vorm, 113
lineair afhankelijk, 57
lineair onafhankelijk, 57
lineaire afbeelding, 103
lineaire combinatie, 57
lineaire combinatie, abstract, 99
lineaire deelruimte, 45
lineaire relatie, abstract, 99
lineaire relaties, 57
matrixelementen, 33
matrixvermenigvuldiging, 34
meetkundige multipliciteit, 132
minor, 86
multipliciteit, 130
negatief georienteerd, 70
nilpotent, 55
normaalvector, 23
nulmatrix, 33
nulpunt, 87, 130
202
INDEX
nulruimte, 45, 63
nulvector, 8
203
symmetrische afbeelding, 161
tensorproduct, 113
trapvorm, 39
triviale relatie, 57
onafhankelijk, 10, 57
onderdeterminant, 86
oneven permutatie, 76
ongelijkheid van Cauchy-Schwarz, ab- uitgebreide coëfficientenmatrix, 36
uitwendig product, 70
stract, 146
ontwikkeling determinant, 84
VanderMonde determinant, 86
oorsprong, 9, 12
vector, 7
opspansel, 45
vectorruimte, abstract, 96
opspansel, abstract, 99
vectorvoorstelling, 9
orthogonaal, 21
veelterm, 87
orthogonaal complement, 152
vergelijking van een vlak, 13
orthogonaal stelsel, 147
vergelijking voor een vlak, 23
orthogonale afbeelding, 165
verschilvector, 8
orthogonale basis, 148
volledig rijgereduceerd, 40
orthogonale matrix, 163
volledige rijreductie, 40
orthogonale projectie, 153
orthogonale vectoren, 27
zwaartepunt, 10
orthonormaal stelsel, 147
orthonormale basis, 148
parallelogramwet, 8
parametervoorstelling, 9, 10
particuliere oplossing, 44
permutatie, 76
pivot variabelen, 39
polynoom, 87
positief georienteerd, 70, 71
quotientruimte, 112
rang, 59
rang, abstract, 100
richtingvector, 10
rijenrang, 62
rijgereduceerde vorm, 39
rijreductie, 39
scalaire vermenigvuldiging, 8
signum functie, 77
somruimte, 64
somvector, 8
spoor afbeelding, 111
spoor matrix, 128
steunvector, 9, 10
strijdig stelsel, 39
Download