Lineaire Algebra SUPPLEMENT II

advertisement
Lineaire Algebra
SUPPLEMENT II
F.Beukers
Departement Wiskunde
2012
UU
Inhoudsopgave
13 Eigenwaarden en eigenvectoren
13.1 Inleiding . . . . . . . . . . . . . . . . . . . . . .
13.2 Berekening van eigenwaarden en eigenvectoren
13.3 Basiseigenschappen . . . . . . . . . . . . . . . .
13.4 Polynomen en hun nulpunten (Optioneel) . . .
13.5 Multipliciteiten en Jordan normaalvorm . . . .
13.6 Cayley-Hamilton (Optioneel) . . . . . . . . . .
13.7 Een toepassing, Google’s Pagerank (optioneel)
13.8 Opgaven . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
5
7
10
13
14
15
18
14 Vectorruimten met inproduct
14.1 Inwendige producten . . . . . . . . . . . .
14.2 Orthogonale en orthonormale stelsels . . .
14.3 Orthogonale projecties . . . . . . . . . . .
14.4 Symmetrische afbeeldingen . . . . . . . .
14.5 Orthogonale matrices . . . . . . . . . . . .
14.6 Orthogonale afbeeldingen . . . . . . . . .
14.7 Standaardvorm orthogonale afbeeldingen .
14.8 Opgaven . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
25
25
28
33
36
38
40
42
43
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Hoofdstuk 13
Eigenwaarden en
eigenvectoren
13.1
Inleiding
In Voorbeeld ?? 12.4.2 hebben we gekeken naar de loodrechte projectie P van
R3 op het vlak gegeven door x + y + 2z = 0. De matrix ten opzichte van de
standaard basis van R3 werd gegeven door


5/6 −1/6 −1/3
 −1/6 5/6 −1/3  .
−1/3 −1/3 1/3
Hoewel de projectie P meetkundig gezien heel eenvoudig is, kunnen we dit niet
meteen aan de matrix aflezen. Dat we te maken hebben met een projectie blijkt
pas als we opmerken dat de vector (1, 1, 2)t naar de nulvector wordt afgebeeld
en de vectoren (1, −1, 0) en (2, 0, −1), die in het vlak liggen, naar zichzelf. Deze
vectoren spelen dus een speciale rol ten aanzien van de projectie, en door hun
gedrag onder P de projectie zelf gekenmerkt. Ten opzichte van de geordende
basis F gegeven door f 1 = (1, 1, 2)t , f2 = (1, −1, 0)t , f = (2, 0, −1)t zou onze
projectie P de matrix


0 0 0
PFF =  0 1 0 
0 0 1
hebben. Een stuk eenvoudiger dus.
Voor de studie van de werking van een willekeurige lineaire afbeelding is het
van belang dergelijke bijzondere vectoren op te sporen. Dit is het onderwerp
van dit hoofdstuk.
Zij V een vectorruimte over R en A : V → V een lineaire afbeelding. Een vector
v ∈ V heet eigenvector van A als
1. v ̸= 0
2. er is een scalair λ ∈ R is, zó dat A(v) = λv.
3
4
HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN
We noemen λ de eigenwaarde van A behorend bij v. In ons voorbeeld zou
(1, 1, 2) een eigenvector van P zijn met eigenwaarde 0 en (1, −1, 0) en (2, 0, −1)
eigenvectoren met eigenwaarde 1.
Voorbeeld 13.1.1. Hier is nog een voorbeeld, de afbeelding A : R2 → R2
gegeven door matrixvermenigvuldiging met
(
Q=
3
4
−1 −2
)
(
)
.
Merk op dat
(
Q
−4
1
)
(
=2
−4
1
en
Q
1
−1
)
(
= −1
1
−1
)
.
De afbeelding A heeft dus een eigenvector met eigenwaarde 2 en(een )
eigen−4
vector met eigenwaarde −1. Merk op dat ook ieder veelvoud van
een
1
(
)
1
eigenvector met eigenwaarde 2 is, en ieder veelvoud van
eigenvector
−1
met eigenwaarde −1. We zullen zien dat er geen andere eigenvectoren van A
bestaan.
♢
Voorbeeld 13.1.2. Voor V nemen we de vectorruimte C ∞ (R), de oneindig
vaak differentieerbare functies op R en als lineaire afbeelding D kiezen we differentiatie: D : f 7→ f ′ . Het is duidelijk dat de exponentiele functie eax voor
d
(eax ) = aeax .
willeurige a een eigenfunctie is met eigenwaarde a. Immers, dx
Tevens zijn deze vectoren, en hun veelvouden, de enige eigenvectoren.
♢
Voorbeeld 13.1.3.Neem V = R[X] en als lineaire afbeelding P (X) 7→ XP ′ (X).
Eigenvectoren zijn de monomen X n en hun veelvouden (met eigenwaarde n).
♢
Stelling 13.1.4 Zij V een vectorruimte over R en A : V → V een lineaire
afbeelding. Zij λ ∈ R een gegeven scalair. Dan vormt de verzameling
Eλ := {x ∈ Rn | M x = λx}
een lineaire deelruimte van Rn .
Het bewijs van deze stelling bestaat uit een eenvoudige controle. Voer deze controle uit! De ruimte Eλ , indien deze niet alleen uit de nulvector bestaat, noemen
we de eigenruimte van A behorend bij de eigenwaarde λ. In ons voorbeeld van
de projectiematrix P zien we dat de vectoren loodrecht op het projectievlak de
eigenruimte met eigenwaarde 0 vormen, en het projectievlak zelf is de eigenruimte behorend bij eigenwaarde 1.
13.2. BEREKENING VAN EIGENWAARDEN EN EIGENVECTOREN
13.2
5
Berekening van eigenwaarden en eigenvectoren
In het algemeen is de berekening van eigenwaarden en eigenvectoren van een
lineaire afbeelding een lastige klus als we te maken hebben met oneindig dimensionale vectorruimten. Veel trillingsverschijnselen (trommels, snaren, atomen)
in de natuurkunde zijn terug te brengen tot eigenvector/waarde problemen van
differentiaaloperatoren op functieruimten. Vaak komt hier ook nogal wat analyse bij kijken.
Hier stellen we ons wat bescheidener op en berekenen alleen eigenwaarden/vectoren
in eindig dimensionale gevallen. We beginnen met het speciale geval van matrixvermenigvuldiging in Rn met een n×n-matrix M . De eigenvectoren/waarden
van de lineaire afbeelding gegeven door M zullen we ook wel gewoonweg de
eigenvectoren/waarden van M noemen.
Hier volgt het principe van de berekening van eigenvectoren en eigenwaarden
van M . Stel dat λ een eigenwaarde is. De vergelijking M x = λx in x ∈ Rn
kunnen we zien als een stelsel lineaire vergelijkingen in de n componenten van
x. We herschrijven de rechterkant als λIn x en brengen deze naar links. We
vinden,
(M − λIn )x = 0.
Opdat dit stelsel van n vergelijkingen in n onbekenden een niet-triviale oplossing
heeft, is het nodig en voldoende dat de coëfficientendeterminant nul is. Met
andere woorden,
det(M − λIn ) = 0
(13.1)
Deze vergelijking staat bekend als de eigenwaardevergelijking van M . Het polynoom det(M − λIn ) in λ noemen we ook wel het karakteristieke polynoom van
M . Stel


m11 m12 . . . m1n
 m21 m22 . . . m2n 
M =
..
.. 
 ...
.
. 
mn1
mn2
...
mnn
dan luidt de eigenwaardevergelijking uitgeschreven,
m12
...
m1n m11 − λ
m21
m22 − λ . . .
m2n = 0.
..
..
..
.
.
.
mn1
mn2
. . . mnn − λ
Oplossing van deze polynoom geeft ons een eindig aantal oplossingen. Gegeven
een oplossing λ0 van deze vergelijking, dan is het bepalen van de bijbehorende
eigenruimte slechts een kwestie van oplossing van het lineaire stelsel vergelijkingen
(M − λ0 In )x = 0
(13.2)
Voorbeeld 13.2.1. Hier berekenen we eigenwaarden en eigenvectoren van de
matrix Q uit de vorige paragraaf. De eigenwaardevergelijking luidt
3 − λ
4 =0
−1
−2 − λ 6
HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN
Uitgeschreven, λ2 − λ − 2 = 0. De oplossingen zijn λ = −1, 2. De eigenvectoren
bij elk van deze λ’s vinden we door oplossing van het lineaire stelsel
(
Dus bij λ = −1,
3−λ
−1
4
−2 − λ
)( ) ( )
x
0
=
.
y
0
(
)( ) ( )
4
4
x
0
=
−1 −1
y
0
(
)
1
met als oplossingen t
, t willekeurig. Bij λ = 2 vinden we het stelsel
−1
(
(
met als oplossingen t
1
4
−1 −4
)( ) ( )
x
0
=
y
0
)
4
, t willekeurig.
−1
♢
Voorbeeld 13.2.2.Elk eigenwaarde probleem A : V → V met dim(V ) < ∞
kan worden teruggebracht tot de bepaling van eigenwaarden en -vectoren van
een n × n-matrix, waarin n = dim(V ).
Neem bijvoorbeeld V = R[X]≤2 de polynomen van graad ≤ 2 en de lineaire
afbeelding A : P (X) mapsto (X + 1)P ′ (X). We bepalen de matrix van A ten
opzichte van de basis 1, X, X 2 .
A(1) = 0,
De matrix van A wordt
A(X) = X + 1,

0
0
0
Eigenwaardevergelijking,
−λ
1
0= 0 1−λ
0
0
1
1
0
A(X 2 ) = 2X 2 + 2X.

0
2.
2
0 2 = −λ(λ − 1)(λ − 2).
2 − λ
De eigenwaarden zijn dus 0, 1, 2. Eigenvectoren bij λ = 0 zijn µ(1, 0, 0)t , eigenvectoren bij λ = 1 zijn µ(1, 1, 0)t en eigenvectoren bij λ = 2 zijn µ(1, 2, 1)t . De
eigenvectoren in hun polynoomnotatie worden dus
λ = 0 : µ,
λ = 1 : µ(X + 1),
λ = 2 : µ(X 2 + 2X + 1) = µ(X + 1)2 .
♢
13.3. BASISEIGENSCHAPPEN
13.3
7
Basiseigenschappen
Stelling 13.3.1 Zij A : V → V een lineaire afbeelding van een vectorruimte V
naar zichzelf. Zij v1 , v2 , . . . , vr een r-tal eigenvectoren van A met verschillende
eigenwaarden λ1 , λ2 , . . . , λr . Dan zijn v1 , v2 , . . . , vr onafhankelijk.
Bewijs: We voeren inductie naar r uit. Als r = 1 dan is er één eigenvector
v1 is. Omdat deze niet de nulvector is, is v1 een onafhankelijk stelsel.
Stel nu r > 1 en dat elk r − 1-tal eigenvectoren met verschillende eigenwaarden
onfahankelijk is. We gaan nu µ1 , . . . , µr oplossen uit de relatie
µ1 v1 + µ2 v2 + · · · + µr vr = 0.
Laat de afbeelding A op beide zijden los. We vinden de nieuwe relatie
µ1 λ1 v1 + µ2 λ2 v2 + · · · + µr λr vr = 0.
Trek hiervan λr maal de oorspronkelijke relatie af. We vinden,
µ1 (λ1 − λr )v1 + µ2 (λ2 − λr )v2 + · · · + µr−1 (λr−1 − λr )vr−1 = 0.
Omdat v1 , . . . , vr−1 onafhankelijk zijn, geldt µi (λi −λr ) = 0 voor i = 1, 2, . . . , s−
1. We hadden aangenomen dat λi ̸= λr voor i < r. Gevolg, µi = 0 voor
i = 1, 2, . . . , r − 1. De relatie tussen v1 , . . . , vr impliceert nu dat µr vr = 0.
Omdat vr ̸= 0 volgt hieruit dat µr = 0. Met andere woorden, alleen de triviale
relatie bestaat tussen v1 , v2 , . . . , vr . Conclusie: v1 , v2 , . . . , vr zijn onafhankelijk.
2
Voorbeeld 13.3.2.Van Stelling 13.3.1 kunnen we slim gebruik maken om onafhankelijkheid van vectoren aan te tonen in bijvoorbeeld functieruimten. Neem
V = C ∞ (R), de oneindig vaak differentieerbare functies op R. Kies de functies f1 = ex , f2 = e2x , . . . , enx . We hadden in Voorbeeld ?? 12.2.6 de lineaire
onfhankelijkheid van deze functies laten zien. Nu is dat heel simpel te zien. De
functies fi (i = 1, . . . , n) zijn immers eigenfuncties van de lineaire afbeelding
f 7→ f ′ met de verschillende eigenwaarden 1, 2, . . . , n.
♢
Laten we teruggaan naar een eindigdimensionale vectorruimte V van dimensie n en een lineaire afbeelding A : V → V . We zeggen dat A een basis van
eigenvectoren heeft als er een basis v1 , . . . , vn is, zodat v1 , . . . , vn tevens eigenvectoren van A zijn. Stel dat A een basis F van eigenvectoren v1 , . . . , vn heeft
met eigenvectoren λ1 , . . . , λ. Dan wordt de matrix van A ten opzichte van de
basis B gegeven door

λ1

0
AFF = 
 ...
0
λ2
...
...

0
0 
.
.. 
. 
0
0
...
λn
8
HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN
We zeggen dat we A gediagonaliseerd hebben.
Voorbeeld 13.3.3.We gaan weer terug naar de lineaire afbeelding A : Rn → Rn
gegeven door matrixvermenigvuldiging met een n × n-matrix M . Merk op dat
M gewoon de matrix van A is ten opzichte van de standaard basis E van Rn .
Dus M = AE
E . Stel dat A een basis van eigenvectoren v1 , . . . , vn heeft met
eigenwaarden λ1 , . . . , λn . Noem deze basis F . Dan geldt


λ1 0 . . . 0
 0 λ2 . . . 0 
AFF = 
.
.. 
 ...
. 
0
0
...
λn
Deze matrix staat dus in diagonaalvorm. We weten ook dat AFF = S −1 M S
is waarin S = IEF de coordinatentransformatie matrix tussen E, F . Als de
matrix M een basis van eigenvectoren toelaat, dan is M geconjugeerd met een
diagonaalmatrix. En omgekeerd.
♢
Voorbeeld 13.3.4.We behandelen een speciaal geval met de 2 × 2-matrix
(
)
3
4
Q=
.
−1 −2
We hadden al eerder gezien dat
(
)
(
)
−4
−4
Q
=2
1
1
(
en
Q
1
−1
)
(
= −1
1
−1
)
,
dus we hebben een basis van eigenvectoren. We schrijven bovenstaande iets
anders,
(
) (
) (
)(
)
−4 1
−8 −1
−4 1
2 0
Q
=
=
.
1 −1
2
1
1 −1
0 −1
En hieruit zien we dat
S
−1
QS =
(
2
0
0
−1
)
(
,
met S =
−4 1
1 −1
)
.
Dus Q is geconjugeerd met een diagonaalmatrix. De conjugatie gebeurt met de
coordinatentransformatie matrix S.
♢
Een belangrijk gevolg van Stelling 13.3.1 is het volgende.
Gevolg 13.3.5 Als een n × n-matrix n verschillende eigenwaarden heeft, dan
heeft M een basis van eigenvectoren.
Bewijs: Noem de eigenwaarden λ1 , . . . , λn en kies bij elk eigenwaaarde een
eigenvector v1 , . . . , vn . Omdat de eigenwaarden verschillend zijn, volgt uit
Stelling 13.3.1 dat v1 , . . . , vn onafhankelijk zijn. Ze vormen dus een basis van
Rn .
2
Hier volgen nog een paar eigenschappen van conjugatie.
13.3. BASISEIGENSCHAPPEN
9
Lemma 13.3.6 Zij S een inverteerbare n × n-matrix en M een n × n- matrix.
Dan hebben M en S −1 M S hetzelfde karakteristieke polynoom
Bewijs: Dit volgt direct uit de volgende afleiding
det(S −1 M S − λIn ) = det(S −1 M S − λS −1 In S)
= det(S −1 (M − λIn )S)
= det(S)−1 det(M − λIn )det(S) = det(M − λIn )
2
Een andere belangrijke observatie is de volgende. Het karakteristieke polynoom
van een n × n-matrix M heeft de gedaante
det(M − λIn ) = (−λ)n + a1 (−λ)n−1 + · · · + an−1 (−λ) + an
(13.3)
De coëfficienten ai zijn natuurlijk functies van de matrixelementen van M .
Voor de meeste coëfficienten zien deze functies er nogal ingewikkeld uit. Het
blijkt echter dat de coëfficienten a1 en an een eenvoudige interpretatie hebben.
Daartoe definiëren we het spoor van een n × n-matrix A als de som van de
diagonaalelementen van A. Notatie: Sp(A).
Stelling 13.3.7 Met de zojuist ingevoerde notaties geldt:
an = det(M ),
a1 = Sp(M ).
Bewijs: De eerste bewering volgt door in (13.3) links en rechts λ = 0 in te
vullen. We vinden dan det(M ) = an . Dit was onze eerste bewering. Om de
tweede bewering in te zien bepalen we de coëfficient van (−λ)n−1 in det(M −λIn )
We bepalen deze door uitschrijven van de somformule voor
m12
...
m1n m11 − λ
m21
m22 − λ . . .
m2n .
det(M − λIn ) = ..
..
.
.
mn1
mn2
. . . mnn − λ
Bij uitschrijven van deze determinant blijkt dat het enige product dat bijdraagt
tot de coëfficient van (−λ)n−1 het product van de diagonaalelementen (m11 −
λ)(m22 − λ) · · · (mnn − λ) is. De bijdrage is precies gelijk aan m11 + m22 + · · · +
mnn . We concluderen nu dat
a1 = m11 + m22 + · · · + mnn .
2
Een direct gevolg van bovenstaande Stelling is dat we bij een diagonaliseerbare
matrix direct het product en de som van de eigenwaarden in de matrix M terug
kunnen zien.
10
HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN
Stelling 13.3.8 Zij M een diagonaliseerbare n × n-matrix met eigenwaarden
λ1 , λ2 , . . . , λn . Dan geldt
λ1 λ2 · · · λn = det(M )
λ1 + λ2 + · · · + λn = Sp(M ).
Bewijs: We gebruiken hiervoor Stelling 13.3.7 en het feit dat
(λ1 − λ) · · · (λn − λ) = λ1 · · · λn − · · · + (λ1 + · · · + λn )(−λ)n−1 + (−λ)n .
De constante coefficient is nu det(M ) = an = λ1 · · · λn en de coefficient van
(−λ)n−1 is Sp(M ) = a1 = λ1 + · · · + λn .
2
Helaas is niet iedere n × n matrix diagonaliseerbaar. Er zijn twee belangrijke
obstructies die we aan de hand
van)een voorbeeld aangeven. Neem als eerste
(
0 −1
voorbeeld de 2 × 2-matrix
, die een rotatie om 90o voorstelt. Het is
1 0
duidelijk dat er bij een rotatie in het vlak geen eigenvectoren kunnen zijn. Dit
wordt ook duidelijk als we de eigenwaardevergelijking opstellen.
−λ −1 2
1 −λ = λ + 1 = 0.
Deze vergelijking heeft geen reële oplossingen, en dus vinden we ook geen reële
eigenvectoren. De eerste obstructie is dus dat de eigenwaardevergelijking niet
voldoende oplossingen in R heeft.
De tweede obstructie treedt op als we eigenwaarden
met hogere multipliciteit
(
)
1 1
hebben. Neem bijvoorbeeld de matrix
. De eigenwaarde vergelijking
0 1
luidt
1 − λ
1 = (1 − λ)2 = 0.
0
1 − λ
Er is één eigenwaarde, namelijk λ = 1. Berekenen we de bijbehorende eigenruimte, dan vinden we de veelvouden van (1, 0). De eigenruimte is dus 1dimensionaal en aangezien er geen andere eigenwaarden dan 1 zijn, zijn dit de
enige eigenvectoren. In dit geval is er dus ook geen basis van eigenvectoren.
Beide obstructies zullen we in de komende paragrafen nader bekijken. Eerst
vertellen we iets over nulpunten van polynomen.
13.4
Polynomen en hun nulpunten (Optioneel)
Zij gegeven een polynoom of veelterm. Dat is een functie van de vorm
P (x) = pn xn + pn−1 xn−1 + · · · + p1 x + p0
met pi ∈ R of in C. Als pn ̸= 0 dan noemen we pn de kopcoëfficient en n
de graad van het polynoom P . Notatie: deg(P ). De graad van een constant
polynoom̸= 0, zoals 1 of 2 is nul. Merk op dat de graad van het triviale
polynoom 0 niet gedefinieerd is. Een eenvoudige doch nuttige eigenschap is de
volgende,
13.4. POLYNOMEN EN HUN NULPUNTEN (OPTIONEEL)
11
Stelling 13.4.1 Zij P, Q een tweetal niet-triviale polynomen. Dan geldt deg(P Q) =
deg(P ) + deg(Q).
Met andere woorden, de graden van twee polynomen tellen op als we ze vermenigvuldigen.
We noemen een element a een nulpunt van P als P (a) = 0. We hadden reeds
gezien in Stelling ?? dat P (x) niet meer dan n verschillende nulpunten kan
hebben. Verder geldt,
Stelling 13.4.2 Zij a een nulpunt van het polynoom P (x). Dan is er een
polynoom Q(x) zó dat P (x) = (x − a)Q(x).
Bewijs: Allereerst merken we op dat elk polynoom van de vorm xm − am als
volgt ontbindt,
xm − am = (x − a)(xm−1 + axm−2 + · · · + am−2 x + am−1 ).
We schrijven nu P (x) even uit
P (x) = pn xn + pn−1 xn−1 + · · · + p1 x + p0
en trekken daar 0 = P (a) = pn an + pn−1 an−1 + · · · + p1 a + p0 vanaf. We krijgen
P (x) = pn (xn − an ) + pn−1 (xn−1 − an−1 ) + · · · + p1 (x − a).
Elk van de termen xm − am rechts is deelbaar door x − a en dus ook hun som.
Daarmee is P (x) deelbaar door x − a. Met andere woorden er bestaat een
polynoom Q(x) zó dat P (x) = (x − a)Q(x).
2
Het kan wel eens gebeuren dat als een polynoom P het nulpunt a heeft, het
polynoom P meerdere factoren x − a bevat. Bijvoorbeeld P (x) = x4 − x3 + x2 −
3x + 2 heeft x = 1 als nulpunt. We kunnen nu schrijven P (x) = (x − 1)Q(x)
waarin Q(x) = x3 + x − 2. Maar het polynoom Q(x) heeft ook een nulpunt in
x = 1. Dus Q(x) = (x−1)(x2 +x+2). We vinden dus P (x) = (x−1)2 (x2 +x+2)
en de laatste factor heeft geen nulpunten x = 1 meer. We zeggen dat x = 1
een nulpunt van multipliciteit 2 is. In het algemeen, stel dat P (x) een nulpunt
a heeft en zij k het grootste getal zó dat P (x) = (x − a)k Q(x) voor een zeker
polynoom Q(x). Dan noemen we k de multipliciteit van het nulpunt x = a.
Het is lang niet altijd zo dat een polynoom een nulpunt heeft, denk maar aan
P (x) = x2 + 1, dat geen nulpunten in R heeft. Als we echter over de complexe
getallen werken, dan zijn er wel altijd nulpunten.
Stelling 13.4.3 (Hoofdstelling van de algebra) Zij P (x) een niet-triviaal
polynoom met reële of complexe coëfficienten. Dan is er een complex getal a zó
dat P (a) = 0.
We zullen deze stelling hier niet bewijzen, maar vermelden wel het belangrijkste
gevolg.
12
HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN
Gevolg 13.4.4 Zij P (x) = xn + pn−1 xn−1 + · · · + p1 x + p0 een polynoom van
graad n met reële of complexe coëfficienten. Dan zijn er n complexe getallen
a1 , a2 , . . . , an zó dat
P (x) = (x − a1 )(x − a2 ) · · · (x − an ).
Bewijs: We zien dit het makkelijkst door inductie naar n. Voor n = 1 is
P (x) = x + p0 meteen al van de vereiste vorm.
Stel nu n > 1 en dat ons Gevolg waar is voor polynomen van graad n − 1. Uit
de hoofdstelling van de algebra weten we dat ons n-de graads polynoom P (x)
een nulpunt an ∈ C heeft. Maar dan bestaat er een polynoom Q(x) van graad
n − 1 zó dat P (x) = (x − an )Q(x). Wegens onze inductiehypothese ontbindt
Q(x) in n − 1 factoren Q(x) = (x − a1 )(x − a2 ) . . . (x − an−1 ). We vinden dus
P (x) = (x − a1 )(x − a2 ) . . . (x − an ), waarmee onze bewering bewezen is.
2
Een ander gevolg van de hoofdstelling van de algebra is dat we ook iets kunnen
zeggen over reële polynomen.
Stelling 13.4.5 Zij P (x) = xn + pn−1 xn−1 + · · · + p1 x + p0 een polynoom van
graad n met coëfficienten in R. Dan bestaan er reële getallen a1 , a2 , . . . , am en
paren reële getallen bi , ci (i = 1, . . . , s) met m + 2s = n en b2i − 4ci < 0 zó dat
P (x) = (x − a1 )(x − a2 ) · · · (x − am )(x2 + b1 x + c1 ) · · · (x2 + bs x + cs ).
Het kan voorkomen dat m = 0 of s = 0, hetgeen betekent dat er geen lineaire factoren of kwadratische factoren hoeven zijn. Ruw samengevat zegt onze
stelling dat elk polynoom met reële coëfficienten geschreven kan worden als
product van lineaire en kwadratische polynomen met reële coëfficienten, waarbij de kwadratische polynomen negatieve discriminant hebben.
Bewijs: Deze bewering is een gevolg van Gevolg 13.4.4. Er bestaan namelijk
complexe getallen a1 , . . . , an zó dat
P (x) = (x − a1 )(x − a2 ) . . . (x − an ).
Een aantal van de ai , zeg de eerste m kunnen reëel zijn. De overige, niet-reële,
nulpunten komen in complex geconjugeerde paren voor. Als namelijk a een
complex nulpunt van P is, dan geldt, omdat P reële coëfficienten heeft, dat
P (a) = P (a) = 0. Dus a is ook een (complex) nulpunt van P . Het polynoom
(x − a)(x − a) is een kwadratisch polynoom met reële coëfficienten en negatieve
discriminant. Door de paren complex geconjugeerde nulpunten van P (x) bij
elkaar te nemen, vinden we de gewenste kwadratische factoren.
2
Gevolg 13.4.6 Een polynoom met coëfficienten in R en oneven graad heeft
minstens één reëel nulpunt.
Bewijs:
Als de graad oneven is, kan de ontbinding van het polynoom in
kwadratische en lineaire factoren niet uitsluitend uit kwadratische factoren
bestaan. Er moet een lineaire factor zijn, en dus een reëel nulpunt.
2
13.5. MULTIPLICITEITEN EN JORDAN NORMAALVORM
13.5
13
Multipliciteiten en Jordan normaalvorm
Zoals gezegd wordt afwezigheid van een basis van eigenvectoren van een matrix
M deels veroorzaakt door meervoudige nulpunten van het karakteristieke polynoom van M . Zij λ0 een eigenwaarde van M . De dimensie van de eigenruimte
Eλ0 noemen we de meetkundige multipliciteit van λ0 . De multipliciteit van λ0
als nulpunt van det(M − λIn ) noemen we de algebraı̈sche multipliciteit . Dan
geldt
Stelling 13.5.1 De algebraı̈sche multipliciteit van een eigenwaarde λ0 is groter
of gelijk aan de meetkundige multipliciteit.
Bewijs: Om deze stelling in te zien, stellen we de meetkundige multipliciteit
van λ0 gelijk aan m. Kies een basis v1 , . . . , vm van de eigenruimte van λ0 en
breidt deze uit tot een basis v1 , . . . , vn van Rn . Zij S de matrix met als i-de
kolom de kolomvector vi . We schrijven ook wel S = (v1 , . . . , vn ). Laat nu de
matrix M − λIn van links los op S. Omdat v1 , . . . , vm eigenvectoren van M
zijn, geldt
(M − λIn )S = ((λ0 − λ)v1 , . . . , (λ0 − λ)vm , M vm+1 − λvm+1 , . . . , M vn − λvn ).
Merk op dat de eerste m kolommen van de laatste matrix allen een factor
(λ0 − λ) bevatten. Dus
det(M − λIn )det(S) = (λ0 − λ)m Q(λ)
waarin Q(λ) de determinant is die we overhouden na wegdeling van de factoren
λ0 − λ. Merk op dat Q(λ) een polynoom in λ is en det(S) een constante ̸= 0.
We zien nu dat de algebraı̈sche multipliciteit van λ0 minstens gelijk is aan m,
waarmee de stelling bewezen is.
2
Een extreem geval waarin meetkundige en algebraı̈sche multipliciteit uiteenlopen zijn matrices van de vorm


a 1 0 ... 0
0 a 1 ... 0


0 0 a ... 0
.
.
.. 
 ..
.


0 0 0 ... 1
0 0 0 ... a
Met andere woorden, matrices met hetzelfde element a op de diagonaal, allemaal
enen op de nevendiagonaal erboven en nullen op alle andere plaatsen. Een
dergelijke matrix word ook wel Jordan blok genoemd met eigenwaarde a. Zij J
een n × n Jordan blok met eigenwaarde a. De eigenwaarde vergelijking luidt
(a−λ)n = 0 (ga na!). We zien dus dat de algebraı̈sche multipliciteit van a gelijk
is aan n. Daarentegen zien we ook dat de rang van J − aIn gelijk is aan n − 1,
en dus heeft de eigenruimte bij a dimensie 1. De meetkundige multipliciteit
14
HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN
van a is daarmee 1. We zien dus dat Jordanblokken niet diagonaliseerbaar zijn,
tenzij we n = 1 hebben, het 1 × 1-blok. In het geval n = 1 is het Jordan triviaal
diagonaliseerbaar, het staat immers al in die vorm.
Met behulp van Jordanblokken kunnen we ook matrices vormen waarbij voor
meerdere eigenwaarden de meetkundige en algebraı̈sche multipliciteit uit elkaar
loopt. We doen dit door Jordanblokken als volgt op elkaar te stapelen. De
blokken


(
)
3 1 0
2 1
 0 3 1  en
0 2
0 0 3
stapelen we op tot

3
0

0

0
0
1
3
0
0
0
0
1
3
0
0
0
0
0
2
0

0
0

0
.
1
2
In het algemeen:

J1
O
 .
 ..
O
J2
O
O
...
..
.
...

O
O 
.. 
. 
Jm
waarin J1 , J2 , . . . , Jm Jordanblokken van eventueel verschillende afmetingen
zijn. De symbolen O staan voor nulmatrices van diverse afmetingen. Een
diagonaalmatrix kunnen we ons opgebouwd denken uit 1 × 1 Jordanblokken.
Matrices, opgebouwd uit Jordanblokken, noemen we Jordan matrices.
Stelling 13.5.2 (Jordan normaalvorm) Zij M een n × n-matrix met elementen in R resp C, waarvan de eigenwaardevergelijking al zijn oplossingen in
R resp. C heeft. Dan is er een inverteerbare matrix S en een Jordan matrix J
zó dat
S −1 M S = J.
Bovendien, als de eigenwaarde λ0 van M algebraı̈sche multipliciteit m heeft,
dan komt de λ0 precies m maal op de diagonaal van J voor.
13.6
Cayley-Hamilton (Optioneel)
Stel dat we een diagonaliseerbare n × n-matrix M hebben. Zij S inverteerbaar zó dat S −1 M S een diagonaalmatrix D is. De diagonaal elementen van
D zijn precies de eigenwaarden λ1 , . . . , λn van M . Stel dat het karakteristieke
polynoom van M , na vermenigvuldiging met (−1)n , gelijk is aan
λn + a1 λn−1 + · · · + an−1 λ + an .
De eigenwaarden λi zijn precies de nulpunten van dit polynoom. Dus moet ook
gelden,
Dn + a1 Dn−1 + · · · + an−1 D + an = O,
(13.4)
13.7. EEN TOEPASSING, GOOGLE’S PAGERANK (OPTIONEEL)
15
waarin O de n × n nulmatrix is. Merk nu op dat SDS −1 = M , SD2 S −1 =
M 2 , . . . SDn S −1 = M n . Conjugatie van (13.4) levert
SDn S −1 + a1 SDn−1 S −1 + · · · + an−1 SDS −1 + an = O
en dus,
M n + a1 M n−1 + · · · + an−1 M + an = O.
Deze laatste identiteit is een speciaal geval van de volgende stelling.
Stelling 13.6.1 (Cayley-Hamilton) Zij M een n × n matrix en zij λn +
a1 λn−1 + · · · + an−1 λ + an het karakteristieke polynoom van M . Dan geldt,
M n + a1 M n−1 + · · · + an−1 M + an = O.
Het argument dat we boven gaven levert een bewijs van de Stelling van CayleyHamilton voor het geval dat M diagonaliseerbaar is. De stelling geldt echter
voor iedere willekeurige n × n matrix M . Het bewijs voor dit algemene geval
volgt later.
13.7
Een toepassing, Google’s Pagerank (optioneel)
Eigenwaarden en eigenvectoren komen in de praktijk in talloze toepassingen
voor. Met name in de natuurkunde, waarin trillingsverschijnselen en quantummechanica allen voorbeelden geven van eigenvectoren in (oneindigdimensionale)
vectorruimten en operatoren die erop werken. Ook in de techniek, wiskunde,
scheikunde etc. spelen ze een belangrijke rol. In deze paragraaf bespreken we
de wiskunde achter een heel eigentijdse toepassing, namelijk de bepaling van
de zogenaamde page rank die op gezette tijden door Google wordt opgesteld
om een ranglijst naar relevantie van webpaginas over de hele wereld te geven.
Hierover zijn veel artikelen op internet te vinden, wij noemen
http://www.ams.org/samplings/feature-column/fcarc-pagerank die je als
achtergrondmateriaal zou kunnen lezen. Wij behandelen hier eerst het wiskundige
idee en geven daarna kort weer hoe het bij Google toegepast wordt. De precieze
details van de berekening zijn bedrijfsgeheim.
Zij A een m × m matrix en kies een startvector x0 . Laat A hier herhaald op
los,
x1 = Ax0 , x2 = Ax1 , . . . xk+1 = Axk , . . .
De vector xk wordt natuurlijk gegeven door xk = Ak x0 voor elke k ∈ Z≥0 .
Grote vraag is wat er gebeurt met Ak x0 als k → ∞. Voor de beantwoording
van deze vraag zijn eigenvectoren en eigenwaarden van A bijzonder handig.
Neem om te beginnen aan dat A een basis van eigenvektoren v1 , . . . , vm heeft
met eigenwaarden λ1 , . . . , λm (eventueel over de complexe getallen). Schrijf nu
x0 als lineaire combinatie van de eigenvectoren, x0 = α1 v1 + · · · + αm vm en
merk op, dat
xk = Ak x0 = α1 λk1 v1 + · · · + αm λkm vm .
(13.5)
16
HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN
In het bijzonder, als |λi | < 1 voor alle i, dan geldt limk→∞ xk = 0, ongeacht de
startvektor x0 . Trouwens, ook als er geen basis van eigenvektoren bestaat dan
blijft deze uitspraak waar.
Stelling 13.7.1 Stel dat de m × m matrix A eigenwaarden heeft die allen
kleiner dan 1 zijn in absolute waarde (zowel de reële als complexe). Dan geldt
dat limn→∞ Ak = 0 d.w.z., voor elke i, j gaat het element met index (i, j) in Ak
naar 0 als k → ∞.
Laten we nu een matrix nemen met eigenwaarde 1 en |λ| < 1 voor alle andere
eigenwaarden λ ∈ C. Bijvoorbeeld,


0
1 1
1
A =  −1 −2 5  .
2
−1 −1 4
Deze matrix heeft eigenwaarden 1, 1/2, −1/2 en de eigenwaarde 1 heeft als bijbehorende eigenvector (1, 1, 1)t . Voor de 5e en 10e macht van A vinden we, tot
op vier decimalen,




−0.9375 −0.9062 2.8437
−0.99804 −0.99902 2.9970
A5 =  −0.9687 −1.0000 2.9687  A10 =  −0.99902 −0.99804 2.9970 
−0.9687 −0.9687 2.9375
−0.99902 −0.99902 2.9980
Het lijkt er dus op dat de kolommen van Ak naar een veelvoud van de eigenvector (1, 1, 1)t convergeren als k → ∞. A fortiori convergeert Ak x0 voor elke
startvector x0 naar een veelvoud van (1, 1, 1)t . De eigenwaarde is de grootste
van de drie eigenwaarden en we noemen het de dominante eigenwaarde. Deze
speelt een belangrijke rol bij de bepaling van Ak als k → ∞.
In het algemeen noemen we de eigenwaarde λ van de m × m matrix A een
dominante eigenwaarde als λ algebraische multipliciteit 1 heeft en als voor iedere
andere eigenwaarde µ, ook de complexe, geldt dat |µ| < |λ|.
Stelling 13.7.2 Stel dat de m × m matrix A een dominante eigenwaarde λ
heeft. Zij v een eigenvektor bij λ. Dan is er bij elke x0 ∈ Rm een scalair c(x0 )
zó dat
( )k
1
lim
Ak x0 = c(x0 )v.
k→∞ λ
Merk op dat (1/λ)k Ak = (A/λ)k en dat A/λ een matrix met dominante eigenwaarde 1 is. Dit is precies de situatie uit ons voorbeeld.
Indien A in Stelling 13.7.2 een basis van eigenvektoren heeft, dan is het bewijs
niet lastig. Beschouw (13.5) en stel v1 = v en λ1 = λ. We vinden,
(1/λ)k Ak x0 = α1 v + α2 (λ2 /λ)k v2 + · · · + αm (λm /λ)k vm .
Omdat |λ1 | > |λi | voor alle i > 1 volgt hieruit dat limk→∞ (1/λ)k Ak x0 = α1 v.
De coëfficient α1 is de scalair c(x0 ) uit de Stelling. Het bewijs voor het geval
er geen basis van eigenvectoren bestaat is lastiger en laten we hier achterwege.
13.7. EEN TOEPASSING, GOOGLE’S PAGERANK (OPTIONEEL)
17
In de praktijk hebben de matrices A waarmee we werken elementen die groter of
gelijk aan nul zijn. Aan dergelijke matrices kunnen we een zogenaamde gerichte
graaf toekennen. Voor elke index i = 1, . . . , m tekenen we een punt in het vlak
en trekken een verbindingslijn van punt i naar punt j als het matrix element
aij strikt positief is (dus niet nul). Voorbeeld, de matrix heeft als gerichte graaf
(3)
(1)
(2)
Definitie 13.7.3 Onder een pad in de graaf verstaan we een opeenvolging van
gerichte lijnstukken, waarbij het eindpunt van de één weer beginpunt van de
ander is. Een gerichte graaf heet samenhangend als elk punt van de graaf via
een pad met elk ander punt verbonden is. De graaf heet a-cyclisch als de grootste
gemeenschappelijke deler van alle lengtes van gesloten paden gelijk is aan 1.
Merk in het bijzonder op dat de graaf bij een matrix A a-cyclisch is als A
een positief diagonaal-element aii heeft. De bijbehorende graaf heeft dan een
verbinding van het punt (i) naar zichzelf en dat is een gesloten pad met lengte
1.
We hebben nu de volgende klassieke stelling, waarvan we het bewijs niet zullen
geven.
Stelling 13.7.4 (Perron-Frobenius) Zij A een m × m-matrix met alle elementen ≥ 0. Als de bijbehorende graaf samenhangend en a-cyclisch is, dan
heeft A een dominante eigenwaarde.
Dat de twee voorwaarden(nodig )
zijn moge blijken uit de volgende simpele voor2 0
beelden. De graaf van
heeft de twee eigenwaarden 2 en dus geen
0 2
dominante eigenwaarde. De bijbehorende graaf bestaat uit twee punten die
alleen met zichzelf verbonden zijn, maar niet
De graaf is dus niet
( met elkaar.
)
0 1
samenhangend. Een ander voorbeeld is A =
. De eigenwaarden zijn ±1
1 0
en er is dus geen dominante eigenwaarde. De graaf bestaat uit twee punten (1)
en (2), waarbij (1) verbonden wordt met (2) en (2) met (1). Het is duidelijk dat
elk gesloten pad bestaat uit herhaling van (1)→(2)→(1) of van (2)→(1)→(2).
Elk gesloten pad heeft even lengte en de graaf is dus niet a-cyclisch.
We gaan nu terug naar Google’s page rank. Het idee is om aan elke webpagina
P een gewicht I(P ) van belangrijkheid toe te kennen. Stel bijvoorbeeld dat
webpagina Pj lj links heeft. Als zo’n link naar pagina Pi wijst, dan krijgt
die pagina een bijdrage I(Pj )/lj aan zijn gewicht van webpagina Pj . Als we de
18
HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN
verzameling pagina’s die een link naar Pi hebben, aangeven met Bi , dan krijgen
we:
∑ I(Pj )
I(Pi ) =
.
lj
Pj ∈Bi
Om de waarden van I(P ) te vinden moeten we dit stelsel lineaire vergelijkingen
oplossen. Gezien de grootte van de coefficienten matrix is dit een onmogelijke
taak. Het idee is om de oplossing te benaderen door er een eigenwaarde probleem van te maken. Stel we hebben N webpaginas. We stellen de N ×N -matrix
G op door op plaats i, j de waarde 1/lj te zetten als Pj naar Pi wijst en 0 anders. Geven we de vector met componenten I(Pi ) aan met I dan kunnen we
bovenstaand stelsel vergelijkingen herschrijven als
I = GI.
Met andere woorden, I is een eigenvector met eigenwaarde 1 van G. We gaan
ervan uit dat G bekend is, en de opgave is om I te berekenen. We gebruiken nu
de Stelling van Perron-Frobenius. Kies een startvector I0 en laat G herhaald
los, I1 = GI0 , I2 = GI1 , . . . , Ik+1 = GIk , . . .. De opzet is dat de rij Ik naar
een stationaire vector, de oplossing van ons probleem, convergeert en dat dit
in redelijk snelle tijd gebeurt. Zoals we boven zagen zijn er restricties op de
matrix opdat we convergentie krijgen. Die kunnen we forceren door in plaats
van G de matrix αG + (1 − α)H/N te nemen waarin α een kleine parameter is
en H de N × N -matrix met 1 op elke plaats. Deze maatregel dempt eventuele
ongewenste fluctuaties. Met een parameterwaarde van 0.85 lijkt het dat er 50
tot 100 iteraties nodig zijn om een acceptabele benadering van I te vinden. Een
dergelijke berekening duurt enkele dagen. Dat de berekening met de reusachtige
matrix G mogelijk is, komt doordat G een zogenaamde sparse matrix is. Dat
wil zeggen, het merendeel van de coefficienten is nul en hoeft niet meegenomen
te worden in de berekeningen.
Op gezette tijden (eens per maand?) wordt bij Google de benadering van de
gewichtsvector I bijgewerkt en aangepast aan het veranderende internet.
13.8
Opgaven
Opgave 13.8.1. Bepaal voor de volgende matrices het karakteristieke polynoom, de eigenwaarden en de eigenvectoren.
(
)
(
)
1 0
2 1
a)
,
b)
2 3
0 −1
(
)
(
)
2 −1
13 −16
c)
,
d)
−1 2
9 −11
(
)
(
)
1 −1
2 2
e)
,
f)
1 3
3 3




−2 −1 0
−6 −1 2
h)  0
1
1 
g)  3
2 0,
−2 −2 −1
−14 −2 5
13.8. OPGAVEN

i)

−7
4
−3
j)  8
−3
3 
32 −16 13




6 4 4 1
2 4 4
4 6 1 4

 0 1 −1  ,
l) 
4 1 6 4
0 1 3
1 4 4 6



4 1 1
1 −1 −1 −1
 −1 1 −1 −1 
5 1 1
,

n) 

 −1 −1 1 −1 
1 4 2
1 2 4
−1 −1 −1 1
3
 −12
4
k)

m)
19
5
4

1
1

−1 −1
0
5 ,
−2 −1

Opgave 13.8.2. Zij A, B een tweetal n×n-matrices. Stel dat λ een eigenwaarde
van A is en µ een eigenwaarde van B.
1. Laat met een voorbeeld zien dat λ + µ geen eigenwaarde hoeft te zijn van
A + B.
2. Laat met een voorbeeld zien dat λµ geen eigenwaarde hoeft te zijn van
AB.
3. Stel dat λ en µ behoren bij dezelfde eigenvector. Laat zien dat A + B
eigenwaarde λ + µ heeft en AB eigenwaarde λµ.
Opgave 13.8.3. Zij A een n × n-matrix. Bewijs dat A en At dezelfde eigenwaardevergelijking hebben.
Opgave 13.8.4. Zij A een n × n matrix zó dat de som van de elementen uit
elke rij gelijk is aan 1. Bewijs dat A eigenwaarde 1 heeft.
Zij A een n × n-matrix zó dat de som van de elementen uit elke kolom gelijk is
aan 1. Bewijs dat A eigenwaarde 1 heeft.
Opgave 13.8.5. Zij A een n × n-matrix en λ een eigenwaarde. Laat zien dat
Ak eigenwaarde λk heeft voor elke k ∈ Z≥1 .
Stel bovendien dat A inverteerbaar is. Bewijs dat λ−1 een eigenwaarde is.
Opgave 13.8.6. Zij A een nilpotente n × n-matrix, dat wil zeggen, er is een
k ∈ Z≥0 zó dat Ak = O. Bewijs dat 0 de enige eigenwaarde van A is.
Opgave 13.8.7. Gegeven is

−3
A =  −7
−6
1
5
6

−1
−1 
2
Bereken de eigenwaarden en eigenvectoren. Bepaal een inverteerbare matrix S
zó dat S −1 AS een diagonaalmatrix is.
Is S uniek bepaald? Geef meerdere mogelijkheden voor S.
20
HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN
Opgave 13.8.8. Zelfde vraag als daarnet maar nu voor


1 −2 2
A =  −2 −2 4 
2
4 −2
Opgave 13.8.9. Zijn de volgende matrices diagonaliseerbaar?




1 −2 0
2 0 0
 −2 0 −2  ,
1 2 0.
0
2
1
0 1 2
Opgave 13.8.10. Gegeven is de n × n diagonaal matrix Λ met elementen
λ1 , . . . , λn op de diagonaal. Gegeven is dat alle λi verschillend zijn. Zij S een
inverteerbare n × n-matrix zó dat S −1 ΛS = Λ. Bewijs dat S een diagonaalmatrix is.
Opgave 13.8.11. Zij A een n × n matrix met n verschillende positieve eigenwaarden. Bewijs dat er een matrix B bestaat zó dat B 2 = A. Is B uniek
bepaald?
Opgave 13.8.12. Zij A en B een tweetal geconjugeerde n × n-matrices (dwz
er bestaat een inverteerbare S zó dat B = S −1 AS). Bewijs dat A en B dezelfde
eigenwaarde vergelijking hebben.
Opgave 13.8.13. Zij A, B een tweetal n × n-matrices. Bewijs dat AB en BA
dezelfde eigenwaardenvergelijking hebben. (Hint: begin met A of B inverteerbaar en gebruik de voorgaande opgave).
Laat ook zien dat Sp(AB) = Sp(BA).
Opgave 13.8.14. Gegeven is het polynoom q(t) = tn +an−1 tn−1 +· · ·+a1 t+a0 .
Beschouw de matrix


−an−1 −an−2 · · · −a1 −a0
 1
0
···
0
0 


 0

1
·
·
·
0
0
Q=
.. 
 ...
. 


 0
0
···
0
0 
0
0
···
1
0
Bewijs dat det(Q − λIn ) = (−1)n q(λ). Met andere woorden, q(λ) = 0 is de
eigenwaardevergelijking van Q.
Opgave 13.8.15. Verifieer de Stelling van Cayley-Hamilton aan de hand van
het voorbeeld
(
)
1 1
M=
2 3
Opgave 13.8.16. Zij A een inverteerbare 2×2-matrix met eigenwaardevergelijking λ2 + aλ + b = 0. Laat zien dat A−1 gegeven wordt door A−1 = − 1b A − ab I2 .
13.8. OPGAVEN
21
Opgave 13.8.17. Zij M een n × n-matrix met alleen maar eigenwaarden 0.
Bewijs dat M nilpotent is (hint: gebruik Cayley-Hamilton).
Opgave 13.8.18. Beschouw de lineaire afbeelding A : R3 → R3 gegeven door
de matrix


1 −2 0
M =  −2 0 −2  .
0
2
1
1. Bereken de eigenwaarden en eigenvectoren van A.
2. Bereken de kern van A.
3. Bepaal een basis van A(R3 ).
Opgave 13.8.19. De lineaire afbeelding A
matrix

7 −3 −1
 −3 7
1

 −1 1
7
1 −1 −3
: R4 → R4 wordt gegeven door de

1
−1 
.
−3 
7
Bereken de eigenwaarden en eigenvectoren van A.
Opgave 13.8.20. Zij α ∈ R. De lineaire afbeelding Aα : R3 → R3 heeft de
matrix


1 −α2 + α − 2
0
1
2α − 1
α − 1.
0
4
1
1. Bereken de eigenwaarden van Aα .
2. Eén eigenwaarde is onafhankelijk van α. Bepaal de eigenruimte behorend
bij deze eigenwaarde.
3. Voor welke waarde(n) van α heeft Aα een tweedimensionale eigenruimte
in R3 ?
Opgave 13.8.21. De lineaire afbeelding
matrix

−10 7
 −6 5
−6 4
A : R3 → R3 wordt gegeven door de

11
6 .
7
Bereken de eigenwaarden en eigenvectoren van A.
Opgave 13.8.22. De lineaire afbeelding A : R3 → R3 heeft de eigenwaarden
1, −1 en 0. Ten opzichte van de standaardbasis is (1, 1, 1) een eigenvector bij
de eigenwaarde 1, (1, 2, 0) een eigenvector bij de eigenwaarde −1 en (3, 0, 1) een
eigenvector bij de eigenwaarde 0. Bereken de matrix van A ten opzichte van de
standaardbasis.
22
HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN
Opgave 13.8.23. De lineaire afbeelding A : R3 → R3 heeft ten opzichte van
de standaardbasis de matrix


−3 1 −1
 −7 5 −1  .
−6 6 2
1. Bereken de eigenwaarden van A en de corresponderende eigenvectoren.
2. Is het mogelijk om een basis e1 , e2 , e3 te vinden, zó dat de matrix van
A ten opzichte van deze basis een diagonaalmatrix is? Hoeveel van deze
bases kunnen gevonden worden?
Opgave 13.8.24. Zelfde opgave als

1
 −2
2
daarnet, maar nu met de matrix

−2 2
−2 4  .
4 −2
Opgave 13.8.25. Dezelfde vragen als daarnet maar nu twee afbeeldingen
B : R3 → R3 en C : R3 → R3 met respectievelijk de matrices




1 −2 0
2 0 0
 −2 0 −2 
1 2 0.
0
2
1
0 1 2
Opgave 13.8.26. In een n-dimensionale vectorruimte V zijn A : V → V en
B : V → V een tweetal lineaire afbeeldingen.
1. (Lastig als A, B niet inverteerbaar) Bewijs dat de lineaire afbeeldingen
AB en BA dezelfde eigenwaarden hebben.
2. Als A een bijectieve afbeelding is en λ een eigenwaarde van A, dan is λ−1
een eigenwaarde van A−1 .
3. Bewijs dat, als A een eigenwaarde λ heeft met bijbehorende eigenvector
v, deze vector tevens eigenvector van An is met eigenwaarde λn .
4. Zij A, B en tweetal n × n-matrices. Bewijs dat Sp(AB) = Sp(BA).
Opgave 13.8.27. Zij A : Rn → Rn een lineaire afbeelding. Gegeven is dat
A2 = A. Bewijs dat elke eigenwaarde van A of 0 of 1 is.
(
)
α β
Opgave 13.8.28. De lineaire afbeelding A : R2 → R2 heeft de matrix
γ δ
2
met γ ̸= 0. Bovendien is gegeven dat A = A.
α β = 0. Druk β in α en γ uit.
1. Bewijs dat α + δ = 1 en dat γ δ
2. Bereken de eigenwaarden van A of beredeneer welke eigenwaarden A heeft.
13.8. OPGAVEN
23
Opgave 13.8.29. De lineaire afbeelding A : R3 → R3 heeft de matrix


2 1 −1
2 2 1 .
3 0 3
1. Bereken de eigenwaarden van A en bepaal de corresponderende eigenruimten.
2. Bepaal de vergelijking van het vlak dat onder A invariant is.
Opgave 13.8.30. Zij M22 (C) de vectorruimte van twee bij twee matrices met
elementen in C. Een basis van deze vectorruimte wordt gegeven door
(
)
(
)
(
)
(
)
1 0
0 1
0 0
0 0
f1 =
, f2 =
, f3 =
, f4 =
.
0 0
0 0
1 0
0 1
Definieer de afbeelding T : M22 (C) → M22 (C) door
(
)
(
)
a b
a b
T :
7→ M
M t,
c d
c d
(
)
2 0
waarin M =
.
1 −1
1. Bewijs dat T een lineaire afbeelding is.
2. Bepaal de matrix van T ten opzichte van f1 , f2 , f3 , f4 .
3. Bepaal de eigenwaarden en eigenvectoren van T .
Opgave 13.8.31. Zij C[X]2 de ruimte van polynomen van graad hooguit
2 met coefficienten in C. Definieer de afbeelding T : C[X]2 → C[X]2 door
T : p(X) 7→ p(X + 1).
1. Bewijs dat T lineair is.
2. Bepaal de matrix van T ten opzichte van de basis 1, X, X 2 .
3. Bepaal de eigenwaarden en eigenvectoren van T .
Opgave 13.8.32. Definieer T : R[X] → R[X] door T : p(X) 7→
∫X
0
p(t)dt.
1. Bewijs dat T een lineaire afbeelding is, en dat T injectief, maar niet
surjectief is.
2. Bewijs dat T geen eigenvectoren heeft.
Opgave 13.8.33. Zij R[X]n de vectorruimte van polynomen met graad ≤ n.
Definieer T : R[X]n → R[X]n door T : p(X) 7→ p(X) + Xp′ (X).
1. Bewijs dat T inderdaad R[X]n naar zichzelf afbeeldt en lineair is.
24
HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN
2. Laat zien dat 1, X, X 2 , . . . , X n een basis van R[X]n is.
3. Vindt alle eigenwaarden en eigevectoren van T in het geval dat n = 2.
4. Vindt alle eigenwaarden en eigenvectoren in het algemene geval.
Opgave 13.8.34. Definieer T : R[X] → R[X] door T : p(X) 7→ xp′′ (X)+p′ (X).
Bepaal alle eigenwaarden en eigenvectoren van T .
Opgave 13.8.35. Zij R[X]n de vectorruimte van polynomen met graad ≤ n.
Definieer T : R[X]n → R[X]n door T : p(X) 7→ −p′′ (X) + Xp′ (X).
1. Bewijs dat T inderdaad R[X]n naar zichzelf afbeeldt en lineair is.
2. Laat zien dat 1, X, X 2 , . . . , X n een basis van R[X]n is.
3. Vindt alle eigenwaarden van T in het geval dat n = 2.
4. Vindt alle eigenwaarden in het algemene geval.
Opgave 13.8.36. Zij R[X]n de vectorruimte van polynomen met graad ≤ n.
Definieer T : R[X]2 → R[X]2 door T : p(X) 7→ (X 3 − X)p′′ (X) + X 2 p′ (X) −
4Xp(X).
1. Verifieer dat T de ruimte R[X]2 naar zichzelf afbeeldt en dat T lineair is.
2. Schrijf de matrix van T uit ten opzichte van de geordende basis 1, X, X 2 .
3. Bepaal de eigenwaarden en eigenvectoren van T .
4. Laat zien dat T de ruimte R[X]3 niet naar zichzelf afbeeldt.
Opgave 13.8.37.Beschouw de lineaire afbeelding A : R∞ → R∞ gegeven door
A : (x1 , x2 , . . .) 7→ (0, x1 , x2 , . . .) (’shift operator’). Bewijs dat A geen eigenvectoren heeft.
Opgave 13.8.38.Bewijs dat de functies sin(kx) voor k = 1, 2, . . . lineair onafhankelijk zijn door middel van Stelling 13.3.1 en een geschikte lineaire afbeelding van de ruimte C ∞ (R) naar zichzelf.
Hoofdstuk 14
Vectorruimten met inproduct
14.1
Inwendige producten
Zij V een vectorruimte over R. Een inwendig product op V is een functie
V × V → R, genoteerd met x, y 7→ ⟨x, y⟩, die aan de volgende eigenschappen
voldoet.
1. ⟨x, y⟩ = ⟨y, x⟩ voor elke x, y ∈ V .
2. ⟨λx, y⟩ = λ ⟨x, y⟩ voor elke x, y ∈ V en λ ∈ V .
3. ⟨x + y, z⟩ = ⟨x, z⟩ + ⟨y, z⟩ voor elke x, y, z ∈ V .
4. ⟨x, x⟩ ≥ 0 voor alle x ∈ V en bovendien: ⟨x, x⟩ = 0 ⇐⇒ x = 0.
Eigenschappen (ii) en (iii) laten zien dat een inproduct linear is in het eerste
argument. Wegens de symmetrie (i) geldt nu dat een inproduct ook lineair is
in het tweede argument. Dat wil zeggen:
⟨x, λy + µz⟩ = λ ⟨x, y⟩ + µ ⟨x, z⟩
voor alle x, y, z ∈ V en λ, µ ∈ R.
Hier zijn een aantal voorbeelden.
Voorbeeld 14.1.1. V = Rn met het standaard inproduct of dotproduct
♢
Voorbeeld 14.1.2. V = R∞
0 , de ruimte van oneindige rijen reële getallen die
vanaf zeker moment nul zijn. Als inproduct kunnen we nemen:
⟨(x1 , x2 , x3 , . . .), (y1 , y2 , y3 , . . .)⟩ = x1 y1 + x2 y2 + x3 y3 + · · ·
♢
Voorbeeld 14.1.3. (optioneel) Iets interessanter is de deelruimte
l2 van R∞
∑∞
bestaande uit alle oneindige rijen (x1 , x2 , x3 , . . .) zó dat de reeks i=1 x2i convergent is. Dat l2 een deelruimte is, volgt uit de volgende observaties.
25
26
HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT
1. 0 = (0, 0, . . .) ∈ l2 want
∑∞
i=1 0
2
= 0.
2. Stel ∑
x = (x1 , x2 , . . .) en λ ∈ R. Dan convergeert de reeks
2
2
ook ∞
i=1 (λxi ) . Dus λx ∈ l .
∑∞
2
i=1 xi ,
en dus
3. Stel
. . .) en y = (y1 , y2 , . . .). Dan geldt
∑n x = (x12, x2 ,∑
∑∞voor2 elke∑n∞ dat2
n
2 + y 2 ). Omdat de reeksen
(x
+
y
)
≤
2(x
i
i
i
i
i=1
i=1
i=1 xi en
i=1 yi
∑
2 ook.
convergeren, convergeert ∞
(x
+
y
)
i
i=1 i
∑
Als inproduct van x = (x1 , x2 , . . .) en y = (y1 , y2 , . . .) nemen we ∞
i=1 xi yi .
We moeten wel laten zien dat deze reeks convergeert. Deze convergentie blijkt
zelfs absoluut te zijn. Voor elke n geldt namelijk volgens de ongelijkheid van
Schwarz dat,
v
v
u n
u n
n
∑
u∑
u∑
2
t
xi · t
yi2 .
|xi yi | ≤
i=1
Omdat de reeksen
ook.
∑∞
2
i=1 xi
en
∑∞
i=1
2
i=1 yi
i=1
convergeren, convergeert
∑∞
i=1 |xi yi |
♢
Voorbeeld 14.1.4. V = R2 met
⟨(x1 , y1 ), (x2 , y2 )⟩ = 2x1 y1 + x1 y2 + x2 y1 + 2x2 y2
Opgave: ga zelf na dat dit een inproduct is. We zien hiermee onder anderen
dat er vele andere inproducten op R2 , en ook Rn , zijn naast het gebruikelijke
dotproduct.
♢
Voorbeeld 14.1.5.
∫ 1 V = C([0, 1]), de verzameling van continue functies op
[0, 1] en ⟨f, g⟩ = 0 f (x)g(x)dx. We zullen eigenschappen (i) tot en met (iv)
voor dit inproduct controleren.
∫1
∫1
1. ⟨f, g⟩ = 0 f (x)g(x)dx = 0 g(x)f (x)dx = ⟨g, f ⟩.
∫1
∫1
2. ⟨λf, g⟩ = 0 λf (x)g(x)dx = λ 0 f (x)g(x)dx = λ ⟨f, g⟩.
∫1
∫1
∫1
3. ⟨f + g, h⟩ = 0 (f (x) + g(x))h(x)dx = 0 f (x)h(x)dx + 0 g(x)h(x)dx =
⟨f, h⟩ + ⟨g, h⟩.
∫1
∫1
4. ⟨f, f ⟩ = 0 f (x)2 dx ≥ 0 0 · dx = 0. We moeten nu nog laten zien
dat ⟨f, f ⟩ = 0 impliceert dat f (x) = 0 voor alle x ∈ [0, 1]. Vaak is
dit de lastigste stap in het bewijs dat we met een inproduct te maken
hebben. In dit geval maken gebruik van de continuiteit van f (x). Stel
namelijk dat er een punt x0 ∈ [0, 1] is met f (x0 ) ̸= 0. Dat betekent
dat f (x0 )2 > 0. Wegens de continuiteit van f (x)2 is er een δ > 0 zodat
f (x)2 ≥ f (x0 )2 /2 voor alle x0 ∈ [0, 1] ∩ ∫[−δ, δ]. De lengte van dit laatste
1
interval is minstens δ. Dat betekent dat 0 f (x)2 dx groter of gelijk δ maal
∫
1
f (x0 )2 /2 is. Conclusie, 0 f (x)2 dx > 0. Dit is in tegenspraak met het
gegeven dat de integraal 0 is. Het kan blijkbaar dus niet gebeuren dat
f (x0 ) ̸= 0. Gevolg, f (x0 ) = 0 voor alle x0 ∈ [0, 1].
14.1. INWENDIGE PRODUCTEN
27
∫∞
♢
−x2
Voorbeeld 14.1.6. V = R[x] met als inproduct ⟨p, q⟩ = −∞ p(x)q(x)e dx.
Het bewijs dat dit een inproduct is verloopt op analoge wijze als bij het vorige
voorbeeld.
♢
Voorbeeld 14.1.7. Er zijn ook vectorruimten waarbij het helemaal niet duidelijk
is of er een inproduct op te definiëren valt. Probeer maar eens een inproduct
te bedenken op R∞ , of op C(R), de ruimte van continue functies op R.
♢
Stel dat V een vectorruimte
met inproduct is. We definiëren de lengte van een
√
vector v ∈ V als ⟨v, v⟩. Notatie: ||v||. Evenals bij het dotproduct geldt ook
hier de ongelijkheid van Cauchy-Schwarz.
Stelling 14.1.8 Zij V een vectorruimte met inproduct. Dan geldt voor elk
tweetal x, y ∈ V de ongelijkheid
| ⟨x, y⟩ | ≤ ||x|| · ||y||.
Bewijs: Het bewijs kunnen we hier verbatim overnemen van het bewijs voor
het dotproduct. Als x = 0 dan zijn beide zijden van de ongelijkheid nul, en
dus klopt de ongelijkheid. Stel nu x ̸= 0. Dan geldt ook dat ||x|| > 0. Dit
volgt uit eigenschap (iv) van het inproduct. Voor elke keuze van λ ∈ R geldt
0 ≤ ||λx + y||. Laten we dit uitwerken.
0 ≤ ⟨λx + y, λx + y⟩
= λ2 ⟨x, x⟩ + 2λ ⟨x, y⟩ + ⟨y, y⟩
De rechterkant kan gezien worden als een kwadratische functie in λ die uitsluitend waarden ≥ 0 aanneemt. De discriminant is dus ≤ 0. Met andere woorden,
4 ⟨x, y⟩2 − 4 ⟨x, x⟩ ⟨y, y⟩ ≤ 0.
Hieruit volgt dat ⟨x, y⟩2 ≤ ⟨x, x⟩ ⟨y, y⟩ en dus de ongelijkheid van CauchySchwarz.
2
De ongelijkheid van Schwarz in het geval van de ruimte van continue functies
op [0, 1] luidt dus,
∫ 1
2 (∫ 1
) (∫ 1
)
2
2
f (x) dx
g(x) dx .
f (x)g(x)dx ≤
0
0
0
Het waren ongelijkheden van dit type die door H.A.Schwarz in zijn werk gebruikt werden.
Stel dat V een vectorruimte over R met een inproduct ⟨., .⟩. Voor elk tweetal
elementen x, y kunnen we afstand tussen x en y definiëren door ||x − y||. Voor
deze afstand geldt,
28
HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT
1. Voor alle x, y ∈ V geldt ||x − y|| = ||y − x|| en ||x − y|| ≥ 0.
2. Voor alle x, y, z ∈ V geldt
||x − y|| ≤ ||x − z|| + ||y − z||
(driehoeksongelijkheid).
3. ||x − y|| = 0 ⇐⇒ x = y.
Met de afstandsfunctie ||x−y|| is V een zogenaamde metrische ruimte geworden.
14.2
Orthogonale en orthonormale stelsels
Zij V een vectorruimte met inproduct. We zeggen dat twee vectoren x, y orthogonaal zijn ten aanzien van het inproduct als ⟨x, y⟩ = 0. Een verzameling
vectoren S ⊂ V heet orthogonaal stelsel als ⟨x, y⟩ = 0 voor elk tweetal verschillende vectoren x, y ∈ S. Een verzameling S ⊂ V heet orthonormaal stelsel als
S een orthogonaal stelsel is en bovendien ||x|| = 1 voor elke x ∈ S.
Stelling 14.2.1 Zij S een orthogonaal stelsel vectoren met x ̸= 0 voor elke
x ∈ S. Dan is S een onafhankelijk stelsel.
Bewijs: Stel dat we een relatie hebben van de vorm
λ1 x1 + λ2 x2 + · · · + λr xr = 0
met xi ∈ S. Kies i en neem aan beide zijden het inproduct met xi . We krijgen,
vanwege de lineariteit van het inproduct in zijn eerste argument,
λ1 ⟨x1 , xi ⟩ + λ2 ⟨x2 , xi ⟩ + · · · + λr ⟨xr , xi ⟩ = ⟨0, xi ⟩ = 0.
Wegens de orthogonaliteit van de vectoren xj zijn alle inproducten ⟨xk , xi ⟩ nul,
behalve die met k = i. We houden dus over,
λi ⟨xi , xi ⟩ = 0.
Gegeven is dat xi ̸= 0. Dus ⟨xi , xi ⟩ > 0 en we concluderen dat λi = 0. We
kunnen alleen maar triviale relaties tussen de elementen van S hebben, en dus
is S onafhankelijk.
2
Voorbeeld 14.2.2. (optioneel) Zij V∫ de vectorruimte van continue functies op
π
[−π, π] met als inproduct ⟨f, g⟩ = π1 −π f (x)g(x)dx. Dan is het stelsel functies
1
√ , sin x, cos x, sin 2x, cos 2x, . . . , sin mx, cos mx, . . .
2
een orthonormaal stelsel. Ter illustratie laten we de orthonormaliteit van het
stelsel functies sin mx met m ∈ Z>0 zien. We maken daarbij gebruik van de
gonio-identiteit
sin mx sin nx =
1
1
cos(m − n)x − cos(m + n)x.
2
2
14.2. ORTHOGONALE EN ORTHONORMALE STELSELS
29
Stel nu m, n ∈ Z>0 . Merk op dat
∫
1 π
⟨sin mx, sin nx⟩ =
sin mx sin nxdx
π −π
∫ π
∫ π
1
1
=
cos(m − n)xdx −
cos(m + n)xdx
2π −π
2π −π
∫π
Als k ∈ Z en k ̸= 0 dan weten we dat −π cos kxdx = 0. Dus, als m ̸= n dan
volgt uit bovenstaande berekening dat
∫ π ⟨sin mx, sin nx⟩ = 0. Als m = n dan
1
vinden we dat ⟨sin mx, sin mx⟩ = 2π
−π 1 · dx = 1.
We laten het aan de lezer over om orthonormaliteit van het stelsel inclusief de
overige vectoren aan te tonen.
♢
Een orthogonaal respectievelijk orthonormaal stelsel dat tevens basis is van de
vectorruimte V noemen we een orthogonale basis respectievelijk orthonormale
basis.
Stelling 14.2.3 Zij V een eindigdimensionale vectorruimte met inproduct. Dan
heeft V een orthonormale basis.
Bewijs: Het bewijs van deze stelling volgt door inductie naar dim(V ). Stel
dat dim(V ) = 1. In dat geval is de stelling duidelijk, elke vector met lengte 1
vormt een orthonormale basis.
Stel nu n = dim(V ) > 1, en neem aan dat de stelling bewezen is voor elke
vectorruimte van dimensie n−1. Kies een basis v1 , v2 , . . . , vn van V . We mogen
aannemen dat ||v1 || = 1 door eventueel met een scalair te vermenigvuldigen.
Definieer nu vi∗ = vi − ⟨vi , v1 ⟩ v1 voor i = 2, . . . , n. Dan vormen v1 , v2∗ , . . . , vn∗
ook een basis van V en vi∗ is orthogonaal met v1 voor alle ≥ 2. Volgens de
inductiehypothese heeft de deelruimte Span(v2∗ , . . . , vn∗ ) dimensie n − 1 en dus
een orthonormale basis die we w2 , . . . , wn noemen. Samen vormen de vectoren
v1 , w2 , . . . , wn een orthonormale basis van V .
2
In bovenstaand bewijs zit een inductief proces verborgen om daadwerkelijk een
orthormale basis te construeren. Deze constructie staat bekend als het GramSchmidt procédé.
Gegeven een basis v1 , v2 , . . . , vn van een vectorruimte V met inproduct. Vorm
hieruit de zogenaamde Gram-matrix met als elementen de inproducten ⟨vi , vj ⟩.
Vul deze Gram-matrix van rechts aan met de vectoren v1 , . . . , vn . Dus,


⟨v1 , v1 ⟩ · · · ⟨v1 , vn ⟩ v1
 ⟨v2 , v1 ⟩ · · · ⟨v2 , vn ⟩ v2 
. .

..
..
.. 

.
.
⟨vn , v1 ⟩ · · · ⟨vn , vn ⟩ vn
We brengen nu door rijen te vegen de Gram-matrix in bovendriehoeksvorm. We
mogen hierbij alleen veelvouden van rijen bij andere rijen optellen of aftrekken!
Verwisseling van rijen of scalaire vermenigvuldiging met een rij is absoluut
30
HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT
verboden! Bij het veegproces nemen we ook de vectoren rechts van de Grammatrix mee. Het resultaat is een nieuwe basis w1 , w2 , . . . , wn van V zó dat


⟨w1 , v1 ⟩ · · · ⟨w1 , vn ⟩ w1
 ⟨w2 , v1 ⟩ · · · ⟨w2 , vn ⟩ w2 

. ,
..
..
.. 

.
.
⟨wn , v1 ⟩ · · · ⟨wn , vn ⟩ wn
en wi ∈ Span(v1 , . . . , vi ) voor alle i en wi ⊥ vj voor alle i, j met j <
i. In het bijzonder volgt hieruit dat wi loodrecht staat op alle vectoren in
Span(v1 , . . . , vi−1 ) en in het bijzonder, wi ⊥ wj voor alle i, j met i > j. De
vectoren w1 , . . . , wn vormen een orthogonale basis van V en door de vectoren
te normaliseren krijgen we een orthonormale basis.
Een bijzondere bonus van deze procedure is dat de diagonaalelementen van de
gereduceerde matrix precies de inproducten ⟨wi , wi ⟩ zijn.
Voorbeeld 14.2.4. Gevraagd een orthonormale basis van de deelruimte W ⊂
R4 opgespannen door (1, 1, 0, 1), (2, 0, 1, 1), (0, 1, −1, 0). Laten we deze vectoren
aangeven met respectievelijk v1 , v2 en v3 . Als inproduct nemen we het standaard inproduct op R4 . De Gram matrix wordt

 

< v1 , v1 > < v1 , v2 > < v1 , v3 >
3 3
1
 < v2 , v1 > < v2 , v2 > < v2 , v3 >  =  3 6 −1  .
< v3 , v1 > < v3 , v2 > < v3 , v3 >
1 −1 2
Samen met de rijvectoren v1 , v2 , v3 geeft

3 3
1 1
 3 6 −1 2
1 −1 2 0
dit de matrix

1 0 1
0 1 1.
1 −1 0
We passen nu veegoperaties toe zodanig dat de Gram-matrix in bovendriehoeksvorm
komt. In de eerste kolom vegen,


3 3
1 1
1
0
1
0 3
−2 1
−1 1
0 .
0 −2 5/3 −1/3 2/3 −1 −1/3
In de tweede kolom vegen,


1
0
1
3 3
1 1
 0 3 −2 1
−1
1
0 .
0 0 1/3 1/3 0 −1/3 −1/3
De rijvectoren in het rechterdeel zijn nu orthogonaal geworden en de gevraagde
orthonormale basis wordt gegeven door
1
1
1
√ (1, 1, 0, 1), √ (1, −1, 1, 0), √ (1, 0, −1, −1).
3
3
3
Merk op dat de diagonaalelementen 3, 3, 1/3 precies de lengten in het kwadraat
van de orthogonale basisvectoren zijn.
♢
14.2. ORTHOGONALE EN ORTHONORMALE STELSELS
31
Voorbeeld 14.2.5. Zij V = R2 met inproduct ⟨(x1 , x2 ), (y1 , y2 )⟩ = 2x1 y1 +
x1 y2 + x2 y1 + 2x2 y2 . We starten met v1 = (1, 0), v2 = (0, 1). De bijbehorende
Gram-matrix is
(
)
2 1
.
1 2
Samen met v1 , v2 geeft dit
(
2 1 1
1 2 0
0
1
)
Vegen in eerste kolom van de Gram-matrix,
(
)
2 1 1
0
.
0 3/2 −1/2 1
De vectoren (1, 0) en√
(−1/2,√
1) zijn orthogonaal met betrekking van ons inproduct. De lengtes zijn 2 en 3/2. De orthonormale basis wordt dus
1
√ (1, 0),
2
1
√ (−1, 2).
6
♢
∫1
Voorbeeld 14.2.6. Zij V = R[x] met inproduct ⟨p, q⟩ = 0 p(x)q(x)dx. We
nemen v0 = 1, v1 = x, v2 = x2 , . . . , vn = xn , . . . en passen hierop het GramSchmidt procédé toe. Laten we, om de gedachten te bepalen, beginnen met
1, x, x2 . De Gram-matrix wordt


1 1/2 1/3
 1/2 1/3 1/4  .
1/3 1/4 1/5
Uitgebreid met de vectoren 1, x, x2 geeft dit

1 1/2 1/3
 1/2 1/3 1/4
1/3 1/4 1/5
We vinden achtereenvolgens,

1 1/2 1/3
 0 1/12 1/12
0 1/12 4/45
en

1
0
0
1/2
1/3
1/12 1/12
0
1/180

1
x .
x2

1
x − 1/2 
x2 − 1/3

1
x − 1/2  .
x2 − x + 1/6
We zien dat
x2 −x+1/6 een orthognaal stelsel vormen en hun lengtes
√ 1, x−1/2,
√
zijn 1, 1/ 12, 1/ 180. Het is duidelijk dat we dit proces kunnen voortzetten
32
HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT
met x3 , x4 , . . .. We vinden de polynomen
P0 (x) = 1
P1 (x) = x −
1
2
P2 (x) = x2 − x +
1
6
3
3
1
P3 (x) = x3 − x2 + x −
2
5
20
..
..
.
.
De polynomen die we op deze wijze krijgen zijn, op een factor na, de zogenaamde
Legendre polynomen op het interval [0, 1]. De algemene formule luidt
( )n
1
d
Pn (x) =
xn (x − 1)n .
2n(2n − 1) · · · (n + 1) dx
Deze polynomen vormen een voorbeeld van zogenaamde orthogonale polynomen
en zijn belangrijk in vele, vaak numerieke, toepassingen.
∫∞
2
Het orthogonalisatieprocédé ten aanzien van ⟨p, q⟩ = −∞ p(x)q(x)e−x dx levert
weer een andere klasse van orthogonale polynomen op, de zogenaamde Hermite
polynomen.
♢
Hoewel we gezien hebben dat er op Rn vele inproducten mogelijk zijn, blijkt
het in de praktijk wel weer mee te vallen. De volgende stelling is daar verantwoordelijk voor.
Een orthonormale basis e1 , . . . , en van een eindigdimensionale vectorruimte met
inproduct heeft de eigenschap dat
{
1 als i = j
⟨ei , ej ⟩ = δij =
0 als i ̸= j
Het symbool δij staat bekend als de Kronecker delta.
Stelling 14.2.7 Zij V een eindigdimensionale vectorruimte met inproduct en
zij e1 , . . . , en een orthonormale basis. Van het tweetal vectoren x, y ∈ V geven
we de coördinaten t.o.v. de geordende basis e1 , . . . , en aan met x1 , x2 , . . . , xn
respectievelijk y1 , y2 , . . . , yn . Dan geldt:
⟨x, y⟩ = x1 y1 + x2 y2 + · · · + xn yn .
Deze stelling kunnen we afleiden door in ⟨x, y⟩ de expansies x = x1 e1 +· · ·+xn en
en y = y1 e1 + · · · + yn en in te vullen en van de lineariteits- eigenschappen van
het inproduct gebruik te maken.
⟨ n
⟩
n
∑
∑
⟨x, y⟩ =
xi e i ,
yj ej
i=1
j=1
14.3. ORTHOGONALE PROJECTIES
=
n ∑
n
∑
33
xi yj ⟨ei , ej ⟩
i=1 j=1
=
=
n ∑
n
∑
xi yj δij
i=1 j=1
n
∑
xi yi
i=1
= x1 y 1 + x2 y 2 + · · · + xn y n
2
14.3
Orthogonale projecties
Zij V een vectorruimte met inproduct en W een deelverzameling. Het orthogonaal complement van W is de verzameling vectoren
{v ∈ V | ⟨v, w⟩ = 0 voor alle w ∈ W }.
Notatie: W ⊥ .
Het zal duidelijk zijn dat iedere vector uit W loodrecht op alle vectoren van
W ⊥ staat. Dus W ⊂ (W ⊥ )⊥ . Verder geldt dat W ∩ W ⊥ = {0}. Stel namelijk
x ∈ W en x ∈ W ⊥ . Dat betekent dat x loodrecht op zichzelf staat, m.a.w.
⟨x, x⟩ = 0. Maar dit impliceert dat x = 0.
Stelling 14.3.1 Zij V een vectorruimte met inproduct en W een eindigdimensionale deelruimte. Dan bestaat er bij iedere v ∈ V een uniek bepaalde vector
w ∈ W zó dat v − w ∈ W ⊥ .
Bewijs: We zullen eerst een vector w aangeven die inderdaad de gewenste
eigenschap heeft. Neem hiertoe een orthonormale basis e1 , . . . , em van W . Dan
heeft de vector
w = ⟨e1 , w⟩ e1 + ⟨e2 , w⟩ e2 + · · · + ⟨em , w⟩ em
de eigenschap dat v − w ∈ W ⊥ . Om dit aan te tonen is het voldoende om te
laten zien dat v − w ⊥ ei voor i = 1, 2, . . . , m. En inderdaad,
⟨ei , v − w⟩ = ⟨ei , v⟩ −
= ⟨ei , v⟩ −
m
∑
j=1
m
∑
⟨ej , v⟩ ⟨ei , ej ⟩
⟨ej , v⟩ δij
j=1
= ⟨ei , v⟩ − ⟨ei , v⟩ = 0
De existentie van een w zo dat v − w ∈ W ⊥ is hiermee aangetoond. Nu moeten
we nog laten zien dat w uniek bepaald is. Stel dat we een andere vector w′
hebben zo dat v − w′ ∈ W ⊥ . Dan geldt w − w′ = (v − w′ ) − (v − w) ∈ W ⊥ .
34
HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT
Anderzijds geldt ook dat w − w′ ∈ W . Omdat W en W ⊥ een triviale doorsnede
hebben, moet gelden w − w′ = 0, en dus w = w′ . Daarmee is ook de uniciteit
van w aangetoond.
2
We noemen de vector w de loodrechte of orthogonale projectie van v op W . De
afbeelding v 7→ w noemen we ook de orthogonale projectie op W en we zullen
deze afbeelding aangeven met PW . Als verder e1 , . . . , em een orthonormale
basis van W is, dan hebben in bovenstaand bewijs gezien dat
PW (v) = ⟨e1 , v⟩ e1 + ⟨e2 , v⟩ e2 + · · · + ⟨em , v⟩ em .
(14.1)
Stelling 14.3.2 Neem notaties zoals hierboven. De afbeelding PW : V → V is
een lineaire afbeelding. Bovendien geldt dat ⟨x, PW (y)⟩ = ⟨PW (x), y⟩ voor elk
tweetal x, y ∈ V .
Bewijs: Dat PW lineair is volgt direct uit formule (14.1). Omdat x − PW (x)
in W ⊥ bevat is, geldt dat ⟨x, PW (y)⟩ = ⟨PW (x), PW (y)⟩. Dezelfde redenatie
kunnen we ook voor y houden en daarmee zien we dat het laatste inproduct
gelijk is aan ⟨PW (x), y⟩.
2
Tevens volgt uit bovenstaande de volgende belangrijke opmerking.
Opmerking 14.3.3 Zij V een eindigdimensionale vectorruimte met inproduct
en e1 , e2 , . . . , en een geordende orthonormale basis. Dan worden de coördinaten
van een vector x ∈ V t.o.v e1 , . . . , en gegeven door ⟨e1 , x⟩ , ⟨e2 , x⟩ , . . . , ⟨en , x⟩.
Een tweede belangrijke opmerking betreft matrices van lineaire afbeeldingen
ten opzichte van orthonormale bases.
Opmerking 14.3.4 Zij V een eindigdimensionale vectorruimte met inproduct
en e1 , e2 , . . . , en een geordende orthonormale basis. Zij A : V → V een lineaire
afbeelding. Zij A de matrix van A ten opzichte van de basis e1 , e2 , . . . , en . Zij
aij het matrix element van A op plaats i, j. Dan geldt aij = ⟨ei , Aej ⟩.
Bewijs: Het matrixelement aij is de i-de coördinaat van Aej ten opzichte van
de basis e1 , . . . , en . Dus volgt uit voorgaande opmerking dat aij = ⟨ei , Avj ⟩
2
Voorbeeld 14.3.5. (optioneel) Een mooie toepassing van orthogonale projectie is die van de zogenaamde Fouriersommen. We starten met de continue
∫ functies op het interval [−π, π], dus C([−π, π]), met inproduct ⟨f, g⟩ =
1 π
π π f (x)g(x)dx. We projecteren deze loodrecht op de ruimte W opgespannen
door
1
√ , sin x, cos x, sin 2x, cos 2x, . . . , sin mx, cos mx.
2
We zagen eerder dat deze functies een orthormaal stelsel vormen. Ter illustratie
√
starten we met de functie f (x) = x en projecteren deze op W . Omdat x/ 2 en
14.3. ORTHOGONALE PROJECTIES
35
√
x cos kx oneven zijn voor elke k, zien we dat het inproduct van x met 1/ 2 en
de functie cos kx, k ∈ Z>0 nul is. We hoeven dus alleen het inproduct van x en
sin kx, k ∈ Z>0 uit te rekenen. We doen dit met partiele integratie als volgt.
⟨x, sin kx⟩ =
=
∫
1 π
x sin kxdx
π −π
∫ π
1
1
π
[−x(cos kx)/k]−π +
cos kxdx
π
πk −π
= 2 · (−1)k−1 /k.
In de één na laatste regel gebruiken we dat de integraal van de symmetrische
cos kx nul is. De gevraagde projectie wordt dus:
(
fm (x) := 2
sin x sin 2x sin 3x
sin mx
−
+
+ · · · + (−1)m−1 ·
1
2
3
m
)
.
Hier zie je een plaatje van de grafieken van x en de projectie f10 (x),
4
2
-3
-2
1
-1
2
3
-2
-4
Hier zie je een plaatje van de grafieken van x en de projectie f50 (x),
4
2
-3
-2
1
-1
2
3
-2
-4
♢
36
HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT
14.4
Symmetrische afbeeldingen
Zij V een vectorruimte met inproduct. Een lineaire afbeelding A : V → V heet
symmetrisch als
⟨x, Ay⟩ = ⟨Ax, y⟩
voor alle x, y ∈ V . Uit Stelling 14.3.2 zien we bijvoorbeeld dat loodrechte
projectie een symmetrische afbeelding is.
Stelling 14.4.1 Zij V een vectorruimte met inproduct en A : V → V een
symmetrische afbeelding. Dan gelden de volgende eigenschappen:
1. Eigenvectoren met verschillende eigenwaarden zijn orthogonaal.
2. Zij v een eigenvector en v ⊥ het orthogonaal complement van v. Dan geldt
dat A(v ⊥ ) ⊂ v ⊥ .
3. Zij W een deelruimte van V zó dat A(W ) ⊂ W . Dan geldt voor het
orthogonaal complement W ⊥ dat A(W ⊥ ) ⊂ W ⊥ .
Bewijs: (i) Stel v1 , v2 een tweetal eigenvectoren met verschillende eigenwaarden λ1 , λ2 . Dan volgt uit ⟨v1 , Av2 ⟩ = ⟨Av1 , v2 ⟩ dat λ1 ⟨v1 , v2 ⟩ = λ2 ⟨v1 , v2 ⟩.
Omdat λ1 ̸= λ2 volgt hieruit dat ⟨v1 , v2 ⟩ = 0.
(ii) Zij u een vector loodrecht op v. Zij λ de eigenwaarde van v. Dan volgt uit
⟨v, Au⟩ = ⟨Av, u⟩ dat ⟨v, Au⟩ = λ ⟨v, u⟩ = 0. Dus Au staat ook loodrecht op
v.
(iii) Zij u ∈ W ⊥ . We moeten laten zien dat Au loodrecht staat op iedere
w ∈ W . Dit volgt uit ⟨w, Au⟩ = ⟨Aw, u⟩, het feit dat A(w) ∈ W en u ∈ W ⊥ .
2
Het verband tussen symmetrische matrices en afbeeldingen wordt door de volgende stelling gegeven.
Stelling 14.4.2 Zij V een eindigdimensionale basis met inproduct en e1 , . . . , en
een geordende basis. Zij A : V → V een lineaire afbeelding. De matrix van A
t.o.v. e1 , . . . , en geven we aan met A. Dan is A een symmetrische afbeelding
precies dan als A een symmetrische matrix is.
Bewijs: Stel dat A symmetrisch is. Geef de matrixelementen van A aan met
aij . Dan geldt aij = ⟨ei , Aej ⟩. Omdat ⟨ei , Aej ⟩ = ⟨Aei , ej ⟩ = ⟨ej , Aei ⟩ = aji
volgt hieruit dat aij = aji voor alle i, j. Dus A is een symmetrische matrix.
Stel nu dat A een symmetrische matrix is. Zij x en y een willekeurig tweetal
vectoren. Geef de coördinaten van x en y t.o.v. e1 , . . . , en aan met

x1
 ... 

xn

y1
 ...  .

yn
14.4. SYMMETRISCHE AFBEELDINGEN
Dan geldt
37


y1
.
⟨x, Ay⟩ = (x1 , . . . , xn )A  ..  .
yn
Omdat A symmetrisch is, is dit precies gelijk aan
 
x1
.
(y1 , . . . , yn )A  .. 
xn
en dit is weer precies gelijk aan ⟨y, Ax⟩ = ⟨Ax, y⟩. Dus is A een symmetrische
afbeelding.
2
De volgende stelling heeft een enorm aantal toepassingen zowel binnen als buiten
de wiskunde.
Stelling 14.4.3 (Hoofdstelling van de symmetrische afbeeldingen) Zij
V een eindigdimensionale vectorruimte met inproduct en A : V → V een symmetrische afbeelding. Dan is er een orthonormale basis van eigenvectoren van
A met reële eigenwaarden.
Bewijs: Stel n = dim(V ). We zullen een bewijs geven met volledige inductie naar n. Voor het geval n = 1 zijn we klaar omdat elke vector in een
ééndimensionale V eigenvector is.
Stel nu n > 1 is en dat de Stelling waar is voor ruimten van dimensie n − 1.
In het Lemma dat hierna komt zien we dat A een reële eigenwaarde λ heeft en
dus ook een bijbehorende eigenvector v, waarvan we aannemen dat de lengte
1 is. Zij nu v⊥ het orthogonaal complement van v. Volgens Stelling 14.4.1(ii)
geldt A : v⊥ → v⊥ . Omdat de dimensie van v⊥ gelijk is aan n − 1 volgt
uit onze inductiehypothese dat v⊥ een orthonormale basis heeft bestaande uit
eigenvectoren van A. Samen met v vormt dit een orthormale eigenvectorbasis
van de ruimte V .
2
Lemma 14.4.4 Zij V een eindigdimensionale vectorruimte met inproduct en
A : V → V een symmetrische afbeelding. Dan heeft A minstens één reële
eigenwaarde.
Bewijs: We bewijzen dit Lemma door naar symmetrische matrices te kijken.
Wegens Stelling 14.4.2 is het voldoende om aan te tonen dat een symmetrische
matrix een reële eigenwaarde heeft. Zij A een symmetrisch n × n-matrix. Zij λ
een (complex) nulpunt van de eigenwaardenvergelijking. Dan zijn er complexe
getallen z1 , z2 , . . . , zn , niet allen nul, zó dat
 
 
z1
z1
.. 
.. 


.
=λ
A
.
.
zn
zn
38
HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT
Vermenigvuldig dit van links met de rijvector (z 1 , . . . , z n ). We vinden,
 
z1
.. 

(z 1 , . . . , z n )A
= λ(|z1 |2 + · · · + |zn |2 ).
.
zn
Neem aan beide zijden de getransponeerde en de complex geconjugeerde. Doordat A een symmetrische matrix is met reële coëfficienten, blijft de linkerzijde
hetzelfde. De rechterzijde gaat over in λ(|z1 |2 + · · · + |zn |2 ). Gevolg,
λ(|z1 |2 + · · · + |zn |2 ) = λ(|z1 |2 + · · · + |zn |2 ).
Omdat de zi niet allen zijn, geldt |z1 |2 + · · · + |zn |2 > 0 en dus λ = λ. Conclusie:
λ ∈ R.
2
14.5
Orthogonale matrices
Een n×n-matrix U met reële coëfficienten heet orthogonale matrix als de kolommen van U een orthonormaal stelsel vormen ten aanzien van het dotproduct.
Geef de matrixelementen van U aan met uij . Orthogonaliteit van U is equivalent met
n
∑
uki ukj = δij
k=1
voor alle i, j. Geven we de matrixelementen van de getransponeerde U t aan
met (ut )ij dan gaat de orthogonaliteitsrelatie over in
n
∑
(ut )ik ukj = δij .
k=1
Links herkennen we de matrixvermenigvuldiging U t U en we kunnen de orthogonaliteitsrelaties dus ook samenvatten door
U t U = In .
Een matrix is dus orthogonaal precies dan als U t U = In . Anders gezegd,
U t = U −1 .
Uit U t U = In volgt tevens U U t = In . Met andere woorden, U t is ook orthogonaal en de rijen van U vormen dus een orthonormaal stelsel. Samenvattend:
Stelling 14.5.1 Zij U een n × n-matrix met reële coëfficienten. Dan zijn de
volgende beweringen equivalent,
1. U is ortogonaal.
2. U t U = In .
3. De rijen van U vormen een orthonormaal stelsel.
14.5. ORTHOGONALE MATRICES
39
Verder hebben orthogonale matrices de volgende eigenschappen:
Stelling 14.5.2 Zij U, U ′ een tweetal orthogonale n × n-matrices. Dan geldt:
1. det(U ) = ±1.
2. U −1 is orthogonaal.
3. U U ′ is orthogonaal.
Bewijs: Merk allereerst op dat U t U = In impliceert det(U t )det(U ) = 1.
Omdat det(U t ) = det(U ) volgt hieruit dat (det(U ))2 = 1 en dus det(U ) = ±1.
Als U orthogonaal is, dan is U t ook orthogonaal en dus ook U −1 = U t .
Merk op dat (U U ′ )t U U ′ = (U ′ )t U t U U ′ = (U ′ )t U ′ = In . Dus U U ′ is orthogonaal.
2
Tenslotte volgt hier nog een uitspraak over de complexe nulpunten van de eigenwaardevergelijking van een orthogonale matrix.
Stelling 14.5.3 Zij U een orthogonale matrix en λ ∈ C een nulpunt van de
eigenwaardevergelijking det(U − λIn ) = 0. Dan geldt |λ| = 1. In het bijzonder
zijn de reële eigenwaarden van een orthogonale matrix ±1.
We kunnen met de gevonden λ ∈ C de bijbehorende complexe eigenvector
bepalen, zeg (z1 , z2 , . . . , zn )t met zi ∈ C. Met andere woorden,


 
z1
z1
.
.
U  ..  = λ  ..  .
zn
zn
Neem hiervan de complex geconjugeerde en de getransponeerde,
(z1 , . . . , zn )U t = λ(z1 , . . . , zn )
Voer hiermee een matrixvermenigvuldiging van links uit op de eerste relatie:

 
z1
z1
.
t  .. 
(z1 , . . . , zn )U U
= λλ(z1 , . . . , zn )  ..  .
.
zn
zn

Gebruik nu dat U t U = In en we vinden:
|z1 |2 + · · · + |zn |2 = |λ|2 (|z1 |2 + · · · + |zn |2 ).
Omdat niet alle zi nul zijn geldt dat |z1 |2 + · · · + |zn |2 > 0 en we concluderen
na wegdeling van deze som dat |λ| = 1. 2
40
HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT
14.6
Orthogonale afbeeldingen
Zij V een vectorruimte met inproduct. Een lineaire afbeelding U : V → V heet
orthogonale afbeelding als
||U x|| = ||x||
voor elke x ∈ V . Met andere woorden, een orthogonale afbeelding is een lengtebehoudende lineaire afbeelding.
Stelling 14.6.1 Zij V een vectorruimte met inproduct en U : V → V een
orthogonale afbeelding. Dan geldt:
1. ⟨U x, U y⟩ = ⟨x, y⟩ voor alle x, y ∈ V .
2. Als dim(V ) eindig is, dan is U bijectief.
3. De (reële) eigenwaarden van U zijn ±1.
4. Zij v1 en v2 een tweetal eigenvectoren van U met eigenwaarden respectievelijk 1 en −1. Dan zijn v1 en v2 orthogonaal.
5. Zij v een eigenvector van U en v⊥ het orthogonaal complement van v.
Dan geldt U : v⊥ → v⊥ .
6. Zij W ⊂ V een eindig-dimensionale deelruimte zo dat U (W ) ⊂ W . Zij
W ⊥ het orthogonaal complement van W . Dan geldt U (W ⊥ ) ⊂ W ⊥ .
Bewijs: (1) Merk op dat ||U (x + y)|| = ||x + y||. Neem het kwadraat aan
beide zijden en werk uit. We vinden:
⟨U x, U x⟩ + 2 ⟨U x, U y⟩ + ⟨U y, U y⟩ = ⟨x, x⟩ + 2 ⟨x, y⟩ + ⟨y, y⟩ .
Omdat ⟨U x, U x⟩ = ⟨x, x⟩ en ⟨U y, U y⟩ = ⟨y, y⟩ houden we over dat ⟨U x, U y⟩ =
⟨x, y⟩.
(2) Stel dim(V ) eindig. Een lineaire afbeelding A : V → V is in dat geval
bijectief precies dan als de kern triviaal is. Stel U x = 0. Dan volgt uit ||U x|| =
||x|| dat ||x|| = 0. De kern van U is dus triviaal en U bijectief.
(3) Neem een eigenvector v met eigenwaarde λ. Dan geldt ||U v|| = ||v||. De
linkerzijde is gelijk aan ||λv|| = |λ| · ||v||. Aangezien de rechterzijde gelijk is
aan ||v|| > 0 volgt dat |λ| = 1 en dus λ = ±1.
(4) Merk op dat ⟨U v1 , U v2 ⟩ = ⟨v1 , v2 ⟩. Gebruik makend van U v1 = v1 en
U v2 = −v2 volgt hieruit dat − ⟨v1 , v2 ⟩ = ⟨v1 , v2 ⟩. Conclusie: ⟨v1 , v2 ⟩ = 0
(5) Stel dat w ⊥ v. We moeten laten zien dat U w ⊥ v. Dit volgt uit
⟨U w, U v⟩ = ⟨w, v⟩ = 0 en het feit dat ⟨U w, U v⟩ gelijk is aan λ ⟨U w, v⟩.
(6) Stel u ∈ W ⊥ . We moeten laten zien dat U u ∈ W ⊥ . Merk op dat voor elke
w ∈ W geldt: ⟨U u, U w⟩ = ⟨u, w⟩ = 0. De vector U u staat dus loodrecht op
alle vectoren in U (W ). Omdat U beperkt tot W bijectief is (eigenschap (ii)),
geldt U (W ) = W en dus staat U u loodrecht op alle vectoren uit W .
2
14.6. ORTHOGONALE AFBEELDINGEN
41
Bij eigenschap (2) kunnen we opmerken dat de eis dim(V ) < ∞ essentieel is.
Neem bijvoorbeeld de oneindig dimensionale vectorruimte R∞
0 met standaard
inproduct. Het is makkelijk te controleren dat de afbeelding
(x1 , x2 , x3 , . . .) 7→ (0, x1 , x2 , x3 , . . .)
orthogonaal is. Maar hij is niet surjectief, en dus ook niet bijectief. Wel volgt
uit het bewijs van (2) dat elke orthogonale U : V → V injectief is.
Laten we ons nu beperken tot orthogonale U : V → V met dim(V ) eindig.
Het blijkt dat de theorie van orthogonale afbeeldingen gewoon neerkomt op de
theorie van orthogonale matrices.
Stelling 14.6.2 Zij V een eindigdimensionale vectorruimte met inproduct en
e1 , . . . , en een geordende orthonormale basis. Zij U : V → V een lineaire
afbeelding. De matrix van U t.o.v. e1 , . . . , en geven we aan met U. Dan is U
een orthogonale afbeelding precies dan als U een orthogonale matrix is.
Bewijs: Neem eerst aan dat U orthogonaal is. Geef
∑n de matrixelementen van
U aan met uij . Dan geldt voor elke i dat U ei = k=1 uki ek . We passen dit
toe op de gelijkheid ⟨U ei , U ej ⟩ = ⟨ei , ej ⟩ = δij . Uitwerking van de linkerzijde
geeft:
⟩
⟨ n
n
∑
∑
⟨U ei , U ej ⟩ =
uki ek ,
ulj el
k=1
=
n
n ∑
∑
l=1
uki ulj ⟨ek , el ⟩
k=1 l=1
=
n
∑
uki ukj
k=1
∑
We zien dat orthogonaliteit van U impliceert dat nk=1 uki ukj = δij voor alle
i, j. Met andere woorden, U is orthogonaal.
Stel omgekeerd dat U orthogonaal is. Stel y = U x met x ∈ V willekeurig. We
moeten laten zien dat ||y|| = ||x||. Geef de coördinaten van x t.o.v. e1 , . . . , en
aan met de coördinaten kolom (x1 , . . . , xn )t . Dan worden de coördinaten van y
gegeven door
 
 
y1
x1
 ...  = U  ... 
xn
yn
Dus

 
y1
x1
.. 
t  .. 
2

= (x1 , . . . , xn )U U
||y|| = (y1 , . . . , yn )
.
.
xn
yn

en omdat U t U = In volgt hieruit dat

x1
.
||y||2 = (x1 , . . . , xn )  ..  = ||x||2 .
xn

42
HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT
2
14.7
Standaardvorm orthogonale afbeeldingen
We bepalen hoe orthogonale afbeeldingen U : V → V er uit zien als dim(V ) =
2. Daartoe
( bepalen
) we de orthogonale 2 × 2-matrices. Dat wil zeggen, reële
a c
matrices
met de condities
b d
1. a2 + c2 = 1
2. b2 + d2 = 1
3. ab + cd = 0
Uit de eerste vergelijking volgt het bestaan van een hoek ϕ zó dat a = cos ϕ en
c = sin ϕ. Uit de derde vergelijking volgt dan b cos ϕ + d sin ϕ = 0. Oplossing
hiervan geeft dat b = −r sin ϕ, d = r cos ϕ voor zekere r ∈ R. Dit invullen
in de tweede vergelijking geeft r2 = 1 en dus r = ±1. We concluderen dat
orthogonale 2 × 2-matrices één van de volgende vormen aanneemt,
(
)
(
)
cos ϕ − sin ϕ
cos ϕ
sin ϕ
sin ϕ cos ϕ
sin ϕ − cos ϕ
In het eerste type matrix herkennen we de rotatie in het platte vlak om de hoek
ϕ. In het tweede voorbeeld zien we dat de eigenwaardevergelijking luidt λ2 −1 =
0. Er zijn dus twee reële eigenwaarden ±1. De bijbehorende eigenvectoren
staan loodrecht op elkaar (Stelling 14.6.1(iv). We hebben dus te maken met
een orthogonale spiegeling.
Merk ook op dat de determinant van de matrix gelijk is aan 1 in het eerste
geval en −1 in het tweede geval. We concluderen:
Stelling 14.7.1 Een orthogonale afbeelding U : V → V met dim(V ) = 2 is
ofwel een draaiing, ofwel een spiegeling. In het eerste geval geldt det(U ) = 1,
in het tweede geval det(U ) = −1.
We onderzoeken nu orthogonale afbeeldingen U : V → V met dim(V ) = 3.
De eigenwaardevergelijking heeft graad 3. Er is dus altijd een reële oplossing
λ en deze moet dus ±1 zijn. Geef een bijbehorende eigenvector aan met v.
Zij W het orthogonaal complement van v. Volgens Stelling 14.6.1 (v) geldt
dat U : W → W . Omdat dim(W ) = 2, is U beperkt tot W een draaiing of
spiegeling. We hebben nu vier mogelijkheden:
1. λ = 1 en U : W → W is een draaiing. In dit geval kunnen we U zien als
een draaiing met v als draaiingsas. Merk op dat det(U ) = 1.
2. λ = 1 en U : W → W is een spiegeling. In W zijn er eigenvectoren v′
en v′′ met eigenwaarde 1 respectievelijk −1. In dit geval hebben we te
maken met een spiegeling. Merk op dat det(U ) = −1.
14.8. OPGAVEN
43
3. λ = −1 en U : W → W is een draaiing. Ditmaal hebben we te maken
met een draaiing in het vlak W rond de as v, gevolgd door een loodrechte
spiegeling in het vlak W waarbij v in −v overgaat. We noemen dit een
draaispiegeling. We hebben nu det(U ) = −1.
4. λ = −1 en U : W → W is een spiegeling. In het vlak W zijn er twee
onderling loodrechte vectoren v′ en v′′ met eigenwaarden 1 respectievelijk
−1. Merk nu op dat we een draaiing om de hoek π in het vlak opgespannen
door v en v′′ hebben. Merk op dat det(U ) = 1.
Samenvattend, een orthogonale afbeelding van een driedimensionale ruimte naar
zichzelf kan een draaiing of een draaispiegeling zijn. In het eerste geval is de
determinant 1, in het tweede −1.
Voor eindigdimensionale vectorruimten in het algemeen hebben we de volgende
stelling.
Stelling 14.7.2 (Hoofdstelling orthogonale afbeeldingen) . Zij U : V →
V een orthogonale afbeelding en dim(V ) = n < ∞. Zij E1 de eigenruimte
van U bij de eigenwaarde 1 en E−1 de eigenruimte bij −1. Dan zijn er een
eindig aantal (mogelijk nul) onderling loodrechte, tweedimensionale deelruimten
W1 , W2 , . . . , Ws ⊂ V zó dat
1. Elke Wi staat loodrecht op zowel E1 als E−1 .
2. U : Wi → Wi en U beperkt tot Wi is een draaiing.
3. dim(E1 ) + dim(E−1 ) + 2s = n.
(Bewijs volgt nog).
14.8
Opgaven
14.8.1. Gegeven is de vectorruimte R[X] met inproduct ⟨f (X), g(X)⟩ =
∫Opgave
1
f
(t)g(t)dt.
0
1. Bepaal van elk van de vectoren
p1 (X) = 1 + X,
p2 (X) = 1 + X 2 ,
p3 (X) = X + X 2
de lengte. Bepaal ook van elk tweetal de hoek ertussen.
2. Vindt alle polynomen van graad ≤ 2 die loodrecht op p1 (X) staan.
14.8.2. Gegeven is de vectorruimte R[X] met inproduct ⟨f (X), g(X)⟩ =
∫Opgave
1
f
(t)g(t)dt.
0
1. Bepaal een polynoom van graad ≤ 2 dat loodrecht staat op alle vectoren
X n met n ≥ 1.
44
HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT
2. Toon aan dat het enige polynoom in R[X] dat loodrecht staat op alle
vectoren X n met n ≥ 1 het nulpolynoom is. (Hint: er is gegeven dat de
determinant det(1/(i + j))i,j=1,...,m ̸= 0 is voor alle m ≥ 1).
Opgave 14.8.3. Beschouw R3 met standaard inprodukt en de lineaire afbeelding
A : R3 → R3 met als matrix t.o.v. de standaardbasis,


2 3
6
1
A =  3 −6 2 
7
6 2 −3
1. Toon aan dat A zowel een orthogonale als een symmetrische afbeelding
is.
2. Bewijs, zonder berekening van de eigenwaardevergelijking, dat de eigenwaarden 1, −1, −1 zijn.
3. Bepaal een 3 × 3-matrix Q en een 3 × 3 diagonale matrix D zó dat
QAQ−1 = D.
Opgave 14.8.4. Zij V de vectorruimte R4 met daarop het standaard inproduct.
Zij W ⊂ V de deelruimte opgespannen door de vectoren (1, 1, 1, 1), (5, −1, 5, −1)
en (2, 1, −8, 1).
1. Bepaal met behulp van het Gram-Schmidt procédé een orthonormale basis
van W .
2. Zij f1 , f2 , f3 een orthonormale basis van W die je in onderdeel (a) gevonden
hebt. Vul deze basis aan tot een orthonormale basis f1 , f2 , f3 , f4 van R4 .
3. De orthogonale spiegeling S : R4 → R4 ten aanzien van de deelruimte W
wordt gegeven door Sfi = fi voor i = 1, 2, 3 en Sf4 = −f4 . Bepaal de
matrix van S ten opzichte van de standaardbasis van R4 .
Opgave 14.8.5. Beschouw de vectorruimte Mnn van n × n-matrices met reële
coëfficienten.
∑
1. Laat zien dat Spoor(AB t ) = ni,j=1 Aij Bij waarin Aij en Bij de matrixelementen van A resp. B zijn.
2. Bewijs nu dat ⟨A, B⟩ = Spoor(AB t ) een inproduct op Mnn is.
Opgave 14.8.6. Gegeven is de vectorruimte Mnn over R bestaande uit n × nmatrices met elementen in R. Als inproduct nemen we ⟨A, B⟩ = Spoor(AB t )
sym
(zie Opgave 14.8.5). Verder zijn gegeven de deelruimten Mnn
van symmetrische
asym
matrices (dwz At = A) en Mnn
van antisymmetrische matrices (dwz At =
−A).
1. Stel dat A een symmetrische matrix is en B een antisymmetrische. Bewijs
dat ⟨A, B⟩ = 0.
14.8. OPGAVEN
45
asym
sym
2. Bewijs dat de doorsnijding van Mnn
en Mnn
uit de nulvector bestaat.
3. Bewijs dat iedere n×n-matrix te schrijven is als som van een symmetrische
en een antisymmetrische matrix.
sym
asym
4. Bewijs dat Mnn
het orthogonaal complement is van Mnn
.
Opgave 14.8.7. Zij V een reële vectorruimte van dimensie k met inproduct
⟨., .⟩. Stel dat a1 , a2 , . . . , ak een basis van V is. Zij tenslotte A : V → V de
lineaire afbeelding gegeven door
A : x 7→ ⟨a1 , x⟩ a1 + ⟨a2 , x⟩ a2 + · · · + ⟨ak , x⟩ ak
a) Bewijs dat A een symmetrische afbeelding is (d.w.z. ⟨Ax, y⟩ = ⟨x, Ay⟩
voor alle x, y ∈ V )
b) Bewijs dat ⟨Ax, x⟩ > 0 voor alle x ∈ V . Laat vervolgens zien dat λ > 0
voor elke eigenwaarde λ van A.
Stel nu dat A tevens een orthogonale afbeelding is.
c) Laat met behulp van voorgaand onderdeel zien dat alle eigenwaarden van
A gelijk aan 1 zijn.
d) Leidt uit voorgaand onderdeel af dat A de identieke afbeelding is, d.w.z.
Ax = x voor alle x ∈ V .
Opgave 14.8.8.
1. Bewijs dat de afbeelding die aan elk tweetal u = (x, y, z), u′ = (x′ , y ′ , z ′ ) ∈
R3 het getal

 
2
−1
0
x
⟨ ′ ⟩
′ ′ ′ 


u , u = (x , y , z ) −1 2 −1
y
0 −1 2
z
toekent, een inwendig produkt op R3 is.
2. Bepaal een orthonormale basis van het orthogonale complement van (0, 0, 1)t
met betrekking tot het inwendig produkt uit het voorgaande onderdeel.
Opgave 14.8.9. Gegeven is R4 met het standaard inprodukt en standaardcoördinaten
x, y, z, u. Zij de P : R4 → R4 de lineaire afbeelding die elke x ∈ R4 afbeeldt
naar zijn loodrechte projektie op het hypervlak x + y − z + u = 0.
1. Bepaal het beeld van (1, 2, 2, 1)t onder P .
2. Bepaal de eigenwaarden en eigenvektoren van P .
3. Laat zien dat P een symmetrische afbeelding is.
4. Bepaal de matrix van P ten opzichte van de standaardbasis van R4 .
46
HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT
Opgave 14.8.10. Gegeven is de vectorruimte R[X] met inproduct
∫
⟨f (X), g(X)⟩ =
1
f (t)g(t)dt.
−1
Voer de Gram-Schmidt procedure uit op 1, X, X 2 .
Opgave 14.8.11. Gegeven is de vectorruimte R[X] met inproduct
∫ ∞
1
⟨f (X), g(X)⟩ = √
f (t)g(t) exp(−t2 )dt.
π −∞
Voer
Gram-Schmidt procedure uit op 1, X, X 2 . (Hint: er is gegeven dat
∫ ∞ de
√
n
2
−∞ x exp(−x )dx gelijk is aan 0 als n oneven en (1/2) · (3/2) · · · (k − 1/2) π
als n = 2k even.)
Opgave 14.8.12. Zij M2 de vectorruimte van 2 × 2-matrices met reële elementen en gebruikelijke optelling en scalaire vermenigvuldiging.Beschouw de
funktie die aan ieder tweetal X, Y ∈ M2 het getal < X, Y >= Spoor(XY t )
toekent. In de volgende onderdelen mag je gebruiken dat Spoor(AB) = Spoor(BA)
en Spoor(A) = Spoor(At ).
a) Bewijs dat < X, Y > een inwendig produkt op M2 is.
Zij C een gegeven symmetrische 2 × 2-matrix.
b) Bewijs dat de lineaire afbeelding T : M2 → M2 gegeven door T (X) =
CX − XC symmetrisch is. (Symmetrisch wil zeggen: < T (X), Y >=<
X, T (Y ) > voor alle X, Y ∈ M2 ).
c) Stel dat λ, µ de eigenwaarden van C zijn. Bewijs dat T de
eigenwaarden 0, 0, λ − µ, µ − λ heeft.
Opgave 14.8.13. Gegeven is de vectorruimte R[X] met inproduct
∫
⟨f (X), g(X)⟩ =
1
f (t)g(t)dt.
−1
Verder zijn gegeven de deelruimten R[X]sym bestaande uit de polynomen f (X)
met f (−X) = f (X) (symmetrische polynomen) en de deelruimte R[X]asym
gegeven door de polynomen f (X) met f (−X) = −f (X) (antisymmetrische
polynomen).
1. Stel f ∈ R[X]sym , g ∈ R[X]asym . Bewijs dat ⟨f (X), g(X)⟩ = 0.
2. Geef een basis van R[X]sym en van R[X]asym .
3. Bewijs dat elk element uit R[X] te schrijven is als som van een symmetrisch en een antisymmetrisch polynoom.
4. Bewijs dat R[X]sym het orthogonaal complement van R[X]asym is.
14.8. OPGAVEN
47
Opgave 14.8.14. Zij V een vectorruimte over R met inproduct ⟨., .⟩. Zij W
een deelruimte van V en W ⊥ het orthogonaal complement van W in V .
1. Bewijs dat als dim(W ) < ∞ dan V = W ⊕ W ⊥ .
2. Kun je een voorbeeld vinden waarbij V niet gelijk is met W ⊕W ⊥ ? (Hint:
zie Opgave 14.8.2).
Opgave 14.8.15. Gegeven is de vectorruimte V over R van alle functies f :
[0, 1] → R met de eigenschap dat∫ alle afgeleiden van f bestaan en nul zijn in
1
0, 1. Neem als inproduct ⟨f, g⟩ = 0 f (t)g(t)dt. Definieer de lineaire afbeelding
A : V → V gegeven door A : f (x) 7→ f ′ (x).
1. Bewijs dat ⟨f, A(g)⟩ = ⟨A(f ), g⟩ voor alle f, g ∈ V (hint: gebruik partiele
integratie).
2. Bewijs dat A2 : V → V een symmetrische afbeelding is.
3. Bepaal de eigenvectoren van A2 .
Opgave 14.8.16. Gegeven is de vectorruimte R[X] met inproduct
∫ ∞
1
f (t)g(t) exp(−t2 )dt.
⟨f (X), g(X)⟩ = √
π −∞
Definieer de lineaire afbeelding A : R[X] → R[X] door A : p(X) 7→ p′ (X) −
Xp(X). Definieer de lineaire afbeelding B : R[X] → R[X] door B : p(X) 7→
Xp(X).
(
)
d
p(X) exp(−X 2 /2) .
1. Bewijs dat A(p(X)) = exp(X 2 /2) dX
2. Laat zien dat ⟨p(X), A(q(X))⟩ = − ⟨A(p(X), q(X)⟩ voor elk tweetal p, q ∈
R[X] (hint: gebruik partiele integratie).
3. Bewijs dat A2 een symmetrische afbeelding is.
4. Laat zien dat A2 geen eigenvectoren heeft.
5. Bewijs dat B een symmetrische afbeelding is.
6. Bepaal de eigenvectoren van A2 − B 2 van graad ≤ 2.
Download