Lineaire Algebra 2 - Wiskunde en Informatica

advertisement
Lineaire Algebra 2
Faculteit Wiskunde en Informatica
Technische Universiteit Eindhoven
2012-2013
ii
Syllabus in wording bij Lineaire Algebra 2 (2WF30)
Inhoudsopgave
1 Lineaire afbeeldingen
1.1 Lineaire afbeeldingen . . . . . . . . . . . . . . .
1.2 Matrices van lineaire afbeeldingen I . . . . . . .
1.3 Matrices van lineaire afbeeldingen II . . . . . .
1.4 Eigenwaarden en eigenvectoren, diagonaliseren
1.5 Invariante deelruimten . . . . . . . . . . . . . .
1.6 Duale ruimten . . . . . . . . . . . . . . . . . . .
1.7 Aantekeningen . . . . . . . . . . . . . . . . . .
1.8 Opgaven . . . . . . . . . . . . . . . . . . . . . .
1.8.1 Oefenen op tentamenniveau . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
12
17
25
34
40
44
45
56
2 Orthogonale en symmetrische afbeeldingen
2.1 Orthogonale afbeeldingen . . . . . . . . . .
2.2 Symmetrische afbeeldingen . . . . . . . . .
2.3 Aantekeningen . . . . . . . . . . . . . . . .
2.4 Opgaven . . . . . . . . . . . . . . . . . . . .
2.4.1 Oefenen op tentamenniveau . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
59
59
69
78
78
83
3 Differentiaalvergelijkingen
3.1 Stelsels differentiaalvergelijkingen .
3.2 Laplace-transformaties . . . . . . .
3.3 Tabel Laplace–transformaties . . .
3.4 Aantekeningen . . . . . . . . . . .
3.5 Opgaven . . . . . . . . . . . . . . .
3.5.1 Oefenen op tentamenniveau
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
85
85
95
105
106
106
109
i
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Hoofdstuk 1
Lineaire afbeeldingen
1.1
Lineaire afbeeldingen
1.1.1 In deze paragraaf introduceren we afbeeldingen tussen vectorruimten die de
vectorruimtestructuur “respecteren”, de zogenaamde lineaire afbeeldingen.
Met zulke afbeeldingen worden verbanden tussen vectorruimten bestudeerd.
In deze paragraaf komen aan de orde:
• het begrip lineaire afbeelding;
• samenstelling, som, scalair veelvoud, inverse in de context van lineaire
afbeeldingen;
• de nulruimte en beeldruimte van een lineaire afbeelding, verband met
injectiviteit en surjectiviteit;
• het vastleggen van een lineaire afbeelding op een basis en
• de dimensiestelling.
In volgende paragrafen gaan we in op de rol van matrices bij lineaire afbeeldingen.
Laat V , W twee (mogelijk dezelfde) vectorruimten zijn. Een afbeelding
A : V → W voegt aan elke vector v in V precies één vector A(v) (of Av) in
W toe.
1.1.2 Definitie. (Lineaire afbeelding) Een afbeelding A : V → W heet lineair
als voor alle vectoren x, y ∈ V en alle getallen α geldt
A(x + y) = Ax + Ay ,
A(αx) = αAx .
1
2
Lineaire afbeeldingen
Equivalent hiermee: voor alle x, y ∈ V en alle getallen α, β geldt
A(αx + βy) = αAx + βAy.
Een bijectieve lineaire afbeelding heet ook wel een isomorfisme.
1.1.3 Door herhaald toepassen van de definitie zien we dat het beeld van een linaire
combinatie dezelfde lineaire combinatie van de beeldvectoren is: A : V → W
is lineair dan en slechts dan als
!
n
n
X
X
αi Ax ,
A
αi xi =
i=1
i=1
voor alle vectoren x1 , . . . , xn in V en alle getallen α1 , . . . , αn .
Lineaire afbeeldingen komen in de praktijk bijzonder veel voor, ook al
worden ze niet altijd direct als zodanig herkend. Vermenigvuldiging met een
vaste matrix, loodrechte projectie op een deelruimte van een inproductruimte, rotatie om een as door de oorsprong in E 3 , spiegeling in een vlak door de
oorsprong, en differentiëren in een geschikte vectorruimte van functies zijn
alle lineair. In hoofdstuk 2 gaan we uitvoerig op spiegelingen en rotaties in.
1.1.4 Voorbeeld. (Loodrechte projectie) Laat l = hai een rechte in de (reële)
inproductruimte V zijn. De afbeelding die aan elke vector uit V de loodrechte projectie op l toevoegt noemen we P. Als a lengte 1 heeft dan is het
afbeeldingsvoorschrift:
Px = (x, a)a,
zoals uit het vorige hoofdstuk (zie ??) blijkt. We gaan na dat deze afbeelding
lineair is. Laat x, y ∈ V en laat α, β ∈ R willekeurig. Dan volgt:
P(αx + βy) = #(αx + βy, a)a
= α(x, a) + β(y, a) a
= α(x, a)a + β(y, a)a
= αPx + βPy.
Hiermee is de lineariteit vastgesteld.
Op soortgelijke manier is in te zien dat loodrechte projectie op een lineaire deelruimte van een reële inproductruimte een lineaire afbeelding oplevert.
(Als a1 , . . . , ak een orthonormale basis van de deelruimte W is, dan is de
uitdrukking voor de loodrechte projectie Px van een vector x gelijk aan
Px = (x, a1 )a1 + · · · + (x, ak )ak ,
waarna verificatie van de lineariteit als daarnet vastgesteld kan worden.)
1.1 Lineaire afbeeldingen
3
1.1.5 Voorbeeld. Zij A een reële m × n-matrix. In dit voorbeeld schrijven we
elementen uit Rn en Rm waar nodig als kolommen. Definieer een afbeelding
LA : Rn → Rm door
LA (x) := Ax
(in het rechterlid is x als kolom geschreven). Deze afbeelding is lineair: laat
x en y twee (als kolommen geschreven) elementen uit Rn zijn, dan volgt uit
de regels voor matrixvermenigvuldiging dat voor alle scalairen α en β geldt:
A(αx + βy) = αAx + βAy,
en daarmee is de lineariteit van LA vastgesteld. Als bijvoorbeeld
1 −1 2
,
A=
1 −1 2
dan is het beeld van de vector (3, 1, 1) uit R3 gelijk aan (4, 4) uit R2 ; het
beeld van 5 · (3, 1, 1) is dus 5 · (4, 4) = (20, 20).
1.1.6 Voorbeeld. Voor elke vectorruimte V is de afbeelding I : V → V gegeven
door Iv = v een lineaire afbeelding, de zogenaamde identieke afbeelding of
identiteit. De verificatie is triviaal en wordt aan de lezer overgelaten.
Zijn V en W beide reële vectorruimten of beide complexe vectorruimten, dan is de afbeelding O : V → W gegeven door Ov = 0 een lineaire
afbeelding, de zogenaamde nulafbeelding.
1.1.7 Voorbeeld. Differentiëren is een lineaire afbeelding. Noteer f ′ door Df ,
dan zijn elementaire eigenschappen van de afgeleide dat
D(f + g) = Df + Dg,
D(αf ) = αDf.
Er is hier maar één ondergeschikt probleem: D is een lineaire afbeelding
van welke ruimte naar welke ruimte? Meestal laten we die keuze van de
omstandigheden afhangen. Bijvoorbeeld: D is een lineaire afbeelding van
de (vectorruimte van de) polynomen naar zichzelf, of D is een lineaire afbeelding van de (vectorruimte van de) differentieerbare functies op R naar
de vectorruimte van alle functies op R.
1.1.8 Hieronder laten we zien dat samenstellingen, inversen, sommen en scalaire veelvouden van lineaire afbeeldingen zelf weer lineaire afbeeldingen zijn.
Natuurlijk moeten we eerst vastleggen wat we precies met deze afbeeldingen
bedoelen en wanneer deze constructies zin hebben.
4
Lineaire afbeeldingen
1.1.9 (Samenstelling) Laat A : V → W en B : U → V lineaire afbeeldingen zijn.
Neem een vector u ∈ U . Passen we eerst B toe, dan komen we op Bu ∈ V
terecht. Hierop kunnen we A toepassen en komen dan op A(B)u ∈ W ,
schematisch:
B
A
U −−−→ V −−−→ W
(1.1)
u −−−→ Bu −−−→ A(Bu)
1.1.10 Definitie. Stel A : V → W en B : U → V zijn lineaire afbeeldingen. Dan
wordt de samengestelde afbeelding AB : U → W gedefinieerd door
(AB)u = A(Bu) voor alle u ∈ U .
1.1.11 Eigenschap. De samengestelde afbeelding is lineair:
(AB)(u1 + u2 ) = A(B(u1 + u2 ))
= A(Bu1 + Bu2 )
= (AB)u1 + (AB)u2 ;
(AB)(αu) = A(B(αu)) = A(αBu) = α(AB)u .
1.1.12 De notatie AB voor een samengestelde afbeelding suggereert dat we de samengestelde afbeelding als een “product” kunnen zien van de lineaire afbeeldingen A en B. Dat is maar ten dele juist. Als AB bestaat, dan hoeft BA
niet te bestaan, bijvoorbeeld als U , V en W drie verschillende vectorruimten
zijn. Stel nu A : V → V, B : V → V zijn lineair. Dan bestaan zowel AB als
BA. Maar deze hoeven niet aan elkaar gelijk te zijn.
1.1.13 Voorbeeld. Laat V de vectorruimte van oneindig vaak differentieerbare
functies zijn en definieer A : V → V door
A f (x) = xf (x),
B f (x) = f ′ (x).
Ga zelf na dat dit lineaire afbeeldingen zijn. Dan is
ABf (x) = xf ′ (x),
BAf (x) = f (x) + xf ′ (x),
dus AB 6= BA (vul bijvoorbeeld de functie f : x 7→ 1 in).
1.1.14 (Inverse afbeelding) Als de lineaire afbeelding A : V → W een bijectie
is, dan is de inverse afbeelding A−1 : W → V ook een lineaire afbeelding.
Immers, als v, w ∈ W en α, β scalairen, dan zijn er vectoren x, y ∈ V met
Ax = v en Ay = w (omdat A in het bijzonder surjectief is); de lineariteit
1.1 Lineaire afbeeldingen
5
van A levert dat A(αx + βy) = αv + βw, zodat A−1 (αv + βw) = αx + βy.
Anderzijds geldt x = A−1 v en y = A−1 w, zodat we concluderen:
A−1 (αv + βw) = αA−1 v + βA−1 w.
1.1.15 Definitie. Als A : V → V , dan definiëren we A2 als AA en algemeen An =
An−1 A voor n = 2, 3, . . .. Onder A0 verstaan we de identieke afbeelding I.
Is A inverteerbaar (d.w.z. heeft de afbeelding een inverse), dan noteren we
voor positieve gehele n met A−n de samenstelling (A−1 )n .
1.1.16 Definitie. (Som en scalair veelvoud) Laat A : V → W en B : V → W
twee lineaire afbeeldingen zijn. Dan is de somafbeelding A + B : V → W
bepaald door
(A + B)x = Ax + Bx .
Is α een scalar, dan is het scalaire veelvoud αA : V → W bepaald door
(αA)x = α(Ax).
1.1.17 Eigenschap. De somafbeelding A + B en het scalaire veelvoud αA zijn
lineair:
(A + B)(x + y) = A(x + y) + B(x + y)
= Ax + Ay + Bx + By
= (A + B)x + (A + B)y ;
(A + B)(αx) = A(αx) + B(αx)
= αAx + αBx
= α(Ax + Bx)
= α(A + B)x.
De lineariteit van αA volgt op soortgelijke wijze.
1.1.18 Voorbeeld. Beschouw de lineaire differentiaalvergelijking
y ′′ − xy ′ + 2y = sin x .
Het linkerlid is op te vatten als een lineaire afbeelding toegepast op de vector
y. Immers, laat D weer differentiëren zijn en definieer
Af (x) y = f (x)y .
Voor iedere f (x) is de afbeelding Af (x) lineair, ga dat zelf na. Het linkerlid
van de differentiaalvergelijking is nu
y ′′ − xy ′ + 2y = (D2 + A−x D + A2 )y
6
Lineaire afbeeldingen
en D2 + A−x D + A2 is een lineaire afbeelding.
We hebben hier niet gezegd van welke vectorruimte naar welke vectorruimte we de lineaire afbeeldingen beschouwen. Dat hangt weer een beetje af
van de situatie waarin we de differentiaalvergelijking bekijken. Vaak kunnen
we de afbeeldingen beschouwen van de vectorruimte V van oneindig vaak
differentieerbare functies naar zichzelf.
1.1.19 Omdat lineaire afbeeldingen natuurlijk ook gewoon afbeeldingen zijn, kunnen we bijvoorbeeld spreken over het beeld van een vector of het beeld van
een deelverzameling (notatie: A(D) als A : V → W de lineaire afbeelding is
en D de deelverzameling), en over het volledig origineel van een deelverzameling. Is D een deelverzameling van W , dan noteren we het volledig origineel
van D onder A met A−1 (D) of A← (D). De eerste notatie is het meest ingeburgerd in de wiskunde, maar kan wel tot verwarring met de notatie voor de
inverse van een afbeelding leiden; om verwarring te voorkomen bij gebruik
van deze notatie voegen we vaak toe: ‘het volledig origineel A−1 (D) van D’
en dergelijke.
Bij een lineaire afbeelding A : V → W horen twee zeer belangrijke lineaire deelruimten; de eerste generaliseert de oplossingsruimte van een homogeen
stelsel lineaire vergelijkingen, de tweede generaliseert de kolommenruimte.
1.1.20 Definitie. Laat A : V → W een lineaire afbeelding zijn. Definieer
N := {v ∈ V | Av = 0},
R := {Av ∈ W | v ∈ V }.
N heet de nulruimte van A en R de beeldruimte (de nulruimte wordt ook
wel de kern genoemd). De beeldruimte wordt ook wel aangegeven als A(V ).
1.1.21 N is een deelverzameling van V die altijd de nulvector 0 bevat; verder is N
inderdaad een lineaire deelruimte: als Av = 0 en Aw = 0, en α en β zijn
scalairen, dan is
A(αv + βw) = αAv + βAw = 0 + 0 = 0,
zodat αv + βw ∈ N . Merk op dat de nulruimte precies het volledig origineel
is van { 0 } onder de afbeelding A.
De beeldruimte R is een deelverzameling van W en, zoals de naam suggereert, een deelruimte van W ; ga dit zelf na.
1.1 Lineaire afbeeldingen
7
1.1.22 Voorbeeld. We bepalen de kern en de beeldruimte bij voorbeeld 1.1.5 met
de gegeven 2 × 3-matrix A. De nulruimte van de lineaire afbeelding LA
bestaat uit alle vectoren x die voldoen aan


x1
0
1 −1 2 
x2  =
.
0
1 −1 2
x3
Dit is een homogeen stelsel lineaire vergelijkingen met A als coëfficiëntenmatrix. De nulruimte is het vlak met vergelijking x1 − x2 + 2x3 = 0. De
beeldruimte van LA bestaat uit alle vectoren van de vorm


x
1 −1 2  1 
x2
,
1 −1 2
x3
d.w.z. vectoren van de vorm
1
−1
2
x1
+ x2
+ x3
.
1
−1
2
Maar hiermee beschrijven we precies het opspansel van de kolommen van A,
d.w.z. de kolommenruimte (zie definitie ?? en ??). We concluderen dat de
beeldruimte gelijk is aan < (1, 1) >.
We bepalen ook het volledig origineel L−1
A (ℓ) van de rechte ℓ met vectorvoorstelling
3
2
+λ
.
ℓ :x=
2
1
We zijn dus op zoek naar vectoren x waarvoor
3 + 2λ
,
Ax =
2+λ
voor een of andere λ. Dit betekent dat we het stelsel met aangevulde matrix
1 −1 2 3 + 2λ
1 −1 2 2 + λ
moeten oplossen. Door vegen is eenvoudig af te leiden dat dit stelsel alleen
oplossingen heeft voor λ = −1. De oplossingen vormen precies het vlak met
vergelijking x1 − x2 + 2x3 = 1. Kunt u ook aan de hand van de onderlinge
positie van ℓ en de beeldruimte R inzien dat de berekening van het volledig
origineel beperkt kan worden tot de berekening van het volledig origineel
van de vector (1, 1)?
8
Lineaire afbeeldingen
1.1.23 Voorbeeld. De nulruimte van de lineaire afbeelding LA uit voorbeeld 1.1.5
bestaat precies uit alle vectoren x die voldoen aan LA (x) = 0, d.w.z. alle
oplossingen van het homogene stelsel Ax = 0.
De beeldruimte van LA bestaat uit alle vectoren van de vorm LA (x).
Heeft A kolommen a1 , . . . , an , dan is dit precies de verzameling
{x1 a1 + · · · + xn an | x1 , . . . , xn
willekeurig}.
Dit is precies de kolommenruimte van A.
Nulruimte en beeldruimte generaliseren dus twee begrippen uit de matrixwereld.
1.1.24 Voorbeeld. In R2 beschouwen we de loodrechte projectie P op een rechte
ℓ =< a > door de oorsprong, zie voorbeeld 1.1.4. Meetkundig zien we in
dat de beeldruimte, de verzameling vectoren die als beeld optreden, ℓ zelf
is. De nulruimte bestaat uit alle vectoren die op 0 worden afgebeeld en
dat is ℓ⊥ . Dit kunnen we ook aan het afbeeldingsvoorschrift Px = (x, a)a
aflezen (waarbij a lengte 1 heeft). De nulruimte bestaat bijvoorbeeld uit
alle vectoren x waarvoor (x, a)a = 0, d.w.z. (x, a) = 0, en dit is precies het
orthoplement van a.
1.1.25 Injectiviteit, surjectiviteit en volledig origineel brengen we in verband met
de nulruimte en beeldruimte van een lineaire afbeelding.
1.1.26 Stelling. Beschouw een lineaire afbeelding A : V → W .
1. N = { 0 } ⇔ A is injectief.
2. R = W ⇔ A is surjectief.
3. Stel b ∈ R. Dan bestaat er een vector p zo dat Ap = b; p heet een particuliere oplossing van de vectorvergelijking Ax = b. Alle oplossingen
van de vectorvergelijking Ax = b vormen dan de verzameling
{p + n | n ∈ N } .
In het bijzonder heeft de vergelijking Ax = b precies één oplossing als
N = {0}.
Bewijs.
1.1 Lineaire afbeeldingen
9
1. ⇒) We moeten bewijzen dat Ax = Ay impliceert x = y. Als Ax = Ay,
dan volgt 0 = Ax − Ay = A(x − y), zodat x − y ∈ N . Omdat N enkel
uit de nulvector bestaat, concluderen we dat x − y = 0 ofwel x = y.
⇐) Als x ∈ N , dan is Ax = A0. De injectiviteit van A leert dat x = 0,
dus het enige element van N is de nulvector.
2. Dit onderdeel is triviaal.
3. Het eerste deel van de uitspraak is triviaal. Voor het tweede deel:
laat p een particuliere oplossing zijn. Voor iedere n is A(p + n) =
Ap + An = b + 0 = b; p + n is ook een oplossing. Omgekeerd, als
q een oplossing is, dan is A(q − p) = Aq − Ap = b − b = 0, zodat
q − p ∈ N . Aangezien q = p + (q − p) is q inderdaad de som van
p en een vector uit de nulruimte. Alle oplossingen vormen dus de
verzameling {p + n | n ∈ N }.
1.1.27 Kortheidshalve noteren we de verzameling {p + n | n ∈ N } ook wel door
p + N . Een dergelijke verzameling wordt een nevenruimte genoemd, zie
desgewenst ??.
1.1.28 Laat A : V → W een lineaire afbeelding zijn en beschouw de vectorvergelijking Ax = b. De corresponderende homogene vergelijking is (per definitie)
de vergelijking Ax = 0. Van deze vergelijking vormen alle oplossingen precies de nulruimte van A. Stelling 1.1.26 zegt dus dat we alle oplossingen van
de vectorvergelijking Ax = b krijgen door bij één particuliere oplossing alle
oplossingen van de corresponderende homogene vergelijking te tellen.
Deze eigenschap wordt zeer vaak gebruikt bij het oplossen van lineaire
differentiaalvergelijkingen, een differentiaalvergelijking van de vorm Ay = f .
1.1.29 (Vastleggen lineaire afbeelding) Als de beelden Aa1 , . . . , Aan bekend
zijn dan is het beeld van elke lineaire combinatie x1 a1 + · · · + xn an ook
bekend vanwege de lineariteit:
A(x1 a1 + · · · + xn an ) = x1 Aa1 + · · · + xn Aan .
In het bijzonder is het beeld van elke vector te bepalen wanneer de beelden
van een stelsel basisvectoren bekend zijn. Deze eenvoudige observatie ligt
ten grondslag aan de volgende stelling.
10
Lineaire afbeeldingen
1.1.30 Stelling. Laat V en W vectorruimten zijn, a1 , . . . , an een basis voor V en
w1 , . . . , wn een n–tal vectoren in W . Dan is er precies één lineaire afbeelding
A : V → W met de eigenschap dat Aai = wi voor i = 1, . . . , n.
Bewijs. Neem een willekeurige vector x ∈ V . Deze kan op precies één manier
geschreven worden als
n
X
xi ai .
x=
i=1
Dat betekent dat voor de beeldvector Ax moet gelden
Ax =
n
X
i=1
xi Aai =
n
X
xi ai .
i=1
∗
Deze is dus eenduidig bepaald door de vector x. We gaan eenvoudig na dat
als we relatie (∗) gebruiken als definitie van een afbeelding A : V → W , deze
afbeelding A lineair is.
1.1.31 Stelling. Beschouw een lineaire afbeelding A : V → W en stel V =<
a1 , . . . , an >. Dan is R =< Aa1 , . . . , Aan >.
Bewijs. R bestaat uit alle vectoren Ax met x ∈ V . Zo’n x is een lineaire combinatie van a1 , . . . , an zodat zo’n Ax een lineaire combinatie van
Aa1 , . . . , Aan is.
1.1.32 Een dergelijke karakterisering van N is niet zo eenvoudig te geven. Wel
geldt het volgende belangrijke resultaat:
1.1.33 Stelling. (Dimensiestelling) Beschouw een lineaire afbeelding A : V →
W met dim(V ) < ∞. Dan is
dim(V ) = dim(N ) + dim(R) .
Bewijs. Stel dim(V ) = n. Omdat N ⊂ V , geldt dim N = p ≤ n. Kies een
basis a1 , . . . , ap voor N en vul die aan met bp+1 , . . . , bn tot een basis voor
V:
V =< a1 , . . . , ap , bp+1 , . . . , bn > .
Dan is
R =< Aa1 , . . . , Aap , Abp+1 , . . . , Abn >
=< Abp+1 , . . . , Abn >
1.1 Lineaire afbeeldingen
11
omdat Aa1 = . . . = Aap = 0. Als we kunnen aantonen dat de vectoren
Abp+1 , . . . , Abn onafhankelijk zijn, dan zijn we klaar, want dan is dim(R) =
n − p zodat n = dim(V ) = p + (n − p) = dim N + dim R.
Om de onafhankelijkheid aan te tonen stellen we
αp+1 Abp+1 + . . . + αn Abn = 0 ,
zodat achtereenvolgens
A(αp+1 bp+1 + . . . + αn bn ) = 0 ,
αp+1 bp+1 + . . . + αn bn ∈ N ,
αp+1 bp+1 + . . . + αn bn = α1 a1 + . . . + αp ap voor zekere getallen α1 , . . . , αp ,
− α1 a1 − . . . − αp ap + αp+1 bp+1 + . . . + αn bn = 0 .
Omdat a1 , . . . , ap , bp+1 , . . . , bn een basis is volgt hieruit dat α1 = . . . = αp =
αp+1 = . . . = αn = 0; het stelsel Abp+1 , . . . , Abn is dus onafhankelijk.
1.1.34 Voorbeeld. De beeldruimte van de loodrechte projectie P op een deelruimte W van de inproductruimte V (zie voorbeeld 1.1.4) is uiteraard gelijk aan
W , terwijl de nulruimte bestaat uit alle vectoren die loodrecht op W staan,
dus gelijk is aan W ⊥ . Bovenstaande dimensiestelling impliceert dus dat
dim V = dim W + dim W ⊥ . Zo vinden we de formule uit Stelling ?? terug.
1.1.35 (Inverse) Ten slotte onderzoeken we wanneer een lineaire afbeelding A :
V → W met dim(V ) < ∞ een inverse heeft. Het resultaat is het volgende:
1.1.36 Stelling. Een lineaire afbeelding A : V → W met dim(V ) < ∞ heeft een
inverse dan en slechts dan als dim(V ) = dim(W ) en N = {0}.
Bewijs. Hierbij komt Stelling 1.1.26 van pas. Als A een inverse heeft, dan
is de afbeelding een bijectie en dus is de afbeelding injectief en surjectief.
Uit genoemde stelling volgt dan N = {0} en W = R. Uit de dimensiestelling dim(V ) = dim(N ) + dim(R) volgt dus dim(V ) = dim(R) = dim(W ).
Inverteerbaarheid impliceert dus N = {0} en dim V = dim W .
Omgekeerd kunnen we uit deze laatste gegevens concluderen dat A een
inverse heeft: uit N = {0} en de dimensiestelling volgt namelijk dim V =
dim(R); samen met het gegeven dim V = dim W concluderen we vervolgens
dim(R) = dim W . Blijkbaar geldt R = W . Uit N = {0}, R = W en
Stelling 1.1.26 halen we ten slotte dat A injectief en surjectief is, dus een
inverse heeft.
1.1.37 Ga zelf na dat in deze stelling de voorwaarde N = {0} vervangen mag
worden door de voorwaarde R = W .
12
1.2
Lineaire afbeeldingen
Matrices van lineaire afbeeldingen I
1.2.1 In deze paragraaf gaan we in op lineaire afbeeldingen Rn → Rm of Cn → Cm .
Hier blijkt een nieuwe rol voor matrices weggelegd om zulke afbeeldingen te
beschrijven.
1.2.2 (De matrix van een lineaire afbeelding) In ?? hebben we de matrixvermenigvuldiging gedefinieerd. Beschouw een m × n matrix A:


a11 a12 . . . a1n
 a21 a22 . . . a2n 


A= .
..
.. 
 ..
.
. 
am1 am2 . . . amn
Voor ieder rijtje x = (x1 , x2 , . . . , xn ) definiëren
door



x1
y1
 x2
 y2 



 ..  = A  ..
 .
 . 
ym
xn
we nu Ax = (y1 , y2 , . . . , ym )



 .

In voorbeeld 1.1.5 hebben we gezien dat dit voorschrift een lineaire afbeelding A : Rn → Rm of Cn → Cm definieert.
Laat e1 , . . . , en de standaardbasis voor Rn of Cn zijn en laat k 1 , . . . , k n de
kolommen van de matrix A zijn. Door invullen zien we dat Ae1 = k 1 , Ae2 =
k 2 , . . . , Aen = k n : de kolommen van de matrix A zijn de beelden onder A
van de vectoren e1 , . . . , en .
Ga nu uit van een willekeurige lineaire afbeelding A : Rn → Rm (of Cn →
Cm ) en schrijf een vector x ∈ Rn (of ∈ Cn ) uit als lineaire combinatie van de
standaardbasisvectoren: x1 e1 +· · ·+xn en . Dan is Ax = x1 Ae1 +· · ·+xn Aen
vanwege de lineariteit van A. Verzamel de n vectoren Ae1 , . . . , Aen als
kolommen in een m × n–matrix A. Nu is x1 Ae1 + · · · + xn Aen gelijk aan het
matrixproduct Ax (zie ??). We hebben dus een nieuwe rol voor matrices
gevonden:
1.2.3 Stelling. Elke lineaire afbeelding A : Rn → Rm of Cn → Cm wordt bepaald
door een m×n-matrix A waarvan de kolommen zijn Ae1 , . . . , Aen . Het beeld
van de vector x onder A is te berekenen als het matrixproduct Ax.
1.2.4 Definitie. De matrix A heet de matrix van de lineaire afbeelding A.
1.2 Matrices van lineaire afbeeldingen I
13
1.2.5 (Rekentechniek ter bepaling van de matrix) Ten gevolge van Stelling
1.1.30 is een lineaire afbeelding A : Rn → Rm of Cn → Cm eenduidig bepaald
door de beelden van een basis a1 , . . . , an voor Rn of Cn . Als deze basis
e1 , . . . , en is dan kunnen we met de vorige stelling de bijbehorende matrix
zo opschrijven, maar als het een andere dan de standaardbasis is, moeten
we eerst wat rekenen. Dat rekenwerk berust op de volgende techniek. Laat
A een lineaire afbeelding zijn en beschouw twee rijen waarin we links een
vector en rechts de beeldvector hebben neergezet:
(a, Aa) ,
(b, Ab) .
Als we deze rijen optellen dan krijgen we
(a + b, Aa + Ab) .
Omdat A lineair is, staat rechts A(a + b); we krijgen door optelling dus weer
een rij waar links een vector en rechts de beeldvector staat. Dat geldt ook
voor scalaire vermenigvuldiging: als we de eerste rij met α vermenigvuldigen
dan vinden we
(αa, αAa)
en dit is wegens de lineariteit van A weer een rij waar links een vector en
rechts diens beeldvector A(α a) staat. Hieruit volgt dat als we in een stelsel
van dit soort rijen gaan vegen iedere rij in dit stelsel de eigenschap houdt
dat links een vector en rechts de beeldvector staat.
1.2.6 Voorbeeld. Een lineaire afbeelding A : R3 → R3 wordt gegeven door
A(− 1, 0, 1) = (− 4, 2, 4), A(1, 1, 0) = (1, − 1, − 1), A(0, 1, 2) = (− 5, 4, 4) .
We zetten deze gegevens in drie rijen met links de vector en rechts diens
beeld, terwille van de duidelijkeid zetten we een verticale streep tussen links
en rechts:


− 1 0 1 − 4
2
4

1 1 0 1 −1 −1  .
0 1 2
−5
4
4
We vegen naar de normaalvorm

1 0 0
 0 1 0
0 0 1
en vinden

2
1 −3
−1 −2
2  .
−2
3
1
14
Lineaire afbeeldingen
Hier staan in de rijen links de vectoren e1 , e2 , e3 en rechts Ae1 , Ae2 , Ae3 .
Wegens Stelling 1.2.3 is de matrix van A dus


2 −1 −2
1 −2
3  .
A=
−3
2
1
We kunnen eenvoudig nagaan of er geen rekenfout gemaakt is door met deze
matrix de beelden van (− 1, 0, 1), (1, 1, 0) en (0, 1, 2) te bepalen.
1.2.7 (Verband met stelsels vergelijkingen) Bekijk het stelsel lineaire vergelijkingen
a11 x1 +a12 x2 + . . . + a1n xn = b1
..
..
..
.
.
.
am1 x1 +am2 x2 + . . . + amn xn = bm
met m × n–coëfficiëntenmatrix A. Deze bepaalt een lineaire afbeelding A :
Rn → Rm of Cn → Cm en we zien dat het stelsel vergelijkingen geschreven
kan worden als een vectorvergelijking
Ax = b .
De beeldruimte R van A is de ruimte < Ae1 , . . . , Aen > wegens Stelling
1.1.31; dat is dus de kolommenruimte van de matrix A. De vergelijking
Ax = b heeft (minstens) een oplossing dan en slechts dan als b ∈ R, dus
dan en slechts dan als b in de kolommenruimte van de matrix ligt. Wegens
Stelling 1.1.26 vinden we alle oplossingen van de vergelijking Ax = b als som
van één particuliere oplossing en alle vectoren uit de nulruimte.
De nulruimte bestaat uit alle vectoren x met Ax = 0, dus uit alle oplossingen van het homogene stelsel Ax = 0.
1.2.8 In de rest van deze paragraaf bespreken we de matrix van de samenstelling
van twee lineaire afbeeldingen, de som van twee lineaire afbeeldingen en de
inverse van een lineaire afbeelding, voor zover zinvol.
1.2.9 (Matrix samenstelling) Laat A : Rm → Rq een lineaire afbeelding zijn
met q × m–matrix A en zijn en B : Rp → Rm met m × p–matrix B (in deze
discussie mag R ook best C zijn). Per constructie van de matrix van A geldt
voor elke vector x ∈ Rm dat het beeld Ax gelijk is aan het matrixproduct
Ax. Net zo voor B.
1.2 Matrices van lineaire afbeeldingen I
15
Bij de samengestelde afbeelding AB : Rp → Rq hoort een q × p–matrix,
waarvan de j–de kolom gelijk is aan (AB)ej . Nu geldt
(AB)ej = A(Bej ) = A(Bej ) = A(Bej ) = (AB)ej ,
maar dit is precies de j–de kolom van AB. We concluderen dat de matrix
van de samenstelling AB de matrix AB is. We zien dus
1.2.10 Stelling. (Matrix samenstelling) Laat A en B twee matrices zijn zo dat
AB bestaat en laat A en B de corresponderende lineaire afbeeldingen zijn.
Dan is AB de matrix van de samengestelde afbeelding AB.
Net zo tonen we de volgende eigenschappen aan:
1.2.11 Stelling. (Matrix van som en scalair veelvould) Laat A en B twee matrices van dezelfde afmeting zijn en laat A en B de corresponderende lineaire
afbeeldingen zijn. Dan is A+B de matrix van de somafbeelding A+B. Voor
elke scalar α is αA de matrix van de lineaire afbeelding αA.
1.2.12 (Matrix van de inverse) Tot slot van deze paragraaf gaan we in op het
verband tussen de inverse van een lineaire afbeelding en de inverse van een
matrix. Als A : Rn → Rm (R mag ook C zijn) een inverse heeft, dan volgt
m = n wegens Stelling 1.1.36. De matrix A van A is dus een n × n–matrix.
De inverse afbeelding, B zeg, heeft matrix B. Omdat AB = BA = I volgt
uit Stelling 1.2.10 dat AB = BA = I. Matrix A is dus inverteerbaar en
bovendien geldt B = A−1 .
Omgekeerd, als A een inverteerbare n × n–matrix is, dan heeft de bijbehorende lineaire afbeelding A een inverse: immers, de rang van A is n zodat
het stelsel Ax = 0 enkel de nulvector als oplossing heeft, zodat N = {0}.
Uit Stelling 1.1.36 volgt nu dat A een inverse heeft. We vinden:
1.2.13 Stelling. (Matrix van de inverse) Laat A : Rn → Rn (of Cn → Cn ) een
lineaire afbeelding zijn met matrix A. Dan heeft A een inverse dan en slechts
dan als A een inverse heeft. Als A een inverse heeft, dan is de matrix van
A−1 gelijk aan A−1 .
1.2.14 In ?? vermeldden we zonder bewijs dat AB = I impliceert BA = I voor
vierkante matrices A en B. In de context van lineaire afbeeldingen is dat
makkelijk aan te tonen. Laat A en B twee n×n matrices zijn zo dat AB = I,
en laat A en B de corresponderende lineaire afbeeldingen van Rn of Cn naar
respectievelijk Rn of Cn zijn. Dan geldt wegens Stelling 1.2.10 dat AB = I,
16
Lineaire afbeeldingen
ofwel ABx = x voor alle x ∈ Rn of Cn . Als nu x in de nulruimte van B zit
dan volgt dus onmiddellijk uit deze gelijkheid dat x = 0. De nulruimte van
B bestaat dus enkel uit de nulvector en met Stelling 1.1.36 concluderen we
dat B een inverse heeft. Maar dan volgt dat A deze inverse is en dat dus
ook BA = I geldt. Overgaan op matrices levert BA = I. De matrices A en
B zijn dus elkaars inverse. Kortom: AB = I ⇔ BA = I.
1.2.15 Op grond van het bovenstaande beschikken we nu over nog een manier om
de inverse van een (inverteerbare) vierkante matrix te bepalen: deze matrix
hoort bij een lineaire afbeelding; stel nu de matrix van de inverse afbeelding
op. We laten dat aan de hand van twee voorbeelden zien.
1.2.16 Voorbeeld. Beschouw de matrix


1
0 3
1 2  .
A= 0
4 −3 8
Voor de bijbehorende lineaire afbeelding A geldt Ae1 = (1, 0, 4), Ae2 =
(0, 1, − 3) en Ae3 = (3, 2, 8) zodat voor de inverse afbeelding A−1 moet
gelden A−1 (1, 0, 4) = e1 , A−1 (0, 1, 3) = e2 en A−1 (3, 2, 8) = e3 . We bepalen
nu de matrix van A−1 net als in 1.2.5:


1 0
4 1 0 0
 0 1 −3 0 1 0 .
3 2
8 0 0 1
Rijreductie geeft

1 0 0 7
4 −2
3 
 0 1 0 − 9 −2
2
2
3
1
− 2 −1
0 0 1
2

waaruit volgt
A−1

1
=
2
1.2.17 Voorbeeld. Beschouw de matrix


14 − 9 − 3
8 −4 −2 .
−4
3
1

1
0 3
1 2  .
A= 0
4 −3 6
1.3 Matrices van lineaire afbeeldingen II
17
Voor de inverse A−1 van de bijbehorende lineaire afbeelding A, zo die bestaat, moet gelden A−1 (1, 0, 4) = e1 , A−1 (0, 1, − 3) = e2 , A−1 (3, 2, 6) = e3 .
Dus


1 0
4 1 0 0
 0 1 −3 0 1 0 .
3 2
6 0 0 1
Enkele stappen vegen geeft


1 0
4 1
0 0
 0 1 −3 0
1 0 
0 0
0
−3 −2 1
Kennelijk zijn de kolommen van A afhankelijk. Er is dus geen inverse matrix.
1.3
Matrices van lineaire afbeeldingen II
1.3.1 In de vorige paragraaf hebben we gezien dat lineaire afbeeldingen van Rn
naar Rm (of Cn naar Cm ) met behulp van matrices beschreven kunnen worden. Zo’n beschrijving is ook mogelijk indien het andere vectorruimten
betreft, maar de beschrijving vereist dan wel de keuze van een basis en het
gebruik van coördinaten. In deze paragraaf bespreken we een en ander:
• we analyseren de invloed op de coördinaten van een vector bij overgang
op een andere basis,
• we beschrijven lineaire afbeeldingen met behulp van matrices die afhangen van de keuze van een basis en
• we leiden af hoe deze matrices transformeren bij verandering van basis.
Deze technieken gebruiken we (in volgende paragrafen) bij het opsporen van
bases ten opzichte waarvan de matrix van een lineaire afbeelding V → V
“eenvoudig” is.
1.3.2 (Coördinaten) In een n-dimensionale vectorruimte V kiezen we een basis
α = (a1 , . . . , an ). Iedere vector x ∈ V is dan op precies één manier te
schrijven als
x = x1 a1 + x2 a2 + · · · + xn an .
De getallen x1 , . . . , xn heten de coördinaten van x ten opzichte van de basis
α en (x1 , . . . , xn ) heet de coördinaatvector van x ten opzichte van de basis
α. De afbeelding die aan elke vector x de bijbehorende coördinaatvector
18
Lineaire afbeeldingen
toevoegt is dus een bijectie. Uiteraard hangen de coördinaten af van de
gekozen basis α.
In §?? hebben we al gezien dat ten opzichte van α de coördinaten van
x + y de som van de coördinaten van x en van y zijn en dat de coördinaten
van αx precies α maal de coördinaten van x zijn. Dat betekent:
1.3.3 Eigenschap. Als we in een n-dimensionale vectorruimte V een basis α kiezen, dan is de afbeelding die aan iedere vector x zijn coördinaten ten opzichte
van de basis α toevoegt een inverteerbare lineaire afbeelding van V naar Rn
of Cn .
We zullen deze afbeelding meestal eveneens door α noteren. Dat geeft
nauwelijks aanleiding tot verwarring: α(x) is de coördinaatvector van de
vector x ∈ V ten opzichte van de basis α.
1.3.4 (Basisovergang) We beschouwen nu een n-dimensionale vectorruimte V
en kiezen daarin twee bases:
α = (a1 , . . . , an ) en β = (b1 , . . . , bn ).
Met iedere vector x ∈ V corresponderen nu twee stel coördinaten: α(x) ten
opzichte van de basis α en β(x) ten opzichte van de basis β.
V
‘abstracte’ vectoren
α
β
coördinatenniveau
✠
Rn
of
Cn
βα−1
❘
✲ Rn of Cn
Het is nu duidelijk hoe het verband is tussen de α-coördinaten van x en
de β-coördinaten van x: we beginnen met het rijtje α-coördinaten, passen
daarop de afbeelding α−1 toe zodat we op x ∈ V terecht komen, en passen
daarop de afbeelding β toe die de corresponderende β(x) oplevert.
1.3.5 Definitie. (Coördinatentransformatieafbeelding) Laat α en β twee
bases in een n-dimensionale vectorruimte V zijn. Dan heet de lineaire afbeelding β α−1 : Rn → Rn of Cn → Cn de coördinatentransformatieafbeelding
van α naar β.
1.3 Matrices van lineaire afbeeldingen II
19
1.3.6 De coördinatentransformatieafbeelding is een lineaire afbeelding van Rn of
Cn naar zichzelf en wordt dus bepaald door een n×n–matrix β Sα waarvan de
kolommen de beelden van e1 , . . . , en zijn. Nu is (βα−1 )(ei )) = β(α−1 (ei )) =
β(ai ). De kolommen van deze matrix zijn dus de β–coördinaatvectoren van
de α–basisvectoren. De afbeelding β α−1 zet per constructie α–coördinaten
om in β–coördinaten. Zo’n omzetting kun je dus uitrekenen door met de
matrix β Sα te vermenigvuldigen. Samengevat:
1.3.7 Stelling. Laat α en β bases zijn voor een n-dimensionale vectorruimte V
en laat β Sα de matrix van β α−1 zijn. Als x de α–coördinaatvector is van
een vector v ∈ V , dan is de β–coördinaatvector van v gelijk aan het product
β Sα x
1.3.8 Definitie. (Overgangsmatrix) De matrix β Sα heet de overgangsmatrix
van basis α naar basis β.
1.3.9 We kunnen natuurlijk ook β-coördinaten in α-coördinaten omzetten. Dat
gaat met de matrix α Sβ . De productmatrix α Sβ β Sα zet de α-coördinaten
van een vector x om in de β-coördinaten en die weer om in de α-coördinaten
van x. Dus
−1
α S β β Sα = I , α S β = β Sα .
Als er nog een derde basis γ in het spel is, kunnen we α–coördinaten omzetten in β–coördinaten en deze vervolgens in γ–coördinaten. Het resultaat
is natuurlijk dat we α–coördinaten hebben omgezet in γ–coördinaten, dus
γ Sβ β S α
= γ Sα
(deze gelijkheid volgt ook door Stelling 1.2.10 toe te passen op de gelijkheid
(γβ −1 )(βα−1 ) = γα−1 ).
1.3.10 Voorbeeld. We beschouwen de vectorruimte V van reële polynomen van
graad hoogstens 2. We beschouwen de bases α : (1, x, x2 ) en β : (x − 1, x2 −
1, x2 + 1). We kunnen de basisvectoren van β eenvoudig uitdrukken in de
basisvectoren van α:
x − 1 = (− 1)·1 + 1·x + 0·x2
x2 − 1 = (− 1)·1 + 0·x + 1·x2
x2 + 1 =
1·1 + 0·x + 1·x2 .
We kennen dus de α-coördinaten van de vectoren van β. Dus is


−1 −1 1
1
0 0 .
α Sβ = 
0
1 1
20
Lineaire afbeeldingen
De overgangsmatrix β Sα is de inverse van deze matrix. We vinden


0
2 0
1
−1 −1 1  .
β Sα =
2
1
1 1
De eerste kolom van deze matrix zou uit de β-coördinaten van de eerste
basisvector van α moeten bestaan. Die β-coördinaten zijn (0, − 21 , 21 ) en dat
is de vector 0 (x − 1) − 12 (x2 − 1) + 21 (x2 + 1) = 1, dat klopt dus. Ga zelf na
dat de tweede kolom uit de β-coördinaten van x en de derde kolom uit de
β-coördinaten van x2 bestaat.
Hoe bepalen we nu de β-coördinaten van de vector 2x2 −3x+4? Van deze
vector zijn de α-coördinaten (4, − 3, 2). Die zetten we om in β-coördinaten
met de matrix β Sα :







4
0
2 0
4
−3
1
1 
 − 3  =  −1 −1 1   − 3  = 
.
β Sα
2
2
3
2
1
1 1
2
2
We verifiëren het resultaat:
3
1
− 3(x − 1) + (x2 − 1) + (x2 + 1) = 2x2 − 3x + 4 .
2
2
Dat klopt.
1.3.11 Het is van belang onderscheid te maken tussen rekenen op vectorniveau, dus
met elementen van de vectorruimte V , en rekenen op coördinatenniveau,
dus met rijtjes getallen uit Rn of Cn . In het voorbeeld was dat duidelijk: de
vectoren zijn polynomen, de coördinaten rijtjes getallen.
Dit onderscheid is lastiger als we als vectorruimte Rn of Cn zelf hebben.
Het rijtje getallen dat een vector uit Rn of Cn representeert is namelijk
zelf ook op te vatten als een rijtje coördinaten, en wel ten opzichte van de
standaardbasis ε : e1 , . . . , en :
(1, 2, 3) = 1e1 + 2e2 + 3e3 .
1.3.12 Voorbeeld. We beschouwen in R3 twee bases:
α = ((1, 0, 2), (− 1, 1, 0), (0, − 2, 1)) ,
β = ((0, 1, 1), (1, 2, − 1), (1, 0, 1)) .
We zoeken de overgangsmatrix β Sα . Hiermee worden dus α-coördinaten omgezet in β-coördinaten. De kolommen van deze matrix zijn de β-coördinaten
van de vectoren van α.
1.3 Matrices van lineaire afbeeldingen II
21
We kunnen het probleem rechtstreeks oplossen. We schrijven ieder van
de vectoren van α als lineaire combinatie van de vectoren van β. Daartoe
moeten we drie stelsels vergelijkingen in drie onbekenden oplossen, die we
kunnen combineren tot:


0
1 1 1 − 1
0
 1
2 0 0
1 −2  .
1 −1 1
2
0
1
Vegen levert op
1
1 0 0 2
1
 0 1 0 −
4
5
0 0 1 4


1 − 12
0 − 34  .
3
−1
4
De laatste drie kolommen zijn dus de β-coördinaten van de drie vectoren
van α. Dus


2
4 −2
1
−1
0 −3  .
4
5 −4
3
Een tweede methode om dit probleem op te lossen, maakt gebruik van de
standaardbasis ε en is wat transparanter. Zowel van de basis α als van de
basis β kennen we de coördinaten van de basisvectoren ten opzichte van ε,
dus kennen we (zonder berekening) ε Sα en ε Sβ :


1 −1
0
1 −2  ,
ε Sα =  0
2
0
1


0
1 1
2 0 .
ε Sβ =  1
1 −1 1
Nu geldt β Sα = β Sε ε Sα = ε Sβ−1 ε Sα .
We bepalen dus eerst de inverse van ε Sβ en vinden


−2
2
2
1
1
1 −1  ,
β Sε =
4
3 −1
1
zodat





−2
2
2
1 −1
0
2
4 −2
1
1
1
1 −1   0
1 − 2  =  −1
0 −3  .
β Sα =
4
4
3 −1
1
2
0
1
5 −4
3
22
Lineaire afbeeldingen
1.3.13 (Matrix van een lineaire afbeelding) We bespreken nu hoe we een lineaire afbeelding tussen twee eindig-dimensionale vectorruimten met een
matrix kunnen beschrijven.
Laat V en W twee eindig-dimensionale vectorruimten zijn over R (voor
C verloopt de discussie identiek) en beschouw een lineaire afbeelding A :
V → W . Na keuze van een basis α voor V en een basis β voor W kunnen
we de lineaire afbeelding A ook met een matrix representeren. Beschouw
daartoe diagram (1.2):
A
V −−−→ W



β
αy
y
(1.2)
βAα−1
Rn −−−−→ Rm
Met iedere vector x ∈ V correspondeert eenduidig een rijtje coördinaten α(x)
en met de beeldvector Ax een rijtje coördinaten β(Ax). De samengestelde
lineaire afbeelding βAα−1 : Rn → Rm voegt aan α(x) toe β(Ax). Dit is
een lineaire afbeelding van Rn naar Rm en wordt dus wegens Stelling 1.2.3
bepaald door een matrix β Aα waarvan de kolommen zijn
(βAα−1 )(ei ) = β(Aai ) i = 1, . . . , n.
(De i–de kolom bestaat uit de β–coördinaten van het beeld Aai .) De matrix β Aα heet (voluit) de matrix van A ten opzichte van de bases α en β.
Met de matrix β Aα hebben we de lineaire afbeelding A op het niveau van
coördinaten in handen: om bijvoorbeeld het beeld van een vector a ∈ V te
vinden, zoeken we de coördinaatvector α(a) van a op en vermenigvuldigen
deze met β Aα ; dit levert de coördinaatvector van Aa op; resteert nog het
omzetten van deze coördinaatvector naar de bijbehorende vector uit W .
Als V = W en β = α, dan noteren we de bijbehorende matrix door Aα ;
we spreken van de matrix van A ten opzichte van de basis α. In deze cursus
is dit de situatie waar we het meeste aandacht aan zullen besteden.
1.3.14 (Verband met DE matrix) Als A : V = Rn → W = Rm (of Cn →
Cm ) een lineaire afbeelding is, en we gebruiken de standaardbases voor deze
ruimten, dan is de matrix van A ten opzichte van deze bases niets anders
dan de matrix van A zoals in de vorige paragraaf gedefinieerd. Dit komt
omdat de coördinatiseringen van V en van W beide de identieke afbeelding
zijn.
1.3.15 Voorbeeld. Uit de matrix van een lineaire afbeelding kunnen we aflezen
wat het beeld is van een vector. Als bijvoorbeeld V tweedimensionaal is met
1.3 Matrices van lineaire afbeeldingen II
23
basis α = (a, b) en de lineaire afbeelding A : V → V heeft matrix
1 4
Aα =
−2 3
ten opzichte van α, dan lezen we uit de matrix af dat Aa = 1 · a − 2 · b (eerste
kolom) en Ab = 4 · a + 3 · b (tweede kolom). Om het beeld van λa + µb te
bepalen vermenigvuldig je Aα met (λ, µ):
λ + 4µ
λ
1 4
=
−2λ + 3µ
µ
−2 3
en concludeer je dat het beeld (λ + 4µ)a + (−2λ + 3µ)b is.
1.3.16 Voorbeeld. Beschouw de vectorruimte V van reële polynomen van graad
hoogstens 3 en de lineaire afbeelding D : V → V gedefinieerd door Dp = p′ .
Neem in V de basis α = (1, x, x2 ). De afgeleiden van de basisvectoren zijn:
0 = 0·1 + 0·x + 0·x2 ,
1 = 1·1 + 0·x + 0·x2 ,
2x = 0·1 + 2·x + 0·x2 .
De matrix Dα is dus


0 1 0
Dα =  0 0 2  .
0 0 0
Ter illustratie nemen we een polynoom p(x) = 2x2 − 3x + 5. De coördinaatvector van p t.o.v. α is (5, − 3, 2) en



 



5
0 1 0
5
−3
4 .
Dα  − 3  =  0 0 2   − 3  = 
2
0 0 0
2
0
(− 3, 4, 0) is de coördinaatvector van 4x − 3 en dat is inderdaad de afgeleide
van p.
1.3.17 Voorbeeld. We werken in R2 met het standaardinproduct. We bepalen de
matrix Pε t.o.v. de standaardbasis ε van de loodrechte projectie P op de
rechte ℓ met vergelijking 2x − 3y = 0. Rechtstreeks de coördinaten van Pe1
en Pe2 bepalen is wat lastig. We beschouwen eerst een basis α = (a1 , a2 ) ten
opzichte waarvan P eenvoudig te beschrijven is. We nemen a1 = (3, 2) ∈ ℓ
24
Lineaire afbeeldingen
en a2 = (2, − 3) ⊥ ℓ. Dan is Pa1 = a1 = 1·a1 +0·a2 en Pa2 = 0 = 0·a1 +0·a2
zodat de matrix Pα is:
1 0
Pα =
.
0 0
De overgangsmatrices zijn
3
2
S
=
ε α
2 −3
zodat
en
−1
α Sε = ε Sα =
1
Pε = ε S α P α α S ε =
13
1
13
9 6
6 4
3
2
2 −3
,
.
Dat resultaat kunnen we ook met de techniek van 1.2.5 vinden. De gegevens
Pa1 = a1 en Pa2 = 0 zetten we in ε-coördinaten in rijen in een matrix
3
2 3 2
,
2 −3 0 0
waaruit na vegen volgt
 1 0 0 1 
zodat
1
Pε =
13
9
13
6
13
6
13
4
13
9 6
6 4


.
1.3.18 Met onze regels voor coördinatentransformaties kunnen we op andere bases
overgaan. Dit levert een triviale maar belangrijke eigenschap:
1.3.19 Stelling. (Invloed basisovergang) Kies in een eindig-dimensionale ruimte V twee bases α en β, en stel A : V → V is lineair. Dan is
Aβ = β S α Aα α S β .
Bewijs. Beschouw de volgende gelijkheid van samenstellingen
βAβ −1 = (βα−1 )(αAα−1 )(αβ −1 )
(door de haken anders te plaatsen zie je dat in het rechterlid de factoren
α−1 α weg te halen zijn). Ga nu op de matrices over en gebruik daarbij
1.2.10
1.4 Eigenwaarden en eigenvectoren, diagonaliseren
25
1.3.20 In woorden: De matrix Aβ zet de β-coördinaten van een vector x om in de
β-coördinaten van Ax. Dat kunnen we doen door eerst de β-coördinaten
van x om te zetten in diens α-coördinaten, dan de α-coördinaten van Ax te
bepalen met de matrix Aα en die ten slotte om te zetten in β-coördinaten.
1.3.21 Voorbeeld. Terug naar voorbeeld 1.3.16. We nemen nu een andere basis,
β = (x2 − x, x2 + 3, x2 − 1) voor V en proberen de matrix Dβ van D te
vinden. Rechtstreeks is dat wat lastiger, maar we kunnen gebruik maken
van:
Dβ = β Sα Dα α Sβ .
Nu is

0 3 −1
0  ,
α Sβ =  − 1 0
1 1
1

dus
β Sα
en
= α Sβ−1

1
=
4

0 −4 0
1
1 1 
−1
3 3


−8 −8 −8
1
1
2
2 
Dβ = β Sα Dα α Sβ =
4
7
6
6
Wederom ter illustratie: p(x) = 2x2 −3x+5 = 3(x2 −x)+(x2 +3)−2(x2 −1)
heeft als β-coördinaten (3, 1, − 2),







−8 −8 −8
−16
3
3
1
1
1
2
2 
1  =  1 .
Dβ  1  = 
4
4
7
6
6
15
−2
−2
Dit zouden de β-coördinaten van de afgeleide van p(x) moeten zijn, en dat
2
′
klopt want − 4(x2 − x) + 14 (x2 + 3) + 15
4 (x + 1) = 4x − 3 = p (x).
1.4
Eigenwaarden en eigenvectoren, diagonaliseren
1.4.1 Laat A : V → V een lineaire afbeelding zijn waarin de vectorruimte V
eindig-dimensionaal is. Voor iedere keuze van een basis α voor V wordt
A bepaald door een matrix Aα ; als α en β verschillende bases zijn dan
wordt het verband tussen Aα en Aβ gegeven door Stelling 1.3.19. In de twee
26
Lineaire afbeeldingen
voorbeelden hebben we al gezien dat als we de basis α “geschikt” kiezen, de
matrix Aα een rekentechnisch eenvoudige structuur kan hebben. Het blijkt
dat dergelijke eenvoudige gedaanten systematisch op te sporen zijn. In deze
paragraaf bespreken we de relevante technieken. Eerst preciseren we het
begrip “eenvoudige gedaante”.
1.4.2 Definitie. Een vierkante matrix A heeft een diagonaalvorm als alle elementen aij met i 6= j gelijk zijn aan nul.
De volgende stelling is eenvoudig te begrijpen maar van fundamenteel belang:
1.4.3 Stelling. Laat A : V → V een lineaire afbeelding zijn en α = (a1 , . . . , an )
een basis voor V . De matrix Aα heeft de diagonaalvorm


λ1 0 . . . 0

. 
 0 λ2 . . . .. 

Aα = 
 .. . . . .

 .
.
. 0 
0 . . . 0 λn
dan en slechts dan als Aai = λi ai voor i = 1, . . . , n.
Bewijs. De matrix Aα heeft bovenstaande diagonaalvorm dan en slechts dan
als voor elke i de α-coördinaten van Aai gelijk zijn aan (0, . . . , 0, λi , 0, . . . , 0),
dus dan en slechts dan als Aai = 0·a1 + . . . + λi ai + . . . + 0·an = λi ai .
1.4.4 Definitie. (Eigenvector en eigenwaarde) Laat A : V → V een lineaire
afbeelding zijn. Een vector v 6= 0 heet eigenvector van A met eigenwaarde
λ als Av = λv.
Eigenvectoren zijn dus vectoren ongelijk aan de nulvector die door A op
een veelvoud van zichzelf worden afgebeeld; dat veelvoud heet de bijbehorende eigenwaarde.
Stelling 1.4.3 kan dus ook als volgt geformuleerd worden:
1.4.5 Stelling. Laat A : V → V een lineaire afbeelding zijn. De matrix Aα heeft
de diagonaalvorm dan en slechts dan als α een basis van eigenvectoren is.
In dat geval staan op de diagonaal de eigenwaarden.
1.4.6 Voorbeeld. In voorbeeld 1.3.17 hebben we de projectie op een lijn bekeken.
De aldaar gedefinieerde vectoren a1 en a2 zijn eigenvectoren met eigenwaarden respectievelijk 1 en 0; de matrix ten opzichte van de basis (a1 , a2 ) is
1.4 Eigenwaarden en eigenvectoren, diagonaliseren
dus
1 0
0 0
27
,
een diagonaalmatrix met op de diagonaal de eigenwaarden. Let op de volgorde van de 1 en de 0 op de diagonaal: deze correspondeert met de volgorde
van de eigenvectoren.
1.4.7 Voorbeeld. Beschouw in E 2 een draaiing over 90◦ om de oorsprong. Dan
wordt geen enkele vector ongelijk aan 0 op een veelvoud van zichzelf afgebeeld. Deze lineaire afbeelding heeft dus geen eigenvectoren en er bestaat
zeker geen basis van eigenvectoren. Voor geen enkele basiskeuze heeft de
matrix van deze draaiing de diagonaalvorm.
1.4.8 Definitie. (Eigenruimte) Beschouw een lineaire afbeelding A : V → V .
Voor ieder getal λ is
Eλ = N (A − λI) ;
Eλ heet de eigenruimte van A bij λ.
1.4.9 (Eigenwaarden en eigenvectoren bepalen) Eλ is de nulruimte van de
lineaire afbeelding A − λI. Er geldt v ∈ Eλ dan en slechts dan als (A −
λI)v = 0, dus dan en slechts dan als Av − λv = 0, dus dan en slechts
dan als Av = λv. De eigenruimte Eλ bestaat dus uit de nulvector en alle
eigenvectoren bij eigenwaarde λ. Een bijzondere eigenruimte is E0 . Deze
bestaat uit alle vectoren die op 0 maal zichzelf worden afgebeeld, dus op 0.
De eigenruimte E0 is dus de nulruimte van A.
In de regel zal Eλ alleen uit {0} bestaan. Het getal λ is eigenwaarde dan
en slechts dan als er in Eλ een vector v 6= 0 ligt, dus dan en slechts dan als
dim(Eλ ) > 0. Sommige auteurs spreken alleen over een eigenruimte als λ
eigenwaarde is.
De werkwijze bij het zoeken van eigenvectoren is dat we eerst het getal
λ zo bepalen dat dim(Eλ ) > 0. λ is dan eigenwaarde en de vectoren in Eλ
ongelijk aan 0 zijn de eigenvectoren met deze eigenwaarde.
Kies in V een willekeurige basis α = (a1 , . . . , an ) (niet noodzakelijk een
basis van eigenvectoren). Laat A de matrix van A ten opzichte van deze
basis zijn. Dan is:


a11 − λ
a12
...
a1n


..


a21
a22 − λ
.


A − λI = 

..
..
..


.
.
.
an1
...
. . . ann − λ
28
Lineaire afbeeldingen
de matrix van A − λI t.o.v. de basis α .
Stel v = v1 a1 + · · · + vn an is een vector in V . Dan is v eigenvector bij
eigenwaarde λ dan en slechts dan als v 6= 0 en (A − λI)v = 0, dus dan en
slechts dan als (v1 , . . . , vn ) 6= (0, . . . , 0) en

 



a11 − λ
a12
...
a1n
v1
0

 
..
 0 

  v2 
a21
a22 − λ
.



  . 
=
(1.3)
 ..  .

  . 
..
..
.


.
.
. 


.
.
.
vn
0
an1
...
. . . ann − λ
Bij het getal λ bestaan dus eigenvectoren dan en slechts dan als de dimensie
van de oplossingsruimte van het homogene stelsel (A − λI)x = 0 groter dan
0 is, en dat is het geval dan en slechts dan als de rang van A − λI kleiner
is dan n, en dat is zo dan en slechts dan als det(A − λI) = 0 (zie ??). Als
λ eigenwaarde is, dan zijn de oplossingen van het stelsel (A − λI)x = 0 de
coördinaatvectoren van de vectoren uit Eλ .
1.4.10 Stelling. λ is eigenwaarde dan en slechts dan als det(A − λI) = 0 en de αcoördinaten van de bijbehorende eigenvectoren zijn de oplossingen ongelijk
aan de nuloplossing van het stelsel (1.3).
1.4.11 Definitie. (Karakteristiek polynoom) Laat A : V → V een lineaire
afbeelding zijn en Aα de matrix van A t.o.v. een basis α. Dan heet de
vergelijking det(Aα − λI) = 0 de karakteristieke vergelijking van A. Het linkerlid van deze vergelijking, det(Aα − λI), heet het karakteristieke polynoom
(of de karakteristieke veelterm) van A.
1.4.12 Aangezien eigenwaarden en eigenvectoren uiteraard alleen van A en niet van
de gekozen basis α afhangen zou de karakteristieke vergelijking niet moeten
afhangen van de toevallig gekozen basis α. Dat is inderdaad het geval. Om
dat in te zien nemen we een andere basis β. Dan is
det(Aβ − λI) = det(β Sα Aαα Sβ − λβ Sα Iα Sβ )
= det(β Sα (Aα − λI)α Sβ )
= det(β Sα ) det(Aα − λI) det(α Sβ )
= det(Aα − λI) det(β Sαα Sβ )
= det(Aα − λI) det(I)
= det(Aα − λI) .
De matrices Aα en Aβ geven dus hetzelfde karakteristieke polynoom.
1.4 Eigenwaarden en eigenvectoren, diagonaliseren
29
1.4.13 Voordat we voorbeelden gaan bespreken gaan we nog wat verder op het
karakteristieke polynoom in. Dat polynoom is de determinant
a11 − λ
a12
...
a1n
..
a21
a22 − λ
.
.
..
..
..
.
.
.
an1
...
. . . ann − λ Deze determinant is de som van n! termen en
product van n matrixelementen die zo gekozen
iedere kolom precies één element afkomstig is.
dus een polynoom in λ van graad hoogstens n.
iedere term bestaat uit een
worden dat uit iedere rij en
Iedere term in deze som is
Eén van de termen is:
(a11 − λ)(a22 − λ) · · · (ann − λ)
= (−1)n λn + (−1)n−1 (a11 + a22 + · · · + ann )λn−1 + . . . .
Ieder van de overige termen bevat een element aij met i 6= j. In zo’n
term komen dus (aii − λ) en (ajj − λ) niet voor en zo’n term is dus een
polynoom van graad hoogstens n − 2. Het karakteristieke polynoom is dus
een polynoom van graad n van de gedaante
(−1)n λn + (−1)n−1 (a11 + a22 + . . . + ann )λn−1 + . . . + c1 λ + c0 .
1.4.14 Definitie. (Spoor) De som van de diagonaalelementen van een vierkante
matrix heet het spoor van de matrix.
Omdat de karakteristieke vergelijking niet afhangt van de basiskeuze vinden
we dus:
1.4.15 Stelling. Laat A : V → V een lineaire afbeeldings zijn met dim(V ) < ∞.
Voor iedere basiskeuze α heeft de matrix Aα hetzelfde spoor.
De coëfficiënt c0 in het karakteristieke polynoom is ook eenvoudig te vinden.
Nemen we λ = 0 dan staat er det(A) = c0 . Dus:
1.4.16 Stelling. Laat A : V → V een lineaire afbeelding zijn met dim(V ) < ∞.
Voor iedere basiskeuze α heeft de matrix Aα dezelfde determinant.
1.4.17 Laat λ1 , . . . , λn de n (complexe) wortels van de karakteristieke vergelijking
zijn. Dan is het karakteristieke polynoom te schrijven als
(−1)n (λ − λ1 )(λ − λ2 ) · · · (λ − λn )
= (−1)n λn + (−1)n−1 (λ1 + λ2 + . . . + λn )λn−1 + · · · + λ1 λ2 · · · λn .
Hieruit volgt:
30
Lineaire afbeeldingen
1.4.18 Stelling. Het spoor van de matrix is de som van de wortels van de karakteristieke vergelijking en de determinant van de matrix is het product van
de wortels van de karakteristieke vergelijking.
1.4.19 Het bepalen van eigenwaarden en eigenvectoren kan dus als volgt geschieden
(soms zijn er andere slimmere manieren):
• Stel de matrix Aα van de lineaire afbeelding A : V → V op t.o.v. een
basis α naar keuze.
• Stel de karakteristieke vergelijking det(Aα − λI) = 0 op en los deze
op. Werken we in een reële vectorruimte, dan zijn de reële wortels de
eigenwaarden van de lineaire afbeelding. Werken we in een complexe
ruimte, dan is elke wortel eigenwaarde.
• Los voor elke eigenwaarde λ het stelsel (Aα −λ)v = 0 op (zie 1.3). Elke
oplossing geeft de coördinaten van een vector uit Eλ . De oplossingen
vormen de eigenruimte Eλ , maar wel in termen van coördinaten t.o.v.
de basis α.
• Ga desgewenst terug van coördinaten naar vectoren in V .
Als er een basis van eigenvectoren blijkt te bestaan, is het opstellen van de
matrix t.o.v. zo’n basis eenvoudig: de matrix is een diagonaalmatrix met
langs de diagonaal precies de eigenwaarden (in dezelfde volgorde als waarin
de corresponderende eigenvectoren in de basis staan). Er hoeven dus geen
expliciete transformaties berekend te worden.
1.4.20 Voorbeeld. We beschouwen in R2 met het standaardinproduct de projectie
op de lijn ℓ : 2x−3y = 0 (zie voorbeeld 1.3.17). De matrix van deze projectie
is
1
9 6
,
6 4
13
zodat de karakteristieke vergelijking is
9
6
−
λ
13
13
= 1
169
4
6
−λ 13
13
9 − 13λ
6
6
4 − 13λ
1 (9 − 13λ)(4 − 13λ) − 36 = λ2 − λ = 0 .
=
169
De karakteristieke vergelijking heeft dus twee wortels: λ = 1 en λ = 0. Het
spoor van de matrix is 1 en de determinant is 0.
1.4 Eigenwaarden en eigenvectoren, diagonaliseren
31
De eigenruimte bij λ = 1 vinden we uit het stelsel vergelijkingen met
coëfficiëntenmatrix
 9

6
13 − 1
13
−
4
6
2
−
3

 ∼
∼
6 −9
0
0
4
6
−
1
13
13
dus uit 2x − 3y = 0 (dat is ℓ, verrassend?). Alle oplossingen (x, y) zijn dus
veelvouden van (3, 2), dus
E1 =< 3e1 + 2e2 > (= ℓ) .
De eigenruimte bij λ = 0 vinden we uit het stelsel vergelijkingen
 9

6
13 − 0
13
9 6
3 2

 ∼
∼
,
6 4
0 0
4
6
−
0
13
13
dus uit 3x + 2y = 0. Alle oplossingen (x, y) zijn dus veelvouden van (2, − 3),
zodat
E0 =< 2e1 − 3e2 > (= ℓ⊥ ) .
Neem a1 = 3e1 + 2e2 en a2 = 2e1 − 3e2 . Dan is α = (a1 , a2 ) een basis
van eigenvectoren en de matrix van de projectie t.o.v. deze basis heeft de
diagonaalvorm
1 0
.
0 0
Net als de oorspronkelijke matrix heeft deze matrix spoor 1 en determinant
0 in overeenstemming met de Stellingen 1.4.15 en 1.4.16.
1.4.21 Voorbeeld. We kiezen in E 2 een orthonormale basis e1 , e2 en beschouwen
een draaiing over 90◦ in de richting van e1 naar e2 . Dan is Ae1 = e2 en
Ae2 = − e1 zodat de matrix t.o.v. (e1 , e2 ) is
0 −1
.
1
0
De karakteristieke vergelijking is
−λ −1 2
1 −λ = λ + 1 = 0
en heeft twee wortels: λ = i en λ = − i. Het spoor is 0 en de determinant
is 1. Maar aangezien E 2 een reële vectorruimte is kunnen i en − i geen eigenwaarde zijn; deze draaiing heeft geen eigenvectoren, in overeenstemming
met voorbeeld 1.4.7.
32
Lineaire afbeeldingen
1.4.22 Voorbeeld. Beschouw de vectorruimte V van reële polynomen van graad
hoogstens twee en definieer de lineaire afbeelding A : V → V door Ap = p′ .
Dan heeft A ten opzichte van de basis (1, x, x2 ) de matrix (zie voorbeeld
1.3.16)


0 1 0
 0 0 2  .
0 0 0
De karakteristieke vergelijking is dus
−λ
1
0
0
−
λ
2
0
0 −λ
= − λ3 = 0 .
De enige wortel van de karakteristieke vergelijking is dus λ = 0 en wel met
multipliciteit 3; het spoor is 0 en de determinant is 0. We vinden de eigenruimte E0 door het homogene stelsel op te lossen met coëfficiëntenmatrix


0 1 0
 0 0 2 .
0 0 0
Alle oplossingen van dit stelsel vergelijkingen zijn veelvouden van (1, 0, 0),
zodat
E0 =< 1·1 + 0·x + 0·x2 >=< 1 > .
E0 bestaat dus uit alle constante polynomen. Die hebben inderdaad als
afgeleide het nulpolynoom. Merk op dat dim(E0 ) = 1 terwijl λ = 0 multipliciteit 3 heeft. Er is dus geen basis van eigenvectoren te vinden en er is
dus ook geen diagonaalvorm voor de matrix van de afbeelding te vinden.
1.4.23 Voorbeeld. De lineaire afbeelding A : R3 → R3 wordt gegeven door de
matrix


4 −1 6
1 6  .
A= 2
2 −1 8
We werken t.o.v. de standaardbasis (e1 , e2 , e3 ) zodat we in dit voorbeeld
vectoren en coördinaten kunnen identificeren. De karakteristieke vergelijking
is:
4 − λ −1
6
= 0, dus − λ3 + 13λ2 − 40λ + 36 = 0.
2
1
−
λ
6
2
−1 8 − λ 1.4 Eigenwaarden en eigenvectoren, diagonaliseren
33
Deze veelterm ontbindt als −(λ − 9)(λ − 2)2 ; er zijn dus twee eigenwaarden,
λ = 9 en λ = 2, de laatste met multipliciteit 2. Het spoor is inderdaad
9 + 2 + 2 = 13 en de determinant is 36. Ga dat laatste na.
De eigenruimte E9 vinden we uit de vergelijkingen




−5 −1
6
1 0 −1

2 −8
6  ∼  0 1 −1 
2 −1 −1
0 0
0
met als oplossingen veelvouden van (1, 1, 1). Dus E9 =< (1, 1, 1) >.
De eigenruimte E2 vinden we uit de vergelijkingen


2 −1 6
 2 −1 6 ,
2 −1 6
zodat E2 het vlak 2x − y + 6z = 0 is, dus E2 =< (1, 2, 0), (0, 6, 1) >. De
basis α = ((1, 1, 1), (1, 2, 0), (0, 6, 1)) is dus een basis van eigenvectoren. Ten
opzichte van deze basis is


9 0 0
Aα =  0 2 0  .
0 0 2
Aα is een diagonaalmatrix, uiteraard met spoor 13 en determinant 36.
1.4.24 We zien aan de bovenstaande voorbeelden dat er bij een gegeven lineaire
afbeelding A : V → V niet altijd een basis van eigenvectoren te vinden
is, zodat A niet altijd met een diagonaalmatrix te representeren is. Toch
kunnen we vaak nog wel door een handige basiskeuze een redelijk eenvoudige
vorm van de matrix vinden. We gaan daar in de volgende paragraaf verder
op in.
Om vast te stellen of een stelsel eigenvectoren onafhankelijk is, is het
volgende resultaat erg handig:
1.4.25 Stelling. Laat A : V → V een lineaire afbeelding zijn en stel v 1 , . . . , v n zijn
eigenvectoren van A bij onderling verschillende eigenwaarden λ1 , . . . , λn .
Dan zijn v 1 , . . . , v n onafhankelijk.
Bewijs. Stel van niet. Dan mogen we aannemen dat v 1 afhankelijk is
van v 2 , . . . , v n ; eventueel hernummeren we de vectoren. Vervolgens dunnen we v 2 , . . . , v n uit tot een onafhankelijk stelsel v 2 , . . . , v p , zo dat <
34
Lineaire afbeeldingen
v 2 , . . . , v p >=< v 2 , . . . , v n >; om dit te bereiken moeten we eventueel de
vectoren hernummeren. Dan is
p
p
p
p
X
X
X
X
αi v i zodat λ1 v 1 =
αi λ1 v i = Av 1 = A
αi v i =
αi λi v i ,
v1 =
i=2
en dus
i=2
p
X
i=2
i=2
i=2
αi (λi − λ1 )v i = 0.
Omdat v 2 , . . . , v p onafhankelijk zijn en λi − λ1 6= 0 voor i = 2, . . . , p, volgt
hieruit dat αi = 0 voor i = 2, . . . , p, dus v 1 = 0 en dat kan niet want v 1 is
een eigenvector. Het stelsel v 1 . . . , v n is dus onafhankelijk.
1.4.26 Tot slot nog een opmerking. In deze paragraaf zijn we op zoek gegaan
naar methoden om een lineaire afbeelding voor te kunnen stellen door een
diagonaalmatrix; het startpunt is dus een lineaire afbeelding. We kunnen
het startpunt ook leggen bij een vierkante matrix A. Vat deze op als de
matrix van een lineaire afbeelding Rn → Rn (of Cn → Cn ) en zoek een
basis α van eigenvectoren (als deze bestaat). Verzamel de eigenwaarden in
een diagonaalmatrix D. Dit is een diagonaalgedaante van de matrix A. Er
geldt dus D = α Sε A ε Sα . Dit procédé wordt wel het diagonaliseren van A
genoemd.
1.5
Invariante deelruimten
1.5.1 Eigenvectoren hebben de eigenschap dat ze worden afgebeeld op een veelvoud van zichzelf; de door de vector opgespannen rechte wordt dus in zich
zelf overgevoerd. Als er geen of niet voldoende eigenvectoren bestaan, zijn er
misschien wel deelruimten die in zich zelf overgevoerd worden, zogenaamde
invariante deelruimten. Denk bijvoorbeeld aan een rotatie om een rechte
in R3 , waar het vlak loodrecht op de rotatieas zo’n invariante deelruimte is
(zie Hoofdstuk 2). Zulke invariante deelruimten leiden ook tot eenvoudige
matrixgedaanten. In deze paragraaf bespreken we
• het begrip invariante deelruimte van een lineaire afbeelding,
• de rol van invariante deelruimten bij het bepalen van eenvoudige matrixgedaanten,
• een techniek om bij een niet–reëel nulpunt van het karakteristiek polynoom van een lineaire afbeelding van een reële vectorruimte naar
zichzelf een invariante deelruimte te bepalen.
1.5 Invariante deelruimten
35
. In deze paragraaf beschouwen we steeds een lineaire afbeelding A : V → V
met dim(V ) < ∞.
1.5.2 Definitie. (Invariante deelruimte) Laat W een lineaire deelruimte van
V zijn. W heet invariant onder de lineaire afbeelding A : V → V als
Aw ∈ W voor alle w ∈ W .
1.5.3 Voorbeeld. De nulruimte N van een lineaire afbeelding A is invariant: als
x ∈ N , dan is Ax = 0 en deze vector zit weer in N .
De beeldruimte R is ook invariant: als y ∈ R, dan is Ay uiteraard weer
in R.
1.5.4 Als W invariant is onder A, dan liggen alle beeldvectoren Aw met w ∈ W
weer in W . Als we A beperken tot W dan hebben we dus een lineaire
afbeelding A : W → W verkregen, de beperking van A tot W .
Gelukkig hoeven we meestal niet na te gaan dat inderdaad alle vectoren
van W onder A weer in W terecht komen:
1.5.5 Stelling. Laat A : V → V lineair zijn en stel W =< a1 , . . . , an >. W
is invariant onder A dan en slechts dan als Aai ∈< a1 , . . . , an > voor i =
1, . . . , n.
Bewijs. Als W invariant is, dan geldt Aw ∈ W voor alle w ∈ W , dus
in het bijzonder voor w = a1 , . . . , an . Omgekeerd, stel Aai ∈ W voor
i = 1, . . . , n en neem een willekeurige w ∈ W . Dan kan w geschreven worden
als w = w1 a1 + · · · + wn an , zodat Aw = w1 Aa1 + · · · + wn Aan . Omdat iedere
Aai ∈ W , volgt hieruit dat Aw ∈ W .
1.5.6 Stelling. Stel α = (a1 , . . . , an ) is een basis voor V zodanig dat W =<
a1 , . . . , am > invariant is onder A. Dan heeft de matrix Aα de vorm


∗ ... ∗

..
.. 

M
.
. 
1



.
..  ,
Aα =  0 . . . 0 ..

.



....
..
.. 

..
.
. 
0 ... 0 ∗ ... ∗
waarin de m × m–matrix M1 de matrix is van A : W → W t.o.v. de basis
(a1 , . . . , am ).
36
Lineaire afbeeldingen
Bewijs. Voor i = 1, . . . , m geldt wegens de vorige stelling
Aai = ai1 a1 + . . . + aim am + 0am+1 + . . . + 0an .
Hieruit volgt direct de bewering.
1.5.7 Voorbeeld. Beschouw in R5 de (onafhankelijke) vectoren
a = (1, 0, − 2, 2, 1) en b = (2, 0, 2, − 1, − 1).
Van de lineaire afbeelding A : R5 → R5 is gegeven
Aa = (0, 0, − 6, 5, 3) , Ab = (5, 0, 2, 0, − 1).
We gaan aantonen dat W =< a, b > invariant is en bepalen een matrix van
A : W → W.
Om de invariantie van < a, b > aan te tonen, moeten we laten zien
dat Aa en Ab lineaire combinaties van a en b zijn. Dat doen we dus door
simultaan de stelsels vergelijkingen met kolommen a, b, Aa, Ab op te lossen:


1
2 0
5

0
0 0
0 


 −2
2 − 6
2 

.

2 −1 5
0 
1 −1
3 −1
Na vegen vinden we






1
0
0
0
0
0
1
0
0
0
2 1
−1 2
0 0
0 0
0 0



,


waaruit volgt Aa = 2a − b en Ab = a + 2b. W =< a, b > is dus invariant
onder A, en de matrix van A : W → W t.o.v. de basis (a, b) is
2 1
.
−1 2
1.5.8 (Tweedimensionale invariante deelruimten) Bij niet–reële nulpunten
van de karakteristieke vergelijking van een lineaire afbeelding A : V → V
van een reële vectorruimte V naar zichzelf horen geen eigenvectoren. Bij
1.5 Invariante deelruimten
37
zo’n nulpunt hoort echter wel een tweedimensionale invariante deelruimte.
Dat leiden we nu af.
Kies een basis α = (a1 , . . . , an ) voor V en beschouw de karakteristieke
vergelijking det(Aα − λI) = 0. Laat µ een niet-reële wortel van deze vergelijking zijn. Dan is µ geen eigenwaarde van A : V → V . Wel bestaat er een
rijtje complexe getallen (z1 , . . . , zn ) 6= (0, . . . , 0) zo dat




z1
z1




Aα  ...  = µ  ...  .
zn
zn
Stel (x1 , . . . , xn ) = (Rez1 , . . . , Rezn ) en (y1 , . . . , yn ) = (Imz1 , . . . , Imzn ).
Dan volgt uit de regels voor matrixvermenigvuldiging










z1
x1
y1
x1
y1










Aα  ...  = Aα   ...  + i  ...  = Aα  ...  + iAα  ... 
zn
en
xn
yn
xn
yn






z1
x1
y1






µ  ...  = Re(µ)  ...  − Im(µ)  ... 
zn
xn
yn




x1
y1




+i Im(µ)  ...  + i Re(µ)  ...  .
xn
yn
Hieruit volgt dat






y1
x1
x1






Aα  ...  = Re(µ)  ...  − Im(µ)  ...  ,
yn
xn
xn





y1
x1
y1






Aα  ...  = Im(µ)  ...  + Re(µ)  ...  .
yn
xn
yn

Beschouw nu de vectoren x = x1 a1 +. . .+xn an ∈ V en y = y1 a1 +. . .+yn an ∈
V . Dan geldt
Ax = Re(µ)x − Im(µ)y,
Ay = Im(µ)x + Re(µ)y.
38
Lineaire afbeeldingen
De ruimte W =< x, y > is dus een tweedimensionale (ga na!) invariante
deelruimte en A : W → W en heeft t.o.v. de basis (x, y) de matrix:
Re(µ) Im(µ)
− Im(µ) Re(µ)
en dus µ en µ als wortels van de karakteristieke vergelijking. We zullen deze
eigenschap in het volgende hoofdstuk nog gebruiken.
1.5.9 Laat W een invariante deelruimte zijn voor een lineaire afbeelding A : V →
V en kies een basis α = (a1 , . . . , an ) voor V zo dat (a1 , . . . , am ) een basis is
voor W . Dan volgt met Stelling 1.5.6 dat


∗ ... ∗

.. 
 M1 − λI ∗ ...
. 



..
..  .
Aα − λI =  0 . . . 0
.
. 



..
.. 
....

..
. M2 . 
0 ... 0 ∗ ... ∗
Hierin is I ∗ de m × m-eenheidsmatrix. Uit deze structuur volgt dat
det(Aα − λI) = det(M1 − λI ∗ ) det(M2 ).
(In het algemeen kun je laten zien met behulp van inductie en door te
ontwikkelen naar de eerste rij dat
A ∗
= det A det B,
det
O B
waarbij A een p × p–matrix is, B een q × q–matrix, ∗ voor een willekeurige
p × q–matrix staat en O voor de q × p–nulmatrix staat.) Aan de linkerkant
staat het karakteristieke polynoom van A : V → V en de eerste factor aan
de rechterkant is het karakteristieke polynoom van A : W → W . We vinden
dus de volgende eigenschap:
1.5.10 Stelling. Als W een invariante deelruimte is voor de lineaire afbeelding
A : V → V , dan is het karakteristieke polynoom van A : W → W een factor
van het karakteristieke polynoom van A : V → V .
1.5.11 De vorige stelling heeft een belangrijke consequentie. Beschouw een lineaire
afbeelding A : V → V . Als x eigenvector is met eigenwaarde µ, dan is ook
1.5 Invariante deelruimten
39
Ax eigenvector bij eigenwaarde µ als Ax 6= 0, ga dat na. Hieruit volgt dat
voor iedere eigenwaarde µ de eigenruimte Eµ invariant is onder A. Kies een
basis a1 , . . . , am voor Eµ . Dan is de m × m−matrix van A : Eµ → Eµ t.o.v.
deze basis:


µ
0


..


.
0
µ
λ)m .
met karakteristiek polynoom (µ −
Dus moet (µ − λ)m een factor zijn
van het karakteristieke polynoom van A : V → V , waaruit volgt
1.5.12 Stelling. De dimensie van de eigenruimte bij eigenwaarde µ van een lineaire
afbeelding A : V → V is kleiner dan of gelijk aan de multipliciteit van µ als
wortel van de karakteristieke vergelijking.
De volgende stelling is een kleine uitbreiding van Stelling 1.5.6. Geef zelf
het bewijs.
1.5.13 Stelling. Laat α = (a1 , . . . , an ) een basis voor V zijn zodanig dat W1 =<
a1 , . . . , am > en W2 =< am+1 , . . . , an > invariant zijn onder A : V → V .
Dan heeft de matrix Aα de vorm


0 ... 0

..
.. 

M1
.
. 



0 ... 0 


Aα = 

 0 ... 0



....


..
M
2
0 ... 0
waarin M1 en M2 de m × m en (n − m) × (n − m) matrices zijn van A :
W1 → W1 en A : W2 → W2 t.o.v. de bases (a1 , . . . , am ) respectievelijk
(am+1 , . . . , an ). Bovendien geldt det(Aα ) = det(M1 ) det(M2 ).
1.5.14 Tot slot van deze paragraaf geven we aan wat men kan doen als de dimensie
van de eigenruimte bij een eigenwaarde kleiner is dan de multipliciteit van
de eigenwaarde als nulpunt van de karakteristieke vergelijking.
Beschouw een lineaire afbeelding A : V → V . Laat R de beeldruimte
zijn en N de nulruimte. R en N zijn invariante deelruimten onder A.
Beschouw eerst de situatie dat R en N alleen de nulvector gemeenschappelijk hebben. Dan bestaat de nulruimte van A : R → R alleen uit de
nulvector; m.a.w. de afbeelding A : R → R heeft geen eigenwaarde 0. Kies
40
Lineaire afbeeldingen
een basis (a1 , . . . , ap ) voor N en een basis (ap+1 , . . . , an ) voor R. Dat kan
wegens de dimensiestelling. Omdat R ∩ N = {0} is (a1 , . . . , ap , ap+1 , . . . , an )
een basis voor V en dus is de matrix van A t.o.v. deze basis


0
0 ... 0

..
.. 
..

.
.
. 




0
0
.
.
.
0


 0 ... 0


 ,
 ..

.
.
 .

.
M


 ..

..
 .

.
0 ... 0
waarin M de (n − p) × (n − p)-matrix is van A : R → R. Hieruit volgt dat
de karakteristieke vergelijking van A : V → V is
(−λ)p · det(M − λI ∗ ) = 0 .
Omdat A : R → R geen eigenwaarde λ = 0 heeft, heeft det(M − λI ∗ )
geen factor λ en dus is λ = 0 een p-voudige wortel van de karakteristieke
vergelijking van A. Dus: als R ∩ N = {0}, dan is de dimensie van de nulruimte gelijk aan de multipliciteit van λ = 0 als wortel van de karakteristieke
vergelijking.
Hieruit volgt weer dat als de multipliciteit van λ = 0 als wortel van
de karakteristieke vergelijking groter is dan de dimensie van de nulruimte,
R ∩ N meer dan alleen de nulvector bevat; er bestaat dus een vector a met
Aa 6= 0 en A2 a = 0.
Dit resultaat toegepast op A − µI in plaats van A levert op dat als
de multipliciteit van λ = µ als wortel van de karakteristieke vergelijking
groter is dan de dimensie van de eigenruimte Eµ , er een vector a bestaat
met (A − µI)a = b 6= 0 en (A − µI)b = 0. Dit kan gebruikt worden om
bovendriehoeksgedaanten voor een lineaire afbeelding te vinden. We gaan
daar verder niet op in.
1.6
Duale ruimten
1.6.1 Uit Eigenschap 1.1.17 volgt dat we lineaire afbeeldingen (van V naar W )
kunnen optellen en met scalairen kunnen vermenigvuldigen. Deze operaties blijken bovendien aan de regels voor een vectorruimte te voldoen zoals
eenvoudig is na te gaan (met voor de hand liggende nulvector en tegengestelde). Met deze operaties is de verzameling van lineaire afbeeldingen van
1.6 Duale ruimten
41
V naar W dus een vectorruimte. Een bijzonder geval treedt op als W het
scalairenlichaam is, d.w.z. W = R of W = C. We spreken dan van lineaire
functies of lineaire functionalen op V . De ruimte van lineaire functies, de
duale ruimte, is het onderwerp van deze paragraaf.
1.6.2 Definitie. (Duale ruimte) Zij V een vectorruimte over R (of C). De vectorruimte van lineaire afbeeldingen V → R (of V → C) heet de duale ruimte
van V . Deze vectorruimte noteren we als V ∗ .
1.6.3 Voorbeeld. De “som van de eerste en tweede coördinaat” is een lineaire
functie φ op R3 , d.w.z. een element van (R3 )∗ . Uitgeschreven: φ(x1 , x2 , x3 ) =
x1 + x2 . De functie R3 → R, (x1 , x2 , x3 ) 7→ x21 is niet lineair, behoort dus
niet tot (R3 )∗ .
1.6.4 Voorbeelden.
• Zij V de ruimte van functies van R naar zichzelf. De afbeelding
A : V → R,
f 7→ f (0)
is een afbeelding die lineair is (want A(λf + µg) = (λf + µg)(0) =
λ f (0) + µ g(0) = λAf + µAg), dus een lineaire functie op V .
• Zij W de ruimte van oneindig vaak differentieerbare functies op R. De
afbeelding
B : W → R, f 7→ f ′ (0)
is eveneens lineair, dus een lineaire functie op W .
1.6.5 Voorbeeld. Als V een reële inproductruimte is en a ∈ V , dan is de afbeelding A : V → R, gedefinieerd door Ax = (a, x) een lineaire functie. Dit volgt uit de lineariteit in de tweede ingang van het inproduct:
(a, λ x + µ y) = λ (a, x) + µ (a, y). De nulruimte van de afbeelding is precies
het orthoplement < a >⊥ . De beeldruimte is R als a 6= 0 en is {0} als a = 0.
1.6.6 De in de nu volgende stelling geconstrueerde basis is handig bij het beschrijven van coördinaten. In dat opzicht vervult deze basis een rol die enigszins
te vergelijken is met die van een orthonormale basis in een inproductruimte
(cf. Stelling ??).
1.6.7 Stelling. Zij a1 , . . . , an een basis van V .
42
Lineaire afbeeldingen
1. Er is precies één basis φ1 , . . . , φn van V ∗ die voldoet aan
φi (aj ) = 1 als i = j,
= 0 als i =
6 j.
In het bijzonder geldt dim(V ) = dim(V ∗ ) als V eindigdimensionaal is.
2. Als a ∈ V , dan is (φ1 (a), . . . , φn (a)) de coördinaatvector van a.
Bewijs.
1. Volgens Stelling 1.1.30 bestaat er voor elke i = 1, . . . , n precies één
lineaire functie φi : V → R met de in de stelling genoemde eigenschap.
Resteert het bewijs dat het stelsel φ1 , . . . , φn een basis is van V ∗ . Eerst
tonen we aan dat het stelsel onafhankelijk is. Veronderstel dat
λ1 φ1 + · · · + λn φn = 0 (= nulfunctie).
Pas nu linker– en rechterlid toe op de vector ai . Links vinden we λi ;
rechts vinden we 0. Aangezien dit voor i = 1, . . . , n geldt, concluderen
we dat λ1 = . . . = λn = 0. Dus het stelsel is onafhankelijk.
Vervolgens laten we zien dat elke vector φ ∈ V ∗ tot het opspansel
< φ1 , . . . , φn > behoort. Het is eenvoudig na te gaan dat φ(a1 )φ1 +
φ(a2 )φ2 + · · · + φ(an )φn en φ beide dezelfde waarden aannemen op
a1 , . . . , an . Maar dit betekent dat φ = φ(a1 )φ1 + φ(a2 )φ2 + · · · +
φ(an )φn , weer wegens Stelling 1.1.30.
2. Als a = λ1 a1 + · · · + λn an , dan is
φi (a) = λ1 φi (a1 ) + · · · + λn φi (an ) = λi
vanwege de eigenschappen van φi .
1.6.8 Definitie. (Duale basis) De basis φ1 , . . . , φn van V ∗ heet de duale basis
van a1 , . . . , an .
1.6.9 Voorbeeld. De duale basis van de standaardbasis e1 , . . . , en geven we aan
met e∗1 , . . . , e∗n . De duale basis van de basis α : e1 + e2 , e1 van R2 is α∗ : e∗2 ,
e∗1 −e∗2 . Het uitrekenen van de α–coördinaten van de vector (3, 7) = 3 e1 +7 e2
is dan eenvoudig: de eerste coördinaat is e∗2 (3 e1 + 7 e2 ) = 7, de tweede
coördinaat is (e∗1 − e∗2 )(3 e1 + 7 e2 ) = 3 − 7 = −4.
1.6 Duale ruimten
43
1.6.10 (Duale basis en de inverse matrix) Met onze matrixtechnieken kunnen
we eenvoudig de duale basis van een basis van Rn (of Cn ) bepalen. Geef met
e∗1 , . . . , e∗n weer de duale basis van de standaardbasis aan. Laat a1 , . . . , an een
of andere basis zijn en verzamel deze vectoren als kolommen in de matrix A =
(aij ) (dit is ǫ Sα ). Elke vector uit de bijbehorende duale basis a∗1 , . . . , a∗n is te
schrijven als lineaire combinatie van e∗1 , . . . , e∗n , zeg, a∗i = bi1 e∗1 + · · · + bin e∗n .
De bij ’s verzamelen we in de matrix B. Nu volgt
a∗i (aj ) = bi1 a1j + · · · + bin anj .
In het rechterlid staat de coëfficiënt op de plek i, j van de productmatrix
BA. In het linkerlid staat 1 als i = j en 0 anders. Maar dit betekent dat
I = BA. Dus B is eenvoudigweg de inverse van A. De rijen van B leveren
de coëfficiënten van de vectoren uit de duale basis.
1.6.11 Voorbeeld. Om de duale basis van e1 + e2 , e1 te bepalen inverteren we de
matrix
1 1
1 0
en vinden
0 1
1 −1
.
De duale basis is dus e∗2 (eerste rij), e∗1 − e∗2 (tweede rij).
1.6.12 (Determinantfunctie) Met behulp van de duale basis is het makkelijk een
determinantfunctie (zie Definitie ??) op te schrijven. Laat φ1 , . . . , φn de
duale basis van de standaardbasis in Rn zijn en definieer
X
sgn(σ) φσ(1) (a1 ) · · · φσ(n) (an )
D(a1 , . . . , an ) =
σ∈Sn
(Hier staat Sn voor de verzameling van n! permutaties van {1, 2, . . . , n}).
De verificatie hiervan maakt gebruik van de eigenschappen van permutaties
en laten we derhalve achterwege. Voor n = 2 vereenvoudigt de uitdrukking
tot
φ1 (a1 )φ2 (a2 ) − φ2 (a1 )φ1 (a2 ) = a11 a22 − a21 a12
als a1 = (a11 , a21 ) en a2 = (a12 , a22 ).
1.6.13 (Duale afbeelding) Als A : V → W een lineaire afbeelding is, dan hoort
daar een lineaire afbeelding A∗ : W ∗ → V ∗ bij die als volgt is gedefinieerd:
A∗ (f ) = f ◦ A,
44
Lineaire afbeeldingen
voor elke lineaire functie f : W → R (of C) uit W ∗ . Deze afbeelding A∗
heet de door A geı̈nduceerde (duale) afbeelding.
Beschrijven we A met behulp van een matrix A ten opzichte van de bases
α : a1 , . . . , an van V en β : b1 , . . . , bm van W , dan blijkt de matrix van A∗
(ten opzichte van de duale basis β ∗ : b∗1 , . . . , b∗m van W ∗ en α∗ : a∗1 , . . . , a∗n
van V ∗ ) gelijk aan AT te zijn. Om dit in te zien bepalen we de coëfficiënt
op de plek i, j van de matrix A∗ van A. Daartoe moeten we de i–de α∗ –
coördinaat opsporen van het beeld A∗ (b∗j ) van de j–de β ∗ –basisvector. Als
(ervan uitgaand dat dim(V ) = n)
A∗ (b∗j ) = b∗j ◦ A = λ1 a∗1 + · · · + λn a∗n ,
dan vinden we de i–de coördinaat door linker– en rechterlid toe te passen
op de vector ai :
b∗j ◦ A(ai ) = b∗j (A(ai )).
Maar b∗j uitrekenen op een vector levert de j–de coördinaat op, dus in dit
geval de coëfficiënt Aji van de matrix van A. Blijkbaar geldt A∗ = AT .
1.7
Aantekeningen
Centraal bij de bestudering van verbanden tussen vectorruimten staat het begrip
lineaire afbeelding; deze afbeeldingen “respecteren” de lineaire structuur in de zin
dat lineaire combinaties van vectoren in lineaire combinaties van de beeldvectoren
worden overgevoerd, dat lineaire deelruimten in lineaire deelruimten overgaan etc.
Het zijn de meest voor de hand liggende afbeeldingen om in de context van vectorruimten te bestuderen en gelukkig vallen voldoende veel relevante afbeeldingen
in deze categorie (o.a. spiegelingen, rotaties, projecties) om een aparte studie van
hen te rechtvaardigen. Dit betekent niet dat andere typen afbeeldingen niet eveneens relevant zijn, maar andere typen afbeeldingen zijn in ieder geval moeilijker te
analyseren. Kwadratische afbeeldingen bijvoorbeeld zijn zeer relevant, en komen
alleen in de gedaante van kwadratische vormen (Hoofdstuk 2) en die van inproducten (Hoofdstuk ??) aan de orde. Het blijkt in het algemeen nuttig te zijn om
bij een gegeven structuur (zoals de structuur vectorruimte) speciale aandacht te
Algebra besteden aan de afbeeldingen die deze structuur “respecteren”. Dit thema wordt
bijvoorbeeld systematisch verder uitgewerkt bij de algebravakken.
Om lineaire afbeeldingen te begrijpen, zijn de begrippen eigenwaarde en eigenvector uitermate nuttig gebleken. Het begrip eigenwaarde is afkomstig uit de
context van stelsels lineaire differentiaalvergelijkingen, een onderwerp dat ter sprake
komt in het laatste hoofdstuk.
Quantum–
In de quantummechanica spelen lineaire afbeeldingen een hoofdrol, omdat fysimechanica sche grootheden als snelheid en impuls door lineaire afbeeldingen in vectorruimten
1.8 Opgaven
45
van functies beschreven worden. Eigenwaarden en eigenvectoren hebben daarbij
een bijzondere fysische betekenis.
Een andere belangrijke rol van lineaire afbeeldingen mag niet onvermeld blijven.
Lineaire afbeeldingen treden op als eerste–orde benaderingen van differentieerbare
functies van meerdere variabelen. Is f : Rn → Rn zo’n functie en p ∈ Rn , dan is
de matrix van deze eerste orde benadering te p ten opzichte van de standaardbasis
∂fi
gelijk aan de n × n matrix met op de plek i, j het element
. Dit komt ook van
∂xj
pas bij het bestuderen van gekromde ruimten.
Lineaire afbeeldingen worden zo goed begrepen omdat ze (in het eindigdimensionale geval) in termen van een enkele matrix weergegeven kunnen worden en
vanwege de theorie van eigenwaarden en eigenvectoren. In feite kunnen van lineaire afbeeldingen “standaardgedaanten” worden gegeven, maar dat voert verder dan
hier mogelijk is (zie [5] en het vak Lineaire Algebra C).
1.8
Opgaven
§1
1
Ga na of de volgende afbeeldingen lineair zijn. Bepaal, in de gevallen
waarin de afbeelding lineair is, de nulruimte en de beeldruimte en controleer
de dimensiestelling.
a. A: R2 → R2 gedefinieerd door A(x1 , x2 ) = (x1 + x2 , x1 ),
b. A: R2 → R gedefinieerd door A(x1 , x2 ) = x1 x2 ,
c. A: C3 → C2 gedefinieerd door A(x1 , x2 , x3 ) = (x1 + ix2 , 0),
d. A: R3 → R2 gedefinieerd door A(x1 , x2 , x3 ) = (|x3 |, 0),
e. I: V → V gedefinieerd door I(x) = x (‘de identieke afbeelding’); hierin
is V een vectorruimte,
f.
A: V → V gedefinieerd door Ax = x + a; hierin is V een vectorruimte
en a ∈ V vast,
g. A: V → R gedefinieerd door Ax = (x, a); hierin is V een reële inproductruimte en a vast.
2
In deze opgave is V de vectorruimte van functies van R naar R. Ga na
of de volgende afbeeldingen lineair zijn. Bepaal, in de gevallen waarin de
afbeelding lineair is, de nulruimte en de beeldruimte.
Analyse
in nD
Tensor–
rekening en
Differentiaal–
meetkunde
Lineaire
Algebra C
46
Lineaire afbeeldingen
a. A: V → R gedefinieerd door Af = f (1),
b. A: V → R gedefinieerd door Af = (f (0))2 ,
c. A: V → V gedefinieerd door (Af )(x) = 1 + f (x) voor alle x ∈ R,
d. A: V → V gedefinieerd door (Af )(x) = f (x2 ) voor alle x ∈ R,
e. A: V → V gedefinieerd door (Af )(x) = (x + 1)f (x) voor alle x ∈ R.
3
Zij V de vectorruimte van willekeurig vaak differentieerbare functies van R
naar R. De afbeelding A: V → V wordt gedefinieerd door het voorschrift:
Af is de functie waarvoor geldt (Af )(x) = f ′ (x) + 3f (x) voor alle x ∈ R.
a. Laat zien dat A lineair is.
b. Bepaal de dimensie en een basis van de nulruimte van A.
c. Bepaal een f ∈ V zodat (Af )(x) = sin x voor alle x ∈ R.
d. Bepaal de beeldruimte van A.
4
P: R3 → R3 is de loodrechte projectie op de rechte < (1, 2, 3) >.
a. Bepaal een uitdrukking voor Px en bepaal P(1, 1, 2).
b. Bepaal de beeldruimte en de nulruimte van P. Is de afbeelding P bijectief, dat wil zeggen, heeft P een inverse?
c. Bepaal alle oplossingen van de vergelijking Px = (2, 4, 6).
d. Bepaal alle oplossingen van de vergelijking Px = (1, 2, 2).
e. Wat stelt de afbeelding I − P: R3 → R3 (dus (I − P)x = x − Px) voor?
5
Gegeven is de vector a ∈ R3 met |a| = 1. Voor elk reëel getal λ is de
afbeelding Aλ : R3 → R3 gegeven door
Aλ x = x + λ(x, a)a.
a. Bewijs dat voor elke λ de afbeelding Aλ lineair is.
b. Voor welke λ geldt A2λ = Aλ ? Geef een meetkundige interpretatie van
de bijbehorende Aλ .
1.8 Opgaven
47
c. Voor welke λ geldt A2λ = I (de identieke afbeelding)? Geef een meetkundige interpretatie van de bijbehorende Aλ .
d. Voor welke λ is de nulruimte van Aλ gelijk aan {0}?
6
Geef aan welke van de volgende beweringen juist respectievelijk onjuist
zijn. Beargumenteer uw antwoord.
a. Er bestaat een lineaire afbeelding A: R2 → R2 met A(2, 3) = (1, 0).
b. Er bestaat een lineaire afbeelding A: R2 → R2 met A(2, 3) = (1, 0) en
A(4, 6) = (0, 1).
c. Er bestaat een lineaire afbeelding A: R2 → R2 met A(2, 3) = (1, 0) en
A(3, 2) = (0, 1).
d. Als de beeldruimte van de lineaire afbeelding A: R2 → R2 de vectoren
(2, 3) en (3, 2) bevat, dan heeft A een inverse.
§2
7 De lineaire afbeelding A: R3 → R3 is gegeven door
A(1, 2, 3) = A(2, 3, 1) = A(2, 1, 3) = (6, −36, 30).
Bepaal:
a. de matrix van A,
b. de dimensie en een basis van de beeldruimte van A,
c. de dimensie en een basis van de nulruimte van A,
d. alle oplossingen van de vergelijking Ax = (1, −6, 5),
e. A(l) met l gegeven door l: x = (0, −1, 1) + λ(1, 1, −2),
f.
8
A(V ) met V het vlak gegeven door x + y + z = 1.
De lineaire afbeelding A: R4 → R3 is gegeven door
A(1, 0, 0, 0) = (3, −1, 1), A(0, 1, 0, 0) = (1, 3, 1),
A(0, 0, 1, 0) = (1, 1, 1), A(0, 0, 0, 1) = (1, 1, 1).
Bepaal:
48
Lineaire afbeeldingen
a. de dimensie en een basis van de beeldruimte van A,
b. de dimensie en een basis van de nulruimte van A,
c. alle oplossingen van de vergelijking Ax = (1, 1, 1),
d. A(l) met l de rechte gegeven door x = (1, 1, 0, 0) + λ(2, 1, 0, 0),
e. A−1 (V ) met V het vlak gegeven door de vergelijking z = 1.
9
De lineaire afbeelding A: C3 → C3 is gegeven door de matrix


0 1 −1
A =  1 0 −i  .
1 −i 0
a. Bereken A(i, 1, 1), A(0, 1, 1), A(1, 0, −i), A(1, 1, 1 − i).
b. Bepaal de nulruimte en de beeldruimte van A.
c. Bepaal het beeld onder de afbeelding A van de rechte in C3 met parametervoorstelling x = (0, 1, 1) + λ(i, 1, 1).
d. Bepaal alle oplossingen van de vergelijking Ax = (0, 1, 1).
10
Bepaal in elk van de volgende gevallen de matrix van de gegeven afbeelding.
a. De lineaire afbeelding A: R3 → R3 , gegeven door
A(2, 1, 1) = (7, 6, 7),
A(1, 0, 2) = (1, 15, 10),
A(−1, 2, 2) = (−1, 7, 4).
b. De lineaire afbeelding A: R4 → R3 , gegeven door
A(0, 0, 1, −1) = (0, 0, 0), A(1, 1, 0, −2) = (0, 0, 0),
A(1, 1, 1, 1) = (4, 4, 4), A(1, 2, 3, 4) = (4, 12, 10).
c. De lineaire afbeelding A: R3 → R2 , waarvan de nulruimte de rechte <
(1, −3, −2) > is en waarvoor verder geldt A(1, 0, 0) = (3, 2), A(1, 1, 1) =
(4, 3).
11 De lineaire afbeelding P: R3 → R3 is de projectie op het vlak 2x + y +
z = 0. De lineaire afbeelding Q: R3 → R3 is de projectie op de rechte
< (2, 1, 1) >.
1.8 Opgaven
49
a. Bepaal de matrix van P.
b. Bepaal P(1, 1, 1) en P(1, −1, −1).
c. Bepaal de matrix van Q.
12 De lineaire afbeelding S: R3 → R3 is de spiegeling ten opzichte van het vlak
2x − y + 3z = 0.
a. Bepaal S(2, −1, 3), S(1, 2, 0), S(0, 3, 1).
b. Bepaal de matrix van S.
13 De lineaire afbeelding A: R3 → R3 is gegeven door de matrix


0 −1 −1
A =  −1 0 −1  .
−1 −1 0
a. Bepaal de nulruimte van A. Bewijs dat A een inverse heeft.
b. Bepaal de matrix van de inverse afbeelding A−1 .
§3
14 In R3 beschouwen we twee bases α en β:
α = ((1, 2, 3), (2, 3, 1), (2, 1, 3)),
β = ((3, 5, 4), (4, 4, 4), (5, 6, 7)).
Verder is ε = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} de standaardbasis.
a. Laat zien dat α en β inderdaad bases van R3 zijn.
b. Bepaal de overgangsmatrices α Sε en β Sε .
c. Bepaal de coördinaten α(3, 3, 6) en β(3, 3, 6).
d. Bepaal de overgangsmatrix β Sα van α naar β. Verifieer hiermee de
relatie β(3, 3, 6) = β Sα α(3, 3, 6).
15
In de ruimte V van reële polynomen van graad hoogstens 2 zijn gegeven de
twee bases α = (1, x, x2 ) en β = (x2 + x, x + 1, x2 + 1).
a. Laat zien dat β inderdaad een basis is van V .
50
Lineaire afbeeldingen
b. Bepaal de overgangsmatrix β Sα van α naar β.
c. Bepaal de coördinaatvector β(p) van het polynoom p = 4x2 − 6x + 2.
16
De lineaire afbeelding A: R3 → R3 is gegeven door de matrix


1 0 1
A =  −1 0 0  .
0 1 0
Bepaal de matrix Aα van A ten opzichte van de basis
α = ((2, 1, 1), (1, 0, 2), (−1, 2, 3)).
17
a. P: R2 → R2 is de loodrechte projectie op de rechte x − y = 0. Verder
zijn gegeven de bases ε = {(1, 0), (0, 1)} (de standaardbasis) en α =
{(1, −1), (1, 1)}. Bepaal de overgangsmatrices ε Sα en α Sε . Bepaal de
matrix van P ten opzichte van de basis α.
b. P: R3 → R3 is de projectie op het vlak x+y −z = 0. Verder zijn gegeven
de bases
α = ((1, 1, −1), (1, 0, 1), (1, −1, 0)) en
β = ((2, 1, 0), (2, −1, 1), (2, 0, −1)).
Bepaal de overgangsmatrices α Sβ en β Sα . Bepaal de matrix van P ten
opzichte van elk van de twee bases.
18 Zij V de ruimte van reële polynomen van graad hoogstens 2. Verder is
A: V → V de afbeelding die aan een polynoom p(x) de afgeleide van (x +
1)p(x) toevoegt: Ap = (gp)′ (hier is g(x) = x + 1).
a. Laat zien dat A een lineaire afbeelding is.
b. Bepaal de matrix Aα van A ten opzichte van de basis α = (1, x, x2 ).
c. Bepaal de matrix Aβ van A ten opzichte van de basis β = (x2 + x, x +
1, x2 + 1).
§4
19
Bepaal eigenwaarden en eigenruimten van de lineaire afbeeldingen A: R2 →
R2 gegeven door de volgende matrices. Ga na of R2 een basis heeft bestaande
uit eigenvectoren en, zo ja, bepaal zo’n basis. Geef in dat geval ook de matrix
van A ten opzichte van de gevonden basis.
1.8 Opgaven
a.
b.
c.
3 1
,
0 2 3 1
,
−1 2
0 0
,
0 0
51
d.
e.
3
0
0
1
1
,
3 1
.
0
20 Bepaal de eigenwaarden en de bijbehorende eigenruimten van de lineaire
afbeeldingen A: R3 → R3 gegeven door de volgende matrices en ga na of
R3 een basis heeft bestaande uit eigenvectoren van A en, zo ja, bepaal zo’n
basis. Geef in dat geval ook de matrix van A ten opzichte van de gevonden
basis.




3 −2 0
2 1 1
a. A =  −2 2 −2  ,
c. A =  1 2 1  ,
0
−2
1
 1 1 2



2 1 2
2 1 0
d. A =  1 2 −2  ,
b. A =  0 1 −1  ,
0
2
4
−2 2 1 


3 0 −1
1
6 −4
1
2 −2  ,
e. A =  6
f. A =  2 2 −2  .
2
3 0 −1
−4 −2 −3
21 Bepaal de eigenwaarden en de bijbehorende eigenruimten van de lineaire
afbeeldingen A: C3 → C3 gegeven door de volgende matrices en ga na of C3
een basis heeftbestaande uit 
eigenvectoren van A.

1 2
2
1 1 0
a. A =  2 −2 1  ,
c. A =  0 0 −1  .
2
1
−2
0 1 0


1
1
0
b. A =  0 1 + i 1  ,
0 −i 0
22 In de ruimte V van reële polynomen van graad hoogstens 2 is gegeven
het polynoom h(x) = x2 + x. De afbeelding A: V → V is gegeven door
Ap = (hp)′′ (tweede afgeleide).
a. Laat zien dat A een lineaire afbeelding is.
b. Bepaal de eigenwaarden en de bijbehorende eigenruimten van A.
c. Welke gedaante heeft de matrix van A ten opzichte van een basis van
eigenvectoren?
52
23
Lineaire afbeeldingen
De lineaire afbeelding A: C3 → C3 is ten opzichte van de basis α =
(a1 , a2 , a3 ) gegeven door de matrix


0 1 −1
Aα =  1 0 −i  .
1 −i 0
a. Bepaal de eigenwaarden en de bijbehorende eigenruimten van A.
b. Bepaal de nulruimte en de beeldruimte van A.
c. Laat zien dat er een basis van C3 is bestaande uit eigenvectoren van A
en bepaal de matrix van A ten opzichte van deze basis.
24
In deze opgave is V een reële of complexe vectorruimte. Toon aan:
a. Als de lineaire afbeelding A: V → V voldoet aan A2 = A en als λ een
eigenwaarde van A is, dan is λ = 0 of λ = 1. Geef ook een (niet te
flauw) voorbeeld.
b. Als de lineaire afbeelding A: V → V voldoet aan A2 = I en als λ een
eigenwaarde van A is, dan is λ = 1 of λ = −1. Geef ook een voorbeeld.
c. Als de lineaire afbeelding A: V → V een inverse heeft en λ een eigenwaarde van A is, dan geldt:
i) λ 6= 0,
ii) 1/λ is een eigenwaarde van A−1 ,
iii) E1/λ (A−1 ) = Eλ (A).
25 De lineaire afbeelding A: R2 → R2 wordt gegeven door de matrix
1 1
A=
.
8 3
a. De afbeelding A heeft twee eigenwaarden, zeg λ1 , λ2 . Bepaal deze en
bepaal de bijbehorende eigenruimten Eλ1 , Eλ2 van A.
b. Zij α een basis van R2 bestaande uit eigenvectoren van A. Bepaal de
matrix Aα van A ten opzichte van α.
1.8 Opgaven
53
c. Wat is het verband tussen Ak en (Aα )k (hier is k positief geheel)?
d. We construeren een rij vectoren x0 , x1 , x2 , . . . in R2 als volgt:
x0 = (2, 2),
xk+1 = Axk
(k = 0, 1, 2, . . .).
Bepaal de coördinaatvectoren α(xk ) (k = 0, 1, 2, . . .).
e. Bepaal xk voor k = 0, 1, 2, . . ..
§5
26 De lineaire afbeelding A: R3 → R3 is gegeven door de matrix


2 −1 −1
 −1 2 −1  .
−1 −1 2
Welke van de volgende lineaire deelruimten van R3 zijn invariant onder A?
Beargumenteer uw antwoord.
a. < (1, −1, 1) >,
c. x − y − z = 0,
b. < (1, −1, 0), (1, 1, −2) >,
d. < (1, 1, 1), (0, 0, 1) >.
27 In de vectorruimte van differentieerbare functies van R naar R is de lineaire
deelruimte U =< cos x, sin x, x, 1 > gegeven. Verder is de lineaire afbeelding
D: U → U gegeven door differentiëren:
(Df )(x) = f ′ (x).
a. Welke van de volgende deelruimten van U zijn invariant onder D?
(i).
(ii).
< 1 >,
< 1, x >,
(iii).
(iv).
< cos x >,
< cos x, sin x >.
b. Bepaal alle 1-dimensionale lineaire deelruimten van U die invariant zijn
onder D.
28 In de driedimensionale reële inproductruimte V zijn gegeven de vectoren a
en b die voldoen aan ||a|| = ||b|| = 1, (a, b) = 1/2. De lineaire afbeelding
A: V → V is gedefinieerd door Ax = (x, b)a − (x, a)b.
a. Laat zien dat a, b een onafhankelijk stelsel is.
54
Lineaire afbeeldingen
b. Laat zien dat U =< a, b > en U ⊥ invariant zijn onder A.
c. Bepaal de matrix van A ten opzichte van een basis die a en b bevat.
d. Bewijs dat A niet diagonaliseerbaar is.
29
Van de lineaire afbeelding A: R5 → R5 is gegeven dat A(1, 2, 1, 1, 2) =
(2, 4, 3, 3, 3) en A(1, 2, 2, 2, 1) = (5, 10, 6, 6, 9).
a. Laat zien dat W =< (1, 2, 1, 1, 2), (1, 2, 2, 2, 1) > invariant is onder A.
b. Bepaal de eigenwaarden en de bijbehorende eigenruimten van A: W →
W.
c. Laat zien dat er een basis van W is die bestaat uit eigenvectoren van
A: W → W en bepaal de matrix van A: W → W ten opzichte van deze
basis.
30
Gegeven is de vectorruimte V en de lineaire afbeelding A: V → V . Bewijs
de volgende beweringen.
a. Als U een lineaire deelruimte is van V die invariant is onder A, dan is
ook A(U ) invariant onder A.
b. Als λ een eigenwaarde is van A met eigenruimte Eλ , dan is Eλ invariant
onder A.
c. Als elke lineaire deelruimte van V invariant is onder A, dan heeft A een
basis bestaande uit eigenvectoren. Bovendien is A dan een veelvoud van
de identieke afbeelding I.
31
Voor elke reële λ is de lineaire afbeelding Aλ : R3 → R3 gegeven door de
matrix


11 − λ 6 − λ −4 − λ
−4
16  .
Aλ =  −4
3λ + 5 10 − 2λ
−2λ
a. Voor welke λ heeft Aλ een inverse?
b. Voor welke λ is < (1, 2, 2) > invariant onder Aλ ?
c. Idem voor het vlak x + y + z = 0.
1.8 Opgaven
32 De lineaire afbeelding A: R3 → R3

−1
 0
−5
55
is gegeven door de matrix

2 1
2 0 .
2 3
a. Bepaal de eigenvectoren en de bijbehorende eigenruimten van A.
b. Bepaal met behulp van een complex nulpunt van de karakteristieke vergelijking een 2-dimensionale deelruimte U van R3 die invariant is onder
A.
c. Bepaal de matrix van A ten opzichte van een basis die bestaat uit een
eigenvector van A aangevuld met een basis van U .
§6
33 In R2 is de basis α : (2, 1), (3, 1) gegeven.
a. Bepaal de duale basis van α.
b. Bepaal met behulp van de duale basis de coördinaten ten opzichte van
α van de vector (3, 4).
34 Laat V een reële inproductruimte van dimensie n zijn. Bij elke vector
a ∈ V maken we de lineaire functie Aa : V → R, Aa x = (a, x) (voorbeeld
1.6.5).
a. Laat zien dat de afbeelding Φ : V → V ∗ , gedefinieerd door Φ(a) = Aa
een lineaire afbeelding is.
b. Laat zien dat N (Φ) = {0} en concludeer dat de afbeelding Φ een isomorfisme is (een inverse heeft).
c. Concludeer dat er voor elke lineaire functie f : V → R precies één vector
a ∈ V bestaat met f (x) = (a, x) voor alle x.
d. Als a1 , . . . , an een orthonormale basis is van V , dan is Φ(a1 ), . . . , Φ(an )
de duale basis. Bewijs dit.
35 Zij W een deelruimte van de vectorruimte V en A : V → V een lineaire
afbeelding waarvan de beeldruimte W is en die voldoet aan Aw = w voor
elke w ∈ W . Zo’n afbeelding heet wel een (scheve) projectie; de loodrechte
projecties uit voorbeeld 1.1.4 zijn er voorbeelden van.
56
Lineaire afbeeldingen
a. Laat U := N (A). Laat zien dat de doorsnede U ∩ W alleen uit de
nulvector bestaat.
b. Laat x ∈ V . Toon aan dat x − Ax ∈ U . Concludeer dat elke vector uit
V te schrijven is als de som van een vector uit U en een uit W .
c. Als u1 , . . . , uk een basis is van U en w1 , . . . , wm een basis is van W , dan
is u1 , . . . , uk , w1 , . . . , wm een basis van V . Laat dit zien met behulp van
opgave ?? uit Hoofdstuk ??.
d. Laat u∗1 , . . . , u∗k , w∗1 , . . . , w∗m de duale basis zijn van de basis uit het vorige
onderdeel. Bewijs dat Ax = w∗1 (x) w1 + · · · + w∗m (x) wm (cf. de formule
voor de loodrechte projectie in voorbeeld 1.1.4).
1.8.1
36
Oefenen op tentamenniveau
Van de lineaire afbeelding A : R3 → R4

1
3
 −1 −1

 0
0
0
1
is de matrix A gelijk aan

2
0 
.
2 
1
a. Bepaal de nulruimte van A en de dimensie van de beeldruimte van A.
b. Beschrijf de beeldruimte van A door middel van een vergelijking van de
vorm a1 x1 + a2 x2 + a3 x3 + a4 x4 = b.
c. Bepaal een basis voor het beeld onder A van het vlak
{(y1 , y2 , y3 ) ∈ R3 | y1 + y2 + y3 = 0}.
d. Bepaal het volledig origineel A−1 (m) van de rechte m in R4 met parametervoorstelling
m : x = (3, −1, −2, −2) + λ(1, 1, 0, −2).
37
De lineaire afbeelding A : R3 → R3 is bepaald door:
A(1, 0, 2) = (4, 1, −2),
A(2, 1, 0) = (7, −2, −1),
A(0, 2, 1) = (7, 1, −3).
1.8 Opgaven
57
a. Bepaal de beeldruimte en de nulruimte van A. Heeft A een inverse?
b. Bepaal het beeld van het vlak V : x = λ(1, 1, 0) + µ(0, −2, 1).
c. Bepaal het volledig origineel A−1 (m) van de rechte m : x = (0, 4, 3) +
ρ(1, 2, 4).
38 In de reële 3–dimensionale vectorruimte V met basis a, b, c is de lineaire
afbeelding A : V → V vastgelegd door
Aa = 3a + 4b + 3c,
Ab = −a − 3b − 4c,
Ac = a + b + 2c.
a. Laat zien dat de deelruimte U =< a + b, a − c > invariant is onder A.
Wat is de (2 × 2)–matrix van de beperking van A tot U ten opzichte van
de basis a + b, a − c van U ?
b. Bepaal de matrix van A ten opzichte van de basis a + b, a − c, c van V .
c. Bepaal de eigenwaarden en eigenruimten van de afbeelding A.
58
Lineaire afbeeldingen
Hoofdstuk 2
Orthogonale en
symmetrische afbeeldingen
2.1
Orthogonale afbeeldingen
In het vorige hoofdstuk hebben we eigenschappen bestudeerd van een lineaire afbeelding A : V → V waarin V een vectorruimte is. Daarbij hebben we
geen speciale eigenschappen van V beschouwd. In dit hoofdstuk zal V een
reële inproductruimte zijn. Daar is dus een inproduct en dus ook een lengte
en een hoek. We zullen twee klassen lineaire afbeeldingen bestuderen die
fraaie eigenschappen hebben met betrekking tot het inproduct: orthogonale
en symmetrische afbeeldingen. In beide gevallen bespreken we eerst de theoretische kant en gaan vervolgens in op de rol van matrices bij de beschrijving
van de afbeeldingen. Voor beide klassen kunnen we vrij gedetailleerd afleiden wat de mogelijkheden zijn. We zullen ons daarbij beperken tot reële
eindig–dimensionale inproductruimten. In deze paragraaf bespreken we
• het begrip orthogonale lineaire afbeelding;
• het begrip orthogonale matrix, alsmede wat het verband met en het
nut voor orthogonale afbeeldingen is, en
• de classificatie van orthogonale afbeeldingen, met nadruk op de dimensies 2 en 3.
2.1.1 Definitie. (Orthogonale afbeelding) Laat V een reële inproductruimte
zijn. Een lineaire afbeelding A : V → V heet orthogonaal als k Ax k=k x k
voor alle x ∈ V . Anders gezegd: een lineaire afbeelding A : V → V heet
orthogonaal als de lengte invariant is onder A.
59
60
Orthogonale en symmetrische afbeeldingen
2.1.2 Voorbeeld. Voor de identieke afbeelding I : V → V geldt Ix = x voor
elke vector x. Zeker geldt dus k Ix k=k x k. De identieke afbeelding is dus
orthogonaal.
Net zo is −I orthogonaal. Voor λ 6= ±1 is λI niet orthogonaal.
2.1.3 Voorbeeld. De lineaire afbeelding A : R2 → R2 gegeven door
1
A(x, y) = (3x + 4y, −4x + 3y)
5
is orthogonaal omdat
k A(x, y) k2 =
1
25 ((3x
+ 4y)2 + (−4x + 3y)2 )
=
1
2
25 (9x
+ 16y 2 + 24xy + 16x2 + 9y 2 − 24xy)
= x2 + y 2 =k x k2 .
2.1.4 Voorbeeld. (Loodrechte spiegeling) Laat a een vector van lengte 1 zijn
in de inproductruimte V . De lineaire afbeelding A : V → V is gegeven door
het voorschrift Ax = x − 2(x, a)a. Deze afbeelding is orthogonaal. Hiertoe
werken we k Ax k2 uit:
(x − 2(x, a)a, x − 2(x, a)a) = (x, x) − 4(x, a)(x, a) + 4(x, a)2 (a, a)
= (x, x),
waaruit het gestelde onmiddellijk volgt. Meetkundig gezien is het niet verwonderlijk dat deze afbeelding orthogonaal is: het is namelijk een (loodrechte) spiegeling in de deelruimte < a >⊥ . Beweeg vanuit x in de richting
van a tot je in < a >⊥ belandt: snijdt dus de rechte x + λa met < a >⊥ .
Dit levert λ = −1 en dus de vector x − (x, a) a. Om te spiegelen moeten we
twee keer de vector (x, a) a van x aftrekken.
2.1.5 Voorbeeld. Als P de loodrechte projectie is op een rechte < a > dan is P
geen orthogonale afbeelding: kies maar een vector b loodrecht op a die niet
gelijk is aan de nulvector. Dan is Pb = 0 zodat 0 =k Pb k<k b k. Natuurlijk
kan dit alleen als dim V > 1.
2.1.6 In een reële inproductruimte geldt
(x + y, x + y) = (x, x) + 2(x, y) + (y, y),
2.1 Orthogonale afbeeldingen
61
zodat
1#
(x + y, x + y) − (x, x) − (y, y)
2
(de zogenaamde polarisatieformule). Inproducten tussen vectoren kunnen
dus uitgedrukt worden als combinaties van lengten van vectoren. Dit heeft
tot gevolg dat in de definitie van orthogonale afbeelding ook invariantie
van het inproduct gebruikt kan worden; evenzo heeft dit tot gevolg dat de
onderlinge inproducten tussen vectoren uit een stelsel niet veranderen door
op hun beelden over te gaan. In de volgende stelling karakteriseren we het
begrip orthogonale afbeelding op vier equivalente manieren. Het nut zal
blijken als we matrices van orthogonale afbeeldingen bespreken.
(x, y) =
2.1.7 Stelling. Laat V een reële inproductruimte zijn. Voor een lineaire afbeelding A : V → V zijn de volgende uitspraken equivalent:
1. A is orthogonaal, d.w.z. k Ax k=k x k voor alle x ∈ V , m.a.w. de
lengte is invariant onder A.
2. (Ax, Ay) = (x, y) voor alle x, y ∈ V , m.a.w. het inproduct is invariant
onder A.
3. Voor ieder orthonormaal stelsel a1 , . . . , an in V is Aa1 , . . . , Aan ook
een orthonormaal stelsel, m.a.w. orthonormale stelsels gaan over in
orthonormale stelsels.
4. Er is een orthonormale basis a1 , . . . , am van V waarvoor Aa1 , . . . , Aam
ook een orthonormale basis is van V .
Bewijs. Het is voldoende de volgende keten van implicaties aan te tonen:
1) ⇒ 2) ⇒ 3) ⇒ 4) ⇒ 1).
1) ⇒ 2): Uitspraak 1 betekent dat voor alle x ∈ V geldt (Ax, Ax) =
(x, x). Neem nu x en y in V . Dan geldt dus
(A(x + y) , A(x + y)) = (x + y, x + y),
en dus
(Ax, Ax) + 2(Ax, Ay) + (Ay, Ay) = (x, x) + 2(x, y) + (y, y).
Omdat (Ax, Ax) = (x, x) en (Ay, Ay) = (y, y) volgt nu (Ax, Ay) = (x, y).
Als de lengte invariant is onder A dan is dus ook het inproduct invariant
onder A.
2) ⇒ 3): Laat a1 , . . . , an een orthonormaal stelsel zijn. Dan is het
inproduct (Aai , Aaj ) = (ai , aj ) = 1 als i = j, 0 als i 6= j. Dus is ook
Aa1 , . . . , Aan een orthonormaal stelsel.
62
Orthogonale en symmetrische afbeeldingen
3) ⇒ 4): Veronderstel dat dim V = m. Kies een orthonormale basis
a1 , . . . , am van V (zo’n basis bestaat zoals uit de procedure van Gram–
Schmidt ?? volgt). Volgens 3) is het stelsel Aa1 , . . . , Aam dan ook orthonormaal en dus (Stelling ??) onafhankelijk. Omdat m = dim V is dit stelsel
dus een basis van V .
4) ⇒ 1): Laat a1 , . . . , am een orthonormale basis zijn als in 4) bedoeld,
dus Aa1 , . . . , Aam is ook een orthonormale basis. Laat verder x ∈ V . Als
x = λ1 a1 + · · · + λm am , dan is Ax = λ1 Aa1 + · · · + λm Aam . Pas nu de
Stelling van Pythagoras ?? toe op beide uitdrukkingen (het kwadraat van
de lengte van λi ai én van λi Aai is λ2i ):
k x k2 = λ21 + · · · + λ2m
en
k Ax k2 = λ21 + · · · + λ2m ,
waaruit onmiddellijk volgt k Ax k=k x k.
2.1.8 Stelling. Laat V een reële inproductruimte zijn.
1. Als A : V → V en B : V → V orthogonaal zijn, dan is ook AB : V → V
orthogonaal.
2. Als A : V → V orthogonaal is, dan is A inverteerbaar en is ook A−1
orthogonaal.
Bewijs. 1) Voor alle x ∈ V geldt k ABx k=k Bx k=k x k omdat A en B
orthogonaal zijn, zodat ook AB orthogonaal is.
2) Eerst tonen we aan dat A inverteerbaar is. Pas de definitie van orthogonale afbeelding toe op een vector x uit de nulruimte van A. Dan volgt
0 =k Ax k=k x k dat x = 0. Uit 1.1.36 volgt dat A een inverse heeft. Voor
alle x ∈ V geldt x = AA−1 x. Omdat A orthogonaal is volgt hieruit dat
k x k=k AA−1 x k=k A−1 x k zodat A−1 ook orthogonaal is.
2.1.9 In oneindigdimensionale inproductruimten bestaan er orthogonale afbeeldingen die geen inverse hebben.
2.1.10 We concentreren ons nu op orthogonale afbeeldingen in Rn en hun matrices.
Dit zal leiden tot het begrip orthogonale matrix. Omdat de standaardbasis
een orthonormale basis is van Rn (standaardinproduct) volgt uit Stelling
2.1.7:
2.1.11 Stelling. Een lineaire afbeelding A : Rn → Rn is orthogonaal dan en slechts
dan als Ae1 , . . . , Aen een orthonormaal stelsel is.
2.1 Orthogonale afbeeldingen
63
2.1.12 Om te controleren of zo’n afbeelding A orthogonaal is, kunnen we dus nagaan of de kolommen van de matrix A van A een orthonormaal stelsel vormen. Dit kan handig met een matrixvermenigvuldiging: het element ij van
het product AT A is namelijk het inproduct van de i–de en de j–de kolom
van A. Controleren of de kolommen van A een orthonormaal stelsel vormen,
komt dus neer op de verificatie dat AT A = I. Als de afbeelding orthogonaal is, is AT dus de inverse van A en de matrix van A−1 . Omdat deze
inverse afbeelding orthogonaal is, volgt dat de kolommen van AT en dus de
rijen van A een orthonormaal stelsel vormen. Tijd voor een definitie en een
samenvattende stelling.
2.1.13 Definitie. (Orthogonale matrix) Een reële n × n matrix A heet orthogonaal als de kolommen een orthonormaal stelsel in Rn vormen.
Samengevat:
2.1.14 Stelling. Laat A : Rn → Rn een lineaire afbeelding zijn met matrix A. Dan
zijn equivalent:
• A is orthogonaal.
• De matrix A is een orthogonale matrix.
• AT A = I.
• De kolommen van A vormen een orthonormaal stelsel.
• De rijen van A vormen een orthonormaal stelsel.
2.1.15 Voorbeeld. Iedere kolom van de matrix


2
1 −2
1
1
2
2 
A=
3
2 −2
1
heeft lengte 1 en ieder tweetal verschillende kolommen heeft inproduct 0; de
matrix A is dus orthogonaal. (Ook de rijen hebben lengte 1 en onderling
inproduct 0.) Om de inverse van A te bepalen hoeven we enkel te transponeren:


2 1
2
1
A−1 =  1 2 −2  .
3
−2 2
1
64
Orthogonale en symmetrische afbeeldingen
2.1.16 We gaan nu de rol van matrices bij algemene orthogonale afbeeldingen bespreken. Laat V een reële inproductruimte zijn en α en β twee orthonormale bases voor V . Uit Stelling ?? volgt dat de lengte van een vector en
zijn coördinaatvector gelijk zijn. Dit betekent in het bijzonder dat de lengte
van de α– en de β–coördinaatvector van een vector uit V gelijk zijn. De
coördinatenovergang βα−1 laat dus lengten invariant en is dus een orthogonale afbeelding; de bijbehorende matrix β Sα is dus ook orthogonaal.
2.1.17 Stelling. Als α en β twee orthonormale bases in een reële inproductruimte
zijn, dan is de overgangsmatrix β Sα orthogonaal en geldt
α Sβ
= β SαT .
Let op de voorwaarde dat α en β orthonormale bases moeten zijn. De
stelling geldt niet zonder deze voorwaarde!
2.1.18 Laat α een orthonormale basis zijn voor een reële inproductruimte V en
beschouw een lineaire afbeelding A : V → V . De matrix Aα van A t.o.v.
deze basis is de matrix van de lineaire afbeelding αAα−1 : Rn → Rn . Als
A orthogonaal is, dan is αAα−1 het ook (want elk van de afbeeldingen uit
deze samenstelling laat lengten invariant) en is de matrix Aα orthogonaal.
Omgekeerd, als de matrix Aα orthogonaal is, dan is de afbeelding αAα−1
orthogonaal en dus ook A = α−1 (αAα−1 )α. Dus hebben we de volgende
variant van 2.1.14:
2.1.19 Stelling. Laat α een orthonormale basis zijn voor een reële inproductruimte
V . De lineaire afbeelding A : V → V is orthogonaal dan en slechts dan als
de matrix Aα orthogonaal is.
2.1.20 Voorbeeld. Terug naar voorbeeld 2.1.4. Om vast te stellen dat de afbeelding A orthogonaal is, kunnen we ook de matrix t.o.v. een handig gekozen
orthonormale basis opstellen. Kies een orthonormale basis α = (a1 , . . . , an )
waarvan de eerste vector a is. Dan is Aa1 = −a1 , terwijl Aai = ai voor
i = 2, . . . , n. De matrix is dus een diagonaalmatrix met langs de diagonaal achtereenvolgens −1, 1, . . . , 1. Het is niet moeilijk na te gaan dat deze
matrix orthogonaal is.
2.1.21 (Classificatie van orthogonale afbeeldingen) In het vervolg van deze
paragraaf analyseren we wat de mogelijkheden voor een orthogonale afbeelding in de diverse dimensies zijn, met nadruk op de dimensies 1, 2, 3. In
feite blijken orthogonale afbeeldingen te bestaan uit draaiingen, spiegelingen
2.1 Orthogonale afbeeldingen
65
en combinaties daarvan. Als we de basis α geschikt kiezen hebben we ook
een eenvoudig te interpreteren matrixrepresentatie. We gaan daar nu op in.
2.1.22 Als A een orthogonale matrix is, dan is AT A = I, dus det(AT ) det(A) =
det(I) = 1. Omdat det(AT ) = det(A) volgt det(A)2 = 1 zodat det(A) = ±1.
Ten opzichte van een willekeurige orthonormale basis α heeft een orthogonale afbeelding A : V → V een orthogonale matrix A. Hiervoor geldt dus
dat det(Aα ) = 1 of det(Aα ) = −1. Deze waarde is volgens Stelling 1.4.16
onafhankelijk van de basis α. Er zijn dus twee typen orthogonale afbeeldingen:
• de direct orthogonale afbeeldingen, waarvoor det(Aα ) = 1 ten opzichte
van iedere orthonormale basis α,
• de gespiegeld orthogonale afbeeldingen, waarvoor det(Aα ) = −1 ten
opzichte van iedere orthornormale basis α.
2.1.23 Het karakteristieke polynoom det(Aα −λI) heeft n (complexe) wortels λ1 , . . . , λn .
De reële wortels zijn eigenwaarde en omdat een orthogonale afbeelding lengte invariant laat, is iedere reële wortel dus ±1. Een niet-reële wortel a is
altijd vergezeld van de niet-reële wortel ā, en a ā = |a|2 > 0. In Stelling
1.4.18 hebben we al gezien dat
det(Aα ) = λ1 λ2 · · · λn .
Hieruit volgt dat als det(Aα ) = −1, dus als A gespiegeld orthogonaal is, er
een eigenwaarde −1 moet zijn. We zullen nog zien dat dit betekent dat A
⊥ “bevat”.
een spiegeling ten opzichte van E−1
2.1.24 (Dimensie 1) We onderzoeken eerst de orthogonale afbeeldingen A : V →
V met dim(V ) = 1. De enige lineaire afbeeldingen in een ruimte van dimensie 1 zijn vermenigvuldigen met een getal α, ga dat na. De lengte is
invariant alleen als α = 1 of α = −1. Met α = 1 vinden we A = I; direct
orthogonaal. Met α = − 1 vinden we de afbeelding Ax = − x; spiegeling
ten opzichte van de oorsprong.
2.1.25 (Dimensie 2) Nu de orthogonale afbeeldingen A : V → V met dim(V ) = 2.
Kies een orthonormale basis α = (a1 , a2 ). Aangezien we een vector in R2
met lengte 1 kunnen schrijven als (cos ϕ, sin ϕ) is de matrix:
cos ϕ cos ψ
Aα =
sin ϕ sin ψ
66
Orthogonale en symmetrische afbeeldingen
waarin bovendien het inproduct van de kolommen nul moet zijn:
cos ϕ cos ψ + sin ϕ sin ψ = cos(ϕ − ψ) = 0.
Hieruit volgt
ϕ−ψ =±
π
+ k·2π , k ∈ Z ,
2
π
+ k·2π , k ∈ Z .
2
We bekijken eerst de situatie dat ψ = ϕ + π2 + k·2π. Dan is


cos ϕ cos(ϕ + π2 )
cos ϕ − sin ϕ


Aα =
=
.
sin ϕ cos ϕ
sin ϕ sin(ϕ + π2 )
ψ =ϕ±
Dit is de matrix van een draaiing over een hoek ϕ; dat is eenvoudig in te
zien door de hoek tussen x = λa1 + µa2 en zijn beeld Ax = (λ cos ϕ −
µ sin ϕ)a1 + (λ sin ϕ + µ cos ϕ)a2 te bepalen, ga dat na. De determinant is
+1; de draaiing is direct orthogonaal.
Nu de situatie met ψ = ϕ − π2 + k·2π. Dit leidt tot
cos ϕ sin ϕ
Aα =
.
sin ϕ − cos ϕ
Deze matrix heeft determinant −1. Dat betekent wegens 2.1.23 dat er een
eigenwaarde −1 is zodat wegens λ1 ·λ2 = − 1 de andere eigenwaarde +1 is.
Er is dus een basis β = (b1 , b2 ) van eigenvectoren bij eigenwaarden −1 en 1
en de matrix ten opzichte van deze basis is
−1 0
Aβ =
.
0 1
De eigenvectoren b1 en b2 staan loodrecht op elkaar, want
(b1 , b2 ) = (Ab1 , Ab2 ) = (− b1 , b2 ) = − (b1 , b2 )
waaruit volgt (b1 , b2 ) = 0. Aan de matrix Aβ lezen we meetkundige betekenis
af van de afbeelding A : V → V . Het is een spiegeling in de rechte < b2 >:
een vector x = λ1 b1 + λ2 b2 met componenten λ1 b1 loodrecht op < b2 > en
λ2 b2 langs < b2 > wordt afgebeeld op −λ1 b1 + λ2 b2 .
Om de structuur van een orthogonale afbeelding A : V → V in het algemeen in te zien, hebben we nog het volgende resultaat met betrekking tot
invariante deelruimten nodig.
2.1 Orthogonale afbeeldingen
67
2.1.26 Stelling. Laat W een lineaire deelruimte van een reële eindigdimensionale
inproductruimte V zijn en A : V → V een orthogonale afbeelding zo dat W
invariant is onder A. Dan is ook W ⊥ invariant onder A.
Bewijs. Omdat A(W ) ⊆ W en A injectief is, volgt dat A(W ) = W . Laat
v een willekeurige vector in W ⊥ zijn. Voor iedere vector w ∈ W bestaat er
een vector w∗ ∈ W met Aw∗ = w, wegens A(W ) = W . Dan is
(Av, w) = (Av, Aw∗ ) = (v, w∗ ) = 0,
omdat v ∈ W ⊥ en w∗ ∈ W . De vector Av staat dus loodrecht op alle
vectoren van W , zodat met v ∈ W ⊥ ook Av ∈ W ⊥ ; W ⊥ is dus invariant. Met Stelling 1.5.13 leidt dit tot het volgende resultaat:
2.1.27 Stelling. Laat A een orthogonale afbeelding in een eindig dimensionale
inproductruimte V zijn en stel W is een invariante lineaire deelruimte van
V . Dan bestaat er een orthonormale basis α zo dat
M1 O1
,
Aα =
O2 M2
waarin M1 en M2 orthogonale matrices zijn van de afbeeldingen A : W → W
en A : W ⊥ → W ⊥ respectievelijk en O1 , O2 nulmatrices van bijpassende
afmetingen. Bovendien is det(Aα ) = det(M1 ) · det(M2 ).
2.1.28 (Dimensie 3) Eerst het geval van een direct orthogonale afbeelding A,
d.w.z. met determinant 1. Het product van de wortels van de karakteristieke
vergelijking is dan gelijk aan 1. Als alle wortels van de karakteristieke vergelijking reëel zijn (dus gelijk aan ±1), dan is dus minstens één van hen gelijk
aan 1. Als er een niet–reële wortel λ is, dan is λ̄ ook een wortel en moet de
derde wortel wel reëel zijn en dus gelijk aan 1. Er is dus altijd een eigenwaarde 1. Laat a1 een eigenvector van lengte 1 zijn bij eigenwaarde 1. Nu is
< a1 > invariant, zodat ook de tweedimensionale deelruimte W =< a1 >⊥
invariant is. De beperking van A tot W is weer orthogonaal met determinant 1 (wegens Stelling 2.1.27). Er is dus een orthonormale basis a2 , a3 van
W zo dat de matrix van A : W → W t.o.v. a2 , a3 gelijk is aan
cos ϕ − sin ϕ
sin ϕ cos ϕ
en de matrix van A t.o.v. de basis a1 , a2 , a3 :


1
0
0
 0 cos ϕ − sin ϕ  .
0 sin ϕ cos ϕ
68
Orthogonale en symmetrische afbeeldingen
De afbeelding is een rotatie of draaiing om de rotatieas < a1 > over een
hoek ϕ. Merk op dat het spoor van de afbeelding 1 + 2 cos ϕ is; als het spoor
bekend is, bijvoorbeeld uit een matrix van A t.o.v. een andere basis, dan is
hiermee de rotatie hoek snel te berekenen.
Nu het geval dat de determinant −1 is. In dit geval is er een eigenwaarde −1. Laat a1 een eigenvector van lengte 1 zijn bij de eigenwaarde −1.
Als boven is W =< a1 >⊥ invariant en heeft de beperking A : W → W
determinant 1. Ten opzichte van een geschikte orthonormale basis a1 , a2 , a3
heeft A dan als matrix


−1
0
0
 0 cos ϕ − sin ϕ  .
0 sin ϕ cos ϕ
De afbeelding is een draaispiegeling: een draaiing of rotatie om de as < a1 >
gecombineerd met een spiegeling in het vlak W . Speciale gevallen treden op
als ϕ = 0 of ϕ = π. In het eerste geval is A een spiegeling met spiegelvlak W ;
in het tweede geval is A = −I, d.w.z. elke vector wordt op zijn tegengestelde
afgebeeld.
2.1.29 Het algemene geval verloopt ruwweg als volgt. Kies orthonormale bases van
E1 en E−1 voor de afbeelding A. Samen spannen deze bases een invariante
ruimte W op. Dus W ⊥ is ook invariant en de karakteristieke veelterm van de
beperking van A : W ⊥ → W ⊥ heeft enkel nog niet–reële wortels. Bij elk van
deze wortels hoort volgens 1.5.8 een tweedimensionale invariante deelruimte.
Volgens onze analyse van het tweedimensionale geval is de beperking van A
tot zo’n deelruimte een rotatie. Ten opzichte van een geschikte orthonormale
basis vinden we dus een matrix met de volgende gedaante.


1


..


.




1




−1
0




..


.




−1




D1






0
D2




..
.


Dr
waarin D1 , . . . , Dr 2 × 2–draaiingsmatrices zijn.
2.2 Symmetrische afbeeldingen
2.1.30 Voorbeeld. Beschouw de afbeelding

2
1
1
A=
3
2
69
A : R3 → R3 bepaald door de matrix

1 −2
2
2 
−2 1
Deze matrix is orthogonaal zodat de afbeelding A het ook is. We berekenen
eerst de determinant van A en vinden 1. A is dus een draaiing om de as
met richting een eigenvector met eigenwaarde 1. Deze vinden we door het
oplossen van (A − I)x = 0, dus uit

 

−1 1 − 2
1 −1 2
1
1 −1 2  ≈  0 0 0 
3
2 − 2 −1
0 0 1
waaruit volgt E1 =< (1, 1, 0) >. Dit is dus de draaiingsas. De draaiingshoek
vinden we met behulp van het spoor: 1 + 2 cos ϕ = 35 , dus cos ϕ = 13 ,
ϕ = arccos( 31 ).
De draaiingshoek kunnen we ook als volgt vinden: het vlak loodrecht
op de draaiingsas is x + y = 0. Kies een vector hierin, bijvoorbeeld a =
(1, −1, 0). Dan is Aa = 31 (1, −1, 4). Deze vector ligt uiteraard weer in het
vlak x + y = 0, omdat het vlak invariant is onder A. De draaiingshoek is de
hoek tussen a en Aa. Deze vinden we met behulp van het inproduct:
(a, Aa) =k a k k Aa k cos ϕ
2
3
=
√ √
2 2 cos ϕ,
zodat cos ϕ = (1/3). Meetkundig is duidelijk dat het niet uitmaakt met
welke vector in x + y = 0 je rekent, maar dit is ook door berekening te
verifiëren.
2.2
Symmetrische afbeeldingen
2.2.1 In deze paragraaf bespreken we een tweede belangrijke klasse lineaire afbeeldingen in een reële inproductruimte V , die der symmetrische afbeeldingen.
Hierbij zullen symmetrische matrices een rol spelen. Aan de orde komen
• het begrip symmetrische afbeelding en het verband met symmetrische
matrices,
• het hoofdresultaat dat symmetrische lineaire afbeeldingen altijd een
basis van eigenvectoren hebben,
70
Orthogonale en symmetrische afbeeldingen
• het begrip kwadratische vorm en de classificatie van kwadratische vormen, een toepassing van de theorie van symmetrische lineaire afbeeldingen.
2.2.2 Definitie. (Symmetrische afbeelding) Laat V een reële inproductruimte zijn. De lineaire afbeelding A : V → V heet symmetrisch als (Ax, y) =
(x, Ay) voor alle x, y in V .
2.2.3 Voorbeeld. De loodrechte projectie P op een rechte l is symmetrisch. Als
l =< a > en k a k= 1, dan is Px = (x, a)a. Voor alle x en y geldt nu
(Px, y) = ((x, a)a, y) = (x, a)(a, y)
en
(x, Py) = (x, (y, a)a) = (y, a)(x, a),
zodat (Px, y) = (x, Py).
Op eenzelfde manier laat men zien dat de loodrechte projectie op een
deelruimte W een symmetrische lineaire afbeelding is.
2.2.4 De volgende stelling dient als opstap om het verband met matrices te leggen.
2.2.5 Stelling. Voor de lineaire afbeelding A : V → V zijn equivalent:
1. A : V → V is symmetrisch.
2. Voor elk orthonormaal stelsel a1 , . . . , an in V is (Aai , aj ) = (ai , Aaj )
voor alle i, j.
3. Er is een orthonormale basis a1 , . . . , am van V waarvoor (Aai , aj ) =
(ai , Aaj ) voor alle i, j.
Bewijs. 1) ⇒ 2) en 2) ⇒ 3) zijn triviaal.
3) ⇒ 1): Schrijf x = λ1 a1 + · · · + λm am en y = µ1 a1 + · · · + µm am . Dan
volgt
(Ax, y) =
m
m X
X
i=1 j=1
λi µj (Aai , aj ) =
m
m X
X
i=1 j=1
λi µj (ai , Aaj ) = (x, Ay).
2.2 Symmetrische afbeeldingen
71
2.2.6 (Verband met symmetrische matrices) De naam “symmetrisch” heeft
te maken met de matrixrepresentatie van A in een eindigdimensionale vectorruimte V . Laat α : a1 , . . . , an een willekeurige orthonormale basis voor
V zijn. De matrix Aα heeft als kolommen de α-coördinaten van de vectoren
Aa1 , Aa2 , . . . , Aan . Op de ij–de plaats staat dus de i–de coördinaat van
Aaj , dus (ai , Aaj ), en op de ji–de plaats de j–de coördinaat van Aai , dus
(Aai , aj ). Als A symmetrisch is, dan zijn deze elementen gelijk; de matrix is
dus symmetrisch ten opzichte van de hoofddiagonaal. Formeler: ATα = Aα .
Omgekeerd, als Aα symmetrisch is, dan is het element op de ij–de plek
gelijk aan het element op de ji–de plek, d.w.z. (ai , Aaj ) = (ai , Aaj ). Met
bovenstaande stelling volgt dat A symmetrisch is. Dus:
2.2.7 Stelling. Laat V een eindigdimensionale reële inproductruimte zijn en α
een orthonormale basis van V . De lineaire afbeelding A : V → V is symmetrisch dan en slechts dan als de matrix Aα van A ten opzichte α symmetrisch
is.
2.2.8 Voorbeeld. Dat loodrechte projectie PW : V → V op een deelruimte W
symmetrisch is, kunnen we ook met behulp van deze stelling vaststellen
(zie voorbeeld 2.2.3). Kies een orthonormale basis a1 , . . . , an van V zo dat
a1 , . . . , am een orthonormale basis is van W . Elke vector uit de basis is
eigenvector: de eerste m vectoren bij eigenwaarde 1, de laatste n − m bij
eigenwaarde 0. De matrix van de afbeelding PW ten opzichte van deze
orthonormale basis is dus een diagonaalmatrix en is dus symmetrisch. Met
de stelling concluderen we dat PW symmetrisch is.
2.2.9 (Bases van eigenvectoren) De volgende eigenschap – een dergelijke eigenschap hebben we bij orthogonale afbeeldingen gezien – is één van de twee
pijlers waarop de diagonaliseerbaarheid van symmetrische afbeeldingen rust.
De andere pijler is de daarop volgende stelling.
2.2.10 Stelling. Laat V een reële inproductruimte zijn, A : V → V symmetrisch
en stel W is een invariante lineaire deelruimte van V . Dan is ook W ⊥
invariant.
Bewijs. Neem een willekeurige vector x ∈ W ⊥ . We gaan aantonen dat
Ax ∈ W ⊥ door te laten zien dat (Ax, y) = 0 voor alle y ∈ W . Dat gaat als
volgt: (Ax, y) = (x, Ay) wegens de symmetrie van A. Omdat y ∈ W en W
invariant is onder A geldt Ay ∈ W . Omdat x ∈ W ⊥ geldt (x, Ay) = 0, dus
(Ax, y) = 0.
72
Orthogonale en symmetrische afbeeldingen
2.2.11 Stelling. Laat A : V → V een symmetrische lineaire afbeelding zijn met
dim(V ) < ∞. Dan zijn alle wortels van de karakteristieke vergelijking reëel.
Bewijs. Stel µ is een niet-reële wortel van de karakteristieke vergelijking.
Wegens 1.5.8 bestaat er nu een tweedimensionale invariante lineaire deelruimte W zo dat A : W → W een karakteristieke vergelijking heeft met
wortels µ en µ̄, die dus niet reëel zijn. Kies een orthonormale basis α in W .
Dan is
a b
Aα =
b c
symmetrisch wegens Stelling 2.2.7, zodat het karakteristieke polynoom is
a−λ
b
= λ2 − (a + c)λ + ac − b2 .
b
c−λ Hiervan is de discriminant (a + c)2 − 4ac + 4b2 = (a − c)2 + 4b2 ≥ 0. De
twee wortels zijn dus reëel. Dat is een tegenspraak, zodat alle wortels van
de karakteristieke vergelijking van A : V → V reëel zijn.
2.2.12 Stelling. Laat A : V → V een symmetrische lineaire afbeelding zijn met
dim(V ) < ∞. Dan bestaat er een orthonormale basis van eigenvectoren van
A.
Bewijs. Stel dim(V ) = n. De karakteristieke vergelijking van A : V → V
heeft alleen reële wortels, dus eigenwaarden. Kies een eigenwaarde λ1 en
laat v 1 een eigenvector zijn met k v 1 k= 1. Stel W1 =< v 1 >⊥ . Dan
is W1 invariant, dim(W1 ) = n − 1, de afbeelding A : W1 → W1 is ook
symmetrisch en dus heeft de karakteristieke vergelijking van A : W1 → W1
alleen reële wortels, dus eigenwaarden. Laat v 2 een eigenvector in W1 zijn
bij eigenwaarde λ2 en k v 2 k= 1. Dan is (v 1 , v 2 ) een orthonormaal stelsel en
< v 1 , v 2 > invariant. Dan is W2 =< v 1 , v 2 >⊥ invariant, dim W2 = n − 2, de
afbeelding A : W2 → W2 is ook symmetrisch en dus heeft de karakteristieke
vergelijking van A : W2 → W2 alleen reële wortels, dus eigenwaarden. We
kiezen een eigenvector v 3 ∈ W2 met eigenwaarde λ3 en k v 3 k= 1. Dan
is (v 1 , v 2 , v 3 ) een orthonormaal stelsel, enz. Op deze manier vinden we
uiteindelijk een orthonormale basis van eigenvectoren van V.
2.2.13 Uit deze constructie volgt dat eigenvectoren bij verschillende eigenwaarden
loodrecht op elkaar staan. Dat kunnen we ook rechtstreeks inzien. Beschouw
de eigenruimten Eλ en Eµ met λ 6= µ. Neem x ∈ Eλ en y ∈ Eµ . Dan is
λ(x, y) = (λx, y) = (Ax, y) = (x, Ay) = (x, µy) = µ(x, y),
2.2 Symmetrische afbeeldingen
73
waaruit volgt (x, y) = 0 zodat Eλ ⊥ Eµ .
2.2.14 Gevolg. Een symmetrische matrix is diagonaliseerbaar door middel van een
overgang naar een orthonormale basis van eigenvectoren, dus door middel
van een orthogonale coördinatentransformatie.
2.2.15 Voorbeeld. We rekenen eenvoudig uit dat de symmetrische matrix


−1
2 −3
2
4 −2 
A=
−3 −2 −1
eigenwaarden 0, − 4 en 6 heeft met eigenruimten
E0 =< (− 1, 1, 1) > , E−4 =< (1, 0, 1) > , E6 =< (1, 2, − 1) > .
Een orthonormale basis van eigenvectoren is dus
1
1
1
α = √ (− 1, 1, 1) , √ (1, 0, 1) , √ (1, 2, − 1) .
3
2
6
De matrix van Aα kunnen we zonder berekening opschrijven, want langs de
diagonaal verschijnen de eigenwaarden:


0
0 0
Aα =  0 − 4 0  .
0
0 6
2.2.16 (Toepassing: kwadratische vormen) Een toepassing van symmetrische
matrices vinden we bij het op hoofdassen brengen van kwadratische krommen of oppervlakken. We laten kort zien hoe dat algemeen gaat en geven
een voorbeeld.
We rekenen eenvoudig na dat

 

x1
a11 . . . a1n

..   .. 
(x1 · · · xn )  ...
.   . 
an1 . . . ann
xn
= a11 x21 + a22 x22 + · · · + ann x2n
+(a12 + a21 )x1 x2 + (a13 + a31 )x1 x3 + · · · + (an−1,n + an,n−1 )xn−1 xn .
Het resultaat is dus een polynoom in x1 , . . . , xn waarin alle termen graad
2 hebben. De coëfficiënten van x21 , . . . , x2n zijn de diagonaalelementen van
74
Orthogonale en symmetrische afbeeldingen
de matrix en de coëfficiënt van xi xj met i 6= j is de som van aij en aji .
Dit resultaat betekent dat we ook omgekeerd iedere kwadratische vorm in
x1 , . . . , xn (d.w.z. een polynoom in x1 , . . . xn waarin alle termen graad 2
hebben) op deze wijze als matrixproduct kunnen schrijven, en zelfs met een
symmetrische matrix A. Als diagonaalelementen van A nemen we dan de
coëfficiënten van x21 , . . . , x2n en voor i 6= j worden aij en aji ieder de helft
van de coëfficiënt van xi xj .
2.2.17 Voorbeeld.
2
2
2x − 4xy + 3y = (x y)
2 −2
−2
3
x
y
.
2x2 −4xy + 4xz − 3y 2 − 3z 2

Reken dit na!
 

2 −2
2
x
0   y .
= (x y z)  − 2 − 3
2
0 −3
z
2.2.18 Beschouw nu een kwadratische vorm


x1


ϕ(x1 , . . . , xn ) = (x1 · · · xn )A  ... 
xn
waarin A een symmetrische matrix is. Laat α = (a1 , . . . , an ) een orthonormale basis van eigenvectoren van A zijn met eigenwaarden λ1 , . . . , λn . We
geven de coördinaten van (x1 , . . . , xn ) ten opzichte van de basis α aan door
(y1 , . . . , yn ). Het verband is dus




x1
y1
 .. 
 . 
 .  = ε Sα  .. 
xn
yn
waarin de kolommen van de matrix ε Sα de vectoren a1 , . . . , an zijn. Door
transponeren gaat deze relatie over in (x1 · · · xn ) = (y1 · · · yn )ε SαT . Omdat
−1 en deze laatste matrix
T
ε Sα een orthogonale matrix is, is ε Sα = (ε Sα )
is weer gelijk aan α Sε . Invullen in de kwadratische vorm doet dus deze
overgaan in


y1


(y1 · · · yn ) α Sε A ε Sα  ... 
yn
2.2 Symmetrische afbeeldingen
75

y1


= (y1 · · · yn ) Aα  ...  = λ1 y12 + · · · + λn yn2
yn

omdat Aα een diagonaalmatrix is met de eigenwaarden op de diagonaal.
Door deze coördinatentransformatie zijn dus alle dubbele producten verdwenen! Merk op dat we deze som van kwadraten al kunnen opschrijven als
we de eigenwaarden (en hun multipliciteiten) kennen.
2.2.19 Voorbeeld. Beschouw in het vlak de kromme
x2 − 4xy + y 2 = 2
waarin (x, y) de coördinaten van een vector t.o.v. een orthonormale basis
zijn. Het linkerlid kan geschreven worden als
(x y)
1 −2
−2
1
x
y
.
De eigenwaarden van deze matrix zijn 3 en −1, en E3 =< (1, − 1) >,
E−1
√ =< (1, 1) √>. Een orthonormale basis van eigenvectoren is dus α =
( 12 2(1, − 1), 21 2(1, 1)). Dan is
ε Sα
=
en dus
x
y
=
1
2
√
1
2
2
√
2
1 1
−1 1
1 1
−1 1
u
v
.
Substitutie van deze betrekking in de vergelijking van de kromme levert dus
(zonder berekening!) op
3u2 − v 2 = 2.
De kromme is dus een hyperbool met als richtingen van de assen de beide
eigenvectoren (1, −1) en (1, 1).
2.2.20 In het algemeen bevatten kwadratische krommen of oppervlakken ook lineaire termen. Vaak kunnen die ook nog weggewerkt worden door een translatie
van het coördinatenstelsel. We geven eerst kort aan hoe dat gaat en bespreken daarna een voorbeeld.
76
Orthogonale en symmetrische afbeeldingen
Een kwadratisch (hyper)oppervlak kan geschreven worden als




x1
x1




(x1 · · · xn ) A  ...  + (b1 . . . bn )  ...  + c = 0;
xn
xn
hierin is A een symmetrische matrix. Laat α = (a1 , . . . , an ) een orthonormale basis van eigenvectoren van A zijn met eigenwaarden λ1 , . . . , λn . We geven
de coördinaten van (x1 , . . . , xn ) ten opzichte van α aan door (x′1 , . . . , x′n ).
Het verband is dus

 ′ 

x1
x1
 .. 
 .. 
 .  = ε Sα  . 
x′n
xn
waarin uiteraard de kolommen van ε Sα de vectoren a1 , . . . , an zijn. Substitutie in de vergelijking geeft nu
 ′ 
 ′ 
x1
x1
 .. 
 .. 
T
′
′
(x1 · · · xn ) ε Sα A ε Sα  .  + (b1 · · · bn )ε Sα  .  + c = 0 ,
x′n
x′n
′ ′
′ ′
′2
λ1 x′2
1 + · · · + λn xn + b1 x1 + · · · + bn xn + c = 0 .
Hierin is



b′1
b1




(b′1 · · · b′n ) = (b1 · · · bn ) ε Sα , dus  ...  = ε SαT  ...  .
bn
b′n

(b′1 , . . . , b′n ) zijn de de α-coördinaten van de vector b.
Als λi 6= 0, dan schrijven we
b′i b′2
b′i 2
′2
′ ′
′
i
=
λ
+
x
x
+
b
λi x′2
−
x
.
=
λ
+
x
i
i
i
i
i i
i
i
λi
2λi
4λi
b′
Voor alle i met λi 6= 0 substitueren we nu x′i + 2λii = x′′i . Het resultaat is nu
een polynoom waarin ieder van de variabelen in precies één term voorkomt,
lineair of kwadratisch.
2.2.21 Voorbeeld. We beschouwen de kwadratische kromme
16x2 − 24xy + 9y 2 − 30x − 40y = 0,
2.2 Symmetrische afbeeldingen
(x y)
16 −12
−12
9
77
x
y
+ (−30 − 40)
x
y
= 0.
De eigenwaarden van de matrix zijn 25 en 0 en de daarbij horende eigenruimten zijn E25 =< (4, −3) > en E0 =< (3, 4) >. We nemen als orthonormale
basis 51 (4, −3), 51 (3, 4). Het verband tussen de coördinaten is
x
y
=
1
5
4 3
−3 4
x′
y′
.
Substitutie levert
25x′2 + 0y ′2 − 30 · 51 (4x′ + 3y ′ ) − 40 · 15 (−3x′ + 4y ′ ) = 0,
en dat reduceert tot 25x′2 − 50y ′ = 0. De kromme stelt dus een parabool
voor, ten opzichte van de basis α gegeven door y ′ = 21 x′2 .
2.2.22 Voorbeeld. We beschouwen in het vlak de kwadratische kromme
91x2 − 24xy + 84y 2 − 770x − 360y + 2200 = 0 .
De matrix van het kwadratisch gedeelte is
91 −12
.
−12
84
De eigenwaarden zijn 75 en 100 en de eigenruimten zijn E75 =< (3, 4) >,
E100 =< (4, − 3) >. Een orthonormale basis van eigenvectoren is dus α =
(( 51 (3, 4), 15 (4, − 3)). Laat (x′ , y ′ ) de coördinaten van (x, y) t.o.v. α zijn. Dan
geldt
′ 1
x
3
4
x
=
.
y
4 −3
y′
5
Invullen in de vergelijking van de kromme geeft
75x′2 + 100y ′2 − 750x′ − 400y ′ + 2200 = 0,
3x′2 + 4y ′2 − 30x′ − 16y ′ + 88 = 0,
3(x′ − 5)2 + 4(y ′ − 2)2 = 3.
De kwadratische kromme is dus een ellips. De α-coördinaten van het mid14
delpunt zijn (5, 2); het middelpunt is dus ( 23
5 , 5 ). De asrichtingen zijn (in
xy-coördinaten) (3, 4) en (4, − 3).
78
2.3
Orthogonale en symmetrische afbeeldingen
Aantekeningen
De definitie van orthogonale matrix is afkomstig van G.F. Frobenius (1849–
1917). Orthogonaliteitsrelaties traden op in zijn werk over representaties van
Algebra groepen. Diagonaliseerbaarheid van symmetrische matrices en het gebruik
bij kwadratische vormen treffen we aan bij Cauchy.
Analyse
Kwadratische vormen treden op in de analyse bij het onderzoek naar
in D het gedrag van een functie in de buurt van een stationair punt. Aan de
hand van deze tweede–orde benaderingen kan men aangeven of een punt een
lokaal minimum of lokaal maximum is, een zadelpunt of erger.
2.4
Opgaven
§1
1
De lineaire afbeelding A: R2 → R2 is gegeven door de matrix
1 4 3
.
A=
5 3 −4
Laat zien dat A een orthogonale afbeelding is. Onderzoek of A een draaiing
of een spiegeling is. Bepaal in het eerste geval de hoek waarover gedraaid
wordt en in het tweede geval de rechte waarin gespiegeld wordt.
2
De lineaire afbeelding A: Rn → Rn is gegeven door
Ax = x + λ(a, x)a,
a ∈ Rn , ||a|| = 1, λ ∈ R.
a. Voor welke waarden van λ is A orthogonaal?
b. Geef een orthormale basis α van Rn aan zodat de matrix Aα een diagonaalmatrix is.
3
Laat α = (a1 , a2 , a3 , a4 ) een orthonormale basis van R4 zijn. Van de lineaire
afbeelding A: R4 → R4 is gegeven dat
A2 = I, Aa1 = a3 , Aa2 = a4 .
a. Toon aan dat A orthogonaal is.
2.4 Opgaven
79
b. Bepaal de eigenwaarden en een orthonormale basis van eigenvectoren
van A.
4
Van de lineaire afbeelding A: R3 → R3 is het volgende gegeven:
a. A is orthogonaal,
b. A(1, 2, 2) = (1, 2, 2),
c. de vector (2, 0, −1) is eigenvector bij eigenwaarde −1,
d. dim E1 = 1.
Bepaal de matrix van A.
5 De lineaire afbeelding A: R3 → R3 is de draaiing om < (1, 0, 1) > over een
hoek arccos(3/5), in de richting van (1, 0, 1) gezien rechtsom.
a. Bepaal een orthonormale basis α van R3 die
matrix Aα ?
√1 (1, 0, 1)
2
bevat. Wat is de
b. Bepaal de overgangsmatrices ε Sα en α Sε en bepaal vervolgens de matrix
van A.
6 De lineaire afbeelding A: R3 → R3 wordt gegeven door de matrix


5 −7
5
1 
2
2 −10  .
A=
12
−7 5
5
a. Toon aan dat de beeldruimte van A het vlak is met vergelijking x1 +
x2 + x3 = 0. Laat verder zien dat A niet orthogonaal is.
b. Het vlak V uit a.) is een invariante deelruimte. Bepaal een orthonormale
basis α van V en de 2×2–matrix van de beperking A: V → V ten opzichte
van α.
c. Toon aan dat A: V → V een orthogonale afbeelding is. Wat is de meetkundige betekenis van deze afbeelding?
d. Van de lineaire afbeelding B: R3 → R3 is gegeven dat Bx = Ax voor alle
x ∈ V en dat B direct orthogonaal is. Bepaal de matrix van B.
80
7
Orthogonale en symmetrische afbeeldingen
De lineaire afbeelding A: R4 → R4 wordt gegeven door de matrix


1 0 −1 0
1  0 1 0
1 
.
A= √ 

1 0 1
0 
2
0 1 0 −1
a. Toon aan dat A een orthogonale afbeelding is.
b. Bepaal de nulpunten van de karakteristieke vergelijking van A. Laat
zien dat er geen basis van R4 is die uit eigenvectoren bestaat.
c. Bepaal alle één– en tweedimensionale invariante deelruimten van A.
d. Geef een orthonormale basis α van R4 zodat de matrix Aα louter 1 × 1–
en 2 × 2–blokken langs de diagonaal heeft staan. Bepaal zo’n matrix Aα .
8
Door de volgende matrices zijn orthogonale afbeeldingen van R3 naar R3
gegeven. Onderzoek bij elk van deze afbeeldingen of het een draaiing of
een draaispiegeling betreft. Bepaal in geval van een draaiing de draaiingsas
en de draaiingshoek, in geval van een draaispiegeling het spiegelvlak en de
draaiingshoek.
√ 



1
1
−√ 2
1 2
2
c. 21  √1
a. 13  2 −2 1  ,
2 ,
1
√
2 1 −2
2 − 2
0
√ 



−1 −1 −√ 2
−5
4
−20
1 
−20 −5
4 .
b. 12  √
d. 21
2 ,
−1 −1
√
4
−20 −5
2 − 2
0
9
Door de volgende matrices zijn orthogonale afbeeldingen van R3 naar R3
gegeven. Bepaal bij elk van deze afbeeldingen een orthonormale basis α
van R3 zo dat de matrix van de afbeelding ten opzichte van deze basis de
gedaante


λ
0
0
 0 cos ϕ − sin ϕ 
0 sin ϕ cos ϕ
heeft, waarin
0 ≤ ϕ ≤ π en geef λ en

 ϕ.
 λ = ±1 en 
0 0 1
0 0 −1
b.  −1 0 0  .
a.  −1 0 0  ,
0 1 0
0 1 0
2.4 Opgaven
81
§2
10 De lineaire afbeelding A: R3 → R3 is gegeven door
Ax = 2x − (a, x)a,
a ∈ R3 , ||a|| = 1.
a. Toon aan dat A een symmetrische afbeelding is.
b. Laat zien dat a een eigenvector is. Bepaal een basis van eigenvectoren
van A en geef de matrix van A ten opzichte van deze basis.
11 In R3 is de basis α = (a1 , a2 , a3 ) gegeven met
a1 = (1, 0, 0),
a2 = (−1, 1, 0),
De matrix Aα van de lineaire afbeelding

2 −1
 1 −1
−1 2
a3 = (0, 0, 1).
A: R3 → R3 is

0
1 .
1
a. Laat zien dat α geen orthonormale basis is.
b. Toon aan dat A een symmetrische afbeelding is.
c. Bepaal de eigenwaarden en de bijbehorende eigenruimten van A.
12 De lineaire afbeelding A: R3 → R3 is gegeven door
A(2, −1, 2) = (0, 0, 0),
A(−1, 2, 2) = (−1, 2, 2),
A(2, 2, −1) = (2, 2, −1).
a. Bepaal de nulruimte en de beeldruimte van A.
b. Toon aan dat de afbeelding A symmetrisch is.
c. Wat is de meetkundige betekenis van de afbeelding A?
13 Van de symmetrische lineaire afbeelding A: R3 → R3 is gegeven:
82
Orthogonale en symmetrische afbeeldingen
i) de beeldruimte van A is {x ∈ R3 | x1 + x2 + x3 = 0},
ii) A(1, −1, 0) = (1, −1, 0),
iii) voor de karakteristieke wortels λ1 , λ2 , λ3 van A geldt λ1 + λ2 + λ3 = 0.
Bepaal de matrix van A.
14
Zij V een reële inproductruimte. Als A: V → V een symmetrische lineaire
afbeelding is, dan is de nulruimte van A het orthoplement van de beeldruimte
van A. Toon dit aan.
15
Zij l een rechte in R2 door (0, 0), en zij P: R2 → R2 de loodrechte projectie
op l en zij S: R2 → R2 de loodrechte spiegeling in l. Laat zien dat de lineaire
afbeeldingen P en S symmetrisch zijn door de matrix van deze afbeeldingen
ten opzichte van een geschikt gekozen basis te bestuderen.
16
Door de volgende symmetrische matrices zijn symmetrische lineaire afbeeldingen gegeven van R2 naar R2 of R3 naar R3 . Bepaal in elk geval een
orthonormale basis van eigenvectoren en de matrix van de afbeelding ten
opzichte van deze basis.


0 1 1
1 2
a.
,
b.  1 0 1 ,
2 4

 1 1 2


1 −1 0
1 −4 8
c.  −1 2 −1 ,
d.  −4 7 4 .
0 −1 1
8
4 1
17
Zij V een reële inproductruimte en zij A: V → V en B: V → V lineaire
afbeeldingen. Bewijs de volgende beweringen:
a. Als A en B symmetrisch zijn en (A)(B) = (B)(A), dan is ook de samenstelling AB symmetrisch.
b. Als A symmetrisch is en een inverse heeft, dan is de inverse A−1 ook
symmetrisch.
18
Breng de volgende krommen in R2 op hoofdassen en bepaal de aard van
de kromme. Bepaal ook de vergelijkingen van de symmetrieassen in x1 , x2 –
coördinaten en geef tenslotte een schets van de figuur.
a. x21 + 8x1 x2 + x22 = 45,
2.4 Opgaven
83
b. 3x21 − 2x1 x2 + 3x22 = 2,
c. 3x21 + 8x1 x2 − 3x22 + 2x1 − 14x2 = 3,
d. 4x21 − 12x1 x2 + 9x22 − 7x1 + 4x2 = 12,
e. x21 − 4x1 x2 + 4x22 − 30x1 + 10x2 + 25 = 0.
19 In R2 is gegeven de ellips met vergelijking
7x21 − 4x1 x2 + 4x22 − 6x1 − 12x2 = 9.
Bepaal de vergelijking van de grootste cirkel die beschreven kan worden in
deze ellips en bepaal de snijpunten van cirkel en ellips.
2.4.1
20
Oefenen op tentamenniveau
De lineaire afbeelding A : R3 → R3 is gegeven door de matrix
√ 

3
1
√6
1
A=  √
1
3
−
6 .
√
4
6
2
− 6
a. Bewijs dat A een draaiing is.
b. Bepaal de draaiingsas en de draaiingshoek van A.
21 Van de direct orthogonale afbeelding A : R3 → R3 is gegeven
√
A(e1 + e2 ) = e1 + e2 en A(e1 − e2 ) = − 2 e3 .
a. Bepaal de matrix A van A ten opzichte van de standaardbasis.
b. De lineaire afbeelding S : R3 → R3 is de loodrechte spiegeling in het
vlak met vergelijking x1 − x2 = 0. Bepaal de eigenwaarden en een
orthonormale basis van eigenvectoren van S.
c. Laat zien dat de samengestelde afbeelding S ◦ A een spiegeling is en
bepaal van deze afbeelding het spiegelvlak.
84
22
Orthogonale en symmetrische afbeeldingen
In R2 is gegeven de kwadratische kromme
√
√
2x21 + 2x1 x2 + 2x22 + 2 x1 + 5 2 x2 = 2.
a. Bepaal de vergelijking van de kromme op hoofdassen. Wat is de aard
van de kromme?
b. Bepaal in (x1 , x2 )–coördinaten de punten van de kromme met zo groot
mogelijke afstand tot het middelpunt.
23
3. V is een tweedimensionale inproductruimte met een orthonormale basis
α = {a, b}. B : V → V is de lineaire afbeelding met matrix ten opzichte van
de basis α
1 4
Bα =
.
4 1
De lineaire afbeelding A : V → V wordt gedefinieerd door
Ax = 4x − (Bx, a)b − (Bx, b)a.
a. Bewijs dat A een symmetrische lineaire afbeelding is.
b. Bepaal de eigenwaarden en eigenvectoren van A.
Hoofdstuk 3
Differentiaalvergelijkingen
3.1
Stelsels differentiaalvergelijkingen
3.1.1 In deze paragraaf passen we onze kennis van eigenwaarden en eigenvectoren
toe op stelsels differentiaalvergelijkingen. De hierin voorkomende functies
zijn functies van een reële variabele t. We zullen afgeleiden aangeven zowel
met een punt boven het functiesymbool als met een accent, dus bijvoorbeeld
als ẋ of als x′ . De methoden
Het eenvoudigste geval van een stelsel van één vergelijking met één onbekende functie hebben we al in ?? besproken. Zo’n stelsel ziet er uit als
ẋ = ax + f
waarin x en f complexwaardige functies van de reële variabele t zijn en a een
(complexe) constante. We kunnen dit stelsel bijvoorbeeld met de methode
van de integrerende factor oplossen en vinden dan
x(t) = ceat + p(t), c ∈ C
waarin heat i de verzameling van alle oplossingen van de corresponderende
homogene vergelijking is en p(t) een particuliere oplossing. Als de functie
f (t) een e-macht maal een polynoom is, dan is de functie p(t) diezelfde
e-macht maal een (ander) polynoom.
We bespreken nu eerst een zeer eenvoudig stelsel van drie eerste orde
vergelijkingen in drie onbekende functies x(t), y(t) en z(t).
3.1.2 Voorbeeld. Ieder van deze drie vergelijkingen
ẋ = 2x + et ,
ẏ = −y,
ż = 3z + te3t .
85
86
Differentiaalvergelijkingen
is zelfstandig, zonder gebruik te maken van de overige vergelijkingen, op te
lossen. Een dergelijk stelsel heet wel een ontkoppeld stelsel. We vinden
x = c1 e2t − et ,
z = c3 e3t + 21 t2 e3t .
y = c2 e−t ,
We kunnen deze oplossing ook in matrixvorm schrijven: x =
 
 
 
 
 
1
0
0
1
0
2t
−t
3t
t
1








0 e + c2
1 e + c3
0 e −
0 e +2
0  t2 e3t .
c1
0
0
1
0
1
In de regel zullen we de oplossingen van een stelsel differentiaalvergelijkingen
in deze vorm vinden.
3.1.3 Voorbeeld. Beschouw het stelsel
ẋ = x + 2y + et ,
ẏ = 12x − y + 2et .
Dit stelsel kan ook in matrixvorm geschreven worden:
x
y
′
=
1
2
12 −1
x
y
+
1
2
et .
We proberen de coëfficiëntenmatrix A op een diagonaalvorm te brengen.
Daarvoor hebben we een basis van eigenvectoren nodig. De karakteristieke
vergelijking is
1−λ
2
= λ2 − 25 = 0 .
12
−1 − λ Er zijn dus twee reële eigenwaarden, 5 en −5. We vinden E5 = h(1, 2)i en
E−5 = h(−1, 3)i. Neem als basis α = ((1, 2), (−1, 3)). Dan is
3 1
1 −1
−1
1
,
, α Sε = ε Sα = 5
ε Sα =
−2 1
2
3
zodat
Aα =
5
0
0 −5
.
We voeren nu de coördinatentransformatie naar de basis α uit. Dus stel
u
3x + y
x
= α Sε
.
= 15
v
−2x + y
y
3.1 Stelsels differentiaalvergelijkingen
Dan is
over in
x
y
87
′
′
x
u
= ε Sα
,
= ε Sα
en het stelsel gaat dus
y
v
′
u
u
1
= A ε Sα
+
et .
ε Sα
v
v
2
u
v
Linksvermenigvulding met α Sε levert
′
u
u
1
et ,
= α Sε A ε Sα
+ α Sε
v
2
v
′
u
1
u
5
0
et .
+
=
0
0 −5
v
v
Dit is een ontkoppeld stelsel:
u′ = 5u + et , v ′ = −5v,
waarvan we de oplossing direct vinden:
0
u
1
e−5t −
e5t + c2
= c1
1
0
v
1
4
Linksvermenigvuldiging met ε Sα levert nu
0
u
1
5t
e−5t −
e + c2 ε Sα
= c1 ε Sα
ε Sα
1
0
v
zodat
x
y
= c1
1
2
5t
e + c2
−1
3
−5t
e
−
1
4
1
0
et .
1
4 ε Sα
1
2
1
0
et ,
et .
Merk op dat de “vectorcoëfficiënten” van e5t en e−5t juist de eigenvectoren
bij 5 en −5 zijn.
3.1.4 Definitie. Een stelsel van n lineaire differentiaalvergelijkingen met constante coëfficiënten in n onbekende functies x1 , . . . , xn van de reële variabele t
heeft de gedaante


′



x1
x1
f1
 .. 
 . 
 . 
 .  = A  ..  +  ..  ,
xn
xn
fn
waarin A een n × n matrix is en f1 , . . . , fn functies van t. Het stelsel heet
homogeen als (f1 , . . . , fn ) = (0, . . . , 0) en anders inhomogeen.
88
Differentiaalvergelijkingen
3.1.5 Het oplossen van zo’n stelsel is in feite weer het oplossen van een vectorvergelijking Bx = f waarin B : V → V een lineaire afbeelding is. Dat is
eenvoudig in te zien. Laat V bestaan uit rijtjes van n functies x1 , . . . , xn
gedefinieerd op R. Gemakshalve nemen we aan dat al deze functies net zo
vaak gedifferentieerd kunnen worden als we willen.
We zien dan eenvoudig in dat V een (complexe) vectorruimte is. Voor iedere
vector x = (x1 , ..., xn ) ∈ V definiëren we


 ′ 
x1
x1
 .. 
 .. 
Ax = A  .  en Dx =  .  .
x′n
xn
A : V → V en D : V → V zijn dan lineaire afbeeldingen, en het stelsel
differentiaalvergelijkingen kan geschreven worden als

 

x1
f1

 

(D − A)  ...  =  ...  .
xn
fn
Alle oplossingen van dit stelsel vinden we dus door bij één particuliere oplossing alle vectoren van de nulruimte op te tellen, dus door bij één particuliere
oplossing alle oplossingen van de corresponderende homogene vergelijking te
tellen.
Het oplossen van een stelsel lineaire differentiaalvergelijkingen gebeurt in
de regel in drie stappen: eerst zoeken we alle oplossingen van het homogene
stelsel, daarna zoeken we één particuliere oplossing en dan tellen we op.
3.1.6 We bespreken eerst het oplossen van het homogene stelsel
 ′ 


x1
x1
 .. 
 . 
′
 .  = A  ..  , of in vectorvorm x = Ax .
x′n
xn
Als de matrix A op een diagonaalvorm gebracht kan worden, dan kunnen we
het stelsel ontkoppelen net zo als we dat in voorbeeld 3.1.3 gedaan hebben.
We lossen het zo verkregen stelsel op en transformeren terug. We vinden zo
alle oplossingen:








vn1
v21
v11
x1
 .  λ t
 .  λt
 .  λt
 .. 
 .  = c1  ..  e 1 + c2  ..  e 2 + · · · + cn  ..  e n ,
xn
v1n
v2n
vnn
3.1 Stelsels differentiaalvergelijkingen
89
d.w.z.
x = c1 v 1 eλ1 t + c2 v 2 eλ2 t + · · · + cn v n eλn t ,
waarin v 1 , . . . , v n een basis van eigenvectoren van A (voor Cn ) is met eigenwaarden λ1 , . . . , λn .
3.1.7 Voorbeeld. Beschouw het homogene stelsel
  
  
ẋ
−5 5 7
x
 ẏ  =  −2 2 3   y  .
ż
−4 5 4
z
De matrix heeft eigenwaarden 1, i en −i en we vinden E1 = h(2, 1, 1)i, Ei =
h(10 − 5i, 4 − 3i, 5)i en E−i = h(10 + 5i, 4 + 3i, 5)i. Alle oplossingen zijn dus
 
 




x
10 + 5i
10 − 5i
2
 y  = c1  1  et + c2  4 − 3i  eit + c3  4 + 3i  e−it
z
5
5
1
met c1 , c2 , c3 ∈ C. Als we alle reële oplossingen willen hebben, dan moeten
we de laatste twee termen wat anders schrijven. Noem a = (10 − 5i, 4 −
3i, 5)eit en b = (10 + 5i, 4 + 3i, 5)e−it . Dan is b (rekentechnisch) de geconjugeerde van a. Hieruit volgt dat
1
(a − b)i = hRe(a), Im(a)i .
ha, bi = h 12 (a + b), 2i
Dus zijn alle oplossingen van het stelsel
 
 




x
2
10 cos t + 5 sin t
−5 cos t + 10 sin t
 y  = c1  1  et +c2  4 cos t + 3 sin t +c3  −3 cos t + 4 sin t 
z
1
5 cos t
5 sin t
waarin nog steeds c1 , c2 , c3 ∈ C. Voor de reële oplossingen nemen we nu
c1 , c2 , c3 ∈ R.
3.1.8 Beschouw een homogeen lineair stelsel, in vectornotatie
x′ = Ax .
De bovenstaande oplossingsmethode werkt als er een basis van eigenvectoren
bestaat, en dat is in een complexe vectorruimte in de regel het geval. We
gaan nu in op wat we kunnen doen als er geen basis van eigenvectoren
bestaat. We beperken ons tot de eenvoudigste situatie: de karakteristieke
90
Differentiaalvergelijkingen
vergelijking heeft een nulpunt α met multipliciteit 2, maar de bijbehorende
eigenruimte heeft dimensie 1.
In dat geval zoeken we oplossingen van de gedaante
x = (ut + v)eαt .
Invullen geeft
(αut + αv + u)eαt = (Au t + Av)eαt ,
waaruit volgt
αu = Au en αv + u = Av .
Eén oplossing zien we zo: neem u = 0 en v een eigenvector met eigenwaarde
α.
Echter, er is ook een oplossing met u 6= 0. Dat volgt uit 1.5.14: omdat
de dimensie van de eigenruimte kleiner is dan de multipliciteit van de eigenwaarde bestaan er vectoren u 6= 0, v 6= 0 zo dat (A − αI)v = u(6= 0) en
(A − αI)u = 0, oftewel Au = αu en Av = αv + u.
3.1.9 Voorbeeld. Beschouw het stelsel
′ x
5 −2
x
=
.
y
2
1
y
De karakteristieke vergelijking is (λ − 3)2 = 0, dus is λ = 3 eigenwaarde met
multipliciteit 2, maar we vinden E3 = h(1, 1)i. We zoeken nu oplossingen
van de gedaante x = (u t + v)e3t . Invullen geeft
(3ut + 3v + u)e3t = (Au t + Av)e3t ,
dus Au = 3u en Av = 3v + u. Als u = 0, dan is Av = 3v, dus nemen we
v = (1, 1); één oplossing is dus (1,1) e3t .
Aan Au = 3u voldoet u = (1, 1). Los nu v op uit (A − 3I)v = u:
2 −2 1
.
2 −2 1
Dit stelsel heeft oplossingen: 2v1 −2v2 = 1, dus neem bijvoorbeeld v = ( 12 , 0).
Een andere oplossing van het homogene stelsel differentiaalvergelijkingen is
dus x = ((1, 1) t + ( 12 , 0))e3t . We vinden dus als oplossingen
x
1
t + 21
3t
e3t .
= c1
e + c2
t
y
1
3.1 Stelsels differentiaalvergelijkingen
91
3.1.10 We gaan nu in op het vinden van een particuliere oplossing voor een inhomogeen stelsel lineaire differentiaalvergelijkingen.
Daarbij gebruiken we af en toe het zogenaamde superpositiebeginsel: Als
p1 een particuliere oplossing is van x′ = Ax + f 1 en als p2 een particuliere
oplossing is van x′ = Ax + f 2 , dan is p1 + p2 een particuliere oplossing van
x′ = Ax + (f 1 + f 2 ).
Deze eigenschap volgt direct uit de lineariteit van differentiëren en van
A.
Als (theoretische) inleiding beschouwen we het stelsel
x′ = Ax + aeαt
waarin a een constante vector is. In deze situatie proberen we een particuliere oplossing te vinden van de gedaante x = ueαt . Invullen levert
αueαt = Au eαt + aeαt ,
(A − αI)u = −a .
We kunnen dus zo’n u vinden als −a (en dus a) in de beeldruimte van A−αI
ligt.
Als α geen eigenwaarde is, dan is de afbeelding A − αI inverteerbaar
en heeft de vergelijking voor iedere a precies één oplossing. Als α wel een
eigenwaarde is, dan zijn er oneindig veel oplossingen voor u als −a in de
beeldruimte van A − αI ligt en geen enkele als −a niet in deze beeldruimte
ligt.
In dit laatste geval proberen we een particuliere oplossing te vinden van
het type x = (ut + v)eαt . Invullen levert dan
(u + αv + αut)eαt = (tAu + Av + a)eαt ,
Au = αu, Av + a = u + αv ,
(A − αI)u = 0, (A − αI)v = u − a .
We moeten nu dus een eigenvector u proberen te vinden zodanig dat u−a in
de beeldruimte van A−αI ligt. Meestal kan dat: laat R en N de beeldruimte
en de nulruimte van A − αI zijn. Als R ∩ N = {0}, dan kan (omdat dim
R + dim N = n) iedere vector a geschreven worden als a = u + w met
u ∈ N en w ∈ R. Dan geldt u − a = −w ∈ R, zodat v bestaat. Merk
nog op dat de voorwaarde R ∩ N = {0} betekent dat de multipliciteit van
α als nulpunt van de karakteristieke vergelijking gelijk is aan de dimensie
van de bijbehorende eigenruimte. In de zelden voorkomende situatie dat
92
Differentiaalvergelijkingen
we nu nog geen particuliere oplossing gevonden hebben, proberen we x =
(ut2 + vt + w)eαt , enz. We kunnen aantonen dat we uiteindelijk zo een
oplossing vinden.
Om een particuliere oplossing te vinden van het stelsel
x′ = Ax + p(t)eαt
met p(t) = a0 + a1 t + ... + an tn proberen we x = q(t)eαt met q(t) = b0 +
b1 t + ... + bn tn . Als dit niet gaat dan proberen we het nogmaals maar nu
met een (vector)polynoom van graad n + 1, enz.
3.1.11 Voorbeeld. We zoeken een particuliere oplossing van
′ 
   

x
0 −8
8
x
6
 y  = 1
4 −1   y  +  −2  e2t .
z
0
2 −2
z
−4

Laat A de coëfficiëntenmatrix zijn en a = (6, −2, −4).
We zoeken een particuliere oplossing van de gedaante x = ue2t . Invullen
geeft
2ue2t = Aue2t + ae2t ,
(A − 2I)u = −a ,

−2
 1
0

1
 0
0

−8
8 −6
2 −1
2  ,
2 −4
4

7
0 0
1 0 −4  .
0 1 −3
Dus u = (7, −4, −3) en een particuliere oplossing is
  

x
7
 y  =  −4  e2t .
z
−3
3.1.12 Voorbeeld. We zoeken een particuliere oplossing van

 
    
′ 
21
−22
x
0 −8
8
x
 y  = 1
3  +  −6  e2t .
4 −1   y  + t 
−4
10
z
0
2 −2
z

3.1 Stelsels differentiaalvergelijkingen
93
Laat A de coëfficiëntenmatrix zijn, a = (−22, 3, 10), b = (21, −6, −4). We
proberen een oplossing x = (ut + v)e2t . Invullen geeft
(u + 2ut + 2v)e2t = (Au t + Av + at + b)e2t ,
Au + a = 2u, u + 2v = Av + b ,
(A − 2I)u = −a, (A − 2I)v = u − b .
We lossen eerst de vergelijking voor u op:


22
−2 −8
8
 1
2 −1 −3  →
0
2 −4 −10


1 0 0
1
 0 1 0 −1  ,
2
0 0 1
zodat u = (1, −1, 2). Nu met deze u de vergelijking voor v:




1 0 0
−2 −8
8 −20
2
 1
5  →  0 1 0
1 .
2 −1
0
2 −4
0 0 1 −1
6
Dus v = (2, 1, −1) en een particuliere oplossing is
   
 

1
x
2
 y  = t  −1  +  1  e2t .
2
z
−1
3.1.13 Voorbeeld. Beschouw het stelsel
′ x
1 −2
x
sin t
=
+
.
y
5 −1
y
cos t
We lossen eerst het homogene stelsel op. De karakteristieke vergelijking
is λ2 + 9 = 0, zodat de eigenwaarden 3i en −3i zijn. We vinden E3i =
h(1 + 3i, 5)i en E−3i = h(1 − 3i, 5)i zodat alle oplossingen van de homogene
vergelijking zijn
x
1 + 3i
1 − 3i
3it
= c1
e + c2
e−3it ,
y
5
5
of, in reële vorm:
x
cos 3t − 3 sin 3t
3 cos 3t + sin 3t
= c′1
+ c′2
.
y
5 cos 3t
5 sin 3t
94
Differentiaalvergelijkingen
Om een particuliere oplossing te vinden merken we eerst op dat
sin t
1
= Im
eit .
cos t
i
We zoeken nu een particuliere oplossing van
′ x
1 −2
x
1
=
+
eit .
y
5 −1
y
i
Omdat de matrix reëel is en (Imx)′ = Im(x′ ), is het imaginaire gedeelte van
deze particuliere oplossing een particuliere oplossing van het oorspronkelijke
stelsel.
Probeer dus x = ueit . Invullen geeft uieit = (Au + a)eit , dat wil zeggen
(A − iI)u = −a. Uit het stelsel
1−i
−2
−1
5
−1 − i −i
volgt u = 18 (1 − i, 4 − i).
Een particuliere oplossing van het tweede stelsel is dus
1−i
x
1
eit
=8
4−i
y
waarvan het imaginaire gedeelte is
− cos t + sin t
x
1
.
=8
− cos t + 4 sin t
y
Alle reële oplossingen van het stelsel zijn dus
x
− cos t + sin t
1
=8
+
y
− cos t + 4 sin t
cos 3t − 3 sin 3t
3 cos 3t + sin 3t
c1
+ c2
5 cos 3t
5 sin 3t
met c1 en c2 ∈ R.
3.1.14 Tot slot van deze paragraaf merken we nog op dat we in de praktijk behalve
het stelsel differentiaalvergelijkingen vaak ook nog een aantal voorwaarden
hebben waaraan de oplossingen moeten voldoen. In zo’n geval bepalen we
eerst de algemene oplossing van het stelsel en proberen dan de daarin voorkomende constanten zo te bepalen dat aan deze voorwaarden is voldaan.
3.2 Laplace-transformaties
3.2
95
Laplace-transformaties
3.2.1 Een andere techniek om (stelsels) differentiaalvergelijkingen op te oplossen
is gebaseerd op de Laplace-transformatie, een lineaire operator op zekere
vectorruimten van functies. We bespreken
• de definitie van de Laplace-transformatie,
• rekenregels en eigenschappen ervan,
• toepassingen bij het oplossen van (stelsels) differentiaalvergelijkingen.
Het onderwerp Laplace-transformatie bevindt zich op het grensgebied van
analyse en lineaire algebra. Omdat de analyse buiten het bestek van deze
cursus valt, zullen we niet ingaan op allerlei analytische details.
3.2.2 We beschouwen in deze paragraaf functies f (t) gedefinieerd voor alle t ≥ 0.
We zullen aannemen dat deze functies continu zijn. Alle resultaten gelden
echter ook voor zogenaamde stuksgewijs continue functies. Dat zijn functies
waarbij het interval [0, ∞) is opgedeeld in (eindig of oneindig veel) oplopende
intervallen I1 , I2 , ..., zodanig dat f continu is op ieder van deze intervallen.
Een voorbeeld van zo’n functie is de “zaagtandfunctie”, f (t) = t voor 0 ≤
t < 1 en verder periodiek met periode 1.
Neem s ∈ R vast, s > 0, en beschouw de functie e−st voor 0 ≤ t < ∞.
Deze gaat snel naar 0 als t → ∞; des te sneller naarmate s groter is. Hieruit
volgt dat als voor een functie f (t) voor een zekere waarde s0 de integraal
Z∞
f (t) e−s0 t dt
Z∞
f (t) e−st dt
0
bestaat, de integraal
0
bestaat voor alle s > s0 .
3.2.3 Definitie. (Laplace-getransformeerde) De Laplace-getransformeerde van
een functie f is de functie Lf , voor voldoend grote s gedefinieerd door
(Lf )(s) =
Z∞
0
f (t) e−st dt .
96
Differentiaalvergelijkingen
3.2.4 Uit 3.2.2 volgt dat er voor iedere f een A bestaat zo dat (Lf )(s) bestaat
voor alle s > A en niet bestaat voor s < A. Deze A heet de convergentie
abscis van de Laplace-getransformeerde. Deze kan ∞ zijn, in welk geval de
functie Lf dus niet bestaat.
3.2.5 Voorbeelden.
• Neem f (t) = 1 voor alle t ≥ 0. Dan is
(Lf )(s) =
Z∞
0
e−st dt = −
1 −st t=∞ 1
= voor s > 0;
e s
s
t=0
voor s ≤ 0 bestaat (Lf )(s) niet. De convergentie abscis is 0.
• Neem f (t) = e3t voor alle t ≥ 0. Dan is
(Lf )(s) =
Z∞
0
e(3−s)t dt = −
t=∞
1
1
=
e(3−s)t voor s > 3,
s−3
s−3
t=0
voor s ≤ 3 bestaat (Lf )(s) niet. De convergentie abscis is 3.
2
• Neem f (t) = et voor alle t ≥ 0. Dan is
Lf (s) =
Z∞
0
e(t−s)t dt = ∞ voor alle s.
De convergentie abscis is ∞ en deze functie heeft dus geen Laplacegetransformeerde.
3.2.6 Neem aan dat voor een functie f (t)
(Lf )(s) =
Z∞
f (t) e−st dt
0
voor een zekere s bestaat. Als we s steeds groter maken, dan zien we dat
f (t) e−st → 0 voor vaste t; we kunnen aantonen dat hieruit volgt dat ook
lim (Lf )(s) = lim
s→∞
s→∞
Z∞
f (t) e−st dt = 0 .
0
Alle Laplace-getransformeerden hebben dus de eigenschap dat hun limiet
voor s → ∞ gelijk is aan 0.
3.2 Laplace-transformaties
97
3.2.7 Stelling. (Lineariteitsstelling) Als (Lf )(s) en (Lg)(s) bestaan, dan is
L(αf + βg)(s) = α(Lf )(s) + β(Lg)(s) .
Deze eigenschap volgt direct uit de lineariteit van de integraal, ga dat zelf
na.
3.2.8 Stelling. (Eenduidigheidsstelling) Laat f en g twee stuksgewijs continue functies zijn, zodanig dat Lf (s) = Lg(s) voor alle voldoend grote s. Dan
is f (t) = g(t) voor alle t ≥ 0, eventueel met uitzondering van een stijgende
rij waarden van t.
Het bewijs van deze stelling valt buiten het bereik van deze cursus.
3.2.9 Bovenstaande twee stellingen suggereren dat de Laplace-transformatie beschouwd kan worden als een inverteerbare lineaire afbeelding tussen twee
functieruimten. Dat is inderdaad zo, maar een precieze omschrijving van de
beide functieruimten vereist uitgebreidere kennis van wiskunde. We gaan
daar niet verder op in.
De standaardconventie bij Laplace-transformatie is dat functies van een
variabele t overgevoerd worden in functies van een variabele s. Ruw gezegd: we transformeren van het t-domein naar het s-domein. De Laplacetransformatie wordt zelden uitgerekend met behulp van de integraaldefinitie.
In plaats daarvan worden rekenregels gebruikt. Een aantal daarvan gaan we
nu bespreken.
3.2.10 Stelling.
L eat f (t) (s) = Lf (s − a) .
“Vermenigvuldiging met een e-macht in het t-domein betekent een verschuiving in het s-domein.”
Bewijs.
Z∞
Z∞
at
−st
at
f (t) e−(s−a)t dt = Lf (s − a) .
e f (t) e dt =
L e f (t) (s) =
0
0
1
Een voorbeeld hebben we al in 3.2.5 gezien: L 1(s) = , zodat L(e3t )(s) =
s
1
.
s−3
98
Differentiaalvergelijkingen
3.2.11 Stelling.
L t f (t) (s) = −(Lf )′ (s) .
“Vermenigvuldigen met t in het t-domein geeft − de afgeleide in het sdomein.”
Bewijsschets.
d
−(Lf ) (s) = −
ds
′
Z∞
−st
f (t) e
0
dt = −
Z∞
∂ −st
e dt =
f (t)
∂s
0
Z∞
t f (t) e−st dt ,
0
dit in de veronderstelling dat differentiatie en integratie verwisseld mogen
worden.
3.2.12 Herhaald toepassen van deze eigenschap levert op dat
L tn f (t) (s) = (−1)n (Lf )(n) (s)
voor ieder natuurlijk getal n. Neem nu f (t) = 1 voor alle t ≥ 0 met
(Lf )(s) = 1/s, dan vinden we:
3.2.13 Stelling.
L(tn )(s) =
n!
.
sn+1
Voor het terugzoeken van Laplace-getransformeerden gebruiken we vaak een
variant van deze formule, gecombineerd met Stelling 3.2.10:
3.2.14 Stelling.
L eat ·
1
tn−1 (s) =
.
(n − 1)!
(s − a)n
Ga dit zelf na.
3.2.15 Combinatie van de tot nu toe gevonden resultaten levert op dat we van
iedere functie van de gedaante een e-macht van t vermenigvuldigd met een
polynoom in t de Laplace-getransformeerde kunnen uitrekenen en dat het
resultaat een rationale functie in s is. Omgekeerd kunnen we, als de Laplacegetransformeerde van een functie f een rationale functie in s is, met behulp
van partiële breuksplitsing de functie f eenvoudig terugvinden.
3.2 Laplace-transformaties
99
3.2.16 Voorbeeld. Van een functie f is de Laplace-getransformeerde
Lf (s) =
3s3 − 13s2 + 22s − 10
.
s4 − 7s3 + 18s2 − 20s + 8
We ontbinden de noemer in factoren en vinden (s − 2)3 (s − 1). Na partiële
breuksplitsing vinden we
Lf (s) =
6
5
2
+
−
,
(s − 2)3 s − 2 s − 1
zodat wegens 9.2.14 (en de lineariteit)
f (t) = 3t2 e2t + 5e2t − 2et = e2t (3t2 + 5) − 2et .
Deze methode werkt ook als de ontbinding van de noemer onontbindbare
reële factoren van graad 2 bevat. Die kunnen we verder complex ontbinden:
3.2.17 Voorbeeld. Van een functie f is de Laplace-getransformeerde
Lf (s) =
s2
1
.
+1
De noemer is (s + i)(s − i) en partiële breuksplitsing levert op
Lf (s) =
zodat
f (t) =
1
1
1
1
i
− i
,
2 s+i 2 s−i
1 it
1 −it 1 it
ie − ie =
(e − e−it ) = sin t .
2
2
2i
3.2.18 Een generalisatie van dit resultaat kan ook op een andere manier gevonden
worden. Merk op dat als f een complexwaardige functie is, uit
Lf (s) =
Z∞
f (t) e−st dt
0
volgt dat
Z∞ Re Lf (s) =
Re f (t) e−st dt = L Re(f ) (s) ,
0
100
Differentiaalvergelijkingen
en net zo
Z∞ Im f (t) e−st dt = L Im(f ) (s) .
Im Lf (s) =
0
Neem nu b > 0 en definieer f (t) = eibt voor t ≥ 0. Wegens 9.2.11 is
Lf (s) =
waaruit volgt
1
s + ib
= 2
s − ib
s + b2
s
,
+ b2
b
L Im(f ) (s) = L sin(bt) (s) = 2
.
s + b2
L Re(f ) (s) = L cos(bt) (s) =
s2
Nogmaals gebruik maken van Stelling 3.2.10 geeft twee formules die bruikbaar zijn bij terugzoeken:
3.2.19 Stelling.
L eat cos(bt) (s) =
s−a
,
(s − a)2 + b2
L eat sin(bt) (s) =
b
.
(s − a)2 + b2
Gebruik van deze formules kan het complex partieel breuksplitsen overbodig
maken.
3.2.20 Voorbeeld. Van de functie f is de Laplace-getransformeerde
s2 − s + 34
=
s3 − 3s2 + 9s − 13
−s + 8
2
+
=
s + 1 s2 − 4s + 13
2
−s + 8
2
s−2
3
=
+
=
−
+2
,
2
2
s + 2 (s − 2) + 9
s + 1 (s − 2) + 9
(s − 2)2 + 9
f (s) =
waaruit volgt dat
f = 2e−t − e2t cos 3t + 2e2t sin 3t .
3.2.21 Als Lf (s) een rationale functie in s is, dan kunnen er na reële partiële breuksplitsing termen ontstaan met hogere machten van onontbindbare kwadratische polynomen, bijvoorbeeld
Lf (s) =
s+1
.
(s2 + 1)2
3.2 Laplace-transformaties
101
Het terugzoeken van dergelijke vormen geeft in de regel vervelend rekenwerk.
Een van de methoden is complex te werken:
s+1
1 i
i
−1 + i
−1 − i Lf (s) =
=
−
+
+
.
(s + i)2 (s − i)2
4 s + i s − i (s + i)2 (s − i)2
Terugtransformeren levert nu op
f (t) =
1
(i e−it − i eit + (−1 + i) t e−it + (−1 − i) t eit ) ,
4
hetgeen resulteert in
f (t) =
1
(sin t + t sin t − t cos t) .
2
Er zijn ook andere technieken, die berusten op de convolutiestelling. We
gaan daar aan het eind van deze paragraaf verder op in.
Het praktische belang van Laplace-transformaties is gebaseerd op de
volgende eigenschap.
3.2.22 Stelling.
(Lf ′ )(s) = s(Lf )(s) − f (0) .
3.2.23 Vermenigvuldigen met t in het t-domein geeft − de afgeleide in het s-domein;
hier zien we dat vermenigvuldigen met s in het s-domein betekent differentiëren in het t-domein en f (0) optellen.
Bewijs. We gebruiken partiële integratie:
(Lf ′ )(s)
Z∞
Z∞
t=∞
′
−st
−st =
+s
f (t) e dt = f (t) e f (t) e−st dt = s(Lf )(s) − f (0).
t=0
0
0
Herhaald toepassen geeft
(L f (n) )(s) = sn (Lf )(s) − sn−1 f (0) − · · · − s f (n−2) (0) − f (n−1) (0) .
3.2.24 Met deze eigenschap kunnen we met behulp van de Laplace-transformatie
een lineaire differentiaalvergelijking (met constante coëfficiënten) omzetten
in een algebraı̈sche vergelijking in de Laplace-getransformeerde.
102
Differentiaalvergelijkingen
3.2.25 Voorbeeld. Beschouw de differentiaalvergelijking
ẍ − 4ẋ + 5x = 2et
met beginvoorwaarden x(0) = 2, ẋ(0) = 0. Noem Lx = X. Dan is
Lẋ = sX − x(0) = sX − 2 , Lẍ = s2 X − sx(0) − ẋ(0) = s2 X − 2s .
Laplace-transformatie toegepast op de differentiaalvergelijking levert dus
(s2 X − 2s) − 4(sX − 2) + 5X =
waaruit volgt
X=
Partiële breuksplitsing levert
X=
2
,
s−1
2(s2 − 5s + 5)
.
(s2 − 4s + 5)(s − 1)
1
s−5
1
s−2
1
+
=
+
−3
2
2
s − 1 (s − 2) + 1
s − 1 (s − 2) + 1
(s − 2)2 + 1
zodat
x(t) = et + e2t cos t − 3e2t sin t .
3.2.26 Deze wijze van oplossen van lineaire differentiaalvergelijkingen is nogal populair. Merk echter op dat de hoeveelheid rekenwerk zeker niet minder is dan
de eerder behandelde oplossingsmethode: eerst de homogene vergelijking
oplossen met de karakteristieke vergelijking, dan een particuliere oplossing
zoeken, tenslotte de parameters zo kiezen dat aan de randvoorwaarden is
voldaan.
Uiteraard kan de Laplace-transformatie ook worden toegepast bij stelsels
lineaire differentiaalvergelijkingen.
3.2.27 Voorbeeld. Beschouw het stelsel met beginvoorwaarden:
′ x
1 −2
x
x(0)
1
=
,
=
.
y
5 −1
y
y(0)
0
Noteer Lx = X, Ly = Y , dan is Lẋ = sX − 1, Lẏ = sY . Laplacetransformatie van het stelsel geeft
!
!
!
!
X
−1
1 −2
X
s
+
=
,
Y
0
5 −1
Y
!
!
!
1−s
−2
X
−1
=
.
5
−1 − s
Y
0
3.2 Laplace-transformaties
103
Oplossen van dit stelsel gewone lineaire vergelijkingen (m.b.v. Regel van
Cramer ??) geeft
s+1
5
X= 2
,Y = 2
.
s +9
s +9
Terugtransformeren levert
x(t) = cos(3t) +
1
sin(3t),
3
y(t) =
5
sin(3t).
3
Ook hier geldt dat gebruik van de Laplace-transformatie bij het oplossen
van dit stelsel niet sneller is dan de methode uit de vorige paragraaf.
3.2.28 Tot slot van deze paragraaf bespreken we de convolutiestelling van de Laplacetransformatie. Deze stelling gaat over het transformeren van producten van
functies. Het is niet zo dat de Laplace-getransformeerde van een product
het product van de Laplace-getransformeerde is (als dat waar was, dan zou
gelden
1
1
= L(1) = L(1 · 1) = L1 · L1 = 2
s
s
en dat is niet zo), maar er geldt wel een fraaie stelling.
3.2.29 Definitie. Laat f en g twee functies zijn gedefinieerd op [0, ∞). Het convolutieproduct f ∗ g is de functie voor iedere t ≥ 0 gedefinieerd door
(f ∗ g)(t) =
Zt
f (u) g(t − u) du .
0
N.B. Er bestaat ook bij Fourier-transformaties een convolutieproduct, maar
dat wordt anders gedefinieerd!
3.2.30 Uit deze definitie volgt vrij eenvoudig dat het convolutieproduct een aantal
eigenschappen gemeenschappelijk heeft met het gewone product. Er geldt
bijvoorbeeld
f ∗g
= g ∗ f,
f ∗ (g ∗ h) = (f ∗ g) ∗ h,
f ∗ (g + h) = f ∗ g + f ∗ h.
Maar sommige “gewone” eigenschappen gelden niet. We zouden verwachten
dat 1 ∗ 1 = 1, maar we vinden
(1 ∗ 1)(t) =
Zt
0
1 · 1 du = t .
104
Differentiaalvergelijkingen
De convolutiestelling zegt dat de Laplace-transformatie een convolutieproduct (in het t-domein) overvoert in een gewoon product (in het s-domein):
3.2.31 Stelling. (Convolutiestelling) Tussen de Laplace–getransformeerden van
f , g en f ∗ g geldt de volgende betrekking:
L(f ∗ g)(s) = Lf (s) Lg(s) .
Bewijs.
L(f ∗ g)(s) =
Z∞
−st
e
dt
0
Zt
0
f (u) g(t − u) du .
Deze herhaalde integraal is een oppervlakte-integraal over het gebied G in
het t-u vlak bepaald door 0 ≤ u ≤ t. Verwisselen we de integratievolgorde,
dan vinden we
L(f ∗ g)(s) =
=
Z∞
du
f (u) g(t − u) e−st dt =
u
0
Z∞
Z∞
−us
f (u) e
du
Z∞
u
0
g(t − u) e−s(t−u) dt .
Substitueer in de eerste (rechter) integraal t − u = v. Dan vinden we
L(f ∗ g)(s) =
Z∞
−us
f (u) e
du
0
Z∞
0
g(v) e−sv dv = Lf (s) Lg(s) .
3.2.32 Voorbeeld. Van de functie f is gegeven dat
Lf (s) =
(s2
1
.
+ 1)2
Omdat de Laplace-getransformeerde van sin(t) gelijk is aan (s2 + 1)−1 , volgt
3.3 Tabel Laplace–transformaties
105
hieruit dat
f (t) = (sin ∗ sin)(t) =
0
sin(u) sin(t − u) du
1
2
Zt
(cos(2u − t) − cos t) du
=
1
4
cos(2u − t) d(2u − t) − 12 t cos t
=
1
2
Zt
=
0
3.3
Zt
0
sin(t) − 12 t cos(t) .
Tabel Laplace–transformaties
F (s) := (Lf )(s) :=
R∞
0
e−st f (t) dt,
(Lf (n) )(s) = sn (Lf )(s) − sn−1 f (0) − sn−2 f ′ (0) − · · · − f (n−1) (0).
a ∈ C, b ∈ R
f (t)
F (s)
convergentie-abscis
eat
(s − a)−1
tn /n!
s−n−1
tn eat /n!
(s − a)−n−1
Re(a)
cos(bt)
(s2 + b2 )−1 s
0
sin(bt)
(s2 + b2 )−1 b
0
eat cos(bt)
((s − a)2 + b2 )−1 (s − a)
Re(a)
eat sin(bt)
((s − a)2 + b2 )−1 b
Re(a)
Re(a)
0
106
3.4
Signaal–
verwerking
Functie–
theorie
Quantum–
mechanica
Differentiaalvergelijkingen
Aantekeningen
Stelsels differentiaalvergelijkingen beschrijven situaties waarin meerdere grootheden elkaar beı̈nvloeden. In de context van stelsels differentiaalvergelijkingen zijn
eigenwaarden en eigenvectoren ingevoerd om zo’n stelsel te ontkoppelen.
De Laplace–transformatie gaat terug op P.S. Laplace (1749–1827). Er is ook
een andere transformatie met een vergelijkbare definitie, de Fourier–transformatie,
van nut in de signaalanalyse. Strikte bewijzen van de eigenschappen van deze
transformaties behoren tot het terrein van de complexe functietheorie. Dergelijke
transformaties spelen ook een belangrijke rol in de quantummechanica bij complementaire grootheden zoals plaats en impuls.
3.5
Opgaven
§1
1
Los de volgende stelsels lineaire differentiaalvergelijkingen
′
f1
x1
x1
,
+
=A
f2
x2
x2
op, waarbij x = x(t) eventueel nog voldoet aan een gegeven voorwaarde.
5 −6
′
a. x =
x,
3 −4
3
5 −6
′
,
x, x(0) =
b. x =
2
3 −4
8
5 −6
c. x′ =
et ,
x+
7
3 −4
5 −6
0
x+
d. x′ =
e−t ,
3 −4
1
cos t
5 −6
.
x+
e. x′ =
sin t
3 −4
2
Los de volgende stelsels lineaire differentiaalvergelijkingen
x′ = Ax + f ,
op, waarbij x = x(t) eventueel nog voldoet aan een gegeven voorwaarde.
3.5 Opgaven
107
a. x′ =
1 1
2 2
b.
x′
=
1 −2
5 3
x,
c.
x′
=
1 −2
1 −1
x,
d.
x′
=
1 −2
1 −1
x+
x+
1
5
,
4
1
et ,
x(0) =
7
5
,
−1 1
e.
=
x, limt→∞ x(t) = 0,
1 −1
2 −4
′
f. x =
x,
1 6
2
0
2 −4
′
, x(0) =
.
x+
g. x =
−7
1
1 6
x′
3
4
Bepaal de oplossingen van de volgende stelsels lineaire differentiaalvergelijkingen.
1 1
1 2
′
a.
x =
x,
−2 1
8 3 1 0
1 2
x,
b.
x′ =
3
1
3 5 5
1 2
1 1
et .
x+
c.
x′ =
4
2 3
1 1
Los de volgende stelsels lineaire differentiaalvergelijkingen
x′ = Ax + f ,
op, waarbij x = x(t) eventueel nog voldoet aan een gegeven voorwaarde.


1 −1 −1
a. x′ =  −2 2 −1  x,
2
0
3


2 1 1
′

1 2 1  x,
b. x =
1 1 2
108
c. x′
d. x′
e. x′
f.
x′
g. x′
Differentiaalvergelijkingen


 
 
2 1 1
1
0
=  1 2 1  x +  2  e4t , x(0) = 13  1 ,
1 1 2
3
2



 

2 1 1
2
1
=  1 2 1  x + ( −1  −  1  t)e2t ,
1 1 2
0
−2


1 1 1
=  0 1 −1  x,
2 6 −2
 
 


2
1
8
0 −5
1
3t




1 e , x(0) =
3 ,
−4 6
1
=3
x+
1
1
−1 −3 7






4 cos 2t + 3 sin 2t
−1
8
0 −5
1  x+  −3 cos 2t − sin 2t , x(0) =  1 .
= 31  −4 6
0
−1
−1 −3 7
§2
5
Bepaal de Laplace-getransformeerden van de volgende functies f : [0, ∞) →
C.
a. e2t (1 + t3 et + cos 2t + e3t sin 4t),
b. cos2 t,
c. sin t cos t,
d. eit cos t,
(−1+i)t
e. e
cos t,
f. e(−1+i)t/2 cos(t/2).
6
Bepaal de functies f : [0, ∞) → R bij de volgende Laplace-getransformeerden:
s
s2 + 9
a. F (s) =
,
b.
F
(s)
=
,
(s + 1)2
s(s2 + 4s + 3)
1
s−1
,
d. F (s) = 3
,
c. F (s) = 2
(s + 9)(s + 4)
s + 4s2 + 8s
s2
e. F (s) = 2
.
(s − 1)2
7
Bepaal met behulp van Laplace-transformatie van elk van de volgende (stelsels) differentiaalvergelijkingen de oplossing die voldoet aan de gegeven voorwaarden.
a. ẍ + x = tet ,
x(0) = ẋ(0) = 0,
3.5 Opgaven
b. ẍ + x = sin t,
109
x(0) = ẋ(0) = 0,
c. ẍ + 3ẋ = 1 + 3t,
x(0) = 1,
d. ẍ − 6ẋ + 9x = t12 e3t ,
ẋ(0) = 3,
x(0) = 2,
ẋ(0) = 11,
e. ẍ − x = f (t), met f (t) = t als 0 ≤ t ≤ 1 en f (t) = 0 als t > 1, en
beginvoorwaarden x(0) = ẋ(0) = 0,
5
3
1
1
f. ẋ =
x+
, x(0) =
,
−6 −4
1
1
1 1
2
1
3t
g. ẋ =
x+
e , x(0) =
,
2 2
7
3
1 1
cos t + 3 sin t
0
x+
, x(0) =
,
h. ẋ =
2 2
− cos t − 3 sin t
0
√ 7 −2
2
−4√ 2
i. ẍ =
x, x(0) =
, ẋ(0) =
,
−2 4
−1
2 2
1 −5
0
1
j. ẍ =
x, x(0) =
, ẋ(0) =
,
2 −6
0
1




1 −1 −1
1
k. ẋ =  −2 2 −1  x, x(0) =  2  ,
2
0
3
−2

 
 

2 1 1
1
3
t





1 2 1 x − 3 1 e , x(0) =
0 .
l. ẋ =
1 1 2
1
0
3.5.1
Oefenen op tentamenniveau
8
Bepaal de reële oplossing van het stelsel differentiaalvergelijkingen
1 −1
3
0
′
t
x+
e met x(0) =
.
x =
2 −1
2
0
9
Bepaal alle oplossingen van het stelsel differentiaalvergelijkingen
5
2 2
′
x =
e4t .
x+
0
3 1
110
10
Differentiaalvergelijkingen
a. Bepaal alle oplossingen van het stelsel differentiaalvergelijkingen
0 −2
3
′
x =
x+
et .
1 3
0
b. Bepaal de Laplace–getransformeerde van cos3 (t) (t ≥ 0).
Bibliografie
[1] Carl B. Boyer. A history of mathematics. John Wiley & Sons, Inc., New
York, (1989, 2nd edition with Uta C. Merzback)
[2] Bruce Cooperstein. Elementary Linear Algebra: Methods, Procedures and Algorithms. In eigen beheer uitgegeven door de auteur; te
verkrijgen via ‘lulu’. Zoals de titel al suggereert: dit boek bevat beschrijvingen van rekentechnieken voorzien van voorbeelden. Zie
http://linearalgebramethods.com voor meer informatie. Het is geen boek
voor de theorie. Maar zeer geschikt vanwege de voorbeelden.
[3] Jan van de Craats. Vectoren en matrices. Epsilon Uitgaven, Utrecht
(2000).
Dit boek overlapt voor een deel met de bij het college besproken stof.
De auteur zegt het soms net wat anders.
[4] David C. Lay. Linear algebra and its applications. Pearson/Addison Wesley, Boston, etc. (2006, 3rd ed. update)
Prettig leesbaar boek uit de Amerikaanse hoek. Bevat veel opgaven.
[5] Paul Halmos. Finite–dimensional vector spaces. Van Nostrand (1958)
Boek met nadruk op de abstracte theorie van vectorruimten.
[6] Murray R. Spiegel. Theory and problems of complex variables. Schaum’s
Outline Series, McGraw-Hill (1974)
[7] Hans Sterk. Wat? Nog meer getallen. Syllabus complexe getallen ten
behoeve van Wiskunde D. Zie http://www.win.tue.nl/wiskunded
[8] Gilbert Strang. Linear algebra and its applications. Harcourt Brace etc.,
San Diego (1988, 3rd edition)
111
112
BIBLIOGRAFIE
Enthousiast en helder geschreven tekst over lineaire algebra waarin matrices centraal staan. In tegenstelling tot het boek van Halmos juist geen
‘abstracte’ opbouw in dit boek.
Index
afhankelijk stelsel, 103
afhankelijk zijn van, 99
afstand, 47, 152
basis, 43, 106
coördinaatvector, 43, 110
coördinaten, 43, 110
complex getal, 1
absolute waarde, 3
argument, 3
hoofdwaarde, 3
delen door, 6
geconjugeerde van, 6
imaginair deel, 4
optelling, 2
reële deel, 4
vermenigvuldiging, 2
complex polynoom, 13
coëfficiënten, 13
graad, 13
complexe e–macht, 9
complexe cosinus, 11
complexe sinus, 11
complexe veelterm, 13
driehoeksongelijkheid, 4, 154
Gauss–eliminatie, 76
Gram-Schmidt procedure, 164
hoek, 156
Hoofdstelling van de algebra, 16
hoogtepunt, 23
imaginaire as, 1
inproduct, 47, 150, 151
inproductruimte, 151
kwadraat afsplitsen, 17
lengte, 47, 152
lineaire combinatie, 39, 99
lineaire deelruimte, 92
lineaire ruimte, 90
loodrecht, 156
matrix, 67
eenheidsmatrix, 71
elementen van, 68
getransponeerde, 72
inverse van, 71
kolommen van, 67
decompositie
kolommenruimte, 123
QR-decompositie, 170
matrixproduct, 69
determinant, 129, 132
normaalvorm, 74, 75
ontwikkelen naar een kolom, 137
nulmatrix, 71
ontwikkelen naar een rij, 137
ondermatrix, 136
determinantfunctie, 131
optelling, 68
rang, 125
dimensie, 106
113
114
rijen van, 67
rijenruimte, 123
rijgereduceerde vorm, 74, 75
scalaire vermenigvuldiging, 69
tegengestelde, 71
vierkante, 70
multipliciteit, 16
negenpuntscirkel, 22, 24
niet–triviale relatie, 103
norm, 152
normaalvector, 51
nulrij, 76
nulvector, 36
omgeschreven cirkel, 22
onafhankelijk stelsel, 103
opgespannen ruimte, 99
opspansel, 99
orthonormaal stelsel vectoren, 160
orthonormale basis, 49, 160
orthoplement, 158
parametervoorstelling, 40, 96
permutatie, 133
polynoomvergelijking, 13
poolcoördinaten, 3
projectie
loodrechte, 162
Pythagoras
Stelling van, 51
reële as, 1
rechte, 95
parametervoorstelling, 40, 95
richtingsvector, 40, 95
steunvector, 40, 95
vectorvoorstelling, 40
regel van Cramer, 141
rijreductie, 73
INDEX
Sarrus, regel van, 135
scalaire vermenigvuldiging, 36, 89
scalar, 36
standaardbasis, 107
standaardinproduct, 50, 151
stelsel lineaire vergelijkingen, 77
aangevulde matrix, 78
coëfficiëntenmatrix, 77
homogeen, 77
inhomogeen, 77
oplossing van, 77
rechterlid, 77
strijdig, 78
uitproduct, 53
vector, 35, 90
scalair veelvoud, 36
tegengestelde, 36
vectoroptelling, 37
vectorruimte, 90
axioma’s, 90
basis, 106
basis van
standaardbasis, 107
complexe, 90
dimensie van, 106
genormeerde, 156
reële, 90
vectorvoorstelling, 40
vegen, 73
vlak, 96
parametervoorstelling, 96
richtingsvectoren, 96
steunvector, 96
zwaartepunt, 23
Download