Hoofdstuk 3 Vectorruimten en lineaire afbeeldingen

advertisement
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
tussen vectorruimten
3.1
R
Vectorruimte : definitie en voorbeelden
DEFINITIE 3.1
vectorruimte
Een vectorruimte of lineaire ruimte over een veld F is een structuur die
bestaat uit een commutatieve groep (V, +) samen met een scalaire vermenig–
vuldiging (dit is een afbeelding van F × V → V ) waarvoor voldaan is aan :
(i) (rs)~v = r(s ~v ) voor alle r, s ∈ F en alle ~v ∈ V
(ii) (r + s)~v = r ~v + s ~v voor alle r, s ∈ F en alle ~v ∈ V
(iii) r(~v + w)
~ = r ~v + r w
~ voor alle r ∈ F en alle ~v , w
~ ∈V
(iv) 1 ~v = ~v voor alle ~v ∈ V
Een niet–ledige verzameling V wordt dus gestructureerd tot een vectorruimte wanneer zij is voorzien van twee bewerkingen : een inwendige bewerking (optelling genoemd) die aan V de structuur geeft van een commutatieve groep1 en een uitwendige
bewerking (scalaire vermenigvuldiging genoemd) die aan een aantal voorwaarden
moet voldoen.
De elementen van V worden vectoren genoemd, terwijl de elementen van het veld
F scalairen worden genoemd.
In dit boek beperken we ons meestal tot het veld R van de reële getallen of tot het
veld C van de complexe getallen.
1
Een groep (V, +) bestaat uit een niet–ledige verzameling V voorzien van een bewerking + die inwendig
(~v + w
~ ∈ V voor elke ~v , w
~ ∈ V ) en associatief is (~u + (~v + w)
~ = (~u + ~v ) + w)
~ en waarin een nulelement
bestaat (~o + ~v = ~v + ~o = ~v voor elke ~v ) en waarin ieder element een tegengesteld element bezit :
~v + (−~v ) = (−~v ) + ~v = ~o. De groep (V, +) is commutatief of abels als ~v + w
~ =w
~ + ~v voor alle ~v , w
~ ∈V.
3–1
3–2
Vectorruimten en lineaire afbeeldingen
Naargelang het veld waartoe de scalairen behoren het veld van de reële of de complexe getallen is, spreken we van een reële of een complexe vectorruimte.
Wanneer geen verwarring mogelijk is, spreekt men meestal over “de vectorruimte
V ” zonder het veld van de scalairen expliciet te vermelden.
Uit de definitie kan men onmiddellijk volgende eigenschappen afleiden :
r ~o = ~o, 0 ~v = ~o en (−r) ~v = −(r ~v ) = r (−~v ) voor elke r ∈ F en voor elke ~v ∈ V
De eerste axiomatische definitie van een vectorruimte of lineaire ruimte werd gegeven door de Italiaanse wiskundige Giuseppe Peano.
Figuur 3.1: Giuseppe Peano (1858–1932)
Beschouw de verzameling van de meetkundige2 vectoren in het euclidisch vlak of
in de driedimensionale euclidische ruimte. Deze vectoren kunnen worden opgeteld
(parallellogramregel) en ze vormen een groep vormen voor de optelling. Daarnaast
kunnen meetkundige vectoren worden vermenigvuldigd met reële getallen waarbij
voldaan is aan de voorwaarden (i) t.e.m. (iv) uit de definitie hierboven.
De verzameling van de meetkundige vectoren van het vlak of de ruimte kan dus
worden gestructureerd tot een reële vectorruimte.
(Abstracte) vectorruimten zijn eigenlijk een veralgemening van het modelvoorbeeld
van de vectorruimte der meetkundige vectoren. De elementen van een abstracte vectorruimte hoeven echter geen meetkundige interpretatie meer te bezitten en kunnen
allerhande objecten zijn (functies, veeltermen, n–tallen, getallenrijen, matrices, . . .)
die we echter ook vectoren blijven noemen in de context van vectorruimten.
2
Een meetkundige vector wordt meestal gedefinieerd als een georiënteerd lijnstuk
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3–3
voorbeeld 1 :
Is Fn = {(x1 , x2 , . . . , xn ) | xi ∈ F} de verzameling van de geordende n−tallen (met
F = R of C) en definieert men een optelling en een vermenigvuldiging met scalairen
componentsgewijze (x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn )
en r (x1 , x2 , . . . , xn ) = (rx1 , rx2 , . . . , rxn )
Men gaat gemakkelijk na dat Fn zo gestructureerd wordt tot een reële (resp. complexe) vectorruimte.
voorbeeld 2 :
Beschouw de verzameling M at(m, n, F) van de m × n−matrices met elementen in F.
Deze kan gestructureerd worden tot een reële of complexe vectorruimte (met de
matrixoptelling en de vermenigvuldiging van een matrix met een reëel of complex
getal zoals gedefinieerd in hoofdstuk 2).
De vectoren van deze vectorruimte zijn dus matrices.
voorbeeld 3 :
Beschouw de verzameling F([a, b], R) van de reëelwaardige functies die gedefinieerd
zijn over het gesloten interval [a, b].
Deze kan gestructureerd worden tot een reële vectorruimte als men een optelling en
vermenigvulding met scalairen puntsgewijze definieert, d.i. (f + g)(x) = f (x) + g(x)
en (rf )(x) = rf (x)
De vectoren van deze vectorruimte zijn dus functies.
voorbeeld 4 :
Beschouw de verzameling R[x] (resp. C[x]) van de veeltermen met reële (resp. complexe) coëfficiënten. Voorzien van de gebruikelijke optelling en vermenigvuldiging
met een scalair, vormt deze verzameling een reële (resp. complexe) vectorruimte.
De vectoren zijn hier dus veeltermen.
Op dezelfde wijze kan men de vectorruimten Rn [x] (resp. Cn [x]) van de veeltermen
met reële (resp. complexe) coëfficiënten en met graad kleiner dan of gelijk aan n
beschouwen.
voorbeeld 5 :
Beschouw de verzameling van de reële getallenrijen (ui )i∈N voorzien van termsgewijze
optelling (ui )i∈N + (vi )i∈N = (ui + vi )i∈N en scalaire vermenigvuldiging r (ui )i∈N =
(r ui )i∈N .
Deze vormt een reële vectorruimte. De vectoren zijn hier dus getallenrijen.
Hoofdstuk 3
• Algebra voor ingenieurs •
3–4
3.2
Vectorruimten en lineaire afbeeldingen
Deelruimte van een vectorruimte
Zij V een vectorruimte over F.
Is W een deelverzameling van V en vormt W zelf een vectorruimte voor de restricties
van de optelling van vectoren en de vermenigvuldiging met scalairen, dan noemt
men W een deelruimte of deelvectorruimte van V.
Voor elke vectorruimte V vormen in het bijzonder {~o} en V zelf deelruimten van V .
Men noemt {~o} de nulruimte of de triviale deelruimte.
Elke deelruimte van V verschillend van de nulruimte en verschillend van V noemt
men een echte deelruimte van V .
We noteren : W ≺ V als W deelruimte is van V (i.p.v. W ⊂ V voor deelverzameling).
Merk op dat een nodige voorwaarde opdat een deelverzameling W van V deelruimte
zou kunnen zijn, is dat de nulvector ~o tot W behoort.
Voorbeelden van deelruimten :
1. De ruimte Sym(n, R) van de symmetrische n×n–matrices vormt een deelruimte
van de vectorruimte M at(n, R) van de n × n–matrices.
2. De ruimte C0 ([a, b], R) van de continue functies gedefinieerd over het interval
[a, b] vormt een deelruimte van de vectorruimte F([a, b], R) van alle reëelwaardige
functies gedefinieerd over [a, b]
3. De ruimte Rn [x] van reële veeltermen met graad hoogstens gelijk aan n vormt
voor elk van nul verschillend natuurlijk getal n een deelruimte van de vectorruimte R[x] van de reële veeltermen van om het even welke graad.
4. De ruimte van de convergente reële getallenrijen is een deelruimte van de
vectorruimte van de reële getallenrijen.
Om na te gaan of een niet–ledige deelverzameling W van een vectorruimte V een
deelruimte vormt van V , is het niet nodig om al de axioma’s van vectorruimte na
te gaan voor W . Men beschikt immers over volgend criterium :
¥ STELLING 3.1
criterium voor deelruimte
Een niet–ledige deelverzameling W van V vormt een deelruimte van V als en slechts
als r w
~1 + w
~ 2 ∈ W voor elke r ∈ F en elke w
~ 1, w
~2 ∈ W .
De niet–ledige deelverzamelingen van een vectorruimte die gesloten zijn onder de
vectoroptelling en onder de vermenigvuldiging met scalairen, vormen dus de deelruimten van die vectorruimte.
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3–5
Opmerking : de voorwaarde van niet–ledigheid kan worden vervangen door te eisen
dat de nulvector ~o tot de verzameling behoort.
voorbeeld 1 : oplossingsruimte van een homogeen lineair stelsel
De verzameling van alle oplossingen van een homogeen lineair stelsel AX = 0 met
m vergelijkingen en n onbekenden is niet–ledig vermits zo’n stelsel steeds de nuloplossing bezit.
Verder ziet men gemakkelijk in dat een som van twee oplossingen ook een oplossing
is en dat elk reëel veelvoud van een oplossing ook een oplossing is (een gevolg van
de lineariteit van de vergelijkingen in het stelsel).
De oplossingsruimte van zo’n stelsel vormt dus een deelruimte van de vectorruimte
Rn van de reële n–tallen.
voorbeeld 2 : oplossingsruimte van een homogene lineaire differentiaalvergelijking
Beschouw een homogene (= gereduceerde) lineaire differentiaalvergelijking van de
n–de orde met constante coëfficiënten y (n) + an−1 y (n−1) + . . . + a1 y 0 + a0 y = 0 met
onbekende y = y(x).
Uit de lineariteit van deze DV volgt dat de som van elke twee oplossingen over een
interval I opnieuw een oplossing is en dat elk reëel veelvoud van een oplossing ook
een oplossing is.
De verzameling van alle oplossingen van deze differentiaalvergelijking over een interval I vormt dus een deelruimte (oplossingsruimte) van de vectorruimte van de
continue I − R–functies.
Hoofdstuk 3
• Algebra voor ingenieurs •
3–6
3.3
Vectorruimten en lineaire afbeeldingen
Voortbrengende verzamelingen
Zij V een vectorruimte en zij ~v1 , ~v2 , . . . , ~vk vectoren van V.
Dan noemt men elke vector ~v =
k
P
ri~vi = r1~v1 + r2~v2 + · · · + rk~vk een lineaire com-
i=1
binatie van de vectoren ~v1 , ~v2 , . . . , ~vk .
Is D een niet–ledige deelverzameling van V , dan noteert men met span D de verzameling van alle mogelijke lineaire combinaties van vectoren uit D.
¥ STELLING 3.2
deelruimte voortgebracht door een verzameling
De verzameling span D van alle lineaire combinaties van vectoren uit D ⊂ V vormt
een deelruimte van V .
Bovendien is span D de kleinste deelruimte van V die de verzameling D omvat.
bewijs :
span D bevat de nulvector en voldoet aan het criterium voor deelruimte.
Zij W een deelruimte van V die D omvat. We moeten aantonen dat span D ⊂ W .
Is ~v een vector van span D, dan is ~v een lineaire combinatie van vectoren uit D, dus
van vectoren uit W (vermits D ⊂ W ). Omdat W een deelruimte is, behoort ~v dus
tot W waarmee de stelling is aangetoond. ¤
Men noemt span D de deelruimte voortgebracht door D of de deelruimte opgespannen door de vectoren van D.
voorbeeld 1 :
Beschouw de (meetkundige) vectoren ~v1 = ~1x = (1, 0, 0) en ~v2 = ~1y = (0, 1, 0) in de
driedimensionale euclidische ruimte.
Dan is span {v~1 , ~v2 } = {x ~1x + y ~1y | x, y ∈ R} = {(x, y, 0) | x, y ∈ R}.
M.a.w. de deelruimte opgespannen door deze twee vectoren is een vectorvlak.
voorbeeld 2 :
Beschouw de veeltermen 1, x, x − 1 en 1 − x2 uit de vectorruimte R2 [x].
Dan is span {1, x, x − 1, 1 − x2 } = {a + bx + c(x − 1) + d(1 − x2 ) | a, b, c, d ∈ R} =
{a − c + d + (b + c)x − dx2 | a, b, c, d ∈ R} = R2 [x].
M.a.w. deze vier veeltermen spannen de volledige vectorruimte op.
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
R
DEFINITIE 3.2
3–7
voortbrengende verzameling vectoren
Een verzameling D van vectoren uit V heet een voortbrengende verzameling
voor V a.s.a. span D = V .
Een vectorruimte heet eindig–dimensionaal als er een eindige voortbrengende
verzameling voor V bestaat.
Een vectorruimte die niet eindig–dimensionaal is, heet oneindig–dimensionaal.
Is D een voortbrengende verzameling voor V dan is dus elke vector van V te schrijven
(niet noodzakelijk op unieke wijze) als een lineaire combinatie van vectoren uit D.
De vectorruimten Rn [x], M at(m, n, R) en Rn zijn voorbeelden van eindig–dimensionale
reële vectorruimten.
De vectorruimten R[x] en F([a, b], R) zijn voorbeelden van oneindig–dimensionale
vectorruimten.
3.4
Lineair onafhankelijke verzamelingen
R
DEFINITIE 3.3
lineair (on)afhankelijke verzameling vectoren
Een eindig stel vectoren {~v1 , ~v2 , . . . , ~vk } van V heet lineair onafhankelijk of vrij
als en slechts als elke vergelijking r1~v1 + r2~v2 + · · · + rk~vk = ~o impliceert dat
r1 = r2 = · · · = rk = 0.
Een verzameling S ⊂ V wordt lineair onafhankelijk of vrij genoemd als elk eindig
stel vectoren uit S lineair onafhankelijk is.
Een verzameling vectoren {~v1 , ~v2 , . . . , ~vk } van V heet lineair afhankelijk
als en slechts als er scalairen r1 , r2 , . . . , rk kunnen gevonden worden waarvan er
minstens één verschillend is van nul, en waarvoor r1~v1 + r2~v2 + · · · + rk~vk = ~o
Eigenschappen :
• Een verzameling vectoren waartoe de nulvector behoort, is steeds lineair af-
hankelijk.
• Een verzameling die slechts één vector bevat, is lineair onafhankelijk als en
slechts als die vector niet de nulvector is.
• Een verzameling vectoren is lineair afhankelijk indien minstens één vector
ervan kan geschreven worden als lineaire combinatie van de overige vectoren.
In het bijzonder is een verzameling met slechts twee vectoren lineair afhankelijk
als en slechts als één van de vectoren een veelvoud is van de andere.
Hoofdstuk 3
• Algebra voor ingenieurs •
3–8
Vectorruimten en lineaire afbeeldingen
voorbeeld 1 :
Ga na of {(1, 1), (1, 2), (0, 2)} een lineair onafhankelijke verzameling is van R2 .
Stel r1 (1, 1) + r2 (1, 2) + r3 (0, 2) = (0, 0), dus (r1 + r2 , r1 + 2r2 + 2r3 ) = (0, 0).
Dus moet r1 + r2 = 0 en r1 + 2r2 + 2r3 = 0.
Aan beide voorwaarden is voldaan van zodra r2 = −r1 en r3 =
kiezen.
De verzameling is dus lineair afhankelijk.
1
2
r1 met r1 vrij te
voorbeeld 2 :
Ga na of {sin, cos} een lineair onafhankelijke verzameling is van F(R, R).
Stel r1 sin +r2 cos = 0 waarbij het rechterlid de R–R nulfunctie voorstelt.
Dus r1 sin x + r2 cos x = 0 voor elke x ∈ R.
In het bijzonder bekomt men hieruit voor x = 0 dat r2 = 0 en voor x = π2 dat r1 = 0.
De sinus– en de cosinusfunctie zijn dus lineair onafhankelijke functies (lineair onafhankelijke vectoren van de functieruimte waartoe ze behoren).
De volgende stelling toont dat men lineair onafhankelijke verzamelingen kan uitbreiden door het toevoegen van vectoren die geen lineaire combinatie zijn van de
reeds aanwezige vectoren.
¥ STELLING 3.3
uitbreiding van een vrij deel
Zij S een vrije deelverzameling van V en zij ~v ∈ V \ span S . Dan is S ∪ {~v } ook een
vrije deelverzameling van V
bewijs :
Kies een eindig aantal vectoren ~v1 , ~v2 , . . . , v~k , ~v uit S ∪ {~v } en stel dat er scalairen
λ1 , . . . , λk , λk+1 bestaan waarvoor λ1 ~v1 + . . . + λk ~vk + λk+1 ~v = ~o.
Als λk+1 6= 0 dan volgt daaruit dat ~v =
1
λk+1
(−λ1 ~v1 − . . . − λk ~vk ) en dus ~v ∈ span S
in strijd met het gegeven.
Bijgevolg moet λk+1 = 0 en dan wordt de onderstelling uit het begin van het bewijs :
λ1 ~v1 + . . . + λk ~vk = ~o waaruit λ1 = . . . = λk = 0 omdat S een vrij deel is.
We hebben dus aangetoond dat alle λ’s gelijk zijn aan nul wat betekent dat S ∪ {~v }
een vrije deelverzameling is van V . ¤
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3–9
De nu volgende stelling is cruciaal om het begrip dimensie van een eindig–dimensionale
vectorruimte goed te kunnen definiëren.
¥ STELLING 3.4
hulpstelling voor invoeren van dimensie
Zij T = {~u1 , ~u2 , . . . , ~um } een voortbrengende deelverzameling van V en zij
S = {~v1 , ~v2 , . . . , ~vk } een vrije deelverzameling van V . Dan is k ≤ m.
M.a.w. een vrije deelverzameling van V bevat hoogstens evenveel elementen als een
voortbrengende deelverzameling van V
bewijs :
Zij T = {~u1 , ~u2 , . . . , ~um } een voortbrengend deel van V , dus span T = V en zij
S = {~v1 , ~v2 , . . . , ~vk } een vrij deel V met k > m.
Omdat T voortbrengend is, is ~v1 = λ1 ~u1 + . . . λm ~um waarbij minstens één van de
scalairen λi verschillend is van nul (anders zou ~v1 = ~o, in strijd met S vrij).
Zonder de algemeenheid te schaden kunnen we onderstellen dat λ1 6= 0.
1
(~v1 − λ2 ~u2 − . . . − λm ~um ).
λ1
Dan is ook de verzameling T (1) = {~v1 , u~2 , . . . , ~um } voortbrengend.
Bijgevolg is ~u1 =
Herhalen we nu bovenstaande redenering met ~v2 ∈ S en met T (1) dan bekomen we
dat ook T (2) = {~v1 , ~v2 , ~u3 , . . . , ~um } voortbrengend is.
Zo verder gaand bekomen we na een eindig aantal stappen dat de verzameling
T (m) = {~v1 , ~v2 , . . . , ~vm } voortbrengend is.
Bijgevolg is de vector ~vm+1 uit S een lineaire combinatie van ~v1 t.e.m. ~vm , in tegenspraak met de onderstelling dat S vrij is.
Hieruit volgt het gestelde. ¤
3.5
R
Basis en dimensie van een vectorruimte
DEFINITIE 3.4
basis van een vectorruimte
Een deelverzameling B van V wordt een basis van V genoemd als geldt :
(i) B is een lineair onafhankelijke deelverzameling
(ii) V wordt voortgebracht door B , dus span B = V
Hoofdstuk 3
• Algebra voor ingenieurs •
3–10
Vectorruimten en lineaire afbeeldingen
De volgende stelling garandeert het bestaan van een basis van een eindig–dimensionale
vectorruimte.
¥ STELLING 3.5
bestaan basis eindig–dimensionale vectorruimte
Is S een vrij deel en T een eindig voortbrengend deel van V met S ⊆ T , dan bestaat
er een basis B voor V met S ⊆ B ⊆ T
bewijs :
Is T ⊂ span S dan is S ook voortbrengend. Kies in dat geval B = S .
Als echter T \ span S 6= ∅, kies dan v~1 ∈ T \ span S . Wegens stelling 3.3 is dan
S1 = S ∪ {~v1 } vrij en S1 ⊂ T .
Is T ⊂ span S1 dan is S1 ook voortbrengend en dan kiezen we B = S1 .
Zoniet beschouwen we een vector ~v2 in T \ span S1 en we stellen S2 = S1 ∪ {~v2 }.
Zo verdergaand bekomen we na een eindig aantal stappen een vrij deel Sk met
S ⊂ Sk ⊂ T dat ook voortbrengend is. We kiezen dan B = Sk . ¤
Opmerkingen :
1. De stelling geldt ook voor oneindig–dimensionale vectorruimten (het bewijs
steunt dan wel op het keuzeaxioma).
2. De procedure die in bovenstaand bewijs werd gevolgd om een basis te bekomen,
staat gekend onder de benaming selectie van een maximaal S –omvattend vrij
deel uit het voortbrengend deel T .
Gevolgen van stelling 3.4 en 3.5 :
1. Elk vrij deel van een eindig–dimensionale vectorruimte kan uitgebreid worden
tot een basis.
(pas stelling 3.5 toe met S ⊂ S ∪ T waarbij T een eindig voortbrengend deel
is voor V )
2. Uit elk voortbrengend deel van een eindig–dimensionale vectorruimte kan een
basis geselecteerd worden.
(pas stelling 3.5 toe met S = ∅ ⊂ T )
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3–11
3. Elke eindig–dimensionale vectorruimte V bezit steeds een basis.
(per definitie bezit een eindig–dimensionale vectorruimte een eindige voortbrengende verzameling waaruit met gevolg 2 een basis kan worden geselecteerd)
4. Is V een eindig–dimensionale vectorruimte, dan bevat elke basis van V evenveel
elementen.
(immers : Zij B = {~e1 , ~e2 , . . . , ~en } een basis voor V en onderstel dat ook B 0 =
{~e01 , ~e02 , . . . , ~e0m } een basis is voor V.
Dan is wegens stelling 3.4 m ≤ n want B 0 is vrij en B is voortbrengend.
Anderzijds is ook n ≤ m want B is vrij en B 0 is voortbrengend. Bijgevolg is
m = n.)
Wegens gevolg 4 is het aantal elementen in een basis van een eindig–dimensionale
vectorruimte dus een welbepaald getal. Dat leidt tot volgende definitie :
R
DEFINITIE 3.5
dimensie van een vectorruimte
Is V een eindig–dimensionale vectorruimte met een basis B die n elementen telt,
dan noemt men n de dimensie van V , notatie : dim V = n
Opmerking :
De nulruimte V = {~o} wordt per definitie voortgebracht door de ledige verzameling
en deze vectorruimte heeft dimensie 0.
Wanneer de dimensie van een vectorruimte gekend is, dan wordt het vinden van
een basis ervan vergemakkelijkt door stelling 3.6 die we hieronder formuleren en
bewijzen. Deze stelling zegt dat het voor een verzameling die het gepast aantal
vectoren bevat, volstaat om ofwel aan te tonen dat ze lineair onafhankelijk is ofwel
dat ze voortbrengend is, om te mogen besluiten dat ze een basis vormt voor de vectorruimte. Over het algemeen is het gemakkelijker om de lineaire onafhankelijkheid
na te gaan dan de voortbrengendheid.
¥ STELLING 3.6
basisstelling voor eindig–dimensionale vectorruimten
Zij V een eindig–dimensionale vectorruimte met dim V = n (n ≥ 1)
Elke lineair onafhankelijke verzameling met n elementen is een basis van V
Elke voortbrengende verzameling met n elementen is een basis van V
bewijs :
Hoofdstuk 3
• Algebra voor ingenieurs •
3–12
Vectorruimten en lineaire afbeeldingen
Wegens gevolg 1 kan een verzameling van lineair onafhankelijke vectoren steeds
worden uitgebreid tot een basis van V . Deze basis moet dan precies n elementen
bevatten omdat dim V = n. Dus de verzameling moet reeds een basis zijn.
Wegens gevolg 2 kan uit een verzameling van voortbrengende vectoren steeds een
basis van V geselecteerd worden. Deze moet dan precies n elementen bevatten omdat dim V = n. Dus de verzameling moet reeds een basis zijn. ¤
Deze stelling kan ook als volgt worden geformuleerd : in een n–dimensionale vectorruimte is een verzameling van n vectoren vrij als en slechts als ze voortbrengend
is.
Opmerking :
De dimensie van een vectorruimte V over een veld F kan verschillen naargelang
de keuze van dat veld.
Zo kan men een vectorruimte over C ook steeds zien als een vectorruimte over
R. Is V n–dimensionaal over C, dan is V 2n–dimensionaal over R.
Bvb. de ruimte C2 van de koppels complexe getallen is 2–dimensionaal over C
(met basis {(1, 0), (0, 1)}), maar 4–dimensionaal over R
(met basis {(1, 0), (j, 0), (0, 1), (0, j)}).
In wat volgt beschouwen we enkele voorbeelden van basissen voor belangrijke reële
vectorruimten.
voorbeeld 1 :
Beschouw de vectorruimte V = Rn van de geordende n−tallen reële getallen.
Dan is B = {~e1 , ~e2 , . . . , ~en } met ~e1 = (1, 0, . . . , 0), ~e2 = (0, 1, . . . , 0) en ~en = (0, . . . , 0, 1)
een basis voor V.
Men noemt dit ook de standaardbasis of de natuurlijke basis van Fn
voorbeeld 2 :
µ
¶
µ
¶
µ
¶
0 1
0 0
0 0
De vectoren ~e1 =
, ~e2 =
, ~e3 =
en ~e4 =
vormen
0 0
1 0
0 1
een basis voor de vectorruimte M at(2, 2, R) van de 2 × 2−matrices met elementen in
R. Deze vectorruimte heeft dus dimensie 4.
1 0
0 0
¶
µ
Het is duidelijk dat dit voorbeeld kan worden veralgemeend om een basis te vinden
van de ruimte M at(m, n, R) die dimensie m · n bezit.
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3–13
voorbeeld 3 :
De vectoren ~e1 = 1, ~e2 = x, ~e3 = x2 , . . . , ~en+1 = xn vormen een basis voor de vectorruimte Rn [x] van de veeltermen met graad kleiner dan of gelijk aan n en met reële
coëfficiënten.
De dimensie van deze vectorruimte is dus n + 1
voorbeeld 4 :
Verder in dit hoofdstuk (zie toepassing op p. 3–24) zullen we aantonen dat de dimensie van de oplossingsruimte van een lineair homogeen stelsel AX = O met m vergelijkingen en n onbekenden gelijk is aan n−r met r de rang van de coëfficiëntenmatrix.
Coördinatisering van een eindig–dimensionale vectorruimte
Stel dat B = {~e1 , ~e2 , . . . , ~en } een basis is van een n–dimensionale vectorruimte V .
Geven we de basisvectoren een ordening, dan spreken we van een geordende basis,
notatie : B = (~e1 , ~e2 , . . . , ~en ).
Elke vector van V kan op unieke manier geschreven worden als een lineaire combinatie van de basisvectoren : ~v = x1~e1 + x2~e2 + . . . + xn~en .
De unieke scalairen x1 , . . . , xn worden de coördinaten van ~v t.o.v. de geordende
basis B genoemd.
T.o.v. een gekozen geordende basis, correspondeert dus met iedere vector van V een
geordend n−tal (x1 , . . . , xn ).
Omgekeerd komt met ieder gegeven n–tal van Fn precies één vector van V (waarin
een geordende basis werd gekozen) overeen.
Er is dus een bijectief verband tussen de vectoren van een n–dimensionale vectorruimte V over F en de geordende n–tallen (= vectoren) van de vectorruimte Fn na
keuze van een geordende basis in V.
Bovendien ziet men gemakkelijk in dat de vectoroptelling en de vermenigvuldiging
met scalairen in V in één-éénduidig verband staat met de optelling en vermenigvuldiging met scalairen in Fn .
Men zegt daarom dat V en Fn isomorfe vectorruimten zijn.
Concreet wil dit zeggen dat de vectorruimte Fn als modelruimte kan fungeren voor
alle n–dimensionale vectorruimten over het veld F.
Hoofdstuk 3
• Algebra voor ingenieurs •
3–14
Vectorruimten en lineaire afbeeldingen
Zo fungeert bijvoorbeeld de vectorruimte R4 als model voor de 4–dimensionale vectorruimten over R waarvan o.a. M at(2, R) (2 × 2–matrices over R) en R3 [x] (veeltermen met graad ≤ 3 en reële coëfficiënten) voorbeelden zijn.
Vermelden we tenslotte nog een stelling die informatie verschaft over de dimensie
van deelruimten van een n–dimensionale vectorruimte.
¥ STELLING 3.7
dimensie van deelruimte van een vectorruimte
Zij W een deelruimte van een n–dimensionale vectorruimte V .
Dan is dim W ≤ n en als dim W = n, dan is W = V
3.6
Rijen– en kolommenruimte van een matrix
Met iedere m × n–matrix A over R kan men op verschillende wijze vectorruimten
associëren.
Zij A = (K1 K2 . . . Kn ) de matrix A herschreven als blokmatrix met de kolommen
van A als blokken.
Ieder blok (= iedere kolom van A) kan worden gezien als een vector van de vectorruimte M at(m, 1, R) (zelf isomorf met Rm ).
De deelruimte opgespannen door deze kolomvectoren noemt men de kolommenruimte van A, notatie : Col A.
Dus : Col A = span {K1 , K2 , . . . , Kn }
De dimensie van de kolommenruimte van A noemt men de kolommenrang van A.
Analoog kan men de matrix A herschrijven als blokmatrix met de rijen van A als
blokken. 



Dus A = 

R1
R2 

.. 
. 
Rm
Ieder blok (= iedere rij van A) kan gezien worden als een vector van de vectorruimte
Rn .
De deelruimte opgespannen door deze rijvectoren noemt men de rijenruimte van
A, notatie : Row A.
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3–15
Dus : Row A = span {R1 , R2 , . . . , Rm }
De dimensie van de rijenruimte van A noemt men de rijenrang van A.
Een fundamentele stelling die we hier formuleren zonder bewijs legt het verband
tussen de rijenrang, de kolommenrang en de in hoofdstuk 2 ingevoerde determinantenrang van een matrix.
¥ STELLING 3.8
rijenrang, kolommenrang, determinantenrang
Zij A een m × n–matrix
Dan geldt : rijenrang van A = kolommenrang van A = determinantenrang van A
Met deze stelling krijgt de rang van een matrix die we in hoofdstuk 2 hebben gedefinieerd als determinantenrang (orde van de grootst mogelijke vierkante deelmatrix
van A met determinant verschillend van nul) een andere betekenis.
De rang van een matrix is voortaan ook gelijk aan het aantal lineair onafhankelijke
kolommen van A, resp. het aantal lineair onafhankelijke rijen van A.
voorbeeld :


1 0 2
De (determinanten)rang van de matrix A =  0 2 1  is gelijk aan 2 (immers
1 2 3
det A = 0 en A bevat een deelmatrix van de orde 2 met determinant verschillend
van nul).
De rijenrang van A is dus ook 2 en dit klopt wanneer we bemerken dat de derde
rijvector een lineaire combinatie is van de eerste twee lineair onafhankelijke rijvectoren is (R3 = R1 + R2 ).
De kolommenrang van A is ook 2 en dit klopt eveneens wanneer we bemerken dat de
derde kolomvector een lineaire combinatie is van de eerste twee lineair onafhankelijke
kolomvectoren (K3 = 2 K1 + 12 K2 ).
Hoofdstuk 3
• Algebra voor ingenieurs •
3–16
3.7
Vectorruimten en lineaire afbeeldingen
Som en directe som van deelruimten
Met behulp van twee deelruimten van een zelfde vectorruimte kunnen nieuwe deelruimten worden gevormd.
Zijn W1 en W2 twee deelruimten van V , dan verifieert men gemakkelijk dat ook de
doorsnede W1 ∩ W2 een deelruimte is van V.
Zijn W1 en W2 twee deelruimten van een vectorruimte V, dan definieert men de som
W1 + W2 als de verzameling {w
~1 + w
~2 | w
~ 1 ∈ W1 en w
~ 2 ∈ W2 } .
Men toont gemakkelijk aan dat W1 + W2 eveneens een deelruimte is van V (met
behulp van het criterium voor deelruimte).
Men zegt dat de vectorruimte V de directe som is van de deelruimten W1 en W2
als iedere vector van V op unieke manier kan geschreven worden als de som van een
vector w
~ 1 ∈ W1 en een vector w
~ 2 ∈ W2
In dat geval noteert men : V = W1 ⊕ W2
De vectorruimte V is de directe som van W1 en W2 als V = W1 + W2 en als
W1 ∩ W2 = {~o}
voorbeeld 1 :
Beschouw de reële vectorruimte V = R3 met als deelruimten W1 = {(x, y, 0) | x, y ∈ R}
en W2 {(0, 0, z) | z ∈ R}
Klaarblijkelijk is V = W1 + W2 . Omdat W1 ∩ W2 = {(0, 0, 0} is deze som een directe
som, dus V = W1 ⊕ W2 .
Elke vector van R3 kan bijgevolg op unieke manier geschreven worden als som van
een vector uit W1 en een vector uit W2 : (x, y, z) = (x, y, 0) + (0, 0, z)
voorbeeld 2 :
Beschouw de reële vectorruimte V = M at(2, R) met als deelruimten W1 en W2
resp. de verzameling van de boven– en de benedendriehoeksmatrices.
µ
Klaarblijkelijk geldt dat V = W1 + W2 . Immers elke 2 × 2–matrix
µ
schrijven als de som
a b
0 d
¶
• Algebra voor ingenieurs •
µ
+
0 0
c 0
¶
a b
c d
¶
is te
.
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3–17
Deze som is evenwel geen directe som, omdat
µ W1¶∩ W2 niet alleen de nulmatrix
a 0
bevat, maar ook alle matrices van de vorm
.
0 d
Dat betekent ook dat de ontbinding van een matrix als som van een boven– en
een benedendriehoeksmatrix
niet µuniek is.
¶
¶ Naast de reeds vermelde ontbinding is
µ
¶ µ
a b
c d
bvb. ook
a
2
=
0
b
a
2
+
d
2
0
.
d
2
c
Dimensiestelling voor deelruimten
Zijn W1 en W2 twee deelruimten van een eindig–dimensionale vectorruimte V, dan
bestaat er een verband tussen de dimensies van de deelruimten W1 + W2 en W1 ∩ W2
van V .
Dit verband staat gekend als de (eerste) dimensiestelling of de dimensiestelling
van Grassmann :
¥ STELLING 3.9
eerste dimensiestelling
Zijn W1 en W2 deelruimten van een vectorruimte V dan geldt :
dim(W1 + W2 ) = dim W1 + dim W2 − dim(W1 ∩ W2 )
bewijs :
Zij {~e1 , . . . , ~ep } een basis voor W1 ∩ W2 .
We kunnen deze aanvullen tot een basis {~e1 , . . . , ~ep , ~ap+1 , . . . , ~ar } voor W1 , resp. tot
een basis {~e1 , . . . , ~ep , ~bp+1 , . . . , ~bs } voor W2 .
Het volstaat om aan te tonen dat {~e1 , . . . , ~ep , ~ap+1 , . . . , ~ar , ~bp+1 , . . . , ~bs } een basis is
voor W1 + W2 .
De voortbrengendheid is klaarblijkelijk vervuld. We tonen nog de lineaire onafhankelijkheid aan.
Stel dat
p
X
αi~ei +
i=1
p
Dan is
X
αi~ei +
i=1
r
X
βi~ai +
i=p+1
r
X
s
X
γi~bi = ~o.
i=p+1
s
X
βi~ai = −
i=p+1
(I)
γi~bi waarbij het linkerlid behoort tot W1 en het
i=p+1
rechterlid tot W2 (en dus beide behoren tot W1 ∩ W2 ).
Omdat het rechterlid behoort tot W1 ∩W2 bestaan er scalairen λi waarvoor
s
X
γi~bi =
i=p+1
p
X
λi~ei . Daaruit volgt dat
i=1
Hoofdstuk 3
s
X
i=p+1
p
γi~bi −
X
λi~ei = ~o en dus λi = 0 voor alle i = 1 tot
i=1
• Algebra voor ingenieurs •
3–18
Vectorruimten en lineaire afbeeldingen
en met p en γi = 0 voor alle i van p + 1 tot en met s (omdat {~e1 , . . . , ~ep , ~bp+1 , . . . , ~bs }
een basis is voor W2 ).
Een analoge redenering (linkerlid behoort tot W1 ∩ W2 ) leidt tot βi = 0 voor alle i
van p + 1 tot en met r.
Uit (I) volgt dan verder dat alle αi = 0, waarmee de lineaire onafhankelijkheid is
bewezen. ¤
Is V in het bijzonder de directe som van W1 en W2 dan volgt met bovenstaande
stelling :
dim(W1 ⊕ W2 ) = dim W1 + dim W2
voorbeeld :
Beschouw het xy−vlak en het yz−vlak als deelruimten van R3
Dus W1 = {(x, y, 0) | x, y ∈ R} en W2 = {(0, y, z) | y, z ∈ R}
Dan is dim W1 = 2 en dim W2 = 2 terwijl dim(W1 + W2 ) = dim R3 = 3
Uit de dimensiestelling volgt dan dat dim(W1 ∩ W2 ) = 2 + 2 − 3 = 1 wat klopt vermits
W1 ∩ W2 = {(0, y, 0) | y ∈ R} (de y−as).
Figuur 3.2: Hermann Grassmann (1809–1877)
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3.8
3.8.1
R
3–19
Lineaire afbeeldingen
Definitie van lineaire afbeelding en voorbeelden
DEFINITIE 3.5
lineaire afbeelding tussen vectorruimten
Zij V en W vectorruimten over hetzelfde veld F.
Een afbeelding T van V naar W wordt een lineaire afbeelding genoemd als en
slechts als T voldoet aan de volgende twee voorwaarden :
(i) T (~v1 + ~v2 ) = T (~v1 ) + T (~v2 ) voor alle ~v1 , ~v2 ∈ V
(ii) T (r ~v ) = r T (~v ) voor alle ~v ∈ V en alle r ∈ F
M.a.w. een lineaire afbeelding “bewaart” de vectoroptelling en de vermenigvuldiging met scalairen.
Het beeld van een som van vectoren is hetzelfde als de som van de beelden van de
termen en het beeld van een getal maal een vector maal is hetzelfde als dat getal
maal het beeld van die vector.
Uit voorwaarde (ii) volgt in het bijzonder dat T (~oV ) = ~oW (men noteert meestal
T (~o) = ~o).
Een afbeelding die de nulvector van V dus niet afbeeldt op de nulvector van W , kan
onmogelijk een lineaire afbeelding zijn.
Een lineaire afbeelding van een vectorruimte V naar zichzelf noemt men ook een
lineaire transformatie.
De verzameling van alle lineaire afbeeldingen van V naar W noteren we als Lin(V, W )
en de verzameling van alle lineaire transformaties van V als Lin(V ).
I Algemene voorbeelden van lineaire afbeeldingen
voorbeeld 1 : de nulafbeelding en de identieke afbeelding
Definieert men de afbeelding T : V → W door T (~v ) = ~o voor elke ~v ∈ V , dan is dit
een lineaire afbeelding.
Men noemt deze de nulafbeelding van V naar W.
Definieert men de afbeelding T : V → V door T (~v ) = ~v voor elke ~v ∈ V , dan is dit
een lineaire transformatie.
Men noemt deze de identieke transformatie van V , notatie IV .
Hoofdstuk 3
• Algebra voor ingenieurs •
3–20
Vectorruimten en lineaire afbeeldingen
voorbeeld 2 : projectie–afbeeldingen
Onderstel dat de vectorruimte V de directe som is van W en W 0 , dus V = W ⊕ W 0
~ 0 van
zodat elke vector ~v van V op unieke manier te schrijven is als de som w
~ +w
0
vectoren uit W en W .
Definieer de afbeelding T : V → V door T (~v ) = w
~.
Men gaat na dat T een lineaire transformatie is van V .
Men noemt deze de projectie–afbeelding van V op W evenwijdig met W 0 , notatie
PW .
Is in het bijzonder V = Rn en beschouwen we de directe somontbinding waarbij (x1 , x2 , . . . , xn−1 , xn ) = (x1 , x2 , . . . , xn−1 , 0) + (0, 0, . . . , 0, xn ) dan is in dit geval
PW (x1 , x2 , . . . , xn−1 , xn ) = (x1 , x2 , . . . , xn−1 , 0).
In het geval n = 3 komt dit neer op de evenwijdige projectie volgens de z –as van de
vectoren van de ruimte R3 op het xy –vlak.
Projectie–afbeeldingen bezitten de eigenschap PW ◦ PW = PW (dus de afbeelding
tweemaal na elkaar toepassen geeft het zelfde resultaat als ze eenmaal toepassen).
Dergelijke lineaire afbeeldingen noemt men ook idempotent. Het is merkwaardig
dat deze eigenschap de projectie–afbeeldingen volledig karakteriseert. Er kan namelijk bewezen worden dat elke idempotente lineaire transformatie van V naar zichzelf
steeds een projectie–afbeelding is.
voorbeeld 3 : spiegelingen
~ 0.
Zij opnieuw V de directe som van W en W 0 en zij ~v = w
~ +w
~ 0.
Definieer de afbeelding T : V → V door T (~v ) = w
~ −w
Men gaat na dat T een lineaire transformatie is van V .
Men noemt deze de spiegeling van V t.o.v. W volgens W 0 , notatie SW .
Is in het bijzonder V = Rn en beschouwen we de directe somontbinding waarbij (x1 , x2 , . . . , xn−1 , xn ) = (x1 , x2 , . . . , xn−1 , 0) + (0, 0, . . . , 0, xn ) dan is in dit geval
SW (x1 , x2 , . . . , xn−1 , xn ) = (x1 , x2 , . . . , xn−1 , −xn ).
In het geval n = 3 komt dit neer op de spiegeling van de vectoren van de ruimte R3
om het xy –vlak volgens de z –as.
voorbeeld 4 : homothetieën
Zij V een vectorruimte over F en zij c ∈ F met c 6= 0.
De afbeelding T : V → V, ~v 7→ c ~v voor elke ~v ∈ V is een lineaire transformatie van
V.
Men noemt deze een homothetie met factor c.
Is F het veld van de reële getallen en is 0 < c < 1 dan heet de homothetie met factor
c ook een contractie. Is c > 1 dan spreekt men van een dilatie.
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3–21
I Voorbeelden van lineaire afbeeldingen in specifieke vectorruimten
voorbeeld 5 :
Beschouw de vectorruimte (functieruimte) Ck (]a, b[, R) van de reëelwaardige functies
die gedefinieerd zijn over het interval ]a, b[ en die k maal afleidbaar zijn over ]a, b[.
en zij D : Ck (]a, b[, R) → Ck−1 (]a, b[, R) gedefinieerd door D(f ) = f 0 (de afgeleide
functie van f ).
Men gaat na dat D een lineaire afbeelding is.
Immers, D(f + g) = D(f ) + D(g) en D(k f ) = k D(f )
Een afbeelding tussen functieruimten wordt ook een operator genoemd en de hierboven gedefinieerde afleidingsoperator is dus een lineaire operator.
Beschouw nu de vectorruimte (functieruimte) C0 ([a, b], R) van de reëelwaardige functies die gedefinieerd en continu zijn over [a, b] en definieer de afbeelding (operator)
T van deze ruimte naar R door : T (f ) =
Rx
f (t) dt.
a
Men gaat na dat deze integraaloperator een lineaire operator is van C0 ([a, b], R).
voorbeeld 6 :
Beschouw de vectorruimten M at(n, 1, F) en M at(m, 1, F) van de kolommatrices over
F (met n resp. m rijen) en beschouw een vaste m × n−matrix A.
We definiëren nu een afbeelding T van M at(n, 1, F) naar M at(m, 1, F) als volgt :
T (X) = A · X voor elke X ∈ M at(n, 1, F)
Men gaat na dat deze afbeelding een lineaire afbeelding is.
Met iedere matrix kan dus op deze wijze een lineaire afbeelding worden geassocieerd
en men noemt dit de op natuurlijke wijze aan A geassocieerde lineaire afbeelding,
notatie : TA .
voorbeeld 7 :
Beschouw de vectorruimte V = R[x] van de reële veeltermen.
De afbeelding T van R[x] naar zichzelf die de veelterm p(x) afbeeldt op p(x − 1) is
een lineaire transformatie van R[x].
voorbeeld 8 :
Beschouw de vectorruimte M at(n, F) van de n × n–matrices over F en zij A een vaste
n × n–matrix.
De afbeelding T gedefinieerd door T (X) = A · X − X · A is een lineaire transformatie
van M at(n, F).
Deze staat ook gekend als de commutatorafbeelding van M at(n, F).
Hoofdstuk 3
• Algebra voor ingenieurs •
3–22
3.8.2
Vectorruimten en lineaire afbeeldingen
Kernruimte en beeldruimte van een lineaire afbeelding
Met elke lineaire afbeelding T van V naar W kan men een deelruimte van V en een
deelruimte van W associëren.
Onder het beeld of de beeldruimte van T verstaan we de verzameling van alle
beeldvectoren :
Im T = {T (~v ) | ~v ∈ V } ⊂ W
De kern of kernruimte van T is de verzameling van alle vectoren die door T op de
nulvector van W worden afgebeeld :
Ker T = { ~v | ~v ∈ V en T (~v ) = ~o} ⊂ V
Beide verzamelingen vormen deelvectorruimten van V resp. W zoals blijkt uit volgende stelling, wat de benamingen beeldruimte en kernruimte rechtvaardigt.
¥ STELLING 3.10
kern– en beeldruimte van lineaire afbeelding
Is T een lineaire afbeelding van V naar W dan is Ker T een deelruimte van V
en Im T een deelruimte van W
bewijs :
Als ~v1 en ~v2 beide tot Ker T behoren, dan is T (r~v1 +~v2 ) = r T (~v1 ) + T (~v2 ) = r ~o +~o = ~o
waaruit met het criterium voor deelruimten volgt dat Ker T een deelruimte is van V .
Zijn w
~ 1 en w
~ 2 beide vectoren van Im T , dan bestaan er vectoren ~v1 en ~v2 van V
waarvoor T (~v1 ) = w
~ 1 en T (~v2 ) = w
~ 2 . Dan is T (r ~v1 + ~v2 ) = r w
~1 + w
~ 2 zodat rw
~1 + w
~2
ook tot Im T behoort. Met het criterium voor deelruimten volgt nu het gestelde.
¤
Het is duidelijk dat als B = {~e1 , ~e2 , . . . , ~en } een basis is voor V , dan Im T wordt
voortgebracht door de verzameling {T (~e1 ), T (~e2 ), . . . , T (~en )} van de beelden van deze basisvectoren.
De dimensie van de beeldruimte Im T noemt men de rang van T , notatie ρ(T )
De dimensie van de kernruimte Ker T noemt men ook de nulliteit van T , notatie
ν(T )
Zijn V en W eindig–dimensionaal dan bestaat er een verband tussen de dimensie
van V en de dimensies van de kern– en beeldruimte van een lineaire afbeelding T
van V naar W.
We formuleren deze “tweede dimensiestelling” zonder bewijs :
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
¥ STELLING 3.10
3–23
tweede dimensiestelling
Is T een lineaire afbeelding van V naar W met V en W eindig–dimensionaal.
Dan is dim V = dim(Ker T )+ dim(Im T )
Voorbeelden :
• In voorbeeld 5 van § 3.8.1 beschouwden we de afleidingsoperator D als lineaire
afbeelding.
De kern van deze afbeelding bevat alle functies waarvan de afgeleide functie
de nulfunctie is, m.a.w. alle constante functies.
De nulliteit van deze afbeelding is gelijk aan 1 (de kern wordt voortgebracht
door één functie, namelijk de constante functie die alles op 1 afbeeldt).
De rang van deze afbeelding is oneindig.
• Beschouw de afbeelding T : R1 [x] → R1 [x] gedefinieerd door T (a + bx) = b + ax
Men gaat na dat T een lineaire transformatie is van R1 [x].
De kern van T bevat enkel de nulveelterm 0 + 0x en heeft dus dimensie nul.
Met de dimensiestelling volgt dan dat dim(Im T )=2-0=2.
Bijgevolg is Im T = R1 [x] (elke veelterm van R1 [x] kan optreden als beeld van
een veelterm voor de transformatie T ).
• Beschouw de projectie–afbeelding P van R3 op het xy –vlak volgens de z –as,
dus P (x, y, z) = (x, y, 0).
De kern van P bestaat uit alle drietallen (0, 0, z) met z willekeurig in R. De
kernruimte is bijgevolg gelijk aan span {(0, 0, 1)} en dus is de nulliteit van P
gelijk aan 1.
De beeldruimte van P wordt gevormd door alle drietallen (x, y, 0) met x en
y willekeurig in R. Dus Im P = span {(1, 0, 0), (0, 1, 0)} zodat de rang van P
gelijk is aan 2.
Men verifieert dat de dimensiestelling vervuld is.
Bijzonder geval :
Beschouwen we in het bijzonder de lineaire afbeelding TA van M at(n, 1, F) naar
M at(m, 1, F) die op natuurlijke wijze geassocieerd is met de m × n–matrix A.
De beeldruimte van deze afbeelding wordt voortgebracht door de beelden van een
stel vectoren die een basis vormen voor M at(n, 1, F).
Hoofdstuk 3
• Algebra voor ingenieurs •
3–24
Vectorruimten en lineaire afbeeldingen




Kies daarvoor in het bijzonder de natuurlijke basis, dit is ~ei = 


0

.. 
. 

1  met een 1 op
.. 
. 
0
de i–de plaats.
Het is duidelijk dat de beelden van deze basisvectoren onder TA precies de kolomvectoren van de matrix A zijn.
Bijgevolg is Im TA niets anders dan de kolommenruimte Col A van A die we gedefinieerd hebben in § 3.6.
De dimensie van Im TA , dus de rang ρ(TA ) van de afbeelding TA , is bijgevolg ook
de dimensie van de ruimte Col A, dit is de kolommenrang van A (en dus ook de
(determinanten)rang van A).
De rang van de met A geassocieerde lineaire afbeelding TA is dus niets anders dan
de rang r van A.
Uit de dimensiestelling volgt nu ook dat ν(TA ) = dim(Ker TA ) = n − r met r de
rang van A.
Toepassing : oplossingsruimte van een homogeen lineair stelsel
We hebben reeds vroeger aangetoond met het criterium voor deelruimten dat de
verzameling van alle oplossingen van een homogeen lineair stelsel met m vergelijkingen en n onbekenden een deelruimte vormt van Rn .
Dit resultaat volgt ook nog op een andere wijze.
Immers, is A de coëfficiëntenmatrix van het stelsel, dan kan de oplossingsruimte
gezien worden als de kernruimte van de lineaire afbeelding TA die op natuurlijke
wijze geassocieerd is aan A en deze kernruimte is een deelruimte van Rn wegens
stelling 3.9.
Gelet op het voorgaande is de dimensie van die oplossingsruimte gelijk aan n − r
met r de rang van A.
We besluiten dus : de dimensie van de oplossingsruimte van een homogeen lineair stelsel
is gelijk aan n − r met n het aantal onbekenden en r de rang van de coëfficiëntenmatrix.
voorbeeld :
Bepaal
een basis (en dimensie) van de oplossingsruimte van het stelsel
½
2x − 3y − z − u = 0
x + y − 4z + 5u = 0
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3–25
¯
¯
¯ 2 −3 ¯
¯)
Klaarblijkelijk is rang A = 2 (een hoofddeterminant is bvb. ¯¯
1
1 ¯
De dimensie van de oplossingsruimte is bijgevolg 4 − 2 = 2.
We zoeken nu nog een basis voor de oplossingsruimte.
We lossen het stelsel op naar de hoofdonbekenden (in functie van de vrije onbeken13z − 14u
7z − 11u
den) : x =
en y =
5
5
Stellen we z = 5k en u = 5l dan kan de oplossingsruimte dus voorgesteld worden
door :
{(13k − 14l, 7k − 11l, 5k, 5l) | k, l ∈ R} = {k (13, 7, 5, 0) + l (−14, −11, 0, 5) | k, l ∈ R}
= span {(13, 7, 5, 0), (−14, −11, 0, 5)}
3.8.3
R
Injectieve, surjectieve en bijectieve afbeeldingen
DEFINITIE 3.5
injectieve, surjectieve, bijectieve afbeelding
Zij T een lineaire afbeelding van V naar W .
T heet injectief als en slechts als T (~v1 ) = T (~v2 ) ⇒ ~v1 = ~v2
(verschillende vectoren van V hebben dus een verschillend beeld onder T )
T heet surjectief als en slechts als Im T = W
(dus elke vector van W is beeld onder T van minstens één vector van V )
T heet bijectief als en slechts als T zowel injectief als surjectief is.
Is de lineaire afbeelding T : V → W bijectief, dan is de inverse afbeelding T −1 :
W → V eveneens een lineaire afbeelding.
Immers, kies w
~ 1 en w
~ 2 willekeurig in W en stel ~v1 = T −1 (w
~ 1 ) en ~v2 = T −1 (w
~ 2 ) (~v1 en
~v2 bestaan wegens de surjectiviteit van T en zijn uniek wegens de injectiviteit van T ).
Dan is T −1 (r w
~1 + w
~ 2 ) = T −1 (r T (~v1 ) + T (~v2 )) = T −1 (T (r ~v1 + ~v2 )) = r ~v1 + ~v2 =
r T −1 (w
~ 1 ) + T −1 (w
~ 2 ) waarmee het gestelde is aangetoond.
Een bijectieve lineaire afbeelding tussen de vectorruimten V en W wordt ook een
isomorfisme genoemd tussen V en W .
Een niet–injectieve lineaire transformatie van een vectorruimte V naar zichzelf
wordt ook een singuliere transformatie van V genoemd.
We geven nu nog twee criteria om de injectiviteit van een lineaire afbeelding na te
gaan.
Hoofdstuk 3
• Algebra voor ingenieurs •
3–26
¥ STELLING 3.11
Vectorruimten en lineaire afbeeldingen
eerste kenmerk voor injectieve lineaire afbeelding
Is T een lineaire afbeelding van V naar W , dan is T injectief a.s.a. Ker T = {~o}
bewijs :
Stel dat Ker T = {~o} en dat T (~v1 ) = T (~v2 ) of dus T (~v1 ) − T (~v2 ) = T (~v1 − ~v2 ) = ~o. Dan
behoort ~v1 − ~v2 tot Ker T en dus moet ~v1 − ~v2 = ~o of dus ~v1 = ~v2 . Dus T is injectief.
Omgekeerd, onderstel dat T injectief is en dat T (~v ) = ~o. Vermits T (~v ) = T (~o) = ~o
moet dus ~v = ~o, wat betekent dat Ker T = {~o} .
¤
¥ STELLING 3.12
tweede kenmerk voor injectieve lineaire afbeelding
Is T een lineaire afbeelding van V naar W , dan is T injectief a.s.a. voor elk vrij deel
S van V geldt dat T (S) een vrij deel is van W
bewijs :
Zij T injectief en zij S = {~v1 , . . . , ~vk } een vrij deel van V . Beschouw dan T (S) =
{T (~v1 ), . . . , T (~vk } en onderstel dat r1 T (~v1 ) + . . . + rk T (~vk ) = ~o.
Dan is ook T (r1 ~v1 +. . .+rk ~vk ) = ~o zodat wegens stelling 3.11 geldt : r1 ~v1 +. . .+rk ~vk =
~o. Omdat S vrij is volgt hieruit dat r1 = . . . = rk = 0 waarmee ook is aangetoond
dat T (S) vrij is.
Omgekeerd, veronderstel dat de lineaire afbeelding T elk vrij deel van V omzet in
een vrij deel van W . Vermits {~v } een vrij deel is van V voor iedere keuze van ~v
verschillend van ~o, is ook {T (~v )} een vrij deel van W zodat T (~v ) 6= ~o. Bijgevolg is
Ker T = {~o} waaruit de injectiviteit van T volgt met stelling 3.11. ¤
Gevolg :
Uit bovenstaande stelling volgt dat in het geval van eindig–dimensionale vectorruimten met gelijke dimensie een injectieve afbeelding automatisch een bijectieve
afbeelding, dus een isomorfisme is.
Immers, zijn V en W eindig–dimensionaal met dimensie n en zij T : V → W een
injectieve lineaire afbeelding.
Beschouw een basis B = {~e1 , . . . , ~en } van V . Dan is wegens stelling 3.12, T (B) =
{T (~e1 ), . . . , T (~en )} een vrij deel van W bestaande uit n elementen. Omdat dim W =
n volgt hieruit (zie stelling 3.6) dat T (B) een basis is voor W .
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3–27
Is nu w
~ ∈ W dan bestaan er scalairen r1 , . . . , rn waarvoor w
~ = r1 T (~e1 )+. . .+rn T (~en ) =
T (r1 ~e1 + . . . + rn ~en ).
Als dus ~v = r1 ~e1 + . . . + rn ~en wordt gesteld, dan is T (~v ) = w
~ zodat T surjectief is.
De afbeelding T is dus injectief en surjectief en bijgevolg een isomorfisme.
Overigens geldt ook dat, steeds in het geval van eindig–dimensionale vectorruimten
met gelijke dimensie, een surjectieve afbeelding automatisch een bijectieve afbeelding, dus een isomorfisme is.
Dat is een gevolg van de tweede dimensiestelling.
Is immers T surjectief, dan is dim(Im T ) = dim(W ) = n waaruit dim(Ker T )=0 en
dus Ker T = {~o} zodat T ook injectief is.
We kunnen het voorgaande samenvatten in de volgende stelling :
¥ STELLING 3.13
kenmerk voor bijectieve lineaire afbeelding
Is T een lineaire afbeelding van V naar W , met dim V = dim W = n eindig
Dan zijn volgende uitspraken gelijkwaardig :
(i) T is injectief
(ii) T is surjectief
(iii) T is bijectief
3.9
3.9.1
Matrixrepresentatie van een lineaire afbeelding
Matrix van een lineaire afbeelding t.o.v. gekozen basissen
In voorbeeld 6 van § 3.8.1 hebben we getoond hoe met iedere m × n–matrix A op
natuurlijke wijze een lineaire afbeelding TA kan worden geassocieerd.
In deze paragraaf behandelen we het omgekeerde vraagstuk. We tonen aan dat
met elke lineaire afbeelding tussen een n–dimensionale vectorruimte V en een m–
dimensionale vectorruimte W steeds een m × n–matrix kan worden geassocieerd.
Onderstel dat B = (~e1 , ~e2 , . . . , ~en ) resp. B 0 = (~e10 , ~e20 . . . , ~em0 ) geordende basissen zijn
voor V resp. W.
Is T een lineaire afbeelding van V naar W dan is T volledig bepaald als men weet
hoe T inwerkt op de basisvectoren van V . Immers Im T wordt voortgebracht door
de beelden van die basisvectoren.
De beelden van de basisvectoren ~ei (i = 1, . . . , n) onder T kunnen geschreven worden
als lineaire combinaties van de basisvectoren ~ej0 (j = 1, . . . , m).
Hoofdstuk 3
• Algebra voor ingenieurs •
3–28
Vectorruimten en lineaire afbeeldingen
Dus :
T (~e1 ) = a11 ~e10 + a12 ~e20 + . . . + a1m ~em0
T (~e2 ) = a21 ~e10 + a22 ~e20 + . . . + a2m ~em0
..
.
T (~en ) = an1 ~e10 + an2 ~e20 + . . . + anm ~em0
of dus T (~ei ) =
m
P
j=1
aij ~ej0 voor i = 1, . . . , n

Beschouwen we nu de matrix [T ]BB 0
a11
 a12

=  ..
 .
a1m
a21
a22
..
.
···
···
a2m · · ·

an1
an2 

 die de getranspo..

.
anm
neerde matrix is van de coëfficiëntenmatrix die men kan vormen uit bovenstaande
gelijkheden. Dus [T ]BB 0 = (aji ).
We noemen [T ]BB 0 de matrix van T t.o.v. de gekozen basissen B en B 0 .
De kolommen van deze matrix corresponderen dus met de beelden van de basisvectoren van V .
In het bijzonder is de matrix van een lineaire afbeelding van V naar zichzelf t.o.v. een
basis B van V een vierkante matrix [T ]B .
We bekijken nu hoe de werking van een lineaire afbeelding kan gerepresenteerd
worden d.m.v. haar matrix (steeds t.o.v. gekozen geordende basissen) :
Stellen we de vectoren van V en W voor als kolommatrices (waarvan de elementen
de coördinaten zijn t.o.v. de gekozen geordende basissen).
Zij ~v een willekeurige vector van V met ~v = x1 ~e1 + x2 ~e2 + . . . + xn ~en .
T (~v ) = x1 T (~e1 ) + x2 T (~e2 ) + . . . + xn T (~en )
n
P
=
xi T (~ei )
=
=
i=1
n
P
i=1
m
P
xi (
m
P
j=1
(
n
P
j=1 i=1
aij ~ej0 )
aij xi ) ~ej0
Dus T (~v ) = x01~e10 +x02~e20 +. . .+x0m ~em0 waarbij x0j =
n
P
aij xi voor iedere j ∈ {1, 2, . . . , m}
i=1
We kunnen dit ook uitdrukken door te schrijven :
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen

 
x01
 x0  
 2  
 ..  = 
 .  
x0m
a11
a12
..
.
a21
a22
..
.
···
···
a1m a2m · · ·
 
an1

an2 
 
·
..
 
.
anm
3–29

x1
x2 

.. 
. 
xn
of met verkorte notaties : [T (~v )]B0 = [T ]BB 0 · [~v ]B
Hebben we in het bijzonder een lineaire transformatie van V naar V en werd een
geordende basis B in V gekozen, dan is : [T (~v )]B = [T ]B · [~v ]B
voorbeelden :
• Beschouw de lineaire afbeelding T van V = R4 naar W = R2 waarvoor
T (x1 , x2 , x3 , x4 ) = (x1 + x2 , x3 − x4 ).
Kiezen we de standaardbasis B = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)}
van R4 en de standaardbasis B 0 = {(1, 0), (0, 1)} van R2 .
De beelden van de basisvectoren van V zijn resp. (1, 0), (1, 0), (0, 1) en (0, −1)
µ
De matrix [T ]BB 0 is dan de 2 × 4–matrix
1 1 0
0
0 0 1 −1
¶
en de afbeelding T kan worden voorgesteld door :

x1
 x2 

·
 x3 
x4

µ
x01
x02
¶
µ
=
1 1 0
0
0 0 1 −1
¶
Merk op dat de kernruimte van deze afbeelding bestaat uit alle vectoren van
de vorm (x, −x, y, y), dus span {(1, −1, 0, 0), (0, 0, 1, 1)} (T is dus niet injectief)
terwijl de beeldruimte gelijk is aan Im T = R2 (T is wel surjectief).
• Beschouw
transformatie T van M at(2,µR) naar
µ de lineaire
¶
¶ zichzelf waarvoor de
a b
b d
matrix
wordt afgebeeld op de matrix
(kwartdraai links)
c d
a c
De beelden van de standaardbasisvectoren van M at(2, R)
µ
¶ µ
¶ µ
¶ µ
¶
µ
¶ µ
¶ µ
¶
1 0
0 1
0 0
0 0
0 0
1 0
0 0
{
,
,
,
} zijn
,
,
0
0
0
0
1
0
0
1
1
0
0
0
0 1
µ
¶
0 1
en
0 0
De coördinaten van deze beeldvectoren t.o.v. de gekozen basis zijn (0, 0, 1, 0),
(1, 0, 0, 0), (0, 0, 0, 1) en (0, 1, 0, 0).
Hoofdstuk 3
• Algebra voor ingenieurs •
3–30
Vectorruimten en lineaire afbeeldingen

0
 0
De matrix [T ]B is dan de 4 × 4–matrix 
 1
0
1
0
0
0
0
0
0
1

0
1 

0 
0
en de transformatie T kan worden voorgesteld door :

 
a0
0 1
 b0   0 0
 0 =
 c   1 0
d0
0 0
0
0
0
1
 
0
a
 b
1 
·
0   c
0
d




• Beschouw de lineaire transformatie T van R2 [x] naar zichzelf gedefinieerd door
T (a + bx + cx2 ) = a + b(x − 1) + c(x − 1)2 .
De beelden van de standaardbasisvectoren 1, x en x2 zijn resp. 1, x − 1 en
(x − 1)2 = x2 − 2x + 1.
De coördinaten daarvan t.o.v. de gekozen standaardbasis zijn (1, 0, 0), (−1, 1, 0)
en (1, −2, 1)


1 −1
1
De matrix [T ]B is dan de 3 × 3–matrix  0 1 −2 
0
0
1
en T kan worden voorgesteld door :

 
  
a0
1 −1
1
a
 b0  =  0


1 −2
b 
·
c0
0
0
1
c
• Beschouw de lineaire transformatie T van R3 naar zichzelf die meetkundig
neerkomt op een rotatie in het xy –vlak rond de z –as over een hoek ϑ.
De beelden van de standaardbasisvectoren (1, 0, 0), (0, 1, 0) en (0, 0, 1) zijn dan
(cos ϑ, sin ϑ, 0), (− sin ϑ, cos ϑ, 0) en (0, 0, 1)


cos ϑ sin ϑ 0
De matrix [T ]B is dus de 3 × 3–matrix  − sin ϑ cos ϑ 0 
0
0 1
en T kan worden voorgesteld door
 
  
cos ϑ sin ϑ 0
x0
x
 y 0  =  − sin ϑ cos ϑ 0  ·  y 
z0
0
0 1
z

• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3.9.2
3–31
Verandering van basis
Hierboven hebben we uiteengezet hoe men aan een lineaire afbeelding tussen vectorruimten een matrix kan associëren t.o.v. gekozen geordende basissen.
We vragen ons nu af hoe deze matrixrepresentatie zal veranderen wanneer we andere
basissen kiezen.
e = (~u1 , ~u2 , . . . , ~un ) in
Onderstel dat twee geordende basissen B = (~e1 , ~e2 , . . . , ~en ) en B
V werden gekozen.
e ) kunnen geschreven worden als
De “nieuwe” basisvectoren (vectoren van basis B
lineaire combinaties van de “oude” basisvectoren (vectoren van basis B ).
Zo hebben we :
~u1 = p11 ~e1 + p12 ~e2 + . . . + p1n ~en
~u2 = p21 ~e1 + p22 ~e2 + . . . + p2n ~en
..
.
~un = pn1 ~e1 + pn2 ~e2 + . . . + pnn ~en
of dus ~uj =
n
X
pji ~ei voor j = 1, . . . , n
i=1
De matrix P = [pji ] = [pij ]T noemt men de overgangsmatrix bij de overgang van de
e = {~u1 , ~u2 , . . . , ~un } .
basis B = {~e1 , ~e2 , . . . , ~en } naar de basis B
Deze matrix is inverteerbaar en de inverse P −1 is de overgangsmatrix bij de overgang
e naar basis B.
van basis B
Zij nu ~v = x1 ~e1 + x2 ~e2 + . . . + xn ~en = x01~u1 + x02~u2 + . . . + x0n~un en zij [~v ]B resp. [~v ]Be
e (dus de coördinaten van ~v t.o.v.
de kolommatrixvoorstelling van ~v t.o.v. B resp. B
e , geschreven als kolommatrices)
B resp. B
Dan is dus :
~v =
n
P
xi ~ei =
i=1
=
=
n
P
j=1
n
P
j=1
n
P
x0j ~uj
x0j (
(
n
P
n
P
pji ~ei )
i=1
i=1 j=1
Hieruit volgt dat xi =
x0j pji ) ~ei
n
P
j=1
x0j pji voor elke i = 1, . . . , n.
Deze n gelijkheden kunnen tegelijkertijd voorgesteld worden d.m.v. een matrixgelijkheid :
Hoofdstuk 3
• Algebra voor ingenieurs •
3–32







x1
Vectorruimten en lineaire afbeeldingen


p11 p21 · · ·
.. 
. 
..
.
xi
p1i p2i · · ·
pni
..
.
..
.
..
.


 
=
 
 

xn
..
.
pn1
..
.
p1n p2n · · ·
..
.
 
 
 
 
·
 
 
 
pnn
x01
..
.
x0j
..
.








x0n
of kort genoteerd : [~v ]B = P · [~v ]Be
e 0 in de vectorruimte W
Op volledig analoge wijze kan men twee basissen B 0 en B
e0.
beschouwen en een overgangsmatrix Q voor de overgang van B 0 naar B
Is T (~v ) het beeld van ~v onder een lineaire afbeelding T van V naar W , dan geldt :
[T (~v )]B 0 = Q · [T (~v )]Be0
Met betrekking tot de matrixrepresentatie van een lineaire afbeelding T van V naar
W kunnen we nu de volgende stelling aantonen.
¥ STELLING 3.14
matrix van lineaire afbeelding bij basisverandering
Zij T een lineaire afbeelding van V naar W met V en W eindig–dimensionaal
e resp. B 0 en B
e 0 geordende basissen in V resp. in W en zij P resp. Q
Zij verder B en B,
e resp. van B 0 naar B
e0
de overgangsmatrix van B naar B,
Dan geldt : zijn [T ]BB 0 resp. [T ]BeBe0 de met T geassocieerde matrices t.o.v. de gekozen
basissen, dan is [T ]BeBe0 = Q−1 · [T ]BB 0 · P
bewijs :
De matrixvoorstelling van de lineaire afbeelding T t.o.v. de basis B in V en de basis
B 0 in W wordt gegeven door [T (~v )]B 0 = [T ]BB 0 · [~v ]B .
Maken we gebruik van [~v ]B = P · [~v ]Be en [T (~v )]B 0 = Q · [T (~v )]Be0 dan bekomen we :
[T (~v )]B 0 = [T ]BB 0 · [~v ]B
⇐⇒ Q · [T (~v )]Be0 = [T ]BB 0 · P · [~v ]Be
⇐⇒ [T (~v )]Be0 = Q−1 · [T ]BB 0 · P ·[~v ]Be
|
{z
}
e
Anderzijds is ook [T (~v )]Be0 = [T ]BeBe0 · [~v ]Be (matrixvoorstelling van T t.o.v. de basis B
0
e van W ).
van V en B
We besluiten dus dat [T ]BeBe0 = Q−1 · [T ]BB 0 · P
• Algebra voor ingenieurs •
¤.
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3–33
Bijzonder geval :
e in V gekozen
Is T een lineaire transformatie van V naar V en zijn basissen B en B
e
waarbij P de overgangsmatrix is bij overgang van B naar B , dan geldt :
[T ]Be = P −1 · [T ]B · P
voorbeeld :
Beschouw de lineaire transformatie van de vectorruimte R2 gedefinieerd door T :
(x, y) 7−→ (x + y, 2x − y).
De
µ matrix
¶ van T t.o.v. de standaardbasis B = {~e1 = (1, 0), ~e2 = (0, 1)} . is gelijk aan
1
1
2 −1
e = {~u1 = (1, 1), ~u2 = (−1, 0)} ?
Wat wordt de matrix van T t.o.v. de nieuwe basis B
e . Daartoe
We bepalen eerst de overgangsmatrix P voor de overgang van B naar B
drukken we de nieuwe basisvectoren uit t.o.v. de oude basis :
~u1 = (1, 1) = (1, 0) + (0, 1) = ~e1 + ~e2 en ~u2 = (−1, 0) = −(1, 0) + 0(0, 1) = −~e1 + 0 ~e2
µ
Bijgevolg is P =
1 −1
1
0
¶
e luidt dus :
De matrix van T t.o.v. de basis B
µ
1 −1
1
0
¶µ
¶ µ
¶µ
¶µ
¶ µ
¶
¶−1 µ
1 −1
0 1
1
1
1 −1
1 −2
1
1
·
=
·
·
=
·
2 −1
1
0
−1 1
2 −1
1
0
−1 −1
e , dan
Zijn (e
x, ye) de coördinaten van een willekeurige vector t.o.v. de nieuwe basis B
wordt T dus gegeven door : (e
x, ye) 7→ (e
x − 2e
y , −e
x − ye)
R
DEFINITIE 3.6
gelijkvormige matrices
Twee vierkante matrices A en B worden gelijkvormig genoemd als en slechts als
er een inverteerbare matrix C bestaat waarvoor B = C −1 · A · C
Met het bijzonder geval van bovenstaande stelling hebben we dus : twee matrices
zijn geassocieerd met dezelfde lineaire transformatie (t.o.v. verschillende basissen)
als en slechts als ze gelijkvormig zijn.
Hoofdstuk 3
• Algebra voor ingenieurs •
3–34
Vectorruimten en lineaire afbeeldingen
Men kan zich afvragen of er criteria bestaan om gemakkelijk na te gaan of twee
matrices al dan niet gelijkvormig zijn. Het antwoord op deze vraag is niet eenvoudig,
maar we kunnen wel al een nodige voorwaarde vinden door het begrip spoor van
een matrix in te voeren.
R
DEFINITIE 3.7
spoor van een matrix
Het spoor (ook trace) van een vierkante matrix A = (aij ) is per definitie gelijk
aan de som van de elementen op de hoofddiagonaal.
Dus tr(A) = a11 + a22 + . . . + ann =
n
X
aii
i=1
We tonen nu aan dat gelijkvormige matrices hetzelfde spoor hebben.
Anders gezegd : het spoor is een gelijkvormigheidsinvariant.
¥ STELLING 3.15
spoor is gelijkvormigheidsinvariant
Zij A en B vierkante matrices
Dan geldt : tr(A · B) = tr(B · A) en als A en B gelijkvormig zijn, dan is tr(A) = tr(B)
bewijs :
Stel A = (aij ) en B = (bij ), dan is A · B = (cij ) met cij =
Bijgevolg is tr(A · B) =
n
X
cll =
l=1
n
n X
X
aik bkj .
k=1
alk bkl
l=1 k=1
n
X
Anderzijds is B · A = (dij ) met dij =
n
X
bil alj zodat tr(B · A) =
l=1
n
X
k=1
dkk =
n
n X
X
bkl alk
k=1 l=1
Hiermee is bewezen dat tr(A · B) = tr(B · A).
Als A en B gelijkvormig zijn, dan bestaat er een inverteerbare matrix C waarvoor
B = C −1 · A · C .
Gebruikmakend van het eerste deel van de stelling is dan tr(B) = tr(C −1 · A · C) =
tr(A · C · C −1 ) = tr(A) ¤.
Naast het spoor is ook de determinant een gelijkvormigheidsinvariant : als A en B
gelijkvormig zijn, dan is det(A) = det(B).
Dit volgt onmiddellijk uit B = C −1 · A · C , de multiplicatieve eigenschap van determinanten en het feit dat det C −1 = det1 C
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3.10
3–35
Bewerkingen met lineaire afbeeldingen
Beschouw de verzameling Lin(V, W ) van alle lineaire afbeeldingen van een vectorruimte V naar een vectorruimte W (over hetzelfde veld F).
In deze verzameling kan men een optelling en een vermenigvuldiging met scalairen
definiëren.
Immers de afbeelding T1 + T2 kan puntsgewijze gedefinieerd worden door :
(T1 + T2 )(~v ) = T1 (~v ) + T2 (~v ) voor elke ~v ∈ V .
T1 + T2 is terug een lineaire afbeelding van V naar W en er kan worden aangetoond
dat Lin(V, W ) voorzien van deze optelling gestructureerd wordt tot een commutatieve groep (met als nulelement de nulafbeelding die elke vector van V afbeeldt op
~oW ).
Men kan ook de vermenigvuldiging van een lineaire afbeelding met een scalair definiëren door : (kT )(~v ) = k · T (~v ) voor elke ~v ∈ V en elke k ∈ F.
De afbeelding kT is opnieuw lineair.
Men toont aan dat deze scalaire vermenigvuldiging voldoet aan alle voorwaarden
om Lin(V, W ) samen met de optelling te structureren tot een vectorruimte.
Lin(V, W ) kan dus zelf beschouwd worden als een vectorruimte over F (de vectoren
van deze ruimte zijn lineaire afbeeldingen).
Is dim V = n en dim W = m en kiezen we een basis B in V en een basis B 0 in W , dan
kan elk element van Lin(V, W ) worden gerepresenteerd door een m×n–matrix [T ]BB 0 .
Men kan aantonen dat [T1 + T2 ]BB 0 = [T1 ]BB 0 + [T2 ]BB 0 en dat [kT ]BB 0 = k · [T ]BB0 .
De bijectieve afbeelding Φ : Lin(V, W ) → M at(m, n, F), T 7→ [T ]BB 0 is bijgevolg een
isomorfisme van de vectorruimte Lin(V, W ) naar de vectorruimte M at(m, n, F).
Is in het bijzonder V = W , dan kan ook de samenstelling van elementen van
Lin(V, V ) beschouwd worden.
T2 ◦ T1 wordt gedefinieerd door : (T2 ◦ T1 )(~v ) = T2 (T1 (~v )) voor elke ~v ∈ V .
Deze samenstelling is opnieuw een lineaire transformatie van V waarvan de matrix
gelijk is aan het product van de matrices van de samenstellende transformaties, dus
[T2 ◦ T1 ]B = [T2 ]B · [T1 ]B .
De identieke transformatie I van V fungeert als neutraal element voor deze samenstelling : T ◦ I = I ◦ T = T voor iedere T ∈ Lin(V ).
Met I correspondeert de eenheidsmatrix I t.o.v. elke gekozen basis B van V .
Hoofdstuk 3
• Algebra voor ingenieurs •
3–36
Vectorruimten en lineaire afbeeldingen
3.11
Eigenvectoren en eigenwaarden
3.11.1
Definitie van eigenvector, eigenwaarde en eigenruimte
R
DEFINITIE 3.8
eigenvector en eigenwaarde
Is T ∈ Lin(V ) dan noemt men een vector ~v verschillend van de nulvector, een
eigenvector (of karakteristieke vector) van T behorende bij de eigenwaarde
λ ∈ F als en slechts als T (~v ) = λ ~v
Eigenvectoren van een lineaire transformatie zijn dus niet–nulvectoren die worden
afgebeeld op een veelvoud van zichzelf.
De verzameling van alle eigenwaarden van een lineaire transformatie T , noemt men
ook het spectrum van T .
De voorwaarde T (~v ) = λ ~v kan ook nog geschreven worden als :
T (~v ) − λ ~v = ~o of dus (T − λI)(~v ) = ~o
Vermits een eigenvector per definitie niet de nulvector is, betekent dit dat T eigenvectoren bezit als en slechts als Ker (T − λI) 6= {~o}, m.a.w. als T − λI een
niet–injectieve lineaire transformatie is.
voorbeelden :
• Zij T de lineaire afleidingsoperator D inwerkend op de vectorruimte van de
afleidbare R–R functies.
Een functie f verschillend van de nulfunctie is een eigenvector (hier ook eigenfunctie genoemd) als en slechts als Df = λ f voor zeker reëel getal λ.
Deze voorwaarde komt neer op het bepalen van de algemene oplossing van de
lineaire 1ste orde differentiaalvergelijking y 0 − λ y = 0. Deze is y = C eλ x .
Alle functies met voorschrift van de gedaante f (x) = C eλ x met λ willekeurig
maar vast, zijn dus eigenfuncties horende bij eigenwaarde λ.
De afleidingsoperator bezit dus oneindig veel eigenwaarden en bij elke eigenwaarde horen oneindig veel eigenvectoren.
• Zij T de lineaire transformatie van R2 gedefinieerd door T (x, y) = (x, −y) (spiegeling om de x–as).
Klaarblijkelijk zijn alle vectoren (x, 0) eigenvectoren van T horende bij eigenwaarde λ = 1 (vectoren van de spiegelas worden op zichzelf afgebeeld) terwijl
alle vectoren (0, y) eigenvectoren van T zijn horende bij eigenwaarde λ = −1
(deze vectoren worden bij spiegeling afgebeeld op hun tegengestelde).
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3–37
• Zij TA de lineaire
transformatie
die op natuurlijke wijze geassocieerd is met de
µ
¶
0 −1
matrix A =
(meetkundig correspondeert TA met een rotatie over
1
0
een hoek
π
2
in tegenwijzerzin).
TA werkt op de kolomvectoren
µ
x
y
¶
een vector onder TA is de kolomvector
van M at(2, 1, R) en het beeld van zulk
µ
−y
x
¶
De eigenvectoren
van TA bij eigenwaarde λ zijn de oplossingen (x, y) van het
½
stelsel
−y = λx
x = λy
Dit leidt tot (λ2 + 1)x = 0 waaruit x = 0 en dan ook y = 0 zodat TA geen
eigenvectoren bezit (bij roteren over π2 zijn er geen vectoren die een veelvoud
van zichzelf als beeld hebben).
Laat men evenwel TA inwerken op kolomvectoren van M at(2, 1, C), dan bezit
TA wél eigenvectoren (horende bij de complexe eigenwaarden j en −j ) !
Het is dus van belangrijk om vooraf expliciet af te spreken over welk veld er
wordt gewerkt.
Doorgaans zal men stilzwijgend veronderstellen dat TA inwerkt op kolomvectoren met reële elementen wanneer de elementen van de matrix A ook alle
reëel zijn.
¥ STELLING 3.16
eigenruimte van een lineaire transformatie
Zij T een lineaire transformatie van V en zij λ een eigenwaarde van T .
Dan vormt de verzameling van alle eigenvectoren horende bij λ, aangevuld met de
nulvector, een deelruimte van V , die men een eigenruimte noemt.
bewijs :
Onderstel dat ~v1 en ~v2 eigenvectoren zijn horende bij eigenwaarde λ. Dan is T (r ~v1 +
~v2 )) = r T (~v1 ) + T (~v2 ) = r λ ~v1 + λ ~v2 = λ (r ~v1 + ~v2 ).
Met het criterium voor deelruimte volgt nu het gestelde (na toevoeging van de nulvector).
Overigens volgt het resultaat ook uit het feit dat de eigenvectoren horende bij λ de
niet–nulvectoren zijn van Ker (T − λI) en deze is een deelruimte van V als kernruimte (stelling 3.10). ¤
Hoofdstuk 3
• Algebra voor ingenieurs •
3–38
Vectorruimten en lineaire afbeeldingen
Men noemt Ker (T − λI) de eigenruimte of karakteristieke ruimte geassocieerd
met de eigenwaarde λ, notatie Eλ .
De eigenruimte Eλ is dus de verzameling van alle eigenvectoren horende bij eigenwaarde λ, aangevuld met de nulvector.
3.11.2
De karakteristieke veelterm en vergelijking
Onderstel dat T een lineaire transformatie is van een eindig–dimensionale vectorruimte V en dat een geordende basis B in V werd gekozen.
Als λ een eigenwaarde is van T met bijhorende eigenvector ~v , dan is (T − λI)(~v ) = ~o.
Maken we nu gebruik van de matrixrepresentatie van de optredende lineaire transformatie T − λI t.o.v. de gekozen basis B dan betekent dit :
([T ]B − λ[I]B ) · [~v ]B = [~o]B
waarbij de matrix [I]B van de identieke transformatie de n × n− eenheidsmatrix I
is.
We kunnen het bovenstaande ook nog schrijven als :

 
x1
 x2  

 
([T ]B − λI) ·  ..  = 
 .  
xn

0
0 

.. 
. 
0
Vermits ~v 6= ~o betekent dit noodzakelijk dat det([T ]B − λI) = 0
We besluiten dus : λ is een eigenwaarde van T als en slechts als det ([T ]B − λI) = 0.
Dit resultaat volgt ook uit het feit dat T − λ I een niet–injectieve (= singuliere)
transformatie moet zijn.
We gaan nu na in hoeverre dit besluit afhangt van de keuze van de basis B.
e en noem P de overgangsmatrix bij overgang van B naar
Kies een tweede basis B
−1
e , dus [T ] e = P · [T ]B · P
B
B
Bijgevolg geldt : λ is een eigenwaarde van T als en slechts als det([T ]Be − λI) = 0
⇐⇒
⇐⇒
⇐⇒
⇐⇒
⇐⇒
⇐⇒
det (P −1 · [T ]B · P − λI) = 0
det (P −1 · [T ]B · P − P −1 · P · λI) = 0
det (P −1 · [T ]B · P − P −1 · λI · P ) = 0
.
det (P −1 · ([T ]B − λI) · P ) = 0
det(P −1 ) · det([T ]B − λI) · det(P ) = 0
det([T ]B − λI) = 0
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3–39
We kunnen dus besluiten :
λ is een eigenwaarde van T als en slechts als det([T ]B − λI) = 0 waarbij [T ]B de
matrix is die geassocieerd is met T t.o.v. een willekeurig gekozen basis B .
Bovenstaand resultaat suggereert de invoering van het begrip eigenwaarde van een
matrix.
Is A een vierkante matrix van de orde n, dan wordt λ een eigenwaarde van A genoemd als en slechts als det(A − λI) = 0.
Voluit geschreven betekent dit :
¯
¯ a11 − λ
a12
¯
¯ a21
a22 − λ
¯
¯
.
..
..
¯
.
¯
¯ an1
an2
¯
¯
¯
¯
¯
¯=0
..
...
¯
.
¯
· · · ann − λ ¯
···
···
a1n
a2n
Het is duidelijk dat men na uitwerking van de determinant in het linkerlid van deze
vergelijking een veelterm bekomt van de graad n in λ.
Deze veelterm p(λ) = (−1)n λn + (−1)n−1 (tr A) λn−1 + . . . + det A wordt de karakteristieke veelterm van A genoemd.
De constante term van deze veelterm is gelijk aan det A wat men inziet door λ nul
te stellen in p(λ) = det(A − λ I).
De vergelijking p(λ) = det(A − λI) = 0 wordt de karakteristieke vergelijking van
A genoemd.
Het bepalen van de eigenwaarden van een n × n–matrix A komt dus neer op het
oplossen van een n–de graadsvergelijking.
Wegens de hoofdstelling van de algebra bezit zo’n vergelijking precies n oplossingen
(rekening houdend met de multipliciteiten) in het veld C van de complexe getallen.
Een reële matrix bezit dus steeds minstens één complexe eigenwaarde, maar niet
noodzakelijk reële eigenwaarden.
Zijn λ1 , . . . , λn de (niet noodzakelijk verschillende) oplossingen van de karakteristieke vergelijking dan is p(λ) = (λ − λ1 ) . . . (λ − λn ) = λn − (λ1 + . . . λn ) λn−1 + . . . +
(−1)n λ1 . . . λn terwijl anderzijds ook p(λ) = (−1)n λn + (−1)n−1 (tr A) λn−1 + . . . + det A
Hieruit besluiten we dat tr A = λ1 + . . . + λn (het spoor van A is de som van de
eigenwaarden) en det A = λ1 . . . λn (de determinant van A is het product van de
eigenwaarden).
Hoofdstuk 3
• Algebra voor ingenieurs •
3–40
Vectorruimten en lineaire afbeeldingen
Keren we nu terug naar lineaire transformaties van een eindig–dimensionale vectorruimte V .
e van V geldt dat det([T ] e − λ I) = det([T ]B − λ I) (zie
Omdat voor basissen B en B
B
hoger) is de veelterm pT (λ) = det([T ]B −λ I) onafhankelijk van de keuze van de basis.
Men noemt deze de karakteristieke veelterm van de lineaire transformatie T en
de vergelijking pT (λ) = 0 heet de karakteristieke vergelijking van T .
Vermits de matrices geassocieerd met T t.o.v. verschillende basissen gelijkvormig
zijn, kunnen we het bovenstaande ook nog anders formuleren : gelijkvormige matrices hebben dezelfde karakteristieke veelterm (en bijgevolg dezelfde eigenwaarden)
of nog de karakteristieke veelterm is een gelijkvormigheidsinvariant.
We tonen nu eerst enkele algemene eigenschappen aan m.b.t. eigenwaarden van een
matrix (of van een lineaire transformatie).
¥ STELLING 3.17
eigenwaarden van verwante matrices
Zij A een n × n–matrix, dan geldt :
(i) λ = 0 is een eigenwaarde van A a.s.a. det A = 0
(ii) A en AT bezitten dezelfde karakteristieke veelterm en dezelfde eigenwaarden
(iii) Is A inverteerbaar en is λ een eigenwaarde van A, dan is λ1 eigenwaarde van A−1
(iv) Is A een boven– of benedendriehoeksmatrix, dan zijn de eigenwaarden van A
de elementen op de hoofddiagonaal
(v) Is λ een eigenwaarde van A en is w(x) een veeltermfunctie, dan is w(λ) een
eigenwaarde van w(A)
(vi) Als A en B gelijkvormig zijn, dan bezitten ze dezelfde karakteristieke veelterm
en dezelfde eigenwaarden
bewijs :
(i) 0 is eigenwaarde a.s.a. det(A − 0 I) = 0
(ii) det(AT − λ I) = det(AT − (λ I)T ) = det(A − λ I)T = det(A − λ I)
(iii) det(A−1 − λ1 I) = 0 ⇐⇒ det A · det(A−1 − λ1 I) = 0 ⇐⇒ det(I − λ1 A−1 ) = 0 ⇐⇒
det(λ I − A−1 ) = 0
(iv) Als A driehoeksmatrix is, dan ook A − λ I zodat de determinant van die
laatste gelijk is aan het product van de elementen op de hoofddiagonaal, dus
p(λ) = (a11 − λ) · . . . · (ann − λ)
(v) We tonen eerst aan door volledige inductie dat λk eigenwaarde is van Ak voor
elke k ∈ N. Voor k = 0 en k = 1 geldt deze eigenschap. Stel dat bewezen is dat
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3–41
λk−1 eigenwaarde is van Ak−1 en zij ~v een bijhorende eigenvector. Dan is Ak · ~v =
A · (Ak−1 ·~v ) = A · (λk−1 ~v ) = λk−1 A ·~v = λk−1 (λ ~v ) = λk ~v waarmee is aangetoond dat ~v
k
een eigenvector is van Ak horende bij eigenwaarde
w(A)
= b0 +b1 A+. . .+bs As
Psλ . Is nu
P
dan volgt met het voorgaande dat w(A) · ~v = i=1 bi Ai · ~v = si=1 bi λi ~v = w(λ) · ~v
zodat w(λ) eigenwaarde is van w(A)
(vi) werd reeds aangetoond op vorige pagina ¤
3.11.3
Algebraı̈sche en meetkundige multipliciteit
We hebben reeds opgemerkt dat de karakteristieke vergelijking van een matrix of
een lineaire transformatie een n–de graadsvergelijking is die dus n oplossingen in C
bezit wanneer men rekening houdt met de multipliciteit van deze oplossingen.
R
DEFINITIE 3.9
multipliciteit van een eigenwaarde
Is λ een eigenwaarde van de matrix A of van de lineaire transformatie T , dan
noemt men de multipliciteit van λ als oplossing van de karakteristieke
vergelijking, de algebraı̈sche multipliciteit van λ.
Is Eλ de eigenruimte horende bij λ dan noemt men de dimensie van Eλ de
meetkundige multipliciteit van λ.
We noteren de algebraı̈sche multipliciteit van λ met qλ en de meetkundige multipliciteit met rλ .
De volgende stelling toont het verband tussen beide multipliciteiten.
¥ STELLING 3.18
multipliciteitenstelling
Zij λ een eigenwaarde van een lineaire transformatie T van V met dim V = n waarbij
λ algebraı̈sche multipliciteit q en meetkundige multipliciteit r bezit.
Dan geldt : r ≤ q .
bewijs :
Kies in de eigenruimte Eλ een basis {~e1 , . . . , ~er } en vul deze aan tot een basis B =
{~e1 , . . . , ~en } van V .
µ
¶
D B
T.o.v. deze basis bezit T een blokmatrix [T ]B =
waarbij D = diag (λ, . . . , λ) ∈
O C
M at(r, F) en O de (n − r) × r–nulmatrix.
Hoofdstuk 3
• Algebra voor ingenieurs •
3–42
Vectorruimten en lineaire afbeeldingen
De karakteristieke vergelijking pT (µ) = 0 is bijgevolg (uitwerking determinant van
blokmatrix) gelijk aan (λ − µ)r · det(C − µ I) = 0 zodat µ = λ een eigenwaarde is met
algebraı̈sche multipliciteit minstens gelijk aan r.
We besluiten dat q ≥ r. ¤
voorbeeld :
Bepaal eigenvectoren, eigenwaarden en eigenruimten van de lineaire transformatie
T van R3 gedefinieerd door T (x, y, z) = (2x + y, y − z, 2y + 4z)

2 1
0
T.o.v. de standaardbasis van R3 is de matrix van T gegeven door : A =  0 1 −1 
0 2
4

We bepalen de karakteristieke
vergelijking¯ :
¯
¯ 2−λ
1
0
¯
1 − λ −1
det(A − λI) = 0 ⇐⇒ ¯¯ 0
¯ 0
2
4−λ
¯
¯
¯ = 0 ⇐⇒ (λ − 3) (λ − 2)2 = 0
¯
¯
De eigenwaarden zijn dus λ1 = 3 en λ2 = 2 resp. met algebraı̈sche multipliciteit
qλ1 = 1 en qλ2 = 2.
We bepalen nu de eigenruimte horende bij eigenwaarde λ1 = 3, dus Ker (T − 3 I)

    
−1
1
0
x
0
 −x + y = 0
 0 −2 −1  ·  y  =  0  of
−2y − z = 0

2y + z = 0
0
2
1
z
0

Dit is een homogeen lineair stelsel met rang 2 en met 3 onbekenden.
De oplossingsruimte heeft dus dimensie 1 (één vrije onbekende).
Het
½ stelsel is gelijkwaardig met het stelsel gevormd door de hoofdvergelijkingen :
−x + y = 0
2y + z = 0
en de oplossingsruimte is {(y, y, −2y) | y ∈ R} = span {(1, 1, −2)}
De eigenruimte Eλ1 wordt dus voortgebracht door de vector (1, 1, −2) en heeft dimensie 1. De meetkundige multipliciteit van λ1 is dus rλ1 = 1.
Analoog bepaalt men de eigenruimte Eλ2 behorende bij λ2 = 2, dus Ker (TA − 2I)

    
0
1
0
x
0
=0
 y
 0 −1 −1  ·  y  =  0  of
−y − z = 0

0
2
2
z
0
2y + 2z = 0

• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3–43
waaruit Eλ2 = {(x, 0, 0) | x ∈ R} = span {(1, 0, 0)} voortgebracht door de eigenvector
(1, 0, 0).
Vermits de dimensie van die eigenruimte 1 is, heeft λ2 meetkundige multipliciteit
1, dus rλ2 = 1
Merk op dat rλ1 = qλ1 terwijl rλ2 < qλ2 .
3.11.4
Minimaalveelterm en de stelling van Cayley–Hamilton
In deze paragraaf formuleren we, zonder bewijs, één van de mooiste stellingen uit
de lineaire algebra : de stelling van Cayley–Hamilton.
Is A een vierkante matrix van de orde n over F, dan zeggen we dat de veelterm
w(x) = b0 + b1 x + . . . + bs xs met coëfficiënten in F en met graad ≥ 1 de matrix A
annuleert als w(A) = b0 + b1 A + . . . + bs As = O.
De verzameling van alle annulerende veeltermen van een matrix A bevat steeds een
unieke veelterm met leidende coëfficiënt 1 van laagste graad.
Immers, vermits dim M at(n, F) = n2 is de verzameling van de veeltermen die A
2
annuleren niet leeg : elk n2 + 1–tal matrices In , A, A2 , . . . , An is lineair afhankelijk.
2
Er bestaan dus scalairen ri (niet alle 0) waarvoor r0 In +r1 A+r2 A2 +. . .+rn2 An = O,
2
zodat de veelterm r(x) =
n
X
ri xi de matrix A annuleert.
i=0
Er bestaan dus annulerende veeltermen van laagste graad (waarvan de leidende
coëfficiënt steeds gelijk aan één kan worden gemaakt).
Zij nu w1 (x) en w2 (x) twee dergelijke veeltermen. Uit w1 (A) = O en w2 (A) = O volgt
dan ook dat w1 (x) − w2 (x) een annulerende veelterm is, waarvan de graad echter
kleiner is dan deze van w1 en w2 , in strijd met de onderstelling dat we veeltermen
van laagste graad beschouwden. Hiermee is de uniciteit aangetoond.
De unieke monische (= met leidende coëfficiënt 1) veelterm die A annuleert, waarvan
het bestaan is gewaarborgd door bovenstaande stelling, noemt men de minimaalveelterm van A, notatie mA (x).
voorbeelden :
• De nulmatrix wordt geannuleerd door elke veelterm met constante term gelijk
aan nul. Dus is de minimaalveelterm mO (x) = x.
• Is A een idempotente matrix, dan is A2 = A zodat A geannuleerd wordt door
de kwadratische veelterm x2 − x = x(x − 1).
Hoofdstuk 3
• Algebra voor ingenieurs •
3–44
Vectorruimten en lineaire afbeeldingen
Indien er een veelterm van lagere graad (dus van de eerste graad) zou bestaan
die A annuleert, bvb. x − k en dus A = k I zodat A2 = A betekent dat k 2 I = k I
of dus k = 0 of k = 1 wat correspondeert met A = O of A = I .
Een niet–triviale idempotente matrix heeft dus als minimaalveelterm m(x) =
x2 − x.
• Is A een nilpotente matrix met index k , d.w.z. dat Ak = O terwijl Aj 6= O
voor j < k , dan wordt A geannuleerd door de veelterm xk . Als gevolg van
het resultaat dat we onmiddellijk hieronder vermelden, is dan mA (x) = xl met
l ≤ k . Geen enkele veelterm xl met l < k kan echter annulerend zijn, want dan
zou Ak−1 = O. Bijgevolg is de minimaalveelterm van een nilpotente matrix
met index k gelijk aan m(x) = xk
Een belangrijk resultaat is het volgende : is w(x) een annulerende veelterm van A
dan is de minimaalveelterm mA (x) een deler van w(x).
Immers, de graad van w(x) is groter of gelijk aan de graad van mA (x) zodat met
het delingsalgoritme van Euclides veeltermen q(x) en r(x) kunnen gevonden worden
waarvoor w(x) = q(x) · mA (x) + r(x) en waarbij de graad van r(x) kleiner is dan de
graad van mA (x). Dan is echter r(A) = w(A) − q(A) mA (A) = O − O = O zodat r(x)
ook A annuleert, in strijd met het feit dat mA minimale graad heeft. Dus moet
r(x) = 0 zodat mA (x) een deler is van w(x).
We formuleren nu de beroemde stelling van Cayley–Hamilton.
¥ STELLING 3.19
stelling van Cayley–Hamilton
Zij A een vierkante matrix van de orde n met karakteristieke veelterm p(x).
Dan wordt A geannuleerd door p(x), dus p(A) = O
Gevolg 1 :
De minimaalveelterm van A is een deler van de karakteristieke veelterm van A.
Men kan zelfs meer bewijzen :
Is de karakteristieke veelterm van A gegeven door p(x) =
minimaalveelterm van A gelijk aan mA (x) =
s
Y
s
Y
(x − λi )qi , dan is de
i=1
(x − λi )li met 1 ≤ li ≤ qi , i = 1, . . . , s.
i=1
De karakteristieke veelterm en de minimaalveelterm bezitten dus dezelfde irreduciebele factoren.
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3–45
De minimaalveelterm speelt een belangrijke rol bij het bepalen van een bijzondere
gereduceerde vorm van een complexe matrix : de Jordan–normaalvorm.
Dit is een bijna–diagonaalmatrix, met op de hoofddiagonaal eigenwaarden, maar
ook nog ketens van 1’tjes net boven de hoofddiagonaal.
We gaan in deze elementaire tekst niet verder in op de Jordan–normaalvorm, maar
we vermelden enkel dat deze samenhangt met veralgemeningen van eigenruimten
en met nilpotente transformaties.
Gevolg 2 :
De inverse van een n × n–matrix kan geschreven worden als een veelterm in A met
graad kleiner dan of gelijk aan n − 1
Zij A een inverteerbare matrix. Omdat A voldoet aan zijn eigen karakteristieke
vergelijking, is dan (−1)n An + (−1)n−1 (tr A) An−1 + . . . + det A = O
Daaruit volgt, na vermenigvuldiging met A−1 :
(−1)n An−1 + (−1)n−1 (tr A) An−2 + . . . + det A A−1 = O
1
waaruit A−1 =
[(−1)n An−1 + (−1)n−1 (tr A) An−2 + . . .]
det A
De inverse matrix A−1 kan dus berekend worden als een veelterm in A met graad
≤n−1 !
Opmerking :
De hierboven ingevoerde begrippen kunnen eveneens worden ingevoerd voor lineaire
transformaties i.p.v. voor matrices.
De minimale veelterm mT van een lineaire transformatie is de minimale veelterm
van de matrix [T ]B van T t.o.v. een willekeurig gekozen basis. Deze is onafhankelijk
van de keuze van B , m.a.w. de minimaalveelterm is een gelijkvormigheidsinvariant.
Figuur 3.3: William Rowan Hamilton (1805–1865)
Hoofdstuk 3
• Algebra voor ingenieurs •
3–46
3.11.5
Vectorruimten en lineaire afbeeldingen
De stelling van Gershgorin
Het bepalen van de eigenwaarden van een matrix van de orde n komt neer op het
oplossen van een n–de graadsvergelijking, de karakteristieke vergelijking, in C.
Wegens de stelling van Abel–Ruffini is er geen algemene formule om deze vergelijking op te lossen door middel van louter algebraı̈sche bewerkingen in het geval n > 4.
Daarom zal men in die gevallen een beroep moeten doen op numerieke methoden
om de eigenwaarden bij benadering te vinden.
De meest gebruikte methode daarbij is de QR–factorisatie (zie ook hoofdstuk 4).
De Wit–Russische wiskundige Semyon Aranovich Gershgorin toonde in 1931 een
stelling aan die toelaat om de ligging van de eigenwaarden in het complexe vlak
min of meer te bepalen.
Dankzij de naar de Verenigde Staten uitgeweken Tsjechische wiskundige Olga Taussky–
Todd (1906–1995) raakte deze stelling beter bekend.
¥ STELLING 3.20
stelling van Gershgorin
Zij A eenX
vierkante matrix van de orde n met complexe elementen
|aij | voor i ∈ {1, . . . , n} en beschouw de schijven Si met middelpunt aii
Stel Ri =
j6=i
en straal Ri
Dan geldt : elke eigenwaarde van A ligt in minstens één schijf Si
bewijs :
Zij λ een eigenwaarde van A met bijhorende eigenvector ~v = (x1 , x2 , . . . , xn ).
Zij xi de component van ~v met grootste modulus (in het complex geval) of met
grootste absolute waarde (in het reëel geval). Omdat ~v 6= ~o is |xi | > 0.
Uit A · (x1 . . . xn )T = λ (x1 . . . xn )T volgt voor de i–de component :
n
X
aij xj = λ xi of nog (λ − aii ) xi =
j=1
Hieruit volgt : |λ − aii | |xi | = |
X
j6=i
X
aij xj .
j6=i
¯
¯P
¯ j6=i aij xj ¯ X
¯≤
|aij | ¤.
aij xj | en dus |λ − aii | = ¯¯
¯
xi
j6=i
Gevolg :
Als de elementen van A die niet behoren tot de hoofddiagonaal een kleine modulus
hebben, dan verschillende de eigenwaarden van A niet zo veel van de elementen op
de hoofddiagonaal.
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3–47
Figuur 3.4: Semyon Gershgorin (1901–1933) en Olga Taussky–Todd (1906–1995)
3.11.6
Diagonaliseerbaarheid
Eén van de voornaamste toepassingen van de theorie van eigenwaarden en eigenvectoren is ongetwijfeld het vraagstuk van diagonaliseerbaarheid van een vierkante
matrix of van een lineaire transformatie.
R
DEFINITIE 3.10
diagonaliseerbaarheid
Zij T een lineaire transformatie van een vectorruimte V met dim V = n.
T heet diagonaliseerbaar als een basis B = {~e1 , ~e2 , . . . , ~en } in V kan gevonden
worden waarvoor de matrix [T ]B een diagonaalmatrix is.
Een matrix A wordt diagonaliseerbaar genoemd indien de met A geassocieerde
lineaire transformatie TA diagonaliseerbaar is.
Een matrix A is dus diagonaliseerbaar wanneer A gelijkvormig is met een diagonaalmatrix D of dus wanneer er een inverteerbare matrix P bestaat waarvoor
P −1 · A · P = D een diagonaalmatrix is.
Opmerking :
Is A ∈ M at(n, R), dan kan de met A geassocieerde lineaire transformatie TA opgevat worden als een transformatie van M at(n, 1, R) of als een transformatie van
M at(n, 1, C).
Voor reële matrices moet men bijgevolg een onderscheid maken tussen diagonaliseerbaarheid over R en diagonaliseerbaarheid over C. Het is mogelijk dat een matrix
niet diagonaliseerbaar is over R maar wel over C.
Wanneer het veld niet expliciet wordt vermeld, dan zal men steeds stilzwijgend
diagonaliseerbaarheid over C bedoelen.
Hoofdstuk 3
• Algebra voor ingenieurs •
3–48
Vectorruimten en lineaire afbeeldingen
Een belangrijke vraag is nu : hoe kan men eenvoudig nagaan wanneer een transformatie (of een matrix) diagonaliseerbaar is ?
Daarvoor beschikt men over een aantal criteria die we hieronder wat nader bekijken.
¥ STELLING 3.21
eerste criterium voor diagonaliseerbaarheid
Zij T een lineaire transformatie van V met dim V = n
Dan is T diagonaliseerbaar a.s.a. V een basis bezit van eigenvectoren van T
bewijs :
Indien T diagonaliseerbaar is , dan bestaat er dus een basis B = {~e1 , ~e2 , . . . , ~en }
waarvoor [T ]B = diag(a1 , . . . , an ). Er geldt dus dat T (~ei ) = ai~ei zodat de vectoren ~ei
eigenvectoren zijn van T .
Omgekeerd, wanneer V een basis B = {~e1 , ~e2 , . . . , ~en } bezit van eigenvectoren van
T dan is duidelijk [T ]B de diagonaalmatrix diag(λ1 , . . . , λn ) met λi de eigenwaarde
horende bij de eigenvector ~ei (met de λi niet noodzakelijk onderling verschillend). ¤
We zullen nu aantonen dat het bestaan van een basis van eigenvectoren gegarandeerd is in het geval T n verschillende eigenwaarden bezit.
Als voorbereiding op die voldoende voorwaarde, tonen we eerst een hulpstelling aan.
¥ STELLING 3.22
hulpstelling diagonaliseerbaarheidsvoorwaarde
Zij T een lineaire transformatie van V met dim V = n en zij λ1 , λ2 , . . . , λk twee aan
twee verschillende eigenwaarden van T met bijhorende eigenvectoren ~e1 , ~e2 , . . . , ~ek .
Dan is {~e1 , ~e2 , . . . , ~ek } een lineair onafhankelijke verzameling in V .
bewijs :
We bewijzen door volledige inductie op k . Voor k = 1 is de stelling waar want
een eigenvector is per definitie verschillend van de nulvector en dus is {~e1 } lineair
onafhankelijk.
Onderstel nu dat de stelling waar is voor {~e1 , ~e2 , . . . , ~ek−1 }.
Uit l1~e1 + l2~e2 + . . . + lk−1~ek−1 + lk~ek = ~o (I) volgt
l1 T (~e1 )+l2 T (~e2 )+. . .+lk−1 T (~ek−1 )+lk T (~ek ) = ~o wegens de lineariteit van T en daaruit
volgt l1 λ1~e1 + l2 λ2~e2 + . . . + lk−1 λk−1~ek−1 + lk λk~ek = ~o omdat ~ei eigenvectoren zijn.
Anderzijds volgt uit (I) door beide leden te vermenigvuldigen met λk dat
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3–49
l1 λk~e1 + l2 λk~e2 + . . . + lk−1 λk~ek−1 + lk λk~ek = ~o (II)
Uit (I) en (II) bekomen we door aftrekking :
l1 (λ1 − λk )~e1 + l2 (λ2 − λk )~e2 + . . . + lk−1 (λk−1 − λk )~ek−1 = ~o
Door de inductiehypothese volgt hieruit dat
l1 (λ1 − λk ) = l2 (λ2 − λk ) = · · · = lk−1 (λk−1 − λk ) = 0
Omdat λi 6= λj voor i 6= j , moet dus noodzakelijk l1 = l2 = · · · = lk−1 = 0
Uit (I) volgt dan dat ook lk~ek = ~o waaruit tenslotte lk = 0.
Zo is aangetoond dat {~e1 , ~e2 , . . . , ~ek } een verzameling lineair onafhankelijke vectoren
is. ¤
¥ STELLING 3.23
voldoende voorwaarde voor diagonaliseerbaarheid
Zij T een lineaire transformatie van de vectorruimte V over F met dim V = n
Als T n verschillende eigenwaarden λ1 , . . . , λn ∈ F bezit, dan is T diagonaliseerbaar.
bewijs :
Volgt uit hulpstelling 3.21 samen met het eerste diagonaliseerbaarheidscriterium
3.20. ¤
Opmerkingen :
• We nadrukken dat de voorwaarde in de stelling slechts een voldoende voorwaarde is ! Ook als een lineaire transformatie minder dan n verschillende
eigenwaarden bezit, kan het toch soms mogelijk zijn om een basis van eigenvectoren te vinden zodat de transformatie diagonaliseerbaar is. Men maakt in
dat geval zo mogelijk gebruik van één van de criteria voor diagonaliseerbaarheid.
• De stelling kan ook geformuleerd worden voor matrices. Als een n × n–matrix
A (met elementen in F) n verschillende eigenwaarden bezit (behorende tot F),
dan is A diagonaliseerbaar (over F).
Merk op dat we expliciet melding maken van het veld F. Dat is belangrijk voor
reële matrices : als een reële n × n–matrix n verschillende reële eigenwaarden
bezit, dan is hij diagonaliseerbaar over R.
Hoofdstuk 3
• Algebra voor ingenieurs •
3–50
Vectorruimten en lineaire afbeeldingen
¥ STELLING 3.24
tweede criterium voor diagonaliseerbaarheid
Zij T een lineaire transformatie van V met dim V = n en met spectrum {λ1 , . . . , λp }
Zijn qi en ri (i = 1, . . . , p) de resp. algebraı̈sche en meetkundige multipliciteiten en
Eλi de bijhorende eigenruimten, dan zijn gelijkwaardig :
(i) T is diagonaliseerbaar
(ii) r1 + . . . + rp = n, m.a.w. voor elke i is qi = ri
(iii) V = Eλ1 ⊕ . . . ⊕ Eλp
bewijs :
(i) ⇒ (ii). Is T diagonaliseerbaar, dan bestaat er een basis B waarvoor [T ]B =
diag(λ1 , . . . , λ1 , . . . , λp , . . . , λp ) en met q1 + . . . + qp = n.
|
{z
}
{z
|
q1
}
qp
De eigenruimte Eλi bij λi bevat bijgevolg minstens qi lineair onafhankelijke eigenvectoren, zodat ri = dim Eλi ≥ qi . Wegens stelling 3.18 is evenwel steeds ri ≤ qi
zodat noodzakelijk ri = qi en dan ook r1 + . . . + rn = n
(ii) ⇒ (iii). Steeds geldt V ⊇ Eλ1 ⊕ . . . ⊕ Eλp .
Nu is dim(Eλ1 ⊕ . . . ⊕ Eλp ) =
p
X
dim Eλi = r1 + . . . + rp = n = dim V zodat V =
i=1
Eλ1 ⊕ . . . ⊕ Eλp .
(iii) ⇒ (i). Als V = Eλ1 ⊕ . . . ⊕ Eλp , construeer dan een basis B voor V waarbij de
eerste r1 vectoren uit Eλ1 worden genomen, de volgende r2 uit Eλ2 enzovoort. Dan is
[T ]B = diag(λ1 , . . . , λ1 , . . . , λp , . . . , λp een diagonaalmatrix zodat T diagonaliseerbaar
|
{z
}
r1
is. ¤
|
{z
}
rp
Tenslotte vermelden we nog, zonder bewijs, een derde criterium voor diagonaliseerbaarheid waarin gebruik wordt gemaakt van de minimaalveelterm.
¥ STELLING 3.25
derde criterium voor diagonaliseerbaarheid
Zij T een lineaire transformatie van V met dim V = n en met spectrum {λ1 , . . . , λp }
Dan is T diagonaliseerbaar a.s.a. de minimaalveelterm mT (x) gelijk is aan
(x − λ1 )(x − λ2 ) . . . (x − λp )
De diagonaliseerbaarheid komt dus neer op het feit dat de minimaalveelterm kan
geschreven worden als een product van lineaire factoren met multipliciteit 1.
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3–51
voorbeeld :
Beschouw de lineaire transformatie T van R2 [x] waarvoor T (ax2 +bx+c) = cx2 +bx+a.
2
T.o.v. de
 geordende
 standaardbasis (1, x, x ) is de matrix van T gegeven door :
0 0 1

0 1 0 
[T ]B =
1 0 0
¯
¯ −λ
0
1
¯
¯
De karakteristieke vergelijking is ¯ 0 1 − λ 0
¯ 1
0
−λ
¯
¯
¯
¯ = 0 of (λ − 1)2 (λ + 1) = 0
¯
¯
We vinden twee eigenwaarden : λ1 = 1 met algebraı̈sche multipliciteit 2 en λ2 = −1
met algebraı̈sche multipliciteit 1.
Omdat er slechts twee eigenwaarden zijn, terwijl dim V = 3, kunnen we de voldoende
voorwaarde voor diagonaliseerbaarheid (stelling 3.22 ) niet toepassen.
Dit wil echter nog niets zeggen over de diagonaliseerbaarheid van T !
De eigenruimte horende bij λ1 = 1 is gelijk aan Ker(T − I). Deze bevat alle vectoren
waarvoor T (~v ) = ~v , dus T (ax2 + bx + c) = ax2 + bx + c of dus cx2 + bx + a = ax2 + bx + c.
Dat zijn alle veeltermen waarvoor a = c.
De eigenruimte bij 1 is dus {ax2 + bx + a | a, b ∈ R}. Deze ruimte bezit als basis
{x2 + 1, x} en de meetkundige multipliciteit van de eigenwaarde 1 is dus twee.
Analoog is de eigenruimte horende bij λ2 = −1 gelijk aan Ker(T + I). Deze bevat
alle vectoren waarvoor T (~v ) = −~v , dus T (ax2 + bx + c) = −(ax2 + bx + c) of dus
cx2 + bx + a = −ax2 − bx − c. Dat zijn alle veeltermen waarvoor c = −a én b = 0.
De eigenruimte bij −1 is dus {ax2 − a | a ∈ R}. Deze ruimte bezit als basis {x2 − 1}
en de meetkundige multipliciteit van de eigenwaarde −1 is dus één.
Beschouwen we nu de verzameling eigenvectoren {x2 + 1, x, x2 − 1}. Deze vormt een
basis voor V .
Wegens het eerste criterium is T dus diagonaliseerbaar.
Dit kan trouwens ook worden besloten uit het tweede criterium want de som van de
meetkundige multipliciteiten van de eigenwaarden is gelijk aan 2 + 1 = 3 = dim V
(of voor alle eigenwaarden is de algebraı̈sche multipliciteit gelijk aan de meetkundige
multipliciteit).
Merk op dat de minimaalveelterm van T gelijk is aan mT (x) = (x − 1)(x + 1) = x2 − 1
vermits T 2 = I. Het derde criterium kan dus ook worden toegepast.
e=
De overgangsmatrix van de standaardbasis
B naarde basis van eigenvectoren B

1 0 −1

0 1 0 .
{x + 1, x, x − 1} is gegeven door P =
1 0 1
2
2
Hoofdstuk 3
• Algebra voor ingenieurs •
3–52
Vectorruimten en lineaire afbeeldingen
e is dan :
De matrix van T t.o.v. basis B

 
 
 

0 21
0 0 1
1 0 −1
1 0
0
0 = 0 1
0 
P −1 · [T ]B · P =  0 1 0  ·  0 1 0  ·  0 1
1
1
1 0 0
1 0
1
0 0 −1
−2 0 2
1
2
We vinden een diagonaalmatrix met op de hoofddiagonaal precies de eigenwaarden
van T .
3.11.7
Toepassingen van eigenwaarden en diagonaliseerbaarheid
Eigenwaardevraagstukken en de mogelijkheid om te diagonaliseren hebben ontzettend veel toepassingen in diverse disciplines.
De meeste daarvan zijn niet elementair genoeg om er grondig op in te gaan in dit
basiswerk, zodat we enkel melding maken van enige toepassingen zonder veel details
te geven.
1. Quantummechanica
In de quantummechanica vormen de toestandsvectoren van een fysisch stelsel een
complexe vectorruimte en associeert men aan elke dynamische veranderlijke die het
stelsel mee beschrijft een lineaire operator van deze vectorruimte.
Meer precies is de complexe vectorruimte een Hilbertruimte en zijn de lineaire operatoren hermitisch (zie ook hoofdstuk 4).
In tegenstelling tot de klassieke fysica waar fysische grootheden zoals energie een
continuüm van waarden kunnen aannemen, is het typerend voor de quantummechanica dat deze grootheden slechts een aantal discrete waarden kunnen aannemen.
Deze mogelijke discrete waarden worden nu precies gevonden als eigenwaarden van
de hierboven genoemde lineaire operatoren.
Het bepalen van de spectra (= verzameling van alle eigenwaarden) van hermitische
lineaire operatoren op Hilbertruimten is dus cruciaal in deze context.
2. Statistiek : factoranalyse
Factoranalyse (of principal components analysis) is een statistische techniek waarbij
men tracht om een groot aantal waargenomen statistische variabelen te reduceren
tot een beperkt aantal geconstrueerde variabelen (de zogenoemde factoren) die het
gedrag van de waargenomen variabelen zo goed mogelijk weergeven.
De factoren worden op een welbepaalde manier geselecteerd uit de eigenvectoren
van de zogeheten covariantiematrix van de waargenomen veranderlijken.
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3–53
Deze techniek wordt o.a. toegepast in spraakherkenning, schriftherkenning en beeldherkenning.
Door statistische analyse (uit de covariantiematrix van de waarschijnlijkheidsverdeling van digitale beelden van menselijke aangezichten) kan men een beperkt aantal
typische modelgezichten (eigenfaces) construeren. Ieder menselijk aangezicht kan
dan worden beschouwd als een lineaire combinatie van deze eigengezichten.
3. Traagheidstensor en spanningstensor in de mechanica
Een voorwerp dat rond een as draait, verzet zich als het ware tegen verandering van
de draaisnelheid. De mate waarin dit gebeurt wordt uitgedrukt met een grootheid
die men het traagheidsmoment ten opzichte van de draaias noemt.
Dit traagheidsmoment is afhankelijk van de massa van het voorwerp, maar ook van
de massaverdeling t.o.v. de rotatieas.
Het traagheidsmoment t.o.v. een welbepaalde as is een scalair. Voor bewegingen
in drie dimensies kan men de traagheidsmomenten t.o.v. verschillende assen samen
uitdrukken in een 3 × 3–matrix die men de traagheidstensor noemt.
Deze matrix is altijd symmetrisch en kan worden gediagonaliseerd.
Dat betekent dat de traagheidstensor een diagonaalmatrix wordt wanneer men
werkt t.o.v. een welbepaald assenstelsel (de zogeheten hoofdtraagheidsassen). Deze assen worden bepaald door de eigenvectoren van de traagheidstensor.
Analoge beschouwingen gelden voor de spanningstensor die gedefinieerd wordt in
de sterkteleer.
4. Grafentheorie
De eigenwaarden van een graaf zijn per definitie de eigenwaarden van haar adjacentiematrix.
Een k –regulier graaf bezit eigenwaarde k en alle overige eigenwaarden zijn kleiner
dan of gelijk aan k .
Uit de kennis van de eigenwaarden kan heel wat informatie over de structuur van
het graaf worden afgeleid (bvb. over de mogelijke opsplitsing van het graaf in deelgrafen).
5. Stelsels lineaire differentiaalvergelijkingen
Eigenwaarden en eigenvectoren zijn nuttig bij het oplossen van stelsels lineaire differentiaalvergelijkingen.
De algemene gedaante van een homogeen stelsel lineaire differentiaalvergelijkingen
met constante coëfficiënten is :
Hoofdstuk 3
• Algebra voor ingenieurs •
3–54
Vectorruimten en lineaire afbeeldingen


y10 = a11 y1 + . . . + a1n yn


 y 0 = a21 y1 + . . . + a2n yn
2
of in matrixgedaante Y 0 = A · Y
..

.


 y0 = a y + . . . + a y
n1 1
nn n
n

a11 · · ·
a1n
an1 · · ·
ann

waarbij Y 0 = (y10 . . . yn0 )T en Y = (y1 . . . yn )T en A =  ...

.. 
. 
Naar analogie met het bijzonder geval van één enkele lineaire eerste orde vergelijking
y 0 = ay , waarbij de algemene oplossing van de gedaante y = C eax is, kan men als
oplossing van het stelsel vooropstellen :
y1 = c1 eλx , y2 = c2 eλx , . . . , yn = cn eλx (alle met dezelfde λ) of kortweg Y = C eλx
waarbij Y = (y1 y2 . . . yn )T en C = (c1 c2 . . . cn )T .
Substitutie in de matrixgedaante van het stelsel Y 0 = A · Y levert
Cλ eλx = A · C eλx
⇐⇒
λC = A · C
⇐⇒
A · C = λC
Het stelsel differentiaalvergelijkingen bezit dus een oplossing Y = C eλx als en slechts
als λ een eigenwaarde en C = (c1 c2 . . . cn )T een bijhorende eigenvector is van de
matrix A.
Zulk een oplossing wordt een eigenoplossing van het stelsel genoemd.
De algemene oplossing wordt dan gevormd door lineaire combinatie van de eigenoplossingen.
Als de matrix A van een stelsel eerste orde differentiaalvergelijkingen diagonaliseerbaar is (dat is bvb. het geval als A symmetrisch is), dan is het stelsel gelijkwaardig
met een nieuw stelsel waarin iedere vergelijking slechts één onbekende functie bevat,
in tegenstelling tot het oorspronkelijk stelsel waarin elke vergelijking meerdere onbekende functies bevat. men zegt dat men in dit geval het stelsel kan ontkoppelen.
Opmerking :
De lineaire 2de orde vergelijking y 00 + ay 0 + by
½ = 0 is gelijkwaardig is met het stelsel
y10 = y2
y20 = −ay2 − by1
µ
¶
0
1
De bijhorende matrix A is hier : A =
en dus is de karakteristieke ver−b −a
van twee lineaire eerste orde vergelijkingen
gelijking voor het bepalen van de eigenwaarden :
¯
¯ −λ
1
¯
¯ −b −a − λ
¯
¯
¯ = 0 ⇐⇒ λ2 + aλ + b = 0.
¯
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3–55
Dit is niets anders dan de vergelijking die in de theorie van lineaire differentiaalvergelijkingen van 2de orde wordt ingevoerd om twee basisoplossingen te vinden en
die daar ook de karakteristieke vergelijking wordt genoemd.
6. Meetkunde : kwadrieken
Een kwadriek of een kwadratisch oppervlak in de driedimensionale euclidische
ruimte is elk oppervlak dat kan worden voorgesteld door een vergelijking F (x, y, z) =
0 waarbij F een veelterm is van de tweede graad in x, y en z .
De algemene vergelijking van een kwadriek is dus van de vorm
a11 x2 + a22 y 2 + a33 z 2 + 2a12 xy + 2a13 xz + 2a23 yz + 2a14 x + 2a24 y + 2a34 z + a44 = 0


a11 a12 a13
Stelt men A =  a12 a22 a23 , B = (a14 a24 a34 ) en X = (x y z), dan kan deze
a13 a23 a33
vergelijking in matrixgedaante worden geschreven :
X · A · X T + 2B · X + [a44 ] = O.
Beschouwt men een orthogonale coördinatentransformatie waarbij de nieuwe basisvectoren een georthonormeerd stel eigenvectoren vormen van A (zo’n transformatie
bestaat steeds omdat A symmetrisch is, zie hoofdstuk 4), dan wordt de vergelijking
van de kwadriek gereduceerd tot λ1 x02 +λ2 y 02 +λ3 z 02 +2a014 x0 +2a024 y 0 +2a034 z 0 +a044 = 0.
Men bekomt dus een vergelijking waarin de coëfficiënten van de termen met xy , xz
en yz nul zijn. men zegt dat de vergelijking van de kwadriek werd gereduceerd.
De coëfficiënten van de kwadratische termen zijn de (niet noodzakelijk verschillende)
eigenwaarden λ1 , λ2 en λ3 van de matrix A.
Men kan nu een classificatie opmaken van de verschillende soorten kwadrieken op
basis van het aantal verschillende eigenwaarden en hun teken.
Verder kan ook worden aangetoond dat een nodige en voldoende voorwaarde opdat
een kwadriek een omwentelingskwadriek zou zijn, is dat de matrix A een van nul
verschillende eigenwaarde zou bezitten met een algebraı̈sche multipliciteit groter
dan of gelijk aan twee.
Hoofdstuk 3
• Algebra voor ingenieurs •
3–56
Vectorruimten en lineaire afbeeldingen
3.12
Maple–commando’s voor vectorruimten en lineaire afbeeldingen
3.12.1
Vectoren ingeven
Vectoren van een n–dimensionale vectorruimte kunnen worden ingegeven als rijvectoren met Vector[row]([x1,x2,...,xn]) of als kolomvectoren met
Vector([x1,x2,...,xn]) .
voorbeeld :
>
>
>
with(LinearAlgebra):
v:=Vector[row]([1,4,-2,3]);
v := [1, 4, −2, 3]
w:=Vector([1,4,-2,3]);


1
 4 

w := 
 −2 
3
3.12.2
Lineaire onafhankelijkheid van vectoren nagaan
Is een verzameling L van vectoren gegeven, dan kan hieruit een maximaal stel lineair
onafhankelijke vectoren worden geselecteerd met Basis(L) .
Op die manier wordt dus ook een basis gevonden voor de vectorruimte V waarvan
L een voortbrengend stel vectoren is.
Als het antwword van Basis(L) opnieuw L oplevert, dan betekent dit dat het gegeven stel vectoren lineair onafhankelijk is.
voorbeeld :
>
>
>
>
v1:=Vector[row]([1,0,2]);
v1 := [1, 0, 2]
v2:=Vector[row]([2,2,1]);
v2 := [2, 2, 1]
v3:=Vector[row]([3,2,3]);
v3 := [3, 2, 3]
Basis([v1,v2,v3]);
[[1, 0, 2], [2, 2, 1]]
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3.12.3
3–57
De rijenruimte en de kolommenruimte van een matrix
bepalen
De rijenruimte en de kolommenruimte van een matrix A kunnen worden bepaald
met RowSpace(A) en ColumnSpace(A) .
Maple geeft dan een basis van rijvectoren (resp. kolomvectoren) die de rijenruimte
(resp. kolommenruimte) opspannen.
Het aantal vectoren in die basis is de rijenrang, resp. de kolommenrang van A en
deze zijn gelijk aan de (determinanten)rang die bepaald wordt met Rank(A).
voorbeeld :
>
A:=Matrix(3,4,[[3,0,3,2],[3,1,0,4],[4,1,4,2]]);


3 0 3 2
A :=  3 1 0 4 
4 1 4 2
>
RowSpace(A);
>
ColumnSpace(A);
>
Rank(A);
·
¸ ·
¸ ·
¸
14
−2
−8
[ 1, 0, 0,
, 0, 1, 0,
, 0, 0, 1,
]
9
3
9

    
1
0
0
 0  ,  1  ,  0 
0
0
1
3
3.12.4
Een basis bepalen voor een som of een doorsnede van
vectorruimten
Met het commando SumBasis(VL) wordt een basis bepaald van de directe som van
de vectorruimten die elk bepaald zijn door een voortbrengend stel. De lijst van deze
voortbrengende stellen is het argument VL in het SumBasis–commando.
Analoog wordt met IntersectionBasis(VL) een basis bepaald van de doorsnede
van een aantal vectorruimten.
voorbeeld :
>
V1:=[Vector([1,0,0]),Vector([0,1,0])];
Hoofdstuk 3
• Algebra voor ingenieurs •
3–58
Vectorruimten en lineaire afbeeldingen

>
>
>
  
1
0
V1 :=  0  ,  1 
0
0
V2:=[Vector([1,0,0]),Vector([0,0,1])];
   
1
0




0 , 0 
V2 :=
0
1
SumBasis([V1,V2]);
     
0
0
1
 0  ,  1  ,  0 
1
0
0
IntersectionBasis([V1,V2]);
 
1
 0 
0
3.12.5
De kern van een lineaire afbeelding bepalen
Is A de matrix van een lineaire afbeelding t.o.v. gekozen basissen, dan kan een
basis voor de kernruimte van die afbeelding worden bepaald met het commando
NullSpace(A) .
voorbeeld :
>
>
>
>
A:=Matrix(3,3,[[1,0,2],[0,2,1],[1,2,3]]);


1 0 2
A :=  0 2 1 
1 2 3
B:=NullSpace(A);


−2



 −1 


B := 
 2 





1
A&*op(B);




−2
1 0 2
 −1 

 0 2 1  &∗ 
 2 
1 2 3
1
evalm(%);
[0, 0, 0]
Wanneer de kern enkel de nulvector bevat, dan is een basis de ledige verzameling.
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
>
>
3–59
A:=Matrix(3,3,[[1,0,2],[2,1,0],[0,2,1]]);


1 0 2
A :=  2 1 0 
0 2 1
NullSpace(A);
{}
3.12.6
De karakteristieke veelterm van een matrix bepalen
De karakteristieke veelterm van een matrix wordt bepaald met
CharacteristicPolynomial(A,lambda) , waarin het tweede argument aangeeft welke naam als onbepaalde in deze veelterm moet worden genomen (meestal neemt
men daarvoor λ).
Men kan ook de stelling van Cayley–Hamilton verifiëren : elke matrix is oplossing
van zijn eigen karakteristieke vergelijking.
voorbeeld :
>
A:=Matrix(4,4,[[2,1,0,0],[0,2,0,0],[0,0,2,0],[0,0,0,5]]);


2 1 0 0
 0 2 0 0 

A := 
 0 0 2 0 
0 0 0 5
p:=CharacteristicPolynomial(A,lambda);
>
p := λ4 − 11 λ3 + 42 λ2 − 68 λ + 40
subs(lambda=A,p);
>
%14 − 11 %13 + 42 %12 − 68 %1 + 40


2 1 0 0
 0 2 0 0 

%1 := 
 0 0 2 0 
0 0 0 5
>
evalm(%);

0
 0

 0
0
Hoofdstuk 3
0
0
0
0
0
0
0
0

0
0 

0 
0
• Algebra voor ingenieurs •
3–60
Vectorruimten en lineaire afbeeldingen
3.12.7
De minimaalveelterm van een matrix bepalen
Met MinimalPolynomial(A,lambda) bepaalt men de minimaalveelterm van een matrix A met λ als onbepaalde.
Men kan ook verifiëren dat de minimaalveelterm een deler is van de karakteristieke
veelterm.
voorbeeld :
>
A:=Matrix(4,4,[[0,2,0,0],[0,2,0,0],[0,0,2,0],[0,0,0,0]]);


0 2 0 0
 0 2 0 0 

A := 
 0 0 2 0 
0 0 0 0
>
MinimalPolynomial(A,lambda);
−2 λ + λ2
>
factor(%);
λ (λ − 2)
>
CharacteristicPolynomial(A,lambda);
λ4 − 4 λ3 + 4 λ2
>
factor(%);
λ2 (λ − 2)2
3.12.8
Het spoor van een matrix bepalen
Het spoor van een matrix (= som van de elementen op de hoofddiagonaal) wordt
bepaald met Trace(A) .
voorbeeld :
>
>
>
A:=Matrix(5,5,[[1,2,3,4,5],[2,3,4,5,1],[3,4,5,1,2],[4,5,1,2,3],[5,1,2
,3,4]]);


1 2 3 4 5
 2 3 4 5 1 



3
4
5
1
2
A := 


 4 5 1 2 3 
5 1 2 3 4
Trace(A);
15
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3.12.9
3–61
Eigenwaarden en eigenvectoren van een matrix bepalen
De eigenwaarden van een matrix A worden gevonden met Eigenvalues(A) .
Maple geeft dan een kolommatrix waarvan de elementen de eigenwaarden zijn. Wanneer de algebraı̈sche multipliciteit van een eigenwaarde groter is dan één, dan komt
deze meer dan één keer voor in deze kolommatrix.
Men kan de bijhorende eigenvectoren vinden met Eigenvectors(A) .
Het antwoord van Maple bestaat dan uit twee matrices : de eerste is een kolommatrix met de eigenwaarden en de tweede is een matrix waarvan de kolommen de
eigenvectoren zijn die horen bij de overeenkomstige eigenwaarden.
voorbeeld :
>
>
>
A:=Matrix(4,4,[[1,2,0,1],[1,2,0,1],[0,0,2,0],[0,0,0,1]]);


1 2 0 1
 1 2 0 1 

A := 
 0 0 2 0 
0 0 0 1
Eigenvalues(A);
 
0
 1 
 
 2 
3
CharacteristicPolynomial(A,lambda);
λ4 − 6 λ3 + 11 λ2 − 6 λ
>
factor(%);
λ (λ − 1) (−2 + λ) (λ − 3)
>
>
>
Eigenvectors(A);

−1
−2 0 
   1
2
3



 1  
−1

 , 
1
1
0

 0  
2




2
 0 0
0 1 
0 1
0 0
B:=Matrix(3,3,[[1,0,0],[0,1,0],[0,0,-1]]);


1 0
0
0 
B :=  0 1
0 0 −1
Eigenvectors(B);

 

−1
0 0 1
 1 ,  0 1 0 
1
1 0 0
Hoofdstuk 3

• Algebra voor ingenieurs •
3–62
Vectorruimten en lineaire afbeeldingen
3.12.10
Nagaan of matrices gelijkvormig zijn
Men kan onderzoeken of twee matrices A en B gelijkvormig zijn met IsSimilar(A,B) .
Maple antwoordt met true of false.
Dit commando kan nog vergezeld worden van een bijkomend argument waardoor in
het geval van gelijkvormigheid de matrix C wordt gevonden waarvoor A = C −1 ·B·C .
Dat gebeurt met IsSimilar(A,B,output=’C’)
voorbeeld :
>
A:=Matrix(2,2,[[1,2],[1,4]]);
·
A :=
>
E:=Matrix(2,2,[[1,2],[0,3]]);
·
E :=
>
B:=Matrix(2,2,[[2,1],[4,3]]);
B :=
>
·
1 2
1 4
1 2
0 3
2 1
4 3
¸
¸
¸
IsSimilar(A,E);
false
>
>
>
>
IsSimilar(A,B);
true
C:=IsSimilar(A,B,output=’C’);
·
¸
1 0
C :=
−1 2
MatrixInverse(C)&*B&*C;
Ã"
#
¸!
·
¸
·
1 0
1 0
2 1
1 1 &∗
&∗
4 3
−1 2
2 2
evalm(%);
·
¸
1 2
1 4
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
3.12.11
3–63
De Jordannormaalvorm van een matrix bepalen
Als een matrix niet diagonaliseerbaar is, dan kan hij wel nog gereduceerd worden
door een gelijkvormigheidstransformatie tot een bijna–diagonaalvorm van een welbepaalde gedaante : de Jordannormaalvorm.
Wanneer men de eigenwaarden en eigenvectoren berekent en er is een eigenwaarde
met een algebraı̈sche multipliciteit groter dan de meetkundige multipliciteit, dan is
de matrix niet diagonaliseerbaar, maar kan men de Jordannormaalvorm bepalen.
Als de matrix wel diagonaliseerbaar is, dan is de Jordannormaalvorm precies de
diagonaalvorm.
In Maple vindt men de Jordannormaalvorm met JordanForm(A) .
voorbeeld :
>
>
B:=Matrix(3,3,[[1,0,1],[2,-2,-1],[0,0,1]]);


1
0
1
B :=  2 −2 −1 
0
0
1
Eigenvectors(B);


3


0
0
−2


2

 1 , 
 1 1 0 
1
0 0 0
de eigenwaarde 1 (met algebraı̈sche multipliciteit 2) heeft meetkundige
multipliciteit 1 (slechts één bijhorende eigenvector, want de tweede is de nulvector
en dat is geen eigenvector)
waaruit we besluiten dat B niet diagonaliseerbaar is.
>
JordanForm(B);
Hoofdstuk 3


−2 0 0
 0 1 1 
0 0 1
• Algebra voor ingenieurs •
3–64
Vectorruimten en lineaire afbeeldingen
3.12.12
De werking van een lineaire transformatie visueel voorstellen
Het is mogelijk om lineaire transformaties van R2 of R3 grafisch voor te stellen.
Het commando daarvoor bevindt zich in een deelbibliotheek van de Student–bibliotheek,
te laden met with(Student[LinearAlgebra]) .
Het commando zelf is ApplyLinearTransformPlot(A,P,opties) .
Het eerste argument is de 2 × 2– of de 3 × 3–matrix A die de lineaire transformatie
beschrijft.
Het tweede argument is een plot–object, een lijst van punten of één van de volgende
mogelijkheden : circle, grid, square (in het tweedimensionaal geval) of sphere,
grid, cube in het driedimensionaal geval.
Het derde argument bevat opties waarvan de belangrijkste zijn :
iterations = n : bepaalt het aantal keer dat de transformatie na elkaar moet wor-
den toegepast, de standaardinstelling is 4, maar meestal zet men deze op 1.
output = plot, animation : bepaalt of het origineel samen met het beeld moet wor-
den getekend of in een animatie waarbij het origineel en het beeld als afzonderlijke
frames worden getoond.
voorbeeld :
>
>
>
with(Student[LinearAlgebra]):
A := Matrix(2,2,[[1,2],[2,-1]]);
·
¸
1
2
A :=
2 −1
ApplyLinearTransformPlot(A,square, iterations=1,output=plot);
An Application of a Linear Transformation
On a Square
3
2
1
–3
–2
–1
1
2
3
–1
–2
–3
• Algebra voor ingenieurs •
Hoofdstuk 3
Vectorruimten en lineaire afbeeldingen
>
>
3–65
ApplyLinearTransformPlot(A,display([arrow([1,0],color=black),arrow([0
,1],color=black)]), iterations=1,output=plot);
An Application of a Linear Transformation
2
1.5
1
0.5
0
0.5
1
1.5
2
–0.5
–1
>
ApplyLinearTransformPlot(A,grid, iterations=1,output=animation);
An Application of a Linear Transformation
On a Grid
3
2
1
–3
–2
–1
1
2
3
–1
–2
–3
>
>
>
>
M:=Matrix(3,3,[[cos(Pi/6),sin(Pi/6),0],[-sin(Pi/6),cos(Pi/6),0],[0,0,
1]]);
 √

3 1
0 
 2
2


√


M :=  −1

3

0 
 2

2
0
0 1
ApplyLinearTransformPlot(M,cube,
iterations=1,output=plot,axes=none,color=grey,axes=normal);
An Application of a Linear Transformation
On a Cube
1
–1
–0.5
1
Hoofdstuk 3
–1
0 –0.5
–1
• Algebra voor ingenieurs •
Download