Eigenwaarden en eigenvectoren

advertisement
LINEAIRE ALGEBRA
DIFFERENTIEVERGELIJKINGEN
SIGNALEN
Een SIGNAAL is een functie gedefinieerd voor enkel gehele getallen is wordt weergegeven als een reeks
getallen, bijvoorbeeld {𝑦𝑘 }.
{𝑦𝑘 } = {… , 𝑦−2 , 𝑦−1 , 𝑦0 , 𝑦1 , 𝑦2 , … }, waarbij {𝑦𝑘 }: ℤ → ℝ
De verzameling van alle mogelijke signalen noemen we 𝕊.
𝕊 = {𝑎𝑙𝑙𝑒 𝑠𝑖𝑔𝑛𝑎𝑙𝑒𝑛 {𝑦𝑘 }}
DIFFERENTIEVERGELIJKINGEN
Een DIFFERENTIEVERGELIJKING van orde 𝑛 is een uitdrukking in de vorm
𝑎0 𝑦𝑘+𝑛 + 𝑎1 𝑦𝑘+𝑛−1 + 𝑎2 𝑦𝑘+𝑛−2 + ⋯ + 𝑎𝑛−1 𝑦𝑘+1 + 𝑎𝑛 𝑦𝑘 = 𝑧𝑘
waarbij getallen 𝑎0 , … , 𝑎𝑛 en signaal {𝑧𝑘 } zijn gegeven en {𝑦𝑘 } een nieuw signaal is. Er geldt 𝑎0 ≠ 0 en 𝑎𝑛 ≠ 0.
Wanneer 𝑧𝑘 = 0 spreken we van een HOMOGENE DIFFERENTIEVERGELIJKING, in alle andere gevallen van
een INHOMOGENE DIFFERENTIEVERGELIJKING. Elke homogene differentievergelijking van orde 𝑛 kan
geschreven worden in matrix vorm.
𝑥𝑘+1 = 𝐴𝑥𝑘 , 𝐴 ∈ 𝑅𝑛×𝑛
Een differentiaalvergelijking, een VERGELIJKING in de vorm
𝑎0 𝑓(𝑥) + 𝑎1 𝑓 ′ (𝑥) + ⋯ + 𝑎𝑛−1 𝑓 (𝑛−1) (𝑥) + 𝑎𝑛 𝑓 (𝑛) (𝑥) = 𝐶
kan (in sommige gevallen) op dezelfde manier benaderd worden als een differentievergelijking. De reeks
𝑓(𝑥), 𝑓 ′ (𝑥), … , 𝑓 (𝑛−1) (𝑥), 𝑓 (𝑛) (𝑥) vormt echter geen signaal, maar geeft de afgeleiden van 𝑓(𝑥) tot en met
orde 𝑛.
VOORBEELD 1: Omschrijven van een 2e orde differentiaalvergelijking naar een stelsel van twee 1e orde
differentiaalvergelijkingen
We hebben een homogene differentiaalvergelijking van de vorm
ax ′′ + bx ′ + cx = 0
Dit kunnen we herschrijven tot
c
b
x ′′ = − x − x ′
a
a
We kunnen deze vergelijking omschrijven tot een vergelijking van de eerste orde door middel van een
matrix. Laat
y (t)
x(t)
𝐲(t) = [ 1 ] = [ ′ ]
y2 (t)
x (t)
Dan volgt voor y ′ (t)
y2 (t)
0
1 y1 (t)
y ′ (t)
x′(t)
c
b] [
b
𝐲 ′ (t) = [ 1′ ] = [ ′′ ] = [ c
]
=
[
]
−
−
y2 (t)
x (t)
− y1 (t) − y2 (t)′
y2 (t)
a
a
a
a
oftewel
0
1
b]
𝐲 ′ = A𝐲 waarin A = [ c
−
−
a
a
Dit is een specifieke vorm van de homogene differentievergelijking
𝐱 k+1 = A𝐱 k
Een differentievergelijking kan worden omgezet in een differentiaalvergelijking door 𝑦𝑘 te vervangen door 𝑟 𝑘 .
In het algemeen geldt dat een niet-nul signaal 𝑟 𝑘 dan en slechts dan voldoet aan de homogene
differentievergelijking
𝑦𝑘+𝑛 + 𝑎1 𝑦𝑘+𝑛−1 + 𝑎2 𝑦𝑘+𝑛−2 + ⋯ + 𝑎𝑛−1 𝑦𝑘+1 + 𝑎𝑛 𝑦𝑘 = 0
wanneer 𝑟 een wortel is van de karakteristieke vergelijking
𝑟 𝑛 + 𝑎1 𝑟 𝑛−1 + ⋯ + 𝑎𝑛−1 𝑟 + 𝑎𝑛 = 0
OPLOSSINGSVERZAMELINGEN VOOR LINEAIRE DIFFERENTIEVERGELIJKINGEN
Bij gegeven constanten 𝑎1 , … , 𝑎𝑛 bekijken we de afbeelding 𝑇: 𝕊 → 𝕊 die een signaal {𝑦𝑘 } transformeert tot
een signaal {𝑤𝑘 } volgens de vergelijking
𝑤𝑘 = 𝑦𝑘+𝑛 + 𝑎1 𝑦𝑘+𝑛−1 + ⋯ + 𝑎𝑛−1 𝑦𝑘+1 + 𝑎𝑛 𝑦𝑘
𝑇 is een lineaire transformatie, wat impliceert dat de oplossingsverzameling van de homogene vergelijking
𝑦𝑘+𝑛 + 𝑎1 𝑦𝑘+𝑛−1 + ⋯ + 𝑎𝑛−1 𝑦𝑘+1 + 𝑎𝑛 𝑦𝑘 = 0 voor alle 𝑘
de KERN van 𝑇 is, de verzameling van signalen die 𝑇 afbeelden als het nulsignaal. Deze oplossingsverzameling
is een deelruimte van 𝕊.
In het algemeen geldt dat wanneer 𝑎𝑛 ≠ 0 en {𝑧𝑘 } gegeven is, de vergelijking
𝑦𝑘+𝑛 + 𝑎1 𝑦𝑘+𝑛−1 + ⋯ + 𝑎𝑛−1 𝑦𝑘+1 + 𝑎𝑛 𝑦𝑘 = 𝑧𝑘
voor alle 𝑘 een unieke oplossing heeft waarin 𝑦0 , … , 𝑦𝑛−1 zijn gespecificeerd.
BEWIJS Wanneer 𝑦0 , … , 𝑦𝑛−1 zijn gespecificeerd, kan door middel van bovenstaande vergelijking een
uitdrukking voor 𝑦𝑛 gedefinieerd worden, namelijk
𝑦𝑛 = 𝑧𝑘 − (𝑎1 𝑦𝑛−1 + ⋯ + 𝑎𝑛−1 𝑦1 + 𝑎𝑛 𝑦0 )
Nu kan op dezelfde manier een vergelijking worden opgesteld voor 𝑦𝑛+1 en 𝑦𝑛+𝑘 . We produceren nu
een signaal dat voldoet aan de gegeven differentievergelijking. Elk signaal dat voldoet aan deze
vergelijking, voldoet ook aan de vergelijkingen voor 𝑦𝑛 en 𝑦𝑛+𝑘 . Dit betekent dat de oplossing van de
differentievergelijking uniek is.
De verzameling 𝐻 van alle oplossingen van de 𝑛de orde homogene lineaire differentievergelijking
𝑦𝑘+𝑛 + 𝑎1 𝑦𝑘+𝑛−1 + ⋯ + 𝑎𝑛−1 𝑦𝑘+1 + 𝑎𝑛 𝑦𝑘 = 0 voor alle 𝑘
is een 𝑛-dimensionale vectorruimte.
BEWIJS Zoals eerder aangetoond is 𝐻 een deelruimte van 𝕊 omdat het de kern is va een lineaire
transformatie. Laat voor {𝑦𝑘 } 𝐹{𝑦𝑘 } de vector in ℝ𝑛 zijn gegeven door (𝑦0 , 𝑦1 , … , 𝑦𝑛−1 ). 𝐹: 𝐻 → ℝ𝑛 is
een lineaire transformatie. Eerder is gesteld dat er een uniek signaal {𝑦𝑘 } is zodanig dat 𝐹{𝑦𝑘 } =
(𝑦0 , 𝑦1 , … , 𝑦𝑛−1 ). Dit betekent dat 𝐹 een één-op-één lineaire transformatie is v an 𝐻 naar ℝ𝑛 .
dim 𝐻 = dim ℝ𝑛 = 𝑛
De standaard manier om de algemene oplossing van de differentievergelijking
𝑦𝑘+𝑛 + 𝑎1 𝑦𝑘+𝑛−1 + ⋯ + 𝑎𝑛−1 𝑦𝑘+1 + 𝑎𝑛 𝑦𝑘 = 0 voor alle 𝑘
te beschrijven is door de basis van de deelruimte van alle oplossingen te geven. Deze basis wordt een
FUNDAMENTELE OPLOSSINGSVERZAMELING genoemd. In praktijk geldt dat wanneer je 𝑛 lineair
onafhankelijke signalen vindt die voldoen aan bovenstaande vergelijking, dat deze automatisch de 𝑛 dimensionale oplossingsruimte opspannen.
De algemene oplossing van de niet-homogene differentievergelijking
𝑦𝑘+𝑛 + 𝑎1 𝑦𝑘+𝑛−1 + ⋯ + 𝑎𝑛−1 𝑦𝑘+1 + 𝑎𝑛 𝑦𝑘 = 𝑧𝑘 voor alle 𝑘
kan geschreven worden als een specifieke oplossingen plus een willekeurige lineaire combinatie van een
fundamentele oplossingsverzameling van de bijbehorende homogene vergelijking.
MARKOVKETENS
Markovketens worden gebruikt als wiskundige modellen voor allerlei situaties. Het model wordt gebruikt om
een experiment of meting te beschrijven die vele malen op dezelfde manier wordt uitgevoerd waarbij de
uitkomst van elke stap enkel afhangt van de uitkomst van de voorafgaande stap.
Een MARKOVKETEN is een reeks van waarschijnlijkheidsvectoren 𝐱 0 , 𝐱1 , 𝐱 2 , … samen met een
waarschijnlijkheidsmatrix 𝑃, zodanig dat
𝐱1 = 𝑃𝐱 0 , 𝐱 2 = 𝑃𝐱1 , 𝐱 3 = 𝑃𝐱 2 , …
De Markovketen kan ook worden beschreven door de eerste orde differentiaalvergelijking
𝐱 𝑘+1 = 𝑃𝐱 𝑘 voor 𝑘 = 0, 1, 2, …
Wanneer een Markovketen van vectoren in ℝ𝑛 een systeem of een reeks van experimenten beschrijven, dan
geven de elementen van 𝐱 𝑘 de kansen dat het systeem in elk van de 𝑛 mogelijek staten verkeert of de kansen
dat de uitkomst van het experiment gelijk is aan één van de 𝑛 mogelijke uitkomsten. Om deze reden wordt 𝐱 𝑘
de TOESTANDSVECTOR genoemd.
Op de lange termijn ontstaat er een evenwichtssituatie. De waarschijnlijkheidsvector 𝐪 zodanig dat
𝑃𝐪 = 𝐪
wordt de STEADY-STATE VECTOR of de EVENWICHTSVECTOR genoemd. Elke waarschijnlijkheidsmatrix 𝑃
heeft een evenwichtsvector 𝐪.
Een systeem dat de veranderingen in de tijd beschrijft noemen we een DYNAMISCH SYSTEEM. Een
Markovketen is hier een voorbeeld van.
LINEAIRE RUIMTES EN DEELRUIMTES
LINEAIRE RUIMTES
Een LINEAIRE RUIMTE of VECTORRUIMTE is een niet-lege verzameling 𝑉 van bepaalde objecten (vectoren,
veeltermen, functies, signalen, etc.) waarop de som van twee elementen en 𝑐-voud van een element
gedefinieerd zijn. Dat wil zeggen, 𝑉 is gesloten voor deze twee bewerkingen. Dit is vastgelegd in de volgende 10
eigenschappen die elke lineaire ruimte moet hebben. Deze eigenschappen moeten gelden voor alle objecten 𝑢,
𝑣 en 𝑤 in 𝑉 en voor alle scalairen 𝑐 en 𝑑.
1. De som van 𝑢 en 𝑣, genoteerd als 𝑢 + 𝑣, is in 𝑉.
∀𝑢, 𝑣 ∈ 𝑉: 𝑢 + 𝑣 ∈ 𝑉
2. 𝑢 + 𝑣 = 𝑣 + 𝑢.
3. (𝑢 + 𝑣) + 𝑤 = 𝑢 + (𝑣 + 𝑤).
4. Er is een nulelement 0 in 𝑉 zodanig dat 𝑢 + 0 = 𝑢.
0∈𝑉
5. Voor elke 𝑢 in 𝑉 is er een vector −𝑢 in 𝑉 zodanig dat 𝑢 + (−𝑢) = 0.
6. De scalaire veelvoud van 𝑢 met 𝑐, genoteerd als 𝑐𝑢, is in 𝑉.
∀𝑢 ∈ 𝑉: 𝑐𝑢 ∈ 𝑉
7. 𝑐(𝑢 + 𝑣) = 𝑐𝑢 + 𝑐𝑣.
8. (𝑐 + 𝑑)𝑢 = 𝑐𝑢 + 𝑑𝑢.
9. 𝑐(𝑑𝑢) = (𝑐𝑑)𝑢.
10. 1𝑢 = 𝑢.
Met name de eigenschappen 1, 4 en 6 zijn belangrijk. Wanneer een verzameling 𝑉 voldoet aan deze drie
eigenschappen, dan kunnen we stellen dat 𝑉 een lineaire deelruimte is. Aan de andere zeven eigenschappen
wordt dan automatisch ook voldaan.
𝑉 is een REËLE LINEAIRE RUIMTE wanneer bij eigenschap 3 geldt 𝑐 ∈ ℝ. Als de eigenschap ook voor alle 𝑐 ∈
ℂ geldt, dan heet 𝑉 een COMPLEXE LINEAIRE RUIMTE.
VOORBEELD 2: Bepalen of V = ℂ een lineaire deelruimte is
Verzameling ℂ is de verzameling van alle complexe getallen.
ℂ = {z = x + iy | x, y ∈ ℝ, i2 = −1}
Aan de eigenschap dat V het nulelement moet bevatten wordt voldaan, want het getal 0 zit in ℂ.
∀z ∈ ℂ: z + 0 = z
Ook aan de eigenschap dat de som van twee elementen in ℂ altijd in ℂ zit wordt voldaan.
∀z1 , z2 ∈ ℂ: z1 + z2 ∈ ℂ
Tenslotte wordt aan de eigenschap dat een c-voud van een element in ℂ altijd in ℂ zit voldaan.
∀z ∈ ℂ, ∀c ∈ ℝ: cz ∈ ℂ
Conclusie: V = ℂ is een lineaire ruimte. Er is sprake van een reële lineaire ruimte omdat de c-voud voor
c ∈ ℤ is gedefinieerd.
LINEAIRE DEELRUIMTES
Stel dat 𝑉 een lineaire ruimte is. Een deelverzameling 𝐻 van 𝑉 heet een LINEAIRE DEELRUIMTE van 𝑉
wanneer aan de volgende drie voorwaarden is voldaan.
1. Het nulelement 0 van 𝑉 is ook een element van 𝐻.
0∈𝐻
2. 𝐻 is gesloten voor optelling.
∀𝑢, 𝑣 ∈ 𝐻: 𝑢 + 𝑣 ∈ 𝐻
3. 𝐻 is gesloten voor 𝑐-voud operatie.
∀𝑢 ∈ 𝐻: 𝑐𝑢 ∈ 𝐻
LINEAIR ONAFHANKELIJKE STELSELS
LINEAIRE COMBINATIES EN OPSPANSELS
Een LINEAIRE COMBINATIE is een som of scalaire veelvoud van de vectoren 𝐯1 , 𝐯2 , … , 𝐯𝑝
𝐰 = 𝑎1 𝐯1 + 𝑎2 𝐯2 + ⋯ + 𝑎𝑝 𝐯𝑝 met 𝑎1 , … , 𝑎𝑝 ∈ ℝ of ℂ
𝑆𝑝𝑎𝑛{𝐯1 , … , 𝐯𝑝 } duidt de verzameling aan van alle vectoren die kunnen worden geschreven als lineaire
combinaties van 𝐯1 , … , 𝐯𝑝 .
𝑆𝑝𝑎𝑛{𝐯1 , … , 𝐯𝑝 } = {𝐰 | 𝐰 = 𝑎1 𝐯1 + 𝑎2 𝐯2 + ⋯ + 𝑎𝑝 𝐯𝑝 } ⊂ 𝑉
waarbij elementen 𝐯1 , … , 𝐯𝑝 de voortbrengers van het OPSPANSEL worden genoemd. Wanneer 𝐯1 , … , 𝐯𝑝 in
een vectorruimte 𝑉 zitten, dan is 𝑆𝑝𝑎𝑛{𝐯1 , … , 𝐯𝑝 } een deelruimte van 𝑉.
LINEAIR ONAFHANKELIJKE SIGNALEN
Stel, we hebben een verzameling van drie signalen in 𝕊, {𝑢𝑘 }, {𝑣𝑘 } en {𝑤𝑘 }. Deze signalen zijn LINEAIR
ONAFHANKELIJK wanneer geldt dat voor alle 𝑘 de vergelijking
𝑐1 𝑢𝑘 + 𝑐2 𝑣𝑘 + 𝑐3 𝑤𝑘 = 0
als enige oplossing heeft 𝑐1 = 𝑐2 = 𝑐3 = 0. Omdat deze vergelijking voor alle 𝑘 moet gelden, geldt ook
𝑐1 𝑢𝑘+1 + 𝑐2 𝑣𝑘+1 + 𝑐3 𝑤𝑘+1 = 0
𝑐1 𝑢𝑘+2 + 𝑐2 𝑣𝑘+2 + 𝑐3 𝑤𝑘+2 = 0
Oftewel, een verzameling bestaande uit twee of meer vectoren is lineair afhankelijk wanneer een van de
vectoren een lineaire combinatie is van de overige vectoren.
De bovenstaande drie vergelijkingen kunnen we samenvoegen tot een matrixvergelijking.
𝑢𝑘
𝑣𝑘
𝑤𝑘
𝑐1
0
[𝑢𝑘+1 𝑣𝑘+1 𝑤𝑘+1 ] [𝑐2 ] = [0] voor alle 𝑘
𝑢𝑘+2 𝑣𝑘+2 𝑤𝑘+2 𝑐3
0
De coëfficiëntenmatrix in dit systeem wordt de CASORATI-MATRIX genoemd, en de determinant van deze
matrix is de CASORATIAAN van {𝑢𝑘 }, {𝑣𝑘 } en {𝑤𝑘 }. Wanneer de Casorati-matrix inverteerbaar is voor alle 𝑘,
dan impliceert bovenstaande vergelijking dat moet gelden 𝑐1 = 𝑐2 = 𝑐3 = 0, waarmee is aangetoond dat de
drie signalen lineair onafhankelijk zijn.1
1
Wanneer de Casorati-matrix niet inverteerbaar is, dan kunnen de signalen zowel lineair afhankelijk als onafhankelijk zijn.
Echter, wanneer de signalen allemaal oplossingen zijn van dezelfde homogene differentievergelijking, dan is ofwel de
Casorati-matrix inverteerbaar voor alle 𝑘 en zijn de signalen lineair onafhankelijk, ofwel is de Casorati-matrix niet
inverteerbaar en zijn de signalen lineair afhankelijk.
LINEAIR ONAFHANKELIJKE STELSELS
Elementen {𝐯1 , … , 𝐯𝑝 } vormen LINEAIR ONAFHANKELIJK STELSEL wanneer de vectorvergelijking
𝑐1 𝐯1 + 𝑐2 𝐯2 + ⋯ + 𝑐𝑝 𝐯𝑝 = 0
alleen de triviale oplossing heeft, 𝑐1 = 𝑐2 = ⋯ = 𝑐𝑝 = 0. Wanneer er een niet-triviale oplossing is, oftewel,
wanneer er bepaalde waarden zijn voor 𝑐1 , … , 𝑐𝑝 , niet allemaal nul, waarvoor de bovenstaande vergelijking
geldt, dan vormen de elementen een LINEAIR AFHANKELIJK STELSEL. Dit betekent dat ten minste één
vector 𝐯𝑗 een lineaire combinatie is van de voorgaande vectoren, 𝐯1 , … , 𝐯𝑗−1 .
1
i
VOORBEELD 3: Bepalen of de vectoren x = [ ] en y = [ ] een lineaire afhankelijk stelsel vormen
i
1
1
i
2
2
𝐱 = [ ] en 𝐲 = [ ] met i = −1 in ℂ .
i
1
𝐲 is een complex veelvoud van 𝐱: 𝐲 = i𝐱. Dus is {𝐱, 𝐲} een complex lineair afhankelijk stelsel.
VOORBEELD 4: Bepalen of de functies eλ1 t, eλ2 t , met complexe λ1 ≠ λ2 een lineaire afhankelijk stelsel
vormen in V = 𝔽(ℝ, ℂ) (alle functies van ℝ naar ℂ)
Stel a1 eλ1t + a 2 eλ2 t = 𝟎 voor alle t. Als hieruit volgt dat a1 = a 2 = 0, dan hebben we een lineair
onafhankelijk stelsel.
Invullen t = 0:
a1 eλ1 0 + a 2 eλ20 = a1 + a 2 = 0
Invullen t = 1:
a1 eλ1 1 + a 2 eλ21 = a1 eλ1 + a 2 eλ2 = 0
a1
1
1
0
1
1
[ λ1
met A = [ λ1
]
λ2 ] [a ] = [ ]
e
e
2
0
e
eλ2
λ2
λ1
λ2
λ1
det A = 1 ∙ e − 1 ∙ e = e − e ≠ 0
Aangezien det A ≠ 0 is er alleen een triviale oplossing. Het stelsel van de functies s eλ1 t , eλ2 t , met
complexe λ1 ≠ λ2 , is een lineair onafhankelijk stelsel in V = 𝔽(ℝ, ℂ).
BASIS EN DIMENSIE
Wanneer 𝐻 een deelruimte is van de lineaire ruimte 𝑉, dan is de verzameling van vectoren Β = {𝐛1 , … 𝐛𝑝 } in 𝑉
een BASIS voor 𝐻 wanneer
1. Β een lineair onafhankelijke verzameling is, en
2. de deelverzameling die wordt opgespannen door Β gelijk is aan 𝐻.
𝐻 = 𝑆𝑝𝑎𝑛{𝐛1 , … , 𝐛𝑝 }
De verzameling {𝐞1 , … , 𝐞𝑛 } is de STANDAARDBASIS voor ℝ𝑛 .
Wanneer 𝑆 = {𝐯1 , … , 𝐯𝑝 } een verzameling is in 𝑉 en 𝐻 = 𝑆𝑝𝑎𝑛{𝐯1 , … , 𝐯𝑝 }, dan geldt dat wanneer één van de
vectoren is 𝑆, bijvoorbeeld 𝐯𝑘 , een lineaire combinatie is van de overige vectoren in 𝑆, de verzameling die
wordt gevormd uit 𝑆 door 𝐯𝑘 te verwijderen nog steeds 𝐻 opspant. Oftewel, wanneer een lineaire ruimte 𝑉
een basis heeft Β = {𝐛1 , … 𝐛𝑝 }, dan is elke verzameling in 𝑉 met meer dan 𝑛 vectoren lineair afhankelijk.
Wanneer 𝐻 ≠ {𝟎}, dan is er altijd een deelverzameling van 𝑆 die als basis geldt voor 𝐻. Er zijn meerdere bases
mogelijk, maar ze bestaan allemaal uit hetzelfde aantal vectoren.
Een manier om te ontdekken of een vector een lineaire combinatie is van de andere vectoren is door de
pivotkolommen te zoeken in de matrix 𝐴 = [𝐯1 … 𝐯𝑝 ]. De pivotkolommen vormen de basis van de
verzameling van de vectoren. De niet-pivotkolommen zijn lineaire combinaties. Let op dat je de pivotkolommen
van de oorspronkelijke matrix 𝐴 neemt, en niet van de matrix die je krijgt wanneer je rij-operaties uit gaat
voeren om te ontdekken welke kolommen de pivotkolommen zijn.
Wanneer Β = {𝐛1 , … 𝐛𝑝 } een basis is voor een lineaire ruimte 𝑉, dan bestaat er voor elke 𝐱 in 𝑉 een unieke
verzameling van scalairen 𝑐1 , … , 𝑐𝑛 zodanig dat
𝐱 = 𝑐1 𝐛1 + ⋯ + 𝑐𝑛 𝐛𝑛
De scalairen 𝑐1 , … , 𝑐𝑛 behorende bij een bepaalde vector 𝐱 in 𝑉 zijn de coördinaten van deze 𝐱 ten opzichte van
Β.
𝑐1
[𝑥]Β = [ ⋮ ]
𝑐𝑛
Wanneer 𝑉 wordt opgespannen door een eindige verzameling, dan is 𝑉 eindigdimensionaal. De DIMENSIE
van 𝑉 is dan het aantal vectoren dat de basis is voor 𝑉. Wanneer 𝑉 niet opgespannen wordt door een eindige
verzameling, dan is 𝑉 oneindigdimensionaal. Een eendimensionale deelruimte eis een lijn door de oorsprong,
een tweedimensionale deelruimte een vlak door de oorsprong en een driedimensionale deelruimte is ℝ3 .
Wanneer 𝐻 een deelruimte is van de eindigdimensionale lineaire ruimte 𝑉, dan geldt
dim 𝐻 ≤ dim 𝑉
Wanneer 𝑉 een 𝑝-dimensionale lineaire ruimte is met 𝑝 ≥ 1, dan is elke lineiar onafhankelijke verzameling van
exact 𝑝 elementen in 𝑉 automatisch een basis voor 𝑉. Met andere woorden, elke verzameling met exact 𝑝
elementen die 𝑉 opspannen is automatisch een basis voor 𝑉.
TOEPASSING: EINDIGE ELEMENTEN METHODE
Zoek een numerieke benadering yn (x) tot de ware oplossing y(x) als
n−1
y(x) ≈ yn (x) = ∑ a k wk (x) ,
n is het aantal elementen
k=1
Wanneer wk een functie is waarvoor geldt wk (xk ) = 1 en die voor alle andere roosterpunten gelijk is aan nul,
zoals weergegeven in Figuur 1, dan kan yn (xk ) worden gereduceerd tot
yn (xk ) = a1 w1 (xk ) + a 2 w2 (xk ) + ⋯ + a k wk (xk ) + ⋯ + a n wn (xk ) = a k wk (xk ) = a k ∙ 1 = a k
In elk roosterpunt xk is de numerieke oplossing yn (x) gelijk aan de exacte oplossing y(x) , mits a k =
y(xk ), k = 1, … , n − 1.
Figuur 1: Schematische weergave van de waarden van 𝒘𝒌 voor verschillende waarden van 𝒙𝒌
Figuur 2: Schematische benadering van 𝒚(𝒙) ≈ 𝒚𝟕 (𝒙) = 𝟎, 𝟔𝒘𝟏 (𝒙) + 𝒘𝟐 (𝒙) + 𝟏, 𝟓 𝒘𝟑 (𝒙) + 𝟏, 𝟓 𝒘𝟒 (𝒙) + 𝒘𝟓 (𝒙) + 𝟎, 𝟔 𝒘𝟔 (𝒙)
2 E ORDE HOMOGENE DIFFERENTAALVERGELIJKING OPLOSSEN
Beschouw de lineaire ruimte 𝑉 = 𝔽(ℝ, ℂ) met een complexe lineaire deelruimte 𝐻 ⊂ 𝑉.
𝐻 = {𝑦(𝑡) ∈ 𝑉| 𝑚𝑦 ′′ + 𝑐𝑦 ′ + 𝑘𝑦 = 0}
′′
′
De vergelijking 𝑚𝑦 + 𝑐𝑦 + 𝑘𝑦 = 0 kunnen we omschrijven tot de karakteristieke vergelijking 𝑚𝜆2 + 𝑐𝜆 +
𝑘 = 0. 2 Deze vergelijking heeft twee oplossingen, 𝜆1 en 𝜆2 . We onderscheiden drie verschillende gevallen:
1. De oplossingen zijn twee verschillende reële wortels, 𝝀𝟏 ≠ 𝝀𝟐 , 𝝀𝟏,𝟐 ∈ ℝ.
Elke lineaire combinatie van 𝑒 𝜆1𝑡 en 𝑒 𝜆2𝑡 is een oplossing voor 𝑚𝑦 ′′ + 𝑐𝑦 ′ + 𝑘𝑦 = 0.
𝑦(𝑡) = 𝑎1 𝑒 𝜆1𝑡 + 𝑎2 𝑒 𝜆2𝑡 ∈ 𝐻
𝐻 = span{𝑒 𝜆1𝑡 , 𝑒 𝜆2𝑡 }
Deze karakteristieke vergelijking volgt uit 𝑚𝑦 ′′ + 𝑐𝑦 ′ + 𝑘𝑦 = 0 door in te vullen 𝑦 = 𝑒 𝜆𝑡 . Hieruit volgt 𝑦 ′ = 𝜆𝑒 𝜆𝑡 en 𝑦 ′′ =
Wanneer we dit invullen in 𝑚𝑦 ′′ + 𝑐𝑦 ′ + 𝑘𝑦 = 0 volgt
𝑚𝜆2 𝑒 𝜆𝑡 + 𝑐𝜆𝑒 𝜆𝑡 + 𝑘𝑒 𝜆𝑡 = 0
𝜆𝑡
Hierin kunnen we 𝑒 wegdelen, waaruit de karakteristieke vergelijking 𝑚𝜆2 + 𝑐𝜆 + 𝑘 = 0 volgt.
2
𝜆2 𝑒 𝜆𝑡 .
2.
3.
De oplossingen zijn twee identieke reële wortels, 𝝀𝟏 = 𝝀𝟐 ∈ ℝ.
Elke lineaire combinatie van 𝑒 𝜆1𝑡 en 𝑡𝑒 𝜆1𝑡 is een oplossing voor 𝑚𝑦 ′′ + 𝑐𝑦 ′ + 𝑘𝑦 = 0.
𝑦(𝑡) = 𝑎1 𝑒 𝜆1𝑡 + 𝑎2 𝑡𝑒 𝜆1𝑡 ∈ 𝐻
𝐻 = span{𝑒 𝜆1𝑡 , 𝑡𝑒 𝜆1𝑡 }
De oplossingen zijn twee complexe, verschillende wortels, 𝝀𝟏,𝟐 = 𝒂 ± 𝒊𝒃, 𝝀𝟏,𝟐 ∈ ℂ.
Elke lineaire combinatie van 𝑒 𝜆1𝑡 en 𝑒 𝜆2𝑡 is een oplossing voor 𝑚𝑦 ′′ + 𝑐𝑦 ′ + 𝑘𝑦 = 0, waarin
𝑒 𝜆1,2𝑡 = 𝑒 𝑎𝑡 𝑒 ±𝑖𝑏𝑡 = 𝑒 𝑎𝑡 (cos 𝑏𝑡 ± 𝑖 sin 𝑏𝑡)
𝜆1 𝑡
𝑦(𝑡) = 𝑎1 𝑒 + 𝑎2 𝑒 𝜆2𝑡 = 𝑎1 𝑒 𝑎𝑡 (cos 𝑏𝑡 + 𝑖 sin 𝑏𝑡) + 𝑎2 𝑒 𝑎𝑡 (cos 𝑏𝑡 − 𝑖 sin 𝑏𝑡) ∈ 𝐻
𝐻 = span{𝑒 𝜆1𝑡 , 𝑒 𝜆2𝑡 }
Wanneer 𝑎1,2 ∈ ℂ, dan vinden we in alle drie de gevallen complexe oplossingen voor 𝑦(𝑡). In geval 1 en 2
vinden we de reële oplossingen wanneer 𝑎1,2 ∈ ℝ. Voor geval 3 ligt dit moeilijker. Pak 𝑎1 = 𝑎2
𝑦(𝑡) = 𝑎1 𝑒 𝜆1𝑡 + 𝑎2 𝑒 𝜆2𝑡 = 𝑎1 𝑒 𝑎𝑡 (cos 𝑏𝑡 + 𝑖 sin 𝑏𝑡 + cos 𝑏𝑡 − 𝑖 sin 𝑏𝑡)
= 2𝑎1 𝑒 𝑎𝑡 cos 𝑏𝑡 ∈ span{𝑒 𝑎𝑡 cos 𝑏𝑡}
𝑦(𝑡) = 2𝑎1 𝑒 𝑎𝑡 cos 𝑏𝑡 is reëel mits 𝑎1 ∈ ℝ. Pak nu 𝑎2 = −𝑎1
𝑦(𝑡) = 𝑎1 𝑒 𝜆1𝑡 + 𝑎2 𝑒 𝜆2𝑡 = 𝑎1 𝑒 𝑎𝑡 (cos 𝑏𝑡 + 𝑖 sin 𝑏𝑡 − cos 𝑏𝑡 + 𝑖 sin 𝑏𝑡)
= 2𝑖𝑎1 𝑒 𝑎𝑡 sin 𝑏𝑡 ∈ span{𝑒 𝑎𝑡 sin 𝑏𝑡}
𝑎𝑡
𝑦(𝑡) = 2𝑖𝑎1 𝑒 sin 𝑏𝑡 is reëel mits 𝑎1 = 𝑖𝛽, 𝛽 ∈ ℝ.
Hieruit volgt dat de vergelijking 𝑚𝑦 ′′ + 𝑐𝑦 ′ + 𝑘𝑦 = 0 in geval 3 een reële oplossing heeft in de vorm
𝑦(𝑡) = 𝑒 𝑎𝑡 (𝑎1 cos 𝑏𝑡 + 𝑎2 sin 𝑏𝑡), 𝑎1,2 ∈ ℝ
𝐻 = span{𝑒 𝑎𝑡 cos 𝑏𝑡 , 𝑒 𝑎𝑡 sin 𝑏𝑡}
2 E ORDE HOMOGENE DIFFERENTIEVERGELIJKING OPLOSSEN
Beschouw de lineaire ruimte 𝑉 = 𝕊 met een complexe lineaire deelruimte 𝐻 ⊂ 𝑉.
𝐻 = {𝑦𝑘 ∈ 𝕊 | 𝑎0 𝑦𝑘+2 + 𝑎1 𝑦𝑘+1 + 𝑎2 𝑦𝑘 = 0}
De vergelijking 𝑎0 𝑦𝑘+2 + 𝑎1 𝑦𝑘+1 + 𝑎2 𝑦𝑘 = 0 kunnen we omschrijven tot de karakteristieke vergelijking 𝑎0 𝑟 2 +
𝑎1 𝑟 + 𝑎2 = 0 . 3 Deze vergelijking heeft twee oplossingen, 𝑟1 en 𝑟2 . We onderscheiden opnieuw drie
verschillende gevallen:
1. De oplossingen zijn twee verschillende reële wortels, 𝒓𝟏 ≠ 𝒓𝟐 , 𝒓𝟏,𝟐 ∈ ℝ.
Elke lineaire combinatie van 𝑟1𝑘 en 𝑟2𝑘 is een oplossing voor 𝑎0 𝑟 2 + 𝑎1 𝑟 + 𝑎2 = 0.
𝑦𝑘 = 𝑎1 𝑟1𝑘 + 𝑎2 𝑟2𝑘 ∈ 𝐻
𝐻 = span{𝑟1𝑘 , 𝑟2𝑘 }
2. De oplossingen zijn twee identieke reële wortels, 𝒓𝟏 = 𝒓𝟐 ∈ ℝ.
Elke lineaire combinatie van 𝑟1𝑘 en 𝑘𝑟1𝑘 is een oplossing voor 𝑎0 𝑟 2 + 𝑎1 𝑟 + 𝑎2 = 0.
𝑦𝑘 = 𝑎1 𝑟1𝑘 + 𝑎2 𝑘𝑟1𝑘 ∈ 𝐻
𝐻 = span{𝑟1𝑘 , 𝑘𝑟1𝑘 }
3. De oplossingen zijn twee complexe, verschillende wortels, 𝒓𝟏,𝟐 = 𝒂 ± 𝒊𝒃, 𝝀𝟏,𝟐 ∈ ℂ.
Elke lineaire combinatie van 𝑟1𝑘 en 𝑟2𝑘 is een oplossing voor 𝑎0 𝑟 2 + 𝑎1 𝑟 + 𝑎2 = 0, waarin
𝑘
𝑘
𝑟1,2
= (𝑎 ± 𝑖𝑏)𝑘 = (𝑟(cos 𝜃 ± 𝑖 sin 𝜃)) = 𝑟 𝑘 (cos(𝑘𝜃) ± 𝑖 sin(𝑘𝜃))
𝑘
𝑦𝑘 = 𝑎1 𝑟1 + 𝑎2 𝑟2𝑘 = 𝑎1 𝑟 𝑘 (cos(𝑘𝜃) + 𝑖 sin(𝑘𝜃)) + 𝑎2 𝑟 𝑘 (cos(𝑘𝜃) − 𝑖 sin(𝑘𝜃)) ∈ 𝐻
𝐻 = span{𝑟1𝑘 , 𝑟2𝑘 }
Wanneer 𝑎1,2 ∈ ℂ, dan vinden we in alle drie de gevallen complexe oplossingen voor 𝑦𝑘 . In geval 1 en 2 vinden
we de reële oplossingen wanneer 𝑎1,2 ∈ ℝ. Voor geval 3 ligt dit moeilijker. Pak 𝑎1 = 𝑎2
𝑦𝑘 = 𝑎1 𝑟1𝑘 + 𝑎2 𝑟2𝑘 = 𝑎1 𝑟 𝑘 (cos(𝑘𝜃) + 𝑖 sin(𝑘𝜃) + cos(𝑘𝜃) − 𝑖 sin(𝑘𝜃))
= 2𝑎1 𝑟 𝑘 cos(𝑘𝜃) ∈ span{𝑟 𝑘 cos(𝑘𝜃)}
𝑘
𝑦𝑘 = 2𝑎1 𝑟 cos(𝑘𝜃) is reëel mits 𝑎1 ∈ ℝ. Pak nu 𝑎2 = −𝑎1
𝑦𝑘 = 𝑎1 𝑟1𝑘 + 𝑎2 𝑟2𝑘 = 𝑎1 𝑟 𝑘 (cos(𝑘𝜃) + 𝑖 sin(𝑘𝜃) − cos(𝑘𝜃) + 𝑖 sin(𝑘𝜃))
= 2𝑖𝑎1 𝑟 𝑘 sin(𝑘𝜃) ∈ span{𝑟 𝑘 sin(𝑘𝜃)}
𝑘
𝑦𝑘 = 2𝑖𝑎1 𝑟 sin(𝑘𝜃) is reëel mits 𝑎1 = 𝑖𝛽, 𝛽 ∈ ℝ.
Hieruit volgt dat de vergelijking 𝑎0 𝑟 2 + 𝑎1 𝑟 + 𝑎2 = 0 in geval 3 een reële oplossing heeft in de vorm
Deze karakteristieke vergelijking volgt uit 𝑎0 𝑦𝑘+2 + 𝑎1 𝑦𝑘+1 + 𝑎2 𝑦𝑘 = 0 door in te vullen 𝑦𝑘 = 𝑟 𝑘 . Hieruit volgt 𝑦𝑘+1 = 𝑟 𝑘+1 = 𝑟 ∙ 𝑟 𝑘
en 𝑦𝑘+2 = 𝑟 𝑘+2 = 𝑟 2 ∙ 𝑟 𝑘 . Wanneer we dit invullen in 𝑎0 𝑦𝑘+2 + 𝑎1 𝑦𝑘+1 + 𝑎2 𝑦𝑘 = 0 volgt
𝑎0 𝑟2 ∙ 𝑟𝑘 + 𝑎1 𝑟 ∙ 𝑟𝑘 + 𝑎2 𝑟 𝑘 = 0
𝑘
Hierin kunnen we 𝑟 wegdelen, waaruit de karakteristieke vergelijking 𝑎0 𝑟 2 + 𝑎1 𝑟 + 𝑎2 = 0 volgt.
3
𝑦𝑘 = 𝑟 𝑘 (𝑎1 cos(𝑘𝜃) + 𝑎2 sin(𝑘𝜃)) ∈ 𝐻, 𝑎1,2 ∈ ℝ
𝐻 = span{𝑟 𝑘 cos(𝑘𝜃) , 𝑟 𝑘 sin(𝑘𝜃)}
LINEAIRE VARIËTEITEN
LINEAIRE VARIËTEITEN
Stel 𝑉 is een lineaire ruimte en 𝐻 een lineaire deelruimte van 𝑉, 𝐻 ⊂ 𝑉. Alle vlakken en lijnen in 𝑉 die door 0
gaan zijn lineaire deelruimtes van 𝑉. Er zijn in 𝑉 uiteraard ook een hele hoop vlakken en lijnen die niet door 0
gaan. Deze worden aangegeven door middel van lineaire variëteiten, zoals schematisch weergegeven in Figuur
3. Een deelverzameling 𝐿 ⊂ 𝑉 bestaande uit elementen 𝑢∗ + 𝑣, 𝑣 ∈ 𝐻, 𝑢∗ ≠ 𝟎 heet een LINEAIRE VARIËTEIT
van 𝑉.
𝐿 = {𝑢 ∈ 𝑉 | 𝑢 = 𝑢∗ + 𝑣, 𝑣 ∈ 𝐻}
Vector 𝑢∗ heet het STEUNELEMENT van 𝐿.
Figuur 3: Schematische weergave van een lineaire ruimte 𝑽 met oorsprong 𝟎 en daarin een lineaire deelruimte 𝑯 en een lineaire
variëteit 𝑳 met steunvector 𝒖∗ .
2 E ORDE INHOMOGENE DIFFERENTIAALVERGELIJKING OPLOSSEN
Beschouw 𝐿 = {𝑥(𝑡) | 𝑚𝑥 ′′ + 𝑐𝑥 ′ + 𝑘𝑥 = 𝐹𝑢 } ⊂ 𝔽(ℝ, ℂ). We willen nagaan of dit een lineaire variëteit is.
Hiertoe zetten we één element 𝑥∗ uit 𝐿 vast en pakken we een nog een willekeurig element 𝑥 uit 𝐿. Dit leidt tot
de volgende twee vergelijkingen
𝑚𝑥 ′′ + 𝑐𝑥 ′ + 𝑘𝑥 = 𝐹𝑢
𝑚𝑥∗′′ + 𝑐𝑥∗′ + 𝑘𝑥∗ = 𝐹𝑢
Wanneer we deze twee vergelijkingen van elkaar aftrekken volgt
𝑚(𝑥 − 𝑥∗ )′′ + 𝑐(𝑥 − 𝑥∗ )′ + 𝑘(𝑥 − 𝑥∗ ) = 0
Oftewel
𝑚𝑦 ′′ + 𝑐𝑦 ′ + 𝑘𝑦 = 0, 𝑦 = 𝑥 − 𝑥∗
Dus elke 𝑥 in 𝐿 kan geschreven worden als 𝑥 = 𝑥∗ + 𝑦 waarin 𝑥∗ een willekeurig element uit 𝐿 is en 𝑦 een
oplossing van de homogene differentiaalvergelijking 𝑚𝑦 ′′ + 𝑐𝑦 ′ + 𝑘𝑦 = 0.
Met de bovenstaande theorie hebben we een oplosmethode ontdekt voor de 2e orde inhomogene
differentiaalvergelijking 𝑚𝑥 ′′ + 𝑐𝑥 ′ + 𝑘𝑥 = 𝐹𝑢 .
 Vind één particuliere oplossing 𝑥∗ van de inhomogene differentiaalvergelijking 𝑚𝑥 ′′ + 𝑐𝑥 ′ + 𝑘𝑥 = 𝐹𝑢 .
 Vind de algemene oplossing 𝑦 van de homogene differentiaalvergelijking 𝑚𝑦 ′′ + 𝑐𝑦 ′ + 𝑘𝑦 = 0.
 Stel de algemene oplossing van de inhomogene differentiaalvergelijking 𝑚𝑥 ′′ + 𝑐𝑥 ′ + 𝑘𝑥 = 𝐹𝑢 door
de gevonden 𝑥∗ en 𝑦 bij elkaar op te tellen.
𝑥(𝑡) = 𝑥∗ (𝑡) + 𝑦(𝑡)
Hoe je de algemene oplossing 𝑦 van de homogene differentiaalvergelijking 𝑚𝑦 ′′ + 𝑐𝑦 ′ + 𝑘𝑦 = 0 kunt vinden is
eerder al uitgelegd. Nu moeten we echter ook nog op zoek naar een particuliere oplossing van de inhomogene
differentiaalvergelijking 𝑚𝑥 ′′ + 𝑐𝑥 ′ + 𝑘𝑥 = 𝐹𝑢 . We onderscheiden 5 gevallen:
1. 𝑭𝒖 is een polynoom van graad 𝒏
Vul 𝑥∗ (𝑡) = 𝑎0 + 𝑎1 𝑡 + ⋯ + 𝑎𝑛 𝑡 𝑛 in in de differentiaalvergelijking en bepaal 𝑎0 , … , 𝑎𝑛 . Soms levert dit
geen oplossing. Vul dan in 𝑥∗ (𝑡) = (𝑎0 + 𝑎1 𝑡 + ⋯ + 𝑎𝑛 𝑡 𝑛 ) 𝑡 , en als dit ook niet kan 𝑥∗ (𝑡) =
(𝑎0 + 𝑎1 𝑡 + ⋯ + 𝑎𝑛 𝑡 𝑛 ) 𝑡 2
2. 𝑭𝒖 = (𝐩𝐨𝐥𝐲𝐧𝐨𝐨𝐦 𝐠𝐫𝐚𝐚𝐝 𝒏) ∙ 𝒆𝜶𝒕
Substitueer 𝑥(𝑡) = 𝑧(𝑡)𝑒 𝛼𝑡 toe. Dit levert een differentiaalvergelijking uit geval 1 op. Via de methode
beschreven bij geval 1 vinden we een oplossing 𝑧. Wanneer we dit invullen in de vergelijking 𝑥(𝑡) =
𝑧(𝑡)𝑒 𝛼𝑡 vinden we een particuliere oplossing 𝑥∗ (𝑡).
3. 𝑭𝒖 = (𝐩𝐨𝐥𝐲𝐧𝐨𝐨𝐦 𝐠𝐫𝐚𝐚𝐝 𝒏) ∙ 𝐜𝐨𝐬(𝜷𝒕)
Beschouw de differentiaalvergelijking met 𝐹𝑢 = (polynoom graad 𝑛) ∙ 𝑒 𝑖𝛽𝑡 . Dit is een vergelijking van
geval 2. Substitueer zoals beschreven in geval 2 𝑥(𝑡) = 𝑧(𝑡)𝑒 𝑖𝛽𝑡 en vind 𝑧 en 𝑥. Aangezien volgens de
formule van Euler geldt 𝑒 𝑖𝛽𝑡 = cos(𝛽𝑡) + 𝑖 sin(𝛽𝑡), is reële gedeelte van de gevonden 𝑥(𝑡) dan 𝑥∗ (𝑡),
een oplossing van de oorspronkelijke differentiaalvergelijking..
4. 𝑭𝒖 = (𝐩𝐨𝐥𝐲𝐧𝐨𝐨𝐦 𝐠𝐫𝐚𝐚𝐝 𝒏) ∙ 𝐬𝐢𝐧(𝜷𝒕)
Beschouw de differentiaalvergelijking met 𝐹𝑢 = (polynoom graad 𝑛) ∙ 𝑒 𝑖𝛽𝑡 . Dit is een vergelijking van
geval 2. Substitueer zoals beschreven in geval 2 𝑥(𝑡) = 𝑧(𝑡)𝑒 𝑖𝛽𝑡 en vind 𝑧 en 𝑥. Het imaginaire
gedeelte van de gevonden 𝑥(𝑡) is dan 𝑥∗ (𝑡).
5. 𝑭𝒖 = 𝑭𝟏 + 𝑭𝟐 + ⋯ + 𝑭𝒎 waarin 𝑭𝒋 één van de gevallen 1 tot en met 4 is
𝑥∗ (𝑡) = 𝑥1 (𝑡) + 𝑥2 (𝑡) + ⋯ + 𝑥𝑚 (𝑡) waarin 𝑥𝑗 (𝑡) een oplossing is die bij 𝐹𝑗 hoort.
VOORBEELD 5: Vind een particuliere oplossing van x ′′ + x ′ + 2x = cos t
Dit is geval 3, dus we beschouwen eerst x ′′ + x ′ + 2x = eit . Dit is een vergelijking van geval 2. We
substitueren nu x(t) = z(t)eit . Eerst moeten we x′, x ′′ en een nieuwe uitdrukking voor x ′′ + x′ + 2x
vinden.
x ′ = z ′ eit + z(eit )′ = z ′ eit + izeit = (z ′ + iz)eit
x =z e +z
+ iz ′ eit + iz(eit )′ = z ′′ eit + 2iz ′ eit − zeit = (z ′′ + 2iz ′ − z)eit
′′
′
′′
x + x + 2x = (z + 2iz ′ − z)eit + (z ′ + iz)eit + 2zeit = (z ′′ + 2iz ′ − z + z ′ + iz + 2z)eit
= (z ′′ + (1 + 2i)z ′ + (1 + i)z)eit
′′
′
it
x + x + 2x = e wordt nu
(z ′′ + (1 + 2i)z ′ + (1 + i)z)eit = eit
it
Hier kunnen we e wegdelen, waaruit de volgende inhomogene differentiaalvergelijking volgt
z ′′ + (1 + 2i)z ′ + (1 + i)z = 1
Dit is een vergelijking van geval 1. We zoeken nu een particuliere oplossing voor deze vergelijking in de
vorm z∗ (t) = a 0. We substitueren z∗ (t) = a 0 Eerst moeten we z∗ ′, z∗ ′′ en een nieuwe uitdrukking voor
z ′′ + (1 + 2i)z ′ + (1 + i)z vinden.
z∗′ = z∗′′ = 0
′′
z + (1 + 2i)z ′ + (1 + i)z = (1 + i)a 0
′′
′
z + (1 + 2i)z + (1 + i)z = 1 wordt nu
(1 + i)a 0 = 1
Hieruit volgt voor a 0 , z(t) en x(t)
1
1−i
1−i
1−i
a0 =
=
=
=
2
1 + i (1 + i)(1 − i) 1 − i
2
1−i
z(t) = a 0 =
2
1 − i it 1 − i
1
1
it
(cos t + i sin t) = (sin t + cos t) + i (sin t − cos t)
x(t) = z(t)e =
e =
2
2
2
2
De eerste term is reëel, de tweede term imaginair. We moeten het reële gedeelte nemen om een
oplossing van de differentiaalvergelijking x ′′ + x ′ + 2x = cos t te vinden. Een particuliere oplossing
x∗ (t) van deze vergelijking is dus
1
x∗ (t) = (sin t + cos t)
2
′′
′′ it
′ (eit )′
VOORBEELD 6: Vind een particuliere oplossing van y ′′ − 4y ′ + 13y = e2x cos 3x
Dit is geval geen van de 5 gevallen. De aanpak is om de vergelijking y ′′ − 4y ′ + 13y = e2x (cos 3x +
i sin 3x) = e(2+3i)x op te lossen. Dit is geval 2. Vervolgens neem je het reële gedeelte van de oplossing.
Dit is de oplossing van y ′′ − 4y ′ + 13y = e2x cos 3x
INHOMOGENE DIFFERENTIEVERGELIJKING OPLOSSEN
Beschouw de lineaire ruimte 𝑉 = 𝕊, de verzameling van alle signalen. Verder hebben we een lineaire
deelruimte 𝐻 ⊂ 𝑉 , de deelverzameling van alle signalen 𝑦𝑘𝑜 die voldoen aan de homogene
𝑜
𝑜
𝑜
𝑜
differentievergelijking 𝑎0 𝑦𝑘+𝑛
+ 𝑎1 𝑦𝑘+𝑛−1
+ 𝑎2 𝑦𝑘+𝑛−2
+ ⋯ + 𝑎𝑛−1 𝑦𝑘+1
+ 𝑎𝑛 𝑦𝑘𝑜 = 0 voor alle 𝑘 ∈ ℤ en
gegeven waarden 𝑎0 , … 𝑎𝑛 .
𝑜
𝑜
𝑜
𝑜
𝐻 = {𝑦𝑘𝑜 ∈ 𝕊 | 𝑎0 𝑦𝑘+𝑛
+ 𝑎1 𝑦𝑘+𝑛−1
+ 𝑎2 𝑦𝑘+𝑛−2
+ ⋯ + 𝑎𝑛−1 𝑦𝑘+1
+ 𝑎𝑛 𝑦𝑘𝑜 = 0}
Ook hebben we een lineaire variëteit 𝐿, de deelverzameling van alle signalen 𝑦𝑘 die voldoen aan de
inhomogene differentievergelijking 𝑎0 𝑦𝑘+𝑛 + 𝑎1 𝑦𝑘+𝑛−1 + 𝑎2 𝑦𝑘+𝑛−2 + ⋯ + 𝑎𝑛−1 𝑦𝑘+1 + 𝑎𝑛 𝑦𝑘 = 𝑧𝑘 voor alle
𝑘 ∈ ℤ en gegeven waarden 𝑎0 , … 𝑎𝑛 .
𝐿 = {𝑦𝑘 ∈ 𝕊 | 𝑎0 𝑦𝑘+𝑛 + 𝑎1 𝑦𝑘+𝑛−1 + 𝑎2 𝑦𝑘+𝑛−2 + ⋯ + 𝑎𝑛−1 𝑦𝑘+1 + 𝑎𝑛 𝑦𝑘 = 𝑧𝑘 }
Wanneer 𝑦̃𝑘 nu een oplossing is van de inhomogene differentievergelijking, dan kunnen alle elementen van 𝐿
geschreven worden als een som van 𝑦̃𝑘 en de elementen uit 𝐻.
𝐿 = {𝑦𝑘 | 𝑦𝑘 = 𝑦̃𝑘 + 𝑦𝑘𝑜 , 𝑦𝑘𝑜 ∈ 𝐻}
Oftewel, een algemene oplossing van een inhomogene differentievergelijking is een particuliere oplossing 𝑦̃𝑘
van de inhomogene differentievergelijking plus de algemene oplossing 𝑦𝑘𝑜 van de bijbehorende homogene
differentievergelijking. Een particuliere oplossing wordt over het algemeen gegeven. Hoe je de algemene
oplossing 𝑦𝑘𝑜 van de homogene differentievergelijking kunt vinden is eerder al uitgelegd.
VERGELIJKINGEN IN DE VORM 𝐴𝐱 = 𝐛 OPLOSSEN
Stel 𝑉 = ℂ𝑛 , 𝐴 ∈ ℂ𝑛×𝑛 en 𝐛 ∈ ℂ𝑛
Verder definiëren we deelruimte 𝐻, de nulruimte van 𝐴, en 𝐿.
𝐻 = {𝑜𝑝𝑙𝑜𝑠𝑠𝑖𝑛𝑔𝑒𝑛 𝑣𝑎𝑛 𝐴𝐱 = 𝟎} = {𝐱 ∈ ℂ𝑛 | 𝐴𝐱 = 𝟎}
𝐿 = {𝑜𝑝𝑙𝑜𝑠𝑠𝑖𝑛𝑔𝑒𝑛 𝑣𝑎𝑛 𝐴𝐱 = 𝐛} = {𝐱 ∈ ℂ𝑛 | 𝐴𝐱 = 𝐛}
Wanneer 𝐩 ∈ 𝐿 nu een oplossing is van 𝐴𝐱 = 𝐛, dan kunnen alle elementen van 𝐿 geschreven worden als een
som van 𝐩 en de elementen uit 𝐻.
𝐿 = {𝐰 ∈ ℂ𝑛 | 𝐰 = 𝐩 + 𝐯, 𝐯 ∈ 𝐻}
Oftewel, een algemene oplossing van 𝐴𝐱 = 𝐛 is een particuliere oplossing 𝐩 van 𝐴𝐱 = 𝐛 plus de algemene
oplossing 𝐯 van 𝐴𝐱 = 𝟎. De homogene matrixvergelijking 𝐴𝐱 = 𝟎 heeft een niet-triviale oplossing dan en
slechts dan als er ten minste één vrije variabele is.
10
3 2 5
VOORBEELD 7: Vind een algemene oplossing van A𝐱 = 𝐛 waarin A = [−2 5 3] en 𝐛 = [ 6 ]
4
1 1 2
Eerst zoeken we een particuliere oplossing van A𝐱 = 𝐛. Deze matrixvergelijking kunnen we schrijven
als een aangevulde matrix en vervolgens herschrijven door middel van rijoperaties.
0 −1 −1 −2
0 1 1 2
3 2 5 10
0 1 1 2
0 1 1 2
[−2 5 3 | 6 ] ~ [0 7
| ]~[
| ]
7 | 14 ] ~ [0 1 1 | 2] ~ [
1 1 2 4
1 0 1 2
1 1
2
4
1 1 2 4
1 1 2 4
Oftewel
2−α
x + x3 = 2
{ 2
⟹ 𝐱 = [2 − α] , α ∈ ℝ
x1 + x3 = 2
α
Elke waarde α geeft een particuliere oplossing 𝐩. We kiezen bijvoorbeeld α = 0, wat leidt tot de
volgende particuliere oplossing.
2
𝐩 = [2]
0
Nu zoeken we de algemene oplossing van A𝐱 = 𝟎. Opnieuw maken we gebruik van de aangevulde
matrix, maar nu met 0’en. We kunnen gebruik maken van de eerder uitgevoerde rijoperaties.
3 2 5 0
0 1 1 0
[−2 5 3 | 0] ~ [
| ]
1 0 1 0
1 1 2 0
Oftewel
−β
x + x3 = 0
{ 2
⟹ 𝐱 = [−β] , β ∈ ℝ
x1 + x3 = 0
β
De vector 𝐱 is de algemene oplossing v van A𝐱 = 𝟎. We kunnen de algemene oplossing x van de
vergelijking A𝐱 = 𝐛 nu schrijven als een som van 𝐩 en 𝐯.
−β
2−β
2
𝐱 = 𝐩 + 𝐯 = [2] + [−β] = [2 − β] , β ∈ ℝ
β
β
0
Deze oplossing volgde al direct toen we de aangevulde matrix van A𝐱 = 𝐛 gingen herschrijven. De
vector 𝐱 die daaruit kwam, kon direct worden geschreven als 𝐩 + 𝐯.
−α
2−α
2
𝐱 = [2 − α] = [2] + [−α] = 𝐩 + 𝐯, α ∈ ℝ
α
α
0
EIGENWAARDEN EN EIGENVECTOREN
EIGENWAARDEN EN EIGENVECTOREN
Een EIGENVECTOR van een 𝑛 × 𝑛 matrix 𝐴 is een niet-nulvector 𝐱 zodanig dat geldt 𝐴𝐱 = 𝜆𝐱 voor een
bepaalde scalair 𝜆. Deze scalair 𝜆 is de EIGENWAARDE van 𝐴 die hoort bij 𝐱. (𝜆, 𝐱) is een EIGENPAAR.
𝐴𝐱 = 𝜆𝐱 kunnen we als volgt herschrijven
𝐴𝐱 = 𝜆𝐱 ⟺ 𝐴𝐱 − 𝜆𝐱 = 𝟎 ⟺ 𝐴𝐱 − 𝜆𝐼𝐱 = 𝟎 ⟺ (𝐴 − 𝜆𝐼)𝐱 = 𝟎
Samen met de nulvector vormen de vectoren 𝐱 de nulruimte van de matrix 𝐴 − 𝜆𝐼.4 Deze ruimte wordt ook wel
de EIGENRUIMTE 𝐸𝜆 van 𝐴 genoemd en kan worden genoteerd als een opspansel.
Wanneer 𝐯1 , … , 𝐯𝑟 eigenvectoren zijn die horen bij verschillende eigenwaardes 𝜆1 , … , 𝜆𝑟 van een 𝑛 × 𝑛 matrix
𝐴, dan is de verzameling {𝐯1 , … , 𝐯𝑟 } lineair onafhankelijk en spannen de eigenvectoren dus een ruimte met
dimensie 𝑟 op. De multipliciteit van een eigenwaarde is de dimensie van (het deel van) de eigenruimte dat
volgt uit deze eigenwaarde.
4 −1 6
VOORBEELD 8: Bepaal de eigenruimte van de matrix A = [2 1 6] met eigenwaarde λ = 2.
2 −1 8
Om de eigenvectoren x van A te vinden moeten we het stelsel (A − λI)𝐱 = 𝟎 oplossen.
4 −1 6
2 0 0
2 −1 6
A − 2I = [2 1 6] − 2 [0 2 0] = [2 −1 6]
2 −1 8
0 0 2
2 −1 6
2 −1 6 0
2 −1 6 0
(A − 2I | 0) = [2 −1 6 | 0] ~ [0 0 0 | 0]
2 −1 6 0
0 0 0 0
Oftewel
2x1 − x2 + 6x3 = 0
Iedere vector 𝐱 die aan deze vergelijking voldoet, is een eigenvector van A. De eigenruimte kan worden
opgespannen door twee willekeurige vectoren die voldoen aan deze vergelijking.
x2 = 1, x3 = 0 ⟹ x1 = 1⁄2
x2 = 0, x3 = 1 ⟹ x1 = −3
1⁄2 −3
Eλ = span {[ 1 ] , [ 0 ]}
1
0
De eigenwaarden van een driehoekige matrix zijn de elementen op de hoofddiagonaal.
BEWIJS Stel, we hebben de volgende driehoekige matrix 𝐴
𝑎11 𝑎12 𝑎13
𝐴 = [ 0 𝑎22 𝑎23 ]
0
0 𝑎33
Voor de matrix 𝐴 − 𝜆𝐼 geldt
𝑎11 𝑎12 𝑎13
𝑎11 − 𝜆
𝑎12
𝑎13
𝜆 0 0
𝑎22 − 𝜆
𝑎23 ]
𝐴 − 𝜆𝐼 = [ 0 𝑎22 𝑎23 ] − [0 𝜆 0] = [ 0
0
0 𝑎33
0
0
𝑎33 − 𝜆
0 0 𝜆
De scalair 𝜆 is een eigenwaarde van 𝐴 dan en slechts dan als de vergelijking (𝐴 − 𝜆𝐼)𝐱 = 𝟎 een niettriviale oplossing heeft. Dit betekent dat de vergelijking ten minste één vrij variabel moet hebben. Dit
4
Er is afgesproken dat de nulvector geen eigenvector is. De nulvector zit wel in de eigenruimte.
is enkel het geval wanneer één van de elementen op de hoofddiagonaal van 𝐴 (𝑎11 , 𝑎22 of 𝑎33 ) gelijk is
aan 𝜆.
KARAKTERISTIEKE POLYNOOM EN KARAKTERISTIEKE VERGELIJKING
De vraag is nu hoe je de eigenwaarden van een matrix bepaalt. Omdat 𝐱 ≠ 𝟎, zoeken we niet-triviale
oplossingen van (𝐴 − 𝜆𝐼)𝐱 = 𝟎. Deze vergelijking heeft alleen niet-triviale oplossingen wanneer de matrix nietinverteerbaar is. Een matrix is niet-inverteerbaar wanneer de determinant van de matrix 0 is. Oftewel, er zijn
niet-triviale oplossingen voor (𝐴 − 𝜆𝐼)𝐱 = 𝟎 dan en slechts dan als det(𝐴 − 𝜆𝐼) = 0. det(𝐴 − 𝜆𝐼) heet de
KARAKTERISTIEKE VEELTERM of KARAKTERISTIEKE POLYNOOM en det(𝐴 − 𝜆𝐼) = 0 de
KARAKTERISTIEKE VERGELIJKING van 𝐴. Om 𝜆 te bepalen, moet je dus de karakteristieke vergelijking van A
oplossen. Dit doe je door de determinant van matrix 𝐴 − 𝜆𝐼 uit te schrijven en gelijk te stellen aan 0.
Het is mogelijk dat 𝜆 een complex getal is. We spreken dan van een COMPLEXE EIGENWAARDE .De
bijbehorende eigenvector is een COMPLEXE EIGENVECTOR.
5 −5
].
1 1
Om de waarden λ x van A te vinden moeten we de vergelijking det(A − λI) = 0 oplossen.
5 − λ −5
A − λI = [
]
1
1−λ
det(A − λI) = 0
(5 − λ)(1 − λ) + 5 ∙ 1 = 0
λ2 − 6λ + 10 = 0
6 ± √36 − 4 ∙ 10
1
λ1,2 =
= 3 ± √−4 = 3 ± i
2
2
Wanneer we de eerste waarde voor λ, λ1 , invullen in A − λI krijgen we
3+𝑖
0
5 −5
2−i
−5
𝐴 − 𝜆1 𝐼 = [
]−[
]=[
]
0
3+𝑖
1 1
1
−2 − i
Om de eigenvectoren die hoort bij 𝜆1 te vinden , moeten we het stelsel (A − λ1 I)𝐱 = 𝟎 oplossen. Dit
doen we door de bijbehorende aangevulde matrix te herschrijven.
2−i
−5
2−i
−5
0
0
0
2−i
−5
[
| ]~[
| ]~[
| ]
1(−2 + i) (−2 − i)(−2 + i) 0
−(2 − i) 4 − i2 0
1
−2 − i 0
2−i
−5 0
2 − i −5 0
~[
| ]~[
| ]
−(2 − i) 5 0
0
0 0
Hieruit volgt
(2 − 𝑖)𝑥1 − 5𝑥2 = 0
Iedere vector 𝐱 die aan deze vergelijking voldoet, is een eigenvector van A. De eigenruimte Eλ1 kan
worden opgespannen door elke willekeurige vector die voldoet aan deze vergelijking.
x1 = 5, ⟹ x2 = 2 − i
5
𝐯1 = [
]
2−i
Voor λ2 = 3 − i kan op dezelfde manier een eigenvector worden afgeleid. De basis van de eigenruimte
van λ2 is
5
𝐯2 = [
]
2+i
VOORBEELD 9: Bepaal de eigenwaarden en eigenvectoren van de matrix A = [
Merk op dat in het bovenstaande voorbeeld zowel de eigenwaarden als de eigenvectoren complex
geconjugeerde van elkaar zijn.
𝐱 2 = 𝑅𝑒𝐱1 − 𝑖 𝐼𝑚𝐱1 = 𝐱̅1
Deze eigenschap is algemeen en geldt dus altijd.
BEWIJS We nemen de complex geconjugeerde van de vergelijking 𝐴𝐱1 = 𝜆1 𝐱1. Deze vergelijking,
̅̅̅̅̅1 = ̅̅̅̅̅̅
𝐴𝐱
𝜆1 𝐱1 , kunnen we herschrijven tot 𝐴𝐱 2 = 𝜆2 𝐱 2, waarmee bewezen is dat 𝐱 2 de complex
geconjugeerde is van 𝐱1 .
̅̅̅̅̅
𝐴𝐱1 = ̅̅̅̅̅̅
𝜆1 𝐱1
𝐴̅𝐱̅1 = 𝜆̅1 𝐱̅1
(𝑎 + 𝑖𝑏)𝐱̅1
𝐴𝐱̅1 = ̅̅̅̅̅̅̅̅̅̅̅
̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅
̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅
)
(𝑎 − 𝑖𝑏)(𝑅𝑒𝐱
𝐴(𝑅𝑒𝐱
+
𝑖
𝐼𝑚𝐱
=
1
1
1 + 𝑖 𝐼𝑚𝐱1 )
𝐴𝐱 2 = 𝜆2 𝐱 2
De eigenwaarden van een matrix A kun je, indien het reële eigenwaarden zijn, ook vinden door de matrix om te
schrijven naar zijn standaardrijvorm. Deze herschreven matrix noemen we U. De determinant van A is gelijk
aan is (−1)𝑟 maal het product van de diagonale elementen van U, waarin r het aantal rijwisselingen is.
Wanneer matrix A inverteerbaar is, zijn alle diagonale elementen van U pivots. Wanneer A niet inverteerbaar
is, is tenminste één van de diagonale elementen van U geen pivot en dus 0. Hieruit volgt dat de determinant
van een niet-inverteerbare matrix altijd 0 is.
Het SPOOR van een matrix 𝐴 ∈ ℂ𝑛×𝑛 is de som van al de diagonale elementen van deze matrix.
spoor(𝐴) = 𝑎1,1 + 𝑎2,2 + ⋯ + 𝑎𝑛,𝑛
Het spoor is ook gelijk aan de som van alle eigenwaarden van 𝐴.
spoor(𝐴) = 𝜆1 + 𝜆2 + ⋯ + 𝜆𝑛
Met behulp van deze definitie kun je de gevonden eigenwaarden van 𝐴 controleren.
Een tweede manier om de eigenwaarden te controleren is door middel van de stelling van Vieta. Uit deze
stelling volgt dat de determinant van matrix 𝐴 gelijk is aan het product van alle eigenwaarden.
det(𝐴) = 𝜆1 𝜆2 … 𝜆𝑛
GELIJKSOORTIGHEID
Wanneer 𝑛 × 𝑛 matrices 𝐴 en 𝐵 GELIJKSOORTIG zijn, dan bestaat er een matrix 𝑃 zodanig dat
𝑃 −1 𝐴𝑃 = 𝐵
Twee gelijksoortige matrices hebben dezelfde karakteristieke polynoom en dus dezelfde eigenwaarden.
BEWIJS Wanneer 𝐵 = 𝑃 −1 𝐴𝑃 ,dan
𝐵 − 𝜆𝐼 = 𝑃 −1 𝐴𝑃 − 𝜆𝑃 −1 𝑃 = 𝑃−1 (𝐴𝑃 − 𝜆𝑃) = 𝑃 −1 (𝐴 − 𝜆𝐼)𝑃
det(𝐵 − 𝜆𝐼) = det(𝑃 −1 (𝐴 − 𝜆𝐼)𝑃) = det(𝑃 −1 ) ∙ det(𝐴 − 𝜆𝐼) ∙ det 𝑃
Aangezien det(𝑃 −1 ) ∙ det 𝑃 = det(𝑃 −1 𝑃) = det 𝐼 = 1, volgt uit bovenstaande vergelijking dat beide
karakteristieke polynomen hetzelfde zijn.
det(𝐵 − 𝜆𝐼) = det(𝐴 − 𝜆𝐼)
DIAGONALISEERBAARHEID
REËLE DIAGONALISEERBAARHEID
Een vierkante matrix 𝐴 is DIAGONALISEERBAAR wanneer 𝐴 gelijksoortig is met een diagonale matrix 𝐷 zodat
geldt 𝐴 = 𝑃𝐷𝑃 −1 voor een bepaalde omkeerbare matrix 𝑃. Niet diagonaliseerbare matrices heten DEFECT.
Een 𝑛 × 𝑛 matrix 𝐴 is diagonaliseerbaar dan en slechts dan als 𝐴 𝑛 onafhankelijke eigenvectoren heeft. De
kolommen van matrix 𝑃 zijn de eigenvectoren van 𝐴 . De elementen op de diagonaal van 𝐷 zijn de
eigenwaarden van 𝐴 overeenkomend met de eigenvectoren in 𝑃.
BEWIJS We hebben een 𝑛 × 𝑛 matrix 𝑃 bestaande uit de kolommen 𝐯1 , … , 𝐯𝑛 en een diagonale matrix
𝐷 met op de diagonaal de elementen 𝜆1 , … , 𝜆𝑛 . Wanneer een matrix 𝐴 diagonaliseerbaar is, moeten
we kunnen schrijven 𝐴 = 𝑃𝐷𝑃−1 , oftewel 𝐴𝑃 = 𝑃𝐷.
𝐴𝑃 = 𝐴[𝐯1 𝐯2 … 𝐯𝑛 ] = [𝐴𝐯1 𝐴𝐯2 … 𝐴𝐯𝑛 ]
𝜆1 0 … 0
0 𝜆2 … 0
𝑃𝐷 = 𝑃 [
] = [𝜆1 𝐯1 𝜆2 𝐯2 … 𝜆𝑛 𝐯𝑛 ]
⋮
⋮
⋮
0 0 … 𝜆𝑛
𝐴𝑃 = 𝑃𝐷 ⟹ [𝐴𝐯1 𝐴𝐯2 … 𝐴𝐯𝑛 ] = [𝜆1 𝐯1 𝜆2 𝐯2 … 𝜆𝑛 𝐯𝑛 ]
Wanneer we nu de kolommen gelijkstellen, krijgen we
𝐴𝐯1 = 𝜆1 𝐯1 ,
𝐴𝐯2 = 𝜆𝐯2 ,
…,
𝐴𝐯𝑛 = 𝜆𝑛 𝐯𝑛
Omdat 𝑃 omkeerbaar is, moeten de kolommen 𝐯1 , … , 𝐯𝑛 lineair onafhankelijk zijn. Omdat de
kolommen niet-nul zijn, moeten 𝜆1 , … , 𝜆𝑛 eigenwaarden zijn en 𝐯1 , … , 𝐯𝑛 de bijbehorende
eigenvectoren.
Het diagonaliseren van een matrix bestaat uit 4 stappen:
1. Vind de eigenwaarden van 𝐴.
2. Vind de bijbehorende eigenvectoren van 𝐴.
3.
Stel matrix 𝑃 samen.
𝑃 = [𝐯1
4.
𝐯2
…
𝐯𝑛 ]
Stel matrix 𝐷 samen.
𝜆1 0 … 0
0 𝜆2 … 0
𝐷=[
]
⋮
⋮
⋮
0 0 … 𝜆𝑛
Hierna kun je de gevonden oplossing nakijken door 𝑃 en 𝐷 in te vullen in de vergelijking 𝐴𝑃 = 𝐷𝑃.
VOORBEELD 10: Diagonaliseer, indien mogelijk, de matrix A
1
3
3
A = [−3 −5 −3]
3
3
1
1. Vind de eigenwaarden van 𝐀.
1−λ
3
3
det(A − λI) = det [ −3 −5 − λ −3 ] = 0
3
3
1−λ
(1 − λ)((−5 − λ)(1 − λ) − −3 ∙ 3) − 3(−3 ∙ (1 − λ) − −3 ∙ 3) + 3(−3 ∙ 3 − (−5 − λ) ∙ 3) = 0
(1 − λ)(λ2 + 4λ + 4) − 3(3λ + 6) + 3(3λ + 6) = 0
−λ3 − 3λ2 + 4 = 0
−(λ − 1)(λ + 2)2 = 0
De eigenwaarden zijn λ1 = 1 en λ2 = −2
2. Vind bijbehorende eigenvectoren van 𝐀.
(A − λ1 I)𝐱 = (A − I)𝐱 = 𝟎
0
3
3 0
1
1
0 0
1 1
0 0
1 1 0 0
1 0 −1 0
[−3 −6 −3 | 0] ~ [ 0
3
3 | 0] ~ [ 0 3
3 | 0] ~ [0 1 1 | 0] ~ [0 1 1 | 0]
3
3
0 0
−3 −6 −3 0
0 −3 −3 0
0 3 −3 0
0 0 0 0
𝑥1 = 𝑥3
𝑥1 − 𝑥3 = 0
{
⟹ {𝑥 = −𝑥
𝑥2 + 𝑥3 = 0
2
3
Kies 𝑥3 = 1
1
𝐯1 = [−1]
1
(A − λ2 I)𝐱 = (A + 2I)𝐱 = 𝟎
3
3
3 0
1
1
1 0
1 1 1 0
[−3 −3 −3 | 0] ~ [−3 −3 −3 | 0] ~ [0 0 0 | 0]
3
3
3 0
3
3
3 0
0 0 0 0
𝑥1 + 𝑥2 + 𝑥3 = 0 ⟹ 𝑥1 = −𝑥2 − 𝑥3
Kies 𝑥2 = 1 en 𝑥3 = 0
−1
𝐯2 = [ 1 ]
0
Kies 𝑥2 = 0 en 𝑥3 = 1
−1
𝐯3 = [ 0 ]
1
3. Stel matrix 𝐏 samen.
1 −1 −1
P = [𝐯1 𝐯2 𝐯3 ] = [−1 1
0]
1
0
1
4. Stel matrix 𝐃 samen.
λ1 0 0
1 0
0
D = [ 0 λ2 0 ] = [0 −2 0 ]
0 0 λ3
0 0 −2
Controle
1
3
3
1 −1 −1
1
2
2
AP = [−3 −5 −3] [−1 1
0 ] = [−1 −2 0 ]
3
3
1
1
0
1
1
0 −2
1 −1 −1 1 0
0
1
2
2
PD = [−1 1
0 ] [0 −2 0 ] = [−1 −2 0 ]
1
0
1 0 0 −2
1
0 −2
Een n × n matrix met n verschillende eigenwaardes is diagonaliseerbaar. Dit betekent namelijk dat er ten
minste n eigenvectoren zijn, en dus dat {𝐯1 , … , 𝐯n } lineair onafhankelijk is. Een matrix met minder
eigenwaarden kan echter nog steeds diagonaliseerbaar zijn. In dat geval moet de som van de multipliciteiten
van de eigenwaardes gelijk zijn aan n.
COMPLEXE DIAGONALISEERBAARHEID
Reële matrices met complexe eigenwaarden kunnen niet naar de diagonale reële vorm worden gebracht. Ze
kunnen echter wel complex diagonaliseerbaar zijn. Elke matrix A ∈ ℝ2×2 die complexe eigenwaarden λ1,2 =
a −b
a ± ib en eigenvectoren 𝐱1 en 𝐱 2 heeft, is complex diagonaliseerbaar en kan naar de vorm C = [
]
b a
worden gebracht. Hiervoor geldt
̃ −1 AP
̃ = C, met P
̃ = [Re𝐱 2 Im𝐱 2 ]
P
̃ voor de reële matrix A = [
VOORBEELD 11: Bepaal C en P
5
1
−5
] met eigenwaarden λ1 = 3 + i en
1
5
5
] en 𝐱 2 = [
].
2+i
2−i
3 −1
a −b
C=[
]=[
]
1 3
b a
5 0
̃
P = [Re𝐱 2 Im𝐱 2 ] = [
]
2 1
̃ moet gelijk zijn aan P
̃C
Controle: AP
̃ = [5 −5] [5 0] = [15 −5]
AP
1 1 2 1
7
1
̃C = [5 0] [3 −1] = [15 −5]
P
2 1 1 3
7
1
λ2 = 3 − i en eigenvectoren 𝐱1 = [
a −b
] met a, b ∈ ℝ, a2 + b2 > 0 is te schrijven als
b a
cos φ − sin φ
r 0 cos φ − sin φ
a −b
𝐶=[
]=[
]∙[
]=r∙[
]
sin φ cos φ
sin φ cos φ
0 r
b a
2
2
met r = √a + b en φ de hoek tussen de positieve x-as en de straal door O en punt (a, b). Er geldt sin φ =
b⁄r en cos φ = a⁄r.
BEWIJS Punt (𝑥, 𝑦) = (𝑎⁄𝑟 , 𝑏⁄𝑟 ) ligt op een cirkel met straal 1, aangezien
𝑎2 + 𝑏 2 𝑎2 + 𝑏 2
𝑥 2 + 𝑦2 =
= 2
=1
𝑟2
𝑎 + 𝑏2
Hieruit volgt dat er altijd een 𝜑 bestaat zodanig dat sin φ = b⁄r en cos φ = a⁄r. Nu controleren we
nog de gelijkheid zelf door sin φ en cos φ uit te drukken in a en b.
r 0 cos φ − sin φ
r 0 a ⁄r − b ⁄r
a −b
[
]∙[
]=[
]∙[
]=[
]=C
sin φ cos φ
b ⁄r a ⁄r
0 r
0 r
b a
𝑘
Het berekenen van 𝐶 kan worden gezien als 𝑘 maal schaling × 𝑟 en draaien met hoek 𝜑. Dit is hetzelfde als
schaling × 𝑟 𝑘 en daarnaast draaien met hoek 𝑘𝜑.
cos 𝑘𝜑 − sin 𝑘𝜑
𝐶 𝑘 = 𝑟𝑘 [
]
sin 𝑘𝜑 cos 𝑘𝜑
Een matrix in de vorm 𝐶 = [
TOEPASSING: 𝐴𝑘 BEPALEN
Een toepassing waarbij het nuttig is om 𝐴 te schrijven als 𝐴 = 𝑃𝐷𝑃 −1 waarin 𝐷 een diagonale matrix is om 𝐴𝑘
te bepalen. 𝐷 𝑘 is heel gemakkelijk te berekenen.
2
𝑎 0
𝑎 0 𝑎 0
0 ] ⟹ 𝐷𝑘 = [𝑎𝑘 0 ]
𝐷=[
] ⟹ 𝐷2 = [
][
] = [𝑎
0 𝑏
0 𝑏 0 𝑏
0 𝑏2
0 𝑏𝑘
2
Voor 𝐴 kunnen we schrijven
𝐴2 = (𝑃𝐷𝑃−1 )(𝑃𝐷𝑃 −1 ) = 𝑃𝐷(𝑃 −1 𝑃)𝐷𝑃−1 = 𝑃𝐷𝐷𝑃 −1 = 𝑃𝐷2 𝑃 −1
In het algemeen geldt voor 𝑘 ≥ 1
𝐴𝑘 = 𝑃𝐷 𝑘 𝑃 −1
Wanneer we de matrices 𝑃 en 𝐷 kennen, kunnen we dus heel gemakkelijk 𝐴𝑘 uitrekenen.
TOEPASSING: DISCRETE DYNAMISCHE SYSTEMEN
DISCRETE DYNAMISCHE SYSTEMEN zijn vergelijkingen van de vorm 𝐱 𝑘+1 = 𝐴𝐱 𝑘 , met gegeven 𝐴 ∈ ℝ𝑛×𝑛 en
beginvector 𝐱 0 ∈ ℝ𝑛 . De vectoren 𝑥𝑘 geven informatie over de situatie naarmate de tijd verstrijkt. Op de lange
termijn (𝑘 → ∞) ontstaat een stabiele situatie.
We nemen aan dat A diagonaliseerbaar is met 𝑛 lineair onafhankelijke eigenvectoren 𝐯1 , … , 𝐯𝑛 en bijbehorende
eigenwaarden 𝜆1 , … , 𝜆𝑛 . We nemen aan dat de eigenvectoren zodanig zijn geordend dat |𝜆1 | ≥ |𝜆2 | ≥ ⋯ ≥
|𝜆𝑛 |. Aangezien {𝐯1 , … , 𝐯𝑛 } een basis is voor ℝ𝑛 , kan elke beginvector 𝑥0 geschreven worden in de vorm
𝐱 0 = 𝑐1 𝐯1 + ⋯ + 𝑐𝑛 𝐯𝑛
Op basis hiervan bepalen we 𝐱 𝑘 .
𝐱 𝑘 = 𝐴𝑘 𝐱 0 = 𝑐1 (𝜆1 )𝑘 𝐯1 + ⋯ + 𝑐𝑛 (𝜆𝑛 )𝑘 𝐯𝑛
De vraag is wat er gebeurt op de lange termijn. Stel voor een bepaalde eigenwaarde 𝜆𝑗 geldt |𝜆𝑗 | < 1. Dan
||𝑐𝑗 𝜆𝑗𝑘 𝐯𝑗 || = |𝑐𝑗 | ∙ |𝜆𝑗𝑘 | ∙ ||𝐯𝑗 || → 0. De bijdrage van de eigenvector 𝐯𝑗 verdwijnt.
BEWIJS We zullen eerst bewijzen dat 𝐱 𝑘 = 𝐴𝑘 𝐱 0 met behulp van inductie. Dit inductiebewijs bestaat
uit twee stappen. Ten eerste bewijzen we dat de uitdrukking geldt voor 𝑘 = 0. Vervolgens bewijzen
we dat wanneer de uitdrukking geldt voor een bepaalde 𝑘 dat hij dan ook moet gelden voor 𝑘 + 1.
1. 𝑘 = 0: 𝐱 0 = 𝐴0 𝐱 0 = 𝐼𝐱 0 = 𝐱 0
2. We stellen dat geldt 𝐱 𝑘 = 𝐴𝑘 𝐱 0. Nu willen we bewijzen dat dan ook moet gelden 𝐱 𝑘+1 = 𝐴𝑘+1 𝐱 0
𝐱 𝑘+1 = 𝐴𝐱 𝑘 = 𝐴𝐴𝑘 𝐱 0 = 𝐴𝑘+1 𝐱 0
Nu moeten we nog bewijzen dat 𝐱 𝑘 = 𝑐1 (𝜆1 )𝑘 𝐯1 + ⋯ + 𝑐𝑛 (𝜆𝑛 )𝑘 𝐯𝑛 . Opnieuw gebruiken we inductie.
1. 𝑘 = 0: 𝐱 0 = 𝑐1 (𝜆1 )0 𝐯1 + ⋯ + 𝑐𝑛 (𝜆𝑛 )0 𝐯𝑛 = 𝑐1 𝐯1 + ⋯ + 𝑐𝑛 𝐯𝑛 = 𝐱 0
2. We stellen dat geldt 𝐱 𝑘 = 𝑐1 (𝜆1 )𝑘 𝐯1 + ⋯ + 𝑐𝑛 (𝜆𝑛 )𝑘 𝐯𝑛 . Nu willen we bewijzen dat dan ook moet
gelden 𝐱 𝑘+1 = 𝑐1 (𝜆1 )𝑘+1 𝐯1 + ⋯ + 𝑐𝑛 (𝜆𝑛 )𝑘+1 𝐯𝑛 .
𝐱 𝑘+1 = 𝐴𝐱 𝑘 = 𝐴(𝑐1 (𝜆1 )𝑘 𝐯1 + ⋯ + 𝑐𝑛 (𝜆𝑛 )𝑘 𝐯𝑛 ) = 𝑐1 𝜆𝑘1 𝐴𝐯1 + ⋯ + 𝑐𝑛 𝜆𝑘𝑛 𝐴𝐯𝑛
𝑘+1
= 𝑐1 𝜆𝑘1 𝜆1 𝑣1 + ⋯ + 𝑐𝑛 𝜆𝑘𝑛 𝜆𝑛 𝑣𝑛 = 𝑐1 𝜆𝑘+1
1 𝑣1 + ⋯ + 𝑐𝑛 𝜆𝑛 𝑣𝑛
Hiermee is bewezen dat, indien 𝐱 0 = 𝑐1 𝐯1 + ⋯ + 𝑐𝑛 𝐯𝑛 met {𝑣1 , … , 𝑣𝑛 } een lineair onafhankelijk
systeem van de eigenvectoren van 𝐴, dat dan voor een discreet dynamisch systeem 𝐱 𝑘+1 = 𝐴𝐱 𝑘 geldt
𝐱 𝑘 = 𝐴𝑘 𝐱 0 = 𝑐1 (𝜆1 )𝑘 𝐯1 + ⋯ + 𝑐𝑛 (𝜆𝑛 )𝑘 𝐯𝑛
VOORBEELD 12: Bepaal de evolutie van het discrete dynamische systeem dat de populaties Ok van
uilen en R k van ratten beschrijft.
Gegeven zijn de relaties
Ok+1 = 0,5 Ok + 0,4 R k
R k+1 = −0,2 Ok + 1,1 R k
Dit kan geschreven worden als een matrixvergelijking in de vorm 𝐱 k+1 = A 𝐱 k
O
0,5 0,4 Ok
[ k+1 ] = [
][ ]
R k+1
−0,2 1,1 R k
De eerste stap is om de eigenvectoren van A te bepalen. Hiertoe moeten we eerst de eigenwaarden
bepalen.
0,5 − λ
0,4
det(A − λI) = det [
] = (0,5 − λ)(1,1 − λ) + 0,08 = 0
−0,2 1,1 − λ
2
λ − 1,6λ + 0,63 = 0
1,6 ± √2,56 − 4 ∙ 0,63
λ=
= 0,8 ± 0,1
2
De eigenwaarden zijn λ1 = 0,9 en λ2 = 0,7. Dan nu de eigenvectoren.
(A − λ1 I)𝐱 = (A − 0,9I)𝐱 = 𝟎
−0,4 0,4 0
1 −1 0
[
| ]~[
| ]
−0,2 0,2 0
0 0 0
𝑥1 − 𝑥2 = 0 ⟹ 𝑥1 = 𝑥2
Kies 𝑥1 = 1
1
𝐯1 = [ ]
1
(A − λ2 I)𝐱 = (A − 0,7I)𝐱 = 𝟎
−0,2 0,4 0
1 −2 0
[
| ]~[
| ]
−0,2 0,4 0
0 0 0
𝑥1 − 2𝑥2 = 0 ⟹ 𝑥1 = 2𝑥2
Kies 𝑥2 = 1
2
𝐯2 = [ ]
1
Nu kunnen we de beginvector 𝐱 0 opstellen.
𝐱 0 = 𝑐1 𝐯1 + 𝑐2 𝐯2
𝐱 𝑘 kunnen we schrijven als
𝑐 (0,9)𝑘 + 2𝑐2 (0,7)𝑘
1
2
𝐱 𝑘 = 𝑐1 𝜆𝑘1 𝐯1 + 𝑐2 𝜆𝑘2 𝐯2 = 𝑐1 (0,9)𝑘 [ ] + 𝑐2 (0,7)𝑘 [ ] = [ 1
]
1
1
𝑐1 (0,9)𝑘 + 𝑐2 (0,7)𝑘
We kunnen nu de populatie uilen en de populatie ratten beschrijven als functie van 𝑘.
𝑂𝑘 = 𝑐1 (0,9)𝑘 + 2𝑐2 (0,7)𝑘
𝑅𝑘 = 𝑐1 (0,9)𝑘 + 𝑐2 (0,7)𝑘
Omdat |𝜆1,2 | < 1 geldt dat op de lange termijn de bijdrage van beide eigenvectoren verdwijnt.
Oftewel, beide populaties sterven uit.
TOEPASSING: OPLOSSEN VAN STELSELS DIFFERENTIAALVERGELIJKINGEN
In veel toepassingsproblemen zijn er meerdere grootheden die veranderen naarmate de tijd vordert. Dit leidt
tot een systeem differentiaalvergelijkingen.
𝑥1′ = 𝑎11 𝑥1 + ⋯ + 𝑎1𝑛 𝑥𝑛
𝑥2′ = 𝑎21 𝑥1 + ⋯ + 𝑎2𝑛 𝑥𝑛
⋮
𝑥𝑛′ = 𝑎𝑛1 𝑥1 + ⋯ + 𝑎𝑛𝑛 𝑥𝑛
Hierin zijn 𝑥1 , … , 𝑥𝑛 differentieerbare functies van 𝑡, met afgeleiden 𝑥1′ , … , 𝑥𝑛′ . De cruciale eigenschap van dit
systeem is dat het lineair is. We kunnen het als een matrixdifferentiaalvergelijking schrijven.
𝐱 ′ (𝑡) = 𝐴𝐱(𝑡)
waarin
𝑎11 … 𝑎1𝑛
𝑥1 (𝑡)
𝑥1′ (𝑡)
′ (𝑡)
⋮ ]
𝐱(𝑡) = [ ⋮ ] , 𝐱
= [ ⋮ ] 𝑒𝑛 𝐴 = [ ⋮
𝑎𝑛1 … 𝑎𝑛𝑛
𝑥𝑛 (𝑡)
𝑥𝑛′ (𝑡)
Een oplossing is een functie 𝐱(𝑡) die voor alle 𝑡 binnen een bepaald interval voldoet aan deze vergelijking. Er
zijn meerdere oplossingen. Omdat de vergelijking 𝐱 ′ (𝑡) = 𝐴𝐱(𝑡) lineair is, geldt dat wanneer 𝐮 en 𝐯
oplossingen zijn, dat 𝑐𝐮 + 𝑑𝐯 ook een oplossing is. Ook de nulfunctie is een oplossing. De verzameling van alle
oplossingen is een 𝑛-dimensionale deelruimte van de verzameling van alle continue functies met waardes in
ℝ𝑛 . We onderscheiden een fundamentele oplossingsverzameling bestaande uit 𝑛 lineair onafhankelijke
functies die de basis vormt voor de verzameling van alle oplossingen.
Een oplossing van de vergelijking 𝐱 ′ (𝑡) = 𝐴𝐱(𝑡) is een lineaire combinatie van functies van de vorm
𝐱(𝑡) = 𝐯𝑒 𝜆𝑡
Door deze uitdrukking te differentiëren of te vermenigvuldigen met 𝐴 vinden we
𝐱 ′ (𝑡) = 𝜆𝐯𝑒 𝜆𝑡
𝐴𝐱(𝑡) = 𝐴𝐯𝑒 𝜆𝑡
𝜆𝑡
′ (𝑡)
Aangezien 𝑒 nooit nul is, volgt hieruit dat 𝐱
gelijk is aan 𝐴𝐱(𝑡) dan en slechts dan als 𝜆𝐯 = 𝐴𝐯. Dit is het
geval dan en slechts dan als 𝜆 een eigenwaarde is van A en 𝐯 een bijbehorende eigenvector. De functies 𝐱(𝑡) =
𝐯𝑒 𝜆𝑡 die de fundamentele oplossingsverzameling vormen, noemen we de EIGENFUNCTIES voor 𝐴. Dit zijn
𝐯1 𝑒 𝜆1𝑡 , … , 𝐯𝑛 𝑒 𝜆𝑛 𝑡
waarin 𝐯1 , … , 𝐯𝑛 lineair onafhankelijke eigenvectoren zijn. Stel nu 𝑃 = [𝐯1 … 𝐯𝑛 ] en 𝐷 als de diagonale
matrix met elementen 𝜆1 , … , 𝜆𝑛 , zodat 𝐴 = 𝑃𝐷𝑃−1 . We creëren nu een nieuwe variabele 𝐲(𝑡), waarvoor geldt
𝐲(𝑡) = 𝑃 −1 𝐱(𝑡) oftewel 𝐱(𝑡) = 𝑃𝐲(𝑡)
Substitutie van 𝑃𝐲 voor 𝐱 in de vergelijking 𝐱 ′ = 𝐴𝐱 geeft
𝑑
(𝑃𝐲) = 𝐴(𝑃𝐲) = (𝑃𝐷𝑃 −1 )𝑃𝐲 = 𝑃𝐷𝐲
𝑑𝑡
𝑃𝐲 ′ = 𝑃𝐷𝐲 ⟹ 𝐲 ′ = 𝐷𝐲
Oftewel
𝑦1′ (𝑡)
𝜆1 0 … 0 𝑦1 (𝑡)
𝑦1′ (𝑡) = 𝜆1 𝑦1 (𝑡)
′ (𝑡)
0 𝜆2
⋮ 𝑦2 (𝑡)
𝑦
𝑦 ′ (𝑡) = 𝜆2 𝑦2 (𝑡)
[ 2 ]=[
][
] ⇔ { 2
⋮
⋱ 0
⋮
⋮
⋮
0 … 0 𝜆𝑛 𝑦𝑛 (𝑡)
𝑦𝑛′ (𝑡)
𝑦𝑛′ (𝑡) = 𝜆𝑛 𝑦𝑛 (𝑡)
De verandering van 𝐱 naar 𝐲 heeft het systeem ontkoppeld. De afgeleide van de functie 𝑦𝑘 is enkel afhankelijk
van 𝑦𝑘 . Uit de ontkoppelde vergelijking 𝑦1′ = 𝜆1 𝑦1 (𝑡) volgt 𝑦1 (𝑡) = 𝑐1 𝑒 𝜆1𝑡 . Oftewel
𝑐1 𝑒 𝜆1𝑡
𝐲(𝑡) = [ ⋮ ]
𝑐𝑛 𝑒 𝜆𝑛𝑡
De algemene oplossing 𝐱 van het originele systeem is
𝐱(𝑡) = 𝑃𝐲(𝑡) = [𝐯1 … 𝐯𝑛 ] 𝐲(𝑡) = 𝑐1 𝐯1 𝑒 𝜆1𝑡 + ⋯ + 𝑐𝑛 𝐯𝑛 𝑒 𝜆𝑛 𝑡
Het vinden van een oplossing voor de tweede orde differentiaalvergelijking 𝐱 ′′ (𝑡) = 𝐴𝐱(𝑡) werkt in principe op
exact dezelfde manier. Het enige verschil zit hem in het oplossen van de differentiaalvergelijkingen zelf.
1 3
VOORBEELD 13: Bepaal de algemene reële oplossing van 𝐲 ′′ (t) = A𝐲(t) met A = [
].
3 1
De eerste stap is om de eigenvectoren van A te bepalen. Hiertoe moeten we eerst de eigenwaarden
bepalen.
1−λ
3
det(A − λI) = det [
] = (1 − λ)(1 − λ) − 9 = 0
3
1−λ
λ2 − 2λ − 8 = 0
(λ − 4)(λ + 2) = 0
De eigenwaarden zijn λ1 = 4 en λ2 = −2. Dan nu de eigenvectoren.
(A − λ1 I)𝐱 = (A − 4I)𝐱 = 𝟎
−3 3 0
1 −1 0
[
| ]~[
| ]
3 −3 0
0 0 0
𝑥1 − 𝑥2 = 0 ⟹ 𝑥1 = 𝑥2
Kies 𝑥1 = 1
1
𝐯1 = [ ]
1
(A − λ2 I)𝐱 = (A + 2I)𝐱 = 𝟎
3 3 0
1 1 0
[
| ]~[
| ]
3 3 0
0 0 0
𝑥1 + 𝑥2 = 0 ⟹ 𝑥1 = −𝑥2
Kies 𝑥1 = 1
1
𝐯2 = [ ]
−1
Nu kunnen we 𝐷 en 𝑃 opstellen.
4 0
1 1
𝐷=[
]
en
𝑃=[
]
0 −2
1 −1
De volgende stap is om een nieuwe variabele 𝐳(𝑡) te creëren zodanig dat geldt 𝐲(𝑡) = 𝑃𝐳(𝑡). Voor
deze variabele geldt
𝐳 ′′ = 𝐷𝐳
Oftewel
𝑧 ′′
𝑧 ′′ = 4𝑧1
4 0 𝑧1
[ 1′′ ] = [
] [𝑧 ] ⇔ { ′′1
𝑧2
𝑧2 = −2𝑧2
0 −2 2
We moeten beide differentiaalvergelijkingen oplossen. Eerst 𝑧1′′ = 4𝑧1 , oftewel 𝑧1′′ − 4𝑧1 = 0
𝑧1 = 𝑒 𝜆𝑡
2 𝜆𝑡
𝜆𝑡
𝜆 𝑒 − 4𝑒 = 0 ⟹ 𝜆2 = 4 ⟹ 𝜆1,2 = ±2
𝑧1 (𝑡) = 𝐶1 𝑒 𝜆1𝑡 + 𝐶2 𝑒 𝜆2𝑡 = 𝐶1 𝑒 2𝑡 + 𝐶2 𝑒 −2𝑡
′′
′′
Dan nu 𝑧2 = −2𝑧2 , oftewel 𝑧2 + 2𝑧2 = 0
𝑧2 = 𝑒 𝜆𝑡
2 𝜆𝑡
𝜆𝑡
𝜆 𝑒 + 2𝑒 = 0 ⟹ 𝜆2 = −2 ⟹ 𝜆1,2 = ±√2𝑖
𝑧2 (𝑡) = 𝑒 𝑎𝑡 (𝐷1 cos 𝑏𝑡 + 𝐷2 sin 𝑏𝑡) = 𝐷1 cos(√2𝑡) + 𝐷2 sin(√2𝑡)
We hebben nu 𝐳(𝑡) gevonden.
𝐶1 𝑒 2𝑡 + 𝐶2 𝑒 −2𝑡
𝑧 (𝑡)
𝐳(𝑡) = [ 1 ] = [
]
𝑧2 (𝑡)
𝐷1 cos(√2𝑡) + 𝐷2 sin(√2𝑡)
We vinden nu 𝐲(𝑡) deze uitdrukking te vermenigvuldigen met P.
𝐶1 𝑒 2𝑡 + 𝐶2 𝑒 −2𝑡
1 1
𝐲(𝑡) = 𝑃𝐳(𝑡) = [
][
]
1 −1 𝐷1 cos(√2𝑡) + 𝐷2 sin(√2𝑡)
𝐶1 𝑒 2𝑡 + 𝐶2 𝑒 −2𝑡 + 𝐷1 cos(√2𝑡) + 𝐷2 sin(√2𝑡)
=[
]
𝐶1 𝑒 2𝑡 + 𝐶2 𝑒 −2𝑡 − 𝐷1 cos(√2𝑡) − 𝐷2 sin(√2𝑡)
ORTHOGONALITEIT
INPRODUCT
Stel, we hebben twee vectoren in ℝ𝑛 , 𝐮 en 𝐯. Beide kunnen we schrijven als een 𝑛 × 1 matrix. Wanneer we nu
vector 𝐮 transponereen, krijgen we de 1 × 𝑛 matrix 𝐮𝑇 .Het matrixproduct 𝐮𝑇 𝐯 is een 1 × 1 matrix. Dit getal
noemen we het INPRODUCT van 𝐮 en 𝐯 en wordt genoteerd als 𝐮 ∙ 𝐯.
𝑢1
𝑣1
𝑢2
𝑣2
We hebben de vectoren 𝐮 = [ ⋮ ] en 𝐯 = [ ⋮ ]. Wanneer deze reëel zijn, geldt voor het inproduct
𝑢𝑛
𝑣𝑛
𝐮 ∙ 𝐯 = 𝑢1 𝑣1 + 𝑢2 𝑣2 + ⋯ + 𝑢𝑛 𝑣𝑛
Wanneer 𝑢 en 𝑣 complex zijn, dan geldt het inproduct
𝐮 ∙ 𝐯 = 𝑢1 𝑣̅1 + 𝑢2 𝑣̅2 + ⋯ + 𝑢𝑛 𝑣̅𝑛
Het inproduct heeft de volgende eigenschappen
 𝐮 ∙ 𝐯 = ̅̅̅̅̅̅
𝐯∙𝐮
 (𝐮 + 𝐯) ∙ 𝐰 = 𝐮 ∙ 𝐰 + 𝐯 ∙ 𝐰
 (𝑐𝐮) ∙ 𝐯 = 𝑐(𝐮 ∙ 𝐯) en 𝐮 ∙ (𝑐𝐯) = 𝑐̅(𝐮 ∙ 𝐯), 𝑐 ∈ ℝ of ℂ
 𝐮 ∙ 𝐮 ≥ 0, en 𝐮 ∙ 𝐮 = 0 dan en slechts dan als 𝐮 = 0
De streep complexe conjugatie verdwijnt zodra alles reëel is.
Je kunt ook het inproduct nemen van continue functies. We definiëren 𝑉 = 𝐶([𝑎, 𝑏]) = {𝑓(𝑥): [𝑎, 𝑏] →
ℝ | 𝑓 is continu}. Dit is een lineaire deelruimte van continue functies. Binnen 𝑉 = 𝐶([𝑎, 𝑏]) kunnen we een
inproduct definiëren als
𝑏
𝑓 ∙ 𝑔 = ∫ 𝑓(𝑥)𝑔(𝑥)𝑑𝑥
𝑎
Dit is een inproduct omdat alle eigenschappen gelden.
𝑏
𝑏
 𝑓 ∙ 𝑔 = ∫𝑎 𝑓(𝑥)𝑔(𝑥)𝑑𝑥 = ∫𝑎 𝑔(𝑥)𝑓(𝑥)𝑑𝑥 = 𝑔 ∙ 𝑓
𝑏
𝑏
𝑏

(𝑓 + 𝑔) ∙ ℎ = ∫𝑎 (𝑓(𝑥) + 𝑔(𝑥))ℎ(𝑥)𝑑𝑥 = ∫𝑎 𝑓(𝑥)ℎ(𝑥)𝑑𝑥 + ∫𝑎 𝑔(𝑥)ℎ(𝑥)𝑑𝑥 = 𝑓 ∙ ℎ + 𝑔 ∙ ℎ

(𝑐𝑓) ∙ 𝑔 = ∫𝑎 (𝑐𝑓(𝑥))𝑔(𝑥)𝑑𝑥 = 𝑐 ∫𝑎 𝑓(𝑥)𝑔(𝑥)𝑑𝑥 = 𝑐(𝑓 ∙ 𝑔)

𝑓 ∙ 𝑓 = ∫𝑎 (𝑓(𝑥)) 𝑑𝑥 ≥ 0 en 𝑓 ∙ 𝑓 = 0 dan en slechts dan als 𝑓(𝑥) = 0 in alle punten 𝑥 ∈ [𝑎, 𝑏]
𝑏
𝑏
𝑏
2
Als 𝑉 een lineare ruimte is met inproduct 𝐮 ∙ 𝐯, dan heeft 𝑉 een INPRODUCTRUIMTE.
NORM EN AFSTAND
Als 𝑉 een inproductruimte is, dan definiëren we voor elk element 𝐮 ∈ 𝑉 de NORM of LENGTE in 𝑉 als
||𝐮|| = √𝐮 ∙ 𝐮
De norm heeft de volgende eigenschappen:
 |𝐮 ∙ 𝐯| ≤ ||𝐮|| ∙ ||𝐯|| (ongelijkheid van Cauchy-Schwarz)
 ||𝐮|| ≥ 0 en ||𝐮|| = 0 dan en slechts dan als 𝐮 = 0
 ||𝑐𝐮|| = |𝑐| ||𝐮||, 𝑐 ∈ ℂ
 ||𝐮 + 𝐯|| ≤ ||𝐮|| + ||𝐯|| (driehoeksongelijkheid)
Een element 𝐮 met ||𝐮|| = 1 heet een EENHEIDSVECTOR. Wanneer we een niet-nul vector 𝐯 delen door zijn
lengte (vermenigvuldigen met 1/||𝐯||) krijgen we een eenheidsvector in dezelfde richting als 𝐯.
De afstand tussen twee elementen 𝐮 ∈ 𝑉 en 𝐯 ∈ 𝑉 van een inproductruimte 𝑉 is gedefinieerd als ||𝐮 − 𝐯||.
ORTHOGONALITEIT
Twee elementen 𝑢 ∈ 𝑉 en 𝑣 ∈ 𝑉 van een inproductruimte V heten ORTHOGONAAL (𝐮 ⊥ 𝐯) als 𝐮 ∙ 𝐯 = 0.
BEWIJS Stel je twee lijnen voor door de oorsprong die worden bepaald door de vectoren 𝐮 en 𝐯, zoals
weergegeven in Figuur 4. De lijnen staan loodrecht op elkaar dan en slechts dan als de afstand van 𝑢
naar 𝑣 gelijk is aan de afstand van 𝐮 naar −𝐯.
||𝐮 − 𝐯|| = (𝐮 − 𝐯) ∙ (𝐮 − 𝐯) = 𝐮 ∙ (𝐮 − 𝐯) − 𝐯 ∙ (𝐮 − 𝐯) = 𝐮 ∙ 𝐮 −
2
2
𝐮 ∙ 𝐯 − 𝐯 ∙ 𝐮 + 𝐯 ∙ 𝐯 = ||𝐮|| + ||𝐯|| − 2𝐮 ∙ 𝐯
Figuur 4: Orthogonale vectoren
||𝐮 − (−𝐯)|| = ||𝐮 + 𝐯|| = (𝐮 + 𝐯) ∙ (𝐮 + 𝐯) = 𝐮 ∙ (𝐮 + 𝐯) + 𝐯 ∙ (𝐮 + 𝐯)
2
2
= 𝐮 ∙ 𝐮 + 𝐮 ∙ 𝐯 + 𝐯 ∙ 𝐮 + 𝐯 ∙ 𝐯 = ||𝐮|| + ||𝐯|| + 2𝐮 ∙ 𝐯
||𝐮 − 𝐯|| = ||𝐮 − (−𝐯)|| dan en slechts dan als −2𝐮 ∙ 𝐯 = 2𝐮 ∙ 𝐯. Dit is enkel het geval wanneer 𝐮 ∙
𝐯 = 0. Hiermee is bewezen dat twee vectoren 𝐮 en 𝐯 orthogonaal zijn wanneer 𝐮 ∙ 𝐯 = 0.
Een nuttige eigenschap van orthogonale vectoren wordt beschreven door de PYTHAGORASSTELLING. Twee
2
2
elementen 𝐮 en 𝐯 van de reële inproductruimte 𝑉 zijn orthogonaal dan en slechts dan als ||𝐮|| + ||𝐯|| =
2
2
||𝐮 + 𝐯|| = ||𝐮 − 𝐯|| . Dit volgt direct uit het feit dat 𝐮 ∙ 𝐯 = 𝐯 ∙ 𝐮 = 0.
Wanneer een vector 𝐯 orthogonaal is aan elke vector in een lineaire deelruime 𝐻 van de lineaire ruimte 𝑉, dan
zeggen we dat 𝐯 orthogonaal is aan 𝐻. De verzameling van alle vectoren 𝐯 die orthogonaal zijn aan 𝐻 noemen
we het ORTHOGONALE COMPLEMENT van 𝐻, genoteerd als 𝐻 ⊥ .
𝐻 ⊥ = {𝐯 ∈ 𝑉 | 𝐯 ⊥ 𝐻}
⊥
𝐻 is zelf ook een lineaire deelruimte van 𝑉.
Een verzameling {𝐯1 , … , 𝐯𝑝 } heet ORTHOGONAAL als alle 𝑣𝑗 orthogonaal ten opzichte van elkaar zijn.
𝐯𝑖 ⊥ 𝐯𝑗 ,
𝑖, 𝑗 = 1, … , 𝑝,
𝑖≠𝑗
Als bovendien ||𝐯𝑖 || = 1, dan heet de verzameling {𝐯1 , … , 𝐯𝑝 } ORTHONORMAAL. Wanneer 𝐻 een lineaire
deelruimte is van een inproductruimte 𝑉 met een orthogonale basis {𝐯1 , … , 𝐯𝑝 }, dan kunnen we deze basis
orthonormaal maken door de lengte van elke 𝐯𝑘 aan te passen zodat deze één wordt. Dit doen we door te
delen door de lengte van 𝐯𝑘 .
1
𝐮𝑘 =
𝐯
||𝐯𝑘 || 𝑘
Dit proces heet normalisatie.
ORTHOGONALE VERZAMELINGEN EN ORTHOGONALE DECOMPOSITIE
Een ORTHOGONALE VERZAMELING {𝐯1 , … , 𝐯𝑝 }, 𝐯𝑖 ≠ 0 van een lineaire ruimte 𝑉 vormt een basis van de
lineaire deelruimte 𝐻 = span{𝐯1 , … , 𝐯𝑝 }.
BEWIJS We hoeven alleen te bewijzen dat {𝐯1 , … , 𝐯𝑝 } een lineair onafhankelijk stelsels vormt. Dit
doen we door middel van een bewijs uit het ongerijmde. We bewijzen dat {𝐯1 , … , 𝐯𝑝 } geen lineair
afhankelijk stelsel kan zijn. Wanneer {𝐯1 , … , 𝐯𝑝 } een lineair afhankelijk stelsel is, kunnen we schrijven
𝑐1 𝐯1 + ⋯ + 𝑐𝑝 𝐯𝑝 = 0
waarbij ten minste één 𝑐𝑘 ≠ 0. Dan
−𝑐𝑘 𝐯𝑘 = 𝑐1 𝐯1 + ⋯ + 𝑐𝑘−1 𝐯𝑘−1 + 𝑐𝑘+1 𝐯𝑘+1 + ⋯ + 𝑐𝑝 𝐯𝑝
𝑐𝑝
𝑐1
𝑐𝑘−1
𝑐𝑘+1
𝐯𝑘 =
𝐯1 + ⋯ +
𝐯𝑘−1 +
𝐯𝑘+1 + ⋯ +
𝐯
−𝑐𝑘
−𝑐𝑘
−𝑐𝑘
−𝑐𝑘 𝑝
𝑐𝑝
𝑐1
𝑐𝑘−1
𝑐𝑘+1
𝐯𝑘 ∙ 𝐯𝑘 = (
𝐯 +⋯+
𝐯
+
𝐯
+ ⋯+
𝐯 ) ∙ 𝐯𝑘
−𝑐𝑘 1
−𝑐𝑘 𝑘−1 −𝑐𝑘 𝑘+1
−𝑐𝑘 𝑝
𝑐𝑝
𝑐1
𝑐𝑘−1
𝑐𝑘+1
(𝐯1 + 𝐯𝑘 ) + ⋯ +
(𝐯𝑘−1 + 𝐯𝑘 ) +
(𝐯𝑘+1 + 𝐯𝑘 ) + ⋯ +
=
(𝐯 + 𝐯𝑘 )
−𝑐𝑘
−𝑐𝑘
−𝑐𝑘
−𝑐𝑘 𝑝
𝑐𝑝
𝑐1
𝑐𝑘−1
𝑐𝑘+1
=
0+⋯+
0+
0+ ⋯+
0=0
−𝑐𝑘
−𝑐𝑘
−𝑐𝑘
−𝑐𝑘
Volgens de definitie van het inproduct kan dit alleen als 𝐯𝑘 = 0. We weten echter 𝑣𝑘 ≠ 0. Hiermee is
bewezen dat {𝐯1 , … , 𝐯𝑝 } geen lineair afhankelijk stelsel kan zijn en dat het dus een lineair afhankelijk
stelsel is.
Wanneer {𝐯1 , … , 𝐯𝑝 } een orthogonale basis is voor een lineaire deelruimte 𝐻 van de lineaire ruimte 𝑉, dan kan
elke 𝐲 in 𝐻 geschreven worden als een lineaire combinatie
𝐲 = 𝑐1 𝐯1 + ⋯ + 𝑐𝑝 𝐯𝑝
Uit het feit dat alle elementen van de basis orthogonaal aan elkaar zijn, volgt
𝐲 ∙ 𝐯𝑗 = (𝑐1 𝐯1 + ⋯ + 𝑐𝑗 𝐯𝑗 + ⋯ + 𝑐𝑝 𝐯𝑝 ) ∙ 𝐯𝑗 = 𝑐𝑗 𝐯𝑗 ∙ 𝐯𝑗
Hieruit volgt een algemene uitdrukking voor het gewicht 𝑐𝑗
𝑐𝑗 =
𝐲 ∙ 𝐯𝑗
𝐯𝑗 ∙ 𝐯𝑗
Wanneer 𝐻 een lineaire deelruimte is van een inproductruimte 𝑉,
dan kan elk element 𝐲 ∈ 𝑉 opgesplitst worden in een vector in 𝐻 en
een vector orthogonaal aan 𝐻.
𝐲 = 𝐲̂ + 𝐳,
𝐲̂ ∈ 𝐻,
𝐳 ∈ 𝐻⊥
Deze formule geeft de ORTHOGONALE DECOMPOSITIE van 𝐲. 𝐲̂
heet de ORTHOGONALE PROJECTIE van 𝐲 op 𝐻 (𝐲̂ = proj𝐻 𝐲) en
||𝐳|| = ||𝐲 − 𝐲̂|| is de afstand van 𝐲 tot 𝐻.
BESTE BENADERING STELLING: De orthogonale projectie van 𝐲
Figuur 5: Orthogonale decompositie
op 𝐻 is het element van 𝐻 dat het dichtst bij 𝐲 ligt.
||𝐲 − 𝐲̂|| ≤ ||𝐲 − 𝐰||,
∀𝐰 ∈ 𝐻
De afstand tussen 𝐲 en 𝐻 is dus zo klein mogelijk gekozen.
𝐻 heeft een orthogonale basis {𝐯1 , … , 𝐯𝑝 }. 𝐲̂ is een vector in 𝐻 en
kan worden geschreven als
𝐲 ∙ 𝐯𝑝
𝐲 ∙ 𝐯1
𝐲̂ =
𝐯1 + ⋯ +
𝐯
𝐯1 ∙ 𝐯1
𝐯𝑝 ∙ 𝐯𝑝 𝑝
Voor 𝐳 geldt simpelweg
𝐳 = 𝐲 − 𝐲̂
Figuur 6: Beste benadering stelling
VOORBEELD 14: Bepaal de orthogonale projectie 𝐲̂ =
1
2
−2
projH 𝐲 van vector 𝐲 = [2] op H = span{𝐯1 , 𝐯2 }, 𝐯1 = [ 5 ], 𝐯2 = [ 1 ]
3
−1
1
− 2⁄5
𝐲 ∙ 𝐯1
𝐲 ∙ 𝐯2
2 + 10 − 3
−2 + 2 + 3
9 2
1 −2
𝐲̂ =
𝐯1 +
𝐯2 =
𝐯1 +
𝐯2 =
[ 5 ]+ [ 1 ]=[ 2 ]
𝐯1 ∙ 𝐯1
𝐯2 ∙ 𝐯2
4 + 25 + 1
4+1+1
30
2
1⁄5
−1
1
Bij bet bepalen van de projectie van 𝑦 op 𝐻 kun je rekenwerk besparen door middel van de volgende regels:
 proj𝐻 (𝐱 + 𝐲) = proj𝐻 𝐱 + proj𝐻 𝐲
 proj𝐻 (𝑐𝐲) = 𝑐 proj𝐻 𝐲
Je kunt hier slim gebruik van maken door de projecties van basisvectoren eerst uit te rekenen en te bewaren.
Een projectie van elke 𝐲 is dan een lineaire combinatie daarvan.
GRAM-SCHMIDT PROCEDURE
We kunnen de orthogonale projectie van 𝑦 op 𝐻 alleen bepalen als we een orthogonale basis {𝐯1 , … , 𝐯𝑝 } van 𝐻
hebben. In praktijk zijn orthogonale bases niet altijd beschikbaar. We kunnen een orthogonale basis van 𝐻
maken met behulp van de GRAM-SCHMIDT PROCEDURE.
Stel 𝐻 is een lineaire deelruimte van de inproductruimte 𝑉 en {𝐱1 , … , 𝐱 𝑝 } is een basis van 𝐻. Dan geldt voor de
orthogonale basis {𝐯1 , … , 𝐯𝑝 } van 𝐻
𝐯1 = 𝐱1
𝐱 2 ∙ 𝐯1
𝐯2 = 𝐱 2 −
𝐯
𝐯1 ∙ 𝐯1 1
𝐱 3 ∙ 𝐯1
𝐱 2 ∙ 𝐯2
𝐯3 = 𝐱 3 −
𝐯1 −
𝐯
𝐯1 ∙ 𝐯1
𝐯2 ∙ 𝐯2 2
⋮
𝐱 𝑝 ∙ 𝐯1
𝐱 𝑝 ∙ 𝐯2
𝐱 𝑝 ∙ 𝐯𝑝−1
𝐯𝑝 = 𝐱 𝑝 −
𝐯 −
𝐯 −⋯−
𝐯
𝐯1 ∙ 𝐯1 1 𝐯2 ∙ 𝐯2 2
𝐯𝑝−1 ∙ 𝐯𝑝−1 𝑝−1
Je kunt je oplossingen controleren door te kijken of alle elementen van de orthogonale basis inderdaad
loodrecht op elkaar staan, dus door te controleren of hun inproducten 0 zijn.
BEWIJS We hebben vastgesteld dat 𝐯1 = 𝐱1 , zodat 𝑠𝑝𝑎𝑛{𝐯1 } = 𝑠𝑝𝑎𝑛{𝐱1 }. Verder hebben we voor
een bepaalde 𝑘 < 𝑝 vectoren 𝐯1 , … , 𝐯𝑘 vastgesteld zodat {𝐯1 , … , 𝐯𝑘 } een ortogonale basis is voor 𝑊𝑘 ,
met 𝑊𝑘 = 𝑠𝑝𝑎𝑛{𝐱1 , … , 𝐱 𝑘 }. Nu geldt voor 𝐯𝑘+1
𝐯𝑘+1 = 𝐱 𝑘+1 − 𝑝𝑟𝑜𝑗𝑊𝑘 𝐱 𝑘+1
𝐯𝑘+1 is orthogonaal aan 𝑊𝑘 en is daarin in 𝑊𝑘+1 . {𝐯1 , … , 𝐯𝑘+1 } is een orthogonale verzameling nietnulvectoren in een (𝑘 + 1)-dimensionale ruimte 𝑊𝑘+1 , oftewel 𝑊𝑘+1 = 𝑠𝑝𝑎𝑛{𝐯1 , … , 𝐯𝑘+1 }. Je kunt dit
proces herhalen totdat 𝑘 + 1 = 𝑝. Je hebt dan je orthogonale basis van 𝑊.
De basis van 𝐻 is dan misschien verandert, maar 𝐻 zelf niet. Beide bases spannen exact hetzelfde gebied op.
span{𝐯1 , … , 𝐯𝑝 } = span{𝐱1 , … , 𝒙𝑝 }
VOORBEELD 15: Stel V = C([0,1]) is een lineaire ruimte van reële continue functies met H =
ℙ2 ([0,1]), een lineaire deelruimte van tweedegraads veeltermen. Bepaal een orthogonale basis van H.
De basis van H is {𝐱1 , 𝐱 2 , 𝐱 3 } = {1, x, x 2 }. We passen de Gram-Schmidt procedure hierop toe.
𝐯1 = 𝐱1 = 1
1
∫ x ∙ 1dx
𝐱 2 ∙ 𝐯1
1⁄2 x 2 |10
1⁄2
1
𝐯2 = 𝐱 2 −
𝐯1 = x − 01
∙1= x−
=x−
=x−
1
𝐯1 ∙ 𝐯1
1
2
x|0
∫ 1 ∙ 1dx
0
1
1
∫ x 2 ∙ 1dx
∫ x 2 ∙ (x − 1⁄2)dx
𝐱 3 ∙ 𝐯1
𝐱 2 ∙ 𝐯2
1
𝐯3 = 𝐱 3 −
𝐯1 −
𝐯2 = x 2 − 01
∙1− 0 1
∙ (x − )
𝐯1 ∙ 𝐯1
𝐯2 ∙ 𝐯2
2
∫ 1 ∙ 1dx
∫ (x − 1⁄2)2 dx
0
0
1⁄3 x 3 |10 1⁄4 x 4 − 1⁄6 x 3 |10
1
1⁄3
1⁄4 − 1 ⁄6
1
=x −
−
∙ (x − ) = x 2 −
−
∙ (x − )
1
1
3
2
1
1⁄24 + 1⁄24
2
x|0
1⁄3 (y − 1⁄2) |0
⁄
1
1
12
1
1
1
1
= x2 − −
∙ (x − ) = x 2 − − (x − ) = x 2 − 𝑥 +
3 1⁄12
2
3
2
6
1
1
2
Conclusie: De orthogonale basis van H is {1, x − , x − x + }
2
2
6
We kunnen een met de Gram-Schmidt procedure bepaalde orthogonale basis gebruiken om de beste
benadering va neen element van een lineaire deelruimte te vinden. Zo kunnen we door de functie 𝑒 𝑥 te
projecteren op 𝐻 = ℙ2 ([0,1]) deze functie benaderen met polynomen. We gebruiken de functie
𝐲 ∙ 𝐯𝑝
𝐲 ∙ 𝐯1
𝐲̂ =
𝐯 + ⋯+
𝐯
𝐯1 ∙ 𝐯1 1
𝐯𝑝 ∙ 𝐯𝑝 𝑝
waarin 𝐲̂ de benadering is, 𝐲 de oorspronkelijke functie en {𝐯1 , … , 𝐯𝑝 } de orthogonale basis van 𝐻 vormen.
Download