Samenvatting Wiskunde IIa

advertisement
Hoofdstuk 1 Vectoren dik gedrukt, scalairen normaal en Matrices in hoofdletters
Vector = een pijl in Rn. Een vector heeft een grootte en een richting. Dit in tegenstelling tot
een coördinaat, dat slechts één punt in Rn is, en dus ook geen grootte en richting heeft.
Coëfficiënten matrix = matrix waarin de rechterkolom geen oplossing van de vergelijking is
Vier manieren om een vergelijking op te schrijven:
1. Lineair systeem = Stelsel van lineaire vergelijkingen
2. Vector-vergelijking
3. Matrix vergelijking
4. Aangevulde matrix (belangrijkste, zo los je hem uiteindelijk op)
Aantal oplossingen:
• Oneindig veel (consistent)
• 1 (consistent)
• Geen (inconsistent)
Oplossingsverzameling: Bestaat uit basisvariabelen en vrije variabelen
Variabelen: x1, x2, … , xp
• Basisvariabelen: x1 = 3
• vrije variabelen: x1 vrij te kiezen
3 elementaire rij-operaties bij een matrix
• Vervangen
• Vermenigvuldigen
• Verwisselen
Standaard rijvorm
• Alle niet-nul rijen boven de nulrijen
• Elk hoofdelement ( = pivot, meest linkse niet nul element) zit in een kolom rechts van
het hoofdelement in de rij er boven
• Alle elementen in een kolom onder het hoofdelement zijn nullen
Kanonieke (= gereduceerde) rijvorm heeft nog 2 eisen:
• Het hoofdelement in elke niet-nul rij is gelijk aan 1
• Elk hoofdelement is het enige niet-nul element in een kolom
Nulrij/nulkolom: rij/kolom met alleen maar nullen
Algemene oplossing: Beschrijft alle oplossingen
Parametrische omschrijving: In de algemene oplossing worden vrije variabelen als
parameter gebruikt
Verzameling: {v1, v2, v3}
Opspansel: span {v1, v2, ... , vp} ,met v1, v2, ... , vp vectoren uit Rn, is een verzameling van
alle vectoren uit Rn die je kunt schrijven als c1 * v1 + c2 * v2 + … + cp * vp .
Dus: span {v1, v2, ... , vp} = c1 * v1 + c2 * v2 + … + cp * vp
b zit in span {v1, v2, ... , vp} als je b kunt schrijven als = c1 * v1 + c2 * v2 + … + cp + vp.
Dus om te kijken of b er in zit, moet c1 * v1 + c2 * v2 + … + cp * vp = b oplossingen hebben.
Dit los je op door c1 * v1 + c2 * v2 + … + cp * vp = b te beschouwen als vectorvergelijking (en
die is weer oplosbaar door hem als aangevulde matrix te schrijven).
Logisch equivalente beweringen: (zie aantekening voor uitleg!)
1. Voor elke b in Rm heeft de vergelijking Ax = b een oplossing
2. Elke b in Rm is een lineaire combinatie van de kolommen van A
3. De kolommen van A spannen Rm op
4. A heeft een pivot positie in elke rij
Rekenregels: Als A een m x n matrix is, u en v vectoren in Rn en c een scalair, dan
• A(u + v) = Au + Av
• A(cu) = cAu
Lineaire combinaties
• x1*a1
• Ax (= x1*a1 + x2*a2 + …)
Homogeen systeem: Ax = 0
• Altijd de triviale oplossing x = 0
• Soms zijn er niet-triviale oplossingen voor x (dan is er een vrije variabele in de
oplossingsverzameling van x aanwezig)
o Als er niet-triviale oplossingen zijn, dan is het systeem lineair afhankelijk
o Als er geen niet-triviale oplossingen zijn, dan is het lineair onafhankelijk
Niet-homogeen systeem: Ax = b
(DIT IS GEEN EERSTEGRAADS FUNCTIE!)
• Heeft de oplossing x = [x1; x2; x3 …] (de puntkomma tussen de x-en betekent dat de xen eigenlijk onder elkaar moeten staan, maar dat is geen efficiënt papiergebruik). Door
op de plaatsen van x1, x2, x3 enz. de gevonden waarden (na het herleiden van de
aangevulde matrix) in te vullen, kun je x herschrijven tot x = [x1; x2; x3 …] = p + vh.
Hierbij is vh de niet-triviale oplossing van het homogeen systeem. p is een vector die
er voor zorgt dat de oplossing gaat gelden voor Ax = b. Geometrisch gezien zorgt p er
voor dat de oplossingsverzameling verschoven wordt. vh wordt ook wel de homogene
oplossing genoemd en p de particuliere oplossing.
De volgende dingen kunnen lineair afhankelijk zijn (controleren m.b.v. aangevulde matrices):
• Matrix kolommen, als een kolom een veelvoud is van een andere kolom
• Homogene systemen: Ax = 0
• Verzamelingen: { v1, v2, ... , vp } = c1 * v1 + c2 * v2 + … + cp * vp = Ax = 0
o Verzameling S = { v1, v2, ... , vp } is ook lineair afhankelijk als geldt:
ƒ v2 = c * v 1
ƒ Als één van de vectoren de nulvector is
ƒ Als er meer vectoren zijn dan rijen in een vector (dus p>n)
ƒ vp is een lineaire combinatie van andere vectoren (c1*v1 + c2*v2 = vp)
(lineaire combinatie, want bovenstaande is herschrijfbaar tot: Ax = b)
Transformatie T
• T zet vector x om in vector b = T(x)
• Hierbij gaat x van Rn naar Rm
• Rn is het domein van T
• Rm is het codomein van T
• T(x) noemen we ook wel het beeld van x onder T ,dus T(u) is het beeld van u onder T
• T(x) is het bereik van T, en dit is gelijk aan de verzameling van alle beelden onder T
Injectief/surjectief:
• Een afbeelding T: Rn -> Rm heet surjectief (engels: “onto”) als elke willekeurige
vector b = T(x) in Rm het beeld is van MINSTENS 1 vector x in Rn.
•
Een afbeelding T: Rn -> Rm heet injectief (engels: “one-to-one”) als elke willekeurige
vector b in Rm het beeld is van HOOGUIT 1 vector x in Rn.
Soorten transformaties:
• Lineaire transformaties: deze voldoen aan de volgende rekenregels:
o T(u+v) = T(u) + T(v) voor alle u, v in het domein van T (in Rn dus)
o T(cu+dv) = c*T(u) + d*T(v) voor alle u, v in het domein van T (in Rn dus)
o T(c*u) = c*T(u)
voor alle u alle c
o T(0) = 0
• Matrix transformaties (meest gebruikte). hiermee zet je met behulp van een matrix A
de vector x om in b, T(x) = Ax = b. Matrix transformaties zijn lineaire transformaties.
Soms heb je te maken met de transformatie T(x) = Ax en dan is A gevraagd, zodat je
T(x) voor elke willekeurige x kunt berekenen. Dan is er in zo’n vraag e1, e2 enz.
gegeven met bijbehorende T(e1), T(e2) enz. Dan A= [ T(e1) T(e2) … enz. ]
A heet dan de standaard matrix voor de lineaire transformatie T. Uitgebreide uitleg en
het bewijs van de stelling in de aantekening bij paragraaf 1.9
• Geometrisch lineaire transformaties: dit zijn lineaire transformaties die beschreven
worden in een assenstelsel. De volgende dingen kunnen gebeuren:
o Een punt/vlak verschuiven (= schuiftransformatie). Dit kan met een
willekeurige matrix A ( T(x) = Ax ), maar ook met een scalair r ( T(x) = r*x ).
Als 0<r<1, dan wordt de afbeelding verkleind en dan spreek je van contractie.
Als r>1, dan wordt de afbeelding vergroot en dan spreek je van dilatie.
o Een punt verschuiven over een cirkel. Bijbehorende matrix op pagina 100.
o Een punt spiegelen, bijvoorbeeld in de x-as, de y as, de lijn y=x, de lijn y=-x of
de oorsprong. Bijbehorende standaardmatrices op pagina 101 van het boek.
o Een vlak projecteren op de x-as of y-as. Bijbehorende standaardmatrices op
pagina 103 van het boek.
Hoofdstuk 2: Matrix Algebra Rekenregels voor matrices:
• A+B=B+A
• (A + B) + C = A + (B + C)
• A+0=A
• r*(A + B) = r*A + r*B
• (r+s)*A = r*A + s*A
• r*(s*A) = (r*s)*A
• A*B ≠ B*A
OPLETTEN DUS!
• A*B = [A*b1 A*b2 A*b3 … A*bn] en B*A = [B*a1 B*a2 B*a3 … B*an]
Alle kolommen A*bn van matrix A*B zijn dus lineaire combinaties (Ax = b = A*bn)
• Als A is een m x n matrix en B een n x p matrix, dan is AB een m x p matrix
• Ak = A*A*A*…*A (bijv. A3 = A*A*A)
• A(BC) = (AB)C
• A(B+C) = AB + AC
• (B+C)A = BA + CA
• r(AB) = (rA)B = A(rB)
• Im*A = A = A*In
LET OP DE VOLGORDE VAN A EN I en Im EN In
• Als AB = AC, dan geldt NIET automatisch B=C
• Als A*B = 0, dan geldt NIET automatisch A=0 of B=0
AT is de transpose van matrix A. We zeggen dan dat we matrix A transponeren. In matlab is
dit A’. Hiermee worden de rijen kolommen en de kolommen worden de rijen. Ook hiervoor
gelden een aantal rekenregels:
• (AT)T = A
• (A+B)T = AT + BT
• (rA)T = r*AT
• (ABC)T = CTBTAT
LET WEER OP DE VOLGORDE VAN A EN B
De inverse matrix van A is A-1. Dit is een unieke matrix. Matrices die geen iverse hebben
heten singulier. Matrices die wel een inverse hebben noemen we niet-singulier. Alleen
vierkante matrices kunnen geïnverteerd worden (A is dus een n x n matrix) en de inverse
matrix bestaat alleen wanneer A*A-1 = A-1*A = In
De inverse matrix van A vind je door de matrix [A I] te herleiden. Het resultaat wordt dan
[I A-1]. Nu kun je de oplossing zo aflezen uit het achterste gedeelte A-1.
Voor een 2x2 matrix is er nog een andere manier:
Als A = [a b
c d]
dan A-1 = 1/(ad – bc) * [d –b
-c a]
waarbij (ad – bc) = det A
(determinant van A)
De matrix In noemen we een identiteitsmatrix. Dit is een vierkante matrix met n rijen en n
kolommen.
Rekenregels m.b.t. inverse matrices:
• Als Ax = b, dan x = A-1b (alleen als A-1 bestaat)
• Als A inverteerbaar is, dan is A-1 ook inveerteerbaar
• (AB)-1 = B-1A-1
• (AT)-1 = (A-1)T (Als A inverteerbaar is, dan is AT ook inverteerbaar)
De volgende stellingen zijn logisch equivalent voor een n x n matrix A:
• A is een inverteerbare matrix
• A is rij-equivalent (~) aan In (dus A is te herleiden tot In)
• A heeft n pivot posities (dit is een mooie controle op inverteerbaarheid)
• Ax = 0 heeft alleen de triviale oplossing (geen vrije variabelen in A)
• De kolommen van A vormen een lineair onafhankelijke verzameling
• The lineaire transformatie T(x) = Ax is injectief (one-to-one)
• Ax = b heeft minstens 1 oplossing voor elke b in Rn
• De kolommen van A omspannen Rn
• De lineaire transformatie T(x) = Ax beeld Rn af in Rn
• Er is een matrix C zodat CA = I
• Er is een matrix D zodat AD = I
• AT is een inverteerbare matrix
Ook lineaire transformaties kunnen inverteerbaar zijn. Stel je transformeert x naar T(x) door
A*x, dan kun je T(x) terug transformeren naar x door T(x)*A-1 (A*x*A-1 = x)
Een elementaire matrix E is een matrix die ontstaat door één enkele elementaire rij-operatie
uit te voeren op een eenheidsmatrix. Omdat rij-operaties omkeerbaar zijn (en E dus weer terug
te schrijven is tot I) zijn alle elementaire matrices inverteerbaar. De inverse matrix E-1 is de
elementaire matrix die E terug transformeert naar I.
Het Leontief input-output model is een rekenmethode die in de economie wordt gebruikt om
de verdeling te bepalen van geproduceerde goederen:
Totale productie = Onderlinge vraag tussen bedrijven + vraag consument
x
=
Cx
+
d
Waarbij x de totale productie is, C de matrixvorm van de input-output tabel, en d de vraag van
de consument. Vaak wordt deze formule herschreven tot de vorm: (I-C)x = d , waardoor x
oplosbaar wordt. Hier staat namelijk gewoon Ax = b.
Bij benadering geldt: (I-C)-1 ≈ I + C + C2 + C3 + … + Cm als de waarden in de kolommen van
C kleiner zijn dan 1. Wanneer dan m naar oneindig gaat, nadert Cm de nul-matrix.
Voorbeeld Col A (Zie volgende bladzijde) en Rij A
Een apart type opspansel is de deelruimte. Een deelruimte H voldoet aan de volgende eisen:
• H bevat de nulvector
• Voor elke willekeurige u en v, de som u + v ligt in deelruitme H
• Voor elke willekeurige u en elke willekeurige scalair c, het product c*u ligt in H
Een basis voor een deelruimte H van Rn is een lineair onafhankelijke verzameling in H die
H opspant. Dus je moet kijken of de gegeven kolommen lineair onafhankelijk zijn.
Logisch equivalente beweringen voor vierkante (n x n) matrices:
1. Voor elke b in Rm heeft de vergelijking Ax = b een oplossing
2. Elke b in Rm is een lineaire combinatie van de kolommen van A
3. De kolommen van A spannen Rm op (dus de kolommen zijn een basis voor Rm)
4. A heeft een pivot positie in elke rij
5. De kolommen van A zijn lineair onafhankelijk
6. A is een inverteerbare matrix
7. A is herleidbaar tot de identiteitsmatrix Im
Col A (“Kol A” in het Nederlands) is de kolomruimte (of de afbeelding / image) van matrix
A. Dit is de verzameling van alle lineaire combinaties van de kolommen van A. Om te kijken
of een bepaalde vector v in Col A voorkomt, los je op: Ax = v. Is dit systeem consistent, dan
zit v in Col A.
• Col A: Als A = [a1 a2 … ], dan Col A = Ax = Span{ a1, a2, …} = x1*a1 + x2*a2 + …
• De basis voor Col A bestaat uit de pivot kolommen van de originele matrix A, en dus
niet van de gereduceerde vorm van A
Nul A is de nulruimte (of kernel) van matrix A. dit is hetzelfde als de oplossingsverzameling
van Ax = 0. Om te kijken of een bepaalde vector v in Nul A voorkomt, moet je A*v
uitrekenen en kijken of dit de nulvector oplevert. Zo ja, dan zit v in Nul A, en anders niet.
• Nul A = de oplossingsverzameling van Ax = 0
• De basis voor Nul A bestaat uit de vectoren in de oplossingsverzameling van Ax = 0,
dus als Nul A = x3*u + x4*v, dan de basis voor Nul A = {u,v}
Met de dimensie van een deelruimte H bedoelen we het aantal vectoren in de basis van H.
De rang van matrix A is de dimensie van Col A (dus het aantal vectorkolommen in de basis
van Col A). Dus: Rang A = dim Col A. Ook geldt voor m x n matrix A: dim Col A + dim
Nul A = n
Hoofdstuk 3: De determinant De determinant van een matrix is een getal dat vertelt of een matrix inverteerbaar is of niet.
Als det A (de determinant van A) gelijk is aan nul, dan is de matrix niet inverteerbaar. A heet
dan singulier.
Is de determinant ongelijk aan nul, dan is de matrix wel inverteerbaar, en is A niet-singulier.
Omdat alleen vierkante matrices inverteerbaar kunnen zijn, hebben ook alleen vierkante
matrices een determinant. Van een 1x1 en een 2x2 matrix kunnen we de determinant direct
berekenen (Zie vorige bladzijde).
Voor het berekenen van de determinant van grotere matrices bestaan 2 technieken:
• cofactor ontwikkeling naar een bepaalde rij of kolom.
• De matrix omschrijven tot de driehoeksmatrix. De determinant is vervolgens gelijk
aan het product van de getallen in de hoofddiagonaal. Denk met omschrijven aan de
rekenregels voor elementaire rij-operaties.
Tekenafspraak:
Driehoeksmatrices:
Andere notatie:
Enkele standaard determinanten:
• 1x1 matrix: det A = a
(met A = [a])
• 2x2 matrix: det A = ad – bc
• Driehoeksmatrix: det A = Het product van de getallen op de hoofddiagonaal
• Identiteitsmatrix: det In = 1
• Matrix met twee dezelfde rijen: det A = 0
• Matrix met nulrij: det A = 0
• Matrix met nulkolom: det A = 0
• det AT = det A
• det A-1 = 1/(det A)
• det (A*B) = (det A)*(det B)
• det (A4) = (det A) * (det A) * (det A) * (det A)
• LET OP: det (A+B) ≠ (det A) + (det B)
De determinant na elementaire rij-operaties:
• Als de matrix B ontstaat door een veelvoud van een rij van A op te tellen bij een
andere rij, dan: det B = det A
• Als B ontstaat door twee rijen van A te verwisselen, dan: det B = −det A
• Als B ontstaat door een rij van A met k te vermenigvuldigen, dan: det B = k * det A
De determinant na kolom-operaties:
• Als de matrix B ontstaat door een veelvoud van een kolom van A op te tellen bij een
andere kolom, dan: det B = det A.
• Als B ontstaat door twee kolommen van A te verwisselen, dan: det B = −det A.
• Als B ontstaat door een kolom van A met k te vermenigvuldigen, dan: det B= k*det A.
De lineariteit eigenschap van een determinant houdt in dat je de determinant kunt zien als een
lineaire functie van de kolom variabele. Verder geen idee wat je er mee kunt!
Regel van Cramer: xi = det Ai(b) / det A
met Ai(b) Matrix A waarbij de i-de kolom
vervangen is door b.
De geadjungeerde van Matrix A, genoteerd als adj A, is de matrix die uit cofactoren bestaat:
(Vraag 11 van paragraaf 3.3 bestuderen!)
In dit voorbeeld zijn de cofactoren voor linksboven en linksonder aangegeven. Let ook hier
weer op de tekenafspraak!
Enkele toepassingen van de determinant:
•
De oppervlakte van een parallellogram is de absolute waarde van de uitkomst van
de determinant van de vectoren van de 2 belangrijkste hoekpunten, dus:
oppervlakte = | det A |
Hierbij is A dus een 2 x 2 matrix. Voorwaarde is wel dat 1 van de 2 onbelangrijke
hoekpunten de oorsprong is. Is dit niet zo, dan moet je het parallellogram verschuiven
zodat hij in de oorsprong komt.
•
Het volume van een blok wordt bepaald door de absolute waarde van de uitkomst van
de determinant van de vectoren van de 3 belangrijkste hoekpunten, dus:
volume = | det A |
Hierbij is A dus een 3 x 3 matrix. Ook hier weer de voorwaarde dat 1 van de
hoekpunten de oorsprong is.
Hoofdstuk 4: Vectorruimtes Een vectorruimte is een meer gangbare naam voor een deelruimte. Zodra je echter met 2
vectorruimten te maken hebt, waarvan de ene vectorruimte (bijv. H) binnen de tweede
vectorruimte (bijv. V) valt, dan noemen we H een deelruimte van de vectorruimte V. Hierbij
moet wel opgemerkt worden dat H alleen een deelruimte van een vectorruimte genoemd mag
worden als geldt dat:
• De nulvector zit in H
• u + v zit in H
• cu zit in H
Normaal gesproken ben je gewend om de coördinaten van een assenstelsel uit te drukken in
(x,y). Dan werk je in vectorruimte R, met als basis { (1 0) , (0,1) } voor R2.
Maar je kunt ook met vectoren werken, bijv. b1 en b2, die een opspansel of deelruimte
vormen. Een punt binnen deze deelruimte druk je dan uit in bijv. 3b1 en 2b2. Als je het punt x
uit wil drukken in vectoren, doe je dat met [x]B. Hierin is B de verzameling vectoren die de
basis van de desbetreffende deelruimte vormen. Hieronder een voorbeeld:
Dit kun je ook zien als een vector [x]B die uitgedrukt staat in coördinaten van de basis van
deelruimte V. Wil je deze vector nu in omschrijven naar de vector x (in de gewone xycoördinaten), dan vermenigvuldig je [x]B met de change-of-coordinates matrix PB = [b1 b2].
In formule-vorm geldt: PB [x]B = x. Ook geldt: PB-1 x = [x]B
Met deze injectieve lineaire transformatie kun je deelruimte V dus op Rn projecteren.
Een deelruimte H kan beschreven worden in één grote vector met een aantal variabelen, bijv.
Als je een basis wilt weten voor deze deelruimte, moet je deze vector ontleden in losse
vectoren per variabele. De basis voor de deelruimte is dan de verzameling lineair
onafhankelijke vectoren die hier uitkomt. De basis voor H is [b1 b2].
Een tweede type deelruimte is P.. Hierdoor los je de constanten op die bij polynome functies
horen (§ 4.4 opg. 13). Een polynoom beschrijf je als volgt:
1
2
3
. De graad van polynomen geven we aan met Pn, net zoals je de dimensie van een
vector aangeeft met Rn. P geeft dus ook een vectorruimte weer, net zoals R. De basis voor Pn
is [1 t t2 … tn].
Een derde type vectorruimte is S. Dit zijn alle getallen afkomstig uit alle oneindige rijen. Een
oneindige rij wordt ook wel een signaal gemoend. In de vectorruimte S komen dus meerdere
oneindige rijen (signalen) voor. Een basis voor S met één signaal is {yk}. Een basis voor S
met 3 lineair onafhankelijke signalen is {uk vk wk}. Om te testen of deze 3 signalen ook echt
lineair onafhankelijk zijn, moet gelden dat c1uk + c2vk + c3wk = 0 voor álle k.
Hierdoor kun je gewoon een matrix maken, de zogenaamde Casorati matrix, waarbij je net
zo vaak k invult als dat je signalen hebt, bijv.
Als deze matrix in elke rij een pivot positie heeft, weet je dat de signalen lineair onafhankelijk
zijn.
Een vierde type vectorruimte is de complexe ruimte Cn. Deze bevat alle reële en complexe
vectoren. In hoofdstuk 5 komt deze vectorruimte aan bod.
Een vijfde type is de functieruimte F(R,R). Deze ruimte bevat alle functies f(x), waarbij f en
x elementen zijn van R. In F(R,R) zitten bijvoorbeeld f(x) = x, f(x) = x2, f(x) = ex enz. Naast
F(R,R) zijn hier ook andere varianten van, zoals F(R,C), die een reëel getal x afbeeld op een
complexe f(x).
Een zesde type ruimte is de ruimte Mk,n(C). Dit is de verzameling van alle complexe k x n
matrices.
Voor het analyseren van discrete data kun je gebruik maken van differentievergelijkingen.
Een voorbeeld van een differentievergelijking is: 3yk+2 + 4yk+1 + 5yk = 3.
Om dit op te lossen moet je onderscheid maken tussen de homogene en de particuliere
oplossing.
Voor de homogene oplossing vervang je het rechterlid door nul, en probeer je yk = rk. Dit
geeft als resultaat: yk = c1*r1k + c2*r2k. Dit kun je ook zien als { r1k , r2k}, dus een basis voor S.
Vervolgens moet je een particuliere oplossing zoeken. Hier is geen systematische aanpak
voor, maar normaal gesproken staat er in het rechterlid een constante, en dan kies je als
particuliere oplossing yp = K, en los je K op door invullen. (3K + 4K + 5K = 3 => K = 0,25)
Hoofdstuk 5: Eigenvectoren en eigenwaarden In hoofdstuk 1 heb je geleerd dat je een vector x met behulp van een lineaire transformatie een
andere waarde kunt geven, namelijk Ax. Soms komt deze nieuwe waarde Ax neer op een
veelvoud van de oorspronkelijke vector x, dus Ax = λx. Als dit zo is, dan is λ een
eigenwaarde van matrix A, en de bijbehorende vector x is een eigenvector van A.
Om te controleren of een willekeurige λ een eigenwaarde is van een matrix A, moet je de niettriviale oplossingen van de vergelijking (A-Iλ)x = 0 oplossen. Niet-triviale oplossingen
bestaan als de matrix (A-Iλ) niet-inverteerbaar is, dus om de eigenwaarden van een matrix A
op te sporen, moet je de karakteristieke vergelijking det(A – Iλ) = 0 oplossen. Een matrix
met determinant nul is namelijk niet inverteerbaar, waardoor Ax niet-triviale oplossingen
krijgt (en dan bestaan er ook eigenvectoren).
Het eerste gedeelte van de karakteristieke vergelijking, namelijk det(A– Iλ), wordt het
karakteristieke polynoom genoemd.
Als de eigenwaarden eenmaal gevonden zijn, kunnen deze waarden voor λ weer ingevuld
worden in de vergelijking (A-Iλ)x = 0. Hier komen nu altijd niet-triviale oplossingen uit.
Deze niet-triviale oplossing bestaat uit een lineaire combinatie van scalairen en vectoren, die
eigenvectoren worden genoemd. Deze lineaire combinatie is tevens een basis voor de
eigenruimte, die we noteren met Eλ(R), waarbij je voor λ de eigenwaarde invult en R staat
voor de verzameling reële getallen. Eén matrix kan dus meerdere eigenruimten hebben, want
voor elke eigenwaarde is er een eigenruimte. Bij één eigenwaarde kunnen dus meerdere
eigenvectoren horen (als er 2 of meer vrije variabelen in de oplossingsverzameling zitten).
BELANGRIJK:
• De nulvector telt niet mee als eigenvector, maar de eigenwaarde λ = 0 telt wel mee!
• De eigenwaarden van een driehoeksmatrix zijn de getallen op de hoofddiagonaal.
• Als matrix A lineair afhankelijke kolommen heeft, is λ = 0 een eigenwaarde.
• Een verzameling vectoren {v1 v2 … vr } is lineair onafhankelijk als ze allemaal een
unieke eigenwaarde hebben.
Om te controleren of een bepaalde vector een eigenvector van matrix A is, dan moet je de
matrix en de vector met elkaar vermenigvuldigen, en als het resultaat een veelvoud is van de
vorige vector, dan weet je dat het om een eigenvector gaat.
Naast de reële ruimte Rn bestaat er ook een complexe ruimte Cn. Sommige matrices die uit
reële getallen bestaan hebben complexe eigenwaarden met bijbehorende complexe
eigenvectoren in een complexe eigenruimte. Deze complexe eigenschappen kunnen worden
gebruikt om bepaalde eigenschappen van geliniariseerde systemen te achterhalen, zoals
periodieke beweging (bijv. de differentiaalvergelijking van de slinger bij dynamica I).
TRUCJE (§ 5.5 opgave 1): Vaak heb je te maken met simpele 2x2 matrices. Dit is een
voordeel omdat je dan niet hoeft schoon te vegen met complexe getallen in de aangevulde
matrix. De bovenste en onderste vergelijking zullen namelijk toch hetzelfde opleveren als er
een in de 2x2 matrix een eigenwaarde bij wordt gezet. Hierdoor kun je de simpelste van de 2
vergelijkingen eruit pikken, en aan de hand daarvan de vector x bepalen.
Als je van een matrix A een veelvoud Ak moet berekenen is het handig om te kijken of je A
kunt diagonaliseren. Dit houdt in dat je stelt dat A = PDP-1. Hierin is D de diagonale matrix
met alleen op de hoofddiagonaal getallen, en voor de rest allemaal nullen. P en P-1 zijn de
matrices die ervoor zorgen dat D omgezet kan worden in A. Het voordeel van deze notatie is
dat nu geldt dat Ak = PDkP-1. Je hoeft dus alleen maar de getallen in D tot de macht k te doen.
Een niet-diagonaliseerbare matrix noemen we defect. Een n x n matrix A is namelijk alleen
diagonaliseerbaar als deze n lineair onafhankelijke eigenvectoren heeft. De bijbehorende
eigenwaarden van deze eigenvectoren staan op de hoofddiagonaal van de matrix D. Op hun
beurt staan de eigenruimten van deze eigenvectoren in de matrix P. Tenslotte wordt P-1
berekend door de inverse matrix van P te berekenen.
Bij het analyseren van discrete dynamische systemen gebruik je een toestandsvector xk. In
deze vector staan alle waarden van de te analyseren toestanden. In xk staan bijvoorbeeld het
aantal uilen op tijdstip k (x1) en het aantal ratten op tijdstip k (x2), waarbij k het aantal
maanden aangeeft. Met behulp van een formule voor xk kun je nu op elk tijdstip het aantal
uilen en ratten berekenen. algemene formule: xk = c1(λ1)kv1 + c2(λ2)kv2 + … + cn(λn)kvn. Hierin
is c een constante die je kunt bepalen als x0 gegeven is. Alle λ’s zijn eigenvectoren van een
matrix A, en de v’s zijn de eigenvectoren die bij de eigenwaarden horen. De matrix A is zo
opgesteld zodat geldt dat xk+1 = Axk.
Vaak wordt om het lange-termijn gedrag van zo’n discreet systeem gevraagd. Dit betekent dat
je moet bepalen wat er gebeurt als k naar oneindig gaat. Als dit gebeurt, dan zullen alle
eigenwaarden die kleiner zijn dan 1 geen invloed meer hebben, want (0,…)k gaat dan naar
nul. Hierdoor hou je meestal nog maar één term over, zodat je een simpele uitdrukking krijgt,
zoals xk+1 = 3xk.
Ten slotte moet hier opgemerkt worden dat dit een vorm van differentievergelijkingen zijn,
bijvoorbeeld als xk = c1(λ1)kv1, dan geldt dat xk+1 = c1(λ1)k+1v1 = λ1*c1(λ1)kv1 = λ1* xk. Dus yk
= λk is ook hier een oplossing, want yk+1 = λk+1 = λ*λk = λ*yk
Bij het analyseren van continue data kun je gebruik maken van differentiaalvergelijkingen. De
algemene oplossing hiervoor is t
c e
c e
… c e
Hierbij noemen we e
e
…
e de eigenfuncties van A.
Hierin is c een constante die je kunt bepalen als x0 gegeven is. Alle λ’s zijn eigenwaarden van
een matrix A, en de v’s zijn de eigenvectoren die bij de eigenwaarden horen. De matrix A is
zo opgesteld zodat geldt dat x’ = Ax.
Indien er complexe eigenwaarden ontstaan, krijg je ook een complexe e-macht in de
oplossing. Deze kun je splitsen in een reëel deel en een complex deel, waarbij je het complexe
deel vervangt:
LET OP: als je te maken hebt met complexe oplossingen, hoef je bij 2x2 matrices alleen
maar de eigenfunctie x1(t) op te lossen, want deze geeft als resultaat al een antwoord met 2
lineair onafhankelijke vectoren er in (namelijk een reëel en complex deel). Het oplossen van
x2(t) heeft in dit geval geen nut. Dit komt omdat x2(t) de complex geconjugeerde is, en het
oplossen van dit gedeelte levert geen nieuwe lineair onafhankelijke vectoren op.
Het spoor (trace) van een vierkante n x n matrix A is de som van de getallen op de
hoofddiagonaal, dus tr(A) = a11 + a22 + … + ann.
Hoofdstuk 6 (§ 6.1 t/m § 6.4): Orthogonaliteit
Inproduct:
Lengte van een vector:
Een vector met lengte 1 heet een eenheidsvector (let op: ei heet óók een eenheidsvector)
De afstand tussen twee vectoren is ||u-v||:
Uitproduct (= kruisproduct):
Grafische voorstelling van het uitproduct:
Hieruit volgt: De vector u x v is orthogonaal tot zowel u als v.
Het uitproduct bestaat alleen voor vectoren in R3.
Als hoek θ nu 90° is, en u en v dus orthogonaal zijn, dan: u · v = ||u|| ||v|| cos( ½π) = 0
Als hoek θ nu 0° is, en u en v dus parallel lopen, dan: u · v = ||u|| ||v|| cos (0) = ||u|| ||v||
Rekenregels voor in- en uitproduct:
• u·v=v·u
• (u + v) · w = u · w + v · w
• (cu) · v = u · (cv)
• u · u ≥ 0 (behalve als u = 0 natuurlijk)
• (c1*u1 + … + cpup) · w = c1(u1 · w) + … + cp(up· w)
• || cu || = c ||u||
• u x v = -v x u
• (cu) x v = c(u x v) = u x (cv)
• u x (v + w) = u x v + u x w
• (u + v) x w = u x w + v x w
• u · (v x w) = (u x v) · w
• u x (v x w) = (u · w)v – (u · v)w
Enkele toepassingen van in- en uitproduct:
• De oppervlakte van een parallellogram dat wordt bepaald door u en v is gelijk aan
de lengte van het uitproduct van u en v, dus opp. = ||u x v||
• Het volume van een blok dat wordt bepaald door u, v en w is gelijk aan | u · (v x w) |
(De verticale strepen zijn absoluutstrepen)
Een verzameling vectoren S = {u1 u2 u3 … up} heet orthogonaal als het inproduct van 2
willekeurige vectoren uit deze verzameling altijd nul oplevert. Deze vectoren zijn dan lineair
onafhankelijk en vormen een basis voor deelruimte S.
Een verzameling vectoren heet orthonormaal als de verzameling orthogonaal is en als alle
vectoren eenheidsvectoren zijn (dus met lengte 1). Een orthogonale verzameling kun je
omzetten in een orthonormale verzameling door alle vectoren te delen door hun eigen lengte.
De verzameling van vectoren z die orthogonaal zijn tot vlak W, waarbij W omspannen wordt
door u en v, heet het orthogonaal complement van W en wordt genoteerd met W┴. Een
vector x zit in W┴ als x orthogonaal is ten opzichte van élke vector in de verzameling
vectoren die W opspant.
De ruimtes W en W┴ zijn tevens deelruimten van Rn.
Als A een m x n matrix is, dan is het orthogonaal complement van de rijruimte van A de
nulruimte van A, en het orthogonaal complement van de kolomruimte van A is de nulruimte
van AT: (Rij A) ┴ = Nul A en (Kol A) ┴ = Nul AT
Soms is het handig een vector te ontbinden in 2 orthogonale vectoren, bijv. een kracht F die je
ontbindt in een Fx en een Fy, waarbij Fx en Fy orthogonale vectoren zijn. Vaak noemen we
de oorspronkelijke vector y, de eerste vector u (de getallen in deze vector mag je vrij kiezen)
en de tweede vector z (z staat dus orthogonaal op u). Nu is y dus te schrijven als lineaire
combinatie van u en z, dus
. De coëfficiënten c1 en c2 van deze (en elke
·
·
andere) orthogonale basis vind je als volgt:
en
.
·
·
Het eerste gedeelte van de formule van y noemen we de orthogonale projectie van y op u,
symbool , dus
.
Het tweede gedeelte kun je nu ook gemakkelijk te vinden, want dit is gelijk aan
, dus
.
Als je te maken hebt met vectoren die maar 2 getallen bevatten, kun je de bijbehorende
orthogonale vector nog sneller vinden. Je maakt dan namelijk de tweede vector door van de
eerste vector het bovenste en onderste getal om te draaien, en vervolgens moet je één van die
twee getallen met -1 vermenigvuldigen.
Hierboven staat beschreven hoe je een vector y orthogonaal kunt projecteren op een vector u.
Naast het projecteren op een vector, kun je ook op vlakken (of ruimtes met nog meer dan 2
diimensies) projecteren. Bijvoorbeeld het bovenaanzicht van een 3D pijl is een orthogonale
projectie van een vector op een vlak. Hierbij beschrijf je het vlak als een opspansel van 2
orthogonale vectoren die de basis voor dit vlak vormen, dus Span{u1 u2}. Stel dat je een
vector y beschrijft als y = c1u1 + c2u2 + c3u3 , dan ga je deze vector splitsen in y = z1 + z2, met
z1 = = c1u1 + c2u2 (elementen uit W) en z2 = c3u3 (elementen uit W┴). De bijbehorende
·
constanten kun je weer uitrekenen met de formule
. De orthogonale projectie van y
·
op W wordt ook wel de beste benadering van y in W genoemd.
Met behulp van het Gram-Schmidt proces kun je orthogonale bases vinden voor
deelruimten in Rn. Dit doe je door een paar keer achter elkaar een vector orthogonaal te
projecteren (hierboven beschreven). Je begint met vector v1 die je gelijkstelt aan de eerste
gegeven vector x1. Vervolgens ga je vector x2 orthogonaal projecteren op vector v1, waardoor
je
krijgt. De afstand tussen x2 en
noem je vector v2. Het mooie hiervan is dat v2
orthogonaal staat op v1. Nu vormen v1 en v2 een deelruimte in R2 (een vlak dus). Vervolgens
pak je vector x3 die je orthogonaal projecteert op het vlak met orthogonale basis {v1 v2}.
noem je vector v3. Nu vormen de vectoren
Hierdoor ontstaat . De afstand tussen x3 en
3
v1, v2 en v3 een deelruimte in R met orthogonale basis {v1 v2 v3}.
Op deze manier ga je net zolang door totdat je alle vectoren x1 … xn gebruikt hebt. Op deze
manier kun je dus van de deelruimte die opgespannen wordt door de vectoren x1 … xn een
orthogonale basis vinden die bestaat uit de orthogonale vectoren v1 … vn.
Vervolgens kan de orthogonale basis {v1 … vn} nog worden omgezet in een orthonormale
basis {u1 … un} door alle vectoren te delen door hun eigen lengte, dus
|
Het Gram-Schmidt proces in formulevorm:
•
·
•
•
•
•
…
·
·
·
·
·
·
·
·
·
...
·
·
|
Download