Lineaire Algebra SUPPLEMENT II F.Beukers Departement Wiskunde 2012 UU Inhoudsopgave 13 Eigenwaarden en eigenvectoren 13.1 Inleiding . . . . . . . . . . . . . . . . . . . . . . 13.2 Berekening van eigenwaarden en eigenvectoren 13.3 Basiseigenschappen . . . . . . . . . . . . . . . . 13.4 Polynomen en hun nulpunten (Optioneel) . . . 13.5 Multipliciteiten en Jordan normaalvorm . . . . 13.6 Cayley-Hamilton (Optioneel) . . . . . . . . . . 13.7 Een toepassing, Google’s Pagerank (optioneel) 13.8 Opgaven . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 5 7 10 13 14 15 18 14 Vectorruimten met inproduct 14.1 Inwendige producten . . . . . . . . . . . . 14.2 Orthogonale en orthonormale stelsels . . . 14.3 Orthogonale projecties . . . . . . . . . . . 14.4 Symmetrische afbeeldingen . . . . . . . . 14.5 Orthogonale matrices . . . . . . . . . . . . 14.6 Orthogonale afbeeldingen . . . . . . . . . 14.7 Standaardvorm orthogonale afbeeldingen . 14.8 Opgaven . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 25 28 33 36 38 40 42 43 1 . . . . . . . . . . . . . . . . . . . . . . . . Hoofdstuk 13 Eigenwaarden en eigenvectoren 13.1 Inleiding In Voorbeeld ?? 12.4.2 hebben we gekeken naar de loodrechte projectie P van R3 op het vlak gegeven door x + y + 2z = 0. De matrix ten opzichte van de standaard basis van R3 werd gegeven door 5/6 −1/6 −1/3 −1/6 5/6 −1/3 . −1/3 −1/3 1/3 Hoewel de projectie P meetkundig gezien heel eenvoudig is, kunnen we dit niet meteen aan de matrix aflezen. Dat we te maken hebben met een projectie blijkt pas als we opmerken dat de vector (1, 1, 2)t naar de nulvector wordt afgebeeld en de vectoren (1, −1, 0) en (2, 0, −1), die in het vlak liggen, naar zichzelf. Deze vectoren spelen dus een speciale rol ten aanzien van de projectie, en door hun gedrag onder P de projectie zelf gekenmerkt. Ten opzichte van de geordende basis F gegeven door f 1 = (1, 1, 2)t , f2 = (1, −1, 0)t , f = (2, 0, −1)t zou onze projectie P de matrix 0 0 0 PFF = 0 1 0 0 0 1 hebben. Een stuk eenvoudiger dus. Voor de studie van de werking van een willekeurige lineaire afbeelding is het van belang dergelijke bijzondere vectoren op te sporen. Dit is het onderwerp van dit hoofdstuk. Zij V een vectorruimte over R en A : V → V een lineaire afbeelding. Een vector v ∈ V heet eigenvector van A als 1. v ̸= 0 2. er is een scalair λ ∈ R is, zó dat A(v) = λv. 3 4 HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN We noemen λ de eigenwaarde van A behorend bij v. In ons voorbeeld zou (1, 1, 2) een eigenvector van P zijn met eigenwaarde 0 en (1, −1, 0) en (2, 0, −1) eigenvectoren met eigenwaarde 1. Voorbeeld 13.1.1. Hier is nog een voorbeeld, de afbeelding A : R2 → R2 gegeven door matrixvermenigvuldiging met ( Q= 3 4 −1 −2 ) ( ) . Merk op dat ( Q −4 1 ) ( =2 −4 1 en Q 1 −1 ) ( = −1 1 −1 ) . De afbeelding A heeft dus een eigenvector met eigenwaarde 2 en(een ) eigen−4 vector met eigenwaarde −1. Merk op dat ook ieder veelvoud van een 1 ( ) 1 eigenvector met eigenwaarde 2 is, en ieder veelvoud van eigenvector −1 met eigenwaarde −1. We zullen zien dat er geen andere eigenvectoren van A bestaan. ♢ Voorbeeld 13.1.2. Voor V nemen we de vectorruimte C ∞ (R), de oneindig vaak differentieerbare functies op R en als lineaire afbeelding D kiezen we differentiatie: D : f 7→ f ′ . Het is duidelijk dat de exponentiele functie eax voor d (eax ) = aeax . willeurige a een eigenfunctie is met eigenwaarde a. Immers, dx Tevens zijn deze vectoren, en hun veelvouden, de enige eigenvectoren. ♢ Voorbeeld 13.1.3.Neem V = R[X] en als lineaire afbeelding P (X) 7→ XP ′ (X). Eigenvectoren zijn de monomen X n en hun veelvouden (met eigenwaarde n). ♢ Stelling 13.1.4 Zij V een vectorruimte over R en A : V → V een lineaire afbeelding. Zij λ ∈ R een gegeven scalair. Dan vormt de verzameling Eλ := {x ∈ Rn | M x = λx} een lineaire deelruimte van Rn . Het bewijs van deze stelling bestaat uit een eenvoudige controle. Voer deze controle uit! De ruimte Eλ , indien deze niet alleen uit de nulvector bestaat, noemen we de eigenruimte van A behorend bij de eigenwaarde λ. In ons voorbeeld van de projectiematrix P zien we dat de vectoren loodrecht op het projectievlak de eigenruimte met eigenwaarde 0 vormen, en het projectievlak zelf is de eigenruimte behorend bij eigenwaarde 1. 13.2. BEREKENING VAN EIGENWAARDEN EN EIGENVECTOREN 13.2 5 Berekening van eigenwaarden en eigenvectoren In het algemeen is de berekening van eigenwaarden en eigenvectoren van een lineaire afbeelding een lastige klus als we te maken hebben met oneindig dimensionale vectorruimten. Veel trillingsverschijnselen (trommels, snaren, atomen) in de natuurkunde zijn terug te brengen tot eigenvector/waarde problemen van differentiaaloperatoren op functieruimten. Vaak komt hier ook nogal wat analyse bij kijken. Hier stellen we ons wat bescheidener op en berekenen alleen eigenwaarden/vectoren in eindig dimensionale gevallen. We beginnen met het speciale geval van matrixvermenigvuldiging in Rn met een n×n-matrix M . De eigenvectoren/waarden van de lineaire afbeelding gegeven door M zullen we ook wel gewoonweg de eigenvectoren/waarden van M noemen. Hier volgt het principe van de berekening van eigenvectoren en eigenwaarden van M . Stel dat λ een eigenwaarde is. De vergelijking M x = λx in x ∈ Rn kunnen we zien als een stelsel lineaire vergelijkingen in de n componenten van x. We herschrijven de rechterkant als λIn x en brengen deze naar links. We vinden, (M − λIn )x = 0. Opdat dit stelsel van n vergelijkingen in n onbekenden een niet-triviale oplossing heeft, is het nodig en voldoende dat de coëfficientendeterminant nul is. Met andere woorden, det(M − λIn ) = 0 (13.1) Deze vergelijking staat bekend als de eigenwaardevergelijking van M . Het polynoom det(M − λIn ) in λ noemen we ook wel het karakteristieke polynoom van M . Stel m11 m12 . . . m1n m21 m22 . . . m2n M = .. .. ... . . mn1 mn2 ... mnn dan luidt de eigenwaardevergelijking uitgeschreven, m12 ... m1n m11 − λ m21 m22 − λ . . . m2n = 0. .. .. .. . . . mn1 mn2 . . . mnn − λ Oplossing van deze polynoom geeft ons een eindig aantal oplossingen. Gegeven een oplossing λ0 van deze vergelijking, dan is het bepalen van de bijbehorende eigenruimte slechts een kwestie van oplossing van het lineaire stelsel vergelijkingen (M − λ0 In )x = 0 (13.2) Voorbeeld 13.2.1. Hier berekenen we eigenwaarden en eigenvectoren van de matrix Q uit de vorige paragraaf. De eigenwaardevergelijking luidt 3 − λ 4 =0 −1 −2 − λ 6 HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN Uitgeschreven, λ2 − λ − 2 = 0. De oplossingen zijn λ = −1, 2. De eigenvectoren bij elk van deze λ’s vinden we door oplossing van het lineaire stelsel ( Dus bij λ = −1, 3−λ −1 4 −2 − λ )( ) ( ) x 0 = . y 0 ( )( ) ( ) 4 4 x 0 = −1 −1 y 0 ( ) 1 met als oplossingen t , t willekeurig. Bij λ = 2 vinden we het stelsel −1 ( ( met als oplossingen t 1 4 −1 −4 )( ) ( ) x 0 = y 0 ) 4 , t willekeurig. −1 ♢ Voorbeeld 13.2.2.Elk eigenwaarde probleem A : V → V met dim(V ) < ∞ kan worden teruggebracht tot de bepaling van eigenwaarden en -vectoren van een n × n-matrix, waarin n = dim(V ). Neem bijvoorbeeld V = R[X]≤2 de polynomen van graad ≤ 2 en de lineaire afbeelding A : P (X) mapsto (X + 1)P ′ (X). We bepalen de matrix van A ten opzichte van de basis 1, X, X 2 . A(1) = 0, De matrix van A wordt A(X) = X + 1, 0 0 0 Eigenwaardevergelijking, −λ 1 0= 0 1−λ 0 0 1 1 0 A(X 2 ) = 2X 2 + 2X. 0 2. 2 0 2 = −λ(λ − 1)(λ − 2). 2 − λ De eigenwaarden zijn dus 0, 1, 2. Eigenvectoren bij λ = 0 zijn µ(1, 0, 0)t , eigenvectoren bij λ = 1 zijn µ(1, 1, 0)t en eigenvectoren bij λ = 2 zijn µ(1, 2, 1)t . De eigenvectoren in hun polynoomnotatie worden dus λ = 0 : µ, λ = 1 : µ(X + 1), λ = 2 : µ(X 2 + 2X + 1) = µ(X + 1)2 . ♢ 13.3. BASISEIGENSCHAPPEN 13.3 7 Basiseigenschappen Stelling 13.3.1 Zij A : V → V een lineaire afbeelding van een vectorruimte V naar zichzelf. Zij v1 , v2 , . . . , vr een r-tal eigenvectoren van A met verschillende eigenwaarden λ1 , λ2 , . . . , λr . Dan zijn v1 , v2 , . . . , vr onafhankelijk. Bewijs: We voeren inductie naar r uit. Als r = 1 dan is er één eigenvector v1 is. Omdat deze niet de nulvector is, is v1 een onafhankelijk stelsel. Stel nu r > 1 en dat elk r − 1-tal eigenvectoren met verschillende eigenwaarden onfahankelijk is. We gaan nu µ1 , . . . , µr oplossen uit de relatie µ1 v1 + µ2 v2 + · · · + µr vr = 0. Laat de afbeelding A op beide zijden los. We vinden de nieuwe relatie µ1 λ1 v1 + µ2 λ2 v2 + · · · + µr λr vr = 0. Trek hiervan λr maal de oorspronkelijke relatie af. We vinden, µ1 (λ1 − λr )v1 + µ2 (λ2 − λr )v2 + · · · + µr−1 (λr−1 − λr )vr−1 = 0. Omdat v1 , . . . , vr−1 onafhankelijk zijn, geldt µi (λi −λr ) = 0 voor i = 1, 2, . . . , s− 1. We hadden aangenomen dat λi ̸= λr voor i < r. Gevolg, µi = 0 voor i = 1, 2, . . . , r − 1. De relatie tussen v1 , . . . , vr impliceert nu dat µr vr = 0. Omdat vr ̸= 0 volgt hieruit dat µr = 0. Met andere woorden, alleen de triviale relatie bestaat tussen v1 , v2 , . . . , vr . Conclusie: v1 , v2 , . . . , vr zijn onafhankelijk. 2 Voorbeeld 13.3.2.Van Stelling 13.3.1 kunnen we slim gebruik maken om onafhankelijkheid van vectoren aan te tonen in bijvoorbeeld functieruimten. Neem V = C ∞ (R), de oneindig vaak differentieerbare functies op R. Kies de functies f1 = ex , f2 = e2x , . . . , enx . We hadden in Voorbeeld ?? 12.2.6 de lineaire onfhankelijkheid van deze functies laten zien. Nu is dat heel simpel te zien. De functies fi (i = 1, . . . , n) zijn immers eigenfuncties van de lineaire afbeelding f 7→ f ′ met de verschillende eigenwaarden 1, 2, . . . , n. ♢ Laten we teruggaan naar een eindigdimensionale vectorruimte V van dimensie n en een lineaire afbeelding A : V → V . We zeggen dat A een basis van eigenvectoren heeft als er een basis v1 , . . . , vn is, zodat v1 , . . . , vn tevens eigenvectoren van A zijn. Stel dat A een basis F van eigenvectoren v1 , . . . , vn heeft met eigenvectoren λ1 , . . . , λ. Dan wordt de matrix van A ten opzichte van de basis B gegeven door λ1 0 AFF = ... 0 λ2 ... ... 0 0 . .. . 0 0 ... λn 8 HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN We zeggen dat we A gediagonaliseerd hebben. Voorbeeld 13.3.3.We gaan weer terug naar de lineaire afbeelding A : Rn → Rn gegeven door matrixvermenigvuldiging met een n × n-matrix M . Merk op dat M gewoon de matrix van A is ten opzichte van de standaard basis E van Rn . Dus M = AE E . Stel dat A een basis van eigenvectoren v1 , . . . , vn heeft met eigenwaarden λ1 , . . . , λn . Noem deze basis F . Dan geldt λ1 0 . . . 0 0 λ2 . . . 0 AFF = . .. ... . 0 0 ... λn Deze matrix staat dus in diagonaalvorm. We weten ook dat AFF = S −1 M S is waarin S = IEF de coordinatentransformatie matrix tussen E, F . Als de matrix M een basis van eigenvectoren toelaat, dan is M geconjugeerd met een diagonaalmatrix. En omgekeerd. ♢ Voorbeeld 13.3.4.We behandelen een speciaal geval met de 2 × 2-matrix ( ) 3 4 Q= . −1 −2 We hadden al eerder gezien dat ( ) ( ) −4 −4 Q =2 1 1 ( en Q 1 −1 ) ( = −1 1 −1 ) , dus we hebben een basis van eigenvectoren. We schrijven bovenstaande iets anders, ( ) ( ) ( )( ) −4 1 −8 −1 −4 1 2 0 Q = = . 1 −1 2 1 1 −1 0 −1 En hieruit zien we dat S −1 QS = ( 2 0 0 −1 ) ( , met S = −4 1 1 −1 ) . Dus Q is geconjugeerd met een diagonaalmatrix. De conjugatie gebeurt met de coordinatentransformatie matrix S. ♢ Een belangrijk gevolg van Stelling 13.3.1 is het volgende. Gevolg 13.3.5 Als een n × n-matrix n verschillende eigenwaarden heeft, dan heeft M een basis van eigenvectoren. Bewijs: Noem de eigenwaarden λ1 , . . . , λn en kies bij elk eigenwaaarde een eigenvector v1 , . . . , vn . Omdat de eigenwaarden verschillend zijn, volgt uit Stelling 13.3.1 dat v1 , . . . , vn onafhankelijk zijn. Ze vormen dus een basis van Rn . 2 Hier volgen nog een paar eigenschappen van conjugatie. 13.3. BASISEIGENSCHAPPEN 9 Lemma 13.3.6 Zij S een inverteerbare n × n-matrix en M een n × n- matrix. Dan hebben M en S −1 M S hetzelfde karakteristieke polynoom Bewijs: Dit volgt direct uit de volgende afleiding det(S −1 M S − λIn ) = det(S −1 M S − λS −1 In S) = det(S −1 (M − λIn )S) = det(S)−1 det(M − λIn )det(S) = det(M − λIn ) 2 Een andere belangrijke observatie is de volgende. Het karakteristieke polynoom van een n × n-matrix M heeft de gedaante det(M − λIn ) = (−λ)n + a1 (−λ)n−1 + · · · + an−1 (−λ) + an (13.3) De coëfficienten ai zijn natuurlijk functies van de matrixelementen van M . Voor de meeste coëfficienten zien deze functies er nogal ingewikkeld uit. Het blijkt echter dat de coëfficienten a1 en an een eenvoudige interpretatie hebben. Daartoe definiëren we het spoor van een n × n-matrix A als de som van de diagonaalelementen van A. Notatie: Sp(A). Stelling 13.3.7 Met de zojuist ingevoerde notaties geldt: an = det(M ), a1 = Sp(M ). Bewijs: De eerste bewering volgt door in (13.3) links en rechts λ = 0 in te vullen. We vinden dan det(M ) = an . Dit was onze eerste bewering. Om de tweede bewering in te zien bepalen we de coëfficient van (−λ)n−1 in det(M −λIn ) We bepalen deze door uitschrijven van de somformule voor m12 ... m1n m11 − λ m21 m22 − λ . . . m2n . det(M − λIn ) = .. .. . . mn1 mn2 . . . mnn − λ Bij uitschrijven van deze determinant blijkt dat het enige product dat bijdraagt tot de coëfficient van (−λ)n−1 het product van de diagonaalelementen (m11 − λ)(m22 − λ) · · · (mnn − λ) is. De bijdrage is precies gelijk aan m11 + m22 + · · · + mnn . We concluderen nu dat a1 = m11 + m22 + · · · + mnn . 2 Een direct gevolg van bovenstaande Stelling is dat we bij een diagonaliseerbare matrix direct het product en de som van de eigenwaarden in de matrix M terug kunnen zien. 10 HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN Stelling 13.3.8 Zij M een diagonaliseerbare n × n-matrix met eigenwaarden λ1 , λ2 , . . . , λn . Dan geldt λ1 λ2 · · · λn = det(M ) λ1 + λ2 + · · · + λn = Sp(M ). Bewijs: We gebruiken hiervoor Stelling 13.3.7 en het feit dat (λ1 − λ) · · · (λn − λ) = λ1 · · · λn − · · · + (λ1 + · · · + λn )(−λ)n−1 + (−λ)n . De constante coefficient is nu det(M ) = an = λ1 · · · λn en de coefficient van (−λ)n−1 is Sp(M ) = a1 = λ1 + · · · + λn . 2 Helaas is niet iedere n × n matrix diagonaliseerbaar. Er zijn twee belangrijke obstructies die we aan de hand van)een voorbeeld aangeven. Neem als eerste ( 0 −1 voorbeeld de 2 × 2-matrix , die een rotatie om 90o voorstelt. Het is 1 0 duidelijk dat er bij een rotatie in het vlak geen eigenvectoren kunnen zijn. Dit wordt ook duidelijk als we de eigenwaardevergelijking opstellen. −λ −1 2 1 −λ = λ + 1 = 0. Deze vergelijking heeft geen reële oplossingen, en dus vinden we ook geen reële eigenvectoren. De eerste obstructie is dus dat de eigenwaardevergelijking niet voldoende oplossingen in R heeft. De tweede obstructie treedt op als we eigenwaarden met hogere multipliciteit ( ) 1 1 hebben. Neem bijvoorbeeld de matrix . De eigenwaarde vergelijking 0 1 luidt 1 − λ 1 = (1 − λ)2 = 0. 0 1 − λ Er is één eigenwaarde, namelijk λ = 1. Berekenen we de bijbehorende eigenruimte, dan vinden we de veelvouden van (1, 0). De eigenruimte is dus 1dimensionaal en aangezien er geen andere eigenwaarden dan 1 zijn, zijn dit de enige eigenvectoren. In dit geval is er dus ook geen basis van eigenvectoren. Beide obstructies zullen we in de komende paragrafen nader bekijken. Eerst vertellen we iets over nulpunten van polynomen. 13.4 Polynomen en hun nulpunten (Optioneel) Zij gegeven een polynoom of veelterm. Dat is een functie van de vorm P (x) = pn xn + pn−1 xn−1 + · · · + p1 x + p0 met pi ∈ R of in C. Als pn ̸= 0 dan noemen we pn de kopcoëfficient en n de graad van het polynoom P . Notatie: deg(P ). De graad van een constant polynoom̸= 0, zoals 1 of 2 is nul. Merk op dat de graad van het triviale polynoom 0 niet gedefinieerd is. Een eenvoudige doch nuttige eigenschap is de volgende, 13.4. POLYNOMEN EN HUN NULPUNTEN (OPTIONEEL) 11 Stelling 13.4.1 Zij P, Q een tweetal niet-triviale polynomen. Dan geldt deg(P Q) = deg(P ) + deg(Q). Met andere woorden, de graden van twee polynomen tellen op als we ze vermenigvuldigen. We noemen een element a een nulpunt van P als P (a) = 0. We hadden reeds gezien in Stelling ?? dat P (x) niet meer dan n verschillende nulpunten kan hebben. Verder geldt, Stelling 13.4.2 Zij a een nulpunt van het polynoom P (x). Dan is er een polynoom Q(x) zó dat P (x) = (x − a)Q(x). Bewijs: Allereerst merken we op dat elk polynoom van de vorm xm − am als volgt ontbindt, xm − am = (x − a)(xm−1 + axm−2 + · · · + am−2 x + am−1 ). We schrijven nu P (x) even uit P (x) = pn xn + pn−1 xn−1 + · · · + p1 x + p0 en trekken daar 0 = P (a) = pn an + pn−1 an−1 + · · · + p1 a + p0 vanaf. We krijgen P (x) = pn (xn − an ) + pn−1 (xn−1 − an−1 ) + · · · + p1 (x − a). Elk van de termen xm − am rechts is deelbaar door x − a en dus ook hun som. Daarmee is P (x) deelbaar door x − a. Met andere woorden er bestaat een polynoom Q(x) zó dat P (x) = (x − a)Q(x). 2 Het kan wel eens gebeuren dat als een polynoom P het nulpunt a heeft, het polynoom P meerdere factoren x − a bevat. Bijvoorbeeld P (x) = x4 − x3 + x2 − 3x + 2 heeft x = 1 als nulpunt. We kunnen nu schrijven P (x) = (x − 1)Q(x) waarin Q(x) = x3 + x − 2. Maar het polynoom Q(x) heeft ook een nulpunt in x = 1. Dus Q(x) = (x−1)(x2 +x+2). We vinden dus P (x) = (x−1)2 (x2 +x+2) en de laatste factor heeft geen nulpunten x = 1 meer. We zeggen dat x = 1 een nulpunt van multipliciteit 2 is. In het algemeen, stel dat P (x) een nulpunt a heeft en zij k het grootste getal zó dat P (x) = (x − a)k Q(x) voor een zeker polynoom Q(x). Dan noemen we k de multipliciteit van het nulpunt x = a. Het is lang niet altijd zo dat een polynoom een nulpunt heeft, denk maar aan P (x) = x2 + 1, dat geen nulpunten in R heeft. Als we echter over de complexe getallen werken, dan zijn er wel altijd nulpunten. Stelling 13.4.3 (Hoofdstelling van de algebra) Zij P (x) een niet-triviaal polynoom met reële of complexe coëfficienten. Dan is er een complex getal a zó dat P (a) = 0. We zullen deze stelling hier niet bewijzen, maar vermelden wel het belangrijkste gevolg. 12 HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN Gevolg 13.4.4 Zij P (x) = xn + pn−1 xn−1 + · · · + p1 x + p0 een polynoom van graad n met reële of complexe coëfficienten. Dan zijn er n complexe getallen a1 , a2 , . . . , an zó dat P (x) = (x − a1 )(x − a2 ) · · · (x − an ). Bewijs: We zien dit het makkelijkst door inductie naar n. Voor n = 1 is P (x) = x + p0 meteen al van de vereiste vorm. Stel nu n > 1 en dat ons Gevolg waar is voor polynomen van graad n − 1. Uit de hoofdstelling van de algebra weten we dat ons n-de graads polynoom P (x) een nulpunt an ∈ C heeft. Maar dan bestaat er een polynoom Q(x) van graad n − 1 zó dat P (x) = (x − an )Q(x). Wegens onze inductiehypothese ontbindt Q(x) in n − 1 factoren Q(x) = (x − a1 )(x − a2 ) . . . (x − an−1 ). We vinden dus P (x) = (x − a1 )(x − a2 ) . . . (x − an ), waarmee onze bewering bewezen is. 2 Een ander gevolg van de hoofdstelling van de algebra is dat we ook iets kunnen zeggen over reële polynomen. Stelling 13.4.5 Zij P (x) = xn + pn−1 xn−1 + · · · + p1 x + p0 een polynoom van graad n met coëfficienten in R. Dan bestaan er reële getallen a1 , a2 , . . . , am en paren reële getallen bi , ci (i = 1, . . . , s) met m + 2s = n en b2i − 4ci < 0 zó dat P (x) = (x − a1 )(x − a2 ) · · · (x − am )(x2 + b1 x + c1 ) · · · (x2 + bs x + cs ). Het kan voorkomen dat m = 0 of s = 0, hetgeen betekent dat er geen lineaire factoren of kwadratische factoren hoeven zijn. Ruw samengevat zegt onze stelling dat elk polynoom met reële coëfficienten geschreven kan worden als product van lineaire en kwadratische polynomen met reële coëfficienten, waarbij de kwadratische polynomen negatieve discriminant hebben. Bewijs: Deze bewering is een gevolg van Gevolg 13.4.4. Er bestaan namelijk complexe getallen a1 , . . . , an zó dat P (x) = (x − a1 )(x − a2 ) . . . (x − an ). Een aantal van de ai , zeg de eerste m kunnen reëel zijn. De overige, niet-reële, nulpunten komen in complex geconjugeerde paren voor. Als namelijk a een complex nulpunt van P is, dan geldt, omdat P reële coëfficienten heeft, dat P (a) = P (a) = 0. Dus a is ook een (complex) nulpunt van P . Het polynoom (x − a)(x − a) is een kwadratisch polynoom met reële coëfficienten en negatieve discriminant. Door de paren complex geconjugeerde nulpunten van P (x) bij elkaar te nemen, vinden we de gewenste kwadratische factoren. 2 Gevolg 13.4.6 Een polynoom met coëfficienten in R en oneven graad heeft minstens één reëel nulpunt. Bewijs: Als de graad oneven is, kan de ontbinding van het polynoom in kwadratische en lineaire factoren niet uitsluitend uit kwadratische factoren bestaan. Er moet een lineaire factor zijn, en dus een reëel nulpunt. 2 13.5. MULTIPLICITEITEN EN JORDAN NORMAALVORM 13.5 13 Multipliciteiten en Jordan normaalvorm Zoals gezegd wordt afwezigheid van een basis van eigenvectoren van een matrix M deels veroorzaakt door meervoudige nulpunten van het karakteristieke polynoom van M . Zij λ0 een eigenwaarde van M . De dimensie van de eigenruimte Eλ0 noemen we de meetkundige multipliciteit van λ0 . De multipliciteit van λ0 als nulpunt van det(M − λIn ) noemen we de algebraı̈sche multipliciteit . Dan geldt Stelling 13.5.1 De algebraı̈sche multipliciteit van een eigenwaarde λ0 is groter of gelijk aan de meetkundige multipliciteit. Bewijs: Om deze stelling in te zien, stellen we de meetkundige multipliciteit van λ0 gelijk aan m. Kies een basis v1 , . . . , vm van de eigenruimte van λ0 en breidt deze uit tot een basis v1 , . . . , vn van Rn . Zij S de matrix met als i-de kolom de kolomvector vi . We schrijven ook wel S = (v1 , . . . , vn ). Laat nu de matrix M − λIn van links los op S. Omdat v1 , . . . , vm eigenvectoren van M zijn, geldt (M − λIn )S = ((λ0 − λ)v1 , . . . , (λ0 − λ)vm , M vm+1 − λvm+1 , . . . , M vn − λvn ). Merk op dat de eerste m kolommen van de laatste matrix allen een factor (λ0 − λ) bevatten. Dus det(M − λIn )det(S) = (λ0 − λ)m Q(λ) waarin Q(λ) de determinant is die we overhouden na wegdeling van de factoren λ0 − λ. Merk op dat Q(λ) een polynoom in λ is en det(S) een constante ̸= 0. We zien nu dat de algebraı̈sche multipliciteit van λ0 minstens gelijk is aan m, waarmee de stelling bewezen is. 2 Een extreem geval waarin meetkundige en algebraı̈sche multipliciteit uiteenlopen zijn matrices van de vorm a 1 0 ... 0 0 a 1 ... 0 0 0 a ... 0 . . .. .. . 0 0 0 ... 1 0 0 0 ... a Met andere woorden, matrices met hetzelfde element a op de diagonaal, allemaal enen op de nevendiagonaal erboven en nullen op alle andere plaatsen. Een dergelijke matrix word ook wel Jordan blok genoemd met eigenwaarde a. Zij J een n × n Jordan blok met eigenwaarde a. De eigenwaarde vergelijking luidt (a−λ)n = 0 (ga na!). We zien dus dat de algebraı̈sche multipliciteit van a gelijk is aan n. Daarentegen zien we ook dat de rang van J − aIn gelijk is aan n − 1, en dus heeft de eigenruimte bij a dimensie 1. De meetkundige multipliciteit 14 HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN van a is daarmee 1. We zien dus dat Jordanblokken niet diagonaliseerbaar zijn, tenzij we n = 1 hebben, het 1 × 1-blok. In het geval n = 1 is het Jordan triviaal diagonaliseerbaar, het staat immers al in die vorm. Met behulp van Jordanblokken kunnen we ook matrices vormen waarbij voor meerdere eigenwaarden de meetkundige en algebraı̈sche multipliciteit uit elkaar loopt. We doen dit door Jordanblokken als volgt op elkaar te stapelen. De blokken ( ) 3 1 0 2 1 0 3 1 en 0 2 0 0 3 stapelen we op tot 3 0 0 0 0 1 3 0 0 0 0 1 3 0 0 0 0 0 2 0 0 0 0 . 1 2 In het algemeen: J1 O . .. O J2 O O ... .. . ... O O .. . Jm waarin J1 , J2 , . . . , Jm Jordanblokken van eventueel verschillende afmetingen zijn. De symbolen O staan voor nulmatrices van diverse afmetingen. Een diagonaalmatrix kunnen we ons opgebouwd denken uit 1 × 1 Jordanblokken. Matrices, opgebouwd uit Jordanblokken, noemen we Jordan matrices. Stelling 13.5.2 (Jordan normaalvorm) Zij M een n × n-matrix met elementen in R resp C, waarvan de eigenwaardevergelijking al zijn oplossingen in R resp. C heeft. Dan is er een inverteerbare matrix S en een Jordan matrix J zó dat S −1 M S = J. Bovendien, als de eigenwaarde λ0 van M algebraı̈sche multipliciteit m heeft, dan komt de λ0 precies m maal op de diagonaal van J voor. 13.6 Cayley-Hamilton (Optioneel) Stel dat we een diagonaliseerbare n × n-matrix M hebben. Zij S inverteerbaar zó dat S −1 M S een diagonaalmatrix D is. De diagonaal elementen van D zijn precies de eigenwaarden λ1 , . . . , λn van M . Stel dat het karakteristieke polynoom van M , na vermenigvuldiging met (−1)n , gelijk is aan λn + a1 λn−1 + · · · + an−1 λ + an . De eigenwaarden λi zijn precies de nulpunten van dit polynoom. Dus moet ook gelden, Dn + a1 Dn−1 + · · · + an−1 D + an = O, (13.4) 13.7. EEN TOEPASSING, GOOGLE’S PAGERANK (OPTIONEEL) 15 waarin O de n × n nulmatrix is. Merk nu op dat SDS −1 = M , SD2 S −1 = M 2 , . . . SDn S −1 = M n . Conjugatie van (13.4) levert SDn S −1 + a1 SDn−1 S −1 + · · · + an−1 SDS −1 + an = O en dus, M n + a1 M n−1 + · · · + an−1 M + an = O. Deze laatste identiteit is een speciaal geval van de volgende stelling. Stelling 13.6.1 (Cayley-Hamilton) Zij M een n × n matrix en zij λn + a1 λn−1 + · · · + an−1 λ + an het karakteristieke polynoom van M . Dan geldt, M n + a1 M n−1 + · · · + an−1 M + an = O. Het argument dat we boven gaven levert een bewijs van de Stelling van CayleyHamilton voor het geval dat M diagonaliseerbaar is. De stelling geldt echter voor iedere willekeurige n × n matrix M . Het bewijs voor dit algemene geval volgt later. 13.7 Een toepassing, Google’s Pagerank (optioneel) Eigenwaarden en eigenvectoren komen in de praktijk in talloze toepassingen voor. Met name in de natuurkunde, waarin trillingsverschijnselen en quantummechanica allen voorbeelden geven van eigenvectoren in (oneindigdimensionale) vectorruimten en operatoren die erop werken. Ook in de techniek, wiskunde, scheikunde etc. spelen ze een belangrijke rol. In deze paragraaf bespreken we de wiskunde achter een heel eigentijdse toepassing, namelijk de bepaling van de zogenaamde page rank die op gezette tijden door Google wordt opgesteld om een ranglijst naar relevantie van webpaginas over de hele wereld te geven. Hierover zijn veel artikelen op internet te vinden, wij noemen http://www.ams.org/samplings/feature-column/fcarc-pagerank die je als achtergrondmateriaal zou kunnen lezen. Wij behandelen hier eerst het wiskundige idee en geven daarna kort weer hoe het bij Google toegepast wordt. De precieze details van de berekening zijn bedrijfsgeheim. Zij A een m × m matrix en kies een startvector x0 . Laat A hier herhaald op los, x1 = Ax0 , x2 = Ax1 , . . . xk+1 = Axk , . . . De vector xk wordt natuurlijk gegeven door xk = Ak x0 voor elke k ∈ Z≥0 . Grote vraag is wat er gebeurt met Ak x0 als k → ∞. Voor de beantwoording van deze vraag zijn eigenvectoren en eigenwaarden van A bijzonder handig. Neem om te beginnen aan dat A een basis van eigenvektoren v1 , . . . , vm heeft met eigenwaarden λ1 , . . . , λm (eventueel over de complexe getallen). Schrijf nu x0 als lineaire combinatie van de eigenvectoren, x0 = α1 v1 + · · · + αm vm en merk op, dat xk = Ak x0 = α1 λk1 v1 + · · · + αm λkm vm . (13.5) 16 HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN In het bijzonder, als |λi | < 1 voor alle i, dan geldt limk→∞ xk = 0, ongeacht de startvektor x0 . Trouwens, ook als er geen basis van eigenvektoren bestaat dan blijft deze uitspraak waar. Stelling 13.7.1 Stel dat de m × m matrix A eigenwaarden heeft die allen kleiner dan 1 zijn in absolute waarde (zowel de reële als complexe). Dan geldt dat limn→∞ Ak = 0 d.w.z., voor elke i, j gaat het element met index (i, j) in Ak naar 0 als k → ∞. Laten we nu een matrix nemen met eigenwaarde 1 en |λ| < 1 voor alle andere eigenwaarden λ ∈ C. Bijvoorbeeld, 0 1 1 1 A = −1 −2 5 . 2 −1 −1 4 Deze matrix heeft eigenwaarden 1, 1/2, −1/2 en de eigenwaarde 1 heeft als bijbehorende eigenvector (1, 1, 1)t . Voor de 5e en 10e macht van A vinden we, tot op vier decimalen, −0.9375 −0.9062 2.8437 −0.99804 −0.99902 2.9970 A5 = −0.9687 −1.0000 2.9687 A10 = −0.99902 −0.99804 2.9970 −0.9687 −0.9687 2.9375 −0.99902 −0.99902 2.9980 Het lijkt er dus op dat de kolommen van Ak naar een veelvoud van de eigenvector (1, 1, 1)t convergeren als k → ∞. A fortiori convergeert Ak x0 voor elke startvector x0 naar een veelvoud van (1, 1, 1)t . De eigenwaarde is de grootste van de drie eigenwaarden en we noemen het de dominante eigenwaarde. Deze speelt een belangrijke rol bij de bepaling van Ak als k → ∞. In het algemeen noemen we de eigenwaarde λ van de m × m matrix A een dominante eigenwaarde als λ algebraische multipliciteit 1 heeft en als voor iedere andere eigenwaarde µ, ook de complexe, geldt dat |µ| < |λ|. Stelling 13.7.2 Stel dat de m × m matrix A een dominante eigenwaarde λ heeft. Zij v een eigenvektor bij λ. Dan is er bij elke x0 ∈ Rm een scalair c(x0 ) zó dat ( )k 1 lim Ak x0 = c(x0 )v. k→∞ λ Merk op dat (1/λ)k Ak = (A/λ)k en dat A/λ een matrix met dominante eigenwaarde 1 is. Dit is precies de situatie uit ons voorbeeld. Indien A in Stelling 13.7.2 een basis van eigenvektoren heeft, dan is het bewijs niet lastig. Beschouw (13.5) en stel v1 = v en λ1 = λ. We vinden, (1/λ)k Ak x0 = α1 v + α2 (λ2 /λ)k v2 + · · · + αm (λm /λ)k vm . Omdat |λ1 | > |λi | voor alle i > 1 volgt hieruit dat limk→∞ (1/λ)k Ak x0 = α1 v. De coëfficient α1 is de scalair c(x0 ) uit de Stelling. Het bewijs voor het geval er geen basis van eigenvectoren bestaat is lastiger en laten we hier achterwege. 13.7. EEN TOEPASSING, GOOGLE’S PAGERANK (OPTIONEEL) 17 In de praktijk hebben de matrices A waarmee we werken elementen die groter of gelijk aan nul zijn. Aan dergelijke matrices kunnen we een zogenaamde gerichte graaf toekennen. Voor elke index i = 1, . . . , m tekenen we een punt in het vlak en trekken een verbindingslijn van punt i naar punt j als het matrix element aij strikt positief is (dus niet nul). Voorbeeld, de matrix heeft als gerichte graaf (3) (1) (2) Definitie 13.7.3 Onder een pad in de graaf verstaan we een opeenvolging van gerichte lijnstukken, waarbij het eindpunt van de één weer beginpunt van de ander is. Een gerichte graaf heet samenhangend als elk punt van de graaf via een pad met elk ander punt verbonden is. De graaf heet a-cyclisch als de grootste gemeenschappelijke deler van alle lengtes van gesloten paden gelijk is aan 1. Merk in het bijzonder op dat de graaf bij een matrix A a-cyclisch is als A een positief diagonaal-element aii heeft. De bijbehorende graaf heeft dan een verbinding van het punt (i) naar zichzelf en dat is een gesloten pad met lengte 1. We hebben nu de volgende klassieke stelling, waarvan we het bewijs niet zullen geven. Stelling 13.7.4 (Perron-Frobenius) Zij A een m × m-matrix met alle elementen ≥ 0. Als de bijbehorende graaf samenhangend en a-cyclisch is, dan heeft A een dominante eigenwaarde. Dat de twee voorwaarden(nodig ) zijn moge blijken uit de volgende simpele voor2 0 beelden. De graaf van heeft de twee eigenwaarden 2 en dus geen 0 2 dominante eigenwaarde. De bijbehorende graaf bestaat uit twee punten die alleen met zichzelf verbonden zijn, maar niet De graaf is dus niet ( met elkaar. ) 0 1 samenhangend. Een ander voorbeeld is A = . De eigenwaarden zijn ±1 1 0 en er is dus geen dominante eigenwaarde. De graaf bestaat uit twee punten (1) en (2), waarbij (1) verbonden wordt met (2) en (2) met (1). Het is duidelijk dat elk gesloten pad bestaat uit herhaling van (1)→(2)→(1) of van (2)→(1)→(2). Elk gesloten pad heeft even lengte en de graaf is dus niet a-cyclisch. We gaan nu terug naar Google’s page rank. Het idee is om aan elke webpagina P een gewicht I(P ) van belangrijkheid toe te kennen. Stel bijvoorbeeld dat webpagina Pj lj links heeft. Als zo’n link naar pagina Pi wijst, dan krijgt die pagina een bijdrage I(Pj )/lj aan zijn gewicht van webpagina Pj . Als we de 18 HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN verzameling pagina’s die een link naar Pi hebben, aangeven met Bi , dan krijgen we: ∑ I(Pj ) I(Pi ) = . lj Pj ∈Bi Om de waarden van I(P ) te vinden moeten we dit stelsel lineaire vergelijkingen oplossen. Gezien de grootte van de coefficienten matrix is dit een onmogelijke taak. Het idee is om de oplossing te benaderen door er een eigenwaarde probleem van te maken. Stel we hebben N webpaginas. We stellen de N ×N -matrix G op door op plaats i, j de waarde 1/lj te zetten als Pj naar Pi wijst en 0 anders. Geven we de vector met componenten I(Pi ) aan met I dan kunnen we bovenstaand stelsel vergelijkingen herschrijven als I = GI. Met andere woorden, I is een eigenvector met eigenwaarde 1 van G. We gaan ervan uit dat G bekend is, en de opgave is om I te berekenen. We gebruiken nu de Stelling van Perron-Frobenius. Kies een startvector I0 en laat G herhaald los, I1 = GI0 , I2 = GI1 , . . . , Ik+1 = GIk , . . .. De opzet is dat de rij Ik naar een stationaire vector, de oplossing van ons probleem, convergeert en dat dit in redelijk snelle tijd gebeurt. Zoals we boven zagen zijn er restricties op de matrix opdat we convergentie krijgen. Die kunnen we forceren door in plaats van G de matrix αG + (1 − α)H/N te nemen waarin α een kleine parameter is en H de N × N -matrix met 1 op elke plaats. Deze maatregel dempt eventuele ongewenste fluctuaties. Met een parameterwaarde van 0.85 lijkt het dat er 50 tot 100 iteraties nodig zijn om een acceptabele benadering van I te vinden. Een dergelijke berekening duurt enkele dagen. Dat de berekening met de reusachtige matrix G mogelijk is, komt doordat G een zogenaamde sparse matrix is. Dat wil zeggen, het merendeel van de coefficienten is nul en hoeft niet meegenomen te worden in de berekeningen. Op gezette tijden (eens per maand?) wordt bij Google de benadering van de gewichtsvector I bijgewerkt en aangepast aan het veranderende internet. 13.8 Opgaven Opgave 13.8.1. Bepaal voor de volgende matrices het karakteristieke polynoom, de eigenwaarden en de eigenvectoren. ( ) ( ) 1 0 2 1 a) , b) 2 3 0 −1 ( ) ( ) 2 −1 13 −16 c) , d) −1 2 9 −11 ( ) ( ) 1 −1 2 2 e) , f) 1 3 3 3 −2 −1 0 −6 −1 2 h) 0 1 1 g) 3 2 0, −2 −2 −1 −14 −2 5 13.8. OPGAVEN i) −7 4 −3 j) 8 −3 3 32 −16 13 6 4 4 1 2 4 4 4 6 1 4 0 1 −1 , l) 4 1 6 4 0 1 3 1 4 4 6 4 1 1 1 −1 −1 −1 −1 1 −1 −1 5 1 1 , n) −1 −1 1 −1 1 4 2 1 2 4 −1 −1 −1 1 3 −12 4 k) m) 19 5 4 1 1 −1 −1 0 5 , −2 −1 Opgave 13.8.2. Zij A, B een tweetal n×n-matrices. Stel dat λ een eigenwaarde van A is en µ een eigenwaarde van B. 1. Laat met een voorbeeld zien dat λ + µ geen eigenwaarde hoeft te zijn van A + B. 2. Laat met een voorbeeld zien dat λµ geen eigenwaarde hoeft te zijn van AB. 3. Stel dat λ en µ behoren bij dezelfde eigenvector. Laat zien dat A + B eigenwaarde λ + µ heeft en AB eigenwaarde λµ. Opgave 13.8.3. Zij A een n × n-matrix. Bewijs dat A en At dezelfde eigenwaardevergelijking hebben. Opgave 13.8.4. Zij A een n × n matrix zó dat de som van de elementen uit elke rij gelijk is aan 1. Bewijs dat A eigenwaarde 1 heeft. Zij A een n × n-matrix zó dat de som van de elementen uit elke kolom gelijk is aan 1. Bewijs dat A eigenwaarde 1 heeft. Opgave 13.8.5. Zij A een n × n-matrix en λ een eigenwaarde. Laat zien dat Ak eigenwaarde λk heeft voor elke k ∈ Z≥1 . Stel bovendien dat A inverteerbaar is. Bewijs dat λ−1 een eigenwaarde is. Opgave 13.8.6. Zij A een nilpotente n × n-matrix, dat wil zeggen, er is een k ∈ Z≥0 zó dat Ak = O. Bewijs dat 0 de enige eigenwaarde van A is. Opgave 13.8.7. Gegeven is −3 A = −7 −6 1 5 6 −1 −1 2 Bereken de eigenwaarden en eigenvectoren. Bepaal een inverteerbare matrix S zó dat S −1 AS een diagonaalmatrix is. Is S uniek bepaald? Geef meerdere mogelijkheden voor S. 20 HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN Opgave 13.8.8. Zelfde vraag als daarnet maar nu voor 1 −2 2 A = −2 −2 4 2 4 −2 Opgave 13.8.9. Zijn de volgende matrices diagonaliseerbaar? 1 −2 0 2 0 0 −2 0 −2 , 1 2 0. 0 2 1 0 1 2 Opgave 13.8.10. Gegeven is de n × n diagonaal matrix Λ met elementen λ1 , . . . , λn op de diagonaal. Gegeven is dat alle λi verschillend zijn. Zij S een inverteerbare n × n-matrix zó dat S −1 ΛS = Λ. Bewijs dat S een diagonaalmatrix is. Opgave 13.8.11. Zij A een n × n matrix met n verschillende positieve eigenwaarden. Bewijs dat er een matrix B bestaat zó dat B 2 = A. Is B uniek bepaald? Opgave 13.8.12. Zij A en B een tweetal geconjugeerde n × n-matrices (dwz er bestaat een inverteerbare S zó dat B = S −1 AS). Bewijs dat A en B dezelfde eigenwaarde vergelijking hebben. Opgave 13.8.13. Zij A, B een tweetal n × n-matrices. Bewijs dat AB en BA dezelfde eigenwaardenvergelijking hebben. (Hint: begin met A of B inverteerbaar en gebruik de voorgaande opgave). Laat ook zien dat Sp(AB) = Sp(BA). Opgave 13.8.14. Gegeven is het polynoom q(t) = tn +an−1 tn−1 +· · ·+a1 t+a0 . Beschouw de matrix −an−1 −an−2 · · · −a1 −a0 1 0 ··· 0 0 0 1 · · · 0 0 Q= .. ... . 0 0 ··· 0 0 0 0 ··· 1 0 Bewijs dat det(Q − λIn ) = (−1)n q(λ). Met andere woorden, q(λ) = 0 is de eigenwaardevergelijking van Q. Opgave 13.8.15. Verifieer de Stelling van Cayley-Hamilton aan de hand van het voorbeeld ( ) 1 1 M= 2 3 Opgave 13.8.16. Zij A een inverteerbare 2×2-matrix met eigenwaardevergelijking λ2 + aλ + b = 0. Laat zien dat A−1 gegeven wordt door A−1 = − 1b A − ab I2 . 13.8. OPGAVEN 21 Opgave 13.8.17. Zij M een n × n-matrix met alleen maar eigenwaarden 0. Bewijs dat M nilpotent is (hint: gebruik Cayley-Hamilton). Opgave 13.8.18. Beschouw de lineaire afbeelding A : R3 → R3 gegeven door de matrix 1 −2 0 M = −2 0 −2 . 0 2 1 1. Bereken de eigenwaarden en eigenvectoren van A. 2. Bereken de kern van A. 3. Bepaal een basis van A(R3 ). Opgave 13.8.19. De lineaire afbeelding A matrix 7 −3 −1 −3 7 1 −1 1 7 1 −1 −3 : R4 → R4 wordt gegeven door de 1 −1 . −3 7 Bereken de eigenwaarden en eigenvectoren van A. Opgave 13.8.20. Zij α ∈ R. De lineaire afbeelding Aα : R3 → R3 heeft de matrix 1 −α2 + α − 2 0 1 2α − 1 α − 1. 0 4 1 1. Bereken de eigenwaarden van Aα . 2. Eén eigenwaarde is onafhankelijk van α. Bepaal de eigenruimte behorend bij deze eigenwaarde. 3. Voor welke waarde(n) van α heeft Aα een tweedimensionale eigenruimte in R3 ? Opgave 13.8.21. De lineaire afbeelding matrix −10 7 −6 5 −6 4 A : R3 → R3 wordt gegeven door de 11 6 . 7 Bereken de eigenwaarden en eigenvectoren van A. Opgave 13.8.22. De lineaire afbeelding A : R3 → R3 heeft de eigenwaarden 1, −1 en 0. Ten opzichte van de standaardbasis is (1, 1, 1) een eigenvector bij de eigenwaarde 1, (1, 2, 0) een eigenvector bij de eigenwaarde −1 en (3, 0, 1) een eigenvector bij de eigenwaarde 0. Bereken de matrix van A ten opzichte van de standaardbasis. 22 HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN Opgave 13.8.23. De lineaire afbeelding A : R3 → R3 heeft ten opzichte van de standaardbasis de matrix −3 1 −1 −7 5 −1 . −6 6 2 1. Bereken de eigenwaarden van A en de corresponderende eigenvectoren. 2. Is het mogelijk om een basis e1 , e2 , e3 te vinden, zó dat de matrix van A ten opzichte van deze basis een diagonaalmatrix is? Hoeveel van deze bases kunnen gevonden worden? Opgave 13.8.24. Zelfde opgave als 1 −2 2 daarnet, maar nu met de matrix −2 2 −2 4 . 4 −2 Opgave 13.8.25. Dezelfde vragen als daarnet maar nu twee afbeeldingen B : R3 → R3 en C : R3 → R3 met respectievelijk de matrices 1 −2 0 2 0 0 −2 0 −2 1 2 0. 0 2 1 0 1 2 Opgave 13.8.26. In een n-dimensionale vectorruimte V zijn A : V → V en B : V → V een tweetal lineaire afbeeldingen. 1. (Lastig als A, B niet inverteerbaar) Bewijs dat de lineaire afbeeldingen AB en BA dezelfde eigenwaarden hebben. 2. Als A een bijectieve afbeelding is en λ een eigenwaarde van A, dan is λ−1 een eigenwaarde van A−1 . 3. Bewijs dat, als A een eigenwaarde λ heeft met bijbehorende eigenvector v, deze vector tevens eigenvector van An is met eigenwaarde λn . 4. Zij A, B en tweetal n × n-matrices. Bewijs dat Sp(AB) = Sp(BA). Opgave 13.8.27. Zij A : Rn → Rn een lineaire afbeelding. Gegeven is dat A2 = A. Bewijs dat elke eigenwaarde van A of 0 of 1 is. ( ) α β Opgave 13.8.28. De lineaire afbeelding A : R2 → R2 heeft de matrix γ δ 2 met γ ̸= 0. Bovendien is gegeven dat A = A. α β = 0. Druk β in α en γ uit. 1. Bewijs dat α + δ = 1 en dat γ δ 2. Bereken de eigenwaarden van A of beredeneer welke eigenwaarden A heeft. 13.8. OPGAVEN 23 Opgave 13.8.29. De lineaire afbeelding A : R3 → R3 heeft de matrix 2 1 −1 2 2 1 . 3 0 3 1. Bereken de eigenwaarden van A en bepaal de corresponderende eigenruimten. 2. Bepaal de vergelijking van het vlak dat onder A invariant is. Opgave 13.8.30. Zij M22 (C) de vectorruimte van twee bij twee matrices met elementen in C. Een basis van deze vectorruimte wordt gegeven door ( ) ( ) ( ) ( ) 1 0 0 1 0 0 0 0 f1 = , f2 = , f3 = , f4 = . 0 0 0 0 1 0 0 1 Definieer de afbeelding T : M22 (C) → M22 (C) door ( ) ( ) a b a b T : 7→ M M t, c d c d ( ) 2 0 waarin M = . 1 −1 1. Bewijs dat T een lineaire afbeelding is. 2. Bepaal de matrix van T ten opzichte van f1 , f2 , f3 , f4 . 3. Bepaal de eigenwaarden en eigenvectoren van T . Opgave 13.8.31. Zij C[X]2 de ruimte van polynomen van graad hooguit 2 met coefficienten in C. Definieer de afbeelding T : C[X]2 → C[X]2 door T : p(X) 7→ p(X + 1). 1. Bewijs dat T lineair is. 2. Bepaal de matrix van T ten opzichte van de basis 1, X, X 2 . 3. Bepaal de eigenwaarden en eigenvectoren van T . Opgave 13.8.32. Definieer T : R[X] → R[X] door T : p(X) 7→ ∫X 0 p(t)dt. 1. Bewijs dat T een lineaire afbeelding is, en dat T injectief, maar niet surjectief is. 2. Bewijs dat T geen eigenvectoren heeft. Opgave 13.8.33. Zij R[X]n de vectorruimte van polynomen met graad ≤ n. Definieer T : R[X]n → R[X]n door T : p(X) 7→ p(X) + Xp′ (X). 1. Bewijs dat T inderdaad R[X]n naar zichzelf afbeeldt en lineair is. 24 HOOFDSTUK 13. EIGENWAARDEN EN EIGENVECTOREN 2. Laat zien dat 1, X, X 2 , . . . , X n een basis van R[X]n is. 3. Vindt alle eigenwaarden en eigevectoren van T in het geval dat n = 2. 4. Vindt alle eigenwaarden en eigenvectoren in het algemene geval. Opgave 13.8.34. Definieer T : R[X] → R[X] door T : p(X) 7→ xp′′ (X)+p′ (X). Bepaal alle eigenwaarden en eigenvectoren van T . Opgave 13.8.35. Zij R[X]n de vectorruimte van polynomen met graad ≤ n. Definieer T : R[X]n → R[X]n door T : p(X) 7→ −p′′ (X) + Xp′ (X). 1. Bewijs dat T inderdaad R[X]n naar zichzelf afbeeldt en lineair is. 2. Laat zien dat 1, X, X 2 , . . . , X n een basis van R[X]n is. 3. Vindt alle eigenwaarden van T in het geval dat n = 2. 4. Vindt alle eigenwaarden in het algemene geval. Opgave 13.8.36. Zij R[X]n de vectorruimte van polynomen met graad ≤ n. Definieer T : R[X]2 → R[X]2 door T : p(X) 7→ (X 3 − X)p′′ (X) + X 2 p′ (X) − 4Xp(X). 1. Verifieer dat T de ruimte R[X]2 naar zichzelf afbeeldt en dat T lineair is. 2. Schrijf de matrix van T uit ten opzichte van de geordende basis 1, X, X 2 . 3. Bepaal de eigenwaarden en eigenvectoren van T . 4. Laat zien dat T de ruimte R[X]3 niet naar zichzelf afbeeldt. Opgave 13.8.37.Beschouw de lineaire afbeelding A : R∞ → R∞ gegeven door A : (x1 , x2 , . . .) 7→ (0, x1 , x2 , . . .) (’shift operator’). Bewijs dat A geen eigenvectoren heeft. Opgave 13.8.38.Bewijs dat de functies sin(kx) voor k = 1, 2, . . . lineair onafhankelijk zijn door middel van Stelling 13.3.1 en een geschikte lineaire afbeelding van de ruimte C ∞ (R) naar zichzelf. Hoofdstuk 14 Vectorruimten met inproduct 14.1 Inwendige producten Zij V een vectorruimte over R. Een inwendig product op V is een functie V × V → R, genoteerd met x, y 7→ ⟨x, y⟩, die aan de volgende eigenschappen voldoet. 1. ⟨x, y⟩ = ⟨y, x⟩ voor elke x, y ∈ V . 2. ⟨λx, y⟩ = λ ⟨x, y⟩ voor elke x, y ∈ V en λ ∈ V . 3. ⟨x + y, z⟩ = ⟨x, z⟩ + ⟨y, z⟩ voor elke x, y, z ∈ V . 4. ⟨x, x⟩ ≥ 0 voor alle x ∈ V en bovendien: ⟨x, x⟩ = 0 ⇐⇒ x = 0. Eigenschappen (ii) en (iii) laten zien dat een inproduct linear is in het eerste argument. Wegens de symmetrie (i) geldt nu dat een inproduct ook lineair is in het tweede argument. Dat wil zeggen: ⟨x, λy + µz⟩ = λ ⟨x, y⟩ + µ ⟨x, z⟩ voor alle x, y, z ∈ V en λ, µ ∈ R. Hier zijn een aantal voorbeelden. Voorbeeld 14.1.1. V = Rn met het standaard inproduct of dotproduct ♢ Voorbeeld 14.1.2. V = R∞ 0 , de ruimte van oneindige rijen reële getallen die vanaf zeker moment nul zijn. Als inproduct kunnen we nemen: ⟨(x1 , x2 , x3 , . . .), (y1 , y2 , y3 , . . .)⟩ = x1 y1 + x2 y2 + x3 y3 + · · · ♢ Voorbeeld 14.1.3. (optioneel) Iets interessanter is de deelruimte l2 van R∞ ∑∞ bestaande uit alle oneindige rijen (x1 , x2 , x3 , . . .) zó dat de reeks i=1 x2i convergent is. Dat l2 een deelruimte is, volgt uit de volgende observaties. 25 26 HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT 1. 0 = (0, 0, . . .) ∈ l2 want ∑∞ i=1 0 2 = 0. 2. Stel ∑ x = (x1 , x2 , . . .) en λ ∈ R. Dan convergeert de reeks 2 2 ook ∞ i=1 (λxi ) . Dus λx ∈ l . ∑∞ 2 i=1 xi , en dus 3. Stel . . .) en y = (y1 , y2 , . . .). Dan geldt ∑n x = (x12, x2 ,∑ ∑∞voor2 elke∑n∞ dat2 n 2 + y 2 ). Omdat de reeksen (x + y ) ≤ 2(x i i i i i=1 i=1 i=1 xi en i=1 yi ∑ 2 ook. convergeren, convergeert ∞ (x + y ) i i=1 i ∑ Als inproduct van x = (x1 , x2 , . . .) en y = (y1 , y2 , . . .) nemen we ∞ i=1 xi yi . We moeten wel laten zien dat deze reeks convergeert. Deze convergentie blijkt zelfs absoluut te zijn. Voor elke n geldt namelijk volgens de ongelijkheid van Schwarz dat, v v u n u n n ∑ u∑ u∑ 2 t xi · t yi2 . |xi yi | ≤ i=1 Omdat de reeksen ook. ∑∞ 2 i=1 xi en ∑∞ i=1 2 i=1 yi i=1 convergeren, convergeert ∑∞ i=1 |xi yi | ♢ Voorbeeld 14.1.4. V = R2 met ⟨(x1 , y1 ), (x2 , y2 )⟩ = 2x1 y1 + x1 y2 + x2 y1 + 2x2 y2 Opgave: ga zelf na dat dit een inproduct is. We zien hiermee onder anderen dat er vele andere inproducten op R2 , en ook Rn , zijn naast het gebruikelijke dotproduct. ♢ Voorbeeld 14.1.5. ∫ 1 V = C([0, 1]), de verzameling van continue functies op [0, 1] en ⟨f, g⟩ = 0 f (x)g(x)dx. We zullen eigenschappen (i) tot en met (iv) voor dit inproduct controleren. ∫1 ∫1 1. ⟨f, g⟩ = 0 f (x)g(x)dx = 0 g(x)f (x)dx = ⟨g, f ⟩. ∫1 ∫1 2. ⟨λf, g⟩ = 0 λf (x)g(x)dx = λ 0 f (x)g(x)dx = λ ⟨f, g⟩. ∫1 ∫1 ∫1 3. ⟨f + g, h⟩ = 0 (f (x) + g(x))h(x)dx = 0 f (x)h(x)dx + 0 g(x)h(x)dx = ⟨f, h⟩ + ⟨g, h⟩. ∫1 ∫1 4. ⟨f, f ⟩ = 0 f (x)2 dx ≥ 0 0 · dx = 0. We moeten nu nog laten zien dat ⟨f, f ⟩ = 0 impliceert dat f (x) = 0 voor alle x ∈ [0, 1]. Vaak is dit de lastigste stap in het bewijs dat we met een inproduct te maken hebben. In dit geval maken gebruik van de continuiteit van f (x). Stel namelijk dat er een punt x0 ∈ [0, 1] is met f (x0 ) ̸= 0. Dat betekent dat f (x0 )2 > 0. Wegens de continuiteit van f (x)2 is er een δ > 0 zodat f (x)2 ≥ f (x0 )2 /2 voor alle x0 ∈ [0, 1] ∩ ∫[−δ, δ]. De lengte van dit laatste 1 interval is minstens δ. Dat betekent dat 0 f (x)2 dx groter of gelijk δ maal ∫ 1 f (x0 )2 /2 is. Conclusie, 0 f (x)2 dx > 0. Dit is in tegenspraak met het gegeven dat de integraal 0 is. Het kan blijkbaar dus niet gebeuren dat f (x0 ) ̸= 0. Gevolg, f (x0 ) = 0 voor alle x0 ∈ [0, 1]. 14.1. INWENDIGE PRODUCTEN 27 ∫∞ ♢ −x2 Voorbeeld 14.1.6. V = R[x] met als inproduct ⟨p, q⟩ = −∞ p(x)q(x)e dx. Het bewijs dat dit een inproduct is verloopt op analoge wijze als bij het vorige voorbeeld. ♢ Voorbeeld 14.1.7. Er zijn ook vectorruimten waarbij het helemaal niet duidelijk is of er een inproduct op te definiëren valt. Probeer maar eens een inproduct te bedenken op R∞ , of op C(R), de ruimte van continue functies op R. ♢ Stel dat V een vectorruimte met inproduct is. We definiëren de lengte van een √ vector v ∈ V als ⟨v, v⟩. Notatie: ||v||. Evenals bij het dotproduct geldt ook hier de ongelijkheid van Cauchy-Schwarz. Stelling 14.1.8 Zij V een vectorruimte met inproduct. Dan geldt voor elk tweetal x, y ∈ V de ongelijkheid | ⟨x, y⟩ | ≤ ||x|| · ||y||. Bewijs: Het bewijs kunnen we hier verbatim overnemen van het bewijs voor het dotproduct. Als x = 0 dan zijn beide zijden van de ongelijkheid nul, en dus klopt de ongelijkheid. Stel nu x ̸= 0. Dan geldt ook dat ||x|| > 0. Dit volgt uit eigenschap (iv) van het inproduct. Voor elke keuze van λ ∈ R geldt 0 ≤ ||λx + y||. Laten we dit uitwerken. 0 ≤ ⟨λx + y, λx + y⟩ = λ2 ⟨x, x⟩ + 2λ ⟨x, y⟩ + ⟨y, y⟩ De rechterkant kan gezien worden als een kwadratische functie in λ die uitsluitend waarden ≥ 0 aanneemt. De discriminant is dus ≤ 0. Met andere woorden, 4 ⟨x, y⟩2 − 4 ⟨x, x⟩ ⟨y, y⟩ ≤ 0. Hieruit volgt dat ⟨x, y⟩2 ≤ ⟨x, x⟩ ⟨y, y⟩ en dus de ongelijkheid van CauchySchwarz. 2 De ongelijkheid van Schwarz in het geval van de ruimte van continue functies op [0, 1] luidt dus, ∫ 1 2 (∫ 1 ) (∫ 1 ) 2 2 f (x) dx g(x) dx . f (x)g(x)dx ≤ 0 0 0 Het waren ongelijkheden van dit type die door H.A.Schwarz in zijn werk gebruikt werden. Stel dat V een vectorruimte over R met een inproduct ⟨., .⟩. Voor elk tweetal elementen x, y kunnen we afstand tussen x en y definiëren door ||x − y||. Voor deze afstand geldt, 28 HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT 1. Voor alle x, y ∈ V geldt ||x − y|| = ||y − x|| en ||x − y|| ≥ 0. 2. Voor alle x, y, z ∈ V geldt ||x − y|| ≤ ||x − z|| + ||y − z|| (driehoeksongelijkheid). 3. ||x − y|| = 0 ⇐⇒ x = y. Met de afstandsfunctie ||x−y|| is V een zogenaamde metrische ruimte geworden. 14.2 Orthogonale en orthonormale stelsels Zij V een vectorruimte met inproduct. We zeggen dat twee vectoren x, y orthogonaal zijn ten aanzien van het inproduct als ⟨x, y⟩ = 0. Een verzameling vectoren S ⊂ V heet orthogonaal stelsel als ⟨x, y⟩ = 0 voor elk tweetal verschillende vectoren x, y ∈ S. Een verzameling S ⊂ V heet orthonormaal stelsel als S een orthogonaal stelsel is en bovendien ||x|| = 1 voor elke x ∈ S. Stelling 14.2.1 Zij S een orthogonaal stelsel vectoren met x ̸= 0 voor elke x ∈ S. Dan is S een onafhankelijk stelsel. Bewijs: Stel dat we een relatie hebben van de vorm λ1 x1 + λ2 x2 + · · · + λr xr = 0 met xi ∈ S. Kies i en neem aan beide zijden het inproduct met xi . We krijgen, vanwege de lineariteit van het inproduct in zijn eerste argument, λ1 ⟨x1 , xi ⟩ + λ2 ⟨x2 , xi ⟩ + · · · + λr ⟨xr , xi ⟩ = ⟨0, xi ⟩ = 0. Wegens de orthogonaliteit van de vectoren xj zijn alle inproducten ⟨xk , xi ⟩ nul, behalve die met k = i. We houden dus over, λi ⟨xi , xi ⟩ = 0. Gegeven is dat xi ̸= 0. Dus ⟨xi , xi ⟩ > 0 en we concluderen dat λi = 0. We kunnen alleen maar triviale relaties tussen de elementen van S hebben, en dus is S onafhankelijk. 2 Voorbeeld 14.2.2. (optioneel) Zij V∫ de vectorruimte van continue functies op π [−π, π] met als inproduct ⟨f, g⟩ = π1 −π f (x)g(x)dx. Dan is het stelsel functies 1 √ , sin x, cos x, sin 2x, cos 2x, . . . , sin mx, cos mx, . . . 2 een orthonormaal stelsel. Ter illustratie laten we de orthonormaliteit van het stelsel functies sin mx met m ∈ Z>0 zien. We maken daarbij gebruik van de gonio-identiteit sin mx sin nx = 1 1 cos(m − n)x − cos(m + n)x. 2 2 14.2. ORTHOGONALE EN ORTHONORMALE STELSELS 29 Stel nu m, n ∈ Z>0 . Merk op dat ∫ 1 π ⟨sin mx, sin nx⟩ = sin mx sin nxdx π −π ∫ π ∫ π 1 1 = cos(m − n)xdx − cos(m + n)xdx 2π −π 2π −π ∫π Als k ∈ Z en k ̸= 0 dan weten we dat −π cos kxdx = 0. Dus, als m ̸= n dan volgt uit bovenstaande berekening dat ∫ π ⟨sin mx, sin nx⟩ = 0. Als m = n dan 1 vinden we dat ⟨sin mx, sin mx⟩ = 2π −π 1 · dx = 1. We laten het aan de lezer over om orthonormaliteit van het stelsel inclusief de overige vectoren aan te tonen. ♢ Een orthogonaal respectievelijk orthonormaal stelsel dat tevens basis is van de vectorruimte V noemen we een orthogonale basis respectievelijk orthonormale basis. Stelling 14.2.3 Zij V een eindigdimensionale vectorruimte met inproduct. Dan heeft V een orthonormale basis. Bewijs: Het bewijs van deze stelling volgt door inductie naar dim(V ). Stel dat dim(V ) = 1. In dat geval is de stelling duidelijk, elke vector met lengte 1 vormt een orthonormale basis. Stel nu n = dim(V ) > 1, en neem aan dat de stelling bewezen is voor elke vectorruimte van dimensie n−1. Kies een basis v1 , v2 , . . . , vn van V . We mogen aannemen dat ||v1 || = 1 door eventueel met een scalair te vermenigvuldigen. Definieer nu vi∗ = vi − ⟨vi , v1 ⟩ v1 voor i = 2, . . . , n. Dan vormen v1 , v2∗ , . . . , vn∗ ook een basis van V en vi∗ is orthogonaal met v1 voor alle ≥ 2. Volgens de inductiehypothese heeft de deelruimte Span(v2∗ , . . . , vn∗ ) dimensie n − 1 en dus een orthonormale basis die we w2 , . . . , wn noemen. Samen vormen de vectoren v1 , w2 , . . . , wn een orthonormale basis van V . 2 In bovenstaand bewijs zit een inductief proces verborgen om daadwerkelijk een orthormale basis te construeren. Deze constructie staat bekend als het GramSchmidt procédé. Gegeven een basis v1 , v2 , . . . , vn van een vectorruimte V met inproduct. Vorm hieruit de zogenaamde Gram-matrix met als elementen de inproducten ⟨vi , vj ⟩. Vul deze Gram-matrix van rechts aan met de vectoren v1 , . . . , vn . Dus, ⟨v1 , v1 ⟩ · · · ⟨v1 , vn ⟩ v1 ⟨v2 , v1 ⟩ · · · ⟨v2 , vn ⟩ v2 . . .. .. .. . . ⟨vn , v1 ⟩ · · · ⟨vn , vn ⟩ vn We brengen nu door rijen te vegen de Gram-matrix in bovendriehoeksvorm. We mogen hierbij alleen veelvouden van rijen bij andere rijen optellen of aftrekken! Verwisseling van rijen of scalaire vermenigvuldiging met een rij is absoluut 30 HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT verboden! Bij het veegproces nemen we ook de vectoren rechts van de Grammatrix mee. Het resultaat is een nieuwe basis w1 , w2 , . . . , wn van V zó dat ⟨w1 , v1 ⟩ · · · ⟨w1 , vn ⟩ w1 ⟨w2 , v1 ⟩ · · · ⟨w2 , vn ⟩ w2 . , .. .. .. . . ⟨wn , v1 ⟩ · · · ⟨wn , vn ⟩ wn en wi ∈ Span(v1 , . . . , vi ) voor alle i en wi ⊥ vj voor alle i, j met j < i. In het bijzonder volgt hieruit dat wi loodrecht staat op alle vectoren in Span(v1 , . . . , vi−1 ) en in het bijzonder, wi ⊥ wj voor alle i, j met i > j. De vectoren w1 , . . . , wn vormen een orthogonale basis van V en door de vectoren te normaliseren krijgen we een orthonormale basis. Een bijzondere bonus van deze procedure is dat de diagonaalelementen van de gereduceerde matrix precies de inproducten ⟨wi , wi ⟩ zijn. Voorbeeld 14.2.4. Gevraagd een orthonormale basis van de deelruimte W ⊂ R4 opgespannen door (1, 1, 0, 1), (2, 0, 1, 1), (0, 1, −1, 0). Laten we deze vectoren aangeven met respectievelijk v1 , v2 en v3 . Als inproduct nemen we het standaard inproduct op R4 . De Gram matrix wordt < v1 , v1 > < v1 , v2 > < v1 , v3 > 3 3 1 < v2 , v1 > < v2 , v2 > < v2 , v3 > = 3 6 −1 . < v3 , v1 > < v3 , v2 > < v3 , v3 > 1 −1 2 Samen met de rijvectoren v1 , v2 , v3 geeft 3 3 1 1 3 6 −1 2 1 −1 2 0 dit de matrix 1 0 1 0 1 1. 1 −1 0 We passen nu veegoperaties toe zodanig dat de Gram-matrix in bovendriehoeksvorm komt. In de eerste kolom vegen, 3 3 1 1 1 0 1 0 3 −2 1 −1 1 0 . 0 −2 5/3 −1/3 2/3 −1 −1/3 In de tweede kolom vegen, 1 0 1 3 3 1 1 0 3 −2 1 −1 1 0 . 0 0 1/3 1/3 0 −1/3 −1/3 De rijvectoren in het rechterdeel zijn nu orthogonaal geworden en de gevraagde orthonormale basis wordt gegeven door 1 1 1 √ (1, 1, 0, 1), √ (1, −1, 1, 0), √ (1, 0, −1, −1). 3 3 3 Merk op dat de diagonaalelementen 3, 3, 1/3 precies de lengten in het kwadraat van de orthogonale basisvectoren zijn. ♢ 14.2. ORTHOGONALE EN ORTHONORMALE STELSELS 31 Voorbeeld 14.2.5. Zij V = R2 met inproduct ⟨(x1 , x2 ), (y1 , y2 )⟩ = 2x1 y1 + x1 y2 + x2 y1 + 2x2 y2 . We starten met v1 = (1, 0), v2 = (0, 1). De bijbehorende Gram-matrix is ( ) 2 1 . 1 2 Samen met v1 , v2 geeft dit ( 2 1 1 1 2 0 0 1 ) Vegen in eerste kolom van de Gram-matrix, ( ) 2 1 1 0 . 0 3/2 −1/2 1 De vectoren (1, 0) en√ (−1/2,√ 1) zijn orthogonaal met betrekking van ons inproduct. De lengtes zijn 2 en 3/2. De orthonormale basis wordt dus 1 √ (1, 0), 2 1 √ (−1, 2). 6 ♢ ∫1 Voorbeeld 14.2.6. Zij V = R[x] met inproduct ⟨p, q⟩ = 0 p(x)q(x)dx. We nemen v0 = 1, v1 = x, v2 = x2 , . . . , vn = xn , . . . en passen hierop het GramSchmidt procédé toe. Laten we, om de gedachten te bepalen, beginnen met 1, x, x2 . De Gram-matrix wordt 1 1/2 1/3 1/2 1/3 1/4 . 1/3 1/4 1/5 Uitgebreid met de vectoren 1, x, x2 geeft dit 1 1/2 1/3 1/2 1/3 1/4 1/3 1/4 1/5 We vinden achtereenvolgens, 1 1/2 1/3 0 1/12 1/12 0 1/12 4/45 en 1 0 0 1/2 1/3 1/12 1/12 0 1/180 1 x . x2 1 x − 1/2 x2 − 1/3 1 x − 1/2 . x2 − x + 1/6 We zien dat x2 −x+1/6 een orthognaal stelsel vormen en hun lengtes √ 1, x−1/2, √ zijn 1, 1/ 12, 1/ 180. Het is duidelijk dat we dit proces kunnen voortzetten 32 HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT met x3 , x4 , . . .. We vinden de polynomen P0 (x) = 1 P1 (x) = x − 1 2 P2 (x) = x2 − x + 1 6 3 3 1 P3 (x) = x3 − x2 + x − 2 5 20 .. .. . . De polynomen die we op deze wijze krijgen zijn, op een factor na, de zogenaamde Legendre polynomen op het interval [0, 1]. De algemene formule luidt ( )n 1 d Pn (x) = xn (x − 1)n . 2n(2n − 1) · · · (n + 1) dx Deze polynomen vormen een voorbeeld van zogenaamde orthogonale polynomen en zijn belangrijk in vele, vaak numerieke, toepassingen. ∫∞ 2 Het orthogonalisatieprocédé ten aanzien van ⟨p, q⟩ = −∞ p(x)q(x)e−x dx levert weer een andere klasse van orthogonale polynomen op, de zogenaamde Hermite polynomen. ♢ Hoewel we gezien hebben dat er op Rn vele inproducten mogelijk zijn, blijkt het in de praktijk wel weer mee te vallen. De volgende stelling is daar verantwoordelijk voor. Een orthonormale basis e1 , . . . , en van een eindigdimensionale vectorruimte met inproduct heeft de eigenschap dat { 1 als i = j ⟨ei , ej ⟩ = δij = 0 als i ̸= j Het symbool δij staat bekend als de Kronecker delta. Stelling 14.2.7 Zij V een eindigdimensionale vectorruimte met inproduct en zij e1 , . . . , en een orthonormale basis. Van het tweetal vectoren x, y ∈ V geven we de coördinaten t.o.v. de geordende basis e1 , . . . , en aan met x1 , x2 , . . . , xn respectievelijk y1 , y2 , . . . , yn . Dan geldt: ⟨x, y⟩ = x1 y1 + x2 y2 + · · · + xn yn . Deze stelling kunnen we afleiden door in ⟨x, y⟩ de expansies x = x1 e1 +· · ·+xn en en y = y1 e1 + · · · + yn en in te vullen en van de lineariteits- eigenschappen van het inproduct gebruik te maken. ⟨ n ⟩ n ∑ ∑ ⟨x, y⟩ = xi e i , yj ej i=1 j=1 14.3. ORTHOGONALE PROJECTIES = n ∑ n ∑ 33 xi yj ⟨ei , ej ⟩ i=1 j=1 = = n ∑ n ∑ xi yj δij i=1 j=1 n ∑ xi yi i=1 = x1 y 1 + x2 y 2 + · · · + xn y n 2 14.3 Orthogonale projecties Zij V een vectorruimte met inproduct en W een deelverzameling. Het orthogonaal complement van W is de verzameling vectoren {v ∈ V | ⟨v, w⟩ = 0 voor alle w ∈ W }. Notatie: W ⊥ . Het zal duidelijk zijn dat iedere vector uit W loodrecht op alle vectoren van W ⊥ staat. Dus W ⊂ (W ⊥ )⊥ . Verder geldt dat W ∩ W ⊥ = {0}. Stel namelijk x ∈ W en x ∈ W ⊥ . Dat betekent dat x loodrecht op zichzelf staat, m.a.w. ⟨x, x⟩ = 0. Maar dit impliceert dat x = 0. Stelling 14.3.1 Zij V een vectorruimte met inproduct en W een eindigdimensionale deelruimte. Dan bestaat er bij iedere v ∈ V een uniek bepaalde vector w ∈ W zó dat v − w ∈ W ⊥ . Bewijs: We zullen eerst een vector w aangeven die inderdaad de gewenste eigenschap heeft. Neem hiertoe een orthonormale basis e1 , . . . , em van W . Dan heeft de vector w = ⟨e1 , w⟩ e1 + ⟨e2 , w⟩ e2 + · · · + ⟨em , w⟩ em de eigenschap dat v − w ∈ W ⊥ . Om dit aan te tonen is het voldoende om te laten zien dat v − w ⊥ ei voor i = 1, 2, . . . , m. En inderdaad, ⟨ei , v − w⟩ = ⟨ei , v⟩ − = ⟨ei , v⟩ − m ∑ j=1 m ∑ ⟨ej , v⟩ ⟨ei , ej ⟩ ⟨ej , v⟩ δij j=1 = ⟨ei , v⟩ − ⟨ei , v⟩ = 0 De existentie van een w zo dat v − w ∈ W ⊥ is hiermee aangetoond. Nu moeten we nog laten zien dat w uniek bepaald is. Stel dat we een andere vector w′ hebben zo dat v − w′ ∈ W ⊥ . Dan geldt w − w′ = (v − w′ ) − (v − w) ∈ W ⊥ . 34 HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT Anderzijds geldt ook dat w − w′ ∈ W . Omdat W en W ⊥ een triviale doorsnede hebben, moet gelden w − w′ = 0, en dus w = w′ . Daarmee is ook de uniciteit van w aangetoond. 2 We noemen de vector w de loodrechte of orthogonale projectie van v op W . De afbeelding v 7→ w noemen we ook de orthogonale projectie op W en we zullen deze afbeelding aangeven met PW . Als verder e1 , . . . , em een orthonormale basis van W is, dan hebben in bovenstaand bewijs gezien dat PW (v) = ⟨e1 , v⟩ e1 + ⟨e2 , v⟩ e2 + · · · + ⟨em , v⟩ em . (14.1) Stelling 14.3.2 Neem notaties zoals hierboven. De afbeelding PW : V → V is een lineaire afbeelding. Bovendien geldt dat ⟨x, PW (y)⟩ = ⟨PW (x), y⟩ voor elk tweetal x, y ∈ V . Bewijs: Dat PW lineair is volgt direct uit formule (14.1). Omdat x − PW (x) in W ⊥ bevat is, geldt dat ⟨x, PW (y)⟩ = ⟨PW (x), PW (y)⟩. Dezelfde redenatie kunnen we ook voor y houden en daarmee zien we dat het laatste inproduct gelijk is aan ⟨PW (x), y⟩. 2 Tevens volgt uit bovenstaande de volgende belangrijke opmerking. Opmerking 14.3.3 Zij V een eindigdimensionale vectorruimte met inproduct en e1 , e2 , . . . , en een geordende orthonormale basis. Dan worden de coördinaten van een vector x ∈ V t.o.v e1 , . . . , en gegeven door ⟨e1 , x⟩ , ⟨e2 , x⟩ , . . . , ⟨en , x⟩. Een tweede belangrijke opmerking betreft matrices van lineaire afbeeldingen ten opzichte van orthonormale bases. Opmerking 14.3.4 Zij V een eindigdimensionale vectorruimte met inproduct en e1 , e2 , . . . , en een geordende orthonormale basis. Zij A : V → V een lineaire afbeelding. Zij A de matrix van A ten opzichte van de basis e1 , e2 , . . . , en . Zij aij het matrix element van A op plaats i, j. Dan geldt aij = ⟨ei , Aej ⟩. Bewijs: Het matrixelement aij is de i-de coördinaat van Aej ten opzichte van de basis e1 , . . . , en . Dus volgt uit voorgaande opmerking dat aij = ⟨ei , Avj ⟩ 2 Voorbeeld 14.3.5. (optioneel) Een mooie toepassing van orthogonale projectie is die van de zogenaamde Fouriersommen. We starten met de continue ∫ functies op het interval [−π, π], dus C([−π, π]), met inproduct ⟨f, g⟩ = 1 π π π f (x)g(x)dx. We projecteren deze loodrecht op de ruimte W opgespannen door 1 √ , sin x, cos x, sin 2x, cos 2x, . . . , sin mx, cos mx. 2 We zagen eerder dat deze functies een orthormaal stelsel vormen. Ter illustratie √ starten we met de functie f (x) = x en projecteren deze op W . Omdat x/ 2 en 14.3. ORTHOGONALE PROJECTIES 35 √ x cos kx oneven zijn voor elke k, zien we dat het inproduct van x met 1/ 2 en de functie cos kx, k ∈ Z>0 nul is. We hoeven dus alleen het inproduct van x en sin kx, k ∈ Z>0 uit te rekenen. We doen dit met partiele integratie als volgt. ⟨x, sin kx⟩ = = ∫ 1 π x sin kxdx π −π ∫ π 1 1 π [−x(cos kx)/k]−π + cos kxdx π πk −π = 2 · (−1)k−1 /k. In de één na laatste regel gebruiken we dat de integraal van de symmetrische cos kx nul is. De gevraagde projectie wordt dus: ( fm (x) := 2 sin x sin 2x sin 3x sin mx − + + · · · + (−1)m−1 · 1 2 3 m ) . Hier zie je een plaatje van de grafieken van x en de projectie f10 (x), 4 2 -3 -2 1 -1 2 3 -2 -4 Hier zie je een plaatje van de grafieken van x en de projectie f50 (x), 4 2 -3 -2 1 -1 2 3 -2 -4 ♢ 36 HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT 14.4 Symmetrische afbeeldingen Zij V een vectorruimte met inproduct. Een lineaire afbeelding A : V → V heet symmetrisch als ⟨x, Ay⟩ = ⟨Ax, y⟩ voor alle x, y ∈ V . Uit Stelling 14.3.2 zien we bijvoorbeeld dat loodrechte projectie een symmetrische afbeelding is. Stelling 14.4.1 Zij V een vectorruimte met inproduct en A : V → V een symmetrische afbeelding. Dan gelden de volgende eigenschappen: 1. Eigenvectoren met verschillende eigenwaarden zijn orthogonaal. 2. Zij v een eigenvector en v ⊥ het orthogonaal complement van v. Dan geldt dat A(v ⊥ ) ⊂ v ⊥ . 3. Zij W een deelruimte van V zó dat A(W ) ⊂ W . Dan geldt voor het orthogonaal complement W ⊥ dat A(W ⊥ ) ⊂ W ⊥ . Bewijs: (i) Stel v1 , v2 een tweetal eigenvectoren met verschillende eigenwaarden λ1 , λ2 . Dan volgt uit ⟨v1 , Av2 ⟩ = ⟨Av1 , v2 ⟩ dat λ1 ⟨v1 , v2 ⟩ = λ2 ⟨v1 , v2 ⟩. Omdat λ1 ̸= λ2 volgt hieruit dat ⟨v1 , v2 ⟩ = 0. (ii) Zij u een vector loodrecht op v. Zij λ de eigenwaarde van v. Dan volgt uit ⟨v, Au⟩ = ⟨Av, u⟩ dat ⟨v, Au⟩ = λ ⟨v, u⟩ = 0. Dus Au staat ook loodrecht op v. (iii) Zij u ∈ W ⊥ . We moeten laten zien dat Au loodrecht staat op iedere w ∈ W . Dit volgt uit ⟨w, Au⟩ = ⟨Aw, u⟩, het feit dat A(w) ∈ W en u ∈ W ⊥ . 2 Het verband tussen symmetrische matrices en afbeeldingen wordt door de volgende stelling gegeven. Stelling 14.4.2 Zij V een eindigdimensionale basis met inproduct en e1 , . . . , en een geordende basis. Zij A : V → V een lineaire afbeelding. De matrix van A t.o.v. e1 , . . . , en geven we aan met A. Dan is A een symmetrische afbeelding precies dan als A een symmetrische matrix is. Bewijs: Stel dat A symmetrisch is. Geef de matrixelementen van A aan met aij . Dan geldt aij = ⟨ei , Aej ⟩. Omdat ⟨ei , Aej ⟩ = ⟨Aei , ej ⟩ = ⟨ej , Aei ⟩ = aji volgt hieruit dat aij = aji voor alle i, j. Dus A is een symmetrische matrix. Stel nu dat A een symmetrische matrix is. Zij x en y een willekeurig tweetal vectoren. Geef de coördinaten van x en y t.o.v. e1 , . . . , en aan met x1 ... xn y1 ... . yn 14.4. SYMMETRISCHE AFBEELDINGEN Dan geldt 37 y1 . ⟨x, Ay⟩ = (x1 , . . . , xn )A .. . yn Omdat A symmetrisch is, is dit precies gelijk aan x1 . (y1 , . . . , yn )A .. xn en dit is weer precies gelijk aan ⟨y, Ax⟩ = ⟨Ax, y⟩. Dus is A een symmetrische afbeelding. 2 De volgende stelling heeft een enorm aantal toepassingen zowel binnen als buiten de wiskunde. Stelling 14.4.3 (Hoofdstelling van de symmetrische afbeeldingen) Zij V een eindigdimensionale vectorruimte met inproduct en A : V → V een symmetrische afbeelding. Dan is er een orthonormale basis van eigenvectoren van A met reële eigenwaarden. Bewijs: Stel n = dim(V ). We zullen een bewijs geven met volledige inductie naar n. Voor het geval n = 1 zijn we klaar omdat elke vector in een ééndimensionale V eigenvector is. Stel nu n > 1 is en dat de Stelling waar is voor ruimten van dimensie n − 1. In het Lemma dat hierna komt zien we dat A een reële eigenwaarde λ heeft en dus ook een bijbehorende eigenvector v, waarvan we aannemen dat de lengte 1 is. Zij nu v⊥ het orthogonaal complement van v. Volgens Stelling 14.4.1(ii) geldt A : v⊥ → v⊥ . Omdat de dimensie van v⊥ gelijk is aan n − 1 volgt uit onze inductiehypothese dat v⊥ een orthonormale basis heeft bestaande uit eigenvectoren van A. Samen met v vormt dit een orthormale eigenvectorbasis van de ruimte V . 2 Lemma 14.4.4 Zij V een eindigdimensionale vectorruimte met inproduct en A : V → V een symmetrische afbeelding. Dan heeft A minstens één reële eigenwaarde. Bewijs: We bewijzen dit Lemma door naar symmetrische matrices te kijken. Wegens Stelling 14.4.2 is het voldoende om aan te tonen dat een symmetrische matrix een reële eigenwaarde heeft. Zij A een symmetrisch n × n-matrix. Zij λ een (complex) nulpunt van de eigenwaardenvergelijking. Dan zijn er complexe getallen z1 , z2 , . . . , zn , niet allen nul, zó dat z1 z1 .. .. . =λ A . . zn zn 38 HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT Vermenigvuldig dit van links met de rijvector (z 1 , . . . , z n ). We vinden, z1 .. (z 1 , . . . , z n )A = λ(|z1 |2 + · · · + |zn |2 ). . zn Neem aan beide zijden de getransponeerde en de complex geconjugeerde. Doordat A een symmetrische matrix is met reële coëfficienten, blijft de linkerzijde hetzelfde. De rechterzijde gaat over in λ(|z1 |2 + · · · + |zn |2 ). Gevolg, λ(|z1 |2 + · · · + |zn |2 ) = λ(|z1 |2 + · · · + |zn |2 ). Omdat de zi niet allen zijn, geldt |z1 |2 + · · · + |zn |2 > 0 en dus λ = λ. Conclusie: λ ∈ R. 2 14.5 Orthogonale matrices Een n×n-matrix U met reële coëfficienten heet orthogonale matrix als de kolommen van U een orthonormaal stelsel vormen ten aanzien van het dotproduct. Geef de matrixelementen van U aan met uij . Orthogonaliteit van U is equivalent met n ∑ uki ukj = δij k=1 voor alle i, j. Geven we de matrixelementen van de getransponeerde U t aan met (ut )ij dan gaat de orthogonaliteitsrelatie over in n ∑ (ut )ik ukj = δij . k=1 Links herkennen we de matrixvermenigvuldiging U t U en we kunnen de orthogonaliteitsrelaties dus ook samenvatten door U t U = In . Een matrix is dus orthogonaal precies dan als U t U = In . Anders gezegd, U t = U −1 . Uit U t U = In volgt tevens U U t = In . Met andere woorden, U t is ook orthogonaal en de rijen van U vormen dus een orthonormaal stelsel. Samenvattend: Stelling 14.5.1 Zij U een n × n-matrix met reële coëfficienten. Dan zijn de volgende beweringen equivalent, 1. U is ortogonaal. 2. U t U = In . 3. De rijen van U vormen een orthonormaal stelsel. 14.5. ORTHOGONALE MATRICES 39 Verder hebben orthogonale matrices de volgende eigenschappen: Stelling 14.5.2 Zij U, U ′ een tweetal orthogonale n × n-matrices. Dan geldt: 1. det(U ) = ±1. 2. U −1 is orthogonaal. 3. U U ′ is orthogonaal. Bewijs: Merk allereerst op dat U t U = In impliceert det(U t )det(U ) = 1. Omdat det(U t ) = det(U ) volgt hieruit dat (det(U ))2 = 1 en dus det(U ) = ±1. Als U orthogonaal is, dan is U t ook orthogonaal en dus ook U −1 = U t . Merk op dat (U U ′ )t U U ′ = (U ′ )t U t U U ′ = (U ′ )t U ′ = In . Dus U U ′ is orthogonaal. 2 Tenslotte volgt hier nog een uitspraak over de complexe nulpunten van de eigenwaardevergelijking van een orthogonale matrix. Stelling 14.5.3 Zij U een orthogonale matrix en λ ∈ C een nulpunt van de eigenwaardevergelijking det(U − λIn ) = 0. Dan geldt |λ| = 1. In het bijzonder zijn de reële eigenwaarden van een orthogonale matrix ±1. We kunnen met de gevonden λ ∈ C de bijbehorende complexe eigenvector bepalen, zeg (z1 , z2 , . . . , zn )t met zi ∈ C. Met andere woorden, z1 z1 . . U .. = λ .. . zn zn Neem hiervan de complex geconjugeerde en de getransponeerde, (z1 , . . . , zn )U t = λ(z1 , . . . , zn ) Voer hiermee een matrixvermenigvuldiging van links uit op de eerste relatie: z1 z1 . t .. (z1 , . . . , zn )U U = λλ(z1 , . . . , zn ) .. . . zn zn Gebruik nu dat U t U = In en we vinden: |z1 |2 + · · · + |zn |2 = |λ|2 (|z1 |2 + · · · + |zn |2 ). Omdat niet alle zi nul zijn geldt dat |z1 |2 + · · · + |zn |2 > 0 en we concluderen na wegdeling van deze som dat |λ| = 1. 2 40 HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT 14.6 Orthogonale afbeeldingen Zij V een vectorruimte met inproduct. Een lineaire afbeelding U : V → V heet orthogonale afbeelding als ||U x|| = ||x|| voor elke x ∈ V . Met andere woorden, een orthogonale afbeelding is een lengtebehoudende lineaire afbeelding. Stelling 14.6.1 Zij V een vectorruimte met inproduct en U : V → V een orthogonale afbeelding. Dan geldt: 1. ⟨U x, U y⟩ = ⟨x, y⟩ voor alle x, y ∈ V . 2. Als dim(V ) eindig is, dan is U bijectief. 3. De (reële) eigenwaarden van U zijn ±1. 4. Zij v1 en v2 een tweetal eigenvectoren van U met eigenwaarden respectievelijk 1 en −1. Dan zijn v1 en v2 orthogonaal. 5. Zij v een eigenvector van U en v⊥ het orthogonaal complement van v. Dan geldt U : v⊥ → v⊥ . 6. Zij W ⊂ V een eindig-dimensionale deelruimte zo dat U (W ) ⊂ W . Zij W ⊥ het orthogonaal complement van W . Dan geldt U (W ⊥ ) ⊂ W ⊥ . Bewijs: (1) Merk op dat ||U (x + y)|| = ||x + y||. Neem het kwadraat aan beide zijden en werk uit. We vinden: ⟨U x, U x⟩ + 2 ⟨U x, U y⟩ + ⟨U y, U y⟩ = ⟨x, x⟩ + 2 ⟨x, y⟩ + ⟨y, y⟩ . Omdat ⟨U x, U x⟩ = ⟨x, x⟩ en ⟨U y, U y⟩ = ⟨y, y⟩ houden we over dat ⟨U x, U y⟩ = ⟨x, y⟩. (2) Stel dim(V ) eindig. Een lineaire afbeelding A : V → V is in dat geval bijectief precies dan als de kern triviaal is. Stel U x = 0. Dan volgt uit ||U x|| = ||x|| dat ||x|| = 0. De kern van U is dus triviaal en U bijectief. (3) Neem een eigenvector v met eigenwaarde λ. Dan geldt ||U v|| = ||v||. De linkerzijde is gelijk aan ||λv|| = |λ| · ||v||. Aangezien de rechterzijde gelijk is aan ||v|| > 0 volgt dat |λ| = 1 en dus λ = ±1. (4) Merk op dat ⟨U v1 , U v2 ⟩ = ⟨v1 , v2 ⟩. Gebruik makend van U v1 = v1 en U v2 = −v2 volgt hieruit dat − ⟨v1 , v2 ⟩ = ⟨v1 , v2 ⟩. Conclusie: ⟨v1 , v2 ⟩ = 0 (5) Stel dat w ⊥ v. We moeten laten zien dat U w ⊥ v. Dit volgt uit ⟨U w, U v⟩ = ⟨w, v⟩ = 0 en het feit dat ⟨U w, U v⟩ gelijk is aan λ ⟨U w, v⟩. (6) Stel u ∈ W ⊥ . We moeten laten zien dat U u ∈ W ⊥ . Merk op dat voor elke w ∈ W geldt: ⟨U u, U w⟩ = ⟨u, w⟩ = 0. De vector U u staat dus loodrecht op alle vectoren in U (W ). Omdat U beperkt tot W bijectief is (eigenschap (ii)), geldt U (W ) = W en dus staat U u loodrecht op alle vectoren uit W . 2 14.6. ORTHOGONALE AFBEELDINGEN 41 Bij eigenschap (2) kunnen we opmerken dat de eis dim(V ) < ∞ essentieel is. Neem bijvoorbeeld de oneindig dimensionale vectorruimte R∞ 0 met standaard inproduct. Het is makkelijk te controleren dat de afbeelding (x1 , x2 , x3 , . . .) 7→ (0, x1 , x2 , x3 , . . .) orthogonaal is. Maar hij is niet surjectief, en dus ook niet bijectief. Wel volgt uit het bewijs van (2) dat elke orthogonale U : V → V injectief is. Laten we ons nu beperken tot orthogonale U : V → V met dim(V ) eindig. Het blijkt dat de theorie van orthogonale afbeeldingen gewoon neerkomt op de theorie van orthogonale matrices. Stelling 14.6.2 Zij V een eindigdimensionale vectorruimte met inproduct en e1 , . . . , en een geordende orthonormale basis. Zij U : V → V een lineaire afbeelding. De matrix van U t.o.v. e1 , . . . , en geven we aan met U. Dan is U een orthogonale afbeelding precies dan als U een orthogonale matrix is. Bewijs: Neem eerst aan dat U orthogonaal is. Geef ∑n de matrixelementen van U aan met uij . Dan geldt voor elke i dat U ei = k=1 uki ek . We passen dit toe op de gelijkheid ⟨U ei , U ej ⟩ = ⟨ei , ej ⟩ = δij . Uitwerking van de linkerzijde geeft: ⟩ ⟨ n n ∑ ∑ ⟨U ei , U ej ⟩ = uki ek , ulj el k=1 = n n ∑ ∑ l=1 uki ulj ⟨ek , el ⟩ k=1 l=1 = n ∑ uki ukj k=1 ∑ We zien dat orthogonaliteit van U impliceert dat nk=1 uki ukj = δij voor alle i, j. Met andere woorden, U is orthogonaal. Stel omgekeerd dat U orthogonaal is. Stel y = U x met x ∈ V willekeurig. We moeten laten zien dat ||y|| = ||x||. Geef de coördinaten van x t.o.v. e1 , . . . , en aan met de coördinaten kolom (x1 , . . . , xn )t . Dan worden de coördinaten van y gegeven door y1 x1 ... = U ... xn yn Dus y1 x1 .. t .. 2 = (x1 , . . . , xn )U U ||y|| = (y1 , . . . , yn ) . . xn yn en omdat U t U = In volgt hieruit dat x1 . ||y||2 = (x1 , . . . , xn ) .. = ||x||2 . xn 42 HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT 2 14.7 Standaardvorm orthogonale afbeeldingen We bepalen hoe orthogonale afbeeldingen U : V → V er uit zien als dim(V ) = 2. Daartoe ( bepalen ) we de orthogonale 2 × 2-matrices. Dat wil zeggen, reële a c matrices met de condities b d 1. a2 + c2 = 1 2. b2 + d2 = 1 3. ab + cd = 0 Uit de eerste vergelijking volgt het bestaan van een hoek ϕ zó dat a = cos ϕ en c = sin ϕ. Uit de derde vergelijking volgt dan b cos ϕ + d sin ϕ = 0. Oplossing hiervan geeft dat b = −r sin ϕ, d = r cos ϕ voor zekere r ∈ R. Dit invullen in de tweede vergelijking geeft r2 = 1 en dus r = ±1. We concluderen dat orthogonale 2 × 2-matrices één van de volgende vormen aanneemt, ( ) ( ) cos ϕ − sin ϕ cos ϕ sin ϕ sin ϕ cos ϕ sin ϕ − cos ϕ In het eerste type matrix herkennen we de rotatie in het platte vlak om de hoek ϕ. In het tweede voorbeeld zien we dat de eigenwaardevergelijking luidt λ2 −1 = 0. Er zijn dus twee reële eigenwaarden ±1. De bijbehorende eigenvectoren staan loodrecht op elkaar (Stelling 14.6.1(iv). We hebben dus te maken met een orthogonale spiegeling. Merk ook op dat de determinant van de matrix gelijk is aan 1 in het eerste geval en −1 in het tweede geval. We concluderen: Stelling 14.7.1 Een orthogonale afbeelding U : V → V met dim(V ) = 2 is ofwel een draaiing, ofwel een spiegeling. In het eerste geval geldt det(U ) = 1, in het tweede geval det(U ) = −1. We onderzoeken nu orthogonale afbeeldingen U : V → V met dim(V ) = 3. De eigenwaardevergelijking heeft graad 3. Er is dus altijd een reële oplossing λ en deze moet dus ±1 zijn. Geef een bijbehorende eigenvector aan met v. Zij W het orthogonaal complement van v. Volgens Stelling 14.6.1 (v) geldt dat U : W → W . Omdat dim(W ) = 2, is U beperkt tot W een draaiing of spiegeling. We hebben nu vier mogelijkheden: 1. λ = 1 en U : W → W is een draaiing. In dit geval kunnen we U zien als een draaiing met v als draaiingsas. Merk op dat det(U ) = 1. 2. λ = 1 en U : W → W is een spiegeling. In W zijn er eigenvectoren v′ en v′′ met eigenwaarde 1 respectievelijk −1. In dit geval hebben we te maken met een spiegeling. Merk op dat det(U ) = −1. 14.8. OPGAVEN 43 3. λ = −1 en U : W → W is een draaiing. Ditmaal hebben we te maken met een draaiing in het vlak W rond de as v, gevolgd door een loodrechte spiegeling in het vlak W waarbij v in −v overgaat. We noemen dit een draaispiegeling. We hebben nu det(U ) = −1. 4. λ = −1 en U : W → W is een spiegeling. In het vlak W zijn er twee onderling loodrechte vectoren v′ en v′′ met eigenwaarden 1 respectievelijk −1. Merk nu op dat we een draaiing om de hoek π in het vlak opgespannen door v en v′′ hebben. Merk op dat det(U ) = 1. Samenvattend, een orthogonale afbeelding van een driedimensionale ruimte naar zichzelf kan een draaiing of een draaispiegeling zijn. In het eerste geval is de determinant 1, in het tweede −1. Voor eindigdimensionale vectorruimten in het algemeen hebben we de volgende stelling. Stelling 14.7.2 (Hoofdstelling orthogonale afbeeldingen) . Zij U : V → V een orthogonale afbeelding en dim(V ) = n < ∞. Zij E1 de eigenruimte van U bij de eigenwaarde 1 en E−1 de eigenruimte bij −1. Dan zijn er een eindig aantal (mogelijk nul) onderling loodrechte, tweedimensionale deelruimten W1 , W2 , . . . , Ws ⊂ V zó dat 1. Elke Wi staat loodrecht op zowel E1 als E−1 . 2. U : Wi → Wi en U beperkt tot Wi is een draaiing. 3. dim(E1 ) + dim(E−1 ) + 2s = n. (Bewijs volgt nog). 14.8 Opgaven 14.8.1. Gegeven is de vectorruimte R[X] met inproduct ⟨f (X), g(X)⟩ = ∫Opgave 1 f (t)g(t)dt. 0 1. Bepaal van elk van de vectoren p1 (X) = 1 + X, p2 (X) = 1 + X 2 , p3 (X) = X + X 2 de lengte. Bepaal ook van elk tweetal de hoek ertussen. 2. Vindt alle polynomen van graad ≤ 2 die loodrecht op p1 (X) staan. 14.8.2. Gegeven is de vectorruimte R[X] met inproduct ⟨f (X), g(X)⟩ = ∫Opgave 1 f (t)g(t)dt. 0 1. Bepaal een polynoom van graad ≤ 2 dat loodrecht staat op alle vectoren X n met n ≥ 1. 44 HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT 2. Toon aan dat het enige polynoom in R[X] dat loodrecht staat op alle vectoren X n met n ≥ 1 het nulpolynoom is. (Hint: er is gegeven dat de determinant det(1/(i + j))i,j=1,...,m ̸= 0 is voor alle m ≥ 1). Opgave 14.8.3. Beschouw R3 met standaard inprodukt en de lineaire afbeelding A : R3 → R3 met als matrix t.o.v. de standaardbasis, 2 3 6 1 A = 3 −6 2 7 6 2 −3 1. Toon aan dat A zowel een orthogonale als een symmetrische afbeelding is. 2. Bewijs, zonder berekening van de eigenwaardevergelijking, dat de eigenwaarden 1, −1, −1 zijn. 3. Bepaal een 3 × 3-matrix Q en een 3 × 3 diagonale matrix D zó dat QAQ−1 = D. Opgave 14.8.4. Zij V de vectorruimte R4 met daarop het standaard inproduct. Zij W ⊂ V de deelruimte opgespannen door de vectoren (1, 1, 1, 1), (5, −1, 5, −1) en (2, 1, −8, 1). 1. Bepaal met behulp van het Gram-Schmidt procédé een orthonormale basis van W . 2. Zij f1 , f2 , f3 een orthonormale basis van W die je in onderdeel (a) gevonden hebt. Vul deze basis aan tot een orthonormale basis f1 , f2 , f3 , f4 van R4 . 3. De orthogonale spiegeling S : R4 → R4 ten aanzien van de deelruimte W wordt gegeven door Sfi = fi voor i = 1, 2, 3 en Sf4 = −f4 . Bepaal de matrix van S ten opzichte van de standaardbasis van R4 . Opgave 14.8.5. Beschouw de vectorruimte Mnn van n × n-matrices met reële coëfficienten. ∑ 1. Laat zien dat Spoor(AB t ) = ni,j=1 Aij Bij waarin Aij en Bij de matrixelementen van A resp. B zijn. 2. Bewijs nu dat ⟨A, B⟩ = Spoor(AB t ) een inproduct op Mnn is. Opgave 14.8.6. Gegeven is de vectorruimte Mnn over R bestaande uit n × nmatrices met elementen in R. Als inproduct nemen we ⟨A, B⟩ = Spoor(AB t ) sym (zie Opgave 14.8.5). Verder zijn gegeven de deelruimten Mnn van symmetrische asym matrices (dwz At = A) en Mnn van antisymmetrische matrices (dwz At = −A). 1. Stel dat A een symmetrische matrix is en B een antisymmetrische. Bewijs dat ⟨A, B⟩ = 0. 14.8. OPGAVEN 45 asym sym 2. Bewijs dat de doorsnijding van Mnn en Mnn uit de nulvector bestaat. 3. Bewijs dat iedere n×n-matrix te schrijven is als som van een symmetrische en een antisymmetrische matrix. sym asym 4. Bewijs dat Mnn het orthogonaal complement is van Mnn . Opgave 14.8.7. Zij V een reële vectorruimte van dimensie k met inproduct ⟨., .⟩. Stel dat a1 , a2 , . . . , ak een basis van V is. Zij tenslotte A : V → V de lineaire afbeelding gegeven door A : x 7→ ⟨a1 , x⟩ a1 + ⟨a2 , x⟩ a2 + · · · + ⟨ak , x⟩ ak a) Bewijs dat A een symmetrische afbeelding is (d.w.z. ⟨Ax, y⟩ = ⟨x, Ay⟩ voor alle x, y ∈ V ) b) Bewijs dat ⟨Ax, x⟩ > 0 voor alle x ∈ V . Laat vervolgens zien dat λ > 0 voor elke eigenwaarde λ van A. Stel nu dat A tevens een orthogonale afbeelding is. c) Laat met behulp van voorgaand onderdeel zien dat alle eigenwaarden van A gelijk aan 1 zijn. d) Leidt uit voorgaand onderdeel af dat A de identieke afbeelding is, d.w.z. Ax = x voor alle x ∈ V . Opgave 14.8.8. 1. Bewijs dat de afbeelding die aan elk tweetal u = (x, y, z), u′ = (x′ , y ′ , z ′ ) ∈ R3 het getal 2 −1 0 x ⟨ ′ ⟩ ′ ′ ′ u , u = (x , y , z ) −1 2 −1 y 0 −1 2 z toekent, een inwendig produkt op R3 is. 2. Bepaal een orthonormale basis van het orthogonale complement van (0, 0, 1)t met betrekking tot het inwendig produkt uit het voorgaande onderdeel. Opgave 14.8.9. Gegeven is R4 met het standaard inprodukt en standaardcoördinaten x, y, z, u. Zij de P : R4 → R4 de lineaire afbeelding die elke x ∈ R4 afbeeldt naar zijn loodrechte projektie op het hypervlak x + y − z + u = 0. 1. Bepaal het beeld van (1, 2, 2, 1)t onder P . 2. Bepaal de eigenwaarden en eigenvektoren van P . 3. Laat zien dat P een symmetrische afbeelding is. 4. Bepaal de matrix van P ten opzichte van de standaardbasis van R4 . 46 HOOFDSTUK 14. VECTORRUIMTEN MET INPRODUCT Opgave 14.8.10. Gegeven is de vectorruimte R[X] met inproduct ∫ ⟨f (X), g(X)⟩ = 1 f (t)g(t)dt. −1 Voer de Gram-Schmidt procedure uit op 1, X, X 2 . Opgave 14.8.11. Gegeven is de vectorruimte R[X] met inproduct ∫ ∞ 1 ⟨f (X), g(X)⟩ = √ f (t)g(t) exp(−t2 )dt. π −∞ Voer Gram-Schmidt procedure uit op 1, X, X 2 . (Hint: er is gegeven dat ∫ ∞ de √ n 2 −∞ x exp(−x )dx gelijk is aan 0 als n oneven en (1/2) · (3/2) · · · (k − 1/2) π als n = 2k even.) Opgave 14.8.12. Zij M2 de vectorruimte van 2 × 2-matrices met reële elementen en gebruikelijke optelling en scalaire vermenigvuldiging.Beschouw de funktie die aan ieder tweetal X, Y ∈ M2 het getal < X, Y >= Spoor(XY t ) toekent. In de volgende onderdelen mag je gebruiken dat Spoor(AB) = Spoor(BA) en Spoor(A) = Spoor(At ). a) Bewijs dat < X, Y > een inwendig produkt op M2 is. Zij C een gegeven symmetrische 2 × 2-matrix. b) Bewijs dat de lineaire afbeelding T : M2 → M2 gegeven door T (X) = CX − XC symmetrisch is. (Symmetrisch wil zeggen: < T (X), Y >=< X, T (Y ) > voor alle X, Y ∈ M2 ). c) Stel dat λ, µ de eigenwaarden van C zijn. Bewijs dat T de eigenwaarden 0, 0, λ − µ, µ − λ heeft. Opgave 14.8.13. Gegeven is de vectorruimte R[X] met inproduct ∫ ⟨f (X), g(X)⟩ = 1 f (t)g(t)dt. −1 Verder zijn gegeven de deelruimten R[X]sym bestaande uit de polynomen f (X) met f (−X) = f (X) (symmetrische polynomen) en de deelruimte R[X]asym gegeven door de polynomen f (X) met f (−X) = −f (X) (antisymmetrische polynomen). 1. Stel f ∈ R[X]sym , g ∈ R[X]asym . Bewijs dat ⟨f (X), g(X)⟩ = 0. 2. Geef een basis van R[X]sym en van R[X]asym . 3. Bewijs dat elk element uit R[X] te schrijven is als som van een symmetrisch en een antisymmetrisch polynoom. 4. Bewijs dat R[X]sym het orthogonaal complement van R[X]asym is. 14.8. OPGAVEN 47 Opgave 14.8.14. Zij V een vectorruimte over R met inproduct ⟨., .⟩. Zij W een deelruimte van V en W ⊥ het orthogonaal complement van W in V . 1. Bewijs dat als dim(W ) < ∞ dan V = W ⊕ W ⊥ . 2. Kun je een voorbeeld vinden waarbij V niet gelijk is met W ⊕W ⊥ ? (Hint: zie Opgave 14.8.2). Opgave 14.8.15. Gegeven is de vectorruimte V over R van alle functies f : [0, 1] → R met de eigenschap dat∫ alle afgeleiden van f bestaan en nul zijn in 1 0, 1. Neem als inproduct ⟨f, g⟩ = 0 f (t)g(t)dt. Definieer de lineaire afbeelding A : V → V gegeven door A : f (x) 7→ f ′ (x). 1. Bewijs dat ⟨f, A(g)⟩ = ⟨A(f ), g⟩ voor alle f, g ∈ V (hint: gebruik partiele integratie). 2. Bewijs dat A2 : V → V een symmetrische afbeelding is. 3. Bepaal de eigenvectoren van A2 . Opgave 14.8.16. Gegeven is de vectorruimte R[X] met inproduct ∫ ∞ 1 f (t)g(t) exp(−t2 )dt. ⟨f (X), g(X)⟩ = √ π −∞ Definieer de lineaire afbeelding A : R[X] → R[X] door A : p(X) 7→ p′ (X) − Xp(X). Definieer de lineaire afbeelding B : R[X] → R[X] door B : p(X) 7→ Xp(X). ( ) d p(X) exp(−X 2 /2) . 1. Bewijs dat A(p(X)) = exp(X 2 /2) dX 2. Laat zien dat ⟨p(X), A(q(X))⟩ = − ⟨A(p(X), q(X)⟩ voor elk tweetal p, q ∈ R[X] (hint: gebruik partiele integratie). 3. Bewijs dat A2 een symmetrische afbeelding is. 4. Laat zien dat A2 geen eigenvectoren heeft. 5. Bewijs dat B een symmetrische afbeelding is. 6. Bepaal de eigenvectoren van A2 − B 2 van graad ≤ 2.