Hoofdstuk 4 Inproductruimten 4.1 Inproductruimte : definitie en voorbeelden R DEFINITIE 4.1 inproduct Zij V een vectorruimte over F (met F = R of C) Een afbeelding < , > van V × V naar F wordt een inproduct op V genoemd als voldaan is aan : (i) < ~v , ~v > ≥ 0 en < ~v , ~v >= 0 als en slechts als ~v = ~o (ii) < ~v , w ~ >= < w, ~ ~v > (iii) < k ~v1 + l ~v2 , w ~ >= k < ~v1 , w ~ > + l < ~v2 , w ~ > voor alle ~v , w, ~ ~v1 , ~v2 ∈ V en k, l ∈ F. Opmerkingen : 1. Voorwaarde (i) staat gekend als het positief–definiet zijn van het inproduct. 2. Is F = R dan wordt voorwaarde (ii) : < ~v , w ~ >=< w, ~ ~v >, m.a.w. het inproduct is dan symmetrisch. 3. Voorwaarde (iii) drukt uit dat het inproduct lineair is in de eerste component. Lineariteit in de tweede component wordt niet geëist. Wel volgt uit (ii) en (iii) dat < ~v , k w ~1 + l w ~ 2 >= k̄ < ~v , w ~ 1 > + ¯l < ~v , w ~2 > voor alle ~v , w, ~ ~v1 , ~v2 ∈ V en k, l ∈ F en dit betekent ook lineariteit in de tweede component wanneer het veld F gelijk is aan R. ~ >= 0 voor elke w. ~ 4. Uit voorwaarde (iii) volgt in het bijzonder dat < ~o, w Met voorwaarde (ii) volgt daaruit ook dat < ~v , ~o >= 0 voor elke ~v . 4–1 4–2 Inproductruimten R DEFINITIE 4.2 inproductruimte Een inproductruimte is een vectorruimte voorzien van een inproduct. Een reële inproductruimte heet ook een euclidische ruimte. Een complexe inproductruimte heet ook een unitaire ruimte. voorbeelden : • Het scalair product tussen (meetkundige) vectoren in de ruimte, gedefinieerd \ via ~v · w ~ = |~v | |w| ~ cos (~ v , w) ~ is een inproduct dat de ruimte structureert tot een driedimensionale euclidische ruimte. • Beschouw de vectorruimte Fn van de geordende n−tallen met elementen in F en definiëer < ~x, ~y > voor ~x = (x1 , x2 , . . . , xn ) en ~y = (y1 , y2 , . . . , yn ) door : n P xi y i < ~x, ~y >= i=1 Men gaat na dat dit een inproduct is (het zogeheten standaardinproduct op Fn ). Naast dit standaardinproduct bestaan er nog vele andere niet–standaardinproducten op Fn . Is A een reële symmetrische, positief–definiete matrix (dit is waarvoor alle leidende minoren een strikt positieve determinant bezitten), dan is < ~x, ~y >= [~y ]T · A · [~x] een niet–standaardinproduct op Rn . • Beschouw de vectorruimte V = C0 ([a, b], R) van de reëelwaardige functies die gedefinieerd en continu zijn over het gesloten interval [a, b]. Men gaat na dat < f, g >= Rb f (x)g(x) dx een inproduct definieert op V. a • Beschouw de vectorruimte V = M at(m, n, F) van de m × n−matrices met elementen in F. Is F = R dan definieert < A, B >= tr(B T · A) een inproduct op V. Analoog definieert < A, B >= tr(B † · A) een inproduct in het geval F = C T (met B † = B de hermitisch toegevoegde matrix van B ) • Algebra voor ingenieurs • Hoofdstuk 4 Inproductruimten 4.2 4–3 Norm en genormeerde vectorruimte Zij V een inproductruimte. √ Voor ~v ∈ V definieert men : ||~v || = < ~v , ~v > en men noemt ||~v || de norm (afgeleid van het inproduct), de grootte of de lengte van ~v . De norm die afgeleid is van het standaardinproduct op Rn noemt men ook de euclidische norm of de 2–norm. De norm die is afgeleid van het inproduct < A, B >= tr(B T · A) op M at(m, n, R) staat gekend als de Frobeniusnorm s . Er geldt : ||A|| = p tr(AT · A) = XX i |aij |2 j De norm afgeleid van een inproduct bezit een aantal eigenschappen die we formuleren in de volgende stelling. ¥ STELLING 4.1 eigenschappen van de normfunctie Zij || · || de norm afgeleid van het inproduct van de inproductruimte V . Dan gelden volgende eigenschappen : (i) ||~v || ≥ 0 en ~v = 0 als en slechts als ~v = ~o (ii) ||k ~v || = |k| ||~v || (iii) | < ~v , w ~ > | ≤ ||~v || · ||w|| ~ (ongelijkheid van Cauchy–Schwarz–Buniakovski) (iv) ||~v + w|| ~ ≤ ||~v || + ||w|| ~ (driehoeksongelijkheid of ongelijkheid van Minkowski) bewijs : (i) en (ii) triviaal (iii) als w ~ = ~o dan is de uitspraak triviaal, onderstel dus dat w ~ 6= ~o. Er geldt : ||~v − r < ~v , w ~ > w|| ~ 2 ≥ 0 of dus < ~v − r < ~v , w ~ > w, ~ ~v − r < ~v , w ~ >w ~ >≥ 0. Na uitwerking komt er ||~v ||2 − 2r < ~v , w ~ > < ~v , w ~ > + r2 < ~v , w ~ > < ~v , w ~ >||w|| ~ 2≥0 Gelet op < ~v , w ~ > < ~v , w ~ > = | < ~v , w ~ > |2 komt er ||~v ||2 − 2r| < ~v , w ~ > |2 + r2 | < ~v , w ~ > |2 ||w|| ~ 2≥0 1 , dan wordt bovenstaande uitdrukking Kies nu r = ||w|| ~ 2 2 | < ~v , w ~ > |2 | < ~v , w ~ > |2 2 2 2 ||~v || − | < ~v , w ~ >| + ≥ 0 of nog ||~v || − ≥0 ||w|| ~ 2 ||w|| ~ 2 ||w|| ~ 2 waaruit uiteindelijk | < ~v , w ~ > | ≤ ||~v || · ||w|| ~ (iv) ||~v + w|| ~ 2 = ||~v ||2 + ||w|| ~ 2 + < ~v , w ~ > + < w, ~ ~v > Hoofdstuk 4 • Algebra voor ingenieurs • 4–4 Inproductruimten = ||~v ||2 + ||w|| ~ 2 + < ~v , w ~ > +< w, ~ ~v > = ||~v ||2 + ||w|| ~ 2 + 2 Re(< ~v , w ~ >) 2 2 Deze uitdrukking is kleiner dan of gelijk aan ||~v || + ||w|| ~ + 2 | < ~v , w ~ > | ≤ ||~v ||2 + ||w|| ~ 2 + 2 ||~v || ||w|| ~ (gesteund op Cauchy–Schwarz) en dat laatste is gelijk aan (||~v || + ||w||) ~ 2 waaruit het gestelde volgt . ¤ Opmerkingen : • Eigenschap (i) laat toe om met elke ~v 6= ~o een unieke eenheidsvector ~e te ~v associëren, namelijk : ~e = ||~v || • Is F = R en V een euclidische ruimte, dan volgt uit de ongelijkheid van Cauchy– Schwarz–Buniakovski dat voor elke tweetal vectoren ~v en w ~ verschillend van ~o < ~v , w ~> voldaan is aan −1 ≤ ≤ 1 zodat een unieke ϑ ∈ [0, π] bestaat waarvoor ||~v || ||w|| ~ < ~v , w ~> cos ϑ = . ||~v || ||w|| ~ Men noemt ϑ de hoek tussen de vectoren ~v en w ~. • De gelijkheid in eigenschap (iii) en eigenschap (iv) geldt enkel als ~v en w ~ lineair afhankelijk zijn. Figuur 4.1: Cauchy (1789–1857), Schwarz (1843–1921) en Buniakovski (1804–1889) De eigenschappen (i), (ii) en (iv) van de norm afgeleid van een inproduct, kunnen dienen als uitgangspunt voor het definiëren van een normfunctie los van een inproduct. Men definieert namelijk : • Algebra voor ingenieurs • Hoofdstuk 4 Inproductruimten R DEFINITIE 4.3 4–5 norm en genormeerde vectorruimte Zij V een vectorruimte. Een afbeelding n : V → R heet een norm op V als voldaan is aan : (i) n(~v ) ≥ 0 en n(~v ) = 0 als en slechts als ~v = ~o (ii) n(k ~v ) = |k| n(~v ) (iii) n(~v + w) ~ ≤ n(~v ) + n(w) ~ Een vectorruimte V voorzien van een norm, wordt een genormeerde vectorruimte genoemd. Is V een inproductruimte, dan is V ook een genormeerde vectorruimte met als norm p n de van het inproduct afgeleide normfunctie n(~v ) = ||~v || = < ~v , ~v >. Omgekeerd kan men in een genormeerde vectorruimte niet altijd een inproduct afleiden uit de norm, wat betekent dat niet iedere genormeerde vectorruimte ook automatisch een inproductruimte is. Voorbeelden van niet–inproductnormen zijn de zogeheten 1–norm en de maximumnorm op Fn resp. gedefinieerd door ||(x1 , . . . , xn )||1 = |x1 | + |x2 | + . . . + |xn | en door ||(x1 , . . . , xn )||∞ = max(|x1 |, . . . , |xn |). Het is echter wel mogelijk om een nodige en voldoende voorwaarde te formuleren opdat van de norm n van een genormeerde vectorruimte (V, n) een inproduct <, > zou kunnen worden afgeleid waarvoor (V, <, >) tot inproductruimte wordt gestructureerd. Deze stelling werd bewezen door Pascual Jordan (1902–1980) (vaak verward met Camille Jordan (1838–1922)) en John von Neumann (1903–1957), twee vooraanstaande wiskundigen die ook belangrijk werk verricht hebben in de quantumfysica. ¥ STELLING 4.2 stelling van P. Jordan–Von Neumann Zij (V, n) een reële of complexe genormeerde vectorruimte Als de parallellogramregel n(~v + w) ~ 2 + n(~v − w) ~ 2 = 2(n(~v )2 + n(w) ~ 2 ) geldt, dan kan een inproduct uit de normfunctie n worden afgeleid waardoor V wordt gestructureerd tot een inproductruimte bewijs : Als F = R dan kan men bewijzen dat de afbeelding <, > gedefinieerd door < ~v , w ~ >= 1 1 2 2 n(~ v + w) ~ − n(~ v − w) ~ voldoet. 4 4 Hoofdstuk 4 • Algebra voor ingenieurs • 4–6 Inproductruimten Als F = C dan kan men bewijzen dat de afbeelding <, > gedefinieerd door < ~v , w ~ >= j j 1 1 2 2 2 2 n(~v + w) ~ − 4 n(~v − w) ~ + 4 n(~v − j w) ~ − 4 n(~v + j w) ~ voldoet. ¤ 4 De formules om een inproduct af te leiden uit de norm in bovenstaand bewijs, staan gekend als de polarisatieformules. Figuur 4.2: Pascual Jordan en John von Neumann In een genormeerde vectorruimte kan de norm worden gebruikt om een afstand te definiëren : d(~v , w) ~ = n(~v − w) ~ . Met deze metriek wordt een genormeerde vectorruimte ook een metrische ruimte. Is deze compleet (elke cauchyrij bezit een limiet), dan noemt men de genormeerde vectorruimte een banachruimte. Alle eindig–dimensionale genormeerde vectorruimten zijn banachruimten. Een hilbertruimte is een bijzondere banachruimte. Het is een inproductruimte waarvoor de genormeerde vectorruimte met de norm afgeleid van het inproduct compleet is. Banachruimten vormen het natuurlijk kader voor de functionaalanalyse. Deze tak van de moderne analyse bestudeert (in hoofdzaak oneindigdimensionale) functieruimten en operatoren van dergelijke ruimten. De wiskundige beschrijving van de quantummechanica is in belangrijke mate gebaseerd op hilbertruimten. • Algebra voor ingenieurs • Hoofdstuk 4 Inproductruimten 4–7 Figuur 4.3: Stefan Banach (1892–1945) en David Hilbert (1862–1943) 4.3 Orthogonaliteit 4.3.1 Orthogonale vectoren Het inproduct in een inproductruimte laat niet alleen toe om de norm van een vector in te voeren, maar ook het belangrijke begrip orthogonaliteit. R DEFINITIE 4.4 orthogonaliteit van vectoren Zij V een inproductruimte. Twee vectoren ~v en w ~ heten orthogonaal indien < ~v , w ~ >= 0, notatie : ~v ⊥ w. ~ Opmerkingen : • ~v ⊥ w ~ ⇐⇒ w ~ ⊥ ~v De orthogonaliteitsrelatie is dus symmetrisch. Dat volgt uit (ii) in de definitie van inproduct. • ~o ⊥ ~v voor iedere ~v ∈ V , de nulvector is orthogonaal met iedere vector. • ~v ⊥ ~v ⇒ ~v = ~o. Dit volgt uit het positief–definiet zijn van het inproduct. Men zegt dat een inproductruimte geen isotrope vectoren bevat. Hoofdstuk 4 • Algebra voor ingenieurs • 4–8 Inproductruimten De nu volgende stelling karakteriseert orthogonale vectoren door een gelijkheid van normen. ¥ STELLING 4.3 stelling van Pythagoras Zij V een inproductruimte en ~v , w ~ ∈V. 2 Als ~v ⊥ w ~ dan geldt ||~v + w|| ~ = ||~v ||2 + ||w|| ~ 2 Is V een reële inproductruimte, dan geldt ook de omgekeerde implicatie bewijs : ||~v + w|| ~ 2 =< ~v + w, ~ ~v + w ~ >=< ~v , ~v > + < ~v , w ~ > + < w, ~ ~v > + < w, ~ w ~> 2 2 = ||~v || + ||w|| ~ + < ~v , w ~ > +< ~v , w ~ >. Is ~v ⊥ w ~ dan volgt hieruit ||~v + w|| ~ 2 = ||~v ||2 + ||w|| ~ 2. Omgekeerd, is ||~v + w|| ~ 2 = ||~v ||2 + ||w|| ~ 2 dan is < ~v , w ~ > +< ~v , w ~ > = 2 <(< ~v , w ~ >) = 0 waaruit in het geval van een reële inproductruimte volgt dat < ~v , w ~ >= 0 en dus ~v ⊥ w ~. ¤ Een verzameling S = {~v1 , ~v2 , . . . , ~vk } van vectoren uit V wordt een orthogonale deelverzameling van V genoemd indien ~vi ⊥ ~vj zodra i 6= j. Is bovendien ||~vi || = 1 voor elke ~vi dan noemt men S een georthonormeerde deelverzameling van V. We hebben nu volgende belangrijke eigenschap : ¥ STELLING 4.4 lin. onafh. van orthogonale deelverzameling Zij V een inproductruimte en zij S = {~v1 , ~v2 , . . . , ~vk } een orthogonale deelverzameling van V met geen enkele ~vi gelijk aan de nulvector Dan geldt : S is een lineair onafhankelijke deelverzameling van V bewijs : Stel dat r1~v1 + r2~v2 + · · · + rk~vk = ~o. Dan is < r1~v1 + r2~v2 + · · · + rk~vk , ~vj >=< ~o, ~vj >= 0 voor elke ~vj uit S. Anderzijds is dan ook r1 < ~v1 , ~vj > +r2 < ~v2 , ~vj > + . . . + rk < ~vk , ~vj >= 0. Vermits < ~vi , ~vj >= 0 voor i 6= j en vermits < ~vj , ~vj >6= 0 omdat ~vj 6= ~o besluiten we dus dat rj = 0 en dit voor elke j ∈ {1, 2, . . . , k} . Hiermee is aangetoond dat S een verzameling lineair onafhankelijke vectoren is. ¤ • Algebra voor ingenieurs • Hoofdstuk 4 Inproductruimten 4–9 Een basis van een inproductruimte V (of van een deelruimte W van een inproductruimte) wordt een orthogonale basis (resp. een georthonormeerde basis) van V (of van W ) genoemd wanneer deze bestaat uit twee aan twee orthogonale (resp. georthonormeerde) vectoren. 4.3.2 De orthogonalisatiestelling van Gram–Schmidt Zij ~v en w ~ twee vectoren in een inproductruimte. We willen nu de vector ~v ontbinden als de som van een vector ~a = k w ~ en een vector ~b die orthogonaal is met w ~. Uit ~v = k w ~ + ~b volgt dat ~b ⊥ w ~ als en slechts als < ~v − k w, ~ w ~ >= 0 of dus als < ~v , w ~ > −k < w, ~ w ~ >= 0 < ~v , w ~> . ||w|| ~ 2 < w, ~ w ~> De vector ~a = w ~ noemt men de orthogonale projectie van ~v op w ~ (of op ||w|| ~ 2 de deelruimte W die wordt opgespannen door w ~ ). Hieruit volgt dat k = Men noteert : projw~ ~v ~ Uit het voorgaande is duidelijk dat ~v − projw~ ~v orthogonaal is met w De nu volgende stelling, die reeds werd bewezen door Laplace, is vooral verbonden met de wiskundigen Jorgen Pederson Gram en Erhard Schmidt. Het bewijs ervan maakt gebruik van de hierboven beschreven orthogonale projectie. ¥ STELLING 4.5 orthogonalisatiestelling van Gram-Schmidt Elke eindig–dimensionale inproductruimte V bezit een georthonormeerde basis bewijs : Beschouw een willekeurige basis B = {~e1 , ~e2 , . . . , ~en } van V. Stel ~u1 = ~e1 en definieer ~u2 = ~e2 − proj~u1 ~e2 . Dan is ~u2 ⊥ ~u1 . Stel vervolgens : ~u3 = ~e3 − proj~u1 ~e3 − proj~u2 ~e3 Dan gaat men na dat ~u3 ⊥ ~u1 en ~u3 ⊥ ~u2 . Zo verder gaand bekomen we een verzameling twee aan twee orthogonale vectoren {~u1 , ~u2 , . . . , ~un } waarbij ~ui = ~ei − proj~u1 ~ei − . . . − proj~ui−1 ~ei . Hoofdstuk 4 • Algebra voor ingenieurs • 4–10 Inproductruimten Geen enkele van de aldus geconstrueerde vectoren ~ui is gelijk aan de nulvector, want indien ~ui = ~o, dan zou ~ei ∈ span {~u1 , . . . , ~ui−1 } = span {~e1 , . . . , ~ei−1 } in strijd met de lineaire onafhankelijkheid van de vectoren ~e1 , . . . , ~ei . De verzameling {~u1 , ~u2 , . . . , ~un } is dus een orthogonale verzameling niet–nulvectoren en wegens stelling 4.4 is deze dan een verzameling lineair onafhankelijke vectoren dewelke dan een basis vormen voor V . ¤ Opmerkingen : • De methode die wordt toegepast in bovenstaand bewijs om een orthogonale basis te construeren uit een willekeurige basis, staat gekend als de orthogonalisatiemethode van Gram–Schmidt • Wanneer een orthogonale basis {~u1 , ~u2 , . . . , ~un } werd geconstrueerd, dan kan men hieruit ook onmiddellijk een georthonormeerde basis {~v1 , ~v2 , . . . , ~vn } halen door elke ~ui te normeren tot een eenheidsvector ~vi = ||~~uuii || • Uit de stelling van Gram–Schmidt volgt ook dat elke verzameling orthogonale vectoren (verschillend van de nulvector) steeds kan worden aangevuld tot een orthogonale basis. Immers, vul de orthogonale verzameling aan tot een basis en pas daarop het orthogonalisatieprocédé van Gram–Schmidt toe. • De stelling blijft geldig in het geval van oneindigdimensionale inproductruim- ten. Figuur 4.4: Jorgen Gram (1850–1916) en Erhard Schmidt (1876–1959) • Algebra voor ingenieurs • Hoofdstuk 4 Inproductruimten 4–11 Voorbeelden : • Beschouw de vectorruimte Fn voorzien van het standaardinproduct. De standaardbasis {~e1 , . . . , ~en } met ~ei = (0, . . . , 0, 1, 0, . . . , 0) (1 op de i–de plaats) is een georthonormeerde basis van deze inproductruimte. • Beschouw de vectorruimte R[x] van de reële veeltermen. Deze wordt gestruc- tureerd tot een inproductruimte wanneer men als inproduct neemt : Rb < p(x), q(x) >= a p(x) q(x) w(x) dx waarbij de niet–negatieve functie w(x) de gewichtsfunctie wordt genoemd. Twee veeltermen heten orthogonaal wanneer hun inproduct nul is. Start men bij de verzameling veeltermen {1, x, x2 , . . .} en past men daarop het orthogonalisatieprocédé van Gram–Schmidt toe, dan bekomt men een verzameling orthogonale veeltermen. Het eenvoudigste voorbeeld zijn de Legendre–veeltermen. De gewichtsfunctie is daarvoor w(x) = 1 en het interval [a, b] = [−1, 1]. De Legendre–veeltermen zijn : p0 (x) = 1, p1 (x) = x, p2 (x) = 4 2 +3 5x3 −3x , p4 (x) = 35x −30x enz. 2 8 3x2 −1 , p3 (x) 2 = Andere bekende voorbeelden, beantwoordend aan andere gewichtsfuncties en intervallen [a, b], zijn Jacobi–veeltermen, Hermite–veeltermen, Gegenbauer– veeltermen, Laguerre–veeltermen, Chebyshev–veeltermen. Orthogonale veeltermen treden op als bijzondere oplossingen van belangrijke types van differentiaalvergelijkingen en hebben heel wat toepassingen in de fysica. • Beschouw de functieruimte C0 ([0, 2π], R) van de continue reëelwaardige functies R 2π gedefinieerd over [0, 2π] en voorzie deze van het inproduct < f, g >= f (x) g(x) dx 0 De verzameling {1, cos x, cos 2x, . . . , cos nx, . . . , sin x, sin 2x, . . . , sin nx, . . .} vormt een orthogonale basis voor deze inproductruimte. Iedere functie kan bijgevolg op een unieke wijze geschreven worden als een lineaire combinatie van deze orthogonale functies : +∞ +∞ X a0 X f (x) = + an cos nx + bn sin nx 2 n=1 n=1 Dit is de welbekende reeksontwikkeling van Fourier voor periodieke functies met periode 2π . Hoofdstuk 4 • Algebra voor ingenieurs • 4–12 Inproductruimten Op p. 3–13 hebben we gezien dat elke vector ~v van een n–dimensionale vectorruimte V coördinaten x1 , . . . , xn bezit t.o.v. een gekozen geordende basis B van V . Is nu V in het bijzonder een inproductruimte en is de gekozen basis B = {~u1 , . . . , ~un } van V een georthonormeerde basis van V , dan kan het inproduct van twee vectoren eenvoudig worden berekend met behulp van de coördinaten van die vectoren t.o.v. die basis. Immers : < ~v , w ~ >=< n X xi ~ui , i=1 n X yj ~uj >= j=1 n X n X xi yj < ~ui , ~uj >= i=1 j=1 n X n X i=1 j=1 xi yj δij = n X xi y i i=1 waarbij gesteund werd op < ~ui , ~uj >= δij (kroneckerdelta) wegens het georthonormeerd zijn van de basis. Noteren we met [~v ]B de kolommatrix waarvan de elementen de coördinaten zijn van ~v t.o.v. de basis B , dan geldt dus ook : < ~v , w ~ >= [w] ~ †B · [~v ]B († is de complex toegevoegde van de getransponeerde = hermitisch toegevoegde) en in het bijzonder als V een reële inproductruimte is : < ~v , w ~ >= [w] ~ TB · [~v ]B . Dikwijls zal men in de notatie de georthonormeerde basis B niet expliciet vermelden en dan schrijft men dus : < ~v , w ~ >= [w] ~ † · [~v ] resp. < ~v , w ~ >= [w] ~ T · [~v ] 4.3.3 Orthogonale en unitaire matrices Zij A een reële m × n–matrix waarvan we de rijen opvatten als vectoren van Rn (die we voorzien van het standaardinproduct). We tonen nu aan dat deze rijen georthonormeerde vectoren van Rn zijn als en slechts als A · AT = I . A1 A2 Noteren we A als .. (blokmatrix met de rijen als blokken), dan is A · AT = . Am A1 T T . . . A · A A · A 1 1 m 1 A2 £ ¤ .. .. · AT1 AT2 . . . ATm = .. . . . . T T Am · A1 . . . Am · Am Am Deze m × m–matrix is gelijk aan de eenheidsmatrix als en slechts als Ai · ATj = δij , dit is als en slechts als de rijvectoren die corresponderen met Ai en Aj twee aan • Algebra voor ingenieurs • Hoofdstuk 4 Inproductruimten 4–13 twee orthogonaal zijn en norm 1 hebben, m.a.w. als deze m vectoren een georthonormeerd stel vormen. Op gelijkaardige wijze kan worden aangetoond dat de kolommen van een m × n– matrix A georthonormeerde vectoren van M at(n, 1, R) vormen als en slechts als AT · A = I . In het geval van een vierkante matrix A leidt het voorgaande tot de volgende definitie : R DEFINITIE 4.5 orthogonale matrix Een vierkante matrix van de orde n heet orthogonaal als en slechts als A · AT = In = AT · A Op analoge manier wordt aangetoond dat de rijen (resp. de kolommen) van een complexe m × n–matrix A georthonormeerde vectoren van Cn zijn als en slechts als A voldoet aan A · A† = I (resp. A† · A = I ). Men definieert dan ook : R DEFINITIE 4.6 unitaire matrix Een vierkante matrix van de orde n heet unitair als en slechts als A · A† = In = A† · A Verderop in dit hoofdstuk zullen we zien dat de orthogonale en unitaire matrices op natuurlijke wijze optreden als matrices geassocieerd aan lineaire transformaties met bijzondere eiegenschappen, die men de passende benaming orthogonale (resp. unitaire) transformaties zal geven. Orthogonale en unitaire matrices bezitten nog volgende eigenschap : ¥ STELLING 4.6 eigenschap van orthogonale/unitaire matrices De determinant van een orthogonale matrix heeft absolute waarde 1 De determinant van een unitaire matrix heeft modulus 1 bewijs : Uit A · AT = I volgt dat det(A · AT ) = det I = 1 en dus det A · det AT = 1 of dus (det A)2 = 1 waaruit volgt dat | det A| = 1. Analoog voor een unitaire matrix. ¤ Hoofdstuk 4 • Algebra voor ingenieurs • 4–14 Inproductruimten Orthogonale (unitaire) matrices treden ook op als overgangsmatrices bij de overgang tussen twee georthonormeerde basissen van een inproductruimte. ¥ STELLING 4.7 overgang tussen georthonormeerde basissen e = {~u1 , . . . , ~un } georthonormeerde basissen van een reële Zij B = {~e1 , . . . , ~en } en B e (resp. complexe) inproductruimte en zij P de overgangsmatrix van B naar B. Dan geldt : P is een orthogonale (resp. unitaire) matrix. bewijs : Als ~uj = n X pji~ei voor j = 1, . . . , n dan is de overgangsmatrix P bij overgang van B i=1 e gelijk aan P = [pji ] = [pij ]T en dus P T = [pij ] naar B Dan geldt : P T · P = [cij ] = [ Anderzijds is : δij =< ~ui , ~uj >=< n P pik pjk ]. k=1 n P k=1 pik~ek , n P pjl~el >= l=1 n P n P pik pjl < ~ek , ~el >= k=1 l=1 n P n P k=1 l=1 met δkl = 0 of 1 naargelang k 6= l of k = l zodat er overblijft : δij = pik pjl δkl n P pik pjk = cij k=1 Hiermee is aangetoond dat P T · P = I en dus is P een orthogonale matrix. Het bewijs dat P unitair is in het geval van een complexe inproductruimte verloopt analoog. 4.3.4 QR–ontbinding van een matrix In hoofdstuk 2, § 2.8.5, hebben we de P U –ontbinding van een matrix bekeken. In deze paragraaf blijven we stilstaan bij een andere factorisatie van een m × n– matrix A, de QR–ontbinding. Deze ontbinding wordt vaak gebruikt in algoritmes voor computerberekeningen bij het oplossen van lineaire stelsels of het bepalen van eigenwaarden. We formuleren het resultaat als een stelling : ¥ STELLING 4.8 QR–ontbinding Zij A een m × n–matrix met lineair onafhankelijke kolommen. Dan kan A ontbonden worden als A = Q · R, met Q een m × n–matrix waarvan de kolommen een orthonormale basis vormen voor de kolommenruimte van A en met R een inverteerbare n × n–bovendriehoeksmatrix. • Algebra voor ingenieurs • Hoofdstuk 4 Inproductruimten 4–15 bewijs : De kolommen van A = [A1 . . . An ] vormen een basis voor de kolommenruimte Col A. Door toepassing van het Gram–Schmidt orthogonalisatieprocédé wordt deze basis omgevormd tot een georthonormeerde basis. Zij Q = [Q1 . . . Qn ] de matrix waarvan de kolommen deze georthonormeerde vectoren zijn. Bij toepassing van het orthogonalisatieprocédé is elke bekomen georthonormeerde vector Qi een lineaire combinatie van de oorspronkelijke vectoren A1 t.e.m. Ai : Qi = k1i A1 + k2i A2 + . . . + kii Ai met kii 6= 0 k11 k12 0 k22 We kunnen dus schrijven : [Q1 . . . Qn ] = [A1 . . . An ] · 0 0 . . . k1n . . . k2n . ... . . . knn De matrix [kij ] is een inverteerbare bovendriehoeksmatrix waarvan we de inverse R noemen. Deze inverse is opnieuw een bovendriehoeksmatrix. Uit het bovenstaande volgt door rechtse vermenigvuldiging met R dat Q · R = A. ¤ Opmerkingen : • Omdat de kolommen van Q georthonormeerde vectoren zijn van Col A voldoet de matrix Q aan QT · Q = I (of aan Q† · Q = I ). De matrix R kan bijgevolg gevonden worden uit Q door R = QT · A (resp. R = Q† · A). • Is de matrix A een vierkante n × n–matrix, dan zijn de matrices Q en R ook beide n × n–matrices. De matrix Q is dan een orthogonale of unitaire matrix. Uit A = Q · R volgt nu ook dat voor een reële matrix A geldt : det A = det Q · det R = ±1 · n Y rii waarbij gesteund werd op stelling 4.6. i=1 De determinant van A is dus (eventueel op het teken na) gelijk aan het product van de diagonaalelementen van de bovendriehoeksmatrix R uit de QR– factorisatie van A. Hoofdstuk 4 • Algebra voor ingenieurs • 4–16 Inproductruimten voorbeeld : µ ¶ 1 2 Zij A = . 3 4 Toepassing van het orthogonalisatieprocédé van Gram–Schmidt zet de vectoren (1, 3) en (2, 4) om in de georthonormeerde vectoren ( √110 , √310 ) en ( √310 , − √110 ) à De matrix Q is bijgevolg : Q = √1 10 √3 10 De matrix R is dan gelijk aan QT · A = 4.3.5 ! √3 10 − √110 à √10 10 0 . √14 10 √2 10 ! . Matrix en determinant van Gram R DEFINITIE 4.7 Gramse matrix en determinant van Gram Zij ~v1 , . . . , ~vm een stel vectoren in een n–dimensionale inproductruimte (m ≤ n). Dan isde matrix van Gram horende bij dit stel, gedefinieerd als : < ~v1 , ~v1 > < ~v1 , ~v2 > . . . < ~v1 , ~vm > < ~v2 , ~v1 > < ~v2 , ~v2 > . . . < ~v2 , ~vm > Gm = .. .. .. . . . < ~vm , ~v1 > < ~vm , ~v2 > . . . < ~vm , ~vm > en det(Gm ) heet de determinant van Gram. voorbeeld : Definieer op V = Rn [x] het inproduct < p(x), q(x) >= ~vi = xi−1 (i = 1, . . . , n) : Z 1 < ~vi , ~vj >= xi−1 xj−1 dx = 0 R1 0 p(x)q(x) dx, dan is voor 1 i+j−1 De Gramse matrix horende bij het stel {1, x, . . . , xn−1 } is dan de zogenoemde Hilbertmatrix Hn (zie hoofdstuk 2, p.2–52) : 1 1 2 .. . 1 n 1 2 1 3 ... ... 1 n 1 n+1 1 n+1 ... 1 2n−1 .. . .. . Beschouw nu een georthonormeerde basis van een reële inproductruimte V (voor een complexe inproductruimte gelden analoge resultaten, maar de getransponeerde • Algebra voor ingenieurs • Hoofdstuk 4 Inproductruimten 4–17 wordt vervangen door de hermitisch toegevoegde) en zij {~v1 , . . . , ~vm } een stel lineair onafhankelijke vectoren van V . Noem A de matrix waarvan de kolommen de coördinaten zijn van de vectoren ~vi t.o.v. die basis. Dan is het element op de i–de rij en j –de kolom van de Gramse matrix Gm die hoort bij het stel vectoren gelijk aan (Gm )ij =< ~vi , ~vj >= [~vj ]T · [~vi ] (zie p. 4–12). Dit element is dus het product van de j –de rij van AT met de i–de kolom van A, dit is het element op de (j, i)–de plaats van AT · A. Nu is evenwel AT · A symmetrisch want (AT · A)T = AT · (AT )T = AT · A, zodat bovenstaand element ook het element op de (i, j)–de plaats is. We hebben bijgevolg aangetoond dat (Gm )ij = (AT · A)ij of dus Gm = AT · A . De determinant van Gram laat toe om de lineaire (on)afhankelijkheid na te gaan van een stel vectoren in een inproductruimte. ¥ STELLING 4.9 lineaire (on)afhankelijkheid en Gramse determinant Zij {~v1 , . . . , ~vm } een stel vectoren van een n–dimensionale inproductruimte met m ≤ n Dan geldt : {~v1 , . . . , ~vm } is lineair onafhankelijk als en slechts als det Gm 6= 0 4.3.6 R Loodruimte (orthogonaal complement) van een deelruimte DEFINITIE 4.8 orthogonaal complement Zij V een inproductruimte en zij W een deelruimte van V . De verzameling W ⊥ = {~v ∈ V | < ~v , w ~ >= 0 voor elke w ~ ∈ W } heet orthogonaal complement of loodruimte of polaire ruimte van W . Dat men wel degelijk mag spreken van loodruimte blijkt uit het volgende : Zij ~v1 ∈ W ⊥ en ~v2 ∈ W ⊥ . Dan is < r~v1 + ~v2 , w ~ >= r < ~v1 , w ~ > + < ~v2 , w ~ >= 0 + 0 = 0 voor iedere w ~ ∈ W. ⊥ Met het criterium voor deelruimte mogen we besluiten dat W een deelruimte is van V . Het is onmiddellijk duidelijk dat {~o}⊥ = V en dat V ⊥ = {~o} In de volgende stelling tonen we aan dat een inproductruimte steeds gelijk is aan de directe som van een deelruimte en de loodruimte daarvan. Hoofdstuk 4 • Algebra voor ingenieurs • 4–18 Inproductruimten ¥ STELLING 4.10 orthogonale ontbinding van inproductruimte Zij W een deelruimte van een inproductruimte V en zij W ⊥ de loodruimte van W . Dan geldt : V = W ⊕ W ⊥ bewijs : Zij {~e1 , ~e2 , . . . , ~ek } een basis voor W . We vullen deze aan tot een basis {~e1 , ~e2 , . . . , ~ek , ~ek+1 , . . . , ~en } voor V . Passen we het orthogonalisatieprocédé van Gram-Schmidt toe, dan bekomen we hieruit een orthogonale basis {~u1 , ~u2 , . . . , ~uk , ~uk+1 , . . . , ~un } van V . Daarbij is iedere ~ui een lineaire combinatie van de vectoren ~e1 t.e.m. ~ei . In het bijzonder zijn de vectoren ~u1 t.e.m. ~uk lineaire combinaties van de vectoren ~e1 t.e.m. e~k en dus behoren die vectoren tot W . Bijgevolg is {~u1 , ~u2 , . . . , ~uk } een orthogonale basis van W . Het is ook duidelijk dat de vectoren ~uk+1 t.e.m. ~un alle tot W ⊥ behoren, want ~uj ⊥ ~ui voor elke j ∈ {k + 1, . . . , n} en elke i ∈ {1, . . . , k}. Is nu ~v een willekeurige vector van V dan is : ~v = n X i=1 ri~ui = k X i=1 ri~ui + n X ri~ui . i=k+1 Daarbij behoort de eerste som tot W en de laatste tot W ⊥ . Elke vector van V is dus te schrijven als som van een vector uit W en een vector uit W ⊥ wat betekent dat V = W + W ⊥ . Vervolgens tonen we aan dat W ∩ W ⊥ = {~o} Immers is w ~ ∈ W ∩W ⊥ dan is < w, ~ w ~ >= 0 (omdat w ~ tot W ⊥ behoort is w ~ orthogonaal met elke vector van W , dus i.h.b. met w ~ die ook tot W behoort). Uit het positief–definiet zijn (voorwaarde (i) voor inproduct) moet dan w ~ = ~o. Uit V = W + W ⊥ en W ∩ W ⊥ = {~o} kunnen we dus besluiten dat V = W ⊕ W ⊥ ¤ Opmerking : Is W een deelruimte van V , dan bezit elke vector ~v van V dus een unieke ontbinding ~v = w ~0 + w ~ 1 met w ~ 0 ∈ W en w ~ 1 ∈ W ⊥. De vector w ~ 0 noemt men ook de orthogonale projectie van ~v op W . Deze vector wordt gekenmerkt door de volgende eigenschappen : ~v − w ~0 ⊥ W en ||~v − w ~ 0 || ≤ ||~v − w|| ~ voor elke w ~ ∈ W. Om die reden noemt men w ~ 0 soms ook de beste benadering van ~v in W . • Algebra voor ingenieurs • Hoofdstuk 4 Inproductruimten 4.4 4.4.1 4–19 Orthogonale lineaire transformaties Definitie en eigenschappen In deze paragraaf bestuderen we een belangrijke klasse van lineaire transformaties van een reële inproductruimte : de orthogonale lineaire transformaties. Voor complexe inproductruimten bestaat er een analogon : de unitaire lineaire transformaties. R DEFINITIE 4.9 orthogonale en unitaire transformatie Zij V een reële inproductruimte en zij T een lineaire transformatie van V . T heet orthogonaal als en slechts als < T (~v ), T (w) ~ >=< ~v , w ~ > voor elke ~v , w ~ ∈ V. Zij V een complexe inproductruimte en zij T een lineaire transformatie van V . T heet unitair als en slechts als < T (~v ), T (w) ~ >=< ~v , w ~ > voor elke ~v , w ~ ∈ V. Orthogonale (resp. unitaire) lineaire transformaties laten het inproduct dus invariant. Deze transformaties kunnen ook nog op andere wijzen gekarakteriseerd worden, zoals blijkt uit volgende stelling : ¥ STELLING 4.11 karakterisatie van orthogonale/unitaire transformaties Volgende uitspraken zijn gelijkwaardig : (i) < T (~v ), T (w) ~ >=< ~v , w ~ > voor elke ~v , w ~ ∈ V (T bewaart het inproduct) (ii) ||T (~v )|| = ||~v || voor elke ~v ∈ V (T bewaart de norm) (iii) T zet een georthonormeerde basis om in een georthonormeerde basis bewijs : We bewijzen de stelling voor transformaties van een reële inproductruimte. Uit (i) volgt i.h.b. dat < T (~v ), T (~v ) >=< ~v , ~v > voor elke ~v ∈ V en dus ook ||T (~v )|| = ||~v || zodat (ii) geldt. Omgekeerd, stel dat (ii) geldt. Dan is i.h.b. ||T (~v + w)|| ~ = ||~v + w|| ~ en dus < T (~v + w), ~ T (~v + w) ~ >=< ~v + w, ~ ~v + w ~> of nog Hoofdstuk 4 • Algebra voor ingenieurs • 4–20 Inproductruimten < T (~v ) + T (w), ~ T (~v ) + T (w) ~ >=< ~v + w, ~ ~v + w ~> =⇒ < T (~v ), T (~v ) + T (w) ~ > + < T (w), ~ T (~v ) + T (w) ~ >=< ~v , ~v + w ~ > + < w, ~ ~v + w ~> =⇒ < T (~v ), T (~v ) > + < T (~v ), T (w) ~ > + < T (w), ~ T (~v ) > + < T (w), ~ T (w) ~ > =< ~v , ~v > + < ~v , w ~ > + < w, ~ ~v > + < w, ~ w ~> =⇒ ||T (~v )||2 + 2 < T (~v ), T (w) ~ > +||T (w)|| ~ 2 = ||~v ||2 + 2 < ~v , w ~ > +||w|| ~ 2 =⇒ < T (~v ), T (w) ~ >=< ~v , w ~> Uit (i) volgt i.h.b. dat T de orthogonaliteit bewaart, zodat een georthonormeerde basis zeker wordt omgezet in een orthogonale basis. Omdat T ook de norm bewaart, is dat dus een georthonormeerde basis, zodat (iii) geldt. Omgekeerd, stel dat (iii) geldt. Beschouw twee willekeurige vectoren ~v en w. ~ T.o.v. de georthonormeerde basis B = {~u1 , ~u2 , . . . , ~un } hebben we ~v = w ~= n P ri~ui en i=1 sj ~uj . j=1 Bijgevolg is < T (~v ), T (w) ~ >=< T ( n n P P n P ri sj δij = i=1 j=1 n P n P i=1 ri~ui ), T ( n P sj ~uj ) >= j=1 n n P P ri sj < T (~ui ), T (~uj ) >= i=1 j=1 ri si =< ~v , w ~ > zodat (i) geldt. ¤ i=1 In definitie 4.5 werd de definitie van een orthogonale matrix gegeven. We zullen nu aantonen dat de matrices die een orthogonale transformatie representeren (t.o.v. een georthonormeerde basis !) precies de orthogonale matrices zijn. ¥ STELLING 4.12 matrix van een orthogonale transformatie Zij V een reële inproductruimte en zij T een orthogonale transformatie van V Is B een georthonormeerde basis van V dan is de matrix [T ]B van T t.o.v. B een orthogonale matrix, m.a.w. [T ]TB · [T ]B = I bewijs : Zij B = {~u1 , ~u2 , . . . , ~un }. De matrixvoorstelling van T t.o.v. B wordt beschreven door : [T (~v )]B = [T ]B · [~v ]B In het bijzonder is [T (~ui )]B = [T ]B · [~ui ]B We hebben dan : < T (~uj ), T (~ui ) > = ([T ]B · [~ui ]B )T · ([T ]B · [~uj ]B ) = [~ui ]TB · [T ]tB · [T ]B · [~uj ]B Anderzijds is wegens kenmerk (iii) van een orthogonale transformatie {T (~u1 ), T (~u2 ), . . . T (~un )} een verzameling georthonormeerde vectoren, zodat ook < T (~ui ), T (~uj ) >= δij (0 of 1 naargelang i 6= j of i = j ). • Algebra voor ingenieurs • Hoofdstuk 4 Inproductruimten 4–21 Dus is < T (~ui ), T (~uj ) >= [~ui ]TB · [T ]TB · [T ]B · [~uj ]B = δij waaruit we besluiten dat [T ]TB · [T ]B = I gelet op [~ui ]TB = ( 0 · · · 0 1 0 · · · 0 ) met een 1 op de i–de plaats. De matrix van T t.o.v. B is dus een orthogonale matrix. ¤ De matrix van een orthogonale transformatie is dus steeds een orthogonale matrix, althans wanneer de matrix t.o.v. een georthonormeerde basis wordt genomen. Omgekeerd kan men inzien dat de lineaire transformatie TA die op natuurlijke wijze geassocieerd is met een orthogonale matrix A (dit is waarvoor AT · A = I = A · AT ) een orthogonale transformatie is. Op volledig analoge wijze toont men aan dat unitaire matrices corresponderen met unitaire transformaties van een complexe inproductruimte. De orthogonale transformaties van een reële inproductruimte V vormen een groep voor de samenstelling, die men de orthogonale groep O(V ) noemt. Vertaald naar matrices betekent dit dat de orthogonale (resp. de unitaire) n × n– matrices een groep vormen voor de vermenigvuldiging. Deze bijzondere matrixgroepen worden genoteerd als O(n) resp. U (n). In stelling 4.6 hebben we aangetoond dat de determinant van een orthogonale matrix determinant 1 of -1 heeft. Daardoor valt de orthogonale groep uiteen in twee deelverzamelingen. Enerzijds zijn er de directe orthogonale transformaties, corresponderend met een orthogonale matrix met determinant 1, en anderzijds de indirecte orthogonale transformaties, corresponderend met een orthogonale matrix met determinant -1. De directe orthogonale transformaties vormen een deelgroep van de orthogonale groep. We noteren die met SO(V ) resp. SO(n) en we noemen ze de speciale orthogonale groep. De indirecte orthogonale transformaties vormen zelf geen deelgroep. Vermelden we hier ook nog dat de eigenwaarden van een orthogonale transformatie (matrix) steeds absolute waarde 1 hebben. Dat volgt uit het feit dat orthogonale afbeeldingen de norm bewaren. Gelijkaardige beschouwingen (unitaire groep U (V ), U (n) en speciale unitaire groep SU (V ), SU (n)) gelden voor unitaire afbeeldingen van een complexe inproductruimte. Hoofdstuk 4 • Algebra voor ingenieurs • 4–22 Inproductruimten 4.4.2 Orthogonale transformaties van R2 In deze paragraaf bestuderen we bij wijze van voorbeeld orthogonale transformaties van een tweedimensionale euclidische vectorruimte. Omwille van de lage dimensie zal het mogelijk zijn om de orthogonale transformaties in dit geval volledig te classificeren. Zij dus V = R2 voorzien van het standaardinproduct en zij A = [T ]B de matrix van een orthogonale transformatie T van V t.o.v. de georthonormeerde standaardbasis B = {~e1 = (1, 0), ~e2 = (0, 1)}. Deze matrix is dan een orthogonale matrix. µ ¶ We drukken nu de voorwaarde AT · A = I uit voor A = a b c d Dit geeft : a2 + c2 = 1 en b2 + d2 = 1 en ab + cd = 0. Daaruit volgt dat er µ een reëel¶getal ε bestaat waarvoor geldt : b = εc en d = −εa en ε2 = 1 en dus A = a εc c −εa Er kunnen twee gevallen optreden : ε = −1 en ε = 1 corresponderend met det A = 1 (directe orthogonale transformaties) en det A = −1 (indirecte orthogonale transformaties). µ • Voor ε = −1 bekomt men A = a −c c a ¶ met det(A) = a2 + c2 = 1 Stellen we a = cos ϑ en c = sin ϑ dan wordt de matrix : µ A= cos ϑ − sin ϑ sin ϑ cos ϑ ¶ De transformaties die hiermee corresponderen bezitten geen eigenwaarden, m.a.w. geen enkele vector wordt op een veelvoud van zichzelf afgebeeld. Het zijn rotaties over een hoek ϑ in tegenwijzerzin. In het bijzonder bekomt men voor ϑ = 0 de identieke transformatie en voor ϑ = π heeft men een puntspiegeling. µ • Voor ε = 1 bekomt men A = a c c −a ¶ met det(A) = −a2 − c2 = −1 Stellen we opnieuw a = cos ϑ en c = sin ϑ dan wordt de matrix : • Algebra voor ingenieurs • Hoofdstuk 4 Inproductruimten µ A= cos ϑ sin ϑ sin ϑ − cos ϑ 4–23 ¶ We bepalen de eigenwaarden. De karakteristieke vergelijking luidt (cos ϑ − λ)(− cos ϑ − λ) − sin2 ϑ = 0 ⇐⇒ λ2 − 1 = 0 zodat λ1 = 1 en λ2 = −1. De eigenruimte Eλ1 = Ker(T − I) wordt bepaald uit : µ cos ϑ − 1 sin ϑ sin ϑ − cos ϑ − 1 ½ of dus uit het stelsel ¶µ x y ¶ µ = 0 0 ¶ (cos ϑ − 1) x + sin ϑ y = 0 sin ϑ x + (− cos ϑ − 1) y = 0 Houdt men rekening met cos ϑ − 1 = −2 sin2 ϑ2 en met sin ϑ = 2 sin ϑ2 cos ϑ2 dan is bovenstaand stelsel nog te schrijven als : (− sin ϑ x + cos ϑ y) sin ϑ = 0 2 2 2 ϑ ϑ ϑ (sin x − cos y) cos = 0 2 2 2 Omdat minstens één van de uitdrukkingen cos ϑ2 en sin ϑ2 verschillend is van nul, is het stelsel gelijkwaardig met de éne vergelijking sin ϑ2 x − cos ϑ2 y = 0 waaruit volgt : y = tan ϑ2 x (als ϑ 6= 0) of y = 0 (als ϑ = 0). Volledig analoog vindt men voor de eigenruimte bij de eigenwaarde λ2 = −1 : y = − cot ϑ2 x of x = 0. Omdat T twee verschillende eigenwaarden bezit en dim V = 2, is T diagonaliseerbaar. Als gevolg daarvan is V de directe som van de eigenruimten Eλ1 en Eλ2 zodat iedere vektor ~v te schrijven is als ~v = ~v1 + ~v2 met ~v1 behorende tot de eerste eigenrechte en ~v2 behorende tot de tweede eigenrechte. Nu is T (~v ) = T (~v1 + ~v2 ) = T (~v1 ) + T (~v2 ) = ~v1 − v~2 . Deze laatste is precies het spiegelbeeld van ~v onder de orthogonale spiegeling t.o.v. de eerste eigenrechte. Omdat T diagonaliseerbaar is, is de matrix t.o.v. een basis van eigenvectoren µ ¶ een diagonaalmatrix met op de hoofddiagonaal de eigenwaarden : Hoofdstuk 4 1 0 0 −1 . • Algebra voor ingenieurs • 4–24 4.4.3 Inproductruimten Orthogonale spiegelingen en rotaties De classificatie van de orthogonale transformaties van euclidische ruimten met dimensie groter dan twee, is minder eenvoudig. De twee types van transformaties die konden optreden in het tweedimensionaal geval (rotaties en orthogonale spiegelingen) bezitten wel een veralgemening in het hoger dimensionaal geval. Orthogonale spiegelingen In de opmerking volgend op stelling 4.10 hebben we de orthogonale projectie w ~0 van een vector op een deelruimte W gedefinieerd. De transformatie PW : V → V, ~v 7→ w ~ 0 wordt de orthogonale projectie van V op W genoemd. We definiëren nu de orthogonale spiegeling van V t.o.v. W als de transformatie SW = 2 P W − I Een belangrijk bijzonder geval wordt gevormd door de orthogonale spiegelingen t.o.v. een hypervlak (dit is een n−1–dimensionale deelruimte van een n–dimensionale ruimte). Zulke orthogonale transformaties worden ook Householder–transformaties genoemd. Ze werden voor het eerst ingevoerd door de Amerikaanse wiskundige Alston Householder (1904–1993). Rotaties De directe orthogonale transformaties van een euclidische vectorruimte worden rotaties genoemd. Een bijzondere klasse wordt gevormd door de rotaties in een vlak dat wordt opgespannen door twee basisvectoren van de inproductruimte. Men noemt dit ook elementaire rotaties of Givens–rotaties, naar de Amerikaanse wiskundige Wallace Givens (1910–1993). Een belangrijk resultaat is het volgende : iedere rotatie van een n–dimensionale euclidische ruimte V is de samenstelling van hoogstens n(n − 1) elementaire rotaties. 2 In het geval van een driedimensionale ruimte betekent dit dat elke rotatie kan worden samengesteld met hoogstens drie elementaire rotaties. Deze zijn de rotaties rond de drie coördinaatassen over resp. hoeken ϑ, φ en ψ ook gekend als de hoeken van Euler. • Algebra voor ingenieurs • Hoofdstuk 4 Inproductruimten 4.5 4.5.1 R 4–25 Symmetrische lineaire transformaties Definitie en eigenschappen DEFINITIE 4.10 symmetrische en hermitische transformatie Zij V een reële inproductruimte en zij T een lineaire transformatie van V . T heet symmetrisch als en slechts als < T (~v ), w ~ >=< ~v , T (w) ~ > voor elke ~v , w ~ ∈ V. Zij V een complexe inproductruimte en zij T een lineaire transformatie van V . T heet hermitisch als en slechts als < T (~v ), w ~ >=< ~v , T (w) ~ > voor elke ~v , w ~ ∈ V. Onderzoeken we nu eerst hoe het symmetrisch (hermitisch) zijn van een lineaire transformatie zich weerspiegelt in de geassocieerde matrix van die transformtie t.o.v. een georthonormeerde basis. ¥ STELLING 4.13 matrix van een symmetrische transformatie Zij V een reële inproductruimte en zij T een symmetrische transformatie van V Is B een georthonormeerde basis van V dan is de matrix [T ]B van T t.o.v. B een symmetrische matrix, m.a.w. [T ]TB = [T ]B bewijs : Zij B = {~u1 , ~u2 , . . . , ~un } en stel dat T (~ui ) = n P aij ~uj dan is aij =< T (~ui ), ~uj > . j=1 Bijgevolg geldt : [T ]B = (aji ) = (< T (~uj ), ~ui >) Is T symmetrisch, dan geldt dus ook : [T ]B = (< T (~uj ), ~ui >) = (< ~uj , T (~ui ) >) = (< T (~ui ), ~uj >) = [T ]TB ¤ Analoog toont men aan dat met de hermitische transformaties van een complexe inproductruimte hermitische matrices ([T ]B = [T ]†B geassocieerd zijn, tenminste wanneer de matrixvoorstelling wordt genomen t.o.v. een georthonormeerde basis. Omgekeerd geldt ook dat de lineaire transformatie TA die op natuurlijke wijze kan worden geassocieerd met een symmetrische matrix (AT = A), resp. met een hermitische matrix (A† = A), een symmetrische, resp. hermitische, transformatie is. De eigenwaarden en eigenvectoren van symmetrische en hermitische transformaties bezitten enkele merkwaardige eigenschappen, die we samenvatten in de volgende stelling : Hoofdstuk 4 • Algebra voor ingenieurs • 4–26 ¥ STELLING 4.14 Inproductruimten eigenvectoren van symmetrische transformaties Zij V een inproductruimte en zij T een symmetrische of hermitische transformatie van V . Dan geldt : (i) De eigenwaarden van T zijn reëel (ii) Eigenvectoren die behoren bij verschillende eigenwaarden zijn orthogonaal bewijs : (i) is λ een eigenwaarde van T met bijhorende eigenvector ~v dan is λ < ~v , ~v >=< λ ~v , ~v >=< T (~v ), ~v >=< ~v , T (~v ) >=< ~v , λ ~v >= λ < ~v , ~v > waaruit λ = λ en dus λ ∈ R (ii) zijn λ1 en λ2 verschillende eigenwaarden met bijhorende eigenvectoren ~v1 en ~v2 dan is λ1 < ~v1 , ~v2 >=< λ1~v1 , ~v2 >=< T (~v1 ), ~v2 >=< ~v1 , T (~v2 ) >=< ~v1 , λ2~v2 >= λ2 < ~v1 , ~v2 >= λ2 < ~v1 , ~v2 > . We vinden dus dat (λ1 − λ2 ) < ~v1 , ~v2 >= 0. Vermits λ1 6= λ2 moet < ~v1 , ~v2 >= 0 en dus ~v1 ⊥ ~v2 ¤ Opmerking : Eigenschap (i) van deze stelling zegt dus ook dat het spectrum van een hermitische transformatie of van een hermitische matrix enkel uit reële elementen bestaat. Dat betekent in het bijzonder ook dat de lineaire transformatie TA die op natuurlijke wijze geassocieerd is met een symmetrische matrix A, bekeken als transformatie van de complexe vectorruimte M at(n, 1, C) enkel reële eigenwaarden bezit. De nu volgende stelling toont aan dat de symmetrische transformaties steeds diagonaliseerbaar zijn ! ¥ STELLING 4.15 diagonaliseerbaarheid Zij V een eindigdimensionale reële inproductruimte en zij T een symmetrische transformatie van V . Dan geldt : T is diagonaliseerbaar. bewijs : We tonen eerst aan dat een symmetrische lineaire transformatie steeds een eigenvector bezit. Is [T ]B de (reële) matrix van deze transformatie t.o.v. een georthonormeerde basis B = {~u1 , ~u2 , . . . , ~un }, dan is [T ]TB = [T ]B . Nu kunnen we met deze matrix ook een lineaire transformatie van de complexe inproductruimte M at(n, 1, C) associëren. Deze is dus hermitisch. De karakteristieke vergelijking ervan bezit wegens de hoofdstelling van de algebra minstens één complexe wortel λ en deze is wegens (i) uit vorige stelling reëel. • Algebra voor ingenieurs • Hoofdstuk 4 Inproductruimten 4–27 Met deze reële eigenwaarde correspondeert minstens één (complexe) eigenvector van M at(n, 1, C). We tonen nu aan dat met λ ook steeds een eigenvector uit M at(n, 1, R) behoort. Voor de eigenwaarde λ is det(A − λI) = 0. Bijgevolg bezit het reëel homogeen lineair stelsel (A − λI) · X = 0 (A, λ en I zijn immers reëel) een niet–triviale reële oplossing (x1 , x2 , . . . , xn ) Stellen we nu ~v = x1~u1 + . . . + xn~un dan is ~v 6= ~o en er geldt [T (~v )]B = A · [~v ]B = A · X = λ X = λ[~v ]B zodat ~v een reële eigenvector is, waarmee het gestelde is aangetoond. Vervolgens tonen we aan dat V (isomorf met M at(n, 1, R)) een georthonormeerde basis bestaande uit eigenvectoren van T bezit door volledige inductie op de dimensie van V . Dit is triviaal voldaan als dim V = 1. Onderstel nu dat dim V = n > 1. Wegens het eerste deel van het bewijs bezit T minstens één eigenvector ~v1 . Beschouw dan ~u1 = ~v1 . Dit is eveneens een eigenvector van T en bovendien is ||~v1 || het een eenheidsvector. Noem W de vectorruimte voortgebracht door ~u1 , dit is : W = span {~u1 } . Stel vervolgens W ⊥ = {w ~ ∈ V | < ~u1 , w ~ >= 0} In stelling 4.10 hebben we bewezen dat V = W ⊕ W ⊥ Beschouwen we nu van T de restrictie T̃ tot de deelruimte W ⊥ en voorzien we W ⊥ van het inproduct uit V , dan is W ⊥ een (n − 1)−dimensionale inproductruimte (de dimensie van W is immers 1) en T̃ is een lineaire afbeelding van W ⊥ (de lineariteitseigenschappen zijn uiteraard geldig, dus men moet enkel nagaan dat het beeld van een vector van W ⊥ opnieuw tot W ⊥ behoort) en vanzelfsprekend is T̃ symmetrisch op W ⊥ . Door de inductiehypothese bezit W ⊥ dan een georthonormeerde basis {~u2 , . . . , ~un } van eigenvectoren van T̃ (en dus van T ). Nu is evenwel < ~u1 , ~ui >= ~0 voor i = 2, . . . , n omdat ~ui ∈ W ⊥ . We besluiten dat {~u1 , ~u2 , . . . , ~un } een georthonormeerde basis van eigenvectoren is voor V. ¤ Opmerking : e de georthonormeerde basis bestaande Zij B een georthonormeerde basis van V en B uit eigenvectoren waarvan het bestaan door bovenstaande stelling wordt verzekerd, dan weten we (zie H3, § 3.9.2) dat er een inverteerbare matrix P bestaat waarvoor [T ]Be = P −1 · [T ]B · P . Daarbij is [T ]Be een diagonaalmatrix (met op de hoofddiagonaal de eigenwaarden van T ). Hoofdstuk 4 • Algebra voor ingenieurs • 4–28 Inproductruimten e . Omdat De matrix P is de overgangsmatrix bij overgang van basis B naar basis B e beide georthonormeerd zijn, is deze matrix orthogonaal (zie stelling 4.7), B en B −1 dus P = P T We kunnen daarom ook schrijven : [T ]Be = P T · [T ]B · P . Men zegt ook : een symmetrische lineaire transformatie van een eindig–dimensionale reële inproductruimte is orthogonaal diagonaliseerbaar. De stelling kan ook voor matrices worden geformuleerd : Is A een reële symmetrische matrix, dan is A orthogonaal diagonaliseerbaar. Dat betekent dat er een orthogonale matrix P bestaat waarvoor P T · A · P = D met D een diagonaalmatrix. Opmerking : Twee reële matrices A en B worden orthogonaal gelijkvormig of congruent genoemd als en slechts als er een inverteerbare matrix C bestaat waarvoor B = CT · A · C. Congruente matrices zijn dus bijzondere gelijkvormige matrices. Uit het voorgaande volgt dat elke reële symmetrische matrix congruent is met een (reële) diagonaalmatrix. Dit resultaat kan zelfs nog veralgemeend worden : elke vierkante reële matrix A die commuteert met zijn getransponeerde (dus A·AT = AT ·A) – dergelijke matrix wordt een normale matrix genoemd – en waarvan alle eigenwaarden reëel zijn (wanneer de karakteristieke vergelijking wordt opgelost over C) is congruent met een reële diagonaalmatrix. Laat men de voorwaarde A · AT = AT · A achterwege dan bekomt men de zwakkere stelling van Schur waarbij slechts trianguliseerbaarheid wordt bereikt. ¥ STELLING 4.16 triangulisatiestelling van Schur Zij A een reële vierkante matrix en onderstel dat de karakteristieke vergelijking van A over C enkel reële oplossingen bezit. Dan geldt : A is congruent met een reële bovendriehoeksmatrix. • Algebra voor ingenieurs • Hoofdstuk 4 Inproductruimten 4–29 Figuur 4.5: Issai Schur (1875–1941) 4.5.2 De singuliere waarden ontbinding Voor een symmetrische matrix A hebben we aangetoond dat er steeds een orthogonale matrix P bestaat waarvoor P T · A · P = D met D een diagonaalmatrix. Anders geformuleerd : een symmetrische n × n–matrix kan steeds gefactoriseerd worden als A = P · D · P T met P een orthogonale n × n–matrix en D een n × n– diagonaalmatrix. Als A niet symmetrisch is, dan beschikken we niet altijd over zulk een ontbinding. De singuliere waarden stelling is een zeer sterke stelling die zegt dat iedere (zelfs niet noodzakelijk vierkante) matrix A wel altijd kan gefactoriseerd worden als A = U · Σ · V T met U en V orthogonale matrices en Σ een bijzondere matrix die in zekere zin de diagonaalmatrix D veralgemeent. Merken we eerst hetvolgende op : Voor iedere m × n–matrix A is AT · A een symmetrische n × n–matrix. Deze laatste is dus orthogonaal diagonaliseerbaar. Zij {~e1 , . . . , ~en } een georthonormeerde basis van eigenvectoren voor de vectorruimte M at(n, 1, R) waarop AT · A op natuurlijke wijze kan inwerken en zij λ1 , . . . , λi de bijhorende eigenwaarden. Dan geldt voor iedere i ∈ {1, . . . , n} : ||A · [~ei ]||2 = (A · [~ei ])T · (A · [~ei ]) = [~ei ]T · AT · A · [~ei ] = [~ei ]T · [λi ~ei ] = λi . De eigenwaarden van AT · A zijn dus allemaal niet–negatief. Hernummeren we deze nu zó dat λ1 ≥ λ2 ≥ · · · ≥ λn ≥ 0. Hoofdstuk 4 • Algebra voor ingenieurs • 4–30 Inproductruimten Per definitie noemt men nu de getallen σ1 = guliere waarden van A. p λ1 , σ 2 = p λ2 , . . . , σn = p λn de sin- We kunnen nu de volgende stelling formuleren : ¥ STELLING 4.17 singuliere waarden ontbinding Zij A een reële m × n–matrix van rang r. Dan kan A ontbonden worden als A = U · Σ · V T , met U een orthogonale µ m × m– ¶ D O matrix, V een orthogonale n × n–matrix en Σ de m × n–matrix : Σ = O O waarin D de r × r diagonaalmatrix is met als elementen op de hoofddiagonaal de eerste r singuliere waarden van A : σ1 ≥ σ2 ≥ . . . ≥ σr > 0 Opmerking : De singuliere waarden–ontbinding van een matrix A is niet uniek. Enkel de matrix Σ is volledig bepaald door A. Deze ontbinding wordt o.a. gebruikt voor rangschatting van een matrix. In bepaalde gevallen is de rang van een matrix heel gevoelig aan kleine veranderingen in de elementen van A. In dat geval is de methode om de rang te bepalen door het aantal spilelementen te tellen in een echelonvorm van A onbetrouwbaar wanneer de reductie wordt uitgevoerd met een computer (afrondingsfouten). Daarom kan men voor matrices van zeer grote orde het aantal van nul verschillende singuliere waarden gebruiken als schatting voor de rang. Een ander toepassingsgebied van de singuliere waarden–ontbinding houdt verband met het vraagstuk van het bepalen van de kleinste kwadratenoplossing van een lineair stelsel met gebruik van de veralgemeende inverse. Dit is een belangrijk probleem uit de numerieke lineaire algebra dat ver buiten het kader van deze inleidende tekst valt. • Algebra voor ingenieurs • Hoofdstuk 4 Inproductruimten 4.6 4.6.1 4–31 Maple–commando’s voor inproductruimten Het inproduct van twee vectoren berekenen Het (standaard)inproduct van twee vectoren van een n–dimensionale vectorruimte over R wordt berekend met DotProduct(v,w) voorbeeld : > v:=Vector[row]([1,2,3,-4]); v := [1, 2, 3, −4] > w:=Vector[row]([0,3,2,-1]); w := [0, 3, 2, −1] > DotProduct(v,w); 16 Dit commando kan ook worden gebruikt om het inproduct te berekenen van twee vectoren over C. Naargelang de manier waarop deze vectoren worden ingevoerd (als rijvectoren of met het standaarP als kolomvectoren), correspondeert dit inproduct P dinproduct xi ȳi of met het (niet–standaard) inproduct x̄i yi voorbeeld : > v:=Vector([x[1],x[2]]); · v := > w:=Vector([y[1],y[2]]); · w := > x1 x2 y1 y2 ¸ ¸ DotProduct(v,w); (x1 ) y1 + (x2 ) y2 > v:=Vector[row]([x[1],x[2]]); v := [x1 , x2] > w:=Vector[row]([y[1],y[2]]); w := [y1 , y2] > DotProduct(v,w); (y1 ) x1 + (y2 ) x2 Een niet–standaardinproduct in Rn bepaald door een symmetrische positief–definiete matrix A, wordt berekend met BilinearForm(x,y,A,conjugate=false) waarbij de vectoren worden ingegeven als rijvectoren. Hoofdstuk 4 • Algebra voor ingenieurs • 4–32 Inproductruimten Wordt de optie conjugate=false weggelaten (dit is hetzelfde als conjugate=true) dan kunnen zo ook niet–standaardinproducten in Cn worden ingevoerd. voorbeeld : > > A:=Matrix(2,2,[[a[1,1],a[1,2]],[a[2,1],a[2,2]]]); · ¸ a1, 1 a1, 2 A := a2, 1 a2, 2 v:=Vector[row]([x[1],x[2]]); v := [x1 , x2] > w:=Vector[row]([y[1],y[2]]); w := [y1 , y2] > BilinearForm(v,w,A,conjugate=false); (a1, 1 y1 + y2 a2, 1 ) x1 + (y1 a1, 2 + a2, 2 y2 ) x2 4.6.2 De norm van een vector berekenen In Maple zijn verschillende normfuncties aanwezig. De euclidische norm of 2–norm afgeleid van het standaardinproduct op Rn wordt berekend met Norm(v,2) of met Norm(v,Euclidean) . Andere normen zoals de p–norm (met p een getal groter dan of gelijk aan 1) en de max–norm worden berekend met Norm(v,p) en met Norm(v,infinity) (= Norm(v) zonder optie). De norm van een matrix, afgeleid van het standaardinproduct op M at(m, n, R), wordt berekend met Norm(A,Frobenius) . Met Norm(A) (= Norm(A,infinity) wordt de max–norm van matrix A berekend. Naast het Norm–commando beschikt men ook nog over VectorNorm en MatrixNorm met dezelfde mogelijke opties als het algemene norm–commando. voorbeelden : > v:=Vector[row]([a,b,c]); v := [a, b, c] > Norm(v,1); |a| + |b| + |c| > Norm(v,2); q |a|2 + |b|2 + |c|2 • Algebra voor ingenieurs • Hoofdstuk 4 Inproductruimten > Norm(v,Euclidean); 4–33 q |a|2 + |b|2 + |c|2 > Norm(v); max(|a| , |b| , |c|) > Norm(v,infinity); max(|a| , |b| , |c|) > A:=Matrix(3,2,a); > Norm(A); max(|a(1, 1)| + |a(1, 2)| , |a(2, 1)| + |a(2, 2)| , |a(3, 1)| + |a(3, 2)|) > Norm(A,Frobenius); q |a(1, 1)|2 + |a(2, 1)|2 + |a(3, 1)|2 + |a(1, 2)|2 + |a(2, 2)|2 + |a(3, 2)|2 > B:=Matrix(2,2,[[1,2],[0,1]]); a(1, 1) a(1, 2) A := a(2, 1) a(2, 2) a(3, 1) a(3, 2) · 1 2 0 1 B := > > Norm(B,Frobenius); √ ¸ 6 Norm(B); 3 4.6.3 De hoek tussen twee vectoren berekenen De hoek tussen twee vectoren van Rn of Cn kan worden berekend met VectorAngle(v,w) . voorbeeld : > v:=Vector([1,0,0]); > w:=Vector([1,1,0]); > VectorAngle(v,w); 1 v := 0 0 1 w := 1 0 π 4 Hoofdstuk 4 • Algebra voor ingenieurs • 4–34 4.6.4 Inproductruimten Een vector normeren tot eenheidsvector Elke niet–nulvector kan worden genormeerd tot eenheidsvector door deze te vermenigvuldigen met het omgekeerde van zijn norm. Voor vectoren van Rn of Cn gebeurt dit met Normalize(v,optie) waarbij in de optie wordt aangegeven welke normfunctie moet worden gebruikt (standaard is dat de max–norm). voorbeeld : > v:=Vector([3,5,4]); > Normalize(v,infinity); 3 v := 5 4 > Normalize(v,Euclidean); 3 3 5 1 4 5 √ 2 10 √ 2 2 √ 2 2 5 4.6.5 Het Gram–Schmidt procédé toepassen voor het bepalen van een orthogonale of georthonormeerde basis Wordt een verzameling S van vectoren opgegeven, dan kan hieruit een stel orthogonale (of zelfs georthonormeerde) vectoren worden berekend met het procédé van Gram–Schmidt. Is de verzameling S zelf een basis, dan bekomt men zo een orthogonale (resp. georthonormeerde) basis. In Maple kan dit procédé worden uitgevoerd voor de vectorruimte Rn (of Cn ) met het commando GramSchmidt(S,optie) . Daarin is het eerste argument S een verzameling of lijst van vectoren. Het tweede optionele argument is normalized = true of false (de standaardinstelling is false). • Algebra voor ingenieurs • Hoofdstuk 4 Inproductruimten 4–35 Met deze optie gelijk aan true wordt een georthonormeerd stel bepaald (in het andere geval enkel een orthogonaal stel). voorbeeld : > v1:=Vector([1,2,3]):v2:=Vector([3,2,1]):v3:=Vector([1,3,2]): > S:=[v1,v2,v3]; > GramSchmidt(S); > 1 3 1 S := 2 , 2 , 3 3 1 2 16 −1 7 2 1 2 , 4 , 7 1 3 −1 −8 2 7 GramSchmidt(S,normalized=true); √ √ √ 14 6 4 21 − 14 √ √21 √6 14 , 21 , 6 3 7 21 √ √ √ 3 14 2 21 6 − − 14 21 6 Wanneer de opgegeven verzameling vectoren geen lineair onafhankelijke verzameling is, dan wordt een orthogonaal (en dus lineair onafhankelijk) stel bepaald. Er zullen in het antwoord dus minder vectoren staan dan in de opgegeven verzameling. voorbeeld : > v1:=Vector[row]([1,1]): > v2:=Vector[row]([2,2]): > v3:=Vector[row]([1,2]): > v4:=Vector[row]([2,1]): > GramSchmidt([v1,v2,v3,v4]); Hoofdstuk 4 · ¸ −1 1 [[1, 1], , ] 2 2 • Algebra voor ingenieurs • 4–36 4.6.6 Inproductruimten Nagaan of een matrix orthogonaal (resp. unitair) is Met IsOrthogonal(A) kan worden nagegaan of een reële vierkante matrix A al dan niet orthogonaal is. Met IsUnitary(A) kan worden nagegaan of een complexe vierkante matrix A al dan niet unitair is. voorbeeld : > > A:=Matrix(3,3,[[sqrt(2)/2,-sqrt(2)/2,0],[sqrt(2)/2,sqrt(2)/2,0],[0,0, -1]]); √ √ 2 2 0 2 − 2 √ √ A := 2 2 0 2 2 0 > 0 −1 IsOrthogonal(A); true > 4.6.7 evalm(A&*transpose(A)); 1 0 0 0 1 0 0 0 1 De QR–ontbinding van een matrix bepalen Met QRDecomposition(A) wordt de QR–ontbinding van een matrix A (met lineair onafhankelijke kolommen) gevonden. voorbeeld : > A:=Matrix(4,3,[[1,2,3],[0,1,0],[4,3,2]]); 1 2 3 0 1 0 A := 4 3 2 0 0 0 > (Q,R):=QRDecomposition(A); • Algebra voor ingenieurs • Hoofdstuk 4 Inproductruimten 4–37 √ √ 10 714 2 42 357 21 √ √ 5 42 714 − 0 42 42 √ √ √ 4 17 5 714 42 − − 17 714 42 0 0 0 √ Q, R := > 17 17 evalm(Q&*R); 1 0 4 0 > 4.6.8 evalm(transpose(Q)&*Q); 2 1 3 0 , √ 17 0 0 14 √ 17 17 √ 714 17 0 √ 11 17 17 √ 25 714 357 √ 5 42 21 3 0 2 0 1 0 0 0 1 0 0 0 1 Een Givens–rotatie definiëren Een Givens–rotatie in het (i, j)–vlak in tegenwijzerzin over een hoek ϑ wordt bepaald door een n × n–matrix G die gelijk is aan de n × n–eenheidsmatrix met uitzondering van de vier elementen gii = c, gjj = c, gij = s en gji = −s waarbij c = cos ϑ en s = sin ϑ en 1 ≤ j < i ≤ n. In Maple geven we deze matrix in met GivensRotationMatrix(v,i,j) Daarbij geven het tweede en derde argument aan in welk vlak van de n–dimensionale ruimte de rotatie zich afspeelt en het eerste argument is een n–dimensionale vector. De rotatiehoek ϑ is zodanig bepaald dat de j –de component van deze vector bij rotatie in tegenwijzerzin over ϑ nul wordt. voorbeeld : > v:=Vector([1,1,0]); > GivensRotationMatrix(v,2,1); Hoofdstuk 4 1 v := 1 0 • Algebra voor ingenieurs • 4–38 Inproductruimten √ √ 2 2 − 0 2 2 √ √ 2 2 0 2 2 0 0 1 Deze rotatie van de driedimensionale ruimte is dus een rotatie in tegenwijzerzin in het xy-vlak, waarbij de vector (1,1,0) wordt afgebeeld op een vector van de y-as (eerste component gelijk aan nul), bijgevolg is de rotatiehoek π4 4.6.9 Een Householder–transformatie definiëren Een Householdertransformatie (orthogonale spiegeling t.o.v. een n − 1–dimensionale deelruimte van een n–dimensionale ruimte) wordt bepaald door een n × n–matrix H waarvoor H = I − 2 [~u] · [~u]T met I de n × n–eenheidsmatrix en [~u] de n × 1– kolommatrix met de coördinaten van ~u t.o.v. een georthonormeerde basis. Daarin is ~u een eenheidsvector loodrecht op het hypervlak waarrond gespiegeld wordt. In Maple geven we deze matrix in met HouseholderMatrix(u) voorbeeld : > v:=Vector([0,0,1]); > HouseholderMatrix(v); > w:=Vector([1,1,1,1]); > HouseholderMatrix(w); • Algebra voor ingenieurs • 0 v := 0 1 1 0 0 0 1 0 0 0 −1 1 1 w := 1 1 Hoofdstuk 4 Inproductruimten 4–39 1 2 −1 2 −1 2 −1 2 4.6.10 −1 2 1 2 −1 2 −1 2 −1 2 −1 2 1 2 −1 2 −1 2 −1 2 −1 2 1 2 De singuliere waarden van een matrix bepalen Met SingularValues(A) worden de singuliere waarden van een matrix A bepaald. Deze worden dan in een kolommatrix weergegeven. Men kan ook de matrices U en V uit een singuliere waardenontbinding A = U ·Σ·V T bepalen met dit commando : SingularValues(A,output=[’U’,’Vt’]). De elementen van de bekomen matrices staan wel altijd in floating point notatie. voorbeeld : > > > A:=Matrix(4,2,[[1,1],[2,-2],[-2,2],[-1,-1]]); 1 1 2 −2 A := −2 2 −1 −1 SingularValues(A); 0 0 4 2 (U,V):=SingularValues(A,output=[’U’,’Vt’]): Hoofdstuk 4 • Algebra voor ingenieurs •