Hoofdstuk 4 Inproductruimten

advertisement
Hoofdstuk 4
Inproductruimten
4.1
Inproductruimte : definitie en voorbeelden
R
DEFINITIE 4.1
inproduct
Zij V een vectorruimte over F (met F = R of C)
Een afbeelding < , > van V × V naar F wordt een inproduct op V genoemd
als voldaan is aan :
(i) < ~v , ~v > ≥ 0 en < ~v , ~v >= 0 als en slechts als ~v = ~o
(ii) < ~v , w
~ >= < w,
~ ~v >
(iii) < k ~v1 + l ~v2 , w
~ >= k < ~v1 , w
~ > + l < ~v2 , w
~ > voor alle ~v , w,
~ ~v1 , ~v2 ∈ V en k, l ∈ F.
Opmerkingen :
1. Voorwaarde (i) staat gekend als het positief–definiet zijn van het inproduct.
2. Is F = R dan wordt voorwaarde (ii) : < ~v , w
~ >=< w,
~ ~v >, m.a.w. het inproduct
is dan symmetrisch.
3. Voorwaarde (iii) drukt uit dat het inproduct lineair is in de eerste component.
Lineariteit in de tweede component wordt niet geëist.
Wel volgt uit (ii) en (iii) dat < ~v , k w
~1 + l w
~ 2 >= k̄ < ~v , w
~ 1 > + ¯l < ~v , w
~2 >
voor alle ~v , w,
~ ~v1 , ~v2 ∈ V en k, l ∈ F en dit betekent ook lineariteit in de tweede
component wanneer het veld F gelijk is aan R.
~ >= 0 voor elke w.
~
4. Uit voorwaarde (iii) volgt in het bijzonder dat < ~o, w
Met voorwaarde (ii) volgt daaruit ook dat < ~v , ~o >= 0 voor elke ~v .
4–1
4–2
Inproductruimten
R
DEFINITIE 4.2
inproductruimte
Een inproductruimte is een vectorruimte voorzien van een inproduct.
Een reële inproductruimte heet ook een euclidische ruimte.
Een complexe inproductruimte heet ook een unitaire ruimte.
voorbeelden :
• Het scalair product tussen (meetkundige) vectoren in de ruimte, gedefinieerd
\
via ~v · w
~ = |~v | |w|
~ cos (~
v , w)
~ is een inproduct dat de ruimte structureert tot een
driedimensionale euclidische ruimte.
• Beschouw de vectorruimte Fn van de geordende n−tallen met elementen in F
en definiëer < ~x, ~y > voor ~x = (x1 , x2 , . . . , xn ) en ~y = (y1 , y2 , . . . , yn ) door :
n
P
xi y i
< ~x, ~y >=
i=1
Men gaat na dat dit een inproduct is (het zogeheten standaardinproduct op
Fn ).
Naast dit standaardinproduct bestaan er nog vele andere niet–standaardinproducten
op Fn . Is A een reële symmetrische, positief–definiete matrix (dit is waarvoor alle leidende minoren een strikt positieve determinant bezitten), dan is
< ~x, ~y >= [~y ]T · A · [~x] een niet–standaardinproduct op Rn .
• Beschouw de vectorruimte V = C0 ([a, b], R) van de reëelwaardige functies die
gedefinieerd en continu zijn over het gesloten interval [a, b].
Men gaat na dat < f, g >=
Rb
f (x)g(x) dx een inproduct definieert op V.
a
• Beschouw de vectorruimte V = M at(m, n, F) van de m × n−matrices met elementen in F.
Is F = R dan definieert < A, B >= tr(B T · A) een inproduct op V.
Analoog definieert < A, B >= tr(B † · A) een inproduct in het geval F = C
T
(met B † = B de hermitisch toegevoegde matrix van B )
• Algebra voor ingenieurs •
Hoofdstuk 4
Inproductruimten
4.2
4–3
Norm en genormeerde vectorruimte
Zij V een inproductruimte.
√
Voor ~v ∈ V definieert men : ||~v || = < ~v , ~v > en men noemt ||~v || de norm (afgeleid
van het inproduct), de grootte of de lengte van ~v .
De norm die afgeleid is van het standaardinproduct op Rn noemt men ook de euclidische norm of de 2–norm.
De norm die is afgeleid van het inproduct < A, B >= tr(B T · A) op M at(m, n, R)
staat gekend als de Frobeniusnorm
s .
Er geldt : ||A|| =
p
tr(AT · A) =
XX
i
|aij |2
j
De norm afgeleid van een inproduct bezit een aantal eigenschappen die we formuleren in de volgende stelling.
¥ STELLING 4.1
eigenschappen van de normfunctie
Zij || · || de norm afgeleid van het inproduct van de inproductruimte V .
Dan gelden volgende eigenschappen :
(i) ||~v || ≥ 0 en ~v = 0 als en slechts als ~v = ~o
(ii) ||k ~v || = |k| ||~v ||
(iii) | < ~v , w
~ > | ≤ ||~v || · ||w||
~
(ongelijkheid van Cauchy–Schwarz–Buniakovski)
(iv) ||~v + w||
~ ≤ ||~v || + ||w||
~
(driehoeksongelijkheid of ongelijkheid van Minkowski)
bewijs :
(i) en (ii) triviaal
(iii) als w
~ = ~o dan is de uitspraak triviaal, onderstel dus dat w
~ 6= ~o.
Er geldt : ||~v − r < ~v , w
~ > w||
~ 2 ≥ 0 of dus < ~v − r < ~v , w
~ > w,
~ ~v − r < ~v , w
~ >w
~ >≥ 0.
Na uitwerking komt er ||~v ||2 − 2r < ~v , w
~ > < ~v , w
~ > + r2 < ~v , w
~ > < ~v , w
~ >||w||
~ 2≥0
Gelet op < ~v , w
~ > < ~v , w
~ > = | < ~v , w
~ > |2 komt er
||~v ||2 − 2r| < ~v , w
~ > |2 + r2 | < ~v , w
~ > |2 ||w||
~ 2≥0
1
, dan wordt bovenstaande uitdrukking
Kies nu r =
||w||
~ 2
2
| < ~v , w
~ > |2
| < ~v , w
~ > |2
2
2
2
||~v || −
| < ~v , w
~ >| +
≥ 0 of nog ||~v || −
≥0
||w||
~ 2
||w||
~ 2
||w||
~ 2
waaruit uiteindelijk | < ~v , w
~ > | ≤ ||~v || · ||w||
~
(iv) ||~v + w||
~ 2 = ||~v ||2 + ||w||
~ 2 + < ~v , w
~ > + < w,
~ ~v >
Hoofdstuk 4
• Algebra voor ingenieurs •
4–4
Inproductruimten
= ||~v ||2 + ||w||
~ 2 + < ~v , w
~ > +< w,
~ ~v > = ||~v ||2 + ||w||
~ 2 + 2 Re(< ~v , w
~ >)
2
2
Deze uitdrukking is kleiner dan of gelijk aan ||~v || + ||w||
~ + 2 | < ~v , w
~ > | ≤
||~v ||2 + ||w||
~ 2 + 2 ||~v || ||w||
~ (gesteund op Cauchy–Schwarz) en dat laatste is gelijk
aan (||~v || + ||w||)
~ 2 waaruit het gestelde volgt . ¤
Opmerkingen :
• Eigenschap (i) laat toe om met elke ~v 6= ~o een unieke eenheidsvector ~e te
~v
associëren, namelijk : ~e =
||~v ||
• Is F = R en V een euclidische ruimte, dan volgt uit de ongelijkheid van Cauchy–
Schwarz–Buniakovski dat voor elke tweetal vectoren ~v en w
~ verschillend van ~o
< ~v , w
~>
voldaan is aan −1 ≤
≤ 1 zodat een unieke ϑ ∈ [0, π] bestaat waarvoor
||~v || ||w||
~
< ~v , w
~>
cos ϑ =
.
||~v || ||w||
~
Men noemt ϑ de hoek tussen de vectoren ~v en w
~.
• De gelijkheid in eigenschap (iii) en eigenschap (iv) geldt enkel als ~v en w
~ lineair
afhankelijk zijn.
Figuur 4.1: Cauchy (1789–1857), Schwarz (1843–1921) en Buniakovski (1804–1889)
De eigenschappen (i), (ii) en (iv) van de norm afgeleid van een inproduct, kunnen
dienen als uitgangspunt voor het definiëren van een normfunctie los van een inproduct.
Men definieert namelijk :
• Algebra voor ingenieurs •
Hoofdstuk 4
Inproductruimten
R
DEFINITIE 4.3
4–5
norm en genormeerde vectorruimte
Zij V een vectorruimte. Een afbeelding n : V → R heet een norm op V als
voldaan is aan :
(i) n(~v ) ≥ 0 en n(~v ) = 0 als en slechts als ~v = ~o
(ii) n(k ~v ) = |k| n(~v )
(iii) n(~v + w)
~ ≤ n(~v ) + n(w)
~
Een vectorruimte V voorzien van een norm, wordt een genormeerde
vectorruimte genoemd.
Is V een inproductruimte, dan is V ook een genormeerde vectorruimte
met als norm
p
n de van het inproduct afgeleide normfunctie n(~v ) = ||~v || = < ~v , ~v >.
Omgekeerd kan men in een genormeerde vectorruimte niet altijd een inproduct afleiden uit de norm, wat betekent dat niet iedere genormeerde vectorruimte ook
automatisch een inproductruimte is.
Voorbeelden van niet–inproductnormen zijn de zogeheten 1–norm en de maximumnorm op Fn resp. gedefinieerd door ||(x1 , . . . , xn )||1 = |x1 | + |x2 | + . . . + |xn | en door
||(x1 , . . . , xn )||∞ = max(|x1 |, . . . , |xn |).
Het is echter wel mogelijk om een nodige en voldoende voorwaarde te formuleren
opdat van de norm n van een genormeerde vectorruimte (V, n) een inproduct <, >
zou kunnen worden afgeleid waarvoor (V, <, >) tot inproductruimte wordt gestructureerd.
Deze stelling werd bewezen door Pascual Jordan (1902–1980) (vaak verward met
Camille Jordan (1838–1922)) en John von Neumann (1903–1957), twee vooraanstaande wiskundigen die ook belangrijk werk verricht hebben in de quantumfysica.
¥ STELLING 4.2
stelling van P. Jordan–Von Neumann
Zij (V, n) een reële of complexe genormeerde vectorruimte
Als de parallellogramregel n(~v + w)
~ 2 + n(~v − w)
~ 2 = 2(n(~v )2 + n(w)
~ 2 ) geldt, dan kan
een inproduct uit de normfunctie n worden afgeleid waardoor V wordt gestructureerd
tot een inproductruimte
bewijs :
Als F = R dan kan men bewijzen dat de afbeelding <, > gedefinieerd door < ~v , w
~ >=
1
1
2
2
n(~
v
+
w)
~
−
n(~
v
−
w)
~
voldoet.
4
4
Hoofdstuk 4
• Algebra voor ingenieurs •
4–6
Inproductruimten
Als F = C dan kan men bewijzen dat de afbeelding <, > gedefinieerd door < ~v , w
~ >=
j
j
1
1
2
2
2
2
n(~v + w)
~ − 4 n(~v − w)
~ + 4 n(~v − j w)
~ − 4 n(~v + j w)
~ voldoet. ¤
4
De formules om een inproduct af te leiden uit de norm in bovenstaand bewijs, staan
gekend als de polarisatieformules.
Figuur 4.2: Pascual Jordan en John von Neumann
In een genormeerde vectorruimte kan de norm worden gebruikt om een afstand te
definiëren : d(~v , w)
~ = n(~v − w)
~ .
Met deze metriek wordt een genormeerde vectorruimte ook een metrische ruimte.
Is deze compleet (elke cauchyrij bezit een limiet), dan noemt men de genormeerde
vectorruimte een banachruimte.
Alle eindig–dimensionale genormeerde vectorruimten zijn banachruimten.
Een hilbertruimte is een bijzondere banachruimte. Het is een inproductruimte
waarvoor de genormeerde vectorruimte met de norm afgeleid van het inproduct
compleet is.
Banachruimten vormen het natuurlijk kader voor de functionaalanalyse. Deze tak
van de moderne analyse bestudeert (in hoofdzaak oneindigdimensionale) functieruimten en operatoren van dergelijke ruimten.
De wiskundige beschrijving van de quantummechanica is in belangrijke mate gebaseerd op hilbertruimten.
• Algebra voor ingenieurs •
Hoofdstuk 4
Inproductruimten
4–7
Figuur 4.3: Stefan Banach (1892–1945) en David Hilbert (1862–1943)
4.3
Orthogonaliteit
4.3.1
Orthogonale vectoren
Het inproduct in een inproductruimte laat niet alleen toe om de norm van een
vector in te voeren, maar ook het belangrijke begrip orthogonaliteit.
R
DEFINITIE 4.4
orthogonaliteit van vectoren
Zij V een inproductruimte.
Twee vectoren ~v en w
~ heten orthogonaal indien < ~v , w
~ >= 0, notatie : ~v ⊥ w.
~
Opmerkingen :
• ~v ⊥ w
~ ⇐⇒ w
~ ⊥ ~v
De orthogonaliteitsrelatie is dus symmetrisch. Dat volgt uit (ii) in de definitie
van inproduct.
• ~o ⊥ ~v voor iedere ~v ∈ V , de nulvector is orthogonaal met iedere vector.
• ~v ⊥ ~v ⇒ ~v = ~o.
Dit volgt uit het positief–definiet zijn van het inproduct. Men zegt dat een
inproductruimte geen isotrope vectoren bevat.
Hoofdstuk 4
• Algebra voor ingenieurs •
4–8
Inproductruimten
De nu volgende stelling karakteriseert orthogonale vectoren door een gelijkheid van
normen.
¥ STELLING 4.3
stelling van Pythagoras
Zij V een inproductruimte en ~v , w
~ ∈V.
2
Als ~v ⊥ w
~ dan geldt ||~v + w||
~ = ||~v ||2 + ||w||
~ 2
Is V een reële inproductruimte, dan geldt ook de omgekeerde implicatie
bewijs :
||~v + w||
~ 2 =< ~v + w,
~ ~v + w
~ >=< ~v , ~v > + < ~v , w
~ > + < w,
~ ~v > + < w,
~ w
~>
2
2
= ||~v || + ||w||
~ + < ~v , w
~ > +< ~v , w
~ >.
Is ~v ⊥ w
~ dan volgt hieruit ||~v + w||
~ 2 = ||~v ||2 + ||w||
~ 2.
Omgekeerd, is ||~v + w||
~ 2 = ||~v ||2 + ||w||
~ 2 dan is < ~v , w
~ > +< ~v , w
~ > = 2 <(< ~v , w
~ >) = 0
waaruit in het geval van een reële inproductruimte volgt dat < ~v , w
~ >= 0 en dus
~v ⊥ w
~. ¤
Een verzameling S = {~v1 , ~v2 , . . . , ~vk } van vectoren uit V wordt een orthogonale
deelverzameling van V genoemd indien ~vi ⊥ ~vj zodra i 6= j.
Is bovendien ||~vi || = 1 voor elke ~vi dan noemt men S een georthonormeerde deelverzameling van V.
We hebben nu volgende belangrijke eigenschap :
¥ STELLING 4.4
lin. onafh. van orthogonale deelverzameling
Zij V een inproductruimte en zij S = {~v1 , ~v2 , . . . , ~vk } een orthogonale deelverzameling
van V met geen enkele ~vi gelijk aan de nulvector
Dan geldt : S is een lineair onafhankelijke deelverzameling van V
bewijs :
Stel dat r1~v1 + r2~v2 + · · · + rk~vk = ~o.
Dan is < r1~v1 + r2~v2 + · · · + rk~vk , ~vj >=< ~o, ~vj >= 0 voor elke ~vj uit S.
Anderzijds is dan ook r1 < ~v1 , ~vj > +r2 < ~v2 , ~vj > + . . . + rk < ~vk , ~vj >= 0.
Vermits < ~vi , ~vj >= 0 voor i 6= j en vermits < ~vj , ~vj >6= 0 omdat ~vj 6= ~o besluiten we
dus dat rj = 0 en dit voor elke j ∈ {1, 2, . . . , k} .
Hiermee is aangetoond dat S een verzameling lineair onafhankelijke vectoren is. ¤
• Algebra voor ingenieurs •
Hoofdstuk 4
Inproductruimten
4–9
Een basis van een inproductruimte V (of van een deelruimte W van een inproductruimte) wordt een orthogonale basis (resp. een georthonormeerde basis) van V
(of van W ) genoemd wanneer deze bestaat uit twee aan twee orthogonale (resp. georthonormeerde) vectoren.
4.3.2
De orthogonalisatiestelling van Gram–Schmidt
Zij ~v en w
~ twee vectoren in een inproductruimte.
We willen nu de vector ~v ontbinden als de som van een vector ~a = k w
~ en een vector
~b die orthogonaal is met w
~.
Uit ~v = k w
~ + ~b volgt dat ~b ⊥ w
~ als en slechts als < ~v − k w,
~ w
~ >= 0 of dus als
< ~v , w
~ > −k < w,
~ w
~ >= 0
< ~v , w
~>
.
||w||
~ 2
< w,
~ w
~>
De vector ~a =
w
~ noemt men de orthogonale projectie van ~v op w
~ (of op
||w||
~ 2
de deelruimte W die wordt opgespannen door w
~ ).
Hieruit volgt dat k =
Men noteert : projw~ ~v
~
Uit het voorgaande is duidelijk dat ~v − projw~ ~v orthogonaal is met w
De nu volgende stelling, die reeds werd bewezen door Laplace, is vooral verbonden
met de wiskundigen Jorgen Pederson Gram en Erhard Schmidt. Het bewijs ervan
maakt gebruik van de hierboven beschreven orthogonale projectie.
¥ STELLING 4.5
orthogonalisatiestelling van Gram-Schmidt
Elke eindig–dimensionale inproductruimte V bezit een georthonormeerde basis
bewijs :
Beschouw een willekeurige basis B = {~e1 , ~e2 , . . . , ~en } van V.
Stel ~u1 = ~e1 en definieer ~u2 = ~e2 − proj~u1 ~e2 .
Dan is ~u2 ⊥ ~u1 .
Stel vervolgens : ~u3 = ~e3 − proj~u1 ~e3 − proj~u2 ~e3
Dan gaat men na dat ~u3 ⊥ ~u1 en ~u3 ⊥ ~u2 .
Zo verder gaand bekomen we een verzameling twee aan twee orthogonale vectoren
{~u1 , ~u2 , . . . , ~un } waarbij ~ui = ~ei − proj~u1 ~ei − . . . − proj~ui−1 ~ei .
Hoofdstuk 4
• Algebra voor ingenieurs •
4–10
Inproductruimten
Geen enkele van de aldus geconstrueerde vectoren ~ui is gelijk aan de nulvector, want
indien ~ui = ~o, dan zou ~ei ∈ span {~u1 , . . . , ~ui−1 } = span {~e1 , . . . , ~ei−1 } in strijd met de
lineaire onafhankelijkheid van de vectoren ~e1 , . . . , ~ei .
De verzameling {~u1 , ~u2 , . . . , ~un } is dus een orthogonale verzameling niet–nulvectoren
en wegens stelling 4.4 is deze dan een verzameling lineair onafhankelijke vectoren
dewelke dan een basis vormen voor V . ¤
Opmerkingen :
• De methode die wordt toegepast in bovenstaand bewijs om een orthogonale
basis te construeren uit een willekeurige basis, staat gekend als de orthogonalisatiemethode van Gram–Schmidt
• Wanneer een orthogonale basis {~u1 , ~u2 , . . . , ~un } werd geconstrueerd, dan kan
men hieruit ook onmiddellijk een georthonormeerde basis {~v1 , ~v2 , . . . , ~vn } halen
door elke ~ui te normeren tot een eenheidsvector ~vi = ||~~uuii ||
• Uit de stelling van Gram–Schmidt volgt ook dat elke verzameling orthogonale
vectoren (verschillend van de nulvector) steeds kan worden aangevuld tot een
orthogonale basis. Immers, vul de orthogonale verzameling aan tot een basis
en pas daarop het orthogonalisatieprocédé van Gram–Schmidt toe.
• De stelling blijft geldig in het geval van oneindigdimensionale inproductruim-
ten.
Figuur 4.4: Jorgen Gram (1850–1916) en Erhard Schmidt (1876–1959)
• Algebra voor ingenieurs •
Hoofdstuk 4
Inproductruimten
4–11
Voorbeelden :
• Beschouw de vectorruimte Fn voorzien van het standaardinproduct.
De standaardbasis {~e1 , . . . , ~en } met ~ei = (0, . . . , 0, 1, 0, . . . , 0) (1 op de i–de
plaats) is een georthonormeerde basis van deze inproductruimte.
• Beschouw de vectorruimte R[x] van de reële veeltermen. Deze wordt gestruc-
tureerd tot een inproductruimte wanneer men als inproduct neemt :
Rb
< p(x), q(x) >= a p(x) q(x) w(x) dx waarbij de niet–negatieve functie w(x) de
gewichtsfunctie wordt genoemd.
Twee veeltermen heten orthogonaal wanneer hun inproduct nul is.
Start men bij de verzameling veeltermen {1, x, x2 , . . .} en past men daarop het
orthogonalisatieprocédé van Gram–Schmidt toe, dan bekomt men een verzameling orthogonale veeltermen.
Het eenvoudigste voorbeeld zijn de Legendre–veeltermen. De gewichtsfunctie
is daarvoor w(x) = 1 en het interval [a, b] = [−1, 1].
De Legendre–veeltermen zijn : p0 (x) = 1, p1 (x) = x, p2 (x) =
4
2 +3
5x3 −3x
, p4 (x) = 35x −30x
enz.
2
8
3x2 −1
, p3 (x)
2
=
Andere bekende voorbeelden, beantwoordend aan andere gewichtsfuncties en
intervallen [a, b], zijn Jacobi–veeltermen, Hermite–veeltermen, Gegenbauer–
veeltermen, Laguerre–veeltermen, Chebyshev–veeltermen.
Orthogonale veeltermen treden op als bijzondere oplossingen van belangrijke
types van differentiaalvergelijkingen en hebben heel wat toepassingen in de
fysica.
• Beschouw de functieruimte C0 ([0, 2π], R) van de continue reëelwaardige functies
R 2π gedefinieerd over [0, 2π] en voorzie deze van het inproduct < f, g >=
f (x) g(x) dx
0
De verzameling {1, cos x, cos 2x, . . . , cos nx, . . . , sin x, sin 2x, . . . , sin nx, . . .} vormt
een orthogonale basis voor deze inproductruimte.
Iedere functie kan bijgevolg op een unieke wijze geschreven worden als een
lineaire combinatie van deze orthogonale functies :
+∞
+∞
X
a0 X
f (x) =
+
an cos nx +
bn sin nx
2
n=1
n=1
Dit is de welbekende reeksontwikkeling van Fourier voor periodieke functies
met periode 2π .
Hoofdstuk 4
• Algebra voor ingenieurs •
4–12
Inproductruimten
Op p. 3–13 hebben we gezien dat elke vector ~v van een n–dimensionale vectorruimte
V coördinaten x1 , . . . , xn bezit t.o.v. een gekozen geordende basis B van V .
Is nu V in het bijzonder een inproductruimte en is de gekozen basis B = {~u1 , . . . , ~un }
van V een georthonormeerde basis van V , dan kan het inproduct van twee vectoren eenvoudig worden berekend met behulp van de coördinaten van die vectoren
t.o.v. die basis.
Immers :
< ~v , w
~ >=<
n
X
xi ~ui ,
i=1
n
X
yj ~uj >=
j=1
n X
n
X
xi yj < ~ui , ~uj >=
i=1 j=1
n X
n
X
i=1 j=1
xi yj δij =
n
X
xi y i
i=1
waarbij gesteund werd op < ~ui , ~uj >= δij (kroneckerdelta) wegens het georthonormeerd zijn van de basis.
Noteren we met [~v ]B de kolommatrix waarvan de elementen de coördinaten zijn
van ~v t.o.v. de basis B , dan geldt dus ook : < ~v , w
~ >= [w]
~ †B · [~v ]B († is de complex
toegevoegde van de getransponeerde = hermitisch toegevoegde) en in het bijzonder
als V een reële inproductruimte is : < ~v , w
~ >= [w]
~ TB · [~v ]B .
Dikwijls zal men in de notatie de georthonormeerde basis B niet expliciet vermelden
en dan schrijft men dus :
< ~v , w
~ >= [w]
~ † · [~v ] resp. < ~v , w
~ >= [w]
~ T · [~v ]
4.3.3
Orthogonale en unitaire matrices
Zij A een reële m × n–matrix waarvan we de rijen opvatten als vectoren van Rn (die
we voorzien van het standaardinproduct).
We tonen nu aan dat deze rijen georthonormeerde vectoren van Rn zijn als en slechts
als A · AT = I .

A1
 A2 


Noteren we A als  ..  (blokmatrix met de rijen als blokken), dan is A · AT =

 .
Am




A1
T
T
.
.
.
A
·
A
A
·
A
1
1
m
1
 A2  £
¤ 



..
..
 · AT1 AT2 . . . ATm = 
 ..
.
.
.

 .
T
T
Am · A1 . . . Am · Am
Am

Deze m × m–matrix is gelijk aan de eenheidsmatrix als en slechts als Ai · ATj = δij ,
dit is als en slechts als de rijvectoren die corresponderen met Ai en Aj twee aan
• Algebra voor ingenieurs •
Hoofdstuk 4
Inproductruimten
4–13
twee orthogonaal zijn en norm 1 hebben, m.a.w. als deze m vectoren een georthonormeerd stel vormen.
Op gelijkaardige wijze kan worden aangetoond dat de kolommen van een m × n–
matrix A georthonormeerde vectoren van M at(n, 1, R) vormen als en slechts als
AT · A = I .
In het geval van een vierkante matrix A leidt het voorgaande tot de volgende definitie :
R
DEFINITIE 4.5
orthogonale matrix
Een vierkante matrix van de orde n heet orthogonaal als en slechts als
A · AT = In = AT · A
Op analoge manier wordt aangetoond dat de rijen (resp. de kolommen) van een
complexe m × n–matrix A georthonormeerde vectoren van Cn zijn als en slechts als
A voldoet aan A · A† = I (resp. A† · A = I ).
Men definieert dan ook :
R
DEFINITIE 4.6
unitaire matrix
Een vierkante matrix van de orde n heet unitair als en slechts als
A · A† = In = A† · A
Verderop in dit hoofdstuk zullen we zien dat de orthogonale en unitaire matrices op
natuurlijke wijze optreden als matrices geassocieerd aan lineaire transformaties met
bijzondere eiegenschappen, die men de passende benaming orthogonale (resp. unitaire) transformaties zal geven.
Orthogonale en unitaire matrices bezitten nog volgende eigenschap :
¥ STELLING 4.6
eigenschap van orthogonale/unitaire matrices
De determinant van een orthogonale matrix heeft absolute waarde 1
De determinant van een unitaire matrix heeft modulus 1
bewijs :
Uit A · AT = I volgt dat det(A · AT ) = det I = 1 en dus det A · det AT = 1 of dus
(det A)2 = 1 waaruit volgt dat | det A| = 1.
Analoog voor een unitaire matrix. ¤
Hoofdstuk 4
• Algebra voor ingenieurs •
4–14
Inproductruimten
Orthogonale (unitaire) matrices treden ook op als overgangsmatrices bij de overgang tussen twee georthonormeerde basissen van een inproductruimte.
¥ STELLING 4.7
overgang tussen georthonormeerde basissen
e = {~u1 , . . . , ~un } georthonormeerde basissen van een reële
Zij B = {~e1 , . . . , ~en } en B
e
(resp. complexe) inproductruimte en zij P de overgangsmatrix van B naar B.
Dan geldt : P is een orthogonale (resp. unitaire) matrix.
bewijs :
Als ~uj =
n
X
pji~ei voor j = 1, . . . , n dan is de overgangsmatrix P bij overgang van B
i=1
e gelijk aan P = [pji ] = [pij ]T en dus P T = [pij ]
naar B
Dan geldt : P T · P = [cij ] = [
Anderzijds is :
δij =< ~ui , ~uj >=<
n
P
pik pjk ].
k=1
n
P
k=1
pik~ek ,
n
P
pjl~el >=
l=1
n P
n
P
pik pjl < ~ek , ~el >=
k=1 l=1
n P
n
P
k=1 l=1
met δkl = 0 of 1 naargelang k 6= l of k = l zodat er overblijft : δij =
pik pjl δkl
n
P
pik pjk = cij
k=1
Hiermee is aangetoond dat P T · P = I en dus is P een orthogonale matrix.
Het bewijs dat P unitair is in het geval van een complexe inproductruimte verloopt
analoog.
4.3.4
QR–ontbinding van een matrix
In hoofdstuk 2, § 2.8.5, hebben we de P U –ontbinding van een matrix bekeken.
In deze paragraaf blijven we stilstaan bij een andere factorisatie van een m × n–
matrix A, de QR–ontbinding.
Deze ontbinding wordt vaak gebruikt in algoritmes voor computerberekeningen bij
het oplossen van lineaire stelsels of het bepalen van eigenwaarden.
We formuleren het resultaat als een stelling :
¥ STELLING 4.8
QR–ontbinding
Zij A een m × n–matrix met lineair onafhankelijke kolommen.
Dan kan A ontbonden worden als A = Q · R, met Q een m × n–matrix waarvan de
kolommen een orthonormale basis vormen voor de kolommenruimte van A en met R
een inverteerbare n × n–bovendriehoeksmatrix.
• Algebra voor ingenieurs •
Hoofdstuk 4
Inproductruimten
4–15
bewijs :
De kolommen van A = [A1 . . . An ] vormen een basis voor de kolommenruimte Col A.
Door toepassing van het Gram–Schmidt orthogonalisatieprocédé wordt deze basis
omgevormd tot een georthonormeerde basis.
Zij Q = [Q1 . . . Qn ] de matrix waarvan de kolommen deze georthonormeerde vectoren zijn.
Bij toepassing van het orthogonalisatieprocédé is elke bekomen georthonormeerde
vector Qi een lineaire combinatie van de oorspronkelijke vectoren A1 t.e.m. Ai :
Qi = k1i A1 + k2i A2 + . . . + kii Ai met kii 6= 0

k11 k12
 0 k22

We kunnen dus schrijven : [Q1 . . . Qn ] = [A1 . . . An ] · 

0
0

. . . k1n
. . . k2n 

.
...

. . . knn
De matrix [kij ] is een inverteerbare bovendriehoeksmatrix waarvan we de inverse R
noemen. Deze inverse is opnieuw een bovendriehoeksmatrix.
Uit het bovenstaande volgt door rechtse vermenigvuldiging met R dat Q · R = A.
¤
Opmerkingen :
• Omdat de kolommen van Q georthonormeerde vectoren zijn van Col A voldoet
de matrix Q aan QT · Q = I (of aan Q† · Q = I ).
De matrix R kan bijgevolg gevonden worden uit Q door R = QT · A (resp. R =
Q† · A).
• Is de matrix A een vierkante n × n–matrix, dan zijn de matrices Q en R ook
beide n × n–matrices.
De matrix Q is dan een orthogonale of unitaire matrix.
Uit A = Q · R volgt nu ook dat voor een reële matrix A geldt :
det A = det Q · det R = ±1 ·
n
Y
rii waarbij gesteund werd op stelling 4.6.
i=1
De determinant van A is dus (eventueel op het teken na) gelijk aan het product van de diagonaalelementen van de bovendriehoeksmatrix R uit de QR–
factorisatie van A.
Hoofdstuk 4
• Algebra voor ingenieurs •
4–16
Inproductruimten
voorbeeld :
µ
¶
1 2
Zij A =
.
3 4
Toepassing van het orthogonalisatieprocédé van Gram–Schmidt zet de vectoren
(1, 3) en (2, 4) om in de georthonormeerde vectoren ( √110 , √310 ) en ( √310 , − √110 )
Ã
De matrix Q is bijgevolg : Q =
√1
10
√3
10
De matrix R is dan gelijk aan QT · A =
4.3.5
!
√3
10
− √110
Ã
√10
10
0
.
√14
10
√2
10
!
.
Matrix en determinant van Gram
R
DEFINITIE 4.7
Gramse matrix en determinant van Gram
Zij ~v1 , . . . , ~vm een stel vectoren in een n–dimensionale inproductruimte (m ≤ n).
Dan isde matrix van Gram horende bij dit stel,
 gedefinieerd als :
< ~v1 , ~v1 > < ~v1 , ~v2 > . . . < ~v1 , ~vm >
 < ~v2 , ~v1 > < ~v2 , ~v2 > . . . < ~v2 , ~vm >

Gm = 
..
..
..

.
.
.
< ~vm , ~v1 > < ~vm , ~v2 > . . . < ~vm , ~vm >




en det(Gm ) heet de determinant van Gram.
voorbeeld :
Definieer op V = Rn [x] het inproduct < p(x), q(x) >=
~vi = xi−1 (i = 1, . . . , n) :
Z
1
< ~vi , ~vj >=
xi−1 xj−1 dx =
0
R1
0
p(x)q(x) dx, dan is voor
1
i+j−1
De Gramse matrix horende bij het stel {1, x, . . . , xn−1 } is dan de zogenoemde Hilbertmatrix Hn (zie hoofdstuk 2, p.2–52) :

1
 1
 2
 ..
 .
1
n
1
2
1
3
...
...
1
n
1
n+1
1
n+1
...
1
2n−1
..
.
..
.





Beschouw nu een georthonormeerde basis van een reële inproductruimte V (voor
een complexe inproductruimte gelden analoge resultaten, maar de getransponeerde
• Algebra voor ingenieurs •
Hoofdstuk 4
Inproductruimten
4–17
wordt vervangen door de hermitisch toegevoegde) en zij {~v1 , . . . , ~vm } een stel lineair
onafhankelijke vectoren van V .
Noem A de matrix waarvan de kolommen de coördinaten zijn van de vectoren ~vi
t.o.v. die basis.
Dan is het element op de i–de rij en j –de kolom van de Gramse matrix Gm die hoort
bij het stel vectoren gelijk aan (Gm )ij =< ~vi , ~vj >= [~vj ]T · [~vi ] (zie p. 4–12).
Dit element is dus het product van de j –de rij van AT met de i–de kolom van A,
dit is het element op de (j, i)–de plaats van AT · A.
Nu is evenwel AT · A symmetrisch want (AT · A)T = AT · (AT )T = AT · A, zodat
bovenstaand element ook het element op de (i, j)–de plaats is.
We hebben bijgevolg aangetoond dat (Gm )ij = (AT · A)ij of dus Gm = AT · A .
De determinant van Gram laat toe om de lineaire (on)afhankelijkheid na te gaan
van een stel vectoren in een inproductruimte.
¥ STELLING 4.9
lineaire (on)afhankelijkheid en Gramse determinant
Zij {~v1 , . . . , ~vm } een stel vectoren van een n–dimensionale inproductruimte met m ≤ n
Dan geldt : {~v1 , . . . , ~vm } is lineair onafhankelijk als en slechts als det Gm 6= 0
4.3.6
R
Loodruimte (orthogonaal complement) van een deelruimte
DEFINITIE 4.8
orthogonaal complement
Zij V een inproductruimte en zij W een deelruimte van V .
De verzameling W ⊥ = {~v ∈ V | < ~v , w
~ >= 0 voor elke w
~ ∈ W } heet orthogonaal
complement of loodruimte of polaire ruimte van W .
Dat men wel degelijk mag spreken van loodruimte blijkt uit het volgende :
Zij ~v1 ∈ W ⊥ en ~v2 ∈ W ⊥ .
Dan is < r~v1 + ~v2 , w
~ >= r < ~v1 , w
~ > + < ~v2 , w
~ >= 0 + 0 = 0 voor iedere w
~ ∈ W.
⊥
Met het criterium voor deelruimte mogen we besluiten dat W een deelruimte is
van V .
Het is onmiddellijk duidelijk dat {~o}⊥ = V en dat V ⊥ = {~o}
In de volgende stelling tonen we aan dat een inproductruimte steeds gelijk is aan
de directe som van een deelruimte en de loodruimte daarvan.
Hoofdstuk 4
• Algebra voor ingenieurs •
4–18
Inproductruimten
¥ STELLING 4.10
orthogonale ontbinding van inproductruimte
Zij W een deelruimte van een inproductruimte V en zij W ⊥ de loodruimte van W .
Dan geldt : V = W ⊕ W ⊥
bewijs :
Zij {~e1 , ~e2 , . . . , ~ek } een basis voor W .
We vullen deze aan tot een basis {~e1 , ~e2 , . . . , ~ek , ~ek+1 , . . . , ~en } voor V .
Passen we het orthogonalisatieprocédé van Gram-Schmidt toe, dan bekomen we
hieruit een orthogonale basis {~u1 , ~u2 , . . . , ~uk , ~uk+1 , . . . , ~un } van V .
Daarbij is iedere ~ui een lineaire combinatie van de vectoren ~e1 t.e.m. ~ei .
In het bijzonder zijn de vectoren ~u1 t.e.m. ~uk lineaire combinaties van de vectoren
~e1 t.e.m. e~k en dus behoren die vectoren tot W .
Bijgevolg is {~u1 , ~u2 , . . . , ~uk } een orthogonale basis van W .
Het is ook duidelijk dat de vectoren ~uk+1 t.e.m. ~un alle tot W ⊥ behoren, want ~uj ⊥ ~ui
voor elke j ∈ {k + 1, . . . , n} en elke i ∈ {1, . . . , k}.
Is nu ~v een willekeurige vector van V dan is : ~v =
n
X
i=1
ri~ui =
k
X
i=1
ri~ui +
n
X
ri~ui .
i=k+1
Daarbij behoort de eerste som tot W en de laatste tot W ⊥ .
Elke vector van V is dus te schrijven als som van een vector uit W en een vector
uit W ⊥ wat betekent dat V = W + W ⊥ .
Vervolgens tonen we aan dat W ∩ W ⊥ = {~o}
Immers is w
~ ∈ W ∩W ⊥ dan is < w,
~ w
~ >= 0 (omdat w
~ tot W ⊥ behoort is w
~ orthogonaal
met elke vector van W , dus i.h.b. met w
~ die ook tot W behoort).
Uit het positief–definiet zijn (voorwaarde (i) voor inproduct) moet dan w
~ = ~o.
Uit V = W + W ⊥ en W ∩ W ⊥ = {~o} kunnen we dus besluiten dat V = W ⊕ W ⊥ ¤
Opmerking :
Is W een deelruimte van V , dan bezit elke vector ~v van V dus een unieke
ontbinding ~v = w
~0 + w
~ 1 met w
~ 0 ∈ W en w
~ 1 ∈ W ⊥.
De vector w
~ 0 noemt men ook de orthogonale projectie van ~v op W .
Deze vector wordt gekenmerkt door de volgende eigenschappen : ~v − w
~0 ⊥ W
en ||~v − w
~ 0 || ≤ ||~v − w||
~ voor elke w
~ ∈ W.
Om die reden noemt men w
~ 0 soms ook de beste benadering van ~v in W .
• Algebra voor ingenieurs •
Hoofdstuk 4
Inproductruimten
4.4
4.4.1
4–19
Orthogonale lineaire transformaties
Definitie en eigenschappen
In deze paragraaf bestuderen we een belangrijke klasse van lineaire transformaties
van een reële inproductruimte : de orthogonale lineaire transformaties.
Voor complexe inproductruimten bestaat er een analogon : de unitaire lineaire
transformaties.
R
DEFINITIE 4.9
orthogonale en unitaire transformatie
Zij V een reële inproductruimte en zij T een lineaire transformatie van V .
T heet orthogonaal als en slechts als < T (~v ), T (w)
~ >=< ~v , w
~ > voor elke ~v , w
~ ∈ V.
Zij V een complexe inproductruimte en zij T een lineaire transformatie van V .
T heet unitair als en slechts als < T (~v ), T (w)
~ >=< ~v , w
~ > voor elke ~v , w
~ ∈ V.
Orthogonale (resp. unitaire) lineaire transformaties laten het inproduct dus invariant.
Deze transformaties kunnen ook nog op andere wijzen gekarakteriseerd worden, zoals blijkt uit volgende stelling :
¥ STELLING 4.11
karakterisatie van orthogonale/unitaire transformaties
Volgende uitspraken zijn gelijkwaardig :
(i) < T (~v ), T (w)
~ >=< ~v , w
~ > voor elke ~v , w
~ ∈ V (T bewaart het inproduct)
(ii) ||T (~v )|| = ||~v || voor elke ~v ∈ V (T bewaart de norm)
(iii) T zet een georthonormeerde basis om in een georthonormeerde basis
bewijs :
We bewijzen de stelling voor transformaties van een reële inproductruimte.
Uit (i) volgt i.h.b. dat < T (~v ), T (~v ) >=< ~v , ~v > voor elke ~v ∈ V en dus ook
||T (~v )|| = ||~v || zodat (ii) geldt.
Omgekeerd, stel dat (ii) geldt.
Dan is i.h.b. ||T (~v + w)||
~ = ||~v + w||
~ en dus < T (~v + w),
~ T (~v + w)
~ >=< ~v + w,
~ ~v + w
~>
of nog
Hoofdstuk 4
• Algebra voor ingenieurs •
4–20
Inproductruimten
< T (~v ) + T (w),
~ T (~v ) + T (w)
~ >=< ~v + w,
~ ~v + w
~>
=⇒ < T (~v ), T (~v ) + T (w)
~ > + < T (w),
~ T (~v ) + T (w)
~ >=< ~v , ~v + w
~ > + < w,
~ ~v + w
~>
=⇒ < T (~v ), T (~v ) > + < T (~v ), T (w)
~ > + < T (w),
~ T (~v ) > + < T (w),
~ T (w)
~ >
=< ~v , ~v > + < ~v , w
~ > + < w,
~ ~v > + < w,
~ w
~>
=⇒ ||T (~v )||2 + 2 < T (~v ), T (w)
~ > +||T (w)||
~ 2 = ||~v ||2 + 2 < ~v , w
~ > +||w||
~ 2
=⇒ < T (~v ), T (w)
~ >=< ~v , w
~>
Uit (i) volgt i.h.b. dat T de orthogonaliteit bewaart, zodat een georthonormeerde
basis zeker wordt omgezet in een orthogonale basis. Omdat T ook de norm bewaart,
is dat dus een georthonormeerde basis, zodat (iii) geldt.
Omgekeerd, stel dat (iii) geldt. Beschouw twee willekeurige vectoren ~v en w.
~
T.o.v. de georthonormeerde basis B = {~u1 , ~u2 , . . . , ~un } hebben we ~v =
w
~=
n
P
ri~ui en
i=1
sj ~uj .
j=1
Bijgevolg is < T (~v ), T (w)
~ >=< T (
n
n P
P
n
P
ri sj δij =
i=1 j=1
n
P
n
P
i=1
ri~ui ), T (
n
P
sj ~uj ) >=
j=1
n
n P
P
ri sj < T (~ui ), T (~uj ) >=
i=1 j=1
ri si =< ~v , w
~ > zodat (i) geldt. ¤
i=1
In definitie 4.5 werd de definitie van een orthogonale matrix gegeven. We zullen nu
aantonen dat de matrices die een orthogonale transformatie representeren (t.o.v. een
georthonormeerde basis !) precies de orthogonale matrices zijn.
¥ STELLING 4.12
matrix van een orthogonale transformatie
Zij V een reële inproductruimte en zij T een orthogonale transformatie van V
Is B een georthonormeerde basis van V dan is de matrix [T ]B van T t.o.v. B een
orthogonale matrix, m.a.w. [T ]TB · [T ]B = I
bewijs :
Zij B = {~u1 , ~u2 , . . . , ~un }.
De matrixvoorstelling van T t.o.v. B wordt beschreven door : [T (~v )]B = [T ]B · [~v ]B
In het bijzonder is [T (~ui )]B = [T ]B · [~ui ]B
We hebben dan :
< T (~uj ), T (~ui ) > = ([T ]B · [~ui ]B )T · ([T ]B · [~uj ]B )
= [~ui ]TB · [T ]tB · [T ]B · [~uj ]B
Anderzijds is wegens kenmerk (iii) van een orthogonale transformatie
{T (~u1 ), T (~u2 ), . . . T (~un )} een verzameling georthonormeerde vectoren, zodat ook <
T (~ui ), T (~uj ) >= δij (0 of 1 naargelang i 6= j of i = j ).
• Algebra voor ingenieurs •
Hoofdstuk 4
Inproductruimten
4–21
Dus is < T (~ui ), T (~uj ) >= [~ui ]TB · [T ]TB · [T ]B · [~uj ]B = δij waaruit we besluiten dat
[T ]TB · [T ]B = I gelet op [~ui ]TB = ( 0 · · · 0 1 0 · · · 0 ) met een 1 op de i–de
plaats.
De matrix van T t.o.v. B is dus een orthogonale matrix. ¤
De matrix van een orthogonale transformatie is dus steeds een orthogonale matrix,
althans wanneer de matrix t.o.v. een georthonormeerde basis wordt genomen.
Omgekeerd kan men inzien dat de lineaire transformatie TA die op natuurlijke wijze
geassocieerd is met een orthogonale matrix A (dit is waarvoor AT · A = I = A · AT )
een orthogonale transformatie is.
Op volledig analoge wijze toont men aan dat unitaire matrices corresponderen met
unitaire transformaties van een complexe inproductruimte.
De orthogonale transformaties van een reële inproductruimte V vormen een groep
voor de samenstelling, die men de orthogonale groep O(V ) noemt.
Vertaald naar matrices betekent dit dat de orthogonale (resp. de unitaire) n × n–
matrices een groep vormen voor de vermenigvuldiging. Deze bijzondere matrixgroepen worden genoteerd als O(n) resp. U (n).
In stelling 4.6 hebben we aangetoond dat de determinant van een orthogonale matrix
determinant 1 of -1 heeft. Daardoor valt de orthogonale groep uiteen in twee
deelverzamelingen.
Enerzijds zijn er de directe orthogonale transformaties, corresponderend met een
orthogonale matrix met determinant 1, en anderzijds de indirecte orthogonale
transformaties, corresponderend met een orthogonale matrix met determinant -1.
De directe orthogonale transformaties vormen een deelgroep van de orthogonale
groep. We noteren die met SO(V ) resp. SO(n) en we noemen ze de speciale
orthogonale groep.
De indirecte orthogonale transformaties vormen zelf geen deelgroep.
Vermelden we hier ook nog dat de eigenwaarden van een orthogonale transformatie
(matrix) steeds absolute waarde 1 hebben. Dat volgt uit het feit dat orthogonale
afbeeldingen de norm bewaren.
Gelijkaardige beschouwingen (unitaire groep U (V ), U (n) en speciale unitaire groep
SU (V ), SU (n)) gelden voor unitaire afbeeldingen van een complexe inproductruimte.
Hoofdstuk 4
• Algebra voor ingenieurs •
4–22
Inproductruimten
4.4.2
Orthogonale transformaties van R2
In deze paragraaf bestuderen we bij wijze van voorbeeld orthogonale transformaties
van een tweedimensionale euclidische vectorruimte.
Omwille van de lage dimensie zal het mogelijk zijn om de orthogonale transformaties in dit geval volledig te classificeren.
Zij dus V = R2 voorzien van het standaardinproduct en zij A = [T ]B de matrix van
een orthogonale transformatie T van V t.o.v. de georthonormeerde standaardbasis
B = {~e1 = (1, 0), ~e2 = (0, 1)}.
Deze matrix is dan een orthogonale matrix.
µ
¶
We drukken nu de voorwaarde AT · A = I uit voor A =
a b
c d
Dit geeft : a2 + c2 = 1 en b2 + d2 = 1 en ab + cd = 0.
Daaruit volgt dat er
µ een reëel¶getal ε bestaat waarvoor geldt : b = εc en d = −εa en
ε2 = 1 en dus A =
a
εc
c −εa
Er kunnen twee gevallen optreden : ε = −1 en ε = 1 corresponderend met det A = 1
(directe orthogonale transformaties) en det A = −1 (indirecte orthogonale transformaties).
µ
• Voor ε = −1 bekomt men A =
a −c
c
a
¶
met det(A) = a2 + c2 = 1
Stellen we a = cos ϑ en c = sin ϑ dan wordt de matrix :
µ
A=
cos ϑ − sin ϑ
sin ϑ
cos ϑ
¶
De transformaties die hiermee corresponderen bezitten geen eigenwaarden,
m.a.w. geen enkele vector wordt op een veelvoud van zichzelf afgebeeld.
Het zijn rotaties over een hoek ϑ in tegenwijzerzin.
In het bijzonder bekomt men voor ϑ = 0 de identieke transformatie en voor
ϑ = π heeft men een puntspiegeling.
µ
• Voor ε = 1 bekomt men A =
a
c
c −a
¶
met det(A) = −a2 − c2 = −1
Stellen we opnieuw a = cos ϑ en c = sin ϑ dan wordt de matrix :
• Algebra voor ingenieurs •
Hoofdstuk 4
Inproductruimten
µ
A=
cos ϑ
sin ϑ
sin ϑ − cos ϑ
4–23
¶
We bepalen de eigenwaarden. De karakteristieke vergelijking luidt
(cos ϑ − λ)(− cos ϑ − λ) − sin2 ϑ = 0 ⇐⇒ λ2 − 1 = 0 zodat λ1 = 1 en λ2 = −1.
De eigenruimte Eλ1 = Ker(T − I) wordt bepaald uit :
µ
cos ϑ − 1
sin ϑ
sin ϑ
− cos ϑ − 1
½
of dus uit het stelsel
¶µ
x
y
¶
µ
=
0
0
¶
(cos ϑ − 1) x + sin ϑ y = 0
sin ϑ x + (− cos ϑ − 1) y = 0
Houdt men rekening met cos ϑ − 1 = −2 sin2 ϑ2 en met sin ϑ = 2 sin ϑ2 cos ϑ2 dan
is bovenstaand stelsel nog te schrijven als :


 (− sin ϑ x + cos ϑ y) sin ϑ = 0
2
2
2
ϑ
ϑ
ϑ

 (sin x − cos y) cos = 0
2
2
2
Omdat minstens één van de uitdrukkingen cos ϑ2 en sin ϑ2 verschillend is van
nul, is het stelsel gelijkwaardig met de éne vergelijking sin ϑ2 x − cos ϑ2 y = 0
waaruit volgt : y = tan ϑ2 x (als ϑ 6= 0) of y = 0 (als ϑ = 0).
Volledig analoog vindt men voor de eigenruimte bij de eigenwaarde λ2 = −1 :
y = − cot ϑ2 x of x = 0.
Omdat T twee verschillende eigenwaarden bezit en dim V = 2, is T diagonaliseerbaar.
Als gevolg daarvan is V de directe som van de eigenruimten Eλ1 en Eλ2 zodat
iedere vektor ~v te schrijven is als ~v = ~v1 + ~v2 met ~v1 behorende tot de eerste
eigenrechte en ~v2 behorende tot de tweede eigenrechte.
Nu is T (~v ) = T (~v1 + ~v2 ) = T (~v1 ) + T (~v2 ) = ~v1 − v~2 .
Deze laatste is precies het spiegelbeeld van ~v onder de orthogonale spiegeling
t.o.v. de eerste eigenrechte.
Omdat T diagonaliseerbaar is, is de matrix t.o.v. een basis van eigenvectoren
µ
¶
een diagonaalmatrix met op de hoofddiagonaal de eigenwaarden :
Hoofdstuk 4
1
0
0 −1
.
• Algebra voor ingenieurs •
4–24
4.4.3
Inproductruimten
Orthogonale spiegelingen en rotaties
De classificatie van de orthogonale transformaties van euclidische ruimten met dimensie groter dan twee, is minder eenvoudig.
De twee types van transformaties die konden optreden in het tweedimensionaal
geval (rotaties en orthogonale spiegelingen) bezitten wel een veralgemening in het
hoger dimensionaal geval.
Orthogonale spiegelingen
In de opmerking volgend op stelling 4.10 hebben we de orthogonale projectie w
~0
van een vector op een deelruimte W gedefinieerd.
De transformatie PW : V → V, ~v 7→ w
~ 0 wordt de orthogonale projectie van V op W
genoemd.
We definiëren nu de orthogonale spiegeling van V t.o.v. W als de transformatie
SW = 2 P W − I
Een belangrijk bijzonder geval wordt gevormd door de orthogonale spiegelingen
t.o.v. een hypervlak (dit is een n−1–dimensionale deelruimte van een n–dimensionale
ruimte).
Zulke orthogonale transformaties worden ook Householder–transformaties genoemd.
Ze werden voor het eerst ingevoerd door de Amerikaanse wiskundige Alston Householder (1904–1993).
Rotaties
De directe orthogonale transformaties van een euclidische vectorruimte worden rotaties genoemd.
Een bijzondere klasse wordt gevormd door de rotaties in een vlak dat wordt opgespannen door twee basisvectoren van de inproductruimte. Men noemt dit ook
elementaire rotaties of Givens–rotaties, naar de Amerikaanse wiskundige Wallace Givens (1910–1993).
Een belangrijk resultaat is het volgende : iedere rotatie van een n–dimensionale euclidische ruimte V is de samenstelling van hoogstens
n(n − 1)
elementaire rotaties.
2
In het geval van een driedimensionale ruimte betekent dit dat elke rotatie kan
worden samengesteld met hoogstens drie elementaire rotaties. Deze zijn de rotaties
rond de drie coördinaatassen over resp. hoeken ϑ, φ en ψ ook gekend als de hoeken
van Euler.
• Algebra voor ingenieurs •
Hoofdstuk 4
Inproductruimten
4.5
4.5.1
R
4–25
Symmetrische lineaire transformaties
Definitie en eigenschappen
DEFINITIE 4.10
symmetrische en hermitische transformatie
Zij V een reële inproductruimte en zij T een lineaire transformatie van V .
T heet symmetrisch als en slechts als < T (~v ), w
~ >=< ~v , T (w)
~ > voor elke ~v , w
~ ∈ V.
Zij V een complexe inproductruimte en zij T een lineaire transformatie van V .
T heet hermitisch als en slechts als < T (~v ), w
~ >=< ~v , T (w)
~ > voor elke ~v , w
~ ∈ V.
Onderzoeken we nu eerst hoe het symmetrisch (hermitisch) zijn van een lineaire transformatie zich weerspiegelt in de geassocieerde matrix van die transformtie
t.o.v. een georthonormeerde basis.
¥ STELLING 4.13
matrix van een symmetrische transformatie
Zij V een reële inproductruimte en zij T een symmetrische transformatie van V
Is B een georthonormeerde basis van V dan is de matrix [T ]B van T t.o.v. B een
symmetrische matrix, m.a.w. [T ]TB = [T ]B
bewijs :
Zij B = {~u1 , ~u2 , . . . , ~un } en stel dat T (~ui ) =
n
P
aij ~uj dan is aij =< T (~ui ), ~uj > .
j=1
Bijgevolg geldt : [T ]B = (aji ) = (< T (~uj ), ~ui >)
Is T symmetrisch, dan geldt dus ook :
[T ]B = (< T (~uj ), ~ui >) = (< ~uj , T (~ui ) >) = (< T (~ui ), ~uj >) = [T ]TB ¤
Analoog toont men aan dat met de hermitische transformaties van een complexe inproductruimte hermitische matrices ([T ]B = [T ]†B geassocieerd zijn, tenminste wanneer de matrixvoorstelling wordt genomen t.o.v. een georthonormeerde basis.
Omgekeerd geldt ook dat de lineaire transformatie TA die op natuurlijke wijze kan
worden geassocieerd met een symmetrische matrix (AT = A), resp. met een hermitische matrix (A† = A), een symmetrische, resp. hermitische, transformatie is.
De eigenwaarden en eigenvectoren van symmetrische en hermitische transformaties
bezitten enkele merkwaardige eigenschappen, die we samenvatten in de volgende
stelling :
Hoofdstuk 4
• Algebra voor ingenieurs •
4–26
¥ STELLING 4.14
Inproductruimten
eigenvectoren van symmetrische transformaties
Zij V een inproductruimte en zij T een symmetrische of hermitische transformatie
van V . Dan geldt :
(i) De eigenwaarden van T zijn reëel
(ii) Eigenvectoren die behoren bij verschillende eigenwaarden zijn orthogonaal
bewijs :
(i) is λ een eigenwaarde van T met bijhorende eigenvector ~v dan is
λ < ~v , ~v >=< λ ~v , ~v >=< T (~v ), ~v >=< ~v , T (~v ) >=< ~v , λ ~v >= λ < ~v , ~v > waaruit
λ = λ en dus λ ∈ R
(ii) zijn λ1 en λ2 verschillende eigenwaarden met bijhorende eigenvectoren ~v1 en
~v2 dan is λ1 < ~v1 , ~v2 >=< λ1~v1 , ~v2 >=< T (~v1 ), ~v2 >=< ~v1 , T (~v2 ) >=< ~v1 , λ2~v2 >=
λ2 < ~v1 , ~v2 >= λ2 < ~v1 , ~v2 > .
We vinden dus dat (λ1 − λ2 ) < ~v1 , ~v2 >= 0. Vermits λ1 6= λ2 moet < ~v1 , ~v2 >= 0 en
dus ~v1 ⊥ ~v2 ¤
Opmerking :
Eigenschap (i) van deze stelling zegt dus ook dat het spectrum van een hermitische
transformatie of van een hermitische matrix enkel uit reële elementen bestaat.
Dat betekent in het bijzonder ook dat de lineaire transformatie TA die op natuurlijke wijze geassocieerd is met een symmetrische matrix A, bekeken als transformatie
van de complexe vectorruimte M at(n, 1, C) enkel reële eigenwaarden bezit.
De nu volgende stelling toont aan dat de symmetrische transformaties steeds diagonaliseerbaar zijn !
¥ STELLING 4.15
diagonaliseerbaarheid
Zij V een eindigdimensionale reële inproductruimte en zij T een symmetrische
transformatie van V . Dan geldt : T is diagonaliseerbaar.
bewijs :
We tonen eerst aan dat een symmetrische lineaire transformatie steeds een eigenvector bezit.
Is [T ]B de (reële) matrix van deze transformatie t.o.v. een georthonormeerde basis
B = {~u1 , ~u2 , . . . , ~un }, dan is [T ]TB = [T ]B .
Nu kunnen we met deze matrix ook een lineaire transformatie van de complexe
inproductruimte M at(n, 1, C) associëren. Deze is dus hermitisch. De karakteristieke vergelijking ervan bezit wegens de hoofdstelling van de algebra minstens één
complexe wortel λ en deze is wegens (i) uit vorige stelling reëel.
• Algebra voor ingenieurs •
Hoofdstuk 4
Inproductruimten
4–27
Met deze reële eigenwaarde correspondeert minstens één (complexe) eigenvector van
M at(n, 1, C).
We tonen nu aan dat met λ ook steeds een eigenvector uit M at(n, 1, R) behoort.
Voor de eigenwaarde λ is det(A − λI) = 0.
Bijgevolg bezit het reëel homogeen lineair stelsel (A − λI) · X = 0 (A, λ en I zijn
immers reëel) een niet–triviale reële oplossing (x1 , x2 , . . . , xn )
Stellen we nu ~v = x1~u1 + . . . + xn~un dan is ~v 6= ~o en er geldt [T (~v )]B = A · [~v ]B = A · X =
λ X = λ[~v ]B zodat ~v een reële eigenvector is, waarmee het gestelde is aangetoond.
Vervolgens tonen we aan dat V (isomorf met M at(n, 1, R)) een georthonormeerde
basis bestaande uit eigenvectoren van T bezit door volledige inductie op de dimensie
van V .
Dit is triviaal voldaan als dim V = 1. Onderstel nu dat dim V = n > 1.
Wegens het eerste deel van het bewijs bezit T minstens één eigenvector ~v1 .
Beschouw dan ~u1 =
~v1
. Dit is eveneens een eigenvector van T en bovendien is
||~v1 ||
het een eenheidsvector.
Noem W de vectorruimte voortgebracht door ~u1 , dit is : W = span {~u1 } .
Stel vervolgens W ⊥ = {w
~ ∈ V | < ~u1 , w
~ >= 0}
In stelling 4.10 hebben we bewezen dat V = W ⊕ W ⊥
Beschouwen we nu van T de restrictie T̃ tot de deelruimte W ⊥ en voorzien we W ⊥
van het inproduct uit V , dan is W ⊥ een (n − 1)−dimensionale inproductruimte (de
dimensie van W is immers 1) en T̃ is een lineaire afbeelding van W ⊥ (de lineariteitseigenschappen zijn uiteraard geldig, dus men moet enkel nagaan dat het beeld van
een vector van W ⊥ opnieuw tot W ⊥ behoort) en vanzelfsprekend is T̃ symmetrisch
op W ⊥ .
Door de inductiehypothese bezit W ⊥ dan een georthonormeerde basis {~u2 , . . . , ~un }
van eigenvectoren van T̃ (en dus van T ).
Nu is evenwel < ~u1 , ~ui >= ~0 voor i = 2, . . . , n omdat ~ui ∈ W ⊥ .
We besluiten dat {~u1 , ~u2 , . . . , ~un } een georthonormeerde basis van eigenvectoren is
voor V. ¤
Opmerking :
e de georthonormeerde basis bestaande
Zij B een georthonormeerde basis van V en B
uit eigenvectoren waarvan het bestaan door bovenstaande stelling wordt verzekerd,
dan weten we (zie H3, § 3.9.2) dat er een inverteerbare matrix P bestaat waarvoor
[T ]Be = P −1 · [T ]B · P .
Daarbij is [T ]Be een diagonaalmatrix (met op de hoofddiagonaal de eigenwaarden
van T ).
Hoofdstuk 4
• Algebra voor ingenieurs •
4–28
Inproductruimten
e . Omdat
De matrix P is de overgangsmatrix bij overgang van basis B naar basis B
e beide georthonormeerd zijn, is deze matrix orthogonaal (zie stelling 4.7),
B en B
−1
dus P = P T
We kunnen daarom ook schrijven : [T ]Be = P T · [T ]B · P .
Men zegt ook : een symmetrische lineaire transformatie van een eindig–dimensionale
reële inproductruimte is orthogonaal diagonaliseerbaar.
De stelling kan ook voor matrices worden geformuleerd :
Is A een reële symmetrische matrix, dan is A orthogonaal diagonaliseerbaar.
Dat betekent dat er een orthogonale matrix P bestaat waarvoor P T · A · P = D met
D een diagonaalmatrix.
Opmerking :
Twee reële matrices A en B worden orthogonaal gelijkvormig of congruent genoemd als en slechts als er een inverteerbare matrix C bestaat waarvoor B =
CT · A · C.
Congruente matrices zijn dus bijzondere gelijkvormige matrices.
Uit het voorgaande volgt dat elke reële symmetrische matrix congruent is met een
(reële) diagonaalmatrix.
Dit resultaat kan zelfs nog veralgemeend worden : elke vierkante reële matrix A die
commuteert met zijn getransponeerde (dus A·AT = AT ·A) – dergelijke matrix wordt
een normale matrix genoemd – en waarvan alle eigenwaarden reëel zijn (wanneer
de karakteristieke vergelijking wordt opgelost over C) is congruent met een reële
diagonaalmatrix.
Laat men de voorwaarde A · AT = AT · A achterwege dan bekomt men de zwakkere
stelling van Schur waarbij slechts trianguliseerbaarheid wordt bereikt.
¥ STELLING 4.16
triangulisatiestelling van Schur
Zij A een reële vierkante matrix en onderstel dat de karakteristieke vergelijking van
A over C enkel reële oplossingen bezit.
Dan geldt : A is congruent met een reële bovendriehoeksmatrix.
• Algebra voor ingenieurs •
Hoofdstuk 4
Inproductruimten
4–29
Figuur 4.5: Issai Schur (1875–1941)
4.5.2
De singuliere waarden ontbinding
Voor een symmetrische matrix A hebben we aangetoond dat er steeds een orthogonale matrix P bestaat waarvoor P T · A · P = D met D een diagonaalmatrix.
Anders geformuleerd : een symmetrische n × n–matrix kan steeds gefactoriseerd
worden als A = P · D · P T met P een orthogonale n × n–matrix en D een n × n–
diagonaalmatrix.
Als A niet symmetrisch is, dan beschikken we niet altijd over zulk een ontbinding.
De singuliere waarden stelling is een zeer sterke stelling die zegt dat iedere
(zelfs niet noodzakelijk vierkante) matrix A wel altijd kan gefactoriseerd worden
als A = U · Σ · V T met U en V orthogonale matrices en Σ een bijzondere matrix die
in zekere zin de diagonaalmatrix D veralgemeent.
Merken we eerst hetvolgende op :
Voor iedere m × n–matrix A is AT · A een symmetrische n × n–matrix. Deze laatste
is dus orthogonaal diagonaliseerbaar.
Zij {~e1 , . . . , ~en } een georthonormeerde basis van eigenvectoren voor de vectorruimte
M at(n, 1, R) waarop AT · A op natuurlijke wijze kan inwerken en zij λ1 , . . . , λi de
bijhorende eigenwaarden.
Dan geldt voor iedere i ∈ {1, . . . , n} : ||A · [~ei ]||2 = (A · [~ei ])T · (A · [~ei ]) = [~ei ]T · AT · A · [~ei ]
= [~ei ]T · [λi ~ei ] = λi .
De eigenwaarden van AT · A zijn dus allemaal niet–negatief.
Hernummeren we deze nu zó dat λ1 ≥ λ2 ≥ · · · ≥ λn ≥ 0.
Hoofdstuk 4
• Algebra voor ingenieurs •
4–30
Inproductruimten
Per definitie noemt men nu de getallen σ1 =
guliere waarden van A.
p
λ1 , σ 2 =
p
λ2 , . . . , σn =
p
λn de sin-
We kunnen nu de volgende stelling formuleren :
¥ STELLING 4.17
singuliere waarden ontbinding
Zij A een reële m × n–matrix van rang r.
Dan kan A ontbonden worden als A = U · Σ · V T , met U een orthogonale
µ m × m–
¶
D O
matrix, V een orthogonale n × n–matrix en Σ de m × n–matrix : Σ =
O O
waarin D de r × r diagonaalmatrix is met als elementen op de hoofddiagonaal de
eerste r singuliere waarden van A : σ1 ≥ σ2 ≥ . . . ≥ σr > 0
Opmerking :
De singuliere waarden–ontbinding van een matrix A is niet uniek. Enkel de matrix
Σ is volledig bepaald door A.
Deze ontbinding wordt o.a. gebruikt voor rangschatting van een matrix.
In bepaalde gevallen is de rang van een matrix heel gevoelig aan kleine veranderingen
in de elementen van A. In dat geval is de methode om de rang te bepalen door het
aantal spilelementen te tellen in een echelonvorm van A onbetrouwbaar wanneer de
reductie wordt uitgevoerd met een computer (afrondingsfouten).
Daarom kan men voor matrices van zeer grote orde het aantal van nul verschillende
singuliere waarden gebruiken als schatting voor de rang.
Een ander toepassingsgebied van de singuliere waarden–ontbinding houdt verband
met het vraagstuk van het bepalen van de kleinste kwadratenoplossing van een
lineair stelsel met gebruik van de veralgemeende inverse.
Dit is een belangrijk probleem uit de numerieke lineaire algebra dat ver buiten het
kader van deze inleidende tekst valt.
• Algebra voor ingenieurs •
Hoofdstuk 4
Inproductruimten
4.6
4.6.1
4–31
Maple–commando’s voor inproductruimten
Het inproduct van twee vectoren berekenen
Het (standaard)inproduct van twee vectoren van een n–dimensionale vectorruimte
over R wordt berekend met DotProduct(v,w)
voorbeeld :
>
v:=Vector[row]([1,2,3,-4]);
v := [1, 2, 3, −4]
>
w:=Vector[row]([0,3,2,-1]);
w := [0, 3, 2, −1]
>
DotProduct(v,w);
16
Dit commando kan ook worden gebruikt om het inproduct te berekenen van twee
vectoren over C. Naargelang de manier waarop deze vectoren worden ingevoerd (als
rijvectoren of
met het standaarP als kolomvectoren), correspondeert dit inproduct
P
dinproduct xi ȳi of met het (niet–standaard) inproduct x̄i yi
voorbeeld :
>
v:=Vector([x[1],x[2]]);
·
v :=
>
w:=Vector([y[1],y[2]]);
·
w :=
>
x1
x2
y1
y2
¸
¸
DotProduct(v,w);
(x1 ) y1 + (x2 ) y2
>
v:=Vector[row]([x[1],x[2]]);
v := [x1 , x2]
>
w:=Vector[row]([y[1],y[2]]);
w := [y1 , y2]
>
DotProduct(v,w);
(y1 ) x1 + (y2 ) x2
Een niet–standaardinproduct in Rn bepaald door een symmetrische positief–definiete
matrix A, wordt berekend met BilinearForm(x,y,A,conjugate=false) waarbij de
vectoren worden ingegeven als rijvectoren.
Hoofdstuk 4
• Algebra voor ingenieurs •
4–32
Inproductruimten
Wordt de optie conjugate=false weggelaten (dit is hetzelfde als conjugate=true)
dan kunnen zo ook niet–standaardinproducten in Cn worden ingevoerd.
voorbeeld :
>
>
A:=Matrix(2,2,[[a[1,1],a[1,2]],[a[2,1],a[2,2]]]);
·
¸
a1, 1 a1, 2
A :=
a2, 1 a2, 2
v:=Vector[row]([x[1],x[2]]);
v := [x1 , x2]
>
w:=Vector[row]([y[1],y[2]]);
w := [y1 , y2]
>
BilinearForm(v,w,A,conjugate=false);
(a1, 1 y1 + y2 a2, 1 ) x1 + (y1 a1, 2 + a2, 2 y2 ) x2
4.6.2
De norm van een vector berekenen
In Maple zijn verschillende normfuncties aanwezig.
De euclidische norm of 2–norm afgeleid van het standaardinproduct op Rn wordt
berekend met Norm(v,2) of met Norm(v,Euclidean) .
Andere normen zoals de p–norm (met p een getal groter dan of gelijk aan 1) en de
max–norm worden berekend met Norm(v,p) en met Norm(v,infinity) (= Norm(v)
zonder optie).
De norm van een matrix, afgeleid van het standaardinproduct op M at(m, n, R),
wordt berekend met Norm(A,Frobenius) . Met Norm(A) (= Norm(A,infinity) wordt
de max–norm van matrix A berekend.
Naast het Norm–commando beschikt men ook nog over VectorNorm en MatrixNorm
met dezelfde mogelijke opties als het algemene norm–commando.
voorbeelden :
>
v:=Vector[row]([a,b,c]);
v := [a, b, c]
>
Norm(v,1);
|a| + |b| + |c|
>
Norm(v,2);
q
|a|2 + |b|2 + |c|2
• Algebra voor ingenieurs •
Hoofdstuk 4
Inproductruimten
>
Norm(v,Euclidean);
4–33
q
|a|2 + |b|2 + |c|2
>
Norm(v);
max(|a| , |b| , |c|)
>
Norm(v,infinity);
max(|a| , |b| , |c|)
>
A:=Matrix(3,2,a);
>
Norm(A);
max(|a(1, 1)| + |a(1, 2)| , |a(2, 1)| + |a(2, 2)| , |a(3, 1)| + |a(3, 2)|)
>
Norm(A,Frobenius);
q
|a(1, 1)|2 + |a(2, 1)|2 + |a(3, 1)|2 + |a(1, 2)|2 + |a(2, 2)|2 + |a(3, 2)|2
>
B:=Matrix(2,2,[[1,2],[0,1]]);

a(1, 1) a(1, 2)
A :=  a(2, 1) a(2, 2) 
a(3, 1) a(3, 2)

·
1 2
0 1
B :=
>
>
Norm(B,Frobenius);
√
¸
6
Norm(B);
3
4.6.3
De hoek tussen twee vectoren berekenen
De hoek tussen twee vectoren van Rn of Cn kan worden berekend met VectorAngle(v,w) .
voorbeeld :
>
v:=Vector([1,0,0]);
>
w:=Vector([1,1,0]);
>
VectorAngle(v,w);


1
v :=  0 
0


1
w :=  1 
0
π
4
Hoofdstuk 4
• Algebra voor ingenieurs •
4–34
4.6.4
Inproductruimten
Een vector normeren tot eenheidsvector
Elke niet–nulvector kan worden genormeerd tot eenheidsvector door deze te vermenigvuldigen met het omgekeerde van zijn norm.
Voor vectoren van Rn of Cn gebeurt dit met Normalize(v,optie) waarbij in de
optie wordt aangegeven welke normfunctie moet worden gebruikt (standaard is dat
de max–norm).
voorbeeld :
>
v:=Vector([3,5,4]);
>
Normalize(v,infinity);


3
v :=  5 
4






>
Normalize(v,Euclidean);

3
3
5
1
4
5
√






2

 10 
 √ 



2 


 2 
 √ 


2 2
5
4.6.5
Het Gram–Schmidt procédé toepassen voor het bepalen
van een orthogonale of georthonormeerde basis
Wordt een verzameling S van vectoren opgegeven, dan kan hieruit een stel orthogonale (of zelfs georthonormeerde) vectoren worden berekend met het procédé van
Gram–Schmidt. Is de verzameling S zelf een basis, dan bekomt men zo een orthogonale (resp. georthonormeerde) basis.
In Maple kan dit procédé worden uitgevoerd voor de vectorruimte Rn (of Cn ) met
het commando GramSchmidt(S,optie) .
Daarin is het eerste argument S een verzameling of lijst van vectoren. Het tweede
optionele argument is normalized = true of false (de standaardinstelling is false).
• Algebra voor ingenieurs •
Hoofdstuk 4
Inproductruimten
4–35
Met deze optie gelijk aan true wordt een georthonormeerd stel bepaald (in het andere geval enkel een orthogonaal stel).
voorbeeld :
>
v1:=Vector([1,2,3]):v2:=Vector([3,2,1]):v3:=Vector([1,3,2]):
>
S:=[v1,v2,v3];
>
GramSchmidt(S);
>

    
1
3
1
S :=  2  ,  2  ,  3 
3
1
2


16


−1 
   7 
  2 
 1



 

 2  ,  4  , 


 7   1 
 3

  −1 

 −8 

2
7
GramSchmidt(S,normalized=true);
√
 √
 
  √
14
6
4 21
−
 14  


 √
  √21
  √6

 
 

14  , 
21  , 
6

 
 

 
  3
7
21
 √
 

√ 

 
  √
3 14
2 21
6
−
−
14
21
6











Wanneer de opgegeven verzameling vectoren geen lineair onafhankelijke verzameling is, dan wordt een orthogonaal (en dus lineair onafhankelijk) stel bepaald. Er
zullen in het antwoord dus minder vectoren staan dan in de opgegeven verzameling.
voorbeeld :
>
v1:=Vector[row]([1,1]):
>
v2:=Vector[row]([2,2]):
>
v3:=Vector[row]([1,2]):
>
v4:=Vector[row]([2,1]):
>
GramSchmidt([v1,v2,v3,v4]);
Hoofdstuk 4
·
¸
−1 1
[[1, 1],
, ]
2 2
• Algebra voor ingenieurs •
4–36
4.6.6
Inproductruimten
Nagaan of een matrix orthogonaal (resp. unitair) is
Met IsOrthogonal(A) kan worden nagegaan of een reële vierkante matrix A al dan
niet orthogonaal is.
Met IsUnitary(A) kan worden nagegaan of een complexe vierkante matrix A al
dan niet unitair is.
voorbeeld :
>
>
A:=Matrix(3,3,[[sqrt(2)/2,-sqrt(2)/2,0],[sqrt(2)/2,sqrt(2)/2,0],[0,0,
-1]]);
√
 √

2
2
0 
 2 − 2
 √

√


A :=  2

2

0 
 2

2
0
>
0
−1
IsOrthogonal(A);
true
>
4.6.7
evalm(A&*transpose(A));


1 0 0
 0 1 0 
0 0 1
De QR–ontbinding van een matrix bepalen
Met QRDecomposition(A) wordt de QR–ontbinding van een matrix A (met lineair
onafhankelijke kolommen) gevonden.
voorbeeld :
>
A:=Matrix(4,3,[[1,2,3],[0,1,0],[4,3,2]]);


1 2 3
 0 1 0 

A := 
 4 3 2 
0 0 0
>
(Q,R):=QRDecomposition(A);
• Algebra voor ingenieurs •
Hoofdstuk 4
Inproductruimten
4–37
√
√
10 714
2 42
357
21
√
√
5 42
714
−
0
42
42
√
√
√
4 17
5 714
42
−
−
17
714
42
0
0
0
 √





Q, R := 





>
17
17
evalm(Q&*R);

1
 0

 4
0
>
4.6.8
evalm(transpose(Q)&*Q);
2
1
3
0






,














√
17
0
0
14
√
17
17
√
714
17
0
√
11 17
17
√
25 714
357
√
5 42
21










3
0 

2 
0


1 0 0
 0 1 0 
0 0 1
Een Givens–rotatie definiëren
Een Givens–rotatie in het (i, j)–vlak in tegenwijzerzin over een hoek ϑ wordt bepaald
door een n × n–matrix G die gelijk is aan de n × n–eenheidsmatrix met uitzondering
van de vier elementen gii = c, gjj = c, gij = s en gji = −s waarbij c = cos ϑ en
s = sin ϑ en 1 ≤ j < i ≤ n.
In Maple geven we deze matrix in met GivensRotationMatrix(v,i,j)
Daarbij geven het tweede en derde argument aan in welk vlak van de n–dimensionale
ruimte de rotatie zich afspeelt en het eerste argument is een n–dimensionale vector.
De rotatiehoek ϑ is zodanig bepaald dat de j –de component van deze vector bij
rotatie in tegenwijzerzin over ϑ nul wordt.
voorbeeld :
>
v:=Vector([1,1,0]);
>
GivensRotationMatrix(v,2,1);
Hoofdstuk 4


1
v :=  1 
0
• Algebra voor ingenieurs •
4–38
Inproductruimten
 √






√

2
2
−
0 
2
2

√
√


2
2
0 

2
2
0
0
1
Deze rotatie van de driedimensionale ruimte is dus een rotatie in tegenwijzerzin in
het xy-vlak, waarbij de vector (1,1,0) wordt afgebeeld op een vector van de y-as
(eerste component gelijk aan nul), bijgevolg is de rotatiehoek π4
4.6.9
Een Householder–transformatie definiëren
Een Householdertransformatie (orthogonale spiegeling t.o.v. een n − 1–dimensionale
deelruimte van een n–dimensionale ruimte) wordt bepaald door een n × n–matrix
H waarvoor H = I − 2 [~u] · [~u]T met I de n × n–eenheidsmatrix en [~u] de n × 1–
kolommatrix met de coördinaten van ~u t.o.v. een georthonormeerde basis. Daarin
is ~u een eenheidsvector loodrecht op het hypervlak waarrond gespiegeld wordt.
In Maple geven we deze matrix in met HouseholderMatrix(u)
voorbeeld :
>
v:=Vector([0,0,1]);
>
HouseholderMatrix(v);
>
w:=Vector([1,1,1,1]);
>
HouseholderMatrix(w);
• Algebra voor ingenieurs •

0
v :=  0 
1



1 0
0
 0 1
0 
0 0 −1


1
 1 

w := 
 1 
1
Hoofdstuk 4
Inproductruimten
4–39
 1
 2

 −1

 2

 −1


 2

−1
2
4.6.10
−1
2
1
2
−1
2
−1
2
−1
2
−1
2
1
2
−1
2
−1
2
−1
2
−1
2
1
2












De singuliere waarden van een matrix bepalen
Met SingularValues(A) worden de singuliere waarden van een matrix A bepaald.
Deze worden dan in een kolommatrix weergegeven.
Men kan ook de matrices U en V uit een singuliere waardenontbinding A = U ·Σ·V T
bepalen met dit commando : SingularValues(A,output=[’U’,’Vt’]).
De elementen van de bekomen matrices staan wel altijd in floating point notatie.
voorbeeld :
>
>
>
A:=Matrix(4,2,[[1,1],[2,-2],[-2,2],[-1,-1]]);


1
1
 2 −2 

A := 
 −2
2 
−1 −1
SingularValues(A);
 
0
 0 
 
 4 
2
(U,V):=SingularValues(A,output=[’U’,’Vt’]):
Hoofdstuk 4
• Algebra voor ingenieurs •
Download