1) Vectorruimte

advertisement
1) Vectorruimte
Een vectorruimte is een centraal begrip in de lineaire algebra. Omdat veel wiskundige
objecten vectorruimten zijn, kent de studie van de vectorruimten veel toepassingen, zoals in
de kwantumfysica.
Een vectorruimte V over een lichaam (Nederlandse term; in België wordt dit een 'veld'
genoemd) K is een verzameling van elementen aangeduid als vectoren, waarop twee
bewerkingen zijn gedefinieerd: een optelling (die niet noodzakelijk overeenkomt met de
optelling van "gewone" getallen, waarmee we vertrouwd zijn) van twee vectoren, en een
scalaire vermenigvuldiging van een scalair (een element uit K) met een vector. Deze
bewerkingen moeten voldoen aan een aantal voorwaarden. Als we de optelling noteren met
"+", de skalaire vermenigvuldiging met "*", drie (al dan niet verschillende) willekeurige
vectoren uit V met u, v en w en twee willekeurige scalairen uit K met a en b, zijn deze
voorwaarden:
1. v + w is weer een vector uit V
V is gesloten onder de optelling van vectoren
2. u + (v + w) = (u + v) + w
De optelling van vectoren is associatief.
3. Er bestaat een element 0 uit V zodat voor alle vectoren v uit V geldt dat 0 + v = v = v +
0.
0 wordt het neutraal element genoemd ("het neutraal element" omdat men kan
aantonen dat het uniek is).
4. Voor alle vectoren v bestaat er een vector -v zodat v + (-v) = 0
-v noemt men het inverse element van v.
5. v + w = w + v
De optelling van vectoren is commutatief.
6. a * v is weer een vector uit V.
V is gesloten onder de scalaire vermenigvuldiging.
7. a * (b * v) = (a * b) * v
De scalaire vermenigvuldiging is assosiatief.
8. Als 1 het eenheidselement is van K, dan zal 1 * v = v.
Het eenheidselement uit K is neutraal element voor de scalaire vermenigvuldiging.
9. a * (v + w) = a * v + a * w
Distributiviteit van de scalaire vermenigvuldiging ten opzichte van de optelling van
vectoren.
10. (a + b) * v = a * v + b * v
Distributiviteit van de scalaire vermenigvuldiging ten opzichte van de optelling van
scalairen. Merk op dat met "a + b" de optelling van twee scalairen in K wordt bedoeld.
Dit is niet dezelfde optelling als de optelling die bij "v + w" gebruikt wordt om in V
twee vectoren "op te tellen".
De eigenschappen 1 t/m 5 impliceren dat V een abelse groep is onder de optelling. Door K te
vervangen door een willekeurige ring R, krijgen we de definitie van een R-moduul; een
vectorruimte is dus eigenlijk een speciaal soort moduul.
Veel gebruikte vectorruimten zijn die waarin K gelijk is aan
(de reële getallen) of
complexe getallen); V heet dan een reële respectievelijk complexe vectorruimte. Een
vectorruimte waarop een norm gedefinieerd is heet een genormeerde vectorruimte.
(de
Men kan (met behulp van het keuzeaxioma) aantonen dat elke vectorruimte een basis heeft.
Intuïtief beschouwd is een basis een zo klein mogelijke verzameling van vectoren waarmee je
de hele vectorruimte kan opbouwen (door het nemen van scalaire vermenigvuldigingen en
vectorsommen). De cardinaliteit van de basis wordt de dimensie van de vectorruimte
genoemd. Intuïtief beschouwd is de dimensie van een vectorruimte het aantal richtingen
waarin de vectoren kunnen variëren.
Uitbreidingen
Een moduul is een algebraïsche structuur die erg lijkt op een vectorruimte. Een moduul is
echter gedefinieerd over een ring, in plaats van over een lichaam (Ned. term; Belgisch: veld).
Bij een moduul eist men dus niet dat K een lichaam (Ned. term) is, maar dat K een ring is. Er
zijn dus "meer" modulen dan vectorruimten en niet alle eigenschappen van vectorruimten
gelden ook voor modulen
2) Basis
In de lineaire algebra, is een basis van een vectorruimte een verzameling van lineair
onafhankelijke vectoren, die de vectorruimte voortbrengen.
Binnen een vectorruimte V over een lichaam K (in België: veld) wordt een set van vectoren
e1, e2, ..., en een basis van deze vectorruimte genoemd indien deze set van vectoren voldoet
aan twee voorwaarden:
1. e1, e2, ..., en zijn lineair onafhankelijke vectoren in V
2. iedere willekeurige vector v uit V is te schrijven als een lineaire combinatie van vectoren
uit deze set: v = v1 e1 + v2 e2 + ... + vn en waarbij vi scalars uit K zijn of met andere woorden de
vectoren zijn een voortbrengend deel.
De getallen v1, v2, ..., vn heten dan de coördinaten van de vector v ten opzichte van de basis
{e1, ..., en}.
Dimensie
Er kan worden bewezen dat elke basis van een vectorruimte uit hetzelfde aantal vectoren
bestaat. Dit aantal is dus op te vatten als een eigenschap van de vectorruimte en wordt de
dimensie genoemd.
Verder is het zo dat iedere eindig-dimensionale vectorruimte willekeurig veel bases heeft. Dit
geldt niet voor oneindig-dimensionale vectorruimten, voor sommigen daarvan is geen basis
aan te geven.
Voorbeelden
B1 = {(1,0),(0,1)} is een basis voor
. B2 {(1,3),(2,3)} is dat ook. Een basis hoeft helemaal
niet uniek te zijn. B1 is bovendien een orthonormale basis.
Een minder triviaal voorbeeld:
is een basis voor de vectorruimte
over
.
Orthogonaliteit
Voor vectorruimten over het scalairenlichaam
of
bestaat de notie van een inwendig
product: een positief definiete symmetrische resp. hermitische kwadratische vorm. Men
noemt twee vectoren die verschillend zijn van de nulvector, orthogonaal of loodrecht als hun
scalair product nul is. Een eenheidsvector is een vector waarvan het scalair product met
zichzelf 1 bedraagt. Een orthogonale basis is een basis waarvan de vectoren onderling
loodrecht zijn. Een orthonormale basis is een orthogonale basis die uit eenheidsvectoren
bestaat. In een eindigdimensionale vectorruimte met een scalair product kan met uit een
gewone basis een orthonormale basis distilleren met behulp van de het GS-procédé. Dit
procédé blijft geldig in een oneindigdimensionale separabele Hilbertruimte om een
Schauderbasis orthonormaal te maken.
Kern (wiskunde)
In de lineaire algebra beeldt een lineaire afbeelding een ruimte met een zekere dimensie n af
in een andere ruimte. Daarbij hoeft de dimensie van het beeld niet gelijk te zijn aan de
dimensie van het domein, maar kan kleiner zijn. Er zijn "dimensies verdwenen". De oorzaak
daarvan is dat een deel van het domein op de nulvector wordt afgebeeld. Dat deel is een
lineaire deelruimte van het domein en wordt de kern van de lineaire afbeelding genoemd.
De nulliteit ν van een transformatie/matrix is de rang van de kern van die
transformatie/matrix.
3) Orthogonaal
a) Vectoren
In de wiskunde (meetkunde) heet een verzameling vectoren
het inwendig product van elk paar vectoren
en
orthogonaal, als voor
geldt:
als i verschilt van j.
In een meer intuïtieve aanpak kunnen we "orthogonaal" vertalen tot "loodrecht". Twee
vectoren zijn dan orthogonaal indien ze loodrecht op elkaar staan.
Als vectoren orthogonaal zijn, en tevens elk een eenheidslengte hebben, noemen we ze ook
wel orthonormaal; er geldt dan tevens:
voor iedere i
Verwante begrippen zijn bijvoorbeeld: het orthogonaal complement van een lineaire
deelruimte, de Gram-Schmidtmethode.
b) Functies
Twee functies worden orthogonaal genoemd als de integraal over de functieruimte van het
product van de twee functies nul is:
4) Orthonormale basis
Definitie
In de lineaire algebra heet een basis van een vectorruimte, bestaande uit de vectoren
orthonormaal, als voor elk paar vectoren
aan δij. Hierbij is δij de Kronecker delta.
Anders geformuleerd: Een basis van vectoren
inwendig product van elk paar vectoren
en
en
het inwendig product gelijk is
heet orthonormaal, als voor het
geldt:
als i verschillend is van j
als i gelijk is aan j
Nog anders geformuleerd, een basis van vectoren heet orthonormaal, als ze genormeerd en
orthogonaal is. Voorbeelden:
De vectoren {(1,0,0) , (0,1,0) , (0,0,1)} vormen een orthonormale basis van de 3D-ruimte

{(1,0),(0,1)} is een
orthonormale basis van
. Algemener is de
standaardbasis
{(1,0,0,...),(0,1,0,0,...),...,(
0,0,...,1)} van
orthonormaal.

De basis {fn : n ∈ Z} , met
vormen een
orthogonale ruimte. Deze
eigenschap wordt
gebruikt bij de
fourieranalyse.
Eigenschappen
De procedure van Gram-Schmidt geeft ons een directe methode om een willekeurige basis om
te vormen tot een orthonormale basis.
De kolommen (en rijen) van een n-dimensionale, orthogonale transformatie vormen een
orthonormale basis van vectoren voor
.
5) Voortbrengen (Span)
Binnen de lineaire algebra, onderdeel van de wiskunde, verstaan we onder het voortbrengen
van een deelruimte het volgende.
Binnen een vectorruimte V kunnen we een (in het algemeen eindige) deelverzameling S
beschouwen, bijvoorbeeld bestaande uit de vectoren v1,...,vn. De verzameling W van alle
mogelijke lineaire combinaties van vectoren uit S blijkt zelf ook een vectorruimte te zijn.
Bijgevolg is W een lineaire deelruimte van V.
We noemen W de lineaire deelruimte die wordt voortgebracht door S.
Ook wordt W het lineair omhulsel (Engels: linear span) van S genoemd.
Opmerking: als de vectoren v1,...,vn lineair onafhankelijk zijn, dan is W een basis van U.
6) Injectie
Schema injectie
Een afbeelding
heet een injectie als
.
In woorden: voor de afbeeldig geldt dat ieder element uit A afgebeeld wordt op een uniek
element uit B. Informeel wordt een injectieve afbeelding hierom ook wel 'één-op-één'
genoemd.
Groter of even groot
Een verzameling A noemt men 'groter' dan B als (1) er een injectieve afbeelding van B naar A
bestaat en (2) als er geen bijectieve afbeelding van A naar B bestaat.
7) Surjectie
Een surjectieve, niet injectieve afbeelding
Een niet surjectieve, niet injectieve afbeelding
Een afbeelding van een verzameling V in een verzameling W heet een surjectie als elk
element van W als beeld optreedt. Het bereik van een surjectieve afbeelding is gelijk aan het
codomein. Men zegt in zo'n geval dat de afbeelding V op W afbeeldt, en noemt de afbeelding
kortweg op. Anders geformuleerd is een surjectieve afbeelding een afbeelding f waarbij voor
elk element y in het codomein een element x in het domein is zodat y=f(x).
Voorbeeld
De afbeelding V die van elk ooit op aarde levend persoon zijn of haar vader neemt (dus
bijvoorbeeld V(George W. Bush) = George Bush senior, V(Kim Clijsters) = Lei Clijsters,
etcetera) is niet surjectief. Immers, niet elke persoon is iemands vader.
De afbeelding
waarvoor f(x) = − 1.
met f(x) = x2 is geen surjectie, want er is geen element
De afbeelding f: R → [0, ∞) met f(x) = x2 is wel surjectief, want voor elke
waarvoor f(x) = y.
is er een
8) Lineaire onafhankelijkheid
Binnen een vectorruimte V over een lichaam K (in België: veld) wordt een verzameling
vectoren v1, v2, ..., vn aangeduid als lineair onafhankelijk wanneer geen enkele van deze
vectoren is te schrijven als een lineaire combinatie van de andere vectoren.
Wiskundig geformuleerd: de vectoren v1, v2, ..., vn heten lineair onafhankelijk indien
a1 v1 + a2 v2 + ... + an vn = 0 impliceert dat a1 = 0 en a2 = 0 en ... en an = 0 voor willekeurige
scalairen ai uit K.
Als vectoren niet lineair onafhankelijk zijn heten ze lineair afhankelijk.
Voorbeeld 1
Beschouw de vectoren (1,0) en (-1,2) in R2. Om na te gaan of ze lineair afhankelijk zijn
stellen we een lineaire combinatie van de twee vectoren gelijk aan de nulvector.
Het blijkt dat de coëfficiënten a en b beiden 0 moeten zijn, de vectoren zijn dus lineair
onafhankelijk.
Lineaire onafhankelijkheid kan ook m.b.v. de determinant gecontroleerd worden, als twee
rijen (kolommen) lineair afhankelijk zijn is de determinant nul.
De determinant van
is -1, de vectoren zijn aldus onafhankelijk.
Voorbeeld 2
Beschouw de vectoren (1,0,-2), (3,2,0) en (4,2,-2) in R3. Deze zijn lineair afhankelijk omdat
elke vector geschreven kan worden als een lineaire combinatie van de overige. Zo is (4,2,-2) =
(1,0,-2) + (3,2,0).
Dit is equivalent met het feit dat we de nulvector kunnen schrijven als een lineaire combinatie
van de drie vectoren zonder dat alle coëfficiënten 0 moeten zijn.
Analoog is de determinant nul:
9) Kern
Definitie
De kern van een lineaire afbeelding
, is de verzameling van alle vectoren uit
V, die onder f op de nulvector van W worden afgebeeld:
.
De kern is een lineaire deelruimte van V.
Ook voor een matrix is de eigenschap kern gedefinieerd. Het is de kern van de als lineaire
afbeelding opgevatte matrix, dus:
De kern van een matrix A is de verzameling van vectoren v waarvoor geldt dat Av=0:
Eigenschappen
Dimensiestelling
Een lineaire afbeelding f is injectief dan en slechts dan als de kern van f alleen de
nulvector bevat.
10) Spoor
Het spoor (naar het Duits Spur, in het Engels later vertaald door trace) van een matrix is de
som van de diagonaalelementen van een n×n matrix. Er kan bewezen worden dat het spoor
van de gediagonaliseerde matrix gelijk is aan de som van de n eigenwaarden van de matrix.
tr(A) = A1,1 + A2,2 + ... + An,n,
met Aij het (i,j)de element van de matrix A.
Eigenschappen

lineariteit:
o tr(A + B) = tr(A) +
tr(B)
o tr(rA) = r tr(A)

invariant onder
transponeren

invariant onder
matrixvermenigvuldigen
(A en B stellen vierkante
n×n matrices voor):
tr(A) = tr(AT).
tr(AB) = tr(BA).
dus ook
tr(ABC) = tr(CAB) = tr(BCA)
tr(P−1AP) = tr(PP−1A) = tr(A)

Het spoor van een matrix
vindt ook toepassing bij
de bepaling van de
karakteristieke veelterm
van de matrix. Voor een
vierkante matrix met k
rijen en k kolommen is
de veelterm van de orde
k-1. Het spoor van de
matrix is op het teken na,
tevens de coëfficiënt van
de term met de macht k2.
Verband eigenwaarden
We schrijven de matrix A als Λ.Δ.Λ − 1, met Λ de matrices opgebouwd uit de eigenvectoren,
en Δ de diagonaalmatrix gevuld met de eigenwaarden. Er volgt dan (zie hierboven) dat
tr(A)=tr(Λ Δ Λ−1)=tr(Λ Λ−1 Δ) = tr(Δ) en inderdaad dat de som van de eigenwaarden is.
Gezien deze laatste eigenschap is het spoor van een matrix een gelijksoortigheidsinvariant.
11) Rang
De rang van een matrix is een soort maat voor de hoeveelheid informatie die door de matrix
wordt vertegenwoordigd. De preciese definitie staat hieronder. De kolommen van een matrix
zijn op te vatten als vectoren. Als we een matrix uitbreiden met een van de bestaande
kolommen, bevat de nieuwe matrix als het ware niet meer informatie dan de oorspronkelijke.
Zo ook als we een (lineaire) combinatie van de bestaande kolommen toevoegen. Het kan ook
zijn dat er kolommen uit de matrix weggelaten kunnen worden zonder dat er informatie
verloren gaat. De rang is het aantal kolommen waarvan geen meer weggelaten kan worden.
Precieser: de kolommen van een matrix bepalen als vectoren opgevat een ruimte. De dimensie
van die ruimte heet de rang van de matrix.
Definitie
De rang van een matrix is de dimensie van de door de kolommen opgespannen
(voortgebrachte) ruimte.
We kunnen ook zeggen: de rang van een matrix is het maximaal aantal lineair onafhankelijke
rijen of kolommen van een matrix.
Of nog anders: de rang van een matrix is het aantal niet-nul rijen dat overblijft in de
echelonvorm van de matrix.
Reguliere matrix
Een matrix van volledige rang wordt ook een reguliere matrix genoemd. Of met andere
woorden: een reguliere matrix heeft onafhankelijke kolommen en rijen. Een matrix die niet
regulier is, heet singulier.
In de praktijk is dit eenvoudig te controleren met behulp van determinant van de matrix. De
matrix is regulier als de determinant verschillend is van nul en bijgevolg singulier als deze
wel nul is.
Voorbeeld
Stel dat de matrix A gegeven wordt door:
.
De kolom (0,5,0) is een van de basisvectoren van de door de kolommen opgespannen ruimte.
Van de beide andere kolommen trekken we de component in de richting van (0,5,0) af. Zo
blijven: (4,0,-2) en (-1,0,-2) over. Dit zijn geen veelvouden van elkaar, dus spannen ze samen
met (0,5,0) 3 dimensies op. De rang van A is dus 3.
De hierboven gevolgde redenering kan gesystematiseerd worden, en is dan analoog aan het
bepalen van de echelonvorm. De echelonvorm van A is:
Het aantal niet-nul rijen is 3, dus de rang van matrix A is 3.
Wordt de matrix echter gegeven door
dan vertoont de echelonvorm van de matrix
een nulrij, de rang van deze matrix is dan ook slechts 2 (merk op dat de middelste rij de som
is van de bovenste en onderste): de rijen (en kolommen) zijn niet lineair-onafhankelijk.
12) Eigenwaarde
Ga naar: navigation, search
In de lineaire algebra en toepassingen daarvan spelen lineaire afbeeldingen (ook lineaire
operatoren genoemd) een belangrijke rol. Een speciaal geval vormen de lineaire afbeeldingen
van een vectorruimte in zichzelf. Er kunnen dan rechte lijnen door de oorsprong zijn die op
zichzelf afgebeeld worden. Een punt op zo'n lijn wordt eigenvector van de afbeelding
genoemd en de factor waarmee een eigenvector door de afbeelding geschaald wordt heet
eigenwaarde.
Definitie
Zij
een lineaire afbeelding van de lineaire ruimte V in zichzelf. Een scalair λ
heet eigenwaarde van T als:
.
voor zekere x ongelijk aan 0. Alle vectoren x waarvoor deze relatie geldt, worden (samen met
de nulvector) eigenvectoren genoemd.
Eigenvectoren in eindigdimensionale vectorruimten
Indien de vectorruimte V waarop de lineaire afbeelding T werkt eindig-dimensionaal is, kan
de afbeelding door een matrix M voorgesteld worden. Men kan aantonen dat λ dan en slechts
dan een eigenwaarde van T is als:
.
Hier staat I voor de eenheidsmatrix van orde gelijk aan de dimensie n van V en "det" voor
determinant. Omdat de determinant een polynoom is in λ van orde ten hoogste n, zijn er dus
in het reële geval ten hoogste n eigenwaarden, en in het complexe geval precies n
eigenwaarden, waarvan er overigens sommige kunnen samenvallen. De determinant, die een
veelterm is in λ wordt het karakteristieke polynoom genoemd.
Voorbeeld
In 2 dimensies kan een spiegeling om de x-as geschreven worden als
Deze matrix heeft twee verschillende eigenwaarden, namelijk 1 en −1. De eigenvectoren die
corresponderen met deze eigenwaarden zijn de x-as en de y-as, deze worden immers op een
veelvoud van zichzelf afgebeeld.
en
De eerste eigenvector (de x-as) wordt op zichzelf afgebeeld, dus vermenigvuldigd met een
factor (eigenwaarde) +1, de tweede (de y-as) wordt gespiegeld, dus vermenigvuldigd met een
factor −1.
Toepassingen
Spectrale decompositie
Als alle eigenwaarden en -vectoren van een matrix berekend zijn, kan de bijbehorende
afbeelding voorgesteld worden door een matrix met een eenvoudige gedaante, door de
eigenvectoren te gebruiken als nieuw coördinatenstelsel. Dit noemt men de spectrale
decompositie van de matrix. In deze eenvoudige gedaante is de matrix voornamelijk gevuld
met nullen, behalve de hoofddiagonaal en beide nevendiagonalen waarvan de elementen
ongelijk aan nul kunnen zijn.
In het bovenstaande voorbeeld heeft de matrix al deze eenvoudige gedaante, maar wanneer
we te maken hebben met een grote hoeveelheid, gedeeltelijk gecorreleerde informatie in
meerdere dimensies is het erg nuttig de matrix in deze eenvoudige vorm te schrijven. Een
dergelijke methode wordt in de statistiek toegepast op correlatiematrices van statistische
gegevens; deze methode heet hoofdcomponentenanalyse.
Toepassingen in de natuurkunde
De eigenwaarden en eigenvectoren vinden hun toepassing in de trillingstechniek. Als de
bewegingsvergelijkingen van een meerdimensioneel massa-veer systeem in matrixnotatie
worden opgeschreven, komen de eigenvectoren overeen met de eigentrillingen, en daarmee
met de resonantiebeweging van het systeem. De eigenwaarden zijn dan gelijk aan het
kwadraat van de resonantiefrequenties in radialen per seconde.
Deze matrices worden al gauw zeer groot, zodat er software nodig is om de eigenwaarden te
bepalen. Dit kan bijvoorbeeld gebeuren met de eindige-elementenmethode.
Eigenwaarden nemen een belangrijke plaats in in de kwantummechanica, waar elke meetbare
grootheid gerepresenteerd wordt als een lineaire operator en de eigenwaarden van deze
operator corresponderen met de mogelijke gemeten waarden van die grootheid.
Download