1) Vectorruimte Een vectorruimte is een centraal begrip in de lineaire algebra. Omdat veel wiskundige objecten vectorruimten zijn, kent de studie van de vectorruimten veel toepassingen, zoals in de kwantumfysica. Een vectorruimte V over een lichaam (Nederlandse term; in België wordt dit een 'veld' genoemd) K is een verzameling van elementen aangeduid als vectoren, waarop twee bewerkingen zijn gedefinieerd: een optelling (die niet noodzakelijk overeenkomt met de optelling van "gewone" getallen, waarmee we vertrouwd zijn) van twee vectoren, en een scalaire vermenigvuldiging van een scalair (een element uit K) met een vector. Deze bewerkingen moeten voldoen aan een aantal voorwaarden. Als we de optelling noteren met "+", de skalaire vermenigvuldiging met "*", drie (al dan niet verschillende) willekeurige vectoren uit V met u, v en w en twee willekeurige scalairen uit K met a en b, zijn deze voorwaarden: 1. v + w is weer een vector uit V V is gesloten onder de optelling van vectoren 2. u + (v + w) = (u + v) + w De optelling van vectoren is associatief. 3. Er bestaat een element 0 uit V zodat voor alle vectoren v uit V geldt dat 0 + v = v = v + 0. 0 wordt het neutraal element genoemd ("het neutraal element" omdat men kan aantonen dat het uniek is). 4. Voor alle vectoren v bestaat er een vector -v zodat v + (-v) = 0 -v noemt men het inverse element van v. 5. v + w = w + v De optelling van vectoren is commutatief. 6. a * v is weer een vector uit V. V is gesloten onder de scalaire vermenigvuldiging. 7. a * (b * v) = (a * b) * v De scalaire vermenigvuldiging is assosiatief. 8. Als 1 het eenheidselement is van K, dan zal 1 * v = v. Het eenheidselement uit K is neutraal element voor de scalaire vermenigvuldiging. 9. a * (v + w) = a * v + a * w Distributiviteit van de scalaire vermenigvuldiging ten opzichte van de optelling van vectoren. 10. (a + b) * v = a * v + b * v Distributiviteit van de scalaire vermenigvuldiging ten opzichte van de optelling van scalairen. Merk op dat met "a + b" de optelling van twee scalairen in K wordt bedoeld. Dit is niet dezelfde optelling als de optelling die bij "v + w" gebruikt wordt om in V twee vectoren "op te tellen". De eigenschappen 1 t/m 5 impliceren dat V een abelse groep is onder de optelling. Door K te vervangen door een willekeurige ring R, krijgen we de definitie van een R-moduul; een vectorruimte is dus eigenlijk een speciaal soort moduul. Veel gebruikte vectorruimten zijn die waarin K gelijk is aan (de reële getallen) of complexe getallen); V heet dan een reële respectievelijk complexe vectorruimte. Een vectorruimte waarop een norm gedefinieerd is heet een genormeerde vectorruimte. (de Men kan (met behulp van het keuzeaxioma) aantonen dat elke vectorruimte een basis heeft. Intuïtief beschouwd is een basis een zo klein mogelijke verzameling van vectoren waarmee je de hele vectorruimte kan opbouwen (door het nemen van scalaire vermenigvuldigingen en vectorsommen). De cardinaliteit van de basis wordt de dimensie van de vectorruimte genoemd. Intuïtief beschouwd is de dimensie van een vectorruimte het aantal richtingen waarin de vectoren kunnen variëren. Uitbreidingen Een moduul is een algebraïsche structuur die erg lijkt op een vectorruimte. Een moduul is echter gedefinieerd over een ring, in plaats van over een lichaam (Ned. term; Belgisch: veld). Bij een moduul eist men dus niet dat K een lichaam (Ned. term) is, maar dat K een ring is. Er zijn dus "meer" modulen dan vectorruimten en niet alle eigenschappen van vectorruimten gelden ook voor modulen 2) Basis In de lineaire algebra, is een basis van een vectorruimte een verzameling van lineair onafhankelijke vectoren, die de vectorruimte voortbrengen. Binnen een vectorruimte V over een lichaam K (in België: veld) wordt een set van vectoren e1, e2, ..., en een basis van deze vectorruimte genoemd indien deze set van vectoren voldoet aan twee voorwaarden: 1. e1, e2, ..., en zijn lineair onafhankelijke vectoren in V 2. iedere willekeurige vector v uit V is te schrijven als een lineaire combinatie van vectoren uit deze set: v = v1 e1 + v2 e2 + ... + vn en waarbij vi scalars uit K zijn of met andere woorden de vectoren zijn een voortbrengend deel. De getallen v1, v2, ..., vn heten dan de coördinaten van de vector v ten opzichte van de basis {e1, ..., en}. Dimensie Er kan worden bewezen dat elke basis van een vectorruimte uit hetzelfde aantal vectoren bestaat. Dit aantal is dus op te vatten als een eigenschap van de vectorruimte en wordt de dimensie genoemd. Verder is het zo dat iedere eindig-dimensionale vectorruimte willekeurig veel bases heeft. Dit geldt niet voor oneindig-dimensionale vectorruimten, voor sommigen daarvan is geen basis aan te geven. Voorbeelden B1 = {(1,0),(0,1)} is een basis voor . B2 {(1,3),(2,3)} is dat ook. Een basis hoeft helemaal niet uniek te zijn. B1 is bovendien een orthonormale basis. Een minder triviaal voorbeeld: is een basis voor de vectorruimte over . Orthogonaliteit Voor vectorruimten over het scalairenlichaam of bestaat de notie van een inwendig product: een positief definiete symmetrische resp. hermitische kwadratische vorm. Men noemt twee vectoren die verschillend zijn van de nulvector, orthogonaal of loodrecht als hun scalair product nul is. Een eenheidsvector is een vector waarvan het scalair product met zichzelf 1 bedraagt. Een orthogonale basis is een basis waarvan de vectoren onderling loodrecht zijn. Een orthonormale basis is een orthogonale basis die uit eenheidsvectoren bestaat. In een eindigdimensionale vectorruimte met een scalair product kan met uit een gewone basis een orthonormale basis distilleren met behulp van de het GS-procédé. Dit procédé blijft geldig in een oneindigdimensionale separabele Hilbertruimte om een Schauderbasis orthonormaal te maken. Kern (wiskunde) In de lineaire algebra beeldt een lineaire afbeelding een ruimte met een zekere dimensie n af in een andere ruimte. Daarbij hoeft de dimensie van het beeld niet gelijk te zijn aan de dimensie van het domein, maar kan kleiner zijn. Er zijn "dimensies verdwenen". De oorzaak daarvan is dat een deel van het domein op de nulvector wordt afgebeeld. Dat deel is een lineaire deelruimte van het domein en wordt de kern van de lineaire afbeelding genoemd. De nulliteit ν van een transformatie/matrix is de rang van de kern van die transformatie/matrix. 3) Orthogonaal a) Vectoren In de wiskunde (meetkunde) heet een verzameling vectoren het inwendig product van elk paar vectoren en orthogonaal, als voor geldt: als i verschilt van j. In een meer intuïtieve aanpak kunnen we "orthogonaal" vertalen tot "loodrecht". Twee vectoren zijn dan orthogonaal indien ze loodrecht op elkaar staan. Als vectoren orthogonaal zijn, en tevens elk een eenheidslengte hebben, noemen we ze ook wel orthonormaal; er geldt dan tevens: voor iedere i Verwante begrippen zijn bijvoorbeeld: het orthogonaal complement van een lineaire deelruimte, de Gram-Schmidtmethode. b) Functies Twee functies worden orthogonaal genoemd als de integraal over de functieruimte van het product van de twee functies nul is: 4) Orthonormale basis Definitie In de lineaire algebra heet een basis van een vectorruimte, bestaande uit de vectoren orthonormaal, als voor elk paar vectoren aan δij. Hierbij is δij de Kronecker delta. Anders geformuleerd: Een basis van vectoren inwendig product van elk paar vectoren en en het inwendig product gelijk is heet orthonormaal, als voor het geldt: als i verschillend is van j als i gelijk is aan j Nog anders geformuleerd, een basis van vectoren heet orthonormaal, als ze genormeerd en orthogonaal is. Voorbeelden: De vectoren {(1,0,0) , (0,1,0) , (0,0,1)} vormen een orthonormale basis van de 3D-ruimte {(1,0),(0,1)} is een orthonormale basis van . Algemener is de standaardbasis {(1,0,0,...),(0,1,0,0,...),...,( 0,0,...,1)} van orthonormaal. De basis {fn : n ∈ Z} , met vormen een orthogonale ruimte. Deze eigenschap wordt gebruikt bij de fourieranalyse. Eigenschappen De procedure van Gram-Schmidt geeft ons een directe methode om een willekeurige basis om te vormen tot een orthonormale basis. De kolommen (en rijen) van een n-dimensionale, orthogonale transformatie vormen een orthonormale basis van vectoren voor . 5) Voortbrengen (Span) Binnen de lineaire algebra, onderdeel van de wiskunde, verstaan we onder het voortbrengen van een deelruimte het volgende. Binnen een vectorruimte V kunnen we een (in het algemeen eindige) deelverzameling S beschouwen, bijvoorbeeld bestaande uit de vectoren v1,...,vn. De verzameling W van alle mogelijke lineaire combinaties van vectoren uit S blijkt zelf ook een vectorruimte te zijn. Bijgevolg is W een lineaire deelruimte van V. We noemen W de lineaire deelruimte die wordt voortgebracht door S. Ook wordt W het lineair omhulsel (Engels: linear span) van S genoemd. Opmerking: als de vectoren v1,...,vn lineair onafhankelijk zijn, dan is W een basis van U. 6) Injectie Schema injectie Een afbeelding heet een injectie als . In woorden: voor de afbeeldig geldt dat ieder element uit A afgebeeld wordt op een uniek element uit B. Informeel wordt een injectieve afbeelding hierom ook wel 'één-op-één' genoemd. Groter of even groot Een verzameling A noemt men 'groter' dan B als (1) er een injectieve afbeelding van B naar A bestaat en (2) als er geen bijectieve afbeelding van A naar B bestaat. 7) Surjectie Een surjectieve, niet injectieve afbeelding Een niet surjectieve, niet injectieve afbeelding Een afbeelding van een verzameling V in een verzameling W heet een surjectie als elk element van W als beeld optreedt. Het bereik van een surjectieve afbeelding is gelijk aan het codomein. Men zegt in zo'n geval dat de afbeelding V op W afbeeldt, en noemt de afbeelding kortweg op. Anders geformuleerd is een surjectieve afbeelding een afbeelding f waarbij voor elk element y in het codomein een element x in het domein is zodat y=f(x). Voorbeeld De afbeelding V die van elk ooit op aarde levend persoon zijn of haar vader neemt (dus bijvoorbeeld V(George W. Bush) = George Bush senior, V(Kim Clijsters) = Lei Clijsters, etcetera) is niet surjectief. Immers, niet elke persoon is iemands vader. De afbeelding waarvoor f(x) = − 1. met f(x) = x2 is geen surjectie, want er is geen element De afbeelding f: R → [0, ∞) met f(x) = x2 is wel surjectief, want voor elke waarvoor f(x) = y. is er een 8) Lineaire onafhankelijkheid Binnen een vectorruimte V over een lichaam K (in België: veld) wordt een verzameling vectoren v1, v2, ..., vn aangeduid als lineair onafhankelijk wanneer geen enkele van deze vectoren is te schrijven als een lineaire combinatie van de andere vectoren. Wiskundig geformuleerd: de vectoren v1, v2, ..., vn heten lineair onafhankelijk indien a1 v1 + a2 v2 + ... + an vn = 0 impliceert dat a1 = 0 en a2 = 0 en ... en an = 0 voor willekeurige scalairen ai uit K. Als vectoren niet lineair onafhankelijk zijn heten ze lineair afhankelijk. Voorbeeld 1 Beschouw de vectoren (1,0) en (-1,2) in R2. Om na te gaan of ze lineair afhankelijk zijn stellen we een lineaire combinatie van de twee vectoren gelijk aan de nulvector. Het blijkt dat de coëfficiënten a en b beiden 0 moeten zijn, de vectoren zijn dus lineair onafhankelijk. Lineaire onafhankelijkheid kan ook m.b.v. de determinant gecontroleerd worden, als twee rijen (kolommen) lineair afhankelijk zijn is de determinant nul. De determinant van is -1, de vectoren zijn aldus onafhankelijk. Voorbeeld 2 Beschouw de vectoren (1,0,-2), (3,2,0) en (4,2,-2) in R3. Deze zijn lineair afhankelijk omdat elke vector geschreven kan worden als een lineaire combinatie van de overige. Zo is (4,2,-2) = (1,0,-2) + (3,2,0). Dit is equivalent met het feit dat we de nulvector kunnen schrijven als een lineaire combinatie van de drie vectoren zonder dat alle coëfficiënten 0 moeten zijn. Analoog is de determinant nul: 9) Kern Definitie De kern van een lineaire afbeelding , is de verzameling van alle vectoren uit V, die onder f op de nulvector van W worden afgebeeld: . De kern is een lineaire deelruimte van V. Ook voor een matrix is de eigenschap kern gedefinieerd. Het is de kern van de als lineaire afbeelding opgevatte matrix, dus: De kern van een matrix A is de verzameling van vectoren v waarvoor geldt dat Av=0: Eigenschappen Dimensiestelling Een lineaire afbeelding f is injectief dan en slechts dan als de kern van f alleen de nulvector bevat. 10) Spoor Het spoor (naar het Duits Spur, in het Engels later vertaald door trace) van een matrix is de som van de diagonaalelementen van een n×n matrix. Er kan bewezen worden dat het spoor van de gediagonaliseerde matrix gelijk is aan de som van de n eigenwaarden van de matrix. tr(A) = A1,1 + A2,2 + ... + An,n, met Aij het (i,j)de element van de matrix A. Eigenschappen lineariteit: o tr(A + B) = tr(A) + tr(B) o tr(rA) = r tr(A) invariant onder transponeren invariant onder matrixvermenigvuldigen (A en B stellen vierkante n×n matrices voor): tr(A) = tr(AT). tr(AB) = tr(BA). dus ook tr(ABC) = tr(CAB) = tr(BCA) tr(P−1AP) = tr(PP−1A) = tr(A) Het spoor van een matrix vindt ook toepassing bij de bepaling van de karakteristieke veelterm van de matrix. Voor een vierkante matrix met k rijen en k kolommen is de veelterm van de orde k-1. Het spoor van de matrix is op het teken na, tevens de coëfficiënt van de term met de macht k2. Verband eigenwaarden We schrijven de matrix A als Λ.Δ.Λ − 1, met Λ de matrices opgebouwd uit de eigenvectoren, en Δ de diagonaalmatrix gevuld met de eigenwaarden. Er volgt dan (zie hierboven) dat tr(A)=tr(Λ Δ Λ−1)=tr(Λ Λ−1 Δ) = tr(Δ) en inderdaad dat de som van de eigenwaarden is. Gezien deze laatste eigenschap is het spoor van een matrix een gelijksoortigheidsinvariant. 11) Rang De rang van een matrix is een soort maat voor de hoeveelheid informatie die door de matrix wordt vertegenwoordigd. De preciese definitie staat hieronder. De kolommen van een matrix zijn op te vatten als vectoren. Als we een matrix uitbreiden met een van de bestaande kolommen, bevat de nieuwe matrix als het ware niet meer informatie dan de oorspronkelijke. Zo ook als we een (lineaire) combinatie van de bestaande kolommen toevoegen. Het kan ook zijn dat er kolommen uit de matrix weggelaten kunnen worden zonder dat er informatie verloren gaat. De rang is het aantal kolommen waarvan geen meer weggelaten kan worden. Precieser: de kolommen van een matrix bepalen als vectoren opgevat een ruimte. De dimensie van die ruimte heet de rang van de matrix. Definitie De rang van een matrix is de dimensie van de door de kolommen opgespannen (voortgebrachte) ruimte. We kunnen ook zeggen: de rang van een matrix is het maximaal aantal lineair onafhankelijke rijen of kolommen van een matrix. Of nog anders: de rang van een matrix is het aantal niet-nul rijen dat overblijft in de echelonvorm van de matrix. Reguliere matrix Een matrix van volledige rang wordt ook een reguliere matrix genoemd. Of met andere woorden: een reguliere matrix heeft onafhankelijke kolommen en rijen. Een matrix die niet regulier is, heet singulier. In de praktijk is dit eenvoudig te controleren met behulp van determinant van de matrix. De matrix is regulier als de determinant verschillend is van nul en bijgevolg singulier als deze wel nul is. Voorbeeld Stel dat de matrix A gegeven wordt door: . De kolom (0,5,0) is een van de basisvectoren van de door de kolommen opgespannen ruimte. Van de beide andere kolommen trekken we de component in de richting van (0,5,0) af. Zo blijven: (4,0,-2) en (-1,0,-2) over. Dit zijn geen veelvouden van elkaar, dus spannen ze samen met (0,5,0) 3 dimensies op. De rang van A is dus 3. De hierboven gevolgde redenering kan gesystematiseerd worden, en is dan analoog aan het bepalen van de echelonvorm. De echelonvorm van A is: Het aantal niet-nul rijen is 3, dus de rang van matrix A is 3. Wordt de matrix echter gegeven door dan vertoont de echelonvorm van de matrix een nulrij, de rang van deze matrix is dan ook slechts 2 (merk op dat de middelste rij de som is van de bovenste en onderste): de rijen (en kolommen) zijn niet lineair-onafhankelijk. 12) Eigenwaarde Ga naar: navigation, search In de lineaire algebra en toepassingen daarvan spelen lineaire afbeeldingen (ook lineaire operatoren genoemd) een belangrijke rol. Een speciaal geval vormen de lineaire afbeeldingen van een vectorruimte in zichzelf. Er kunnen dan rechte lijnen door de oorsprong zijn die op zichzelf afgebeeld worden. Een punt op zo'n lijn wordt eigenvector van de afbeelding genoemd en de factor waarmee een eigenvector door de afbeelding geschaald wordt heet eigenwaarde. Definitie Zij een lineaire afbeelding van de lineaire ruimte V in zichzelf. Een scalair λ heet eigenwaarde van T als: . voor zekere x ongelijk aan 0. Alle vectoren x waarvoor deze relatie geldt, worden (samen met de nulvector) eigenvectoren genoemd. Eigenvectoren in eindigdimensionale vectorruimten Indien de vectorruimte V waarop de lineaire afbeelding T werkt eindig-dimensionaal is, kan de afbeelding door een matrix M voorgesteld worden. Men kan aantonen dat λ dan en slechts dan een eigenwaarde van T is als: . Hier staat I voor de eenheidsmatrix van orde gelijk aan de dimensie n van V en "det" voor determinant. Omdat de determinant een polynoom is in λ van orde ten hoogste n, zijn er dus in het reële geval ten hoogste n eigenwaarden, en in het complexe geval precies n eigenwaarden, waarvan er overigens sommige kunnen samenvallen. De determinant, die een veelterm is in λ wordt het karakteristieke polynoom genoemd. Voorbeeld In 2 dimensies kan een spiegeling om de x-as geschreven worden als Deze matrix heeft twee verschillende eigenwaarden, namelijk 1 en −1. De eigenvectoren die corresponderen met deze eigenwaarden zijn de x-as en de y-as, deze worden immers op een veelvoud van zichzelf afgebeeld. en De eerste eigenvector (de x-as) wordt op zichzelf afgebeeld, dus vermenigvuldigd met een factor (eigenwaarde) +1, de tweede (de y-as) wordt gespiegeld, dus vermenigvuldigd met een factor −1. Toepassingen Spectrale decompositie Als alle eigenwaarden en -vectoren van een matrix berekend zijn, kan de bijbehorende afbeelding voorgesteld worden door een matrix met een eenvoudige gedaante, door de eigenvectoren te gebruiken als nieuw coördinatenstelsel. Dit noemt men de spectrale decompositie van de matrix. In deze eenvoudige gedaante is de matrix voornamelijk gevuld met nullen, behalve de hoofddiagonaal en beide nevendiagonalen waarvan de elementen ongelijk aan nul kunnen zijn. In het bovenstaande voorbeeld heeft de matrix al deze eenvoudige gedaante, maar wanneer we te maken hebben met een grote hoeveelheid, gedeeltelijk gecorreleerde informatie in meerdere dimensies is het erg nuttig de matrix in deze eenvoudige vorm te schrijven. Een dergelijke methode wordt in de statistiek toegepast op correlatiematrices van statistische gegevens; deze methode heet hoofdcomponentenanalyse. Toepassingen in de natuurkunde De eigenwaarden en eigenvectoren vinden hun toepassing in de trillingstechniek. Als de bewegingsvergelijkingen van een meerdimensioneel massa-veer systeem in matrixnotatie worden opgeschreven, komen de eigenvectoren overeen met de eigentrillingen, en daarmee met de resonantiebeweging van het systeem. De eigenwaarden zijn dan gelijk aan het kwadraat van de resonantiefrequenties in radialen per seconde. Deze matrices worden al gauw zeer groot, zodat er software nodig is om de eigenwaarden te bepalen. Dit kan bijvoorbeeld gebeuren met de eindige-elementenmethode. Eigenwaarden nemen een belangrijke plaats in in de kwantummechanica, waar elke meetbare grootheid gerepresenteerd wordt als een lineaire operator en de eigenwaarden van deze operator corresponderen met de mogelijke gemeten waarden van die grootheid.