Uittreksel Lineaire Algebra

advertisement
Uittreksel Lineaire Algebra
Inhoudsopgave
Voorwoord ................................................................................................................................... 1
0. Voorkennis (boek Bijlage A) ................................................................................................. 2
1. Vectormeetkunde ................................................................................................................. 3
Inleiding (boek hoofdstuk 1) ..................................................................................................... 3
1.1
Vectorbewerkingen (boek § 1.1) .................................................................................. 3
1.2
Punten, lijnen en vlakken (boek § 1.2) ......................................................................... 4
1.3
Bases en coördinaten (boek § 1.3) .............................................................................. 5
1.4
Hoeken, afstanden en inproduct (boek § 1.4)............................................................... 7
1.5
Het uitproduct (boek § 1.5)......................................................................................... 12
2. Vectorruimten en matrixrekening ........................................................................................... 14
2.1
Vectorruimte als abstracte structuur (boek § 2.1) ....................................................... 14
2.2
Dimensie bases en coördinaten ................................................................................. 16
2.3
Stelsels lineaire vergelijkingen (boek H3) ................................................................... 18
2.4
Matrixrekening (boek H4) ........................................................................................... 19
2.5
Rekenregels voor matrices (boek § 4.2)..................................................................... 20
2.6
De inverse matrix (boek § 4.3) ................................................................................... 21
3. Determinanten en lineaire afbeeldingen ............................................................................. 22
3.1
Determinanten (boek hoofdstuk 5) ............................................................................. 22
3.2
Lineaire afbeeldingen (boek § 6.1) ............................................................................. 23
3.3
Lineaire afbeeldingen en matrices (boek § 6.2).......................................................... 23
3.4
De overgang op een andere basis (boek § 6.2.2) ...................................................... 24
3.5
Beeldruimte, nulruimte en rang van een lineaire afbeelding (inleiding H7) ................. 24
3.6
Oplossingsverzamelingen (boek § 7.1) ...................................................................... 25
3.7
De dimensiestelling (boek § 7.2) ................................................................................ 25
3.8
De rang van een lineaire afbeelding (boek § 7.3) ...................................................... 25
4. Eigenwaarden en inproductruimten ....................................................................................... 26
4.1
Eigenwaarden en eigenruimten (boek § 8.1) .............................................................. 26
4.2
De karakteristieke vergelijking (boek § 8.2) ................................................................ 26
4.3
Diagonaliseerbaarheid (boek § 8.3) ........................................................................... 26
4.4
Inproductruimten (boek § 9.1) .................................................................................... 26
4.5
Eigenschappen van het inproduct (boek § 9.1.1) ....................................................... 27
4.6
Orthogonale transformaties (boek § 9.2) .................................................................... 29
Gebruik van de TI-89 bij Lineaire Algebra ................................................................................. 30
Geraadpleegde literatuur ........................................................................................................... 31
Nuttige links............................................................................................................................... 32
Voorwoord
Dit is een uittreksel van de module Lineaire Algebra. Het bevat alle begrippen en formules in de
volgorde zoals die in het boek en de studiewijzer aan bod komen.
Succes met deze module!
Bert Kraai
Uittreksel Lineaire Algebra
0. Voorkennis (boek Bijlage A)
Het boek gaat uit van een voorkennis 5 VWO met wiskunde B.
Omdat ik zelf deze voorkennis niet heb, ben ik begonnen met het bestuderen van bijlage A van
het boek. Hieronder een samenvatting.
Meetkunde
In een rechthoekige driehoek geldt:
overstaande rechthoekzijde
aanliggende rechthoekzijde
cos  
schuine zijde
schuine zijde
sin  overstaande rechthoekzijde
tan  

cos  aanliggende rechthoekzijde
Hoek  wordt meestal in radialen uitgedrukt, waarbij geldt dat  / 2 radialen = 90o.
sin  
Reële getallen
R is de verzameling reële getallen. Een meetkundig beeld hiervan is een getallenrechte.
R bestaat uit gehele getallen, rationale getallen (= breuken) en irrationale getallen ( 2 ,  , e ).
Onder R p verstaat men de verzameling van alle rijtjes ( x1 ,..., x p ) van p reële getallen.
Verzamelingen
Een verzameling ontstaat als men een aantal welonderscheiden objecten (elementen) tot één
geheel samenneemt. Als a element is van de verzameling A , dan schrijven we dit als a  A .
Als ieder element van B tevens element is van een verzameling A , noemen we B een


deelverzameling van A . Deelverzamelingen noteren we in de vorm ( x, y)  R 2 x 2  y 2  1 .
Functies
 Polynomen (veelterm)

a0  a1 x  a2 x 2  ...  an x n .
De reële getallen ai zijn de coëfficiënten. Als de coëfficiënt an van de hoogste macht x n
ongelijk is aan 0, dan noemen we n de graad van de polynoom.
Goniometrische functies
sin 2 x  cos 2 x  1
sin( x)   sin x
cos( x)  cos x
sin( x  y )  sin x cos y  cos x sin y
cos( x  y )  cos x cos y  sin x sin y
(sin x) '  cos x
(cos x) '   sin x

Exponentiële functies
e x y  e x  e y

e 
x
y
 e xy
e  '  e
x
x
Hyperbolische functies
sinh x 
e x  e x
2
cosh x 
e x  e x
2
5
Sommatiesymbool
i
2
 12  22  32  42  52
i 1
5
Productsymbool
 (1  i)  (1  1)(1  2)(1  3)(1  4)(1  5)
i 1
Blz. 2 van 32
Uittreksel Lineaire Algebra
1. Vectormeetkunde
Inleiding (boek hoofdstuk 1)
Pijl = een gericht lijnstuk met een beginpunt en een eindpunt.
Twee pijlen zijn equivalent (gelijkwaardig) als ze én even lang zijn én gelijkgericht.
Vector = verzameling equivalente pijlen.
Conclusie: een pijl is een representant van een vector.
Het boek maakt onderscheid tussen:
1. Vrije vectoren = vectoren waarbij men het aangrijpingspunt vrij mag kiezen; alleen de
grootte en richting zijn van belang;
2. Gebonden vectoren = vectoren met hetzelfde aangrijpingspunt.
Door voor het aangrijpingspunt van vrije vectoren een vast punt als 'oorsprong' te kiezen,
kunnen we ze vervolgens verder behandelen als gebonden vectoren (zie § 1.2).
Vervolgens kiezen we een basis en coördinaten ten opzichte van deze basis (zie § 1.3).
Vectoren worden in het boek met een kleine letter geschreven, bijvoorbeeld v . Andere notaties
zijn: v , v of v . De notatie voor het gerichte lijnstuk van punt A naar punt B is AB .
1.1 Vectorbewerkingen (boek § 1.1)
v is de scalaire vermenigvuldiging van vector v met schaalfactor (scalar)  (   ).
Het aangrijpingspunt blijft hetzelfde. Bij een vermenigvuldiging met een negatieve factor keert de
richting van de vector om.
Optellen v  w kunnen we doen via:
1. De parallellogramconstructie. Vectoren v en w hebben hetzelfde aangrijpingspunt;
2. Bij vrije vectoren: kop-aan-staart leggen.
Aftrekken vrije vectoren v  w kunnen we bepalen via:
1. De parallellogramconstructie met de vectoren v + - w .
2. Kop-aan-staart leggen van de vectoren v en - w .
3. Vanuit de parallellogramconstructie met de vectoren v + w .
De verschilvector is nu de vector die van w naar v loopt.
De nulvector is een pijl met lengte nul. De richting van deze vector is onbepaald.
Blz. 3 van 32
Uittreksel Lineaire Algebra
1.2 Punten, lijnen en vlakken (boek § 1.2)
Vanaf nu gaat het boek er van uit dat, tenzij anders vermeld, elke vector zijn aangrijpingspunt in
punt O , de gekozen oorsprong, heeft. Vector v ligt dan volledig vast door zijn eindpunt V .
Vector v  OV noemen we de plaatsvector van het punt V .
Kiezen we vector a  OA met A  O dan levert de scalaire vermenigvuldiging x   a (   )
een lijn op door de punten O en A . x  a  b (   ) levert een hieraan evenwijdige lijn op.
In deze parametervoorstellingen of vectorvoorstellingen is:
x een vector, a de richtingsvector,  de parameter en b de steunvector.
De reële waarde van de parameter  resulteert in een punt x op de resulterende lijn.
Ook bij vlakken kunnen we spreken van een parametervoorstelling: x   a  b  c .
We hebben nu 2 richtingsvectoren en een steunvector.
Voorwaarde is wel dat a en b niet met de oorsprong op één lijn liggen.
Uit de opgaven (boek § 1.2.2)
De parametervoorstelling van de lijn door de punten a en b is x  a   (b  a ) met
steunvector a en richtingsvector (b  a ) .
De parametervoorstelling van het vlak door de punten a , b en c is x  a   (b  a)   (c  a)
met steunvector a en richtingsvectoren (b  a ) en (c  a) .
Het zwaartepunt van een driehoek is z  13 (a  b  c) .
Bewijs (opgave 1.5 c):
Neem D = 12 (b  c) . Uit de gelijkvormigheid van de
driehoeken ABZ en DEZ en DE // AB met DE =
volgt dat AZ = 2  DZ. Z ligt op AD =
1
2
1
2
AB
(b  c)  a , dus
z  a  23 ( 12 (b  c)  a)  13 (a  b  c) .
Driehoek ABC
Voor het zwaartepunt van een viervlak geldt (zie
dwarsdoorsnede BRD hiernaast met punt R het midden van
AC, afgeleid van figuur 1.11 boek):
Neem het zwaartepunt L op het vlak ACD. Dan geldt dat
L = 13 (a  c  d ) . Evenzo geldt voor het zwaartepunt N op het
vlak ABC dat N = 13 (a  b  c) . Uit de gelijkvormigheid van
driehoeken BZD en LZN, BN = 2  RN en DL = 2  RL volgt dat
BZ = 3  ZL. Z ligt op BL = 13 (a  c  d )  b , dus
z  b  34 ( 13 (a  c  d )  b)  14 (a  b  c  d ) .
Dwarsdoorsnede RBD van viervlak
ABCD met R midden op AC.
Blz. 4 van 32
Uittreksel Lineaire Algebra
1.3 Bases en coördinaten (boek § 1.3)
Om in het platte vlak met een assenstelsel te kunnen werken, hebben we naast de oorsprong
nog 2 vectoren e1 en e2 nodig, die niet in één lijn liggen met de oorsprong.
In de ruimte hebben we 3 vectoren e1 , e2 en e3 nodig, die niet in één vlak liggen met de
oorsprong.
Iedere vector x kan nu beschreven worden als x  x1e1  x2e2  x3e3 met x1 , x2 , x3  .
De vectoren e1 , e2 en e3 heten de basis van de ruimte, de getallen x1 , x2 en x3 de
coördinaten van x ten opzichte van deze basis. De coördinaten van een punt zijn dus
afhankelijk van de keuze van de basis! Over het algemeen ontstaat zo een scheef
assenstelsel, met schaalverdelingen die onderling niet gelijk zijn. Pas in §1.4.2 komt het
onderling loodrechte of cartesisch of orthonormale assenstelsel aan bod.
§1.3.1 De vectorruimten R 2 en R3
R3 is de verzameling van alle rijtjes van drie reële getallen x  ( x1 , x2 , x3 ) .
De vectoroptelling in R3 gaat als volgt: x  y  ( x1  y1 , x2  y2 , x3  y3 ) .
Dit noemen we de coördinaatsgewijze optelling.
De scalaire vermenigvuldiging in R3 :  x  ( x1 ,  x2 ,  x3 ) .
Dit noemen we de coördinaatsgewijze scalaire vermenigvuldiging.
Is eenmaal een basis gekozen, dan worden vectoren vaak met hun coördinatendrietallen
 x1 
 
geïdentificeerd. Dit kan als rijtje x  ( x1 , x2 , x3 ) , maar gebruikelijker is als kolom x   x2 
x 
 3
2
§1.3.2 De vergelijking van een lijn in R
Als in een vlak een basis is gekozen, dan kan de parametervoorstelling van een lijn x  a  b
(met a  0 ) uitgeschreven worden in coördinaten. Dit kan met:
 x1   b1 
 a1 
 a1   0 
1. kolomvectoren:
         met     
 x2   b2 
 a2 
 a2   0 
 x1  b1   a1
 x2  b2   a2
2. als stelsel vergelijkingen: 
3. na eliminatie van  :
a2 x1  a1 x2  b1a2  b2 a1 .
De laatste vergelijking is een lineaire vergelijking in de onbekenden x1 en x2 en heeft de
algemene vorm c1 x1  c2 x2  c3  0 met c1 , c2  (0, 0) .
Dit kunnen we herschrijven tot x1  
1
(c2 x2  c3 ) .
c1
c3 c2
1

 x1   (c2  c3 )    
c1
c1 c1 .
Als we stellen dat x2   krijgen we als stelsel vergelijkingen: 
 x    0  1
 2
Dit kunnen we schrijven als parametervoorstelling:
 c3 
 c2 
 x1    
 
    c1     c1  .
 x2   0 
1 




Blz. 5 van 32
Uittreksel Lineaire Algebra
§1.3.3 De vergelijking van een lijn in R3
Een vlak in de ruimte met parametervoorstelling x  a  b   c kan ook, na het kiezen van een
basis, worden uitgeschreven in coördinaten. We krijgen dan een stelsel van 3 vergelijkingen:
 x1  a1  b1   c1

 x2  a2  b2   c2
 x  a  b   c
3
3
3
 3
Na elimineren van de parameters  en  ontstaat de algemene vergelijking van een vlak
d1 x1  d2 x2  d3 x3  d 4  0 met d1 , d2 , d3  (0,0,0) .
Conclusie: een lineaire vergelijking in R 2 is een lijn, maar in R3 een vlak!
We kunnen een lijn in de ruimte alleen vastleggen met een parametervoorstelling (met één
parameter) of als snijlijn van twee vlakken.
Een punt in de ruimte kunnen we vastleggen als het snijpunt van drie vlakken.
Snijpunten en snijlijnen (studiewijzer)
a. Het snijden van twee lijnen
Voor twee lijnen in de ruimte zijn er vier mogelijkheden:
 de twee lijnen vallen samen: ze hebben dezelfde richtingsvector en de steunvectoren
liggen op beide lijnen;
 de twee lijnen lopen evenwijdig: ze hebben dezelfde richtingsvectoren, maar de
steunvectoren liggen niet op beide lijnen;
 de twee lijnen snijden elkaar: ze hebben een gemeenschappelijk punt P (snijpunt);
 de twee lijnen kruisen elkaar: ze hebben geen gemeenschappelijk punt P.
Om te bepalen of ze de lijnen een snijpunt hebben, zet je beide lijnen in
parametervoorstelling. Gebruik bij ene lijn parameter  , bij de andere  .
Stel x1  x1 , x2  x2 en x3  x3 en probeer dit stelsel op te lossen.
b. Het snijden van een lijn en een vlak
Voor een lijn en een vlak in de ruimte zijn er drie mogelijkheden:
 de lijn ligt in het vlak zelf,  is onbepaald (zie oefenopgave 6);
 de lijn snijdt het vlak. Het snijpunt is te berekenen door x1 , x2 , x3 uit het stelsel
vergelijkingen van de lijn te gebruiken voor substitutie in de vergelijking van het vlak.
Hierdoor ontstaat een vergelijking in  , die opgelost kan worden;
 de lijn loopt evenwijdig aan het vlak. Er is geen oplossing voor het stelsel vergelijkingen
van de lijn met de vergelijking van het vlak.
Om te bepalen of een lijn een vlak snijdt, is het handig om de vergelijking van het vlak op te
stellen en de lijn in parametervoorstelling te zetten. Als dit niet lukt: zet zowel vlak als lijn in
parameteropstelling, ieder met eigen parameters, en probeer dit stelsel op te lossen.
c. Het snijden van twee vlakken.
Voor twee vlakken in de ruimte zijn er drie mogelijkheden:
 de twee vlakken vallen samen: ze hebben dezelfde richtingsvectoren en de
steunvectoren liggen op beide vlakken;
 de twee vlakken hebben een snijlijn, die uitgedrukt kan worden in x  b  a .
 de twee vlakken zijn evenwijdig. De stelsels vergelijkingen van beide vlakken leiden niet
tot een oplossing.
Maak van vlak A een vergelijking. Substitueer hierin waarden voor x1 , x2 en x3 van vlak B.
Werk verder uit en substitueer de parameters in de parametervoorstelling van B.
Blz. 6 van 32
Uittreksel Lineaire Algebra
1.4 Hoeken, afstanden en inproduct (boek § 1.4)
Aannames: hoeken drukken we uit in radialen, er is een (niet nader benoemde) lengte-eenheid
en een oorsprong gekozen.
§1.4.1 Het inproduct
Voor elk tweetal vectoren x en y definiëren we het inproduct van x en y
(ook wel inwendig product of scalair product van x en y ) door: x, y  x  y  cos  .
Hierbij is x de lengte van vector x en y de lengte van vector y .
Verder is   xOy de hoek die x en y met elkaar maken in O .
y  cos  is plus of min de lengte van de loodrechte projectie van y op
de drager van x . Dit betekent dat het inproduct x, y  x  y  cos 
het product is van de lengte van x maal de loodrechte projectie van y
op de drager van x .
Het inproduct is in de Natuurkunde een uitdrukking voor de verrichte arbeid =
kracht  afgelegde weg = (vector y )  (vector x ) = x, y  x  y  cos  .
Voorbeeld: verplaatsen van een kast over 2,5 meter met een kracht van 200 Newton, die onder
een hoek van 60o aangrijpt in punt A. De verrichte arbeid is 200  2,5  cos60o = 250 Nm = 250J.
Het inproduct is negatief als x en y een stompe hoek met elkaar maken.
Het inproduct is altijd een getal.
Eigenschappen van het inproduct
a.
x, x  x voor elke x . En dus x 
2
x, x .
b. Als x, x  0 dan is x  0 .
c.
x, y  y, x voor elke x en y (commutatieve eigenschap).
d.
 x, y  x,  y   x, y voor elke x en y en voor elke   .
Bewijs
Voor   0 geldt:  x, y   x y cos    x y cos    x y cos    x, y .
Voor   0 geldt (zie uitwerking oefenopgave 9:   0  hoek tussen x en y  180   ):
 x, y   x y cos(180 o   )   x y cos(180 o  )   x y cos(180 o  ) 
 x y cos( )   x, y
e.
.
x, y  z  x, y  x, z en x  y, z  x, z  y, z (distributieve eigenschappen).
Zie toelichting boek op blz. 19/20.
Blz. 7 van 32
Uittreksel Lineaire Algebra
§1.4.2 Orthogonaliteit
Als x, y  x  y  cos   0 , noemen we de vectoren x en y orthogonaal. Dit is het geval als:

één van beide (of beide) vectoren de nulvector is;

cos   0 , dus x en y staan loodrecht op elkaar (  

2
 90o ).
Een stelsel vectoren is orthogonaal als elk tweetal vectoren uit dat stelsel orthogonaal is.
Als x en y bovendien beide lengte 1 hebben, spreken we van orthonormale vectoren.
Er geldt dat:

0 als i  j
x1 , x2 ,..., xn orthonormaal  xi , x j  

1 als i  j
In het vlak telt een orthonormaal stelsel hoogstens twee vectoren, in de ruimte hoogstens drie.
Er bestaan ook vectorruimtes met meer dan drie vectoren.
§1.4.3 Het standaardinproduct in 3 en 2
Via de keuze van een basis e1 , e2 en e3 krijgt elke vector in de ruimte drie coördinaten.
We kiezen x  x1e1  x2e2  x3e3 en y  y1e1  y2e2  y3e3 .
(Een vergelijking met het bekende driedimensionale assenstelsel met een x-as, y-as en z-as:
x1 is de x-coördinaat, x2 is de y-coördinaat en x3 is de z-coördinaat van vector x
y1 is de x-coördinaat, y2 is de y-coördinaat en y3 is de z-coördinaat van vector y.
Mijn advies is om deze vergelijking verder los te laten en net als het boek te denken in meerdimensionale vectorstelsels
met eenheden e1 t/m en, Vectoren krijgen hierin een willekeurige letter (bijvoorbeeld x) met coördinaten x1 t/m xn).
Het inproduct x, y is dan
x1e1  x2e2  x3e3 , y1e1  y2e2  y3e3 =
x1 y1 e1 , e1  x1 y2 e1 , e2  x1 y3 e1 , e3 +
x2 y1 e2 , e1  x2 y2 e2 , e2  x2 y3 e2 , e3 +
x3 y1 e3 , e1  x3 y2 e3 , e2  x3 y3 e3 , e3 .
In een orthonormaal assenstelsel of cartesisch assenstelsel wordt dit inproduct
x, y  x1 y1  x2 y2  x3 y3 , het standaardinproduct in R3 .
Het standaardinproduct in R 2 is x, y  x1 y1  x2 y2 .
Conclusie: als een orthonormale basis in de ruimte, respectievelijk het vlak, is gekozen, komt
het meetkundig gedefinieerde inproduct overeen met het standaardinproduct in R3 resp. R 2 .
Blz. 8 van 32
Uittreksel Lineaire Algebra
§1.4.4 Cosinusregel en driehoeksongelijkheid
Aanname voor de rest van dit hoofdstuk: orthonormale basis.
De afstand tussen vectoren x en y kunnen we nu met behulp van het standaardinproduct in
coördinaten uitdrukken:
d ( x, y)  x  y 
 x1  y1    x2  y2    x3  y3 
x y x y 
2
2
2
.
Evenzo kunnen we de hoek met behulp van het standaardinproduct in coördinaten uitdrukken:
cos   cos xOy 
x, y
x y
x, y

x, x
x1 y1  x2 y2  x3 y3

x12  x2 2  x32 y12  y2 2  y32
y, y
.
In het platte vlak gelden dezelfde formules, maar dan met twee termen in de coördinaatsommen:
cos   cos xOy 
x, y
x y
x1 y1  x2 y2

x12  x2 2 y12  y2 2
.
Vaak is het nodig om de betreffende hoek te verplaatsen naar de oorsprong. Zie opgave 1.12.
De cosinusregel kunnen we met behulp van eigenschappen van het
inproduct afleiden:
x  y  x  y, x  y  x, x  y, y  2 x, y  x  y  2 x y cos  .
2
2
2
In een orthonormaal stelsel geldt cos   0 , dus x  y  x  y ,
2
2
2
de stelling van Pythagoras.
De driehoeksongelijkheid is als volgt uit de cosinusregel af te leiden:
x  y  x  y  2 x y cos   x  2 x y  y  2 x y cos   2 x y =
2
2
2
2
2
  x  y   2 x y  cos   1   x  y  omdat 0  (cos   1)  2 .
2
2

Conclusie: x  y  x  y
2

2
 x y  x  y .
De afstand tussen vectoren x en y is alleen gelijk aan de som van x en y als     180o ,
dus als x , O en y op 1 rechte lijn liggen met de Oorsprong in het midden.
Richtingcosinussen zijn cosinussen van de hoeken die vector x  0 met de coördinaatsassen
maakt. Voor x  ( x1 , x2 , x3 ) geldt dat x  x1e1  x2e2  x3e3 . Noem nu de hoeken met de drie
coördinaatsassen i  xOei (met i  1, 2,3 ).
Omdat ei in orthonormaal stelsel = 1 geldt volgens de definitie van het inproduct:
x, ei  x cos i .
Verder geldt dat x, ei  x1e1  x2e2  x3e3 , ei  xi .
Nu geldt dat
x  x, x  x12  x22  x32  x, e1  x, e2
2
2
2
 x, e3
2
x
2
cos   cos 
2
2
1
2
 cos2 3  .
Conclusie: cos 2 1  cos 2  2  cos 2  3  1 .
Dit betekent dat de som van de kwadraten van de richtingcosinussen samen 1 moet zijn.
Blz. 9 van 32
Uittreksel Lineaire Algebra
§1.4.5 Afstandsformules in R 2 en R3
Als we de vergelijking l : n, x  n, a met
twee vaste punten a en n in 2 en n  0
uitwerken in coördinaten krijgen we
l : n1 x1  n2 x2  n1a1  n2 a2 .
Dit is de vergelijking van een rechte lijn!
Deze lijn gaat door a .
Uit n, x  n, a  0  n, x  a  0 blijkt,
dat vector n loodrecht op vector x  a staat.
We noemen vector n een normaalvector
van de lijn l .
Als we bij variabel punt b een lijn m
definiëren met m : n, x  n, b , dan heeft
ook deze lijn vector n als normaalvector.
De lijnen l en m zijn dus evenwijdig.
De afstand tussen de snijpunten van de normaalvector met lijn l en lijn m is nu
n, sl  sm  n sl  sm  n d (l , m) . Tevens geldt dat
n, sl  sm  n, sl  n, sm  n, a  n, b . Hieruit volgt de formule voor het berekenen van de
afstand tussen twee lijnen: d (l , m) 
n, a  n, b
n
.
Dit is dezelfde afstand als van b tot de lijn l  d (l , b) 
n, a  n, b
n
.
De vergelijking  : n, x  n, a bij twee vaste punten a en
n in 3 en n  0 is uitgewerkt in coördinaten
 : n1 x1  n2 x2  n3 x3  n1a1  n2 a2  n3a3 .
Dit is de vergelijking van een vlak! Dit vlak gaat door a .
Voor de afstand tussen twee vlakken  en  geldt:
d ( ,  ) 
n, a  n , b
n
.
De afstand tussen 2 punten in de ruimte is te berekenen
met d ( x, y)  ( x1  y1 )2  ( x2  y2 )2  ( x3  y3 )2 .
Blz. 10 van 32
Uittreksel Lineaire Algebra
Hoeken in verschillende situaties (studiewijzer)
Bij het berekenen van de hoek tussen twee lijnen, de hoek tussen een lijn en een vlak of de
hoek tussen twee vlakken maken we steeds gebruik van de formule cos  
x, y
x y
.
Hierbij gaat het in alle gevallen om de scherpe hoek, vandaar de absoluutstrepen om het
inproduct in de teller.
Hoek tussen twee lijnen
De hoek  tussen twee lijnen is de scherpe hoek die de twee richtingsvectoren r en s maken.
Formule: cos  
r, s
r s
r1s1  r2 s2  r3 s3

r  r2 2  r32 s12  s2 2  s32
2
1
Hoek tussen een lijn en een vlak
De hoek  tussen lijn l en vlak V leiden we af uit de hoek tussen de hoek tussen de
richtingsvector r van de lijn en de normaalvector n van het vlak.
Formule: cos(90o   ) 
r, n
r n

r1n1  r2 n2  r3n3
r  r2 2  r32 n12  n2 2  n32
2
1
Hoek tussen twee vlakken
De hoek  tussen twee vlakken is de hoek tussen de twee normaalvectoren n en m .
Formule: cos  
n, m
n m

n1m1  n2 m2  n3m3
n12  n2 2  n32 m12  m2 2  m32
Blz. 11 van 32
Uittreksel Lineaire Algebra
1.5 Het uitproduct (boek § 1.5)
In de fysica wordt vaak gebruik gemaakt van het uitproduct van twee vectoren. Het uitproduct
wordt ook wel het uitwendig product, vectorieel product of cross product genoemd.
Het uitproduct is een vector (vergelijk: het inproduct is een getal).
Het uitproduct bestaat alleen voor vectoren in de ruimte, niet voor vectoren in het vlak.
§1.5.1 Definitie en eigenschappen van het uitproduct
We gaan uit van een orthonormale basis R3 van 3 vectoren e1 , e2 en e3 .
 x1 
 y1 
 
 
Het uitproduct x x y van vectoren x   x2  en y   y2  is gedefinieerd door
x 
y 
 3
 3
 x2 y3  x3 y2 


x x y =  x3 y1  x1 y3  .
x y x y 
 1 2 2 1
Voor alle vectoren x , y
a. x x x = 0
b. x x y = -( y x x )
c. x x ( y + z ) = ( x x
d. ( x + y ) x z = ( x x
e.  ( x x y ) =(  x ) x
en z R3 en alle  R gelden de volgende eigenschappen:
y ) + (x x z )
z)+(y x z)
y = x x ( y )
(distributieve eigenschap)
(distributieve eigenschap)
( x x y ), x = ( x x y ), y = 0
f.
g. | x x y | = x  y  | sin xOy |
De eigenschappen a. t/m e. zijn direct uit de definitie af te leiden.
Uit a. blijkt dat het uitproduct de nulvector is, als x en y veelvouden van elkaar zijn.
Bij f. gebruiken we de definitie van het standaardinproduct x, y  x1 y1  x2 y2  x3 y3 .
Uit f. blijkt dat de vector x x y loodrecht staat op de beide vectoren x en y en daarmee op het
vlak door O , x en y . Dus is vector x x y een normaalvector van dit vlak.
Eigenschap g. is als volgt af te leiden:
x  y  x  y, x  y  ( x2 y3  x3 y2 )2  ( x3 y1  x1 y3 )2  ( x1 y2  x2 y1 )2  x, x y, y   x, y
2

2
x  y  x  y  cos 2 xOy  x  y  sin 2 xOy .
2
2
2
2
2
2
Met eigenschap g. kunnen we
 de oppervlakte van het parallellogram opgespannen door x en y berekenen.
Dit blijkt overeen te komen met de absolute waarde van het uitproduct van x en y .
 de oppervlakte van een driehoek opgespannen door 3 punten in het platte vlak
berekenen (= 0,5 oppervlakte parallellogram), zie opgave 1.25 van het boek.
Blz. 12 van 32

Uittreksel Lineaire Algebra
De richting van uitproductvector x x y wordt bepaald door de kurkentrekkerregel:
draai x naar y en kijk in welke richting een kurkentrekker loodrecht op het vlak door x en y
beweegt.
1.5.3 De inhoud van een parallellepipedum
Als P   a, b, c, een parallellepipedum is (scheef blok) dat door de vectoren a , b en c is
opgespannen, dan geldt dat de inhoud van P gelijk is aan
a  b, c .
Bewijs: a  b, c  a  b  c  cos . Hierin is a  b de oppervlakte van het grondvlak en
c  cos  plus of min de hoogte van het parallellepipedum.
De inhoud van P kunnen we ook in coördinaten berekenen. Er geldt dan dat
 a2b3  a3b2   c1 

  
(a  b), c   a3b1  a1b3  ,  c2   a2b3c1  a3b1c2  a1b2c3  a3b2c1  a1b3c2  a2b1c3 .
a b  a b  c 
 1 2 2 1   3
We noemen dit de determinant van de vectoren a , b en c .
a1 b1 c1
Notaties voor de determinant zijn: det( a, b, c) of a, b, c of a2 b2 c2 .
a3 b3 c3
De determinant det( a, b, c) = 0  inhoud( P )= 0  a, b, c liggen in één vlak.
Samengevat: det( a, b, c) =  inhoud( P ), waarbij het plusteken optreedt als het drietal a, b, c
net zo georiënteerd is als de basis.
Blz. 13 van 32
Uittreksel Lineaire Algebra
2. Vectorruimten en matrixrekening
2.1
Vectorruimte als abstracte structuur (boek § 2.1)
In het eerste hoofdstuk hebben we met een aantal verzamelingen van vectoren kennis gemaakt:
 verzameling van alle vrije vectoren in de ruimte (resp. het vlak);
 verzameling van alle vectoren in de ruimte (resp. vlak) die een vast punt O als
aangrijpingspunt hebben;
 verzameling van alle vectoren in de ruimte (resp. vlak) waarin een vast punt O als
oorspong gekozen is;
 De verzameling 3 , de verzameling van alle rijtjes van drie reële getallen;
 De verzameling 2 , de verzameling van alle rijtjes van twee reële getallen.
Deze verzamelingen blijken op tal van terreinen in de wiskunde en in toepassingen daarbuiten
voor te komen. Hierbij gelden steeds dezelfde wetmatigheden.
De axiomatische methode gaat uit van een beperkt aantal basiseigenschappen (axioma's)
en een aantal eigenschappen en wetmatigheden (stellingen), die hieruit af te leiden zijn.
Deze wetmatigheden gelden dan voor alle verzamelingen in één keer; we hoeven ze slechts
éénmaal af te leiden. Ze gelden zelfs voor alle verzamelingen die aan de axioma's voldoen.
Eén van de meest succesvolle structuren is die van de vectorruimte. Deze komt in vrijwel alle
toepassingen van de wiskunde voor. De studie van de vectorruimte = Lineaire Algebra is dan
ook hoofdonderwerp van de toegepaste wiskunde.
2.1.1 De axioma's van een vectorruimte
De eerste voor de hand liggende generalisatie is R n , de verzameling van n reële getallen.
Hoewel voor n  3 een meetkundige interpretatie ontbreekt, zijn er tal van concrete
toepassingen denkbaar, waarbij gebruik gemaakt kan worden van de vectorruimte R n
(vectorruimte = lineaire ruimte = lineaire vectorruimte.)
We nemen aan dat binnen een vectorruimte V twee bewerkingen zijn gedefinieerd: een
vectoroptelling en een scalaire vermenigvuldiging:
 bij elk tweetal vectoren v, w moet er een vector v + w in V gedefinieerd zijn, de
vectorsom van v en w
 bij elk reëel getal  en elke vector v moet er een vector  v in V gedefinieerd zijn
Definitie 2.1
We noemen V een vectorruimte als V voldoet aan volgende 8 axioma's:
1. (u+v)+w = u+(v+w) voor alle u,v,w  V .
(assiociatieve eigenschap)
2. v+w = w+v voor alle v,w  V .
(commutatieve eigenschap)
3. Er is een nulvector 0 met de eigenschap dat v+0 = 0+v = v voor alle v  V .
4. Bij elke v  V is er een vector w  V met de eigenschap dat v+w = 0.
Men noemt w de tegengestelde vector van v en noteert die als -v.
5.  (  v) = (  v) voor alle v  V en  ,   R .
6. 1v = v voor alle v  V .
7.  (v+w) =  v +  w voor alle v,w  V en   R . (linksdistributieve eigenschap)
8. (  +  )v =  v +  v voor alle v  V en  ,   R . (rechtsdistributieve eigenschap)
Blz. 14 van 32
Uittreksel Lineaire Algebra
De volgende stellingen kunnen uit deze axioma's worden afgeleid:
Stelling 2.1
Bij gegeven vectoren v, w is er precies één vector x zo, dat v + x = w.
Bewijs
Deel 1: bewijs dat deze oplossing voor x voldoet.
Neem x = w + (-v) = w - v.
Dan geldt dat v + x = v + w + (-v) = v + (-v) + w = 0 + w = w.
Deel 2: bewijs dat x de enige oplossing is.
Stel dat er twee verschillende vectoren x en y zijn waarvoor geldt dat:
v + x = w en v + y = w. Dan geldt dat v + x = v + y 
v + (-v) + x = v + (-v) + y  0 + x = 0 + y  x = y.
Conclusie: tegenspraak, er is slechts één oplossing mogelijk.
Stelling 2.2
Als  = 0 of v = 0 dan is  v = 0.
Bewijs
Stelling 2.2a: Als  = 0 dan is  v = 0
Bewijs: 0v = (1-1)v = 1v - 1v = v - v = v + -v = 0
Stelling 2.2b: Als v = 0 dan is  v = 0
Bewijs:  0 =  (v - v) =  v -  v =  v + (-  v) = 0.
Stelling 2.3
Als  v = 0 dan is  = 0 of v = 0.
Bewijs
???
Stelling 2.4
(-1)v = -v voor alle v  V .
Bewijs
(-1)v = (-1  1)v = -1(1v) = -(v) = -v
2.1.3 Lineaire deelruimten
Definitie 2.2
Een deelverzameling W van een vectorruimte V heet een lineaire deelruimte van V ,
wanneer W met de vectoroptelling en de scalaire vermenigvuldiging uit V zelf ook een
vectorruimte is.
Omdat W de 8 axioma's erft van V , hoeven we deze niet meer te verifiëren.
Het enige dat we moeten controleren is of de som van elk tweetal vectoren uit W gesloten is in
W en of de scalaire vermenigvuldiging in W gesloten is.
Stelling 2.5
Als V een vectorruimte is en W een niet-lege deelverzameling van V , dan is W een lineaire
deelruimte van V als W voldoet aan de volgende twee voorwaarden:
a.
Voor alle v, w  W geldt dat v + w  W .
b.
Voor alle v  W en alle   R geldt dat  v  W .
De lineaire deelruimte W bevat altijd de nulvector! Immers voor alle w  W geldt: w + -w = 0.
Blz. 15 van 32
Uittreksel Lineaire Algebra
2.2
Dimensie bases en coördinaten
2.2.1 Lineaire afhankelijkheid
Laat V een willekeurige vectorruimte zijn.
Definitie 2.3
Een vector v heet lineair afhankelijk van de vectoren w1 ,..., wk als er reële getallen 1 ,..., k
bestaan zo dat v  1w1 ,..., k wk .
(Het rechterlid wordt ook wel de lineaire combinatie van de vectoren w1 ,..., wk genoemd.)
Definitie 2.4
Een stelsel vectoren w1 ,..., wk heet een lineair afhankelijk stelsel als minstens één van die
vectoren lineair afhankelijk is van de andere.
Een stelsel heet lineair onafhankelijk als het niet lineair afhankelijk is.
Stelling 2.6
Als w1 ,..., wk vectoren in een vectorruimte V zijn, dan is de verzameling W van alle lineaire
combinaties W  1w1  ...  k wk | 1 ,..., k R een lineaire deelruimte van V .
Bewijs: de som van twee van die lineaire combinaties is weer een lineaire combinatie, en een
constante maal zo'n lineaire combinatie is ook weer een lineaire combinatie.
Definitie 2.5
Men noemt de door stelling 2.6 gedefinieerde lineaire deelruimte W de door w1 ,..., wk
opgespannen lineaire deelruimte van V . Notatie: W =  w1 ,..., wk 
2.2.2 Bases en dimensie
Definitie 2.6
Het stelsel vectoren e1 ,..., en heet een basis van V als
a.
b.
e1 ,..., en een lineair onafhankelijk stelsel is, en
elke vector v V lineair afhankelijk is van e1 ,..., en .
Stelling 2.7
Stel dat V een basis heeft die uit n vectoren bestaat, en stel dat v1 ,..., vk een lineair
onafhankelijk stelsel vectoren is in V . Dan geldt:
a.
k n
b.
als k  n dan is v1 ,..., vk ook een basis van V .
c.
als k  n dan kan men v1 ,..., vk met n  k vectoren vk 1 ,..., vn aanvullen tot een basis
van V . Bewijs: zie bijlage C, blz. 195.
Definitie 2.7
Als een vectorruimte V uitsluitend uit de nulvector bestaat, zegt men dat V dimensie nul heeft.
Men noemt V dan nuldimensionaal.
Als een vectorruimte V een basis van n vectoren bezit, zegt men dat V dimensie n heeft.
Men noemt V dan n -dimensionaal.
Als een vectorruimte V voor geen enkele n  0 de dimensie n heeft, noemt men V
oneindigdimensionaal.
Blz. 16 van 32
Uittreksel Lineaire Algebra
2.2.3 Coördinaten ten opzichte van een basis
Stel dat V een n -dimensionale vectorruimte is, en dat e1 , e2 ,..., en een basis van V is.
Elke v V is dan lineair afhankelijk van de vectoren van deze basis, dus bij elke vV zijn er
reële getallen 1 ,..., n zo, dat v  1e1  ...  n en .
De uniek bepaalde getallen 1 ,..., n heten de coördinaten van v ten opzichte van de basis
e1 ,...en . Via de basiskeuze ontstaat er een één-aan-één-verband tussen de vectoren van V en
de elementen van R n volgens v V  (1 ,..., n )  R n . Hierdoor kunnen berekeningen in V
worden vertaald in berekeningen in R n . Structureel gezien is iedere n -dimensionale
vectorruimte dus 'hetzelfde' als de vectorruimte in R n .
De standaardbasis in R n is het stelsel:
e1 = (1,0,…,0)
e2 = (0,1,…,0)
…
en = (0,0,…,1)
De coördinaten van een vector x  ( x1 , x2 ,..., xn ) in deze basis zijn precies de getallen xi , want
x  ( x1 , x2 ,..., xn ) = x1e1  x2e2  ...  xnen .
Oneindig dimensionale stelsel R 
e1 = (1,0,0,…)
e2 = (0,1,0,…)
e3 = (0,0,1,…)
…
Het is niet gebruikelijk om R  een basis te noemen, omdat volgens definitie 2.6 een basis altijd
een eindig aantal vectoren telt. Wel is iedere eindig aantal vectoren uit deze rij van vectoren ei
een lineair onafhankelijk stelsel. We mogen de vectorruimte R  wel op grond van stelling 2.7
niet-eindigdimensionaal noemen.
Belangrijke stelling in opgave 2.6:
a. Als er getallen 1 , 2 , 3 bestaan, niet alle drie nul, waarvoor geldt dat 1v1  2v2  3v3  0 ,
dan is het stelsel v1 , v2 , v3 lineair afhankelijk.
Bewijs
Stel 1  0 (er is er altijd minstens 1 niet nul). Dan is v1 
2 v2  3v3
1
.
Conclusie: het stelsel v1 , v2 , v3 is lineair afhankelijk.
b. Als 1v1  2v2  3v3  0 alleen geldt als 1  2  3  0 , dan is het stelsel v1 , v2 , v3 lineair
onafhankelijk.
Bewijs
Stel dat het stelsel afhankelijk is en er zou bijvoorbeeld gelden dat v1  2v2  3v3 , dus
v1  2v2  3v3  0 . Dit is in tegenspraak met de aanname dat 1  0 .
Eindconclusie: het stelsel v1 , v2 ,..., vn is lineair onafhankelijk dan en slechts dan als
1v1  2v2  ...  nvn  0 alleen geldt als 1  2  ...  n  0 .
Blz. 17 van 32
Uittreksel Lineaire Algebra
2.3
Stelsels lineaire vergelijkingen (boek H3)
Een stelsel van twee lineaire vergelijkingen met twee onbekenden kunnen we oplossen met
behulp van de volgende elementaire bewerkingen:
 een vergelijking links en rechts van het =-teken met een getal (ongelijk 0) delen.
 één (of beide) vergelijkingen links en rechts van het =-teken met een getal (ongelijk 0)
vermenigvuldigen en vervolgens deze vergelijkingen bij elkaar optellen.
 de volgorde van de vergelijkingen verwisselen.
 bij de eerste vergelijking de ene onbekende uitdrukken in de andere en vervolgens
substitueren in de tweede vergelijking. Hierdoor kunnen we de tweede vergelijking
oplossen en vervolgens de eerste.
Deze elementaire bewerkingen veranderen de oplossingsverzameling niet.
We mogen ze ook toepassen op een stelsel van q vergelijkingen met p onbekenden.
Bij het oplossen van 3 vergelijkingen met 3 onbekenden volgen we een meer algemene aanpak,
die bekend staat als de Gauss-eliminatie. Deze gaat als volgt:
1. Elimineer de onbekende x in vergelijkingen 2 en 3.
2. Elimineer de onbekende y in vergelijking 3. Dit levert de waarde voor z op.
3. Substitutie van z in vergelijking 2 levert de waarde voor y op.
4. Substitutie van y en z in vergelijking 1 levert de waarde voor x op.
x  2 y  2z  5

2 x  3 y  5 z  18
 x  y  3z  18

kunnen we ook schrijven als een matrix:
1  2 2 5 


1 1 3 18 


2

3
5
18


Hierin staan alleen de coëfficiënten van de onbekenden EN de uitkomsten (rechterleden).
Vervolgens gaan we "schoonvegen" van linksboven naar rechtsonder.
Hierdoor ontstaan links onder de hoofddiagonaal allemaal nullen. Eventueel kunnen we
vergelijkingen omwisselen, zodat de gewenste trapvorm ontstaat (bovendiagonaalvorm).
Als er evenveel vergelijkingen zijn als onbekenden, spreken we van een vierkant stelsel.
Dit stelsel heeft precies één vectoroplossing.
Als er minder vergelijkingen zijn dan onbekenden, lukt het niet het stelsel vergelijkingen volledig
op te lossen. Door een overgebleven onbekende gelijk te stellen aan 1 (, 2 enzovoorts),
kunnen we de andere onbekenden wel hierin uitdrukken. Deze oplossingsverzameling heeft één
(of twee, drie enzovoorts) vrijheidsgraden. Hierdoor ontstaat een parametervoorstelling van
bijvoorbeeld een lijn of een vlak. De parametervoorstelling van een vlak heeft een
tweedimensionale lineaire variëteit.
Bij het schoonvegen kunnen één of meer rijen ontstaan met allemaal nullen.
 Is het rechterlid ongelijk aan nul, dan is het stelsel strijdig.
 Is het rechterlid wel nul, dan wordt de oplossingsverzameling bepaald door de
onbekenden die opgelost kunnen worden. De overige onbekenden kunnen vrij gekozen
worden. Het stelsel heeft dus één of meer vrijheidsgraden.
Blz. 18 van 32
Uittreksel Lineaire Algebra
2.4
Matrixrekening (boek H4)
Ieder rechthoekig schema met getallen wordt in de wiskunde een matrix genoemd.
In hoofdstuk 3 hebben we gezien dat we een stelsel vergelijkingen compact kunnen noteren in
een matrix, bestaande uit de coëfficiënten en de rechterleden.
We kunnen echter ook de rechterleden vervangen door een variabele en het linker- en rechterlid
vervolgens omwisselen. Hierdoor ontstaan soort functievoorschriften, die bij elke vector
( x1 ,..., x p ) R p een vector ( y1 ,..., yq ) Rq produceert.
 a11...a1 p 


De matrix A =  ... ... ...  is een lineaire afbeelding van R p naar R q .
 a ...a 
 q1 qp 
In verkorte vorm: y = Ax.
 y1   a11...a1 p   x1 
 
  
Of:  ...  =  ... ... ...   ...  .
 y   a ...a   x 
 q   q1 qp   p 
De rijvector ( x1 ,..., x p ) is nu als kolomvector rechts naast A geplaatst.
Meetkundige voorbeelden (boek § 4.1.1)
Afbeelding C = BA = B o A (B na A). C(x) = B(A(x))
Over het algemeen geldt dat het samenstellen van afbeeldingen en daarmee het
vermenigvuldigen van matrices niet commutatief is (in tegenstelling tot de rekenkundige
vermenigvuldiging!).
Dus: afb. C = BA  afb. D = AB.
Het algemene geval van een (q x p)-matrix (boek § 4.1.2)
Een samenstelling van twee lineaire afbeeldingen z = By = B(A(x)).
Hierbij transformeert de matrix B elke y  R q in een vector z R r via een stelsel van de vorm:
 z1  b11 y1  ...  b1q yq

dat na substitutie overgaat in
... ... ...
 z  b y  ...  b y
r1 1
rq q
 r
 z1  c11 x1  ...  c1 p x p

of kortweg z = Cx.
... ... ...
 z  c x  ...  c x
r1 1
rp p
 r
We noemen C de productmatrix van BA.
Blz. 19 van 32
Uittreksel Lineaire Algebra
2.5
Rekenregels voor matrices (boek § 4.2)
 y1   a11...a1 p   x1 
p
 
  
De j -de vergelijking van  ...  =  ... ... ...   ...  kunnen we schrijven als y j   a jk xk .
k 1
 y   a ...a   x 
 q   q1 qp   p 
 z1  b11 y1  ...  b1q yq
q

De i -de vergelijking van ... ... ...
kunnen we schrijven als zi   bij y j .
j 1
 z  b y  ...  b y
r1 1
rq q
 r
Substitutie van de formules van y j voor zi levert:
q
q
 p
 p
 p  q
zi   bij y j   bij   a jk xk      bij a jk xk    cik xk
j 1
j 1
 k 1
 k 1  j 1
 k 1
met cik 
q
b a
j 1
ij
jk
 bi1a1k  ...  biq aqk .
 a1k 
 
Dit komt overeen met het standaardinproduct van rijvector (bi1 ,..., biq ) en kolomvector  ...  .
a 
 qk 
Het aantal kolommen in B moet gelijk zijn aan het aantal rijen in A, anders is het
matrixproduct BA niet gedefinieerd.
De elementen aii van matrix A vormen de hoofddiagonaal.
De getransponeerde matrix AT is de matrix A na spiegeling in de hoofddiagonaal.
Hierbij worden de elementen aij en a ji verwisselt.
Uit een matrix met q rijen en p kolommen ontstaat een matrix met p rijen en q kolommen.
(BA)T = ATBT
(let op de volgorde!)
De vierkante matrix ( p x p ) met enen op de hoofddiagonaal en nullen daarbuiten heet de
p -dimensionale eenheidsmatrix, notatie I p .
 1...0   x1   x1 

   
Voor alle x  R p geldt dat I p x =  . ... .   ...  =  ...  =x.
 0...1   x p   x p 

   
In het algemeen geldt voor alle ( q x p )-matrices A dat I q A= A I p =A
Een matrix waarvan alle elementen nul zijn, heet een nulmatrix.
Matrices van hetzelfde formaat kan men elementsgewijs bij elkaar optellen.
Men kan ook een matrix met een scalar vermenigvuldigen door alle elementen met de scalar te
vermenigvuldigen.
Met deze optelling en scalaire vermenigvuldiging vormt de verzameling van alle ( q x p )-matrices
die zo ontstaan ook weer een vectorruimte.
Blz. 20 van 32
Uittreksel Lineaire Algebra
Matrixvermenigvuldiging is over het algemeen niet commutatief, maar wel associatief.
Dus: (A o B) o C = A o (B o C).
Ook gelden de distributieve wetten
A o (B + C) = A o B + A o C
(A + B) o C = A o C + B o C.
Vectoren zijn ook matrices: een rijvector ( x1 ,..., x p ) is een (1 x p )-matrix en een kolomvector
 x1 
 
 ...  een ( p x 1)-matrix. De getransponeerde rijvector is een kolomvector en omgekeerd.
x 
 p
Voortaan gaan we er vanuit dat we met x  R p een kolomvector bedoelen.
Een rijvector ( x1 ,..., x p ) duiden we voortaan consequent aan met xT.
2.6
De inverse matrix (boek § 4.3)
Stel dat A een vierkante ( p x p )-matrix is.
a11 x1  ...  a1 p x p  y1

Door nu het stelsel vergelijkingen Ax = y te schrijven in de vorm ... ... ...
a x  ...  a x  y
pp p
p
 p1 1
ontstaat de volgende matrix:
x1
a11
a21
x2
a12
a22
xp
a1p
a2p
y1
1
0
y2
0
1
yp
0
0
aq1
aq2
aqp
0
0
1
Als de Gauss-eliminatie niet vastloopt, kan dit stelsel via de elementaire rijbewerkingen eerst zo
worden getransformeerd dat de linkerhelft in bovendiagonaalvorm komt.
Daarna kunnen we met terugsubstitutie van onderaf de linkerhelft in de eenheidsmatrix I p
transformeren. Het resultaat heeft dan de vorm x = By:
x1
x2
xp
1
0
0
0
1
0
0
0
1
y1
b11
b21
y2
b12
b22
yp
b1p
b2p
bp1
bp2
bpp
Matrix B is de inverse matrix van A, geschreven als A-1.
Bewijs: Als we de vergelijking Ax = y links en rechts met B vermenigvuldigen, ontstaat
BAx = By. Omdat x = By geldt dat BA = I p .
Er geldt dat AA-1 = A-1A = I p .
Opmerkingen
Als het Gauss-eliminatieproces spaak loopt en er óf geen oplossingen óf oneindig veel
oplossingen ontstaan, dan is de bij A behorende lineaire afbeelding niet inverteerbaar.
Matrix A is niet-inverteerbaar of singulier.
Een matrix die wel inverteerbaar is heet regulier.
Blz. 21 van 32
Uittreksel Lineaire Algebra
3. Determinanten en lineaire afbeeldingen
3.1 Determinanten (boek hoofdstuk 5)
Determinanten spelen een rol bij:
 Onderzoek naar de aard van stationaire punten van functies met meer variabelen;
 Coördinatentransformaties bij meervoudige integralen;
 Beschrijven van oplossingen van vierkante stelsels lineaire vergelijkingen;
 p vectoren in R p vormen een lineair onafhankelijk stelsel dan en slechts dan als de
determinant ongelijk aan nul is;
 Bij de bepaling van eigenwaarden en eigenvectoren (zie hoofdstuk 4).
 a11 a12 ...a1 p 


a21 a22 ...a2 p 

Uitgaande van een p x p matrix A =
 ... ... ... ...  geldt:


 a a ...a 
p
1
p
2
pp


n
Determinant van A = det A = |A| =
 (1)
1 j
j 1
a1 j det A1 j . Dit is de ontwikkeling van |A| naar de
eerste rij. Hierin is minor A1 j de matrix A onder weglating van de 1e rij en de j-de kolom.
n
De ontwikkeling van |A| naar de i–de rij:
 (1)
j 1
i j
aij det Aij .
Hierin is A ij de matrix A onder weglating van de i-de rij en de j-de kolom.
Deze rekenwijze kan handig zijn als een bepaalde rij of kolom veel nullen bevat.
In zijn algemeenheid geldt:
a11 a12
 a11 a12 
= a11 a22  a12 a21 .
 dat
a
a
a
a
 21 22 
21 22
voor een 2 x 2 matrix A = 
a11 a12 a13
 a11 a12 a13 
a11a22 a33  a12 a23a31  a13a21a32


voor een 3 x 3 matrix A =  a21 a22 a23  dat a21 a22 a23 =
.

a
a
a

a
a
a

a
a
a
11
23
32
12
21
33
13
22
31
a a a 
a31 a32 a33
 31 32 33 
Als je goed kijkt, zie je dat hierin een bepaald patroon zit: van linksboven naar rechtsonder is +
en van rechtsboven naar linksonder is – .
Helaas gaat dit patroon niet meer op voor n = 4 en hoger. Gelukkig blijkt dat er een eenvoudiger
manier te zijn om de determinant te berekenen. Bij Gauss-eliminatie van de matrix A totdat deze
in trapvorm staat, blijkt het volgende te gebeuren met de determinant:
Stelling 5.1
1. Bij delen van een rij door een constante ongelijk aan nul, moet ook de determinant door
eenzelfde constante gedeeld worden.
2. Bij optellen van een veelvoud van een rij bij één van de andere rijen, blijft de determinant
gelijk.
3. Bij verwisselen van twee rijen, wisselt de determinant van teken.
Blz. 22 van 32
Uittreksel Lineaire Algebra
Stelling 5.3 en 5.2
Zodra een matrix in driehoeksvorm staat, is de determinant gelijk aan het product van de
elementen op de hoofddiagonaal. Als in de determinant twee rijen gelijk zijn, ontstaat bij
Gauss-eliminatie een nulrij en is de determinant gelijk aan 0.
Stelling 5.4, 5.5, 5.7 en 5.8
Een vierkante matrix A is inverteerbaar  de determinant is ongelijk aan 0.
Voor iedere vierkante matrix geldt dat A  AT .
Als A en B beide vierkante matrices zijn met dezelfde afmetingen, geldt AB  A  B .
1
Als A inverteerbaar is, geldt A1  A .
Stelling 5.6
Als men een rij (of kolom) splitst in twee rijen (of kolommen), dan wordt de determinant
overeenkomstig gesplitst. Als bijvoorbeeld voor een vierkante matrix A met kolommen a1, …, ap
geldt dat a1 = b1 + c1, dan is |A| = |a1 a1... ap| = |c1a2... ap| + |c1a2... ap|.
Deze stelling wordt toegepast bij de regel van Cramer.
3.2 Lineaire afbeeldingen (boek § 6.1)
 a11...a1 p 


De matrix A =  ... ... ...  is een lineaire afbeelding van R p naar R q .
 a ...a 
 q1 qp 
Een vector x  R p wordt daarbij afgebeeld op een vector y  R q volgens y = Ax.
Deze lineaire afbeelding voldoet aan de volgende twee eigenschappen:
 voor alle x1, x2  R p geldt dat A(x1 + x2) = Ax1 + Ax2.
 voor alle x  R p geldt dat A(  x) =  Ax.
Stelling 6.1
In het algemeen geldt voor vectorruimten V en W en lineaire afbeelding A : V  W:
a. A 0 = A (0 + 0) = A 0 + A 0  A 0 = 0.
b. A (–x) = A (–1x) = –1 A x = – A x
c. A (x1 - x2) = A (x1 + (–x2)) = A x1 + A (–x2) = A x1 + – A x2 = A x1 – A x2
d. A (1x1  ...  n x n )  A (1x1 )  ...  A (n x n )  1 A x1  ...  n A x n
Alle vectorbewerkingen in V gaan via A over in overeenkomstige vectorbewerkingen in W.
Stelling 6.2
Als V p-dimensionaal is en e1,…, ep is een basis van V, dan ligt A volledig vast door de beelden
Ae1,…, A ep van de basisvectoren.
Dit betekent in praktijk dat bij elke lineaire afbeelding van V naar W een matrix hoort, waarvan
de kolommen de beelden zijn van de basis van V. Als de basis van V verandert, veranderen dus
ook de kolommen van de matrix.
Omgekeerd geldt dat iedere matrix een lineaire afbeelding tot stand brengt.
3.3 Lineaire afbeeldingen en matrices (boek § 6.2)
Stelling 6.3
De matrix A van een lineaire afbeelding A : V  W van een p-dimensionale vectorruimte V in
een q-dimensionale vectorruimte W ten opzichte van bases e1,…, ep in V en f1,…, fq is W,
heeft als kolommen de coördinatenvectoren van A e1,…, A ep.
Blz. 23 van 32
Uittreksel Lineaire Algebra
Als V = W en beide bases zijn gelijk, ontstaat het volgende plaatje. We spreken dan over een
lineaire transformatie van de vectorruimte V.
Onder een scheve parallelprojectie van een vectorruimte naar een lineaire deelruimte verstaan
we een afbeelding A waarvoor steeds geldt dat xA(x) // yA(y) voor elk tweetal vectoren x en y.
3.4 De overgang op een andere basis (boek § 6.2.2)
Soms is het bij het bepalen van de lineaire transformatie handig om eerst over te gaan naar een
andere basis.
Stelling 6.4

Stel x = x1 ,..., x p

T
is een willekeurige coördinatenvector in V .
Stel dat bij een lineaire transformatie A matrix A de bij deze basis horende matrix van A is.

Stel dat we als nieuwe coördinatenvectoren x’ = x1' ,..., x p '

T
kiezen en dat A een nieuwe
transformatiematrix A’ krijgt. Dan hangen A en A’ als volgt met elkaar samen:
A’ = B-1AB
met matrix B de coördinaatvectoren van de nieuwe basisvectoren ten opzichte
van de oorspronkelijk basis.
Bewijs: Neem y = Ax en x = Bx’. Dan is y = By’, dus ABx’= By’, dus y’ = B-1ABx’.
Stelling 6.5a
De determinant van een lineaire transformatie is onafhankelijk van de basiskeuze.
Bewijs:
A '  B 1 AB  B 1 A B  B 1 B A  A .
Het spoor is de som van de elementen op de hoofddiagonaal.
Voor het spoor geldt (m.b.v. uitschrijven) dat Sp( AB)  Sp( BA) .
Stelling 6.5b
Het spoor van een lineaire transformatie is onafhankelijk van de basiskeuze.
Bewijs:
Sp( A ')  Sp( B1 ( AB))  Sp(( AB) B 1 )  Sp( A( BB 1 ))  Sp( A) .
3.5 Beeldruimte, nulruimte en rang van een lineaire afbeelding (inleiding H7)
Stel dat A : V  W een lineaire afbeelding is van vectorruimte V in vectorruimte W.
Blz. 24 van 32
Uittreksel Lineaire Algebra
De verzameling van alle vectoren in V die op de nulvector in W worden afgebeeld, noemen we
de nulruimte of kern van A .
N A = { v  V | A v = 0 }.
De beeldruimte van A is de verzameling van alle vectoren in W die als beeld optreden van een
vector in V.
BA = { w  W | A v = w voor een zekere v  V }.
Stelling 7.1
De nulruimte is een lineaire deelruimte van V.
De beeldruimte is een lineaire deelruimte van W.
3.6 Oplossingsverzamelingen (boek § 7.1)
Stelling 7.2
Als een lineaire afbeelding is van een vectorruimte V naar een vectorruimte W en b is een
vector in W, dan is de oplossingsverzameling O van de vergelijking A x = b
- òf de lege verzameling, namelijk als b  B A
-
òf van de vorm O = d + N A , namelijk als b  B A .
Hierin is d een willekeurige vector waarvoor geldt dat A d = b.
Bewijs:
Als b  B A dan heeft A x = b geen oplossing, dus is O de lege verzameling.
Als b  B A dan is er een d  V waarvoor A d = b, dus d  O.
1. Nu geldt voor elke x  N A dat A (d + x) = A d + A x = b + 0 = b, dus d + x  O.
2. Omgekeerd geldt voor iedere y  O dat A (y – d) = A y – A d = b – b = 0, dus y – d  N A .
Uit 1. en 2. volgt dat O = d + N A .
3.7 De dimensiestelling (boek § 7.2)
Als een lineaire afbeelding is van een eindigdimensionale vectorruimte V naar een vectorruimte
W, dan geldt dim( N A ) + dim( B A ) = dim(V).
3.8 De rang van een lineaire afbeelding (boek § 7.3)
De rang van een lineaire afbeelding
= dim( B A )
(de dimensie van de beeldruimte)
= kolommenrang
(het aantal onafhankelijke kolomvectoren van de matrix)
= rijenrang
(het aantal onafhankelijke rijen van de matrix)
Blz. 25 van 32
Uittreksel Lineaire Algebra
4. Eigenwaarden en inproductruimten
4.1 Eigenwaarden en eigenruimten (boek § 8.1)
In hoofdstuk 8 beschouwen we alleen lineaire transformaties = lineaire afbeeldingen van een
vectorruimte V in zichzelf.
Definitie 8.1
Gegeven een lineaire transformatie A van een vectorruimte V.
Stel dat voor een zekere vector v  0 en een zeker getal  geldt dat A v =  v,
dan heet v een eigenvector van A en  de bijbehorende eigenwaarde.
v = 0 wordt volgens deze definitie uitgesloten als mogelijke eigenvector.
Bij de eigenruimte van  mag de nulvector echter wel weer meedoen.
Definitie 8.2
Als  een eigenwaarde is van een lineaire transformatie A, dan noemt men de verzameling E
van alle vectoren v  V waarvoor geldt A v =  v de bij  horende eigenruimte.
E = {v  V | A v =  v}.
Stelling 8.1
Elke eigenruimte van een lineaire transformatie is een lineaire deelruimte van V.
4.2 De karakteristieke vergelijking (boek § 8.2)
Uitwerken van det(A –  I ) = 0 levert de karakteristieke vergelijking.
4.3 Diagonaliseerbaarheid (boek § 8.3)
Definitie 8.3
Als er bij een lineaire transformatie A een basis van eigenvectoren bestaat, dan heet A
diagonaliseerbaar. Dus A = PDP-1.
4.4 Inproductruimten (boek § 9.1)
Definitie 9.1
Stel dat in een vectorruimte V bij elk tweetal vectoren x en y een reëel getal <x, y> is
gedefinieerd. Men noemt dit een inproduct op V en V de inproductruimte als aan de
volgende 5 eisen is voldaan:
a. <x, x>  0
voor elke x  V.
b. <x, x> = 0  x = 0.
c. <x, y> = <y, x>
voor elke x, y  V.
d. <  x, y> = <x,  y> =  <x, y>
voor elke x, y  V en   R .
e. <x, y+z> = <x, y> + <x, z> en
<x+y, z> = <x, z> + <y, z> en
voor elke x, y, z  V.
Definitie 9.2
Onder de lengte van |x| van een vector x verstaan we het niet-negatieve reële getal
|x|= <x,x> . Onder de afstand d(x,y) van twee vectoren x en y verstaan we de lengte van de
verschilvector: d(x,y) = |x – y|.
Blz. 26 van 32
Uittreksel Lineaire Algebra
4.5 Eigenschappen van het inproduct (boek § 9.1.1)
Stelling 9.1 (ongelijkheid van Cauchy-Schwarz)
Voor elk tweetal vectoren x, y  V geldt:
<x,y>2  <x,x> <y,y>
waarbij het gelijkteken slechts optreedt als x en y lineair afhankelijk zijn.
Bewijs
1. Als één van beide de nulvector is, is de stelling waar.
2. Stel dat beide ongelijk zijn aan de nulvector.
Neem dan v = <y,y>x - <x,y>y.
Dan is
0  <v,v> =
<y,y>2 <x,x> – 2<x,y>2 <y,y> + <x,y>2 <y,y> =
<y,y> ( <y,y><x,x> – <x,y>2).
Omdat y  0 is ook <y,y>  0. Links en rechts delen door <y,y> levert:
0  <y,y><x,x> – <x,y>2. QED.
Definitie 9.3
Als x en y vectoren zijn ongelijk aan de nulvector, dan is de hoek tussen x en y het getal 
tussen 0 en  waarvoor geldt dat cos  
 x,y 
| x||y|
.
Deze definitie is zinvol, want op basis van stelling 9.1 geldt dat
<x,y > 2  <x,x> <y,y >

<x,y > 2
<x,y >
 1  -1 
 1 .
<x,x> <y,y >
| x || y |
De cosinusregel is nu als volgt af te leiden:
x  y  x  y, x  y  x, x  y, y  2 x, y  x  y  2 x y cos  .
2
2
2
De driehoeksongelijkheid is als volgt uit de cosinusregel af te leiden:
x  y  x  y  2 x y cos   x  2 x y  y  2 x y cos   2 x y =
2
2
2
2
2
  x  y   2 x y  cos   1   x  y  omdat 0  (cos   1)  2 .
2
2

Conclusie: x  y  x  y
2

2
 x y  x  y .
Een stelsel vectoren x1, x2, … xn noemen we orthogonaal als voor elk tweetal vectoren uit dat
stelsel geldt dat het inproduct nul is.
Het stelsel heet bovendien orthonormaal als geldt dat <xi, xi> = 1 voor alle i. Kortom:
0 als i  j
x1 , x 2 ,..., x n orthonormaal   x i , x j  
1 als i  j
Stelling 9.2
Elk orthonormaal stelsel is een lineair onafhankelijk stelsel.
Bewijs:
Stel dat x1, x2, … xn een orthogonaal stelsel is en dat bijvoorbeeld x1 afhankelijk zou zijn van
andere vectoren uit het stelsel: x1 = 2 x2, + … + n xn. Dan is (links en rechts inproduct nemen):
1 = <x1, x1> = 2 <x2,x1> + … + n <xn,x1> = 0. Dit leidt tot tegenspraak. Conclusie:
Elk orthonormaal stelsel is een lineair onafhankelijk stelsel.
Blz. 27 van 32
Uittreksel Lineaire Algebra
Stelling 9.3
Als W een eindigdimensionale deelruimte van V is die niet alleen uit de nulvector bestaat, dan
heeft W een orthonormale basis.
Stelling 9.4
Stel dat V een p-dimensionale inproductruimte is waarin een orthonormale basis is gekozen.
Indien ( x1 ,..., x p )T en ( y1 ,..., y p )T de coördinatenvectoren zijn van x respectievelijk y ten
opzichte van deze basis, dan is  x,y 
p
x y .
i 1
i
i
Kortom: elke eindigdimensionale inproductruimte is qua structuur hetzelfde als de vectorruimte
R p voorzien van het standaardinproduct.
Blz. 28 van 32
Uittreksel Lineaire Algebra
4.6 Orthogonale transformaties (boek § 9.2)
Stel nu dat V een inproductruimte is met inproduct < , >.
Definitie 9.4
Een lineaire transformatie A van V heet orthogonaal als < A x, A y > = < x, y > voor alle
x,y  V.
In het bijzonder geldt dus dat < A x, A x > = < x, x > dus dat | A x| = |x|.
Zo’n transformatie is dus lengtebehoudend. Men A noemt ook wel isometrie.
Evenzo geldt dat in een inproductruimte gedefinieerd via het inproduct iedere orthogonale
transformatie hoekbehoudend is en omgekeerd.
Stelling 9.5
Als de lineaire transformatie A de eigenschap heeft dat | A x| = |x| voor alle x V, dan is A een
orthogonale transformatie.
Bewijs:
Volgens definitie 9.4 geldt voor alle x,y  V dat <A (x+y), A (x+y)> = <x+y, x+y>.
Uitwerken geeft <A x, A x> + <A y, A y> + 2 <A x, A y> = <x,x> + <y,y> + 2<x,y> 
2 <A x, A y> = 2<x,y>  <A x, A y> = <x,y>.
Stelling 9.6
Elke eventuele eigenwaarde van een orthogonale transformatie is +1 of -1.
Bewijs:
Als A x =  x dan is |x| = | A x| = |  x|, dus |  | = 1.
Stelling 9.7
Als A de matrix is van een lineaire transformatie A van R p , dan geldt:
A is orthogonaal ten opzichte van het standaardinproduct  AT = A –1 .
Bewijs:
(  ) < Ax, A y> = (A x)T(A y) = xT A TA y = <x, A TA y>.
Neem nu A T = A –1, dan geldt dat < Ax, A y> = <x, y>
(  ) Als A orthogonaal is, dan geldt voor alle x,y dat
xT (A TA ) y = xT y. Dit is alleen het geval als A T = A –1.
Definitie 9.5
Een vierkante matrix A heet orthogonaal als A T = A
–1
.
Stelling 9.8
De determinant van een orthogonale matrix is +1 of –1.
Bewijs:
|A| = |AT| = |A–1|, dus |A|2 = 1, zodat |A|  1.
Stelling 9.9
Voor een vierkante matrix A zijn de volgende uitspraken equivalent:
a. A is orthogonaal
b. De kolommen van A vormen een orthonormaal stelsel vectoren
c. De rijen van A vormen een orthonormaal stelsel vectoren
(ATA = I )
(AAT = I )
Blz. 29 van 32
Uittreksel Lineaire Algebra
Gebruik van de TI-89 bij Lineaire Algebra
Studiewijzer hoofdstuk 2, oplossen vergelijkingen met de TI-89 (boek hoofdstuk 3)
Oplossen vergelijkingen
Kies bij MODE, F2 (Page 2) bij Exact/Approx voor "Auto".
Kies de optie "Solve" (via F2, 1).
Voer de vergelijkingen in gescheiden door "and" (opzoeken met Catalog).
Voer een komma in en tussen accolades de namen van de variabelen.
Haakje sluiten, ENTER.
Voorbeeld:
Solve(3x+5y-z=7 and x-3y-2z=-4, {x,y,z})
Uitvoer:
(opgave 3.1a)
13@1  1
(5@1  19)
and y 
and z  @1 .
14
14
Substitueer @1 door  , werk haakjes weg, maak noemers gelijknamig en dan ontstaat:
1  13
19  5
0  14
x
, y
, z
. Hieruit is de parametervoorstelling af te leiden.
14
14
14
x
Studiewijzer hoofdstuk 2, rekenen met matrices (boek hoofdstuk 4.2)
Er zijn twee manieren om een matrix in te voeren op de TI-89:
1. Intoetsen op het hoofdscherm
Begin met "blokhaak openen". Voer de elementen van de eerste rij in, gescheiden door
komma's. Ga naar een volgende rij met een puntkomma. Sluit af met "blokhaak sluiten".
Voorbeeld: [1,2,3;2a,3b,x]
2. Via de Data/Matrix Editor
Kies APPS, Data/Matrix Editor. Kies de eerste keer voor New. Kies type 2: Matrix.
Voer bij Variabele een herkenbare naam in , bijvoorbeeld "M1".
Voer de elementen in. Verlaat de Editor met Quit.
Je kunt nu in het hoofdscherm de matrix aanroepen door de naam in te toetsen.
Deze werkwijze is vooral handig als je meerdere bewerkingen met dezelfde matrix uit moet
voeren.
Optellen matrices:
Vermenigvuldigen matrices:
voer de matrices in met een plus-teken ertussen.
voer de matrices in met een vermenigvuldigingsteken
ertussen.
Van vierkante matrices kun je ook machten berekenen met ^n.
De inverse matrix bereken je met ^(-1).
De volgende bewerkingen voor matrices vind je in het menu Math, Matrix of via Catalog.
Blz. 30 van 32
Uittreksel Lineaire Algebra
Schoonvegen van vergelijkingen
Het stapsgewijs schoonvegen kan worden gedaan met Math, Matrix, Row ops.
De volgende rijbewerkingen zijn mogelijk:
 rowSwap ([Matrix], rijnummer1, rijnummer2)
wisselt rijnummer1 en rijnummer2
 rowAdd ([Matrix], rijnummer1, rijnummer2)
telt rijnummer1 bij rijnummer2 op
 mRow(factor, [Matrix], rijnummer)
vermenigvuldigt een rij met factor
 mRowAdd(factor, [Matrix], rijnummer1, rijnummer2) telt factor * rijnummer1 bij
rijnummer2 op.
Het schoonvegen van vergelijkingen kan door de TI-89 gedaan worden met ref( en rref(.
Voorbeeld:
ref([2,-3,4;1,7,-12]) geeft als uitvoer
rref([2,-3,4;1,7,-12]) geeft als uitvoer
1  32
2

.
 0 1  20 

11 
 1 0  118 

.
20 
0
1


11 
Eenheidsmatrices en determinanten
identity(3) geeft de eenheidsmatrix in R 3 .
det([ ]) berekent de determinant van een matrix.
Geraadpleegde literatuur







Vectoren en Matrices, J. van de Craats, ISBN 9050410561
Reader Vectormeetkunde, Chr. Hogeschool Windesheim (opvraagbaar bij Dick Bos,
mogelijk ook verkrijgbaar in de mediatheek onder code A243).
Is een goede ondersteuning bij het eerste hoofdstuk uit het boek.
Linear Algebra, David C. Lay, onder verschillende ISBN nummers verkrijgbaar, zie
www.bol.com. Lijkt qua opzet op het boek Calculus: goede uitleg met voorbeelden en
veel oefenopgaven. Blijft echter onder het tentamenniveau.
Dictaat lineaire algebra, Decnop e.a., ISBN 9040712689
Matrixrekening, Den Braber e.a., ISBN 9040712697
Getal en Ruimte 4/5, ISBN 9011003128 (alleen tweedehands verkrijgbaar)
Moderne Wiskunde havo 4, (ISBN 9001594417) en havo 5 (ISBN 9001594433)
(alleen tweedehands verkrijgbaar)
Blz. 31 van 32
Uittreksel Lineaire Algebra
Nuttige links
Algemeen, inleiding
http://www.math.uu.nl/people/noort/linalkort.pdf
http://nl.wikipedia.org/wiki/Categorie:Lineaire_algebra
http://nl.wikipedia.org/wiki/Vector_(wiskunde)
www.geo.vu.nl/~voom/ zie dictaat2
http://www.win.tue.nl/~ppanhuis/reports/LA_2Y650_06-07luc.pdf
Inproduct
http://nl.wikipedia.org/wiki/Inwendig_product
http://nl.wikipedia.org/wiki/Kruisproduct
http://kwast.ie.hva.nl/~wdolman/sig2/wiskunde/inproduct.html
Uitproduct
http://kwast.ie.hva.nl/~wdolman/sig2/wiskunde/uitproduct.html
http://wiswijzer.nl/pagina.asp?nummer=1303
Lineaire deelruimte
http://nl.wikibooks.org/wiki/Lineaire_algebra/Lineaire_ruimte
Gauss eliminatie
http://en.wikipedia.org/wiki/Gaussian_elimination
http://users.ugent.be/~mvdaele/cgi-bin/ILONA/theorie/Applets/StelselA/stelselA.html
http://www.math.ucla.edu/~tao/resource/general/115a.3.02f/Gauss.html
Inverse matrix
http://nl.wikipedia.org/wiki/Inverse_matrix
Determinanten
http://nl.wikipedia.org/wiki/Determinant
Regel van Cramer
http://nl.wikipedia.org/wiki/Regel_van_Cramer
Blz. 32 van 32
Download