LINEAIRE ALGEBRA EN MEETKUNDE G. Van Steen 13 november 2001 Inhoudsopgave 1 Verzamelingenleer 1.1 Bewerkingen met verzamelingen 1.2 Relaties . . . . . . . . . . . . . 1.3 Functies . . . . . . . . . . . . . 1.4 Equivalentierelaties . . . . . . . 1.5 Orderelaties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Matrixen en stelsels 2.1 Matrixen . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 De lichamen R en C . . . . . . . . . . . . 2.1.2 Matrixen - Definities . . . . . . . . . . . . 2.1.3 Bewerkingen met matrixen . . . . . . . . . 2.1.4 Blokvermenigvuldiging . . . . . . . . . . . 2.2 Stelsels van lineaire vergelijkingen . . . . . . . . . 2.2.1 Stelsels, echelonmatrixen en Gaussreductie 2.2.2 Angels en Valkuilen . . . . . . . . . . . . . 2.3 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Vectorruimten 3.1 Vectorruimten en basissen . . . . . . . . . . . . . . . . . . . 3.1.1 Definities en voorbeelden . . . . . . . . . . . . . . . . 3.1.2 Voortbrengers en lineaire combinaties . . . . . . . . . 3.1.3 Lineaire afhankelijkheid en onafhankelijkheid . . . . . 3.1.4 Basissen en dimensie . . . . . . . . . . . . . . . . . . 3.1.5 Verandering van basis in een K-vectorruimte . . . . . 3.1.6 De nulruimte, de kolommenruimte en de rang van een matrix . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Lineaire afbeeldingen . . . . . . . . . . . . . . . . . . . . . . 1 . . . . . 3 4 7 10 14 20 . . . . . . . . . 25 26 26 28 31 34 38 38 50 52 . . . . . . 65 66 66 72 78 81 90 . 91 . 96 3.3 Een eenvoudige matrixvoorstelling . . . . . . . . . . . . . . . . 108 3.3.1 Eigenwaarden en eigenvectoren . . . . . . . . . . . . . 108 3.3.2 Iteratieve oplossingsmethoden voor stelsels . . . . . . . 117 4 Elementaire analytische meetkunde 4.1 Affiene ruimten en referentiestelsels . . . . . . . . . 4.1.1 De richtingsvectorruimte van een vlak . . . . 4.1.2 Affiene referentiestelsels voor het vlak . . . . 4.1.3 Verandering van referentiestelsel in een vlak 4.1.4 De richtingsvectorruimte voor de 3D ruimte 4.1.5 Affiene referentiestelsels voor E . . . . . . . 4.1.6 Doorsnede van rechten en vlakken . . . . . . 4.1.7 Verandering van referentiestelsel . . . . . . . 4.2 Orthogonaliteit . . . . . . . . . . . . . . . . . . . . 4.2.1 Bilineaire vormen . . . . . . . . . . . . . . . 4.2.2 Orthogonaliteit in het vlak π . . . . . . . . 4.2.3 Orthogonaliteit in E . . . . . . . . . . . . . 4.2.4 Oriëntaties . . . . . . . . . . . . . . . . . . . 4.2.5 Hoeken . . . . . . . . . . . . . . . . . . . . . 4.2.6 Poolcoördinaten en sferische coördinaten . . 4.2.7 Het vectorieel product . . . . . . . . . . . . 4.3 Affiene transformaties . . . . . . . . . . . . . . . . 4.4 Euclidische transformaties . . . . . . . . . . . . . . 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 122 122 127 132 132 134 139 141 142 142 147 154 159 161 162 165 169 173 Hoofdstuk 1 Verzamelingenleer 3 1.1 Bewerkingen met verzamelingen We zullen in dit hoofdstuk het begrip verzameling steeds op een intuı̈tieve manier benaderen. We moeten hierbij echter voorzichtig te werk gaan. intuı̈tieve verzamelingenleer kan tot contradicties leiden. Definitie 1.1.1 Een verzameling is een geheel van objecten die samen behandeld worden. De objecten noemt men de elementen van de verzameling. Opmerking Om contradicties te vermijden zullen we steeds verzamelingen beschouwen die zelf deelverzameling zijn van een vaste grote verzameling. Deze verzameling noemt men een universum en wordt dikwijls als U genoteerd. Notaties • Verzamelingen worden meestal genoteerd met hoofdletters A, B, . . . , X, Y, . . .. objecten noteert men meestal met kleine letters a, b, . . . • Als A een verzameling is en als x een element is van A dan noteert men x ∈ A. • Verzamelingen kunnen op twee verschillende manieren beschreven worden : 1. door opsomming van de elementen. Als A een eindige verzameling is en als a1 , . . . , an de elementen zijn van A dan noteert men A = {a1 , . . . , an } 2. door een beschrijving te geven van de elementen. Als A een verzameling is waarvan de elementen gekenmerkt zijn door een voorwaarde P dan noteert men A = x x voldoet aan P Deze manier om verzamelingen te noteren kan ook gebruikt worden voor oneindige verzamelingen. 4 • Zij A en B verzamelingen. A ∪ B = x x ∈ A of x ∈ B ( unie van A en B) A ∩ B = x x ∈ A en x ∈ B ( doorsnede van A en B) • Als A en B verzamelingen zijn dan noemt men de verzameling A \ B = x x ∈ A en x 6∈ B het verschil van A en B. De verzameling A4B = (A ∪ B) \ (A ∩ B) noemt men het symmetrisch verschil van A en B. De verzameling Ac = U \ A noemt men het complement van A. (U is het universum.) Definitie 1.1.2 Zij A en B verzamelingen. Als elk element van A ook een element is van A dan zeggen we dat A een deelverzameling is van B. We noteren A ⊂ B of A ⊆ B. Met symbolen noteren we dus A ⊂ B ⇐⇒ ∀x : x ∈ A ⇒ x ∈ B Eén van de belangrijkste regels in de verzamelingenleer is het Extensionaliteitsprincipe : Twee verzamelingen A en B zijn gelijk als en slechts als ze dezelfde elementen hebben. Dus : A = B ⇐⇒ ∀x : a ∈ A ⇐⇒ x ∈ B of nog : A = B ⇐⇒ A ⊂ B en B ⊂ A Dit principe heeft enkele belangrijke gevolgen. 1. Als een verzameling beschreven wordt door opsomming van de elementen dan heeft de volgorde waarin deze elementen vernoemd worden geen belang. {a, b, c} = {b, a, c} 5 2. Als een verzameling beschreven wordt door opsomming van de elementen en als in deze opsomming een element meerdere keren voorkomt dan mag dit één keer weggelaten worden. {a, b, a, c, a} = {a, b, c, a} = {a, b, c} 3. Er bestaat exact één verzameling die geen enkel element bevat. We noemen ze de lege verzameling en we noteren ∅. Definitie 1.1.3 Een vezameling waarvan de elementen zelf verzamelingen zijn noemt men een familie. Families worden dikwijls genoteerd met ronde letters A, B. . . . Als A een familie is dan noemt men ∪A = x ∃A ∈ A zodat x ∈ A de unie van de familie A en ∩A = x ∀A ∈ A : x ∈ A noemt men de doorsnede van A. Families worden dikwijls genoteerd met indexen. De elementen van de familie worden genoteerd als Ai waarbij de index i element is van een indexverzameling I. Men noteert de familie dan als (Ai )i∈I . De unie van de familie wordt dan genoteerd als ∪i∈I Ai en de doorsnede als ∩i∈I Ai . Opmerkingen 1. De lege verzameling ∅ kan ook opgevat worden als een familie. Toon zelf aan dat ∪∅ = ∅ en ∩∅ = U. 2. Als A een verzameling is dan noemt men de familie X X⊂A de machtsverzameling van A. Men noteert deze familie als 2X of als P(X). 6 Propositie 1.1.4 Zij A,B en C verzamelingen. Dan gelden de volgende gelijkheden : 1. A ∪ B = B ∪ A 2. A ∩ B = B ∩ A 3. (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C) 4. (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C) 5. (A ∩ B)c = Ac ∪ B c 6. (A ∪ B)c = Ac ∩ B c 7. (Ac )c = A Bewijs Oefening! (Toepassing van het extensionaliteitsprincipe.) Merk de analogie op met de regels uit de propositielogica. 1.2 Relaties Uit het extensionaliteitsprincipe volgt dat {a, b} = {b, a}. Om toch met het begrip volgorde te kunnen werken voeren we de volgende definitie in. Definitie 1.2.1 (inductieve definitie) 1) Als a1 , a2 elementen zijn dan noemen we de verzameling (a1 , a2 ) = {{a1 }, {a1 , a2 }} het geordend tweetal met coëfficiënten a1 en a2 . Inductiehypthese : Onderstel dat het begrip “geordend k-tal” gedefinieerd is voor k = 2, . . . , n − 1. 2) Als a1 , . . . , an elementen zijn dan noemt men de verzameling (a1 , . . . , an ) = ((a1 , . . . , an−1 ), an ) het geordend n-tal met coëfficiënten a1 , . . . , an . 7 De belangrijkste eigenschap van geordende n-tallen wordt gegeven door de volgende stelling. Propositie 1.2.2 Zij a1 , . . . , an en b1 , . . . , bn elementen. Dan geldt : (a1 , . . . , an ) = (b1 , . . . , bn ) ⇐⇒ a1 = b1 , . . . , an = bn Definitie 1.2.3 Als A1 , . . . , An verzamelingen zijn dan noemt men de verzameling A1 × · · · × An = (a1 , . . . , an ) a1 ∈ A1 , . . . , an ∈ An het (Carthesisch) product van A1 , . . . , An . Opmerking Als één van de verzamelingen A1 , . . . , An leeg is dan is het product A1 × · · · × An ook leeg. Definitie 1.2.4 Zij A en B verzamelingen. Een relatie van A naar B is een deelverzameling R ⊂ A × B. Een deelverzameling R ⊂ A × A noemt men een relatie op A. Als een koppel (a, b) element is van de relatie R dan noteert men dikwijls aRb in plaats van (a, b) ∈ R. Voorbeelden 1. (x, y) x ∈ Z, y ∈ N, y = x2 is een relatie van Z naar N. 2. ∅ en A × B zijn relaties van A naar B. 3. Zij A een verzameling. Dan is ∆ = (a, a) a ∈ A een relatie van A naar zichzelf. Men noemt ∆ de diagonaal op A. Definitie 1.2.5 Zij R ⊂ A × B een relatie van A naar B. Men noemt de relatie R−1 = (b, a) aRb ⊂ B × A de inverse relatie van R. 8 Definitie 1.2.6 Zij R ⊂ A × B een relatie van A naar B. Als U ⊂ A een deelverzameling is dan noteert men R(U ) = b ∈ B ∃a ∈ U zodat aRb Men noemt R(U ) het beeld van U . Definitie 1.2.7 Zij R ⊂ A× B een relatie. De verzameling Dom(R) = a ∈ A ∃b ∈ B zodat aRb noemt men het domein van R. De verzameling Ran(R) = b ∈ B ∃a ∈ A zodat aRb noemt men het beeld van R. Dus Ran(R) = R(A). Uit de definities volgt dus dat voor een relatie R ⊂ A × B geldt : Ran(R) = R(A) en Dom(R) = R−1 (B) Propositie 1.2.8 Zij R ⊂ A × B een relatie van A naar B. 1. R(∅) = ∅ 2. ∀X, Y ⊂ A : X ⊂ Y ⇒ R(X) ⊂ R(Y ) 3. ∀X, Y ⊂ B : X ⊂ Y ⇒ R−1 (X) ⊂ R−1 (Y ) 4. ∀X, Y ⊂ A : R(X ∪ Y ) = R(X) ∪ R(Y ) 5. ∀X, Y ⊂ A : R(X ∩ Y ) ⊂ R(X) ∩ R(Y ) Definitie 1.2.9 Zij A, B en C verzamelingen en zij R ⊂ A×B en S ⊂ B×C relaties. De relatie S ◦ R = (a, c) a ∈ A, c ∈ Cen ∃b ∈ B zodat aRb en bSc ⊂ A × C noemt men de samenstelling van R en S. Propositie 1.2.10 Zij R ⊂ A × B, S ⊂ B × C en T ⊂ C × D relaties. Dan geldt : 1. (R−1 )−1 = R 2. (S ◦ R)−1 = R−1 ◦ S −1 3. T ◦ (S ◦ R) = (T ◦ S) ◦ R We zullen verder drie bijzondere soorten relaties bestuderen. 9 1.3 Functies Definitie 1.3.1 Zij A en B verzamelingen. Een functie van A naar B is een relatie F ⊂ A × B die voldoet aan de volgende voorwaarde: ∀a ∈ A ∃1b ∈ B zodat aF b In het bijzonder betekent dit dat Dom(F ) = A. Als a ∈ A dan noteert men het unieke element b ∈ B met de eigenschap aF b als F (a). Men noemt dit element het beeld van a. In plaats van F ⊂ A × B noteert men voor een functie F : A → B Definitie 1.3.2 Zij F : A → B een functie. 1. Men zegt dat de functie injectief is als ∀x, y ∈ A : F (x) = F (y) ⇒ x = y 2. Men zegt dat de functie surjectief is als ∀z ∈ B ∃x ∈ A zodat z = F (x) 3. als F zowel injectief als surjectief is dan zegt men dat F bijectief is. Voorbeelden 1. F : N → N met F (n) = 0 voor elke n ∈ N is noch injectief noch surjectief. 2. F : Z → N met F (x) = x2 is niet surjectief en niet injectief. 3. F : N → N met F (x) = 2x is injectief maar niet surjectief. 4. Zij A een verzameling en zij X ⊂ A een deelverzameling. Definieer de functie 1X : A → {0, 1} door 1X (a) = 0 als a 6∈ X 1X (a) = 1 als a ∈ X Men noemt 1X de karakteristieke functie van X. 10 5. Als F : A → {0, 1} een functie is dan is XF = a ∈ A F (a) = 1 een deelverzameling van A en de karakterisiteke functie 1XF van XF is F zelf. Propositie 1.3.3 Zij F : A → B een functie. De inverse relatie F −1 ⊂ B × A is een functie als en slechts als F bijectief is. Bewijs Oefening! De inverse relatie F −1 van een functie F bestaat dus altijd maar is meestal zelf geen functie. Als je ergens F −1 ziet staan denk dan niet direct dat F bijectief is. Propositie 1.3.4 Zij F : A → B en G : B → C functies. Dan is de samenstelling G ◦ F : A → C ook een functie. Bovendien geldt : 1. F, G injectief ⇒ G ◦ F injectief 2. F, G surjectief ⇒ G ◦ F surjectief 3. F, G bijectief ⇒ G ◦ F bijectief 4. G ◦ F injectief ⇒ F injectief 5. G ◦ F surjectief ⇒ G surjectief 6. G ◦ F surjectief en G injectief ⇒ F surjectief en G bijectief 7. G ◦ F injectief en F surjectief ⇒ G injectief en F bijectief 8. G ◦ F bijectief en F surjectief ⇒ F en G bijectief 9. G ◦ F bijectief en G injectief ⇒ F en G bijectief Definitie 1.3.5 Een verzameling A heet oneindig als er een injectieve functie F : N → A bestaat. Als A niet oneindig is dan zeggen we dat A een eindige verzameling is. In dit geval kunnen we spreken over het aantal elementen van A. We noteren dit aantal als |A| of als #A. Een oneindige verzameling A heet aftelbaar als er een bijectieve functie F : N → A bestaat. Als de oneindige verzameling A niet aftelbaar is dan zeggen we dat A overaftelbaar is. 11 Opmerkingen 1. Het begrip “aantal elementen van een verzameling”hebben we wiskundig niet correct gedefinieerd. Het is echter wel mogelijk om dit begrip op een rigoureuze manier in te voeren. Dit zou ons echter te ver leiden. We werken daarom verder met het intuı̈tieve begrip “aantal”. 2. Het aantal elementen van een oneindige verzameling is niet gedefinieerd. (Het is wel mogelijk om dit te doen.) Als A en B oneindige verzamelingen zijn en als er een bijectie F : A → B bestaat dan zullen we wel zeggen dat A en B evenveel elementen hebben. We noteren dan |A| = |B|. De verzameling A is aftelbaar betekent dus |A| = |N|. Voorbeelden 1. N, Z en Q zijn aftelbaar. 2. R en C zijn niet aftelbaar. Propositie 1.3.6 1. Een verzameling A is oneindig als en slechts als er een bijectieve functie F : B → A bestaat waarbij B ( A een echte deelverzameling is van A. 2. Als A een overaftelbare verzameling is en als F : A → B een injectieve functie is dan is B ook overaftelbaar. 3. Zij A en B eindige verzamelingen. Dan geldt : |A| ≤ |B| ⇐⇒ ∃F : A → B injectief Propositie 1.3.7 (Pigeon Hole Principe) Zij A en B eindige verzamelingen met |A| = |B| en zij F : A → B een functie. Dan geldt : F injectief ⇐⇒ F surjectief ⇐⇒ F bijectief Gevolg 1.3.8 Zij A een deelverzameling van een eindige verzameling B. Als |A| = |B| dan is A = B. In deze propositie is de voorwaarde dat A en B eindig zijn essentieel. We kunnen dit zien aan volgend voorbeeld. Zij F : N → N gedefinieerd door F (n) = n + 1. Deze functie is injectief maar niet surjectief. 12 Propositie 1.3.9 Zij A en B eindige verzamelingen. Dan geldt: 1. |A × B| = |A|.|B| 2. | R R is een relatie van A naar B | = 2|A|.|B| 3. | F F : A → B is een functie | = |B||A| 4. |2A | = 2|A| Bewijs 1) Dit volgt rechtstreeks uit de productregel. 2) Dit volgt uit (4) en (1). 3) Om een functie van A naar B te definiëren moeten we voor elk element van A (|A| mogelijkheden) een uniek element uit B kiezen (|B| mogelijkheden). Uit de productregel volgt dat er in totaal |B|.|B| . . . |B| = |B||A| mo| {z } |A| keer gelijkheden zijn. 4) Definieer een functie φ : 2A → F F : A → {0, 1} door φ(U ) = 1U waarbij 1U de karakteristieke functie van U is, gedefinieerd door : 1U (a) = 1 als a ∈ U 1U (a) = 0 als a 6∈ U Het is eenvoudig te verifëren dat φ een bijectie is. Bijgevolg is |2A | = | F F : A → {0, 1} | = 2|A| Propositie 1.3.10 Zij A en B eindige verzamelingen met |A| = n en |B| = m. Dan geldt : 1. het aantal injectieve functies van A naar B is 0 als n > m m! als n ≤ m (m−n)! 13 2. het aantal surjectieve functies van A naar B is m X m k (−1) (m − k)n m − k k=0 Bewijs We bewijzen enkel het eerste deel van de stelling. Het tweede deel is een toepassing van een combinatorische stelling die later aan bod komt. Stel A = {a1 , . . . , an } en onderstel n ≤ m. Om een injectieve functie F : A → B vast te leggen bepalen we achtereenvolgens een beeld voor a1 , a2 , . . . Voor het beeld F (a1 ) hebben we m mogelijkheden. (Elk element van B komt in aanmerking.) Vermits F (a2 ) 6= F (a1 ) hebben we voor F (a2 ) nog maar m − 1 mogelijkheden. Vermits F (a3 ) 6= F (a1 ), F (a2 ) hebben we voor F (a3 ) nog maar m − 2 mogelijkheden. We gaan zo verder tot alle beelden van a1 , . . . , an bepaald zijn. Wegens de m! productregel zijn er in totaal m.(m − 1). · · · .(m − n + 1) = (m−n)! mogelijkheden. Als n > m dan loopt de bovenstaande procedure om F te bepalen vast na de m-de stap. In dat geval bestaan er dus geen injectieve functies van A naar B. Opmerking Als A een vezameling is dan bestaat er nooit een bijectie tussen A en de machtsverzameling 2A . 1.4 Equivalentierelaties Definitie 1.4.1 Zij R een relatie op een niet lege verzameling X. 1. R heet reflexief als ∀x ∈ X : xRx 2. R heet transitief als ∀x, y, z ∈ X : (xRy en yRz) ⇒ xRz 14 3. R heet symmetrisch als ∀x, y ∈ X : xRy ⇒ yRx 4. R heet antisymmetrisch als ∀x, y ∈ X : (xRy en yRx) ⇒ x = y Definitie 1.4.2 Zij R een relatie op een niet lege verzameling X. Dan heet R een equivalentierelatie als R reflexief, transitief en symmetrisch is. Equivalentierelaties worden dikwijls genoteerd als ≡, ∼, ', . . .. Voorbeelden 1. Definieer de relatie ∼ op R door a ∼ b ⇐⇒ a2 = b2 2. Definieer de relatie ≡ op Z door a ≡ b ⇐⇒ 3|(a − b) Definitie 1.4.3 Zij ∼ een equivalentierelatie op een verzameling A. Als a ∈ A dan noemen we de verzameling b∈Aa∼b de equivalentieklasse van a. We noteren deze equivalentieklasse dikwijls als a. Equivalentieklassen zijn dus deelverzamelingen van A. De verzameling A/∼ = a a ∈ A ⊂ 2A noemt men de quotiëntverzameling van A. De afbeelding π : A → A/∼ die een element a ∈ A afbeeldt op π(a) = a noemt men de kanonieke surjectie. (Verifieer zelf dat dit een surjectieve afbeelding is.) Voorbeelden 15 1. Zij ∼ de equivalentierelatie op R, gedefinieerd door a ∼ b ⇐⇒ a2 = b2 Als a ∈ R dan is de equivalentieklasse van a gelijk aan a = {a, −a} De quotiëntverzameling is dus R/∼ = {{a, −a}|a ∈ R} 2. Zij ≡ de equivalentierelatie op Z, gedefinieerd door a ≡ b ⇐⇒ 3|(a − b) Als a ∈ Z dan is de equivalentieklasse van a gelijk aan a = a + 3k k ∈ Z De quotiëntverzameling bevat nu exact 3 verschillende elementen : Z/≡ = a a ∈ Z = 0, 1, 2 De volgende eigenschap is essentieel in de studie van equivalentierelaties. Propositie 1.4.4 Zij ∼ een equivalentierelatie op een verzameling A. Dan geldt : 1. ∀a ∈ A : a ∈ a 2. ∀a ∈ A : a 6= ∅ en ∪a∈A a = A 3. ∀a, b ∈ A : a = b ⇐⇒ a ∼ b 4. ∀a, b ∈ A : a 6= b ⇐⇒ a ∩ b = ∅ 16 Bewijs 1) Dit volgt direct uit de reflexiviteit van ∼. 2) Dit volgt direct uit (1). 3) Als a = b dan is b ∈ a en dus is a ∼ b. Omgekeerd, onderstel dat a ∼ b. Als x ∈ b dan is b ∼ x. Wegens de transitiviteit van de relatie ∼ is a ∼ x en dus is x ∈ a. Hieruit volgt dat b ⊂ a. Vermits de relatie ∼ ook symmetrisch is vinden we op een analoge manier dat a ⊂ b. 4) Als a ∩ b = ∅ dan is a 6= b want a, b 6= ∅. Omgekeerd, onderstel dat a ∩ b 6= ∅. ⇒ ∃x ∈ a ∩ b Bijgevolg is a ∼ x en b ∼ x. Wegens de symmetrie en de transitiviteit van de relatie ∼ is dan a ∼ b en dus is a = b. Definitie 1.4.5 Zij A een niet lege verzameling. Een deelverzameling A ⊂ 2A heet een partitie van A als : 1. ∀X ∈ A : X 6= ∅ 2. A = ∪A 3. ∀X, Y ∈ A : X 6= Y ⇐⇒ X ∩ Y = ∅ Uit de voorgaande propositie volgt dat voor elke equivalentierelatie ∼ op een verzameling A de quotiëntverzameling A/∼ een partitie is van A. Zij A een partitie van een niet lege verzameling A. Definieer dan de relatie ∼A op A door x ∼A y ⇐⇒ ∃U ∈ A zodat x, y ∈ U Dan is ∼A een equivalentierelatie op A. De quotientverzameling A/∼A van deze equivalentierelatie is dus ook een partitie van A. Deze partitie is echter gelijk aan de oorspronkelijke A. We verifiëren dit even. • Als x ∈ A dan is er een U ∈ A zodat x ∈ U . Men heeft dan x ∈ U en x ∈ U Bijgevolg is x ∼A x en dus is ∼A reflexief. 17 • Als x ∼A y dan : ∃U ∈ A zodat x ∈ U en y ∈ U Men heeft bijgevolg ook : y ∈ U en x ∈ U en dus y ∼A x. Bijgevolg is ∼A symmetrisch. • Onderstel dat x ∼A y en y ∼A z. Dan bestaan er U, V ∈ A zodat x, y ∈ U en y, z ∈ V . Maar dan is y ∈ U ∩ V en dus is U ∩ V 6= ∅. Hieruit volgt dat U = V en dus x, z ∈ U en dus is x ∼A z. De relatie ∼A is dus ook transitief en is dus een equivalentierelatie. • Als x ∈ U met U ∈ A dan heeft men y ∈ x̄ ⇐⇒ x ∼A y ⇐⇒ y ∈ U en dus is x̄ = U . We kunnen de voorgaande constructies ook nog in een andere volgorde uitvoeren. We kunnen namelijk vertrekken met een equivalentierelatie ∼ op A. Dit geeft een quotientverzameling A/ ∼ en dus een partitie van A. Met deze partitie maken we de nieuwe equivalentierelatie ∼A/∼ . Deze nieuwe equivalentierelatie is echter gelijk aan de oorspronkelijke ∼. (Verifiëer dit zelf.) We vinden dus dat de begrippen “equivalentierelatie” en “partitie” in essentie dezelfde zijn. We bewijzen nog enkele combinatorische stellingen. Propositie 1.4.6 Zij A een eindige verzameling met |A| = n. Het aantal reflexieve relaties op A is gelijk aan 2n(n−1) . Bewijs Een reflexieve relatie R op A heeft altijd de diagonaal 4 als deelverzameling. We kunnen R dan schrijven als R = 4 ∪ (R \ 4) en R is volledig bepaald door het stuk R \ 4 ⊂ (A × A) \ 4. Omgekeerd, als S ⊂ (A × A) \ 4 een deelverzameling is dan is S ∪ 4 een 18 reflexieve relatie op A. Er zijn dus evenveel reflexieve relaties als er deelverzamelingen zijn in (A × A) \ 4. Vermits |(A × A) \ 4| = n2 − n is het aantal deelverzamelingen 2 gelijk aan 2n −n . Propositie 1.4.7 Zij A een eindige verzameling met |A| = n. Het aantal n(n+1) symmetrische relaties op A is gelijk aan 2 2 . Bewijs Stel A = {a1 , . . . , an }. Elke relatie R op A kan geschreven worden als de unie van twee disjuncte delen R ∩ 4 en R \ 4. Als we een relatie op A willen definiëren dan moeten we dus afzonderlijk de delen R ∩ 4 en R \ 4 kiezen. Bovendien moeten we er hier voor zorgen dat de relatie symmetrisch is. De symmetrie van R legt geen beperkingen op het deel R ∩ 4. Het aantal mogelijkheden voor dit stuk is dus gelijk aan het aantal deelverzamelingen van 4. Vermits |4| = n is dit aantal gelijk aan 2n . Om het stuk R \ 4 vast te leggen moeten we een aantal koppels kiezen van de vorm (ai , aj ) met i 6= j. Om aan de eis voor symmetrie te voldoen moeten we echter voor elke keuze van (ai , aj ) ook het omgekeerde koppel (aj , ai ) mee kiezen. Het volstaat dus een aantal koppels van de vorm (ai , aj ) te kiezen met i < j en dan aan te vullen met de corresponderende omgekeerde koppels (aj , ai ). Het enige dat we vrij kunnen kiezen is dus een deelverzameling van (ai , aj ) 1 ≤ i < j ≤ n Het aantal mogelijkheden voor het stuk R \ 4 is dus gelijk aan het aantal deelverzamelingen van (ai , aj ) 1 ≤ i < j ≤ n Deze verzameling bevat n(n − 1)/2 elementen en bijgevolg is het aantal n(n−1) deelverzamelingen gelijk aan 2 2 . Wegens de productregel is het totale aantal moglijkheden voor R gelijk aan n(n−1) n(n+1) 2n .2 2 = 2 2 . 19 Opmerking Er is geen formule gekend om die het aantal transitieve relatie geeft op een eindige verzameling. 1.5 Orderelaties Definitie 1.5.1 Zij X een niet lege verzameling. Een relatie R ⊂ X×X heet een (partiele) ordening op X als R reflexief, transitief en antisymmetrisch is. Als bovendien geldt dat ∀x, y ∈ X : xRy of yRx dan zeggen we dat R een totale ordening is. Orderelaties worden meestal genoteerd met symbolen ≤, < . . . Als ≤ een ordening is op X en als x ≤ y dan zeggen we dat x kleiner is dan y Voorbeelden 1. N, Z, R zijn totaal geordend voor de gewone ordening. 2. C is partieel geordend voor de ordening ≤ die gedefinieerd word door : a + bi ≤ c + di ⇐⇒ a ≤ c en b ≤ d Deze ordening is niet totaal. 3. Zij A een verzameling. De relatie ⊆ op de machtsverzameling 2A die gedefinieerd is door : U ⊆ V ⇐⇒ U is een deelverzameling van V is een partiele ordening. Men spreekt hier van de inclusieordening. Definitie 1.5.2 Zij (X, ≤) een geordende verzameling en zij Y ⊂ X een deelverzameling. • Een element x ∈ X heet een bovengrens (majorant) voor Y als ∀y ∈ Y : y ≤ x 20 • Een element x ∈ X heet een ondergrens (minorant) voor Y als ∀y ∈ Y : x ≤ y • een element a ∈ Y heet een maximum als ∀y ∈ Y : y ≤ a • een element a ∈ Y heet een minimum als ∀y ∈ Y : a ≤ y • een element a ∈ Y heet een maximaal element als ∀y ∈ Y : a ≤ y ⇒ a = y • een element a ∈ Y heet een minimaal element als ∀y ∈ Y : y ≤ a ⇒ a = y Propositie 1.5.3 Zij (X, ≤) een geordende verzameling en zij Y ⊂ X een deelverzameling. Als a een element is in Y dan geldt : 1. a is maximum ⇒ a is maximaal element Bovendien bestaat er hoogstens één maximum in Y . Als de ordening totaal is dan is een maximaal element ook een maximum. 2. a is minimum ⇒ a is minimaal element Bovendien bestaat er hoogstens één minimum in Y . Als de ordening totaal is dan is een minimaal element ook een minimum. Voorbeeld Neem X de machtsverzameling van 1, 2, 3. X = {∅, {1} , {2} , {3} , {1, 2} , {1, 3} , {2, 3} , {1, 2, 3}} Stel Y = {∅, {1} , {2} , {3} , {1, 2} , {2, 3}} 21 Dan zijn {1, 2} en {2, 3} maximale elementen voor Y . Het zijn echter geen maxima. Bovendien is ∅ een minimum. Uit dit voorbeeld blijkt dat een maximaal element niet altijd een maximum is. Bovendien zijn maximale en minimale elementen in het algemeen niet uniek. Definitie 1.5.4 Zij (X, ≤) een geordende verzameling en zij a, b ∈ X met a ≤ b. • De verzameling [a, b] = x ∈ X a ≤ x ≤ b noemt men het gesloten interval met eindpunten a en b. • De verzameling ]a, b[= x ∈ X a < x < b noemt men het open interval met eindpunten a en b. • De verzamelingen [a, b[= x ∈ X a ≤ x < b en ]a, b] = x ∈ X a < x ≤ b noemt men de halfopen intervallen met eindpunten a en b. Definitie 1.5.5 Zij (X, ≤) een geordende verzameling en zij Y ⊂ X een deelverzameling. Als de verzameling x ∈ X x is bovengrens voor Y een minimum heeft dan noemt men dit minimum het supremum van Y . We noteren dit element als SupX (Y ). Als de verzameling x ∈ X x is ondergrens voor Y een maximum heeft dan noemt men dit maximum het infimum van Y . We noteren dit element als InfX (Y ). Het supremum en het infimum van Y hangen af van de grotere verzameling X. Men heeft bijvoorbeeld : SupR x ∈ Q 0 < x < π = π maar SupQ x∈Q0<x<π 22 bestaat niet. Als (X, ≤) een eindige partieel geordende verzameling is dan kunnen we de orderelatie grafisch voorstellen. We laten elk element van X overeenkomen met een punt in het vlak. We tekenen een pijl van x naar y als x ≤ y. De gerichte graf die we op deze manier bekomen ziet er al vlug ingewikkeld en onoverzichtelijk uit. We kunnen een eenvoudiger voorstelling geven op de volgende manier. We laten elk element van X overeenkomen met een punt in het vlak. Als x y dan zorgen we ervoor dat het punt dat overeenkomt met x lager gelegen is dan het punt dat overeenkomt met y. Als x y en als er geen punt z bestaat zodat x z en z y dan verbinden we x en y met een opwaarts gericht lijnstuk. Op de graf die we nu bekomen kunnen we nagaan of a ≤ b. Men heeft : a ≤ b ⇐⇒ a = b of er bestaat een opwaarts gerichte weg van a naar b Men noemt deze graf het Hassediagram van de ordening. Voorbeeld X = {∅, {1}, {2}, {3}, {1, 2}, {2, 3}} met de inclusieordening. Propositie 1.5.6 Zij (X, ≤) een partieeel geordende verzameling. Dan bestaat er een totale ordening 4 op X die de ordening ≤ uitbreidt, d.w.z. ≤ ⊂ 4. Bewijs [Topologisch zoekalgoritme] Stel |A| = n. • Stap 1 Stel k = 1. Stel H1 het Hasse diagram van de partiele ordening. 23 • Stap 2 Kies een punt vk in Hk zodat vanuit vk geen opwaartse lijn vertrekt. • Stap 3 Als k = n dan stopt de procedure. Definieer dan de orde 4 door vn 4 vn−1 4 . . . 4 v1 Als k < n verwijder dan het punt vk uit Hk samen met alle opwaarts gerichte lijnen die in vk aankomen. Stel Hk+1 de graf die we zo bekomen. Verhoog k met waarde 1 en ga naar stap 2. Verifieer zelf dat elke stap steeds kan uitgevoerd worden, dat alle punten van X aan bod komen en dat wel degelijk ≤ ⊂ 4. 24 Hoofdstuk 2 Matrixen en stelsels 25 2.1 2.1.1 Matrixen De lichamen R en C In dit deel van de cursus is K steeds gelijk aan R (reële getallen) of C (complexe getallen). R en C zijn bijzondere gevallen van een algemener soort algebraische structuren die men lichamen of velden noemt. Deze structuur wordt bepaald door de optelling en de vermenigvuldiging. Definities, eigenschappen en voorbeelden van lichamen vindt men in eender welk boek over algebra. Alle stellingen die we zullen zien kunnen veralgemeend worden voor algemene lichamen. Op dit moment hebben we deze veralgemeningen niet nodig. We beperken ons dus tot R en C. We zullen af en toe ook de notatie K ∗ gebruiken. We bedoelen hiermee K ∗ = x ∈ K x 6= 0 Op R is buiten optelling en de vermenigvuldiging ook nog een totale ordening en een absolute waarde gedefinieerd. Als a een getal is in R dan is de absolute waarde van a gedefinieerd door |a| = a als a ≥ 0 |a| = −a als a < 0 De totale orderelatie op R kan niet op een kanonieke manier uitgebreid worden tot een totale orderelatie op C. De absolute waarde functie heeft echter wel een uitbreiding die als volgt gedefinieerd wordt. Definitie 2.1.1 Als c = x+iy een complex getal is dan is de absolute waarde van c gelijk aan p |c| = x2 + y 2 Naast de klassieke voorstelling is er nog een tweede manier om complexe getallen voor te stellen. Hiervoor hebben we de complexe exponentiële functie nodig. We definiëren deze functie op de volgende manier. Als x ∈ R dan definiëren we eix = cos(x) + isin(x) Merk op dat |eix | = |cos(x) + isin(x)| = 26 p cos2 (x) + sin2 (x) = 1 Bovendien is eπi = cos(π) + isin(π) = −1 en e2πi = cos(2π) + isin(2π) = 1 Als c ∈ C een complex getal is met c = x + iy dan definiëren we ec = ex .eiy Merk op dat ec nooit 0 is. Bijgevolg is ec ∈ C∗ . De functie e : C → C∗ die c ∈ C afbeeldt op ec voldoet aan de gewone eigenschappen van de exponentiële functie. We hebben dus 0 ec+c = ec .ec 0 Vermits e2πi = 1 volgt hieruit dat voor elk complex getal c en voor elk geheel getal k ∈ Z geldt : k ec+2kπi = ec . e2πi = ec p Zij nu c = x + iy een getal in C∗ . Stel ρ = |c| = x2 + y 2 . Dan is ρ > 0 en 2 2 x + yρ = 1. Bijgevolg bestaat er een reëel getal θ zodat ρ cos(θ) = x ρ en sin(θ) = y ρ We krijgen dan c = x + iy = ρ (cos(θ) + isin(θ)) = ρ.eiθ We kunnen het volgende besluiten. Propositie 2.1.2 Elk complex getal c ∈ C∗ kan geschreven worden in de vorm c = ρ.eiθ met ρ, θ ∈ R en ρ > 0 Bovendien is |c| = ρ en |eiθ | = 1 Het getal θ is slechts bepaald op gehele veelvouden van 2π na. 27 2.1.2 Matrixen - Definities Definitie 2.1.3 Zij m, n ∈ N. Een (m, n)-matrix met coëfficiënten in K is een verzameling ai,j i = 1, . . . , m en j = 1, . . . , n ⊂ K De elementen ai,j noemt men de coëfficiënten van de matrix. Men noemt i de rijindex en j de kolomindex van het element ai,j . Matrixen worden meestal genoteerd met hoofdletters. Als m = n dan spreekt men van een vierkante matrix. De verzameling der (m, n)-matrixen noteert men Mm,n . De matrix A = ai,j i = 1, . . . , m en j = 1, . . . , n noteert men meestal als een tabel op de volgende manier : a11 a12 . . . a1n a21 a22 . . . a2n A = .. .. . . am1 am2 . . . amn De matrix ak1 ak2 . . . akn noemt men de k-de rij van A. De matrix a1l a2l .. . aml noemt men de l-de kolom van A. Een (m, n)-matrix heeft dus m rijen en n kolommen. Opmerking Als A een matrix is met coëfficiënten aij dan noteert men dikwijls A = (aij ) 28 Definitie 2.1.4 Zij A = (aij ) een (m, n)-matrix en zij i1 , . . . , ir en j1 , . . . , js getallen zodat 1 ≤ i1 < i2 < . . . < ir ≤ m en 1 ≤ j1 < j2 < . . . < js ≤ n Dan noemt men de (r, s)-matrix ai1 j1 ai1 j2 . . . ai1 js ai j ai j . . . ai j 2 2 2 s 21 .. .. . . air j1 air j2 . . . air js een deelmatrix van A. Voorbeelden 1. Als 2 5 3 9 A = 4 2 7 9 3 9 1 5 dan zijn 2 3 5 9 en 4 7 9 5 3 1 deelmatrixen. 2. In elke matrix zijn de rijen en de kolommen deelmatrixen. Een aantal bijzondere matrixen hebben aan aparte naam of notatie. • De (n, n)-matrix met coëfficiënten δij = 0 δij = 1 als i 6= j als i = j noemt men de eenheidsmatrix. Men noteert 1 0 0 ... 0 1 0 . . . In = .. . 0 ... 0 0 De i-de rij van deze matrix noteren we ei . 29 deze matrix als In . 0 0 .. . 1 • Een (n, n)-matrix A = (aij ) met aij onderdriehoeksmatrix. a11 0 a21 a22 A = a31 a32 .. . an1 = 0 voor elke i < j noemt men een 0 ... 0 ... a33 . . . ... 0 0 0 .. . ann • Een (n, n)-matrix A = (aij ) met aij = 0 voor elke i > j noemt men een bovendriehoeksmatrix. a11 a12 0 a22 0 A= 0 .. . 0 0 • Een (n, n)-matrix A = (aij ) met aij diagonaalmatrix. a11 0 0 a22 A = .. . 0 0 a13 . . . a1n a23 . . . a2n a33 . . . a3n .. . ... 0 ann = 0 voor elke i 6= j noemt men een 0 0 ... ... 0 0 .. . ... 0 ann • Een diagonaal matrix waarvoor alle coëfficiënten op de diagonaal onderling gelijk zijn noemt men een scalaire matrix. • De (m, n)-matrix waarvan alle coëfficiënten 0 zijn noemt men de nulmatrix. Deze matrix wordt meestal ook 0 genoteerd. (We zullen dit symbool nog in veel verschillende betekenissen gebruiken.) Opmerking Een (1, 1)-matrix met (enige) coëfficiënt a identificeert men met het getal a. Men noteert dus a in plaats van (a). 30 2.1.3 Bewerkingen met matrixen Definitie 2.1.5 Zij A = (aij ) en B = (bij ) (m, n)-matrixen. De (m, n)-matrix C = (cij ) met cij = aij + bij noemt men de som van A en B. Men noteert de matrix C als A + B. Opmerking Zij A = (aij ) een (m, n)-matrix. De (m, n)-matrix met coëfficiënten −aij noteert men −A. Als A = (aij ) en B = (bij ) (m, n)matrixen zijn dan noteert men A − B in plaats van A + (−B). Het is duidelijk dat A − A = 0. Voorbeelden 1. 2 5 1 4 5 1 3 4 7 6 4 8 3 4 2 5 + 2 −1 3 0 = 5 3 5 5 9 5 2 1 0 −2 4 1 9 3 6 2 2. De matrix 3 4 1 5 3 4 1 − 7 5 1 9 7 5 1 bestaat niet Definitie 2.1.6 Zij A = (aij ) ∈ Mm,n een (m, n)-matrix. De (n, m)-matrix B = (bij ) met ∀i, j : bij = aji noemt men de getransponeerde van A. Men noteert B = tA. De rijen van tA komen dus overeen ment de kolommen van A. Voorbeeld t 1 4 1 2 3 = 2 5 4 5 6 3 6 31 Als A een vierkante matrix metrische matrix is. Voorbeeld De matrixen 4 2 1 is en als tA = A dan zegt men dat A een sym- 2 1 2 0 0 1 5 en 0 6 0 5 3 0 0 1 zijn symmetrisch. Definitie 2.1.7 Zij A = (aij ) een (m, n)-matrix en zij B = (bkl ) een (n, p)matrix. De (m, p)-matrix C = (cil ) met cil = n X aik .bkl k=1 noemt men het product van A en B. Men noteert deze matrix als A.B. Let op de afmetingen van A en B. Voorbeelden 1. 2. 3. 3 1 20 14 2 1 5 . 4 2 = 6 3 −2 26 8 2 2 −2 4 −6 3 . 1 = −5 3 −2 −8 −2 6 1 . 4 −6 3 = 4 −6 −3 3 12 −18 −9 Uit de laatste voorbeelden blijkt dat voor matrixen A en B in het algemeen A.B 6= B.A 32 1. Als A ∈ Mm,n dan is Im .A = A.In = A. Propositie 2.1.8 2. Als A ∈ Mm,n en B ∈ Mn,p dan is t (A.B) = tB.tA en t (A + B) = tA + tB 3. Als A ∈ Mm,n , B ∈ Mn,p en C ∈ Mp,q dan is A.(B.C) = (A.B).C 4. Als A ∈ Mm,n , B ∈ Mn,p en C ∈ Mn,p dan is A.(B + C) = A.B + A.C Bewijs en (B + C).A = B.A + C.A Oefening! Definitie 2.1.9 Zij A ∈ Mn,n een vierkante matrix. Men zegt dat A inverteerbaar (of omkeerbaar) is als er een matrix B ∈ Mn,n bestaat zodat A.B = B.A = In Men noteert de matrix B als A−1 en men noemt A−1 de inverse van A. De verzameling van alle inverteerbare (n, n)-matrixen met coëfficiënten in K noteert men als GLn (K). Opmerkingen 1. De matrix B uit de voorgaande definitie is uniek bepaald door A. Stel namelijk dat B en B 0 beide voldoen aan de betrekkingen A.B = B.A = In en A.B 0 = B 0 .A = In Dan is B 0 = In B 0 = (B.A).B 0 = B.(A.B 0 ) = B.In = B 2. We zullen later zien hoe we de inverse matrix A−1 kunnen berekenen. 33 Propositie 2.1.10 1. Als A, B ∈ Gln (K) inverteerbare matrixen zijn dan is A.B ∈ GLn (K) en (A.B)−1 = B −1 .A−1 2. Als A ∈ GLn (K) inverteerbaar is dan is −1 t −1 t A = A Bewijs 1) Uit de voorgaande rekenregels blijkt dat (A.B).(B −1 .A−1 ) = A(B.B −1 ).A−1 = A.In .A−1 = A.A−1 = In Op een analoge manier vindt men dat (B −1 .A−1 ).(A.B) = In en dus is (A.B)−1 = B −1 .A−1 . 2) Vermits A.t(A−1 ) = t(A−1 .A) = tIn = In t en (A−1 ).tA = t(A.A−1 ) = tIn = In t is (tA)−1 = t(A−1 ). 2.1.4 Blokvermenigvuldiging Als we matrixproducten Y.A en A.X moeten uitrekenen dan is het soms handig om A te beschouwen als een kolom waarvan elk element een rij is of als een rij waarvan elk element een kolom is. Stel dat A een (m, n)-matrix is met rijen R1 , . . . , Rm en kolommen C1 , . . . , Cn . We schrijven dan R1 R2 A = .. en A = C1 C2 · · · Cn . Rm Bij het berekenen van een matrixproduct behandelen we R1 , . . . , Rm en C1 , . . . , Cn alsof het gewone coëfficiënten zijn. Nadien houden we er rekening mee dat 34 Ri en Cj in feite rijen en kolommen zijn. We vinden dus R1 R1 .X R2 R2 .X A.X = .. .X = .. . . Rm Rm .X In deze kolom is Ri .X dan het matrixproduct van de rij Ri en X. Zo vinden we ook Y.A = Y. C1 C2 · · · Cn = Y.C1 Y.C2 · · · Y.Cn In deze rij is Y.Cj het matrixproduct van Y en de kolom Cj . Als X een (n, p)-matrix is en als Y een (l, m)-matrix is dan is Ri .X een (1, p)-matrix en dus is A.X een (m, p)-matrix (zoals het hoort). Analoog is Y.Cj een (l, 1)-matrix en dus is Y.A een (l, n)-matrix. We kunnen dit systeem nog veralgemenen door matrixen op te delen in kleinere matrixen die we blokken noemen. We doen dit door (denkbeeldige) lijnen te trekken tussen rijen en kolommen. Bijvoorbeeld : A= en 1 0 | 0 0 0 0 1 | 0 0 0 I2 0 − − | − − − = P Q 2 −1 | 4 2 1 3 1 | −1 7 5 B= 4 −2 5 6 − − X = 7 3 Y −1 0 1 6 We behandelen nu elk blok als één geheel en we rekenen het product A.B uit als I2 0 X I2 .X + 0.Y X A.B = . = = P Q Y P.X + Q.Y P.X + Q.Y 35 We houden er nu rekening mee dat in dit resultaat X en P.X +Q.Y matrixen zijn. Na in vulling vinden we dan 4 −2 5 6 X A.B = = − − P.X + Q.Y 30 8 8 27 Het algemene geval kunnen we als volgt formuleren. Propositie 2.1.11 We kunnen een matrixproduct uitrekenen door de matrixen op te delen in blokken en dan deze blokken als coëfficiënten te behandelen. De enige beperking is dat de blokken compatibel moeten zijn, d.w.z. alle producten van alle blokken die in de uitrekening voorkomen moeten uitvoerbaar zijn. In de matrix die we dan bekomen moeten de coëfficiënten op hun beurt als matrixen behandeld worden. Bewijs Het bewijs is een omslachtige berekening met veel matrixproducten en coëfficiënten waaraan we ons niet zullen wagen. We geven eerst nog een enkele voorbeelden van een slechte opdeling in blokken : Voorbeeld Stel 1 0 | 0 0 0 0 1 | 0 0 0 I 0 2 A= − − | − − − = P Q 2 −1 | 4 2 1 3 1 | −1 7 5 en B= 4 −2 − − 5 6 X = 7 3 Y −1 0 1 6 36 We zouden dan vinden : I2 0 X I2 .X + 0.Y A.B = . = P Q Y P.X + Q.Y In dit resultaat is echter I2 .X = 1 0 0 1 . 4 −2 Dit product bestaat niet. De opdeling in blokken is dus niet goed. We nemen nu B= 4 −2 − − 5 6 X Y 7 3 = − − Z −1 0 1 6 We vinden dan A.B = I2 0 P Q X . Y Z De afmetingen van de blokmatrixen zijn nu niet compatibel en dus kan het product niet op deze manier uitgerekend worden. Eén van de belangrijkste gevallen van blokvermenigvuldiging is het geval waarbij matrixen in rijen en in kolommen worden opgesplitst. Voorbeeld Stel C1 , . . . , Cn de kolommen van een (m, n)-matrix A en stel R1 , . . . , Rn de rijen van een (n, m)-matrix B Dan is R1 A.B = C1 · · · Cn . ... = C1 .R1 + · · · + Cn .Rn Rn Elke term Ci .Ri is een (m, m)-matrix en dus is A.B ook een (m, m)-matrix. 37 R1 B.A = ... . Rn C1 R1 .C1 .. · · · Cn = . Rn .Cn Elke coëfficiënt Rj .Cj is een (1, n)-matrix en dus is B.A een (n, n)-matrix. 2.2 Stelsels van lineaire vergelijkingen 2.2.1 Stelsels, echelonmatrixen en Gaussreductie Door gebruik te maken van matrixnotatie’s kan men soms ingewikkelde dingen op een eenvoudige manier noteren en bestuderen. Een voorbeeld hiervan is het oplossen van stelsels van lineaire vergelijkingen. Definitie 2.2.1 • Zij a1 , . . . , an , b ∈ K en zij X1 , . . . , Xn een rij symbolen. Een uitdrukking van de vorm a1 X1 + · · · + an Xn = b noemt men een lineaire vergelijking in de onbekenden X1 , . . . , Xn en met coëfficiënten a1 , . . . , an , b. Als b = 0 dan spreekt men van een homogene vergelijking. Men noemt het geordend n-tal (x1 , . . . , xn ) ∈ K n een oplossing van de vergelijking als a1 x 1 + · · · + an x n = b • Een eindige verzameling lineaire vergelijkingen in onbekenden X1 , . . . , Xn noemt men een stelsel van lineaire vergelijkingen. Men noemt het geordend n-tal (x1 , . . . , xn ) ∈ K n een oplossing van het stelsel als (x1 , . . . , xn ) een oplossing is voor elke vergelijking afzonderlijk. De coëfficiënten van de vergelijkingen in een stelsel van lineaire vergelijkingen worden meestal genummerd door twee indexen. De eerste index geeft 38 het nummer van de vergelijking. De tweede index duidt de plaats in de vergelijking aan. Het stelsel krijgt dan de volgende vorm : a11 X1 + · · · + a1n Xn = b1 a21 X1 + · · · + a2n Xn = b2 .. . a X +···+ a X = b m1 1 mn n m Men noemt de (m, n)-matrix a11 a12 · · · a21 a22 · · · A = .. . am1 am2 · · · a1n a2n .. . amn de matrix van het stelsel. We kunnen het stelsel nu als een matrixproduct noteren. b1 X1 a11 a12 · · · a1n a21 a22 · · · a2n X2 b2 .. . .. = .. .. . . . . bm Xn am1 am2 · · · amn Als we nu X= X1 · · · Xn en b = b1 · · · bm noteren dan hebben we : A.tX = tb Een element x = (x1 , . . . , xn ) ∈ K n is dus een oplossing van het stelsel als A.tx = tb De matrix a11 a21 .. . a12 a22 · · · a1n · · · a2n .. . am1 am2 · · · amn b1 b2 bn noemt men de uitgebreide matrix van het stelsel. 39 Propositie 2.2.2 Beschouw een stelsel met m vergelijkingen en n onbekenden A.tX = tb en zij C ∈ GLm (K). Dan hebben de stelsels A.tX = tb en (C.A).tX = C.tb dezelfde oplossingen. Bewijs Als x = (x1 , . . . , xn ) een oplossing is van het stelsel A.tX = tb dan is A.tx = tb en bijgevolg is dus ook C.A.tx = C.tb. Omgekeerd, als x = (x1 , . . . , xn ) een oplossing is van het stelsel C.A.tX = C.tb dan is A.tx = C −1 .C.A.tx = C −1 .C.tb = tb en dus is x een oplossing van het oorspronkelijke stelsel. Door in de voorgaande propositie de matrix C goed te kiezen kunnen we ervoor zorgen dat de matrix C.A een eenvoudige vorm krijgt waardoor het gemakkelijk wordt om de oplossingen van het stelsel te bepalen. Definieer de matrix Eij ∈ Mmm met op de i-de rij en op de j-de kolom een 1 en met alle andere coëfficiënten 0. We kunnen hiermee drie soorten matrixen in GLm K definiëren. type 1 1 ··· ... 0 ··· 1 ··· ... a of .. . a 1 0 ··· 0 0 .. = Im + a.Eij . 1 40 (a ∈ K ∗ i 6= j) type 2 1 .. . 0 = Im + Eij + Eji − Eii − Ejj 1 .. . 1 0 ... (i 6= j) 1 type 3 1 ... = Im + (c − 1)Eii 1 c 1 ... (c ∈ K ∗ ) 1 Matrixen van deze vorm noemen we elementaire matrixen Om te verifiëren dat deze matrixen wel degelijk inverteerbaar zijn bewijzen we eerst volgende lemma’s. Lemma 2.2.3 Voor alle k, l met 0 ≤ k, l ≤ m is Ekl = tek .el Bewijs Oefening ! Lemma 2.2.4 Als i 6= j dan is ∀k, l : Eki .Ejl = 0 en ∀k, l : Eki .Eil = Ekl 41 Bewijs We rekenen deze producten uit met behulp van blokvermenigvuldiging. 1) Stel dat i = 6 j. Dan is 0 ··· Eki .Ejl = t ek |{z} i−de plaats 0 . .. ··· 0 . el . .. (j−de plaats) = 0 0 + · · · + tek .0 + · · · t0.el + · · · + 0 = 0 2) Bovendien is Eki .Eil = 0 ··· t ek |{z} i−de plaats 0 . .. ··· 0 . el . .. (i−de plaats) = 0 0 + · · · + tek .el + · · · + 0 = Ekl We kunnen nu voor de elementaire matrixen de inversen bepalen. type 1 2 (Im + a.Eij )(Im − a.Eij ) = Im − a.Im .Eij + a.Eij .Im − a2 .Eij2 vermits 2 Im = Im Im .Eij = Eij .Im = Eij en vermits Eij .Eij = 0 vinden we dat (Im + a.Eij )(Im − a.Eij ) = Im en dus is (Im + a.Eij )−1 = (Im − a.Eij ) 42 type 2 (Im + Eij + Eji − Eii − Ejj ).(Im + Eij + Eji − Eii − Ejj ) = Im + Eij + Eji − Eii − Ejj + Eij + Eij2 + Eij .Eji − Eij .Eii − Eij .Ejj 2 + Eji + Eji .Eij + Eji − Eji .Eii − Eji .Ejj − Eii − Eii .Eij − Eii .Eji + Eii2 + Eii .Ejj 2 − Ejj − Ejj .Eij − Ejj .Eji + Ejj .Eii + Ejj = Im en dus is (Im + Eij + Eji − Eii − Ejj )−1 = (Im + Eij + Eji − Eii − Ejj ) type 3 Op een analoge wijze verifieert men dat (Im + (c − 1)Eii ).(Im + (c−1 − 1)Eii ) = Im en dus is (Im + (c − 1)Eii )−1 = (Im + (c−1 − 1)Eii ) Als A een (m, n)-matrix is en als E een elementaire (m, m)-matrix is dan bekomt men E.A door : type 1 bij de i-de rij van A a keer de j-de rij op te tellen. type 2 de i-de rij en de j-de rij van A te verwisselen. type 3 de i-de rij van A met c te vermenigvuldigen. Men noemt dit elementaire bewerkingen op een matrix. Beschouw nu een stelsel met m vergelijkingen en n onbekenden A.tX = tb. Als E een elementaire (m, m)-matrix is dan heeft het stelsel E.A.tX = E.tb dezelfde oplossingen. De elementaire bewerkingen op A en op tb die overeenkomen met de matrix E zijn dezelfde. Hieruit kunnen we besluiten : Propositie 2.2.5 Beschouw een stelsel met m vergelijkingen en n onbekenden A.tX = tb. De oplossingen van dit stelsel blijven dezelfde als we één van de volgende acties uitvoeren. 43 • bij één van de vergelijkingen een veelvoud van een andere vergelijking optellen • twee vergelijkingen met mekaar verwisselen • de twee leden van eenzelfde vergelijking met een constante vermenigvuldigen. We zullen zien hoe we elke (m, n)-matrix door een opeenvolging van elementaire bewerkingen in de volgende vorm kunnen brengen : 0···0 1 ∗···∗ ∗···∗ ∗···∗ ∗···∗ ∗···∗ ∗···∗ 1 ∗···∗ ∗···∗ ∗···∗ ∗···∗ 1 ∗ · · · ∗ ∗ · · · ∗ ∗ · · · ∗ 1 ... De sterretjes staan hier voor willekeurige elementen en de open plaatsten staan voor 0. Een matrix van deze vorm noemt men een rijechelon matrix. Een rijechelonmatrix voldoet dus aan volgende voorwaarden : 1 alle nulrijen staan onderaan. 2 op elke rij die geen nulrij is, is de eerste coëfficiënt die niet 0 is gelijk aan 1. (men noemt dit element de leidende 1 van deze rij) 3 elke leidende 1 staat rechts van alle leidende 1-en in de hoger gelegen rijen Als bovendien ook nog aan volgende voorwaarde voldaan is dan spreekt men ven een gereduceerde rijechelon matrix 4 elke leidende 1 is het enige element in zijn kolom dat niet 0 is Voorbeelden 1. 1 6 0 1 0 0 1 2 0 0 0 0 is een gereduceerde rijechelon matrix. 44 2. 1 5 3 2 1 0 0 1 8 1 0 0 0 1 2 is een rijechelon matrix maar is niet gereduceerd Om een willekeurige matrix in rijechelonvorm te brengen kunnen we als volgt te werk gaan : Reductiealgortime van Gauss Stap 1 Als alle coëfficiënten van de matrix 0 zijn dan stopt het algoritme. De matrix is dan reeds in de goede vorm. Stap 2 Anders, zoek de eerste kolom van links te beginnen die een coëfficiënt heeft die niet 0 is. Kies één van deze coëfficiënten. (Noem deze coëfficiënt a.) Men noemt de gekozen coëfficiënt dikwijls een pivot element. Zet de rij waarop dit element vookomt op de eerste plaats. Stap 3 Vermenigvuldig de eerste rij met 1/a. We creëren zo een leidende 1. Stap 4 Trek van alle volgende rijen een veelvoud van de eerste rij af zodat de coëfficiënten onder de leidende 1 gelijk aan 0 worden. Hiermee is de eerste rij afgewerkt. Alle verdere bewerkingen gebeuren met de volgende rijen. Stap 5 Herhaal de stappen 1-4 op de matrix die bestaat uit de overblijvende rijen. De procedure stopt als er geen rijen meer over zijn of als alle resterende rijen nulrijen zijn. De matrix die we bekomen hebben is een rijechelonmatrix. We kunnen de matrix nog verder bewerken tot we een gereduceerde rijechelonmatrix bekomen. Dit kan door aan het algoritme nog een stap toe te voegen. Stap 5 Voor elke rij die een leidende 1 bevat trekt men van alle hogergelegen rijen een veelvoud van deze rij af zodat boven de leidende 1 uitsluitend coëfficiënten 0 komen te staan. 45 Deze laatste stap noemt men backtracking. Voor de keuze van een pivot element in stap 2 zijn er in het algemeen meerdere mogelijkheden. Vanuit theoretisch standpunt heeft het geen belang welke coëfficiënt we als pivot kiezen. In de praktijk, als we de oplossing van een stelsel door de computer laten berekenen dan kan door een slechte keuze van de pivot en door de afrondingsfouten die de computer maakt de oplossing volledig verwoest worden. Het is daarom een goede regel om van de verschillende mogelijkheden diegene met de grootste absolute waarde te nemen. We zullen dit later met een voorbeeld illustreren. Voorbeelden 1. We brengen de volgende matrix in rijechelon vorm. 0 0 0 2 1 9 0 −2 −6 2 0 2 0 2 6 −2 2 0 0 3 9 2 2 19 Stap 1 De matrix heeft niet alle coëfficiënten 0. We gaan dus naar stap 2. Stap 2 De tweede kolom is de meest linkse die niet de nulkolom is. Stel a = −2. Verwissel rij 1 en rij 2. We bekomen dan : 0 −2 −6 2 0 2 0 0 0 2 1 9 0 2 6 −2 2 0 0 3 9 2 2 19 Stap 3 Vermenigvuldig de eerste rij met −1/2. We bekomen dan : 0 1 3 −1 0 −1 0 0 0 2 1 9 0 2 6 −2 2 0 0 3 9 2 2 19 Stap 4 Trek van de 3-de rij 2 maal de eerste rij af en trek van de 4-de rij 3 maal de eerste af. We bekomen dan : 0 1 3 −1 0 −1 0 0 0 2 1 9 0 0 0 0 2 2 0 0 0 5 2 22 46 Stap 5 De eerste rij is nu klaar.Vanaf nu negeren we deze rij en we passen de stappen 1-4 toe op de resterende drie rijen. Stappen 1-3 betekenen hier dat we de 2-de rij vemenigvuldigen met 1/2. In stap 4 trekken we van de 4-de rij 5 keer de eerste af. We bekomen dan 0 1 3 −1 0 −1 9 1 0 0 0 1 2 2 0 0 0 0 2 2 0 0 0 0 − 12 − 12 De tweede rij is nu klaar en we kunnen de stappen 1-4 toepassen op de laatste twee rijen. Toepassing van de stappen 1-4 op de laatste twee rijen geeft uiteindelijk 0 1 3 −1 0 −1 9 0 0 0 1 21 2 0 0 0 0 1 1 0 0 0 0 0 0 De reductiemethode van Gauss kan toegepast worden bij het oplossen van stelsels. Beschouw het stelsel A.tX = tb. Door reductie brengen we de uitgebreide ma0 0 trix (A tb) in rijechelonvorm (A0 tb ). Het stelsel A0 .tX = tb heeft dan dezelfde oplossingen als het oorspronkelijk stelsel. Als in een vergelijking van dit laatste stelsel de coëfficiënt van Xi een leidende 1 uit de rijechelonmatrix is dan kan men uit deze vergelijking Xi oplossen als uitdrukking in Xi+1 , . . . , Xn . Als de onbekende Xi in geen enkele vergelijking optreedt met een leidende 1 als coëfficiënt dan mag men de waarde van Xi vrij kiezen. Op deze manier vinden we achtereenvolgens waarden voor Xn , Xn−1 , . . . , x1 . Deze methode noemt men de eliminatiemethode van Gauss. We illustreren dit met enkele voorbeelden. Voorbeeld x1 −3x2 +x3 −x4 = −1 −x1 +3x2 +3x4 +x5 = 3 2x −6x +3x −x = 2 1 2 3 5 −x1 +3x2 +x3 +5x4 +x5 = 6 47 De uitgebreide matrix van het stelsel ziet er dan als volgt uit : 1 −3 1 −1 0 −1 −1 3 0 3 1 3 2 −6 3 0 −1 2 −1 3 1 5 1 6 Na reductie wordt deze matrix in 1 −3 0 0 0 0 0 0 rijechelonvorm gebracht : 1 −1 0 −1 1 2 1 2 0 0 1 −1 0 0 0 0 Deze matrix komt overeen met volgend stelsel = −1 x1 −3x2 +x3 −x4 x3 +2x4 +x5 = 2 x5 = −1 Hieruit halen we : x5 = −1 Als we in de tweede vergelijking x4 vrij kiezen dan vinden we x3 = 3 − 2x4 Als in de eerste vergelijking x2 ook vrij kiezen dan vinden we x1 = −4 + 3x2 + 3x4 De vrije variabelen x2 en x4 worden als parameters beschouwd die we meestal aanduiden met letters s, t, . . .. Als we x2 = s en x4 = t stellen dan vinden we x1 = −4 + 3s + 3t x2 = s x3 = 3 − 2t x4 = t x5 = −1 Voorbeeld In het volgend stelsel zijn a, b en c parameters. We zoeken voor welke waarden van a, b en c het stelsel oplossingen heeft. x +3y +z = a −x −2y +z = b 3x +7y −z = c 48 De uitgebreide matrix van dit stelsel is 1 3 1 a −1 −2 1 b 3 7 −1 c Na reductie geeft dit de volgende 1 3 0 1 0 0 rijechelonmatrix 1 a 2 b+a 0 c − a + 2b Als c 6= a − 2b dan geeft de laatste vergelijking een contradictie. Als c = a − 2b dan geeft de derde vergelijking een triviale gelijkheid. Uit de tweede vergelijking volgt dan dat we z kunnen opvatten als een vrije parameter. Stel z = t. Dan vinden we x = 5t − (2a + 3b) y = (a + b) − 2t z = t De rijechelonvorm die men bekomt met de reductiemethode van Gauss is niet uniek. Men kan bewijzen dat de gereduceerde rijechelonvorm wel uniek is. Het aantal leidende 1-en in de rijechelonvorm is echter steeds hetzelfde. Definitie 2.2.6 Als een matrix A door elementaire operaties op de rijen in rijechelonvorm gebracht wordt dan noemt men het aantal leidende 1-en in deze matrix de rang van A. We noteren dit getal als rg(A). Propositie 2.2.7 Beschouw een stelsel van m lineaire vergelijkingen met n onbekenden. Als de rang van de uitgebreide matrix r is dan treden in de verzameling oplossingen van het stelsel n − r vrije parameters op. Bewijs Als de rang van de uitgebreide matrix r is dan zijn er r leidende 1-en in de rijechelonvorm van deze matrix. Met deze leidende 1-en corresponderen r variabelen. De overige variabelen kunnen vrij gekozen worden en kunnen als parameters beschouwd worden. Het aantal is n − r. 49 2.2.2 Angels en Valkuilen De eliminatiemethode van Gauss geeft de exacte oplossingen van een stelsel op voorwaarde dat we exact met getallen kunnen rekenen. In de praktijk in een computer is dat echter niet het geval. In een computer wordt gerekend met floating point getallen binnen een zeker bereik. Bij de rekenkundige bewerkingen worden de uitkomsten afgerond naar het dichtsbijgelegen getal binnen het bereik van de computer. Door deze afrondingsfouten kunnen de berekende resultaten soms sterk afwijken van de echte uitkomsten. We illustreren dit met een voorbeeld. Het opstellen van rekentechnieken die het verschil tussen berekend en echt resusltaat minimaliseren behoort echter niet tot het onderwerp van deze cursus. Onderstel dat de computer werkt met floating point getallen met basis 10, met 3 beduidende decimalen en met 1 beduidende decimaal voor de exponent. Elk getal heeft dus een voorstellling van de vorm ±.d1 d2 d3 ∗ 10c met 0 ≤ d1 , d2 , d3 ≤ 9 en −9 ≤ c ≤ 9. We lossen nu het volgend stelsel op. .0001x + y = 1 x + y = 2 Merk op dat het getal .0001 = .1 ∗ 10−3 binnen het computerbereik valt. De uitgebreide matrix van dit stelsel is .0001 1 1 1 1 2 Door het algoritme van Gauss toe te passen vinden we de volgende rijechelonmmatrix : 1 10000 10000 9998 0 1 9999 Dit levert de exacte oplossing 10000 9998 = 1.0001 . . . y = = .9998 . . . 9999 9999 In werkelijkheid worden de getallen 9999 en 9998 afgerond tot 10000. De rijechelonvorm wordt dus 1 10000 10000 0 1 1 x= 50 Dit levert een oplossing x=0 y=1 De berekende waarde voor y is nog wel een goede benadering van de exacte waarde maar voor x loopt het helemaal fout. We gaan nu na wat er gebeurt met de vergelijkingen van volgorde verwisselen. verschil.) Het stelsel wordt dus x + .0001x + berekende oplossing als we de twee (Op theoretisch vlak maakt dit geen y = 2 y = 1 De uitgebreide matrix van dit stelsel is 1 1 2 .0001 1 1 Na één cyclus in de Gaussreductie vinden we : 1 1 2 0 .9999 .9998 Na afronding wordt dit 1 1 2 0 1 1 Dit levert een berekende oplossing x=1 y=1 De gevonden oplossing is nu een goede benadering van de echte oplossing. In het vorige voorbeeld kon men door het algoritme van Gauss op een goede manier toe te passen de oplossing van het stelsel goed benaderen. Somige stelsels hebben echter de eigenschap dat een kleine verandering van de coëfficiënten een grote verandering van de oplossing veroorzaakt. Dit betekent dat afrondingen bij de tussentijdse berekeningen de oplossing van het stelsel volledig onbetrouwbaar maken. Een stelsel met deze eigenschappen noemt men slecht geconditioneerd. Er bestaan methodes om de mate van slechte conditionering te meten. Ook dit behoort niet tot het onderwerp van deze cursus. We geven wel een voorbeeld. 51 Beschouw volgend stelsel x + y = 2 x + 1.0001y = 2.0001 De (exacte) oplossing van dit stelsel is x = 1 en y = 1. We veranderen nu één van de coëfficiënten in het vierde cijfer na de komma. x + y = 2 x + 1.0001y = 2.0002 Dit stelsel heeft als oplossing x = 0 en y = 2. Geen enkele numerieke methode kan hier baat brengen. 2.3 Determinanten In deze paragraaf beschouwen we uitsluitend vierkante matrixen. Zij A volgende (n, n)-matrix : a11 · · · a1n .. A = ... . an1 · · · ann De (n − 1, n − 1)-matrix die we bekomen door de i-de rij en de j-de kolom van A te schrappen noteren we als Aij . We definiëren het begrip determinant van een (n, n)-matrix A nu op een inductieve manier. Definitie 2.3.1 n = 1 Als A = (a) dan definiëren we de determinant van A als det(A) = a. • We onderstellen nu dat het begrip determinant van een matrix gedefinieerd is voor (r, r)-matrixen met r = 1, . . . , n − 1. 52 n > 1 Als A een (n, n)-matrix is met coëfficiënten aij dan is de determinant van A gegeven door det(A) = n X (−1)i+1 ai1 .det(Ai1 ) i=1 In het bijzonder geeft dit voor n = 2 : a11 a12 det = (−1)1+1 a11 .det(a22 ) + (−1)1+2 a21 .det(a12 ) a21 a22 en dus det a11 a12 a21 a22 = a11 .a22 − a21 .a12 In het geval n = 3 krijgen we a11 a12 det a21 a22 a31 a32 1+1 (−1) a11 .det a13 a23 = a33 a12 a13 a12 a13 a22 a23 1+3 1+2 +(−1) a31 .det +(−1) a21 .det a22 a23 a32 a33 a32 a33 = a11 (a22 .a33 − a32 .a23 ) − a21 (a12 a33 − a32 a13 ) + a31 (a12 .a23 − a22 .a13 ) Opmerking De formule voor det(A) uit de definitie noemt men de Laplace ontwikkeling van det(A) volgens de eerste kolom. Definitie 2.3.2 Zij A een (n, n)-matrix met coëfficiënten aij . Men noemt det(Aij ) de (i, j)-de minor van A. Men noemt (−1)i+j det(Aij ) de (i, j)-de cofactor van A en −1i+j noemt men het teken van de (i, j)-de plaats. Propositie 2.3.3 Zij A een (n, n)-matrix en zij B de matrix die men bekomt door in A twee opeenvolgende rijen te verwisselen. Dan is det(B) = −det(A). 53 Bewijs (Inductie naar n.) Voor n = 2 is de bewering triviaal te verifiëren. Inductiehypothese Stel dat de bewering klopt voor (r, r)-matrixen met 2 ≤ r < n. Stel dat we B bekomen door in A de k-de en de k + 1-de rij te verwisselen. Stel aij de coëfficiënten van A en bij de coëfficiënten van B. Dan is aij = bij als i 6= k, k + 1, akj = bk+1j en ak+1j = bkj . Bovendien is Bkj = Ak+1j en Bk+1j = Akj . Als i 6= k, k + 1 dan bekomt men Bij door in Aij twee opeenvolgende rijen te verwisselen en dus is wegens de inductiehypothese det(Bij ) = −det(Aij ). We vinden dan : det(B) = n X (−1)1+i bi1 .det(Bi1 ) i=1 " = n X # (−1)1+i bi1 .det(Bi1 ) + i=1,i6=k,k+1 (−1)1+k bk1 .det(Bk1 ) + (−1)1+k+1 bk+1,1 .det(Bk+1,1 ) " # n X =− (−1)1+i ai1 .det(Ai1 ) + i=1,i6=k,k+1 (−1)1+k ak+1,1 .det(Ak+1,1 ) + (−1)1+k+1 ak1 .det(Ak1 ) " # n X =− (−1)1+i ai1 .det(Ai1 ) − i=1,i6=k,k+1 (−1)1+k ak1 .det(Ak1 ) − (−1)1+k+1 ak+11 .det(Ak+1,1 ) " n # X i+1 =− (−1) ai1 .det(Ai1 ) i=1 = −det(A) Gevolg 2.3.4 Als men in een (n, n)-matrix twee verschillende rijen van plaats verwisselt dan verandert de determinant van de matrix van teken. Bewijs Elke verwisseling van twee verschillende rijen kan men bekomen door een opeenvolging van een oneven aantal verwisselingen van opeenvol54 gende rijen toe te passen. Gevolg 2.3.5 Als een (n, n)-matrix A twee gelijke rijen heeft dan is det(A) = 0. Propositie 2.3.6 Zij A = (aij ) een (n, n)-matrix met rijen R1 , . . . , Rn . Stel B de matrix die men bekomt door de k-de rij van A met een constante a ∈ K te vermenigvuldigen. Dan is det(B) = a.det(A) Bewijs (Inductie naar n.) Voor n = 1 is de bewering triviaal. Inductiehypothese Stel dat de bewering waar is voor (r, r)-matrixen met r = 1, . . . , n − 1. Stel bij de coëfficiënten van B. Dan is bij = aij als i 6= k en bkj = a.akj . Wegens de inductiehypothese is det(Bij ) = a.det(Aij ) als i 6= k. Verder is Akj = Bkj . We vinden det(B) = n X (−1)i+1 bi1 .det(Bi1 ) i=1 " = n X # (−1)i+1 bi1 .det(Bi1 ) + (−1)k+1 bk1 .det(Bk1 ) i=1,i6=k " = n X # (−1)i+1 ai1 .a.det(Ai1 ) + (−1)k+1 a.ak1 .det(Ak1 ) i=1,i6=k = a.det(A) 55 Propositie 2.3.7 Zij A = (aij ) een (n, n)-matrix met rijen R1 , . . . , Rn . Stel dat de rij Rk een som is van twee rijen Sk en Tk . Als we noteren R1 R1 .. .. . . B = Sk en C = Tk . . .. .. Rn Rn dan is det(A) = det(B) + det(C) Bewijs (Inductie naar n.) Voor n = 1 is de bewering triviaal. Inductiehypothese Stel dat de bewering waar is voor (r, r)-matrixen met r = 1, . . . , n − 1. Stel nu dat Sk = bk1 · · · bkn en Tk = ck1 · · · ckn . Als i 6= k dan heeft Ai1 een rij van de vorm bk2 · · · bkn + ck2 · · · ckn Wegens de inductiehypothese is dan det(Ai1 ) = det(Bi1 ) + det(Ci1 ) als i 6= k en Bk1 = Ck1 = Ak1 56 Bijgevolg is det(A) = n X (−1)i+1 ai1 .det(Ai1 ) i=1 " n X = # (−1)i+1 ai1 .det(Ai1 ) + (−1)k+1 ak1 .det(Ak1 ) i=1,i6=k " = n X # (−1)i+1 ai1 . (det(Bi1 ) + det(Ci1 )) + (−1)k+1 (bk1 + ck1 ).det(Ak1 ) i=1,i6=k = + n X i=1,i6=k n X (−1)i+1 ai1 .det(Bi1 ) + (−1)k+1 bk1 .det(Bk1 ) (−1)i+1 ai1 .det(Ci1 ) + (−1)k+1 ck1 .det(Ck1 ) i=1,i6=k = det(B) + det(C) Gevolg 2.3.8 Als één van de rijen van een (n, n)-matrix A de nulrij is dan is det(A) = 0. Bewijs Stel R1 , . . . , Rn de rijen van A en stel dat Rk = 0. Dan is Rk = Rk + Rk en dus is det(A) = det(A) + det(A) Hieruit volgt dat det(A) = 0. Gevolg 2.3.9 Als men bij een rij van een (n, n)-matrix A een veelvoud van een andere rij optelt dan verandert det(A) niet. 57 Bewijs Stel R1 , . . . , Rn de rijen van A. Bij de k-de rij tellen we de rij a.Rl op waarbij k 6= l en a ∈ K. Dan is R1 R1 R1 .. .. .. . . . det Rk + a.Rl = det Rk + det a.Rl = .. ... ... . Rn Rn Rn R1 R1 .. .. . . det Rk + a.det .Rl = det(A) . . .. .. Rn Rn R1 .. . want de matrix Rl heeft twee gelijke rijen Rl en dus is zijn determinant . .. Rn gelijk aan 0. In de eigenschappen Gevolg 2.3.4, Gevolg 2.3.9, en Propositie 2.3.6 hebben we het gedrag van de determinant bij elementaire rijbewerkingen beschreven. We kunnen deze eigenschappen ook interpreteren als eigenschappen van elementaire matrixen. Propositie 2.3.10 Als E een elementaire (n, n)-matrix is en als A een (n, n)-matrix is dan is det(E.A) = det(E).det(A). Bewijs We onderscheiden drie gevallen. type 1 Als E van type 1 dan is det(E) = 1. Bovendien bekomt men E.A door bij een rij van A een veelvoud van een andere rij van A op te tellen en dus is wegens 2.3.9 det(E.A) = det(A) = det(E).det(A) 58 type 2 Als E van type 2 is dan is det(E) = −1. Bovendien bekomt men E.A door in A twee verschillende rijen te verwisselen en dus is wegens 2.3.4 det(E.A) = −det(A) = det(E).det(A) type 3 Als E van type 3 is met E = In + (c − 1)Eii en c ∈ K ∗ dan is det(E) = c. Bovendien bekomt men E.A door de i-de rij van A met c te vermenigvuldigen en dus is wegens 2.3.6 det(E.A) = c.det(A) = det(E).det(A) We zagen vroeger dat we een (n, n)-matrix A door een opeenvolging van elementaire bewerkingen in gereduceerde rijechelonvorm kunnen brengen. Er bestaan dus elementaire matrixen E1 , . . . , Es zodat de matrix A0 = E1 . . . Es .A een gereduceerde rijechelonmatrix is. Herhaaldelijk toepassen van de voorgaande propositie geeft dan ∃λ ∈ K ∗ zodat det(A0 ) = λ.det(A) We onderscheiden twee gevallen : rg(A) = n In dit geval is A0 = In want de enige gereduceerde rijechelonmatrix met n leidende 1-en is In . ⇒ 1 = det(In ) = λ.det(A) ⇒ det(A) 6= 0 In dit geval vinden we bovendien dat A inverteerbaar is en A−1 = (E1 . . . Es ) 59 rg(A) < n In dit geval is de laatste rij van A0 zeker de nulrij. ⇒ 0 = det(A0 ) = λ.det(A) ⇒ det(A) = 0 In dit geval is A niet omkeerbaar. Onderstel namelijk dat er een matrix B bestaat zodat A.B = In . Stel E = E1 . . . Es . Dan is E.A.B = E. Vermits de laatste rij van E.A de nulrij is, is de laatste rij van E.A.B ook de nulrij en dus is 0 = det(E.A.B) = det(E1 . . . Es ) = det(E1 ) . . . det(Es ) 6= 0 Dit is een contradictie en dus bestaat de matrix B niet. We kunnen dit resultaat samenvatten in de volgende stelling. Propositie 2.3.11 Als A een (n, n)-matrix is dan is det(A) = 0 ⇐⇒ rg(A) < n ⇐⇒ A 6∈ GLn K det(A) 6= 0 ⇐⇒ rg(A) = n ⇐⇒ A ∈ GLn K Propositie 2.3.12 Zij A en B (n, n)-matrixen. Dan is det(A.B) = det(A).det(B) Bewijs We onderscheiden twee gevallen. rg(A) < n In dit geval is det(A) = 0 en dus is A 6∈ GLn K. Bovendien is ook A.B 6∈ GLn K. Onderstel namelijk dat A.B wel inverteerbaar zou zijn. ⇒ ∃C zodat (A.B).C = In Maar dan is A.(B.C) = In en dus is A ook omkeerbaar. Contradictie ! We vinden dus dat det(A.B) = 0 ⇒ det(A.B) = det(A).det(B) = 0 60 rg(A) = n In dit geval is det(A) 6= 0 en A is inverteerbaar. Zoals hiervoor vinden we elementaire matrixen E1 , . . . , Es zodat E1 . . . Es .A = In en dus A = Es−1 . . . E1−1 ⇒ A.B = Es−1 . . . E1−1 .B Vermits de inverse van een elementaire matrix weer een elementaire matrix is vinden we det(A.B) = det(Es−1 . . . E1−1 .B) = det(Es−1 ) . . . det(E1−1 ).det(B) = det(A).det(B) Propositie 2.3.13 Als A een (n, n)-matrix is dan is det(tA) = det(A). Bewijs We onderscheiden weer twee gevallen. rg(A) < n Onderstel dat rg(tA) = n. Dan is tA inverteerbaar en dus bestaat er een matrix B zodat tA.B = In . ⇒ tB.A = tI n = In en dus is ook A inverteerbaar.Dit is een contradictie en dus is rg(tA) < n. We vinden det(A) = det(tA) = 0 rg(A) = n Zoals in het vorige bewijs vinden we dat A de inverse is van een product van elementaire matrixen. Als A = (E1 . . . Es )−1 dan is tA = −1 −1 −1 t −1 E 1 . . . tE s en dus is det(tA) = det(tE 1 ) . . . det(tE s ). Het is eenvoudig te verifëren dat voor een elementaire matrix E geldt dat det(E) = ±1 det(tE ). Hieruit volgt dat det(A) = det(tA). Gevolg 2.3.14 Zij A een (n, n)-matrix. 61 1. Als we in A twee kolommen verwisselen dan verandert de determinant van teken. 2. Als we bij een kolom van A een veelvoud van een andere kolom optellen dan verandert de deteminant niet. 3. Als A een nulkolom heeft dan is det(A) = 0. 4. Als we een kolom van A met een constante vermenigvuldigen dan wordt de determinant ook met deze constante vermenigvuldigd. Propositie 2.3.15 (Laplaceontwikkeling volgens de j-de kolom) Zij A = (aij ) een (n, n)-matrix en zij i een willekeurige kolomindex. Dan is det(A) = n X (−1)i+j aji .det(Aji ) j=1 Bewijs Stel C1 , . . . , Cn de kolommen van A. Dan is A = C1 · · · Ci · · · Cn Stel B= Ci C1 · · · Ci−1 Ci+1 · · · Cn Dan kunnen we B bekomen door i − 1 opeenvolgende kolomverwisselingen toe te passen op A. Bijgevolg is det(B) = (−1)i−1 .det(A). We vinden i−1 det(A) = (−1) n X (−1)1+j aji det(Bj1 ) j=1 Vermits Bj1 = Aji vinden we det(A) = n X (−1)i+j aji det(Aji ) j=1 62 Propositie 2.3.16 (Laplaceontwikkeling volgens de j-de rij) Zij A = (aij ) een (n, n)-matrix en zij i een willekeurige rijindex. Dan is det(A) = n X (−1)i+j aij .det(Aij ) j=1 Bewijs De formule geeft de Laplaceontwikkeling volgens de i-de kolom van de matrix tA. De bewering volgt dan uit het feit dat det(A) = det(tA). We weten al waneer een (n, n)-matrix een inverse heeft. We kunnen deze inverse nu ook expliciet berekenen. Propositie 2.3.17 Zij A een omkeerbare (n, n)-matrix. Dan is de inverse matrix A−1 de matrix met op de (i, j)-de plaats het element (−1)i+j det(Aji )/det(A) Bewijs Stel bij = (−1)i+j det(Aji )/det(A) en stel B de matrix met coëfficiënten bij . Dan is de (k, l)-de coëfficiënt van A.B gelijk aan n X aki .bil i=1 Als k = l dan geeft dit n X aki .(−1)i+k det(Aki )/det(A) = det(A)/det(A) = 1 i=1 Als k 6= l dan vinden we n X (−1)l+i aki det(Ali )/det(A) i=1 De som n X (−1)l+i aki det(Ali ) i=1 63 is echter de determinant van de matrix die we bekomen door in A de l-de rij door de k-de te vervangen. Vermits deze matrix twee gelijke rijen heeft is zijn determinant gelijk aan 0. We vinden dus n X aki .bil = 0 i=1 en dus is de (k, l)-de coëfficiënt van A.B gelijk aan 0. Opmerking De matrix met op de (i, j)-de plaats het element (−1)i+j det(Aji ) noemt men de geadjungeerde matrix van A. Men noteert deze matrix adj(A). We kunnen de voorgaande stelling dan als volgt herformuleren : A.adj(A) = det(A)In Uit de voorgaande stelling volgt een zeer gekende manier om stelsels op te lossen. Propositie 2.3.18 (Regel van Cramer) Zij A = (aij ) een (n, n)-matrix met rg(A) = n. Zij C1 , . . . , Cn de kolommen van A en zij b = (b1 , . . . , bn ) ∈ K n . Dan worden de oplossingen (x1 , . . . , xn ) van het stelsel A.tX = tb gegeven door xi = det C1 · · · Ci−1 tb Ci+1 · · · Cn /det(A) Bewijs We vinden als oplossing van het stelsel x = A−1 .tb t Hieruit vinden we xi = n X ! (−1)i+j det(Aji ).bj /det(A) j=1 De teller in deze breuk is juist de ontwikkeling volgens de i-de kolom van det C1 · · · Ci−1 tb Ci+1 · · · Cn 64 Hoofdstuk 3 Vectorruimten 65 In dit hoofdstuk is K steeds R of C. 3.1 3.1.1 Vectorruimten en basissen Definities en voorbeelden Definitie 3.1.1 Een vectorruimte (over K) bestaat uit een niet lege verzameling V waarop een bijkomende structuur gedefinieerd is. De elementen van V noemen we vectoren. De structuur op V ziet er uit als volgt. Vectoren kunnen we onderling optellen en we kunnen ze vermenigvuldigen met elementen uit K zodanig dat 1. voor alle x, y ∈ V : x + y ∈ V 2. voor alle λ ∈ K en voor alle x ∈ V : λ.x ∈ V Bovendien moet aan volgende voorwaarden voldaan zijn. 1. voor alle x, y, z ∈ V : x + (y + z) = (x + y) + z 2. voor alle x, y ∈ V : x + y = y + x 3. er bestaat een unieke vector in V , meestal 0 genoteerd, zodat voor alle x ∈ V : 0 + x = x. Men noemt deze vector de nulvector. 4. voor elke vector x ∈ V bestaat er een unieke vector in V , meestal −x genoteerd zodat x + (−x) = 0 5. voor alle λ, µ ∈ K en voor alle x ∈ V : (λ.µ).x = λ.(µ.x) 6. voor alle λ ∈ K en voor alle x, y ∈ V : λ.(x + y) = λ.x + λ.y 7. voor alle λ, µ ∈ K en voor alle x ∈ V : (λ + µ).x = λ.x + µ.x 8. voor alle x ∈ V : 1.x = x 66 Opmerkingen 1. Het symbool 0 wordt in twee verschillende betekenissen gebruikt : (a) als neutraal element voor de optelling in het lichaam K (b) als nulvector in V . Uit de context blijkt steeds welk element we bedoelen. 2. Als a en b vectoren zijn in V dan noteren we a−b in plaats van a+(−b). 3. Men noemt de vermenigvuldiging van vectoren met elementen uit K een scalaire vermenigvuldiging. We bewijzen eerst enkele elementaire eigenschappen van vectorruimten. In de definitie werd geëist dat er in een vectorruimte V een unieke nulvector bestaat. De uniciteit is eigenlijk een overbodige eis want er kunnen nooit twee verschillende nulvectoren bestaan. Er werdt ook geëist dat er voor elke vector v ∈ V een unieke vector −v bestaat. Ook hier is de uniciteit een overbodige eis. Deze beweringen volgen namelijk uit de volgende eigenschap. Propositie 3.1.2 Zij V een vectorruimte. 1. Als 0 en 00 beide voldoen aan de eis ∀v ∈ V : v + 0 = v + 00 = v dan is 0 = 00 . 2. Als v ∈ V en als w en w0 twee vectoren zijn met de eigenschap v + w = v + w0 = 0 dan is w = w0 . Bewijs 1) Vermits v + 0 = v voor elke vector v is in het bijzonder 00 + 0 = 00 . Vermits ook v + 00 = v voor elke vector v is in het bijzonder 0 + 00 = 0. Hieruit volgt 00 = 00 + 0 = 0 + 00 = 0 67 2) Uit de gegevens volgt w = w + 0 = w + (v + w0 ) = (w + v) + w0 = 0 + w0 = w0 Propositie 3.1.3 Zij V een vectorruimte. Dan geldt : 1. ∀x ∈ V : −(−x) = x 2. ∀x, y ∈ V : −(x + y) = −x − y 3. ∀λ ∈ K, x ∈ V : −(λ.x) = (−λ).x = λ.(−x) 4. ∀x ∈ V : 0.x = 0 5. ∀λ ∈ K : λ.0 = 0 Bewijs Oefening! Definitie 3.1.4 Zij V een vectorruimte. Een deelverzameling W ⊂ V is een deelruimte van V als : 1. ∀x, y ∈ W : x + y ∈ W 2. ∀λ ∈ K, x ∈ W : λ.x ∈ W 3. 0 ∈ W Opmerkingen 1. Een deelruimte is nooit leeg want ze bevat steeds de nulvector. 2. We kunnen de drie eigenschappen uit de voorgaande defintie samenvatten in twee eenvoudige voorwaarden: W 6= ∅ ∀λ, µ ∈ K, x, y ∈ W : λ.x + µ.y ∈ W Voorbeelden 68 1. V = K n met n ∈ N Optelling en scalaire vermeniguldiging op V zijn gedefinieerd door (a1 , . . . , an ) + (b1 , . . . , bn ) = (a1 + b1 , . . . , an + bn ) λ.(a1 , . . . , an ) = (λ.a1 , . . . , λ.an ) Het is duidelijk dat ∀(a1 , . . . , an ) ∈ K n : (a1 , . . . , an ) + (0, . . . , 0) = (a1 , . . . , an ) De nulvector in K n is dus de vector (0, . . . , 0). Bovendien is ∀(a1 , . . . , an ) ∈ K n : (a1 , . . . , an ) + (−a1 , . . . , −an ) = (0, . . . , 0) Bijgevolg is −(a1 , . . . , an ) = (−a1 , . . . , −an ). 2. V = Kn [X] is de verzameling der veeltermen in de variabele X met coëfficiënten in K en met graad hoogstens n. V = a0 + a1 X + · · · + an X n a1 , . . . , an ∈ K Optelling en scalaire vermenigvuldiging zijn gedefinieerd door : (a0 + a1 X + · · · + an X n ) + (b0 + b1 X + · · · + bn X n ) = (a0 + b0 ) + (a1 + b1 )X + · · · + (an + bn )X n λ.(a0 + a1 X + · · · + an X n ) = (λ.a0 ) + (λ.a1 )X + · · · + (λ.an )X n De nulvector in Kn [X] is de veelterm 0 + 0.X + 0.X 2 + · · · + 0.X n en −(a0 + a1 X + · · · + an X n ) = −a0 − a1 X − · · · − an X n 3. V = K[X] is de verzameling der veeltermen n de variabele X met coëfficiënten in K en met willekeurige graad. V = a0 + a1 X + · · · + an X n a1 , . . . , an ∈ K, n ∈ N Net zoals in het vorige voorbeeld zijn de bewerkingen de gewone veeltermbewerkingen. 69 4. Neem K = R en zij a, b ∈ R zodat a < b. Neem V = f : [a, b] → R f is een continue functie Optelling en scalaire vermenigvuldiging op V zijn gedefinieerd door : ∀f, g ∈ V, x ∈ [a, b] : (f + g)(x) = f (x) + g(x) ∀λ ∈ R, f ∈ V, x ∈ R : (λ.f )(x) = λ.f (x) Stel f0 : [a, b] → R de constante nulfunctie, i.e. ∀x ∈ [a, b] : f0 (x) = 0 Deze functie is duidelijk continu en ∀f ∈ V : f + f0 = f De functie f0 is dus nulvector in V . Als f ∈ V dan is −f gelijk aan de functie die x ∈ [a, b] afbeeldt op −f (x) want de som van deze twee functies is duidelijk de nulfunctie f0 . Zij nu K =R. We bekijken een aantal voorbeelden van deelruimten van R3 . Stel W1 = (a1 , a2 .0) a1 , a2 ∈ R . Dan is W1 een deelruimte van R3 want (1) ∀(a1 , a2 , 0), (b1 , b2 , 0) ∈ W1 : (a1 , a2 , 0) + (b1 , b2 , 0) = (a1 + b1 , a2 + b2 , 0) ∈ W1 (2) ∀λ ∈ K, (a1 , a2 , 0) ∈ W1 : λ.(a1 , a2 , 0) = (λ.a1 , λ.a2 , 0) ∈ W1 (3) (0, 0, 0) ∈ W1 Het is nu eenvoudig te verifëren dat W1 zelf ook voldoet aan de voorwaarden van Definitie 3.1.1. Dit betekent dat W1 zelf ook een vectorruimte is. Stel W2 = (a1 , 0, 0) a1 ∈ R . Verifieer zelf dat W2 een deelruimte is van W1 . Stel W3 = (a1 , a2 , a3 ) ∈ R3 a1 + 3a2 − 2a3 = 0 . Dan is W3 ook een deelruimte van R3 want: 1. als (a1 , a2 , a3 ), (b1 , b2 , b3 ) ∈ W3 dan is (a1 + b1 ) + 3(a2 + b2 ) − 2(a3 + b3 ) = (a1 + 3a2 − 2a3 ) + (b1 + 3b2 − 2b3 ) = 0 en dus is (a1 , a2 , a3 ) + (b1 , b2 , b3 ) ∈ W3 70 2. als λ ∈ R en (a1 , a2 , a3 ) ∈ W3 dan is (λ.a1 ) + 3(λ.a2 ) − 2(λ.a3 ) = λ.(a1 + 3a2 − 2a3 ) = 0 en dus is λ.(a1 , a2 , a3 ) ∈ W3 3. (0, 0, 0) ∈ W3 want 0 + 3.0 − 2.0 = 0 Propositie 3.1.5 Zij V, W deelruimten van eenzelfde vectorruimte U . 1. Dan is V ∩ W ook een deelruimte van U . 2. Stel V + W = v + w v ∈ V, w∈W Dan is V + W ook een deelruimte van U . Bewijs 1) Vermits 0 ∈ V en 0 ∈ W is V ∩ W 6= ∅. Bovendien geldt voor alle λ, µ ∈ K en voor alle x, y ∈ V ∩ W dat λ.x + µ.y ∈ V (want V is deelruimte van U ) λ.x + µ.y ∈ W (want W is deelruimte van U ) Bijgevolg is λ.x + µ.y ∈ V ∩ W en dus is V ∩ W een deelruimte van U . 2) Vermits 0 = 0 + 0 ∈ V + W is V + W = 6 ∅. Zij nu λ, µ ∈ K en zij x, y ∈ V + W . Dan is x = v + w en y = v 0 + w0 voor zekere v, v 0 ∈ V en w, w0 ∈ W . ⇒ λ.x + µ.y = λ.(v + w) + µ.(v 0 + w0 ) = (λ.v + µ.v 0 ) + (λ.w + µ.w0 ) Vermits λ.v + µ.v 0 ∈ V en vermits λ.w + µ.w0 ∈ W is λ.x + µ.y een vector in V + W een dus is V + W een deelruimte van U . 71 Definitie 3.1.6 Zij V en W deelruimten van eenzelfde vectoruimte U dan noemt men de deelruimte V + W de somruimte van V en W . Opmerking Men kan de voorgaande definitie op een eenvoudige manier veralgemenen. Als V1 , . . . , Vn deelruimten zijn van U dan definieert men V1 + · · · + Vn = v1 + · · · + vn v1 ∈ V1 , . . . , vn ∈ Vn Verifieer zelf dat V1 + · · · + Vn een deelruimte is van U . Definitie 3.1.7 Zij V1 , . . . , Vn vectorruimten. Definieer op de productverzameling V1 × . . . × Vn bewerkingen op de volgende manier : • (v1 , . . . , vn ) + (w1 , . . . , wn ) = (v1 + w1 , . . . , vn + wn ) • λ.(v1 , . . . , vn ) = (λ.v1 , . . . , λ.vn ) (λ ∈ K) Dan is V1 × . . . × Vn voor deze bewerkingen een vectorruimte. (Verifieer !) Men noemt deze vectorruimte de productruimte van V1 , . . . , Vn . Opmerking Als V1 , . . . , Vn vectorruimten zijn dan bestaat de productruimte altijd. De somruimte bestaat alleen als de de vectorruimten deelruimten zijn van eenzelfde grotere vectorruimte U . 3.1.2 Voortbrengers en lineaire combinaties Definitie 3.1.8 Zij V een vectorruimte en zij P ⊂ V een deelverzameling. Een lineaire combinatie van P is een uitdrukking van de vorm : λ1 .x1 + λ2 .x2 + · · · + λn .xn met n ∈ N, λ1 , . . . , λn ∈ K en x1 , . . . , xn ∈ P . De elementen λ1 , . . . , λn ∈ K noemt men de coëfficiënten van de lineaire combinatie. Als de uitkomst van de lineaire combinatie gelijk is aan 0 dan spreekt men van een nulcombinatie De nulcombinatie 0.x1 + · · · + 0.xn noemt men de triviale nulcombinatie. 72 Voorbeelden 1. Neem K = R en V = R3 . 2(3, 5, 1) + 5(2, 1, 4) − (3, 2, 1) is een lineaire combinatie van de verzameling {(3, 5, 1), (2, 1, 4), (3, 2, 1)} We kunnen de uitdrukking ook opvatten als een lineaire combinatie van {(0, 6, 2)(3, 5, 1), (2, 1, 4), (3, 2, 1)} of evengoed als lineaire combinatie van de oneindige verzameling (x1 , x2 , x3 ) x3 ≤ 5 Vermits 2(3, 5, 1) + 5(2, 1, 4) − (3, 2, 1) = (13, 13, 21) is de uitdrukking geen nulcombinatie. 2. In R3 zijn 2(5, 1, 2) − (2, 1, 3) + 3(1, 1, 1) en (11, 0, 0) + 2(0, 2, 0) + (0, 0, 4) verschillende lineaire combinaties. De uitkomsten van deze lineaire combinaties zijn echter gelijk want : 2(5, 1, 2)−(2, 1, 3)+3(1, 1, 1) = (11, 0, 0)+2(0, 2, 0)+(0, 0, 4) = (11, 4, 4) 73 Opmerkingen 1. Uit de voorbeelden blijkt dat de verzameling P in Definitie 3.1.8 best oneindig mag zijn. In een lineaire combinatie van P treden echter slechts eindig veel vectoren uit P op. 2. Uit de voorbeelden blijkt nog dat we een onderscheid maken tussen de uitdrukking die de lineaire combinatie voorstelt en de uitkomst van de combinatie. 3. In een lineaire combinatie worden termen van de vorm 0.x meestal niet opgeschreven. Dit verandert uiteraard niets aan de uitkomst van de lineaire combinatie. 4. Als P = {a1 , . . . , an } een eindige verzameling is dan is elke lineaire combinatie van P van de vorm λ1 .a1 + · · · + λn .an met λ1 , . . . , λn ∈ K. Hierbij kunnen sommige of alle λi ’s nul zijn. 74 Definitie 3.1.9 Zij V een vectorruimte en zij P ⊂ V een deelverzameling. Als P = ∅ dan definiëren we vct(P ) = {0}. Als P 6= ∅ dan definiëren de deelverzameling vct(P ) ⊂ V door vct(P ) = x ∈ V x is lineaire combinatie van P 75 Propositie 3.1.10 Zij P een deelverzameling van een vectorruimte V . Dan is vct(P ) een deelruimte van V . Bovendien is vct(P ) de kleinste deelruimte van V die alle vectoren uit P bevat. Bewijs We geven het bewijs alleen voor het geval dat P een eindige verzameling is. Als P = ∅ dan is de bewering triviaal. We mogen dus P 6= ∅ onderstellen. Stel P = {a1 , . . . , an }. Als x, y ∈ vct(P ) en als λ, µ ∈ K dan is x = λ 1 a1 + · · · λ n an y = µ 1 a1 + · · · µ n an voor zekere λ1 , . . . , λn , µ1 , . . . , µn ∈ K. ⇒ λ.x + µ.y = (λ.λ1 + µµ1 ).a1 + · · · (λ.λn + µµn ).an Bijgevolg is λ.x+µ.y een lineaire combinatie van P en is dus ook een element van vct(P ). Hieruit volgt dat vct(P ) een deelruimte is van V . Elke vector ai ∈ P is een lineaire combinatie van P want a1 = 1a1 + 0a2 + · · · + 0an a2 = 0a1 + 1a2 + · · · + 0an .. . Bijgevolg is P ⊂ vct(P ). Zij nu W ⊂ V nog een deelruimte zodat P ⊂ W . Dan is elke lineaire combinatie van P ook een element van W en dus vct(P ) ⊂ W . Hieruit volgt dat vct(P ) de kleinste deelruimte is die alle elementen van P bevat. 76 Definitie 3.1.11 Men noemt vct(P ) de deelruimte voortgebracht door P . Als W een deelruimte is van V en als er een eindige verzameling P bestaat zodat W = vct(P ) dan zegt men dat W eindig voortgebracht is. Propositie 3.1.12 Zij V een vectorruimte en zij P ⊂ Q deelverzamelingen van V . Dan is vct(P ) ⊂ vct(Q). Bewijs Q. Elke lineaire combinatie van P is ook een lineaire combinatie van Voorbeelden 1. Neem K = R, V = R3 en P = {(2, 0, 1), (0, 1, 0), (1, 0, 2)} Dan is vct(P ) = λ(2, 0, 1) + µ(0, 1, 0) + ν(1, 0, 2) λ, µ, ν ∈ R Als (x, y, z) ∈ V een willekeurige vector is dan is (x, y, z) = 2x − z 2z − x (2, 0, 1) + y(0, 1, 0) + (1, 0, 2) 3 3 end dus is (x, y, z) een element van vct(P ). We vinden dat vct(P ) de volledige vectorruimte R3 is. 2. Neem K = R, V = R3 en P = {(1, 0, 0), (0, 1, 0), } Dan is vct(P ) = λ(1, 0, 0)+ µ(0, 1, 0) λ, µ ∈ R = (λ, µ, 0) λ, µ ∈ R = (λ, µ, ν) ∈ V ν = 0 3. Neem K = R en V = f f : R → R is een continue functie Dan is V niet eindig voortgebracht. 77 3.1.3 Lineaire afhankelijkheid en onafhankelijkheid Definitie 3.1.13 Zij P een deelverzameling van een vectorruimte V . Men zegt dat P lineair onafhankelijk is als de enige nulcombinatie van P de triviale nulcombinatie is. Men zegt dat P lineair afhankelijk is als P niet onafhankelijk is. We zullen dikwijls moeten aantonen dat een bepaalde verzameling P lineair afhankelijk of onafhankelijk is. Dit gebeurt steeds met hetzelfde systeem. • Als we van een gegeven verzameling P = {a1 , . . . , an } moeten aantonen dat ze lineair onafhankelijk is dan doen we dit als volgt. We onderstellen dat de lineaire combinatie λ 1 a1 + · · · λ n an een nulcombinatie is. We tonen dan aan dat de coëfficiënten λ1 , . . . , λn noodzakelijk 0 moeten zijn. • Als we moeten aantonen dat P lineair afhankelijk is dan moeten we een concrete lineaire combinatie λ 1 a1 + · · · λ n an vinden die uitkomst 0 geeft en waarbij minstens één van de coëfficiënten λ1 , . . . , λn verschillend is van 0. Voorbeelden 1. In R3 zijn de vectoren (2, 1, 1), (1, 0, 2) en (0, 1, −3) lineair afhankelijk want 1(2, 1, 1) − 2(1, 0, 2) + 1(0, 1, −3) = (0, 0, 0) 2. In R3 zijn de vectoren (1, 0, 0), (0, 1, 0) en (0, 0, 1) lineair onafhankelijk want als λ1 (1, 0, 0) + λ2 (0, 1, 0) + λ3 (0, 0, 1) = (0, 0, 0) dan moet λ1 = λ2 = λ3 = 0. 78 Propositie 3.1.14 Zij V een vectorruimte. 1. Als x ∈ V dan is {x} lineair afhankelijk als en slechts als x = 0. Dit betekent : λ.x = 0 ⇐⇒ λ = 0 of x = 0 2. Twee vectoren x, y 6= 0 in V zijn lineair afhankelijk als en slechts als er een element λ ∈ K ∗ bestaat zodat x = λ.y. Bewijs 1) {0} is lineair afhankelijk want 1.0 is een niet triviale nulcombinatie. Zij x ∈ V met λ.x = 0. Als λ 6= 0 dan bestaat λ−1 en x = 1.x = (λ−1 .λ).x = λ−1 .(λ.x) = λ−1 .0 = 0 Dus λ = 0 of x = 0. 2) Als x = λ.y met λ 6= 0 dan is 1.x−λ.y = 0 een niet triviale nulcombinatie. De vectoren x en y zijn dus lineair afhankelijk. Omgekeerd, onderstel dat x en y lineair afhankelijk zijn. Dan bestaan er α, β ∈ K zodat α.x + β.y = 0 en α 6= 0 of β 6= 0 We tonen eerst aan dat zowel α als β verschillend van 0 zijn. Als α = 0 dan is β.y = 0. Vermits y 6= 0 is y lineair onafhankelijk wegens het eerste gedeelte van de stelling. Bijgevolg is ook β = 0. Dit is kan dus niet. We vinden α 6= 0. Op een analoge manier vinden we β 6= 0. ⇒ x = −(α−1 β).y Vermits α en β niet 0 zijn is ook −α−1 .β 6= 0. Voor het element λ dat we zoeken kunnen we dus −α−1 β nemen. Propositie 3.1.15 Zij P ⊂ Q deelverzamelingen van de vectorruimte V . 1. Als Q lineair onafhankelijk is dan is P ook lineair onafhankelijk. 2. Als P lineair afhankelijk is dan is Q ook lineair afhankelijk. 79 Bewijs 1) Elke niet triviale nulcombinatie van P kan ook opgevat worden als een niet triviale nulcombinatie van Q. 2) Dit is een herformulering van de voorgaande uitspraak. Voorbeeld In R3 zijn de vectoren (1, 1, 1), (1, 1, 0) en (0, 1, 1) lineair onafhankelijk. (Verifieer dit!) Als (1, 1, 1) en (0, 1, 1) lineair afhankelijk zouden zijn dan bestaat er λ ∈ R∗ zodat (1, 1, 1) = λ.(0, 1, 1) Maar dan is (1, 1, 1) + 0.(1, 1, 0) − λ.(0, 1, 1) = 0 een niet triviale nulcombimnatie van drie onafhankelijke vectoren. Dit kan niet. Propositie 3.1.16 Zij V een vectorruimte en zij P een deelverzameling. Dan zijn de volgende uitspraken equivalent. 1. P is lineair onafhankelijk. 2. elk element in vct(P ) is op een unieke manier te schrijven als lineaire combinatie van P . Bewijs We geven het bewijs enkel in het geval dat P eindig is. Stel dan P = {a1 , . . . , an } (1 ⇒ 2) Elk element in vct(P ) is per definitie te schrijven als een lineaire combinatie van P . We moeten dus enkel de uniciteit verifiëren. Stel dat de vector x ∈ vct(P ) toch op twee manieren te schrijven is als lineaire combinatie van P . Dan is x = λ1 .a1 + · · · + λn .an en x = µ1 .a1 + · · · + µn .an 80 waarbij λi 6= µi voor minstens één index i. ⇒ 0 = (λ1 − µ1 ).a1 + · · · + (λn − µn ).an Hierbij is λi − µi 6= 0 voor minstens één index i. We hebben dus een niet triviale nulcombinatie van P en dit kan niet. (2 ⇒ 1) We weten nu dat elk element in vct(P ) een unieke lineaire combinatie is van P . Onderstel dat P toch lineair afhankelijk zou zijn. Dan bestaat er een nulcominatie λ1 .a1 + · · · + λn .an met minstens één λi 6= 0. Maar de triviale nulcombinatie geeft dan een tweede manier om de nulvector te schrijven als combinaite van P . Dit is strijdig met de uniciteit. 3.1.4 Basissen en dimensie Definitie 3.1.17 Een deelverzameling B van een vectorruimte V heet een basis als B zowel lineair onafhankelijk als voortbrengend is voor V . Uit propositie 3.1.16 volgt dat elke vector v ∈ V op een unieke manier te schrijven is als een lineaire combinatie van de basis B. Voorbeelden 1. Neem V = K n en stel e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1) Dan is e1 , . . . , en een basis voor V . Men noemt deze basis de kanonieke basis. Als (x1 , . . . , xn ) ∈ K n dan is (x1 , . . . , xn ) = x1 .e1 + · · · xn .en Bijgevolg zijn de vectoren e1 , . . . , en voortbrengend. 81 Bovendien zijn de vectoren e1 , . . . , en lineair onafhankelijk want als λ1 .e1 + · · · + λn .en = 0 dan is (λ1 , . . . , λn ) = (0, . . . , 0) en dus is λ1 = · · · = λn = 0. 2. De vectoren (1, 2) en (2, 1) vormen een basis voor R2 . Als (x, y) ∈ R2 dan is (x, y) = ( 2x − y 2y − x ).(1, 2) + ( ).(2, 1) 3 3 Bijgevolg zijn de vectoren voortbrengend voor R2 . Als λ.(1, 2) + µ.(2, 1) = 0 dan is λ + 2µ = 0 2λ + µ = 0 Bijgevolg is λ = µ = 0. Hieruit volgt dat de vectoren ook lineair onafhankelijk zijn. We zullen nu aantonen dat eindig voortgebrachte vectorruimten altijd een basis hebben. We zullen zien hoe we basissen kunnen vinden. Lemma 3.1.18 Zij v1 , . . . , vn een geordend stel lineair afhankelijke vectoren in een vectorruimte V (met vi 6= 0). Dan bestaat er een eerste vector vi in de rij die lineaire combinatie is van de voorgaande vectoren v1 , . . . , vi−1 . Bewijs Vermits v1 6= 0 is {v1 } lineair onafhankelijk. We kijken dan naar {v1 , v2 }. Als deze verzameling ook lineair onafhankelijk is dan kijken we naar {v1 , v2 , v3 } enz. . . Vermits de vectoren v1 , . . . , vn lineair afhankelijk zijn moeten we op een bepaald moment een index i vinden zodat {v1 , . . . , vi−1 } lineair onafhankelijk is en zodat {v1 , . . . , vi } lineair afhankelijk is. Er bestaan dus coëfficiënten λ1 , . . . , λi ∈ K zodat λ1 .v1 + · · · + λi .vi = 0 82 en zodat niet alle λk = 0. Als de laatste coëfficiënt λi = 0 dan staat er eigenlijk een niet triviale nulcombinatie van v1 , . . . , vi−1 . Dit kan niet en dus is λi 6= 0. We vinden −1 vi = −(λ−1 i .λ1 ).v1 − · · · − (λi .λi−1 ).vi−1 Bijgevolg is vi een lineaire combinatie van v1 , . . . , vi−1 . Dat i de eerste index is met deze eigenschap volgt uit het feit dat {v1 , . . . , vi−1 } lineair onafhankelijk is. Propositie 3.1.19 Als v1 , . . . , vn voortbrengende vectoren zijn voor een vectorruimte V en als de vector vi lineaire combinatie is van de overige vectoren dan is de verzameling {v1 , . . . , 6 vi , . . . , vn } ook voortbrengend voor V . Bewijs Stel vi = λ1 .v1 + · · · + λi−1 .vi−1 + λi+1 .vi+1 + · · · + λn .vn Als v een vector is in V dan is v een lineaire combinatie van v1 , . . . , vn . Stel v = µ1 .v1 + · · · + µn .vn Dan is v = µ1 .v1 + · · · + µi .(λ1 .v1 + · · · + λi−1 .vi−1 + λi+1 .vi+1 + · · · + λn .vn ) + · · · + µn .vn en dus is v = (µ1 + µi .λ1 ).v1 + · · · + (µi−1 + µi .λi−1 ).vi−1 + (µi+1 + µi .λi+1 ).vi+1 + · · · + (µn + µi .λn ).vn Bijgevolg is v een lineaire combinatie van {v1 , . . . , 6 vi , . . . , vn } Propositie 3.1.20 (Schrapstelling) Als P een eindige voortbrengende verzameling is voor een vectorruimte V dan kan men deze verzameling verkleinen tot een basis. 83 Bewijs Stel P = {v1 , . . . , vn }. We mogen onderstellen dat de vectoren vk niet 0 zijn en dus zijn de verzamelingen {vk } lineair onafhankelijk. Als P lineair onafhankelijk is dan is P een basis voor V . Als P lineair afhankelijk is dan bestaat er een eerste index i zodat vi een lineaire combinatie is van de voorgaande vectoren. Uit de voorgaande stelling volgt dat de verzameling P \ {vi } ook voortbrengend is voor V . We kunnen nu deze redenering herhalen op de verzameling P \ {vi } enz... Na een aantal schrappingen moeten we een lineair onafhankelijke verzameling overhouden want de verzamelingen {vk } zijn lineair onafhankelijk. De lineair onafhankelijke verzameling die we nu bekomen hebben is nog steeds voortbrengend en is dus een basis. Gevolg 3.1.21 Een eindig voortgebrachte vectorruimte heeft steeds een basis. Een tweede manier om een basis te construeren is gebaseerd op de volgende fundamentele stelling. Propositie 3.1.22 Zij V een vectorruimte en zij P ⊂ V een eindige voortbrengende verzameling. Als |P | = n dan heeft elk lineair onafhankelijk deel van V hoogstens n elementen. Bewijs Stel P = {e1 , . . . , en }. (We mogen onderstellen dat ek 6= 0.) Zij B ⊂ V lineair onafhankelijk en onderstel dat |B| > n. Stel B = {y1 , . . . , yn+1 , . . .} Dan is P ⊂ {y1 , e1 , . . . , en } en dus is V = vct(P ) ⊂ vct {y1 , e1 , . . . , en } ⊂ V De verzameling P1 = {y1 , e1 , . . . , en } is dus ook voortbrengend. Vermits y1 lineaire combinatie is van P is deze verzameling bovendien lineair afhankelijk. ∃ei zodat ei lineaire combinatie is van y1 , e1 , . . . , ei−1 84 Stel dan Q1 = {y1 , e1 , . . . , 6 ei , . . . , en } Deze verzameling is nog steeds voortbrengend voor V . Stel nu P2 = {y2 , y1 , e1 , . . . , 6 ei , . . . , en } Dan is P2 voortbrengend. Vermits y2 lineaire combinatie is van Q1 is P2 lineair afhankelijk en dus is er een eerste vector in de rij die lineaire combinatie is van de voorgaande vectoren. Deze vector is één van de vectoren e1 , . . . , 6 ei , . . . , en . Stel ej deze vector. Dan is de verzameling Q2 = {y2 , y1 , e1 , . . . , 6 ei , . . . , 6 ej , . . . , en } nog steeds voortbrengend voor V . We herhalen deze procedure tot we vinden dat de verzameling Qn = {yn , . . . , y1 } ook voortbrengend is voor V . ⇒ yn+1 is lineaire combinatie van y1 , . . . , yn ⇒ {y1 , . . . , yn+1 } is lineair afhankelijk Dit is een contradictie en bijgevolg is |B| ≤ |P |. Propositie 3.1.23 (Uitbreidingstelling) Zij V een eindig voortgebrachte vectorruimte. Dan is elke lineair onafhankelijke deelverzameling P ⊂ V uit te breiden tot een basis voor V . Bewijs Vermits V eindig voortgebracht is bestaat er eindige voortbrengende deelverzameling. Stel dat deze verzameling n elementen heeft. Dan is |P | ≤ n. Stel P = {e1 , . . . , ek } Als P voortbrengend is voor V dan is P een basis. Als P niet voortbrengend is dan is vct(P ) ( V en dus bestaat er een vector ek+1 ∈ V \ vct(P ). De verzameling P1 = {e1 , . . . , ek+1 } is dan nog steeds lineair onafhankelijk. 85 We kunnen nu de redenering herhalen voor P1 enz... Na hoogstens n uitbreidingen vinden we een verzameling Pm = {e1 , . . . , em } die zowel lineair onafhankelijk als voortbrengend is. De propositie 3.1.22 heeft nog een tweede belangrijke toepassing. Propositie 3.1.24 Zij V een eindig voortgebrachte vectorruimte. Dan zijn alle basissen voor V eindig en ze hebben allemaal evenveel elementen. Bewijs Er bestaat een eindig voortbrengend deel voor P ⊂ V . Uit propositie 3.1.22 volgt dat het aantal elementen van elke basis hoogstens |P | is en dus eindig is. Stel nu dat B1 en B2 basissen zijn voor V . Dan geldt : B1 voortbrengend ⇒ |B2 | ≤ |B1 | B2 lineair onafhankelijk en B2 voortbrengend B1 lineair onafhankelijk ⇒ |B1 | ≤ |B2 | We vinden dus dat |B1 | = |B2 |. Definitie 3.1.25 Zij V een eindig voortgebrachte vectorruimte. Het aantal elementen van een willekeurige basis voor V noemt men de dimensie van V . We noteren dit getal als dim(V ). We zeggen ook dat V eindigdimensionaal is. Voorbeelden 1. dim(K n ) = n want de kanonieke basis voor K n heeft n elementen. 2. Stel V = vct{(1, 2, 1), (1, 0, 1), (3, 2, 3)} ⊂ R3 . Dan is dim(V ) = 2 want (3, 2, 3) = (1, 2, 1) + 2.(1, 0, 1) en dus is V = vct{(1, 2, 1), (1, 0, 1)}. Bovendien zijn de vectoren (1, 2, 1) en (1, 0, 1) lineair onafhankelijk. 86 Opmerking Zij V een eindigdimensionale vectorruimte en zij B ⊂ V een eindige deelverzameling. Om na te gaan of B een basis is moeten we twee dingen verifiëren : B is voortbrengend en B is lineair onafhankelijk. Onderstel nu echter dat we een verzameling B hebben met |B| = dim(V ). Als B voortbrengend is dan is B automatisch een basis. (Waarom ?) Als B lineair onafhankelijk is dan is B ook automatisch een basis. (Waarom ?) We bewijzen nu een aantal resultaten over dimensies van deelruimten. Propositie 3.1.26 Zij V een deelruimte van een eindigdimensionale vectorruimte U . Dan is dim(V ) ≤ dim(U ). Bewijs Zij B een basis voor V en zij B 0 een basis voor U . Vermits B lineair onafhankelijk is en vermits B 0 voortbrengend is voor U volgt uit prop 3.1.22 dat dim(V ) = |B| ≤ |B 0 | = dim(U ) Propositie 3.1.27 Zij V en W deelruimten van een eindigdimensionale vectorruimte U . Dan is dim(V + W ) = dim(V ) + dim(W ) − dim(V ∩ W ) Bewijs Kies een basis e1 , . . . , en voor V ∩ W . We kunnen deze basis uit breiden tot een basis e1 , . . . , en , a1 , . . . , ar voor V . We kunnen eveneens uitbreiden tot een basis e1 , . . . , en , b1 , . . . , bs voor W . We tonen aan dat e1 , . . . , en , a1 , . . . , ar , b1 , . . . , bs een basis is voor V + W . a) Als u ∈ V + W dan is u = v + w met v ∈ V en w ∈ W . We kunnen v en w schrijven als Pn P v = λi .ei + rj=1 αj .aj i=1 Pn Ps w = i=1 µi .ei + k=1 βk .bk ⇒u= n X (λi + µi ).ei + i=1 r X j=1 87 αj .aj + s X k=1 βk .bk Bijgevolg zijn de vectoren e1 , . . . , en , a1 , . . . , ar , b1 , . . . , bs voortbrengend voor V + W. (Let op, het bewijs dat e1 , . . . , en , a1 , . . . , ar , b1 , . . . , bs voortbrengend zijn is volledig af. We beginnen nu opnieuw met een volledig nieuwe redenering. De coëfficiënten νi , αj , βk in het volgende deel van het bewijs hebben niets meer te maken met de vorige coëfficiënten.) We bewijzen nu dat de verzameling {e1 , . . . , en , a1 , . . . , ar , b1 , . . . , bs } lineair onafhankelijk is. Onderstel dat n X νi .ei + i=1 r X αj .aj + j=1 s X βk .bk = 0 k=1 een nulcombinatie is. Dan is n r s X X X νi .ei + αj .aj = −βk .bk i=1 j=1 k=1 Het linkerlid van deze gelijkheid is een vector in V en het rechter lid is een vector in W . Bijgevolg liggen deze vectoren in V ∩ W en ze zijn dus te schrijven als een lineaire combinatie van e1 , . . . , en . ⇒ n X i=1 νi .ei + r X αj .aj = j=1 s X −βk .bk = n X k=1 τi .ei i=1 voor zekere τ1 , . . . , τn ∈ K. We vinden Pn P (νi − τi ).ei + rj=1 αj .aj = 0 i=1 Pn Ps i=1 τi .ei + k=1 βk .bk = 0 Wegens de lineair onafhankelijkheid van {e1 , . . . , en , a1 , . . . , ar } en van {e1 , . . . , en , b1 , . . . , bs } volgt hieruit dat νi = αj = βk = 0 voor alle i, j, k De vectoren e1 , . . . , en , a1 , . . . , ar , b1 , . . . , bs zijn dus lineair onafhankelijk en vormen dus een basis voor V + W . We vinden nu : dim(V +W ) = n+r+s = (n+r)+(n+s)−n = dim(V )+dim(W )−dim(V ∩W ) 88 Definitie 3.1.28 Zij V en W deelruimten van een vectorruimte U . Als V ∩ W = 0 dan zegt men dat V + W de directe som is van V en W . We noteren V ⊕ W in plaats van V + W . Propositie 3.1.29 Zij V en W deelruimten van een vectorruimte U . Dan is V ∩ W = 0 als en slechts als elke vector in V + W een unieke ontbinding heeft van de vorm v + w met v ∈ V en w ∈ W . Bewijs 1) Stel dat V ∩W = 0. Elke vector in V +W heeft een ontbinding van de vorm v + w met v ∈ V en w ∈ W . We moeten enkel de uniciteit controleren. Stel dat u = v + w = v 0 + w0 twee ontbindigen zijn van u met v, v 0 ∈ V en w, w0 ∈ W . Dat is v − v 0 = w0 − w. Deze gelijke vectoren liggen zowel in V als in W en dus in V ∩ W . Bijgevolg is v − v 0 = w0 − w = 0. ⇒ v = v 0 en w = w0 2) Stel nu dat elk element in V + W een unieke ontbinding heeft. Als u ∈ V ∩ W dan is 0 = 0 + 0 = u − u. Dit zijn twee ontbindingen van dezelfde vector 0. Wegens de uniciteit van de ontbinding is u = 0. We vinden dus dat V ∩ W = 0. Gevolg 3.1.30 Als e1 , . . . , en een basis is voor een vectorruimte V dan is V = vct{e1 } ⊕ · · · ⊕ vct{en } Gevolg 3.1.31 Als U = V ⊕ W dan is dim(V ⊕ W ) = dim(V ) + dim(W ) Definitie 3.1.32 Zij V en W deelruimten van een vectorruimte U . Als U = V ⊕ W dan zegt men dat W een supplement is van V . 89 Propositie 3.1.33 Als V een deelruimte is van een vectorruimte U dan bestaat er steeds een supplement voor V . Bewijs Zij e1 , . . . , en een basis voor V . We kunnen deze basis aanvullen tot een basis e1 , . . . , en , . . . , en+1 , . . . , em voor U . Stel W = vct{en+1 , . . . , em }. Dan is W een supplement voor V . 3.1.5 Verandering van basis in een K-vectorruimte Zij V een K-vectorruimte met dim(V ) = n. Stel dat {e1 , . . . , en } en {e01 , . . . , e0n } twee basissen zijn voor V . Een vector v ∈ V kan dan op twee manieren ontbonden worden als lineaire combinatie. v = x1 .e1 + · · · + xn .en v = x01 .e01 + · · · + x0n .e0n We zoeken het verband tussen de coëfficiënten x = (x1 , . . . , xn ) en x0 = (x01 , . . . , x0n ). Elke basisvector e0i is op een unieke manier te schrijven als een lineaire combinatie van e1 , . . . , en . Stel n X 0 ei = aji ej j=1 (Let op : we sommeren over de eerste index.) Stel dan a11 · · · a1n .. A = ... . an1 · · · ann We vinden dan dat v = = = = Pn 0 0 i=1 xi .ei Pn 0 Pn aji ej x. Pni=1 Pi n j=1 0 xi .aji .ej Pj=1 Pi=1 n n 0 i=1 aji .xi ) ej j=1 ( 90 P Vermits ook v = nj=1 xj .ej en vermits e1 , . . . , en lineair onafhankelijk zijn is voor elke j = 1, . . . , n : n X xj = aji x0i i=1 In matrixnotatie geeft dit x = A.tx0 t Opmerking We kunnen elke vector ei ook schrijven als lineaire combinatie van e01 , . . . , e0n . Stel n X ei = bji .e0j j=1 Dan is P e0i = nj=1 aji ej P P = nj=1 aji ( nk=1 bkj e0k ) P Pn 0 = nk=1 j=1 bkj aji ek Hieruit volgt dat n X bkj aji = 0 als k 6= i j=1 en n X bkj aji = 1 als k = i j=1 Stel b11 · · · b1n .. B = ... . bn1 · · · bnn Dan betekent dit dat B.A = In . Op een analoge manier bewijst men dat A.B = In . We vinden dat A een inverteerbare matrix is en dat B = A−1 . 3.1.6 De nulruimte, de kolommenruimte en de rang van een matrix In dit deel associëren we met een matrix een aantal vectorruimten. We geven ook een nieuwe definitie voor de rang van een matrix. We zullen dan 91 laten zien dat deze nieuwe definitie toch hetzelfde betekent als die in vorige paragraaf. Definitie 3.1.34 Zij A ∈ Mm,n een matrix. Stel N (A) = x ∈ K n A.tx = 0 We noemen N (A) de nulruimte van A. De vectorrruimte K(A) ⊂ Mm,1 voortgebracht door de kolommen van A noemen we de kolommenruimte van A. De dimensie van K(A) noemen we de rang van A. We noteren deze dimensie als rg(A). Propositie 3.1.35 Zij A ∈ Mm,n een matrix. Dan is de nulruimte N (A) een deelruimte van K n . Bewijs Zij x en y vectoren in de nulruimte N (A) en zij c, d ∈ K. Dan is A.tx = 0 en A.ty = 0. ⇒ A.t(cx + dy) = cA.tx + dA.ty = 0 Bijgevolg is cx + dy ∈ N (A) en dus is N (A) een deelruimte van K n . Propositie 3.1.36 Zij A ∈ Mm,n (K) een matrix en zij b ∈ K m een vector. Het stelsel A.tX = tb heeft een oplossing als en slechts als tb ∈ K(A). Bewijs Stel e1 , . . . , en de kanonieke basis voor K n en stel C1 , . . . , Cn de kolommen van A. Dan is Ci = A.tei . Onderstel dat x = (x1 , . . . , xn ) een oplossing is van het stelsel A.tX = tb Dan is n n n X X X t b = A.tx = A.t( xi .ei ) = xi A.tei = xi Ci ∈ K(A) i=1 i=1 i=1 t t Omgekeerd, onderstel dat b ∈ K(A). Dan is b een lineaire combinatie van de kolommen C1 , . . . , Cn . Stel t b= n X i=1 92 ci Ci en stel c = (c1 , . . . , cn ). Dan is t t A. c = A. ( n X ci .ei ) = n X i=1 t ci A. ei = i=1 n X ci Ci = tb i=1 Bijgevolg is c een oplossing van het stelsel. Gevolg 3.1.37 Als x ∈ K n dan is A.tx een vector in de kolommenruimte K(A). Een verband tussen nulruimte en kolommenruimte wordt gegeven door de volgende dimensieformule. We zullen deze formule later nog veralgemenen. Propositie 3.1.38 Zij A ∈ Mm,n (K) een matrix. Dan is dim(N (A)) + dim(K(A)) = n Bewijs We kiezen willekeurige {b1 , . . . , br } ∈ K n zodat {tb1 , . . . , tbr }een basis is voor K(A). Uit de vorige stelling volgt dan het stelsel A.tX = tbi een oplossing heeft voor elke i = 1, . . . , r. Kies oplossingen a1 , . . . , ar voor deze stelsels. Kies verder een willekeurige basis {c1 , . . . , cs } voor de nulruimte N (A). We tonen aan dat {a1 , . . . , ar , c1 , . . . , cs } een basis is voor K n . Als x ∈ K n dan is A.tx ∈ K(A). Bijgevolg is A.tx een lineaire combinatie t van de vectoren b1 , . . . , tbr . P r Stel A.tx = i=1 λi .tbi . Dan is A.t(x − r X r r r X X X λi ai ) = A.tx − A.( λi tai ) = λi .tbi − λi A.tai = 0 i=1 i=1 i=1 i=1 P Dit betekent dat x − ri=1 λi ai ∈ N (A). Deze vector is dus een lineaire combinatie c1 , . . . , c s . Ps Prvan de vectoren Stel x − i=1 λi ai = j=1 µj cj . Dan is r s X X x= λ i ai + µj c j i=1 j=1 93 We vinden dus dat de verzameling {a1 , . . . , ar , c1 , . . . , cs } voortbrengend is voor K n . We tonen nu aan dat deze verzameling ook nog lineair onafhankelijk is. Stel dat r s X X λ i ai + µj c j = 0 i=1 j=1 een nulcombinatie is. Dan is A. t r X i=1 λ i ai + s X ! µj c j = j=1 r X t λi A. ai + i=1 X t µj A. cj = j=1 r X λi tbi = 0 i=1 Vermits de vectoren tb1 , . . . , tbr lineair onafhankelijk zijn volgt hieruit dat λ1 = · · · = λP r = 0. Bijgevolg is sj=1 µj cj = 0. Vermits de vectoren c1 , . . . , cs ook lineair onafhankelijk zijn vinden we µ1 = · · · = µs = 0. Dit bewijst de lineaire onafhankelijkheid. Propositie 3.1.39 Als A ∈ Mm,n en B ∈ Mn,p matrixen zijn dan is rg(A.B) ≤ rg(B) Bewijs Stel K1 , . . . , Kp de kolommen van B. Dan is B = (K1 . . . Kp ) en A.B = (A.K1 . . . A.Kp ) Stel rg(B) = r. Uit de voortbrengende verzameling {K1 , . . . , Kp } kunnen we kolommen schrappen tot we een basis voor K(B) overhouden. Stel dat {Ki1 , . . . , Kir } zo een basis is. Elke kolom Kj is dan een lineaire combinatie van deze basiskolommen en is dus te schrijven in de vorm Kj = r X cj,k Kik (cj,k ∈ K) k=1 Maar dan is A.Kj = r X k=1 94 cj,k A.Kik Hieruit volgt dat de kolommenruimte K(A.B) wordt voortgebracht door {A.Ki1 , . . . A.Kir }. Bijgevolg is rg(A.B) ≤ r. Gevolg 3.1.40 Als A ∈ Mm,n en als C ∈ GLm (K) dan is rg(A) = rg(C.A). Bewijs Uit de stelling volgt dat rg(C.A) ≤ rg(A). Deze ongelijkheid geldt voor elke matrix A en elke C ∈ GLm (K). Vermits ook C −1 ∈ GLm (K) vinden we rg(A) = rg(C −1 .C.A) ≤ rg(C.A) Hieruit volgt dus de gelijkheid. We kunnen nu bewijzen dat de vroegere definitie van rg(A) hetzelfde getal geeft als de nieuwe definitie. Om een matrix A in rijechelonvorm te brengen moeten we deze A een aantal keren aan linkerkant vermenigvuldigen met een omkeerbare matrix. De rang van de matrix blijft dan ongewijzigd. We vinden dus dat A en de bekomen rijechelonmatrix dezelfde rang hebben. Het is bovendien eenvoudig te verifiëren dat de rang van een rijechelonmatrix (in de nieuwe betekenis) juist gelijk is aan het aantal leidende 1-en dat optreedt. Propositie 3.1.41 Voor elke matrix A ∈ Mm,n is rg(A) = rg(tA). Bewijs Zij A = (ai,j ) ∈ Mm,n . Stel K1 , . . . , Kn de kolommen van A en stel R1 , . . . , Rm de rijen van A. Stel rg(A) = r. We kiezen dan willekeurige b1 , . . . , br ∈ K n zodat {b1 , . . . , br } een basis is voor de kolommenruimte K(A). b1,k .. t Stel bk = . . bm.k Dan is elke kolom Kj een lineaire combinatie van de basiskolommen en is duste schrijven in de vorm Kj = c1,j tb1 + · · · + cr,j tbr 95 (ci,j ∈ K) Dit betekent dat ∀i = 1, . . . , m : ai,j = c1,j bi,1 + · · · + cr,j bi,r en dus is Ri = (ai,1 . . . ai,n ) = r X ck,1 bi,k k=1 r X ck,2 bi,k . . . k=1 r X ! ck,n bi,k k=1 = r X bi,k (ck,1 . . . ck,n ) k=1 Na transponeren geeft dit ck,1 t Ri = bi,k ... k=1 ck,n r X De kolommen van tA zijn juist tR1 , . . . tRm . Deze in de ruimte c1,1 cr,1 .. .. vct( . , . . . , . c1,n cr,n kolommen liggen dus allen ) Deze ruimte wordt voortgebracht door r kolommen. De dimensie is dus hoogstens r. Bovendien is K(tA) een deelruimte van deze ruimte. Hieruit volgt dat rg(tA) ≤ rg(A). Deze ongelijkheid geldt voor elke matrix. Dus ook voor tA. We vinden dan rg(A) = rg t(tA) ≤ rg(tA) We vinden zo dat rg(A) = rg(tA). 3.2 Lineaire afbeeldingen Definitie 3.2.1 Zij V en W vectorruimte. Een functie f : V → W is een lineaire afbeelding als 96 1. ∀v, v 0 ∈ V : f (v + v 0 ) = f (v) + f (v 0 ) 2. ∀λ ∈ K, v ∈ V : f (λ.v) = λ.f (v) Als f bovendien bijectief is dan zeggen we dat f een isomorfisme is. Als er tussen de vectorruimtem V en W een isomorfisme bestaat dan zeggen we dat V en W isomorfe vectorruimten zijn. We noteren dan V ∼ = W. Voorbeelden 1. f : R3 → R2 met f (x, y, z) = (x − z, y − z). 2. f : R2 → R2 met f een rotatie met centrum (0,0) over een hoek θ. Propositie 3.2.2 Zij V en W vectorruimten en zij f : V → W een functie. Dan is f een lineaire afbeelding als en slechts als ∀λ, µ ∈ K en v, w ∈ V : f (λ.v + µ.w) = λ.f (v) + µ.f (w) Bewijs Onderstel dat f lineair is. Als λ, µ ∈ K en als v, w ∈ V dan is f (λ.v + µ.w) = f (λ.v) + f (µ.w) = λ.f (v) + µ.f (w) Omgekeerd, onderstel dat de bovenstaande formule geldt voor alle λ, µ ∈ K en v, w ∈ V . Als we µ = 0 en w = v kiezen dan geeft deze formule ∀λ ∈ K, v ∈ V : f (λ.v) = f (λ.v + 0.v) = λ.f (v) + 0.f (v) = λ.f (v) Als we λ = µ = 1 nemen dan geeft de formule ∀v, w ∈ V : f (v + w) = f (v) + f (w) Propositie 3.2.3 Zij f : V → W een lineaire afbeelding. 1. Als U een deelruimte is van V dan is f (U ) een deelruimte van W . 2. Als U 0 een deelruimte is van W dan is f −1 (U 0 ) een deelruimte van V . 97 Bewijs 1) Zij λ, µ ∈ K en zij a, b ∈ f (U ). Dan is a = f (u) en b = f (v) voor zekere u, v ∈ U . ⇒ λ.a + µ.b = λ.f (u) + µ.f (v) = f (λ.u + µ.v ) ∈ f (U ) | {z } ∈U Uit Prop 3.2.2 volgt nu dat f (U ) een deelruimte is van W . 2) Zij λ, µ ∈ K en zij u, v ∈ f −1 (U 0 ). Dit betekent dat f (u), f (v) ∈ U 0 . ⇒ f (λ.u + µ.v) = λ.f (u) + µ.f (v) ∈ U 0 Dit betekent dat λ.u + µ.v ∈ f −1 (U 0 ) en uit Prop 3.2.2 volgt dan dat f −1 (U 0 ) een deelruimte is van V . Gevolg 3.2.4 Zij f : V → W een lineaire afbeelding. Dan geldt : 1. f (0) = 0 2. f (V ) is een deelruimte van W 3. v ∈ V f (v) = 0 is een deelruimte van V Bewijs 1) {0} is een deelruimte van V en dus is {f (0)} een deelruimte van W . Vermits een deelruimte altijd de nulvector bevat is f (0) = 0. 2) Dit volgt rechtstreeks uit de voorgaande stelling, toegepast op V zelf. 3) Dit volgt ook rechtstreeks uit de voorgaande stelling, toegepast op de deelruimte {0} van W . Definitie 3.2.5 Zij f : V → W een lineaire afbeelding. 1. Men noemt de deelruimte f (V ) ⊂ W de beeldruimte van f . Men noteert deze deelruimte als Im(f ). 2. Men noemt de deelruimte v ∈ V f (v) = 0 de kern van f . Men noteert deze deelruimte als Ker(f ). 98 Voorbeeld Neem f : R3 → R2 met f (x, y, z) = (x − z, y − z). Dan is ∀(a, b) ∈ R2 : (a, b) = f (a, b, 0) ∈ Im(f ) en dus is Im(f ) = R2 . ∀(x, y, z) ∈ R3 : (x, y, z) ∈ Ker(f ) ⇐⇒ (x − z, y − z) = (0, 0) ⇐⇒ x = y = z Bijgevolg is Ker(f ) = (x, x, x) x ∈ R . Propositie 3.2.6 Zij f : V → W een lineaire afbeelding. Dan geldt : 1. f is injectief ⇐⇒ Ker(f ) = 0 2. f is surjectief ⇐⇒ Im(f ) = W Bewijs 1) Stel dat f injectief is. Dan heeft men x ∈ Ker(f ) ⇐⇒ f (x) = 0 ⇐⇒ f (x) = f (0) ⇐⇒ x = 0 en dus Ker(f ) = 0. Omgekeerd, stel dat Ker(f ) = 0. Als f (x) = f (y) dan is f (x − y) = f (x) − f (y) = 0 en dus x − y ∈ Ker(f ) en dus x − y = 0. 2) Dit is juist de definitie van surjectiviteit. Als we een functie f willen definiëren tussen twee verzamelingen A en B dan moeten we voor elk element uit A op een ondubbelzinnige manier een beeld in B vastleggen. Om een lineaire afbeelding tussen twee vectorruimten te definiëren hebben we echter veel minder data nodig. Dit blijkt uit de volgende stelling. Propositie 3.2.7 Zij V en W eindigdimensionale vectorruimten en zij e1 , . . . , en een geordende basis voor V . Zij c1 , . . . , cn een willekeurig stel vectoren in W . 99 1. Dan bestaat er een unieke lineaire afbeelding f : V → W zodat f (e1 ) = c1 , . . . , f (en ) = cn 2. De lineaire afbeelding f is injectief als en slechts als c1 , . . . , cn lineair onafhankelijk zijn in W . 3. De lineaire afbeelding f is surjectief als en slechts als c1 , . . . , cn voortbrengend zijn voor W . Bewijs 1) Elke vector v ∈ V heeft een unieke ontbinding van de vorm v = λ1 .e1 + · · · + λn .en Definieer f (v) = λ1 .c1 + · · · + λn .cn Het is duidelijk dat f (e1 ) = c1 , . . . , f (en ) = cn . Bovendien is f lineair. (Verifieer!) Voor elke lineaire afbeelding f 0 die ei afbeeldt op ci geldt bovendien dat f 0 (v) = λ1 .f (e1 ) + · · · + λn .f (en ) = λ1 .c1 + · · · + λn .cn = f (v) Dit bewijst de uniciteit van f . 2) De lineaire afbeelding f is injectief als en slechts als Ker(f ) = {0}. Een vector x = λ1 .e1 + . . . + λn .en ligt nu juist in Ker(f ) als en slechts als λ1 .c1 + . . . + λn .cn = 0 We vinden dus : f injectief ⇐⇒ ⇐⇒ Pn (λ1 , . . . , λn ) i=1 λi .ci = 0 = {(0, . . . , 0)} c1 , . . . , cn lineair onafhankelijk 3) De afbeelding f is surjectief als en slechts als Im(f ) = W . Vermits Im(f ) = λ1 .c1 + · · · + λn .cn λ1 , . . . , λn ∈ K = vct(c1 , . . . , cn ) Vinden we f surjectief ⇐⇒ W = vct(c1 , . . . , cn ) 100 Gevolg 3.2.8 Een lineaire afbeelding f : V → W ligt volledig vast als de beelden van een stel basisvectoren bepaald zijn. Propositie 3.2.9 Zij f : V → W een lineaire afbeelding. Dan is dim(V ) = dim(Ker(f )) + dim(Im(f )) Bewijs Kies een basis e1 , . . . , en voor Ker(f ). We kunnen deze basis aanvullen tot een basis e1 , . . . , en , en+1 , . . . , em voor V . (Met deze notaties is dus dim(Ker(f )) = n en dim(V ) = m.) Als w ∈ Im(f ) dan is w = f (v) voor zekere v ∈ V . Stel v = λ1 .e1 + · · · + λm .em Dan is w = λ1 .f (e1 ) + · · · + λn .f (en ) + · · · + λm .f (em ) = λn+1 .f (en+1 ) + · · · λm .f (em ) want f (e1 ) = · · · = f (en ) = 0. Hieruit volgtdat de vectoren f (en+1 ), . . . , f (em ) voortbrengend zijn voor Im(f ). Stel nu dat µn+1 .f (en+1 ) + · · · + µm .f (em ) = 0 Dan is f (µn+1 .f (en+1 ) + · · · + µm .f (em )) = 0 en dus is µn+1 .en+1 + · · · + µm .em ∈ Ker(f ) Vermits de vectoren e1 , . . . , en voortbrengend zijn voor Ker(f ) bestaan er µ1 , . . . , µn ∈ K zodat µ1 .e1 + · · · + µn .en = µn+1 .en+1 + · · · + µm .em Vermits de vectoren e1 , . . . , em lineair onafhankelijk zijn volgt hieruit dat µ1 = · · · = µm = 0 Bijgevolg zijn de vectoren f (en+1 ), . . . , f (em ) lineair onafhankelijk. Ze vormen bijgevolg een basis voor Im(f . We vinden dat dim(Im(f )) = m − n = dim(V ) − dim(Ker(f )) 101 Propositie 3.2.10 (Alternatiefstelling) Zij U en V eindigdimensionale vectorruimten met dim(U ) = dim(V ) en zij f : U → V een lineaire afbeelding. Dan geldt : f is injectief ⇐⇒ f is surjectief ⇐⇒ f is bijectief Bewijs Het volstaat om aan te tonen dat f injectief is als en slechts als f surjectief is. Zij e1 , . . . , en een basis voor U . Dan geldt : f is injectief ⇐⇒ ⇐⇒ ⇐⇒ ⇐⇒ f (e1 ), . . . , f (en ) lineair onafhankelijk in V f (e1 ), . . . , f (en ) basis voor V f (e1 ), . . . , f (en ) voortbrengend voor V f surjectief (Merk de gelijkenis met het Pigeonhole principe.) Zij nu f : V → W een lineaire afbeelding. Zij e1 , . . . , en een (geordende) basis voor V en zij f1 , . . . , fm een (geordende) basis voor W . Elke vector f (ei ) kan dan geschreven worden als een lineaire combinatie van f1 , . . . , fm . Stel m X f (ei ) = λji .fj j=1 met λji ∈ K. We kunnen de elementen λji opvatten als coëfficiënten van een (m, n)-matrix. Men noemt deze matrix de matrix van f ten opzichte van de basissen {e1 , . . . , en } en {f1 , . . . , fm }. We noteren deze matrix meestal als M (f ). λ11 λ12 · · · λ1n λ21 λ22 · · · λ2n M (f ) = .. .. . . λm1 λm2 · · · λmn Let op de afmetingen van M (f ) ! Vermits f volledig bepaald is door de beelden van e1 , . . . , en en vermits elk van deze beelden bepaald is door de coëfficiënten λij is f zelf volledig bepaald 102 door de matrix M (f ). We kunnen een lineaire afbeelding dus beschrijven met een beperkt aantal data. We zullen verder zien dat rekenen met lineaire afbeeldingen overeenkomt met rekenen met de matrixenvoorstellingen. We hebben hier dus te doen met een zeer efficiënte methode. Als v ∈ V een vector is dan is v te schrijven als lineaire combinatie van e1 , . . . , en en f (v) is een lineaire combinatie van f1 , . . . , fm . We zoeken het verband tussen de coëfficiënten van v ten opzichte van e1 , . . . , en en de coëfficiënten van f (v) ten opzichte van f1 , . . . , fm . Stel dat v = x1 .e1 + · · · + xn .en en f (v) = y1 .f1 + · · · + ym .fm De vector f (v) is dan ook nog gelijk aan f (v) = x1 .f (e1 ) + · · · + xn .f (en ) En dus is P m j=1 P m j=1 f (v) = x1 λj1 fj + · · · + xn λjn fj Pn Pn = ( i=1 λ1i xi ) .f1 + · · · + ( i=1 λmi xi ) .fm Bijgevolg is m X j=1 yj .fj = m n X X j=1 ! λji .xi fj i=1 en dus is ∀j = 1, · · · , m : yj = n X λji .xi (∗) i=1 We kunnen de formules (*) dan samenvatten x1 M (f ). ... = xn in matrixvorm : y1 .. . ym Opmerking Als de vectorruimten V en W dezelfde zijn dan nemen we bij voorkeur twee keer dezelfde basis. Voorbeelden 103 1. f : R3 → R2 met f (x, y, z) = (x − z, y − z) Kies in R3 de kanonieke basis e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) en voor R2 de kanonieke basis f1 = (1, 0), f2 = (0, 1) Dan is f (e1 ) = (1, 0) = 1. f1 + 0. f2 f (e2 ) = (0, 1) = 0. f1 + 1. f2 f (e3 ) = (−1, −1) = −1. f1 − 1. f2 Bijgevolg is M (f ) = 1 0 −1 0 1 −1 En als f (x, y, z) = (s, t) dan is 1 0 −1 0 1 −1 x s . y = t z We zien in dit voorbeeld dat de matrixvoorstelleing heel eenvoudig te vinden is als we werken met de kanonieke basissen. Spijtig genoeg is dit niet altijd mogelijk. 2. f : R3 → R2 met f (x, y, z) = (x − z, y − z) Neem nu voor R3 de basis e1 = (0, 1, 1), e2 = (1, 0, 1), e3 = (1, 1, 0) en voor R2 de basis f1 = (2, 1), Dan is f2 = (1, 2) f (e1 ) = (−1, 0) = − 32 .f1 + 13 .f2 1 f (e2 ) = (0, −1) = .f − 23 .f2 3 1 1 .f + 13 .f2 f (e3 ) = (1, 1) = 3 1 en bijgevolg is M (f ) = − 23 1 3 104 1 3 − 23 1 3 1 3 Als (x, y, z) ∈ R3 en als f (x, y, z) − (s, t) dan is (x, y, z) = −x + y + z x−y+z x+y−z .e1 + .e2 + .e3 2 2 2 en 2s − t 2t − s .f1 + .f2 3 3 (s, t) = De matrixformule geeft dan − 23 1 3 1 3 − 23 1 3 1 3 −x+y+z 2 x−y+z 2 x+y−z 2 . = 2s−t 3 2t−s 3 3. Stel Id : V → V de identieke afbeelding op een eindigdimensinale vectorruimte V . Als we in V twee keer dezelfde basis kiezen dan is M (Id) = In . Na keuze van geordende basissen e1 , . . . , en voor V en f1 , . . . , fm voor W heeft elke lineaire afbeelding van V naar W een uniek bepaalde matrix. We kunnen echter ook omgekeerd te werk gaan. Zij A = (aji ) ∈ Mm,n (K) een matrix. Stel dan ci = m X aji .fj (i = 1, . . . , n) j=1 Dan bestaat er een unieke lineaire afbeelding f : V → W zodat f (ei ) = ci voor elke i = 1, . . . , n. Dit betekent juist dat de matrix van f ten opzichte van deze basissen de matrix A is. We vinden dus dat er een 1-1 correspondentie is tussen lineaire afbeeldingen van V naar W en (m, n)-matrixen De matrix van een lineaire afbeelding hangt af van de basiskeuze. We zullen nu nagaan wat er gebeurt bij overgang naar nieuwe basissen. Propositie 3.2.11 Zij f : V → W een lineaire afbeelding. Zij e1 , . . . , en 0 en e01 , . . . , e0n geordende basissen voor V en zij f1 , . . . , fm en {f10 , . . . , fm } geordende basissen voor W . Onderstel e0i = n X uji .ej en j=1 fk0 = m X l=1 105 vlk .fl Stel U = (uji ) ∈ Mnn en V = (vlk ) ∈ Mmm . Stel M = (aji ) ∈ Mmn de matrix van f ten opzichte van de basissen e1 , . . . , en en f1 , . . . , fm . Stel M 0 = (a0ji ) de matrix van f ten opzichte van de basissen 0 e01 , . . . , e0n en f10 , . . . , fm . Dan is M 0 = V −1 .M.U Bewijs Oefening ! Gevolg 3.2.12 Zij f : V → V een linieaire afbeelding en zij e1 , . . . , en en e01 , . . . , e0n basissen voor V . Stel e0i = n X aji .ej j=1 Stel U = (aji ) en stel M de matrix van f ten opzichte van de basis e1 , . . . , en en M 0 de matrix van f ten opzichte van de basis e01 , . . . , e0n . Dan is M 0 = U −1 .M.U Propositie 3.2.13 Zij U, V en W eindigdimensionale vectorruimten en zij f : U → V en g : V → W lineaire afbeeldingen. Na een keuze van geordende basissen voor U, V en W geldt dan M (g ◦ f ) = M (g).M (f ) Bewijs Zij e1 , . . . , ep een basis voor U . Zij f1 , . . . , fn een basis voor V en zij g1 , . . . , gm een basis voor W . Stel M (f ) = (aji ), M (g) = (blk ) en M (g ◦ f ) = (cts ) de matrixen van f, g en g ◦ f ten opzichte van deze basissen. Dan geldt dus : f (ei ) = n X aji .fj , g(fk ) = j=1 m X blk .gl , g ◦ f (es ) = l=1 Maar we hebben ook : g ◦ f (es ) = = = = P g(f (es )) = g( nj=1 ajs .fj ) Pn ajs .g(fj ) Pj=1 P n ajs ( m b .g ) j=1 Pm Pn t=1 tj t t=1 ( j=1 btj ajs )gt 106 m X t=1 cts .gt Bijgevolg is cts = n X btj .ajs j=1 Dit beteken dat M (g ◦ f ) = M (g).M (f ). Gevolg 3.2.14 Een lineaire afbeelding f : V → W is een isomorfisme als en slechts als M (f ) een inverteerbare matrix is. In dat geval is M (f )−1 = M (f −1 ). Bewijs Kies geordende basissen e1 , . . . , en voor V en f1 , . . . , fn voor W . Dan is f ◦ f −1 = IdW en f −1 ◦ f = IdV . Bijgevolg is M (f ).M (f −1 ) = M (f ◦ f −1 ) = M (IdW ) = In en M (f −1 ).M (f ) = M (f−1 ◦ f ) = M (IdV ) = In Hieruit volgt dat M (f )−1 = M (f −1 ). We geven nog een toepassing van het voorgaande. Zij f : V → W een lineaire afbeelding tussen eindigdimensionale vectorruimten V en W . Zij e1 , . . . , en een basis voor V en zij f1 , . . . , fm een basis voor W . Stel PA = (aij ) de matrix van f ten opzichte van deze basissen. Een vector x = ni=1 xi .ei ligt in de kern van f als en slechts als f (x) = 0. Dus x ∈ Ker(f ) ⇐⇒ ⇐⇒ ⇐⇒ ⇐⇒ ⇐⇒ fP(x) = 0 n xi .fP (ei ) = 0 Pi=1 n m i .( i=1 xP j=1 aji .fj ) = 0 Pm n ( i=1 aji xi )fj = 0 Pj=1 n i=1 aji xi = 0 voor alle j = 1, . . . , n Dit betekent dat (x1 , . . . , xn ) een oplossing is van het homogene stelsel X1 0 .. .. A. . = . Xn 0 107 en dus is (x1 , . . . , xn ) een element van de nulruimte N (A). Als w ∈ Im(f ) dan bestaat er een vector v ∈ V zodat f (v) = w. Stel v = x1 .e1 + · · · + xn .en en stel w = b1 .f1 + · · · + bm .fm . Stel b = (b1 , . . . , bm ). Dan is A.tx = tb Bijgevolg is tb een element van de kolommenruimte K(A). We zien hier dat de dimensieformule dim(V ) = dim(Ker(f )) + dim(Im(f )) hetzelfde is als n = dim(N (A)) + dim(K(A)) 3.3 3.3.1 Een eenvoudige matrixvoorstelling Eigenwaarden en eigenvectoren In deze paragraaf is V steeds een n-dimensionale vectorrruimte. We bestuderen lineaire afbeeldingen f : V → V . Zulk een lineaire afbeelding noemt men een endomorfisme van V . Propositie 3.3.1 Zij f : V → V een lineaire afbeelding. Dan bestaan er basissen e1 , . . . , en en f1 , . . . , fn voor V zodat de matrix van f ten opzichte van deze basissen van de volgende vorm is 0 | 0 M (f ) = − − − 0 | Ik Bewijs Kies een basis e1 , . . . , em voor Ker(f ). Vermits deze vectoren lineair onafhankelijk zijn kunnen we de rij aanvullen tot een basis e1 , . . . , em , em+1 , . . . , en voor V . Stel fm+1 = em+1 , . . . , fn = en . We tonen aan dat fm+1 , . . . , fn een basis is voor Im(f ). 108 Als v ∈ Im(f ) dan is v = f (u) voor zekere u ∈ V . Stel u = c1 .e1 + · · · + cn .en Dan is v = f (u) = c1 .f (e1 ) + · · · + cn .f (en ) = cm+1 .fm+1 + · · · + cn .fn Bijgevolg is Im(f ) = vct{fm+1 , . . . , fn }. Vermits dim(Im(f )) = dim(V ) − dim(Ker(f )) = n − m = |{fm+1 , . . . , fn }| is {fm+1 , . . . , fn } een basis voor Im(f ). We kunnen de rij vectoren fm+1 , . . . , fn dus aanvullen tot een nieuwe basis f1 , . . . , fm , fm+1 , . . . , fn voor V . Ten opzichte van de basissen e1 , . . . , en en f1 , . . . , fn heeft M (f ) de gewenste vorm. We vinden dus een zeer eenvoudige voorstelling van de lineaire afbeelding f . De complexiteit van de situatie zit echter verscholen in de keuze van de basissen. Het zou beter zijn als we een eenvoudige matrixvoorstelling voor f zouden vinden ten opzichte van twee keer dezelfde basis voor V . We zoeken een basis e1 , . . . , en voor V zodat de matrix van f een diagonaalmatrix wordt, d.w.z. c1 0 . . . 0 0 c2 . . . 0 M (f ) = . .. 0 0 . . . cn Als zo een basis bestaat dan is f (ei ) = ci .ei voor elke vector ei . We zeggen dan dat de matrix van f diagonaliseerbaar is. Definitie 3.3.2 Zij f een endomorfisme van V . Een vector v ∈ V met v 6= 0 en waarvoor geldt dat f (v) = c.v noemt men een eigenvector van f . Het getal c noemt men de corresponderende eigenwaarde. 109 Opmerking De begrippen uit deze definitie worden ook voor matrixen gebruikt We kijken hiervoor naar het volgende bijzonder geval. Zij A ∈ Mn,n (K) een matrix. Definieer dan een lineaire afbeelding f : Kn → Kn door f (x) = x.tA. Een vector x is dan een eigenvector van f als x 6= 0 en als x.tA = c.x voor zekere c ∈ K, dit betekent dat A.tx = c.tx. We zeggen dan dat x een eigenvector is van A met eigenwaarde c. Om de matrix van f te diagonaliseren hebben we dus een basis nodig die bestaat uit eigenvectoren. We zullen eerst de eigenwaarden van f opzoeken. Propositie 3.3.3 Een getal c ∈ K is een eigenwaarde van het endomorfisme f : V → V als en slechts als het endomorfisme f − c.IdV niet injectief is. Bewijs Als c een eigenwaarde is dan bestaat er een vector v ∈ V zodat v 6= 0 en zodat f (v) = c.v. Dit betekent dat (f − c.IdV )(v) = 0 en dus is Ker(f − c.IdV ) 6= 0. Dit betekent dat f − c.IdV niet injectief is. Omgekeerd, als f − c.IdV niet injectief is dan bestaat er vector v in de kern met v 6= 0. Deze vector is dan een eigenvector van f met eigenwaarde c. Zij nu e1 , . . . , en een willekeurige basis voor V en zij A = (ai,j ) de matrixvoorstelling van f ten opzichte van deze basis.Als c ∈ K dan is de matrixvoorstelling van f − c.IdV gelijk aan A − c.In . Oplossingen x = (x1 , . . . , xn ) van het stelsel (A − c.In ).tX = 0 komen overeen met vectoren x1 e1 +· · ·+xn en in Ker(f −c.IdV ). Het endomorfisme f −c.IdV is dus niet injectief als en slechts als het stelsel (A − c.In ).tX = 0 een niet triviale oplossing heeft. Dit is het geval als en slechts als det(A − c.In ) = 0 We vinden dus : c is een eigenwaarde van f ⇐⇒ c is oplossing van de vergelijking det(A − t.In ) = 0 110 Propositie 3.3.4 Zij e1 , . . . , en en f1 , . . . , fn twee basissen voor V en zij f : V → V een endomorfisme. Stel A = (aij ) en A0 = (a0ij ) de matrixen van f ten opzichte van deze basissen. Dan is det(A − t.In ) = det(A0 − t.In ) Bewijs Stel U P = (uij ) de overgangsmatrix tussen de twee basissen. We hebben dus ej = ni=1 uij fi . Bovendien is U omkeerbaar en A0 = U.A.U −1 . Bijgevolg is det(A0 − t.In ) = det(U.A.U −1 − t.U.U −1 ) = det(U.(A − t.In )U −1 ) = det(U ).det(A − t.In )det(U −1 ) = det(A − t.In ) Merk op dat de uitdrukking det(A − t.In ) na uitwerking een n-de graads veelterm in t geeft met ±1 als hoogste graadscoëfficiënt. Deze veelterm hangt niet af van de gekozen basis e1 , . . . , en voor V maar hangt uitsluitend af van de afbeelding f . Men noemt det(A − t.In ) de karakteristieke veelterm van f . Propositie 3.3.5 Als f : V → V een lineaire afbeelding is dan heeft f hoogstens n eigenwaarden (multipliciteiten meegerekend). Bewijs De eigenwaarden zijn juist de wortels van de karakteristieke veelterm van f . Aangezien deze veelterm graad n heeft zijn er hoogstens n verschillende eigenwaarden. Propositie 3.3.6 Zij c1 , . . . , cm onderling verschillende eigenwaarden van de lineaire afbeelding f : V → V en zij v1 , . . . , vm corresponderende eigenvectoren. Dan zijn de vectoren v1 , . . . , vm lineair onafhankelijk. Bewijs Onderstel dat de vectoren v1 , . . . , vm lineair afhankelijk zijn. Dan bestaat er een eerste vector vk in de rij die lineaire combinatie is van de voorgaande vectoren v1 , . . . , vk−1 . Dit betekent dat vk = a1 .v1 + · · · + ak−1 .vk−1 111 (a1 , . . . , ak ∈ K) en dat de vectoren v1 , . . . , vk−1 lineair onafhankelijk zijn. We vinden dan ck .vk = f (vk ) = a1 f (v1 ) + · · · + ak−1 .f (vk−1 ) = c1 a1 v1 + · · · + ck−1 .ak−1 .vk−1 en anderzijds is ck vk = ck a1 v1 + · · · + ck .ak−1 .vk−1 Bijgevolg is (c1 − ck )a1 v1 + · · · + (ck−1 − ck )ak−1 vk−1 = 0 Vermits de vectoren v1 , . . . , vk−1 lineair onafhankelijk zijn volgt hieruit dat (c1 − ck )a1 = · · · = (ck−1 − ck )ak−1 = 0 Vermits de eigenwaarden c1 , . . . , ck onderling verschillend zijn volgt hieruit dat a1 = · · · = ak−1 = 0. Maar dit betekent dat vk = 0. Dit is strijdig met het feit dat vk een eigenvector is. De vectoren v1 , . . . , vm zijn dus lineair onafhankelijk. Gevolg 3.3.7 Als de karakteristieke veelterm n verschillende eigenwaarden heeft dan dan is de matrix van f diagonaliseerbaar Bewijs Kies voor elke eigenwaarde een corresponderende eigenvector. Deze n vectoren zijn lineair onafhankelijk. Vermits dim(V ) = n vormen de vectoren een basis. Ten opzichte van deze basis is de matrixvoorstelling van f een diagonaalmatrix (met de verschillende eigenwaarden op de diagonaal). Definitie 3.3.8 Als c ∈ K een eigenwaarde is van de lineaire afbeelding f : V → V , stel dan Vc = v ∈ V f (v) = c.v) Men noemt Vc de eigenruimte met eigenwaarde c. 112 Uit de definitie volgt dat Vc bestaat uit alle eigenvectoren met eigenwaarde c samen met de nulvector. Propositie 3.3.9 Als c een eigenwaarde is van het endomorfisme f : V → V dan is Vc een deelruimte van V . Bewijs Het is duidelijk dat Vc = Ker(f − c.IdV ). Bijgevolg is Vc een deelruimte. Definitie 3.3.10 Zij f : V → V een endomorfisme en zij c een eigenwaarde van f . Dan noemt men de dimensie van de eigenruimte Vc de geometrische multipliciteit van c. De multipliciteit van c als wortel van de karakteristieke veelterm van f noemt men de algebraische multipliciteit. Het getal m is dus de algebraische multipliciteit van c als de karakteristieke veelterm P (t) deelbaar is door (t−c)m maar niet deelbaar is door (t−c)m+1 . Anders gezegd, er bestaat een veelterm Q(t) met P (t) = (t − c)m Q(t) en met Q(c) 6= 0. Propositie 3.3.11 Zij f : V → V een endomorfisme en zij c een eigenwaarde van f . Dan is de geometrische multipliciteit van c altijd kleiner of gelijk aan de algebraische multipliciteit. Bewijs Stel P (t) de karakteristieke veelterm van f . Stel dim(Vc ) = r en stel m de algebraische multipliciteit van c. Dan is P (t) = (t − c)m .Q(t) met Q(t) een veelterm zodat Q(c) 6= 0. Kies een basis e1 , . . . , er voor Vc . We kunnen de rij dan aanvullen tot een basis e1 , . . . , en voor V . Ten opzichte van deze basis heeft f een matrix van de vorm : c B .. . c 0 C waarbij B een (r, n − r)-matrix en C een (n − r, n − r)-matrix is. Voor de karakteristieke veelterm vinden we dan c−t B ... P (t) = det c−t 0 C − t.In−r 113 Na uitwerking vinden we P (t) = ±1(t − c)r .det(C − t.In−r ) Hieruit volgt dan dat r ≤ m. Zij c1 , . . . , ct de verschillende eigenwaarden van de lineaire afbeelding f : V → V . Als v een vector is in Vc1 + · · · + Vct dan heeft v een ontbindig van de vorm v = v1 + · · · + vt met vi ∈ Vci Aangezien eigenvectoren die bij verschillende eigenwaarden horen lineair onafhankelijk zijn is deze ontbinding uniek. Dit betekent dat de somruimte Vc1 + · · · + Vct in feite een directe som is. Als mi de geometrische multipliciteit is van ci dan volgt hieruit dat dim(Vc1 + · · · + Vct ) = m1 + · · · + mt Propositie 3.3.12 Zij f : V → V een lineaire afbeelding. De matrix van f is diagonaliseerbaar als en slechts de volgende voorwaarden voldaan zijn 1. de karakteristieke veelterm is te ontbinden als een product van lineaire factoren 2. voor elke eigenwaarde van f is de geometrische multipliciteit gelijk aan de algebaische. Bewijs Stel c1 , . . . , ct de verschillende eigenwaarden van f . Stel mi de geometrische multipliciteit van ci en stel ni de algebraische multipliciteit van ci . Onderstel dat de matrix van f diagonaliseerbaar is. Dan heeft V een basis e1 , . . . , en van eigenvectoren. Stel ri het aantal vectoren in deze basis met eigenwaarde ci . Deze vectoren liggen in Vci en zijn lineair onafhankelijk. Bijgevolg is ri ≤ mi . We kunnen de basisvectoren nummeren zodat de eerste r1 vectoren eigenwaarde c1 hebben, de daaropvolgende r2 vectoren eigenwaarde c2 hebben 114 enz. . . Ten opzichte van deze basis heeft de matrix van f de volgende blokvorm : C1 0 . . . 0 0 C2 . . . 0 .. .. . . 0 ... 0 Ct waarbij Ci = ci Iri De karakteristieke veelterm van f wordt dan P (t) = (c1 − t)r1 . . . (ct − t)rt De karakteristieke veelterm is dus een product van lineaire factoren. Bovendien is ri = ni voor elke i = 1, . . . , t. Aangezien ri ≤ mi ≤ ni vinden we ook dat mi = ni . Omgekeerd, onderstel dat de karakteristieke veelterm P (X) in lineaire factoren ontbindbaar is en dat mi = ni voor elke i = 1, . . . , t. We vinden dan dat P (t) = ±(t − c1 )n1 . . . (t − ct )nt en dus dim(Vc1 + · · · + Vct ) = m1 + · · · + mt = n1 + · · · + nt = n Bijgevolg is V = Vc1 + · · · + Vct . Als we nu voor elke eigenruimte Vci een basis kiezen dan vormen al deze vectoren samen een basis voor de somruimte en dus voor V . Ten opzichte van deze basis is de matrix van f een diagonaalmatrix. De stellingen die we bewezen werden steeds geformuleerd voor algemene endomorfismen van V . Ze kunnen in het bijzonder toegepast worden voor endomorfismen van de vorm f : K n → K n met f (x) = x.tA waarbij A een (n, n)-matrix is met coëfficiënten in K. We vinden op die manier eigenschappen over eigenwaarden en eigenvectoren van matrices. 115 Onderstel dat de matrix A diagonaliseerbaar is. Dan bestaat er dus een basis u1 , . . . , un voor K n zodat elke ui een eigenvector is. Dus A.tui = ∗ ∗ .tui met ∗∗ de corresponderende eigenwaarde. Stel U de matrix met tu1 , . . . , tun als kolommen. Dan is ∗∗ 0 . . . 0 0 ∗∗ . . . 0 A.U = .. .U . . . .. . . 0 . . . 0 ∗∗ Dit betekent dat U −1 .A.U de diagonaal matrix is met de eigenwaarden op de diagonaal. Dit is dus de matrixvoorstelling van f ten opzichte van de basis u1 , . . . , u n . Tot hiertoe was het niet nodig om onderscheid te maken tussen reële en complexe vectorruimten. Voor reële vectorruimten kan men de volgende stelling bewijzen. Propositie 3.3.13 Zij V een n-dimensionale reële vectorruimte en zij f :V →V een lineaire afbeelding. Als de matrix van f symmetrisch is dan voldoet f aan de voorwaarden van de voorgaande stelling en dus is de matrix van f diagonaliseerbaar. In het geval van een complexe vectorruimte kunnen we echter gebruik maken van de volgende belangrijke stelling. Propositie 3.3.14 (Hoofdstelling van de algebra) Als F (t) een complexe veelterm is met graad(F ) ≥ 1 dan heeft F (t) een wortel in C. Hieruit volgt dat elke complexe veelterm te ontbinden is als een product van lineaire factoren. Uit deze stelling volgt dat een complexe matrix diagonaliseerbaar is als en slechts als de geometrische multipliciteiten van de wortels van de karakteristieke veelterm gelijk zijn aan de algebraische multipliciteiten. 116 3.3.2 Iteratieve oplossingsmethoden voor stelsels We zagen vroeger hoe we stelsels van lineaire vergelijkingen kunnen oplossen met het algoritme van Gauss. In theorie is dit een zeer goede methode die de exacte oplossingen van het stelsel geeft. In de practijk kunnen we met een computer de oplossingen slechts in benaderende vorm vinden. Bovendien kan de gevonden oplossing door slechte toepassing van het algoritme van Gauss totaal verkeerd zijn. We zullen hier een andere oplossingsmethode beschrijven. Deze methode kan echter niet altijd toegepast worden. Bovendien zijn de oplossingen die we vinden zijn (bijna) nooit exact maar steeds benaderend. Voor geschikte stelsels is de fout echter kleiner dan door de commputer kan beschreven worden. De gevonden oplossingen zijn dus evengoed als degene die door Gauss gevonden worden. Beschouw het stelsel A.tX = tb waarbij A een omkeerbare (n, n)-matrix is en waarbij b = (b1 , . . . , bn ) ∈ Rn . We splitsen de matrix A in twee stukken. Stel A = S−T met S inverteerbaar. Een vector x ∈ Rn is dan een oplossing van het stelsel als en slechts als S.tx = T.tx + tb. We starten nu met een initiële benadering x0 . (Een gok dus.) Op een iteratieve manier berekenen we met deze beginwaarde een rij vectoren x0 , x1 , . . . , xk , . . . waarbij S.txk+1 = T.txk + tb We hopen dan dat de vectoren xk steeds betere benaderingen worden van de echte oplossing x van het stelsel. Om bruikbaar te zijn verlangen we van de methode eigenlijk twee dingen : 1. de nieuwe vector xk+1 moet eenvoudig te berekenen zijn. Hiervoor moet S een eenvoudige en gemakkelijk te inverteren matrix zijn. 2. de rij x0 , x1 , . . . , xk , . . . moet naar de werkelijke oplossing convergeren, en liefst zo snel mogelijk. Voor elke xk noteren we ek = x − xk de foutvector. Dan is S.tek+1 = T.tek en dus ek+1 = (S −1 .T ).tek t 117 Als e0 = x − x0 de initiële fout is dan is ek = (S −1 .T )k .e0 Het is duidelijk dat de rij x0 , x1 , . . . , xk , . . . naar de oplossing x convergeert als en slechts als de rij e0 , e1 , . . . , ek , . . . naar 0 convergeert. Propositie 3.3.15 De iteratieve methode convergeert naar de werkelijke oplossing van het stelsel als en slechts als elke eigenwaarde λ van S −1 .T voldoet aan de eis |λ| < 1. De convergentiesnelheid wordt bepaald door de maximumwaarde van |λ|. Men noemt deze maximumwaarde de spectraalradius van S −1 .T . Bewijs Voor een algemeen bewijs van de stelling verwijzen we naar een boek over numerieke methoden. In het geval dat de matrix S −1 .T diagonaliseerbaar is wordt het bewijs eenvoudig. In dit geval bestaat er een basis v1 , . . . , vn van eigenvectoren voor Rn . Stel λ1 , . . . , λn de corresponderende eigenvectoren. Als e0 = x1 .v1 + · · · + xn .vn dan is ek = x1 λk1 .v1 + · · · + xn λkn .vn Het is duidelijk dat ek naar 0 convergeert als en slechts als elke λki naar 0 convergeert. Dit laatste is het geval als en slechts als |λi | < 1. De efficiëntie van de methode wordt bepaald door de keuze van S en T . De twee eisen die moeten voldaan zijn om een goede iteratiemethode te hebben zijn in zekere zin strijdig met mekaar. De snelste convergentie bekomen we door S = A en T = 0 te nemen. In dit geval geeft x1 reeds de exacte oplossing. Het berekenen van A−1 is hier echter de moeilijkheid. Dit is juist de reden waarom we A gaan splitsen. Als ander uiterste kunnen we voor S het diagonaalgedeelte van A nemen. We krijgen dan de zogenaamde methode van Jacobi. Dus a11 . . . 0 ... S= 0 0 0 . . . ann 118 Noteer xi = (xi,1 , . . . , xi,n ). Dan vinden we a11 xk+1,1 = −(a12 xk,2 + a13 xk,3 + · · · a1n xk,n ) + b1 .. . ann xk+1,n = −(an1 xk,1 + an2 xk,2 + · · · ann−1 xk,n−1 ) + bn Deze keuze van S is goed als aii 6= 0 voor alle i = 1, . . . , n. Als A bovendien veel nulcoëffiënten heeft dan is het rechterlid eenvoudig te berekenen. Voorbeeld Neem 2 −1 2 0 0 −1 0 21 −1 A= ,S = ,T = , S .T = 1 −1 2 0 2 −1 0 0 2 Noteer de foutvector ei = (ei1 , ei2 ). Dan vinden we 1 0 21 t .txk + tb xk+1 = 1 0 2 2 De spectraalradius is in dit geval fout gehalveerd. 1 2 en t ek+1 = 1 e 2 k2 1 e 2 k1 en bij elke iteratiestap wordt de totale Een nadeel bij de Jacobimethode is dat we gedurende de volledige berekening van xk+1 alle componenten van xk moeten onthouden. Vooral bij het oplossen van grote stelsels kan dit een probleem zijn. Om dit de verhelpen zouden we de oude waarde xk,j kunnen vervangen door de nieuwe waarde xk+1,j van zodra we deze laatste kennen. We krijgen dan de volgende formules. De eertse vergelijking blijft dezelfde. a11 xk+1,1 = −(a12 xk,2 + a13 xk,3 + · · · a1n xk,n ) + b1 De tweede vergelijking wordt nu a22 xk+1,2 = −(a21 xk+1,1 + a23 xk,3 + · · · + a2n xk,n ) + b2 In de laatste vergelijking zijn alle oude waarden xk,j verdwenen. ann xk+1,n = −(an1 xk+1,1 + an2 xk+1,2 + · · · ann−1 xk+1,n−1 ) + bn 119 Deze methode wordt de methode van Gauss-Seidel genoemd. Het is eenvoudig te verifiëren dat deze methode overeenkomt met de splitsig van A waarbij S het onderdriehoeksgedeelte van A en T het strikte bovendriehoeksgedeelte van A is. Het voorbeeld van hiervoor wordt nu Voorbeeld Neem 0 2 −1 2 0 0 −1 −1 A= ,S = ,T = , S .T = −1 2 −1 2 0 0 0 We vinden nu 2 0 0 1 t . xk+1 = .txk + tb −1 2 0 0 en t ek+1 = 1 e 2 k2 1 e 4 k2 1 2 1 4 We zien dus dat bij elke iteratiestap de fout door 4 gedeeld wordt. De methode vereist dus niet alleen minder geheugenruimte maar is ook sneller. Een variant op de Gauss-Seidel methode is de successieve relaxatiemethode. Stel D het diagonaalgedeelte van A, L het strikte onderdriehoeksgedeelte en U het strikte bovendriehoelsgedeelte van A. Dan is A = L + D + U . Kies nu een getal ω ≥ 1 en stel S = ω −1 D+L. Dan wordt T = (ω −1 −1)D−U . (Gauss-Seidel komt dus overeen met de keuze ω = 1.) De convergentiesnelheid van de iteraties hangt af van het probleem en van de waarde van ω. Men zal de waarde van ω geval per geval zo optimaal mogelijk kiezen. In de praktijk is steeds ω < 2. In het voorbeeld van hiervoor blijkt de optimale waarde ongeveer 1.07 te zijn. Voor deze waarde convergeert de rij oplossingen bijna 30 keer zo snel als met de Jacobimethode. 120 Hoofdstuk 4 Elementaire analytische meetkunde 121 4.1 4.1.1 Affiene ruimten en referentiestelsels De richtingsvectorruimte van een vlak Om al te abstracte constructies en definities te vermijden zullen we uitgaan van een aantal intuı̈tieve basisbegrippen. We onderstellen een intuı̈tieve kennis van het vlak en de 3D ruimte. In het bijzonder gaan we ervan uit dat we in de ruimte de begrippen afstand en paralelle verschuiving kennen. We gebruiken ook de volgende aantal elementaire eigenschappen van punten en rechten. 1. Door twee verschillende punten gaat juist één rechte. 2. Als op een rechte een punt gekozen wordt dan heeft de rechte twee kanten. 3. Als P en Q twee verschillende punten zijn dan bestaat er een unieke parallelle verschuiving die P op Q afbeeldt. We zullen eerst deze intuı̈tieve kennis proberen te vertalen in wiskundige termen. Hierdoor worden bijkomende structuren op het vlak gedefinieerd die het mogelijk maken om zuiver meetkundige eigenschappen te herleiden tot eigenschappen van getallen. Hierdoor wordt het mogelijk om meetkundige feiten te verifëren en te bewijzen door berekeningen te maken. Om te beginnen zullen we met een vlak π een vectorruimte Vπ associëren. Deze vectorruimte Vπ vertelt iets over de onderlinge ligging van punten in het vlak. Notatie Vlakken duiden we aan met griekse letters π, α, . . .. Punten in het vlak duiden we aan met hoofdletters P, QA, B, . . .. Rechten duiden we aan met kleine letters l, r, s, . . . Als P en Q verschillende punten zijn dan noteren we de unieke rechte door deze punten als lP Q . Stel P = (A, B) A, B punten in het vlak π de verzameling van alle puntenkopels in π. Op P definiëren we een relatie ∼ door : (A, B) ∼ (C, D) als en slechts als er een parallelle verschuiving bestaat op π die A op C en B op D afbeeldt. 122 Het is eenvoudig te verifëren dat dit een equivalentierelatie is. Definieer nu Vπ = P/ ∼ de quotiëntruimte. Als P en Q punten zijn in het vlak dan noteren we de equivalentieklasse van −→ (P, Q) als P Q. Propositie 4.1.1 (Parallellogrammenwet) Zij A, B, C, en D punten in het vlak π. Dan geldt : (A, B) ∼ (C, D) ⇐⇒ (A, C) ∼ (B, D) Eén van de belangrijkste eigenschappen is het volgende verband tussen punten in π en elementen van Vπ . Propositie 4.1.2 Zij v ∈ Vπ en zij P ∈ π een punt. Dan bestaat er een −→ uniek punt Q ∈ π zodat v = P Q. −→ Bewijs Stel v = AB. Er bestaat dan een unieke parallelle verschuiving die A op B afbeeldt. Stel Q het beeld van P onder deze verschuiving. Dan is (A, P ) ∼ (B, Q) en dus ook (A, B) ∼ (P, Q). −→ −→ Dit betekent dat v = AB = P Q. Met behulp van voorgaande stelling kunnen we op Vπ een optelling en een vermenigvuldiging met reële getallen geven. Zij v, w ∈ Vπ Kies dan een punt P ∈ π willekeurig. ( −→ ∃1Q ∈ π zodat P Q = v ⇒ −→ ∃1R ∈ π zodat QR = w −→ Definieer dan v + w = P R. 123 Op het eerste zicht lijkt deze definitie af te hangen van de keuze van het punt P . Dit is echter niet het geval. Zij P 0 een ander punt in π. ( −→ ∃1Q0 ∈ π zodat P 0 Q0 = v ⇒ −→ ∃1R0 ∈ π zodat Q0 R0 = w Dan is (P, Q) ∼ (P 0 , Q0 ) en dus (P, P 0 ) ∼ (Q, Q0 ). Verder is (Q, R) ∼ (Q0 , R0 ) en dus (Q, Q0 ) ∼ (R, R0 ). Uit de transitiviteit van de relatie ∼ volgt dan dat −→ −→ (P, P 0 ) ∼ (R, R0 ) en dus is (P, R) ∼ (P 0 , R0 ). Dit betekent dat P R = P 0 R0 en dus hangt de somvector niet af van het gekozen punt P . Uit de definitie van de optelling volgt direct de volgende eigenschap Propositie 4.1.3 Als P, Q en R punten zijn in het vlak dan is −→ −→ −→ P Q = P R + RQ Zij nu v ∈ Vπ en λ ∈ R. Kies een punt P ∈ π willekeurig. −→ ⇒ ∃1Q ∈ π zodat v = P Q Stel T de parallelle verschuiving die P afbeeldt op Q. Als λ > 0 stel dan T 0 de parallelle verschuiving die een punt verschuift in de zelfde richting als T maar over een afstand die gelijk is aan λ( lengte van T ) Als λ < 0 stel dan T 0 de parallelle verschuiving met lengte −λ.(lengte van T ), evenwijdig met T en in tegengestelde richting als T . −→ Stel R het beeld van Q onder T 0 . We definiëren dan λ.v = P R. Merk op dat in deze constructie de punten P, Q en R op een rechte liggen. Maar ook het omgekeerde is waar. Als P.Q en R op een rechte liggen dan zijn de parallelle verschuivingen die P op Q en P op R afbeelden op een −→ −→ evenredigheidsfactor dezelfde. Dit betekent dat P Q en P R evenredig zijn (met dezelfde evenredigheidsfactor). 124 Ook deze constructie hangt niet af van de keuze van het punt P . Aangezien de definitie van Vπ een resultaat is van een vertaling van intuı̈tieve kennis in wiskundige termen heeft het geen zin om rigoureuze bewijzen van elementaire stellingen proberen te geven. De volgende eigenschap van Vπ nemen we dus maar aan zonder bewijs. Propositie 4.1.4 (Vπ , +, .) is een tweedimensionale reële vectorruimte. Voor −→ elk punt P ∈ π is P P gelijk aan de nulvector in Vπ . We noemen Vπ de richtingsvectorruimte van het vlak π. Uit de definitie van het product van vectoren in Vπ met getallen in R volgt direct de volgende stelling. Propositie 4.1.5 Zij P, Q en R drie verschillende punten in het vlak π. −→ Dan liggen deze punten op een rechte als en slechts als de vectoren P Q en −→ P R lineair afhankelijk zijn. −→ Bewijs −→ Vermits de punten P, Q en R verschilend zijn is P Q, P R 6= 0. −→ −→ Uit prop volgt dan dat P Q en P R lineair afhankelijk zijn als en slechts als −→ −→ P R = λ.P Q voor zekere λ ∈ R∗ . Maar dit betekent juist dat P, Q en R op een rechte liggen. (Zie de opmerkingen hiervoor.) We kunnen deze stelling nog een beetje veralgemenen. Propositie 4.1.6 Zij P, Q, R en S punten in π met P 6= Q en R 6= S. Dan −→ −→ zijn de vectoren P Q en RS lineair afhankelijk als en slechts als de rechten lP Q en lRS evenwijdig zijn. −→ Bewijs −→ −→ −→ Onderstel dat P Q en RS lineair afhankelijk zijn. Dan is P Q = λ.RS voor zekere λ ∈ R∗ . Stel T de unieke parallelle verschuiving die P afbeeldt op R en stel S 0 = T (Q). Dan is lRS 0 = T (lP Q ). Bovendien is −→ −→ −→ RS 0 = P Q = λ.RS 125 Uit de vorige stelling volgt dan dat R, S en S 0 op één rechte liggen, i.e. S 0 ∈ lRS . Maar dan is lRS 0 = lRS en dus T (lP Q ) = lRS . De rechten lP Q een lRS zijn dus evenwijdig. Omgekeerd, onderstel dat de rechten lP Q en lRS evenwijdig zijn. Neem T en S 0 zoals hiervoor. Dan is T (lP Q ) = lRS en S 0 ∈ lRS . Uit de vorige stelling −→ −→ −→ volgt weer dat RS en RS 0 = P Q lineair afhankelijk zijn. Zij l een rechte in het vlak en zij P en Q twee verschillende punten op l. De verzameling n −→ o Vl = λ.P Q λ ∈ R −→ is dan een 1-dimensionale deelruimte van Vπ met basis {P Q}. Deze deelruimte hangt niet af van de keuze van de punten P en Q. Als R en S nog −→ −→ punten zijn op l (met R 6= S) dan zijn P Q en RS lineair afhankelijk. Bi−→ −→ jgevolg bestaat er een getal µ ∈ R∗ zodat RS = µ.P Q. De deelruimtes voortgebracht door deze vectoren zijn bijgevolg dezelfde. Uit stelling 4.1.6 volgt bovendien : Propositie 4.1.7 Twee rechten l en l0 zijn evenwijdig als en slechts als Vl = Vl0 . Definitie 4.1.8 Als l een rechte is dan noemt men Vl de richtingsruimte van l. Een basisvector voor Vl noemt men een richtingsvector voor l. Zij nu W een 1-dimensionale deelruimte van Vπ en zij w ∈ W een vector met −→ w 6= 0. Dan is {w} een basis voor W . Elk puntenkoppel (P, Q) met w = P Q bepaalt een rechte. Uit stelling 4.1.6 volgt weer dat een andere basisvector of een andere representant van de basisvector een evenwijdige rechte bepaalt. Uit deze en de vorige overwegingen kunnen we dus besluiten dat er 1-1 correspondenties bestaan tussen de volgende soorten data : 1. klassen van evenwijdige rechten π. 2. 1-dimensionale deelruimten van Vπ 3. klassen van lineair afhankelijke vectoren in Vπ . 126 Kies nu een vast punt O in π. We noemen dit punt de oorsprong van π. −→ Elk punt P ∈ π bepaalt nu een unieke vector OP in Vπ . Omgekeerd, voor −→ elke vector v ∈ Vπ bestaat er een uniek punt P ∈ π zodat v = OP . Opmerking In sommige boeken wordt een vector altijd beschouwd als aangehecht aan de oorsprong. Hierdoor vervalt eigenlijk het onderscheid tussen punten en vectoren. Het heeft echter zijn nut om vectoren algemener te bekijken. We hebben dus een 1-1 correspondentie tussen punten in π en vectoren in Vπ . Eigenschappen en relaties tussen punten in π komen dan overeen met eigenschappen en relaties tussen vectoren in Vπ en omgekeerd. Als voorbeeld stellen we een eerste versie op van een parametervergelijking voor een rechte. Zij l een rechte in π en zij P en Q twee verschillende punten op l. Dan is −→ P Q een basisvector voor Vl . Een punt R ligt ook op de rechte als en slechts −→ −→ −→ als P R ∈ Vl . Dit betekent dat P R = t.P Q voor zekere t ∈ R. Hieruit volgt dat l bestaat uit de punten R die voldoen aan de volgende vergelijking : −→ −→ −→ OR = OP + t.P Q (t ∈ R) 4.1.2 Affiene referentiestelsels voor het vlak We beschouwen weer een vlak π met bijbehorende richtingsvectorruimte Vπ en oorsprong O. Definitie 4.1.9 Zij e1 , e2 een basis voor Vπ . Het drietal (O, e1 , e2 ) noemt men een affien referentiestelsel voor π. −→ Als P een punt is in π dan is de vector OP een lineaire combinatie van e1 en e2 . −→ −→ De vector OP is dus op een unieke manier te schrijven in de vorm OP = p1 .e1 + p2 .e2 . Men noemt (p1 , p2 ) de coördinaten van P ten opzichte van het referentiestelsel (O, e1 , e2 ). We noteren deze coördinatenrij meestal als p. 127 Elk punt in π bepaalt dus een stel coördinaten in R2 . Omgekeerd, elk koppel (p1 , p2 ) in R2 bepaalt een uniek punt in het vlak want (p1 , p2 ) bepaalt een unieke vector v = p1 .e1 + p2 .e2 . Er bestaat dan een uniek punt P in het vlak −→ zodat v = OP . We hebben dus een 1-1 correspondentie tussen punten in π en koppels in R2 . Eigenschappen en betrekkingen tussen punten komen nu overeen met eigenschappen en betrekkingen tussen getallen. Propositie 4.1.10 Zij P en Q punten in π met coördinaten p en q ten −→ opzichte van een affien referentiestelsel (O, e1 , e2 ). De coëfficiënten van P Q ten opzichte van de basis {e1 , e2 } zijn dan qp, i.e. −→ P Q = (q1 − p1 )e1 + (q2 − p2 )e2 Bewijs Oefening! Propositie 4.1.11 (Parameter vergelijking van een rechte) Zij P en Q twee verschillende punten in π met coördinaten p en q ten opzichte van een affien referentiestelsel (O, e1 , e2 ). Een punt R met coördinaten x ligt op de rechte lP Q als en slechts als x voldoet aan de vergelijking x = (1 − t)p + tq Bewijs jking Het punt R ligt op lP Q als en slechts als R voldoet aan de vergeli−→ −→ −→ OR = OP + t.P Q voor zekere t ∈ R. Dit betekent dat x = p + t.(q − p) Hieruit volgt de vergelijking. 128 Propositie 4.1.12 (Parameter vrije vergelijking van eeen rechte) Zij P en Q twee verschillende punten in π met coördinaten p en q ten opzichte van een affien referentiestelsel (O, e1 , e2 ). Een punt R met coördinaten x ligt op de rechte lP Q als en slechts als x voldoet aan de vergelijking x 1 − p 1 q1 − p 1 det =0 x 2 − p 2 q2 − p 2 of nog x1 (q2 − p2 ) − x2 (q1 − p1 ) = p1 q2 − p2 q1 Bewijs jking Het punt R ligt op lP Q als en slechts als R voldoet aan de vergelix = p + t.(q − p) en dus x − p = t.(q − p) Dit betekent dat de vectoren x − p en q − p in R2 lineair afhankelijk zijn. Dit laatste is waar als en slechts als x 1 − p 1 q1 − p 1 det =0 x 2 − p 2 q2 − p 2 De coördinaten (x1 , x2 ) van een punt op L zijn dus oplossing van een lineaire vergelijking van de vorm u 1 x 1 + u 2 x 2 = u0 Bovendien is (u1 , u2 ) 6= (0, 0). Ook het omgekeerde is waar, een lineaire vergelijking (in twee onbekenden x1 en x2 ) bepaalt een unieke rechte in het vlak. Propositie 4.1.13 Zij u0 , u1 en u2 getallen in R zodat (u1 , u2 ) 6= (0, 0). Dan is u 1 x 1 + u 2 x 2 = u0 de vergelijking van een rechte l in het vlak π. De vector u = u2 .e1 − u1 .e2 is een basivector voor de richtingsruimte Vl . 129 Bewijs We onderstellen dat u1 6= 0. (Als u1 wel 0 is dan is u2 6= 0. In dat geval kunnen we een analoog bewijs geven.) De koppels u0 u0 − 1) p = ( , 0) en q = ( ) u1 u1 zijn oplossingen van de vergelijking en kunnen opgevat worden als de coördinaten van twee verschillende punten P en Q. Als we de vergelijking van de rechte lP Q door deze punten berekenen dan −→ vinden we juist de gegeven vergelijking terug. Bovendien is de vector P Q een basisvector voor lP Q . Vermits u1 6= 0 is echter −→ −u1 .P Q = u2 .e1 − u1 .e2 ook een basisvector. Definitie 4.1.14 Als de rechte l vergelijking u1 x1 + u2 x2 = u0 heeft dan noemt men u = (u1 , u2 ) de richtingsgetallen van l Gevolg 4.1.15 Zij l en l0 rechten met richtingsgetallen u en v. Dan geldt : len l0 evenwijdig ⇐⇒ ∃c ∈ R∗ zodat u = c.v Bewijs De rechten zijn evenwijdig als en slechts als ze dezelfde richtingsruimte hebben. Alle basisvectoren voor deze richtingsruimte zijn onderling evenredig. Opmerking De vergelijking van een rechte is slechts bepaald op vermenigvuldiging met een evenredigheidsfactor λ ∈ R∗ na. De vergelijkingen u1 .x1 + u2 .x2 = u0 en (λ.u1 ).x1 + (λ.u2 ).x2 = λ.u0 bepalen dus de dezelfde rechte. 130 We bepalen nu de doorsnede van twee rechten in het vlak π. Stel dat l1 en l2 rechten zijn met vergelijkingen u 1 x 1 + u 2 x 2 = u0 (l1 ) v1 x 1 + v2 x2 = v0 (l2 ) Een punt P met coördinaten x = (x1 , x2 ) ligt in de doorsnede van de rechten als x een oplossing is van het stelsel u1 u2 X1 u0 . = v1 v2 X2 v0 Of korter U.tX = tw met U= u1 u 2 v1 v2 en w = u0 v 0 Er zijn 3 mogelijkheden. 1. rg(U ) = 2 In dit geval heeft het stelsel exact één oplossing x = wtU −1 De richtingsgetallen van de rechten zijn niet evenredig en dus zijn de rechten niet evenwijdig. Ze snijden elkaar in één punt. 2. rg(U ) = 1 en rg(U tw) = 2 Het stelsel is dan strijdig er heeft dus geen oplossingen. De richtingsgetallen van de rechten zijn evenredig en dus zijn ze evenwijdig maar verschillend. 3. rg(U ) = 1 en rg(U tw) = 1 De rechten l1 en l2 hebben dan evenredige vergelijkingen en vallen dus samen. Het stelsel heeft oneindig veel oplossingen. 131 4.1.3 Verandering van referentiestelsel in een vlak Zij (O, e1 , e2 ) en (O0 , e01 , e02 ) twee affiene referentiestelsels voor het vlak π. Dan zijn e01 en e02 lineaire combinaties van e1 en e2 . Stel 0 e1 = a11 e1 + a21 e2 e02 = a12 e1 + a22 e2 en stel A= a11 a12 a21 a22 Stel c = (c1 , c2 ) de coördinaten van O0 ten opzichte van het affien referentiestelsel (O, e1 , e2 ). Zij P een punt in π. Stel x = (x1 , x2 ) de coördinaten van P t.o.v. (O, e1 , e2 ) en x0 = (x01 , x02 ) de coördinaten van P t.o.v. (O0 , e01 , e02 ). −→ −→ ⇒ OP = x1 e1 + x2 e2 en O0 P = x01 e01 + x02 e02 Anderzijds is −→ −→ −→ −→ OP = OO0 + O0 P = OO0 + x01 e01 + x02 e02 −→ = OO0 + x01 (a11 e1 + a21 e2 ) + x02 (a12 e1 + a22 e2 ) = c1 e1 + c2 e2 + x01 (a11 e1 + a21 e2 ) + x02 (a12 e1 + a22 e2 ) = (c1 + a11 x01 + a12 x02 )e1 + (c2 + a21 x01 + a22 x02 )e2 en dus is x1 = c1 + a11 x01 + a12 x02 x2 = c2 + a21 x01 + a22 x02 In matrixnotatie geeft dit : x = tc + A.tx0 t 4.1.4 De richtingsvectorruimte voor de 3D ruimte We kunnen de methode die we gebruikten om het vlak te bestuderen zonder problemen aanpassen voor de 3D ruimte E. Stel PE = (P, Q) P, Q punten in E Definieer een relatie ∼ op PE op dezelfde manier als voor het vlak. Dan is ∼ weer een equivalentierelatie op PE . Stel VE = PE / ∼. 132 Als P, Q punten zijn in E dan noteren we de equivalentieklasse van (P, Q) −→ als P Q. De parallellogrammenwet geld ook hier. Op VE definiëren we een optelling en een vermenigvuldiging met reële getallen op dezelfde manier als voor Vπ . Op deze manier wordt VE een driedimensionale vectorruimte. We noemen VE de richtingsruimte van E. De nulvector in −→ VE is dan P P . Bovendien geldt de volgende propositie. Propositie 4.1.16 Als P, Q en R punten zijn in E dan is −→ −→ −→ P Q = P R + RQ Als π een vlak is in E dan is Pπ ⊂ PE . Bovendien is de relatie ∼ op Pπ op dezelfde manier gedefinieerd als op PE . Hierdoor kunnen we Vπ opvatten als deelverzameling van VE . Vermits ook de bewerkingen op Vπ en op VE op dezelfde manier gedefinieerd zijn is Vπ een deelvectorruimte van VE . Als P, Q en R punten zijn in E die niet op één rechte liggen dan gaat er juist −→ één vlak door deze punten. We noteren dit vlak als πP QR . De vectoren P Q −→ en P R zijn dan lineair onafhankelijk en vormen dus een basis voor VπP QR . Eigenschappen uit het vorige deel blijven geldig in E of kunnen zonder problemen aangepast worden voor het 3D geval. We laten de bewijzen als oefening. Propositie 4.1.17 Drie punten P, Q en R liggen op één rechte als en slechts −→ −→ als P Q en P R lineair afhankelijk zijn. Propositie 4.1.18 1. Twee rechten in E zijn evenwijdig als en slechts als hun richtingsruimten dezelfde zijn. 2. Twee vlakken in E zijn evenwijdig als en slechts als hun richtingsruimten dezelfde zijn. Kies nu een vast punt O in E. We noemen O de oorsprong. Elk punt P ∈ E −→ bepaalt dan een unieke vector OP in VE . Op die manier vinden we nu een 1-1 correspondentie tussen punten in E en vectoren in VE . We kunnen nu weer parametervergelijkingen opstellen voor rechten en vlakken. Zij P.Q en R punten in een vlak π die niet op één rechte liggen. Dan vormen 133 −→ −→ P Q en P R een basis voor Vπ . −→ Een punt S ligt in π als en slechts als P S een lineaire combinatie van deze basisvectoren is. −→ ⇒ −→ −→ ∃s, t ∈ R zodat P S = s.P Q + t.P R We vinden dan −→ −→ −→ −→ −→ −→ OS = OP + P S = OP + sP Q + tP R en dus n −→ −→ −→ −→ o π = S ∃s, t ∈ R zodat OS = OP + sP Q + tP R We krijgen nu dus een vergelijking die van twee parameters s en t afhangt. −→ Als P en Q verschillende punten zijn op een rechte l in E dan is P Q een basisvector voor Vl . −→ Een punt R ligt ook op l als een slechts als P R een veelvoud is van deze −→ −→ basisvector. Als P R = t.P Q dan is −→ −→ −→ OR = OP = t.P Q Bijgevolg is 4.1.5 n −→ −→ −→ o L = R ∃t ∈ R zodat OR = OP + t.P Q Affiene referentiestelsels voor E We kiezen in E een vaste oorsprong O en een geordende basis e1 , e2 , e3 voor VE . Definitie 4.1.19 Het geordend viertal (O, e1 , e2 , e3 ) noemt men een affien referentiestelsel voor E. −→ Als P een punt is in E dan bepaalt P een unieke plaatsvector OP in VE . Deze −→ vector is te schrijven als een lineaire combinatie OP = p1 .e1 + p2 .e2 + p3 .e3 . Men noemt het geordend drietal p = (p1 , p2 , p3 ) de coördinaten van P ten opzichte van het affiene referentiestelsel. We hebben nu een 1-1 correpondentie gevonden tussen punten in E en geordende drietallen in R3 . Meetkundige eigenschappen corresponderen nu met eigenschappen van R3 . 134 Propositie 4.1.20 Als P en Q punten zijn met coördinaten p en q ten −→ opzichte van een affien referentiestelsel (O, e1 , e2 , e3 ) dan heeft de vector P Q coëfficiënten q − p ten opzichte van de basis {e1 , e2 , e3 }. De vergelijking van een vlak in E. Zij P, Q en R punten in E die niet op één rechte liggen. Stel p, q en r de coördintaten van P, Q en R t.o.v een affien referentiestelsel (O, e1 , e2 , e3 ). Stel π = πP QR het vlak door deze drie punten. Een punt S met coördinaten x ligt in π als en slechts −→ −→ −→ −→ OS = OP + s.P Q + t.P R voor zekere s, t ∈ R. Voor de coëfficiënten betekent dit : x − p = s.(q − p) + t.(r − p) We vinden dus dat π bestaat uit al de punten waarvan de coördintaten voldoen aan de volgende verglijking : x = p + s.(q − p) + t.(r − p) (s, t ∈ R) De coördinaten x hangen dus af van twee parameters s en t. We noemen dit de parametervergelijking van π. We kunnen deze vergelijking bewerken zodat de parameters s en t verwijnen. Propositie 4.1.21 (Parameter vrije vergelijking van een vlak) Het vlak π bestaat uit alle punten met coördinaten x die voldoen aan de vergelijking : x 1 − p 1 q1 − p 1 r 1 − p 1 det x2 − p2 q2 − p2 r2 − p2 = 0 x 3 − p 3 q3 − p 3 r 3 − p 3 Bewijs Een punt met coördinaten x ligt in π als en slechts als x = p + s.(q − p) + t.(r − p) voor zekere s, t ∈ R. Dit betekent dat (x − p), (q − p) en (r − p) lineair afhankelijk zijn. Dit betekent ook dat x 1 − p 1 q1 − p 1 r 1 − p 1 det x2 − p2 q2 − p2 r2 − p2 = 0 x 3 − p 3 q3 − p 3 r 3 − p 3 135 De ontwikkeling van deze determinant geeft een lineaire vergelijking van de vorm u 1 x 1 + u2 x 2 + u3 x 3 = u 0 met u0 , u1 , u2 , u3 ∈ R. In matrix vorm geeft dit u.tx = u0 met u = (u1 , u2 , u3 ). Het is eenvoudig te verifiëren dat u 6= 0 Ook hier hebben we een omgekeerde eigenschap. Propositie 4.1.22 Zij (u1 , u2 , u3 ) 6= (0, 0, 0). De punten in E met coördinaten x = (x1 , x2 , x3 ) ten opzichte van een affien referentiestelsel (O, e1 , e2 , e3 ) die voldoen aan de lineaire vergelijking u1 .x1 + u2 .x2 + u3 .x3 = u0 vormen een vlak π in E. De verzameling {(u2 .e1 − u1 .e2 ), (u3 .e2 − u2 .e3 ), (u1 .e3 − u3 .e1 )} is voortbrengend Vπ . Bewijs We mogen onderstellen dat u1 6= 0. (Als u1 = 0 dan is u2 6= 0 of u3 6= 0. We kunnen de onderstaande redenering dan zonder problemen aanpassen.) De volgende drietallen zijn oplossingen van de vergelijking : u0 − u 2 u0 − u 3 u0 , 0, 0 , 1, 0 , 0, 1 u1 u1 u1 We kunnen deze drietallen opvatten als de coördinaten van punten P, Q en R. Het is eenvoudig te verifiëren dat deze coördinaten lineair onafhankelijk zijn. 136 Bijgevolg liggen P, Q en R niet op één rechte. De parameter vrije vergelijking van het vlak πP QR is dan u0 u2 u3 x1 − + x2 . + x3 . = 0 u1 u1 u1 Op vermenigvuldiging met u1 na is dit de gegeven vergelijking. Beide vergelijkingen hebben dezelfde oplossingen en dus is de gegeven vergelijking juist de vergelijking van πP QR . −→ −→ Bovendien vormen de vectoren P Q en P R een basis voor VπP QR . Als we beide vectoren met ±u1 vermenigvuldigen dan hebben we nog steeds een basis. (Want u1 6= 0.) De vectoren die we zo vinden zijn u2 .e1 − u1 .e2 en u1 .e3 − u3 .e1 . Als we de derde vector u3 .e2 − u2 .e3 bijvoegen dan krijgen we dus zeker een voortbrengende verzameling. (Als we de redenering opnieuw uitvoeren maar nu met de onderstelling dat u2 6= 0 of u3 6= 0 dan vinden we dezelfde voortbrengende verzameling.) In de vorige stelling vinden we een voortbrengende verzameling voor Vπ die eigenlijk te groot is. Deze formulering heeft echter het voordeel dat de voortbrengende verzameling symmetrisch is in de indexen 1,2 en 3. Als één of twee van de ui ’s 0 zijn dan kunnen we uit deze verzameling toch nog een basis halen. • Als u1 6= 0 dan is {u2 .e1 − u1 .e2 , u1 .e3 − u3 .e1 } een basis voor Vπ . Dit volgt uit het bewijs van de stelling. • Als u2 6= 0 dan is {u3 .e2 − u2 .e3 , u2 .e1 − u1 .e2 } een basis voor Vπ . (Analoog.) • Als u3 6= 0 dan is {u1 .e3 − u3 .e1 , u3 .e2 − u2 .e3 } een basis voor Vπ . (Analoog.) 137 Propositie 4.1.23 Zij α en β vlakken met de volgende vergelijkingen ten opzichte van een affien rreferentiestelsel (O, e1 , e2 , e3 ) : u1 , x1 + u2 .x2 + u3 .x3 = u0 v1 , x1 + v2 .x2 + v3 .x3 = v0 (α) (β) Dan zijn deze vlakken evenwijdig als en slechts als er een getal c ∈ R∗ bestaat zodat (v1 , v2 , v3 ) = c.(u1 , u2 , u3 ) Bewijs Onderstel dat (v1 , v2 , v3 ) = c.(u1 , u2 , u3 ) met c ∈ R∗ . Met behulp van de vorige stelling vinden we voortbrengers voor Vα en Vβ . De voortbrengers voor Vα zijn dan telkens evenredig met de voortbrengers voor Vβ (met evenredigheidsfactor c). Hieruit volgt direct dat Vα = Vβ . Omgekeerd, onderstel dat Vα = Vβ . We mogen weer onderstellen dat u1 6= 0. In dit geval is {u2 .e1 − u1 .e2 , u1 .e3 − u3 .e1 } een basis voor Vα en bovendien is ook v1 6= 0. Als v1 wel 0 zou zijn dan is v2 6= 0 of v3 6= 0. We vinden dan uit de vorige stelling dat e1 ∈ Vβ en dus e1 ∈ Vα . Hieruit volgt dat de verzameling {e1 , u2 .e1 − u1 .e2 , u1 .e3 − u3 .e1 } lineair afhankelijk is en dus de rang van de matrix 1 u2 −u3 A = 0 −u1 0 0 0 u1 gelijk aan 2. Maar dan is det(A) = −u21 = 0. Dit is strijdig met de onderstelling u1 6= 0. Uit de vorige stelling vinden we nu dat {v2 .e1 − v1 .e2 , v1 .e3 − v3 .e1 } een basis is voor Vβ . Tussen de twee basissen die we gevonden hebben voor Vα (= Vβ ) bestaat een overgangsmatrix B ∈ Gl2 (R). 138 Na vergelijking van de verschillende schrijfwijzen van de basisvectoren vinden we u2 −u1 0 v2 −v1 0 t = B. u3 0 −u1 v3 0 −v1 Hieruit volgt u3 .u1 = det(B).v3 v1 u2 .u1 = det(B).v2 v1 2 u1 = det(b).v12 Bijgevolg is (u1 , u2 , u3 ) = We kunnen dus c = v1 u1 u1 (v1 , v2 , v3 ) v1 nemen. Als een vlak π vergelijking u1 .x1 + u2 .x2 + u3 .x3 = u0 heeft dan noemt men het drietal (u1 , u2 , u3 ) de richtingsgetallen van het vlak π. 4.1.6 Doorsnede van rechten en vlakken Zij α en β vlakken met vergelijkingen u 1 x 1 + u 2 x 2 + u 3 x 3 = u0 (α) v1 x1 + v2 x2 + v3 v3 = v0 (β) Een punt met coördinaten x = (x1 , x2 , x3 ) ligt in de doorsnede van α en β als x oplossing is van het stelsel X1 u 1 u2 u 3 u0 . X2 = v1 v2 v3 v0 X3 of korter U.tX = tw 139 met U= u 1 u2 u3 v1 v2 v3 en w = u0 v 0 We onderscheiden drie gevallen rg(U ) = 2 In dit geval is ook rg(U tw) = 2. Uit het hoofdstuk over stelsels volgt dat er oneindig veel oplossingen zijn voor het stelsel die afhangen van één parameter. We tonen aan dat al deze oplossingen corresponderen met de punten op een rechte. Zij p en q twee verschillende oplossingen. We kunnen deze oplossingen opvatten als de coördinaten van punten P en Q. Stel l de rechte door deze punten. Het verschil q − p is dan een oplossing van het homogene stelsel U.tX = 0. Zij R een punt op l met coördinaten r. Dan is −→ −→ −→ OR = OP + tP Q voor zekere t ∈ R. ⇒ r = p + t.(q − p) en dus is U.tr = U.tp + t.U.(tq − tp) = tw Bijgevolg is r ook een oplossing en R is een punt van de doorsnede van α en β. Omgekeerd, zij S een punt van de doorsnede. Stel s de coördinaten van S. Dan is s − p een oplossing van het homogene stelsel en dus is s − p = t.(q − p) voor zekere t ∈ R. ⇒ s = p + t.(q − p) −→ −→ −→ ⇒ OS = OP + t.P Q en dus is S een punt op de rechte l. We vinden dus dat de doorsnede van α en β een rechte is. rg(U ) = 1 en rg(U tw) = 2 In dit geval is het stelsel strijdig. Er liggen dan geen punten in de doorsnede. Uit propositie 4.1.23 volgt dat de vlakken evenwijdig zijn. Ze zijn bovendien verschillend. 140 rg(U ) = 1 en rg(U tw) = 1 De vlakken α en β vallen samen. De doorsnede is dus α zelf. Zij α een vlak en l een rechte in E. We onderzoeken de doorsnede van α en l. Stel u.tx = u0 de vergelijking van α met u = u1 u2 u3 en stel x = p + t(q − p) de parameter vergelijking van l waarbij p en q coördinaten zijn van punten P en Q op de rechte l. Een punt R met coördinaten x ligt in de doorsnede als er een getal t ∈ R bestaat zodat = p + t(q − p) x u.t(p + t(q − p)) = u0 We onderscheiden drie gevallen. u.t(q − p) 6= 0 In dit geval is er één oplossing voor t namelijk : t = (u0 − u.tp)/u.t(q − p) De doorsnede van l en α is dus een punt. u.t(q − p) = 0 en u.tp 6= u0 Er is geen enkel getal t dat voldoet. In dit geval is P geen punt van α en l is evenwijdig met α. De doorsnede van l en α is leeg. u.t(q − p) = 0 en u.tp = u0 Elke waarde voor t voldoet. In dit geval zij P en Q punten in α en is l een rechte in het vlak α. 4.1.7 Verandering van referentiestelsel De berekeningen zijn analoog als voor affiene referentiestelsels voor een vlak. Voor de volledigheid herhalen we nog eens de formules voor verandering van basis in een vectorruimte. 0 0 0 Als Pn e1 , . . . , en en e1 , . . . , en basissen zijn voor een vectorruimte V dan is ei = j=1 aji .ej voor zekere getallen aji . Als v ∈ V een vector is dan heeft v ontbindingen t.o.v. de basissen van de volgende vorm : v = v1 e1 + · · · + vn en v = v10 e01 + · · · + vn0 e0n 141 Het verband tussen v = (v1 , . . . , vn ) en v 0 = (v10 , . . . , vn0 ) wordt dan gegeven door A.tv 0 = tv Zij nu (O, e1 , e2 , e3 ) en (O0 , e01 , e02 , e03 ) twee affiene referentiestelsels voor E. Stel 0 e1 = a11 .e1 + a21 .e2 + a31 .e3 e02 = a12 .e1 + a22 .e2 + a32 .e3 0 e3 = a13 .e1 + a23 .e2 + a33 .e3 en stel a11 a12 a13 A = a21 a22 a23 a31 a32 a33 Zij P een punt in E met coördinaten x = (x1 , x2 , x3 ) t.o.v. (O, e1 , e2 , e3 ) en x0 = (x01 , x02 , x03 ) t.o.v. (O0 , e01 , e02 , e03 ). Dan is ( −→ OP = x1 .e1 + x2 .e2 + x3 .e3 −→ O0 P = x01 .e01 + x02 .e02 + x03 .e03 Stel c = (c1 , c2 , c3 ) de coördinaten van O0 t.o.v. (O, e1 , e2 , e3 ). Dan is −→ OO0 = c1 .e1 + c2 .e2 + c3 .e3 We vinden dan −→ −→ −→ P P OP = OO0 + O0 P = 3i=1 ci .ei + 3i=1 x0i .e0i P3 P3 P = i=1 ci .ei + i=1 x0i ( 3j=1 aji ej ) P P P = 3i=1 ci .ei + 3j=1 ( 3i=1 aji x0i )ej Bijgevolg is x = tc + A.tx0 t 4.2 Orthogonaliteit 4.2.1 Bilineaire vormen Definitie 4.2.1 Een bilineaire vorm op een R-vectorruimte V is een functie f :V ×V →R 142 die voldoet aan volgende eigenschappen : • ∀u, u0 , v ∈ V : f (u + u0 , v) = f (u, v) + f (u0 , v) • ∀u, v, v 0 ∈ V : f (u, v + v 0 ) = f (u, v) + f (u, v 0 ) • ∀λ ∈ R, u, v ∈ V : f (λ.u, v) = f (u, λ.v) = λ.f (u, v) Men zegt dat f symmetrisch is als ∀u, v ∈ V : f (u, v) = f (v, u) Men zegt dat f niet ontaard is als u 6= 0 ⇒ ∃v ∈ V zodat f (u, v) 6= 0 Men zegt dat f positief definiet is als ∀u ∈ V : u 6= 0 ⇒ f (u, u) > 0 Merk op dat een positief definiete bilineaire vorm nooit ontaard is want als u 6= 0 dan is f (u, u) 6= 0. Voorbeelden 1. Stel V = Rn en definieer f : Rn × R n → R door f (x, y) = x.ty Dan is f een symmetrische positief definiete bilineaire vorm. Men noemt deze vorm het scalair product op Rn . 2. Het voorgaande voorbeeld kan op de volgende manier veralgemeend worden. Zij A een reële (n, n)-matrix. De afbeelding f : Rn × Rn → R met f (x, y) = x.Aty is een bilineaire vorm. Bovendien is f symmetrisch als en slechts als t A=A 143 3. Stel V = F : R → R F is integreerbare functie Definieer f :V ×V →R door 1 Z F (x).G(x)dx f (F, G) = 0 Dan is f een symmetrische bilineaire vorm. Definitie 4.2.2 Zij f : V × V → R een symmetrische bilineaire vorm op een vectorruimte V . Twee vectoren heten orthogonaal of loodrecht ten opzichte van f als f (u, v) = 0 We noteren u⊥v. Als S en T deelverzamelingen zijn van V dan zegt men dat S en T orthogonaal zijn als ∀u ∈ S, v ∈ T : u⊥v We noteren S⊥T . Als S ⊂ V een deelverzameling is dan noteert men S ⊥ = v ∈ V ∀u ∈ S : u⊥v Propositie 4.2.3 Zij f : V × V → R een symmetrische bilineaire vorm op een vectorruimte V en zij S ⊂ V een deelverzameling. Dan is S ⊥ een deelruimte van V . Bewijs Zij v, v 0 ∈ S ⊥ en zij λ, λ0 ∈ R. Dan is voor elke vector v ∈ S : f (u, λ.v + λ0 .v 0 ) = λ. f (u, v) +λ0 . f (u, v 0 ) = 0 | {z } | {z } =0 =0 Bijgevolg is λ.v + λ0 .v 0 ∈ S ⊥ en dus is S ⊥ een deelruimte van V . Voorbeeld Stel B = {e1 , . . . , en } de kanonieke basis op Rn . Ten opzichte van het scalair product op Rn is ei ⊥ej voor alle i 6= j. Bovendien is ei .tei = 1 voor elke i. Als S ⊂ B een deelverzameling is dan is S ⊥ = vct(B \ S) 144 Stel namelijk dat een vector v = v1 .e1 + · · · + vn .en element is van S ⊥ . Dan is n X t v. ej = vi .(ei .tej ) = vj = 0 i=1 voor elke ej ∈ S. Bijgevolg is v= X vi .ei ei 6∈S Propositie 4.2.4 Zij f : V × V → V een symmetrische bilineaire vorm. Zij R een deelruimte met basis e1 , . . . , ek en zij S een deelruimte met basis f1 , . . . , fl . Dan geldt : R⊥S ⇐⇒ ∀i, j : ei ⊥fj Bewijs Als R⊥S dan is elke vector in R orthogonaal met elke vector in S. In het bijzonder is ei ⊥fj voor alle i en j. Omgekeerd, stel dat ei ⊥fj voor alle i en j. Zij r = r1 .e1 + · · · + rk .ek ∈ R en zij s = s1 .f1 + · · · + sl .fl ∈ S. Dan is f (r, s) = k X l X ri sj f (ei , fj ) = 0 i=1 j=1 en dus is r⊥s. Zij nu verder f : V × V → R een positief definiete bilineaire vorm op V . Als v een vector is in V dan noteert men p ||v|| = f (v, v) Men noemt ||v|| de lengte van v ten opzichte van de vorm f . Definitie 4.2.5 Zij f : V × V → R een symmetrische positief definiete bilineaire vorm. Zij e1 , . . . , en een basis voor V Men zegt dat de basis orthogonaal is als ei ⊥ej voor elke i 6= j. Men zegt dat de basis orthonormaal is als bovendien ||ei || = 1 voor elk i. 145 Voorbeeld De kanonieke basis voor Rn is orthonormaal ten opzichte van het gewone scalair product op Rn . Men kan aantonen dat de vectorruimte V een orthonormale basis heeft. Propositie 4.2.6 Zij f : V × V → R een positief definiete bilineaire vorm op de vectorruimte V . Als W ⊂ V een deelruimte is dan is V = W ⊕ W ⊥ Bewijs De restrictie van f tot W × W is een positief definiete bilineaire vorm op W . We kunnen bijgevolg een orthonormale basis {e1 , . . . , er } vinden voor W . We tonen eerst aan dat V = W + W ⊥ . Als v ∈ V een vector is stel dan w = f (v, e1 ).e1 + · · · + f (v, er ).er en stel w0 = v − w. Dan is w ∈ W en v = w + w0 . We verifiëren nu dat w0 ∈ W ⊥ . Voor elke i ∈ {1, . . . , r} is f (w0 , ei ) = f (v−w, ei ) = f (v, ei )−f (w, ei ) = f (v, ei )−f r X ! f (v, ej ).ej , ei j=1 = f (v, ei ) − r X f (v, ej ).f (ej , ei ) = f (v, ei ) − f (v, ei ) = 0 j=1 We tonen nu aan dat W ∩ W ⊥ = 0. Als v ∈ W ∩ W ⊥ dan is v⊥v en dus f (v, v) = 0. Vermits f positief definiet is volgt hieruit dat v = 0. Gevolg 4.2.7 Als W ⊂ V een deelruimte is dan is dim(V ) = dim(W ) + dim(W ⊥ ) Propositie 4.2.8 Zij f : V ×V → R een positief definiete bilineaire vorm op de vectorruimte V . Als S ⊂ V een deelverzameling is dan is S ⊥⊥ = vct(S). 146 Bewijs Het is duidelijk dat S ⊂ S ⊥⊥ en dus is ook vct(S) ⊂ S ⊥⊥ . Uit hetgeen voorafging volgt ook dat 1. S ⊥ = vct(S)⊥ en bijgevolg is dim(V ) = dim(S ⊥ ) + dim(vct(S)) 2. dim(V ) = dim(S ⊥ ) + dim(S ⊥⊥ ) Hieruit volgt dat dim(vct(S)) = dim(S ⊥⊥ ) en dus vct(S) = S ⊥⊥ . 4.2.2 Orthogonaliteit in het vlak π In het begin onderstelden we dat we een intuı̈tieve kennis hadden over een paar elementaire begrippen in het vlak. We onderstelden dat we weten wat de afstand tussen twee punten betekent. Het blijkt dat we in het vlak π drie punten O0 , P0 , QO kunnen vinden zodat de afstand tussen O0 en P0 is 1 de afstand tussen O0 en Q0 is √ 1 de afstand tussen P0 en Q0 is 2 −→ −→ De vectoren f1 = O0 P0 en f2 = O0 Q0 zijn dan lineair onafhankelijk en vormen dus een basis voor Vπ . Met deze basis kunnen we een bilineaire vorm op Vπ definiëren. Zij v = v1 .f1 + v2 .f2 en w = w1 .f1 + w2 .f2 . Stel dan v.w = v1 .w1 + v2 .w2 . Propositie 4.2.9 De afbeelding . Vπ × Vπ → R die (v, w) afbeeldt op v.w is een symmetrische positief definiete bilineaire vorm op Vπ . Ten opzichte van deze kanonieke bilineaire vorm heeft elke vector uit Vπ dus een lengte. 147 Definitie 4.2.10 Als P en Q punten zijn in π dan definiëren we de afstand −→ tussen P en Q als de lengte ||P Q||. We noteren deze afstand als d(P, Q). Een eenvoudige verificatie geeft dan : d(O0 , P0 ) = ||f1 || = 1 d(O0 , Q0 ) = ||f2 || = 1 d(P0 , Q0 ) = √ 2 We zien dus dat afstandsbegrip dat we invoerden via de bilineaire vorm overeenkomt met het intuı̈tieve begrip afstand. Uit de definitie van de bilineaire vorm blijkt bovendien dat f1 ⊥f2 . Dit betekent dat f1 , f2 een orthonormale basis is voor Vπ Propositie 4.2.11 Zij e1 , e2 een basis voor Vπ met e1 = a11 .f1 + a21 .f2 e2 = a12 .f1 + a22 .f2 Dan is e1 , e2 orthonormaal als en slechts als de matrix a11 a12 A= a21 a22 voldoet aan de betrekking : t A.A = I2 Als v = v1 .e1 + v2 .e2 en w = w1 .e1 + w2 .e2 dan is v.w = v1 .w1 + v2 .w2 . Bewijs Uit de definitie van de bilineaire vorm op Vπ volgt dat e1 .e1 e1 .e2 e2 .e1 e2 .e2 = a11 .a11 + a21 .a21 = a11 .a12 + a21 .a22 = a12 .a11 + a22 .a21 = a12 .a12 + a22 .a22 en dus is t A.A = e1 .e1 e1 .e2 e2 .e1 e2 .e2 Anderzijds is e1 , e2 een orthonormale basis als en slechts als e1 .e1 e1 .e2 = I2 e2 .e1 e2 .e2 148 Dit betekent juist dat tA.A = I2 . Dit betekent ook dat tA = A−1 Stel nu dat v = v10 f1 + v20 .f2 w = w10 f1 + w20 .f2 Dan is v10 v20 w10 w20 = A. v1 v2 w10 w20 = A. w1 w2 We vinden dus : v.w = v10 v20 . = v1 v2 t . A.A. w1 w2 = v1 v2 . w1 w2 en dus is v.w = v1 w1 + v2 w2 . Definitie 4.2.12 Een affien referentiestelsel (O, e1 , e2 ) heet orthonormaal als e1 , e2 een orthonormale basis is voor Vπ . Het refentiestelsel (O0 , f1 , f2 ) is dus orthonormaal. Propositie 4.2.13 Als O een punt is in π en als e1 een vector is in Vπ met ||e1 || = 1 dan bestaat er een vector e2 zodat (O, e1 , e2 ) een orthonormaal referentiestelsel is. Bewijs Stel (O0 , f1 , f2 ) het orthonormaal referentiestelsel van in het begin. Stel e1 = a11 .f1 + a21 .f2 . Vermits ||e1 || = 1 is a211 + a221 = 1. Neem nu e2 = −a21 .f1 + a11 .f2 . De transformatiematrix is dan a11 −a21 A= a21 a11 Deze matrix voldoet aan de betrekking tA.A = I2 . Hieruit volgt dat det(A) = ±1 6= 0 en dus is e1 , e2 een basis voor Vπ . Dit betekent bovendien dat (O, e1 , e2 ) een orthonormaal referentiestelsel is. Opmerking Als we in het voorgaande bewijs e2 vervangen door −e2 dan houden we nog steeds een orthonormaal referentiestelsel. Hiermee zijn dan 149 wel alle mogelijkheden uitgeput. Een gegeven stel (O, e1 ) met ||e1 || = 1 kan dus op twee manieren aangevuld worden tot een orthonormaal referentiestelsel. Het verband tussen een orthonormaal referentiestelsel (O, e1 , e2 ) en het basis referentiestelsel O0 , f1 , f2 ) kan veralgemeend worden tot een algemeen verband tussen orthonormale referentiestelsels. Propositie 4.2.14 Zij (O, e1 , e2 ) een orthonormaal referentiestelsel. Zij (O0 , e01 , e02 ) een ander affien referentiestelsel met e01 = a11 .e1 + a21 .e2 e02 = a12 .e1 + a22 .e2 Dan is (O0 , e01 , e02 ) orthonormaal als en slechts als de matrix a11 a12 A= a21 a22 voldoet aan de betrekking : A.tA = I2 Bewijs Uit Prop 4.2.11 volgt dat e01 .e01 e01 .e02 a211 + a221 a11 a12 + a21 a22 = = tA.A e02 .e01 e02 .e02 a12 a11 + a22 a21 a212 + a222 Anderzijds is e01 , e02 een orthonormale basis als en slechts als 0 0 0 0 e1 .e1 e1 .e2 = I2 e02 .e01 e02 .e02 Bijgevolg is e01 , e02 een orthonormale basis als en slechts als tA.A = I2 . Propositie 4.2.15 Zij P en Q punten in π met coördinaten p en q t.o.v. een orthonormaal referentiestelsel (O, e1 , e2 ). Dan is q d(P, Q) = (q − p).t(q − p) 150 −→ Bewijs De vector P Q heeft coëfficiënten q − p heeft ten opzichte van de basis e1 , e2 . Bijgevolg is q −→ d(P, Q) = ||P Q|| = (q − p).t(q − p) Definitie 4.2.16 We zeggen dat twee rechten l en l0 in π orthogonaal of loodrecht zijn als de corresponderende richtingsruimten Vl en Vl0 orthogonale deelruimten zijn in Vπ . We noteren l⊥l0 . Propositie 4.2.17 Twee rechten l en l0 in het vlak π zijn orthogonaal als er −→ −→ verschillende punten P, Q ∈ l en R, S ∈ l0 bestaan zodat P Q⊥RS. Bewijs Als P en Q verschillende punten zijn op l en als R en S verschil−→ −→ lende punten zijn op l0 dan is P Q een basis voor Vl en RS is een basis voor Vl0 . Hieruit volgt dan dat −→ −→ l⊥l0 ⇐⇒ Vl ⊥Vl0 ⇐⇒ P Q⊥RS Propositie 4.2.18 Zij l en l0 rechten in het vlak π met richtingsgetallen u = (u1 , u2 ) en v = (v1 , v2 ) ten opzichte van een orthonormaal referentiestelsel (O, e1 , e2 ). Dan is l⊥l0 ⇐⇒ u.tv = 0 Bewijs Er bestaan getallen u0 en v0 zodat l een l0 de volgende vergelijkingen hebben : u1 x1 + u2 x2 = u0 (l) v1 x1 + v2 x2 = v0 (l0 ) Neem P en Q verschillende punten op l en R en S verschillende punten op l0 . Dan bestaan er getallen λ, µ ∈ R∗ zodat (u1 , u2 ) = λ(q2 − p2 , p1 − q1 ) 151 (v1 , v2 ) = µ(s2 − r2 , r1 − s1 ) We vinden −→ −→ l⊥l0 ⇐⇒ P Q⊥RS ⇐⇒ (q1 −p1 )(r1 −s1 )+(q2 −p2 )(r2 −s2 ) = 0 ⇐⇒ u2 v2 +u1 v1 = 0 In matrixnotatie geeft dit u.tv = 0. Propositie 4.2.19 Zij l een rechte in π en zij P een punt. Dan bestaat er een unieke rechte l0 door P zodat l⊥l0 . Bewijs Stel dat l een vergelijking u 1 x 1 + u 2 x 2 = u0 heeft ten opzichte van een orthonormaal referentiestelsel. Stel p = (p1 , p2 ) de coördinaten van P . De rechte l0 met vergelijking v1 x1 + v2 x2 = v0 voldoet als de getallen v0 , v1 , v2 oplossingen zijn van het stelsel v1 p1 + v2 p2 = v0 v 1 u1 + v 2 u 2 = 0 Neem v1 = u2 en v2 = −u1 en v0 = u2 p1 − u1 p2 . Deze getallen voldoen. Bovendien is elke andere oplossing van het stelsel evenredig hiermee en bepaalt dus dezelfde rechte l0 Uit de vorige stelling volgt dus dat de loodlijn op l door het punt P de volgende vergelijking heeft ten opzichte van een orthonormaal referentiestelsel u 2 x 1 − u 1 x 2 = u2 p 1 − u1 p 2 Hierbij is p = (p1 , p2 ) en is de vergelijking van l gelijk aan u 1 x 1 + u 2 x 2 = u0 152 We kunnen echter ook op een eenvoudige manier een voortbrenger voor Vl0 bepalen. Een rechte l0 door P heeft een richtingsruimte Vl0 die voortgebracht wordt door een vector v = v1 .e1 + v2 .e2 . De rechte l0 staat loodrecht op l als −→ v⊥RS voor elk stel punten R en S op l. Als R en S punten zijn op l met coördinaten r en s dan betekent dit v1 (s1 − r1 ) + v2 (s2 − r2 ) = 0 Bovendien geldt : u.ts = u0 u.tr = u0 en dus is u.(t(s − r) = 0. We kunnen dus v = u1 .e1 + u2. e2 nemen. Deze vector is dan de gezochte voortbrenger voor Vl0 = Vl⊥ . Definitie 4.2.20 Zij l een rechte in π en zij P een punt. Stel Q het snijpunt van de loodlijn op l door P . Dan noemt men d(P, Q) de afstand van P tot l. We noteren deze afstand als d(P, l). Propositie 4.2.21 Zij l een een rechte met vergelijking u1 .x1 + u2 .x2 = u0 ten opzichte van een orthonormaal referentiestelsel (O, e1 , e2 ) en zij P een punt met coördinaten p = (p1 , p2 ). Dan is |u.tp − u0 | d(P, l) = √ t u. u Bewijs Stel l0 de loodlijn op l door P . Dan is Vl0 = t.v t ∈ R met v = u1 .e1 + u2 .e2 . Stel Q het snijpunt van l en l0 met coördinaten q. Dan is u.tq = u0 en q − p = tu t ∈ R −→ (want Q ∈ l en P Q ∈ Vl0 ). We vinden dan dat u.tq − u.tp = t.u.tu 153 en dus is t = (u0 − u.tp)/u.tu. We vinden dan dat d(P, l) = d(P, Q) = 4.2.3 q (q − p).t(q − p) = p t2 u.tu = |u0 − u.tp| √ t u. u Orthogonaliteit in E De constructie uit de vorige paragraaf kan zonder problemen aangepast worden voor de 3D-ruimte E. In E kunnen we punten O0 , P0 , Q0 , R0 vinden met de eigenschap • de afstand tussen O0 en P0 =1 • de afstand tussen O0 en Q0 =1 • de afstand tussen O0 en R0 =1 √ • de afstand tussen P0 en Q0 = 2 √ • de afstand tussen P0 en R0 = 2 √ • de afstand tussen Q0 en R0 = 2 −→ −→ −→ De vectoren f1 = O0 P0 , f2 = O0 Q0 , f3 = O0 R0 zijn dan lineair onafhankelijk en vormen dus een basis voor VE .We definiëren dan een symmetrische positief definiete bilineaire vorm op VE op de volgende manier. Als v = v1 .f1 + v2 .f2 + v3 .f3 en als w = w1 .f1 + w2 .f2 + w3 .f3 dan stellen we v.w = v1 .w1 + v2 .w2 + v3 .w3 Definitie 4.2.22 Als P en Q punten zijn in E dan noemen we de lengte −→ ||P Q|| de afstand tussen P en Q. We noteren dit getal als d(P, Q). 154 De afstand die we hier definiëerden correspondeert dan weer met ons intuı̈tief afstandsbegrip op E. Bovendien is f1 , f2 , f3 een orthonormale basis voor VE . Propositie 4.2.23 Zij e1 , e2 , e3 een basis voor VE met e1 = a11 .f1 + a21 .f2 + a31 .f3 e2 = a12 .f1 + a22 .f2 + a32 .f3 e3 = a13 .f1 + a23 .f2 + a33 .f3 Dan is e1 , e2 , e3 een orthonormale basis als a11 a12 a21 a22 A= a31 a32 en slechts als de matrix a13 a23 a33 voldoet aan de betrekking t A.A = I3 Als v = v1 .e1 + v2 .e2 + v3 .e3 en als w = w1 .e1 + w2 .e2 + w3 .e3 dan is v.w = v1 .w1 + v2 .w2 + v3 .w3 Bewijs Het bewijs gaat helemaal zoals in het 2-dimensionale geval. Definitie 4.2.24 Een affien referentiestelsel (O, e1 , e2 , e3 ) heet orthonormaal als e1 , e2 , e3 een orthonormale basis is voor VE . Propositie 4.2.25 Zij (O, e1 , e2 , e3 ) een orthonormaal referentiestelsel. Zij (O0 , e01 , e02 , e03 ) een ander referentiestelsel met 0 e1 = a11 .e1 + a21 .e2 + a31 .e3 e0 = a12 .e1 + a22 .e2 + a32 .e3 20 e3 = a13 .e1 + a23 .e2 + a33 .e3 Dan is (O, , e,1 , e,2 , e,3 ) orthonormaal als a11 a12 a21 a22 A= a31 a32 voldoet aan de betrekking t A.A = I3 155 en slechts als de matrix a13 a23 a33 Bewijs Het bewijs gaat helemaal zoals in het 2-dimensionale geval. Propositie 4.2.26 Zij P en Q punten in E met coördinaten p en q ten opzichte van een orthonormaal referentiestelsel (O, e1 , e2 , e3 ). Dan is q d(P, Q) = (q − p).t(q − p) Bewijs Het bewijs gaat helemaal zoals in het 2-dimensionale geval. Definitie 4.2.27 1. Een vlak α en een rechte l zijn orthogonaal als Vα ⊥Vl . We noteren α⊥l. 2. Twee rechten l en l0 zijn orthogonaal als Vl ⊥Vl0 . (Zulke rechten kunnen elkaar snijden of elkaar kruisen.) We noteren l⊥l0 . Propositie 4.2.28 Zij α een vlak en zij P een punt in E. Dan bestaat er een unieke rechte door P die orthogonaal is met α. Bewijs Kies een orthonormaal referentiestelsel (O, e1 , e2 , e3 ) voor E. Zij {f, g} een basis voor Vα en stel f = f1 .e1 + f2 .e2 + f3 .e3 g = g1 .e1 + g2 .e2 + g3 .e3 Als p de coördinaten zijn van P dan heeft een rechte l door P een parametervergelijking x = p + t.v t ∈ R waarbij v = v1 .e1 + v2 .e2 + v3 .e3 een basisvector is voor Vl . We hebben dan l⊥α ⇐⇒ v⊥f en v⊥g Dit betekent f1 .v1 + f2 .v2 + f3 .v3 = 0 g1 .v1 + g2 .v2 + g3 .v3 = 0 en dus is v een oplossing van een homogeen stelsel met twee onafhankelijke vergelijkingen en 3 onbekenden. Dit stelsel heeft een oplossing en alle 156 oplossingen zijn onderling evenredig. De vector v bestaat dus en is uniek op evenredigheid na. Al deze vectoren bepalen echter dezelfde rechte l. In de vorige stelling bewezen we eigenlijk dat voor elk vlak α ⊂ E de deelruimte Vα⊥ 1-dimensionaal is. Als P een punt is in E en als l de rechte is door P die loodrecht staat op α dan is Vl = Vα⊥ . Als α gegeven is door een vergelijking u1 .x1 + u2 .x2 + u3 .x3 = u0 ten opzichte van een orthonormaal referentiestelsel dan kunnen we gemakkelijk een voortbrenger voor Vα⊥ bepalen. Zij P, Q en R punten in α met coördinaten p, q en r die niet op één rechte −→ −→ liggen. Dan is {P Q, P R} een basis voor Vα . Een vector v = v1 .e1+ v2 .e2 +v3 .e3 −→ −→ is een voortbrenger voor Vα⊥ als v⊥P Q en als v⊥P R. Dit alles betekent dat t u. p = u0 u.tq = u0 u.tr = u0 v.t(q − p) = 0 v.t(r − p) = 0 Uit de eerste rij vergelijkingen volgt dat u.t(q − p) = 0 u.t(r − p) = 0 en dus kunnen we v = u nemen. We vinden dus : Vα⊥ = t.(u1 .e1 + u2 .e2 + u3 .e3 t ∈ R Definitie 4.2.29 Zij α en β vlakken in E. We zeggen dat α en β orthogonaal zijn als Vα⊥ ⊥Vβ⊥ We noteren α⊥β. (Let op : er staat NIET dat Vα ⊥Vβ .) Propositie 4.2.30 Zij α en β vlakken met vergelijkingen u1 x1 + u2 x2 + u3 x3 = u0 (α) v1 x1 + v2 x2 + v3 x3 = v0 (β) ten opzichte van een orthonormaal referentiestelsel (O, e1 , e2 , e3 ). Dan geldt α⊥β ⇐⇒ u1 .v1 + u2 .v2 + u3 .v3 = 0 157 Bewijs De vlakken α en β zijn orthogonaal als Vα⊥ ⊥Vβ⊥ . We weten dat Vα⊥ voortgebracht is door de vector u = u1 .e1 + u2 .e2 + u3 .e3 en Vβ⊥ door de vector v = v1 .e1 + v2 .e2 + v3 .e3 Bijgevolg is Vα⊥ ⊥Vβ⊥ ⇐⇒ u⊥v ⇐⇒ u1 .v1 + u2 .v2 + u3 .v3 = 0 Definitie 4.2.31 Zij α een vlak in E en zij P een punt. Als Q het snijpunt is van α en de loodlijn door P dan noemt men d(P, Q) de afstand van P tot α. We noteren dit getal als d(P, α). Propositie 4.2.32 Zij α een vlak met vergelijking u1 .x1 + u2 .x2 + u3 .x3 = u0 ten opzichte van een orthonormaal referentiestelsel en zij P een punt met coördinaten p = (p1 , p2 , p3 ). Dan is |u.tp − u0 | d(P, α) = √ t u. u Bewijs De loodlijn l op α door P heeft een parametervergelijking x = p + t.u (t ∈ R) Stel Q het snijpunt van l en α en stel q de coördinaten van Q. Dan is q = p + t.u voor zekere t ∈ R u.tq = u0 We vinden dat t = (u.t(q − p))/u.tu = (u0 − u.tp)/u.tu 158 Bijgevolg is d(P, α) = d(P, q Q) = (q − p).t(q − p) p 2 .u.tu = t√ = |t|. u.tu u0 −u.tp = √ t u. u Opmerking We beschouwden hiervoor matrixen A met de eigenschap dat t A.A de eenheidsmatrix is. Een (n, n)-matrix met de eigenschap tA.A = In noemt men een orthogonale matrix. Een orthogonale matrix is dus inverteerbaar en A−1 = tA. Bovendien is 1 = det(In ) = det(tA.A) = det(tA).det(A) = det(A)2 en bijgevolg is det(A) = ±1. 4.2.4 Oriëntaties Op een rechte Zij l een rechte in E met richtingsruimte Vl . Als v ∈ Vl niet 0 is dan is {v} een basis voor Vl . Als w ∈ Vl nog een vector met w 6= 0 dan is w = λ.v voor zekere λ ∈ R∗ . Als λ > 0 dan zeggen we dat v en w dezelfde oriëntatie bepalen op l. Als λ < 0 dan zeggen we dat v en w verschillende oriëntaties bepalen op l. Elke rechte heeft dus twee mogelijke oriëntaties die bepaald worden door een keuze van een basis voor Vl . Een georiënteerde rechte noemt men een as. Op een vlak Zij π een vlak met richtingsruimte Vπ en zij {e1 , e2 } een geordende basis voor Vπ . Als {f1 , f2 } nog een geordende basis is voor Vπ dan is f1 = a11 .e1 + a21 .e2 f2 = a12 .e1 + a22 .e2 159 voor zekere A= a11 a12 a21 a22 De matrix A is inverteerbaar want {f1 , f2 } is een basis. Bijgevolg is det(A) 6= 0. Als det(A) > 0 dan zegt men dat {e1 , e2 } en {f1 , f2 } dezelfde oriëntatie bepalen op π. Als det(A) < 0 dan zegt men dat {e1 , e2 } en {f1 , f2 } verschillende oriëntaties bepalen op π. Elk vlak heeft dus twee mogelijke oriëntaties die bepaald worden door een keuze van een geordende basis voor Vπ . Op de 3D ruimte We doen nog een keer hetzelfde voor E. Zij {e1 , e2 , e3 } en {f1 , f2 , f3 } geordende basissen voor VE . Dan is f1 = a11 .e1 + a21 .e2 + a31 .e3 f2 = a12 .e1 + a22 .e2 + a32 .e3 f3 = a13 .e1 + a23 .e2 + a33 .e3 voor zekere a11 a12 a13 A = a21 a22 a23 a31 a32 a33 De matrix A is inverteerbaar want {f1 , f2 , f3 } is ook een basis voor VE en dus is det(A) 6= 0. Als det(A) > 0 dan zeggen we dat {e1 , e2 , e3 } en {f1 , f2 , f3 } dezelfde oriëntatie bepalen op E. Als det(A) < 0 dan zeggen we dat {e1 , e2 , e3 } en {f1 , f2 , f3 } verschillende oriëntaties bepalen op E. Er zijn dus twee mogelijke oriëntaties op E die bepaald worden door de keuze van een geordende basis voor VE . In het begin kozen we punten O0 , P0 , Q0 , R0 in E. Als we −→ f1 = O0 P0 −→ f2 = O0 Q0 −→ f1 = O0 R0 nemen dan is {f1 , f2 , f3 } een geordende orthonomale basis voor E. De oriëntatie die bepaald is door deze basis zullen we positief noemen. De andere oriëntatie heet dan negatief. 160 Propositie 4.2.33 Zij π een vlak in E en zij {e1 , e2 } een geordende orthonormale basis voor Vπ . Dan bestaat er een unieke vector e3 ∈ VE zodat {e1 , e2 , e3 } een geordende orthonormale basis is voor VE die een positieve oriëntatie bepaalt op E. Bewijs We weten dat Vπ⊥ een 1-dimensionale deelruimte van VE is. Als v ∈ Vπ⊥ niet 0 is dan is e1 , e2 , v een orthogonale basis voor VE en door v als v derde vector te kiezen is de basis geordend. Stel e = ||v|| . Dan is ||e|| = 1 en dus is e1 , e2 , e een geordende orthonormale basis. Als deze basis een positieve oriëntatie bepaalt dan kunnen we e3 = e nemen. Als de basis een negatieve oriëntatie bepaalt dat nemen we e3 = −e. Hiermee zijn alle mogelijkheden uitgeput. 4.2.5 Hoeken Zij a1 = (l1 , e1 ) en a2 = (l2 , e2 ) twee assen in een vlak π. Dit betekent dus dat l1 en l2 rechten zijn en dat e1 en e2 basissen vormen voor Vl1 en voor Vl2 die de rechten een oriëntatie geven. Als f1 ∈ Vl1 en als f2 ∈ Vl2 niet 0 zijn dan is f1 = λ1 .e1 en f2 = λ2 .e2 voor zekere λ1 , λ2 ∈ R∗ . We vinden dan dat f1 .f2 λ1 .λ2 e1 .e2 e1 .e2 = . =± ||f1 ||.||f2 || |λ1 |.|λ2 | ||e1 ||.||e2 || ||e1 ||.||e2 || Als f1 en e1 dezelfde oriëntatie bepalen op l1 en als f2 en e2 dezelfde oriëntatie bepalen op l2 dan zijn λ1 en λ2 positief en dus is f1 .f2 e1 .e2 = ||f1 ||.||f2 || ||e1 ||.||e2 || Bovendien kan men bewijzen dat −1 ≤ e1 .e2 ≤1 ||e1 ||.||e2 || Er bestaat bijgevolg een uniek getal θ met 0 ≤ θ ≤ π en zodat cos(θ) = e1 .e2 ||e1 ||.||e2 || 161 Men noemt dit getal θ de maat van de hoek tussen de assen a1 en a2 . In deze betekenis is de maat van een hoek altijd een positief getal. Het heeft in deze definitie ook geen belang in welke volgorde de assen a1 en a2 vernoemd worden. We spreken hier van een niet georiënteerde hoek. Als we het vlak een oriëntatie geven dan kunnen we ook georiënteerde hoeken beschouwen. Stel zoals hiervoor θ de maat van de niet georiënteerde hoek tussen de assen a1 en a2 . Als de geordende basis {e1 , e2 } (in deze volgorde) positief georiënteerd is dan noemen we θ de maat van de hoek van het assenkoppel (a1 , a2 ). Als de basis negatief georiënteerd is dan noemen we −θ de maat van dit assenkoppel. Uit deze definitie volgt dat de maten van de hoeken tussen (a1 , a2 ) en tussen (a2 , a1 ) tegengesteld zijn. Inderdaad, de oriëntaties van de geordende basissen {e1 , e2 } en {e2 , e1 } (telkens in deze volgorde vernoemd) zijn tegengesteld. 4.2.6 Poolcoördinaten en sferische coördinaten Zij (O, e1 , e2 ) een positieg georiënteerd orthonormaal affien referentiestelsel voor het vlak π. Stel ai de as door O met positieve richting ei , (i = 1, 2). −→ Zij P een punt in π met P 6= O. Stel a = (lOP , OP ) de as door de punten O −→ −→ en P met richting OP . Stel ρ = ||OP || en stel θ de maat van de georiënteerde hoek van het assenkoppel (a1 , a). Dan is de plaats van P in het vlak volledig bepaald door de getalle ρ en θ. Stel namelijk p = (p1 , p2 ) de coördinaten van P ten opzichte van het gekozen orthonormaal referentiestelsel. Dan is −→ q e . OP p1 1 ρ = p21 + p22 en cos(θ) = = −→ ρ ||e1 ||.||OP || Hieruit volgt dat p1 = ρ.cos(θ) en p2 = ±ρ.sin(θ). −→ De oriëntatie van de geordende basis {e1 , OP } wordt bepaald door het teken van 1 p1 det = p2 0 p2 Dus θ is positief als en slechts als p2 positief is . Hieruit volgt dat p2 = ρ.sin(θ). Definitie 4.2.34 Het geordend tweetal (ρ, θ) noemt men de poolcoördinaten van het punt P . (Het koppel (p1 , p2 ) noemt men dikwijls de carthesische coördinaten van P .) 162 Opmerking De poolcoördinaten van de oorsprong O zijn niet ondubbelzinnig gedefinieerd. De waarde voor ρ is 0 maar voor de hoek θ kan men eender welke waarde nemen. Uit de voorgaande redenring volgt direct de volgende stelling. Propositie 4.2.35 Zij P een punt met carthesische coördinaten (p1 , p2 ) 6= (0, 0) en met poolcoördinaten (ρ, θ). Dan is p1 = ρ.cos(θ) en p2 = ρ.sin(θ) q p1 p2 ρ = p21 + p22 cos(θ) = p 2 sin(θ) = p 2 2 p1 + p2 p1 + p22 en dus θ = arctan( pp12 ). Merk de gelijkenis op met de twee voorstellingen van complexe getallen. Men maakt gewoonlijk een identificatie tussen C en het vlak π. Het getal 1 correspondeert dan met het punt met carthesische coördinaten (1, 0) en i correspondeert met het punt met carthesische coördinaten (0, 1). In het algemeen correspondeert een complex getal a + i.b met het punt met carthesische coördinaten (a, b). Als (ρ, θ) de poolcoördinaten zijn van dit punt dan is a + i.b = ρ.ei.θ . Voor de 3D ruimte kan men een analoog coördinaten systeem invoeren. Men krijgt dan de zogenaamde sferische coördinaten of bolcoördinaten van een punt. We kiezen in E een vast positief georiënteerd orthonormaal referentiestelsel (O, e1 , e2 , e3 ). Stel ai de as door O met positieve richting ei . Stel π het vlak met vergelijking x3 = 0. Dit is het vlak door de assen a1 en a2 . In π wordt (O, e1 , e2 ) opgevat als een positief georënteerd orthonormaal referentiestelsel. Zij nu P een punt in E met P 6= O. Stel P 0 de orthogoonale projectie van P op het vlak π. Als P coördinaten p = (p1 , p2 , p3 ) heeft dan heeft P 0 coördinaten p0 = (p1 , p2 , 0). De positie van P in de ruimte is volledig bepaald door de volgende getallen : −→ 1. ρ : de lengte van de vector OP q ρ = p21 + p22 + p23 163 2. θ : de georënteerde hoek tussen de assen (a1 , a0 ) waar bij a0 de as −→ (lOP 0 , OP 0 ) is −→ 3. φ : de georiënteerde hoek tussen de assen (a3 , a) waarbij a de as lOP , OP is. −→ We vinden namelijk dat p3 = ρ.cos(φ). Bovendien is de lengte ||OP 0 || gelijk is aan ρ.sin(φ). Het punt P 0 heeft in π dus poolcoördinaten (ρ.sin(φ), θ). Bijgevolg is p1 = ρ.sin(φ).cos(θ) p2 = ρ.sin(φ).sin(θ) Definitie 4.2.36 Het drietal (ρ, θ, φ) noemt men de sferische coördinaten van P . Opmerking De sferische coördinaten van de oorsprong O zijn niet ondubbelzinnig gedefinieerd. De waarde voor ρ is 0 maar de voor θ en φ kan men eender welke waarde nemen. Uit de voorgaande redenering volgt direct de volgende stelling. Propositie 4.2.37 Zij P een punt met carthesische coördinaten (p1 , p2 , p3 ) 6= (0, 0, 0) en met poolcoördinaten (ρ, θ, φ). Dan is : 1. p1 = ρ.sin(φ).cos(θ) 2. p2 = ρ.sin(φ).sin(θ) 3. p3 = ρ.cos(φ) en 1. ρ = p p21 + p22 + p23 2. θ = arctan( pp21 ) 3. φ = arccos( √ p3 ) p21 +p22 +p23 164 4.2.7 Het vectorieel product Zij {e1 , e2 , e3 } en {e01 , e02 , e03 } positief georiënteerde geordende orthonormale basissen voor VE Zij u, v, w ∈ VE vectoren met coëfficiënten u, v, w ten opzichte van de basis {e1 , e2 , e3 } en met coëfficiënten u0 , v 0 , w0 ten opzichte van de basis {e01 , e02 , e03 } Stel A = (aij ) de overgangsmatrix tussen de twee basissen. We hebben dus 0 e1 = a11 .e1 + a21 .e2 + a31 .e3 e0 = a12 .e1 + a22 .e2 + a32 .e3 20 e3 = a13 .e1 + a23 .e2 + a33 .e3 Dan is A een orthogonale matrix en dus is det(A) = ±1. Vermits de twee basissen echter dezelfde oriëntatie bepalen op E is det(A) > 0 en dus is det(A) = 1. Bovendien is u = A.tu0 t v = A.tv 0 t w = A.tw0 t We vinden dan dat 0 0t u u .A u 0 t v 0 .tA det v = det v . A = det w w0 .tA w0 0 0 u u t 0 = det v .det A = det v 0 w0 w0 u Het getal det v is dus hetzelfde voor alle positief georiënteerde georw dende orthonormale basissen voor VE . We noteren dit getal als det u v w en we noemen dit de determinant van de vectoren u, v en w. Net zoals voor gewone determinanten heeft men dat det u v w = 0 als twee van de drie vectoren u, v en w gelijk zijn aan mekaar en de determinant verandert van teken als twee vectoren van plaats verwisseld worden. Propositie 4.2.38 Zij u en v vectoren in VE . Dan bestaat er een unieke vector w in VE zodat ∀x ∈ VE : det u v x = w.x 165 Bewijs Kies een positief georiënteerde geordende orthonormale basis {e1 , e2 , e3 } voor VE . Stel u, v de coëfficiënten van u en v. We zoeken dan een stel coördinaten w = (w1 , w2 , w3 ) zodat voor alle x = (x1 , x2 , x3 ) geldt : u det v = x1 .w1 + x2 .w2 + x3 .w3 x Dit betekent dat x1 (u2 .v3 −u3 .v2 )+x2 (u3 .v1 −u1 .v3 )+x3 (u1 .v2 −u2 .v1 ) = x1 .w1 +x2 .w2 +x3 .w3 Vermits deze gelijkheid moet gelden voor alle x1 , x2 , x3 volgt hieruit dat w1 = u2 .v3 − u3 .v2 w2 = u3 .v1 − u1 .v3 w3 = u1 .v2 − u2 .v1 De vector w = w1 .e1 + w2 .e2 + w3 .e3 die we zo vinden voldoet aan de gestelde voorwaarde. Definitie 4.2.39 Als u, v ∈ VE dan noteren we de unieke vector w uit de voorgaande stelling als v × w. We noemen v × w het vectorieel product van v en w. Uit de definities kunnen we volgende eigenschap afleiden. Propositie 4.2.40 Zij u, v ∈ VE en zij {e1 , e2 , e3 } een positief georiënteerde geordende orthonormale basis voor VE . Dan is : u × v = det(u v e1 ).e1 + det(u v e2 ).e2 + det(u v e3 ).e3 Bewijs Stel u × v = w1 .e1 + w2 .e2 + w3 .e3 . Dan is (u × v).ei = w1 .(e1 .ei ) + w2 .(e2 .ei ) + w3 .(e3 .ei ) = wi Anderzijds is volgens de definitie van vectorieelproduct : (u × v).ei = det(u v ei ) Bijgevolg is wi = det(u v ei ). 166 Propositie 4.2.41 Zij u, u, v ∈ VE en zij λ ∈ R. Dan geldt : 1. (u + u0 ) × v = u × v + u0 × v 2. u × v = −(v × u) 3. u × u = 0 4. (λ.u) × v = λ.(u × v) 5. (u × v)⊥u (u × v)⊥v 6. als u en v lineair afhankelijk zijn dan is u × v = 0 7. als u en v lineair onafhankelijk zijn dan vormen u, v, u × v in die volgorde een positief georiënteerde geordende basis voor VE Bewijs Zij {e1 , e2 , e3 } een positief georiënteerde geordende orthonormale basis voor VE . Het bewijs van (1), (2), (3) en (4) volgt uit vorige stelling en uit de eigenschappen van determinanten. We verfiëren enkel eigenschap (1). P (u + u0 ) × v = 3i=1 det(u + u0 v ei ).ei P = 3i=1 (det(u v ei ) + det(u0 v ei )) .ei P3 P = i=1 det(u v ei ).ei + 3i=1 det(u0 v ei ).ei = u × v + u0 × v Uit de definitie volgt ook : (u × v).u = det(u v u) = 0 (u × v).v = det(u v v) = 0 Bijgevolg is (u × v)⊥u en (u × v)⊥v. Als u en v lineair afhankelijk zijn dan is u = λ.v voor zekere λ ∈ R en dus is u × v = λ(u × u) = 0. Als u en v lineair onafhankelijk zijn dan is u × v 6= 0 en u × v is orthogonaal met u en met v. Bijgevolg zijn u, v, u × v lineair onafhankelijk. De vectoren vormen dus een basis voor VE . Als u = (u1, u2 , u3 ) en v = (v1, v2 , v3 ) de 167 coëfficiënten zijn van u en v ten opzichte van {e1 , e2 , e3 } dan is overgangsmatrix gelijk aan u1 u2 u3 v1 v2 v3 A= u 2 v 3 − u 3 v 2 u 3 v 1 − u1 v 3 u1 v 2 − u2 v 1 Bijgevolg is det(A) = (u2 v3 − u3 v2 )2 + (u3 v1 − u1 v3 )2 + (u1 v2 − u2 v1 )2 > 0 Dit betekent dat {u, v, u × v} ook de positieve oriëntatie geeft. Propositie 4.2.42 Als u, v ∈ VE met u, v 6= 0 dan is ||u × v|| = ||u||.||v||.sin(θ) waarbij θ de maat is van de hoek tussen assen die bepaald worden door u en v. Bewijs We werken weer ten opzichte van een een positief georiënteerde geordende orthonormale basis {e1 , e2 , e3 }. Stel u = (u1 , u2 , u3 ) en v = (v1 , v2 , v3 ) de coëfficiënten van u en van v. We onderstellen eerst dat ||u|| = ||v|| = 1. Dan is sin2 (θ) = 1 − cos2 (θ) = 1 − (u.v)2 en ||u × v||2 = (u2 v3 − u3 v2 )2 + (u3 v1 − u1 v3 )2 + (u1 v2 − u2 v1 )2 = u22 v32 + u23 v22 + u23 v12 + u21 v32 + u21 v22 + u22 v12 −2(u2 u3 v2 v3 + u3 u1 v3 v1 + u1 u2 v1 v2 ) = u22 (v32 + v12 ) + u23 (v22 + v12 ) + u21 (v32 + v22 ) −2(u2 u3 v2 v3 + u3 u1 v3 v1 + u1 u2 v1 v2 ) = u21 (1 − v12 ) + u22 (1 − v22 ) + u23 (1 − v32 ) −2(u2 u3 v2 v3 + u3 u1 v3 v1 + u1 u2 v1 v2 ) = (u21 + u22 + u23 ) − (u21 v12 + u22 v22 + u23 v32 ) −2(u2 u3 v2 v3 + u3 u1 v3 v1 + u1 u2 v1 v2 ) = 1 − (u1 .v1 + u2 .v2 + u3 .v3 )2 = 1 − (u.v)2 = sin2 (θ) 168 We nemen nu u en v willekeurig. Dan hebben de vectoren u0 = 1 v 0 = ||v|| .v lengte 1 en dus is 1 .u ||u|| en ||u0 × v 0 || = sin(θ) Hieruit volgt dat ||u × v|| = ||u||.||v||.sin(θ) 4.3 Affiene transformaties Definitie 4.3.1 Een affiene transformatie φ van een vlak π (of van de 3Druimte E) is een bijectieve functie φ : π → π (of φ : E → E) met de volgende eigenschappen • als P, Q, R punten zijn op één rechte, dan liggen de punten φ(P ), φ(Q), φ(R) ook op één rechte (hieruit volgt dat het beeld van een rechte weer een rechte is) • als l1 en l2 evenwijdige rechten zijn dan zijn φ(l1 ) en φ(l2 ) ook evenwijdige rechten. Zij φ een affiene transformatie van π (of van E) en stel V de corresponderende richtingsvectorruimte. (Dus V = Vπ als φ een transformatie is van π en V = VE als φ een transformatie is van E.) Definier een nieuwe functie φ∗ : V → V op de volgende manier : −→ als v ∈ V en als v gerepresenteerd wordt door v = P Q stel dan φ∗ (v) = −→ φ(P )φ(Q). −→ −→ Deze afbeelding is welgedefinieerd, d.w.z. als P Q en RS dezelfde vector rep−→ −→ resenteren dan representeren φ(P )φ(Q) en φ(R)φ(S) ook dezelfde vector. Dit volgt uit het feit dat φ evenwijdigheid bewaart. 169 −→ −→ Zij v, w ∈ V en stel v = P Q. Dan bestaat er een uniek punt R zodat w = QR −→ en v + w = P R. We vinden dat −→ φ∗ (v + w) = φ(P )φ(R) −→ −→ = φ(P )φ(Q) + φ(Q)φ(R) = φ∗ (v) + φ∗ (w) Op een analoge wijze bewijst men dat φ∗ (λ.v) = λ.φ∗ (v) voor alle λ ∈ R en v ∈ V . We vinden dus dat φ∗ een lineaire afbeelding is. Bijzonder geval : Tranlaties Zij a ∈ V een vaste vector. We definiëren een afbeelding Ta op de volgende manier : −→ als P een punt is π of in E dan bestaat er een uniek punt P 0 zodat a = P P 0 . We stellen Ta (P ) = P 0 . −→ Voor elk punt P hebben we dus a = P Ta (P ). We noemen Ta de translatie over de vector a. −→ Zij nu v ∈ V een willekeurige vector en stel v = P Q. Dan is −→ −→ a = P Ta (P ) = QTa (Q) 170 Wegens de parallellogrammenwet is −→ −→ v = P Q = Ta (P )Ta (Q) = Ta∗ (v) We vinden dus dat voor elke vector a ∈ V de afbeelding Ta∗ gelijk is aan IdV . We gaan nu in de omgekeerde richting te werk. Zij φ een affiene transformatie zodat φ∗ = IdV . Dan is voor alle punten P en Q −→ −→ −→ P Q = φ∗ (P Q) = φ(P )φ(Q) Uit de parallellogrammenwet volgt weer dat −→ −→ ∀P, Q : P φ(P ) = Qφ(Q) −→ We vinden dus dat de vector a = P φ(P ) niet afhangt van het gekozen punt P dat bovendien φ gelijk is aan de translatie Ta . Besluit : als φ een affiene transformatie is zodat φ∗ = IdV dan is φ een translatie. Propositie 4.3.2 Zij φ en ψ affiene transformaties van π (of van E). Dan is (φ ◦ ψ)∗ = φ∗ ◦ ψ ∗ −→ Bewijs Zij v ∈ V een vector en stel v = P Q. Dan is −→ φ∗ ◦ ψ ∗ (v) = φ∗ (ψ ∗ (v)) = φ∗ (ψ(P )ψ(Q)) −→ −→ = φ(ψ(P ))φ(ψ(Q)) = φ ◦ ψ(P )φ ◦ ψ(Q) −→ = (φ ◦ ψ)∗ (P Q) = (φ ◦ ψ)∗ (v) Gevolg 4.3.3 Als φ een affiene transformatie is dan is φ∗ : V → V een isomorfisme en (φ−1 )∗ = (φ∗ )−1 . 171 Propositie 4.3.4 Zij φ en ψ affiene transformaties van π of E. Dan geldt : φ∗ = ψ ∗ ⇐⇒ ∃a ∈ V zodat φ = Ta ◦ ψ Bewijs a) Stel dat φ∗ = ψ ∗ . Dan is (φ ◦ ψ −1 )∗ = φ∗ ◦ (ψ ∗ )−1 = IdV Bijgevolg bestaat er een vector a ∈ V zodat φ◦ψ −1 = Ta en dus is φ = Ta ◦ψ. b) Onderstel nu dat φ = Ta ◦ ψ. Dan is φ∗ = (Ta ◦ ψ)∗ = Ta∗ ◦ φ∗ = IdV ◦ φ∗ = φ∗ Zij nu α : V → V een isomorfisme. Kies een oorsprong O. Als nu P een −→ −→ punt is dan bestaat er een uniek punt P 0 zodat α(OP ) = OP 0 . We kunnen dan een functie φ : π → π (of φ : E → E) definiëren door φ(P ) = P 0 . Men kan zonder veel problemen aantonen dat φ een affiene transformatie is. Bovendien is voor alle punten P en Q : −→ −→ −→ φ∗ (P Q) = φ(P )φ(Q) −→ = Oφ(Q) − Oφ(P ) −→ −→ = α(OQ) − α(OP ) −→ −→ −→ = α(OQ − OP ) = α(P Q) We vinden dus dat φ∗ = α. De definite van φ hangt af van de gekozen oorsprong O. Als we een andere oorsprong O0 kiezen dan vinden we ook een andere functie φ0 . De transformaties φ en φ0 zijn dus bepaald door de regel −→ −→ α(OP ) = Oφ(P ) −→ α(O0 P ) = O0 φ0 (P ) Uit de constructies volgt wel dat φ∗ = (φ0 )∗ = α en dus zijn φ en φ0 gelijk op een samenstelling met een translatie na. We gaan na over welke translatie het hier gaat. 172 −→ Stel a = O0 O − α−1 (OO0 ). Merk op dat (φ−1 )∗ = α−1 en φ(O) = O. We vinden voor elk punt P dat −→ −→ −→ −→ Oφ−1 (P ) = φ−1 (O)φ−1 (P ) = (φ−1 )∗ (OP ) = α−1 (OP ) en dus −→ −→ Oφ−1 (P ) = α−1 (OP ) −→ Zij nu P een willekeurig punt en stel Q = Ta (P ). Dan is a = P Q. −→ ⇒ −→ −→ −→ −→ Oφ(Q) = α(OQ) = α(OP ) + α(P Q) = α(OP ) + α(a) −→ −→ −→ α(OP ) + α(O0 O) + α ◦ α−1 (OO0 ) −→ −→ −→ α(O0 O + OP ) + OO0 −→ −→ = α(O0 P ) + OO0 −→ −→ = OO0 + O0 φ0 (P ) −→ = Oφ0 (P ) We vinden dat φ0 (P ) = φ(Q) = φ ◦ Ta (P ). Besluit: Als α : V → V een isomorfisme is en als O en O0 twee keuzen zijn voor een oorsprong dan bepaalt α affiene transformaties φ en φ0 door −→ −→ −→ −→ α(OP ) = Oφ(P ) en α(O0 P ) = O0 φ0 (P ) Men heeft verder α = φ∗ = (φ0 )∗ en −→ −→ φ0 = φ ◦ Ta met a = O0 O + α−1 (OO0 ) 4.4 Euclidische transformaties Definitie 4.4.1 Een Euclidische transformatie φ van een vlak π (of van E) is een affiene transformatie die bovendien afstanden bewaart, d.w.z. −→ −→ ∀P, Q : ||P Q|| = ||φ(P )φ(Q)|| 173 1e Geval : Transformaties van π Zij φ : π → π een Euclidische transformatie. Als we een orthonormaal referentiestelsel (O, e1 , e2 , e3 ) kiezen voor π dan wordt een punt met coördinaten p = (p1 , p2 ) getransformeerd in een een punt φ(P ) met coördinaten q = (q1 , q2 ). Door een geschikte keuze van het referentiestelsel worden deze coördinaatvoorstellingen eenvoudig. De volgende gevallen kunnen voorkomen : 1. q1 = p1 + β q2 = p2 (waarbij β een vast reëel getal is). In dit geval is φ een translatie over de vector β.e1 . Dus φ = Tβ.e1 . 2. q1 = p1 + β q2 = −p2 (waarbij β een vast reëel getal is). In dit geval is φ = Tβ.e1 ◦ σ waarbij σ de spiegeling is om de rechte met vergelijking x2 = 0. Als β = 0 dan is φ dus een spiegeling. Als β 6= 0 dan spreekt men van een schuifspiegeling. 3. q1 = cos(θ).p1 + sin(θ).p2 q2 = −sin(θ).p1 + cos(θ).p2 waarbij θ een vast reëel getal is. In dit geval spreken we van een rotatie met centrum O over een hoek θ. We vinden dus dat er 4 soorten Euclidische transformaties van π bestaan : translaties, spiegelingen, schuifspiegelingen en rotaties. 2e Geval : Transformaties van E 174 Zij φ : E → E een Euclidische transformatie. Door weer een geschikt orthonormaal referentiestelsel (O, e1 , e2 , e3 ) te kiezen kunnen we φ op een eenvoudige manier voorstellen. Een punt P met cördinaten p = (p1 , p2 , p3 ) wordt getransformeerd in een punt φ(P ) met coördinaten q = (q1 , q2 , q3 ) waarbij de volgende drie types kunnen optreden. 1. q1 = p1 + β q2 = p2 q3 = p3 (waarbij β een vast reëel getal is). In dit geval is φ de translatie Tβ.e1 . 2. q1 = p1 + β q2 = p2 q3 = −p3 (waarbij β een vast reëel getal is). In dit geval is φ gelijk aan Tβ.e1 ◦ σ waarbij σ de spiegeling is om het vlak met vergelijking x3 = 0. Als β = 0 dan is φ dus een spiegeling. Als β 6= 0 dan spreekt men van een schuifspiegeling. 3. q1 = .p1 + β q2 = cos(θ).p2 + sin(θ).p3 q3 = −sin(θ).p2 + cos(θ).p3 waarbij = ±1 en waarbij θ een vast reëel getal is. Als β = 0 en = 1 dan is φ een rotatie over een hoek θ rond de rechte met vergelijking x2 = x3 = 0. Als β 6= 0 en als = 1 dan spreekt men van een schroefbeweging. 175