Kanstheorie II: oefeningen 1e licentie Wiskunde Stijn Symens Academiejaar 2003-2004 2 Hoofdstuk 1 Voorkennis 1.1 Inleiding In de cursus kanstheorie II wordt de voorkennis van de cursussen kanstheorie I en statistiek I verondersteld. Volgende items worden dan ook verwacht vlot gekend moeten zijn: • basisbegrippen • characteristieke functies • convolutieproducten • convergenties • continue en discrete verdelingen Over convergenties en convolutieprodukten zijn er nog 2 bijlagen aan de cursus toegegevoegd. Helemaal achteraan bevindt zich ook een bijlage met combinatorische gelijkheden, of hoe je in sommaties enkele handige substituties kan doen. Volgende stellingen zijn zeker ook de moeite om eens te bekijken: Eigenschap 1.1. Indien X = (X1 , . . . , Xd ) een stochastische vector is met kansdichtheid h gedefinieerd op Rd . X1 , . . . , Xd zijn dan onafhankelijk als en slechts als h(x1 , . . . , xd )= g1 (x1 ) . . . gd (xd ) b.o. en Xk heeft dus als kansdichtheid hXk (u) = gk (u)/ R gk (v) dv. Eigenschap 1.2. Veronderstel dat X een stochastische vector is met dichtheid h gedefinieerd op D, open deel in Rd . Veronderstel verder dat ψ een 4 Voorkennis diffeomorfisme is van D naar een open deel ∆ ⊂ Rd en dat Y = ψ(X), dan heeft Y als kansdichtheid h(ψ −1 (y))|J(ψ −1(y))|1∆ (y). Deze eigenschap blijkt vooral nuttig bij het bepalen van de dichtheid van X + Y in het geval dat X en Y onafhankelijk zijn. Eigenschap 1.3 (onafhankelijkheidscriterium van Fourier). Stochastische variabelen (X1 , . . . , Xn ), respectievelijk gedefinieerd op Rd1 , . . . , Rdn zijn onafhankelijk als en slechts als ∀t1 ∈ Rd1 , . . . , ∀tn ∈ Rdn : φ(X1 ,...,Xn ) (t1 , . . . , tn ) = φX1 (t1 ) · · · φXn (tn ) waarbij φXi de karakteristieke functie van Xi voorstelt. 1.2 Testoefeningen Om jezelf te testen op het al dan niet kennen van het vorige, zijn hieronder een aantal oefeningen gegeven die samen de bovengenoemde lading wel dekken. Kan je deze oefeningen oplossen, dan ben je klaar om de cursus kanstheorie II aan te vatten. Oefening 1.1. Banach is een verstokte roker. Hij beschikt dan ook permanent over een doosje lucifers in elk van zijn 2 broekzakken en als hij een sigaret opsteekt kiest hij willekeurig uit het ene of uit het andere doosje met dezelfde kans. Veronderstel dat hij 2 luciferdoosjes heeft genomen die allebei n lucifers bevatten. Wanneer hij voor de eerste keer merkt dat een doosje leeg is om het moment dat hij een lucifer wil nemen, noemen we X het aantal lucifers in het andere doosje. 1. Bereken pk = P(X = k), 0 ≤ k ≤ n. 2. Voor welke waarde(n) van k bereikt pk een maximum? 3. Bewijs dat E(X) = (2n + 1)p0 − 1. 4. Geef een equivalent van E(X) als n → ∞. (Herinner dat 22n (πn)−1/2 ). 2n n ∼ Oefening 1.2. Een deeltje verplaatst zich in het georthonormeerde vlak → − → − (0, i , j ) volgens de volgende regels: 1.2 Testoefeningen 5 • Het deeltje begint op het punt 0 en maakt achtereenvolgens sprongen van lengte 1. • Enkele sprong gebeurt in een willekeurige richting, onafhankelijk van de vorige sprongen. M.a.w. als we volgende notatie gebruiken: A0 = 0, A1 , . . . , An , . . . zijn de opeenvolgende posities van het deeltje, dan is de afstand |An−1 An | = 1 en → −−−−−→ − dan zijn de hoeken θn = ( i , An−1 An ) onafhankelijke stochastische variabelen met dezelfde uniforme verdeling over [0, 2π). Indien we Xn en Yn noteren als coördinaten van An , dan is Dn de afstand |0An |. 1. Schrijf, voor n ≥ 1, Xn en Yn in functie van cos θi en sin θi , 1 ≤ i ≤ n. 2. Bewijs dat Xn en Yn gecentreerd zijn (dus met gemiddelde 0). 3. Bereken Var(Xn ) en Var(Yn ). 4. Bereken E(Dn2 ) en leidt eruit af dat E(Dn ) ≤ √ n. 5. Bereken Cov(Xn , Yn ). 6. (a) Bereken via oefening 1, en door inductie op n, de waarde van E(Xn2Yn2 ). (b) Geldt dat Cov(Xn2 , Yn2 ) = 0? (c) Zijn Xn en Yn onafhankelijke variabelen? Oefening 1.3. Laat X, Y twee stochastische variabelen zijn met dezelfde verdeling en ϕ hun characteristieke functie. Veronderstel dat X en Y onafhankelijk zijn, dat X + Y en X − Y onafhankelijk zijn en dat verder E(X) = E(Y ) = 0 en E(X 2) = E(Y 2 ) = 1. 1. Druk de characteristieke functies van X + Y, X −Y en 2X uit in functie van ϕ. Leidt ook af dat ϕ(2t) = ϕ(t)3 ϕ(−t). 2. Gebruik makende van 1, toon aan dat voor alle t geldt dat ϕ(t) = 0. ϕ(t) . Bewijs dat voor alle t, ρ(t) = (ρ( 2t ))2 . Bewijs dat ρ 3. Stel ρ(t) = ϕ(−t) constant gelijk is aan 1 en dat ϕ reëel is. 4. Leidt af dat ϕ(t) = (ϕ( 2t ))4 . 5. Bepaal de verdeling van X. 6 Voorkennis Oefening 1.4. Zij X1 , X2 en X3 drie onafhankelijke bivariate stochastische variabelen met allen dezelfde verdeling N2 (0, I2). Bepaal de kans dat de driehoek gevormd door X1 , X2 en X3 een stompe hoek heeft. Nog enkele oefeningen gebaseerd op de eigeschappen 1.1 en 1.2: Oefening 1.5. Veronderstel dat X en Y twee onafhankelijke stochastische variabelen zijn, die respectievelijk Γ(a, c) en Γ(b, c) verdeeld zijn, met a, b, c, > 0 (Herinner dat een Γ(a, c)-verdeelde variabele X verdelingsfunctie fX (x) = ca e−cx xa−1 X 1(0,+∞) (x)). Bepaal de verdeling van S = X + Y en T = X+Y door Γ(a) x een transformatie φ : (x, y) → (s = x + y, t = x+y ) te definieren. Oefening 1.6. Veronderstel dat Z = (X, Y ) een stochastische vector is gedefinieerd op R2 met characteristieke functie Φ. 1. Bewijs dat de verdeling van Z invariant is onder rotatie (rond 0) als en slechts als er een functie ψ, gedefinieerd op R, bestaat zodat ∀(u, v) ∈ R2 : Φ(u, v) = ψ(u2 + v 2 ). 2. Veronderstel nu dat Z aan de conditie uit punt 1 voldoet en dat X en Y bovendien onafhankelijk zijn. We noteren ΦX en ΦY voor de characteristieke functies van X en Y . (a) Druk Φ uit in functie van ΦX en ΦY . Druk ΦX en ΦY uit in functie van ψ. Toon aan dat ΦX en ΦY even functies zijn en besluit daaruit dat ΦX en ΦY alleen waarden in R aannemen. (b) Leid uit 2a af dat ψ aan een relatie voldoet en toon daarna aan dat ψ nooit 0 wordt. (c) Bewijs dat X (en ook Y ) een gecentreerde normale verdeling hebben met varantie 2λ met λ = − ln ψ(1). (d) Indien X = R cos θ en Y = R sin θ, met R > 0 en 0 ≤ θ < 2π. Bepaal de verdelingen van θ en R. Zijn deze twee variabelen onafhankelijk? Hoofdstuk 2 De Riemann-zeta functie 2.1 Een kanstheoretische benadering Één van de meest bekende onopgeloste wiskundige vermoedens van de voorbije eeuw is wel de Riemann hypothese. Centraal in dit vermoeden staat de Riemann-zeta functie. Deze functie is gedefinieerd door volgend functievoorschrift: ∞ 1 ζ : (1, +∞) → R : s → . ks k=1 Er bestaat echter nog een andere karakterisatie van deze functie: via de formule van Euler: Veronderstel dat de rij priemgetallen wordt voorgesteld door (pk )k≥1 , dan geldt ζ(s) = ∞ (1 − k=1 1 −1 ) . psk (2.1) Deze formule wordt bewezen in oefening 2.2. Een ander formule die al eens van belang kan zijn is de formule van Poincaré: Eigenschap 2.1 (Formule van Poincaré.). Indien (Ω, A, P) een kansruimte is en A1 , . . . , An ∈ A, dan is n n Ak = (−1)k−1 Sk P k=1 waarbij Sk = 1≤i1 <...<ik ≤n k=1 P(Ai1 ∩ . . . ∩ Aik ). 8 De Riemann-zeta functie 2.2 oefeningen Oefening 2.1. Beschrijf de kansruimte (Ω, A, PN ) die bestaat uit het willekeurig trekken van 2 gehelen tussen 1 en N, met N ≥ 2 vast. Men introduceert de volgende gebeurtenissen: B = {beide gehele getallen zijn onderling ondeelbaar} Ap = {beide gehele getallen zijn deelbaar door p} met p priem We noteren p1 , . . . , pn de priemgetallen kleiner of gelijk aan N en we kiezen een m vast groter dan 1. 1. Bewijs dat PN m Apk k=1 waarbij Sk = 1 N2 1≤i1 <...<ik ≤m = m (−1)k−1Sk k=1 N pi1 ...pik 2 . 2. Leid verder af dat voor vast m geldt dat m m 1 1− 2 lim PN Apk = 1 − N →∞ pk k=1 k=1 3. Besluit dat, rekening houdend met de (2.1) lim PN (B) = N →∞ 6 1 = 2 ζ(2) π Oefening 2.2. Op N0 definieerd men een discrete kansverdeling Ps , voor s > 1 door 1 Ps (n) = . ζ(s)ns en, gebaseerd op deze kansverdeling definieert men, voor p priem de stochastische variabelen ρp en αp , gedefinieerd door ρp (n) = 1 indien p een deler is van n en 0 indien niet. αp (n) = De macht van p in de priemdecompositie van n. 2.2 oefeningen 1. (a) Voor een vaste p, wat is de verdeling van de stochastische variabelen ρp ? (b) Bewijs dat de ρp ’s onafhankelijk zijn. (c) Leid de formule van Euler (2.1). 2. (a) Voor een vaste p, wat is de verdeling van de stochastische variabelen αp ? (b) Bewijs dat de αp ’s onafhankelijk zijn. 9 10 De Riemann-zeta functie Hoofdstuk 3 Conditionele verwachting 3.1 Theorie Stel (Ω, B, P) een kansruimte en B een deelstam van A. Definitie 3.1. Indien X ∈ L1 (Ω, A, P) een RSV is, dan noemen we de conditionele verwachting van X t.o.v. B die (unieke) Y ∈ L1 (Ω, B, P) die voldoet aan Y dP = X dP ∀B ∈ B B B Notatie 3.1. Deze Y noteren we als E[X|B] of ook wel als EB [X]. Voor B = σ(Z) noteren we ook E[X|Z] Opmerking 3.1. In plaats van intergreerbaar zou in bovenstaande definitie de X ∈ L1 (Ω, A, P) resp. de Y ∈ L1 (Ω, B, P) ook vervangen kunnen worden door X ≥ 0 resp. Y ≥ 0 en Y B-meetbaar. In wat volgt noemen we B en C deelstammen van A en X, Y, (Xn )n ∈ L (Ω, A, P). 1 Definitie 3.2 (alternatieve definitie voor X ∈ L2 (Ω, A, P)). Indien X ∈ L2 (Ω, A, P) een RSV is, dan noemen we de conditionele verwachting van X t.o.v. B die (unieke) Y ∈ L2 (Ω, B, P) die voldoet aan E[XZ] = E[Y Z], ∀Z ∈ L2 (Ω, B, P) Opmerking 3.2. Een equivalent van deze definitie is voor X ∈ L1 te vinden als een eigenschap, maar dan iets minder overtuigend: Indien X ∈ L1 , dan voldoet Y = EB (X) aan ∀Z ∈ L∞ , E(Y Z) = E(XZ). 12 Conditionele verwachting Eigenschap 3.1. E[EB (X)] = E(X). b.z. Eigenschap 3.2. EB (aX + bY ) = aEB (X) + bEB (Y ). b.z. Eigenschap 3.3. Indien C ⊂ B, dan EC [EB (X)] = EC (X). b.z. Eigenschap 3.4. X ≤ Y ⇒ EB (X) ≤ EB (Y ) Eigenschap 3.5. Indien Y een B-meetbare SV is zodat XY ∈ L1 (Ω, A, P), dan is b.z. EB (XY ) = Y EB (X). b.z. In het bijzonder is dus EB (Y ) = Y . Eigenschap 3.6. Indien X onafhankelijk is van de stam B, dan geldt voor b.z. elke positieve of begrensde f dat EB (f (X)) = E(f (X))1Ω . In het bijzonder b.z. is dus EB (X) = E(X)1Ω Eigenschap 3.7 (Jensen). Indien f een reële convexe functie is, dan is b.z. b.z. f (EB (X)) ≤ EB (f (X)). In het bijzonder is |EB (X)|p ≤ EB (|X|p), ∀p ≥ 1. b.z. b.z. Eigenschap 3.8 (Beppo Levi). Indien Xn ↑ X, dan EB [Xn ] ↑ EB [X]. Eigenschap 3.9 (Fatou). Indien (Xn )n ≥ 0, dan b.z. EB ( lim Xn ) ≤ lim EB (Xn ). n→∞ n→∞ b.z. Eigenschap 3.10 (Lebesgue). Indien Xn → X en er een Z ∈ L1 (Ω, A, P) b.z. bestaat zodat |Xn | ≤ Z voor alle n ∈ N, dan geldt EB (Xn ) → EB (X). b.z. Eigenschap 3.11. Veronderderstel dat X ∈ L1 (R, R, P). Dan geldt: Y = E(X|T ) Y is van de vorm Y = h(T ) met h een begrende reële functie en voor elke begrensde reële functie g geldt dat E(g(T )Y ) = E(g(T )X). Eigenschap 3.12. Veronderderstel dat X ≥ 0. Dan geldt: Y = E(X|T ) Y is van de vorm Y = h(T ) met h een positieve reële functie en voor elke begrensde reële functie g geldt dat E(g(T )Y ) = E(g(T )X). 3.2 Oefeningen 3.2 13 Oefeningen Oefening 3.1. Een machine vervaardigt staafjes waarvan de lengte een in cm uitgedrukte SV is, die normaal verdeeld is met gemiddelde 10 cm en standaardafwijking 0.5 cm. Enkel exemplaren met lengte tussen 9 cm en 10.25 cm worden afgeleverd. 1. Wat is de kans dat een door de machine vervaardigd staafje wordt afgeleverd? 2. Geef de verdelingsfunctie en de dichtheidsfunctie van de lengte van de afgeleverde staafjes. 3. Geef de gemiddelde lengte van de afgeleverde staafjes. Oefening 3.2. De levensduur van een gloeilamp is een (in uren uitgedrukte) 1 SV waarvan de verdeling exponentieel is met rate dus 1000 uren 1 − x fX (x) = e 1000 1(x≥0) 1000 1. Bereken de kans dat de levensduur van de lamp langer is dan 1000 uur. 2. Als gegeven is dat de lamp langer heeft gebrand dan 500 uur, wat is dan de conditionele kans dat de lamp in totaal langer zal branden dan 1500 uur? Bereken eveneens de gemiddelde levensduur onder deze voorwaarde. 3. Bereken de tijdsduur zodat met een waarschijnlijkheid van 90% de lamp langer zal branden dan deze tijdsduur. 4. Wat is de rate α zodat met 75% kans de levensduur van zo’n lamp langer is dan 500 uur? Oefening 3.3. Gegeven het universum Ω = [0, 3], de uniforme kansmaat P op [0, 3], de Borelstam A = RΩ en de deelstam B voortgebracht door de partitie {B1 , B2 , B3 } waarbij B1 = [0, 1], B2 =]1, 2], B3 =]2, 3]. Beschouw de stochastische variabele X(ω) := ω 2 . 1. Construeer en teken de afbeelding E[X|B]. 2. Ga na dat E[X|B] dP = B X dP B voor B = φ, B = Ω, B = B1 en B = B2 ∪ B3 14 Conditionele verwachting Oefening 3.4. Zij Ω = [0, 3], A = RΩ , P de uniforme kansmaat op Ω en B1 = [0, 1], B2 =]1, 2], B3 =]2, 3]. Beschouw de stochastieken X(ω) = eω en Z = 51B1 + 71B2 ∪B3 . Construeer en teken E[X|Z]. Oefening 3.5. Zij Ω = R, A = R, P = N (0, 1) en Y (ω) = ω 2 . Beschouw de stochastiek X(ω) = eω . 1. Geef σ(Y ). 2. Construeer E[X|Y ]. 3. Bereken E[X|Y = 4]. 4. Geef E[X|U] voor U(ω) = |ω|. 5. Bereken E[X|U = 4]. Oefening 3.6. Men veronderstelt een X ∈ L2 . Bewijs dan dat volgende eigenschappen equivalent zijn: 1. EB (X 2 ) = (EB (X))2 b.z. 2. X = EB (X) Oefening 3.7. Veronderstel (Ω, A, P) een kansruimte, B ⊂ A een deelstam en A ∈ A een gebeurtenis. Stel dat B = {ω ∈ Ω : EB (1A )(ω) = 0}. b.z Bewijs dat B ⊂ Ac . Oefening 3.8. Veronderstel dat X en Y RSV’s zijn, gedefinieerd op een kansruimte (Ω, B, P), en kwadratisch integreerbaar zijn. Veronderstel verder dat E[X|Y ] = Y b.z. en E[Y |X] = X b.z. 1. Toon aan dat X = Y b.z. 2. Wat als X, Y ∈ L1 (Ω, B, P)? Oefening 3.9. Veronderstel X, Y, Z 3 RSV’s gedefinieerd op een kansruimte (Ω, B, P). Hierbij zijn X, Y ∈ L2 (Ω, B, P) en men definieert de conditionele covariantie door: Cov(X, Y |Z) = E[(X − E[X|Z])(Y − E[Y |Z])|Z]. 3.2 Oefeningen 15 1. Bewijs dat Cov(X, Y |Z) = E[XY |Z] − E[X|Z]E[Y |Z]. 2. Men veronderstelt dat X = X + f (Z) en Y = Y + g(Z) waar het paar (X , Y ) onafhankelijk is van Z. Wat wordt Cov(X, Y |Z) in dit geval? 3. Geldt in het algemeen dat Cov(X, Y ) = E[Cov(X, Y |Z)]? 4. Bewijs dat Cov(X, Y ) = E[Cov(X, Y |Z)] + Cov(E[X|Z], E[Y |Z]). 5. Toon aan dat Var(X) = Var(E[X|Z]) als en alleen als X een functie is van Z. Oefening 3.10. Stel X een n-variate RSV en Y een p-variate reële RSV zodat het koppel (X, Y ) een dichtheid heeft. Bovendien zijn ze onafhankelijk van elkaar. Veronderstel f : Rn × Rp → R Borelmeetbaar ≥ 0 of begrensd. Toon aan dat E[f (X, Y )|Y = y] = h(y) met h(y) = E[f (X, y)]. Oefening 3.11 (Examen juni ’03). X = (X1 , X2 , X3 ) is normaal verdeeld met dichtheid N3 (0, I3 ). We definieren nu de variabelen U = 2X1 − X2 − X3 V = X 1 + X2 + X3 W = 3X1 − X2 − 4X3 1. Bepaal de verdelingen van U, V en W . Welke van de volgende koppels (U, V ), (V, W ) en (U, W ) zijn onafhankelijk? 2. Bewijs dat er een a ∈ R zodat U en Z = W − aU onafhankelijk zijn. Gebruik dit gegeven om de verdeling van W wetende U = u te bepalen. Bereken ook E[W |U = u]. 16 Conditionele verwachting Hoofdstuk 4 Conditionele verdeling, conditionele dichtheid 4.1 Marginale dichtheden: theorie De gemeenschappelijke verdelingsfunctie van de stochastische veranderlijken X en Y definiëren we als volgt. Definitie 4.1. Zij X, Y RSV’s op de kansruimte (Ω, A, P). Dan heet de functie FX,Y : R2 → R : (x, y) → P(X ≤ x, Y ≤ y) de gemeenschappelijke (gezamelijke) verdelingsfunctie van de stochastische veranderlijken X en Y . Opmerking 4.1. Als X en Y continue SV zijn en FX,Y afleidbaar is, dan is de gemeenschappelijke dichtheidsfunctie gelijk aan fX,Y (x, y) = ∂ 2 FX,Y (x, y) . ∂x∂y Men schrijft ook vaak FZ en fZ waar Z = (X, Y ). Opmerking 4.2. Deze definitie kan eenvoudig veralgemeend worden naar meerdere dimensies. Eigenschap 4.1. De marginale dichtheid kan berekend worden als volgt: • Discrete geval: pX (k) = P(X = k) = P(X = k, Y = l) l pY (l) = P(Y = l) = P(X = k, Y = l) k 18 Conditionele verdeling, conditionele dichtheid • Continuegeval: fX (x) = fX,Y (x, y)dλ(y) R fY (y) = fX,Y (x, y)dλ(x) R waarbij P(X = x, Y = y) en fX,Y (x, y) resp. de discrete en continue gemeenschappelijke dichtheidsfuncties zijn. 4.2 Marginale dichtheden: oefeningen Oefening 4.1. Zij fX,Y,Z (x, y, z) = e−(x+y+z) voor alle 0 < x, y, z < ∞ de gemeenschappelijke dichtheidsfunctie van de stochastische variabelen X, Y, Z. 1. Zoek dan hun gezamelijke verdelingsfunctie FX,Y,Z (x, y, z). 2. Bereken hun marginale dichtheid fX (x), fY (y) en fZ (z). 4.3 Condictionele dichtheden en verdelingen: theorie Definitie 4.2. Zij X en T 2 discrete SV’s met gemeenschappelijke dichtheid P(X = x, T = t) en marginale dichtheden pX en pT dan definiëren we de voorwaardelijke (conditionele) dichtheid door: P(X = k, T = t) als P(T = t) > 0 nt (k) = P(X = k|T = t) = P(T = t) =0 als P(T = t) = 0 Zij X en T 2 continue SV’s met gemeenschappelijke dichtheid fX,T (x, t) en marginale dichtheden fX en fT dan definiëren we de voorwaardelijke (conditionele) dichtheid door: fX,T (x, t) als fT (t) > 0 fX|T (x|t) = fT (t) =0 als fT (t) = 0 Voorbeeld 4.1. Zijn X ∼ P(λ) en Y ∼ P(µ) i.i.d., dan is T = X + Y ∼ 4.3 Condictionele dichtheden en verdelingen: theorie P(λ + µ). We krijgen dat voor 0 ≤ k ≤ t P(X = k, Y = t − k) P(X = k, T = t) = P(T = t) P(T = t) k t−k λ µ t! eλ+µ = e−λ e−µ k! (t − k)! (λ + µ)t λk µ( t − k) t! = k!(t − k)! (λ + µ)t λ t k = p (1 − p)t−k = nt (k) met p = λ+µ k P(X = k|T = t) = Men noemt (nt (k), 0 ≤ k ≤ t) de conditionele verdeling van X wetende dat λ T = t. Hier gaat het om een binomiale verdeling B(t, λ+µ ). Definitie 4.3. De conditionele verdeling van een continue stochastische variabele X gegeven T wordt ook dikwijls gegeven door de transitiekern n(T, dx), waarbij n(T, dx) eenduidig wordt bepaald doordat +∞ b.z. f (x)n(T, dx) E(f (X)|T ) = −∞ geldt voor elke f begrensd en Borelmeetbaar. Laten we dit even verduidelijken met een voorbeeld: Voorbeeld 4.2. Veronderstel X en Y i.i.d. met dezelfde verdeling U(0, 1). We zoeken de conditionele verdeling van (X − Y )+ wetende dat Y = y. Oplossing. We zoeken de transitiekern n(y, dt) zó dat ∀f : R → R Borelmeetbaar + E(f ((X − Y ) )|Y = y) = f (t) n(y, dt). R Uit oefening 3.10 halen we dat E(f ((X − Y )+ )|Y = y) = E(f ((X − y)+ )) 1 f ((x − y)+ )dx 0≤y≤1 = 0 y 1 = f (0)dx + f (x − y)dx 0 y 1−y f (t)dt = yf (0) + 0 def = f (t) n(y, dt) R 19 20 Conditionele verdeling, conditionele dichtheid De transitiekern van de gevraagde conditionele verdeling is dus n(y, dt) = y∆0 (dt) + 1[0,1−y] (t)dt. Opmerking 4.3. n(t, dx) kan geı̈nterpreteerd worden als P(X ∈ dx|T = t). Eigenschap 4.2. Indien X en T SV’s zijn, dan wordt de voorwaardelijke verwachting van X wetende dat T = t geven door: knt (k) in het discrete geval k E[X|T = t] = xfX|T (x|t)dλ(x) in het continue geval R Meer algemeen wordt dat: Eigenschap 4.3. Indien X en T SV’s zijn en g ≥ 0 borelmeetbaar, dan geldt: g(k)nt (k) in het discrete geval k E[g(X)|T = t] = g(x)fX|T (x|t)dλ(x) in het continue geval R Eigenschap 4.4. Veronderstel dat X en Y beide absoluut continu zijn en dat fX (x) en fY |X (y|x), dan vertelt de regel van Bayes dat de condtitionele dichtheid fX|Y (x|y) gegeven wordt door fY |X (y|x)fX (x) fX|Y (x|y) = +∞ . f (y|z)f (z) dz X Y |X −∞ Een dergelijke regel werd voor het discrete geval al bekeken (zie kanstheorie I). 4.4 Conditionele dichtheden en verdelingen: oefeningen Oefening 4.2. Zij X gegeven R exponentieel verdeeld d.w.z. fX|R (x|r) = re−rx 1{x>0} De variabele R is op haar beurt gammaverdeeld: fR (r) = 1 a−1 −r r e 1{r>0} Γ(a) met a > 2 4.4 Conditionele dichtheden en verdelingen: oefeningen 1. Bereken de marginale verdeling van X. 2. Bereken E[X|R]. Oefening 4.3. Veronderstel dat de gemeenschappelijke dichtheidsfunctie van de SV’s X en Y gegeven is door y 2 − x2 −y e 1{0<y<+∞} 1{−y≤x≤y} 8 f (x, y) = Bewijs dat E[X|Y = y] = 0. Oefening 4.4. Veronderstel dat de gemeenschappelijke dichtheidsfunctie van de SV’s X en Y gegeven is door f (x, y) = e−x/y e−y 1{0<x<+∞} 1{0<y<+∞} y Bewijs dat E[X|Y = y] = y. Oefening 4.5. Zij X en Y discrete random variabelen on N met gezamelijke dichtheidsfunctie e−2 p(x, y) = , y≤x y!(x − y)! en p(x, y) = 0, y > x Bepaal E(Y |X = x). Oefening 4.6. Bewijs dat als X en Y beide continu zijn, geldt +∞ E[X|Y = y]fY (y) dy. E[X] = −∞ Oefening 4.7. Veronderstel dat Y een exponentiële verdeling heeft, maar we laten de parameter λ van de verdeling zelf ook een SV zijn (laten we hem voor de eenvoud X noemen in plaats van λ) met dichtheidsfunctie x2 −x fX (x) = e 1{x>0} . 2 1. Geef de dichtheidsfuntie van Y . 2. Geef de conditionele dichtheidsfunctie voor X gegeven Y = y. 21 22 Conditionele verdeling, conditionele dichtheid Opmerking 4.4. Een verdeling met dichtheidsfunctie fX (x) = λn xn−1 e−λx 1{x>0} . (n − 1)! noemt men een Erlangverdeling met parameters n en λ. In oefening 4.7 heeft X een Erlangverdeling met parameters n = 3 en λ = 1. Oefening 4.8 (Examen juni ’03). De gezamelijke dichtheidsfunctie van X en Y wordt gegeven door 1. fX,Y (x, y) = e−y 1{0<x<y<+∞} y Bepaal E[X 2 |Y = y]. 2. fX,Y (x, y) = e−y 1{0<x<y<+∞} Bepaal de dichtheidsfunctie van X + Y . Oefening 4.9. Indien E[Y |X] = 1, bewijs dan dat Var(XY ) ≥ Var(X). Oefening 4.10. Zij X en T twee SV en zij g(t) = E[X|T = t]. Dan geldt: 1. als E[X] bestaat: E[g(T )] = E[X] 2. als Var[X] bestaat: Var[g(T )] ≤ Var[X]. De gelijkheid treedt op a.s.a. P(X = g(T )) = 1. Oefening 4.11. Onderdelen komen aan in een station voor reparatie. Hun aankomst heeft plaats op de ogenblikken τ1 , τ1 +τ2 , . . . , τ1 +· · ·+τn , . . ., waarbij de intervallen τi onafhankelijke variabelen zijn met dezelfde exponentiële verdeling met parameter λ > 0. De onderdelen worden gerepareerd in volgorde van aankomst. De duur van de reparatie van de n-de onderdeel is een SV σn . De rij (τ1 , σ1 , . . . , τn , σn , . . .) wordt onafhankelijk verondersteld. Ieder onderdeel dat arriveert wordt meteen behandeld indien er geen ander onderdeel in behandeling is, in het andere geval wacht het tot de reparatieservice vrij is. We noteren Wn de wachttijd van het n-de onderdeel. Verder veronderstellen we dat alle σi ’s dezelde exponentiële verdeling hebben met parameter µ > 0. 1. Wat is de verdeling van de stochastische variabele ξn = σn − τn+1 ? Bewijs dat ξn en Wn onafhankelijk zijn. 4.4 Conditionele dichtheden en verdelingen: oefeningen 2. Bewijs dat Wn+1 = sup(Wn +ξn , 0) en leidt hieruit af dat de conditionele verdeling van Wn+1 wetende Wn (dus η(t, dx) = P(Wn+1 ∈ dx|Wn = t)) gegeven wordt door: η(t, dx) = µ −λt λµ 1[0,t[ (x)eλ(x−t) + 1[t,∞[ (x)e−µ(x−t) dx e δ0 (dx)+ µ+λ µ+λ 3. Noem Φn de characteristieke functie van Wn . Bepaal, door gebruik te maken van deel 2, een relatie tussen Φn en Φn+1 van de vorm Φn+1 (t) = a(t)Φn (t) + b(t)E[e−λWn ], waarbij a(t) en b(t) alleen van t afhangen. 4. Leidt uit 3 af dat een noodzakelijke voorwaarde voor convergentie in verdeling van Wn wordt gegeven door µ > λ. 5. Bewijs dat Wn+1 = sup(0, ξn , ξn + ξn−1 , . . . , ξn + ξn−1 + . . . + ξ1 ) en dat bijgevolg Wn+1 dezelfde verdeling heeft als sup(0, ξ1 , ξ1 + ξ2 , . . . , ξ1 + ξ2 + . . . + ξn ). 6. Leidt uit 5 af dat Wn in verdeling convergeert indien µ > λ. Convergeert Wn onder dezelfde conditie ook in kans? 7. Veronderstel dat µ > λ. Leidt uit vraag 3 de characteristieke functie van de limiet van Wn af. Geef dan ook de verdeling ervan. Wat is de limiet van P(Wn = 0) indien n naar oneindig gaat? Wat betekent deze limiet? 23 24 Conditionele verdeling, conditionele dichtheid Hoofdstuk 5 Berekenen van verwachtingswaarden en kansen door conditionering 5.1 Theorie en voorbeelden Door de volgende eigenschap kan men de verwachtingswaarde berekenen door conditionering. Deze eigenschap komt overeen met eigenschap 3.1. Eigenschap 5.1. Indien X en Y SV’s zijn, dan geldt dat E(X) = E(E[X|Y ]). In het discrete geval krijgen we dat E(X) = E(X|Y = y)P(Y = y) y en in het continue geval krijgen we dat +∞ E(X|Y = y)fY (y) dy E(X) = −∞ Dikwijls bekomt men door het gebruik van deze eigenschap een vergelijking in E(X), waaruit men E(X) dan kan bepalen (Zie ook oefening 4.6). Voorbeeld 5.1. Het gemiddelde van de geometrische verdeling. Een muntstuk met kans p om munt te gooien wordt achter elkaar omhoog gegooid totdat het voor de eerste keer munt aangeeft. Wat is het verwachte aantal worpen? 26 Berekenen van verwachtingswaarden en kansen door conditionering Oplossing. Laat N het aantal worpen zijn en noem 1, indien de eerste worp munt aangeeft Y = 0, indien de eerste worp kruis aangeeft. Eigenschap 5.1 geeft dan E(N) = E(N|Y = 1)P(Y = 1) + E(N|Y = 0)P(Y = 0) = pE(N|Y = 1) + (1 − p)E(N|Y = 0) We hebben echter dat E(N|Y = 1) = 1 en E(N|Y = 0) = 1 + E(N). Dit levert de vergelijking E(N) = p + (1 − p)(1 + E(N)) waaruit E(N) = 1/p. Als bijzonder geval van eigenschap 5.1 kan men ook kansen uitrekenen door conditionering: Eigenschap 5.2. Veronderstel dat B een willekeurige gebeurtenis is, en Y een SV. Dan geldt P(B) = P(B|Y = y)P(Y = y), als Y discreet is y +∞ = −∞ P(B|Y = y)fY (y) dy, als Y continu is Opmerking 5.1. Het discrete geval van deze eigenschap is natuurlijk gewoon het theorema van totale waarschijnlijkheid (zie kanstheorie I). Voorbeeld 5.2. Veronderstel dat we 2 onafhankelijke X en Y met dichtheidsfuncties fX en fY . Bereken P(X < Y ). Oplossing. Conditioneren we op de waarde van Y dan krijgen we +∞ P(X < Y |Y = y)fY (y) dy P(X < Y ) = −∞ +∞ P(X < y|Y = y)fY (y) dy = −∞ +∞ P(X < y)fY (y) dy = −∞ +∞ FX (y)fY (y) dy = −∞ 5.2 Oefeningen 5.2 27 Oefeningen Oefening 5.1. Bereken de variantie van de geometrische verdeling door middel van conditionering. Oefening 5.2. Elke klant die in de Hannah’s klerenwinkel binnenwandelt zal met kans p ook effectief iets kopen. Als het aantal klanten per dag een poissonverdeelde variabele is (met parameter λ, wat is dan de kans dat Hannah vandaag niets zal verkopen? Oefening 5.3 (Het Ballot probleem). Bij een verkiezing krijgt de heer Janssens n stemmen en de heer Peeters m stemmen, met n > m. Veronderstel dat de stemmen willekeurig geordend zijn (elke ordening met dezelfde kans), bewijs dan dat de kans dat Janssens steeds voorop ligt in de telling van de stemmen gelijk is aan (n − m)/(n + m). Oefening 5.4. Veronderstel dat de gemeenschappelijke dichtheidsfunctie van de SV’s X en Y gegeven is door P(X = i, Y = j) = e−(a+bi) (bi)j ai , j! i! i ≥ 0, j ≥ 0 1. Wat is de conditionele verdeling van Y gegeven dat X = i? 2. Zoek Cov(X, Y ). Oefening 5.5 (Examen juni ’02). Een rat zit gevangen in een doolhof. Op de plek A waar hij nu zit heeft hij 2 mogelijkheden. Of hij gaat naar links, of hij gaat naar rechts. Indien hij naar rechts gaat, dan zal hij 3 minuten door de doolhof wandelen en dan terug op plek A terechtkomen. Gaat ie naar links, dan zal hij met kans 13 het doolhof verlaten na 2 minuten wandelen en zal hij met kans 23 terug zijn op plek A na 5 minuten. Veronderstel dat de rat op elk moment evenveel kans heeft om naar links of naar rechts te gaan. Wat is het verwacht aantal minuten dat de rat in het doolhof zal zitten? Oefening 5.6. Bepaal de variantie van de duur dat de rat uit oefening 5.5 nodig heeft om uit de doolhof te raken. Oefening 5.7. Stel dat U1 , U2 , . . . een rij is van i.i.d. variabele met verdeling U(0, 1). Noem S1 = min{n ≥ 2 : Un > Un−1 } en S2 = min{n ≥ 1 : U1 + . . . + Un > 1} 28 Berekenen van verwachtingswaarden en kansen door conditionering S1 is dan de index van de eerste random variabele die groter is dan zijn voorganger, terwijl S2 het aantal random variabelen aangeeft dat nodig is om een som groter dan 1 te hebben. Bewijs dat S1 en S2 dezelfde verdeling hebben en dat hun (gemeenschappelijke) gemiddelde e is. Oefening 5.8 (Examen juni ’03). Aan een tennistoernooi doen er 2n deelnemers mee. Het toernooi is met directe uitschakeling, d.w.z. de verliezer van de wedstrijd gaat naar huis, de winnaar gaat naar de volgende ronde. Zo zijn er in de 2e ronde 2n−1 spelers in de running, en bijft er uiteindelijk na de n-de en laatste ronde 1 spelers over die ongeslagen is, dit is de winnaar van het toernooi. Alle spelers krijgen een nummer van 1 tot 2n en telkens wanneer een wedstrijd wordt gespeeld heeft de speler met het laagste nummer kans p om te winnen. In het begin wordt een binaire boom opgemaakt met aan elk blad 1 van de 2n spelers. Bij een gewonnen wedstrijd stijg je in de boom en krijg je je nieuwe tegenstander. De winnaar staat uiteindelijk bovenaan in de boom. De spelers worden at random onderaan de boom geplaatst. Toon aan dat de kans dat speler met het nummer 2 het tornooi wint gegeven wordt door pn−1 n n (2 p − 1) pn − n 2 −1 Hint. Conditioneer op de ronde dat speler 1 en speler 2 elkaar mogelijk tegenkomen. Hoofdstuk 6 Stochastische processen en beltijden 6.1 Theorie Definitie 6.1. Als (Ω, F , P) een kansruimte is en (Fn )n∈N een filtratie van deelstammen van F , dan is ν : Ω → N ∪ {∞} een beltijd of stoptijd t.o.v. (Fn )n∈N indien ∀n ∈ N : (ν ≤ n) ∈ Fn . Definitie 6.2. Veronderstel (Ω, F , (Fn )n , P) een gefiltreerde kansruimte en ν een beltijd. Men noemt Fν = {F ∈ F ; ∀n ∈ N : F ∩ (ν ≤ n) ∈ Fn } de door ν geı̈nduceerde deelstam van F . 6.2 Oefeningen Oefening 6.1. Veronderstel (Ω, F , (Fn)n een gefiltreerde kansruimte en ν1 en ν2 2 beltijden t.o.v. de filtratie (Fn )n . Bewijs dat: 1. ν1 + ν2 een beltijd is t.o.v. de filtratie (Fn )n . 2. {ν1 < ν2 } ∈ Fν1 ∩ Fν2 en {ν1 = ν2 } ∈ Fν1 ∩ Fν2 30 Stochastische processen en beltijden Oefening 6.2. Veronderstel (Ω, F , (Fn )n ) een gefiltreerde kansruimte en τ een beltijd t.o.v. de filtratie (Fn )n . Veronderstel verder dat ν een Fτ meetbare stochastiek is op Ω met ν > τ . Bewijs dat ν een beltijd is voor de filtratie (Fn )n . Oefening 6.3. Indien τ en ν beltijden zijn t.o.v. een filtratie (Fn )n en A ∈ Fν , bewijs dan dat A ∩ (ν ≤ τ ) ∈ Fτ . Oefening 6.4. Zij (Xn )n∈N i.i.d. en Fn = σ({X1 , . . . , Xn }). Veronderstel T een beltijd t.o.v. (Fn )n . Toon aan dat XT +1 , XT +2, . . . i.i.d. met dezelfde verdeling als X1 , X2 , . . . . Hoofdstuk 7 martingalen 7.1 Theorie en voorbeelden Definitie 7.1. Een reëel aangepast proces is een martingaal (resp. supermartingaal, resp. submartingaal) indien voor elke n, Xn integreerbaar is en bovendien b.z. E(Xn+1 |Fn ) = Xn (resp ≤, resp ≥). Of anders gezegd: Met de huidige informatie is je verwacht resultaat in de toekomst hetzelfde als het huidige. Een erg belangrijke stelling is de stopstelling: Eigenschap 7.1 (Stopping theorem). Indien Xn een supermartingaal (resp. martingaal) is en ν een stoptijd, dan is Xν∧n ook een supermartingaal (resp. martingaal). Bewijs. De integreerbaarheid volgt direct uit |Xn∧ν | ≤ |X0 | + . . . + |Xn |. Vermits {ν > n} ∈ Fn , krijgen we dat n Xk 1{ν=k} + Xn+1 1{ν>n} EFn X(n+1)∧ν = EFn = n k=0 Xk 1{ν=k} + 1{ν>n} EFn (Xn+1 ) k=0 ≤ n k=0 Xk 1{ν=k} + 1{ν>n} EFn Xn+1 = Xn∧ν 32 martingalen Eigenschap 7.2. Indien Xn een supermartingaal (resp. martingaal) is en ν1 ≤ ν2 begrensde stoptijden, dan geldt: b.z. E(Xν2 |Fν1 ) ≤ Xν1 7.2 (resp =) Oefeningen Oefening 7.1. 1. Het muntworp-model: gegeven de kansruimte ([0, 1], R[0,1] , λ[0,1] ). Een rij experimenten levert een rij van nullen en enen ω = (1, 0, 1, 0, 0, 1, 1, 1, 0, 0, . . . ), wat overeenkomt met de binaire notatie ω = 0, 1010011100 . . . , waar 1 staat voor het gooien van kop en 0 staat voor het gooien van munt. We vinden bijvoorbeeld P(ω1 = 1) = 12 en P(ω1 = 1, ω2 = 0) = P({ω; ω begint met 0.10...) = 14 . (a) Als Xn (ω) = ωn het resultaat van de n-de worp is, geef dan de stammen Bn = σ({X1 , . . . , Xn }) voor n = 1, 2, 3 en 4. (b) Veronderstel nu dat we een spelstrategie volgen waarbij we een constante inzet van 1 frank nemen. De return van spel i noteren we als 1 als Xi = 1 Yi = −1 als Xi = 0 Beschouw de totale return na n spelen, gegeven door Sn = Y1 + · · · + Yn . Toon aan dat {Sn ; n = 1, 2, . . . } een martingaal is. (c) Construeer de verdeling van Sn voor n = 1, . . . , 6. Wat is de kans om een positieve winst te bekomen? (d) Plot E[Sn ] en Var[Sn ] in functie van n voor n = 1, . . . , 6. 2. Vervang nu de spelstrategie door een nieuw spelsysteem, d.w.z. de inzet Zi wordt dan gedefinieerd door 1 als Yi−1 = 1 Zi = 2Zi−1 als Yi−1 = −1 De totale return is dan Sn = Z1 Y1 + · · · + Zn Yn . 7.2 Oefeningen 33 (a) Bewijs dat Sn nog steeds een martingaal is. (b) Construeer de verdeling van Sn voor n = 1, 2, 3 en 4. Wat is nu de kans om een positieve winst te bekomen? (c) Plot E[Sn ] en Var[Sn ] in functie van n voor n = 1, 2, 3, 4. 3. In het Casino van Knokke gaan we roulette spelen. De kans op winst , de kans op verlies 19 . We nemen de constante spelstrategie, met is 18 37 37 een inzet van 1 frank. (a) Bewijs dat {Sn ; n ∈ N} een supermartingaal is. (b) Zoek de verdeling van Sn en teken ze voor n = 1, 2, 3, 4. (c) Bereken en teken E[Sn ] en Var[Sn ] in functie van n. 4. Pas de spelstrategie van deel 2 toe op de roulette van deel 3. (a) Bewijs dat {Sn ; n ∈ N} een supermartingaal is. Oefening 7.2. Zij {Xn |n ∈ N} is een martingaal t.o.v. {An |n ∈ N} en {Zn |n ∈ N} is een rij begrensde R.S.V. aangepast aan {An |n ∈ N}. Definieer dan per inductie: Y1 := X1 ; Yn+1 := Yn + Zn (Xn+1 − Xn ) Toon aan dat {Yn |n ∈ N} een martingaal is t.o.v. {An |n ∈ N}. Oefening 7.3. Zij {Xn |n ∈ N} een martingaal en Xn ∈ Lp (Ω, A, p) met 1 ≤ p < ∞. Toon aan dat {|Xn |p |n ∈ N} een submartingaal is. Oefening 7.4. Zij (Ω, F , P) kansruimte met filtratie (Fn )n waarop we 2 martingalen veronderstellen: (Xn )n≥0 en (yn )n≥0 , beide in L2 . 1. Bewijs dat, met m ≤ n dat EFm (Xm Yn ) = Xm Ym b.z. 2. Bewijs dat E(Xn Yn ) − E(X0 Y0 ) = n k=1 E((Xk − Xk−1 )(Yk − Yk−1)). 34 martingalen Oefening 7.5. Een gokker A heeft een beginfortuin van a EUR; B bezit b EUR. Ze werpen herhaaldelijk een muntstuk op. Munt betekent dat A 1 EUR wint, kruis dat hij 1 EUR verliest (en B 1 EUR wint). Dit kan beschreven worden als volgt: een kansruimte (Ω, A, P ) met daarop een rij van onafhankelijke stochasten X1 , X2 , . . . , Xn , . . . waarbij Xn = 1 als de nde worp munt is, en Xn = −1 als de n-de worp kruis is. Speler A wint dus als Xn = 1. Zij Sk := ki=1 Xi de winst van A na k worpen. We hebben reeds aangetoond dat {Sk |k ∈ N} een martingaal is t.o.v. {Ak |k ∈ N} met Ak := σ({Xi |i ≤ k}). 1. Zij T het ogenblik waarop één van de spelers zijn fortuin kwijt is, d.w.z. T(ω) := min {k|Sk (ω) = −a of Sk (ω) = b} en T(ω)= ∞ als Sk (ω) > −a, Sk (ω) < b ∀k ∈ N. Toon aan dat T een beltijd is t.o.v. {Ak |k ∈ N}. 2. Toon aan dat {ST ∧k |k ∈ N} een uniform begrensde martingaal is t.o.v. {AT ∧k |k ∈ N}. 3. Toon aan dat ST ∧k P-b.z. convergeert naar een P-integreerbare stochastiek S. 4. Besluit uit 3. dat T < ∞ P-b.z. 5. Toon aan met behulp van 2. en 3. dat E[ST ]= 0. 6. Bereken nu de kans p = P(ST = b) dat B blut is vóór speler A. Oefening 7.6. Zij (Sn )n≥0 een randomwalk op Z: S0 = 0, Sn = U1 + U2 + . . . + Un , waar Ui onafhankelijke stochastische variabelen zijn met dezelfde verdeling en zodat 0 < P(Ui = 1) = p < 1, P(Ui = −1) = 1 − p = q. 1. Zij Zn = Sn q p 2. Toon aan dat . Bewijs dat (Zn )n≥0 een positieve martingaal is. k p P sup Sn ≥ k ≤ q n≥0 en dus dat indien q > p, geldt dat E sup Sn ≤ n≥0 p . q−p 7.2 Oefeningen 35 Oefening 7.7 (Examen juni ’02). Zij (Zn )n≥1 een randomwalk op Z, zodat 1 ∀i ≥ 1 : P(Zi = 1) = P(Zi = −1) = . 2 We stellen S0 = 0 en Sn = Z1 + . . . + Zn , F0 = {φ, Ω} en Fn = σ(Z1 , . . . , Zn ). Veronderstel verder dat a > 0 een vast geheel getal is en τ = inf{n ≥ 0 : Sn = a} de eerste keer dat Sn het getal a bereikt. a) Bewijs dat Xnθ = eθSn (cosh θ)n θ een (Fn )n≥0 -martingaal is. Bewijs dat, indien θ ≥ 0, (Xn∧τ )n≥0 een begrensde martingaal is. θ )n≥0 bijna zeker en in L1 convergeert naar b1) Bewijs dat, voor θ ≥ 0, (Xn∧τ de stochastische variabele eθa W = 1{τ <+∞} . (cosh θ)τ θ b2) Bewijs dat P(τ < +∞) = 1 en dat voor alle θ ≥ 0 geldt dat E[(cosh θ)−τ ] = e−θa . Oefening 7.8. We beschouwen een rij i.i.d. RSV’s (Xn )n≥1 met dezelfde normale verdeling N(m, σ 2 ). met m < 0 en men stelt S0 = 0. S n = X 1 + . . . + Xn en Bn = σ(S0 , . . . , Sn ), W = sup Sn . n≥0 Het doel van deze oefening is dat we wat eigenschappen van W opstellen. 1. Bewijs dat P(W < ∞) = 1. 2 σ 2 /2 2. Voor λ reëel geldt dat E(eλX1 ) = eλ eλm . Wat wordt E(eλSn+1 |Bn ). 36 martingalen 3. Bewijs dat er een unieke λ0 > 0 bestaat zodat (eλ0 Sn )n≥0 een martingaal is. 4. Bewijs dat, voor elke t > 0 geldt dat P(W > t) ≤ e−λ0 t . 5. Bewijs dat λ E(e W ) = 1 + λ +∞ eλt P(W > t) dt, 0 λW en dus dat voor λ < λ0 , E(e momenten. ) < ∞. In het bijzonder bezit W alle Oefening 7.9 (Examen juni ’03). (Zn )n≥1 is een rij onafhankelijke random variabelen zodat P(Zi = 1) = P(Zi = −1) = 12 , voor elke i ∈ N0 . We stellen S0 = 0, Sn = Z1 + . . . + Zn , F0 = {Ω, φ} en Fn = σ(Z1 , . . . , Zn ). Veronderstel π a ∈ N0 en λ ∈ R zodat 0 < λ < 2a . Noem τ = inf{n ≥ 0, |Sn | = a} het moment dat Sn het interval ] − a, a[ verlaat. 1. Bewijs dat Xn = cos(λSn ) (cos λ)n een (Fn )n≥0 -martingaal is. 2. Bewijs dat 1 = E(Xn∧τ ) ≥ cos(λa)E((cos λ)−(n∧τ ) ) Hoofdstuk 8 Wet van de grote getallen 8.1 Oefeningen Oefening 8.1 (Een mogelijke gokstrategie). Veronderstel dat je herhaaldelijk een zeker kansspel speelt en dat je elk spel geld kan inzetten. Dat geld win je met kans p en verlies je met kans q. Opeenvolgende spelen zijn onafhankelijk. Je gebruik nu de stategie van steeds een percentage α van je huidig bezit in te zetten. Als je op een gegeven ogenblik x euro in bezit hebt, dan zet je het volgende spel αx in, met α een zekere constante tussen 0 en 1. Veronderstel dat je met C euro begint en dat je na spel n Cn euro in bezit hebt. We gaan nu onderzoeken wat de beste waarde is van α om om uw succeskans te maximaliseren. 1. Indien Sn het aantal successen is na n spelletjes, geef dan een formule voor Cn . 2. Zij 1 Yn = ln n Cn C . Gebruik de wet van Kolmogorov om aan te tonen dat als n stijgt, Yn met kans 1 de limiet p ln(1 + α) + q ln(1 − α) benadert. (We vinden dus dat Cn asymptotisch is naar r n C met r constant (1 + α)p (1−α)q . Daarom, indien de kans p en q gegeven zijn, wil je proberen je α zo kiezen dat r zo groot mogelijk is. Je maakt slechts winst indien r > 1). 3. Veronderstel r in functie van α: r(α) = (1 + α)p (1 − α)q . 38 Wet van de grote getallen Bewijs dat r stijgt op het interval (−1, p − q) en daalt op het interval (p − q, 1). 4. Concludeer welke α we nu best nemen. Oefening 8.2 (Monte Carlo benadering van een integraal). Om de integraal 1 h(x) dx (8.1) 0 te benaderen, noemen we X een variable met een uniforme verdeling, maken we een groot aantal observaties van X en we nemen het gemiddelde van Y = h(X). Omdat E[Y ] gelijk is aan de integraal (8.1), zal de verwachtingswaarde van heel veel samples de integraal (8.1) benaderen. In symbolen: Stel (Xi )ni=1 onafhankelijke observaties van X en zij Yi = h(Xi ). Dan is Y n de monte Carlo schatter van de integraal (8.1) gebaseerd op n sampels. 1. Wat zegt de wet van Kolmogorov over deze situatie. 2. We willen nu de ongelijkheid van Chebychev gebruiken. Hiervoor moet de variantie van Y eindig zijn. Welke veronderstelling moeten we maken over h(x). 3. Als we een bovengrens A kennen voor h (|h(x)| ≤ A), toon dan aan dat Var[Y ] ≤ A2 . 4. Veronderstel Var[Y ] ≤ A2 en veronderstel een tolerantie > 0. Wat zegt Chebychev over de kans dat de schatter Y n niet dichter dan bij de echte waarde van de integraal (8.1) is. 5. veronderstel |h(x)| ≤ 1, ∀x ∈ (0, 1). Hoeveel samples moet ik nemen om met 95% dichter dan 0.01 bij de echte waarde van de integraal te zitten. Hoofdstuk 9 Inleiding tot Markov ketens 9.1 Inleiding Veronderstel een discreet stochastisch proces (Xn )n∈I (met indexverzameling I = {0, . . . , l} of N) waarbij de (Xn )n∈I waarden kunnen aannemen in J met J = {0, . . . , k} of J = N (of soms J = Z). Indien Xn = i, dan zeggen we dat Xn zich in toestand i bevindt. Definitie 9.1. (Xi )i∈I is een homogene markovketen indien er, wanneer het proces zich in toestand i bevindt, een vaste kans Qij bestaat zodat de volgende toestand van het proces j is, m.a.w, ∀n ∈ I, ∀i0 , . . . , in−1 , i, j geldt P(Xn+1 = j|Xn = i, Xn−1 = in−1 , . . . , X0 = i0 ) = P(Xn+1 = j|Xn = i) = Qij Al deze Qij ’s vormen samen een matrix: Definitie 9.2. De matrix Q= Q00 · · · Q0k .. .. . . Qk0 · · · Qkk of Q= P00 P01 P02 Q10 Q11 Q12 Q20 Q21 Q22 .. .. .. . . . ··· ··· ··· .. . noemt men de transitiematrix. Eigenschap 9.1. Vermits kansen steeds groter zijn dan 0 en het proces steeds een transitie maakt naar een zekere toestand gelden volgende 2 eigenschappen: • ∀i, j ≥ 0 : Qij ≥ 0. • ∀i ≥ 0 : j∈J Qij = 1. 40 Inleiding tot Markov ketens Voorbeeld 9.1 (Weersvoorspelling). Veronderstel dat de kans op regen morgen afhangt van het al dan niet vallen van regen vandaag, maar niet afhankelijk is van alle vorige dagen. Indien het vandaag regent, dan regent het morgen met kans α. Indien het vandaag niet regent, regent het morgen met kans β. We zeggen dat het proces in toestand 0 is indien het regent en in toestand 1 indien het niet regent. De transitiematrix wordt dan gegeven door α 1−α Q= β 1−β Voorbeeld 9.2 (Random walk). Een random walk op Z (zoals in heeft hoofdstuk van de martingalen) heeft als toestanden alle gehele getallen en de transitiematrix is gegeven door Qi,i+1 = p = 1 − Qi,i−1 . M.a.w., kans p om 1 te stijgen, kans 1 − p om 1 te dalen. Voorbeeld 9.3 (Gokken). Een gokker wint telkens 1 euro met kans p of verliest 1 euro met kans 1 − p. Als we veronderstellen dat hij stopt te gokken als hij blut is of als hij een fortuin van N euro bereikt, dan wordt de transitiematrix gegeven door ∀i ∈ {1, 2, . . . , N − 1} : Qi,i+1 = p = 1 − Qi,i−1 en Q00 = QN N = 1. In matrixvorm wordt dit 1 0 0 ... ... ... 1−p 0 p 0 1−p 0 .. .. Q= . . . . 0 p . . .. 1−p 0 0 ... ... ... 0 0 0 .. . .. . .. . . 0 p 1 De toestanden 0 en N worden absorberende toestanden genoemd. Voorbeeld 9.4 (Een proces omzetten in een Markov keten). We passen het bovenstaande voorbeeld van de weersvoorspelling wat aan op de volgende manier: 9.2 Kansverdelingen van een Markov keten 41 • Regende het vandaag en gisteren, dan regent het morgen met kans 0.7. • Regende het vandaag, maar gisteren niet, dan regent het morgen met kans 0.5. • Regende het gisteren, maar vandaag niet, dan regent het morgen met kans 0.4. • Regende het vandaag niet en gisteren niet, dan regent het morgen met kans 0.2. Dit proces is geen markov-keten, omdat de toestand van morgen niet enkel afhangt van de toestand van vandaag, maar ook van de toestand van gisteren. Een oplossing hier is het aanpassen van de oorspronkelijke 2-toestanden naar een model met 4 toestanden: • toestand 0: Het regende gisteren en het regent vandaag. • toestand 1: Het regende gisteren niet en het regent vandaag. • toestand 2: Het regende gisteren en het regent vandaag niet. • toestand 3: Het regende gisteren niet en het regent vandaag niet. De transitiematrix wordt dan gegeven door: 0.7 0 0.3 0 0.5 0 0.5 0 Q= 0 0.4 0 0.6 0 0.2 0 0.8 9.2 . Kansverdelingen van een Markov keten Definitie 9.3. De verdeling van X0 noemt men de beginverdeling. Die verdeling zullen we hier noteren als µ(x). We kunnen ons afvragen wat er gebeurt als we meerdere tijdstappen vooruitdenken: Qnij = P(Xn+m = j|Xm = i) Eigenschap 9.2. Qnij wordt gegeven door: Qn+m ij = +∞ Qnik Qm kj k=0 Dit leidt tot Q(n+m) = Q(n) · Q(m) 42 Inleiding tot Markov ketens 9.3 Recurrente en transiënte toestanden Toestand j is toegankelijk vanaf toestand i indien Qnij > 0 voor zekere n. We zeggen dat i en j met elkaar communiceren als i toegankelijk is vanaf j en j toegankelijk is vanaf i. In dat geval noteren we i ↔ j. Eigenschap 9.3. Communiceren is een equivalentierelatie. De bijbehorende equivalentieklassen noemt men de communicatieklassen. Een Markovketen wordt irreducibel geheten indien er zo slecht 1 klasse is (m.a.w. alle toestanden communiceren met elkaar). Voorbeeld 9.5. De markovketen met 3 toestanden (0,1 en 2) en transitiematrix 1 1 0 2 2 Q = 12 14 41 0 13 32 is irreducibel. Voorbeeld 9.6. De markovketen met 4 toestanden (0,1,2 en 3) en transitiematrix 1 1 0 0 2 2 1 1 0 0 2 2 Q= 1 1 1 1 4 4 4 4 0 0 0 1 heeft 3 communicatieklassen: {0, 1}, {2} en {3}. Definiëren we even de volgende stoptijden: τx = inf(n ≥ 0, Xn = x), σx = inf(n ≥ 1, Xn = x) Definitie 9.4. Een toestand x wordt recurrent genoemd als Px (σx < +∞) = 1. Een toestand x wordt transiënt genoemd als Px (σx < +∞) < 1. Eigenschap 9.4. • Toestand i is recurrent als • Toestand i is transiënt als +∞ n=1 Qnii = +∞. n=1 Qnii < +∞. +∞ 9.4 Limietkansen bij een markovketen Eigenschap 9.5. Indien toestand i recurrent is en toestand j communiceert met toestand i, dan is toestand j ook recurrent. Voorbeeld 9.7 (Random walk op Zd ). In voorbeeld 9.2 zagen we de symmetrische random walk op Z. Dit kan eenvoudig veralgemeend worden naar Z2 , Z3 , of een andere willekeurige Zd . In het symmetrische geval zou bijvoorbeeld bij de random walk op Z2 in elke toestand van Z2 de keuze zijn om een met kans 14 naar links, rechts, boven of onder kunnen gaan. Een verassend resultaat is dat de symmetrische random walk op Z en op 2 Z in alle toestanden recurrent is, geldt dit niet meer voor hogere machten. 9.4 Limietkansen bij een markovketen Laten we even teruggaan naar voorbeeld 9.1 en kijken naar de weersvoorspelling van morgen, overmorgen, over 3 dagen, over 4 dagen, ... In het vorige werd vermeld dat Qn de transitiematrix van n achtereenvolgende transities met transitiematrix Q. In dit geval zou dat worden: 0.7000 0.3000 Q= 0.4000 0.6000 0.6100 0.3900 Q2 = 0.5200 0.4800 0.5830 0.4170 Q3 = 0.5560 0.4440 0.5749 0.4251 Q4 = 0.5668 0.4332 0.5725 0.4275 5 Q = 0.5700 0.4300 0.5717 0.4283 6 Q = 0.5710 0.4290 0.5715 0.4285 Q7 = 0.5713 0.4287 0.5715 0.4285 Q8 = 0.5714 0.4286 We merken dat: • de matrices identiek aan elkaar worden. 43 44 Inleiding tot Markov ketens • de rijen identiek aan elkaar worden. Er blijkt dus een limietkans te bestaan om in toestand j te raken na een groot aantal transities, een limietkans die onafhankelijk is van de begintoestand. Dit geldt echter niet voor elke Markovketen met willekeurige transitiematrix. Er zijn enkele voorwaarden. Definitie 9.5. Toestand i heeft periode d indien Qnii = 0 indien n niet deelbaar is door d en d is het grootste getal met deze eigenschap. Met noemt een toestand aperiodisch indien het periode 1 heeft. Voorbeeld 9.8. Bij de randomwalk op Z heeft elke toestand periode 2. Na een oneven aantal transities is het immers steeds onmogelijk om terug in dezelfde toestand te geraken. Opmerking 9.1. Periodiciteit is een klasse-eigenschap: indien i communiceert met j dan hebben deze 2 toestanden dezelfde periode. Definitie 9.6. Als toestand i recurrent is, noemen we hem positief recurrent als, startend in toestand i, de verwachte tijd nodig om terug in i te raken eindig is. Opmerking 9.2. Ook dit is een klasse-eigenschap. Bovendien kan er aangetoond worden dat bij eindig aantal toestand recurrent en positief recurrent net hetzelfde is. Definitie 9.7. Positief recurrente, aperiodische toestanden noemt met ergodisch. Eigenschap 9.6. Bij een irreducible ergodische Markovketen, bestaat lim Qnij n→+∞ en is onafhankelijk van i. Bovendien is πj = limn→+∞ Qnij de unieke positieve oplossing van πj = +∞ πi Qij i=0 +∞ πj = 1 j=0 Opmerking 9.3. Het kan aangetoond worden dat πj , de limietkans is dat het proces in toestand j zal zijn op tijdstip n, ook gelijk is aan de lange termijn verhouding die aangeeft hoeveel tijd dat het proces in toestand j is. 9.5 Extra 9.5 45 Extra De transitiematrix in voorgaande voorbeelden kan ook in een graaf weergegeven worden. Zo kan de Markovketen uit vb 9.5 voorgesteld worden als 1 4 6 1 1 2 1 2 $ v 0 1 4 z 2 1 2 j 1 3 2 3 Dit hoofdstuk is veel te kort om alle eigenschappen van Markovketens te laten zien. De volgende eigenschap is een voorsmaakje van wat er allemaal mogelijk is met Markov ketens: Eigenschap 9.7. Noem φ = A ⊂ J een verzameling toestanden. Dan is u(x) = Px (τA < +∞) de kleinst mogelijke oplossing van het stelsel u(x) = 1 x∈A u(x) = Qu(x) x ∈ Ac Voorbeeld 9.9. Een muis bevindt zich in een labirinth met 7 kamers: kat 2 4 6 1 3 5 kaas 7 In kamer 7 ligt een stuk gruyerekaas, in kamer 4 zit een gevaarlijke kat. Aangrenzende kamers zijn met elkaar verbonden. In kamers 1,2,3,5 en 6 wandelt een muis naar 1 van haar k buurkamers met kans k1 . Belandt ze in kamer 4 of 7, dan blijft ze daar. Bepaal de kans dat een muis in kamer 1 de kaas in kamer 7 bereikt. De oplossing kan bepaald worden door voorgaande eigenschap, met A = 4 {7}, u(4) = 0. Uiteindelijk vind je 29 . 9.6 Oefeningen Oefening 9.1. 3 witte en 3 zwarte ballen zitten verdeeld over 2 urnes zodat er in elke urne 3 ballen zitten. We zullen zeggen dat onze keten in toestand i zit indien er i = 0, 1, 2, 3 witte ballen in urne 1 zitten. Tijdens elke stap 46 Inleiding tot Markov ketens trekken we 1 bal uit elke urne en verwisselen we de getrokken ballen van urne. Noem Xn de toestand na de n-de stap. Waarom is (Xn )n een Markovketen en geef de transitiematrix. Oefening 9.2. Geef de verschillende communicatieklassen voor elk van de volgende transitiematrices. Bepaal eveneens welke toestanden recurrent zijn en welke transiënt zijn: 0 0 0 1 1 1 0 2 2 0 0 0 1 Q1 = 12 0 12 Q2 = 1 1 0 0 1 1 2 2 0 2 2 0 0 1 0 1 1 3 1 0 0 0 0 0 0 2 2 4 4 1 1 1 0 0 1 1 0 0 0 4 2 4 2 2 1 1 Q4 = 0 0 1 0 0 0 0 0 Q3 = 2 2 0 0 0 1 1 0 0 1 2 0 2 2 3 3 1 0 0 0 0 0 0 0 12 12 Oefening 9.3. Munstuk 1 werp kop met kans 35 . Muntstuk 2 werpt kop met kans 12 . Een muntstuk wordt continu opgegooid tot het resultaat letter is. Op dat ogenblik neemt men het andere muntstuk en begint men dat op te gooien. 1. Hoeveel procent van de worpen gebeurt met munstuk 1. 2. Als we beginnen te werpen met muntstuk 1, wat is dan de kans dat we met munstuk 2 aan het werpen zijn tijdens de 5de worp. Oefening 9.4. Bekijk terug de transitiematrix uit voorbeeld 9.4. Hoeveel procent van de dagen regent het? Oefening 9.5. Een deeltje verplaatst zich op een cirkel door punten die 0, 1, 2, 3, 4 genummerd zijn (in wijzerszin). Tijdens elke stap heeft het kans p om wijzerszin te draaien en kansen 1 − p om tegenwijzerszin te draaien. Noem Xn zijn lokatie op tijdstip n. Het proces {Xn , n ≥ 0} is een Markovketen. 1. Bepaal de transitiematrix. 2. Bereken de limietkansen. Oefening 9.6 (Examen juni ’03). Gegeven een Markovketen met toestandsruimte E = {0, 1} en transitiematrix 1−α α Q= 0 < α, β < 1. β 1−β 9.6 Oefeningen 47 Diagonaliseer Q en leid hieruit een algemene vorm van Qn af. Toon aan dat hieruit volgt dat de limietkans gegeven wordt door π0 = β , α+β π1 = α α+β 48 Inleiding tot Markov ketens Bijlage A Goed of fout: bewijzen of tegenvoorbeelden Stelling A.1. Bij hoofdstuk 3 Voor X en Y onafhankelijk geldt steeds dat EB (XY ) = EB (X)EB (Y ). fout. Neem als tegenvoorbeeld X, Y ∼ B(1, p) onafhankelijke bernouillivariabelen. Stel Z = X + Y . Z is dan B(2, p) verdeeld. Neem B = σ(Z). We krijgen dan dat E(X|Z = 0) = 0 1 E(X|Z = 1) = 2 E(X|Z = 2) = 1 E(Y |Z = 0) = 0 1 E(Y |Z = 1) = 2 E(Y |Z = 2) = 1 E(XY |Z = 0) = 0 E(XY |Z = 1) = 0 E(XY |Z = 2) = 1 Op (Z = 1) gaat de stelling bijvoorbeeld niet op. Indien X en Y bovendien onafhankelijk zijn van B, dan klopt de gelijkheid uit de stelling natuurlijk wel. 50 Goed of fout: bewijzen of tegenvoorbeelden Bijlage B Convergentie van RSV’s Definitie B.1. Veronderstel dat Xn en X RSV’s zijn met verdelingsfuncties resp. Fn en F . Lp 1. Xn −→ X, 1 ≤ p ≤ +∞ indien Xn − Xp → 0. b.z 2. Xn −→ X indien ∀ω ∈ / N, N verwaarloosbaar, Xn (ω) → X(ω). P 3. Xn −→ X indien ∀ > 0, P(|Xn − X| > ) → 0. zwak 4. Xn −→ X indien Fn (x) → F (x), voor elke x waarin F continu is. Oefening B.1. Toon alle volgende implicaties aan en geef tegenvoorbeelden voor de pijlen die niet getekend zijn: +3 L∞ b.z. Xn −→ X L2 Xn −→ X +3 Xn −→ X L1 Xn −→ X +3 & P Xn −→ X +3 zwak Xn −→ X Oefening B.2. Aan welke convergenties voldoet het rijtje (Xn )n indien de verdeling van Xn gegeven wordt door 1. P(Xn = 1 − n1 ) = P(Xn = 1 + n1 ) = 12 . 2. P(Xn = n1 ) = 1 , P(Xn 2n = n) = 1 − 1 . 2n 3. P(Xn = 0) = 1 − n1 , P(Xn = 1) = n1 . 4. P(Xn = 0) = 1 − pn , P(Xn = 1) = pn . 52 Convergentie van RSV’s Veronderstel bij de vierde opgave dat de (Xn )n onafhankelijk zijn en geef een nodige en voldoende voorwaarde van de (pn )n zodat (Xn )n bijna zeker convergeert (resp. in kans). Oefening B.3 (Criteria voor RSV’s (Xn )n die b.z. convergeren). 1. Bewijs dat indien, ∀ > 0, ∞ n=1 P(|Xn − X| > ) < +∞, dat dan b.z. Xn −→ X. Het omgekeerde is enkel waar indien (Xn )n onafhankelijk is. b.z. r 2. Bewijs dat indien, ∃r > 0, ∞ n=1 E(|Xn − X| ) < +∞, dat dan Xn −→ X. 3. Bewijs dat P(supk≥0 |Xn+k − Xn | > ) → 0, ∀ > 0 een nodige en voldoende voorwaarde is dat de rij (Xn )n bijna zeker convergeert in R. Oefening B.4 (Convergenties en de operatoren + en ×). Volgende vragen tonen de overdracht van convergentie aan: P P P 1. Bewijs dat indien Xn −→ X en Yn −→ Y , dan ook Xn + Yn −→ X + Y P en Xn Yn −→ XY . Zelfs meer algemeen, voor een continue functie P f : R2 → R volgt dan dat f (Xn , Yn ) −→ f (X, Y ). zwak zwak 2. Bewijs door een tegenvoorbeeld dat de hypothese Xn −→ X en Yn −→ zwak Y niet noodzakelijk impliceren dat Xn + Yn −→ X + Y , behalve in de bijzondere gevallen zwak (a) Xn −→ a, (a ∈ R) (b) Voor elke n zijn Xn en Yn onafhankelijk en X en Y zijn onafhankelijk. zwak zwak 3. Verifieer dat indien Xn −→ X, dat dan f (Xn ) −→ f (X) voor alle conzwak zwak zwak tinue f : R → R. In het bijzonder, Xn2 −→ X 2 , Xn+ −→ X + , Xn− −→ X − , . . .. Oefening B.5. Zij (Yn )n een rij kwadratisch intergreerbare RSV’s zodat (a) sup E(Yn2 ) < +∞ zwak (b) Yn −→ X 1. Bewijs dat E(|Y |) < +∞ en dat E(Yn ) → E(Y ). 53 2. Gebruik het vorige en geef een equivalent voor E(|X1, . . . , Xn |) wanneer n → +∞ waarbij de Xn kwadratisch integreerbare RSV’s zijn met dezelfde verdeling en bovendien gecentreerd en allen onafhankelijk. Oefening B.6 (Examen juni ’03). Toon aan door een tegenvoorbeeld dat zwak zwak zwak als Xn −→ X en Yn −→ Y dit niet noodzakelijk wil zeggen dat Xn + Yn −→ X +Y. 54 Convergentie van RSV’s Bijlage C Definieren van nieuwe SV’s aan de hand van reeds gekende C.1 Inleiding Het bepalen van de dichtheidsfunctie van een nieuwe variabele aan de hand van die van een reeds gekende variabele kan dikwijls eenvoudige gebeuren door de verdelingsfunctie te nemen, daarmee te jongleren en die dan af te leiden. Bijvoorbeeld: Voorbeeld C.1. Gegeven een variabele √ X, met dichtheidsfunctie fX (x), bepaal de dichtheidsfunctie f√X (x) van X. oplossing. (Stel FX en F√X de verdelingsfuncties) √ F√X (x) = P( X ≤ x) = P(X ≤ x2 ) = FX (x2 ), dus de dichtheidsfunctie wordt gegeven door ∂ √ ∂ F X (x) = FX (x2 ) = 2xfX (x2 ). ∂x ∂x Dus indien X een exponentieel verdeelde vaiabele is met parameter α, √ dan wordt de dichtheid van X gegeven door f√X (x) = 2 f√X (x) = 2αxe−αx 1{x≥0} . Opmerking C.1. Let wel op de condities waaraan de variabelen moeten voldoen. De wortel nemen kan natuurlijk alleen van een positieve varabele. Een ander reeds gekend mechanisme om nieuwe variabele te construeren is door het optellen van variabelen. Dit heet convolutie. De dichtheidsfunctie van de som van 2 onafhankelijke variabelen wordt bepaald door volgende rekenregel: 56 Definieren van nieuwe SV’s aan de hand van reeds gekende Voorbeeld C.2 (convolutieproduct). Indien X en Y 2 onafhankelijke stochastische variabelen zijn met dichtheidsfuncties fX (x) en fY (x), dan wordt de dichtheidsfunctie van X + Y gegeven door fX+Y (x) = fX (x − t)fY (t) dt. R Dus indien Z1 en Z2 exponentieel verdeeld zijn met respectievelijke parameters 1/6 en 1/2, dan hebben Z2 en −Z1 dichtheden 1 x fZ2 (x) = e− 2 1{x≥0} 2 1 x f−Z1 (x) = e 6 1{x≤0} 6 Het convolutieproduct geeft dan +∞ fZ2 (t)f−Z1 (s − t) dt fZ2 −Z1 (s) = −∞ +∞ 1 −t 1 s−t e 2 1{t≥0} e 6 1{s−t≤0} dt = 6 −∞ 2 s +∞ 2t e6 = e− 3 1{t≥0} 1{t≥s} dt 12 −∞ !+∞ s +∞ s 6 6 e e − 2t !! − 2t 3 = e dt = − e 3 ! ! 12 sup(0,s) 8 t=sup(0,s) s 2 sup(0, s) 1 } = exp{ − 8 6 3 1 s 1 s = e− 2 1{s≥0} + e 6 1{s<0} , 8 8 de dichtheidsfunctie van X − Y . Uiteraard bestaat er ook een gelijkaardige regel ook voor discrete verdelingen: P(X = x)P(Y = s − x) P(X + Y = s) = x∈E C.2 oefeningen Oefening C.1. Veronderstel X uniform verdeeld op het interval (0, µ) en Y een exponentieel verdeelde variabele met √ parameter λ. Bepaal de dichtheidsfuncties van: X 2 , Y 2 , S = X + Y en Y . Bepaal bovendien de verdeling van (Y, S) en de conditionele dichtheidsfunctie van Y wetende S = s. Bijlage D combinatorische gelijkheden 1. Som van een meetkundige reeks n−1 ak = k=0 an − 1 a−1 (D.1) 2. Stiefel-Pascal: n n−1 n ∀k ≤ n ∈ N : = + . k k−1 k (D.2) 3. Binomaalstelling: ∀n ∈ N : (x + y) = n n n k=0 k xk y n−k . 4. Gevolgen van de binomiaalstelling: n n = 2n k k=0 n k n = 0 (−1) k k=0 5. Afleiden van de binomiaalstelling: n n k = n2n−1 k k=0 n 2 k n k (−1) = n(n − 1)2n−2 + n2n−1 k k=0 (D.3) (D.4) (D.5) (D.6) (D.7) 58 combinatorische gelijkheden 6. Integreren van de binomiaalstelling: n n 2n+1 − 1 k = k+1 n+1 k=0 7. Multinomaalstelling: Met n n1 ,n2 ,...,nt ∀n ∈ N, t ≥ 1 : (x1 + x2 + . . . + xt ) = n = (D.8) n! n1 !n2 !···nt ! n xn1 · · · xnnt . n1 , n2 , . . . , nt 1 (D.9) 8. Gelijkheid van Vandermonde: r m+n m n = r k r−k k=0 9. Gevolg: n n n n n n 2n = = k n−k k k n k=0 k=0 (D.10) (D.11) 10. Andere nuttige gelijkheden: n n+1 k = r+1 r k=r n n n−1 = k k−1 k n r n n−s = r s s r−s (D.12) (D.13) (D.14)