Kanstheorie II: oefeningen 1 licentie Wiskunde

advertisement
Kanstheorie II: oefeningen
1e licentie Wiskunde
Stijn Symens
Academiejaar 2003-2004
2
Hoofdstuk 1
Voorkennis
1.1
Inleiding
In de cursus kanstheorie II wordt de voorkennis van de cursussen kanstheorie
I en statistiek I verondersteld. Volgende items worden dan ook verwacht vlot
gekend moeten zijn:
• basisbegrippen
• characteristieke functies
• convolutieproducten
• convergenties
• continue en discrete verdelingen
Over convergenties en convolutieprodukten zijn er nog 2 bijlagen aan de cursus toegegevoegd. Helemaal achteraan bevindt zich ook een bijlage met combinatorische gelijkheden, of hoe je in sommaties enkele handige substituties
kan doen.
Volgende stellingen zijn zeker ook de moeite om eens te bekijken:
Eigenschap 1.1. Indien X = (X1 , . . . , Xd ) een stochastische vector is met
kansdichtheid h gedefinieerd op Rd . X1 , . . . , Xd zijn dan onafhankelijk als
en slechts als h(x1 , . . . , xd )= g1 (x1 ) . . . gd (xd ) b.o. en Xk heeft dus als kansdichtheid hXk (u) = gk (u)/ R gk (v) dv.
Eigenschap 1.2. Veronderstel dat X een stochastische vector is met dichtheid h gedefinieerd op D, open deel in Rd . Veronderstel verder dat ψ een
4
Voorkennis
diffeomorfisme is van D naar een open deel ∆ ⊂ Rd en dat Y = ψ(X), dan
heeft Y als kansdichtheid
h(ψ −1 (y))|J(ψ −1(y))|1∆ (y).
Deze eigenschap blijkt vooral nuttig bij het bepalen van de dichtheid van
X + Y in het geval dat X en Y onafhankelijk zijn.
Eigenschap 1.3 (onafhankelijkheidscriterium van Fourier). Stochastische variabelen (X1 , . . . , Xn ), respectievelijk gedefinieerd op Rd1 , . . . , Rdn
zijn onafhankelijk als en slechts als
∀t1 ∈ Rd1 , . . . , ∀tn ∈ Rdn : φ(X1 ,...,Xn ) (t1 , . . . , tn ) = φX1 (t1 ) · · · φXn (tn )
waarbij φXi de karakteristieke functie van Xi voorstelt.
1.2
Testoefeningen
Om jezelf te testen op het al dan niet kennen van het vorige, zijn hieronder een
aantal oefeningen gegeven die samen de bovengenoemde lading wel dekken.
Kan je deze oefeningen oplossen, dan ben je klaar om de cursus kanstheorie
II aan te vatten.
Oefening 1.1. Banach is een verstokte roker. Hij beschikt dan ook permanent over een doosje lucifers in elk van zijn 2 broekzakken en als hij een
sigaret opsteekt kiest hij willekeurig uit het ene of uit het andere doosje met
dezelfde kans.
Veronderstel dat hij 2 luciferdoosjes heeft genomen die allebei n lucifers
bevatten. Wanneer hij voor de eerste keer merkt dat een doosje leeg is om
het moment dat hij een lucifer wil nemen, noemen we X het aantal lucifers
in het andere doosje.
1. Bereken
pk = P(X = k),
0 ≤ k ≤ n.
2. Voor welke waarde(n) van k bereikt pk een maximum?
3. Bewijs dat E(X) = (2n + 1)p0 − 1.
4. Geef een equivalent van E(X) als n → ∞. (Herinner dat
22n (πn)−1/2 ).
2n
n
∼
Oefening 1.2. Een deeltje verplaatst zich in het georthonormeerde vlak
→
− →
−
(0, i , j ) volgens de volgende regels:
1.2 Testoefeningen
5
• Het deeltje begint op het punt 0 en maakt achtereenvolgens sprongen
van lengte 1.
• Enkele sprong gebeurt in een willekeurige richting, onafhankelijk van
de vorige sprongen.
M.a.w. als we volgende notatie gebruiken: A0 = 0, A1 , . . . , An , . . . zijn de
opeenvolgende posities van het deeltje, dan is de afstand |An−1 An | = 1 en
→ −−−−−→
−
dan zijn de hoeken θn = ( i , An−1 An ) onafhankelijke stochastische variabelen
met dezelfde uniforme verdeling over [0, 2π). Indien we Xn en Yn noteren als
coördinaten van An , dan is Dn de afstand |0An |.
1. Schrijf, voor n ≥ 1, Xn en Yn in functie van cos θi en sin θi , 1 ≤ i ≤ n.
2. Bewijs dat Xn en Yn gecentreerd zijn (dus met gemiddelde 0).
3. Bereken Var(Xn ) en Var(Yn ).
4. Bereken E(Dn2 ) en leidt eruit af dat E(Dn ) ≤
√
n.
5. Bereken Cov(Xn , Yn ).
6. (a) Bereken via oefening 1, en door inductie op n, de waarde van
E(Xn2Yn2 ).
(b) Geldt dat Cov(Xn2 , Yn2 ) = 0?
(c) Zijn Xn en Yn onafhankelijke variabelen?
Oefening 1.3. Laat X, Y twee stochastische variabelen zijn met dezelfde
verdeling en ϕ hun characteristieke functie. Veronderstel dat X en Y onafhankelijk zijn, dat X + Y en X − Y onafhankelijk zijn en dat verder
E(X) = E(Y ) = 0 en E(X 2) = E(Y 2 ) = 1.
1. Druk de characteristieke functies van X + Y, X −Y en 2X uit in functie
van ϕ. Leidt ook af dat ϕ(2t) = ϕ(t)3 ϕ(−t).
2. Gebruik makende van 1, toon aan dat voor alle t geldt dat ϕ(t) = 0.
ϕ(t)
. Bewijs dat voor alle t, ρ(t) = (ρ( 2t ))2 . Bewijs dat ρ
3. Stel ρ(t) = ϕ(−t)
constant gelijk is aan 1 en dat ϕ reëel is.
4. Leidt af dat ϕ(t) = (ϕ( 2t ))4 .
5. Bepaal de verdeling van X.
6
Voorkennis
Oefening 1.4. Zij X1 , X2 en X3 drie onafhankelijke bivariate stochastische
variabelen met allen dezelfde verdeling N2 (0, I2). Bepaal de kans dat de
driehoek gevormd door X1 , X2 en X3 een stompe hoek heeft.
Nog enkele oefeningen gebaseerd op de eigeschappen 1.1 en 1.2:
Oefening 1.5. Veronderstel dat X en Y twee onafhankelijke stochastische
variabelen zijn, die respectievelijk Γ(a, c) en Γ(b, c) verdeeld zijn, met a, b, c, >
0 (Herinner dat een Γ(a, c)-verdeelde variabele X verdelingsfunctie fX (x) =
ca e−cx xa−1
X
1(0,+∞) (x)). Bepaal de verdeling van S = X + Y en T = X+Y
door
Γ(a)
x
een transformatie φ : (x, y) → (s = x + y, t = x+y ) te definieren.
Oefening 1.6. Veronderstel dat Z = (X, Y ) een stochastische vector is
gedefinieerd op R2 met characteristieke functie Φ.
1. Bewijs dat de verdeling van Z invariant is onder rotatie (rond 0) als en
slechts als er een functie ψ, gedefinieerd op R, bestaat zodat ∀(u, v) ∈
R2 : Φ(u, v) = ψ(u2 + v 2 ).
2. Veronderstel nu dat Z aan de conditie uit punt 1 voldoet en dat X
en Y bovendien onafhankelijk zijn. We noteren ΦX en ΦY voor de
characteristieke functies van X en Y .
(a) Druk Φ uit in functie van ΦX en ΦY . Druk ΦX en ΦY uit in
functie van ψ. Toon aan dat ΦX en ΦY even functies zijn en
besluit daaruit dat ΦX en ΦY alleen waarden in R aannemen.
(b) Leid uit 2a af dat ψ aan een relatie voldoet en toon daarna aan
dat ψ nooit 0 wordt.
(c) Bewijs dat X (en ook Y ) een gecentreerde normale verdeling
hebben met varantie 2λ met λ = − ln ψ(1).
(d) Indien X = R cos θ en Y = R sin θ, met R > 0 en 0 ≤ θ <
2π. Bepaal de verdelingen van θ en R. Zijn deze twee variabelen
onafhankelijk?
Hoofdstuk 2
De Riemann-zeta functie
2.1
Een kanstheoretische benadering
Één van de meest bekende onopgeloste wiskundige vermoedens van de voorbije eeuw is wel de Riemann hypothese. Centraal in dit vermoeden staat
de Riemann-zeta functie. Deze functie is gedefinieerd door volgend functievoorschrift:
∞
1
ζ : (1, +∞) → R : s →
.
ks
k=1
Er bestaat echter nog een andere karakterisatie van deze functie: via de
formule van Euler: Veronderstel dat de rij priemgetallen wordt voorgesteld
door (pk )k≥1 , dan geldt
ζ(s) =
∞
(1 −
k=1
1 −1
) .
psk
(2.1)
Deze formule wordt bewezen in oefening 2.2.
Een ander formule die al eens van belang kan zijn is de formule van
Poincaré:
Eigenschap 2.1 (Formule van Poincaré.). Indien (Ω, A, P) een kansruimte is en A1 , . . . , An ∈ A, dan is
n
n
Ak =
(−1)k−1 Sk
P
k=1
waarbij Sk =
1≤i1 <...<ik ≤n
k=1
P(Ai1 ∩ . . . ∩ Aik ).
8
De Riemann-zeta functie
2.2
oefeningen
Oefening 2.1. Beschrijf de kansruimte (Ω, A, PN ) die bestaat uit het willekeurig trekken van 2 gehelen tussen 1 en N, met N ≥ 2 vast. Men introduceert de volgende gebeurtenissen:
B = {beide gehele getallen zijn onderling ondeelbaar}
Ap = {beide gehele getallen zijn deelbaar door p} met p priem
We noteren p1 , . . . , pn de priemgetallen kleiner of gelijk aan N en we kiezen
een m vast groter dan 1.
1. Bewijs dat
PN
m
Apk
k=1
waarbij Sk =
1
N2
1≤i1 <...<ik ≤m
=
m
(−1)k−1Sk
k=1
N
pi1 ...pik
2
.
2. Leid verder af dat voor vast m geldt dat
m
m 1
1− 2
lim PN
Apk = 1 −
N →∞
pk
k=1
k=1
3. Besluit dat, rekening houdend met de (2.1)
lim PN (B) =
N →∞
6
1
= 2
ζ(2)
π
Oefening 2.2. Op N0 definieerd men een discrete kansverdeling Ps , voor
s > 1 door
1
Ps (n) =
.
ζ(s)ns
en, gebaseerd op deze kansverdeling definieert men, voor p priem de stochastische variabelen ρp en αp , gedefinieerd door
ρp (n) = 1 indien p een deler is van n en 0 indien niet.
αp (n) = De macht van p in de priemdecompositie van n.
2.2 oefeningen
1. (a) Voor een vaste p, wat is de verdeling van de stochastische variabelen ρp ?
(b) Bewijs dat de ρp ’s onafhankelijk zijn.
(c) Leid de formule van Euler (2.1).
2. (a) Voor een vaste p, wat is de verdeling van de stochastische variabelen αp ?
(b) Bewijs dat de αp ’s onafhankelijk zijn.
9
10
De Riemann-zeta functie
Hoofdstuk 3
Conditionele verwachting
3.1
Theorie
Stel (Ω, B, P) een kansruimte en B een deelstam van A.
Definitie 3.1. Indien X ∈ L1 (Ω, A, P) een RSV is, dan noemen we de
conditionele verwachting van X t.o.v. B die (unieke) Y ∈ L1 (Ω, B, P) die
voldoet aan
Y dP =
X dP
∀B ∈ B
B
B
Notatie 3.1. Deze Y noteren we als E[X|B] of ook wel als EB [X]. Voor
B = σ(Z) noteren we ook E[X|Z]
Opmerking 3.1. In plaats van intergreerbaar zou in bovenstaande definitie
de X ∈ L1 (Ω, A, P) resp. de Y ∈ L1 (Ω, B, P) ook vervangen kunnen worden
door X ≥ 0 resp. Y ≥ 0 en Y B-meetbaar.
In wat volgt noemen we B en C deelstammen van A en X, Y, (Xn )n ∈
L (Ω, A, P).
1
Definitie 3.2 (alternatieve definitie voor X ∈ L2 (Ω, A, P)). Indien X ∈
L2 (Ω, A, P) een RSV is, dan noemen we de conditionele verwachting van X
t.o.v. B die (unieke) Y ∈ L2 (Ω, B, P) die voldoet aan
E[XZ] = E[Y Z], ∀Z ∈ L2 (Ω, B, P)
Opmerking 3.2. Een equivalent van deze definitie is voor X ∈ L1 te vinden
als een eigenschap, maar dan iets minder overtuigend:
Indien X ∈ L1 , dan voldoet Y = EB (X) aan
∀Z ∈ L∞ , E(Y Z) = E(XZ).
12
Conditionele verwachting
Eigenschap 3.1. E[EB (X)] = E(X).
b.z.
Eigenschap 3.2. EB (aX + bY ) = aEB (X) + bEB (Y ).
b.z.
Eigenschap 3.3. Indien C ⊂ B, dan EC [EB (X)] = EC (X).
b.z.
Eigenschap 3.4. X ≤ Y ⇒ EB (X) ≤ EB (Y )
Eigenschap 3.5. Indien Y een B-meetbare SV is zodat XY ∈ L1 (Ω, A, P),
dan is
b.z.
EB (XY ) = Y EB (X).
b.z.
In het bijzonder is dus EB (Y ) = Y .
Eigenschap 3.6. Indien X onafhankelijk is van de stam B, dan geldt voor
b.z.
elke positieve of begrensde f dat EB (f (X)) = E(f (X))1Ω . In het bijzonder
b.z.
is dus EB (X) = E(X)1Ω
Eigenschap 3.7 (Jensen). Indien f een reële convexe functie is, dan is
b.z.
b.z.
f (EB (X)) ≤ EB (f (X)). In het bijzonder is |EB (X)|p ≤ EB (|X|p), ∀p ≥ 1.
b.z.
b.z.
Eigenschap 3.8 (Beppo Levi). Indien Xn ↑ X, dan EB [Xn ] ↑ EB [X].
Eigenschap 3.9 (Fatou). Indien (Xn )n ≥ 0, dan
b.z.
EB ( lim Xn ) ≤ lim EB (Xn ).
n→∞
n→∞
b.z.
Eigenschap 3.10 (Lebesgue). Indien Xn → X en er een Z ∈ L1 (Ω, A, P)
b.z.
bestaat zodat |Xn | ≤ Z voor alle n ∈ N, dan geldt
EB (Xn ) → EB (X).
b.z.
Eigenschap 3.11. Veronderderstel dat X ∈ L1 (R, R, P). Dan geldt:
Y = E(X|T )
Y is van de vorm Y = h(T ) met h een begrende reële functie en voor elke
begrensde reële functie g geldt dat E(g(T )Y ) = E(g(T )X).
Eigenschap 3.12. Veronderderstel dat X ≥ 0. Dan geldt:
Y = E(X|T )
Y is van de vorm Y = h(T ) met h een positieve reële functie en voor elke
begrensde reële functie g geldt dat E(g(T )Y ) = E(g(T )X).
3.2 Oefeningen
3.2
13
Oefeningen
Oefening 3.1. Een machine vervaardigt staafjes waarvan de lengte een in
cm uitgedrukte SV is, die normaal verdeeld is met gemiddelde 10 cm en
standaardafwijking 0.5 cm. Enkel exemplaren met lengte tussen 9 cm en
10.25 cm worden afgeleverd.
1. Wat is de kans dat een door de machine vervaardigd staafje wordt
afgeleverd?
2. Geef de verdelingsfunctie en de dichtheidsfunctie van de lengte van de
afgeleverde staafjes.
3. Geef de gemiddelde lengte van de afgeleverde staafjes.
Oefening 3.2. De levensduur van een gloeilamp is een (in uren uitgedrukte)
1
SV waarvan de verdeling exponentieel is met rate
dus
1000 uren
1 − x
fX (x) =
e 1000 1(x≥0)
1000
1. Bereken de kans dat de levensduur van de lamp langer is dan 1000 uur.
2. Als gegeven is dat de lamp langer heeft gebrand dan 500 uur, wat
is dan de conditionele kans dat de lamp in totaal langer zal branden
dan 1500 uur? Bereken eveneens de gemiddelde levensduur onder deze
voorwaarde.
3. Bereken de tijdsduur zodat met een waarschijnlijkheid van 90% de lamp
langer zal branden dan deze tijdsduur.
4. Wat is de rate α zodat met 75% kans de levensduur van zo’n lamp
langer is dan 500 uur?
Oefening 3.3. Gegeven het universum Ω = [0, 3], de uniforme kansmaat
P op [0, 3], de Borelstam A = RΩ en de deelstam B voortgebracht door de
partitie {B1 , B2 , B3 } waarbij B1 = [0, 1], B2 =]1, 2], B3 =]2, 3]. Beschouw de
stochastische variabele X(ω) := ω 2 .
1. Construeer en teken de afbeelding E[X|B].
2. Ga na dat
E[X|B] dP =
B
X dP
B
voor B = φ, B = Ω, B = B1 en B = B2 ∪ B3
14
Conditionele verwachting
Oefening 3.4. Zij Ω = [0, 3], A = RΩ , P de uniforme kansmaat op Ω en
B1 = [0, 1], B2 =]1, 2], B3 =]2, 3]. Beschouw de stochastieken X(ω) = eω en
Z = 51B1 + 71B2 ∪B3 . Construeer en teken E[X|Z].
Oefening 3.5. Zij Ω = R, A = R, P = N (0, 1) en Y (ω) = ω 2 . Beschouw
de stochastiek X(ω) = eω .
1. Geef σ(Y ).
2. Construeer E[X|Y ].
3. Bereken E[X|Y = 4].
4. Geef E[X|U] voor U(ω) = |ω|.
5. Bereken E[X|U = 4].
Oefening 3.6. Men veronderstelt een X ∈ L2 . Bewijs dan dat volgende
eigenschappen equivalent zijn:
1. EB (X 2 ) = (EB (X))2
b.z.
2. X = EB (X)
Oefening 3.7. Veronderstel (Ω, A, P) een kansruimte, B ⊂ A een deelstam
en A ∈ A een gebeurtenis. Stel dat
B = {ω ∈ Ω : EB (1A )(ω) = 0}.
b.z
Bewijs dat B ⊂ Ac .
Oefening 3.8. Veronderstel dat X en Y RSV’s zijn, gedefinieerd op een
kansruimte (Ω, B, P), en kwadratisch integreerbaar zijn. Veronderstel verder
dat
E[X|Y ] = Y b.z. en E[Y |X] = X b.z.
1. Toon aan dat X = Y b.z.
2. Wat als X, Y ∈ L1 (Ω, B, P)?
Oefening 3.9. Veronderstel X, Y, Z 3 RSV’s gedefinieerd op een kansruimte
(Ω, B, P). Hierbij zijn X, Y ∈ L2 (Ω, B, P) en men definieert de conditionele
covariantie door:
Cov(X, Y |Z) = E[(X − E[X|Z])(Y − E[Y |Z])|Z].
3.2 Oefeningen
15
1. Bewijs dat
Cov(X, Y |Z) = E[XY |Z] − E[X|Z]E[Y |Z].
2. Men veronderstelt dat X = X + f (Z) en Y = Y + g(Z) waar het paar
(X , Y ) onafhankelijk is van Z. Wat wordt Cov(X, Y |Z) in dit geval?
3. Geldt in het algemeen dat
Cov(X, Y ) = E[Cov(X, Y |Z)]?
4. Bewijs dat
Cov(X, Y ) = E[Cov(X, Y |Z)] + Cov(E[X|Z], E[Y |Z]).
5. Toon aan dat Var(X) = Var(E[X|Z]) als en alleen als X een functie
is van Z.
Oefening 3.10. Stel X een n-variate RSV en Y een p-variate reële RSV
zodat het koppel (X, Y ) een dichtheid heeft. Bovendien zijn ze onafhankelijk
van elkaar. Veronderstel
f : Rn × Rp → R
Borelmeetbaar ≥ 0 of begrensd. Toon aan dat
E[f (X, Y )|Y = y] = h(y) met h(y) = E[f (X, y)].
Oefening 3.11 (Examen juni ’03). X = (X1 , X2 , X3 ) is normaal verdeeld
met dichtheid N3 (0, I3 ). We definieren nu de variabelen
U = 2X1 − X2 − X3
V = X 1 + X2 + X3
W = 3X1 − X2 − 4X3
1. Bepaal de verdelingen van U, V en W . Welke van de volgende koppels
(U, V ), (V, W ) en (U, W ) zijn onafhankelijk?
2. Bewijs dat er een a ∈ R zodat U en Z = W − aU onafhankelijk zijn.
Gebruik dit gegeven om de verdeling van W wetende U = u te bepalen.
Bereken ook E[W |U = u].
16
Conditionele verwachting
Hoofdstuk 4
Conditionele verdeling,
conditionele dichtheid
4.1
Marginale dichtheden: theorie
De gemeenschappelijke verdelingsfunctie van de stochastische veranderlijken
X en Y definiëren we als volgt.
Definitie 4.1. Zij X, Y RSV’s op de kansruimte (Ω, A, P). Dan heet de
functie
FX,Y : R2 → R : (x, y) → P(X ≤ x, Y ≤ y)
de gemeenschappelijke (gezamelijke) verdelingsfunctie van de stochastische
veranderlijken X en Y .
Opmerking 4.1. Als X en Y continue SV zijn en FX,Y afleidbaar is, dan is
de gemeenschappelijke dichtheidsfunctie gelijk aan
fX,Y (x, y) =
∂ 2 FX,Y (x, y)
.
∂x∂y
Men schrijft ook vaak FZ en fZ waar Z = (X, Y ).
Opmerking 4.2. Deze definitie kan eenvoudig veralgemeend worden naar
meerdere dimensies.
Eigenschap 4.1. De marginale dichtheid kan berekend worden als volgt:
• Discrete geval:
pX (k) = P(X = k) =
P(X = k, Y = l)
l
pY (l) = P(Y = l) =
P(X = k, Y = l)
k
18
Conditionele verdeling, conditionele dichtheid
• Continuegeval:
fX (x) = fX,Y (x, y)dλ(y)
R
fY (y) = fX,Y (x, y)dλ(x)
R
waarbij P(X = x, Y = y) en fX,Y (x, y) resp. de discrete en continue gemeenschappelijke dichtheidsfuncties zijn.
4.2
Marginale dichtheden: oefeningen
Oefening 4.1. Zij fX,Y,Z (x, y, z) = e−(x+y+z) voor alle 0 < x, y, z < ∞ de
gemeenschappelijke dichtheidsfunctie van de stochastische variabelen X, Y, Z.
1. Zoek dan hun gezamelijke verdelingsfunctie FX,Y,Z (x, y, z).
2. Bereken hun marginale dichtheid fX (x), fY (y) en fZ (z).
4.3
Condictionele dichtheden en verdelingen:
theorie
Definitie 4.2. Zij X en T 2 discrete SV’s met gemeenschappelijke dichtheid
P(X = x, T = t) en marginale dichtheden pX en pT dan definiëren we de
voorwaardelijke (conditionele) dichtheid door:
P(X = k, T = t)
als P(T = t) > 0
nt (k) = P(X = k|T = t) =
P(T = t)
=0
als P(T = t) = 0
Zij X en T 2 continue SV’s met gemeenschappelijke dichtheid fX,T (x, t)
en marginale dichtheden fX en fT dan definiëren we de voorwaardelijke (conditionele) dichtheid door:
fX,T (x, t)
als fT (t) > 0
fX|T (x|t) =
fT (t)
=0
als fT (t) = 0
Voorbeeld 4.1. Zijn X ∼ P(λ) en Y ∼ P(µ) i.i.d., dan is T = X + Y ∼
4.3 Condictionele dichtheden en verdelingen: theorie
P(λ + µ). We krijgen dat voor 0 ≤ k ≤ t
P(X = k, Y = t − k)
P(X = k, T = t)
=
P(T = t)
P(T = t)
k
t−k
λ
µ
t!
eλ+µ
= e−λ e−µ
k!
(t − k)!
(λ + µ)t
λk µ( t − k)
t!
=
k!(t − k)! (λ + µ)t
λ
t k
=
p (1 − p)t−k = nt (k)
met p =
λ+µ
k
P(X = k|T = t) =
Men noemt (nt (k), 0 ≤ k ≤ t) de conditionele verdeling van X wetende dat
λ
T = t. Hier gaat het om een binomiale verdeling B(t, λ+µ
).
Definitie 4.3. De conditionele verdeling van een continue stochastische variabele X gegeven T wordt ook dikwijls gegeven door de transitiekern n(T, dx),
waarbij n(T, dx) eenduidig wordt bepaald doordat
+∞
b.z.
f (x)n(T, dx)
E(f (X)|T ) =
−∞
geldt voor elke f begrensd en Borelmeetbaar.
Laten we dit even verduidelijken met een voorbeeld:
Voorbeeld 4.2. Veronderstel X en Y i.i.d. met dezelfde verdeling U(0, 1).
We zoeken de conditionele verdeling van (X − Y )+ wetende dat Y = y.
Oplossing. We zoeken de transitiekern n(y, dt) zó dat ∀f : R → R
Borelmeetbaar
+
E(f ((X − Y ) )|Y = y) =
f (t) n(y, dt).
R
Uit oefening 3.10 halen we dat
E(f ((X − Y )+ )|Y = y) = E(f ((X − y)+ ))
1
f ((x − y)+ )dx
0≤y≤1
=
0
y
1
=
f (0)dx +
f (x − y)dx
0
y
1−y
f (t)dt
= yf (0) +
0
def
=
f (t) n(y, dt)
R
19
20
Conditionele verdeling, conditionele dichtheid
De transitiekern van de gevraagde conditionele verdeling is dus
n(y, dt) = y∆0 (dt) + 1[0,1−y] (t)dt.
Opmerking 4.3. n(t, dx) kan geı̈nterpreteerd worden als P(X ∈ dx|T = t).
Eigenschap 4.2. Indien X en T SV’s zijn, dan wordt de voorwaardelijke
verwachting van X wetende dat T = t geven door:
 knt (k)
in het discrete geval


k
E[X|T = t] =


xfX|T (x|t)dλ(x) in het continue geval
R
Meer algemeen wordt dat:
Eigenschap 4.3. Indien X en T SV’s zijn en g ≥ 0 borelmeetbaar, dan
geldt:
 g(k)nt (k)
in het discrete geval


k
E[g(X)|T = t] =


g(x)fX|T (x|t)dλ(x) in het continue geval
R
Eigenschap 4.4. Veronderstel dat X en Y beide absoluut continu zijn en
dat fX (x) en fY |X (y|x), dan vertelt de regel van Bayes dat de condtitionele
dichtheid fX|Y (x|y) gegeven wordt door
fY |X (y|x)fX (x)
fX|Y (x|y) = +∞
.
f
(y|z)f
(z)
dz
X
Y
|X
−∞
Een dergelijke regel werd voor het discrete geval al bekeken (zie kanstheorie
I).
4.4
Conditionele dichtheden en verdelingen:
oefeningen
Oefening 4.2. Zij X gegeven R exponentieel verdeeld d.w.z.
fX|R (x|r) = re−rx 1{x>0}
De variabele R is op haar beurt gammaverdeeld:
fR (r) =
1 a−1 −r
r e 1{r>0}
Γ(a)
met a > 2
4.4 Conditionele dichtheden en verdelingen: oefeningen
1. Bereken de marginale verdeling van X.
2. Bereken E[X|R].
Oefening 4.3. Veronderstel dat de gemeenschappelijke dichtheidsfunctie
van de SV’s X en Y gegeven is door
y 2 − x2 −y
e 1{0<y<+∞} 1{−y≤x≤y}
8
f (x, y) =
Bewijs dat E[X|Y = y] = 0.
Oefening 4.4. Veronderstel dat de gemeenschappelijke dichtheidsfunctie
van de SV’s X en Y gegeven is door
f (x, y) =
e−x/y e−y
1{0<x<+∞} 1{0<y<+∞}
y
Bewijs dat E[X|Y = y] = y.
Oefening 4.5. Zij X en Y discrete random variabelen on N met gezamelijke
dichtheidsfunctie
e−2
p(x, y) =
, y≤x
y!(x − y)!
en
p(x, y) = 0, y > x
Bepaal E(Y |X = x).
Oefening 4.6. Bewijs dat als X en Y beide continu zijn, geldt
+∞
E[X|Y = y]fY (y) dy.
E[X] =
−∞
Oefening 4.7. Veronderstel dat Y een exponentiële verdeling heeft, maar
we laten de parameter λ van de verdeling zelf ook een SV zijn (laten we hem
voor de eenvoud X noemen in plaats van λ) met dichtheidsfunctie
x2 −x
fX (x) = e 1{x>0} .
2
1. Geef de dichtheidsfuntie van Y .
2. Geef de conditionele dichtheidsfunctie voor X gegeven Y = y.
21
22
Conditionele verdeling, conditionele dichtheid
Opmerking 4.4. Een verdeling met dichtheidsfunctie
fX (x) =
λn
xn−1 e−λx 1{x>0} .
(n − 1)!
noemt men een Erlangverdeling met parameters n en λ. In oefening 4.7 heeft
X een Erlangverdeling met parameters n = 3 en λ = 1.
Oefening 4.8 (Examen juni ’03). De gezamelijke dichtheidsfunctie van
X en Y wordt gegeven door
1.
fX,Y (x, y) =
e−y
1{0<x<y<+∞}
y
Bepaal E[X 2 |Y = y].
2.
fX,Y (x, y) = e−y 1{0<x<y<+∞}
Bepaal de dichtheidsfunctie van X + Y .
Oefening 4.9. Indien E[Y |X] = 1, bewijs dan dat
Var(XY ) ≥ Var(X).
Oefening 4.10. Zij X en T twee SV en zij g(t) = E[X|T = t]. Dan geldt:
1. als E[X] bestaat: E[g(T )] = E[X]
2. als Var[X] bestaat: Var[g(T )] ≤ Var[X].
De gelijkheid treedt op a.s.a. P(X = g(T )) = 1.
Oefening 4.11. Onderdelen komen aan in een station voor reparatie. Hun
aankomst heeft plaats op de ogenblikken τ1 , τ1 +τ2 , . . . , τ1 +· · ·+τn , . . ., waarbij de intervallen τi onafhankelijke variabelen zijn met dezelfde exponentiële
verdeling met parameter λ > 0. De onderdelen worden gerepareerd in volgorde van aankomst. De duur van de reparatie van de n-de onderdeel is een
SV σn . De rij (τ1 , σ1 , . . . , τn , σn , . . .) wordt onafhankelijk verondersteld.
Ieder onderdeel dat arriveert wordt meteen behandeld indien er geen
ander onderdeel in behandeling is, in het andere geval wacht het tot de
reparatieservice vrij is. We noteren Wn de wachttijd van het n-de onderdeel.
Verder veronderstellen we dat alle σi ’s dezelde exponentiële verdeling hebben
met parameter µ > 0.
1. Wat is de verdeling van de stochastische variabele ξn = σn − τn+1 ?
Bewijs dat ξn en Wn onafhankelijk zijn.
4.4 Conditionele dichtheden en verdelingen: oefeningen
2. Bewijs dat Wn+1 = sup(Wn +ξn , 0) en leidt hieruit af dat de conditionele
verdeling van Wn+1 wetende Wn (dus η(t, dx) = P(Wn+1 ∈ dx|Wn = t))
gegeven wordt door:
η(t, dx) =
µ −λt
λµ 1[0,t[ (x)eλ(x−t) + 1[t,∞[ (x)e−µ(x−t) dx
e δ0 (dx)+
µ+λ
µ+λ
3. Noem Φn de characteristieke functie van Wn . Bepaal, door gebruik te
maken van deel 2, een relatie tussen Φn en Φn+1 van de vorm
Φn+1 (t) = a(t)Φn (t) + b(t)E[e−λWn ],
waarbij a(t) en b(t) alleen van t afhangen.
4. Leidt uit 3 af dat een noodzakelijke voorwaarde voor convergentie in
verdeling van Wn wordt gegeven door µ > λ.
5. Bewijs dat
Wn+1 = sup(0, ξn , ξn + ξn−1 , . . . , ξn + ξn−1 + . . . + ξ1 )
en dat bijgevolg Wn+1 dezelfde verdeling heeft als
sup(0, ξ1 , ξ1 + ξ2 , . . . , ξ1 + ξ2 + . . . + ξn ).
6. Leidt uit 5 af dat Wn in verdeling convergeert indien µ > λ. Convergeert Wn onder dezelfde conditie ook in kans?
7. Veronderstel dat µ > λ. Leidt uit vraag 3 de characteristieke functie
van de limiet van Wn af. Geef dan ook de verdeling ervan. Wat is de
limiet van P(Wn = 0) indien n naar oneindig gaat? Wat betekent deze
limiet?
23
24
Conditionele verdeling, conditionele dichtheid
Hoofdstuk 5
Berekenen van
verwachtingswaarden en kansen
door conditionering
5.1
Theorie en voorbeelden
Door de volgende eigenschap kan men de verwachtingswaarde berekenen door
conditionering. Deze eigenschap komt overeen met eigenschap 3.1.
Eigenschap 5.1. Indien X en Y SV’s zijn, dan geldt dat
E(X) = E(E[X|Y ]).
In het discrete geval krijgen we dat
E(X) =
E(X|Y = y)P(Y = y)
y
en in het continue geval krijgen we dat
+∞
E(X|Y = y)fY (y) dy
E(X) =
−∞
Dikwijls bekomt men door het gebruik van deze eigenschap een vergelijking in E(X), waaruit men E(X) dan kan bepalen (Zie ook oefening 4.6).
Voorbeeld 5.1. Het gemiddelde van de geometrische verdeling. Een muntstuk met kans p om munt te gooien wordt achter elkaar omhoog gegooid
totdat het voor de eerste keer munt aangeeft. Wat is het verwachte aantal
worpen?
26
Berekenen van verwachtingswaarden en kansen door conditionering
Oplossing. Laat N het aantal worpen zijn en noem
1,
indien de eerste worp munt aangeeft
Y =
0,
indien de eerste worp kruis aangeeft.
Eigenschap 5.1 geeft dan
E(N) = E(N|Y = 1)P(Y = 1) + E(N|Y = 0)P(Y = 0)
= pE(N|Y = 1) + (1 − p)E(N|Y = 0)
We hebben echter dat
E(N|Y = 1) = 1 en E(N|Y = 0) = 1 + E(N).
Dit levert de vergelijking
E(N) = p + (1 − p)(1 + E(N))
waaruit E(N) = 1/p.
Als bijzonder geval van eigenschap 5.1 kan men ook kansen uitrekenen
door conditionering:
Eigenschap 5.2. Veronderstel dat B een willekeurige gebeurtenis is, en Y
een SV. Dan geldt
P(B) =
P(B|Y = y)P(Y = y),
als Y discreet is
y
+∞
=
−∞
P(B|Y = y)fY (y) dy,
als Y continu is
Opmerking 5.1. Het discrete geval van deze eigenschap is natuurlijk gewoon
het theorema van totale waarschijnlijkheid (zie kanstheorie I).
Voorbeeld 5.2. Veronderstel dat we 2 onafhankelijke X en Y met dichtheidsfuncties fX en fY . Bereken P(X < Y ).
Oplossing. Conditioneren we op de waarde van Y dan krijgen we
+∞
P(X < Y |Y = y)fY (y) dy
P(X < Y ) =
−∞
+∞
P(X < y|Y = y)fY (y) dy
=
−∞
+∞
P(X < y)fY (y) dy
=
−∞
+∞
FX (y)fY (y) dy
=
−∞
5.2 Oefeningen
5.2
27
Oefeningen
Oefening 5.1. Bereken de variantie van de geometrische verdeling door middel van conditionering.
Oefening 5.2. Elke klant die in de Hannah’s klerenwinkel binnenwandelt
zal met kans p ook effectief iets kopen. Als het aantal klanten per dag
een poissonverdeelde variabele is (met parameter λ, wat is dan de kans dat
Hannah vandaag niets zal verkopen?
Oefening 5.3 (Het Ballot probleem). Bij een verkiezing krijgt de heer
Janssens n stemmen en de heer Peeters m stemmen, met n > m. Veronderstel
dat de stemmen willekeurig geordend zijn (elke ordening met dezelfde kans),
bewijs dan dat de kans dat Janssens steeds voorop ligt in de telling van de
stemmen gelijk is aan (n − m)/(n + m).
Oefening 5.4. Veronderstel dat de gemeenschappelijke dichtheidsfunctie
van de SV’s X en Y gegeven is door
P(X = i, Y = j) = e−(a+bi)
(bi)j ai
,
j! i!
i ≥ 0, j ≥ 0
1. Wat is de conditionele verdeling van Y gegeven dat X = i?
2. Zoek Cov(X, Y ).
Oefening 5.5 (Examen juni ’02). Een rat zit gevangen in een doolhof. Op
de plek A waar hij nu zit heeft hij 2 mogelijkheden. Of hij gaat naar links, of
hij gaat naar rechts. Indien hij naar rechts gaat, dan zal hij 3 minuten door
de doolhof wandelen en dan terug op plek A terechtkomen. Gaat ie naar
links, dan zal hij met kans 13 het doolhof verlaten na 2 minuten wandelen en
zal hij met kans 23 terug zijn op plek A na 5 minuten. Veronderstel dat de
rat op elk moment evenveel kans heeft om naar links of naar rechts te gaan.
Wat is het verwacht aantal minuten dat de rat in het doolhof zal zitten?
Oefening 5.6. Bepaal de variantie van de duur dat de rat uit oefening 5.5
nodig heeft om uit de doolhof te raken.
Oefening 5.7. Stel dat U1 , U2 , . . . een rij is van i.i.d. variabele met verdeling
U(0, 1). Noem
S1 = min{n ≥ 2 : Un > Un−1 }
en
S2 = min{n ≥ 1 : U1 + . . . + Un > 1}
28
Berekenen van verwachtingswaarden en kansen door conditionering
S1 is dan de index van de eerste random variabele die groter is dan zijn
voorganger, terwijl S2 het aantal random variabelen aangeeft dat nodig is
om een som groter dan 1 te hebben. Bewijs dat S1 en S2 dezelfde verdeling
hebben en dat hun (gemeenschappelijke) gemiddelde e is.
Oefening 5.8 (Examen juni ’03). Aan een tennistoernooi doen er 2n
deelnemers mee. Het toernooi is met directe uitschakeling, d.w.z. de verliezer
van de wedstrijd gaat naar huis, de winnaar gaat naar de volgende ronde. Zo
zijn er in de 2e ronde 2n−1 spelers in de running, en bijft er uiteindelijk na de
n-de en laatste ronde 1 spelers over die ongeslagen is, dit is de winnaar van
het toernooi. Alle spelers krijgen een nummer van 1 tot 2n en telkens wanneer
een wedstrijd wordt gespeeld heeft de speler met het laagste nummer kans p
om te winnen. In het begin wordt een binaire boom opgemaakt met aan elk
blad 1 van de 2n spelers. Bij een gewonnen wedstrijd stijg je in de boom en
krijg je je nieuwe tegenstander. De winnaar staat uiteindelijk bovenaan in
de boom. De spelers worden at random onderaan de boom geplaatst.
Toon aan dat de kans dat speler met het nummer 2 het tornooi wint
gegeven wordt door
pn−1 n n
(2 p − 1)
pn − n
2 −1
Hint. Conditioneer op de ronde dat speler 1 en speler 2 elkaar mogelijk
tegenkomen.
Hoofdstuk 6
Stochastische processen en
beltijden
6.1
Theorie
Definitie 6.1. Als (Ω, F , P) een kansruimte is en (Fn )n∈N een filtratie van
deelstammen van F , dan is
ν : Ω → N ∪ {∞}
een beltijd of stoptijd t.o.v. (Fn )n∈N indien
∀n ∈ N :
(ν ≤ n) ∈ Fn .
Definitie 6.2. Veronderstel (Ω, F , (Fn )n , P) een gefiltreerde kansruimte en
ν een beltijd. Men noemt
Fν = {F ∈ F ; ∀n ∈ N : F ∩ (ν ≤ n) ∈ Fn }
de door ν geı̈nduceerde deelstam van F .
6.2
Oefeningen
Oefening 6.1. Veronderstel (Ω, F , (Fn)n een gefiltreerde kansruimte en ν1
en ν2 2 beltijden t.o.v. de filtratie (Fn )n . Bewijs dat:
1. ν1 + ν2 een beltijd is t.o.v. de filtratie (Fn )n .
2. {ν1 < ν2 } ∈ Fν1 ∩ Fν2 en {ν1 = ν2 } ∈ Fν1 ∩ Fν2
30
Stochastische processen en beltijden
Oefening 6.2. Veronderstel (Ω, F , (Fn )n ) een gefiltreerde kansruimte en
τ een beltijd t.o.v. de filtratie (Fn )n . Veronderstel verder dat ν een Fτ meetbare stochastiek is op Ω met ν > τ . Bewijs dat ν een beltijd is voor de
filtratie (Fn )n .
Oefening 6.3. Indien τ en ν beltijden zijn t.o.v. een filtratie (Fn )n en
A ∈ Fν , bewijs dan dat A ∩ (ν ≤ τ ) ∈ Fτ .
Oefening 6.4. Zij (Xn )n∈N i.i.d. en Fn = σ({X1 , . . . , Xn }). Veronderstel T
een beltijd t.o.v. (Fn )n . Toon aan dat XT +1 , XT +2, . . . i.i.d. met dezelfde
verdeling als X1 , X2 , . . . .
Hoofdstuk 7
martingalen
7.1
Theorie en voorbeelden
Definitie 7.1. Een reëel aangepast proces is een martingaal (resp. supermartingaal, resp. submartingaal) indien voor elke n, Xn integreerbaar is en
bovendien
b.z.
E(Xn+1 |Fn ) = Xn (resp ≤, resp ≥).
Of anders gezegd: Met de huidige informatie is je verwacht resultaat in
de toekomst hetzelfde als het huidige.
Een erg belangrijke stelling is de stopstelling:
Eigenschap 7.1 (Stopping theorem). Indien Xn een supermartingaal
(resp. martingaal) is en ν een stoptijd, dan is Xν∧n ook een supermartingaal
(resp. martingaal).
Bewijs. De integreerbaarheid volgt direct uit
|Xn∧ν | ≤ |X0 | + . . . + |Xn |.
Vermits {ν > n} ∈ Fn , krijgen we dat
n
Xk 1{ν=k} + Xn+1 1{ν>n}
EFn X(n+1)∧ν = EFn
=
n
k=0
Xk 1{ν=k} + 1{ν>n} EFn (Xn+1 )
k=0
≤
n
k=0
Xk 1{ν=k} + 1{ν>n} EFn Xn+1 = Xn∧ν
32
martingalen
Eigenschap 7.2. Indien Xn een supermartingaal (resp. martingaal) is en
ν1 ≤ ν2 begrensde stoptijden, dan geldt:
b.z.
E(Xν2 |Fν1 ) ≤ Xν1
7.2
(resp =)
Oefeningen
Oefening 7.1.
1. Het muntworp-model: gegeven de kansruimte ([0, 1], R[0,1] , λ[0,1] ). Een
rij experimenten levert een rij van nullen en enen
ω = (1, 0, 1, 0, 0, 1, 1, 1, 0, 0, . . . ),
wat overeenkomt met de binaire notatie
ω = 0, 1010011100 . . . ,
waar 1 staat voor het gooien van kop en 0 staat voor het gooien van
munt. We vinden bijvoorbeeld P(ω1 = 1) = 12 en P(ω1 = 1, ω2 = 0) =
P({ω; ω begint met 0.10...) = 14 .
(a) Als Xn (ω) = ωn het resultaat van de n-de worp is, geef dan de
stammen Bn = σ({X1 , . . . , Xn }) voor n = 1, 2, 3 en 4.
(b) Veronderstel nu dat we een spelstrategie volgen waarbij we een
constante inzet van 1 frank nemen. De return van spel i noteren
we als
1
als Xi = 1
Yi =
−1 als Xi = 0
Beschouw de totale return na n spelen, gegeven door Sn = Y1 +
· · · + Yn . Toon aan dat {Sn ; n = 1, 2, . . . } een martingaal is.
(c) Construeer de verdeling van Sn voor n = 1, . . . , 6. Wat is de kans
om een positieve winst te bekomen?
(d) Plot E[Sn ] en Var[Sn ] in functie van n voor n = 1, . . . , 6.
2. Vervang nu de spelstrategie door een nieuw spelsysteem, d.w.z. de inzet
Zi wordt dan gedefinieerd door
1
als Yi−1 = 1
Zi =
2Zi−1 als Yi−1 = −1
De totale return is dan Sn = Z1 Y1 + · · · + Zn Yn .
7.2 Oefeningen
33
(a) Bewijs dat Sn nog steeds een martingaal is.
(b) Construeer de verdeling van Sn voor n = 1, 2, 3 en 4. Wat is nu
de kans om een positieve winst te bekomen?
(c) Plot E[Sn ] en Var[Sn ] in functie van n voor n = 1, 2, 3, 4.
3. In het Casino van Knokke gaan we roulette spelen. De kans op winst
, de kans op verlies 19
. We nemen de constante spelstrategie, met
is 18
37
37
een inzet van 1 frank.
(a) Bewijs dat {Sn ; n ∈ N} een supermartingaal is.
(b) Zoek de verdeling van Sn en teken ze voor n = 1, 2, 3, 4.
(c) Bereken en teken E[Sn ] en Var[Sn ] in functie van n.
4. Pas de spelstrategie van deel 2 toe op de roulette van deel 3.
(a) Bewijs dat {Sn ; n ∈ N} een supermartingaal is.
Oefening 7.2. Zij {Xn |n ∈ N} is een martingaal t.o.v. {An |n ∈ N} en
{Zn |n ∈ N} is een rij begrensde R.S.V. aangepast aan {An |n ∈ N}.
Definieer dan per inductie:
Y1 := X1 ;
Yn+1 := Yn + Zn (Xn+1 − Xn )
Toon aan dat {Yn |n ∈ N} een martingaal is t.o.v. {An |n ∈ N}.
Oefening 7.3. Zij {Xn |n ∈ N} een martingaal en Xn ∈ Lp (Ω, A, p) met 1
≤ p < ∞. Toon aan dat {|Xn |p |n ∈ N} een submartingaal is.
Oefening 7.4. Zij (Ω, F , P) kansruimte met filtratie (Fn )n waarop we 2
martingalen veronderstellen: (Xn )n≥0 en (yn )n≥0 , beide in L2 .
1. Bewijs dat, met m ≤ n dat EFm (Xm Yn ) = Xm Ym b.z.
2. Bewijs dat
E(Xn Yn ) − E(X0 Y0 ) =
n
k=1
E((Xk − Xk−1 )(Yk − Yk−1)).
34
martingalen
Oefening 7.5. Een gokker A heeft een beginfortuin van a EUR; B bezit
b EUR. Ze werpen herhaaldelijk een muntstuk op. Munt betekent dat A
1 EUR wint, kruis dat hij 1 EUR verliest (en B 1 EUR wint). Dit kan
beschreven worden als volgt: een kansruimte (Ω, A, P ) met daarop een rij
van onafhankelijke stochasten X1 , X2 , . . . , Xn , . . . waarbij Xn = 1 als de nde worp munt is, en Xn = −1 als de n-de worp kruis is. Speler A wint dus
als Xn = 1.
Zij Sk := ki=1 Xi de winst van A na k worpen. We hebben reeds aangetoond
dat {Sk |k ∈ N} een martingaal is t.o.v. {Ak |k ∈ N} met Ak := σ({Xi |i ≤
k}).
1. Zij T het ogenblik waarop één van de spelers zijn fortuin kwijt is,
d.w.z. T(ω) := min {k|Sk (ω) = −a of Sk (ω) = b} en T(ω)= ∞ als
Sk (ω) > −a, Sk (ω) < b ∀k ∈ N.
Toon aan dat T een beltijd is t.o.v. {Ak |k ∈ N}.
2. Toon aan dat {ST ∧k |k ∈ N} een uniform begrensde martingaal is t.o.v.
{AT ∧k |k ∈ N}.
3. Toon aan dat ST ∧k P-b.z. convergeert naar een P-integreerbare stochastiek S.
4. Besluit uit 3. dat T < ∞ P-b.z.
5. Toon aan met behulp van 2. en 3. dat E[ST ]= 0.
6. Bereken nu de kans p = P(ST = b) dat B blut is vóór speler A.
Oefening 7.6. Zij (Sn )n≥0 een randomwalk op Z: S0 = 0, Sn = U1 + U2 +
. . . + Un , waar Ui onafhankelijke stochastische variabelen zijn met dezelfde
verdeling en zodat
0 < P(Ui = 1) = p < 1, P(Ui = −1) = 1 − p = q.
1. Zij Zn =
Sn
q
p
2. Toon aan dat
. Bewijs dat (Zn )n≥0 een positieve martingaal is.
k
p
P sup Sn ≥ k ≤
q
n≥0
en dus dat indien q > p, geldt dat
E sup Sn ≤
n≥0
p
.
q−p
7.2 Oefeningen
35
Oefening 7.7 (Examen juni ’02). Zij (Zn )n≥1 een randomwalk op Z, zodat
1
∀i ≥ 1 : P(Zi = 1) = P(Zi = −1) = .
2
We stellen S0 = 0 en Sn = Z1 + . . . + Zn , F0 = {φ, Ω} en Fn = σ(Z1 , . . . , Zn ).
Veronderstel verder dat a > 0 een vast geheel getal is en
τ = inf{n ≥ 0 : Sn = a}
de eerste keer dat Sn het getal a bereikt.
a) Bewijs dat
Xnθ =
eθSn
(cosh θ)n
θ
een (Fn )n≥0 -martingaal is. Bewijs dat, indien θ ≥ 0, (Xn∧τ
)n≥0 een
begrensde martingaal is.
θ
)n≥0 bijna zeker en in L1 convergeert naar
b1) Bewijs dat, voor θ ≥ 0, (Xn∧τ
de stochastische variabele
eθa
W =
1{τ <+∞} .
(cosh θ)τ
θ
b2) Bewijs dat P(τ < +∞) = 1 en dat voor alle θ ≥ 0 geldt dat
E[(cosh θ)−τ ] = e−θa .
Oefening 7.8. We beschouwen een rij i.i.d. RSV’s (Xn )n≥1 met dezelfde
normale verdeling N(m, σ 2 ). met m < 0 en men stelt S0 = 0.
S n = X 1 + . . . + Xn
en
Bn = σ(S0 , . . . , Sn ), W = sup Sn .
n≥0
Het doel van deze oefening is dat we wat eigenschappen van W opstellen.
1. Bewijs dat P(W < ∞) = 1.
2 σ 2 /2
2. Voor λ reëel geldt dat E(eλX1 ) = eλ
eλm . Wat wordt
E(eλSn+1 |Bn ).
36
martingalen
3. Bewijs dat er een unieke λ0 > 0 bestaat zodat (eλ0 Sn )n≥0 een martingaal
is.
4. Bewijs dat, voor elke t > 0 geldt dat
P(W > t) ≤ e−λ0 t .
5. Bewijs dat
λ
E(e W ) = 1 + λ
+∞
eλt P(W > t) dt,
0
λW
en dus dat voor λ < λ0 , E(e
momenten.
) < ∞. In het bijzonder bezit W alle
Oefening 7.9 (Examen juni ’03). (Zn )n≥1 is een rij onafhankelijke random
variabelen zodat P(Zi = 1) = P(Zi = −1) = 12 , voor elke i ∈ N0 . We stellen
S0 = 0, Sn = Z1 + . . . + Zn , F0 = {Ω, φ} en Fn = σ(Z1 , . . . , Zn ). Veronderstel
π
a ∈ N0 en λ ∈ R zodat 0 < λ < 2a
. Noem τ = inf{n ≥ 0, |Sn | = a} het
moment dat Sn het interval ] − a, a[ verlaat.
1. Bewijs dat
Xn =
cos(λSn )
(cos λ)n
een (Fn )n≥0 -martingaal is.
2. Bewijs dat
1 = E(Xn∧τ ) ≥ cos(λa)E((cos λ)−(n∧τ ) )
Hoofdstuk 8
Wet van de grote getallen
8.1
Oefeningen
Oefening 8.1 (Een mogelijke gokstrategie). Veronderstel dat je herhaaldelijk een zeker kansspel speelt en dat je elk spel geld kan inzetten. Dat
geld win je met kans p en verlies je met kans q. Opeenvolgende spelen zijn
onafhankelijk. Je gebruik nu de stategie van steeds een percentage α van
je huidig bezit in te zetten. Als je op een gegeven ogenblik x euro in bezit
hebt, dan zet je het volgende spel αx in, met α een zekere constante tussen
0 en 1. Veronderstel dat je met C euro begint en dat je na spel n Cn euro in
bezit hebt. We gaan nu onderzoeken wat de beste waarde is van α om om
uw succeskans te maximaliseren.
1. Indien Sn het aantal successen is na n spelletjes, geef dan een formule
voor Cn .
2. Zij
1
Yn = ln
n
Cn
C
.
Gebruik de wet van Kolmogorov om aan te tonen dat als n stijgt, Yn
met kans 1 de limiet p ln(1 + α) + q ln(1 − α) benadert.
(We vinden dus dat Cn asymptotisch is naar r n C met r constant (1 +
α)p (1−α)q . Daarom, indien de kans p en q gegeven zijn, wil je proberen
je α zo kiezen dat r zo groot mogelijk is. Je maakt slechts winst indien
r > 1).
3. Veronderstel r in functie van α:
r(α) = (1 + α)p (1 − α)q .
38
Wet van de grote getallen
Bewijs dat r stijgt op het interval (−1, p − q) en daalt op het interval
(p − q, 1).
4. Concludeer welke α we nu best nemen.
Oefening 8.2 (Monte Carlo benadering van een integraal). Om de
integraal
1
h(x) dx
(8.1)
0
te benaderen, noemen we X een variable met een uniforme verdeling, maken
we een groot aantal observaties van X en we nemen het gemiddelde van Y =
h(X). Omdat E[Y ] gelijk is aan de integraal (8.1), zal de verwachtingswaarde
van heel veel samples de integraal (8.1) benaderen.
In symbolen: Stel (Xi )ni=1 onafhankelijke observaties van X en zij Yi =
h(Xi ). Dan is Y n de monte Carlo schatter van de integraal (8.1) gebaseerd
op n sampels.
1. Wat zegt de wet van Kolmogorov over deze situatie.
2. We willen nu de ongelijkheid van Chebychev gebruiken. Hiervoor moet
de variantie van Y eindig zijn. Welke veronderstelling moeten we maken
over h(x).
3. Als we een bovengrens A kennen voor h (|h(x)| ≤ A), toon dan aan
dat Var[Y ] ≤ A2 .
4. Veronderstel Var[Y ] ≤ A2 en veronderstel een tolerantie > 0. Wat
zegt Chebychev over de kans dat de schatter Y n niet dichter dan bij
de echte waarde van de integraal (8.1) is.
5. veronderstel |h(x)| ≤ 1, ∀x ∈ (0, 1). Hoeveel samples moet ik nemen
om met 95% dichter dan 0.01 bij de echte waarde van de integraal te
zitten.
Hoofdstuk 9
Inleiding tot Markov ketens
9.1
Inleiding
Veronderstel een discreet stochastisch proces (Xn )n∈I (met indexverzameling
I = {0, . . . , l} of N) waarbij de (Xn )n∈I waarden kunnen aannemen in J met
J = {0, . . . , k} of J = N (of soms J = Z). Indien Xn = i, dan zeggen we dat
Xn zich in toestand i bevindt.
Definitie 9.1. (Xi )i∈I is een homogene markovketen indien er, wanneer het
proces zich in toestand i bevindt, een vaste kans Qij bestaat zodat de volgende
toestand van het proces j is, m.a.w, ∀n ∈ I, ∀i0 , . . . , in−1 , i, j geldt
P(Xn+1 = j|Xn = i, Xn−1 = in−1 , . . . , X0 = i0 ) = P(Xn+1 = j|Xn = i) = Qij
Al deze Qij ’s vormen samen een matrix:
Definitie 9.2. De matrix


Q=


Q00 · · · Q0k
.. 
..
. 
.
Qk0 · · · Qkk
of


Q=

P00 P01 P02
Q10 Q11 Q12
Q20 Q21 Q22
..
..
..
.
.
.
···
···
···
..
.





noemt men de transitiematrix.
Eigenschap 9.1. Vermits kansen steeds groter zijn dan 0 en het proces
steeds een transitie maakt naar een zekere toestand gelden volgende 2 eigenschappen:
• ∀i, j ≥ 0 : Qij ≥ 0.
• ∀i ≥ 0 : j∈J Qij = 1.
40
Inleiding tot Markov ketens
Voorbeeld 9.1 (Weersvoorspelling). Veronderstel dat de kans op regen
morgen afhangt van het al dan niet vallen van regen vandaag, maar niet
afhankelijk is van alle vorige dagen. Indien het vandaag regent, dan regent
het morgen met kans α. Indien het vandaag niet regent, regent het morgen
met kans β.
We zeggen dat het proces in toestand 0 is indien het regent en in toestand
1 indien het niet regent. De transitiematrix wordt dan gegeven door
α 1−α
Q=
β 1−β
Voorbeeld 9.2 (Random walk). Een random walk op Z (zoals in heeft
hoofdstuk van de martingalen) heeft als toestanden alle gehele getallen en de
transitiematrix is gegeven door
Qi,i+1 = p = 1 − Qi,i−1 .
M.a.w., kans p om 1 te stijgen, kans 1 − p om 1 te dalen.
Voorbeeld 9.3 (Gokken). Een gokker wint telkens 1 euro met kans p
of verliest 1 euro met kans 1 − p. Als we veronderstellen dat hij stopt te
gokken als hij blut is of als hij een fortuin van N euro bereikt, dan wordt de
transitiematrix gegeven door
∀i ∈ {1, 2, . . . , N − 1} :
Qi,i+1 = p = 1 − Qi,i−1
en
Q00 = QN N = 1.
In matrixvorm wordt dit

1
0
0 ... ... ...
 1−p
0
p


 0
1−p 0

 ..
..
Q= .
.

.
 .
0
p
 .
 .
 ..
1−p 0
0
... ... ...
0
0
0
..
.
..
.
..
.







.


0 

p 
1
De toestanden 0 en N worden absorberende toestanden genoemd.
Voorbeeld 9.4 (Een proces omzetten in een Markov keten). We
passen het bovenstaande voorbeeld van de weersvoorspelling wat aan op de
volgende manier:
9.2 Kansverdelingen van een Markov keten
41
• Regende het vandaag en gisteren, dan regent het morgen met kans 0.7.
• Regende het vandaag, maar gisteren niet, dan regent het morgen met
kans 0.5.
• Regende het gisteren, maar vandaag niet, dan regent het morgen met
kans 0.4.
• Regende het vandaag niet en gisteren niet, dan regent het morgen met
kans 0.2.
Dit proces is geen markov-keten, omdat de toestand van morgen niet enkel
afhangt van de toestand van vandaag, maar ook van de toestand van gisteren.
Een oplossing hier is het aanpassen van de oorspronkelijke 2-toestanden
naar een model met 4 toestanden:
• toestand 0: Het regende gisteren en het regent vandaag.
• toestand 1: Het regende gisteren niet en het regent vandaag.
• toestand 2: Het regende gisteren en het regent vandaag niet.
• toestand 3: Het regende gisteren niet en het regent vandaag niet.
De transitiematrix wordt dan gegeven door:

0.7 0 0.3 0
 0.5 0 0.5 0
Q=
 0 0.4 0 0.6
0 0.2 0 0.8
9.2


.

Kansverdelingen van een Markov keten
Definitie 9.3. De verdeling van X0 noemt men de beginverdeling. Die
verdeling zullen we hier noteren als µ(x).
We kunnen ons afvragen wat er gebeurt als we meerdere tijdstappen
vooruitdenken:
Qnij = P(Xn+m = j|Xm = i)
Eigenschap 9.2. Qnij wordt gegeven door:
Qn+m
ij
=
+∞
Qnik Qm
kj
k=0
Dit leidt tot
Q(n+m) = Q(n) · Q(m)
42
Inleiding tot Markov ketens
9.3
Recurrente en transiënte toestanden
Toestand j is toegankelijk vanaf toestand i indien Qnij > 0 voor zekere n. We
zeggen dat i en j met elkaar communiceren als i toegankelijk is vanaf j en j
toegankelijk is vanaf i. In dat geval noteren we i ↔ j.
Eigenschap 9.3. Communiceren is een equivalentierelatie.
De bijbehorende equivalentieklassen noemt men de communicatieklassen.
Een Markovketen wordt irreducibel geheten indien er zo slecht 1 klasse is
(m.a.w. alle toestanden communiceren met elkaar).
Voorbeeld 9.5. De markovketen met 3 toestanden (0,1 en 2) en transitiematrix
 1 1

0
2
2
Q =  12 14 41 
0 13 32
is irreducibel.
Voorbeeld 9.6. De markovketen met 4 toestanden (0,1,2 en 3) en transitiematrix

 1 1
0 0
2
2
 1 1 0 0 
2
2

Q=
 1 1 1 1 
4
4
4
4
0 0 0 1
heeft 3 communicatieklassen: {0, 1}, {2} en {3}.
Definiëren we even de volgende stoptijden:
τx = inf(n ≥ 0, Xn = x),
σx = inf(n ≥ 1, Xn = x)
Definitie 9.4. Een toestand x wordt recurrent genoemd als
Px (σx < +∞) = 1.
Een toestand x wordt transiënt genoemd als
Px (σx < +∞) < 1.
Eigenschap 9.4.
• Toestand i is recurrent als
• Toestand i is transiënt als
+∞
n=1
Qnii = +∞.
n=1
Qnii < +∞.
+∞
9.4 Limietkansen bij een markovketen
Eigenschap 9.5. Indien toestand i recurrent is en toestand j communiceert
met toestand i, dan is toestand j ook recurrent.
Voorbeeld 9.7 (Random walk op Zd ). In voorbeeld 9.2 zagen we de
symmetrische random walk op Z. Dit kan eenvoudig veralgemeend worden
naar Z2 , Z3 , of een andere willekeurige Zd . In het symmetrische geval zou
bijvoorbeeld bij de random walk op Z2 in elke toestand van Z2 de keuze zijn
om een met kans 14 naar links, rechts, boven of onder kunnen gaan.
Een verassend resultaat is dat de symmetrische random walk op Z en op
2
Z in alle toestanden recurrent is, geldt dit niet meer voor hogere machten.
9.4
Limietkansen bij een markovketen
Laten we even teruggaan naar voorbeeld 9.1 en kijken naar de weersvoorspelling van morgen, overmorgen, over 3 dagen, over 4 dagen, ... In het vorige
werd vermeld dat Qn de transitiematrix van n achtereenvolgende transities
met transitiematrix Q.
In dit geval zou dat worden:
0.7000 0.3000
Q=
0.4000 0.6000
0.6100 0.3900
Q2 =
0.5200 0.4800
0.5830 0.4170
Q3 =
0.5560 0.4440
0.5749 0.4251
Q4 =
0.5668 0.4332
0.5725 0.4275
5
Q =
0.5700 0.4300
0.5717 0.4283
6
Q =
0.5710 0.4290
0.5715 0.4285
Q7 =
0.5713 0.4287
0.5715 0.4285
Q8 =
0.5714 0.4286
We merken dat:
• de matrices identiek aan elkaar worden.
43
44
Inleiding tot Markov ketens
• de rijen identiek aan elkaar worden.
Er blijkt dus een limietkans te bestaan om in toestand j te raken na een groot
aantal transities, een limietkans die onafhankelijk is van de begintoestand.
Dit geldt echter niet voor elke Markovketen met willekeurige transitiematrix. Er zijn enkele voorwaarden.
Definitie 9.5. Toestand i heeft periode d indien Qnii = 0 indien n niet
deelbaar is door d en d is het grootste getal met deze eigenschap. Met noemt
een toestand aperiodisch indien het periode 1 heeft.
Voorbeeld 9.8. Bij de randomwalk op Z heeft elke toestand periode 2. Na
een oneven aantal transities is het immers steeds onmogelijk om terug in
dezelfde toestand te geraken.
Opmerking 9.1. Periodiciteit is een klasse-eigenschap: indien i communiceert met j dan hebben deze 2 toestanden dezelfde periode.
Definitie 9.6. Als toestand i recurrent is, noemen we hem positief recurrent
als, startend in toestand i, de verwachte tijd nodig om terug in i te raken
eindig is.
Opmerking 9.2. Ook dit is een klasse-eigenschap. Bovendien kan er aangetoond worden dat bij eindig aantal toestand recurrent en positief recurrent
net hetzelfde is.
Definitie 9.7. Positief recurrente, aperiodische toestanden noemt met ergodisch.
Eigenschap 9.6. Bij een irreducible ergodische Markovketen, bestaat
lim Qnij
n→+∞
en is onafhankelijk van i. Bovendien is πj = limn→+∞ Qnij de unieke positieve
oplossing van
πj =
+∞
πi Qij
i=0
+∞
πj = 1
j=0
Opmerking 9.3. Het kan aangetoond worden dat πj , de limietkans is dat
het proces in toestand j zal zijn op tijdstip n, ook gelijk is aan de lange
termijn verhouding die aangeeft hoeveel tijd dat het proces in toestand j is.
9.5 Extra
9.5
45
Extra
De transitiematrix in voorgaande voorbeelden kan ook in een graaf weergegeven worden. Zo kan de Markovketen uit vb 9.5 voorgesteld worden als
1
4
6 1
1
2
1
2
$ v
0
1
4
z
2
1
2
j
1
3
2
3
Dit hoofdstuk is veel te kort om alle eigenschappen van Markovketens te
laten zien. De volgende eigenschap is een voorsmaakje van wat er allemaal
mogelijk is met Markov ketens:
Eigenschap 9.7. Noem φ = A ⊂ J een verzameling toestanden. Dan is
u(x) = Px (τA < +∞) de kleinst mogelijke oplossing van het stelsel
u(x) = 1
x∈A
u(x) = Qu(x) x ∈ Ac
Voorbeeld 9.9. Een muis bevindt zich in een labirinth met 7 kamers:
kat
2
4
6
1
3
5
kaas
7
In kamer 7 ligt een stuk gruyerekaas, in kamer 4 zit een gevaarlijke kat.
Aangrenzende kamers zijn met elkaar verbonden. In kamers 1,2,3,5 en 6
wandelt een muis naar 1 van haar k buurkamers met kans k1 . Belandt ze in
kamer 4 of 7, dan blijft ze daar. Bepaal de kans dat een muis in kamer 1 de
kaas in kamer 7 bereikt.
De oplossing kan bepaald worden door voorgaande eigenschap, met A =
4
{7}, u(4) = 0. Uiteindelijk vind je 29
.
9.6
Oefeningen
Oefening 9.1. 3 witte en 3 zwarte ballen zitten verdeeld over 2 urnes zodat
er in elke urne 3 ballen zitten. We zullen zeggen dat onze keten in toestand
i zit indien er i = 0, 1, 2, 3 witte ballen in urne 1 zitten. Tijdens elke stap
46
Inleiding tot Markov ketens
trekken we 1 bal uit elke urne en verwisselen we de getrokken ballen van urne.
Noem Xn de toestand na de n-de stap. Waarom is (Xn )n een Markovketen
en geef de transitiematrix.
Oefening 9.2. Geef de verschillende communicatieklassen voor elk van de
volgende transitiematrices. Bepaal eveneens welke toestanden recurrent zijn
en welke transiënt zijn:




0 0 0 1
1
1
0 2 2
 0 0 0 1 


Q1 = 12 0 12  Q2 = 
 1 1 0 0 
1
1
2
2
0
2
2
0 0 1 0

 1
 1 3

1
0
0
0
0
0
0
2
2
4
4
 1 1 1 0 0 
 1 1 0 0 0 
4
2
4
2
2

 1


1
 Q4 =  0 0 1 0 0 
0
0
0
Q3 = 
2

 2


 0 0 0 1 1 
 0 0 1 2 0 
2
2
3
3
1 0 0 0 0
0 0 0 12 12
Oefening 9.3. Munstuk 1 werp kop met kans 35 . Muntstuk 2 werpt kop met
kans 12 . Een muntstuk wordt continu opgegooid tot het resultaat letter is.
Op dat ogenblik neemt men het andere muntstuk en begint men dat op te
gooien.
1. Hoeveel procent van de worpen gebeurt met munstuk 1.
2. Als we beginnen te werpen met muntstuk 1, wat is dan de kans dat we
met munstuk 2 aan het werpen zijn tijdens de 5de worp.
Oefening 9.4. Bekijk terug de transitiematrix uit voorbeeld 9.4. Hoeveel
procent van de dagen regent het?
Oefening 9.5. Een deeltje verplaatst zich op een cirkel door punten die 0, 1,
2, 3, 4 genummerd zijn (in wijzerszin). Tijdens elke stap heeft het kans p om
wijzerszin te draaien en kansen 1 − p om tegenwijzerszin te draaien. Noem
Xn zijn lokatie op tijdstip n. Het proces {Xn , n ≥ 0} is een Markovketen.
1. Bepaal de transitiematrix.
2. Bereken de limietkansen.
Oefening 9.6 (Examen juni ’03). Gegeven een Markovketen met toestandsruimte E = {0, 1} en transitiematrix
1−α
α
Q=
0 < α, β < 1.
β
1−β
9.6 Oefeningen
47
Diagonaliseer Q en leid hieruit een algemene vorm van Qn af. Toon aan dat
hieruit volgt dat de limietkans gegeven wordt door
π0 =
β
,
α+β
π1 =
α
α+β
48
Inleiding tot Markov ketens
Bijlage A
Goed of fout: bewijzen of
tegenvoorbeelden
Stelling A.1. Bij hoofdstuk 3
Voor X en Y onafhankelijk geldt steeds dat EB (XY ) = EB (X)EB (Y ).
fout. Neem als tegenvoorbeeld X, Y ∼ B(1, p) onafhankelijke bernouillivariabelen. Stel Z = X + Y . Z is dan B(2, p) verdeeld. Neem B = σ(Z).
We krijgen dan dat
E(X|Z = 0) = 0
1
E(X|Z = 1) =
2
E(X|Z = 2) = 1
E(Y |Z = 0) = 0
1
E(Y |Z = 1) =
2
E(Y |Z = 2) = 1
E(XY |Z = 0) = 0
E(XY |Z = 1) = 0
E(XY |Z = 2) = 1
Op (Z = 1) gaat de stelling bijvoorbeeld niet op.
Indien X en Y bovendien onafhankelijk zijn van B, dan klopt de gelijkheid
uit de stelling natuurlijk wel.
50
Goed of fout: bewijzen of tegenvoorbeelden
Bijlage B
Convergentie van RSV’s
Definitie B.1. Veronderstel dat Xn en X RSV’s zijn met verdelingsfuncties
resp. Fn en F .
Lp
1. Xn −→ X, 1 ≤ p ≤ +∞ indien Xn − Xp → 0.
b.z
2. Xn −→ X indien ∀ω ∈
/ N, N verwaarloosbaar, Xn (ω) → X(ω).
P
3. Xn −→ X indien ∀ > 0, P(|Xn − X| > ) → 0.
zwak
4. Xn −→ X indien Fn (x) → F (x), voor elke x waarin F continu is.
Oefening B.1. Toon alle volgende implicaties aan en geef tegenvoorbeelden
voor de pijlen die niet getekend zijn:
+3
L∞
b.z.
Xn −→ X
L2
Xn −→ X
+3
Xn −→ X
L1
Xn −→ X
+3
&
P
Xn −→ X
+3
zwak
Xn −→ X
Oefening B.2. Aan welke convergenties voldoet het rijtje (Xn )n indien de
verdeling van Xn gegeven wordt door
1. P(Xn = 1 − n1 ) = P(Xn = 1 + n1 ) = 12 .
2. P(Xn = n1 ) =
1
, P(Xn
2n
= n) = 1 −
1
.
2n
3. P(Xn = 0) = 1 − n1 , P(Xn = 1) = n1 .
4. P(Xn = 0) = 1 − pn , P(Xn = 1) = pn .
52
Convergentie van RSV’s
Veronderstel bij de vierde opgave dat de (Xn )n onafhankelijk zijn en geef
een nodige en voldoende voorwaarde van de (pn )n zodat (Xn )n bijna zeker
convergeert (resp. in kans).
Oefening B.3 (Criteria voor RSV’s (Xn )n die b.z. convergeren).
1. Bewijs dat indien, ∀ > 0, ∞
n=1 P(|Xn − X| > ) < +∞, dat dan
b.z.
Xn −→ X. Het omgekeerde is enkel waar indien (Xn )n onafhankelijk
is.
b.z.
r
2. Bewijs dat indien, ∃r > 0, ∞
n=1 E(|Xn − X| ) < +∞, dat dan Xn −→
X.
3. Bewijs dat P(supk≥0 |Xn+k − Xn | > ) → 0, ∀ > 0 een nodige en
voldoende voorwaarde is dat de rij (Xn )n bijna zeker convergeert in R.
Oefening B.4 (Convergenties en de operatoren + en ×). Volgende
vragen tonen de overdracht van convergentie aan:
P
P
P
1. Bewijs dat indien Xn −→ X en Yn −→ Y , dan ook Xn + Yn −→ X + Y
P
en Xn Yn −→ XY . Zelfs meer algemeen, voor een continue functie
P
f : R2 → R volgt dan dat f (Xn , Yn ) −→ f (X, Y ).
zwak
zwak
2. Bewijs door een tegenvoorbeeld dat de hypothese Xn −→ X en Yn −→
zwak
Y niet noodzakelijk impliceren dat Xn + Yn −→ X + Y , behalve in de
bijzondere gevallen
zwak
(a) Xn −→ a, (a ∈ R)
(b) Voor elke n zijn Xn en Yn onafhankelijk en X en Y zijn onafhankelijk.
zwak
zwak
3. Verifieer dat indien Xn −→ X, dat dan f (Xn ) −→ f (X) voor alle conzwak
zwak
zwak
tinue f : R → R. In het bijzonder, Xn2 −→ X 2 , Xn+ −→ X + , Xn− −→
X − , . . ..
Oefening B.5. Zij (Yn )n een rij kwadratisch intergreerbare RSV’s zodat
(a) sup E(Yn2 ) < +∞
zwak
(b) Yn −→ X
1. Bewijs dat E(|Y |) < +∞ en dat E(Yn ) → E(Y ).
53
2. Gebruik het vorige en geef een equivalent voor E(|X1, . . . , Xn |) wanneer
n → +∞ waarbij de Xn kwadratisch integreerbare RSV’s zijn met
dezelfde verdeling en bovendien gecentreerd en allen onafhankelijk.
Oefening B.6 (Examen juni ’03). Toon aan door een tegenvoorbeeld dat
zwak
zwak
zwak
als Xn −→ X en Yn −→ Y dit niet noodzakelijk wil zeggen dat Xn + Yn −→
X +Y.
54
Convergentie van RSV’s
Bijlage C
Definieren van nieuwe SV’s aan
de hand van reeds gekende
C.1
Inleiding
Het bepalen van de dichtheidsfunctie van een nieuwe variabele aan de hand
van die van een reeds gekende variabele kan dikwijls eenvoudige gebeuren
door de verdelingsfunctie te nemen, daarmee te jongleren en die dan af te
leiden. Bijvoorbeeld:
Voorbeeld C.1. Gegeven een variabele
√ X, met dichtheidsfunctie fX (x),
bepaal de dichtheidsfunctie f√X (x) van X.
oplossing. (Stel FX en F√X de verdelingsfuncties)
√
F√X (x) = P( X ≤ x) = P(X ≤ x2 ) = FX (x2 ),
dus de dichtheidsfunctie wordt gegeven door
∂ √
∂
F X (x) =
FX (x2 ) = 2xfX (x2 ).
∂x
∂x
Dus indien X een exponentieel
verdeelde vaiabele is met parameter α,
√
dan wordt de dichtheid van X gegeven door
f√X (x) =
2
f√X (x) = 2αxe−αx 1{x≥0} .
Opmerking C.1. Let wel op de condities waaraan de variabelen moeten
voldoen. De wortel nemen kan natuurlijk alleen van een positieve varabele.
Een ander reeds gekend mechanisme om nieuwe variabele te construeren is
door het optellen van variabelen. Dit heet convolutie. De dichtheidsfunctie
van de som van 2 onafhankelijke variabelen wordt bepaald door volgende
rekenregel:
56
Definieren van nieuwe SV’s aan de hand van reeds gekende
Voorbeeld C.2 (convolutieproduct). Indien X en Y 2 onafhankelijke
stochastische variabelen zijn met dichtheidsfuncties fX (x) en fY (x), dan
wordt de dichtheidsfunctie van X + Y gegeven door
fX+Y (x) =
fX (x − t)fY (t) dt.
R
Dus indien Z1 en Z2 exponentieel verdeeld zijn met respectievelijke parameters 1/6 en 1/2, dan hebben Z2 en −Z1 dichtheden
1 x
fZ2 (x) = e− 2 1{x≥0}
2
1 x
f−Z1 (x) = e 6 1{x≤0}
6
Het convolutieproduct geeft dan
+∞
fZ2 (t)f−Z1 (s − t) dt
fZ2 −Z1 (s) =
−∞
+∞
1 −t
1 s−t
e 2 1{t≥0} e 6 1{s−t≤0} dt
=
6
−∞ 2
s +∞
2t
e6
=
e− 3 1{t≥0} 1{t≥s} dt
12 −∞
!+∞
s +∞
s
6
6
e
e − 2t !!
− 2t
3
=
e
dt = − e 3 !
!
12 sup(0,s)
8
t=sup(0,s)
s 2 sup(0, s)
1
}
= exp{ −
8
6
3
1 s
1 s
= e− 2 1{s≥0} + e 6 1{s<0} ,
8
8
de dichtheidsfunctie van X − Y .
Uiteraard bestaat er ook een gelijkaardige regel ook voor discrete verdelingen:
P(X = x)P(Y = s − x)
P(X + Y = s) =
x∈E
C.2
oefeningen
Oefening C.1. Veronderstel X uniform verdeeld op het interval (0, µ) en Y
een exponentieel verdeelde variabele met
√ parameter λ. Bepaal de dichtheidsfuncties van: X 2 , Y 2 , S = X + Y en Y . Bepaal bovendien de verdeling
van (Y, S) en de conditionele dichtheidsfunctie van Y wetende S = s.
Bijlage D
combinatorische gelijkheden
1. Som van een meetkundige reeks
n−1
ak =
k=0
an − 1
a−1
(D.1)
2. Stiefel-Pascal:
n
n−1
n
∀k ≤ n ∈ N :
=
+
.
k
k−1
k
(D.2)
3. Binomaalstelling:
∀n ∈ N : (x + y) =
n
n n
k=0
k
xk y n−k .
4. Gevolgen van de binomiaalstelling:
n n
= 2n
k
k=0
n
k n
= 0
(−1)
k
k=0
5. Afleiden van de binomiaalstelling:
n
n
k
= n2n−1
k
k=0
n
2
k n
k (−1)
= n(n − 1)2n−2 + n2n−1
k
k=0
(D.3)
(D.4)
(D.5)
(D.6)
(D.7)
58
combinatorische gelijkheden
6. Integreren van de binomiaalstelling:
n
n
2n+1 − 1
k
=
k+1
n+1
k=0
7. Multinomaalstelling: Met
n
n1 ,n2 ,...,nt
∀n ∈ N, t ≥ 1 : (x1 + x2 + . . . + xt ) =
n
=
(D.8)
n!
n1 !n2 !···nt !
n
xn1 · · · xnnt .
n1 , n2 , . . . , nt 1
(D.9)
8. Gelijkheid van Vandermonde:
r m+n
m
n
=
r
k
r−k
k=0
9. Gevolg:
n n n
n
n n
2n
=
=
k
n−k
k
k
n
k=0
k=0
(D.10)
(D.11)
10. Andere nuttige gelijkheden:
n n+1
k
=
r+1
r
k=r
n
n n−1
=
k k−1
k
n r
n n−s
=
r
s
s
r−s
(D.12)
(D.13)
(D.14)
Download