Zadania z wykładu (Metody probabilistyczne)

Z PUTWiki
Skocz do: nawigacji, wyszukiwania

Tutaj możemy umieścić treść i rozwiązania zadań rachunkowych z metod probabilistycznych jakie zostały przesłane na maila.

Spis treści

Zestaw 1

Zestaw ten jest związany z zagadnieniami prawdopodobieństwa warunkowego i całkowitego oraz z twierdzeniem Bayes'a.

Zadanie 1

Pewien wyrób pakuje się w opakowaniach po 50 sztuk. Prawdopodobieństwo wystąpienia w opakowaniu sztuk wadliwych wynosi:

Obliczyć prawdopodobieństwo losowego wybrania z opakowania 10 sztuk bez wad.

Rozwiązanie

Oznaczenia:

P(A0) = 0,5
P(A1) = 0,3
P(A2) = 0,2
P(B | A0) = 1
P(B|A_1) = \frac{\frac{49!}{39!}}{\frac{50!}{40!}} = \frac{49! \cdot 40!}{ 39! \cdot 50!} = \frac{49 \cdot 48 \cdot 47 \cdot 46 \cdot 45 \cdot 44 \cdot 43 \cdot 42 \cdot 41 \cdot 40}{50 \cdot 49 \cdot 48 \cdot 47 \cdot 46 \cdot 45 \cdot 44 \cdot 43 \cdot 42 \cdot 41} = \frac{4}{5}
P(B|A_2) = \frac{\frac{48!}{38!}}{\frac{50!}{40!}} = \frac{48! \cdot 40!}{ 38! \cdot 50!} = \frac{48 \cdot 47 \cdot 46 \cdot 45 \cdot 44 \cdot 43 \cdot 42 \cdot 41 \cdot 40 \cdot 39}{50 \cdot 49 \cdot 48 \cdot 47 \cdot 46 \cdot 45 \cdot 44 \cdot 43 \cdot 42 \cdot 41} = \frac{40 \cdot 39}{50 \cdot 49} = \frac{156}{245}

Ze wzoru na prawdopodobieństwo całkowite otrzymujemy:

P(B) = \sum_{i=0}^{2} P(A_i)P(B|A_i) = 0{,}5 \cdot 1 + 0{,}3 \cdot \frac{4}{5} + 0{,}2 \cdot \frac{156}{245} = = \frac{37}{50} + \frac{312}{2450} = \frac{2125}{2450} = \frac{85}{98}

Zadanie 2

Wiadomo, że 96% produkcji pewnego wyrobu spełnia wymagania normy. Stosując uproszczoną kontrolę wyrobu uznaje się sztukę za prawidłową, jeśli spełnia wymagania normy z prawdopodobieństwem 0,98, a za nieprawidłową, jeśli spełnia je z prawdopodobieństwem 0,05. Obliczyć prawdopodobieństwo, że sztuka uznana za prawidłową spełnia wymagania normy oraz prawdopodobieństwo tego, że sztuka uznana za nieprawidłową nie spełnia tych wymagań. Wskazówka: Zastosować uogólniony wzór Bayes'a.

Rozwiązanie

Oznaczenia:

P(A1) = 0,96
P(A2) = 0,04
P(B1 | A1) = 0,98
P(B1 | A2) = 0,02
P(B2 | A2) = 0,95
P(B2 | A1) = 0,05

Zdarzenia B1,B2 tworzą podział przestrzeni Ω możemy wiec użyć uogólnionego wzory Bayes'a.

Prawdopodobieństwo, że sztuka uznana za prawidłową spełnia wymagania normy:

P(A_1|B_1) = \frac{P(A_1)P(B_1|A_1)}{\sum_{i=1}^2 P(A_i)P(B_1|A_i)} =
 = \frac{P(A_1)P(B_1|A_1)}{P(A_1)P(B_1|A_1) + P(A_2)P(B_1|A_2)} =
 = \frac{0{,}96 \cdot 0{,}98}{0{,}96 \cdot 0{,}98 + 0{,}04 \cdot 0{,}02} =
 = \frac{0{,}9408}{0{,}9416} = 0{,}999150382


Prawdopodobieństwo tego, że sztuka uznana za nieprawidłową nie spełnia tych wymagań:

{P(A_2|B_2)} = \frac{P(A_2)P(B_2|A_2)}{\sum_{i=1}^2 P(A_i)P(B_2|A_i)} =
 = \frac{P(A_2)P(B_2|A_2)}{P(A_1)P(B_2|A_1) + P(A_2)P(B_2|A_2)} =
 = \frac{0{,}04 \cdot 0{,}95}{0{,}96 \cdot 0{,}05 + 0{,}04 \cdot 0{,}95} =
 = \frac{0{,}038}{0{,}086} = 0{,}441860465

Zadania studenci

Zadanie 1

W wyniku długotrwałych obserwacji znana jest wariancja pomiarów pewnej wielkości,σ2 = 0,02. Ilu trzeba dokonać pomiarów tej wielkości, aby z prawdopodobieństwem \ge 0{,}99 średnia arytmetyczna otrzymanych wyników różniła się od wartości średniej o  \le 0{,}1?

Rozwiązanie

M_n = {1 \over n} \sum_{i=1}^nX_i - pomocnicza zmienna losowa wyrażająca średnią arytmetyczną wyników pomiarów
mn = E(Mn) - wartość średnia wyników pomiarów
\forall_{1 \le i \le n} D^2(X_i) = \sigma^2 - wariancja jednego pomiaru
Z nierówności Czebyszewa wiemy, że:
P(|M_n - m_n| \ge \mathcal{E}) \le {{D^2(M_n)} \over {\mathcal{E}^2}}
Obliczamy brakującą wariancję:
D^2(M_n) = D^2\left({1 \over n} \sum_{i=1}^n X_i\right) = {1 \over {n^2}}\sum_{i=1}^n D^2(X_i) = {\sigma^2 \over n}
Po podstawieniu do nierówności:
P(|M_n - m_n| \ge \mathcal{E}) \le {\sigma^2 \over {n {\mathcal{E}^2}}}
Jako, że interesuje nas odwrona nierówność bierzemy dopełnienie prawdopodobieństwa:
P(|M_n - m_n| < \mathcal{E}) \ge 1 - {\sigma^2 \over {n {\mathcal{E}^2}}}
Z treści zadania wiemy, że dla \mathcal{E} = 0{,}1:
P(|M_n - m_n| < \mathcal{E}) \ge 0{,}99
Po podstawieniu:
1 - {\sigma^2 \over {n {\mathcal{E}^2}}} = 0{,}99
Po podstawieniu reszty zmiennych i przekształceniach uzyskujemy:
n = 200
Z czego wynika, że trzeba dokonać co najmniej 200 pomiarów

Zadanie 2

Rozpatrzmy dwukrotny rzut monetą. Niech zmienna losowa X charakteryzuje rzut pierwszy, a zmienna losowa Y - rzut drugi. Sprawdzić, czy te zmienne losowe są niezależne.

Rozwiązanie

Mamy dwie zmienne losowe X i Y typu skokowego. Niech X(„Orzeł”)=Y(„Orzeł”)=1 i X(„Reszka”)=Y(„Reszka”)=0. Z natury rzutu monetą prawdopodobieństwo pojawienia się każdego ze zdarzeń dla pojedynczego rzutu jest równe i wynosi 0.5. Czyli P(X=0)=P(X=1)=P(Y=0)=P(Y=1)=0.5. Dla łącznej zmiennej losowej (X,Y) prawdopodobieństwo wypadnięcia każdego z czterech zdarzeń także jest równe i wynosi 0.25. Czyli P(X=0,Y=0)=P(X=1,Y=0)=P(X=0,Y=1)=P(X=1,Y=1)=0.25. Z definicji niezależności zmiennych losowych typu skokowego wynika, że:
\forall_{i,k} p_{ik}=p_{i\bullet}p_{\bullet k}
Gdzie rozkłady brzegowe definiowane są jako:
p_{i\bullet} = P(X=x_i) = \sum_kp_{ik}
p_{\bullet k} = P(Y=y_k) = \sum_ip_{ik}
W naszym przypadku:
p_{0\bullet} = p_{1\bullet} = 0{,}25 + 0{,}25 = 0{,}5
p_{\bullet0} = p_{\bullet1} = 0{,}25 + 0{,}25 = 0{,}5
Wiemy, że:
\forall_{i,k} p_{ik}=0{,}25
więc spełniona jest zależność:
\forall_{i,k} p_{ik}=p_{i\bullet}p_{\bullet k}

Zadanie 3

Niech (X,Y) będzie zmienną losową o łącznej funkcji gęstości f (x, y) = 0{,}5 \sin(x+y),\ 0 \le x,\ y \le \frac{\pi}{2}. Wyznaczyć E(X),\ E(Y) oraz macierz korelacyjną.

Rozwiązanie

Trzeba po prostu policzyć odpowiednie całki, czego nie chce mi sie tu klepać, należy pamiętać, że:
- ponieważ f(x,y) = f(y,x) to E(X) = E(Y), podobnie K11 = K22 i K12 = K21
- ponieważ poza przedziałem [0;\frac{\pi}{2}] f(x,y) = 0 (por. Uwaga 1) to całki oznaczone na przedziale (-\infty;+\infty) są równe całkom oznaczonym na przedziale [0;\frac{\pi}{2}]
Jakby ktoś miał wątpliwości co do podstawien do wzoru:
E(X)=\int_0^{\frac{\pi}{2}}\int_0^{\frac{\pi}{2}}x \cdot f(x,y) \cdot dy \cdot dx=\int_0^{\frac{\pi}{2}}\int_0^{\frac{\pi}{2}}x \cdot 0{,}5 \sin(x+y) \cdot dy \cdot dx=0{,}5 \cdot \int_0^{\frac{\pi}{2}}x \cdot \int_0^{\frac{\pi}{2}} \sin(x+y) \cdot dy \cdot dx
K_{11}=K_{22}=\int_0^{\frac{\pi}{2}}\int_0^{\frac{\pi}{2}}(x-E(X))^2 \cdot f(x,y) \cdot dy \cdot dx
K_{12}=K_{21}=\int_0^{\frac{\pi}{2}}\int_0^{\frac{\pi}{2}}(x-E(X)) \cdot (y-E(Y)) \cdot f(x,y) \cdot dy \cdot dx

Zadanie 4

W pewnym urządzeniu trzeba przeciętnie 7 razy w roku (~7000 h pracy) wymieniać pewien podzespół. Zakładając, że liczba wymian tego podzespołu w danym okresie ma rozkład Poissona, wyznaczyć prawdop. tego, że konieczność wymiany podzespołu nastąpi po 10, 100 i 1000 godzinach pracy.

Rozwiązanie

Mamy tu do czynienia z procesem losowym, dla którego prawdopodobieństwo dla realizacja w danej chwili t wynosi:
P(X(t) = k) = {{\lambda_t^k} \over {k!}}e^{-\lambda_t}
prawdopodobieństwo wymiany wynosi p = {7 \over 7000} = 0{,}001. Z zależności pomiędzy rozkładem Bernouliego a rozkładem Poissona (ponieważ rozpatrujemy n \ge 10) wiemy, że λ = np. Możemy wiec policzyć λt odpowiednio dla t = 10, 100 i 1000 korzystając z zależnosci E(X(t)) = λt dla rozkladu Poissona:
E(X(1000)) = \lambda_{1000} = 0{,}001 \cdot 1000 = 1
E(X(100)) = \lambda_{100} = 0{,}001 \cdot 100 = 0{,}1
E(X(10)) = \lambda_{10} = 0{,}001 \cdot 10 = 0{,}01
W ten sposób mozemy policzyć prawdopodobieństwo niezawodności przez zadany okres P(X(t) = 0):
P(X(1000) = 0) = {{\lambda_{1000}^0} \over {0!}}e^{-\lambda_{1000}} = e^{-1} \approx 37%
P(X(100) = 0) = {{\lambda_{100}^0} \over {0!}}e^{-\lambda_{100}} = e^{-0{,}1} \approx 91%
P(X(10) = 0) = {{\lambda_{10}^0} \over {0!}}e^{-\lambda_{10}} = e^{-0{,}01} \approx 99%

Zadanie 5

Długość pewnego detalu produkowanego w pewnym automacie jest zmienną losową o rozkładzie N(20,\ 0{,}2). Jaki procent sztuk tego detalu będzie miał długość zawartą między 19,9 i 20,3?

Rozwiązanie

Zmienna losowa X charakteryzująca długość ma rozkład normalny – N(20,0.2). Wprowadźmy sobie zmienną losową Y={ {X-20} \over {0{,}2} }, która ma rozkład N(0,1) i niech F(y) będzie dystrybuantą tej zmiennej – jej wartości można odczytać z tablic.
P(X \le 20.3) = P(Y \le 1.5) = F(1.5)
P(X<19.9) = P(Y < -0.5) = 1-P(Y \ge -0.5)
Tak się szczęśliwie składa, że funkcja gęstości rozkładu N(0,1) jest symetryczna względem osi OY, zatem prawdopodobieństwo, że zmienna losowa wpadnie w obszar powyżej -0.5 jest identyczne z prawdopodobieństwem, że zmienna wpadnie w obszar poniżej 0.5, co znaczy, że P(Y \ge -0.5)=P(Y \le 0.5).
P(X<19.9) = 1-P(Y \le 0.5) = 1-F(0.5)
P(19.9 \le X \le 20.3) = P(X \le 20.3)-P(X<19.9) = F(1.5)-[1-F(0.5)] = F(1.5)+F(0.5)-1
Wartości F(1.5) i F(0.5) można odczytać z tablic.

Zadania styczeń

Zadanie 1

W wyniku długotrwałych obserwacji znana jest wariancja pomiarów pewnej wielkości, σ2 = 0,02. Zakładając, że rozkład mierzonej wielkości jest normalny, wyznaczyć minimalną liczbę pomiarów zapewniającą, że średnia arytmetyczna otrzymanych wyników będzie różniła się od wartości średniej o \le 0{,}1 z prawdopodobieństwem \ge 0{,}99?

Rozwiązanie

Poniższe rozwiązanie nie jest uważane za pewne. Jednak treść zadania sugeruje, że nie trzeba korzystać z nierówności Czebyszewa.

d = 0.1
p = 0.99
\sigma = \sqrt{\sigma^2}=\sqrt{0,02}
p = 1 − α czyli
α = 0.01
F(y_{\frac{\alpha}{2}})=1-\frac{\alpha}{2}czyli
y_{\frac{\alpha}{2}} = 2.58 - (wartość odczytana z tablic N(0,1))
n=\left(\frac{y_{\frac{\alpha}{2}}\sigma}{d}\right)^2

Po podstawieniu

n = 13.3128

Czyli minimalna liczba pomiarów wynosi 14.

Zadanie 2

Wykazać, że estymator M_{n} =  \frac{1}{n} \sum_{i=1}^{n}X_i jest estymatorem najefektywniejszym wartości średniej m cechy X (w) populacji generalnej o rozkładzie: a) dwumianowym, b) Poissona.

Rozwiązanie

Niezależnie od rozkładu jest to estymator nieobciążony gdyż:

E(M_n) = {1 \over n} \sum_{i=1}^nE(X_i) = {n \cdot m \over n} = m

spełniony jest wiec podstawowy warunek. Ponadto aby estymator był estymatorem najefektywniejszym jego wariancja musi przyjmować wartość minimalną. aby to sprawdzić nalezy porównać wariancję liczoną z definicji z prawą stroną nierówności Rao-Cramera.

b) dla rozkładu Poissona

E(X) = m = λ
p_i(\lambda) = {{\lambda^ke^{-\lambda}} \over {k!}}
\ln p_i(\lambda) = \ln {{\lambda^ke^{-\lambda}} \over {k!}}
lnpi(λ) = lnλk + lne − λ − lnk!
lnpi(λ) = klnλ − λ − lnk!
{{d\ln p_i(\lambda)} \over {d\lambda}} = {k \over \lambda} - 1 = {{k- \lambda} \over \lambda}

Podstawiając to do prawej strony nierówności Rao-Cramera

{1 \over {nE \left \{ { {(k-\lambda)^2} \over \lambda^2} \right \} }} = {1 \over {{n \over \lambda^2}E \left \{ { {(k-\lambda)^2} } \right \} }} = {1 \over {{n \over \lambda^2}\sigma^2 }} = {1 \over {{n \over \lambda^2}\lambda }} = {\lambda \over n}

a ponieważ

D^2(M_n) = D^2\left ( {1 \over n}\sum_{i=1}^nX_i \right ) = {1 \over n^2}\sum_{i=1}^nD^2(X_i) = {{n\lambda} \over n^2} = {\lambda \over n}

jest to najefektywniejszy estymator.

Zadanie 3

Zbadać własności estymatora wariancji cechy X w populacji generalnej, w której wartość średnia m jest znana, danego wzorem: S_{n}^{2}=  \frac{1}{n} \sum_{i=1}^{n} \left(X_i - m \right)^{2} .

Osobiste
Przestrzenie nazw
Warianty
Działania
Nawigacja
Narzędzia