13 Fatti sulla disuguaglianza di Chebyshev e sul teorema del limite centrale


Nella teoria della probabilità il La disuguaglianza di Chebyshev & teorema limite centrale si occupano delle situazioni in cui vogliamo trovare la distribuzione di probabilità della somma di un gran numero di variabili casuali in condizioni approssimativamente normali, Prima di guardare i teoremi limite vediamo alcune delle disuguaglianze, che fornisce i limiti per le probabilità se il si conoscono media e varianza.

Tabella dei Contenuti

La disuguaglianza di Markov

La disuguaglianza di Markov per la variabile casuale X che assume solo valore positivo per a>0 è

[latex]P\{X \geq a\} \leq \frac{E[X]}{a}[/latex]

per dimostrare questo per a>0 considerare

[latex]I=\left\{\begin{array}{ll}
1 & \text { se } X \geq a \\
0 & \text { altrimenti }
\end{array}\right.[/latex]

Dal

[lattice]X \geq 0 \\

\\ I \leq \frac{X}{a}[/latex]

ora prendendo le aspettative di questa disuguaglianza otteniamo

[latex]E[I] \leq \frac{E[X]}{a}[/latex]

il motivo è

[latex]E[I]=P\{X \geq a\}[/latex]

che dà la disuguaglianza di Markov per a>0 come

[latex]P\{X \geq a\} \leq \frac{E[X]}{a}[/latex]

La disuguaglianza di Chebyshev

    Per il finito media e varianza della variabile casuale X la disuguaglianza di Chebyshev per k>0 è

[latex]P(|X-\mu| \geq k\} \leq \frac{\sigma^{2}}{k^{2}}[/latex]

dove sigma e mu rappresentano la varianza e la media della variabile casuale, per dimostrarlo usiamo il La disuguaglianza di Markov come variabile casuale non negativa negative

[latex](X-\mu)^{2}[/latex]

per il valore di a come quadrato costante, quindi

[latex]P\left\{(X-\mu)^{2} \geq k^{2}\right\} \leq \frac{E\left[(X-\mu)^{2}\right ]}{k^{2}}[/latex]

questa equazione è equivalente a

[latex]P(|X-\mu| \geq k\} \leq \frac{E\left[(X-\mu)^{2}\right]}{k^{2}}=\frac{ \sigma^{2}}{k^{2}}[/latex]

come chiaramente

[latex](X-\mu)^{2} \equiv k^{2} \text{se e solo se} |X-\mu| \geq k[/latex]

Esempi di disuguaglianze di Markov e Chebyshev :

  1. Se la produzione di un determinato articolo viene presa come variabile casuale per la settimana con media 50 , trova la probabilità di produzione superiore a 75 in una settimana e quale sarebbe la probabilità se la produzione di una settimana è compresa tra 40 e 60 fornita la varianza per quella la settimana è 25?

Soluzione: Consideriamo la variabile casuale X per la produzione dell'articolo per una settimana quindi per trovare la probabilità di produzione superiore a 75 useremo La disuguaglianza di Markov as

[latex]P(X>75\} \leq \frac{E[X]}{75}=\frac{50}{75}=\frac{2}{3}[/latex]

Ora useremo la probabilità per la produzione tra 40 e 60 con varianza 25 La disuguaglianza di Chebyshev as

[lattice]P\{|X-50| \geq 10\} \leq \frac{\sigma^{2}}{10^{2}}=\frac{1}{4}[/latex]

so

[latex]P\{|X-50|<10\} \geq 1-\frac{1}{4}=\frac{3}{4} [/latex]

questo mostra che la probabilità per la settimana se la produzione è compresa tra 40 e 60 è 3/4.

2. Mostra che il la disuguaglianza di Chebyshev che fornisce un limite superiore alla probabilità non è particolarmente vicino al valore effettivo della probabilità.

Soluzione:

Si consideri che la variabile casuale X è distribuita uniformemente con media 5 e varianza 25/3 sull'intervallo (0,1) quindi per la disuguaglianza di Chebyshev possiamo scrivere

[latex]P(|X-5|>4\} \leq \frac{25}{3(16)} \approssimativamente 0.52[/latex]

ma la probabilità effettiva sarà

[latex]P(|X-5|>4\}=0.20[/latex]

che è lontano dalla probabilità effettiva allo stesso modo se prendiamo la variabile casuale X come distribuita normalmente con media e varianza allora La disuguaglianza di Chebyshev sarà

[latex]P\{|X-\mu|>2 \sigma\} \leq \frac{1}{4}[/latex]

ma la probabilità effettiva è

[latex]P(|X-\mu|>2 \sigma\}=P\sinistra\{\sinistra|\frac{X-\mu}{\sigma}\destra|>2\destra\}=2[ 1-\Phi(2)] \circa 0.0456
[/lattice]

Legge debole dei grandi numeri

La legge debole per la successione delle variabili casuali sarà seguita dal risultato che La disuguaglianza di Chebyshev può essere utilizzato come strumento per le prove, ad esempio per dimostrare

[latex]P\{X=E[X]\}=1[/latex]

se la varianza è zero cioè le uniche variabili casuali con varianze uguali a 0 sono quelle che sono costanti con probabilità 1 quindi per La disuguaglianza di Chebyshev per n maggiore o uguale a 1

[latex]P\sinistra\{|X-\mu|>\frac{1}{n}\destra\}=0[/latex]

as

[latex]n \rightarrow \infty[/latex]

per la continuità della probabilità

[lattice]\begin{allineato}
0=\lim _{n \rightarrow \infty} P\left\{|X-\mu|>\frac{1}{n}\right\} &=P\left\{\lim _{n \rightarrow \infty}\left\{|X-\mu|>\frac{1}{n}\right\}\right\} \\
&=P\{X \neq \mu\}
\end{aligned}[/latex]

che prova il risultato.

Legge debole dei grandi numeri: Per la sequenza di variabili casuali identicamente distribuite e indipendenti X1,X2,……. ciascuno dei quali avente la media finita E[Xi]=μ, quindi per qualsiasi ε>0

[latex]P\sinistra\{\sinistra|\frac{X_{1}+\cdots+X_{n}}{n}-\mu\right| \geq \varepsilon\right\} \rightarrow 0 \quad \text { come } \quad n \rightarrow \infty[/latex]

per dimostrarlo assumiamo che anche la varianza sia finita per ogni variabile casuale nella sequenza, quindi l'aspettativa e la varianza

[latex]E\left[\frac{X_{1}+\cdots+X_{n}}{n}\right]=\mu \quad \text { e } \quad \operatorname{Var}\left(\ frac{X_{1}+\cdots+X_{n}}{n}\right)=\frac{\sigma^{2}}{n}[/latex]

ora dal La disuguaglianza di Chebyshev il limite superiore della probabilità come

[latex]P\sinistra\{\sinistra|\frac{X_{1}+\cdots+X_{n}}{n}-\mu\right| \geq \varepsilon\right\} \leq \frac{\sigma^{2}}{n \varepsilon^{2}}[/latex]

che per n tendente all'infinito sarà

[latex]P\sinistra\{\sinistra|\frac{X_{1}+\cdots+X_{n}}{n}-\mu\right| \geq \varepsilon\right\} \rightarrow 0 \quad \text { come } \quad n \rightarrow \infty[/latex]

Teorema del limite centrale

teorema del limite centrale è uno dei risultati importanti nella teoria della probabilità in quanto dà la distribuzione alla somma di grandi numeri che è approssimativamente normale distribuzione oltre al metodo per trovare le probabilità approssimate per somme di variabili casuali indipendenti il ​​teorema del limite centrale mostra anche le frequenze empiriche di tante popolazioni naturali mostrano curve normali a campana, Prima di dare la spiegazione dettagliata di questo teorema usiamo il risultato

“Se la sequenza di variabili casuali Z1,Z2,…. hanno la funzione di distribuzione e la funzione di generazione dei momenti come FZn e Mzn poi

[latex]M_{Z_{n}}(t) \rightarrow M_{Z}(t) \text{ per tutte le t, quindi } F_{Z_{n}}(t) \rightarrow F_{Z}(t) \text{ per tutti i t in cui } F_{Z}(t) \text{è continuo”}[/latex]

Teorema del limite centrale: Per la sequenza di variabili casuali identicamente distribuite e indipendenti X1,X2,……. ciascuno dei quali avente la media μ e varianza σ2 quindi la distribuzione della somma

[latex]\frac{X_{1}+\cdots+X_{n}-n \mu}{\sigma \sqrt{n}}[/latex]

tende alla normale standard poiché n tende all'infinito perché a siano valori reali

[latex]P\left\{\frac{X_{1}+\cdots+X_{n}-n \mu}{\sigma \sqrt{n}} \leq a\right\} \rightarrow \frac{1 }{\sqrt{2 \pi}} \int_{-\infty}^{a} e^{-x^{2} / 2} dx \quad \text { as } n \rightarrow \infty[/latex]

Dimostrazione: Per dimostrare il risultato si consideri la media uguale a zero e la varianza uno ie μ=0 & σ2=1 e il funzione generatrice di momenti per Xi esiste e ha un valore finito quindi la funzione generatrice dei momenti per la variabile casuale Xi/√n sarà

[latex]E\left[\exp \left\{\frac{t X_{i}}{\sqrt{n}}\right\}\right]=M\left(\frac{t}{\sqrt{ n}}\right)[/latex]

e quindi la funzione generatrice dei momenti per la somma Xi/√n sarà

[latex]\left[M\left(\frac{L}{\sqrt{n}}\right)\right]^{n} [/latex]

Prendiamo ora L(t)=logM(t)

so

[lattice]\begin{allineato}
L(0) &=0 \\
L^{\prime}(0) &=\frac{M^{\prime}(0)}{M(0)} \\
&=\mu \\
&=0 \\
L^{\prime \prime}(0) &=\frac{M(0) M^{\prime \prime}(0)-\sinistra[M^{\prime}(0)\destra]^{2 }}{[M(0)]^{2}} \\
&=E\sinistra[X^{2}\destra] \\
&=1
\end{aligned}[/latex]

per mostrare la prova che mostriamo per prima

[latex][M(t / \sqrt{n})]^{n} \rightarrow e^{2^{2} / 2} \text{ as }n \rightarrow \infty[/latex]

mostrando la sua forma equivalente

[latex]n L(t / \sqrt{n}) \rightarrow t^{2} / 2[/latex]

da

[lattice]\begin{allineato}
\lim _{n \rightarrow \infty} \frac{L(t / \sqrt{n})}{n^{-1}}&=\lim _{n \rightarrow \infty} \frac{-L^ {\prime}(t / \sqrt{n}) n^{-3 / 2} t}{-2 n^{-2}} \quad \text{secondo la regola di L'Hôpital }\\
&=\lim _{n \rightarrow \infty}\left[\frac{L^{\prime}(t / \sqrt{n}) t}{2 n^{-1 / 2}}\right] \ \
&=\lim _{n \rightarrow \infty}\left[\frac{-L^{\prime \prime}(t / \sqrt{n}) n^{-3 / 2} t^{2}} {-2 n^{-3 / 2}}\right] \quad \text{ sempre secondo la regola di L'Hôpital }\\
&=\lim _{n \rightarrow \infty}\left[L^{\prime \prime}\left(\frac{t}{\sqrt{n}}\right) \frac{t^{2}} {2}\destra] \\
&=\frac{t^{2}}{2}\end{aligned}[/latex]

quindi questo mostra il risultato per lo zero medio e la varianza 1, e questo stesso risultato segue per il caso generale anche prendendo

[latex]X_{i}^{*}=\sinistra(X_{i}-\mu\destra) / \sigma[/latex]

e per ogni a abbiamo

[latex]P\left\{\frac{X_{1}+\cdots+X_{n}-n \mu}{\sigma \sqrt{n}} \leq a\right\} \rightarrow \Phi(a )[/lattice]

Esempio del teorema del limite centrale

Per calcolare la distanza in anni luce di una stella dal laboratorio di un astronomo, sta usando alcune tecniche di misurazione ma a causa del cambiamento nell'atmosfera ogni volta che la distanza misurata non è esatta ma con qualche errore così per trovare la distanza esatta che intende per osservare continuamente in sequenza e la media di queste distanze come distanza stimata, se si considerano i valori di misura identicamente distribuiti e variabile aleatoria indipendente con media d e varianza 4 anni luce, trovare il numero di misure da fare per ottenere l'errore 0.5 nel valore stimato ed effettivo?

Soluzione: Consideriamo le misurazioni come variabili casuali indipendenti nella sequenza X1,X2,…….Xn così dal Teorema del limite centrale possiamo scrivere

[latex]Z_{n}=\frac{\sum_{i=1}^{n} X_{i}-nd}{2 \sqrt{n}}[/latex]

che è l'approssimazione in standard distribuzione normale quindi la probabilità sarà

[latex]\sinistra.\begin{array}{rl}
P\sinistra\{-0.5 \leq \frac{\sum_{i=1}^{n} X_{i}}{n}-d \leq 0.5\destra.
\end{array}\right\}=P\sinistra\{-0.5 \frac{\sqrt{n}}{2} \leq Z_{n} \leq 0.5 \frac{\sqrt{n}}{2} \right\} \approssimativamente \Phi\left(\frac{\sqrt{n}}{4}\right)-\Phi\left(\frac{-\sqrt{n}}{4}\right)=2 \Phi\left(\frac{\sqrt{n}}{4}\right)-1[/latex]

quindi per ottenere la precisione della misurazione al 95% l'astronomo dovrebbe misurare n* distanze dove distance

[latex]2 \Phi\left(\frac{\sqrt{n^{*}}}{4}\right)-1=0.95 \quad \text { o } \quad \Phi\left(\frac{\ sqrt{n^{*}}}{4}\right)=0.975[/latex]

quindi dalla normale tabella di distribuzione possiamo scriverlo come

[latex]\frac{\sqrt{n^{*}}}{4}=1.96 \quad \text { o } \quad n^{*}=(7.84)^{2} \approssimativamente 61.47[/latex]

che dice che la misurazione dovrebbe essere eseguita per il numero 62 di volte, questo può essere osservato anche con l'aiuto di La disuguaglianza di Chebyshev prendendo

[latex]E\left[\sum_{i=1}^{n} \frac{X_{i}}{n}\right]=d \quad \operatorname{Var}\left(\sum_{i=1 }^{n} \frac{X_{i}}{n}\right)=\frac{4}{n}[/latex]

quindi la disuguaglianza risulta in

[latex]P\sinistra\{\sinistra|\sum_{i=1}^{n} \frac{X_{i}}{n}-d\right|>0.5\right\} \leq \frac{4 }{n(0.5)^{2}}=\frac{16}{n} [/latex]

quindi per n=16/0.05=320 che dà la certezza che ci sarà solo lo 5 percento di errore nella misurazione della distanza della stella dal laboratorio di osservazione.

2. Il numero di studenti ammessi al corso di ingegneria è Poisson distribuito con media 100, si è deciso che se gli studenti ammessi sono 120 o più l'insegnamento sarà in due sezioni altrimenti in una sola sezione, quale sarà la probabilità che si essere due sezioni per il corso?

Soluzione: Seguendo la distribuzione di Poisson la soluzione esatta sarà

[latex]e^{-100} \sum_{i=120}^{\infty} \frac{(100)^{i}}{i !} [/latex]

che ovviamente non dà il particolare valore numerico, Se consideriamo la variabile casuale X come gli studenti ammessi allora dal by teorema del limite centrale

[latex]P\{X \geq 120\}=P\{X \cong 119.5\} [/latex]

quale può essere

[latex]\begin{array}{l}
=P\sinistra\{\frac{X-100}{\sqrt{100}} \geq \frac{119.5-100}{\sqrt{100}}\destra\} \\
\circa 1-\Phi(1.95) \\
\ circa 0.0256
\end{array} [/latex]

che è il valore numerico.

3. Calcolare la probabilità che la somma dei dieci dadi lanciati sia compresa tra 30 e 40 inclusi 30 e 40?

Soluzione: qui considerando il dado come Xi per dieci valori di i. la media e la varianza saranno

[latex]E\left(X_{i}\right)=\frac{7}{2}, \quad \operatorname{Var}\left(X_{i}\right)=E\left[X_{i} ^{2}\destra]-\sinistra(E\sinistra[X_{i}\destra]\destra)^{2}=\frac{35}{12} [/latex]

così seguendo il teorema del limite centrale possiamo scrivere

[lattice]\begin{allineato}
P[29.5 \leq X \leq 40.5\} &=P\left\{\frac{29.5-35}{\sqrt{\frac{350}{12}}} \leq \frac{X-35}{\ sqrt{\frac{350}{12}}} \leq \frac{40.5-35}{\sqrt{\frac{350}{12}}}\right\} \\
& \circa 2 \Phi(1.0184)-1 \\
& \circa 0.692
\end{allineato} [/latex]

che è la probabilità richiesta.

4. Per le variabili casuali indipendenti uniformemente distribuite Xi sull'intervallo (0,1) quale sarà l'approssimazione della probabilità

[latex]P\sinistra\{\sum_{i=1}^{10} X_{i}>6\destra\} [/latex]

Soluzione: Dalla distribuzione Unifrom sappiamo che la media e la varianza saranno

[latex]E\left[X_{i}\right]=\frac{1}{2} \qquad \operatorname{Var}\left(X_{i}\right)=\frac{1}{12} [ /lattice]

Ora usando il teorema del limite centrale noi possiamo

[lattice]\begin{allineato}
P\left\{\sum_{1}^{10} X_{i}>6\right\} &=P\left\{\frac{\sum_{1}^{10} X_{i}-5}{\sqrt{10\left(\frac{1}{12}\right)}}>\frac{6-5}{\sqrt{10\left(\frac{1}{12}\right)}}\right\} \\
& \circa 1-\Phi(\sqrt{1.2}) \\
& \circa 0.1367
\end{allineato} [/latex]

quindi la sommatoria della variabile casuale sarà del 14%.

5. Trovare la probabilità che il valutatore dell'esame dia un voto sarà di 25 esami in partenza 450 min se ci sono 50 esami il cui tempo di valutazione è indipendente con media 20 min e deviazione standard 4 min.

Soluzione: considerare il tempo necessario per valutare l'esame in base alla variabile casuale Xi quindi la variabile casuale X sarà

[latex]X=\sum_{i=1}^{25} X_{i} [/latex]

poiché questo compito per l'esame 25 è entro 450 minuti quindi

[latex]P\{X \leq 450\} [/latex]

[latex]E[X]=\sum_{i=1}^{25} E\left[X_{i}\right]=25(20)=500[/latex]

[latex]\nomeoperatore{Var}(X)=\sum_{i=1}^{25}\\
\nomeoperatore{Var}\left(X_{i}\right)=25(16)=400[/latex]

qui usando il teorema del limite centrale

[lattice]\begin{allineato}
P[X \leq 450\} &=P\left(\frac{X-500}{\sqrt{400}} \leq \frac{450-500}{\sqrt{400}}\right) \\
& \approssimativamente P(Z \leq-2.5\} \\
&=P(Z \geq 2.5\} \\
&=1-\Phi(2.5)=0.006
\end{aligned}[/latex]

che è la probabilità richiesta.

Teorema del limite centrale per variabili casuali indipendenti

Per la sequenza che non è distribuita identicamente ma che ha variabili casuali indipendenti X1,X2,……. ciascuno dei quali avente media μ e varianza σ2 purché soddisfi

  1. ogni Xi è uniformemente limitato
  2. la somma delle varianze è infinita, allora

[latex]P\left\{\frac{\sum_{i=1}^{n}\left(X_{i}-\mu_{i}\right)}{\sqrt{\sum_{i=1} ^{n} \sigma_{i}^{2}}} \simeq a\right\} \rightarrow \Phi(a) \quad \text { as } n \rightarrow \infty[/latex]

Legge forte dei grandi numeri

La legge forte dei grandi numeri è un concetto molto cruciale della teoria della probabilità che afferma che la media della sequenza di variabili casuali comunemente distribuite con probabilità uno convergerà alla media di quella stessa distribuzione

dichiarazione: Per la sequenza di identico distribuito e variabili casuali indipendenti X1,X2,……. ciascuno dei quali avente la media finita con probabilità uno allora

[latex]\frac{X_{1}+X_{2}+\cdots+X_{n}}{n} \rightarrow \mu \quad \text { as } \quad n \rightarrow \infty^{\dagger} [/lattice]

Dimostrazione: Per dimostrare questo si consideri che la media di ciascuna delle variabili casuali è zero e la serie

[latex]S_{n}=\sum_{i=1}^{n} X_{i}[/latex]

ora per questo considera il potere di questo come

[lattice]\begin{allineato}
E\left[S_{n}^{4}\right]=& E\left[\left(X_{1}+\cdots+X_{n}\right)\left(X_{1}+\cdots+ X_{n}\destra)\destra.\\
&\sinistra.\volte\sinistra(X_{1}+\cdots+X_{n}\right)\left(X_{1}+\cdots+X_{n}\right)\right]
\end{aligned}[/latex]

dopo aver preso lo sviluppo dei termini di destra si hanno i termini della forma

[latex]X_{i}^{4}, \quad X_{i}^{3} X_{j}, \quad X_{i}^{2} X_{j}^{2}, \quad X_{ i}^{2} X_{j} X_{k}, \quad \quad X_{i} X_{j} X_{k} X_{l}[/latex]

poiché questi sono indipendenti quindi la media di questi sarà

[lattice]\begin{allineato}
E\sinistra[X_{i}^{3} X_{j}\destra] &=E\sinistra[X_{i}^{3}\destra] E\sinistra[X_{j}\destra]=0 \ \
E\sinistra[X_{i}^{2} X_{j} X_{k}\destra] &=E\sinistra[X_{i}^{2}\destra] E\sinistra[X_{j}\destra ] E\sinistra[X_{k}\destra]=0 \\
E\sinistra[X_{i} X_{j} X_{k} X_{l}\destra] &=0 \\
\end{aligned}[/latex]

con l'aiuto della combinazione della coppia l'espansione della serie ora sarà

[lattice]\begin{allineato}
E\sinistra[S_{n}^{4}\destra] &=n E\sinistra[X_{i}^{4}\destra]+6\sinistra(\begin{array}{l}
n \\
2
\end{array}\right) E\left[X_{i}^{2} X_{j}^{2}\right] \\
&=n K+3 n(n-1) E\sinistra[X_{i}^{2}\destra] E\sinistra[X_{j}^{2}\destra]
\end{aligned}[/latex]

da

[latex]0 \leq \operatorname{Var}\left(X_{i}^{2}\right)=E\left[X_{i}^{4}\right]-\left(E\left[X_{i}^{2}\right]\right)^{2}[/latex]

so

[latex]\left(E\left[X_{i}^{2}\right]\right)^{2} \leq E\left[X_{i}^{4}\right]=K[/latex ]

otteniamo

[latex]E\sinistra[S_{n}^{4}\destra] \leq n K+3 n(n-1) K[/latex]

questo suggerisce la disuguaglianza

[latex]E\left[\frac{S_{n}^{4}}{n^{4}}\right] \leq \frac{K}{n^{3}}+\frac{3 K} {n^{2}}[/latex]

quindi

[latex]E\left[\sum_{n=1}^{\infty} \frac{s_{n}^{4}}{n^{4}}\right]=\sum_{n=1}^{\infty} E\left[\frac{s_{n}^{4}}{n^{4}}\right]<\infty[/latex]

Per la convergenza della serie poiché la probabilità di ciascuna variabile casuale è uno così

[latex]\lim _{n \rightarrow \infty} \frac{S_{n}^{4}}{n^{4}}=0[/latex]

da

[latex]\frac{S_{n}}{n} \rightarrow 0 \quad \text { come } \quad n \rightarrow \infty[/latex]

se la media di ogni variabile casuale non è uguale a zero allora con deviazione e probabilità uno possiamo scriverla come

[latex]\lim _{n \rightarrow \infty} \sum_{i=1}^{n} \frac{\left(X_{i}-\mu\right)}{n}=0[/latex]

or

[latex]\lim _{n \rightarrow \infty} \sum_{i=1}^{n} \frac{X_{i}}{n}=\mu[/latex]

quale risultato richiesto.

Disuguaglianza di Chebyshev unilaterale

La disuguaglianza di Chebysheve unilaterale per la variabile casuale X con media zero e varianza finita se a>0 è

La disuguaglianza di Chebyshev
disuguaglianza di chebyshev

per dimostrarlo si consideri per b>0 sia la variabile casuale X come

[latex]X \geq a \text{ equivale a } X+b \geq a+b[/latex]

che dà

[latex]P[X \geq a]=P[X+b \geq a+b]\\
\leq P[(X+b)^{2} \geq (a+b)^{2}]
[/lattice]

quindi usando il La disuguaglianza di Markov

La disuguaglianza di Chebyshev
un lato chebyshev

che dà la disuguaglianza richiesta. per la media e la varianza possiamo scriverla come

[latex]P(X-\mu \geq a\} \leq \frac{\sigma^{2}}{\sigma^{2}+a^{2}}
\\P(\mu-X \geq a\} \leq \frac{\sigma^{2}}{\sigma^{2}+a^{2}}[/latex]

Questo ulteriore può essere scritto come

[latex]\begin{array}{l}
P(X \geq \mu+a\} \leq \frac{\sigma^{2}}{\sigma^{2}+a^{2}} \\
P\{X \leq \mu-a\} \leq \frac{\sigma^{2}}{\sigma^{2}+a^{2}}
\end{array}[/latex]

Esempio:

Trova il limite superiore della probabilità che la produzione dell'azienda distribuita casualmente sia almeno 120, se la produzione di questa determinata azienda ha media 100 e varianza 400.

Soluzione:

Usando un lato disuguaglianza di chebyshev

[latex]P\{X \geq 120\}=P(X-100 \geq 20\} \leq \frac{400}{400+(20)^{2}}=\frac{1}{2} [/lattice]

quindi questo dà la probabilità della produzione entro una settimana almeno 120 è 1/2, ora il limite per questa probabilità sarà ottenuto usando La disuguaglianza di Markov

[latex]P[X \geq 120\} \leq \frac{E(X)}{120}=\frac{5}{6}[/latex]

che mostra il limite superiore della probabilità.

Esempio:

Cento paia sono prese da duecento persone che hanno cento uomini e cento donne trovano il limite superiore della probabilità che al massimo trenta paia siano costituiti da un uomo e una donna.

Soluzione:

Sia la variabile casuale Xi as

[latex]X_{i}=\left\{\begin{array}{ll}1 & \text { se l'uomo i è accoppiato con una donna} \\ 0 & \text { altrimenti }\end{array}\right .[/lattice]

quindi la coppia può essere espressa come

[latex]X=\sum_{i=1}^{100} X_{i}[/latex]

Dal momento che ogni uomo può avere la stessa probabilità di essere accoppiato con le persone rimanenti in cui centinaia sono donne, quindi la media

[latex]E\left[X_{i}\right]=P\left\{X_{i}=1\right\}=\frac{100}{199}[/latex]

allo stesso modo se i e j non sono uguali allora

[lattice]\begin{allineato}
E\sinistra[X_{i} X_{j}\destra] &=P\sinistra\{X_{i}=1, X_{j}=1\destra\} \\
&=P\sinistra\{X_{i}=1\destra\} P\sinistra[X_{j}=1 \mid X_{i}=1\destra\}=\frac{100}{199} \frac {99}{197}
\end{aligned}[/latex]

as

[latex]P\sinistra\{X_{j}=1 \mid X_{i}=1\destra\}=99 / 197[/latex]

quindi abbiamo

[latex]inizio{allineato}
E[X] &=\sum_{i=1}^{100} E\sinistra[X_{i}\destra] \\
&=(100) \frac{100}{199} \\
& \circa 50.25 \\
\nomeoperatore{Var}(X) &=\sum_{i=1}^{100} \nomeoperatore{Var}\left(X_{i}\right)+2 \sum_{i
&=100 \frac{100}{199} \frac{99}{199}+2\left(\begin{array}{c}
100 \\
2
\end{array}\right)\left[\frac{100}{199} \frac{99}{197}-\left(\frac{100}{199}\right)^{2}\right] \\
& \circa 25.126
\end{aligned}[/latex]

usando il disuguaglianza di chebyshev

[latex]P\{X \leq 30\} \leq P\{|X-50.25| \geq 20.25\} \leq \frac{25.126}{(20.25)^{2}} \approssimativamente 0.061[/latex]

che dice che la possibilità di accoppiare 30 uomini con donne è inferiore a sei, quindi possiamo migliorare il legame usando disuguaglianza di Chebyshev unilaterale

[lattice]\begin{allineato}
P[X \leq 30\} &=P[X \leq 50.25-20.25\rango \\
& \leq \frac{25.126}{25.126+(20.25)^{2}} \\
& \circa, 0.058
\end{aligned}[/latex]

legato a Chernoff

Se la funzione generatrice dei momenti è già nota, allora

[lattice]\begin{allineato}
P[X \geq a\}&=P\left(e^{\ell X} \geq e^{\downarrow a}\right)\\
&\leq E\sinistra[e^{t X}\destra] e^{-ta}
\end{aligned}[/latex]

as

[latex]M(t)=E\sinistra[e^{LX}\destra][/latex]

allo stesso modo possiamo scrivere per t<0 as

[lattice]\begin{allineato}
P\{X \leq a\} &=P\sinistra\{e^{IX} \geq e^{[\alpha}\destra\} \\
& \leq E\sinistra[e^{t X}\destra] e^{-ta}
\end{aligned}[/latex]

Quindi il limite di Chernoff può essere definito come

[latex]\begin{array}{ll}
P\{X \geq a\} \leq e^{-f \tau} M(t) & \text { per tutti } t>0 \\
P\{X \leq a\} \leq e^{-\pi \tau} M(t) & \text { per tutti } t<0
\end{array}[/latex]

questa disuguaglianza rappresenta tutti i valori di t positivi o negativi.

Limiti di Chernoff per la variabile casuale normale standard

Il Chernoff si avvicina allo standard normale variabile casuale la cui funzione generatrice di momento

[latex]M(t)=e^{e^{2} / 2}[/latex]

is

[latex]P\{Z \geq a\rangle \leq e^{-ta} e^{t^{2} / 2} \quad \text { for all } \quad t>0[/latex]

quindi minimizzando questa disuguaglianza e i termini di potenza del lato destro si ottiene a>0

[latex]P\{Z \geq a\} \simeq e^{-\lambda^{2} / 2}[/latex]

e per a<0 è

[latex]P\{Z \leq a\} \leqq e^{-\alpha^{2} / 2}[/latex]

Limiti di Chernoff per la variabile casuale di Poisson

I limiti di Chernoff per la variabile casuale di Poisson la cui funzione generatrice del momento

[latex]M(t)=e^{\lambda\left(e^{\prime}-1\right)}[/latex]

is

[latex]P\{X \geq i\} \leq e^{\lambda\left(e^{t}-1\right)} e^{-it} \quad t>0[/latex]

quindi minimizzando questa disuguaglianza e i termini di potenza del lato destro si ottiene a>0

[latex]P\{X \geq i\} \leq e^{\lambda \omega / \lambda-1)}\left(\frac{\lambda}{i}\right)[/latex]

e sarebbe

[latex]P\{X \geq i\} \leq \frac{e^{-2}(e \lambda)^{i}}{l^{i}}[/latex]

Esempio sui limiti di Chernoff

In una partita se un giocatore ha la stessa probabilità di vincere o perdere la partita indipendentemente da qualsiasi punteggio passato, trova il limite di chernoff per la probabilità

Soluzione: Sia Xi denota la vincita del giocatore allora la probabilità sarà

[latex]P\sinistra\{X_{i}=1\destra\}=P\sinistra\{X_{i}=-1\destra\}=\frac{1}{2}[/latex]

per la sequenza di n ascolti poniamo

[latex]S_{n}=\sum_{i=1}^{n} X_{i}[/latex]

quindi la funzione generatrice dei momenti sarà

[latex]E\left[e^{\ell X}\right]=\frac{e^{t}+e^{-t}}{2}[/latex]

qui usando le espansioni di termini esponenziali

[lattice]\begin{allineato}
e^{I}+e^{-l} &=1+t+\frac{t^{2}}{2 !}+\frac{t^{3}}{3 !}+\cdots+\left( 1-t+\frac{t^{2}}{2 !}-\frac{t^{3}}{3 !}+\cdots\right) \\
&=2\sinistra\{1+\frac{t^{2}}{2 !}+\frac{t^{4}}{4 !}+\cdots\destra\} \\
&=2 \sum_{n=0}^{\infty} \frac{t^{2 n}}{(2 n) !} \\
& \simeq 2 \sum_{n=0}^{\infty} \frac{\left(t^{2} / 2\right)^{n}}{n !} \quad \operatorname{dal}(2 n) ! \geq n! 2^{n} \\
&=2 e^{t^{2} / 2}
\end{aligned}[/latex]

così abbiamo

[latex]E\sinistra[e^{t X}\destra] \geq e^{t^{2} / 2}[/latex]

ora applicando la proprietà della funzione generatrice di momenti

[lattice]\begin{allineato}
E\sinistra[e^{\mathcal{S}_{n}}\destra] &=\sinistra(E\sinistra[e^{LX}\destra]\destra)^{n} \\
& \leq e^{n^{2} / 2}
\end{aligned}[/latex]

Questo dà la disuguaglianza

[latex]P\left\{S_{n} \geq a\right\} \leq e^{-\alpha^{2} / 2 n} \quad a>0[/latex]

quindi

[latex]P\sinistra\{S_{10} \geq 6\destra\} \leq e^{-36 / 20} \approssimativamente 0.1653[/latex]

Conclusione:

Sono state discusse le disuguaglianze e il teorema limite per i grandi numeri e sono stati presi anche gli esempi giustificabili per i limiti delle probabilità per avere un'idea dell'idea, anche l'aiuto della normale, variabile casuale di Poisson e funzione generatrice di momenti è preso per dimostrare il concetto facilmente, se hai bisogno di ulteriori letture, consulta i libri di seguito o per ulteriori articoli sulla probabilità, segui il nostro Pagine di matematica.

Un primo corso di probabilità di Sheldon Ross

Schemi di probabilità e statistica di Schaum

Un'introduzione alla probabilità e alle statistiche di ROHATGI e SALEH

DOTT. MOHAMMED MAZHAR UL HAQUE

sono il dott. Mohammed Mazhar Ul Haque, assistente professore di matematica. Avendo 12 anni di esperienza nell'insegnamento. Avere una vasta conoscenza in Matematica Pura, precisamente in Algebra. Avere l'immensa capacità di progettare e risolvere problemi. Capace di motivare i candidati a migliorare le loro prestazioni. Amo contribuire a Lambdageeks per rendere la matematica semplice, interessante e autoesplicativa per principianti ed esperti. Connettiamoci tramite LinkedIn - https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Post Recenti