Covarianza, varianza delle somme: 7 fatti importanti


COVARIANZA, VARIANZA DI SOMME E CORRELAZIONI DI VARIABILI CASUALI

  I parametri statistici delle variabili casuali di diversa natura utilizzando la definizione di aspettativa di variabile casuale è facile da ottenere e comprendere, di seguito troveremo alcuni parametri con l'aiuto dell'aspettativa matematica di variabile casuale.

Momenti del numero di eventi che si verificano

    Finora sappiamo che l'aspettativa di diversi poteri della variabile casuale sono i momenti delle variabili casuali e come trovare l'aspettativa della variabile casuale dagli eventi se il numero di eventi si è già verificato, ora siamo interessati all'aspettativa se coppia di numero di eventi già avvenuto, ora se X rappresenta il numero di eventi accaduti allora per gli eventi A1, Un2, ….,UNn definire la variabile indicatore Ii as

[latex]I_{i}=\begin{casi} 1, &\testo{se } A_{i} \ \ occorre \\ 0, &\testo{altrimenti} \end{casi}[/latex]

l'aspettativa di X in senso discreto sarà

[latex]E[X]= E\sinistra [ \sum_{i=1}^{n} I_{i} \right ] =\sum_{i=1}^{n} E[I_{i}] = \sum_{i=1}^{n} P\sinistra ( A_{i} \destra )[/latex]

perché la variabile casuale X è

[latex]E=\sum_{i=1}^{n} E I_{i}[/latex]

ora per trovare l'aspettativa se il numero di coppie di eventi si è già verificato dobbiamo usare combinazione as

[latex]\binom{X}{2} = \sum_{i< j} I_{i}J_{i}[/latex]

questo dà aspettativa come

[latex]E\left [ \binom{X}{2} \right ]=\sum_{i< j} E[I_{i}I_{j}] = \sum_{i< j} P(A_{i }A_{j})[/latex]

[latex]E\left [ \frac{X(X-1)}{2} \right ] = \sum_{i< j}^{} P(A_{i}A_{j})[/latex]

[latex]E[X^{2}] -E[X] =2 \sum_{i< j}^{} P(A_{i}A_{j})[/latex]

da questo otteniamo l'aspettativa di x quadrato e il valore della varianza anche per

[latex]Var(X)=E[X^{2}] -(E[X])^{2}[/latex]

Usando questa discussione ci concentriamo su diversi tipi di variabili casuali per trovare tali momenti.

Momenti di variabili casuali binomiali

   Se p è la probabilità di successo di n prove indipendenti, denotiamo Ai per la prova ho successo quindi

[latex]Quando \ \ i\neq j, P(A_{i}A_{j})=p^{2}[/latex]

[latex]E\sinistra [ \binom{X}{2} \right ]= \sum_{i< j}^{} p^{2} = \binom{n}{2}p^{2}[/ lattice]

[latex]E[X(X-1)] =n(n-1)p^{2}[/latex]

[latex]E[X^{2}] -E[X] =n(n-1)p^{2}[/latex]

e quindi il varianza della variabile casuale binomiale sarà

[latex]Var(X)=E[X^{2}] -(E[X])^{2}=n(n-1)p^{2} +np – (np)^{2}= np(1-p)[/latex]

perché

[latex]E[X] =\sum_{i=1}^{n} P(A_{i}) =np[/latex]

se generalizziamo per k eventi

[latex]P(A_{i_{1}}A_{i_{2}} \cdot \cdot \cdot A_{i_{k}})=p^{k}[/latex]

[latex]E[X(X-1) \cdot \cdot \cdot \cdot (X-k+1) ] =n(n-1) \cdot\cdot\cdot (n-k+1)p^{ k}[/lattice]

questa aspettativa la possiamo ottenere successivamente per il valore di k maggiore di 3 troviamo per 3

[latex]E[X(X-1)(X-2) ] =n(n-1)(n-2)p^{3}[/latex]

[latex]E[X^{3} -3X^{2} +2X] =n(n-1)(n-2)p^{3}[/latex]

[latex]E[X^{3}] =3E[X^{2}] -2E[X] + n(n-1)(n-2)p^{3}[/latex]

[latex]=3n(n-1)p^{2} +np + n(n-1)(n-2)p^{3}[/latex]

usando questa iterazione possiamo ottenere

[latex]E[X^{k}], k\geq 3,[/latex]

Momenti di variabili casuali ipergeometriche

  I momenti di questa variabile casuale capiremo con l'aiuto di un esempio supponiamo che n penne siano selezionate casualmente da una scatola contenente N penne di cui m sono blu, Sia Ai denota gli eventi che la i-esima penna è blu, ora X è il numero di penna blu selezionata è uguale al numero di eventi A1,A2,…..,UNn che si verificano perché la i-esima penna selezionata è ugualmente probabile per una qualsiasi delle N penne di cui m sono blu

[latex]P(A_{i}) =\frac{m}{N} \ \ , E[X]=\sum_{i=1}^{n}P(A_{i})[/latex]

e così

[latex]P(LA_{i}LA_{j}) = P(LA_{i}) P(LA_{j}/LA_{i}) =\frac{m}{N} \frac{m-1} {N-1}[/lattice]

[latex]E\sinistra [ \binom{X}{2} \right ] =\sum_{i< j}^{}\frac{m(m-1)}{n(n-1)} =\binom {n}{2}\frac{m(m-1)}{n(n-1)}[/latex]

[latex]X[X(X-1)] =n(n-1)\frac{m(m-1)}{N(N-1)}[/latex]

questo da

[latex]E[X^{2}] =n(n-1)\frac{m(m-1)}{N(N-1)} + E[X][/latex]

quindi la varianza della variabile casuale ipergeometrica sarà

[latex]Var(X)=E[X^{2}]-(E[X])^{2}[/latex]

[latex]= n(n-1)\frac{m(m-1)}{N(N-1)} +\frac{nm}{N} -\frac{n^{2}m^{2 }}{N^{2}}[/latex]

[latex]=\frac{nm}{N} \left [ \frac{(n-1)(m-1)}{N-1} +1 + -\frac{mn}{N} \right ][ /lattice]

in modo simile per i momenti più alti

[latex]P(A_{i_{1}} A_{i_{2}} \cdot \cdot \cdot \cdot A_{i_{k}}) =\frac{m(m-1)\cdot \cdot \ cdot \cdot (m-k+1)}{N(N-1)\cdot \cdot \cdot \cdot (N-k+1)}[/latex]

[latex]E\sinistra [ \binom{X}{k} \right ] = \binom{n}{k} \frac{m(m-1)\cdot \cdot \cdot \cdot (m-k+1 )}{N(N-1)\cdot \cdot \cdot \cdot (N-k+1)}[/latex]

quindi

[latex]E[X(X-1) \cdot \cdot \cdot (X-k+1) ] =n(n-1) \cdot \cdot \cdot \cdot (n-k+1) \frac{ m(m-1)\cdot \cdot \cdot \cdot (m-k+1)}{N(N-1)\cdot \cdot \cdot \cdot (N-k+1)}[/latex]

Momenti delle variabili casuali ipergeometriche negative

  si consideri l'esempio di una confezione contenente n+m vaccini di cui n sono speciali e m sono ordinari, questi vaccini vengono rimossi uno alla volta, con ogni nuova rimozione ugualmente probabile che sia uno qualsiasi dei vaccini rimasti nella confezione. Ora lascia che la variabile casuale Y indichi il numero di vaccini che devono essere ritirati fino a quando non sono stati rimossi un totale di r vaccini speciali, che è una distribuzione ipergeometrica negativa, questo è in qualche modo simile con binomio negativo a binomio come a distribuzione ipergeometrica. per trovare il probabilità funzione di massa se la k-esima estrazione dà il vaccino speciale dopo l'estrazione k-1 dà r-1 speciale e kr vaccino ordinario

[latex]P(X=k)=\frac{\binom{n}{r-1}\binom{m}{kr}}{\binom{n+m}{k-1}} \frac{n -r+1}{n+m-k+1}[/latex]

ora la variabile casuale Y

Y=r+X

per gli eventi Ai

[latex]E[Y]=r+E[X] =r + \sum_{i=1}^{m} P(A_{i})[/latex]

[latex]E[Y]=r+ m\frac{r}{n+1}=\frac{r(n+m+1)}{n+1}[/latex]

as

[latex]P(A_{i})=\frac{r}{n+1}[/latex]

quindi per trovare la varianza di Y dobbiamo conoscere la varianza di X so

[latex]E(X(X-1))=2\sum_{i< j}^{} P(A_{i}A_{j})[/latex]

[latex]\sum_{i< j}^{} P(A_{i}A_{j}) = \frac{\binom{2}{2}\binom{n}{r-1}}{\binom {n+2}{r+1}} =\frac{r(r+1)}{(n+1)(n+2)}[/latex]

[latex]E[X(X-1)]=2\binom{m}{2}\frac{r(r+1)}{(n+1)(n+2)}[/latex]

[latex]E[X^{2}] = m(m-1)\frac{r(r+1)}{(n+1)(n+2)} + E[X][/latex]

[latex]Var(Y)=Var(X) = m(m-1)\frac{r(r+1)}{(n+1)(n+2)} m \frac{r}{n+ 1} – \left ( m\frac{r}{n+1} \right )^{2}[/latex]

quindi

[latex]Var(Y) =\frac{mr(n+1-r)(m+n+1)}{(n+1)^{2}(n+2)}[/latex]

COVARIANZA             

La relazione tra due variabili casuali può essere rappresentata dal parametro statistico covarianza, prima della definizione di covarianza di due variabili casuali X e Y ricordiamo che l'aspettativa di due funzioni g e h delle variabili casuali X e Y rispettivamente dà

[latex]E[g(X)h(Y)]= \int_{-\infty}^{\infty}\int_{-\infty}^{\infty} g(x)h(y) f(x ,y)dx dy[/latex]

[latex]= \int_{-\infty}^{\infty}\int_{-\infty}^{\infty} g(x)h(y) f_{X}(x) f_{Y}(x) dx dy[/latex]

[latex]= \int_{-\infty}^{\infty} h(y) f_{Y}(x) dy \int_{-\infty}^{\infty} g(x)f_{X}(x ) dx[/lattice]

[latex]=E[h(Y)] E[g(X)][/latex]

[latex]E[g(X)h(Y)]=E[h(Y)] E[g(X)][/latex]

usando questa relazione di aspettativa possiamo definire la covarianza come

   “ La covarianza tra la variabile casuale X e la variabile casuale Y indicata con cov(X,Y) è definita come

[latex]Cov(X,Y)=E[(XE[X])(YE[Y])][/latex]

usando la definizione di aspettativa ed espandendo otteniamo

[latex]Cov(X,Y)=E[XY-E[X]Y -XE[Y] +E[Y]E[X] ][/latex]

[latex]=E[XY] – E[X]E[Y] – E[X]E[Y] +E[X]E[Y][/latex]

[latex]=E[XY] – E[X]E[Y][/latex]

è chiaro che se le variabili casuali X e Y sono indipendenti allora

[latex]Cov(X,Y)=0[/latex]

ma non è vero il contrario per esempio se

[latex]P(X=0)=P(X=1)=p(X=-1)=\frac{1}{3}[/latex]

e definendo la variabile casuale Y come

[latex]Y= \begin{casi} 0 &\testo{se } X \neq 0 \\ 1 &\testo{se } X =0 \end{casi}[/latex]

so

[latex]Cov(X,Y)=E[XY] -E[X]E[Y]=0[/latex]

qui chiaramente X e Y non sono indipendenti ma la covarianza è zero.

Proprietà di covarianza

  La covarianza tra le variabili casuali X e Y ha alcune proprietà come segue

[latex]\ \ (i) \ \ Cov(X,Y)=Cov(Y,X)[/latex]

[latex]\ \ (ii) \ \ Cov(X,X)=Var(X)[/latex]

[latex]\ \ (iii) \ \ Cov(aX, Y)=aCov(X,Y)[/latex]

[latex]\ \ (iv) \ \ Cov\left ( \sum_{i=1}^{n} X_{i} , \sum_{j=1}^{m} Y_{j} \right ) = \ sum_{i=1}^{n} \sum_{j=1}^{m} Cov(X_{i}, Y_{j})[/latex]

usando la definizione fuori dalla covarianza le prime tre proprietà sono immediate e la quarta proprietà segue considerando

[latex]E\sinistra [ \sum_{i=1}^{n} X_{i} \right ] =\sum_{i=1}^{n} \mu {i} , \ \ E\sinistra [ \sum{j=1}^{m} Y_{j} \right ] =\sum_{j=1}^{m} v_{j}[/latex]

ora per definizione

covarianza

Varianza delle somme

Il risultato importante di queste proprietà è

[latex]var\left ( \sum_{i=1}^{n} X_{i} \right ) =\sum_{i=1}^{n} Var(X_{i})[/latex]

as

[latex]var\left ( \sum_{i=1}^{n} X_{i} \right ) =Cov\left ( \sum_{i=1}^{n} X_{i} \sum_{j= 1}^{n} X_{j} \right )[/latex]

[latex]= \sum_{i=1}^{n} \sum_{j=1}^{n}X_{i} X_{j}[/latex]

[latex]= \sum_{i=1}^{n} Var(X_{i}) \sum \sum_{i\neq j}^{} Cov(X_{i},X_{j})[/latex ]

[latex]Var\sinistra ( \sum_{i=1}^{n} X_{i} \right ) =\sum_{i=1}^{n}Var(X_{i}) +2 \sum \sum_ {i< j}^{} Cov(X_{i},X_{j})[/latex]

Se Xi sono indipendenti a coppie quindi

[latex]Var\sinistra ( \sum_{i=1}^{n} X_{i} \right ) =\sum_{i=1}^{n}Var(X_{i})[/latex]

Esempio: varianza di una variabile casuale binomiale

  Se X è la variabile casuale

[latex]X=X_{1} + \cdot \cdot \cdot \cdot + X_{n}[/latex]

dove Xi sono le variabili casuali di Bernoulli indipendenti tali che

[latex]X_{i}=\begin{cases} 1 &\text{se il percorso i-esimo è riuscito } \\ 0 &\text{altrimenti } \end{cases}[/latex]

 quindi trovare la varianza di una variabile casuale binomiale X con parametri n e p.

Soluzione:

da

[latex]Var\sinistra ( \sum_{i=1}^{n} X_{i} \right ) =\sum_{i=1}^{n} Var(X_{i})[/latex]

[latex]Var(X) =Var(X_{1}) + \cdot \cdot \cdot \cdot +Var(X_{n})[/latex]

quindi per singola variabile abbiamo

[latex]Var(X_{i}) =E[X_{i}^{2}] -(E[X_{i}])^{2}[/latex]

[latex]=E[X_{i}] -(E[X_{i}])^{2} \ \ Poiché \ \ X_{i}^{2} =X_{i}[/latex]

[latex]=pp^{2}[/latex]

quindi la varianza è

[latex]Var(X)=np(1-p)[/latex]

Esempio

  Per le variabili casuali indipendenti Xi con le rispettive medie e varianza e una nuova variabile casuale con deviazione as deviation

[latex]S^{2}=\sum_{i=1}^{n}\frac{(X_{i} -\overline{X})^{2}}{n-1}[/latex]

poi calcola

[latex]\ \ (a) \ \ Var(\overline{X}) \ \ e \ \ (b) \ \ E[S^{2}][/latex]

soluzione:

Usando la proprietà e la definizione di cui sopra abbiamo

[latex]\ \ (a) \ \ Var(\overline{X}) =\left ( \frac{1}{n} \right )^{2} Var\left ( \sum_{i=1}^{ n} X_{i} \right )[/latex]

[latex] =\left ( \frac{1}{n} \right )^{2} \sum_{i=1}^{n} Var(X_{i}) \ \ by \ \ indipendenza[/latex]

[latex]=\frac{\sigma ^{2}}{n}[/latex]

ora per la variabile casuale S

COVARIANZA

prendi l'aspettativa

[latex](n-1)E[S^{2}] =\sum_{i=1}^{n} E[(X_{i} -\mu)^{2}] -nE[(\overline {X} -\mu )^{2}][/latex]

Esempio:

Trova la covarianza delle funzioni indicatrici per gli eventi A e B.

Soluzione:

per gli eventi A e B le funzioni dell'indicatore sono

[latex]I_{A}=\begin{cases} 1 &\text{se si verifica A} \\ 0 &\text{altrimenti } \end{cases}[/latex]

[latex]I_{B}=\begin{cases} 1 &\text{se si verifica B} \\ 0 &\text{altrimenti } \end{cases}[/latex]

quindi l'aspettativa di questi sono

[latex]E[I_{A}] =P(A)[/latex]

[latex]E[I_{B}] =P(B)[/latex]

[latex]E[I_{A}I_{B}] =P(AB)[/latex]

quindi la covarianza è

[latex]Cov(I_{A},I_{B}) = P(AB) – P(A)P(B)[/latex]

[lattice]= P(B)[P(A/B) – P(A)][/lattice]

Esempio:

     mostra che

[latex]Cov(X_{i}- \overline{X}, \overline{X}) =0[/latex]

dove Xi sono variabili casuali indipendenti con varianza.

Soluzione:

La covarianza utilizzando le proprietà e la definizione sarà

[latex]Cov(X_{i}- \overline{X}, \overline{X}) = Cov(X_{i}, \overline{X}) – Cov(\overline{X}, \overline{X} )[/lattice]

[latex]Cov\left ( X_{i}, \frac{1}{n} \sum_{j=1}^{n} X_{j} \right ) – Var(\overline{X})[/latex ]

[latex]= \frac{1}{n} \sum_{j=1}^{n} Cov(X_{i},X_{j}) – \frac{\sigma ^{2}}{n}[ /lattice]

[latex]= \frac{\sigma ^{2}}{n} – \frac{\sigma ^{2}}{n} =0[/latex]

Esempio:

  Calcola la media e la varianza della variabile casuale S che è la somma di n valori campionati se insieme di N persone ognuna delle quali ha un'opinione su un certo argomento che è misurata da un numero reale v che rappresenta la “forza di sentimento” della persona sull'argomento. Permettere  rappresentano la forza del sentimento della persona  che è sconosciuto, per raccogliere informazioni si prende a caso un campione di n da N, si interrogano queste n persone e si ottiene il loro sentimento per calcolare vi

Soluzione

definiamo la funzione dell'indicatore come

[latex]I_{i}=\begin{cases} 1 &\text{se la persona i è nel campione casuale } \\ 0 &\text{altrimenti } \end{cases}[/latex]

quindi possiamo esprimere S come

[latex]S = \sum_{i=1}^{N} v_{i}I_{i}[/latex]

e la sua aspettativa come

[latex]E[S] = \sum_{i=1}^{N} v_{i}E[I_{i}][/latex]

questo dà la varianza come

[latex]Var(S) =\sum_{i=1}^{N} Var(v_{i}I_{i}) +2\sum_{}^{}\sum_{i< j}^{} Cov (v_{i}Io_{i}, v_{j}Io_{j})[/latex]

[latex]=\sum_{i=1}^{N} v_{i}^{2} Var(I_{i}) +2\sum_{}^{}\sum_{i< j}^{} v_ {i}v_{j} Cov(I_{i}, I_{j})[/latex]

da

[latex]E[I_{i}] =\frac{n}{N}[/latex]

[latex]E[I_{i} I_{j}] =\frac{n}{N} \frac{n-1}{N-1}[/latex]

ne ha

[latex]Var (I_{i}) =\frac{n}{N}\left ( 1- \frac{n}{N} \right )[/latex]

[latex]Cov(I_{i}, I_{j}) = \frac{n(n-1)}{N(N-1)} -\left ( \frac{n}{N} \right )^ {2}[/lattice]

[latex]= \frac{-n(N-1)}{N^{2}(N-1)}[/latex]

[latex]E[s] =n\sum_{i=1}^{N}\frac{v_{i}}{N} =n\overline{v}[/latex]

[latex]Var(S)=\frac{n}{N}\frac{Nn}{N} \sum_{i=1}^{N}v_{i}^{2} -\frac{2n(Nn )}{N^{2}(N-1)} \sum \sum_{i< j}^{} v_{i}v_{j}[/latex]

conosciamo l'identità

[latex](v_{1} + \cdot \cdot \cdot + v_{N})^{2} =\sum_{i=1}^{N}v_{i}^{2} +2 \sum \ sum_{i< j}^{} v_{i}v_{j}[/latex]

so

[latex]Var(S) =\frac{n(N-1)}{(N-1)} \left ( \frac{\sum_{i=1}^{N}v_{i}^{2} }{N} -\overline{v}^{2} \right )[/latex]

[latex]E[S]= n\overline{v}= np \ \ poiché \ \ n\overline{v}=\frac{Np}{N}=p[/latex]

[latex]Var(S)= \frac{n(Nn)}{N-1} \left ( \frac{Np}{N} -p^{2} \right )[/latex]

[latex]= \frac{n(Nn)}{N-1} p(1-p)[/latex]

quindi la media e la varianza per detta variabile casuale saranno

[latex]E\sinistra [ \frac{S}{n} \right ] =p[/latex]

[latex]Var\sinistra ( \frac{S}{n} \right )=\frac{Nn}{n(N-1)}p(1-p)[/latex]

Conclusione:

La correlazione tra due variabili casuali è definita come covarianza e usando la covarianza si ottiene la somma della varianza per diverse variabili casuali, si ottiene la covarianza e i diversi momenti con l'aiuto della definizione di aspettativa, se si richiedono ulteriori letture passare

https://en.wikipedia.org/wiki/Expectation

Un primo corso di probabilità di Sheldon Ross

Schemi di probabilità e statistica di Schaum

Un'introduzione alla probabilità e alla statistica di ROHATGI e SALEH.

Per ulteriori post sulla matematica, segui il nostro Pagina di matematica

DOTT. MOHAMMED MAZHAR UL HAQUE

sono il dott. Mohammed Mazhar Ul Haque, assistente professore di matematica. Avendo 12 anni di esperienza nell'insegnamento. Avere una vasta conoscenza in Matematica Pura, precisamente in Algebra. Avere l'immensa capacità di progettare e risolvere problemi. Capace di motivare i candidati a migliorare le loro prestazioni. Amo contribuire a Lambdageeks per rendere la matematica semplice, interessante e autoesplicativa per principianti ed esperti. Connettiamoci tramite LinkedIn - https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Post Recenti