Variabili casuali distribuite congiuntamente: 11 fatti importanti


del Pacco

Variabili casuali distribuite congiuntamente

     Le variabili casuali distribuite congiuntamente sono la variabile casuale più di una con probabilità distribuita congiuntamente per queste variabili casuali, in altre parole negli esperimenti in cui il diverso risultato con la loro probabilità comune è noto come variabile casuale distribuita congiuntamente o distribuzione congiunta, tale tipo di situazione si verifica frequentemente mentre si affrontano i problemi delle possibilità.

Funzione di distribuzione congiunta | Funzione di distribuzione di probabilità cumulativa congiunta | funzione di massa di probabilità congiunta | funzione di densità di probabilità congiunta

    Per le variabili casuali X e Y la funzione di distribuzione o la funzione di distribuzione cumulativa congiunta è

[latex]F(a,b)= P\sinistra \{ X\leq a, Y\leq b \destra \} \ \ , \ \ -\infty< a , b< \infty[/latex]

dove la natura della probabilità congiunta dipende dalla natura delle variabili casuali X e Y discrete o continue, e le singole funzioni di distribuzione per X e Y possono essere ottenute utilizzando questa funzione di distribuzione cumulativa congiunta come

[latex]F_{X}(a)=P \left \{ { X\leq a } \right \} \\ = P \left \{ X\leq a, Y< \infty \right \} \\ = P\left ( \lim_{b \to \infty} X\leq a, Y< b \right ) \\ =\lim_{b \to \infty} P \left \{ X\leq a, Y\leq b \right \} \\ = \lim_{b \to \infty} F(a,b) \\ \equiv F(a, \infty)[/latex]

allo stesso modo per Y come

[latex]F_{Y} (b)=P\sinistra \{ Y\leq b \right \} \\ =\lim_{a \to \infty} F(a,b) \\ \equiv F(\infty , b)[/lattice]

queste funzioni di distribuzione individuali di X e Y sono note come funzioni di distribuzione marginale quando si prende in considerazione la distribuzione congiunta. Queste distribuzioni sono molto utili per ottenere le probabilità come

[latex]P\sinistra { X> a, Y> b \destra } = 1-P(\sinistra { X> a, Y> b \destra }^{c}) \\ =1-P(\sinistra { X> a \right }^{c}\cup \left { Y> b \right }^{c}) \\ =1- P(\left { X\leq a \right }\cup \left { Y\ leq b \right }) \\ =1-\left [ P\left { X\leq a \right } +P\left { Y\leq b \right }-P\left { X\leq a , Y\leq b\destra }\destra ] \\ =1- F_{X}(a)-F_{Y}(b)+F(a,b)[/latex]

e

[latex]P\sinistra {a_{1}\leq X\leq a_{2} , b_{1}\leq Y\leq b_{2} \right } \\ =F(a_{2},b_{2 })+F(a_{1},b_{1})-F(a_{1},b_{2})-F(a_{2},b_{1})[/latex]

inoltre la funzione massa di probabilità congiunta per le variabili casuali X e Y è definita come

[latex]p(x,y)=P\sinistra { X=x, Y=y \destra }[/latex]

le singole funzioni di massa o densità di probabilità per X e Y possono essere ottenute con l'aiuto di tale funzione di massa o densità di probabilità congiunta come in termini di variabili casuali discrete as

[latex]p_{X}(x)=P\sinistra { X=x \destra } \\ =\sum_{y:p(x,y)> 0}^{}p(x,y) \\ p_ {Y}(y)=\sum_{y:p(x,y)> 0}^{}p(x,y)[/latex]

e in termini di variabile casuale continua la funzione di densità di probabilità congiunta sarà

[latex]P\sinistra { (X,Y)\in C \right }=\int_{(x,y)\in C}^{}\int f(x,y)dxdy[/latex]

dove C è un piano bidimensionale e la funzione di distribuzione congiunta per la variabile casuale continua sarà

[latex]F(a,b)=P\sinistra { X\in (-\infty,a], Y\in (-\infty,b] \right } \\ =\int_{-\infty}^{ b}\int_{-\infty}^{a} f(x,y)dxdy[/latex]

la funzione di densità di probabilità da questa funzione di distribuzione può essere ottenuta differenziando

[latex]f(a,b)=\frac{\parziale^2 }{\parziale a \parziale b} F(a,b)[/latex]

e la probabilità marginale dalla funzione di densità di probabilità congiunta

[latex]P\sinistra { X\in A \right }=P\left { X\in A,Y\in (-\infty,\infty) \right } \ =\int_{A}^{}\int_ {-\infty}^{\infty}f(x,y)dydx \ =\int_{A}^{}f_{X}(x)dx[/latex]

as

[latex]f_{X}(x)=\int_{-\infty}^{\infty}f(x,y)dy[/latex]

e

[latex]f_{Y}(y)=\int_{-\infty}^{\infty}f(x,y)dx[/latex]

rispetto alle variabili casuali X e Y rispettivamente

Esempi sulla distribuzione congiunta

  1. Le probabilità congiunte per le variabili casuali X e Y che rappresentano il numero di libri di matematica e statistica da un insieme di libri che contiene 3 libri di matematica, 4 di statistica e 5 di fisica se 3 libri presi a caso

[latex]p(0,0)=\binom{5}{3}/\binom{12}{3}=\frac{10}{220} \\ p(0,1)=\binom{4} {1} \binom{5}{2}/\binom{12}{3}=\frac{40}{220} \\ p(0,2)=\binom{4}{2} \binom{5 }{1}/\binom{12}{3}=\frac{30}{220} \\ p(0,3)=\binom{4}{3}/\binom{12}{3}=\ frac{4}{220} \\ p(1,0)=\binom{3}{1} \binom{5}{2}/\binom{12}{3}=\frac{30}{220} \\ p(1,1)=\binom{3}{1} \binom{4}{1} \binom{5}{1}/\binom{12}{3}=\frac{60}{220 } \\ p(1,2)=\binom{3}{1} \binom{4}{2}/\binom{12}{3}=\frac{18}{220} \\ p(2,0, 3)=\binom{2}{5} \binom{1}{12}/\binom{3}{15}=\frac{220}{2,1} \\ p(3)=\binom{2 }{4} \binom{1}{12}/\binom{3}{12}=\frac{220}{3,0} \\ p(3)=\binom{3}{12}/\binom {3}{1}=\frac{220}{XNUMX} \[/latex]

  • Trova il giunto funzione di massa di probabilità per il campione di famiglie che hanno il 15% senza figli, il 20% 1 bambino, il 35% 2 bambini e il 30% 3 bambini se la famiglia scegliamo casualmente da questo campione per bambino o femmina?

La probabilità congiunta la troveremo utilizzando la definizione di

Variabili casuali distribuite congiuntamente
Variabili casuali distribuite congiuntamente: esempio

e questo lo possiamo illustrare in forma tabellare come segue

Variabili casuali distribuite congiuntamente
Variabili casuali distribuite congiuntamente: esempio di distribuzione congiunta
  • Calcola le probabilità

[latex] (a) P\sinistra { X> 1, Y> 1 \destra } , \ \ (b) P\sinistra { X< Y \destra } e \ \ (c) P\sinistra { X< a \right }[/lattice]

se per le variabili casuali X e Y la funzione di densità di probabilità congiunta è data da

[latex]f(x,y) = \begin{casi} 2e^{-x}y^{-2y} \ \ 0< x< \infty , \ \ 0< y< \infty \\ 0 &\testo {altrimenti} \end{cases}[/latex]

con l'aiuto della definizione di probabilità congiunta per variabile casuale continua

[latex]=\int_{-\infty}^{b}\int_{-\infty}^{a}f(x,y)dxdy[/latex]

e la funzione di densità congiunta data sarà la prima probabilità per l'intervallo dato

[latex]P\sinistra { X> 1,Y< 1 \right }=\int_{0}^{1}\int_{1}^{\infty}2e^{-x} e^{-2y} dxdy [/lattice]

[latex]=\int_{0}^{1}2e^{-2y} \left ( -e^{-x}\lvert_{1}^{\infty} \right )dy[/latex]

[latex]=e^{-1}\int_{0}^{1}2e^{-2y}dy[/latex]

[latex]=e^{-1}(1-e^{-2})[/latex]

allo stesso modo la probabilità

[latex]P\sinistra { X< Y \right }=\int_{(x,y):}^{}\int_{x< y}^{}2e^{-2x}e^{-2y}dxdy [/lattice]

[latex]=\int_{0}^{\infty}\int_{0}^{y}2e^{-2x}e^{-2y}dxdy[/latex]

[latex]=\int_{0}^{\infty}2e^{-2y}(1-e^{-y})dy[/latex]

[latex]=\int_{0}^{\infty}2e^{-2y}dy – \int_{0}^{\infty}2e^{-3y}dy =1-\frac{2}{3}=\frac{1}{3}[/latex]

e infine

P \ left \ {X <a \ right \} = \ int_ {0} ^ {a} \ int_ {0} ^ {\ infty} 2e ^ {- 2y} e ^ {- x} dydx

[latex]=\int_{0}^{a}e^{-x}dx[/latex]

[latex]=1-e^{-a}[/latex]

  • Trova la funzione di densità congiunta per il quoziente X / Y delle variabili casuali X e Y se la loro funzione di densità di probabilità congiunta è

[latex]f(x,y) = \begin{casi} e^{-(x+y)} \ \ 0< x< \infty , \ \ 0< y< \infty \\ \ 0 &\text{ altrimenti} \end{cases}[/latex]

Per trovare la funzione di densità di probabilità per la funzione X / Y troviamo prima la funzione di distribuzione congiunta quindi differenzieremo il risultato ottenuto,

quindi dalla definizione di funzione di distribuzione congiunta e data funzione di densità di probabilità abbiamo

[latex]F_{X}/_{Y}(a)=P\sinistra { \frac{X}{Y}\leq a \right }[/latex]

[latex]=\int_{\frac{X}{Y}\leq a}^{}\int e^{-(x+y)}dxdy[/latex]

[latex]=\int_{0}^{\infty}\int_{0}^{ay}e^{-(x+y)}dxdy[/latex]

[latex]= \left { \int_{0}^{\infty}-e^{-y}dxdy +\frac{e^{-(a+1)y}}{a+1} \right }\ lvert_{0}^{\infty}[/latex]

[latex]=1-\frac{1}{a+1}[/latex]

quindi differenziando questa funzione di distribuzione rispetto ad a otterremo la funzione di densità come

[latex]f_{\frac{X}{Y}}(a)=\frac{1}{(a+1)^{2}}[/latex]

dove a è compreso tra zero e infinito.

Variabili casuali indipendenti e distribuzione congiunta

     Nell' distribuzione comune si dice che la probabilità per due variabili casuali X e Y sia indipendente se

[latex]P\sinistra { X \in A, Y \in B\right } =P \left { X \in A \right } P\left { Y \in B \right }[/latex]

dove A e B sono i veri insiemi. Come già in termini di eventi sappiamo che le variabili casuali indipendenti sono le variabili casuali i cui eventi sono indipendenti.

Pertanto, per qualsiasi valore di a e b

[latex]P\sinistra { X\leq a, Y\leq b \right } =P\left {X\leq a \right }P\left {Y\leq b \right }[/latex]

e la funzione di distribuzione congiunta o di distribuzione cumulativa per le variabili casuali indipendenti X e Y sarà

[latex]F(a,b)=F_{X}(a)F_{Y}(b) \ \ for \ \ all \ \ a,b[/latex]

se consideriamo le variabili casuali discrete X e Y allora

[latex]p(x,y)=p_{X}(x)p_{Y}(y) \ \ for \ \ all \ \ x,y[/latex]

da

[latex]P\sinistra { X\in A, Y\in B \right } =\sum_{y\in B}^{}\sum_{x \in A}^{}p(x,y)[/ lattice]

[latex]=\sum_{y\in B}^{}\sum_{x \in A}^{}p_{X}(x)p_{Y}(y)[/latex]

[latex]=\sum_{y\in B}p_{Y}(y) \sum_{x\in A}p_{X}(x)[/latex]

[latex]= P\sinistra { Y \in B \destra } P\sinistra { X \in A \destra }[/latex]

allo stesso modo anche per la variabile casuale continua

[latex]f(x,y)=f_{X}(x)f_{Y}(y) \ \ for \ \ all \ \ x,y[/latex]

Esempio di distribuzione congiunta indipendente

  1. Se per un giorno specifico in un ospedale i pazienti entrati sono distribuiti poisson con parametro λ e probabilità di paziente di sesso maschile come pe probabilità di paziente di sesso femminile come (1-p), allora mostra che il numero di pazienti di sesso maschile e di pazienti di sesso femminile entrati in ospedale sono variabili casuali di poisson indipendenti con parametri λp e λ (1-p)?

considera il numero di pazienti maschi e femmine in base alle variabili casuali X e Y quindi

[latex]P\sinistra { X=i, Y=j \destra }= P\sinistra { X=i, Y=j|X +Y=i+j \destra }P\sinistra { X+Y=i+ j \right }+P\left { X=i,Y=j|X +Y\neq i+j \right }P\left { X+Y\neq i+j \right }[/latex]

[latex]P\sinistra { X=i, Y=j \destra }= P\sinistra { X=i, Y=j|X +Y=i+j \destra }P\sinistra { X+Y=i+ j \right }[/latex]

come X + Y sono il numero totale di pazienti ricoverati in ospedale che è così distribuito

[latex]P\left { X+Y=i+j \right }=e^{-\lambda }\frac{\lambda ^{i+j}}{(i+j)!}[/latex]

poiché la probabilità di un paziente di sesso maschile è p e di una paziente di sesso femminile è (1-p) quindi esattamente dal numero totale di fix sono maschi o femmine mostra probabilità binomiale

[latex]P\sinistra { X=i, Y=j|X + Y=i+j \right }=\binom{i+j}{i}p^{i}(1-p)^{j} [/lattice]

usando questi due valori otterremo la probabilità congiunta di cui sopra come

[latex]P\sinistra { X=i, Y=j \destra }=\binom{i+j}{i}p^{i}(1-p)^{j}e^{-\lambda} \ frac{\lambda ^{i+j}}{(i+j)!}[/latex]

[latex]=e^{-\lambda} \frac{\lambda p^i}{i! j!}\left [ \lambda (1-p) \right ]^{j}[/latex]

[latex]=e^{-\lambda p} \frac{(\lambda p)^i}{i!} e^{-\lambda (1-p)} \frac{\left [ \lambda (1- p) \right ]^{j}}{j!}[/latex]

quindi la probabilità di pazienti maschi e femmine sarà

[latex]P\sinistra { X=i \destra } =e^{-\lambda p} \frac{(\lambda p)^i}{i!} \sum_{j} e^{-\lambda (1 -p)} \frac{\left [ \lambda (1-p) \right ]^{j}}{j!} = e^{-\lambda p} \frac{(\lambda p)^i}{ io!}[/latex]

e

[latex]P\left { Y=j \right } =e^{-\lambda (1-p)} \frac{\left [ \lambda (1-p) \right ]^{j}}{j! }[/lattice]

che mostra che entrambe sono variabili casuali di poisson con i parametri λp e λ (1-p).

2. trovare la probabilità che una persona debba aspettare più di dieci minuti alla riunione per un cliente come se ogni cliente e quella persona arrivassero tra le 12 e le 1 dopo la distribuzione uniforme.

considera le variabili casuali X e Y per denotare il tempo per quella persona e cliente tra 12 a 1, quindi la probabilità congiuntamente per X e Y sarà

[latex] 2P \left { X+10 < Y \right } =2 \int_{X+10 < Y} \int f(x,y)dxdy[/latex]

[latex]=2 \int_{X+10 < Y} \int f_{X}(x) f_{Y}(y)dxdy[/latex]

[latex]=2 \int_{10}^{60} \int_{0}^{y-10} \left (\frac{1}{60}\right )^{2} dxdy[/latex]

[latex]=\frac{2}{(60)^{2}}\int_{10}^{60} (y-10)dy[/latex]

[latex]=\frac{25}{36}[/latex]

calcolare

[latex]P\sinistra { X\geq YZ \right }[/latex]

dove X, Y e Z sono variabili casuali uniformi nell'intervallo (0,1).

qui la probabilità sarà

[latex]P\left { X\geq YZ \right } = \int \int_{x\geq yz}\int f_{X,Y,Z} (x,y,z) dxdydz[/latex]

per la distribuzione uniforme la funzione di densità

[latex]f_{X,Y,Z} (x,y,z) =f_{X} (x) f_{Y}(y) f_{Z}(z) =1 , \ \ 0\leq x\ leq 1 , \ \ 0\leq y\leq 1 , \ \ 0\leq z\leq 1[/latex]

per l'intervallo dato così

[latex]=\int_{0}^{1}\int_{0}^{1}\int_{yz}^{1} dxdydz[/latex]

[latex]=\int_{0}^{1}\int_{0}^{1} (1-yz) dydz[/latex]

[latex]=\int_{0}^{1}\left ( 1-\frac{z}{2} \right ) dydz[/latex]

[latex]=\frac{3}{4}[/latex]

SOMMA DI VARIABILI CASUALI INDIPENDENTI PER DISTRIBUZIONE CONGIUNTA

  La somma delle variabili indipendenti X e Y con la densità di probabilità funziona come variabili casuali continue, la funzione di distribuzione cumulativa sarà

[latex]F_{X+Y} (a)= P\sinistra \{ X+Y\leq a \sinistra. \right \} \right.[/latex]

[latex]= \int_{x+y\leq a}\int f_{X} (x)f_{Y}(y)dxdy[/latex]

[latex]= \int_{-\infty}^{\infty}\int_{-\infty}^{ay} f_{X}(x)f_{Y}(y)dxdy[/latex]

[latex]= \int_{-\infty}^{\infty}\int_{-\infty}^{ay} f_{X}(x) dx f_{Y}(y)dy[/latex]

[latex]= \int_{-\infty}^{\infty} F_{X} (ay) f_{Y}(y)dy[/latex]

differenziando questa funzione di distribuzione cumulativa per la funzione di densità di probabilità di queste somme indipendenti sono

[latex]f_{X+Y} (a)=\frac{\mathrm{d} }{\mathrm{d} a}\int_{-\infty}^{\infty} F_{X} (ay)f_ {Y} (y)dy[/latex]

[latex]f_{X+Y} (a)=\int_{-\infty}^{\infty} \frac{\mathrm{d} }{\mathrm{d} a} F_{X} (ay)f_ {Y} (y)dy[/latex]

[latex]=\int_{-\infty}^{\infty} f_{X} (ay)f_{Y} (y)dy[/latex]

seguendo questi due risultati vedremo alcune variabili casuali continue e la loro somma come variabili indipendenti

somma di variabili casuali uniformi indipendenti

   per il variabili casuali X e Y distribuite uniformemente sull'intervallo (0,1) è la funzione di densità di probabilità per entrambe queste variabili indipendenti

[latex]f_{X}(a)=f_{Y}(a) = \begin{cases} 1 & \ 0< a< 1 \\ \ \ 0 & \text{ altrimenti } \end{cases}[/ lattice]

quindi per la somma X + Y abbiamo

[latex]f_{X+Y}(a) = \int_{0}^{1}f_{X}(ay)dy[/latex]

per qualsiasi valore a è compreso tra zero e uno

[latex]f_{X+Y}(a)= \int_{0}^{a}dy =a[/latex]

se limitiamo a tra uno e due lo sarà

[latex]f_{X+Y}(a)= \int_{a-1}^{a}dy =2-a[/latex]

questo dà la funzione di densità della forma triangolare

[latex]f_{X+Y}(a) = \begin{cases} \ a & 0\leq a \leq 1 \\ \ 2-a & \ 1< a< 2 \\ \ 0 & \text{ altrimenti } \end{casi}[/latex]

se generalizziamo per le n variabili casuali uniformi indipendenti da 1 a n, allora la loro funzione di distribuzione

[latex]F_{n}(x)=P\sinistra ( X_{1} + ……+ X_{n} \leq x \destra )[/latex]

per induzione matematica sarà

[latex]F_{n}(x)=\frac{x^{n}}{n!} , 0\leq x\leq 1[/latex]

somma di variabili casuali Gamma indipendenti

    Se abbiamo due variabili casuali gamma indipendenti con la loro normale funzione di densità

[latex]f(y)= \frac{\lambda e^{-\lambda y}(\lambda y)^{t-1}}{\Gamma (t)} \ \ , 0< y< \infty[ /lattice]

quindi seguendo la densità per la somma delle variabili casuali gamma indipendenti

[latex]f_{X+Y}(a)=\frac{1}{\Gamma (s)\Gamma (t)}\int_{0}^{a}\lambda e^{-\lambda (ay) }\left [ \lambda (ay) \right ]^{s-1}\lambda e^{-\lambda y} (\lambda y)^{t-1}dy[/latex]

[latex]=K e^{-\lambda a} \int_{0}^{a}\left [ (ay) \right ]^{s-1}(y)^{t-1}dy[/latex ]

[latex]=K e^{-\lambda a} a^{s+t-1} \int_{0}^{1} (1-x)^{s-1}x^{t-1} dx \ \ per \ \ lasciare \ \ x=\frac{y}{a}[/latex]

[latex]=C e^{-\lambda a} a^{s+t-1}[/latex]

[latex]f_{X+Y}(a)=\frac{\lambda e^{-\lambda a} (\lambda a)^{s+t-1}}{\Gamma (s+t)}[ /lattice]

questo mostra la funzione di densità per la somma delle variabili casuali gamma che sono indipendenti

somma di variabili aleatorie esponenziali indipendenti

    In modo simile alla variabile casuale gamma, la somma di variabili casuali esponenziali indipendenti, possiamo ottenere la funzione di densità e la funzione di distribuzione semplicemente assegnando in modo specifico valori di variabili casuali gamma.

Somma della variabile casuale normale indipendente | somma della distribuzione normale indipendente

                Se abbiamo n numero di variabili casuali normali indipendenti Xi , i=1,2,3,4….n con rispettive medie μi e varianze σ2i quindi la loro somma è anche una normale variabile casuale con media come Σμi e varianze Σσ2i

    Per prima cosa mostriamo la somma indipendente normalmente distribuita per due variabili casuali normali X con i parametri 0 e σ2 e Y con i parametri 0 e 1, troviamo la funzione di densità di probabilità per la somma X + Y con

[latex]c=\frac{1}{2\sigma ^{2}} +\frac{1}{2} =\frac{1+\sigma ^{2}}{2\sigma ^{2}} [/lattice]

nella funzione di densità di distribuzione congiunta

[latex]f_{X+Y}(a)=\int_{-\infty}^{\infty}f_{X}(ay)f_{Y}(y)dy[/latex]

con l'aiuto della definizione della funzione di densità della distribuzione normale

[latex] f_{X}(ay)f_{Y}(y)=\frac{1}{\sqrt{2\pi }\sigma } exp\left { -\frac{(ay)^{2}} {2\sigma ^{2}} \right }\frac{1}{\sqrt{2\pi }}exp\left { -\frac{y^{2}}{2} \right } [/latex]

[latex]=\frac{1}{2\pi \sigma } exp \left { -\frac{a^{2}}{2\sigma ^{2}} \right } exp \left { -c\left ( y^{2} -2y\frac{a}{1+\sigma ^{2}}\right ) \right }[/latex]

quindi la funzione di densità sarà

[latex]f_{X+Y}(a)=\frac{1}{2\pi \sigma }exp \left { -\frac{a^{2}}{2\sigma ^{2}} \right } exp \left { \frac{a^{2}}{2\sigma ^{2}(1+\sigma ^{2})} \right } X \int_{-\infty}^{\infty} exp \left { -c\left ( y-\frac{a}{1+\sigma ^{2}} \right )^{2} \right } dy[/latex]

[latex]=\frac{1}{2\pi \sigma } exp \left { – \frac{a^{2}}{2(1+\sigma ^{2})} \right } \int_{- \infty}^{\infty} exp \left { -cx^{2} \right } dx[/latex]

[latex]=C exp \left { -\frac{a^{2}}{2(1+\sigma ^{2})} \right }[/latex]

che non è altro che la funzione di densità di a distribuzione normale con media 0 e varianza (1+σ2) seguendo lo stesso argomento possiamo dire

[latex]X_{1} + X_{2}=\sigma {2}\sinistra ( \frac{X{1}-\mu {1}}{\sigma {2}}+\frac{X_{2}-\mu {2}}{\sigma {2}} \right ) +\mu {1} +\mu {2}[/lattice]

con media e varianze usuali. Se prendiamo l'espansione e osserviamo che la somma è normalmente distribuita con la media come la somma delle rispettive medie e la varianza come la somma delle rispettive varianze,

così allo stesso modo l'ennesima somma sarà la variabile casuale distribuita normalmente con media come Σμi  e varianze Σσ2i

Somma di variabili casuali di Poisson indipendenti

Se abbiamo due variabili casuali di Poisson indipendenti X e Y con parametri λ1 e λ2 allora la loro somma X + Y è anche variabile casuale di Poisson o distribuita di Poisson

poiché X e Y sono distribuiti di Poisson e possiamo scrivere la loro somma come l'unione di eventi disgiunti così

[latex]P \sinistra { X+Y =n \destra } =\sum_{k=0}^{n}P\sinistra { X=k, Y=nk \destra }[/latex]

[latex]=\sum_{k=0}^{n}P\sinistra { X=k \destra },P\sinistra { Y=nk \destra }[/latex]

[latex]=\sum_{k=0}^{n}e^{-\lambda {1}} \frac{\lambda {1}^{k}}{k!}e^{-\lambda {2}}\frac{\lambda {2}^{nk}}{(nk)!}[/latex]

utilizzando la probabilità di variabili casuali indipendenti

[latex]=e^{-(\lambda {1}+\lambda {2})} \sum_{k=0}^{n} \frac{\lambda {1}^{k}\lambda {2}^{nk}}{k!(nk)!}[/latex]

[latex]=\frac{e^{-(\lambda {1}+\lambda {2})}}{n!}\sum_{k=0}^{n} \frac{n!}{k!(nk)!} \lambda {1}^{k}\lambda {2}^{nk}[/latex]

[latex]=\frac{e^{-(\lambda {1}+\lambda {2})}}{n!} (\lambda {1}+\lambda {2})^{n}[/latex]

quindi otteniamo la somma X + Y che è anche Poisson distribuita con la media λ1 + λ2

Somma di variabili casuali binomiali indipendenti

                Se abbiamo due variabili casuali binomiali indipendenti X e Y con parametri (n, p) e (m, p), la loro somma X + Y è anche variabile casuale binomiale o Binomiale distribuita con parametro (n + m, p)

usiamo la probabilità della somma con definizione di binomiale come

[latex]P\sinistra { X+Y= k \destra } =\sum_{i=0}^{n}P\sinistra { X=i, Y=ki \destra }[/latex]

[latex]=\sum_{i=0}^{n}P\sinistra { X=i \destra } P\sinistra { Y=ki \destra }[/latex]

[latex]=\sum_{i=0}^{n}\binom{n}{i}p^{i}q^{ni}\binom{m}{ki}p^{ki}q^{m -k+i}[/latex]

[latex]dove \ \ q=1-p \ \ e \ \ dove \ \ \binom{r}{j}=0 \ \ quando \ \ j< 0[/latex]

[latex]\binom{m+n}{k}=\sum_{i=0}^{n}\binom{n}{i}\binom{m}{ki}[/latex]

che dà

[latex]P\sinistra { X+Y=k \right }=p^{k}q^{n+mk}\sum_{i=0}^{n}\binom{n}{i}\binom{ m}{ki}[/latex]

quindi la somma X + Y è anche distribuita in modo binomiale con parametro (n + m, p).

Conclusione:

Il concetto di variabili casuali distribuite congiuntamente che fornisce la distribuzione comparativamente per più di una variabile nella situazione è discusso inoltre il concetto di base di variabile casuale indipendente con l'aiuto della distribuzione congiunta e somma di variabili indipendenti con qualche esempio di distribuzione è dato con i loro parametri, se hai bisogno di ulteriori letture passa attraverso i libri menzionati. Per ulteriori post sulla matematica, per favore clicca qui.

https://en.wikipedia.org

Un primo corso di probabilità di Sheldon Ross

Schemi di probabilità e statistica di Schaum

Un'introduzione alla probabilità e alle statistiche di ROHATGI e SALEH

DOTT. MOHAMMED MAZHAR UL HAQUE

sono il dott. Mohammed Mazhar Ul Haque, assistente professore di matematica. Avendo 12 anni di esperienza nell'insegnamento. Avere una vasta conoscenza in Matematica Pura, precisamente in Algebra. Avere l'immensa capacità di progettare e risolvere problemi. Capace di motivare i candidati a migliorare le loro prestazioni. Amo contribuire a Lambdageeks per rendere la matematica semplice, interessante e autoesplicativa per principianti ed esperti. Connettiamoci tramite LinkedIn - https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Post Recenti