Distribuzione condizionale: 7 fatti interessanti da sapere


Distribuzione condizionale

   È molto interessante discutere il caso condizionale di distribuzione quando due variabili casuali seguono la distribuzione soddisfacendone una data l'altra, vediamo prima brevemente la distribuzione condizionale in entrambi i casi di variabili casuali, discrete e continue poi dopo aver studiato alcuni prerequisiti ci concentriamo sulla aspettative condizionali.

Distribuzione condizionale discreta

     Con l'aiuto della funzione di massa di probabilità congiunta nella distribuzione congiunta definiamo la distribuzione condizionale per le variabili casuali discrete X e Y usando la probabilità condizionata per X dato Y come distribuzione con la funzione di massa di probabilità

[latex]p_{X|Y}(x|y)=P\sinistra { X=x|Y=y \destra }[/latex]

[latex]=\frac{P\sinistra { X=x, Y=y \destra }}{P\sinistra { Y=y \destra }}[/latex]

[latex]=\frac{p(x,y)}{p_{Y}(y)}[/latex]

purché la probabilità del denominatore sia maggiore di zero, in modo simile possiamo scrivere come

[latex]F_{X|Y}(x|y)=P \sinistra { X\leq x|Y\leq y \destra }[/latex]

[latex]=\sum_{a\leq x} p_{X|Y} (a|y)[/latex]

nella probabilità congiunta se X e Y sono variabili casuali indipendenti, questo si trasformerà in

[latex]p_{X|Y} (x|y) = P \left { X=x|Y=y \right }[/latex]

[latex]=\frac{P\sinistra { X=x, Y=y \destra }}{P\sinistra { Y=y \destra }}[/latex]

[latex]=P\sinistra { X=x \destra }[/latex]

quindi la distribuzione condizionale discreta o la distribuzione condizionale per le variabili casuali discrete X dato Y è la variabile casuale con la funzione massa di probabilità sopra in modo simile per Y dato X che possiamo definire.

Esempio sulla distribuzione condizionale discreta

  1. Trovare il funzione di massa di probabilità di una variabile casuale X dato Y=1, se la funzione di massa di probabilità congiunta per le variabili casuali X e Y ha dei valori come

p (0,0) = 0.4, p (0,1) = 0.2, p (1,0) = 0.1, p (1,1) = 0.3

Ora prima di tutto per il valore Y = 1 abbiamo

[latex]p_{Y}(1)=\sum_{x}p(x,1)=p(0,1)+p(1,1)=0.5[/latex]

quindi utilizzando la definizione di funzione di massa di probabilità

[latex]p_{X|Y}(x|y)=P\sinistra { X=x|Y=y \destra }[/latex]

[latex]=\frac{P\sinistra { X=x,Y=y \destra }}{P\sinistra { Y=y \destra }}[/latex]

[latex]=\frac{p(x,y)}{p_{Y}(y)}[/latex]

ne ha

[latex]p_{X|Y}(0|1)=\frac{p(0,1)}{p_{Y}(1)}=\frac{2}{5}[/latex]

e

[latex]p_{X|Y}(1|1)=\frac{p(1,1)}{p_{Y}(1)}=\frac{3}{5}[/latex]

  • ottenere la distribuzione condizionale di X dato X + Y = n, dove X e Y sono distribuzioni di Poisson con i parametri λ1 e λ2 e X e Y sono variabili casuali indipendenti

Poiché le variabili casuali X e Y sono indipendenti, la distribuzione condizionale avrà funzione di massa di probabilità come

[latex]P\sinistra { X=k|X + Y=n \destra } =\frac{P\sinistra { X=k, X+Y =n \destra }}{P\sinistra { X+Y=n \right }}[/latex]

[latex]=\frac{P\sinistra { X=k, X =n -k \right }}{P\left { X+Y=n \right }}[/latex]

[latex]=\frac{P\sinistra { X=k \destra } P\sinistra { Y=nk \destra }}{P\sinistra { X+Y=n \destra }}[/latex]

poiché la somma della variabile aleatoria di Poisson è di nuovo così poisson

[latex]P\sinistra { X=k|X +Y =n \destra } =\frac{e^{-\lambda {1}}\lambda{1}^{k}}{k!}\frac{e^{-\lambda_{2}^{}}\lambda {2}^{nk}}{(nk)!}\left [ \frac{e^{-(\lambda {1}+\lambda {2})}(\lambda {1}+\lambda _{2})^{n}}{n!} \right ]^{-1}[/latex]

[latex]=\frac{n!}{(nk)!k!}\frac{\lambda {1}^{k}\lambda {2}^{nk}}{(\lambda {1}+\lambda {2})^{n}}[/latex]

[latex]=\binom{n}{k} \left ( \frac{\lambda {1}}{\lambda {1}+\lambda {2}} \right )^{k}\left ( \frac{\lambda {2}}{\lambda {1}+\lambda {2}} \right )^{nk}[/latex]

quindi la distribuzione condizionale con la funzione di massa di probabilità sopra sarà una distribuzione condizionale per tali distribuzioni di Poisson. Il caso precedente può essere generalizzato per più di due variabili casuali.

Distribuzione condizionale continua

   La distribuzione condizionale continua della variabile casuale X dato y già definita è la distribuzione continua con la funzione di densità di probabilità

[latex]f_{X|Y}(x|y)=\frac{f(x,y)}{f_{Y}(y)}[/latex]

la densità del denominatore è maggiore di zero, che per la funzione di densità continua è

[latex]f_{X|Y}(x|y)dx=\frac{f(x,y)dxdy}{f_{Y}(y)dy}[/latex]

[latex]\approssimativamente \frac{P\sinistra { x\leq X\leq x+dx, y\leq Y \leq y+ dy \right }}{P\left { y\leq Y \leq y+dy \right }}[/lattice]

[latex]=P\sinistra { x\leq X \leq x+dx|y\leq Y\leq y+dy \right }[/latex]

quindi la probabilità per tale funzione di densità condizionale è

[latex]P\sinistra { X\in A|Y =y \right } =\int_{A} f_{X|Y}(x|y)dx[/latex]

Allo stesso modo come in discreto se X e Y sono indipendenti in continuo anche allora

[latex]f_{X|Y}(x|y)dx=\frac{f(x,y)}{f_{Y}(y)}=\frac{f_{X}(x)f_{Y} (y)}{f_{Y}(y)} =f_{X}(x)[/latex]

e quindi

[latex]\frac{P\sinistra { x< X< x+ dx|N =n \right }}{dx} = \frac{P\left { N=n|x < X < x+ dx \right }}{ P\sinistra { N=n \destra }} \frac{P\sinistra { x< X < x+ dx \destra }}{dx}[/latex]

[latex]\lim_{dx \to 0}\frac{P\left { x< X < x +dx|N =n \right }}{dx} =\frac{P\left { N=n|X = x \right }}{P\left { N=n \right }} f(x)[/latex]

quindi possiamo scriverlo come

[latex]f_{X|N}(x|n)=\frac{P\sinistra { N=n|X=x \destra }}{P\sinistra { N=n \destra }}f(x)[ /lattice]

Esempio sulla distribuzione condizionale continua

  1. Calcola la funzione di densità condizionale della variabile casuale X dato Y se la funzione di densità di probabilità congiunta con l'intervallo aperto (0,1) è data da

[latex]f(x,y)=\begin{casi} \frac{12}{5} x(2-xy) \ \ 0< x< 1, \ \ 0< y< 1 \\ \ \ 0 \ \ \ \ altrimenti \end{casi}[/latex]

Se per la variabile casuale X dato Y entro (0,1) allora usando la funzione di densità sopra abbiamo

[latex]f_{X|Y}(x|y)=\frac{f(x,y)}{f_{Y}(y)}[/latex]

[latex]=\frac{f(x,y)}{\int_{-\infty}^{\infty} f(x,y)dx}[/latex]

[latex]=\frac{x(2-xy)}{\int_{0}^{1} x(2-xy) dx}[/latex]

[latex]=\frac{x(2-xy)}{\frac{2}{3}-\frac{y}{2}}[/latex]

[latex]=\frac{6x(2-xy)}{4-3y}[/latex]

  • Calcola la probabilità condizionale

[latex]P\sinistra { X> 1|Y=y \right }[/latex]

se la funzione di densità di probabilità congiunta è data da

f (x, y) = \ begin {cases} \ frac {e ^ {- \ frac {x} {y}} e ^ {- y}} {y} \ \ 0 <x <\ infty, \ \ 0 <y <\ infty \\ \ \ 0 \ \ \ \ altrimenti \ end {case}

Per trovare prima la probabilità condizionale abbiamo bisogno della funzione di densità condizionale, quindi per definizione sarebbe

[latex]f_{X|Y}(x|y)=\frac{f(x,y)}{f_{Y}(y)}[/latex]

[latex]=\frac{e^{-x/y}e^{-y}/y}{e^{-y}\int_{0}^{\infty}(1/y)e^{- x/y}dx}[/latex]

[latex]=\frac{1}{y}e^{-x/y}[/latex]

ora usando questa funzione di densità nella probabilità il probabilità condizionale is

[latex]P\left { X> 1|Y=y \right } =\int_{1}^{\infty}\frac{1}{y} e^{-x/y}dx[/latex]

[latex]= e^{-x/y} \lvert_{1}^{\infty}[/latex]

[lattice]= e^{-1/a}[/lattice]

Distribuzione condizionale della distribuzione normale bivariata

  Sappiamo che la distribuzione normale bivariata delle variabili casuali normali X e Y con le rispettive medie e varianze poiché i parametri ha la funzione di densità di probabilità congiunta

Distribuzione condizionale
Condizionale distribuzione della normale bivariata distribuzione

quindi per trovare la distribuzione condizionale per una tale distribuzione normale bivariata per X dato Y è definita seguendo la funzione di densità condizionale della variabile casuale continua e la funzione di densità articolare di cui sopra abbiamo

Distribuzione condizionale
Distribuzione condizionale della distribuzione normale bivariata

Osservando questo possiamo dire che questo è normalmente distribuito con la media

[lattice]\sinistra ( \mu {x} + \rho \frac{\sigma {x}}{\sigma {y}} (y-\mu {y}) \right )[/latex]

e varianza

[latex]\sigma _{x}^{2}(1-\rho ^{2})[/latex]

allo stesso modo la funzione di densità condizionale per Y dato X già definito si limiterà a scambiare le posizioni dei parametri di X con Y,

La funzione di densità marginale per X possiamo ottenere dalla funzione di densità condizionale di cui sopra utilizzando il valore della costante

Distribuzione condizionale
Distribuzione condizionale della distribuzione normale bivariata

sostituiamo nell'integrale

[latex]w=\frac{y-\mu {y}}{\sigma {y}}[/latex]

la funzione di densità sarà ora

poiché il valore totale di

dalla definizione della probabilità quindi la funzione di densità sarà ora

che non è altro che la funzione di densità della variabile casuale X con media e varianza usuali come parametri.

Distribuzione congiunta di probabilità della funzione di variabili aleatorie

  Finora conosciamo la distribuzione di probabilità congiunta di due variabili casuali, ora se abbiamo funzioni di tali variabili casuali, quale sarebbe la distribuzione di probabilità congiunta di tali funzioni, come calcolare la funzione di densità e distribuzione perché abbiamo situazioni di vita reale in cui hanno funzioni delle variabili casuali,

Se Y1 e Y2 sono le funzioni delle variabili casuali X1 e X2 rispettivamente che sono congiuntamente continue, allora sarà la funzione di densità continua congiunta di queste due funzioni

[latex]f_{Y_{1}Y_{2}}(y_{1}y_{2})=fX_{1}X_{2}(x_{1},x_{2})|J(x_{1},x_{2})|^{-1}[/latex]

where Jacobiano

[latex]J(x_{1},x_{2}) = \begin{vmatrix} \frac{\partial g_1}{\partial x_1} & \frac{\partial g_1}{\partial x_2} \ \ \\ \frac{\partial g_2}{\partial x_1} & \frac{\partial g_2}{\partial x_2} \end{vmatrix} \equiv \frac{\partial g_1}{\partial x_1}\frac{\partial g_2 }{\partial x_2} – \frac{\partial g_1}{\partial x_2}\frac{\partial g_2}{\partial x_1} \neq 0[/latex]

e Y1 =g1 (X1, X2) e Y2 =g2 (X1, X2) per alcune funzioni g1 e g2 . Qui g1 e g2 soddisfa le condizioni dello Jacobiano come continuo e ha derivate parziali continue.

Ora la probabilità per tali funzioni di variabili casuali sarà

Esempi sulla distribuzione congiunta di probabilità della funzione di variabili aleatorie

  1. Trova la funzione di densità congiunta delle variabili casuali Y1 =X1 +X2 e Y2=X1 -X2 , dove X1 e X2 sono la funzione congiuntamente continua con densità di probabilità congiunta. discutere anche per la diversa natura della distribuzione.

Qui per prima cosa controlleremo Jacobian

[latex]J(x_{1},x_{2}) = \begin{vmatrix} \frac{\partial g_1}{\partial x_1} & \frac{\partial g_1}{\partial x_2} \ \\ \ frac{\partial g_2}{\partial x_1} & \frac{\partial g_2}{\partial x_2} \end{vmatrix}[/latex]

poiché g1(x1, X2) = x1 +x2  e g2(x1, X2) = x1 - X2 so

[latex]J(x_{1},x_{2}) = \begin{vmatrix} 1 & 1 \ \\ 1 & -1 \end{vmatrix} =-2[/latex]

semplificando Y1 =X1 +X2 e Y2=X1 -X2 , per il valore di X1 = 1/2 (Y1 +Y2 ) e X2 = Y1 -Y2 ,

[latex]f_{Y_{1}},{Y{2}}(y_{1},y_{2})=\frac{1}{2}f_{X_{1},X_{2}}\left ( \frac{y_{1}+y_{2}}{2},\frac{y_{1} – y_{2}}{2} \right )[/latex]

se queste variabili casuali sono variabili casuali uniformi indipendenti

[latex]f_{Y_{1},Y_{2}} (y_{1},y_{2}) =\begin{casi} \frac{1}{2} \ \ 0 \leq y_{1} + y_{2} \leq 2 \ \ , \ \ 0\leq y_{1} – y_{2} \leq 2 \\ 0 \ \ altrimenti \end{cases}[/latex]

o se queste variabili casuali sono variabili casuali esponenziali indipendenti con parametri usuali

o se queste variabili casuali sono variabili casuali normali indipendenti, allora

[latex]f_{Y_{1},Y_{2}} (y_{1},y_{2}) =\frac{1}{4\pi }e^{-[(y_{1}+y_{2})^{2}/8 + (y_{1} -y_{2})^{2}/8]}[/latex]

[latex]=\frac{1}{4\pi } e^{-\left ( y_{1}^{2} + y_{2}^{2}\right )/4}[/latex]

[latex]=\frac{1}{\sqrt{4\pi }}e^{-y_{1}^{2}/4} \frac{1}{\sqrt{4\pi }}e^{-y_{2}^{2}/4}[/latex]

  • Se X e Y sono le variabili normali standard indipendenti come indicato
Distribuzione condizionale

calcolare la distribuzione congiunta per le rispettive coordinate polari.

Convertiremo con la normale conversione X e Y in r e θ come

[latex]g_{1}(x,y)=\sqrt{x^{2}+y^{2}} \ \ e \ \ \theta =g_{2} (x,y)= tan^{- 1}\frac{y}{x}[/latex]

quindi le derivate parziali di queste funzioni saranno

[latex]\frac{\partial g_{1}}{\partial x}=\frac{x}{\sqrt{x^{2}+y^{2}}}[/latex]

[latex]\frac{\partial g_{2}}{\partial x}=\frac{1}{1+ (y/x)^{2}}\left ( \frac{-y}{x^{ 2}} \right )^{2} =\frac{-y}{x^{2}+y^{2}}[/latex]

[latex]\frac{\partial g_{1}}{\partial y}=\frac{y}{\sqrt{x^{2}+y^{2}}}[/latex]

[latex]\frac{\partial g_{2}}{\partial y}=\frac{1}{x\left [ 1+(y/x)^{2} \right ]}=\frac{x} {x^{2}+y^{2}}[/latex]

quindi lo Jacobiano che usa questa funzione è

[latex]J(x,y)=\frac{x^{2}}{(x^{2}+y^{2})^{3/2}} + \frac{y^{2}}{(x^{2}+y^{2})^{3/2}} =\frac{1}{\sqrt{x^{2}+y^{2}}}=\frac{1}{r}[/latex]

se entrambe le variabili casuali X e Y sono maggiori di zero allora la funzione di densità congiunta condizionale lo è

[latex]f(x,y|X > 0, Y > 0)=\frac{f(x,y)}{P(X > 0, Y> 0)}=\frac{2}{\pi } e^{-(x^{2}+y^{2})/2} \ \ x> 0, \ \ y> 0[/latex]

ora la conversione della coordinata cartesiana nella coordinata polare usando

[latex]r=\sqrt{x^{2}+y^{2}} \ \ e \ \ \theta =tan^{-1}\left ( \frac{y}{x} \right )[/ lattice]

quindi la densità di probabilità function perché i valori positivi saranno

[latex]f(r,\theta|X > 0, Y> 0 )=\frac{2}{\pi }re^{-r^{2}/2} , \ \ 0< \theta < \frac {\pi }{2} , \ \ 0< r< \infty[/latex]

per il diverso combinazioni di X e Y le funzioni di densità in modi simili sono

[latex]f(r,\theta|X 0 )=\frac{2}{\pi }re^{-r^{2}/2} , \ \ \pi /2 < \theta < \pi , \ \ 0< r< \infty[/latex]

[latex]f(r,\theta|X < 0, Y< 0 )=\frac{2}{\pi }re^{-r^{2}/2} , \ \ \pi < \theta < 3 \pi/2 , \ \ 0< r< \infty[/latex]

[latex]f(r,\theta|X > 0, Y< 0 )=\frac{2}{\pi }re^{-r^{2}/2} , \ \ 3\pi/2 < \ theta < 2\pi , \ \ 0< r< \infty[/latex]

ora dalla media delle suddette densità possiamo affermare la funzione di densità come

[latex]f(r,\theta)=\frac{1}{2\pi }re^{-r^{2}/2} , \ \ 0 < \theta < 2\pi , \ \ 0< r < \infty[/latex]

e la funzione di densità marginale da questa densità congiunta di coordinate polari nell'intervallo (0, 2π)

[latex]f(r)=ri^{-r^{2}/2} , \ \ 0< r< \infty[/latex]

  • Trova la funzione di densità congiunta per la funzione di variabili casuali

U = X + Y e V = X / (X + Y)

dove X e Y sono i distribuzione gamma rispettivamente con parametri (α + λ) e (β +λ).

Utilizzando la definizione di distribuzione gamma e la funzione di distribuzione congiunta sarà la funzione di densità per le variabili casuali X e Y

[latex]f_{X,Y} (x,y)=\frac{\lambda e^{-\lambda x}(\lambda x)^{\alpha -1}}{\Gamma (\alpha )} \ frac{\lambda e^{-\lambda y}(\lambda y)^{\beta -1}}{\Gamma (\beta )}[/latex]

[latex]=\frac{\lambda ^{\alpha +\beta }}{\Gamma (\alpha ) \Gamma (\beta )} e^{-\lambda (x+y)} x^{\alpha - 1}y^{\beta -1}[/latex]

considera le funzioni date come

g1 (x, y) = x + y, g2 (x, y) = x / (x + y),

quindi la differenziazione di queste funzioni è

[latex]\frac{\partial g_{1}}{\partial x}=\frac{\partial g_{1}}{\partial y}=1[/latex]

[latex]\frac{\partial g_{2}}{\partial x}=\frac{y}{(x+y)^{2}}[/latex]

[latex]\frac{\partial g_{2}}{\partial y}=-\frac{x}{(x+y)^{2}}[/latex]

ora lo giacobiano è

[latex]J(x,y) = \begin{vmatrix} 1 & 2 \ \\ \frac{y}{(x+y)^{2}} & \frac{-x}{(x+y) ^{2}} \end{vmatrix} = -\frac{1}{x+y}[/latex]

dopo aver semplificato le equazioni date le variabili x = uv e y = u (1-v) la funzione di densità di probabilità è

[latex]f_{U,V}(u,v)=f_{X,Y} \left [ uv,u(1-v) \right ]u[/latex]

[latex]=\frac{\lambda e^{-\lambda u}(\lambda u)^{\alpha +\beta -1}}{\Gamma (\alpha +\beta )} \frac{v^{ \alpha -1}(1-v)^{\beta -1}\Gamma (\alpha +\beta )}{\Gamma (\alpha )\Gamma (\beta )}[/latex]

possiamo usare la relazione

[latex]B(\alpha ,\beta )=\int_{0}^{1}v^{\alpha -1}(1-v)^{\beta -1}dv[/latex]

[latex]=\frac{\Gamma (\alpha )\Gamma (\beta )}{\Gamma (\alpha +\beta )}[/latex]

  • Calcola la funzione di densità di probabilità congiunta per

Y1 =X1 +X2+ X3 , Y2 =X1- X2 , Y3 =X1 - X3

dove le variabili casuali X1 , X2, X3 sono lo standard normali variabili casuali.

Calcoliamo ora lo Jacobiano usando derivate parziali di

Y1 =X1 +X2+ X3 , Y2 =X1- X2 , Y3 =X1 - X3

as

[latex]J = \begin{vmatrix} 1 & 1 & 1 \ \\ 1 & -1 & 0 \\ \ 1 & 0 & -1 \end{vmatrix} =3[/latex]

semplificazione per variabili X1 , X2 e X3

X1 = (Y1 + Sì2 + Sì3) / 3, X2 = (Y1 - 2Y2 + Sì3) / 3, X3 = (Y1 + Sì2 -2 Sì3) / 3

possiamo generalizzare la funzione di densità articolare come

[latex]f_{Y_{1} \cdot \cdot \cdot Y_{n}}(y_{1} \cdot \cdot \cdot y_{n})=f_{X_{1} \cdot \cdot \cdot X_ {n}}(x_{1} \cdot \cdot \cdot x_{n})|J(x_{1} \cdot \cdot \cdot x_{n})|^{-1}[/latex]

così abbiamo

[latex]f_{Y_{1}, Y_{2},Y_{3}}(y_{1}, y_{2},y_{3})=\frac{1}{3}f_{X_{1},X_{2},X_{3}}\left ( \frac{y_{1}+y_{2}+y_{3}}{3}, \frac{y_{1}-2y_{2}+y_{3}}{3}, \frac{y_{1}+y_{2} -2y_{3}}{3} \right )[/latex]

per la variabile normale la funzione di densità di probabilità congiunta è

[latex]f_{X_{1}, X_{2},X_{3}}(x_{1}, x_{2},x_{3})=\frac{1}{(2\pi )^{3/2}}e^{-\sum_{i=1}^{3}x_{i}^{2}/2}[/latex]

quindi

[latex]f_{Y_{1}, Y_{2}, Y_{3}}(y_{1}, y_{2}, y_{3})=\frac{1}{3(2\pi )^{3/2}}e^{-Q(y_{1},y_{2},y_{3})/2}[/latex]

dove si trova l'indice

[latex]Q(y_{1},y_{2},y_{3})=\left ( \frac{(y_{1}+y_{2}+y_{3})}{3} \right ) ^{2} + \left ( \frac{(y_{1}-2y_{2}+y_{3})}{3} \right )^{2} + \left ( \frac{(y_{1} +y_{2}-2y_{3})}{3} \right )^{2}[/latex]

[latex]=\frac{y_{1}^{2}}{3} + \frac{2}{3} y_{2}^{2} +\frac{2}{3} y_{3}^{2} -\frac{2}{3}y_{2}y_{3}[/latex]

calcolare la funzione di densità congiunta di Y1 …… Yn e funzione di densità marginale per Yn where

[latex]Y_{i}= X_{1}+ \cdot \cdot \cdot.+X_{i} \ \ i=1, \cdot \cdot \cdot..,n[/latex]

e Xi sono variabili casuali esponenziali distribuite in modo identico indipendenti con parametro λ.

per le variabili casuali del modulo

Y1 =X1 , Y2 =X1 + X2 , ……, Sìn =X1 + …… + Xn

il giacobiano avrà la forma

e quindi il suo valore è uno, e la funzione di densità congiunta per la variabile casuale esponenziale

[latex]f_{X_{1} \cdot \cdot \cdot X_{n}}(x_{1}, \cdot \cdot \cdot,x_{n})=\prod_{i=1}^{n} \lambda e^{-\lambda x_{i}} \ \ 0< x_{i}< \infty , \ \ i=1, \cdot \cdot \cdot ,n[/latex]

e i valori della variabile Xi sarà

[latex]X_{1}=Y_{1} , X_{2}=Y_{2} -Y_{1} ,\cdot \cdot \cdot , X_{i}=Y_{i} -Y_{i-1 }, \cdot \cdot \cdot, X_{n}=Y_{n} -Y_{n-1}[/latex]

quindi la funzione di densità articolare è

[latex]f_{Y_{1}, \cdot \cdot \cdot \cdot Y_{n}}(y_{1},y_{2}, \cdot \cdot \cdot \cdot y_{n})=f_{ X_{1},\cdot \cdot \cdot \cdot ,X_{n}}(y_{1},y_{2} -y_{1},\cdot \cdot \cdot \cdot \cdot ,y_{i} -y_{i-1},\cdot \cdot \cdot ,y_{n}-y_{n-1} )[/latex]

[latex]=\lambda ^{n} exp\left { -\lambda \left [ y_{1} + \sum_{i=2}^{n}(y_{i}-y_{i-1}) \ destra ] \destra }[/latex]

[latex]=\lambda ^{n} e^{-\lambda y_{n}} \ \ 0< y_{1}, 0< y_{i}-y_{i-1} , i=2, \cdot \cdot \cdot ,n[/latex]

[latex]=\lambda ^{n} e^{-\lambda y_{n}} \ \ 0< y_{1} < y_{2} < \cdot \cdot \cdot < y_{n}[/latex]

Ora per trovare la funzione di densità marginale di Yn integreremo uno per uno come

[latex]f_{Y_{2}, \cdot \cdot \cdot \cdot Y_{n}} (y_{2}, \cdot \cdot \cdot \cdot y_{n})= \int_{0}^{ y_{2}}\lambda ^{n} e^{-\lambda y_{n}}dy_{1}[/latex]

[latex]=\lambda ^{n} y_{2} e^{-\lambda y_{n}} \ \ 0< y_{2} < y_{3} < \cdot \cdot \cdot < y_{n} [/lattice]

e

[latex]f_{Y_{3}, \cdot \cdot \cdot \cdot Y_{n}} (y_{3}, \cdot \cdot \cdot \cdot y_{n})= \int_{0}^{ y_{3}}\lambda ^{n} y_{2} e^{--\lambda y_{n}}dy_{2}[/latex]

[latex]=\frac{\lambda ^{n}}{2} y_{3}^{2} e^{--\lambda y_{n}} \ \ 0< y_{3} < y_{4} < \cdot \cdot \cdot < y_{n}[/latex]

allo stesso modo

[latex]f_{Y_{4}, \cdot \cdot \cdot \cdot Y_{n}} (y_{4}, \cdot \cdot \cdot \cdot y_{n}) =\frac{\lambda ^{ n}}{3!} y_{4}^{3} e^{-\lambda y_{n}} \ \ 0 < y_{4} < \cdot \cdot \cdot < y_{n}[/latex]

se continuiamo questo processo otterremo

[latex]f_{Y_{n}}(y_{n})=\lambda ^{n}\frac{y_{n}^{n-1}}{(n-1)!}e^{-\ lambda y_{n}} \ \ 0< y_{n}[/latex]

che è la funzione di densità marginale.

Conclusione:

distribuzione condizionale per la variabile casuale discreta e continua con diversi esempi considerando alcuni dei tipi di queste variabili casuali discussi, dove la variabile casuale indipendente gioca un ruolo importante. Inoltre il giunto distribuzione per la funzione di variabili aleatorie continue congiunte spiegato anche con esempi appropriati, se hai bisogno di ulteriori letture vai ai link sottostanti.

Per ulteriori post sulla matematica, fare riferimento al nostro Pagina di matematica

wikipediahttps://en.wikipedia.org/wiki/joint_probability_distribution/” target=”_blank” rel=”noreferrer noopener” class=”rank-math-link”>Wikipedia.org

Un primo corso di probabilità di Sheldon Ross

Schemi di probabilità e statistica di Schaum

Un'introduzione alla probabilità e alle statistiche di ROHATGI e SALEH

DOTT. MOHAMMED MAZHAR UL HAQUE

sono il dott. Mohammed Mazhar Ul Haque, assistente professore di matematica. Avendo 12 anni di esperienza nell'insegnamento. Avere una vasta conoscenza in Matematica Pura, precisamente in Algebra. Avere l'immensa capacità di progettare e risolvere problemi. Capace di motivare i candidati a migliorare le loro prestazioni. Amo contribuire a Lambdageeks per rendere la matematica semplice, interessante e autoesplicativa per principianti ed esperti. Connettiamoci tramite LinkedIn - https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Post Recenti