Distribuzione gamma inversa: 21 fatti importanti


Distribuzione gamma inversa e funzione generatrice di momento della distribuzione gamma

      Continuando con la distribuzione gamma vedremo il concetto di distribuzione gamma inversa e funzione generatrice di momento, misura della media delle tendenze centrali, modo e mediana della distribuzione gamma seguendo alcune delle proprietà di base della distribuzione gamma.

proprietà di distribuzione gamma

Alcuni dei importanti proprietà della distribuzione gamma sono arruolati come segue

La funzione di densità di probabilità per la distribuzione gamma è

[latex]f(x) = \begin{casi} \frac{\lambda e^{-\lambda x}(\lambda x)^{\alpha -1}}{\tau (\alpha )} &\ x \geq 0 \\ \ 0 &\ x < 0 \end{casi}[/latex]

or

[latex]f(x) = \begin{casi} \frac{ e^{-\frac{x}{\beta }}(x)^{\alpha -1}}{\beta ^{\alpha }\ tau (\alpha )} , &\ x\geq 0 \\ \ 0 &\ x < 0 \end{cases}[/latex]

dove si trova la funzione gamma

[latex]\tau (\alpha )=\int_{0}^{\infty} e^{-y}y^{\alpha -1} dy[/latex]

2.La funzione di distribuzione cumulativa per la distribuzione gamma è

[latex]f(a)=P(X\in (-\infty,a] ) =\int_{-\infty}^{a} f(x)dx[/latex]

dove f (x) è la funzione di densità di probabilità come data sopra, in particolare cdf è

[latex]F(x) = \begin{casi} 0 , &\ x\leq 0 , \ \frac{1}{\tau (\alpha )\beta ^{\alpha }}\int_{0}^{ x}y^{\alpha -1}e^-{(y/\beta) } dy &\ x > 0 \end{cases}[/latex]

[latex]E[X]={\alpha\lambda}[/latex]

e

[latex]Var(X)={{\alpha}\lambda}^2[/latex]

rispettivamente o

E [X] = α * β

e

[latex]Var(X)={{\alpha}\beta}^2[/latex]

  • La funzione di generazione del momento M (t) per la distribuzione gamma è

[latex]= \left ( \frac{1}{1-\beta t} \right )^{\alpha } \ \ if \ \ t< \frac{1}{\beta }[/latex]

or

[latex]= \left ( \frac{\lambda }{\lambda – t} \right )^{\alpha }[/latex]

  • La curva per pdf e cdf è
Distribuzione gamma inversa
  • La distribuzione gamma inversa può essere definita prendendo il reciproco della funzione di densità di probabilità della distribuzione gamma come

[latex]f(x) = \begin{cases} \frac{e^-{\frac{1}{\beta x}}(\frac{1}{x})^{\alpha -1}}{ \beta ^{\alpha }\tau (\alpha)} &\ x\geq 0 \\ \ 0 &\ x < 0 \end{cases}[/latex]

  • La somma della distribuzione gamma indipendente è di nuovo la distribuzione gamma con la somma dei parametri.

distribuzione gamma inversa | normale distribuzione gamma inversa

                Se nella distribuzione gamma nella funzione di densità di probabilità

[latex]f(x) = \begin{casi} \frac{\lambda e^{-\lambda x}(\lambda x)^{\alpha -1}}{\tau (\alpha )} &\ x \geq 0 \ 0 &\ x < 0 \end{casi}[/latex]

or

[latex]f(x) = \begin{casi} \frac{ e^{-\frac{x}{\beta }}(x)^{\alpha -1}}{\beta ^{\alpha }\ tau (\alpha )} , &\ x\geq 0 \\ \ 0 &\ x < 0 \end{cases}[/latex]

prendiamo la variabile reciproca o inversa, quindi sarà la funzione di densità di probabilità

[latex]f(x) = \begin{cases} \frac{e^-{\frac{1}{\beta x}}(\frac{1}{x})^{\alpha -1}}{ \beta ^{\alpha }\tau (\alpha)} &\ x\geq 0 \ \0 &\ x < 0 \end{cases}[/latex]

Quindi la variabile casuale con questa funzione di densità di probabilità è nota come la variabile casuale gamma inversa o la distribuzione gamma inversa o la distribuzione gamma invertita.

[latex]f_{Y}(y) = f_{X}(1/y)\sinistra | \frac{\mathrm{d} }{\mathrm{d} y}y^{-1} \right |[/latex]

[latex]= \frac{1}{\tau (\alpha )\beta ^{\alpha }}y^{-\alpha +1}e^{(-1/\beta y)}y^{-2 }[/lattice]

[latex]= \frac{(\frac{1}{\beta })^{\alpha }}{\tau (\alpha )}y^{-\alpha -1}e^{(-1/\beta )/a}[/lattice]

La funzione di densità di probabilità di cui sopra in qualsiasi parametro possiamo assumere la forma di lambda o theta, la funzione di densità di probabilità che è il reciproco della distribuzione gamma è la funzione di densità di probabilità della distribuzione gamma inversa.

Funzione di distribuzione cumulativa o cdf di distribuzione gamma inversa

                La funzione di distribuzione cumulativa per la distribuzione gamma inversa è la funzione di distribuzione

[latex]f(a)=P(X\in (-\infty,a] ) =\int_{-\infty}^{a} f(x)dx[/latex]

in cui f (x) è la funzione di densità di probabilità della distribuzione gamma inversa come

[latex]f(x) = \begin{cases} \frac{e^-{\frac{1}{\beta x}}(\frac{1}{x})^{\alpha -1}}{ \beta ^{\alpha }\tau (\alpha)} &\ x\geq 0 \ \0 &\ x < 0 \end{cases}[/latex]

Media e varianza della distribuzione gamma inversa

  La media e la varianza della distribuzione gamma inversa seguendo la definizione usuale di aspettativa e varianza saranno

[latex]E[X]=\frac{\beta }{\alpha -1} \ \ , \alpha > 1[/latex]

e

[latex]Var[X]=\frac{\beta ^{2}}{(\alpha -1)^{2}(\alpha -2)} \ \ , \alpha > 2[/latex]

Media e varianza della dimostrazione della distribuzione gamma inversa

        Per ottenere la media e la varianza della distribuzione gamma inversa utilizzando la funzione di densità di probabilità

[latex]f(x) = \begin{cases} \frac{e^-{\frac{1}{\beta x}}(\frac{1}{x})^{\alpha -1}}{ \beta ^{\alpha }\tau (\alpha)} &\ x\geq 0 \ \0 &\ x < 0 \end{cases}[/latex]

e la definizione delle aspettative, troviamo prima l'aspettativa per qualsiasi potenza di x come

[latex]E(X^{n})=\frac{\beta ^{\alpha }}{\tau (\alpha )}\int_{0}^{\infty}x^{n}x^{- \alpha -1} e^{(-\beta /x)} dx[/latex]

[latex]E(X^{n})=\frac{\beta ^{\alpha }}{\tau (\alpha )}\int_{0}^{\infty}x^{n-\alpha -1 } e^{(-\beta /x)} dx[/latex]

[latex]E(X^{n})=\frac{\beta ^{\alpha }}{\tau (\alpha )} \frac{\tau (\alpha -n)}{\beta^{\alpha -n}}[/latex]

[latex]=\frac{\beta ^{n}\tau (\alpha-n)}{(\alpha -1)….(\alpha -n)\tau (\alpha -n)}[/latex]

[latex]=\frac{\beta ^{n}}{(\alpha -1)….(\alpha -n)}[/latex]

nell'integrale sopra abbiamo usato la funzione di densità come

[latex]f(x)=\frac{\beta ^{\alpha }}{\tau \alpha }x^{-\alpha -1} e^{(-\beta /x)}[/latex]

ora per il valore di α maggiore di uno en come uno

[latex]E(X)=\frac{\beta }{\alpha -1}[/latex]

allo stesso modo il valore per n = 2 è per alfa maggiore di 2

[latex]E(X^{2})=\frac{\beta^{2} }{(\alpha -1)(\alpha -2)}[/latex]

l'utilizzo di queste aspettative ci darà il valore della varianza come

[latex]Var(X)=E(X^{2}) -E(X)^{2} =\frac{\beta^{2} }{(\alpha -1)^{2}(\alpha -2)}[/lattice]

Grafico distribuzione gamma inversa | Grafico della distribuzione gamma inversa

                La distribuzione gamma inversa è il reciproco della distribuzione gamma quindi mentre si osserva la distribuzione gamma è bene osservare la natura delle curve di distribuzione gamma inversa aventi funzione di densità di probabilità come

[latex]f(x) = \begin{cases} \frac{e^-{\frac{1}{\beta x}}(\frac{1}{x})^{\alpha -1}}{ \beta ^{\alpha }\tau (\alpha)} &\ x\geq 0 \ \ 0 &\ x < 0 \end{cases}[/latex]

e la funzione di distribuzione cumulativa seguendo

[latex]F(a)=P(X\in (-\infty,a] ) =\int_{-\infty}^{a} f(x)dx[/latex]

Distribuzione gamma inversa
Grafico della distribuzione gamma inversa

Biomimetic Mineral Mist grafici per la funzione di densità di probabilità e funzione di distribuzione cumulativa fissando il valore di α come 1 e variando il valore di β.

Distribuzione gamma inversa
Grafico della distribuzione gamma inversa

Descrizione: grafici per la funzione di densità di probabilità e la funzione di distribuzione cumulativa fissando il valore di α come 2 e variando il valore di β

Distribuzione gamma inversa
Grafico della distribuzione gamma inversa

Descrizione: grafici per la funzione di densità di probabilità e la funzione di distribuzione cumulativa fissando il valore di α come 3 e variando il valore di β.

Distribuzione gamma inversa
Grafico della distribuzione gamma inversa

Descrizione: grafici per la funzione di densità di probabilità e la funzione di distribuzione cumulativa fissando il valore di β come 1 e variando il valore di α.

Distribuzione gamma inversa
Grafico della distribuzione gamma inversa

Descrizione: grafici per la funzione di densità di probabilità e la funzione di distribuzione cumulativa fissando il valore di β come 2 e variando il valore di α

Distribuzione gamma inversa
Grafico della distribuzione gamma inversa

Descrizione: grafici per la funzione di densità di probabilità e la funzione di distribuzione cumulativa fissando il valore di β come 3 e variando il valore di α.

funzione generatrice di momento della distribuzione gamma

Prima di comprendere il concetto di funzione generatrice di momento per la distribuzione gamma, richiamiamo alcuni concetti di funzione generatrice di momento

Moments

    Il momento del variabile casuale è definito con l'aiuto dell'aspettativa come

[latex]{\mu_{r} }'=E(X^{r})[/latex]

questo è noto come momento r-esimo della variabile casuale X è il momento dell'origine e comunemente noto come momento grezzo.

     Se prendiamo il momento r-esimo della variabile casuale intorno alla media μ come

[latex]{\mu_{r} }=E[(X-\mu)^{r}][/latex]

questo momento sulla media è noto come momento centrale e l'aspettativa sarà secondo la natura della variabile casuale come

[latex]{\mu_{r} }=\sum (X-\mu)^{r} f(x) \ \ (discreto \ \ variabile)[/latex]

[latex]{\mu_{r} }=\int_{-\infty}^{\infty}(X-\mu)^{r} f(x) \ \ (continuo \ \ variabile)[/latex]

nel momento centrale se mettiamo valori di r allora otteniamo alcuni momenti iniziali come

[lattice]{\mu}{0}=1, {\mu}{1}=0 , {\mu}_{2}=\sigma ^{2}[/latex]

Se prendiamo l'espansione binomiale nei momenti centrali, possiamo facilmente ottenere la relazione tra i momenti centrali e grezzi come

[lattice]{\mu}{r}={\mu}'{r}- \binom{r}{1}{\mu}'{r-1}{\mu}+…..+(-1)^{j}\binom{r}{j}{\mu}'{rj}{\mu}^{j} + …..+(-1)^{^{r}}{\mu}'_{0}{\mu}^{r}[/latex]

alcune delle relazioni iniziali sono le seguenti

[lattice]{\mu}'{1}={\mu} \ \ e \ \ {\mu}'{0}=1 , \ \ \ {\mu}{2}= {\mu}'{2}- {\mu}^{2} \ {\mu}{3}= {\mu}'{3}-3{\mu}'{2}{\mu} +2{\mu}^{3} \ {\mu}{4}= {\mu}'{4}-4{\mu}'{3}{\mu}+6{\mu}'{2}{\mu}^{2} -3{\mu}'{4}[/lattice]

Funzione generatrice di momenti

   I momenti che possiamo generare con l'aiuto di una funzione quella funzione è nota come funzione generatrice di momento ed è definita come

[latex]M_{X}(t)=E(e^{tX})[/latex]

questa funzione genera i momenti con l'aiuto dell'espansione della funzione esponenziale in una delle forme

[latex]M_{X}(t)=\sum e^{tX}f(x) \ \ (discreto \ \ variabile) \ M_{X}(t)=\int_{-\infty}^{\infty } e^{tX}f(x) \ \ (continuo \ \ variabile)[/latex]

utilizzando il modulo Taylors come

[latex]M_{X}(t)=1+\mu t+\mu' {2}\frac{t^{2}}{2!} +….+\mu' {r}\frac{t^{r}}{r!}+..[/latex]

differenziando questa funzione espansa rispetto a t si ottengono i diversi momenti come

[lattice]\mu' {r}=\frac{\mathrm{d^{r}} }{\mathrm{d} t^{r}}M{X}(t)\lvert_{t=0 }[/latex]

in un altro modo se prendiamo la derivata direttamente come

[latex]M'(t)=\frac{\mathrm{d} }{\mathrm{d} t} E[e^{tX}] \ = E\left [ \frac{\mathrm{d} }{ \mathrm{d} t}(e^{tX}) \right ] \ =E\left [ Xe^{tX} \right ][/latex]

poiché per entrambi discreto

[latex]\frac{\mathrm{d} }{\mathrm{d} t}\left [ \sum_{x}e^{tx}p(x) \right ] =\sum_{x}\frac{\ mathrm{d} }{\mathrm{d} t}[e^{tx}p(x)][/latex]

e continuo che abbiamo

[latex]\frac{\mathrm{d} }{\mathrm{d} t}\left [ \int e^{tx}f(x)dx \right ] =\int \frac{\mathrm{d} } {\mathrm{d} t}[e^{tx}f(x)]dx[/latex]

quindi per t = 0 otterremo

[latex]M'(0)=E[X][/latex]

e allo stesso modo

[latex]M”(t)=\frac{\mathrm{d} }{\mathrm{d} t} M'(t) \ =\frac{\mathrm{d} }{\mathrm{d} t} E[Xe^{tX}] \ =E\sinistra [ \frac{\mathrm{d} }{\mathrm{d} t} (Xe^{tX})\right ] \ =E[X^{2} e^{tX}][/latex]

as

[latex]M”(0)=E[X^{2}][/latex]

e in generale

[latex]M^{n}(t)=E[X^{n}e^{tX}] \ \ n\geq 1 \ M^{n}(0)=E[X^{n}] \ \ n\geq 1[/latex]

ci sono due importanti relazioni per il momento che generano funzioni

[latex]M_{(X+a)/b}(t)=e^{at/b}] M_{X}(t/b) \ M_{(X+Y)}(t)=M_{X }(t) M_{Y}(t)[/latex]

funzione generatrice di momento di una distribuzione gamma | mgf di distribuzione gamma | funzione generatrice di momento per la distribuzione gamma

Ora per la gamma distribuzione la funzione generatrice di momento M(t) per il pdf

[latex]f(x) = \begin{casi} \frac{ e^{-\frac{x}{\beta }}(x)^{\alpha -1}}{\beta ^{\alpha }\ tau (\alpha )} , &\ x\geq 0 \ \0 &\ x < 0 \end{cases}[/latex]

is

[latex]=\left ( \frac{1}{1-\beta t} \right )^{\alpha } \ \ if \ \ t< \frac{1}{\beta }[/latex]

e per il pdf

[latex]f(x) = \begin{casi} \frac{\lambda e^{-\lambda x}(\lambda x)^{\alpha -1}}{\tau (\alpha )} &\ x \geq 0 \ \0 &\ x < 0 \end{casi}[/latex]

la funzione generatrice del momento è

[latex]=\sinistra ( \frac{\lambda }{\lambda -t} \right )^{\alpha }[/latex]

funzione di generazione di momento di distribuzione gamma prova | mgf di prova di distribuzione gamma

    Ora prendi prima la forma della funzione di densità di probabilità come

[latex]f(x) = \begin{casi} \frac{\lambda e^{-\lambda x}(\lambda x)^{\alpha -1}}{\tau (\alpha )} &\ x \geq 0 \ \0 &\ x < 0 \end{casi}[/latex]

e usando la definizione di funzione generatrice di momento M (t) abbiamo

[latex]M_{X}(t)=E(e^{tX})[/latex]

[latex]=E\sinistra [ e^{tX} \right ] \ =\frac{\lambda ^{\alpha }}{\tau (\alpha )}\int_{0}^{\infty} e^{ tx}e^{-\lambda x}x^{\alpha -1} dx \ =\frac{\lambda ^{\alpha }}{\tau (\alpha )}\int_{0}^{\infty} e^{-(\lambda -t)x}x^{\alpha -1} dx \ =\frac{\lambda }{\lambda -t}^{\alpha }\frac{1}{\tau (\ alpha )} \int_{0}^{\infty} e^{-y}y^{\alpha -1} dy \ \ \ \ [by \ \ y=(\lambda -t)x ] \ =\frac {\lambda }{\lambda -t}^{\alpha }[/latex]

possiamo trovare la media e la varianza della distribuzione gamma con l'aiuto della funzione di generazione del momento in quanto differenziando rispetto at due volte questa funzione avremo

[latex]=\frac{\alpha \lambda ^{\alpha }}{(\lambda -t)^{\alpha +1}} \\ = \frac{\alpha (\alpha +1)\lambda ^{ \alpha }}{(\lambda -t)^{\alpha +2}}[/latex]

se mettiamo t = 0, il primo valore sarà

[latex]E[X]=\frac{\alpha }{\lambda }[/latex]

e

[latex]E[X^{2}]=\frac{\alpha(\alpha +1)}{\lambda^{2} }[/latex]

Ora inserendo il valore di queste aspettative

[latex]Var(X)= E[X^{2}] -E[X]^{2} \ Var(X)= \frac{\alpha (\alpha +1)}{\lambda ^{2} } -\frac{\alpha ^{2}}{\lambda^{2}} \ Var(X) =\frac{\alpha ^{2}+\alpha }{\lambda ^{2}} -\frac {\alpha ^{2}}{\lambda^{2}} = \frac{\alpha }{\lambda ^{2}}[/latex]

in alternativa per il pdf del modulo

[latex]f(x) = \begin{casi} \frac{ e^{-\frac{x}{\beta }}(x)^{\alpha -1}}{\beta ^{\alpha }\ tau (\alpha )} , &\ x\geq 0 \\ \0 &\ x < 0 \end{cases}[/latex]

la funzione generatrice del momento sarà

[latex]M(t)=\frac{1}{\tau (\alpha )\beta ^{\alpha }}\int_{0}^{\infty}e^{^(x(t-1/\ beta )} x^{\alpha -1} dx \ = \left ( \frac{1}{1-\beta t} \right )^{\alpha }\int_{0}^{\infty} \frac{ y^{\alpha -1} e^{-y}}{\tau (\alpha )} dy \ \ , \ \ t< \frac{1}{\beta } \ = (1-\beta t)^ {-\alpha } \ \ t< \frac{1}{\beta }[/latex]

e differenziando e mettendo t = 0 si otterranno media e varianza come segue

[latex]EX=M'(t) \lvert_{t=0} =\alpha \beta , \ EX^{2} =M”(t) \lvert_{t=0}=\alpha (\alpha +1 )\beta ^{2} , \ Var(X) =\alpha \beta ^{2}[/latex]

2 ° momento della distribuzione gamma

   Il secondo momento della distribuzione gamma differenziando due volte la funzione generatrice del momento e mettendo il valore di t = 0 nella derivata seconda di quella funzione otterremo

[latex]E[X^{2}]=\frac{\alpha (\alpha +1)}{\lambda ^{2}}[/latex]

terzo momento della distribuzione gamma

                Il terzo momento della distribuzione gamma lo possiamo trovare differenziando tre volte la funzione generatrice del momento e mettendo il valore di t = 0 in terza derivata del mgf otterremo

[latex]E[X^{3}]=\frac{\alpha (\alpha +1)(\alpha +2)}{\lambda ^{3}}[/latex]

o direttamente integrando come

[latex]E[X^{3}]=\int_{0}^{\infty}x^{3}f_{X}(x)dx \ =\int_{0}^{\infty}\frac{ \lambda ^{\alpha }x^{3+\alpha -1}e^{-\lambda x}}{\tau (\alpha )} dx \ = \frac{1}{\lambda^{3}} \int_{0}^{\infty} \frac{\lambda ^{\alpha +3}x^{3+\alpha -1}e^{-\lambda x}}{\tau (\alpha )} dx \ = \frac{\tau (\alpha +3)}{\lambda ^{3}\tau (\alpha )} \int_{0}^{\infty} \frac{\lambda ^{\alpha +3} x^{3+\alpha -1}e^{-\lambda x}}{\tau (\alpha +3 )} dx[/latex]

 sigma per la distribuzione gamma

   sigma o deviazione standard della distribuzione gamma che possiamo trovare prendendo la radice quadrata della varianza della distribuzione gamma di tipo

[latex]Var(X)=\alpha \beta ^{2}[/latex]

or

[latex]Var(X)= \frac{\alpha}{\lambda ^{2}}[/latex]

per qualsiasi valore definito di alfa, beta e lambda.

funzione caratteristica della distribuzione gamma | funzione caratteristica di distribuzione gamma

      Se la variabile t nella funzione generatrice del momento è puramente un numero immaginario come t = iω allora la funzione è nota come funzione caratteristica della distribuzione gamma indicata ed espressa come

[latex]\phi_{X}(\omega )=M_{X}(i\omega )=E(e^{i\omega X})[/latex]

come per ogni variabile casuale la funzione caratteristica sarà

[latex]\phi_{X}(\omega )= \sum E(e^{i\omega X})f(x) \ \ (discreto \ \ variabile) \ \phi_{X}(\omega )= \ int_{-\infty}^{\infty} E(e^{i\omega X})f(x) \ \ (continuo\ \ variabile) \[/latex]

Quindi per la distribuzione gamma la funzione caratteristica seguendo il pdf della distribuzione gamma è

[latex]\phi_{X}(\omega )= (1-i\beta \omega )^{-\alpha }[/latex]

seguito

[latex]\int_{-\infty}^{\infty}x^{\alpha -1}e^{-x}(1-i\beta t)/\beta dx =((1-i\beta t )/\beta )^{-\alpha }\int_{0}^{\infty}x^{\alpha -1}e^{-x} dx=\tau (\alpha )\beta ^{\alpha } (1-i\beta t)^{-\alpha }[/latex]

C'è un'altra forma di questa funzione caratteristica anche se

[latex]M_{X}(t)=(1-\frac{2h}{n}t)^{-n/2}[/latex]

poi

[latex]\phi_{X} (t)=(1-\frac{2h}{n}it)^{-n/2}[/latex]

somma delle distribuzioni gamma | somma della distribuzione esponenziale gamma

  Per conoscere il risultato della somma della distribuzione gamma dobbiamo prima di tutto capire la somma della variabile casuale indipendente per la variabile casuale continua, per questo dobbiamo avere funzioni di densità di probabilità per le variabili casuali continue X e Y quindi la funzione di distribuzione cumulativa per la somma di variabili casuali sarà

F_ {X} + _ {Y} (a) = P {(X + Y \ leq a)} \ \
= \ iint {X + Y \ leq a} f_ {X} (x) f_ {Y} (y) dx dy \ = \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ { ay} f_ {X} (x) f_ {Y} (y) dx dy \ = \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {ay} f_ {X} (x) dx f_ {Y} (y) dy \ = \ int _ {- \ infty} ^ {\ infty} F_ {X} (ay) f_ {Y} (y) dy

differenziando questa convoluzione dell'integrale per le funzioni di densità di probabilità di X e Y si otterrà la funzione di densità di probabilità per la somma di variabili casuali come

[lattice]F_{X}+{Y}(a) =\frac{\mathrm{d} }{\mathrm{d} a}\int{-\infty}^{\infty}F_{X}(ay)f_{Y}(y) dy \ = \int_{-\infty}^{\infty}\frac{\mathrm{d} }{\ mathrm{d} a}F_{X}(ay)f_{Y}(y) dy \ = \int_{-\infty}^{\infty}f_{X}(ay)f_{Y}(y) dy [/lattice]

Ora proviamo se X e Y sono le variabili casuali gamma con le rispettive funzioni di densità, allora la somma sarà anche la distribuzione gamma con la somma degli stessi parametri

considerando la funzione di densità di probabilità della forma

[latex]f(x) = \begin{casi} \frac{\lambda e^{-\lambda x}(\lambda x)^{\alpha -1}}{\tau (\alpha )} &\ x \geq 0 \0 &\ x < 0 \end{casi}[/latex]

per la variabile casuale X prendi alfa come se per la variabile casuale Y prendi alfa come t quindi usando la densità di probabilità per la somma delle variabili casuali abbiamo

[lattice]F_{X}+{Y}(a) =\frac{1}{\Gamma (s)\Gamma (t)}\int{0}^{a}\lambda e^{-\lambda (ay)} (\lambda (ay))^{s-1}\lambda e^{-\lambda y} (\lambda y)^{t -1} dy[/latex]

qui C è indipendente da a, ora il valore sarà

[latex]F_{X}+_{Y}(a) =\frac{\lambda e^{-\lambda a}(\lambda a)^{s+t-1}}{\Gamma (s+t )}[/lattice]

che rappresentano la funzione di densità di probabilità della somma di X e Y e che è della distribuzione Gamma, quindi la somma della distribuzione gamma rappresenta anche la distribuzione gamma per rispettiva somma di parametri.

modalità di distribuzione gamma

    Per trovare il modo di distribuzione gamma, consideriamo la funzione di densità di probabilità come

[latex]f(x) = \begin{casi} \frac{\lambda e^{-\lambda x}(\lambda x)^{\alpha -1}}{\Gamma (\alpha )} &\ x \geq 0 \ \0 &\ x < 0 \end{casi}[/latex]

ora differenziamo questo pdf rispetto a x, otterremo la differenziazione come

[latex]= \frac{\lambda ^{\alpha }}{\Gamma (\alpha )}e^{-\lambda x} [(\alpha -1)x^{\alpha -2}-\lambda x ^{\alpha -1}] = \frac{\lambda ^{\alpha }}{\Gamma (\alpha )}e^{-\lambda x} [(\alpha -1)x^{\alpha -2 }[(\alpha -1)-\lambda x]][/latex]

questo sarà zero per x = 0 o x = (α -1) / λ

quindi questi sono solo punti critici in cui la nostra derivata prima sarà zero se alfa maggiore o uguale a zero allora x=0 non sarà moda perché questo rende pdf zero quindi modalità sarà (α -1)/λ

e per alfa strettamente inferiore a uno la derivata diminuisce da infinito a zero quando x aumenta da zero a infinito quindi questo non è possibile, quindi il modo di distribuzione gamma è

[latex]\textbf{modalità} =\mathbf{\frac{\alpha -1}{\lambda }}[/latex]

mediana della distribuzione gamma

La mediana della distribuzione gamma può essere trovata con l'aiuto della distribuzione gamma inversa come

[latex]\textbf{mediana} ={\frac{\1}{\lambda }\gamma ^{-1} \left ( \alpha , \frac{\Gamma (\alpha )}{2} \right ) } [/lattice]

or

[latex]\textbf{mediana} =\beta \gamma ^{-1}\left ( \alpha , \frac{\Gamma (\alpha )}{2} \right )[/latex]

purché

[latex]n+\frac{2}{3}< median(n)< min(n+log2,n+\frac{2}{3}+(2n+2)^{-1})[/latex]

che dà

[latex]median(n)=n+\frac{2}{3}+\frac{8}{405n} -\frac{64}{5103n^{2}}+…..[/latex]

forma di distribuzione gamma

     La distribuzione gamma assume una forma diversa a seconda del parametro di forma quando il parametro di forma è una distribuzione gamma è uguale alla distribuzione esponenziale ma quando si varia il parametro di forma l'asimmetria della curva di distribuzione gamma diminuisce con l'aumento del parametro di forma, in altre parole la forma della curva di distribuzione gamma cambia in base alla deviazione standard.

asimmetria della distribuzione gamma

    L'asimmetria di qualsiasi distribuzione può essere osservata osservando la funzione di densità di probabilità di quella distribuzione e il coefficiente di asimmetria

[lattice]\gamma {1}=\frac{E\sinistra [ \left ( X -\mu \right )^{3} \right ]}{\sigma ^{3}} =\frac{\mu{3}}{\sigma ^{3}}[/latex]

per la distribuzione gamma che abbiamo

[latex]E(X^{k})=\frac{(\alpha +k-1)(\alpha +k-2)…….\alpha }{\beta ^{k}}[/latex]

so

[latex]\gamma _{1}=\frac{ \frac{(\alpha +2)(\alpha +1)\alpha }{\beta ^{3}}-3\frac{\alpha }{\beta }\frac{\alpha }{\beta ^{3}}-\frac{\alpha ^{3}}{\beta ^{3}} }{{\left ( \frac{\alpha }{\beta ^ {2}} \right )}^{\frac{3}{2}}}=\frac{2}{\sqrt{\alpha }}[/latex]

questo mostra che l'asimmetria dipende da alfa solo se alfa aumenta all'infinito la curva sarà più simmetrica e nitida e quando alfa va a zero la curva di densità di distribuzione gamma è positivamente inclinata che può essere osservata nei grafici di densità.

distribuzione gamma generalizzata | forma e parametro di scala nella distribuzione gamma | distribuzione gamma a tre parametri | distribuzione gamma multivariata

[latex]f(x)=\frac{ (\frac{(x-\mu)}{\beta })^{\gamma -1}e^{-\frac{x-\mu}{\beta } }}{\beta \Gamma (\gamma )} \ \ x\geq \mu ; \gamma ,\beta > 0[/latex]

dove γ, μ e β sono rispettivamente i parametri di forma, posizione e scala, assegnando valori specifici a questi parametri possiamo ottenere la distribuzione gamma a due parametri specificatamente se mettiamo μ = 0, β = 1 allora otterremo la distribuzione gamma standard come

[latex]f(x)=\frac{x^{\gamma -1}e^{-x}}{\Gamma(\gamma)} \ \ x\geq 0 ; \gamma > 0[/latex]

usando questa funzione di densità di probabilità della distribuzione gamma a 3 parametri possiamo trovare l'aspettativa e la varianza seguendo la definizione rispettivamente.

Conclusione:

Il concetto di reciproco della distribuzione gamma che è distribuzione gamma inversa rispetto alla distribuzione gamma e la misura delle tendenze centrali della distribuzione gamma con l'aiuto della funzione di generazione del momento erano al centro di questo articolo, se hai bisogno di ulteriori letture, consulta i libri ei link suggeriti. Per ulteriori post sulla matematica, visita il nostro pagina di matematica.

https://en.wikipedia.org/wiki/Gamma_distribution

Un primo corso di probabilità di Sheldon Ross

Schemi di probabilità e statistica di Schaum

Un'introduzione alla probabilità e alle statistiche di ROHATGI e SALEH

DOTT. MOHAMMED MAZHAR UL HAQUE

sono il dott. Mohammed Mazhar Ul Haque, assistente professore di matematica. Avendo 12 anni di esperienza nell'insegnamento. Avere una vasta conoscenza in Matematica Pura, precisamente in Algebra. Avere l'immensa capacità di progettare e risolvere problemi. Capace di motivare i candidati a migliorare le loro prestazioni. Amo contribuire a Lambdageeks per rendere la matematica semplice, interessante e autoesplicativa per principianti ed esperti. Connettiamoci tramite LinkedIn - https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Post Recenti