Funzioni che generano momenti: 13 fatti importanti


Funzione generatrice di momenti    

La funzione di generazione del momento è una funzione molto importante che genera i momenti della variabile casuale che coinvolgono media, deviazione standard e varianza ecc., Quindi con l'aiuto della sola funzione di generazione del momento, possiamo trovare momenti di base e momenti più alti, In questo articolo abbiamo vedrà le funzioni generatrici di momento per le diverse variabili casuali discrete e continue. poiché la funzione generatrice di momenti (MGF) è definita con l'aiuto dell'aspettativa matematica indicata da M(t) come

[lattice][/lattice]

[latex]M(t)=E\sinistra[e^{t X}\destra][/latex]

e usando la definizione di aspettativa per la variabile casuale discreta e continua questa funzione sarà

[latex]M(t)=\sinistra\{\begin{array}{ll}
\sum_{x} e^{tx} p(x) & \text { if } X \text { è discreto con funzione di massa } p(x) \\
\int_{-\infty}^{\infty} e^{ix} f(x) dx & \text { if } X \text { è continuo con densità } f(x)
\end{array}\right.
[/lattice]

che sostituendo il valore di t come zero genera rispettivi momenti. Questi momenti dobbiamo raccogliere differenziando questa funzione generatrice di momenti ad esempio per primo momento o media che possiamo ottenere differenziando una volta come

[lattice]\begin{allineato}
M^{\prime}(t) &=\frac{d}{dt} E\sinistra[e^{t X}\destra] \\
&=E\sinistra[\frac{d}{dt}\sinistra(e^{LX}\destra)\destra] \\
&=E\sinistra[X e^{t X}\destra]
\end{aligned}[/latex]

Questo dà il suggerimento che la differenziazione è intercambiabile sotto l'aspettativa e possiamo scriverla come

[latex]\frac{d}{dt}\left[\sum_{x} e^{ix} p(x)\right]=\sum_{x} \frac{d}{dt}\left[e^ {\nomeoperatore{tr}} p(x)\right][/latex]

e

[latex]\frac{d}{dt}\left[\int e^{ix} f(x) dx\right]=\int \frac{d}{dt}\left[e^{tx} f( x)\destra] dx[/latex]

se t=0 i momenti precedenti saranno

[latex]M^{\prime}(0)=E[X][/latex]

e

[lattice]\begin{allineato}
M^{\prime \prime}(t) &=\frac{d}{dt} M^{\prime}(t) \\
&=\frac{d}{dt} E\sinistra[X e^{t X}\destra] \\
&=E\sinistra[\frac{d}{dt}\sinistra(X e^{t X}\destra)\destra] \\
&=E\sinistra[X^{2} e^{LX}\destra]\\
M^{\prime \prime}(0)&=E\sinistra[X^{2}\destra]
\end{aligned}[/latex]

In generale possiamo dire che

[latex]M^{n}(t)=E\sinistra[X^{n} e^{t X}\destra] \quad n \geq 1[/latex]

quindi

[latex]M^{n}(0)=E\sinistra[X^{n}\destra] \quad n \geq 1[/latex]

Funzione generatrice del momento della distribuzione binomiale||Funzione generatrice del momento della distribuzione binomiale||MGF della distribuzione binomiale||Media e varianza della distribuzione binomiale utilizzando la funzione generatrice del momento

La funzione generatrice del momento per la variabile casuale X che è distribuzione binomiale seguirà la funzione di probabilità della distribuzione binomiale con i parametri n e p come

[lattice]\begin{allineato}
M(t) &=E\sinistra[e^{t X}\destra] \\
&=\sum_{k=0}^{n} e^{tk}\left(\begin{array}{l}
n \\
k
\end{array}\right) p^{k}(1-p)^{nk} \\
&=\sum_{k=0}^{n}\left(\begin{array}{l}
n \\
k
\end{array}\right)\left(pe^{t}\right)^{k}(1-p)^{nk} \\
&=\sinistra(pe^{t}+1-p\destra)^{n}
\end{aligned}[/latex]

che è il risultato del teorema binomiale, ora differenziando e ponendo il valore di t=0

[latex]M^{\prime}(t)=n\sinistra(pe^{t}+1-p\destra)^{n-1} pe^{t}\\
E[X]=M^{\prime}(0)=np[/latex]

che è la media o il primo momento della distribuzione binomiale allo stesso modo il secondo momento sarà

[latex]M^{\prime}(t)=n(n-1)\left(pe^{t}+1-p\right)^{n-2}\left(pe^{t}\right )^{2}+n\sinistra(pe^{t}+1-p\destra)^{n-1} pe^{t}\\
E\left[X^{2}\right]=M^{\prime \prime}(0)=n(n-1) p^{2}+np[/latex]

quindi la varianza della distribuzione binomiale sarà

[lattice]\begin{allineato}
\nomeoperatore{Var}(X) &=E\sinistra[X^{2}\destra]-(E[X])^{2} \\
&=n(n-1) p^{2}+n pn^{2} p^{2} \\
&=np(1-p)
\end{aligned}[/latex]

che è la media e la varianza standard della distribuzione binomiale, allo stesso modo anche i momenti più alti possiamo trovare usando questa funzione generatrice di momenti.

Funzione generatrice di momenti di Poisson distribuzione||Poisson funzione generatrice del momento di distribuzione||MGF of Poisson distribuzione||Media e varianza della distribuzione di Poisson utilizzando la funzione generatrice di momenti

 Se abbiamo la variabile casuale X che è distribuita da Poisson con il parametro Lambda, allora la funzione generatrice del momento per questa distribuzione sarà

[lattice]\begin{allineato}
M(t) &=E\sinistra[e^{\ell X}\destra] \\
&=\sum_{n=0}^{\infty} \frac{e^{in} e^{-\lambda} \lambda^{n}}{n !} \\
&=e^{-\lambda} \sum_{n=0}^{\infty} \frac{\left(\lambda e^{t}\right)^{n}}{n !}\\
&=e^{-\lambda} e\\
&=e^ {\sinistra\{\lambda\sinistra(e^{t}-1\destra)\destra\}}
\end{aligned}[/latex]

ora differenziando questo darà

[lattice]\begin{allineato}
M^{\prime}(t) &=\lambda e^{t} e^{\sinistra\{\lambda\sinistra(e^{t}-1\destra)\destra\} }\\
M^{\prime \prime}(t) &=\left(\lambda e^{t}\right)^{2} e^{\left\{\lambda\left(e^{t}-1\ destra)\destra\}}+\lambda e^{t} e^{ \sinistra\{\lambda\sinistra(e^{t}-1\destra)\destra\}}
\end{aligned}[/latex]

questo da

[lattice]\begin{allineato}
E[X] &=M^{\prime}(0)=\lambda \\
E\sinistra[X^{2}\destra] &=M^{\prime \prime}(0)=\lambda^{2}+\lambda \\
\nomeoperatore{Var}(X) &=E\sinistra[X^{2}\destra]-(E[X])^{2} \\
&=\lambda
\end{aligned}[/latex]

che dà la media e la varianza per la distribuzione di Poisson stessa che è vera

Funzione generatrice del momento della distribuzione esponenziale||Esponenziale funzione generatrice del momento di distribuzione||MGF of Esponenziale distribuzione||Media e varianza di Esponenziale distribuzione usando la funzione generatrice di momenti

                La funzione generatrice del momento per la variabile casuale esponenziale X seguendo la definizione è

[lattice]\begin{allineato}
M(t) &=E\sinistra[e^{t X}\destra] \\
&=\int_{0}^{\infty} e^{\lfloor x} \lambda e^{-\lambda x} dx \\
&=\lambda \int_{0}^{\infty} e^{-(\lambda-t) x} dx \\
&=\frac{\lambda}{\lambda-t} \quad \text { for } t<\lambda
\end{aligned}[/latex]

qui il valore di t è inferiore al parametro lambda, ora differenziando questo darà

[latex]M^{\prime}(t)=\frac{\lambda}{(\lambda-t)^{2}} \quad M^{\prime \prime}(t)=\frac{2 \ lambda}{(\lambda-t)^{3}}[/latex]

che fornisce i momenti

[latex]E[X]=M^{\prime}(0)=\frac{1}{\lambda} \quad E\left[X^{2}\right]=M^{\prime \prime} (0)=\frac{2}{\lambda^{2}}[/latex]

chiaramente

[lattice]\begin{allineato}
\nomeoperatore{Var}(X) &=E\sinistra[X^{2}\destra]-(E[X])^{2} \\
&=\frac{1}{\lambda^{2}}
\end{aligned}[/latex]

Quali sono la media e la varianza della distribuzione esponenziale.

Funzione generatrice del momento della distribuzione normale||Normal funzione generatrice del momento di distribuzione||MGF of Normal distribuzione||Media e varianza di pelle Normale distribuzione usando la funzione generatrice di momenti

  La funzione generatrice di momenti per le distribuzioni continue è uguale a quella discreta quindi la funzione generatrice di momenti per la distribuzione normale con funzione di densità di probabilità standard sarà

[lattice]\begin{allineato}
M_{Z}(t) &=E\sinistra[e^{t Z}\destra] \\
&=\frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{tx} e^{-x^{2} / 2} dx
\end{aligned}[/latex]

questa integrazione possiamo risolverla aggiustando come

[latex]\begin{array}{l}
=\frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{ \left\{-\frac{\left(x^{2}-2 tx\ destra)}{2}\destra\} }dx \\
=\frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{ \left\{-\frac{(xt)^{2}}{2}+ \frac{t^{2}}{2}\right\}} dx \\
=e^{t^{2} / 2} \frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{-(xt)^{2} / 2} dx \\
=e^{t^{2} / 2}
\end{array}[/latex]

poiché il valore dell'integrazione è 1. Quindi la funzione generatrice dei momenti per la variabile normale standard sarà

[latex]M_{Z}(t)=e^{t^{2} / 2}[/latex]

da questo possiamo ricavare per ogni variabile aleatoria normale generale la funzione generatrice dei momenti usando la relazione

[latex]X=\mu+\sigma Z[/latex]

così

[lattice]\begin{allineato}
M_{X}(t) &=E\sinistra[e^{t X}\destra] \\
&=E\sinistra[e^{t(\mu+\sigma Z)}\destra] \\
&=E\sinistra[e^{t \mu} e^{b \sigma Z}\destra] \\
&=e^{t \mu} E\sinistra[e^{k \sigma Z}\destra] \\
&=e^{t \mu} M_{Z}(t \sigma) \\
&=e^{t \mu} e^{(t \sigma)^{2} / 2} \\
&=e^{\sinistra\{\frac{\sigma^{2} t^{2}}{2}+\mu t\destra\}}
\end{aligned}[/latex]

così la differenziazione ci dà

[latex]\begin{array}{l}
M_{X}^{\prime}(t)=\left(\mu+t \sigma^{2}\right) \exp \left\{\frac{\sigma^{2} t^{2}} {2}+\mu t\destra\} \\
M_{X}^{\prime \prime}(t)=\left(\mu+t \sigma^{2}\right)^{2} \exp \left\{\frac{\sigma^{2} t^{2}}{2}+\mu t\right\}+\sigma^{2} \exp \left\{\frac{\sigma^{2} t^{2}}{2}+\ mu t\destra\}
\end{array}[/latex]

così

[lattice]\begin{allineato}
E[X] &=M^{\prime}(0)=\mu \\
E\sinistra[X^{2}\destra] &=M^{\prime \prime}(0)=\mu^{2}+\sigma^{2}
\end{aligned}[/latex]

quindi la varianza sarà

[lattice]\begin{allineato}
\nomeoperatore{Var}(X) &=E\sinistra[X^{2}\destra]-E([X])^{2} \\
&=\sigma^{2}
\end{aligned}[/latex]

Funzione generatrice del momento di Somma di variabili casuali

Funzione generatrice di momenti della somma delle variabili casuali dà proprietà importante che è uguale al prodotto della funzione generatrice dei momenti delle rispettive variabili casuali indipendenti cioè per le variabili casuali indipendenti X e Y quindi la funzione generatrice dei momenti per la somma della variabile casuale X+Y è

Funzione generatrice di momenti
MGF DI SOMMA

qui le funzioni generatrici di momento di ciascuna X e Y sono indipendenti dalla proprietà dell'aspettativa matematica. Nella successione troveremo la somma delle funzioni generatrici di momento di diverse distribuzioni.

Somma di variabili casuali binomiali

Se le variabili casuali X e Y sono distribuite per distribuzione binomiale con i parametri (n,p) e (m,p) rispettivamente, allora la funzione generatrice dei momenti della loro somma X+Y sarà

[lattice]\begin{allineato}
M_{X+Y}(t)=M_{X}(t) M_{Y}(t) &=\left(pe^{t}+1-p\right)^{n}\left(pe^ {t}+1-p\destra)^{m} \\
&=\sinistra(pe^{t}+1-p\destra)^{m+n}
\end{aligned}[/latex]

dove i parametri per la somma sono (n+m,p).

Somma di variabili casuali di Poisson

La distribuzione per la somma delle variabili casuali indipendenti X e Y con rispettive medie che sono distribuite dalla distribuzione di Poisson la possiamo trovare come

[lattice]\begin{allineato}
M_{X+Y}(t) &=M_{X}(t) M_{Y}(t) \\
&=\exp \left\{\lambda_{1}\left(e^{t}-1\right)\right\} \exp \left\{\lambda_{2}\left(e^{t}- 1\destra)\destra\} \\
&=\exp \left\{\left(\lambda_{1}+\lambda_{2}\right)\left(e^{t}-1\right)\right\}
\end{aligned}[/latex]

Dove

[latex]\lambda_{1}+\lambda_{2}[/latex]

è la media della variabile casuale di Poisson X+Y.

Somma di variabili casuali normali

     Considera l'indipendente normali variabili casuali X e Y con i parametri

[latex]sinistra(\mu_{1}, \sigma_{1}^{2}\destra) \ e \ \sinistra(\mu_{2}, \sigma_{2}^{2}\destra)[/latex ]

quindi per la somma delle variabili casuali X+Y con parametri

[latex]\mu_{1}+\mu_{2} \ e \ \sigma_{1}^{2}+\sigma_{2}^{2}[/latex]

quindi la funzione generatrice dei momenti sarà

[lattice]\begin{allineato}
M_{X+Y}(t) &=M_{X}(t) M_{Y}(t) \\
&=e^{\left\{\frac{\sigma_{1}^{2} t^{2}}{2}+\mu_{1} t\right\} \exp \left\{\frac{ \sigma_{2}^{2} t^{2}}{2}+\mu_{2} t\destra\}} \\
&=e^{\left\{\frac{\left(\sigma_{1}^{2}+\sigma_{2}^{2}\right) t^{2}}{2}+\left(\mu_{1}+\mu_{2}\right) t\right\}}
\end{aligned}[/latex]

che è una funzione generatrice di momenti con media e varianza additiva.

Somma del numero casuale di variabili casuali

Per trovare la funzione generatrice dei momenti della somma del numero casuale di variabili casuali assumiamo la variabile casuale

[latex]Y=\sum_{i=1}^{N} X_{i[/latex]

dove le variabili casuali X1,X2, … sono sequenze di variabili casuali di qualsiasi tipo, che sono indipendenti e identicamente distribuite allora la funzione generatrice del momento sarà

[lattice]\begin{allineato}
E\left[\exp \left\{t \sum_{1}^{N} X_{i}\right\} \mid N=n\right] &=E\left[\exp \left\{t \ somma_{1}^{n} X_{i}\destra\} \metà N=n\destra] \\
&=E\sinistra[\exp \sinistra\{t \sum_{1}^{n} X_{i}\destra\}\destra] \\
&=\sinistra[M_{X}(t)\destra]^{n}
\end{aligned}[/latex]

[latex]\text{dove }MX(t)=E\left[e^{t X_{i}}\right]\\ \text{Così } E\left[e^{t Y} \mid N\ destra]=\sinistra(M_{X}(t)\destra)^{N}\\ M_{Y}(t)=E\sinistra[\sinistra(M_{X}(t)\destra)^{N }\destra][/lattice]

Che dà la funzione generatrice dei momenti di Y sulla differenziazione come

[latex]M_{Y}^{\prime}(t)=E\sinistra[N\sinistra(M_{X}(t)\destra)^{N-1} M_{X}^{\prime}( t)\destra][/latex]

quindi

[lattice]\begin{allineato}
E[Y] &=M_{Y}^{\prime}(0) \\
&=E\sinistra[N\sinistra(M_{X}(0)\destra)^{N-1} M_{X}^{\prime}(0)\destra] \\
&=E[AVANTI] \\
&=E[N] E[X]
\end{aligned}[/latex]

allo stesso modo la differenziazione due volte darà

[latex]M_{Y}^{\prime \prime}(t)=E\sinistra[N(N-1)\sinistra(M_{X}(t)\destra)^{N-2}\sinistra( M_{X}^{\prime}(t)\destra)^{2}+N\sinistra(M_{X}(t)\destra)^{N-1} M_{X}^{\prime \prime }(t)\destra][/latex]

che danno

[lattice]\begin{allineato}
E\sinistra[Y^{2}\destra] &=M_{Y}^{\prime \prime}(0) \\
&=E\sinistra[N(N-1)(E[X])^{2}+NE\sinistra[X^{2}\destra]\destra] \\
&=(E[X])^{2}\sinistra(E\sinistra[N^{2}\destra]-E[N]\destra)+E[N] E\sinistra[X^{2}\ Giusto] \\
&=E[N]\sinistra(E\sinistra[X^{2}\destra]-(E[X])^{2}\destra)+(E[X])^{2} E\sinistra[ N^{2}\destra] \\
&=E[N] \nomeoperatore{Var}(X)+(E[X])^{2} E\sinistra[N^{2}\destra]
\end{aligned}[/latex]

quindi la varianza sarà

[lattice]\begin{allineato}
\operatorname{Var}(Y) &=E[N] \operatorname{Var}(X)+(E[X])^{2}\left(E\left[N^{2}\right]-( E[N])^{2}\destra) \\
&=E[N] \nomeoperatore{Var}(X)+(E[X])^{2} \nomeoperatore{Var}(N)
\end{aligned}[/latex]

Esempio di variabile casuale Chi-quadrato

Calcola la funzione generatrice dei momenti della variabile casuale Chi-quadrato con n gradi di libertà.

Soluzione: si consideri la variabile casuale Chi-quadrato con n gradi di libertà per

[latex]Z_{1}^{2}+\cdots+Z_{n}^{2}[/latex]

la sequenza delle variabili normali standard allora la funzione generatrice del momento sarà will

[latex]M(t)=\left(E\left[e^{t Z^{2}}\right]\right)^{n}[/latex]

così dà

[lattice]\begin{allineato}
E\left[e^{t Z^{2}}\right] &=\frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{tx^ {2}} e^{-x^{2} / 2} dx \\
&=\frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{-x^{2} / 2 \sigma^{2}} dx \quad \ testo { dove } \sigma^{2}=(1-2 t)^{-1} \\
&=\sigma \\
&=(1-2 t)^{-1 / 2}
\end{aligned}[/latex]

la densità normale con media 0 e varianza σ2 integra a 1

[latex]M(t)=(1-2 t)^{-n / 2}[/latex]

che è la funzione generatrice del momento richiesta di n gradi di libertà.

Esempio di variabile casuale uniforme

Trova la funzione generatrice di momento della variabile casuale X che è distribuita in modo binomiale con i parametri n e p dati i condizionale variabile casuale Y=p sull'intervallo (0,1)

Soluzione: trovare la funzione generatrice dei momenti della variabile casuale X data Y

[latex]E\sinistra[e^{XX} \mid Y=p\destra]=\sinistra(pe^{t}+1-p\destra)^{n}[/latex]

utilizzando la distribuzione binomiale, sin Y è la variabile casuale Uniforme sull'intervallo (0,1)

[lattice]
\begin{array}{l}
E\left[e^{t X}\right]=\int_{0}^{1}\left(pe^{t}+1-p\right)^{n} dp
\\=\frac{1}{e^{t}-1} \int_{1}^{e^{t}} y^{n} dy\\
=\frac{1}{n+1} \frac{e^{t(n+1)}-1}{e^{t}-1} \\
=\frac{1}{n+1}\left(1+e^{t}+e^{2 t}+\cdots+e^{nt}\right)
\end{array}
\\\text{sostituendo }\left.y=pe^{t}+1-p\right)
[/lattice]

Funzione generatrice del momento articolare

La funzione generatrice del momento congiunto per il numero n di variabili casuali X1,X2,…,Xn

[latex]M\left(t_{1}, \ldots, t_{n}\right)=E\left[e^{t_{1} X_{1}+\cdots+t_{n} X_{n} }\destra][/lattice]

dove1,t2,……Tn sono i numeri reali, dalla funzione generatrice del momento congiunta possiamo trovare la funzione generatrice del momento individuale come

[latex]M_{X_{i}}(t)=E\sinistra[e^{t X_{i}}\destra]=M(0, \lpunti, 0, t, 0, \lpunti, 0)[ /lattice]

Teorema: Le variabili casuali X1,X2,…,Xn sono indipendenti se e solo se la funzione generatrice di mementi congiunta

[latex]M\left(t_{1}, \ldots, t_{n}\right)=M X_{1}\left(t_{1}\right) \cdots M X_{n}\left(t_{ n}\destra)[/latex]

Dimostrazione: Assumiamo che le variabili casuali date X1,X2,…,Xn sono indipendenti allora

[lattice]\begin{allineato}
M\left(t_{1}, \ldots, t_{n}\right) &=E\left[e^{\left(t_{1} X_{1}+\cdots+t_{n} X_{n }\giusto giusto] \\
&=E\sinistra[e^{t_{1} X_{1}} \ldots e^{t_{n} X_{n}}\destra] \\
&=E\left[e^{t_{1} X_{1}}\right] \cdots E\left[e^{t_{n} X_{n}}\right] \quad \text { per indipendenza } \\
&=M_{X_{1}}\left(t_{1}\right) \cdots M_{X_{n}}\left(t_{n}\right)
\end{aligned}[/latex]

Supponiamo ora che la funzione generatrice del momento articolare soddisfi l'equazione

[latex]M\left(t_{1}, \ldots, t_{n}\right)=M X_{1}\left(t_{1}\right) \cdots M X_{n}\left(t_{ n}\destra)[/latex]

  • per dimostrare le variabili casuali X1,X2,…,Xn sono indipendenti abbiamo il risultato che la funzione generatrice del momento comune fornisce in modo univoco la distribuzione congiunta (questo è un altro risultato importante che richiede una dimostrazione) quindi dobbiamo avere una distribuzione congiunta che mostra che le variabili casuali sono indipendenti, quindi la condizione necessaria e sufficiente è dimostrata.

Esempio di funzione generatrice del momento articolare

1.Calcola la funzione generatrice del momento articolare della variabile casuale X+Y e XY

Soluzione: Poiché la somma delle variabili casuali X+Y e la sottrazione delle variabili casuali XY sono indipendenti come per le variabili casuali indipendenti X e Y, la funzione generatrice del momento congiunta per queste sarà

[lattice]\begin{allineato}
E\sinistra[e^{n(X+Y)+s(XY)}\destra] &=E\sinistra[e^{(t+s) X+(ts) Y}\destra] \\
&=E\sinistra[e^{(t+s) X}\destra] E\sinistra[e^{(ts) Y}\destra] \\
&=e^{\mu(t+s)+\sigma^{2}(t+s)^{2} / 2} e^{\mu(ts)+\sigma^{2}(ts)^ {2} / 2} \\
&=e^{2 \mu t+\sigma^{2} t^{2}} e^{\sigma^{2} s^{2}}
\end{aligned}[/latex]

poiché questa funzione generatrice di momenti determina la distribuzione congiunta, quindi da questo possiamo avere X+Y e XY sono variabili casuali indipendenti.

2. Considera per l'esperimento il numero di eventi contati e non contati distribuiti per distribuzione di Poisson con probabilità pe media λ, mostra che il numero di eventi contati e non contati sono indipendenti con rispettive medie λp e λ(1-p).

Soluzione: considereremo X come il numero di eventi e Xc il numero di eventi contati quindi il numero di eventi non contati è XXc,la funzione di generazione del momento articolare genererà il momento

[lattice]\begin{allineato}
E\left[e^{\kappa X_{\varepsilon}+t\left(X-X_{c}\right)} \mid X=n\right] &=e^{\ln } E\left[e ^{(st) X_{c}} \mid X=n\destra] \\
&=e^{in}\left(pe^{st}+1-p\right)^{n} \\
&=\left(pe^{s}+(1-p) e^{t}\right)^{n}
\end{aligned}[/latex]

e dalla funzione generatrice dei momenti della distribuzione binomiale

[latex]E\sinistra[e^{s X_{\varepsilon}+t\left(X-X_{\varepsilon}\right)} \mid X\right]=\left(pe^{s}+(1 -p) e^{t}\destra)^{X}[/latex]

e togliere le aspettative da questi darà

[latex]E\sinistra[e^{\sum X_{c}+t\left(X-X_{c}\right)}\right]=E\left[\left(pe^{s}+(1 -p) e^{t}\destra)^{X}\destra]\\
\begin{allineato}
E\left[e^{s X_{c}+t\left(X-X_{c}\right)}\right] &=e^{\lambda\left(pe^{\prime}+(1- p) e^{t}-1\destra)} \\
&=e^{\lambda p\sinistra(e^{c-1}\destra)} e^{\lambda(1-p)\sinistra(e^{t}-1\destra)}
\end{aligned}[/latex]

Conclusione:

Utilizzando la definizione standard di funzione generatrice di momenti sono stati discussi i momenti per le diverse distribuzioni come binomiale, poisson, normale ecc. esempi adatti, se hai bisogno di ulteriori letture passa attraverso i libri sottostanti.

Per ulteriori articoli sulla matematica, consulta il nostro Pagina di matematica.

Un primo corso di probabilità di Sheldon Ross

Schemi di probabilità e statistica di Schaum

Un'introduzione alla probabilità e alle statistiche di ROHATGI e SALEH

DOTT. MOHAMMED MAZHAR UL HAQUE

sono il dott. Mohammed Mazhar Ul Haque, assistente professore di matematica. Avendo 12 anni di esperienza nell'insegnamento. Avere una vasta conoscenza in Matematica Pura, precisamente in Algebra. Avere l'immensa capacità di progettare e risolvere problemi. Capace di motivare i candidati a migliorare le loro prestazioni. Amo contribuire a Lambdageeks per rendere la matematica semplice, interessante e autoesplicativa per principianti ed esperti. Connettiamoci tramite LinkedIn - https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Post Recenti