del Pacco
- Variabili casuali distribuite congiuntamente
- Funzione di distribuzione congiunta | Funzione di distribuzione di probabilità cumulativa congiunta | funzione di massa di probabilità congiunta | funzione di densità di probabilità congiunta
- Esempi sulla distribuzione congiunta
- Variabili casuali indipendenti e distribuzione congiunta
- Esempio di distribuzione congiunta indipendente
- SOMMA DI VARIABILI CASUALI INDIPENDENTI PER DISTRIBUZIONE CONGIUNTA
- somma di variabili aleatorie esponenziali indipendenti
- somma di variabili casuali Gamma indipendenti
- somma di variabili aleatorie esponenziali indipendenti
- Somma della variabile casuale normale indipendente | somma della distribuzione normale indipendente
- Somma di variabili casuali di Poisson indipendenti
- Somma di variabili casuali binomiali indipendenti
Variabili casuali distribuite congiuntamente
Le variabili casuali distribuite congiuntamente sono la variabile casuale più di una con probabilità distribuita congiuntamente per queste variabili casuali, in altre parole negli esperimenti in cui il diverso risultato con la loro probabilità comune è noto come variabile casuale distribuita congiuntamente o distribuzione congiunta, tale tipo di situazione si verifica frequentemente mentre si affrontano i problemi delle possibilità.
Funzione di distribuzione congiunta | Funzione di distribuzione di probabilità cumulativa congiunta | funzione di massa di probabilità congiunta | funzione di densità di probabilità congiunta
Per le variabili casuali X e Y la funzione di distribuzione o la funzione di distribuzione cumulativa congiunta è
dove la natura della probabilità congiunta dipende dalla natura delle variabili casuali X e Y discrete o continue, e le singole funzioni di distribuzione per X e Y possono essere ottenute utilizzando questa funzione di distribuzione cumulativa congiunta come
allo stesso modo per Y come
queste funzioni di distribuzione individuali di X e Y sono note come funzioni di distribuzione marginale quando si prende in considerazione la distribuzione congiunta. Queste distribuzioni sono molto utili per ottenere le probabilità come
e inoltre la funzione di massa di probabilità congiunta per le variabili casuali X e Y è definita come
le singole funzioni di massa o densità di probabilità per X e Y possono essere ottenute con l'aiuto di tale funzione di massa o densità di probabilità congiunta come in termini di variabili casuali discrete as
e in termini di variabile casuale continua la funzione di densità di probabilità congiunta sarà
dove C è un piano bidimensionale e la funzione di distribuzione congiunta per la variabile casuale continua sarà

la funzione di densità di probabilità da questa funzione di distribuzione può essere ottenuta differenziando
e la probabilità marginale dalla funzione di densità di probabilità congiunta
as
e
rispetto alle variabili casuali X e Y rispettivamente
Esempi sulla distribuzione congiunta
- Le probabilità congiunte per le variabili casuali X e Y che rappresentano il numero di libri di matematica e statistica da un insieme di libri che contiene 3 libri di matematica, 4 di statistica e 5 di fisica se 3 libri presi a caso
- Trova il giunto funzione di massa di probabilità per il campione di famiglie che hanno il 15% senza figli, il 20% 1 bambino, il 35% 2 bambini e il 30% 3 bambini se la famiglia scegliamo casualmente da questo campione per bambino o femmina?
La probabilità congiunta la troveremo utilizzando la definizione di

e questo lo possiamo illustrare in forma tabellare come segue

- Calcola le probabilità
se per le variabili casuali X e Y la funzione di densità di probabilità congiunta è data da
con l'aiuto della definizione di probabilità congiunta per variabile casuale continua
e la funzione di densità congiunta data sarà la prima probabilità per l'intervallo dato
allo stesso modo la probabilità
e infine
- Trova la funzione di densità congiunta per il quoziente X / Y delle variabili casuali X e Y se la loro funzione di densità di probabilità congiunta è
Per trovare la funzione di densità di probabilità per la funzione X / Y troviamo prima la funzione di distribuzione congiunta quindi differenzieremo il risultato ottenuto,
quindi dalla definizione di funzione di distribuzione congiunta e data funzione di densità di probabilità abbiamo
quindi differenziando questa funzione di distribuzione rispetto ad a otterremo la funzione di densità come
dove a è compreso tra zero e infinito.
Variabili casuali indipendenti e distribuzione congiunta
Nel design del distribuzione comune si dice che la probabilità per due variabili casuali X e Y sia indipendente se
dove A e B sono i veri insiemi. Come già in termini di eventi sappiamo che le variabili casuali indipendenti sono le variabili casuali i cui eventi sono indipendenti.
Pertanto, per qualsiasi valore di a e b
e la funzione di distribuzione congiunta o di distribuzione cumulativa per le variabili casuali indipendenti X e Y sarà
se consideriamo le variabili casuali discrete X e Y allora
da
allo stesso modo anche per la variabile casuale continua
Esempio di distribuzione congiunta indipendente
- Se per un giorno specifico in un ospedale i pazienti entrati sono distribuiti poisson con parametro λ e probabilità di paziente di sesso maschile come pe probabilità di paziente di sesso femminile come (1-p), allora mostra che il numero di pazienti di sesso maschile e di pazienti di sesso femminile entrati in ospedale sono variabili casuali di poisson indipendenti con parametri λp e λ (1-p)?
considera il numero di pazienti maschi e femmine in base alle variabili casuali X e Y quindi
come X + Y sono il numero totale di pazienti ricoverati in ospedale che è così distribuito
poiché la probabilità di un paziente di sesso maschile è p e di una paziente di sesso femminile è (1-p) quindi esattamente dal numero totale di fix sono maschi o femmine mostra probabilità binomiale
usando questi due valori otterremo la probabilità congiunta di cui sopra come
quindi la probabilità di pazienti maschi e femmine sarà
e
che mostra che entrambe sono variabili casuali di poisson con i parametri λp e λ (1-p).
2. trovare la probabilità che una persona debba aspettare più di dieci minuti alla riunione per un cliente come se ogni cliente e quella persona arrivassero tra le 12 e le 1 dopo la distribuzione uniforme.
considera le variabili casuali X e Y per denotare il tempo per quella persona e cliente tra 12 a 1, quindi la probabilità congiuntamente per X e Y sarà

calcolare
dove X, Y e Z sono variabili casuali uniformi nell'intervallo (0,1).
qui la probabilità sarà
per la distribuzione uniforme la funzione di densità
per l'intervallo dato così
SOMMA DI VARIABILI CASUALI INDIPENDENTI PER DISTRIBUZIONE CONGIUNTA
La somma delle variabili indipendenti X e Y con la densità di probabilità funziona come variabili casuali continue, la funzione di distribuzione cumulativa sarà
differenziando questa funzione di distribuzione cumulativa per la funzione di densità di probabilità di queste somme indipendenti sono
seguendo questi due risultati vedremo alcune variabili casuali continue e la loro somma come variabili indipendenti
somma di variabili casuali uniformi indipendenti
per l' variabili casuali X e Y distribuite uniformemente sull'intervallo (0,1) è la funzione di densità di probabilità per entrambe queste variabili indipendenti
quindi per la somma X + Y abbiamo
per qualsiasi valore a è compreso tra zero e uno
se limitiamo a tra uno e due lo sarà
questo dà la funzione di densità della forma triangolare
se generalizziamo per le n variabili casuali uniformi indipendenti da 1 a n, allora la loro funzione di distribuzione
per induzione matematica sarà
somma di variabili casuali Gamma indipendenti
Se abbiamo due variabili casuali gamma indipendenti con la loro normale funzione di densità
quindi seguendo la densità per la somma delle variabili casuali gamma indipendenti
questo mostra la funzione di densità per la somma delle variabili casuali gamma che sono indipendenti
somma di variabili aleatorie esponenziali indipendenti
In modo simile alla variabile casuale gamma, la somma di variabili casuali esponenziali indipendenti, possiamo ottenere la funzione di densità e la funzione di distribuzione semplicemente assegnando in modo specifico valori di variabili casuali gamma.
Somma della variabile casuale normale indipendente | somma della distribuzione normale indipendente
Se abbiamo n numero di variabili casuali normali indipendenti Xi , i=1,2,3,4….n con rispettive medie μi e varianze σ2i quindi la loro somma è anche una normale variabile casuale con media come Σμi e varianze Σσ2i
Per prima cosa mostriamo la somma indipendente normalmente distribuita per due variabili casuali normali X con i parametri 0 e σ2 e Y con i parametri 0 e 1, troviamo la funzione di densità di probabilità per la somma X + Y con
nella funzione di densità di distribuzione congiunta
con l'aiuto della definizione della funzione di densità della distribuzione normale
quindi la funzione di densità sarà
che non è altro che la funzione di densità di a distribuzione normale con media 0 e varianza (1+σ2) seguendo lo stesso argomento possiamo dire
con media e varianze usuali. Se prendiamo l'espansione e osserviamo che la somma è normalmente distribuita con la media come la somma delle rispettive medie e la varianza come la somma delle rispettive varianze,
così allo stesso modo l'ennesima somma sarà la variabile casuale distribuita normalmente con media come Σμi e varianze Σσ2i
Somma di variabili casuali di Poisson indipendenti
Se abbiamo due variabili casuali di Poisson indipendenti X e Y con parametri λ1 e λ2 allora la loro somma X + Y è anche variabile casuale di Poisson o distribuita di Poisson
poiché X e Y sono distribuiti di Poisson e possiamo scrivere la loro somma come l'unione di eventi disgiunti così
utilizzando la probabilità di variabili casuali indipendenti
quindi otteniamo la somma X + Y che è anche Poisson distribuita con la media λ1 + λ2
Somma di variabili casuali binomiali indipendenti
Se abbiamo due variabili casuali binomiali indipendenti X e Y con parametri (n, p) e (m, p), la loro somma X + Y è anche variabile casuale binomiale o Binomiale distribuita con parametro (n + m, p)
usiamo la probabilità della somma con definizione di binomiale come
che dà
quindi la somma X + Y è anche distribuita in modo binomiale con parametro (n + m, p).
Conclusione:
Il concetto di variabili casuali distribuite congiuntamente che fornisce la distribuzione comparativamente per più di una variabile nella situazione è discusso inoltre il concetto di base di variabile casuale indipendente con l'aiuto della distribuzione congiunta e somma di variabili indipendenti con qualche esempio di distribuzione è dato con i loro parametri, se hai bisogno di ulteriori letture passa attraverso i libri menzionati. Per ulteriori post sulla matematica, per favore clicca qui.
Un primo corso di probabilità di Sheldon Ross
Schemi di probabilità e statistica di Schaum
Un'introduzione alla probabilità e alle statistiche di ROHATGI e SALEH