Probabilità a posteriori: differenze tra le versioni
Aggiungi 1 libro per la Wikipedia:Verificabilità (20231210)) #IABot (v2.0.9.5) (GreenC bot |
|||
(13 versioni intermedie di 8 utenti non mostrate) | |||
Riga 1: | Riga 1: | ||
In [[statistica bayesiana]], la '''probabilità a posteriori''' di un [[aleatorietà|evento aleatorio]] o di una proposizione incerta è la [[probabilità condizionata]] che è assegnata dopo che dell'informazione rilevante |
In [[statistica bayesiana]], la '''probabilità a posteriori''' di un [[aleatorietà|evento aleatorio]] o di una proposizione incerta, è la [[probabilità condizionata]] che è assegnata dopo che si è tenuto conto dell'informazione rilevante o degli antefatti relativi a tale evento aleatorio o a tale proposizione incerta. Similmente, la '''distribuzione di probabilità a posteriori''' è la distribuzione di una quantità incognita, trattata come una [[variabile casuale]], [[distribuzione condizionata|condizionata]] sull'informazione posta in evidenza da un esperimento o da un processo di raccolta di informazione rilevanti (es. un'ispezione, un'indagine conoscitiva, ecc.). |
||
==Definizione== |
==Definizione== |
||
⚫ | |||
⚫ | |||
Essa differisce dalla funzione di verosimiglianza, che è la probabilità di possedere una data conoscenza una volta dati i parametri: <math>p(X|\theta)</math>. |
Essa differisce dalla funzione di verosimiglianza, che è la probabilità di possedere una data conoscenza una volta dati i parametri: <math>p(X|\theta)</math>. |
||
Riga 9: | Riga 8: | ||
I due concetti sono però tra loro collegati: |
I due concetti sono però tra loro collegati: |
||
Supponiamo di avere una credenza a [[distribuzione di probabilità a priori|priori]] che la [[variabile casuale|funzione di distribuzione di probabilità]] sia <math>p(\theta)</math> e i dati osservati |
Supponiamo di avere una credenza a [[distribuzione di probabilità a priori|priori]] che la [[variabile casuale|funzione di distribuzione di probabilità]] sia <math>p(\theta)</math> e i dati osservati <math>X</math> con una verosimiglianza <math>p(X|\theta)</math>, allora la probabilità a posteriori è definita come |
||
:<math>p(\theta|X) = \frac{p(\theta)p( |
:<math>p(\theta|X) = \frac{p(X|\theta)p(\theta)}{p(X)}.</math><ref>{{Cita libro| titolo=Pattern Recognition and Machine Learning| url=https://archive.org/details/patternrecogniti0000bish| autore=Christopher M. Bishop| editore=Springer| anno=2006| id=ISBN 978-0-387-31073-2| pagine=21–24}}</ref> |
||
La probabilità a posteriori può essere scritta in una forma mnemonica come |
La probabilità a posteriori può essere scritta in una forma mnemonica come |
||
:<math>\text{ |
:<math>\text{probabilità a posteriori} \propto \text{probabilità a priori} \times \text{verosimiglianza}</math>. |
||
==Esempio== |
==Esempio== |
||
Consideriamo una scuola mista composta dal 60% di ragazzi e dal 40% di ragazze. Le ragazze indossano pantaloni o gonne in numeri eguali, i ragazzi indossano tutti pantaloni. Un osservatore vede da distante uno studente (a caso); tutto quello che può dire è che indossa pantaloni. Qual è la probabilità che lo studente sia una ragazza? La risposta corretta può essere dedotta applicando il teorema di Bayes. |
Consideriamo una scuola mista composta dal 60% di ragazzi e dal 40% di ragazze. Le ragazze indossano pantaloni o gonne in numeri eguali, i ragazzi indossano tutti pantaloni. Un osservatore vede da distante uno studente (a caso); tutto quello che può dire è che indossa pantaloni. Qual è la probabilità che lo studente sia una ragazza? La risposta corretta può essere dedotta applicando il teorema di Bayes. |
||
Riga 23: | Riga 21: | ||
* P(''T''|''G''), ossia la probabilità che lo studente indossi dei pantaloni data l'informazione a priori che sia una ragazza. Poiché è egualmente probabile che una ragazza indossi pantaloni o gonna, questa probabilità è 0.5. |
* P(''T''|''G''), ossia la probabilità che lo studente indossi dei pantaloni data l'informazione a priori che sia una ragazza. Poiché è egualmente probabile che una ragazza indossi pantaloni o gonna, questa probabilità è 0.5. |
||
* P(''T''|''B''), ossia la probabilità di uno studente di indossare pantaloni se a priori è un ragazzo. Questo è certo per cui è pari ad 1. |
* P(''T''|''B''), ossia la probabilità di uno studente di indossare pantaloni se a priori è un ragazzo. Questo è certo per cui è pari ad 1. |
||
* P(''T''), ossia la probabilità di uno studente (scelto casualmente) di indossare pantaloni indipendentemente da ogni altra informazione. Poiché <span style="white-space:nowrap;">P(''T'') = P(''T''|''G'')P(''G'') + P(''T''|''B |
* P(''T''), ossia la probabilità di uno studente (scelto casualmente) di indossare pantaloni indipendentemente da ogni altra informazione. Poiché <span style="white-space:nowrap;">P(''T'') = P(''T''|''G'')P(''G'') + P(''T''|''B)P(''B)</span> (tramite il [[teorema della probabilità assoluta]]), questo è {{Tutto attaccato|1= 0.5×0.4 + 1×0.6 = 0.8}}. |
||
Una volta ottenute tutte queste informazioni, la probabilità che l'osservatore abbia individuato una ragazza una volta visto uno studente che indossa pantaloni può essere calcolata sostituendo i valori nella formula: |
Una volta ottenute tutte queste informazioni, la probabilità che l'osservatore abbia individuato una ragazza una volta visto uno studente che indossa pantaloni può essere calcolata sostituendo i valori nella formula: |
||
Riga 30: | Riga 28: | ||
== Calcolo == |
== Calcolo == |
||
La distribuzione di probabilità a posteriori di una [[variabile casuale]] dato il valore di un'altra, può essere calcolata con il [[teorema di Bayes]] moltiplicando la [[distribuzione di probabilità a priori]] per la [[funzione di verosimiglianza]], e quindi dividendo per una [[costante di normalizzazione]] come segue: |
La distribuzione di probabilità a posteriori di una [[variabile casuale]] dato il valore di un'altra, può essere calcolata con il [[teorema di Bayes]] moltiplicando la [[distribuzione di probabilità a priori]] per la [[funzione di verosimiglianza]], e quindi dividendo per una [[costante di normalizzazione]] come segue: |
||
Riga 38: | Riga 35: | ||
* <math>f_X(x)</math> è la densità a priori di ''X'', |
* <math>f_X(x)</math> è la densità a priori di ''X'', |
||
* <math>L_{X\mid Y=y}(x) = f_{Y\mid X=x}(y)</math> è la funzione di verosimiglianza come una funzione di ''x'', |
* <math>L_{X\mid Y=y}(x) = f_{Y\mid X=x}(y)</math> è la funzione di verosimiglianza come una funzione di ''x'', |
||
* <math>\int_{-\infty}^\infty f_X(x) L_{X\mid Y=y}(x)\,dx</math> è la costante di normalizzazione, e |
* <math>\int_{-\infty}^\infty f_X(x) L_{X\mid Y=y}(x)\,dx</math> è la costante di normalizzazione, e |
||
* <math>f_{X\mid Y=y}(x)</math> è la densità a posteriori di ''X'' dato ''Y'' = ''y''. |
* <math>f_{X\mid Y=y}(x)</math> è la densità a posteriori di ''X'' dato ''Y'' = ''y''. |
||
==Classificazione== |
==Classificazione== |
||
Nell'ambito della [[classificazione statistica]] le probabilità a posteriori riflettono l'incertezza nell'assegnare un'osservazione ad una classe particolare. |
Nell'ambito della [[classificazione statistica]] le probabilità a posteriori riflettono l'incertezza nell'assegnare un'osservazione ad una classe particolare. |
||
Mentre i metodi di [[classificazione statistica]] per definizione generano probabilità a posteriori, gli apprenditori automatici solitamente forniscono valori di appartenenza che non inducono alcuna confidenza di tipo probabilistico. |
Mentre i metodi di [[classificazione statistica]] per definizione generano probabilità a posteriori, gli apprenditori automatici solitamente forniscono valori di appartenenza che non inducono alcuna confidenza di tipo probabilistico. È desiderabile trasformare o convertire i valori di appartenenza a valori di probabilità di appartenenza ad una certa classe in quanto tali classi sono, in confronto ai primi, di più facile trattamento in susseguenti elaborazioni. |
||
== Note == |
|||
<references /> |
|||
== Bibliografia == |
|||
⚫ | |||
== |
== Voci correlate == |
||
* [[Intervallo di previsione]] |
* [[Intervallo di previsione]] |
||
* [[Teorema di Bernstein–von Mises]] |
* [[Teorema di Bernstein–von Mises]] |
||
Riga 58: | Riga 56: | ||
* [[Paradosso delle tre carte]] |
* [[Paradosso delle tre carte]] |
||
== |
== Collegamenti esterni == |
||
* {{Collegamenti esterni}} |
|||
{{reflist}} |
|||
⚫ | |||
[[Category:Bayesian statistics]] |
|||
[[Categoria:Statistica bayesiana]] |
|||
[[de:A-posteriori-Wahrscheinlichkeit]] |
|||
[[et:Aposterioorne tõenäosus]] |
|||
[[es:Probabilidad a posteriori]] |
|||
[[fa:ﺎﺤﺘﻣﺎﻟ پﺱیﻥ]] |
|||
[[kk:Апостериорлық ықтималдық]] |
|||
[[ja:事後確率]] |
|||
[[pl:Prawdopodobieństwo a posteriori]] |
|||
[[pt:Probabilidade a posteriori]] |
|||
[[ru:Апостериорная вероятность]] |
|||
[[vi:Xác suất hậu nghiệm]] |
|||
[[zh:后验概率]] |
Versione attuale delle 23:43, 11 dic 2023
In statistica bayesiana, la probabilità a posteriori di un evento aleatorio o di una proposizione incerta, è la probabilità condizionata che è assegnata dopo che si è tenuto conto dell'informazione rilevante o degli antefatti relativi a tale evento aleatorio o a tale proposizione incerta. Similmente, la distribuzione di probabilità a posteriori è la distribuzione di una quantità incognita, trattata come una variabile casuale, condizionata sull'informazione posta in evidenza da un esperimento o da un processo di raccolta di informazione rilevanti (es. un'ispezione, un'indagine conoscitiva, ecc.).
Definizione
[modifica | modifica wikitesto]La probabilità a posteriori è la probabilità dei parametri data la conoscenza di : .
Essa differisce dalla funzione di verosimiglianza, che è la probabilità di possedere una data conoscenza una volta dati i parametri: .
I due concetti sono però tra loro collegati:
Supponiamo di avere una credenza a priori che la funzione di distribuzione di probabilità sia e i dati osservati con una verosimiglianza , allora la probabilità a posteriori è definita come
La probabilità a posteriori può essere scritta in una forma mnemonica come
- .
Esempio
[modifica | modifica wikitesto]Consideriamo una scuola mista composta dal 60% di ragazzi e dal 40% di ragazze. Le ragazze indossano pantaloni o gonne in numeri eguali, i ragazzi indossano tutti pantaloni. Un osservatore vede da distante uno studente (a caso); tutto quello che può dire è che indossa pantaloni. Qual è la probabilità che lo studente sia una ragazza? La risposta corretta può essere dedotta applicando il teorema di Bayes.
L'evento G è quello in cui lo studente visto è una ragazza, e l'evento T è quello in cui lo studente visto indossa pantaloni. Per calcolare P(G|T) abbiamo prima bisogno di sapere:
- P(G), ossia la probabilità che lo studente sia una ragazza indipendentemente da ogni altra informazione. Poiché l'osservatore vede uno studente a caso, è sottintendendo che ogni studente abbia la medesima probabilità di essere osservato di ogni altro, e che la percentuale di ragazze tra gli studenti è del 40%, allora la probabilità cercata è 0.4.
- P(B), ossia la probabilità che lo studente non sia una ragazza (cioè che sia un ragazzo) indipendentemente da ogni altra informazioni (B è l'evento complementare a G). Questa probabilità è del 60%, ossia 0.6.
- P(T|G), ossia la probabilità che lo studente indossi dei pantaloni data l'informazione a priori che sia una ragazza. Poiché è egualmente probabile che una ragazza indossi pantaloni o gonna, questa probabilità è 0.5.
- P(T|B), ossia la probabilità di uno studente di indossare pantaloni se a priori è un ragazzo. Questo è certo per cui è pari ad 1.
- P(T), ossia la probabilità di uno studente (scelto casualmente) di indossare pantaloni indipendentemente da ogni altra informazione. Poiché P(T) = P(T|G)P(G) + P(T|B)P(B) (tramite il teorema della probabilità assoluta), questo è 0.5×0.4 + 1×0.6 = 0.8.
Una volta ottenute tutte queste informazioni, la probabilità che l'osservatore abbia individuato una ragazza una volta visto uno studente che indossa pantaloni può essere calcolata sostituendo i valori nella formula:
Calcolo
[modifica | modifica wikitesto]La distribuzione di probabilità a posteriori di una variabile casuale dato il valore di un'altra, può essere calcolata con il teorema di Bayes moltiplicando la distribuzione di probabilità a priori per la funzione di verosimiglianza, e quindi dividendo per una costante di normalizzazione come segue:
la quale fornisce la funzione di densità di probabilità per una variabile casuale X una volta dato Y = y, dove
- è la densità a priori di X,
- è la funzione di verosimiglianza come una funzione di x,
- è la costante di normalizzazione, e
- è la densità a posteriori di X dato Y = y.
Classificazione
[modifica | modifica wikitesto]Nell'ambito della classificazione statistica le probabilità a posteriori riflettono l'incertezza nell'assegnare un'osservazione ad una classe particolare. Mentre i metodi di classificazione statistica per definizione generano probabilità a posteriori, gli apprenditori automatici solitamente forniscono valori di appartenenza che non inducono alcuna confidenza di tipo probabilistico. È desiderabile trasformare o convertire i valori di appartenenza a valori di probabilità di appartenenza ad una certa classe in quanto tali classi sono, in confronto ai primi, di più facile trattamento in susseguenti elaborazioni.
Note
[modifica | modifica wikitesto]- ^ Christopher M. Bishop, Pattern Recognition and Machine Learning, Springer, 2006, pp. 21–24, ISBN 978-0-387-31073-2.
Bibliografia
[modifica | modifica wikitesto]- Peter M. Lee, Bayesian Statistics, an introduction, 3rd, Wiley, 2004, ISBN 978-0-340-81405-5.
Voci correlate
[modifica | modifica wikitesto]- Intervallo di previsione
- Teorema di Bernstein–von Mises
- Problema di Monty Hall
- Problema dei tre prigionieri
- Paradosso delle tre carte
Collegamenti esterni
[modifica | modifica wikitesto]- (EN) posterior distribution / posterior probability / a posteriori distribution, su Enciclopedia Britannica, Encyclopædia Britannica, Inc.