Scopri milioni di eBook, audiolibri e tanto altro ancora con una prova gratuita

Solo $11.99/mese al termine del periodo di prova. Cancella quando vuoi.

Campo casuale di Markov: Esplorazione della potenza dei campi casuali di Markov nella visione artificiale
Campo casuale di Markov: Esplorazione della potenza dei campi casuali di Markov nella visione artificiale
Campo casuale di Markov: Esplorazione della potenza dei campi casuali di Markov nella visione artificiale
E-book105 pagine1 ora

Campo casuale di Markov: Esplorazione della potenza dei campi casuali di Markov nella visione artificiale

Valutazione: 0 su 5 stelle

()

Leggi anteprima

Info su questo ebook

Che cos'è il campo casuale di Markov


Nel dominio della fisica e della probabilità, un campo casuale di Markov (MRF), una rete di Markov o un modello grafico non orientato è un insieme di variabili casuali avente una proprietà di Markov descritta da un grafo non orientato. In altre parole, un campo casuale si dice un campo casuale di Markov se soddisfa le proprietà di Markov. Il concetto ha origine dal modello Sherrington-Kirkpatrick.


Come trarrai vantaggio


(I) Approfondimenti e convalide sui seguenti argomenti:


Capitolo 1: Campo casuale di Markov


Capitolo 2: Variabile casuale multivariata


Capitolo 3: Modello di Markov nascosto


Capitolo 4: Rete bayesiana


Capitolo 5: Modello grafico


Capitolo 6: Campo casuale


Capitolo 7: Propagazione delle credenze


Capitolo 8: Grafico dei fattori


Capitolo 9: Campo casuale condizionale


Capitolo 10: Teorema di Hammersley?Clifford


(II) Rispondere alle principali domande del pubblico sul campo casuale di Markov.


(III) Esempi reali dell'utilizzo del campo casuale di Markov in molti campi.


A chi è rivolto questo libro


Professionisti, studenti universitari e laureati, appassionati, hobbisti e coloro che vogliono andare oltre le conoscenze o le informazioni di base per qualsiasi tipo di campo casuale di Markov.


 


 

LinguaItaliano
Data di uscita12 mag 2024
Campo casuale di Markov: Esplorazione della potenza dei campi casuali di Markov nella visione artificiale

Leggi altro di Fouad Sabry

Autori correlati

Correlato a Campo casuale di Markov

Titoli di questa serie (100)

Visualizza altri

Ebook correlati

Intelligenza artificiale e semantica per voi

Visualizza altri

Recensioni su Campo casuale di Markov

Valutazione: 0 su 5 stelle
0 valutazioni

0 valutazioni0 recensioni

Cosa ne pensi?

Tocca per valutare

La recensione deve contenere almeno 10 parole

    Anteprima del libro

    Campo casuale di Markov - Fouad Sabry

    Capitolo 1: Campo casuale di Markov

    Un campo casuale di Markov (MRF), una rete di Markov o un modello grafico non orientato è un insieme di variabili casuali con una proprietà di Markov che può essere rappresentata da un grafo non orientato nei campi della fisica e della probabilità. Per riformulare, un campo casuale ha proprietà di Markov se e solo se soddisfa determinate qualità. L'idea è stata sviluppata nel quadro di Sherrington-Kirkpatrick.

    In termini di rappresentazione delle dipendenze, una rete di Markov o campo casuale di Markov (MRF) è paragonabile a una rete bayesiana, con la distinzione fondamentale che le reti bayesiane sono dirette e acicliche, mentre le reti di Markov sono non dirette e potenzialmente cicliche. Per questo motivo, mentre una rete di Markov può rappresentare dipendenze che una rete bayesiana non può (come le relazioni cicliche), il contrario non è vero (come le dipendenze indotte). Un campo casuale di Markov può avere un grafo sottostante finito o infinito.

    Il teorema di Hammersley-Clifford afferma che per una funzione di energia appropriata (localmente specificata), una misura di Gibbs può essere usata per rappresentare un campo casuale se e solo se la densità di probabilità congiunta delle variabili casuali è strettamente positiva. Il modello di Ising serve come esempio paradigmatico di un campo casuale di Markov, ed è stato in questo contesto che il campo casuale di Markov è stato presentato per la prima volta.

    Dato un grafo non orientato G=(V,E) , un insieme di variabili {\displaystyle X=(X_{v})_{v\in V}} casuali indicizzate da V forma un campo casuale di Markov rispetto a G se soddisfano le proprietà di Markov locali:

    Tutte le coppie di variabili non collineari sono condizionalmente indipendenti rispetto a tutte le altre variabili, secondo la proprietà Markov a coppie:

    {\displaystyle X_{u}\perp \!\!\!\perp X_{v}\mid X_{V\setminus \{u,v\}}}

    La proprietà di Markov locale afferma che, dato il suo immediato intorno, una data variabile è condizionatamente indipendente da ogni altra variabile:

    {\displaystyle X_{v}\perp \!\!\!\perp X_{V\setminus \operatorname {N} [v]}\mid X_{\operatorname {N} (v)}}

    dove {\textstyle \operatorname {N} (v)} è l'insieme dei vicini di v , e {\displaystyle \operatorname {N} [v]=v\cup \operatorname {N} (v)} è l'inintorno chiuso di v .

    La proprietà di Markov globale afferma che, dato un sottoinsieme di variabili che separa, due sottoinsiemi qualsiasi di variabili sono condizionalmente indipendenti:

    X_A \perp\!\!\!\perp X_B \mid X_S

    dove ogni percorso da un nodo in A a un nodo in B passa attraverso S .

    La proprietà Markov globale supera la proprietà Markov locale, che a sua volta supera la proprietà Markov a coppie. (che danno solo alle variabili collegate probabilità diverse da zero).

    La seguente formulazione rende cristallina la connessione tra le tre caratteristiche di Markov:

    A coppie: per ogni non {\displaystyle i,j\in V} uguale o adiacente, {\displaystyle X_{i}\perp \!\!\!\perp X_{j}|X_{V\setminus \{i,j\}}} .

    Locale: per qualsiasi {\displaystyle i\in V} e {\displaystyle J\subset V} non contenente o adiacente a i , {\displaystyle X_{i}\perp \!\!\!\perp X_{J}|X_{V\setminus (\{i\}\cup J)}} .

    Globale: per qualsiasi elemento {\displaystyle I,J\subset V} non intersecante o adiacente, {\displaystyle X_{I}\perp \!\!\!\perp X_{J}|X_{V\setminus (I\cup J)}} .

    I campi casuali di Markov che possono essere fattorizzati in base alle cricche della rete sono spesso impiegati poiché la proprietà di Markov di una distribuzione di probabilità arbitraria può essere difficile da stabilire.

    Dato un insieme di variabili aleatorie {\displaystyle X=(X_{v})_{v\in V}} , sia P(X=x) la probabilità di una particolare configurazione di campo x in X .

    Cioè, P(X=x) è la probabilità di trovare che le variabili casuali X assumono il particolare valore x .

    Poiché X è un insieme, la probabilità di x deve essere intesa come considerata rispetto a una distribuzione congiunta di {\displaystyle X_{v}} .

    Se questa densità articolare può essere fattorizzata sulle cricche di G :

    P(X=x) = \prod_{C \in \operatorname{cl}(G)} \phi_C (x_C)

    quindi X forma un campo casuale di Markov rispetto a G .

    Ecco, {\displaystyle \operatorname {cl} (G)} l'insieme delle cricche di G .

    Se si considerano solo le cricche massimali, il concetto rimane invariato.

    Le funzioni {\displaystyle \phi _{C}} sono talvolta indicate come potenziali fattoriali o potenziali di cricca.

    Si noti, tuttavia, che è in uso una terminologia conflittuale: la parola potenziale è spesso applicata al logaritmo di {\displaystyle \phi _{C}} .

    Considerando che, la meccanica del caso, {\displaystyle \log(\phi _{C})} ha un'interpretazione diretta come l'energia potenziale di una configurazione {\displaystyle x_{C}} .

    E' possibile progettare un semplice esempio di MRF che non fattorizza su un ciclo a 4 nodi con certe energie infinite, ad es.

    configurazioni probabilistiche a somma zero, il caso che, più opportunamente, permette alle energie infinite di agire sul grafo completo su V .

    Se si verifica una delle seguenti condizioni, gli MRF fattorizzano:

    Secondo il teorema di Hammersley, secondo Clifford la densità deve essere positiva.

    Un grafo cordale (per equivalenza a una rete bayesiana)

    Un grafo fattoriale della rete può essere costruito se i suoi vertici sono stati fattorizzati.

    Ogni campo casuale di Markov positivo può essere scritto come famiglia esponenziale in forma canonica con funzioni caratteristica f_{k} tali che la distribuzione full-joint può essere scritta come

    P(X=x) = \frac{1}{Z} \exp \left( \sum_{k} w_k^{\top} f_k (x_{ \{ k \}}) \right)

    dove la notazione

    w_k^{\top} f_k (x_{ \{ k \}}) = \sum_{i=1}^{N_k} w_{k,i} \cdot f_{k,i}(x_{\{k\}})

    partizione, e Z è solo un prodotto scalare tra le configurazioni dei campi:

    Z = \sum_{x \in \mathcal{X}} \exp \left(\sum_{k} w_k^{\top} f_k(x_{ \{ k \} })\right).

    Qui, {\mathcal {X}} denota l'insieme di tutte le possibili assegnazioni di valori a tutte le variabili casuali della rete.

    Di solito, le funzioni caratteristica f_{k,i} sono definite in modo tale da essere indicatori della configurazione della cricca, ad es.

    f_{k,i}(x_{\{k\}}) = 1 se x_{\{k\}} corrisponde all'i-esima configurazione possibile della cricca k-esima e 0 in caso contrario.

    Il modello di fattorizzazione della cricca di cui sopra è equivalente a questo, se N_k=|\operatorname{dom}(C_k)| è la cardinalità della cricca e il peso di una caratteristica f_{k,i} corrisponde al logaritmo del corrispondente fattore di cricca, cioè

    w_{k,i} = \log \phi(c_{k,i}) , dove c_{k,i} è l'i-esima possibile configurazione della cricca k-esima, cioè

    il valore i-esimo nel dominio della cricca . C_{k}

    La misura di Gibbs è un altro nome per la probabilità P.

    Solo se tutti i fattori della cricca sono diversi

    Ti è piaciuta l'anteprima?
    Pagina 1 di 1