Campo casuale di Markov: Esplorazione della potenza dei campi casuali di Markov nella visione artificiale
Di Fouad Sabry
()
Info su questo ebook
Che cos'è il campo casuale di Markov
Nel dominio della fisica e della probabilità, un campo casuale di Markov (MRF), una rete di Markov o un modello grafico non orientato è un insieme di variabili casuali avente una proprietà di Markov descritta da un grafo non orientato. In altre parole, un campo casuale si dice un campo casuale di Markov se soddisfa le proprietà di Markov. Il concetto ha origine dal modello Sherrington-Kirkpatrick.
Come trarrai vantaggio
(I) Approfondimenti e convalide sui seguenti argomenti:
Capitolo 1: Campo casuale di Markov
Capitolo 2: Variabile casuale multivariata
Capitolo 3: Modello di Markov nascosto
Capitolo 4: Rete bayesiana
Capitolo 5: Modello grafico
Capitolo 6: Campo casuale
Capitolo 7: Propagazione delle credenze
Capitolo 8: Grafico dei fattori
Capitolo 9: Campo casuale condizionale
Capitolo 10: Teorema di Hammersley?Clifford
(II) Rispondere alle principali domande del pubblico sul campo casuale di Markov.
(III) Esempi reali dell'utilizzo del campo casuale di Markov in molti campi.
A chi è rivolto questo libro
Professionisti, studenti universitari e laureati, appassionati, hobbisti e coloro che vogliono andare oltre le conoscenze o le informazioni di base per qualsiasi tipo di campo casuale di Markov.
Leggi altro di Fouad Sabry
Tecnologie Emergenti Nella Scienza Dei Materiali [Italian]
Correlato a Campo casuale di Markov
Titoli di questa serie (100)
Gruppo congiunto di esperti fotografici: Sfruttare la potenza dei dati visivi con lo standard JPEG Valutazione: 0 su 5 stelle0 valutazioniVisione artificiale subacquea: Esplorando le profondità della visione artificiale sotto le onde Valutazione: 0 su 5 stelle0 valutazioniModello di aspetto del colore: Comprendere la percezione e la rappresentazione nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniVisione computerizzata: Esplorare le profondità della visione artificiale Valutazione: 0 su 5 stelle0 valutazioniTrasformazione di Hough: Svelare la magia della trasformazione di Hough nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniTrasformata di Hadamard: Svelare il potere della trasformazione Hadamard nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniIstogramma dell'immagine: Svelare intuizioni visive, esplorare le profondità degli istogrammi delle immagini nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniCompressione delle immagini: Tecniche efficienti per l'ottimizzazione dei dati visivi Valutazione: 0 su 5 stelle0 valutazioniMappatura dei toni: Mappatura dei toni: prospettive illuminanti nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniDiffusione anisotropa: Miglioramento dell'analisi delle immagini attraverso la diffusione anisotropa Valutazione: 0 su 5 stelle0 valutazioniRiduzione del rumore: Miglioramento della chiarezza, tecniche avanzate per la riduzione del rumore nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniFiltro adattivo: Migliorare la visione artificiale attraverso il filtraggio adattivo Valutazione: 0 su 5 stelle0 valutazioniTrasformata del radon: Svelare modelli nascosti nei dati visivi Valutazione: 0 su 5 stelle0 valutazioniIstogramma dei gradienti orientati: Svelare il regno visivo: esplorare l'istogramma dei gradienti orientati nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniOmografia: Omografia: trasformazioni nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniVisione stereoscopica del computer: Esplorare la percezione della profondità nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniRilevamento dei bordi: Esplorare i confini nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniFunzione di corrispondenza dei colori: Comprendere la sensibilità spettrale nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniEqualizzazione dell'istogramma: Miglioramento del contrasto dell'immagine per una migliore percezione visiva Valutazione: 0 su 5 stelle0 valutazioniContorno attivo: Avanzamento della visione artificiale con tecniche di contorno attivo Valutazione: 0 su 5 stelle0 valutazioniRetinex: Svelare i segreti della visione computazionale con Retinex Valutazione: 0 su 5 stelle0 valutazioniSistema di gestione del colore: Ottimizzazione della percezione visiva negli ambienti digitali Valutazione: 0 su 5 stelle0 valutazioniRidipintura: Colmare le lacune nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniTrasformazione affine: Sbloccare le prospettive visive: esplorare la trasformazione affine nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniCorrezione gamma: Migliorare la chiarezza visiva nella visione artificiale: la tecnica di correzione gamma Valutazione: 0 su 5 stelle0 valutazioniModello del sistema visivo umano: Comprendere la percezione e l'elaborazione Valutazione: 0 su 5 stelle0 valutazioniModello a colori: Comprendere lo spettro della visione artificiale: esplorare i modelli di colore Valutazione: 0 su 5 stelle0 valutazioniMetodo di impostazione del livello: Avanzamento della visione artificiale, esplorazione del metodo dell'impostazione dei livelli Valutazione: 0 su 5 stelle0 valutazioniBanca filtri: Approfondimenti sulle tecniche del banco di filtri di Computer Vision Valutazione: 0 su 5 stelle0 valutazioniProfilo colore: Esplorare la percezione visiva e l'analisi nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioni
Ebook correlati
Trasformazione lineare diretta: Applicazioni pratiche e tecniche nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniCorrelazione incrociata: Sbloccare i modelli nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniTensore trifocale: Esplorare la profondità, il movimento e la struttura nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniEsercizi di matematica: funzioni reali a più variabili Valutazione: 0 su 5 stelle0 valutazioniMetodo di impostazione del livello: Avanzamento della visione artificiale, esplorazione del metodo dell'impostazione dei livelli Valutazione: 0 su 5 stelle0 valutazioniAnalisi matematica avanzata Valutazione: 5 su 5 stelle5/5Il libro di matematica: volume 2 Valutazione: 0 su 5 stelle0 valutazioniEsercizi di matematica: vettori e spazi vettoriali Valutazione: 0 su 5 stelle0 valutazioniL'equazione di Dirac Valutazione: 0 su 5 stelle0 valutazioniTrasformata di Hadamard: Svelare il potere della trasformazione Hadamard nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniScala dello spazio: Esplorare le dimensioni nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniEsercizi di matematica: equazioni differenziali a derivate parziali Valutazione: 5 su 5 stelle5/5Regolazione del pacchetto: Ottimizzazione dei dati visivi per una ricostruzione precisa Valutazione: 0 su 5 stelle0 valutazioniEsercizi di matematica: distribuzioni Valutazione: 0 su 5 stelle0 valutazioniTrasformata del radon: Svelare modelli nascosti nei dati visivi Valutazione: 0 su 5 stelle0 valutazioniTrasformazione affine: Sbloccare le prospettive visive: esplorare la trasformazione affine nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniEsercizi di matematica: statistica avanzata Valutazione: 0 su 5 stelle0 valutazioniEsercizi di equazioni differenziali a derivate parziali Valutazione: 0 su 5 stelle0 valutazioniCampo di movimento: Esplorando le dinamiche della visione artificiale: svelato il campo del movimento Valutazione: 0 su 5 stelle0 valutazioniInterpolazione bilineare: Miglioramento della risoluzione e della chiarezza dell'immagine tramite l'interpolazione bilineare Valutazione: 0 su 5 stelle0 valutazioniTeoria di Galois Valutazione: 5 su 5 stelle5/5Omografia: Omografia: trasformazioni nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniRiquadro di delimitazione minimo: Svelare il potere dell'ottimizzazione spaziale nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniEsercizi di matematica: equazioni integrali e integro-differenziali Valutazione: 0 su 5 stelle0 valutazioniEsercizi di matematica: limiti e continuità Valutazione: 0 su 5 stelle0 valutazioniIl libro di matematica: volume 3 Valutazione: 0 su 5 stelle0 valutazioniRelatività, decadimenti e campi elettromagnetici Valutazione: 0 su 5 stelle0 valutazioniEsercizi di statistica avanzata Valutazione: 0 su 5 stelle0 valutazioniEsercizi di matematica: teoria di Galois Valutazione: 0 su 5 stelle0 valutazioniEsercizi di matematica: forme differenziali Valutazione: 0 su 5 stelle0 valutazioni
Intelligenza artificiale e semantica per voi
ANonniMus: Vecchi rivoluzionari contro giovani robot Valutazione: 0 su 5 stelle0 valutazioniSelf-Publishing del Futuro per Scrittori 2.0: Self-Publishing Facile Valutazione: 0 su 5 stelle0 valutazioniGuida Intelligenza Artificiale Valutazione: 0 su 5 stelle0 valutazioniIl Terzo Like Valutazione: 0 su 5 stelle0 valutazioni
Recensioni su Campo casuale di Markov
0 valutazioni0 recensioni
Anteprima del libro
Campo casuale di Markov - Fouad Sabry
Capitolo 1: Campo casuale di Markov
Un campo casuale di Markov (MRF), una rete di Markov o un modello grafico non orientato è un insieme di variabili casuali con una proprietà di Markov che può essere rappresentata da un grafo non orientato nei campi della fisica e della probabilità. Per riformulare, un campo casuale ha proprietà di Markov se e solo se soddisfa determinate qualità. L'idea è stata sviluppata nel quadro di Sherrington-Kirkpatrick.
In termini di rappresentazione delle dipendenze, una rete di Markov o campo casuale di Markov (MRF) è paragonabile a una rete bayesiana, con la distinzione fondamentale che le reti bayesiane sono dirette e acicliche, mentre le reti di Markov sono non dirette e potenzialmente cicliche. Per questo motivo, mentre una rete di Markov può rappresentare dipendenze che una rete bayesiana non può (come le relazioni cicliche), il contrario non è vero (come le dipendenze indotte). Un campo casuale di Markov può avere un grafo sottostante finito o infinito.
Il teorema di Hammersley-Clifford afferma che per una funzione di energia appropriata (localmente specificata), una misura di Gibbs può essere usata per rappresentare un campo casuale se e solo se la densità di probabilità congiunta delle variabili casuali è strettamente positiva. Il modello di Ising serve come esempio paradigmatico di un campo casuale di Markov, ed è stato in questo contesto che il campo casuale di Markov è stato presentato per la prima volta.
Dato un grafo non orientato G=(V,E) , un insieme di variabili {\displaystyle X=(X_{v})_{v\in V}} casuali indicizzate da V forma un campo casuale di Markov rispetto a G se soddisfano le proprietà di Markov locali:
Tutte le coppie di variabili non collineari sono condizionalmente indipendenti rispetto a tutte le altre variabili, secondo la proprietà Markov a coppie:
{\displaystyle X_{u}\perp \!\!\!\perp X_{v}\mid X_{V\setminus \{u,v\}}}La proprietà di Markov locale afferma che, dato il suo immediato intorno, una data variabile è condizionatamente indipendente da ogni altra variabile:
{\displaystyle X_{v}\perp \!\!\!\perp X_{V\setminus \operatorname {N} [v]}\mid X_{\operatorname {N} (v)}}dove {\textstyle \operatorname {N} (v)} è l'insieme dei vicini di v , e {\displaystyle \operatorname {N} [v]=v\cup \operatorname {N} (v)} è l'inintorno chiuso di v .
La proprietà di Markov globale afferma che, dato un sottoinsieme di variabili che separa, due sottoinsiemi qualsiasi di variabili sono condizionalmente indipendenti:
X_A \perp\!\!\!\perp X_B \mid X_Sdove ogni percorso da un nodo in A a un nodo in B passa attraverso S .
La proprietà Markov globale supera la proprietà Markov locale, che a sua volta supera la proprietà Markov a coppie. (che danno solo alle variabili collegate probabilità diverse da zero).
La seguente formulazione rende cristallina la connessione tra le tre caratteristiche di Markov:
A coppie: per ogni non {\displaystyle i,j\in V} uguale o adiacente, {\displaystyle X_{i}\perp \!\!\!\perp X_{j}|X_{V\setminus \{i,j\}}} .
Locale: per qualsiasi {\displaystyle i\in V} e {\displaystyle J\subset V} non contenente o adiacente a i , {\displaystyle X_{i}\perp \!\!\!\perp X_{J}|X_{V\setminus (\{i\}\cup J)}} .
Globale: per qualsiasi elemento {\displaystyle I,J\subset V} non intersecante o adiacente, {\displaystyle X_{I}\perp \!\!\!\perp X_{J}|X_{V\setminus (I\cup J)}} .
I campi casuali di Markov che possono essere fattorizzati in base alle cricche della rete sono spesso impiegati poiché la proprietà di Markov di una distribuzione di probabilità arbitraria può essere difficile da stabilire.
Dato un insieme di variabili aleatorie {\displaystyle X=(X_{v})_{v\in V}} , sia P(X=x) la probabilità di una particolare configurazione di campo x in X .
Cioè, P(X=x) è la probabilità di trovare che le variabili casuali X assumono il particolare valore x .
Poiché X è un insieme, la probabilità di x deve essere intesa come considerata rispetto a una distribuzione congiunta di {\displaystyle X_{v}} .
Se questa densità articolare può essere fattorizzata sulle cricche di G :
P(X=x) = \prod_{C \in \operatorname{cl}(G)} \phi_C (x_C)quindi X forma un campo casuale di Markov rispetto a G .
Ecco, {\displaystyle \operatorname {cl} (G)} l'insieme delle cricche di G .
Se si considerano solo le cricche massimali, il concetto rimane invariato.
Le funzioni {\displaystyle \phi _{C}} sono talvolta indicate come potenziali fattoriali o potenziali di cricca.
Si noti, tuttavia, che è in uso una terminologia conflittuale: la parola potenziale è spesso applicata al logaritmo di {\displaystyle \phi _{C}} .
Considerando che, la meccanica del caso, {\displaystyle \log(\phi _{C})} ha un'interpretazione diretta come l'energia potenziale di una configurazione {\displaystyle x_{C}} .
E' possibile progettare un semplice esempio di MRF che non fattorizza su un ciclo a 4 nodi con certe energie infinite, ad es.
configurazioni probabilistiche a somma zero, il caso che, più opportunamente, permette alle energie infinite di agire sul grafo completo su V .
Se si verifica una delle seguenti condizioni, gli MRF fattorizzano:
Secondo il teorema di Hammersley, secondo Clifford la densità deve essere positiva.
Un grafo cordale (per equivalenza a una rete bayesiana)
Un grafo fattoriale della rete può essere costruito se i suoi vertici sono stati fattorizzati.
Ogni campo casuale di Markov positivo può essere scritto come famiglia esponenziale in forma canonica con funzioni caratteristica f_{k} tali che la distribuzione full-joint può essere scritta come
P(X=x) = \frac{1}{Z} \exp \left( \sum_{k} w_k^{\top} f_k (x_{ \{ k \}}) \right)dove la notazione
w_k^{\top} f_k (x_{ \{ k \}}) = \sum_{i=1}^{N_k} w_{k,i} \cdot f_{k,i}(x_{\{k\}})partizione, e Z è solo un prodotto scalare tra le configurazioni dei campi:
Z = \sum_{x \in \mathcal{X}} \exp \left(\sum_{k} w_k^{\top} f_k(x_{ \{ k \} })\right).Qui, {\mathcal {X}} denota l'insieme di tutte le possibili assegnazioni di valori a tutte le variabili casuali della rete.
Di solito, le funzioni caratteristica f_{k,i} sono definite in modo tale da essere indicatori della configurazione della cricca, ad es.
f_{k,i}(x_{\{k\}}) = 1 se x_{\{k\}} corrisponde all'i-esima configurazione possibile della cricca k-esima e 0 in caso contrario.
Il modello di fattorizzazione della cricca di cui sopra è equivalente a questo, se N_k=|\operatorname{dom}(C_k)| è la cardinalità della cricca e il peso di una caratteristica f_{k,i} corrisponde al logaritmo del corrispondente fattore di cricca, cioè
w_{k,i} = \log \phi(c_{k,i}) , dove c_{k,i} è l'i-esima possibile configurazione della cricca k-esima, cioè
il valore i-esimo nel dominio della cricca . C_{k}
La misura di Gibbs è un altro nome per la probabilità P.
Solo se tutti i fattori della cricca sono diversi