Scopri milioni di eBook, audiolibri e tanto altro ancora con una prova gratuita

Solo $11.99/mese al termine del periodo di prova. Cancella quando vuoi.

Filtro antiparticolato: Esplorazione dei filtri antiparticolato nella visione artificiale
Filtro antiparticolato: Esplorazione dei filtri antiparticolato nella visione artificiale
Filtro antiparticolato: Esplorazione dei filtri antiparticolato nella visione artificiale
E-book111 pagine48 minuti

Filtro antiparticolato: Esplorazione dei filtri antiparticolato nella visione artificiale

Valutazione: 0 su 5 stelle

()

Leggi anteprima

Info su questo ebook

Che cos'è il filtro particellare


I filtri particellari, o metodi Monte Carlo sequenziali, sono un insieme di algoritmi Monte Carlo utilizzati per trovare soluzioni approssimative per problemi di filtraggio per lo spazio degli stati non lineare sistemi, come l'elaborazione del segnale e l'inferenza statistica bayesiana. Il problema del filtraggio consiste nella stima degli stati interni nei sistemi dinamici quando vengono effettuate osservazioni parziali e sono presenti perturbazioni casuali nei sensori così come nel sistema dinamico. L'obiettivo è calcolare le distribuzioni a posteriori degli stati di un processo di Markov, date le osservazioni rumorose e parziali. Il termine "filtri antiparticellari" è stato coniato per la prima volta nel 1996 da Pierre Del Moral in merito ai metodi delle particelle interagenti a campo medio utilizzati nella meccanica dei fluidi dall'inizio degli anni '60. Il termine "Sequential Monte Carlo" è stato coniato da Jun S. Liu e Rong Chen nel 1998.


Come trarne vantaggio


(I) Approfondimenti, e convalide sui seguenti argomenti:


Capitolo 1: Filtro antiparticolato


Capitolo 2: Campionamento per importanza


Capitolo 3: Processo puntuale


Capitolo 4: Equazione di Fokker-Planck


Capitolo 5: Lemma di Wiener


Capitolo 6: Equazione di Klein-Kramers


Capitolo 7: Metodi delle particelle del campo medio


Capitolo 8: Kernel Dirichlet


Capitolo 9: Distribuzione di Pareto generalizzata


Capitolo 10: Superprocesso


(II) Rispondere alle principali domande del pubblico su filtro antiparticolato.


(III) Esempi reali dell'utilizzo del filtro antiparticolato in molti campi.


A chi è rivolto questo libro


Professionisti, studenti universitari e laureati, appassionati, hobbisti e coloro che desiderano andare oltre le conoscenze o le informazioni di base per qualsiasi tipo di filtro antiparticolato.


 


 

LinguaItaliano
Data di uscita13 mag 2024
Filtro antiparticolato: Esplorazione dei filtri antiparticolato nella visione artificiale

Leggi altro di Fouad Sabry

Correlato a Filtro antiparticolato

Titoli di questa serie (100)

Visualizza altri

Ebook correlati

Intelligenza artificiale e semantica per voi

Visualizza altri

Articoli correlati

Recensioni su Filtro antiparticolato

Valutazione: 0 su 5 stelle
0 valutazioni

0 valutazioni0 recensioni

Cosa ne pensi?

Tocca per valutare

La recensione deve contenere almeno 10 parole

    Anteprima del libro

    Filtro antiparticolato - Fouad Sabry

    Capitolo 2: Campionamento per importanza

    Per valutare le caratteristiche di una distribuzione di interesse utilizzando solo campioni prelevati da un'altra distribuzione, viene utilizzata la tecnica Monte Carlo del campionamento di importanza. Il campionamento per importanza è simile al campionamento ombrello in fisica computazionale, e il suo inizio in statistica è tipicamente accreditato a uno studio di Teun Kloek e Herman K. van Dijk nel 1978. Il campionamento da questa distribuzione alternativa, l'esecuzione di inferenze basate su tali campioni, o entrambi, possono essere indicati con questa parola, a seconda del contesto.

    Sia {\displaystyle X\colon \Omega \to \mathbb {R} } una variabile casuale in uno spazio di probabilità (\Omega ,{\mathcal {F}},P) .

    Vogliamo calcolare la distribuzione di probabilità di X dato P, contrassegnato con l'EX; Simbolo P].

    Se abbiamo campioni casuali statisticamente indipendenti x_{1},\ldots ,x_{n} , prodotti in accordo con P, quindi, un calcolo pratico di EX; P] è

    {\displaystyle {\widehat {\mathbf {E} }}_{n}[X;P]={\frac {1}{n}}\sum _{i=1}^{n}x_{i}\quad \mathrm {where} \;x_{i}\sim P(X)}

    e l'accuratezza di questa approssimazione è proporzionale alla dispersione di X:

    {\displaystyle \operatorname {var} [{\widehat {\mathbf {E} }}_{n};P]={\frac {\operatorname {var} [X;P]}{n}}.}

    L'idea principale alla base del campionamento per importanza è quella di ridurre l'incertezza nella stima dell'EX; P] prelevando campioni da una distribuzione separata per gli stati, o quando è difficile campionare da P.

    Ciò si ottiene scegliendo prima una variabile casuale L\geq 0 tale che EL;P] = 1 e che P-quasi dappertutto L(\omega )\neq 0 .

    Con la variabile L definiamo una probabilità {\displaystyle P^{(L)}} che soddisfa

    {\mathbf {E}}[X;P]={\mathbf {E}}\left[{\frac {X}{L}};P^{{(L)}}\right].

    La variabile X/L sarà quindi campionata sotto P(L) per stimare EX; P] come sopra e questa stima è migliorata quando

    \operatorname {var}\left[{\frac {X}{L}};P^{{(L)}}\right]<\operatorname {var}[X;P]

    .

    Quando X è di segno costante su Ω, la variabile migliore L sarebbe chiaramente L^{*}={\frac {X}{{\mathbf {E}}[X;P]}}\geq 0 , in modo che X/L* sia la costante cercata EX; P] e un singolo campione sotto P(L*) è sufficiente per darne il

    Ti è piaciuta l'anteprima?
    Pagina 1 di 1