Scopri milioni di eBook, audiolibri e tanto altro ancora con una prova gratuita

Solo $11.99/mese al termine del periodo di prova. Cancella quando vuoi.

Matrice fondamentale della visione artificiale: Per favore, suggerisci un sottotitolo per un libro dal titolo "Computer Vision Fundamental Matrix" nell'ambito della "Computer Vision". Il sottotitolo suggerito non deve contenere ":".
Matrice fondamentale della visione artificiale: Per favore, suggerisci un sottotitolo per un libro dal titolo "Computer Vision Fundamental Matrix" nell'ambito della "Computer Vision". Il sottotitolo suggerito non deve contenere ":".
Matrice fondamentale della visione artificiale: Per favore, suggerisci un sottotitolo per un libro dal titolo "Computer Vision Fundamental Matrix" nell'ambito della "Computer Vision". Il sottotitolo suggerito non deve contenere ":".
E-book111 pagine1 ora

Matrice fondamentale della visione artificiale: Per favore, suggerisci un sottotitolo per un libro dal titolo "Computer Vision Fundamental Matrix" nell'ambito della "Computer Vision". Il sottotitolo suggerito non deve contenere ":".

Valutazione: 0 su 5 stelle

()

Leggi anteprima

Info su questo ebook

Che cos'è la matrice fondamentale della visione artificiale


Nel campo della visione artificiale, la Matrice Fondamentale è una nozione essenziale utilizzata nella visione stereoscopica e nei lavori che coinvolgono la struttura del movimento. Quando due fotografie vengono catturate da prospettive diverse, viene raffigurata la relazione geometrica che esiste tra i punti che corrispondono tra loro. Attraverso l'utilizzo della Matrice Fondamentale è possibile individuare le linee epipolari, necessarie per l'adattamento stereo e la riproduzione in tre dimensioni.


Come trarrai beneficio


(I) Approfondimenti e convalide sui seguenti argomenti:


Capitolo 1: Matrice fondamentale (visione artificiale)


Capitolo 2: Trasformazione di feature invarianti di scala


Capitolo 3: Resezione della telecamera


Capitolo 4: Problema di corrispondenza


Capitolo 5: Geometria epipolare


Capitolo 6: Matrice essenziale


Capitolo 7: Rettifica dell'immagine


Capitolo 8: Matrice della fotocamera


Capitolo 9: Modello di fotocamera stenopeica


Capitolo 10: Algoritmo a otto punti


(II) Rispondere alle principali domande del pubblico sulla matrice fondamentale della visione artificiale.


(III) Esempi del mondo reale per l'utilizzo della matrice fondamentale della visione artificiale in molti campi.


A chi è rivolto questo libro


Professionisti, studenti universitari e laureati, appassionati, hobbisti e coloro che desiderano andare oltre le conoscenze o le informazioni di base per qualsiasi tipo di matrice fondamentale della visione artificiale.

LinguaItaliano
Data di uscita30 apr 2024
Matrice fondamentale della visione artificiale: Per favore, suggerisci un sottotitolo per un libro dal titolo "Computer Vision Fundamental Matrix" nell'ambito della "Computer Vision". Il sottotitolo suggerito non deve contenere ":".

Leggi altro di Fouad Sabry

Autori correlati

Correlato a Matrice fondamentale della visione artificiale

Titoli di questa serie (100)

Visualizza altri

Ebook correlati

Intelligenza artificiale e semantica per voi

Visualizza altri

Articoli correlati

Recensioni su Matrice fondamentale della visione artificiale

Valutazione: 0 su 5 stelle
0 valutazioni

0 valutazioni0 recensioni

Cosa ne pensi?

Tocca per valutare

La recensione deve contenere almeno 10 parole

    Anteprima del libro

    Matrice fondamentale della visione artificiale - Fouad Sabry

    Capitolo 1: Matrice fondamentale (computer vision)

    La visione artificiale è lo studio di come le macchine vedono, la matrice fondamentale \mathbf {F} è una matrice 3×3 che mette in relazione i punti corrispondenti nelle immagini stereo.

    Ad esempio, nel campo della geometria epipolare, con un insieme standardizzato di coordinate dell'immagine, x e x′, punti in una coppia stereo che si relazionano tra loro, Fx descrive una linea (una linea epipolare) su cui  deve giacere il punto x′ corrispondente sull'altra immagine.

    Ciò significa che, per tutti gli insiemi di coordinate parallele

    {\mathbf {x}}'^{{\top }}{\mathbf {Fx}}=0.

    La matrice fondamentale può essere approssimata con almeno sette corrispondenze puntiformi, in quanto ha rango 2 ed è determinata solo fino alla scala. I suoi sette parametri sono tutto ciò che può essere determinato geometricamente sulle telecamere utilizzando esclusivamente corrispondenze punto-punto.

    QT Luong ha usato per la prima volta l'espressione matrice di base nella sua fondamentale tesi di dottorato. In alcuni contesti è anche noto come tensore bifocale. È una forma bilineare che collega punti in diversi sistemi di coordinate, il che lo rende un tensore a due punti.

    Nel 1992, Olivier Faugeras e Richard Hartley pubblicarono indipendentemente la relazione di cui sopra che stabilisce la matrice fondamentale.

    Sebbene H.

    Requisiti simili sono soddisfatti dalla matrice essenziale di Christopher Longuet-Higgins, Le camere calibrate utilizzano la matrice essenziale, che è un oggetto metrico, mentre i concetti più ampi e fondamentali della geometria proiettiva sono descritti dalla matrice fondamentale.

    Questo è catturato matematicamente dalla relazione tra una matrice fondamentale \mathbf {F} e la sua corrispondente matrice essenziale \mathbf {E} , che è

    {\displaystyle \mathbf {E} =({\mathbf {K} '})^{\top }\;\mathbf {F} \;\mathbf {K} }

    \mathbf {K} ed {\mathbf {K}}' essendo le matrici di calibrazione intrinseche delle due immagini coinvolte.

    La matrice fondamentale è un vincolo su dove i punti di una scena possono essere proiettati in due immagini diverse della stessa scena. Per facilitare la ricerca e consentire l'individuazione di false corrispondenze, la proiezione di un punto della scena in una delle immagini fa sì che il punto corrispondente nell'altra immagine sia limitato a una linea. Il vincolo epipolare, il vincolo di corrispondenza, il vincolo di corrispondenza discreta e la relazione di incidenza sono tutti nomi per la stessa cosa: la relazione tra coppie di punti rappresentati dalla matrice fondamentale.

    Un insieme di corrispondenze puntuali può essere utilizzato per calcolare la matrice di base. Inoltre, le matrici della fotocamera create direttamente da questa matrice di base possono essere utilizzate per triangolare tra questi rispettivi punti dell'immagine e le posizioni globali associate. Questi punti del mondo costituiscono una scena che è, in un certo senso, una proiezione del mondo reale.

    Supponiamo che la corrispondenza del punto dell'immagine {\mathbf {x}}\leftrightarrow {\mathbf {x'}} derivi dal punto assoluto {\textbf {X}} sotto le matrici della fotocamera \left({\textbf {P}},{\textbf {P}}'\right) come

    {\begin{aligned}{\mathbf {x}}&={\textbf {P}}{\textbf {X}}\\{\mathbf {x'}}&={\textbf {P}}'{\textbf {X}}\end{aligned}}

    Supponiamo di trasformare lo spazio con una matrice di omografia generale {\textbf {H}}_{{4\times 4}} tale che {\textbf {X}}_{0}={\textbf {H}}{\textbf {X}} .

    Dopodiché, le telecamere si trasformano in

    {\begin{aligned}{\textbf {P}}_{0}&={\textbf {P}}{\textbf {H}}^{{-1}}\\{\textbf {P}}_{0}'&={\textbf {P}}'{\textbf {H}}^{{-1}}\end{aligned}}{\textbf {P}}_{0}{\textbf {X}}_{0}={\textbf {P}}{\textbf {H}}^{{-1}}{\textbf {H}}{\textbf {X}}={\textbf {P}}{\textbf {X}}={\mathbf {x}}

    e allo stesso modo con {\textbf {P}}_{0}' ancora ottenerci gli stessi punti immagine.

    È anche possibile utilizzare il requisito di complanarità per ottenere la matrice di base.

    La geometria epipolare è rappresentata come immagini stereoscopiche nella matrice fondamentale. Le linee rette rappresentano la geometria epipolare nelle viste prospettiche della telecamera. Al contrario, l'immagine in una fotografia satellitare viene prodotta mentre il sensore si muove attraverso la sua orbita (sensore a scopa). Di conseguenza, la linea epipolare assume la forma di una curva epipolare e i centri di proiezione per una determinata scena dell'immagine vengono dispersi. Tuttavia, la matrice di base può essere utilizzata per correggere le foto satellitari in alcuni casi, ad esempio quando si lavora con piccoli riquadri di immagini.

    La matrice primaria è una matrice di rango 2. Il suo centro è ciò che lo rende un epipole.

    {Fine Capitolo 1}

    Capitolo 2: Trasformazione di feature invarianti in scala

    David Lowe ha sviluppato la trasformazione delle caratteristiche invarianti di scala (SIFT) nel 1999 come algoritmo di visione artificiale per localizzare, caratterizzare e abbinare le caratteristiche locali nelle immagini. Il riconoscimento degli oggetti, la mappatura e la navigazione robotica, lo stitching delle immagini, la modellazione tridimensionale, il riconoscimento dei gesti, il tracciamento video, l'identificazione della fauna selvatica individuale e il matchmaking sono solo alcuni dei molti possibili usi di questa tecnologia.

    I punti chiave SIFT dell'oggetto vengono prima estratti da un set di immagini di addestramento.

    È possibile creare una descrizione caratteristica di qualsiasi oggetto in un'immagine isolando i punti chiave di quell'oggetto. Quando si tenta di individuare un oggetto in un'immagine di test con molti altri oggetti, questa descrizione può essere usata perché è stata estratta da un'immagine di training. Le caratteristiche estratte dall'immagine di addestramento devono essere distinguibili nonostante le variazioni nella scala dell'immagine, nel rumore e nell'illuminazione se si vuole ottenere un riconoscimento affidabile. Questi punti risiedono in genere sui bordi dell'immagine o su altre aree ad alto contrasto.

    Inoltre, queste caratteristiche dovrebbero mantenere le stesse posizioni relative da un'immagine all'altra, come nella scena originale. Se solo i quattro angoli di una porta fossero usati come elementi, il riconoscimento avrebbe successo sia che la porta fosse aperta o chiusa. Tuttavia, se si utilizzassero anche i punti nel telaio, il riconoscimento fallirebbe in entrambi i casi. Allo stesso modo, se si verifica un cambiamento nella geometria interna di un oggetto articolato o flessibile tra due immagini nel set in fase di elaborazione, è probabile che le caratteristiche situate in quell'oggetto non funzionino più. Sebbene queste variazioni locali possano avere un impatto significativo sull'errore medio di tutti gli errori di corrispondenza delle funzionalità, SIFT, in pratica, rileva e utilizza un numero molto

    Ti è piaciuta l'anteprima?
    Pagina 1 di 1