Scopri milioni di eBook, audiolibri e tanto altro ancora con una prova gratuita

Solo $11.99/mese al termine del periodo di prova. Cancella quando vuoi.

Trasformazione lineare diretta: Applicazioni pratiche e tecniche nella visione artificiale
Trasformazione lineare diretta: Applicazioni pratiche e tecniche nella visione artificiale
Trasformazione lineare diretta: Applicazioni pratiche e tecniche nella visione artificiale
E-book183 pagine1 ora

Trasformazione lineare diretta: Applicazioni pratiche e tecniche nella visione artificiale

Valutazione: 0 su 5 stelle

()

Leggi anteprima

Info su questo ebook

Che cos'è la trasformazione lineare diretta


La trasformazione lineare diretta, nota anche come DLT, è un algoritmo che risolve un insieme di variabili utilizzando un insieme di relazioni di similarità come metodo di lavoro impostato. Nel campo della geometria proiettiva questo tipo di relazione si incontra abbastanza frequentemente. Esempi applicabili alle situazioni del mondo reale includono le omografie e la relazione tra i punti tridimensionali in una scena e la loro proiezione sul piano dell'immagine di una fotocamera stenopeica.


Come trarrai vantaggio


(I) Approfondimenti e convalide sui seguenti argomenti:


Capitolo 1: Trasformazione lineare diretta


Capitolo 2: Mappa lineare


Capitolo 3: Sottospazio lineare


Capitolo 4: Decomposizione di Cholesky


Capitolo 5: Matrice invertibile


Capitolo 6: Forma quadratica


Capitolo 7: Funzione omogenea


Capitolo 8: Kernel (algebra lineare)


Capitolo 9: Coordinate Plücker


Capitolo 10: Trasformazione del modello TP nella teoria del controllo


(II) Rispondere alle principali domande del pubblico sulla trasformazione lineare diretta.


(III) Esempi reali dell'utilizzo della trasformazione lineare diretta in molti campi.


A chi è rivolto questo libro


Professionisti, studenti universitari e laureati, appassionati, hobbisti e coloro che desiderano andare oltre le conoscenze o le informazioni di base per qualsiasi tipo di trasformazione lineare diretta.


 


 

LinguaItaliano
Data di uscita30 apr 2024
Trasformazione lineare diretta: Applicazioni pratiche e tecniche nella visione artificiale

Correlato a Trasformazione lineare diretta

Titoli di questa serie (100)

Visualizza altri

Ebook correlati

Intelligenza artificiale e semantica per voi

Visualizza altri

Articoli correlati

Recensioni su Trasformazione lineare diretta

Valutazione: 0 su 5 stelle
0 valutazioni

0 valutazioni0 recensioni

Cosa ne pensi?

Tocca per valutare

La recensione deve contenere almeno 10 parole

    Anteprima del libro

    Trasformazione lineare diretta - Fouad Sabry

    Capitolo 1: Trasformazione lineare diretta

    Un insieme di variabili può essere risolto da un insieme di relazioni di similarità utilizzando una tecnica chiamata trasformazione lineare diretta (DLT):

    {\mathbf {x}}_{{k}}\propto {\mathbf {A}}\,{\mathbf {y}}_{{k}} per \,k=1,\ldots ,N

    dove {\mathbf {x}}_{{k}} e {\mathbf {y}}_{{k}} sono vettori noti, \,\propto denota uguaglianza fino ad una moltiplicazione scalare incognita, ed \mathbf {A} è una matrice (o trasformazione lineare) che contiene le incognite da risolvere.

    Nella geometria proiettiva, questo è un tipo comune di relazione. Gli omografi e la relazione tra i punti della scena 3D e la loro proiezione della telecamera stenopeica sono due di questi casi.

    In poche parole, un sistema di equazioni lineari

    {\mathbf {x}}_{{k}}={\mathbf {A}}\,{\mathbf {y}}_{{k}} per \,k=1,\ldots ,N

    è risolvibile, ad esempio, riscrivendola come un'equazione matriciale {\mathbf {X}}={\mathbf {A}}\,{\mathbf {Y}} dove le matrici {\mathbf {X}} e {\mathbf {Y}} contengono i vettori {\mathbf {x}}_{{k}} e {\mathbf {y}}_{{k}} nelle rispettive colonne.

    Poiché c'è una sola risposta a questo problema, fornita da

    {\mathbf {A}}={\mathbf {X}}\,{\mathbf {Y}}^{{T}}\,({\mathbf {Y}}\,{\mathbf {Y}}^{{T}})^{{-1}}.

    Nel caso in cui le equazioni siano sovradeterminate o sottodeterminate, possono anche essere descritte le soluzioni.

    La differenza tra il problema della trasformazione lineare diretta e l'esempio tipico di cui sopra è che il fattore moltiplicativo che separa i lati sinistro e destro dell'equazione di definizione dipende dal parametro k.

    Quindi, quindi, \mathbf {A} non può essere calcolato come nel caso standard.

    Invece, in questo approccio, le relazioni di similarità vengono trasformate in equazioni omogenee lineari ordinarie.

    Gli algoritmi di trasformazione lineare diretta (DLT) combinano la riscrittura delle equazioni di similarità come equazioni lineari omogenee e le risolvono utilizzando metodi consolidati.

    Ivan Sutherland è accreditato per lo sviluppo della DLT.

    Si supponga che {\displaystyle k\in \{1,...,N\}} .

    Siano {\displaystyle \mathbf {x} _{k}=(x_{1k},x_{2k})\in \mathbb {R} ^{2}} {\displaystyle \mathbf {y} _{k}=(y_{1k},y_{2k},y_{3k})\in \mathbb {R} ^{3}} e due vettori noti, e vogliamo trovare la 2\times 3 matrice \mathbf {A} tale che

    \alpha _{{k}}\,{\mathbf {x}}_{{k}}={\mathbf {A}}\,{\mathbf {y}}_{{k}}

    dove \alpha _{{k}}\neq 0 è il fattore scalare incognito relativo all'equazione k.

    Definire la matrice antisimmetrica per eliminare gli scalari liberi e produrre equazioni omogenee.

    {\mathbf {H}}={\begin{pmatrix}0&-1\\1&0\end{pmatrix}}

    e moltiplica entrambi i lati dell'equazione con {\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}} da sinistra

    {\displaystyle {\begin{aligned}(\mathbf {x} _{k}^{T}\,\mathbf {H} )\,\alpha _{k}\,\mathbf {x} _{k}&=(\mathbf {x} _{k}^{T}\,\mathbf {H} )\,\mathbf {A} \,\mathbf {y} _{k}\\\alpha _{k}\,\mathbf {x} _{k}^{T}\,\mathbf {H} \,\mathbf {x} _{k}&=\mathbf {x} _{k}^{T}\,\mathbf {H} \,\mathbf {A} \,\mathbf {y} _{k}\end{aligned}}}

    Poiché {\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}}\,{\mathbf {x}}_{{k}}=0, le seguenti equazioni omogenee, che sono ora prive dei misteriosi scalari, sono a portata di mano

    {\displaystyle \mathbf {x} _{k}^{T}\,\mathbf {H} \,\mathbf {A} \,\mathbf {y} _{k}=0}

    Per risolvere \mathbf {A} da questo insieme di equazioni, si considerino gli elementi dei vettori {\mathbf {x}}_{{k}} e  della {\mathbf {y}}_{{k}} matrice : \mathbf {A}

    {\mathbf {x}}_{{k}}={\begin{pmatrix}x_{{1k}}\\x_{{2k}}\end{pmatrix}} , {\mathbf {y}}_{{k}}={\begin{pmatrix}y_{{1k}}\\y_{{2k}}\\y_{{3k}}\end{pmatrix}} , e {\mathbf {A}}={\begin{pmatrix}a_{{11}}&a_{{12}}&a_{{13}}\\a_{{21}}&a_{{22}}&a_{{23}}\end{pmatrix}}

    In questo caso, l'equazione omogenea di cui sopra si semplifica in

    0=a_{{11}}\,x_{{2k}}\,y_{{1k}}-a_{{21}}\,x_{{1k}}\,y_{{1k}}+a_{{12}}\,x_{{2k}}\,y_{{2k}}-a_{{22}}\,x_{{1k}}\,y_{{2k}}+a_{{13}}\,x_{{2k}}\,y_{{3k}}-a_{{23}}\,x_{{1k}}\,y_{{3k}}

    per \,k=1,\ldots ,N.

    La forma matrice funziona altrettanto bene per questo:

    0={\mathbf {b}}_{{k}}^{{T}}\,{\mathbf {a}} per \,k=1,\ldots ,N

    dove {\mathbf {b}}_{{k}} ed \mathbf{a} entrambi sono vettori a 6 dimensioni definiti come

    {\mathbf {b}}_{{k}}={\begin{pmatrix}x_{{2k}}\,y_{{1k}}\\-x_{{1k}}\,y_{{1k}}\\x_{{2k}}\,y_{{2k}}\\-x_{{1k}}\,y_{{2k}}\\x_{{2k}}\,y_{{3k}}\\-x_{{1k}}\,y_{{3k}}\end{pmatrix}} e {\mathbf {a}}={\begin{pmatrix}a_{{11}}\\a_{{21}}\\a_{{12}}\\a_{{22}}\\a_{{13}}\\a_{{23}}\end{pmatrix}}.

    A questo punto abbiamo un'equazione e sei variabili. La forma matriciale può essere utilizzata per esprimere un sistema di equazioni omogenee.

    {\mathbf {0}}={\mathbf {B}}\,{\mathbf {a}}

    dove \mathbf {B} è una N\times 6 matrice che contiene i vettori noti {\mathbf {b}}_{{k}} nelle sue righe.

    L'incognita \mathbf{a} può essere determinata, ad esempio, da una scomposizione a valori singolari di \mathbf {B} ; \mathbf{a} è un vettore singolare retto di \mathbf {B} corrispondente a un valore singolare uguale a zero.

    Una volta \mathbf{a} determinati, gli elementi della matrice \mathbf {A} possono essere riarrangiati da vettori \mathbf {a} .

    Si noti che la scala di \mathbf{a} or \mathbf {A} non è importante (tranne per il fatto che deve essere diversa da zero) poiché le equazioni di definizione consentono già una scala sconosciuta.

    In pratica, i vettori {\mathbf {x}}_{{k}} e {\mathbf {y}}_{{k}} possono contenere rumore, il che significa che le equazioni di somiglianza sono valide solo approssimativamente.

    Quindi, potrebbe non esserci un vettore \mathbf{a} che risolva esattamente l'equazione omogenea {\mathbf {0}}={\mathbf {B}}\,{\mathbf {a}} .

    In tali situazioni, una soluzione dei minimi quadrati totali può essere utilizzata scegliendo \mathbf{a} come vettore singolare retto corrispondente al valore singolare più piccolo di {\mathbf {B}}.

    L'esempio precedente ha {\mathbf {x}}_{{k}}\in {\mathbb {R}}^{{2}} e {\mathbf {y}}_{{k}}\in {\mathbb {R}}^{{3}} , ma la strategia generale per riscrivere le relazioni di somiglianza in equazioni lineari omogenee può essere generalizzata a dimensioni arbitrarie sia per e {\mathbf {x}}_{{k}} {\mathbf {y}}_{{k}}.

    Se {\mathbf {x}}_{{k}}\in {\mathbb {R}}^{{2}} e {\mathbf {y}}_{{k}}\in {\mathbb {R}}^{{q}} le espressioni precedenti possono ancora portare a un'equazione

    0={\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}}\,{\mathbf {A}}\,{\mathbf {y}}_{{k}} per \,k=1,\ldots ,N

    dove \mathbf {A} ora è 2\times q. Ogni k fornisce un'equazione negli 2q elementi incogniti di \mathbf {A} e insieme queste equazioni possono essere scritte {\mathbf {B}}\,{\mathbf {a}}={\mathbf {0}} per la N\times 2\,q matrice  nota e il \mathbf {B} vettore 2q-dimensionale incognito {\mathbf {a}}. Questo vettore può essere trovato in modo simile a prima.

    Nel caso più generale {\mathbf {x}}_{{k}}\in {\mathbb {R}}^{{p}} e {\mathbf {y}}_{{k}}\in {\mathbb {R}}^{{q}} .

    La differenza principale rispetto a prima è che la matrice \mathbf {H} ora è p \times p antisimmetrica.

    Quando {\displaystyle p>2} lo spazio di tali matrici non è più unidimensionale, Ha una dimensione misurabile.

    M={\frac {p\,(p-1)}{2}}.

    Ciò suggerisce che esistono equazioni omogenee di tipo M per tutti i valori di k.

    0={\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}}_{{m}}\,{\mathbf {A}}\,{\mathbf {y}}_{{k}} per \,m=1,\ldots ,M e per \,k=1,\ldots ,N

    dove {\mathbf {H}}_{{m}} è una base M-dimensionale dello spazio delle matrici antisimmetriche. p \times p

    Nel caso in cui p  = 3 si possono scegliere {\mathbf {H}}_{{m}} le seguenti tre matrici

    {\mathbf {H}}_{{1}}={\begin{pmatrix}0&0&0\\0&0&-1\\0&1&0\end{pmatrix}} , {\mathbf {H}}_{{2}}={\begin{pmatrix}0&0&1\\0&0&0\\-1&0&0\end{pmatrix}} , {\mathbf {H}}_{{3}}={\begin{pmatrix}0&-1&0\\1&0&0\\0&0&0\end{pmatrix}}.

    Le equazioni lineari omogenee in questa situazione possono essere espresse come

    {\mathbf {0}}=[{\mathbf {x}}_{{k}}]_{{\times }}\,{\mathbf {A}}\,{\mathbf {y}}_{{k}} per \,k=1,\ldots ,N

    dove [{\mathbf {x}}_{{k}}]_{{\times }} è la rappresentazione matriciale del prodotto incrociato vettoriale.

    Quest'ultima equazione è della varietà a valori vettoriali; il lato sinistro è l'elemento zero in {\mathbb {R}}^{{3}} .

    Ogni valore di k fornisce tre equazioni lineari omogenee negli elementi incogniti di \mathbf {A} .

    Tuttavia, poiché [{\mathbf {x}}_{{k}}]_{{\times }} ha rango = 2, il numero massimo di equazioni linearmente indipendenti è due.

    In pratica, quindi, è comune utilizzare solo due delle tre matrici {\mathbf {H}}_{{m}} , ad esempio per m=1, 2.

    Tuttavia, la dipendenza lineare tra le equazioni dipende da {\mathbf {x}}_{{k}} , quindi, in situazioni sfavorevoli, il picking sarebbe stata un'opzione superiore, ad esempio m=2,3.

    Quindi, se non importa quante equazioni ci sono, potrebbe essere meglio usare tutte e tre le equazioni quando la matrice \mathbf {B} è costruita.

    La dipendenza lineare tra le equazioni lineari omogenee risultanti è una preoccupazione generale per il caso p > 2 e deve essere affrontata riducendo l'insieme delle matrici antisimmetriche {\mathbf {H}}_{{m}} o permettendo \mathbf {B} di diventare più grandi di quanto necessario per determinare {\mathbf {a}}.

    {Fine Capitolo 1}

    Capitolo 2: Mappa lineare

    In matematica, e in algebra lineare in particolare, Una mappa lineare (o mappatura lineare) è un tipo di mappa che, trasformazione lineare, omomorfismo di spazi vettoriali, o in alcuni contesti funzione lineare) è una mappatura V\to W tra due spazi vettoriali che conserva le operazioni di addizione vettoriale e moltiplicazione scalare.

    Il caso più generale dei moduli su un anello utilizza gli stessi nomi e la stessa definizione; Cerca Omomorfismo dei moduli.

    Un isomorfismo lineare è una biiezione tra due spazi vettoriali.

    Nel caso in cui {\displaystyle V=W} , l'endomorfismo lineare è un altro nome per una mappa.

    Questa situazione è talvolta indicata come operatore lineare, Tuttavia, ci sono alcune tradizioni distinte che definiscono cosa si intende con l'espressione operatore lineare. Caso in questione, può essere usato per enfatizzare che V e W sono spazi vettoriali reali (non necessariamente con {\displaystyle V=W} ), oppure può essere usato per enfatizzare che V è uno spazio di funzioni,  Si tratta di una pratica standard nell'analisi funzionale.

    La funzione lineare può significare la stessa cosa della mappa lineare in alcuni contesti, l'analisi mostra che non è così.

    Quando si esegue la mappatura lineare da V a W, il punto iniziale di V viene sempre mappato sul punto iniziale di W. Inoltre, trasferisce sottospazi lineari da V a W (potenzialmente di dimensione inferiore), ad esempio mappando un piano passante per l'origine in V a un piano passante per l'origine in W, una linea passante per l'origine in W o solo l'origine in W. La rotazione e la riflessione sono due esempi di trasformazioni lineari che possono essere rappresentate utilizzando matrici.

    Le mappature lineari sono morfismi di spazi vettoriali nel gergo della teoria delle categorie.

    Siano V W e spazi vettoriali sullo stesso campo K .

    Una funzione f:V\to W si dice mappa lineare se per due vettori {\textstyle \mathbf {u} ,\mathbf {v} \in V} e scalari  qualsiasi sono {\displaystyle c\in K} soddisfatte le due condizioni seguenti:

    L'aggiunta o la possibilità di aggiungere

    {\displaystyle f(\mathbf {u} +\mathbf {v} )=f(\mathbf {u} )+f(\mathbf {v} )}

    Omogeneità di grado 1 / funzionamento scalare del prodotto

    {\displaystyle f(c\mathbf {u} )=cf(\mathbf {u} )}

    Di conseguenza, diciamo che una mappa lineare conserva le operazioni. Per riformulare, non fa differenza se la mappa lineare viene applicata prima (lati a destra delle istanze) o dopo (a sinistra degli esempi) le operazioni aritmetiche e di moltiplicazione.

    A causa della proprietà commutativa del segno più (+),, per tutti i vettori {\textstyle \mathbf {u} _{1},\ldots ,\mathbf {u} _{n}\in V} e {\textstyle c_{1},\ldots ,c_{n}\in K,} scalari vale la seguente uguaglianza:

    {\displaystyle f(c_{1}\mathbf {u} _{1}+\cdots +c_{n}\mathbf {u} _{n})=c_{1}f(\mathbf {u} _{1})+\cdots +c_{n}f(\mathbf {u} _{n}).}

    Le combinazioni lineari sono preservate da una tale mappa, da cui il suo nome.

    Denotando gli elementi nulli degli spazi vettoriali V e W rispettivamente di {\textstyle \mathbf {0} _{V}} e {\textstyle \mathbf {0} _{W}} , ne segue che {\textstyle f(\mathbf {0} _{V})=\mathbf {0} _{W}.} Sia e c=0 {\textstyle \mathbf {v} \in V} nell'equazione per omogeneità di grado 1:

    {\displaystyle f(\mathbf {0} _{V})=f(0\mathbf {v} )=0f(\mathbf {v} )=\mathbf {0} _{W}.}

    Una mappa lineare {\displaystyle V\to K} vista K come uno spazio vettoriale unidimensionale su se stessa è chiamata funzionale lineare.

    Queste istruzioni si generalizzano a qualsiasi modulo sinistro {\textstyle {}_{R}M} su un anello R senza modifiche e, invertendo la moltiplicazione scalare, a qualsiasi modulo destro.

    Un esempio prototipico che dà il nome alle mappe lineari è una funzione {\displaystyle f:\mathbb {R} \to \mathbb {R} :x\mapsto cx} , Prende la forma di una linea passante per lo zero su un

    Ti è piaciuta l'anteprima?
    Pagina 1 di 1