Trasformazione lineare diretta: Applicazioni pratiche e tecniche nella visione artificiale
Di Fouad Sabry
()
Info su questo ebook
Che cos'è la trasformazione lineare diretta
La trasformazione lineare diretta, nota anche come DLT, è un algoritmo che risolve un insieme di variabili utilizzando un insieme di relazioni di similarità come metodo di lavoro impostato. Nel campo della geometria proiettiva questo tipo di relazione si incontra abbastanza frequentemente. Esempi applicabili alle situazioni del mondo reale includono le omografie e la relazione tra i punti tridimensionali in una scena e la loro proiezione sul piano dell'immagine di una fotocamera stenopeica.
Come trarrai vantaggio
(I) Approfondimenti e convalide sui seguenti argomenti:
Capitolo 1: Trasformazione lineare diretta
Capitolo 2: Mappa lineare
Capitolo 3: Sottospazio lineare
Capitolo 4: Decomposizione di Cholesky
Capitolo 5: Matrice invertibile
Capitolo 6: Forma quadratica
Capitolo 7: Funzione omogenea
Capitolo 8: Kernel (algebra lineare)
Capitolo 9: Coordinate Plücker
Capitolo 10: Trasformazione del modello TP nella teoria del controllo
(II) Rispondere alle principali domande del pubblico sulla trasformazione lineare diretta.
(III) Esempi reali dell'utilizzo della trasformazione lineare diretta in molti campi.
A chi è rivolto questo libro
Professionisti, studenti universitari e laureati, appassionati, hobbisti e coloro che desiderano andare oltre le conoscenze o le informazioni di base per qualsiasi tipo di trasformazione lineare diretta.
Correlato a Trasformazione lineare diretta
Titoli di questa serie (100)
Equalizzazione dell'istogramma: Miglioramento del contrasto dell'immagine per una migliore percezione visiva Valutazione: 0 su 5 stelle0 valutazioniVisione computerizzata: Esplorare le profondità della visione artificiale Valutazione: 0 su 5 stelle0 valutazioniRiduzione del rumore: Miglioramento della chiarezza, tecniche avanzate per la riduzione del rumore nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniTrasformata del radon: Svelare modelli nascosti nei dati visivi Valutazione: 0 su 5 stelle0 valutazioniMappatura dei toni: Mappatura dei toni: prospettive illuminanti nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniDiffusione anisotropa: Miglioramento dell'analisi delle immagini attraverso la diffusione anisotropa Valutazione: 0 su 5 stelle0 valutazioniRetinex: Svelare i segreti della visione computazionale con Retinex Valutazione: 0 su 5 stelle0 valutazioniTrasformazione di Hough: Svelare la magia della trasformazione di Hough nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniSistema di gestione del colore: Ottimizzazione della percezione visiva negli ambienti digitali Valutazione: 0 su 5 stelle0 valutazioniVisione artificiale subacquea: Esplorando le profondità della visione artificiale sotto le onde Valutazione: 0 su 5 stelle0 valutazioniCorrezione gamma: Migliorare la chiarezza visiva nella visione artificiale: la tecnica di correzione gamma Valutazione: 0 su 5 stelle0 valutazioniModello di aspetto del colore: Comprendere la percezione e la rappresentazione nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniOmografia: Omografia: trasformazioni nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniVisione stereoscopica del computer: Esplorare la percezione della profondità nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniScala dello spazio: Esplorare le dimensioni nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniGruppo congiunto di esperti fotografici: Sfruttare la potenza dei dati visivi con lo standard JPEG Valutazione: 0 su 5 stelle0 valutazioniFunzione di corrispondenza dei colori: Comprendere la sensibilità spettrale nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniRidipintura: Colmare le lacune nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniIstogramma dell'immagine: Svelare intuizioni visive, esplorare le profondità degli istogrammi delle immagini nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniConsenso del campione casuale: Stima robusta nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniRilevatore di bordi astuto: Svelare l'arte della percezione visiva Valutazione: 0 su 5 stelle0 valutazioniModello a colori: Comprendere lo spettro della visione artificiale: esplorare i modelli di colore Valutazione: 0 su 5 stelle0 valutazioniSpazio colore: Esplorare lo spettro della visione artificiale Valutazione: 0 su 5 stelle0 valutazioniStima della posa del corpo articolato: Sbloccare il movimento umano nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniMappatura dei colori: Esplorare la percezione visiva e l'analisi nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniRilevamento delle macchie: Scoprire modelli nei dati visivi Valutazione: 0 su 5 stelle0 valutazioniCompressione delle immagini: Tecniche efficienti per l'ottimizzazione dei dati visivi Valutazione: 0 su 5 stelle0 valutazioniProfilo colore: Esplorare la percezione visiva e l'analisi nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniTrasformazione affine: Sbloccare le prospettive visive: esplorare la trasformazione affine nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniTrasformazione di feature invarianti di scala: Svelare il potere della trasformazione delle caratteristiche invarianti su scala nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioni
Ebook correlati
Tensore trifocale: Esplorare la profondità, il movimento e la struttura nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniEsercizi di matematica: analisi numerica Valutazione: 5 su 5 stelle5/5Metodo di impostazione del livello: Avanzamento della visione artificiale, esplorazione del metodo dell'impostazione dei livelli Valutazione: 0 su 5 stelle0 valutazioniCorrelazione incrociata: Sbloccare i modelli nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniEsercizi di matematica: vettori e spazi vettoriali Valutazione: 0 su 5 stelle0 valutazioniTrasformazione affine: Sbloccare le prospettive visive: esplorare la trasformazione affine nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniAnalisi numerica Valutazione: 5 su 5 stelle5/5Esercizi di matematica: sistemi differenziali lineari Valutazione: 0 su 5 stelle0 valutazioniInterpolazione bilineare: Miglioramento della risoluzione e della chiarezza dell'immagine tramite l'interpolazione bilineare Valutazione: 0 su 5 stelle0 valutazioniOmografia: Omografia: trasformazioni nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniMatematica: calcolo vettoriale e matriciale Valutazione: 5 su 5 stelle5/5Imparare la fisica zero Valutazione: 0 su 5 stelle0 valutazioniCampo casuale di Markov: Esplorazione della potenza dei campi casuali di Markov nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniMatematica: numeri complessi Valutazione: 0 su 5 stelle0 valutazioniMatematica: geometria analitica Valutazione: 5 su 5 stelle5/5Esercizi di matematica: funzioni reali a più variabili Valutazione: 0 su 5 stelle0 valutazioniEsercizi di matematica: matrici e algebra lineare Valutazione: 5 su 5 stelle5/5Esercizi di matematica: studio di funzioni a variabile reale Valutazione: 0 su 5 stelle0 valutazioniMatematica vettoriale, matriciale e tensoriale Valutazione: 5 su 5 stelle5/5Esercizi di matematica: funzioni logaritmiche e esponenziali Valutazione: 0 su 5 stelle0 valutazioniComputer grafica bidimensionale: Esplorazione del regno visivo: computer grafica bidimensionale nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniLe quadrature numeriche Valutazione: 0 su 5 stelle0 valutazioniEsercizi svolti di Matematica: Vettori Valutazione: 0 su 5 stelle0 valutazioniEsercizi di matematica: numeri complessi e funzioni iperboliche Valutazione: 0 su 5 stelle0 valutazioniAlgoritmo della linea di Bresenham: Rendering delle linee efficiente e pixel perfetto per la visione artificiale Valutazione: 0 su 5 stelle0 valutazioniAnalisi matematica avanzata Valutazione: 5 su 5 stelle5/5Relatività, decadimenti e campi elettromagnetici Valutazione: 0 su 5 stelle0 valutazioniEsercizi di matematica: equazioni differenziali a derivate parziali Valutazione: 5 su 5 stelle5/5Esercizi di equazioni differenziali a derivate parziali Valutazione: 0 su 5 stelle0 valutazioniEquazioni differenziali Valutazione: 5 su 5 stelle5/5
Intelligenza artificiale e semantica per voi
ANonniMus: Vecchi rivoluzionari contro giovani robot Valutazione: 0 su 5 stelle0 valutazioniIl Terzo Like Valutazione: 0 su 5 stelle0 valutazioniGuida Intelligenza Artificiale Valutazione: 0 su 5 stelle0 valutazioni
Recensioni su Trasformazione lineare diretta
0 valutazioni0 recensioni
Anteprima del libro
Trasformazione lineare diretta - Fouad Sabry
Capitolo 1: Trasformazione lineare diretta
Un insieme di variabili può essere risolto da un insieme di relazioni di similarità utilizzando una tecnica chiamata trasformazione lineare diretta (DLT):
{\mathbf {x}}_{{k}}\propto {\mathbf {A}}\,{\mathbf {y}}_{{k}} per \,k=1,\ldots ,N
dove {\mathbf {x}}_{{k}} e {\mathbf {y}}_{{k}} sono vettori noti, \,\propto denota uguaglianza fino ad una moltiplicazione scalare incognita, ed \mathbf {A} è una matrice (o trasformazione lineare) che contiene le incognite da risolvere.
Nella geometria proiettiva, questo è un tipo comune di relazione. Gli omografi e la relazione tra i punti della scena 3D e la loro proiezione della telecamera stenopeica sono due di questi casi.
In poche parole, un sistema di equazioni lineari
{\mathbf {x}}_{{k}}={\mathbf {A}}\,{\mathbf {y}}_{{k}} per \,k=1,\ldots ,N
è risolvibile, ad esempio, riscrivendola come un'equazione matriciale {\mathbf {X}}={\mathbf {A}}\,{\mathbf {Y}} dove le matrici {\mathbf {X}} e {\mathbf {Y}} contengono i vettori {\mathbf {x}}_{{k}} e {\mathbf {y}}_{{k}} nelle rispettive colonne.
Poiché c'è una sola risposta a questo problema, fornita da
{\mathbf {A}}={\mathbf {X}}\,{\mathbf {Y}}^{{T}}\,({\mathbf {Y}}\,{\mathbf {Y}}^{{T}})^{{-1}}.Nel caso in cui le equazioni siano sovradeterminate o sottodeterminate, possono anche essere descritte le soluzioni.
La differenza tra il problema della trasformazione lineare diretta e l'esempio tipico di cui sopra è che il fattore moltiplicativo che separa i lati sinistro e destro dell'equazione di definizione dipende dal parametro k.
Quindi, quindi, \mathbf {A} non può essere calcolato come nel caso standard.
Invece, in questo approccio, le relazioni di similarità vengono trasformate in equazioni omogenee lineari ordinarie.
Gli algoritmi di trasformazione lineare diretta (DLT) combinano la riscrittura delle equazioni di similarità come equazioni lineari omogenee e le risolvono utilizzando metodi consolidati.
Ivan Sutherland è accreditato per lo sviluppo della DLT.
Si supponga che {\displaystyle k\in \{1,...,N\}} .
Siano {\displaystyle \mathbf {x} _{k}=(x_{1k},x_{2k})\in \mathbb {R} ^{2}} {\displaystyle \mathbf {y} _{k}=(y_{1k},y_{2k},y_{3k})\in \mathbb {R} ^{3}} e due vettori noti, e vogliamo trovare la 2\times 3 matrice \mathbf {A} tale che
\alpha _{{k}}\,{\mathbf {x}}_{{k}}={\mathbf {A}}\,{\mathbf {y}}_{{k}}dove \alpha _{{k}}\neq 0 è il fattore scalare incognito relativo all'equazione k.
Definire la matrice antisimmetrica per eliminare gli scalari liberi e produrre equazioni omogenee.
{\mathbf {H}}={\begin{pmatrix}0&-1\\1&0\end{pmatrix}}e moltiplica entrambi i lati dell'equazione con {\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}} da sinistra
{\displaystyle {\begin{aligned}(\mathbf {x} _{k}^{T}\,\mathbf {H} )\,\alpha _{k}\,\mathbf {x} _{k}&=(\mathbf {x} _{k}^{T}\,\mathbf {H} )\,\mathbf {A} \,\mathbf {y} _{k}\\\alpha _{k}\,\mathbf {x} _{k}^{T}\,\mathbf {H} \,\mathbf {x} _{k}&=\mathbf {x} _{k}^{T}\,\mathbf {H} \,\mathbf {A} \,\mathbf {y} _{k}\end{aligned}}}Poiché {\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}}\,{\mathbf {x}}_{{k}}=0, le seguenti equazioni omogenee, che sono ora prive dei misteriosi scalari, sono a portata di mano
{\displaystyle \mathbf {x} _{k}^{T}\,\mathbf {H} \,\mathbf {A} \,\mathbf {y} _{k}=0}Per risolvere \mathbf {A} da questo insieme di equazioni, si considerino gli elementi dei vettori {\mathbf {x}}_{{k}} e della {\mathbf {y}}_{{k}} matrice : \mathbf {A}
{\mathbf {x}}_{{k}}={\begin{pmatrix}x_{{1k}}\\x_{{2k}}\end{pmatrix}} , {\mathbf {y}}_{{k}}={\begin{pmatrix}y_{{1k}}\\y_{{2k}}\\y_{{3k}}\end{pmatrix}} , e {\mathbf {A}}={\begin{pmatrix}a_{{11}}&a_{{12}}&a_{{13}}\\a_{{21}}&a_{{22}}&a_{{23}}\end{pmatrix}}
In questo caso, l'equazione omogenea di cui sopra si semplifica in
0=a_{{11}}\,x_{{2k}}\,y_{{1k}}-a_{{21}}\,x_{{1k}}\,y_{{1k}}+a_{{12}}\,x_{{2k}}\,y_{{2k}}-a_{{22}}\,x_{{1k}}\,y_{{2k}}+a_{{13}}\,x_{{2k}}\,y_{{3k}}-a_{{23}}\,x_{{1k}}\,y_{{3k}}per \,k=1,\ldots ,N.
La forma matrice funziona altrettanto bene per questo:
0={\mathbf {b}}_{{k}}^{{T}}\,{\mathbf {a}} per \,k=1,\ldots ,N
dove {\mathbf {b}}_{{k}} ed \mathbf{a} entrambi sono vettori a 6 dimensioni definiti come
{\mathbf {b}}_{{k}}={\begin{pmatrix}x_{{2k}}\,y_{{1k}}\\-x_{{1k}}\,y_{{1k}}\\x_{{2k}}\,y_{{2k}}\\-x_{{1k}}\,y_{{2k}}\\x_{{2k}}\,y_{{3k}}\\-x_{{1k}}\,y_{{3k}}\end{pmatrix}} e {\mathbf {a}}={\begin{pmatrix}a_{{11}}\\a_{{21}}\\a_{{12}}\\a_{{22}}\\a_{{13}}\\a_{{23}}\end{pmatrix}}.
A questo punto abbiamo un'equazione e sei variabili. La forma matriciale può essere utilizzata per esprimere un sistema di equazioni omogenee.
{\mathbf {0}}={\mathbf {B}}\,{\mathbf {a}}dove \mathbf {B} è una N\times 6 matrice che contiene i vettori noti {\mathbf {b}}_{{k}} nelle sue righe.
L'incognita \mathbf{a} può essere determinata, ad esempio, da una scomposizione a valori singolari di \mathbf {B} ; \mathbf{a} è un vettore singolare retto di \mathbf {B} corrispondente a un valore singolare uguale a zero.
Una volta \mathbf{a} determinati, gli elementi della matrice \mathbf {A} possono essere riarrangiati da vettori \mathbf {a} .
Si noti che la scala di \mathbf{a} or \mathbf {A} non è importante (tranne per il fatto che deve essere diversa da zero) poiché le equazioni di definizione consentono già una scala sconosciuta.
In pratica, i vettori {\mathbf {x}}_{{k}} e {\mathbf {y}}_{{k}} possono contenere rumore, il che significa che le equazioni di somiglianza sono valide solo approssimativamente.
Quindi, potrebbe non esserci un vettore \mathbf{a} che risolva esattamente l'equazione omogenea {\mathbf {0}}={\mathbf {B}}\,{\mathbf {a}} .
In tali situazioni, una soluzione dei minimi quadrati totali può essere utilizzata scegliendo \mathbf{a} come vettore singolare retto corrispondente al valore singolare più piccolo di {\mathbf {B}}.
L'esempio precedente ha {\mathbf {x}}_{{k}}\in {\mathbb {R}}^{{2}} e {\mathbf {y}}_{{k}}\in {\mathbb {R}}^{{3}} , ma la strategia generale per riscrivere le relazioni di somiglianza in equazioni lineari omogenee può essere generalizzata a dimensioni arbitrarie sia per e {\mathbf {x}}_{{k}} {\mathbf {y}}_{{k}}.
Se {\mathbf {x}}_{{k}}\in {\mathbb {R}}^{{2}} e {\mathbf {y}}_{{k}}\in {\mathbb {R}}^{{q}} le espressioni precedenti possono ancora portare a un'equazione
0={\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}}\,{\mathbf {A}}\,{\mathbf {y}}_{{k}} per \,k=1,\ldots ,N
dove \mathbf {A} ora è 2\times q. Ogni k fornisce un'equazione negli 2q elementi incogniti di \mathbf {A} e insieme queste equazioni possono essere scritte {\mathbf {B}}\,{\mathbf {a}}={\mathbf {0}} per la N\times 2\,q matrice nota e il \mathbf {B} vettore 2q-dimensionale incognito {\mathbf {a}}. Questo vettore può essere trovato in modo simile a prima.
Nel caso più generale {\mathbf {x}}_{{k}}\in {\mathbb {R}}^{{p}} e {\mathbf {y}}_{{k}}\in {\mathbb {R}}^{{q}} .
La differenza principale rispetto a prima è che la matrice \mathbf {H} ora è p \times p antisimmetrica.
Quando {\displaystyle p>2} lo spazio di tali matrici non è più unidimensionale, Ha una dimensione misurabile.
M={\frac {p\,(p-1)}{2}}.Ciò suggerisce che esistono equazioni omogenee di tipo M per tutti i valori di k.
0={\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}}_{{m}}\,{\mathbf {A}}\,{\mathbf {y}}_{{k}} per \,m=1,\ldots ,M e per \,k=1,\ldots ,N
dove {\mathbf {H}}_{{m}} è una base M-dimensionale dello spazio delle matrici antisimmetriche. p \times p
Nel caso in cui p = 3 si possono scegliere {\mathbf {H}}_{{m}} le seguenti tre matrici
{\mathbf {H}}_{{1}}={\begin{pmatrix}0&0&0\\0&0&-1\\0&1&0\end{pmatrix}} , {\mathbf {H}}_{{2}}={\begin{pmatrix}0&0&1\\0&0&0\\-1&0&0\end{pmatrix}} , {\mathbf {H}}_{{3}}={\begin{pmatrix}0&-1&0\\1&0&0\\0&0&0\end{pmatrix}}.
Le equazioni lineari omogenee in questa situazione possono essere espresse come
{\mathbf {0}}=[{\mathbf {x}}_{{k}}]_{{\times }}\,{\mathbf {A}}\,{\mathbf {y}}_{{k}} per \,k=1,\ldots ,N
dove [{\mathbf {x}}_{{k}}]_{{\times }} è la rappresentazione matriciale del prodotto incrociato vettoriale.
Quest'ultima equazione è della varietà a valori vettoriali; il lato sinistro è l'elemento zero in {\mathbb {R}}^{{3}} .
Ogni valore di k fornisce tre equazioni lineari omogenee negli elementi incogniti di \mathbf {A} .
Tuttavia, poiché [{\mathbf {x}}_{{k}}]_{{\times }} ha rango = 2, il numero massimo di equazioni linearmente indipendenti è due.
In pratica, quindi, è comune utilizzare solo due delle tre matrici {\mathbf {H}}_{{m}} , ad esempio per m=1, 2.
Tuttavia, la dipendenza lineare tra le equazioni dipende da {\mathbf {x}}_{{k}} , quindi, in situazioni sfavorevoli, il picking sarebbe stata un'opzione superiore, ad esempio m=2,3.
Quindi, se non importa quante equazioni ci sono, potrebbe essere meglio usare tutte e tre le equazioni quando la matrice \mathbf {B} è costruita.
La dipendenza lineare tra le equazioni lineari omogenee risultanti è una preoccupazione generale per il caso p > 2 e deve essere affrontata riducendo l'insieme delle matrici antisimmetriche {\mathbf {H}}_{{m}} o permettendo \mathbf {B} di diventare più grandi di quanto necessario per determinare {\mathbf {a}}.
{Fine Capitolo 1}
Capitolo 2: Mappa lineare
In matematica, e in algebra lineare in particolare, Una mappa lineare (o mappatura lineare) è un tipo di mappa che, trasformazione lineare, omomorfismo di spazi vettoriali, o in alcuni contesti funzione lineare) è una mappatura V\to W tra due spazi vettoriali che conserva le operazioni di addizione vettoriale e moltiplicazione scalare.
Il caso più generale dei moduli su un anello utilizza gli stessi nomi e la stessa definizione; Cerca Omomorfismo dei moduli.
Un isomorfismo lineare è una biiezione tra due spazi vettoriali.
Nel caso in cui {\displaystyle V=W} , l'endomorfismo lineare è un altro nome per una mappa.
Questa situazione è talvolta indicata come operatore lineare, Tuttavia, ci sono alcune tradizioni distinte che definiscono cosa si intende con l'espressione operatore lineare
. Caso in questione, può essere usato per enfatizzare che V e W sono spazi vettoriali reali (non necessariamente con {\displaystyle V=W} ), oppure può essere usato per enfatizzare che V è uno spazio di funzioni, Si tratta di una pratica standard nell'analisi funzionale.
La funzione lineare può significare la stessa cosa della mappa lineare in alcuni contesti, l'analisi mostra che non è così.
Quando si esegue la mappatura lineare da V a W, il punto iniziale di V viene sempre mappato sul punto iniziale di W. Inoltre, trasferisce sottospazi lineari da V a W (potenzialmente di dimensione inferiore), ad esempio mappando un piano passante per l'origine in V a un piano passante per l'origine in W, una linea passante per l'origine in W o solo l'origine in W. La rotazione e la riflessione sono due esempi di trasformazioni lineari che possono essere rappresentate utilizzando matrici.
Le mappature lineari sono morfismi di spazi vettoriali nel gergo della teoria delle categorie.
Siano V W e spazi vettoriali sullo stesso campo K .
Una funzione f:V\to W si dice mappa lineare se per due vettori {\textstyle \mathbf {u} ,\mathbf {v} \in V} e scalari qualsiasi sono {\displaystyle c\in K} soddisfatte le due condizioni seguenti:
L'aggiunta o la possibilità di aggiungere
{\displaystyle f(\mathbf {u} +\mathbf {v} )=f(\mathbf {u} )+f(\mathbf {v} )}Omogeneità di grado 1 / funzionamento scalare del prodotto
{\displaystyle f(c\mathbf {u} )=cf(\mathbf {u} )}Di conseguenza, diciamo che una mappa lineare conserva le operazioni. Per riformulare, non fa differenza se la mappa lineare viene applicata prima (lati a destra delle istanze) o dopo (a sinistra degli esempi) le operazioni aritmetiche e di moltiplicazione.
A causa della proprietà commutativa del segno più (+),, per tutti i vettori {\textstyle \mathbf {u} _{1},\ldots ,\mathbf {u} _{n}\in V} e {\textstyle c_{1},\ldots ,c_{n}\in K,} scalari vale la seguente uguaglianza:
{\displaystyle f(c_{1}\mathbf {u} _{1}+\cdots +c_{n}\mathbf {u} _{n})=c_{1}f(\mathbf {u} _{1})+\cdots +c_{n}f(\mathbf {u} _{n}).}Le combinazioni lineari sono preservate da una tale mappa, da cui il suo nome.
Denotando gli elementi nulli degli spazi vettoriali V e W rispettivamente di {\textstyle \mathbf {0} _{V}} e {\textstyle \mathbf {0} _{W}} , ne segue che {\textstyle f(\mathbf {0} _{V})=\mathbf {0} _{W}.} Sia e c=0 {\textstyle \mathbf {v} \in V} nell'equazione per omogeneità di grado 1:
{\displaystyle f(\mathbf {0} _{V})=f(0\mathbf {v} )=0f(\mathbf {v} )=\mathbf {0} _{W}.}Una mappa lineare {\displaystyle V\to K} vista K come uno spazio vettoriale unidimensionale su se stessa è chiamata funzionale lineare.
Queste istruzioni si generalizzano a qualsiasi modulo sinistro {\textstyle {}_{R}M} su un anello R senza modifiche e, invertendo la moltiplicazione scalare, a qualsiasi modulo destro.
Un esempio prototipico che dà il nome alle mappe lineari è una funzione {\displaystyle f:\mathbb {R} \to \mathbb {R} :x\mapsto cx} , Prende la forma di una linea passante per lo zero su un