Scopri milioni di eBook, audiolibri e tanto altro ancora con una prova gratuita

Solo $11.99/mese al termine del periodo di prova. Cancella quando vuoi.

Compressione delle immagini: Tecniche efficienti per l'ottimizzazione dei dati visivi
Compressione delle immagini: Tecniche efficienti per l'ottimizzazione dei dati visivi
Compressione delle immagini: Tecniche efficienti per l'ottimizzazione dei dati visivi
E-book182 pagine2 ore

Compressione delle immagini: Tecniche efficienti per l'ottimizzazione dei dati visivi

Valutazione: 0 su 5 stelle

()

Leggi anteprima

Info su questo ebook

Cos'è la compressione delle immagini


Quando applicata alle fotografie digitali, la compressione delle immagini è una forma di compressione dei dati che aiuta a ridurre la quantità di denaro necessaria per la loro archiviazione o trasmissione. È possibile che gli algoritmi utilizzino la percezione visiva e gli aspetti statistici dei dati delle immagini per fornire risultati più elevati rispetto agli approcci generici di compressione dei dati utilizzati per altri tipi di dati digitali.


Come trarrai vantaggio


(I) Approfondimenti e convalide sui seguenti argomenti:


Capitolo 1: Compressione delle immagini


Capitolo 2: Compressione dei dati


Capitolo 3: JPEG


Capitolo 4: Compressione con perdita


Capitolo 5: Compressione senza perdita


Capitolo 6: PNG


Capitolo 7: Codifica della trasformazione


Capitolo 8: Trasformata discreta del coseno


Capitolo 9: JPEG 2000


Capitolo 10: Artefatto di compressione


(II) Rispondere alle principali domande del pubblico sulla compressione delle immagini.


(III) Esempi reali dell'utilizzo della compressione delle immagini in molti campi.


Chi questo libro è per


Professionisti, studenti universitari e laureati, appassionati, hobbisti e coloro che desiderano andare oltre le conoscenze o le informazioni di base per qualsiasi tipo di compressione delle immagini.


 


 

LinguaItaliano
Data di uscita29 apr 2024
Compressione delle immagini: Tecniche efficienti per l'ottimizzazione dei dati visivi

Leggi altro di Fouad Sabry

Correlato a Compressione delle immagini

Titoli di questa serie (100)

Visualizza altri

Ebook correlati

Intelligenza artificiale e semantica per voi

Visualizza altri

Articoli correlati

Recensioni su Compressione delle immagini

Valutazione: 0 su 5 stelle
0 valutazioni

0 valutazioni0 recensioni

Cosa ne pensi?

Tocca per valutare

La recensione deve contenere almeno 10 parole

    Anteprima del libro

    Compressione delle immagini - Fouad Sabry

    Capitolo 1: Compressione dell'immagine

    Le fotografie digitali possono essere compresse utilizzando la compressione delle immagini, una forma di compressione dei dati, per ridurne le dimensioni e quindi i costi di archiviazione e trasferimento. Al fine di ottenere risultati migliori rispetto ai metodi generici di compressione dei dati utilizzati per altri dati digitali, gli algoritmi possono sfruttare la percezione visiva e le caratteristiche statistiche dei dati delle immagini.

    Sono possibili sia la compressione delle immagini lossy che lossless. La maggior parte delle immagini mediche, dei disegni tecnici, delle clip art e dei cartoni animati beneficia della compressione senza perdita di dati per l'archiviazione a lungo termine. Gli artefatti di compressione vengono introdotti dalle tecniche di compressione con perdita di dati, in particolare quando si lavora con bit rate bassi. Quando si desidera una riduzione significativa del bit rate ma è accettabile una piccola perdita di qualità (spesso non rilevabile), gli approcci con perdita di dati sono l'ideale. Questo è il caso delle immagini naturali come le fotografie. La compressione visivamente senza perdita di dati utilizza una forma di compressione con perdita di dati che produce perdite di qualità impercettibili.

    Tecniche di compressione con perdita:

    La tecnica più utilizzata è la codifica a trasformazione.

    Il tipo più diffuso di compressione con perdita di dati è la trasformata del coseno discreto (DCT). Inventata da Nasir Ahmed, T. Natarajan e K. R. Rao nel 1974, appartiene a una famiglia di trasformate che include la trasformata di Fourier. Nel contesto di un gruppo di trasformate discrete del coseno, la DCT è spesso indicata come DCT-II (vedi trasformata discreta del coseno). È il metodo più efficace di compressione delle immagini nella maggior parte dei casi.

    Il formato lossy più utilizzato, JPEG, utilizza DCT, così come il più moderno HEIF.

    Seguono la quantizzazione e la codifica dell'entropia, poi la più contemporanea trasformata wavelet.

    La quantizzazione del colore è il processo di riduzione della tavolozza dei colori di un'immagine a un piccolo insieme di tonalità rappresentative. L'intestazione dell'immagine compressa include una tavolozza di colori che specifica i colori utilizzati per creare l'immagine. L'indice di colore viene semplicemente indicato in ogni pixel. Al fine di prevenire la posterizzazione, questa tecnica può essere utilizzata in tandem con il dithering.

    Tavolozza di colori completa, comunemente utilizzata nei file GIF e PNG, con un massimo di 256 colori.

    In BTC, CCC, S2TC e S3TC, viene utilizzata una tavolozza di blocchi di 2 o 4 colori per ogni blocco di pixel 4x4.

    Riduzione dello spazio colore mediante sottocampionamento della crominanza. Facendo la media o eliminando alcune delle informazioni sulla crominanza nell'immagine, si sfrutta il fatto che l'occhio umano registra i cambiamenti spaziali di luminosità in modo più acuto rispetto a quelli del colore.

    Compressione frattale.

    I percettroni multistrato, le reti neurali convoluzionali e le reti antagoniste generative, tutte provenienti dal regno dell'apprendimento automatico, sono state utilizzate in applicazioni più contemporanee.

    Tecniche di compressione senza perdita di dati:

    PCX utilizza la codifica run-length per impostazione predefinita, mentre BMP, TGA e TIFF la supportano come modalità alternativa di codifica.

    Compressione dell'immagine dell'area

    DPCM utilizza la codifica predittiva.

    La codifica matematica e la codifica di Huffman sono le due forme più popolari di codifica dell'entropia.

    LZW, un popolare metodo di dizionario adattivo utilizzato in GIF e TIFF, utilizza DEFLATE nei file PNG, MNG e TIFF.

    Codici a catena

    Modelli di diffusione

    L'obiettivo principale della compressione dell'immagine è quello di ottenere la massima qualità possibile a una determinata velocità di compressione (o bit rate):

    Nella maggior parte dei casi, ridurre la scalabilità significa sacrificare la qualità manipolando il flusso di bit o il file sottostante (senza decompressione e ricompressione). La codifica progressiva e i flussi di bit incorporati sono altri nomi per la scalabilità. Anche i codec lossless hanno scalabilità, tuttavia assumono una forma diversa (spesso una scansione da pixel grossolani a pixel fini) e vengono utilizzati per altri scopi. L'anteprima delle immagini durante il download (in un browser Web, ad esempio) o l'offerta di un accesso di qualità variabile alle risorse (come i database) traggono entrambi grandi vantaggi dalla scalabilità. Esistono diversi tipi di scalabilità:

    Escalation progressiva della qualità o della complessità: ogni iterazione del flusso di bit migliora la qualità dell'immagine ricostruita.

    Per codificare una versione di qualità superiore di un'immagine, è necessario codificare prima la versione a risoluzione inferiore.

    Codifica graduale del colore da una versione in bianco e nero precedentemente codificata.

    Codifica per area di interesse. Diverse regioni dell'immagine sono codificate a diversi livelli di qualità. A questo si potrebbe aggiungere la capacità di scalare (codificare prima queste parti, altre in un secondo momento).

    Dati sui dati. Le immagini possono essere sfogliate, ricercate e classificate con l'aiuto dei metadati che possono essere presenti nei dati compressi. I dati relativi a colori e texture, le immagini di anteprima e le informazioni sull'autore/copyright sono tutti esempi di questo tipo di dati.

    Capacità di calcolo. I metodi di compressione hanno diverse esigenze computazionali di codifica e decodifica. Sono necessarie molte risorse della CPU per eseguire alcuni metodi di compressione elevata.

    Il rapporto segnale/rumore di picco è una metrica comune utilizzata per valutare l'efficacia di una tecnica di compressione. Quantifica la quantità di rumore creata dalla compressione lossy di un'immagine, ma la valutazione soggettiva dello spettatore è talvolta considerata altrettanto importante, se non di più.

    La codifica Shannon-Fano, il precursore della moderna codifica dell'entropia, è stata sviluppata alla fine degli anni '40, Data Compression for Images".

    Nel gennaio 1974, IEEE Trans. Computers pubblicò Discrete Cosine Transform di Nasir Ahmed, T. Natarajan e K. R. Rao alle pagine 90-93.

    Maayan, Gilad David (24 novembre 2021). Stato dell'arte nella compressione delle immagini basata sull'intelligenza artificiale. Verso la scienza dei dati. Estratto il 6 aprile 2023.

    Compressione generativa delle immagini di alta qualità. Estratto il 6 aprile 2023.

    ^ Bühlmann, Matthias (2022-09-28).

    Comprimere le immagini utilizzando un metodo di diffusione stabile.

    Medio.

    URL consultato il 02-11-2022.

    Burt, P.; Adelson, E. (1 aprile 1983). La piramide laplaciana è un codice immagine condensato. Comunicazioni, IEEE, 31(4), pp.532-540. DOI:10.1109/TCOM.1983.1095851; CiteSeerX:10.1.1.54.299; S2CID:8018433.

    ^ Shao, Dan; Kropatsch, Walter G.

    (3–5 febbraio 2010).

    Špaček, Libor; Franc, Vojtěch (a cura di).

    Piramide dei grafi laplaciani irregolari (PDF).

    Workshop invernale di Computer Vision 2010.

    Nové Hrady, Repubblica Ceca: Società ceca per il riconoscimento dei modelli.

    Data di pubblicazione iniziale: 27 maggio 2013 (PDF).

    Grazie a: Claude Elwood Shannon (1948). Alcatel-Lucent (a cura di). La teoria matematica dell'interazione interpersonale (PDF). 27 (3-4) Bell System Technical Journal, pagine 379-423, 623-656. Riferimenti: hdl:11858/00-001M-0000-002C-4314-2; DOI:10.1002/j.1538-7305.1948.tb01338.x. L'originale (PDF) è consultabile a partire dal 24 maggio 2011. Data di accesso: 21 aprile 2019.

    La versione originale (PDF) di A method for the creation of minimum-redundancy codes di David Albert Huffman è stata archiviata il 08-10-2005 da Proceedings of the IRE, vol. 40, no. 9, pp. 1098-1101 (doi:10.1109/JRPROC.1952.273898).

    Riferimento: Hadamard transform image coding, William K. Pratt, Julius Kane e Harry C. Andrews, Proceedings of the IEEE 57.1 (1969), pagine 58-68.

    Nasir Ahmed (gennaio 1991). Trasformata discreta del coseno: la storia dietro la sua creazione. Per citare questo articolo: Digital Signal Processing 1 (gennaio): 4-5.

    T.81: REQUISITI E LINEE GUIDA PER LA COMPRESSIONE DIGITALE E LA CODIFICA DI IMMAGINI FISSE A TONO CONTINUO (PDF). Pubblicato nel settembre 1992 dal CCITT. URL consultato il 18-08-2000 dall'originale (PDF) in quella data. Acquistalo il 12 luglio 2019!A questo punto,

    C'è una spiegazione del formato dell'immagine JPEG su BT.com. 31 maggio 2018, BT Group. A partire dal 5 agosto 2019.

    ^ JPEG: Che cos'è? L'oggetto di uso quotidiano che passa inosservato. Pubblicato su The Atlantic il 24 settembre 2013. Estratto il 13 settembre 2019.

    Chris Baraniuk (15 ottobre 2015). Secondo BBC News, le restrizioni di copia potrebbero arrivare ai JPEG. Estratto dalla BBC il 13 settembre 2019.

    The GIF Debate: A Programmer's Viewpoint", 27 gennaio 1995. Ottenibile a partire dal 26 maggio 2015.

    Autore: L. Peter Deutsch (maggio 1996). Astratto. DOI:10.17487/RFC1951. DEFLATE Compressed Data Format Specification versione 1.3. IETF. pagina 1. sezione Abstract. Ottieni questo: 2014-04-23.

    Vedi: Taubman, David; Marcellin, Michael (2012). Nozioni di base sulla compressione delle immagini con JPEG2000: procedure consigliate e linee guida tecniche. ISBN: 9781461507994, pubblicato da Springer Science & Business Media.

    ^ a b Unser, M; Blu, T.

    (2003).

    JPEG2000 caratteristiche matematiche del filtro wavelet (PDF).

    Transazioni IEEE sull'elaborazione delle immagini.

    12 (9): 1080–1090.

    Codice biblico:2003ITIP... 12.1080U.

    DOI:10.1109/TIP.2003.812329.

    PMID 18237979.

    S2CID 2765169.

    Archiviato dall 'originale (PDF) il 2019-10-13 .

    Da Gary Sullivan (8-12 dicembre 2003). Caratteristiche generali della codifica video in sottobanda temporale e problemi di progettazione. Gruppo di esperti di codifica di ITU-Video T. Estratto il 13 settembre 2019.

    Alan C. Bovik (2009). Elaborazione video: una guida essenziale, Academic Press, p. 355, ISBN 9780080922508.

    Come citato in Le Gall, Didier e Ali J. Tabatabai (1988). Codifica in sottobanda di immagini digitali con codifica aritmetica e filtri simmetrici a kernel corto. Per ulteriori informazioni, visitare: http://dx.doi.org/10.1109/ICASSP.1988.196696. S2CID=109186495 ICASSP-88., Conferenza internazionale sull'acustica, il parlato e l'elaborazione dei segnali: 761-764 volume 2.

    Per citare: Swartz, Charles S. (2005). La guida del professionista per comprendere il cinema digitale. 147 Taylor & Francis. Codice ISBN 9780240806174.

    {Fine Capitolo 1}

    Capitolo 2: Compressione dei dati

    Nella teoria dell'informazione, nella compressione dei dati, nella codifica della sorgente e in altri campi correlati: nel linguaggio comune, un dispositivo che si impegna nel processo di compressione dei dati è noto come codificatore, mentre un dispositivo che si impegna nell'inverso del processo, cioè la decompressione, è noto come decodificatore.

    La compressione dei dati è il processo di riduzione delle dimensioni di un file di dati ed è un termine che viene utilizzato piuttosto spesso. La codifica di origine è un processo di codifica che avviene nell'origine dati originale, prima che i dati vengano archiviati o trasferiti. Questo processo viene definito nell'ambito della trasmissione dei dati. È importante non confondere la codifica sorgente con altri tipi di codifica, come la codifica dei canali, che viene utilizzata per il rilevamento e la correzione degli errori, o la codifica a linee, che è un metodo per mappare i dati su un segnale.

    La compressione dei dati è vantaggiosa poiché riduce la quantità di spazio e larghezza di banda necessaria per archiviare e trasferire le informazioni. Le procedure di compressione e decompressione richiedono entrambe una quantità significativa di risorse computazionali. Il compromesso tra complessità spazio-temporale è qualcosa che deve essere considerato quando si comprimono i dati. Ad esempio, un metodo di compressione video potrebbe richiedere hardware costoso per consentire al video di essere decompresso abbastanza rapidamente da poter essere guardato durante la decompressione. Inoltre, l'opzione per decomprimere completamente il video prima di guardarlo potrebbe essere scomoda o richiedere spazio di archiviazione aggiuntivo. Quando si progettano schemi di compressione dei dati, i progettisti devono trovare un compromesso tra una serie di fattori diversi. Questi fattori includono il livello di compressione raggiunto, la quantità di distorsione introdotta (quando si utilizza la compressione dei dati con perdita di dati) e la quantità di risorse computazionali necessarie per comprimere e decomprimere i dati.

    Al fine di rappresentare i dati senza perdere alcuna informazione nel processo, i metodi di compressione dei dati senza perdita di dati spesso utilizzano la ridondanza statistica. In questo modo si garantisce che il processo possa essere invertito. Poiché la stragrande maggioranza dei dati nel mondo reale ha una ridondanza statistica, la compressione senza perdita di dati è fattibile. Ad esempio, un'immagine può includere macchie di colore che non cambiano nel corso di più pixel; In questo caso, i dati possono essere registrati come 279 pixel rossi piuttosto che come la notazione tradizionale di pixel rosso, pixel rosso,... Questo è un esempio fondamentale della codifica run-length; Esistono molti altri metodi per ridurre le dimensioni di un file rimuovendo le informazioni ridondanti.

    Le tecniche di compressione come Lempel-Ziv (LZ) sono oggi tra gli algoritmi più utilizzati

    Ti è piaciuta l'anteprima?
    Pagina 1 di 1