Compressione dati: Sbloccare l'efficienza nella visione artificiale con la compressione dei dati
Di Fouad Sabry
()
Info su questo ebook
Che cos'è la compressione dei dati
Nella teoria dell'informazione, la compressione dei dati, la codifica della sorgente o la riduzione della velocità in bit è il processo di codifica delle informazioni utilizzando meno bit rispetto alla rappresentazione originale. Qualsiasi compressione particolare è con perdita o senza perdita. La compressione senza perdite riduce i bit identificando ed eliminando la ridondanza statistica. Nessuna informazione viene persa nella compressione senza perdita di dati. La compressione con perdita riduce i bit rimuovendo informazioni non necessarie o meno importanti. In genere, un dispositivo che esegue la compressione dei dati viene definito codificatore e uno che esegue l'inversione del processo (decompressione) come decodificatore.
Come trarrai vantaggio
(I) Approfondimenti e convalide sui seguenti argomenti:
Capitolo 1: Compressione dei dati
Capitolo 2: Formato file audio
Capitolo 3: Codec
Capitolo 4: JPEG
Capitolo 5: Compressione con perdita
Capitolo 6: Compressione senza perdita
Capitolo 7: Immagine compressione
Capitolo 8: Codifica tramite trasformazione
Capitolo 9: Codec video
Capitolo 10: Trasformata coseno discreta
(II) Rispondere alla domande principali del pubblico sulla compressione dei dati.
(III) Esempi reali dell'utilizzo della compressione dei dati in molti campi.
A chi è rivolto questo libro
Professionisti, studenti universitari e laureati, appassionati, hobbisti e coloro che desiderano andare oltre le conoscenze o le informazioni di base per qualsiasi tipo di compressione dei dati.
Leggi altro di Fouad Sabry
Tecnologie Emergenti Nei Trasporti [Italian]
Correlato a Compressione dati
Titoli di questa serie (100)
Mappatura dei toni: Mappatura dei toni: prospettive illuminanti nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniVisione stereoscopica del computer: Esplorare la percezione della profondità nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniModello del sistema visivo umano: Comprendere la percezione e l'elaborazione Valutazione: 0 su 5 stelle0 valutazioniVisione artificiale subacquea: Esplorando le profondità della visione artificiale sotto le onde Valutazione: 0 su 5 stelle0 valutazioniTrasformazione di Hough: Svelare la magia della trasformazione di Hough nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniDiffusione anisotropa: Miglioramento dell'analisi delle immagini attraverso la diffusione anisotropa Valutazione: 0 su 5 stelle0 valutazioniEqualizzazione dell'istogramma: Miglioramento del contrasto dell'immagine per una migliore percezione visiva Valutazione: 0 su 5 stelle0 valutazioniSpazio colore: Esplorare lo spettro della visione artificiale Valutazione: 0 su 5 stelle0 valutazioniTrasformata del radon: Svelare modelli nascosti nei dati visivi Valutazione: 0 su 5 stelle0 valutazioniRiduzione del rumore: Miglioramento della chiarezza, tecniche avanzate per la riduzione del rumore nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniCorrezione gamma: Migliorare la chiarezza visiva nella visione artificiale: la tecnica di correzione gamma Valutazione: 0 su 5 stelle0 valutazioniRilevamento dei contorni: Svelare l'arte della percezione visiva nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniRilevamento delle macchie: Scoprire modelli nei dati visivi Valutazione: 0 su 5 stelle0 valutazioniFiltro adattivo: Migliorare la visione artificiale attraverso il filtraggio adattivo Valutazione: 0 su 5 stelle0 valutazioniRetinex: Svelare i segreti della visione computazionale con Retinex Valutazione: 0 su 5 stelle0 valutazioniVisione computerizzata: Esplorare le profondità della visione artificiale Valutazione: 0 su 5 stelle0 valutazioniRidipintura: Colmare le lacune nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniIstogramma dei gradienti orientati: Svelare il regno visivo: esplorare l'istogramma dei gradienti orientati nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniGruppo congiunto di esperti fotografici: Sfruttare la potenza dei dati visivi con lo standard JPEG Valutazione: 0 su 5 stelle0 valutazioniIstogramma dell'immagine: Svelare intuizioni visive, esplorare le profondità degli istogrammi delle immagini nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniBanca filtri: Approfondimenti sulle tecniche del banco di filtri di Computer Vision Valutazione: 0 su 5 stelle0 valutazioniOmografia: Omografia: trasformazioni nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniTensore trifocale: Esplorare la profondità, il movimento e la struttura nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniProfilo colore: Esplorare la percezione visiva e l'analisi nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniModello di aspetto del colore: Comprendere la percezione e la rappresentazione nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniConsenso del campione casuale: Stima robusta nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniFunzione di corrispondenza dei colori: Comprendere la sensibilità spettrale nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniTrasformazione affine: Sbloccare le prospettive visive: esplorare la trasformazione affine nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniRegolazione del pacchetto: Ottimizzazione dei dati visivi per una ricostruzione precisa Valutazione: 0 su 5 stelle0 valutazioniRilevamento dei bordi: Esplorare i confini nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioni
Ebook correlati
Riconoscimento vocale audiovisivo: Progressi, applicazioni e approfondimenti Valutazione: 0 su 5 stelle0 valutazioniModello del sistema visivo umano: Comprendere la percezione e l'elaborazione Valutazione: 0 su 5 stelle0 valutazioniCompressione delle immagini: Tecniche efficienti per l'ottimizzazione dei dati visivi Valutazione: 0 su 5 stelle0 valutazioniAnnotazione automatica delle immagini: Migliorare la comprensione visiva attraverso il tagging automatico Valutazione: 0 su 5 stelle0 valutazioniGrafica computerizzata: Esplorando l'intersezione tra computer grafica e visione artificiale Valutazione: 0 su 5 stelle0 valutazioniGrafica raster digitale: Svelare la potenza della grafica raster digitale nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniBande di colore: Esplorare le profondità della visione artificiale: svelare il mistero delle bande di colore Valutazione: 0 su 5 stelle0 valutazioniGeometria computazionale: Esplorazione di intuizioni geometriche per la visione artificiale Valutazione: 0 su 5 stelle0 valutazioniGrafica raster: Comprendere i fondamenti della grafica raster nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniProfilo colore: Esplorare la percezione visiva e l'analisi nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniRecupero delle immagini: Sbloccare la potenza dei dati visivi Valutazione: 0 su 5 stelle0 valutazioniEditor di grafica vettoriale: Potenziare la creazione visiva con algoritmi avanzati Valutazione: 0 su 5 stelle0 valutazioniApp Inventor 2 con database MySQL Valutazione: 0 su 5 stelle0 valutazioniEditor di grafica raster: Trasformare le realtà visive: padroneggiare gli editor grafici raster nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniRendering volumetrico: Esplorare il realismo visivo nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniCalcolo fisico: Esplorare la visione artificiale nell'informatica fisica Valutazione: 0 su 5 stelle0 valutazioniTagli del grafico di visione artificiale: Esplorazione dei tagli grafici nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniUsare GD library con PHP, funzioni, figure, grafici e gradienti Valutazione: 0 su 5 stelle0 valutazioniDither: Rumore visivo nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniMappatura dei colori: Esplorare la percezione visiva e l'analisi nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniSistema di gestione del colore: Ottimizzazione della percezione visiva negli ambienti digitali Valutazione: 0 su 5 stelle0 valutazioniCoding in R per l'analisi dati - da principiante a esperto Valutazione: 0 su 5 stelle0 valutazioniMySQL: Guida Completa ai Database SQL per Principianti. Contiene Esempi di Codice ed Esercizi Pratici. Valutazione: 0 su 5 stelle0 valutazioniEsplorazione della raccolta di immagini: Svelare i paesaggi visivi nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniStima del movimento: Progressi e applicazioni nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniPacchetto software: Rivoluzionare la visione artificiale con la suite software definitiva Valutazione: 0 su 5 stelle0 valutazioniParola visiva: Sbloccare il potere della comprensione delle immagini Valutazione: 0 su 5 stelle0 valutazioniVisualizza la sintesi: Esplorare le prospettive nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniIntroduzione pratica alla programmazione in C++ - Parte Prima Valutazione: 0 su 5 stelle0 valutazioniSegmentazione delle immagini: Sbloccare insight grazie alla precisione dei pixel Valutazione: 0 su 5 stelle0 valutazioni
Intelligenza artificiale e semantica per voi
ANonniMus: Vecchi rivoluzionari contro giovani robot Valutazione: 0 su 5 stelle0 valutazioniGuida Intelligenza Artificiale Valutazione: 0 su 5 stelle0 valutazioniIl Terzo Like Valutazione: 0 su 5 stelle0 valutazioniSelf-Publishing del Futuro per Scrittori 2.0: Self-Publishing Facile Valutazione: 0 su 5 stelle0 valutazioni
Recensioni su Compressione dati
0 valutazioni0 recensioni
Anteprima del libro
Compressione dati - Fouad Sabry
Capitolo 1: Compressione dei dati
Nella teoria dell'informazione, nella compressione dei dati, nella codifica della sorgente e in altri campi correlati: nel linguaggio comune, un dispositivo che si impegna nel processo di compressione dei dati è noto come codificatore, mentre un dispositivo che si impegna nell'inverso del processo, cioè la decompressione, è noto come decodificatore.
La compressione dei dati è il processo di riduzione delle dimensioni di un file di dati ed è un termine che viene utilizzato piuttosto spesso. La codifica di origine è un processo di codifica che avviene nell'origine dati originale, prima che i dati vengano archiviati o trasferiti. Questo processo viene definito nell'ambito della trasmissione dei dati. È importante non confondere la codifica sorgente con altri tipi di codifica, come la codifica dei canali, che viene utilizzata per il rilevamento e la correzione degli errori, o la codifica a linee, che è un metodo per mappare i dati su un segnale.
La compressione dei dati è vantaggiosa poiché riduce la quantità di spazio e larghezza di banda necessaria per archiviare e trasferire le informazioni. Le procedure di compressione e decompressione richiedono entrambe una quantità significativa di risorse computazionali. Il compromesso tra complessità spazio-temporale è qualcosa che deve essere considerato quando si comprimono i dati. Ad esempio, un metodo di compressione video potrebbe richiedere hardware costoso per consentire al video di essere decompresso abbastanza rapidamente da poter essere guardato durante la decompressione. Inoltre, l'opzione per decomprimere completamente il video prima di guardarlo potrebbe essere scomoda o richiedere spazio di archiviazione aggiuntivo. Quando si progettano schemi di compressione dei dati, i progettisti devono trovare un compromesso tra una serie di fattori diversi. Questi fattori includono il livello di compressione raggiunto, la quantità di distorsione introdotta (quando si utilizza la compressione dei dati con perdita di dati) e la quantità di risorse computazionali necessarie per comprimere e decomprimere i dati.
Al fine di rappresentare i dati senza perdere alcuna informazione nel processo, i metodi di compressione dei dati senza perdita di dati spesso utilizzano la ridondanza statistica. In questo modo si garantisce che il processo possa essere invertito. Poiché la stragrande maggioranza dei dati nel mondo reale ha una ridondanza statistica, la compressione senza perdita di dati è fattibile. Ad esempio, un'immagine può includere macchie di colore che non cambiano nel corso di più pixel; In questo caso, i dati possono essere registrati come 279 pixel rossi
piuttosto che come la notazione tradizionale di pixel rosso, pixel rosso,...
Questo è un esempio fondamentale della codifica run-length; Esistono molti altri metodi per ridurre le dimensioni di un file rimuovendo le informazioni ridondanti.
Le tecniche di compressione come Lempel-Ziv (LZ) sono oggi tra gli algoritmi più utilizzati per l'archiviazione dei dati senza perdita di dati. Le voci di tabella vengono sostituite per le stringhe ripetute di dati nella tecnica di compressione LZ, che è un modello di compressione basato su tabelle. Questa tabella viene creata dinamicamente per la maggior parte degli algoritmi LZ utilizzando i dati delle fasi precedenti dell'input. Nella maggior parte dei casi, la tabella stessa è codificata da Huffman. I codici basati sulla grammatica come questo sono in grado di comprimere con successo input sostanzialmente ripetitivi, come una raccolta di dati biologici della stessa specie o quasi imparentata, una massiccia raccolta di documenti versionati, archivi Internet e così via. Costruire una grammatica libera dal contesto che derivi una singola stringa è l'impresa fondamentale dei sistemi di codifica basati sulla grammatica. Sequitur e Re-Pair sono altre due tecniche per comprimere la grammatica che hanno applicazioni pratiche.
I modelli probabilistici, come la predizione per corrispondenza parziale, sono utilizzati nei più potenti compressori lossless sviluppati negli ultimi tempi. La modellazione statistica indiretta è un altro modo di pensare alla trasformata di Burrows-Wheeler, che si può anche prendere in considerazione.
Più o meno nello stesso periodo in cui le foto digitali si stavano diffondendo alla fine degli anni '80, sono stati sviluppati i primi standard per la compressione delle immagini senza perdita di dati. All'inizio degli anni '90, le tecniche di compressione lossy hanno iniziato a diventare più comuni. Queste distinzioni percettive sono utilizzate da una varietà di formati di compressione ben noti, come la psicoacustica e la psicovisiva, rispettivamente, per la compressione di suoni e immagini e video.
La codifica delle trasformate è alla base della maggior parte dei metodi di compressione con perdita di dati, in particolare la trasformata del coseno discreto (DCT). È stato ideato per la prima volta da Nasir Ahmed nel 1972 e ha continuato a costruire un algoritmo funzionante con l'assistenza di T. Natarajan e K. R. Rao nel 1973. Nasir Ahmed presentò l'idea per la prima volta nel gennaio 1974. audio e video (in formati come MPEG, AVC e HEVC) (come MP3, AAC e Vorbis).
Al fine di migliorare le capacità di archiviazione, le fotocamere digitali utilizzano un tipo di compressione dell'immagine nota come lossy. DVD, Blu-ray e video in streaming sono tutti esempi di formati video che utilizzano la codifica video con perdita di dati. La compressione lossy è ampiamente utilizzata nell'industria video.
Nel processo di compressione audio lossy, vengono utilizzate tecniche nel campo della psicoacustica per rimuovere il segnale audio dai componenti che sono inudibili o udibili in misura minore. La codifica vocale è considerata un campo diverso dalla compressione audio generica poiché la compressione del linguaggio umano spesso richiede l'uso di metodi ancora più specializzati. Ad esempio, la codifica vocale viene utilizzata nella telefonia via Internet. La compressione audio viene utilizzata per il ripping di CD e i lettori audio sono responsabili della decodifica dei file compressi.
La compressione con perdita di dati può causare la perdita di generazione.
La teoria dell'informazione e, più specificamente, il teorema della codifica sorgente di Shannon fungono da fondamento teorico per la compressione; Le teorie specifiche del dominio includono la teoria dell'informazione algoritmica per la compressione senza perdita di dati e la teoria della distorsione di velocità per la compressione con perdita di dati. Claude Shannon è per lo più accreditato con l'inizio di questi sottocampi di ricerca quando ha pubblicato una serie di articoli seminali sull'argomento durante la seconda metà degli anni '40 e l'inizio degli anni '50. La teoria della codifica e l'inferenza statistica sono due argomenti correlati ma distinti che riguardano anche la compressione.
I concetti di apprendimento automatico e compressione sono strettamente correlati tra loro. Al fine di ottenere il più alto livello possibile di compressione dei dati, è ideale un sistema in grado di prevedere la probabilità a posteriori di una sequenza alla luce della sua storia completa (utilizzando la codifica aritmetica sulla distribuzione di output). D'altra parte, un compressore perfetto può essere utilizzato a scopo predittivo (trovando il simbolo che comprime meglio, data la storia precedente). Questa comparabilità è stata usata come argomento per l'utilizzo della compressione dei dati come standard per l'intelligenza universale
.
Secondo la teoria AIXI, che è una relazione che è più chiaramente enunciata in Hutter Prize, il più piccolo software possibile che crea x è la più grande compressione possibile di x che sia concepibile. Ad esempio, secondo tale modello, la dimensione compressa di un file zip tiene conto sia del file zip che del software necessario per decomprimerlo, dato che non è possibile decomprimerlo senza entrambi, anche se può esistere una forma combinata ancora più compatta.
Software come VP9, NVIDIA Maxine, AIVC e AccMPEG sono tutti esempi di programmi di compressione audio e video guidati dall'intelligenza artificiale.
Il processo di compressione dei dati può essere considerato come un sottoinsieme del processo di differenziazione dei dati. L'applicazione di patch ai dati è il processo di ricreazione della destinazione in base a un'origine e a una differenza, mentre la differenza dei dati è il processo di creazione di una differenza tra un'origine e una destinazione in base alla differenza. Poiché non esiste un'origine e una destinazione distinte nella compressione dei dati, si può pensare che i dati differiscano dai dati di origine vuoti. Ciò significa che il file compresso equivale a una differenza rispetto al nulla. Questo equivale a considerare l'entropia relativa, che corrisponde alla differenziazione dei dati, come un caso particolare di entropia assoluta, che corrisponde alla compressione dei dati, ma senza dati iniziali.
La relazione di differenziazione dei dati è enfatizzata dall'uso della frase compressione differenziale.
L'algoritmo di codifica Shannon-Fano è stato il precursore della codifica entropica, sviluppata negli anni '1940, La compressione dei dati audio, da non confondere con la compressione della gamma dinamica, ha la capacità di ridurre la larghezza di banda richiesta per la trasmissione dei dati audio e le esigenze di archiviazione dei dati audio. I metodi di compressione audio sono spesso indicati come codec audio quando vengono implementati nel software. È possibile ridurre la quantità di informazioni ridondanti sia nella compressione lossy che in quella lossless impiegando tecniche come la codifica, la quantizzazione, la DCT e la previsione lineare. Queste tecniche hanno lo scopo di ridurre la quantità di informazioni necessarie per rappresentare in modo accurato i dati originali non compressi.
Molti programmi audio diversi, come MP3 e Vorbis, utilizzano metodi di compressione audio lossy poiché forniscono una maggiore compressione e una migliore qualità. Questi algoritmi dipendono quasi interamente dalla psicoacustica per eliminare o ridurre la fedeltà dei suoni meno udibili, il