Apprendimento applicato ai veicoli terrestri: Migliorare le prestazioni dei veicoli terrestri attraverso l'apprendimento della visione artificiale
Di Fouad Sabry
()
Info su questo ebook
Cos'è l'apprendimento applicato ai veicoli terrestri
L'iniziativa Learning Applied to Ground Vehicles (LAGR), operativa dal 2004 al 2008, è stata progettata con l'intento di accelerare lo sviluppo della navigazione fuoristrada autonoma, basata sulla percezione nei veicoli terrestri robotici senza pilota (UGV). La DARPA, un'agenzia di ricerca del Dipartimento della Difesa degli Stati Uniti d'America, ha fornito finanziamenti al LAGR.
Come trarrai beneficio
(I) Approfondimenti e convalide sui seguenti argomenti:
Capitolo 1: Programma DARPA LAGR
Capitolo 2: DARPA
Capitolo 3: Robot autonomo
Capitolo 4: Robot militare
Capitolo 5: Grande sfida DARPA
Capitolo 6: Veicolo terrestre senza pilota
Capitolo 7: Sperimentazione europea di robot terrestri
Capitolo 8: Robot mobile
Capitolo 9: Frantumatore (robot)
Capitolo 10: Centro nazionale di ingegneria robotica
(II) Rispondere alle principali domande del pubblico sull'apprendimento applicato ai veicoli terrestri.
(III) Esempi reali di utilizzo dell'apprendimento applicato ai veicoli terrestri in molti campi.
A chi è rivolto questo libro
Professionisti, studenti universitari e laureati, appassionati, hobbisti e coloro che vogliono andare oltre le conoscenze o le informazioni di base per qualsiasi tipo di Apprendimento Applicato ai Veicoli Terrestri.
Leggi altro di Fouad Sabry
Tecnologie Emergenti Nella Scienza Dei Materiali [Italian]
Correlato a Apprendimento applicato ai veicoli terrestri
Titoli di questa serie (100)
Gruppo congiunto di esperti fotografici: Sfruttare la potenza dei dati visivi con lo standard JPEG Valutazione: 0 su 5 stelle0 valutazioniVisione artificiale subacquea: Esplorando le profondità della visione artificiale sotto le onde Valutazione: 0 su 5 stelle0 valutazioniModello di aspetto del colore: Comprendere la percezione e la rappresentazione nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniVisione computerizzata: Esplorare le profondità della visione artificiale Valutazione: 0 su 5 stelle0 valutazioniTrasformazione di Hough: Svelare la magia della trasformazione di Hough nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniTrasformata di Hadamard: Svelare il potere della trasformazione Hadamard nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniIstogramma dell'immagine: Svelare intuizioni visive, esplorare le profondità degli istogrammi delle immagini nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniCompressione delle immagini: Tecniche efficienti per l'ottimizzazione dei dati visivi Valutazione: 0 su 5 stelle0 valutazioniMappatura dei toni: Mappatura dei toni: prospettive illuminanti nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniDiffusione anisotropa: Miglioramento dell'analisi delle immagini attraverso la diffusione anisotropa Valutazione: 0 su 5 stelle0 valutazioniRiduzione del rumore: Miglioramento della chiarezza, tecniche avanzate per la riduzione del rumore nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniFiltro adattivo: Migliorare la visione artificiale attraverso il filtraggio adattivo Valutazione: 0 su 5 stelle0 valutazioniTrasformata del radon: Svelare modelli nascosti nei dati visivi Valutazione: 0 su 5 stelle0 valutazioniIstogramma dei gradienti orientati: Svelare il regno visivo: esplorare l'istogramma dei gradienti orientati nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniOmografia: Omografia: trasformazioni nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniVisione stereoscopica del computer: Esplorare la percezione della profondità nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniRilevamento dei bordi: Esplorare i confini nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniFunzione di corrispondenza dei colori: Comprendere la sensibilità spettrale nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniEqualizzazione dell'istogramma: Miglioramento del contrasto dell'immagine per una migliore percezione visiva Valutazione: 0 su 5 stelle0 valutazioniContorno attivo: Avanzamento della visione artificiale con tecniche di contorno attivo Valutazione: 0 su 5 stelle0 valutazioniRetinex: Svelare i segreti della visione computazionale con Retinex Valutazione: 0 su 5 stelle0 valutazioniSistema di gestione del colore: Ottimizzazione della percezione visiva negli ambienti digitali Valutazione: 0 su 5 stelle0 valutazioniRidipintura: Colmare le lacune nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniTrasformazione affine: Sbloccare le prospettive visive: esplorare la trasformazione affine nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniCorrezione gamma: Migliorare la chiarezza visiva nella visione artificiale: la tecnica di correzione gamma Valutazione: 0 su 5 stelle0 valutazioniModello del sistema visivo umano: Comprendere la percezione e l'elaborazione Valutazione: 0 su 5 stelle0 valutazioniModello a colori: Comprendere lo spettro della visione artificiale: esplorare i modelli di colore Valutazione: 0 su 5 stelle0 valutazioniMetodo di impostazione del livello: Avanzamento della visione artificiale, esplorazione del metodo dell'impostazione dei livelli Valutazione: 0 su 5 stelle0 valutazioniBanca filtri: Approfondimenti sulle tecniche del banco di filtri di Computer Vision Valutazione: 0 su 5 stelle0 valutazioniProfilo colore: Esplorare la percezione visiva e l'analisi nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioni
Ebook correlati
Riconoscimento automatico della targa: Sbloccare il potenziale della tecnologia di visione artificiale Valutazione: 0 su 5 stelle0 valutazioniIntegrazione dell'infrastruttura del veicolo: Sbloccare intuizioni e progressi attraverso la visione artificiale Valutazione: 0 su 5 stelle0 valutazioniRiconoscimento automatico del bersaglio: Progressi nelle tecniche di visione artificiale per il riconoscimento del bersaglio Valutazione: 0 su 5 stelle0 valutazioniFiltro antiparticolato: Esplorazione dei filtri antiparticolato nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniEsplorazione della raccolta di immagini: Svelare i paesaggi visivi nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniAndroid: Modding Programming & Toolkit Valutazione: 2 su 5 stelle2/5Ricerca inversa delle immagini: Svelare i segreti del riconoscimento visivo Valutazione: 0 su 5 stelle0 valutazioniVisualizza la sintesi: Esplorare le prospettive nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniGrafica computerizzata: Esplorando l'intersezione tra computer grafica e visione artificiale Valutazione: 0 su 5 stelle0 valutazioniRobot automatizzato per l'ispezione a raggi X: Migliorare il controllo di qualità attraverso la visione artificiale Valutazione: 0 su 5 stelle0 valutazioniAgile & Scrum Valutazione: 0 su 5 stelle0 valutazioniVisione artificiale: Approfondimenti sul mondo della visione artificiale Valutazione: 0 su 5 stelle0 valutazioniRobot mobile: Sbloccare il potenziale visionario dei robot mobili Valutazione: 0 su 5 stelle0 valutazioniProgrammare In Android Per Principianti Valutazione: 0 su 5 stelle0 valutazioniCreare una web survey. Guida pratica all'uso di LimeSurvey Valutazione: 0 su 5 stelle0 valutazioniFisica: cinematica 1 con Scratch: Esperimenti con Scratch sul moto con uso del calcolo numerico Valutazione: 0 su 5 stelle0 valutazioniLe basi di Scrum Valutazione: 0 su 5 stelle0 valutazioniGestire progetti e commesse di produzione con Ms Project Valutazione: 0 su 5 stelle0 valutazioniRete di sensori visivi: Esplorare la potenza delle reti di sensori visivi nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniTelecamera per le forze dell'ordine: Progressi nella visione artificiale per le telecamere delle forze dell'ordine Valutazione: 0 su 5 stelle0 valutazioniAngular: Guida Completa allo Sviluppo e Programmazione di Siti Internet Dinamici e Web App con AngularJS. Contiene Esempi di Codice ed Esercizi Pratici Valutazione: 0 su 5 stelle0 valutazioniLa semplicità dell’Hacking a portata di click Valutazione: 0 su 5 stelle0 valutazioniChatGPT, la rivoluzione della comunicazione Valutazione: 5 su 5 stelle5/5Fisica: cinematica 2 con Scratch: Esperimenti con Scratch su moti vari e moti composti con il calcolo numerico Valutazione: 0 su 5 stelle0 valutazioniGuida a JavaScript: Dal Principiante all Esperto: La collezione informatica Valutazione: 0 su 5 stelle0 valutazioniModello di aspetto attivo: Sbloccare la potenza dei modelli di aspetto attivo nella visione artificiale Valutazione: 0 su 5 stelle0 valutazioniSviluppare applicazioni ibride per dispositivi mobili Valutazione: 5 su 5 stelle5/5Riconoscimento dei segnali stradali: Sbloccare il potere della visione artificiale Valutazione: 0 su 5 stelle0 valutazioniFotocamera intelligente: Rivoluzionare la percezione visiva con la visione artificiale Valutazione: 0 su 5 stelle0 valutazioni
Intelligenza artificiale e semantica per voi
ANonniMus: Vecchi rivoluzionari contro giovani robot Valutazione: 0 su 5 stelle0 valutazioniSelf-Publishing del Futuro per Scrittori 2.0: Self-Publishing Facile Valutazione: 0 su 5 stelle0 valutazioniGuida Intelligenza Artificiale Valutazione: 0 su 5 stelle0 valutazioniIl Terzo Like Valutazione: 0 su 5 stelle0 valutazioni
Recensioni su Apprendimento applicato ai veicoli terrestri
0 valutazioni0 recensioni
Anteprima del libro
Apprendimento applicato ai veicoli terrestri - Fouad Sabry
Capitolo 1: Programma DARPA LAGR
Il programma Learning Applied to Ground Vehicles (LAGR), durato dal 2004 al 2008, mirava ad accelerare la navigazione fuoristrada autonoma, basata sulla percezione, nei veicoli terrestri robotici senza pilota (UGV). La DARPA, il braccio di ricerca del Dipartimento della Difesa degli Stati Uniti, ha sostenuto il LAGR.
Mentre i robot mobili (ad esempio Shakey) esistono dagli anni '60, i progressi nello sviluppo di robot in grado di viaggiare all'aperto, fuoristrada e su terreni con numerosi ostacoli sono stati graduali. In realtà, non esistevano criteri definiti per monitorare i progressi. Gruppi di ricerca separati hanno messo in campo auto robotiche in test governativi non provati che hanno monitorato la velocità media e il numero di interventi richiesti dall'operatore lungo un percorso prestabilito con waypoint ampiamente distanziati. Questi test hanno rivelato le enormi difficoltà associate alla navigazione fuoristrada. Mentre i veicoli PerceptOR erano dotati di sensori e algoritmi all'avanguardia all'inizio del 21° secolo, la portata limitata della loro tecnologia di percezione li ha fatti rimanere bloccati in vicoli ciechi naturali. Inoltre, la loro dipendenza da comportamenti predeterminati ha impedito loro di adattarsi a eventi imprevisti. Fatta eccezione per il terreno essenzialmente aperto con pochi ostacoli o lungo strade sterrate, le vetture PerceptOR non erano in grado di navigare senza l'assistenza ripetitiva e frequente dell'operatore.
L'iniziativa LAGR aveva lo scopo di espandere la tecnica PerceptOR, affrontando al contempo i problemi tecnologici mostrati dai test PerceptOR.
L'obiettivo primario di LAGR era quello di accelerare la navigazione off-road degli UGV. Ulteriori obiettivi sinergici includevano (1) la definizione di una metodologia di benchmarking per misurare i progressi dei robot autonomi che operano in ambienti non strutturati, (2) l'avanzamento della visione artificiale e quindi la percezione a lungo raggio, e (3) l'aumento del numero di istituzioni e individui in grado di contribuire alla ricerca UGV all'avanguardia.
Invece di concentrarsi su un nuovo hardware, il programma LAGR aveva lo scopo di enfatizzare lo sviluppo di nuove scienze per la percezione e il controllo dei robot. Così, si è deciso di fornire ai ricercatori del LAGR, che erano membri di team concorrenti, una flotta di robot identici e relativamente semplici, consentendo loro di concentrarsi sullo sviluppo di algoritmi. A ogni squadra sono stati forniti due robot di progettazione standard. Hanno creato un nuovo software per questi robot e poi hanno inviato il codice a un team di test governativo, che ha testato il software su robot governativi in diversi corsi di prova. Questi corsi erano sparsi per gli Stati Uniti ed erano precedentemente sconosciuti alle squadre. In questo modo, il codice di tutti i team poteva essere testato in condizioni praticamente identiche. Dopo un primo periodo di lancio, il ciclo di sviluppo/test del codice è stato ripetuto circa una volta al mese.
Il sito ufficiale del National Robotics Engineering Center (CMU NREC) della Carnegie Mellon University ha creato e costruito il robot standard.
I computer dei veicoli sono stati precaricati con un sistema modulare di percezione e navigazione Baseline
che era essenzialmente lo stesso sistema che CMU NREC aveva creato per il programma PerceptOR ed è stato considerato rappresentare lo stato dell'arte all'inizio del LAGR.
La modularità del sistema Baseline ha permesso ai ricercatori di sostituire parti del codice Baseline con i propri moduli e di avere comunque un sistema di navigazione completamente funzionante senza dover sviluppare un sistema di navigazione completamente nuovo.
Così, ad esempio, sono stati in grado di confrontare le prestazioni del proprio modulo di rilevamento degli ostacoli con quelle del codice di base, mantenendo costanti tutte le altre variabili.
Il codice Baseline fungeva anche da riferimento costante: in ogni ambiente software e in qualsiasi momento, il codice dei team poteva essere confrontato con il codice Baseline.
Questo ciclo rapido ha fornito al team governativo e ai team di performance un input immediato e ha permesso al team governativo di costruire corsi d'esame che hanno spinto gli esecutori in specifici compiti di percezione e la cui difficoltà si prevedeva sfidasse gli esecutori, ma non dominasse, le attuali capacità degli esecutori.
Ogni test non richiedeva ai team di inviare nuovo codice, ma in genere lo faceva.
Nonostante questa latitudine, alcuni team hanno ritenuto che il ciclo di test rapido fosse dannoso per il loro sviluppo a lungo termine e avrebbero preferito una pausa più lunga tra un test e l'altro.
Per procedere alla Fase II, a ogni team è stato richiesto di modificare il codice di base per superare gli ultimi tre test governativi di Fase I, In media, i robot che eseguivano il codice del team erano almeno il 10% più veloci di quelli che eseguivano il codice di base originale.
Questa metrica Go/No Go
piuttosto modesta è stata scelta per consentire ai team di scegliere tecniche rischiose, ma potenziali, che potrebbero non essere completamente sviluppate nei primi 18 mesi del programma.
Ognuna delle otto squadre ha soddisfatto questa statistica, l'obiettivo della Fase II era per alcuni di raggiungere il doppio della velocità della linea di base nei test successivi, e questo è stato raggiunto da pochi.
Si noti che i criteri della Fase I Go/No Go sono stati progettati in modo tale che le squadre non competono per un numero fisso di slot della Fase II: qualsiasi numero di squadre era ammissibile, da otto a zero poteva superare l'esame.
Questo metodo DARPA aveva lo scopo di promuovere la cooperazione e persino lo scambio di codice tra i team.
Nella Fase I, i primi 18 mesi del LAGR, otto squadre sono state identificate come esecutori. I team rappresentavano Applied Perception (PI Mark Ollis), Georgia Tech (PI Tucker Balch), Jet Propulsion Laboratory (PI Larry Matthies), Net-Scale Technologies (PI Uri Muller), NIST (PI James Albus), Stanford University (PI Sebastian Thrun), SRI International (PI Robert Bolles) e l'Università della Pennsylvania (PI Daniel Lee).
Il team di Stanford è partito alla conclusione della Fase I per lavorare alla DARPA Grand Challenge; è stato sostituito dalla squadra dell'Università del Colorado, Boulder (PI Greg Grudic). Sempre durante la Fase II, il team del NIST si è ritirato dalla competizione e si è concentrato sulla combinazione dei migliori componenti software di ciascun team in un'unica soluzione. Roger Bostelman divenne il leader dello sforzo.
Il veicolo LAGR, che aveva all'incirca le dimensioni di un carrello della spesa di un negozio di alimentari, doveva essere facile da usare. Learning Locomotion, un'iniziativa gemella DARPA, ha affrontato il controllo motorio sofisticato. Era alimentato da una batteria e aveva due motori per sedie a rotelle azionati in modo indipendente nella parte anteriore, oltre a due ruote piroettanti nella parte posteriore. Quando le ruote anteriori venivano fatte girare nella stessa direzione, il robot poteva essere spinto in avanti o indietro. Il robot girava quando queste ruote venivano spinte in direzioni diverse.
Il prezzo di 30.000 dollari del veicolo LAGR ha permesso la costruzione di una flotta che poteva essere distribuita a un certo numero di team che hanno ampliato il pool di ricercatori che avevano precedentemente partecipato ai programmi di robotica DARPA. La velocità massima del veicolo di circa 3 miglia all'ora e il peso relativamente modesto di 100 kg significavano che offriva un rischio di sicurezza significativamente inferiore rispetto ai veicoli impiegati nelle passate iniziative di veicoli terrestri autonomi, riducendo così sostanzialmente i finanziamenti necessari a ciascun team per gestire