Scopri milioni di eBook, audiolibri e tanto altro ancora con una prova gratuita

Solo $11.99/mese al termine del periodo di prova. Cancella quando vuoi.

Intelligenza artificiale: la quarta rivoluzione industriale
Intelligenza artificiale: la quarta rivoluzione industriale
Intelligenza artificiale: la quarta rivoluzione industriale
E-book482 pagine6 ore

Intelligenza artificiale: la quarta rivoluzione industriale

Valutazione: 0 su 5 stelle

()

Leggi anteprima

Info su questo ebook

La quarta rivoluzione industriale rappresenta un cambiamento fondamentale nel modo in cui viviamo, lavoriamo e ci relazioniamo l'un l'altro. È un nuovo capitolo dello sviluppo umano, reso possibile da straordinari progressi tecnologici commisurati a quelli della prima, seconda e terza rivoluzione industriale. Questi progressi stanno fondendo i mondi fisico, digitale e biologico in modi che creano sia enormi promesse che potenziali pericoli. La velocità, l'ampiezza e la profondità di questa rivoluzione ci stannocostringendo a ripensare il modo in cui i paesi si sviluppano, come le organizzazioni creano valore e persino cosa significa essere umani. L'intelligenza artificiale oggi è propriamente nota come AI stretta (o AI debole), in quanto è progettata per svolgere un compito ristretto (adesempio solo il riconoscimento facciale o solo ricerche su Internet o solo alla guida di un'auto). Tuttavia, l'obiettivo a lungo termine di molti ricercatori è quello di creare un'IA generale (AGI o AI forte). Mentre l'IA ristretta può superare gli umani in qualunque sia il loro compito specifico, come giocare a scacchi o risolvere equazioni, l'AGI supererebbe gli umani in quasi tutti i compiti cognitivi.
Authors: Vasil Teigens, Peter Skalfist, Daniel Mikelsten

LinguaItaliano
Data di uscita15 set 2020
ISBN9781005967659
Intelligenza artificiale: la quarta rivoluzione industriale
Autore

Vasil Teigens

Vasil Teigens, is the pen name of a history and science author that aims to organize and collect technical, historical and scientific information.The student or the scientist, will be able to satisfy his needs of consultation and of study, by means of a work supported by abundant number of sources and bibliographical references.

Autori correlati

Correlato a Intelligenza artificiale

Ebook correlati

Intelligenza artificiale e semantica per voi

Visualizza altri

Articoli correlati

Categorie correlate

Recensioni su Intelligenza artificiale

Valutazione: 0 su 5 stelle
0 valutazioni

0 valutazioni0 recensioni

Cosa ne pensi?

Tocca per valutare

La recensione deve contenere almeno 10 parole

    Anteprima del libro

    Intelligenza artificiale - Vasil Teigens

    Introduzione

    La quarta rivoluzione industriale rappresenta un cambiamento fondamentale nel modo in cui viviamo, lavoriamo e ci relazioniamo l'un l'altro. È un nuovo capitolo dello sviluppo umano, reso possibile da straordinari progressi tecnologici commisurati a quelli della prima, seconda e terza rivoluzione industriale. Questi progressi stanno fondendo i mondi fisico, digitale e biologico in modi che creano sia enormi promesse che potenziali pericoli. La velocità, l'ampiezza e la profondità di questa rivoluzione ci stanno costringendo a ripensare il modo in cui i paesi si sviluppano, come le organizzazioni creano valore e persino cosa significa essere umani.

    Dal SIRI alle auto a guida autonoma, l'intelligenza artificiale (AI) sta procedendo rapidamente. Mentre la fantascienza spesso descrive l'IA come robot con caratteristiche simili all'uomo, l'IA può comprendere qualsiasi cosa, dagli algoritmi di ricerca di Google al Watson di IBM fino alle armi autonome.

    L'intelligenza artificiale oggi è propriamente nota come AI stretta (o AI debole), in quanto è progettata per svolgere un compito ristretto (ad esempio solo il riconoscimento facciale o solo ricerche su Internet o solo alla guida di un'auto). Tuttavia, l'obiettivo a lungo termine di molti ricercatori è quello di creare un'IA generale (AGI o AI forte). Mentre l'IA ristretta può superare gli umani in qualunque sia il loro compito specifico, come giocare a scacchi o risolvere equazioni, l'AGI supererebbe gli umani in quasi tutti i compiti cognitivi.

    La quarta rivoluzione industriale non riguarda solo il cambiamento guidato dalla tecnologia; è un'opportunità per aiutare tutti, compresi leader, politici e persone di tutte le fasce di reddito e nazioni, a sfruttare le tecnologie convergenti al fine di creare un futuro inclusivo e incentrato sull'uomo. La vera opportunità è guardare oltre la tecnologia e trovare modi per dare al maggior numero di persone la possibilità di avere un impatto positivo sulle loro famiglie, organizzazioni e comunità.

    Intelligenza generale artificiale

    L'intelligenza generale artificiale (AGI) è l'intelligenza di una macchina che può comprendere o apprendere qualsiasi compito intellettuale che un essere umano possa fare. È un obiettivo primario di alcune ricerche sull'intelligenza artificiale e un argomento comune nella fantascienza e negli studi sul futuro. L'AGI può anche essere definita AI forte, AI completa o azione intelligente generale. (Alcune fonti accademiche riservano il termine IA forte per macchine che possono sperimentare la coscienza). Alcune autorità sottolineano una distinzione tra IA forte e IA applicata (detta anche AI ​​stretta o AI debole): l'uso di software per studiare o realizzare compiti specifici di problem solving o ragionamento. L'intelligenza artificiale debole, contrariamente all'intelligenza artificiale forte, non tenta di eseguire l'intera gamma di abilità cognitive umane.

    Sono stati proposti vari criteri per l'intelligence (soprattutto il test di Turing) ma ad oggi non esiste una definizione che soddisfi tutti. Tuttavia, esiste un ampio consenso tra i ricercatori di intelligenza artificiale sul fatto che l'intelligenza è tenuta a fare quanto segue:

    Ragionare, usare la strategia, risolvere enigmi ed esprimere giudizi in condizioni di incertezza;

    Rappresentare la conoscenza, compresa la conoscenza di buon senso;

    Piano;

    Imparare;

    Comunicare in linguaggio naturale;

    E integrare tutte queste abilità verso obiettivi comuni.

    Altre importanti capacità includono la capacità di percepire (ad esempio vedere) e la capacità di agire (ad esempio spostare e manipolare oggetti) nel mondo in cui si devono osservare comportamenti intelligenti. Ciò include la capacità di rilevare e rispondere ai pericoli. Molti approcci interdisciplinari all'intelligenza (ad es. Scienza cognitiva, intelligenza computazionale e processo decisionale) tendono a sottolineare la necessità di considerare tratti aggiuntivi come l'immaginazione (considerata come la capacità di formare immagini e concetti mentali non programmati in) e l'autonomia. esistono sistemi che presentano molte di queste capacità (es. vedere creatività computazionale, ragionamento automatizzato, sistema di supporto alle decisioni, robot, calcolo evolutivo, agente intelligente), ma non ancora a livello umano.

    Test per la conferma dell'AGI a livello umano

    The Turing Test (Turing) Una macchina e un essere umano conversano entrambi di vista senza essere visti con un secondo essere umano, che deve valutare quale dei due è la macchina, che supera il test se riesce a ingannare il valutatore una frazione significativa del tempo. Nota: Turing non prescrive ciò che dovrebbe essere qualificato come intelligenza, ma solo sapere che si tratta di una macchina dovrebbe squalificarlo. The Coffee Test (Wozniak) È necessaria una macchina per entrare in una casa americana media e capire come fare il caffè: trova la macchina da caffè, trova il caffè, aggiungi acqua, trova una tazza e prepara il caffè premendo i pulsanti appropriati. The Robot College Student Test (Goertzel) Una macchina si iscrive in un'università, prendendo e superando le stesse classi che gli umani farebbero e ottenendo una laurea. The Employment Test (Nilsson) Una macchina svolge un lavoro economicamente importante, eseguendo almeno così come gli umani nello stesso lavoro.

    Test QI AGI

    I ricercatori cinesi Feng Liu, Yong Shi e Ying Liu hanno condotto test di intelligence nell'estate del 2017 con AI deboli disponibili pubblicamente e liberamente accessibili come Google AI o Apple Siri e altri. Al massimo, queste IA hanno raggiunto un valore di circa 47, che corrisponde approssimativamente a un bambino di sei anni in prima elementare. Un adulto arriva a circa 100 in media. Nel 2014 sono stati effettuati test simili in cui l'IA ha raggiunto un valore massimo di 27.

    Problemi che richiedono AGI per risolvere

    I problemi più difficili per i computer sono noti in modo informale come AI-complete o AI-hard, il che implica che risolverli equivale all'attitudine generale dell'intelligenza umana, o AI forte, al di là delle capacità di un algoritmo specifico allo scopo.

    Si ipotizza che i problemi completi dell'intelligenza artificiale includano la visione generale del computer, la comprensione del linguaggio naturale e la gestione di circostanze impreviste durante la risoluzione di qualsiasi problema del mondo reale.

    I problemi di intelligenza artificiale completa non possono essere risolti solo con l'attuale tecnologia informatica e richiedono anche il calcolo umano. Questa proprietà potrebbe essere utile, ad esempio, per verificare la presenza di esseri umani, come mirano a fare i CAPTCHA; e per la sicurezza informatica per respingere gli attacchi di forza bruta.

    Ricerca AGI

    AI classica

    La moderna ricerca sull'intelligenza artificiale iniziò a metà degli anni '50. La prima generazione di ricercatori dell'IA era convinta che fosse possibile un'intelligenza generale artificiale e che sarebbe esistita in pochi decenni. Come scrisse il pioniere dell'IA Herbert A. Simon nel 1965: le macchine saranno in grado, entro vent'anni, di fare qualsiasi lavoro che un uomo possa fare. Le loro previsioni sono state l'ispirazione per il personaggio di Stanley Kubrick e Arthur C. Clarke, HAL 9000, che ha incarnato ciò che i ricercatori dell'IA credevano di poter creare entro l'anno 2001. Il pioniere dell'IA Marvin Minsky era un consultanton il progetto di rendere HAL 9000 il più realistico possibile secondo il previsioni di consenso del tempo; Crevier lo cita come aveva affermato sull'argomento nel 1967, All'interno di una generazione... il problema di creare intelligenza artificiale sarà sostanzialmente risolto, sebbene Minsky affermi di essere stato citato male.

    Tuttavia, nei primi anni '70, divenne ovvio che i ricercatori avevano gravemente sottovalutato la difficoltà del progetto. Le agenzie di finanziamento sono diventate scettiche nei confronti dell'AGI e hanno messo i ricercatori sotto pressione crescente per produrre utili IA applicata. All'inizio degli anni '80, il progetto informatico giapponese di quinta generazione ha rianimato l'interesse per l'AGI, stabilendo una linea temporale di dieci anni che includeva obiettivi AGI come portare avanti una conversazione informale. In risposta a questo e al successo di sistemi esperti, sia l'industria che il governo hanno riportato i soldi sul campo, tuttavia, la fiducia nell'intelligenza artificiale è crollata in modo spettacolare alla fine degli anni '80 e gli obiettivi del quinto progetto di computer di generazione non sono mai stati raggiunti. in 20 anni, i ricercatori dell'IA che avevano predetto l'imminente raggiungimento dell'AGI avevano dimostrato di essere fondamentalmente in errore. Negli anni '90, i ricercatori dell'IA avevano guadagnato una reputazione per aver fatto vane promesse. Divennero riluttanti a fare previsioni e ad evitare qualsiasi menzione dell'intelligenza artificiale a livello umano per paura di essere etichettata come sognatore dagli occhi selvaggi.

    Ricerca AI ristretta

    Negli anni '90 e all'inizio del 21 ° secolo, l'IA tradizionale ha ottenuto un successo commerciale e una rispettabilità accademica molto maggiori concentrandosi su specifici sotto-problemi in cui possono produrre risultati verificabili e applicazioni commerciali, come reti neurali artificiali, visione artificiale o data mining. i sistemi di intelligenza artificiale applicata sono ora ampiamente utilizzati in tutto il settore tecnologico e la ricerca in questo senso è finanziata in maniera molto pesante in entrambe le università e l'industria. Attualmente, lo sviluppo in questo campo è considerato una tendenza emergente e si prevede che una fase matura accadrà tra più di 10 anni.

    La maggior parte dei ricercatori dell'IA tradizionale spera che l'IA forte possa essere sviluppata combinando i programmi che risolvono vari sotto-problemi usando un'architettura agente integrata, un'architettura cognitiva o un'architettura di sussunzione. Hans Moravec ha scritto nel 1988:

    Sono fiducioso che questo percorso dal basso verso l'intelligenza artificiale un giorno incontrerà il tradizionale percorso dall'alto verso il basso più della metà, pronto a fornire la competenza del mondo reale e la conoscenza comune che è stata così frustrantemente sfuggente nei programmi di ragionamento. Macchine completamente intelligenti risulterà quando il picco metaforico d'oro viene guidato unendo i due sforzi .

    Tuttavia, anche questa filosofia fondamentale è stata contestata; per esempio, Stevan Harnad di Princeton concluse il suo articolo del 1990 sull'ipotesi di fondamento dei simboli affermando:

    L'aspettativa è stata spesso espressa che l'approccio top-down (simbolico) alla modellazione cognitiva incontrerà in qualche modo approcci bottom-up (sensoriali) da qualche parte nel mezzo. Se le considerazioni di base in questo documento sono valide, allora questa aspettativa è irrimediabilmente modulare e c'è davvero solo una via percorribile dal senso ai simboli: da zero: un livello simbolico fluttuante come il livello del software di un computer non sarà mai raggiunto da questa via (o viceversa) - né è chiaro perché dovremmo anche cerca di raggiungere un livello del genere, dato che sembra che arrivarci significherebbe sradicare i nostri simboli dai loro significati intrinseci (riducendo semplicemente noi stessi all'equivalente funzionale di un computer programmabile).

    Ricerca moderna di intelligenza artificiale artificiale

    L'intelligenza generale artificiale (AGI) descrive la ricerca che mira a creare macchine capaci di un'azione generale intelligente. Il termine è stato usato già nel 1997, da Mark Gubrudin per una discussione sulle implicazioni della produzione e delle operazioni militari completamente automatizzate. Il termine è stato reintrodotto e reso popolare daShane Legg e Ben Goertzel intorno al 2002. L'obiettivo della ricerca è molto più antico, ad esempio il progetto Cyc di Doug Lenat (iniziato nel 1984) e il progetto Soar di Allen Newell sono considerati nell'ambito di AGI. L'attività di ricerca AGI nel 2006 è stata descritta da Pei Wang e Ben Goertzelas producendo pubblicazioni e risultati preliminari. La prima scuola estiva in AGI è stata organizzata a Xiamen, in Cina, nel 2009 dal Artificial Brain Laboratory e OpenCog dell'università di Xiamen. Il primo corso universitario è stato tenuto nel 2010 e nel 2011 presso l'Università di Plovdiv, in Bulgaria, da Todor Arnaudov. Il MIT ha presentato un corso in AGI nel 2018, organizzato da Lex Fridman e con un numero di docenti ospiti. Tuttavia, finora, la maggior parte dei ricercatori di intelligenza artificiale ha dedicato poca attenzione all'AGI, alcuni sostengono che l'intelligenza sia troppo complessa per essere completamente replicata a breve termine. Tuttavia, un piccolo numero di informatici è attivo nella ricerca AGI e molti di questi gruppi stanno contribuendo a una serie di conferenze AGI. La ricerca è estremamente diversificata e spesso pionieristica in natura. Nell'introduzione al suo libro, Goertzel afferma che le stime del tempo necessario per la costruzione di un'AGI veramente flessibile variano da 10 anni a oltre un secolo, ma il consenso nella comunità di ricerca AGI sembra essere che la linea temporale discussa da Ray Kurzweil in The Singularity è vicino (cioè tra il 2015 e il 2045) è plausibile.

    Tuttavia, la maggior parte dei ricercatori di IA mainstream dubita che i progressi saranno così rapidi. Le organizzazioni che perseguono esplicitamente AGI includono il laboratorio svizzero di intelligenza artificiale IDSIA, Nnaisense, Vicarious, Maluuba, OpenCog Foundation, Adaptive AI, LIDA e Numenta e il associato Redwood Neuroscience Institute. Inoltre, organizzazioni come Machine Intelligence Research Institute e OpenAI sono state fondate per influenzare il percorso di sviluppo di AGI. Infine, progetti come Human Brain Project hanno l'obiettivo di costruire una simulazione funzionale del cervello umano. Il sondaggio A2017 di AGI ha classificato quarantacinque progetti di R&S attivi noti che esplicitamente o implicitamente (attraverso la ricerca pubblicata) ricercano AGI, con i tre più grandi sono DeepMind, Human Brain Project e OpenAI (basato sull'articolo).

    Nel 2019, il programmatore di videogiochi e l'ingegnere aerospaziale John Carmack hanno annunciato piani per la ricerca AGI.

    Vale a dire DeepMind con il loro successo in Human Player Simulation, ad esempio AlphaGo, ha utilizzato nuovi concetti:

    Apprendimento rafforzato per migliorare reti già addestrate con nuovi dati o

    Apprendimento senza supervisione, ad es. Tramite la rete contraddittoria generativa per migliorare le reti mediante la concorrenza.

    Potenza di elaborazione necessaria per simulare un cervello

    Emulazione del cervello intero

    Un approccio popolare discusso per raggiungere un'azione intelligente generale è l'emulazione del cervello intero. Un modello cerebrale di basso livello viene costruito scansionando e mappando in dettaglio un cervello biologico e copiando il suo stato in un sistema informatico o in un altro dispositivo computazionale. Il computer esegue un modello di simulazione così fedele all'originale che si comporterà essenzialmente allo stesso modo del cervello originale, o per tutti gli scopi pratici, indistinguibile. L'emulazione del cervello intero è discussa nelle neuroscienze computazionali e nella neuroinformatica, nel contesto della simulazione del cervello a fini di ricerca medica. Viene discusso nella ricerca dell'intelligenza artificiale come approccio alla forte intelligenza artificiale. Le tecnologie di neuroimaging che potrebbero fornire la necessaria comprensione dettagliata stanno migliorando rapidamente, e il futurista Ray Kurzweil nel libro The Singularity Is Near prevede che una mappa di qualità sufficiente sarà disponibile su una scala temporale simile alla potenza di elaborazione richiesta.

    Stime iniziali

    Per la simulazione cerebrale di basso livello, sarebbe necessario un computer estremamente potente. Il cervello umano ha un numero enorme di sinapsi. Ciascuno dei 10 (cento miliardi) neuroni ha in media 7.000 connessioni sinaptiche con altri neuroni. È stato stimato che il cervello di un bambino di tre anni ha circa 10 sinapsi (1 quadrilione). Questo numero diminuisce con l'età, stabilizzandosi per l'età adulta. Le stime variano per un adulto, che vanno da 10 a 5 × 10 sinapsi (da 100 a 500 trilioni). Una stima della potenza di elaborazione del cervello, basata su un semplice modello di commutazione per l'attività dei neuroni, è di circa 10 (100 trilioni) di aggiornamenti sinaptici al secondo (SUPS). Nel 1997 Kurzweil ha esaminato varie stime dell'hardware necessario per eguagliare il cervello umano e ha adottato una cifra di 10 calcoli al secondo (cps). (Per fare un confronto, se un calcolo fosse equivalente a una operazione in virgola mobile - una misura utilizzata per valutare i supercomputer attuali - allora 10 calcoli sarebbero equivalenti a 10 petaFLOPS, raggiunti nel 2011). Ha usato questa cifra per prevedere l'hardware necessario sarebbe disponibile tra il 2015 e il 2025, se la crescita esponenziale della potenza del computer al momento della stesura continuasse.

    Modellare i neuroni in modo più dettagliato

    Il modello di neurone artificiale assunto da Kurzweil e utilizzato in molte attuali implementazioni di reti neurali artificiali è semplice rispetto ai neuroni biologici. Una simulazione del cervello dovrebbe probabilmente catturare il comportamento cellulare dettagliato dei neuroni biologici, attualmente compreso solo nel più ampio dei contorni. Il sovraccarico introdotto dalla modellizzazione completa dei dettagli biologici, chimici e fisici del comportamento neurale (specialmente su scala molecolare) richiederebbe poteri computazionali di diversi ordini di grandezza più grandi della stima di Kurzweil. Inoltre, le stime non tengono conto delle cellule gliali, che sono numerose almeno quanto i neuroni e che possono superare di 10: 1 i neuroni e che ora sono note per avere un ruolo nei processi cognitivi.

    Ricerche attuali

    Ci sono alcuni progetti di ricerca che stanno studiando la simulazione del cervello usando modelli neurali più sofisticati, implementati su architetture di calcolo convenzionali. Il progetto del sistema di intelligenza artificiale ha implementato simulazioni in tempo non reale di un cervello (con 10 neuroni) nel 2005. Sono stati necessari 50 giorni su un cluster di 27 processori per simulare 1 secondo di un modello. Il progetto Blue Brain ha utilizzato una delle architetture di supercomputer più veloci al mondo, la piattaforma Blue Gene di IBM, per creare una simulazione in tempo reale di una colonna neocorticale a singolo ratto composta da circa 10.000 neuroni e 10 sinapsi nel 2006. Un obiettivo a lungo termine è costruire una simulazione dettagliata e funzionale dei processi fisiologici nel cervello umano: Non è impossibile costruire un cervello umano e possiamo farlo in 10 anni, ha dichiarato Henry Markram, direttore del Blue Brain Project nel 2009 al TED conferenza a Oxford. Ci sono state anche affermazioni controverse per aver simulato un cervello di gatto. Le interfacce al neuro-silicio sono state proposte come una strategia di implementazione alternativa che potrebbe ridimensionarsi meglio.

    Hans Morav ha affrontato gli argomenti di cui sopra (i cervelli sono più complicati , i neuroni devono essere modellati in modo più dettagliato) nel suo articolo del 1997 Quando l'hardware del computer corrisponderà al cervello umano?. Ha misurato la capacità del software esistente di simulare la funzionalità di tessuto neurale, in particolare la retina. I suoi risultati non dipendono dal numero di cellule gliali, né da quale tipo di elaborazione i neuroni svolgono dove.

    L'attuale complessità della modellizzazione dei neuroni biologici è stata esplorata nel progetto OpenWorm che mirava alla simulazione completa di un worm che ha solo 302 neuroni nella sua rete neurale (tra circa 1000 cellule in totale). La rete neurale dell'animale è stata ben documentata prima dell'inizio del progetto. Tuttavia, sebbene all'inizio sembrasse semplice, i modelli basati su una rete neurale generica non funzionavano. Attualmente, gli sforzi sono focalizzati sull'emulazione precisa dei neuroni biologici (in parte a livello molecolare), ma il risultato non può ancora essere definito un successo totale. Anche se il numero di problemi da risolvere in un modello su scala del cervello umano non è proporzionale al numero di neuroni, la quantità di lavoro lungo questo percorso è evidente.

    Critiche degli approcci basati sulla simulazione

    Una critica fondamentale all'approccio del cervello simulato deriva dalla cognizione incarnata in cui l'incarnazione umana è considerata un aspetto essenziale dell'intelligenza umana. Molti ricercatori ritengono che l'incarnazione sia necessaria per fondare il significato. Se questa visione è corretta, qualsiasi modello cerebrale completamente funzionale dovrà comprendere più dei soli neuroni (cioè un corpo robotico). Goertzel propone un'incarnazione virtuale (come Second Life), ma non è ancora noto se ciò sia sufficiente.

    I computer desktop che utilizzano microprocessori in grado di superare i 10 cps (calcoli al secondo" dell'unità non standard di Kurzweil, vedi sopra) sono disponibili dal 2005. Secondo le stime sulla potenza del cervello utilizzate da Kurzweil (e Moravec), questo computer dovrebbe essere in grado di supportare una simulazione del cervello di un'ape, ma nonostante un certo interesse non esiste tale simulazione. Ci sono almeno tre ragioni per questo:

    Il modello di neurone sembra essere semplificato eccessivamente (vedere la sezione successiva).

    C'è una comprensione insufficiente dei processi cognitivi superiori per stabilire con precisione a cosa l'attività neuronale del cervello, osservata usando tecniche come la risonanza magnetica funzionale, è correlata.

    Anche se la nostra comprensione della cognizione avanza sufficientemente, i programmi di simulazione precoce saranno probabilmente molto inefficienti e, pertanto, avranno bisogno di molto più hardware.

    Il cervello di un organismo, sebbene critico, potrebbe non essere un limite appropriato per un modello cognitivo. Per simulare un cervello di api, potrebbe essere necessario simulare il corpo e l'ambiente. La tesi della Mente estesa formalizza il concetto filosofico e la ricerca sui cefalopodi ha dimostrato chiari esempi di un sistema decentralizzato.

    Inoltre, la scala del cervello umano non è attualmente ben limitata. Una stima mette il cervello umano a circa 100 miliardi di neuroni e 100 trilioni di sinapsi. Un'altra stima è di 86 miliardi di neuroni, di cui 16,3 miliardi nella corteccia cerebrale e 69 miliardi nel cervelletto. Le sinapsi delle cellule gliali non sono al momento qualificate ma sono note per essere estremamente numerose.

    Ricerca sulla coscienza artificiale

    Sebbene il ruolo della coscienza nella forte IA / AGI sia discutibile, molti ricercatori AGI considerano vitale la ricerca che indaga sulle possibilità di implementare la coscienza. Inizialmente Igor Aleksander sostenne che i principi per la creazione di una macchina cosciente esistevano già, ma che ci sarebbero voluti quarant'anni per addestrare una macchina del genere a comprendere il linguaggio.

    Rapporto con IA forte

    Nel 1980, il filosofo John Searle ha coniato il termine IA forte come parte della sua discussione sulla stanza cinese. Voleva distinguere tra due diverse ipotesi sull'intelligenza artificiale:

    Un sistema di intelligenza artificiale può pensare e avere una mente. (La parola mente ha un significato specifico per i filosofi, come usata nel problema del corpo mentale o la filosofia della mente.)

    Un sistema di intelligenza artificiale può (solo) agire come pensa e ha una mente.

    Il primo è chiamato l'ipotesi dell'intelligenza artificiale forte e il secondo è l'ipotesi dell'intelligenza artificiale debole perché il primo fa la forte convinzione: presume che alla macchina sia successo qualcosa di speciale che vada oltre tutte le sue capacità che possiamo testare. Searle si riferiva alla forte ipotesi di intelligenza artificiale come forte intelligenza artificiale. Questo utilizzo è anche comune nella ricerca accademica e nei libri di testo.

    L'ipotesi AI debole equivale all'ipotesi che l'intelligenza generale artificiale sia possibile. Secondo Russell e Norvig, La maggior parte dei ricercatori di intelligenza artificiale dà per scontata la debole ipotesi di intelligenza artificiale e non si preoccupa della forte ipotesi di intelligenza artificiale.

    Contrariamente a Searle, Kurzweil usa il termine IA forte per descrivere qualsiasi sistema di intelligenza artificiale che agisce come se avesse una mente, indipendentemente dal fatto che un filosofo sarebbe in grado di determinare se effettivamente ha una mente o no.

    Possibili spiegazioni per il lento progresso della ricerca sull'IA

    Dal lancio della ricerca sull'intelligenza artificiale nel 1956, la crescita di questo campo è rallentata nel tempo e ha bloccato gli obiettivi della creazione di macchine esperte con azioni intelligenti a livello umano. Una possibile spiegazione di questo ritardo è che i computer non dispongono di un ambito sufficiente di memoria o potenza di elaborazione. Inoltre, il livello di complessità che si collega al processo di ricerca sull'IA può anche limitare l'avanzamento della ricerca sull'IA.

    Mentre la maggior parte dei ricercatori di intelligenza artificiale crede che un'intelligenza artificiale forte possa essere raggiunta in futuro, ci sono alcune persone come Hubert Dreyfus e Roger Penrose che negano la possibilità di ottenere un'intelligenza artificiale forte. John McCarthy era uno dei vari scienziati informatici che credevano che l'IA a livello umano sarebbe stata raggiunta, ma non è possibile prevedere con precisione una data.

    Le limitazioni concettuali sono un'altra possibile ragione della lentezza nella ricerca sull'IA. I ricercatori dell'IA potrebbero dover modificare il quadro concettuale della propria disciplina al fine di fornire una base più forte e un contributo alla ricerca di un'intelligenza artificiale forte. Come scrisse William Clocksin nel 2003: la struttura parte dall'osservazione di Weizenbaum secondo cui l'intelligenza si manifesta solo in relazione a specifici contesti sociali e culturali.

    Inoltre, i ricercatori dell'IA sono stati in grado di creare computer in grado di svolgere compiti complicati da svolgere per le persone, ma al contrario hanno faticato a sviluppare un computer in grado di svolgere compiti semplici da svolgere per gli umani (il paradosso di Moravec). Un problema descritto da David Gelernter è che alcune persone credono che il pensiero e il ragionamento siano equivalenti. Tuttavia, l'idea di isolare individualmente i pensieri e il creatore di quei pensieri ha incuriosito i ricercatori dell'IA.

    I problemi che sono stati riscontrati nella ricerca sull'IA negli ultimi decenni hanno impedito ulteriormente il progresso dell'IA. Le previsioni fallite promesse dai ricercatori dell'IA e la mancanza di una completa comprensione dei comportamenti umani hanno contribuito a ridurre l'idea primaria di AI a livello umano. Sebbene i progressi della ricerca sull'IA abbiano portato sia miglioramento che delusione, la maggior parte degli investigatori ha stabilito ottimismo sul potenziale raggiungimento dell'obiettivo dell'IA nel 21 ° secolo.

    Altre possibili ragioni sono state proposte per la lunga ricerca sullo sviluppo di una forte intelligenza artificiale. La complessità dei problemi scientifici e la necessità di comprendere appieno il cervello umano attraverso la psicologia e la neurofisiologia hanno limitato molti ricercatori dall'emulare la funzione del cervello umano in un hardware informatico.Molti ricercatori tendono a sottostimare qualsiasi dubbio che sia coinvolto in future previsioni dell'IA, ma senza prendere sul serio tali problemi le persone possono trascurare le soluzioni alle domande problematiche.

    Clocksin afferma che una limitazione concettuale che può impedire il progresso della ricerca sull'intelligenza artificiale è che le persone potrebbero utilizzare le tecniche sbagliate per i programmi per computer e l'implementazione delle apparecchiature. Quando i ricercatori dell'IA hanno iniziato a puntare all'obiettivo dell'intelligenza artificiale, un interesse principale era il ragionamento umano. I ricercatori speravano di stabilire modelli computazionali della conoscenza umana attraverso il ragionamento e di scoprire come progettare un computer con un compito cognitivo specifico.

    La pratica dell'astrazione, che le persone tendono a ridefinire quando lavorano con un particolare contesto di ricerca, fornisce ai ricercatori una concentrazione su pochi concetti. L'uso più produttivo dell'astrazione nella ricerca dell'IA viene dalla pianificazione e dalla risoluzione dei problemi. Sebbene l'obiettivo sia aumentare la velocità di un calcolo, il ruolo dell'astrazione ha posto delle domande sul coinvolgimento degli operatori dell'astrazione.

    Una possibile ragione della lentezza dell'IA è legata al riconoscimento da parte di molti ricercatori dell'IA che l'euristica è una sezione che contiene una violazione significativa tra le prestazioni del computer e le prestazioni umane. Le funzioni specifiche che sono programmate su un computer possono essere in grado di rispondere a molti dei requisiti che gli consentono di abbinare l'intelligenza umana. Queste spiegazioni non sono necessariamente garantite come le cause fondamentali del ritardo nel raggiungimento di un'intelligenza artificiale forte, ma sono ampiamente condivise da numerosi ricercatori.

    Ci sono stati molti ricercatori dell'IA che hanno discusso sull'idea se le macchine debbano essere create con le emozioni. Non ci sono emozioni nei modelli tipici dell'IA e alcuni ricercatori affermano che programmare le emozioni nelle macchine consente loro di avere una propria mente. L'emozione riassume le esperienze degli umani perché permette loro di ricordare quelle esperienze. David Gelernter scrive: Nessun computer sarà creativo a meno che non sia in grado di simulare tutte le sfumature dell'emozione umana. Questa preoccupazione per l'emozione ha posto problemi ai ricercatori dell'IA e si collega al concetto di AI forte mentre la sua ricerca progredisce nel futuro.

    Coscienza

    Ci sono altri aspetti della mente umana oltre all'intelligenza che sono rilevanti per il concetto di forte intelligenza artificiale che svolgono un ruolo importante nella fantascienza e nell'etica dell'intelligenza artificiale:

    Coscienza: avere esperienza e pensiero soggettivi.

    Autocoscienza: essere consapevoli di se stessi come un individuo separato, in particolare essere consapevoli dei propri pensieri.

    Sensibilità: la capacità di sentire percezioni o emozioni soggettivamente.

    Sapience: la capacità di saggezza.

    Questi tratti hanno una dimensione morale, perché una macchina con questa forma di IA forte può avere diritti legali, analoghi ai diritti degli animali non umani. Inoltre, Bill Joy, tra gli altri, sostiene che una macchina con questi tratti potrebbe essere una minaccia alla vita o alla dignità umana. Resta da dimostrare se qualcuno di questi tratti sia necessario per un'intelligenza artificiale forte. Il ruolo della coscienza non è chiaro e attualmente non esiste un test concordato per la sua presenza. Se una macchina fosse costruita con un dispositivo che simula i correlati neurali della coscienza, avrebbe automaticamente consapevolezza di sé? È anche possibile che alcune di queste proprietà, come la sensibilità, emergano naturalmente da una macchina completamente intelligente, o che sia naturale attribuire queste proprietà alle macchine una volta che iniziano ad agire in un modo chiaramente intelligente. Ad esempio, un'azione intelligente può essere sufficiente per la sensibilità, piuttosto che il contrario.

    Nella fantascienza, l'AGI è associata a tratti come la coscienza, la sensibilità, la sapienza e l'autocoscienza osservate negli esseri viventi. Tuttavia, secondo il filosofo John Searle, è una questione aperta se l'intelligenza generale sia sufficiente per la coscienza. L'intelligenza artificiale forte (come definito sopra da Ray Kurzweil) non deve essere confusa con la forte ipotesi di intelligenza artificiale di Searle. L'ipotesi di forte intelligenza artificiale è l'affermazione che un computer che si comporta in modo così intelligente come una persona deve anche necessariamente avere una mente e una coscienza. AGI si riferisce solo alla quantità di intelligenza che la macchina mostra, con o senza una mente.

    Polemiche e pericoli

    Fattibilità

    Le opinioni variano su se e quando arriverà l'intelligenza generale artificiale. Ad un estremo, il pioniere dell'intelligenza artificiale Herbert A. Simonwrote nel 1965: le macchine saranno in grado, entro vent'anni, di svolgere qualsiasi lavoro che un uomo possa fare. Tuttavia, questa previsione non è diventata realtà. Il co-fondatore della Microsoft Paul Allen ha creduto che tale intelligenza sia improbabile nel 21 ° secolo perché richiederebbe scoperte imprevedibili e fondamentalmente imprevedibili e una comprensione scientificamente profonda della cognizione. Scrivendo in The Guardian, il robotico Alan Winfield ha affermato che il divario tra il calcolo moderno e l'intelligenza artificiale a livello umano è ampio quanto il divario tra il volo spaziale attuale e il volo spaziale pratico più veloce della luce. Opinioni degli esperti II sulla fattibilità della cera AGI e calante e potrebbe aver visto una rinascita negli anni 2010. Quattro sondaggi condotti nel 2012 e 2013 hanno suggerito che l'ipotesi mediana tra gli esperti per quando sarebbero stati sicuri del 50% che l'AGI sarebbe arrivato era dal 2040 al 2050, a seconda del sondaggio, con la media del 2081. È anche interessante notare il 16,5% di gli esperti hanno risposto mai quando gli è stata posta la stessa domanda, ma con una sicurezza del 90%. Ulteriori ulteriori considerazioni sui progressi compiuti nell'AGI sono disponibili sotto Test per confermare AGI a livello umano e AGI per test di QI.

    Potenziale minaccia all'esistenza umana

    La creazione dell'intelligenza generale artificiale può avere ripercussioni così grandi e così complesse che potrebbe non essere possibile prevedere cosa verrà dopo. Pertanto, nell'ipotetico futuro dell'ottenimento di una forte intelligenza artificiale, l'evento si chiama singolarità tecnologica, poiché teoricamente non si può vedere oltre. Ma ciò non ha impedito a filosofi e ricercatori di indovinare cosa potrebbero fare gli smart computer o i robot del futuro, inclusa la formazione di un'utopia essendo i nostri amici o schiacciandoci in un'acquisizione dell'intelligenza artificiale. Quest'ultima potenzialità è particolarmente inquietante in quanto rappresenta un rischio esistenziale per l'umanità.

    Macchine autoreplicanti

    Computer o robot intelligenti sarebbero in grado di progettare e produrre versioni migliorate di se stessi. Una crescente popolazione di robot intelligenti potrebbe concepibilmente superare la concorrenza di umani inferiori nei mercati del lavoro, negli affari, nella scienza, nella politica (perseguendo i diritti dei robot) e tecnologicamente, sociologicamente (agendo come uno) e militarmente. Ancora oggi molti lavori sono già stati occupati da macchine pseudo-intelligenti alimentate da un'intelligenza artificiale debole, ad esempio robot per case, assistenza sanitaria, hotel e ristoranti hanno automatizzato molte parti della nostra vita: i robot virtuali trasformano il servizio clienti in auto- servizio, applicazioni di Big Data AI vengono utilizzate per sostituire i gestori di portafoglio e robot sociali come Pepper vengono utilizzati per sostituire i biglietti di auguri umani a scopo di assistenza ai clienti.

    Superintelligenza emergente

    L'Ifresearch in un'intelligenza artificiale forte ha prodotto software sufficientemente intelligente, sarebbe in grado di riprogrammare e migliorare se stesso - una caratteristica chiamata auto-miglioramento ricorsivo. Sarebbe quindi ancora meglio migliorare se stesso, e probabilmente continuerebbe a farlo in un ciclo in rapido aumento, portando a un'esplosione di intelligenza e all'emergere di superintelligenza. Tale intelligenza non avrebbe i limiti dell'intelletto umano e potrebbe essere in grado di inventa o scopri quasi tutto.

    Il software iper-intelligente potrebbe non necessariamente decidere di supportare la continua esistenza dell'umanità e potrebbe essere estremamente difficile da fermare. Questo argomento ha anche recentemente iniziato a essere discusso in pubblicazioni accademiche come una

    Ti è piaciuta l'anteprima?
    Pagina 1 di 1