Scopri milioni di eBook, audiolibri e tanto altro ancora con una prova gratuita

Solo $11.99/mese al termine del periodo di prova. Cancella quando vuoi.

Aspenia 1/2024: Il nostro futuro artificiale
Aspenia 1/2024: Il nostro futuro artificiale
Aspenia 1/2024: Il nostro futuro artificiale
E-book301 pagine3 ore

Aspenia 1/2024: Il nostro futuro artificiale

Valutazione: 0 su 5 stelle

()

Leggi anteprima

Info su questo ebook

Aspenia, la rivista trimestrale di Aspen Institute Italia diretta da Marta Dassù, è stata fondata nel 1995 e, dal 2002, è pubblicata da Il Sole 24 Ore. Al numero in uscita nel mese di marzo “Il nostro futuro artificiale” hanno contribuito tra gli altri Yuval Noah Harari, Maurizio Ferraris, Pierluigi Contucci, Daron Acemoglu e Simon Johnson, Massimo Gaggi, Mariarosaria Taddeo, William Jones, Maurizio Mensi, Giusella Finocchiaro, Alessandro Aresu, Tanya Singh e Pramit Pal Chaudhuri, Carlo Jean, Alberto Mattiacci, Luca De Biase, Gianni Riotta e Federica Urzo.

Ci sono i pessimisti, o quantomeno quelli fortemente scettici: l’Intelligenza Artificiale costituisce un pericolo e il suo rapido sviluppo va frenato per salvaguardare il controllo umano sul proprio futuro. E ci sono poi gli ottimisti: non esiste una vera minaccia perché, almeno allo stato attuale, un software digitale non è un organismo e, dunque, non ha desideri né teme di essere privato di qualcosa. Oppure c’è una terza via: siamo di fronte a un tipo di intelligenza profondamente diversa da quella umana, a cui non dovremmo applicare gli stessi parametri.

Quella che oggi chiamiamo “Intelligenza Artificiale Generativa”viene spesso accostata alle nuove forme incentrate sull’interazione linguistica come nel caso del famoso ChatGPT, che stimola la percezione di una macchina creativa, quasi con la capacità di immaginare. Una cosa poi da non dimenticare: l’IA è stata “selezionata” dall’intelligenza umana, e qualunque possano essere gli sviluppi futuri, perfino quelli parzialmente al di fuori del nostro diretto controllo, quel legame tra umano e artificiale resterà anch’esso inscindibile. L’IA generativa è però quasi sfuggente per gli stessi ingegneri che l’hanno programmata; è un vero enigma per chi dovrebbe metterla sotto controllo mediante regole giuridiche e procedure amministrative.

Questo vale, a maggior ragione, per i possibili accordi internazionali: è più facile contare vettori e testate nucleari che quantificare le capacità “generative” di un software che usa magari grandi server dislocati in più luoghi e che accede a un immenso cloud. Parallelamente alla legittima ricerca di accordi tra Stati per la gestione e il controllo delle nuove tecnologie, ci si può aspettare comunque una dinamica competitiva di potenza che potrebbe facilitare un certo bilanciamento, per quanto precario. Basti pensare alla natura profondamente politica dei rischi e delle opportunità legati all’IA in chiave interna agli Stati: la Cina, come molti altri regimi autoritari e illiberali, vede nelle nuove tecnologie digitali soprattutto uno strumento ulteriore di controllo della sua stessa popolazione, mentre i paesi democratico-liberali cercano un delicato equilibrio tra competitività economica, logiche di mercato e tutela dei diritti civili. Queste prospettive radicalmente differenti si riverberano poi sui negoziati internazionali, rendendo difficile un consenso su standard comuni.

Resta il fatto che dovremo riflettere su come limitare i rischi collettivi e tutelare i diritti degli individui. Dal punto di vista normativo l’Unione Europea ha compiuto un primo passo importante, basato sui livelli di rischio dei vari sistemi di IA nelle loro applicazioni al mercato unico. L’industria europea peraltro ha alcune importanti nicchie di eccellenza, ma continua a scontare un divario competitivo rispetto ai grandi attori americani e asiatici. Anche se ci saranno aggiustamenti, precisazioni e aggiornamenti resta l’impressione che, nell’approccio europeo, il tema “rischio” prevalga nettamente su quello delle opportunità. Pur arrivando a diffondere un messaggio pubblico quasi del tutto basato sui pericoli e sul lato oscuro delle nuove tecnologie, non si arriva però a parlare di freno allo sviluppo dell’IA.

Le varie applicazioni dell’IA potrebbero portare alla perdita di controllo, quella che i tecnologi hanno denominato “singolarità”. Per affrontare quest
LinguaItaliano
Data di uscita19 mar 2024
ISBN9791254834855
Aspenia 1/2024: Il nostro futuro artificiale

Leggi altro di Aa.Vv.

Correlato a Aspenia 1/2024

Ebook correlati

Business per voi

Visualizza altri

Articoli correlati

Recensioni su Aspenia 1/2024

Valutazione: 0 su 5 stelle
0 valutazioni

0 valutazioni0 recensioni

Cosa ne pensi?

Tocca per valutare

La recensione deve contenere almeno 10 parole

    Anteprima del libro

    Aspenia 1/2024 - AA.VV.

    EDITORIALE Aspenia 1-2024

    Marta Dassù e Roberto Menotti

    Per addentrarsi nell’universo della cosiddetta intelligenza artificiale è bene partire proprio dalla sua definizione, che non andrebbe data per scontata. La si chiama così per convenzione, ma senza aver identificato un concetto pienamente condiviso e preciso. Come evidenziano gli articoli di questo numero di Aspenia, ci sono vari angoli d’attacco al problema concettuale – filosofici, tecnici, pragmatici e normativi – nessuno dei quali sembra catturare tutta la complessità del fenomeno. Il punto di fondo è che non è affatto semplice definire l’intelligenza umana (ancor più spesso data per scontata) e dunque ci manca un criterio di riferimento e di comparazione chiaro. Per quanto si usi comunemente questa parola, non sappiamo neppure precisamente cosa sia il pensiero, come sottolineò tra gli altri Alan Turing già nel 1950.

    In effetti, dobbiamo convivere con molte ambiguità nel valutare perfino il carattere innovativo dell’aggettivo artificiale, visto che qualsiasi tecnologia inventata dagli esseri umani è appunto artificiale (non esisteva in natura prima dell’homo sapiens), e in un certo senso si può considerare intelligente – si pensi al linguaggio, parlato e ancor più scritto. Se con intelligenza si intende anche ogni tipo di ausilio alla capacità di perseguire i fini più alti del genere umano, elaborare scenari o ipotesi, e rendere più efficienti i processi produttivi, allora certamente il linguaggio è di per sé un precursore dell’IA, e non a caso lo scalpore suscitato dalla famiglia di tecnologie a cui appartiene ChatGPT è legato soprattutto alle sue abilità linguistiche.

    Da queste considerazioni fondamentali derivano solitamente diversi atteggiamenti verso gli sviluppi pratici delle nuove tecnologie: tecno-pessimisti, tecno-entusiasti, e scettici moderati che si collocano nelle varie zone grigie dello spettro.

    Possiamo annoverare tra i pessimisti, o quantomeno tra i fortemente scettici, un autore come Yuval Noah Harari, che spiega in questo numero le ragioni per cui lo sviluppo rapido dell’intelligenza artificiale va frenato per salvaguardare il controllo umano sul proprio futuro.

    Ponendosi sostanzialmente sull’altro versante, Maurizio Ferraris sostiene con vigore che l’IA non è propriamente intelligenza – secondo le definizioni più sofisticate di questo termine che a suo parere dovremmo sempre applicare. Non c’è una vera minaccia perché, almeno allo stato attuale, un software digitale non è un organismo e dunque non ha desideri (al di fuori del suo rapporto preimpostato con gli esseri umani) né timore di essere privato di qualcosa.

    Altri autori, come Pierluigi Contucci, cercano una sorta di terza via, concludendo che siamo di fronte a un tipo di intelligenza profondamente diversa da quella umana, a cui non dovremmo applicare gli stessi parametri.

    È chiaro comunque che l’intelligenza artificiale è ormai uscita dai convegni tra specialisti e dai libri di filosofi e tecnologi, per invadere con forza dirompente il dibattito pubblico. Forse è bene che sia così, dato l’impatto enorme che sta già avendo sull’economia, sulla società, e indirettamente sulla politica; ma certo la grande diffusione di un concetto confonde i termini della discussione, li rende meno netti, e interagisce con le percezioni diffuse. Del resto, la parola generativa, che viene spesso accostata alle nuove forme di IA incentrate sull’interazione linguistica come il famoso ChatGPT, stimola la percezione di una novità davvero rivoluzionaria, cioè una macchina creativa, quasi con la capacità di immaginare. E dunque porta questi software, inevitabilmente, a essere comparati alle facoltà dell’intelletto umano: gli esseri umani ritengono infatti, a torto o a ragione, che proprio le caratteristiche creative e immaginative siano un loro tratto unico e distintivo.

    Tali quesiti, apparentemente astratti, sono importanti perché hanno conseguenze tangibili. I due estremi del problema (questione concettuale-filosofica e questione pratico-tecnologica, potremmo dire) finiscono per toccarsi, chiudendo un cerchio ideale che proviamo qui a tracciare.

    Possiamo, ad esempio, guardare con attenzione al tentativo finora più avanzato di dare un quadro normativo alla questione IA, cioè la legislazione recentemente adottata dall’Unione Europea (analizzata nell’articolo di Giusella Finocchiaro). Il cosiddetto AI Act contiene una definizione, sostanzialmente tecnica, che ci offre un utile punto di partenza (all’articolo 3): Il sistema di intelligenza artificiale è un sistema basato su macchine progettato per funzionare con diversi livelli di autonomia e che può mostrare adattività dopo l’implementazione e che, per obiettivi espliciti o impliciti, deduce, dall’input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.

    Siamo dunque di fronte a un soggetto in qualche misura autonomo, adattabile, in grado di fornire output variegati, che alla fine ha una capacità di influenzare l’ambiente (fisico o virtuale); non deve stupire se la cosa provochi molti quesiti e stimoli anche una certa angoscia per il futuro. Insomma, è come se alla classica domanda se esistano altre forme di vita intelligenti nell’universo dovremmo ora rispondere: certamente sì. Su un piano più pratico e immediato, vengono fissati alcuni principi fondanti in un’ottica democratico-liberale, come la massima tutela dell’individuo nei settori più direttamente intrusivi della sfera personale, come la salute, le libertà civili (da cui il divieto di social scoring e i limiti alla sorveglianza), i servizi pubblici di base. Anche i diritti del consumatore vengono rafforzati, ampliando all’IA gli obblighi per le aziende di specificare quali strumenti sono utilizzati nel fornire un prodotto o servizio. Fin qui, siamo a un’estensione, dettata dal buon senso e dalla cautela, di pratiche e norme già applicate in altri campi. Restano alcuni legittimi dubbi sul settore della giustizia – dal quale non è del tutto escluso l’utilizzo dell’IA sebbene sotto diretta supervisione umana – e della difesa – di fatto esclusa, al momento. Inoltre, le regole più stringenti per i produttori si applicano soltanto alle forme più avanzate di IA, e qui si potranno aprire contenziosi di non facile risoluzione. Anche il concetto di proibire le pratiche di manipolazione del comportamento umano appare alquanto generico e perfino vago: si pensi al marketing, che da sempre consiste in una sorta di manipolazione, magari gentile.

    In breve, l’UE ha compiuto un primo passo importante, basato sui livelli di rischio dei vari sistemi di IA nelle loro applicazioni al mercato unico. Ma un impianto legislativo così complesso dovrà per forza subire aggiustamenti, precisazioni e aggiornamenti. E resta l’impressione che, nell’approccio europeo, il tema rischio prevalga nettamente su quello delle opportunità – che richiederebbe forti investimenti comuni.

    Una valutazione d’insieme è quindi possibile: questo quadro normativo non sembra in grado di frenare realmente lo sviluppo dell’IA, come alcuni temevano e altri auspicavano, ma certo diffonde un messaggio pubblico quasi del tutto fondato sui pericoli, sul lato oscuro delle nuove tecnologie. Una legislazione del genere non crea veri ostacoli allo sviluppo industriale del settore, anche se neppure sostiene la competitività europea – che è poi il problema di fondo, perché è difficile imporre regole se non si dispone delle aziende che continuano a innovare le tecnologie. L’industria europea ha effettivamente alcune importanti nicchie di eccellenza (come scrive Luca De Biase), ma continua a scontare un divario competitivo rispetto ai grandi attori americani e asiatici.

    In ogni caso, emergono almeno tre ordini di problemi che preoccupano non solo i regolatori, ma anche gli esperti del versante tecnologico, i filosofi e chi si occupa di questioni etiche, e infine l’opinione pubblica in senso ampio nella misura in cui è comunque investita dagli effetti economici e sociali delle nuove tecnologie.

    Aspenia 1-2024

    Prima preoccupazione: il modello di business, mutuato dalle tecnologie digitali già consolidate e che in sostanza poggia sull’accesso a grandi masse di dati relative agli utenti (big data) – che sono forniti volontariamente dagli utenti stessi. Sebbene vi siano alcune importanti differenze rispetto agli ormai tradizionali motori di ricerca e ai social media, rimane la tendenza a una forte concentrazione di quote di mercato grazie alla disponibilità di massicce risorse finanziarie da investire che a sua volta si traduce in un vantaggio competitivo, con la capacità di agganciare gli utenti a quello che diventa uno standard digitale dominante. In pratica, i giganti digitali creano delle porte di accesso a prodotti e servizi che gli utenti devono necessariamente attraversare. Il modello, che possiamo forse definire del software oligopolista, sembra ora estendersi alle varie applicazioni dell’IA, che possono puntare moltissimo sulla raccolta pubblicitaria, visto che questa è favorita in modo decisivo dagli algoritmi di profilazione.

    I giganti digitali sono ormai ben consapevoli del loro problema di immagine e reputazione, al punto tale da aver fatto alcuni tentativi di grande impatto mediatico, come ad esempio il recente documento firmato da venti tra le maggiori aziende del settore, il Tech Accord to Combat Deceptive Use of AI in 2024 Elections che è stato annunciato in occasione della Munich Security Conference di febbraio. Questa e altre iniziative simili puntano a recuperare parte della credibilità perduta da quando il grande pubblico ha la netta percezione che in fondo la proliferazione di fake news e disinformazione di vario tipo sia un tratto distintivo (e molto redditizio) del modello di business, e non un semplice effetto collaterale.

    Si può anche notare una caratteristica ricorrente nelle startup del settore, che si ripercuote sul loro modello di crescita perfino quando diventano grandi aziende quotate: i loro flussi finanziari sono basati sulle proiezioni del valore futuro, assai più che sui profitti. Ora, se questo è piuttosto normale e comprensibile per una piccola impresa che muove i primi passi, lo è meno per un player che conquista grosse fette di mercato in un settore dinamico e strategico come quello digitale, e in particolare dell’IA. Come minimo, è opportuno porsi qualche domanda sulla solidità e affidabilità di un comparto industriale che, per attirare gli enormi investimenti di cui necessita, è quasi condannato a proiettare sempre e comunque tassi di crescita che in altri settori sarebbero considerati straordinari e perfino poco realistici. Insomma, in un contesto del genere il rischio concreto di bolle ricorrenti sembra semplicemente strutturale.

    Il modello di business ha poi particolare rilevanza per il rapporto tra produttori e consumatori, o piattaforme e utenti. Qui si è finora osservato un fenomeno oscillatorio, una sorta di pendolo per cui le spinte al decentramento prevalgono nelle prime fasi in cui crescono le reti digitali, ma proprio il successo delle reti consente ad alcuni attori di concentrare una tale massa di dati da diventare dominanti sui mercati – dove si commercializzano i servizi che viaggiano lungo le vie digitali.

    L’esito paradossale è che, in molti casi, tecnologie concepite per essere vantaggiose per la diffusione del potere negoziale e l’inclusione si sono rivelate invece funzionali alla concentrazione e perfino a forme di discriminazione. A esserne danneggiato è non soltanto il consumatore generico, ma ancor più chi non ha competenze sufficienti, e dunque alcune categorie di lavoratori.

    Ci sono antidoti possibili, a cominciare dalla regolamentazione nel classico solco della tutela della concorrenza. Altrettanto importante è una visione umanistica della scienza (della scienza pura, prima ancora che di quella applicata), fondata sull’assunto che il metodo scientifico scaturisce proprio dal cervello umano in quanto modo specifico di guardare alla natura (essa stessa una definizione culturale e dunque, in buona misura, una creazione umana). È un campo in cui Aspen Italia lavora ormai da diversi anni, insieme ad Aspen US, con un programma specifico sull’importanza dell’investimento nella scienza pura.

    Aspenia 1-2024

    Seconda preoccupazione di fondo: la competizione globale. È fuor di dubbio che l’IA produce un’accelerazione dei trend già in atto verso un sempre maggiore intreccio delle tecnologie digitali con le capacità di usare la coercizione – sia sotto forma di forza cinetica, sia di raccolta e manipolazione di dati a fini strategici. È stato già riconosciuto, perfino da un paese difficile come la Repubblica Popolare Cinese, che l’IA prefigura un salto di qualità e che – come recita il comunicato finale della conferenza organizzata dal governo britannico nel novembre 2023, il Bletchley Park Agreement, firmato anche dai rappresentati scientifici di Pechino – può porre una minaccia esistenziale per l’umanità, se finisse per andare fuori controllo. Proprio questo esito diventa ovviamente più probabile in un contesto di competizione sfrenata tra le maggiori potenze, e si pone dunque l’esigenza di una forma di controllo degli armamenti in un settore di per sé multi-uso e non intrinsecamente militare.

    Ritornano così in auge, quasi inesorabilmente, i classici scenari codificati dagli studi strategici, per cui all’ipotesi di gestire la conflittualità in modo consensuale (appunto, la via degli accordi formalizzati in trattati internazionali) si contrappone – e spesso si accompagna – il meccanismo dell’equilibrio di potenza (cioè, un precario bilanciamento tra forze). Il problema centrale, proprio come negli schemi tradizionali della competizione strategica, è impedire che si inneschi una corsa agli armamenti e una spirale fuori controllo fino a un fatale errore di calcolo e a uno scontro militare. In breve, le ben note teorie sulla deterrenza e sul controllo degli armamenti tornano utili, ma vanno certamente aggiornate e adattate alle particolari circostanze tecnologiche dei prossimi anni. La sfida principale, in tal senso, è che, nonostante i tentativi dei governi di mantenere o ristabilire il controllo sull’innovazione e la sperimentazione, sono gli attori privati a spingersi verso le frontiere della conoscenza applicata. Il CEO di Google, Sundar Pichai, ha recentemente sostenuto l’esigenza di proseguire senza sosta nello sviluppo dell’IA anche in campo militare perché altrimenti altri lo faranno comunque (a scopi offensivi), lasciando le società democratiche meno bellicose senza la capacità di difendersi. Messa in questi termini, è una logica senza via d’uscita.

    Si pongono quindi almeno due problemi. Il primo è la natura profondamente politica dei rischi e delle opportunità legati all’IA in chiave interna agli Stati: la Cina, come molti altri regimi autoritari e illiberali, vede nelle nuove tecnologie digitali soprattutto uno strumento ulteriore di controllo della sua stessa popolazione, mentre i paesi democratico-liberali cercano un delicato equilibrio tra competitività economica, logiche di mercato e tutela dei diritti civili. Queste prospettive radicalmente differenti si riverberano poi sui negoziati internazionali, rendendo difficile un consenso su standard comuni.

    Il secondo problema è l’accesso alle competenze per comprendere le questioni tecniche, prima di poterle regolamentare o comunque gestire da parte delle agenzie governative – chiunque ricordi le audizioni di Mark Zuckerberg al Congresso americano si sarà reso conto che, in vari passaggi, i rappresentanti eletti dal popolo non avevano idea di cosa dicesse davvero il fondatore di Facebook/Meta, quasi che stessero usando due lingue diverse.

    In sostanza, l’IA generativa è quasi sfuggente per gli stessi ingegneri che l’hanno programmata; è un vero enigma per chi dovrebbe metterla sotto controllo mediante regole giuridiche e procedure amministrative. Questo vale, a maggior ragione, per i possibili accordi internazionali: è più facile contare vettori e testate nucleari che quantificare le capacità generative di un software che usa magari grandi server dislocati in più luoghi e che accede a un immenso cloud.

    C’è infine una considerazione ancora più generale da fare sulle dinamiche interstatuali del potere nell’era dell’IA: come in passato alcuni teorici delle relazioni internazionali hanno ritenuto che fosse comunque preferibile un assetto multipolare, perché più flessibile rispetto a uno bipolare o egemonico, così oggi ci sono dei potenziali vantaggi in un assetto che presenti molteplici intelligenze: è plausibile che queste finirebbero per controbilanciarsi a vicenda, scongiurando il peggiore degli scenari, cioè quello di una singola superintelligenza – appunto, la temuta singolarità che porrebbe fine al genere umano per come lo intendiamo.

    Concludendo su questo punto: parallelamente alla legittima ricerca di accordi tra Stati per la gestione e il controllo delle nuove tecnologie, possiamo aspettarci comunque una dinamica competitiva di potenza che potrebbe facilitare un certo bilanciamento, per quanto precario.

    Aspenia 1-2024

    Il nostro cerchio ideale si chiude così con la terza preoccupazione causata dalle varie applicazioni dell’IA, sullo sfondo di tutte le altre: una perdita di controllo – quella che i tecnologi hanno denominato singolarità. Per affrontare questa sfida davvero esistenziale pensiamo che si debba evitare un atteggiamento apocalittico o disfattista, partendo invece dalla questione fondamentale, cioè – come accennato all’inizio – dal concetto stesso di intelligenza: tutt’altro che univoco e condiviso perfino per i neurobiologi, oltre che per psicologi e filosofi.

    Come ci ricorda ancora Maurizio Ferraris, il termine intelligenza artificiale è una metafora, o al più un’approssimazione non del tutto soddisfacente e comunque non precisa. Sappiamo infatti che l’intelligenza umana è sociale, e non soltanto individuale; ne deriva che storicamente il maggiore punto di forza evolutivo della nostra specie è stata la cultura, cioè la capacità di tramandare le conoscenze e dunque di edificare nuove idee sulle idee sviluppate da altri individui.

    Come ha scritto un altro filosofo e storico delle scienze biologiche, Patrick Tort, si può così affermare che per l’umanità In termini semplificati, la selezione naturale seleziona la civilizzazione¹, una dinamica che consente di tenere assieme la singolarità umana, il nostro inscindibile legame con i fattori biologici e l’insieme della natura. Nel riflettere ora sull’avvento della cosiddetta intelligenza artificiale non dovremmo allora dimenticare che questa è stata selezionata dall’intelligenza umana, e che qualunque saranno i suoi sviluppi, perfino quelli parzialmente al di fuori del nostro diretto controllo, quel legame tra umano e artificiale resterà anch’esso inscindibile.

    C’è un altro aspetto dell’IA come pericolosa controparte dell’umanità che non regge a un’osservazione più attenta: nello sviluppare i software che interagiscono e parlano con gli esseri umani li si è dotati di un solo tipo di intelligenza: quella razionale. Ma sappiamo bene che, data la sua struttura biologica, l’essere umano elabora gli stimoli dell’ambiente utilizzando anche le componenti più antiche e rettiliane del suo cervello. È questo mix che conferisce a Homo Sapiens altri tipi di intelligenza, che possiamo chiamare istintivi ed emotivi. Proprio l’emotività, compreso ovviamente il sentimento della paura, condiziona a volte il nostro atteggiamento verso l’evoluzione in corso dell’IA nelle sue varie forme. Non c’è nulla di strano: in fondo siamo esseri umani.

    Al netto dei timori fondati, ci sono comunque enormi opportunità nelle punte più avanzate delle nuove tecnologie digitali, che si sta già cercando di mettere a fuoco e sfruttare mentre riflettiamo su come limitare i rischi collettivi e tutelare i diritti degli individui. Pensiamo alla medicina, all’ambiente, alla gestione e prevenzione dei disastri, all’esplorazione spaziale. C’è poi un impiego quasi banale dell’IA che tenderà probabilmente a diventare una semplice abitudine: quello di un assistente instancabile per risparmiare frammenti della risorsa scarsa più preziosa che esista, ossia il tempo. È proprio quanto è accaduto con il personal computer e poi in modo macroscopico con l’ubiquo smartphone, che ci accompagna ovunque per fornirci dati, posizioni sul GPS, contatti con i nostri amici, l’opportunità di scattare foto, e soddisfare delle curiosità.

    In ultima analisi, coglie nel segno chi osserva che le nuove macchine potrebbero sostituire le persone; ma questo vale per qualsiasi tecnologia, visto che l’invenzione di strumenti e metodi per usarle è sempre stato un modo per moltiplicare la limitata energia fisica di cui dispone ogni singolo individuo. E punta comunque ad ampliare le possibilità umane e ad allargare gli orizzonti.

    Dunque, anche l’IA sottrarrà alcuni compiti alle persone in carne e ossa (come è accaduto per il telaio a vapore o per le calcolatrici portatili) ma si tratterà appunto di compiti e non certo di diritti, opportunità, desideri, progetti.

    Ti è piaciuta l'anteprima?
    Pagina 1 di 1