Aspenia 1/2024: Il nostro futuro artificiale
Di AA.VV.
()
Info su questo ebook
Ci sono i pessimisti, o quantomeno quelli fortemente scettici: l’Intelligenza Artificiale costituisce un pericolo e il suo rapido sviluppo va frenato per salvaguardare il controllo umano sul proprio futuro. E ci sono poi gli ottimisti: non esiste una vera minaccia perché, almeno allo stato attuale, un software digitale non è un organismo e, dunque, non ha desideri né teme di essere privato di qualcosa. Oppure c’è una terza via: siamo di fronte a un tipo di intelligenza profondamente diversa da quella umana, a cui non dovremmo applicare gli stessi parametri.
Quella che oggi chiamiamo “Intelligenza Artificiale Generativa”viene spesso accostata alle nuove forme incentrate sull’interazione linguistica come nel caso del famoso ChatGPT, che stimola la percezione di una macchina creativa, quasi con la capacità di immaginare. Una cosa poi da non dimenticare: l’IA è stata “selezionata” dall’intelligenza umana, e qualunque possano essere gli sviluppi futuri, perfino quelli parzialmente al di fuori del nostro diretto controllo, quel legame tra umano e artificiale resterà anch’esso inscindibile. L’IA generativa è però quasi sfuggente per gli stessi ingegneri che l’hanno programmata; è un vero enigma per chi dovrebbe metterla sotto controllo mediante regole giuridiche e procedure amministrative.
Questo vale, a maggior ragione, per i possibili accordi internazionali: è più facile contare vettori e testate nucleari che quantificare le capacità “generative” di un software che usa magari grandi server dislocati in più luoghi e che accede a un immenso cloud. Parallelamente alla legittima ricerca di accordi tra Stati per la gestione e il controllo delle nuove tecnologie, ci si può aspettare comunque una dinamica competitiva di potenza che potrebbe facilitare un certo bilanciamento, per quanto precario. Basti pensare alla natura profondamente politica dei rischi e delle opportunità legati all’IA in chiave interna agli Stati: la Cina, come molti altri regimi autoritari e illiberali, vede nelle nuove tecnologie digitali soprattutto uno strumento ulteriore di controllo della sua stessa popolazione, mentre i paesi democratico-liberali cercano un delicato equilibrio tra competitività economica, logiche di mercato e tutela dei diritti civili. Queste prospettive radicalmente differenti si riverberano poi sui negoziati internazionali, rendendo difficile un consenso su standard comuni.
Resta il fatto che dovremo riflettere su come limitare i rischi collettivi e tutelare i diritti degli individui. Dal punto di vista normativo l’Unione Europea ha compiuto un primo passo importante, basato sui livelli di rischio dei vari sistemi di IA nelle loro applicazioni al mercato unico. L’industria europea peraltro ha alcune importanti nicchie di eccellenza, ma continua a scontare un divario competitivo rispetto ai grandi attori americani e asiatici. Anche se ci saranno aggiustamenti, precisazioni e aggiornamenti resta l’impressione che, nell’approccio europeo, il tema “rischio” prevalga nettamente su quello delle opportunità. Pur arrivando a diffondere un messaggio pubblico quasi del tutto basato sui pericoli e sul lato oscuro delle nuove tecnologie, non si arriva però a parlare di freno allo sviluppo dell’IA.
Le varie applicazioni dell’IA potrebbero portare alla perdita di controllo, quella che i tecnologi hanno denominato “singolarità”. Per affrontare quest
Leggi altro di Aa.Vv.
Guida 730 facile 2023 Valutazione: 0 su 5 stelle0 valutazioniGuida Bonus casa 2023 Valutazione: 0 su 5 stelle0 valutazioniGuida Università 2022-2023 Valutazione: 0 su 5 stelle0 valutazioniGuida Academy 2023 Valutazione: 0 su 5 stelle0 valutazioniGuida Intelligenza Artificiale Valutazione: 0 su 5 stelle0 valutazioniScuole Superiori - Guida 2023 Valutazione: 0 su 5 stelle0 valutazioniGuida Bonus casa 2022 Valutazione: 0 su 5 stelle0 valutazioniAspenia n. 97: Addio alla Russia Valutazione: 0 su 5 stelle0 valutazioniBusta paga - Guida Valutazione: 0 su 5 stelle0 valutazioniGuida Bilanci 2023 Valutazione: 0 su 5 stelle0 valutazioniAspenia n. 100: Noi Italiani Valutazione: 0 su 5 stelle0 valutazioniGuida Academy 2023 - vol. 2 Valutazione: 0 su 5 stelle0 valutazioniGuida Maturità 2023 Valutazione: 0 su 5 stelle0 valutazioniAspenia 3/2023: Battaglie per l’Europa Valutazione: 0 su 5 stelle0 valutazioniAspenia n. 96: Monete e potere Valutazione: 0 su 5 stelle0 valutazioniStudiare all'estero - Guida 2023 Valutazione: 0 su 5 stelle0 valutazioniGuida ITS/1: Il viaggio del Sole 24 ORE nel sistema formativo dei distretti Valutazione: 0 su 5 stelle0 valutazioniGuida 2024+: Guerre, elezioni, chatbot. Scenari e variabili nell’anno dell’incertezza Valutazione: 0 su 5 stelle0 valutazioniAspenia n. 99 - Estremo Occidente Valutazione: 0 su 5 stelle0 valutazioniGuida I viaggi del Sole 2023: Le mete in Italia e all’estero - i diritti del turista Valutazione: 0 su 5 stelle0 valutazioniI Berlusconi Valutazione: 0 su 5 stelle0 valutazioniGuida Pensioni 2023 Valutazione: 0 su 5 stelle0 valutazioniGuida PNRR digitale: LE NOVITA’ PER IMPRESE, PA E CITTADINI Valutazione: 0 su 5 stelle0 valutazioniPerchè Domenica: Quarant’anni in cerca di domande Valutazione: 0 su 5 stelle0 valutazioniAspenia 4/2023: La debolezza della potenza Valutazione: 0 su 5 stelle0 valutazioniInvestire nell'arte - Guida Valutazione: 0 su 5 stelle0 valutazioniGuida ITS/2: Regione per regione gli iscritti e gli sbocchi lavorativi Valutazione: 0 su 5 stelle0 valutazioniAspenia 2/2023: Troppi o troppo pochi: Stati Uniti e Cina Valutazione: 0 su 5 stelle0 valutazioni
Correlato a Aspenia 1/2024
Ebook correlati
Intelligenza Artificiale. E noi?: Una sfida alla nostra umanità Valutazione: 0 su 5 stelle0 valutazioniGuida Intelligenza Artificiale Valutazione: 0 su 5 stelle0 valutazioniL'Intelligenza Artificiale al servizio della Sicurezza Informatica. Un approccio dinamico Valutazione: 0 su 5 stelle0 valutazioniIntelligenza Artificiale e nuove sfide per un futuro sostenibile: taccuino per un futuro sostenibile Valutazione: 0 su 5 stelle0 valutazioniIl digitale, gli statali e il sindacato. Idee per una nuova politica industriale nel comparto pubblico Valutazione: 0 su 5 stelle0 valutazioniTecnologia Solidale: Donne e uomini che cambiano in meglio il presente Valutazione: 0 su 5 stelle0 valutazioniNei labirinti della tecnologia Valutazione: 0 su 5 stelle0 valutazioniL'intelligenza artificiale di Dostoevskij: Riflessioni sul futuro, la conoscenza, la responsabilità umana Valutazione: 0 su 5 stelle0 valutazioniIntelligenza artificiale: la quarta rivoluzione industriale Valutazione: 0 su 5 stelle0 valutazioniBufale, post-verità, fatti e responsabilità individuale Valutazione: 0 su 5 stelle0 valutazioniIstruzioni vocali Valutazione: 0 su 5 stelle0 valutazioniIncoscienza digitale: La risposta alla rivoluzione digitale, tra innovazione, sorveglianza e postdemocrazia Valutazione: 0 su 5 stelle0 valutazioniDatacrazia: Politica, cultura algoritmica e conflitti al tempo dei big data Valutazione: 0 su 5 stelle0 valutazioniQuale futuro per il giornalismo? Valutazione: 0 su 5 stelle0 valutazioniTransizioni digitali: Sindacato, lavoro privato e pubblico impiego nell'era hi-tech Valutazione: 0 su 5 stelle0 valutazioniL'intelligenza artificiale non esiste: Nessun senso salverà le macchine Valutazione: 0 su 5 stelle0 valutazioniL'Intelligenza Artificiale: capire l'I.A. e le implicazioni dell'apprendimento automatico Valutazione: 0 su 5 stelle0 valutazioniCyber Influence: Propaganda, persuasione e condizionamento psicologico online Valutazione: 0 su 5 stelle0 valutazioniTechnosapiens: Come l'essere umano si trasforma in macchina Valutazione: 0 su 5 stelle0 valutazioniIl diavolo veste tecno Valutazione: 0 su 5 stelle0 valutazioniIntelligenza Artificiale: Arte e Scienza nel Business Valutazione: 0 su 5 stelle0 valutazioniObiettivo Verde: Le emergenze ambientali e le sfide del nuovo giornalismo Valutazione: 0 su 5 stelle0 valutazioniIl codice del futuro: La carta europea dei diritti digitali e il senso dell’innovazione Valutazione: 0 su 5 stelle0 valutazioniIntelligenza artificiale: Etica, rischi e opportunità di una tecnologia rivoluzionaria Valutazione: 0 su 5 stelle0 valutazioniAI nel Business: Guida Pratica all'Uso dell'Intelligenza Artificiale in Diverse Settori Valutazione: 0 su 5 stelle0 valutazioniTecnologia, mon amour Valutazione: 0 su 5 stelle0 valutazioniAlla Frontiera del Futuro: Tecnologia, Umanità e Mondo di Domani Valutazione: 0 su 5 stelle0 valutazioniDedizioni Anno 3 Numero 2: Intelligenza Artificiale, i risvolti etici Valutazione: 0 su 5 stelle0 valutazioniTecnoconsapevolezza e libertà di scelta Valutazione: 0 su 5 stelle0 valutazioniOpen Innovation: la rivoluzione Valutazione: 0 su 5 stelle0 valutazioni
Business per voi
Musicista 2.0: Come guadagnare scrivendo musica per venderla online Valutazione: 0 su 5 stelle0 valutazioniDiritto del lavoro: Sintesi ragionata di Diritto del lavoro per concorsi pubblici e esami universitari Valutazione: 0 su 5 stelle0 valutazioniFisco amico per creativi: Il lavoro del creativo con e senza partita IVA Valutazione: 0 su 5 stelle0 valutazionii segreti del guadagno con gli immobili: Scopri il potenziale degli immobili da rimodernare e come guadagnare rivendendoli Valutazione: 0 su 5 stelle0 valutazioniIl futuro elettrico: Come sopravvivere alla rivoluzione della mobilità Green Valutazione: 4 su 5 stelle4/5Mappe concettuali e mappe mentali: Knowledge Graphic Organizers a supporto dell’apprendimento Valutazione: 0 su 5 stelle0 valutazioniGesuiti: L’Ordine militare dietro alla Chiesa, alle Banche, ai servizi segreti e alla governance mondiale Valutazione: 0 su 5 stelle0 valutazioniChatGPT, la rivoluzione della comunicazione Valutazione: 5 su 5 stelle5/5Mappatura del flusso di valore: Ridurre gli sprechi e massimizzare l'efficienza Valutazione: 0 su 5 stelle0 valutazioni8_Lezioni_di_leadership_militare_per_imprenditori Valutazione: 5 su 5 stelle5/5Creare un sito Web professionale Wordpress: gli strumenti e le strategie per portare la tua attività al successo Valutazione: 0 su 5 stelle0 valutazioniLa ricchezza delle nazioni Valutazione: 0 su 5 stelle0 valutazioniL'Arte delle Tecniche di Negoziazione e della Comunicazione Interpersonale Valutazione: 0 su 5 stelle0 valutazioniTecniche e strategie di Vendita Valutazione: 4 su 5 stelle4/5Guadagnare senza Lavorare: affitto, affiliazioni, pay per click, outsourcing, drop-shipping, trading online, lavoro, gratis, offerte Valutazione: 0 su 5 stelle0 valutazioniUn'abitudine Sopra L'altra: 97 Modi Per Cambiare Vita In Cinque Minuti O Meno Valutazione: 0 su 5 stelle0 valutazioniPensare come le montagne Valutazione: 0 su 5 stelle0 valutazioniLa Potente Tecnica di Comunicazione AIDA - Attenzione, Interesse, Desiderio, Accordo: al telefono e di persona Valutazione: 5 su 5 stelle5/5Contratti e clausole Valutazione: 0 su 5 stelle0 valutazioniIntelligenza emotiva 2.0: Include una edizione online del test di intelligenza emotiva più apprezzato del mondo Valutazione: 0 su 5 stelle0 valutazioniIl gioco interiore nel lavoro: Focus, Apprendimento, Soddisfazione e Mobilità sul posto di lavoro Valutazione: 0 su 5 stelle0 valutazioniI 21 segreti del successo dei Self-Made Millionaires Valutazione: 5 su 5 stelle5/5Il più grande venditore del mondo Valutazione: 4 su 5 stelle4/5I Quadranti del Cashflow: Guida per la libertà finanziaria Valutazione: 5 su 5 stelle5/5Le Nuove To-Do List - Una Guida Semplice Per Fare Realmente Le Cose Importanti Valutazione: 0 su 5 stelle0 valutazioni
Recensioni su Aspenia 1/2024
0 valutazioni0 recensioni
Anteprima del libro
Aspenia 1/2024 - AA.VV.
EDITORIALE Aspenia 1-2024
Marta Dassù e Roberto Menotti
Per addentrarsi nell’universo della cosiddetta intelligenza artificiale
è bene partire proprio dalla sua definizione, che non andrebbe data per scontata. La si chiama così per convenzione, ma senza aver identificato un concetto pienamente condiviso e preciso. Come evidenziano gli articoli di questo numero di Aspenia, ci sono vari angoli d’attacco al problema concettuale – filosofici, tecnici, pragmatici e normativi – nessuno dei quali sembra catturare tutta la complessità del fenomeno. Il punto di fondo è che non è affatto semplice definire l’intelligenza umana (ancor più spesso data per scontata) e dunque ci manca un criterio di riferimento e di comparazione chiaro. Per quanto si usi comunemente questa parola, non sappiamo neppure precisamente cosa sia il pensiero, come sottolineò tra gli altri Alan Turing già nel 1950.
In effetti, dobbiamo convivere con molte ambiguità nel valutare perfino il carattere innovativo dell’aggettivo artificiale
, visto che qualsiasi tecnologia inventata dagli esseri umani è appunto artificiale (non esisteva in natura prima dell’homo sapiens), e in un certo senso si può considerare intelligente
– si pensi al linguaggio, parlato e ancor più scritto. Se con intelligenza si intende anche ogni tipo di ausilio alla capacità di perseguire i fini più alti del genere umano, elaborare scenari o ipotesi, e rendere più efficienti i processi produttivi, allora certamente il linguaggio è di per sé un precursore dell’IA, e non a caso lo scalpore suscitato dalla famiglia di tecnologie a cui appartiene ChatGPT è legato soprattutto alle sue abilità linguistiche.
Da queste considerazioni fondamentali derivano solitamente diversi atteggiamenti verso gli sviluppi pratici delle nuove tecnologie: tecno-pessimisti, tecno-entusiasti, e scettici moderati che si collocano nelle varie zone grigie dello spettro.
Possiamo annoverare tra i pessimisti, o quantomeno tra i fortemente scettici, un autore come Yuval Noah Harari, che spiega in questo numero le ragioni per cui lo sviluppo rapido dell’intelligenza artificiale va frenato per salvaguardare il controllo umano sul proprio futuro.
Ponendosi sostanzialmente sull’altro versante, Maurizio Ferraris sostiene con vigore che l’IA non è propriamente intelligenza – secondo le definizioni più sofisticate di questo termine che a suo parere dovremmo sempre applicare. Non c’è una vera minaccia perché, almeno allo stato attuale, un software digitale non è un organismo e dunque non ha desideri (al di fuori del suo rapporto preimpostato con gli esseri umani) né timore di essere privato di qualcosa.
Altri autori, come Pierluigi Contucci, cercano una sorta di terza via
, concludendo che siamo di fronte a un tipo di intelligenza profondamente diversa da quella umana, a cui non dovremmo applicare gli stessi parametri.
È chiaro comunque che l’intelligenza artificiale è ormai uscita dai convegni tra specialisti e dai libri di filosofi e tecnologi, per invadere con forza dirompente il dibattito pubblico. Forse è bene che sia così, dato l’impatto enorme che sta già avendo sull’economia, sulla società, e indirettamente sulla politica; ma certo la grande diffusione di un concetto confonde i termini della discussione, li rende meno netti, e interagisce con le percezioni diffuse. Del resto, la parola generativa
, che viene spesso accostata alle nuove forme di IA incentrate sull’interazione linguistica come il famoso ChatGPT, stimola la percezione di una novità davvero rivoluzionaria, cioè una macchina creativa, quasi con la capacità di immaginare. E dunque porta questi software, inevitabilmente, a essere comparati alle facoltà dell’intelletto umano: gli esseri umani ritengono infatti, a torto o a ragione, che proprio le caratteristiche creative e immaginative siano un loro tratto unico e distintivo.
Tali quesiti, apparentemente astratti, sono importanti perché hanno conseguenze tangibili. I due estremi del problema (questione concettuale-filosofica e questione pratico-tecnologica, potremmo dire) finiscono per toccarsi, chiudendo un cerchio ideale che proviamo qui a tracciare.
Possiamo, ad esempio, guardare con attenzione al tentativo finora più avanzato di dare un quadro normativo alla questione IA, cioè la legislazione recentemente adottata dall’Unione Europea (analizzata nell’articolo di Giusella Finocchiaro). Il cosiddetto AI Act
contiene una definizione, sostanzialmente tecnica, che ci offre un utile punto di partenza (all’articolo 3): Il sistema di intelligenza artificiale è un sistema basato su macchine progettato per funzionare con diversi livelli di autonomia e che può mostrare adattività dopo l’implementazione e che, per obiettivi espliciti o impliciti, deduce, dall’input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.
Siamo dunque di fronte a un soggetto
in qualche misura autonomo, adattabile, in grado di fornire output variegati, che alla fine ha una capacità di influenzare l’ambiente (fisico o virtuale); non deve stupire se la cosa provochi molti quesiti e stimoli anche una certa angoscia per il futuro. Insomma, è come se alla classica domanda se esistano altre forme di vita intelligenti
nell’universo dovremmo ora rispondere: certamente sì. Su un piano più pratico e immediato, vengono fissati alcuni principi fondanti in un’ottica democratico-liberale, come la massima tutela dell’individuo nei settori più direttamente intrusivi della sfera personale, come la salute, le libertà civili (da cui il divieto di social scoring
e i limiti alla sorveglianza), i servizi pubblici di base. Anche i diritti del consumatore vengono rafforzati, ampliando all’IA gli obblighi per le aziende di specificare quali strumenti sono utilizzati nel fornire un prodotto o servizio. Fin qui, siamo a un’estensione, dettata dal buon senso e dalla cautela, di pratiche e norme già applicate in altri campi. Restano alcuni legittimi dubbi sul settore della giustizia – dal quale non è del tutto escluso l’utilizzo dell’IA sebbene sotto diretta supervisione umana – e della difesa – di fatto esclusa, al momento. Inoltre, le regole più stringenti per i produttori si applicano soltanto alle forme più avanzate di IA, e qui si potranno aprire contenziosi di non facile risoluzione. Anche il concetto di proibire le pratiche di manipolazione del comportamento umano
appare alquanto generico e perfino vago: si pensi al marketing, che da sempre consiste in una sorta di manipolazione, magari gentile
.
In breve, l’UE ha compiuto un primo passo importante, basato sui livelli di rischio dei vari sistemi di IA nelle loro applicazioni al mercato unico. Ma un impianto legislativo così complesso dovrà per forza subire aggiustamenti, precisazioni e aggiornamenti. E resta l’impressione che, nell’approccio europeo, il tema rischio
prevalga nettamente su quello delle opportunità – che richiederebbe forti investimenti comuni.
Una valutazione d’insieme è quindi possibile: questo quadro normativo non sembra in grado di frenare realmente lo sviluppo dell’IA, come alcuni temevano e altri auspicavano, ma certo diffonde un messaggio pubblico quasi del tutto fondato sui pericoli, sul lato oscuro delle nuove tecnologie. Una legislazione del genere non crea veri ostacoli allo sviluppo industriale del settore, anche se neppure sostiene la competitività europea – che è poi il problema di fondo, perché è difficile imporre regole se non si dispone delle aziende che continuano a innovare le tecnologie. L’industria europea ha effettivamente alcune importanti nicchie di eccellenza (come scrive Luca De Biase), ma continua a scontare un divario competitivo rispetto ai grandi attori americani e asiatici.
In ogni caso, emergono almeno tre ordini di problemi che preoccupano non solo i regolatori, ma anche gli esperti del versante tecnologico, i filosofi e chi si occupa di questioni etiche, e infine l’opinione pubblica in senso ampio nella misura in cui è comunque investita dagli effetti economici e sociali delle nuove tecnologie.
Aspenia 1-2024Prima preoccupazione: il modello di business, mutuato dalle tecnologie digitali già consolidate e che in sostanza poggia sull’accesso a grandi masse di dati relative agli utenti (big data) – che sono forniti volontariamente dagli utenti stessi. Sebbene vi siano alcune importanti differenze rispetto agli ormai tradizionali motori di ricerca e ai social media, rimane la tendenza a una forte concentrazione di quote di mercato grazie alla disponibilità di massicce risorse finanziarie da investire che a sua volta si traduce in un vantaggio competitivo, con la capacità di agganciare gli utenti a quello che diventa uno standard digitale dominante. In pratica, i giganti digitali creano delle porte di accesso a prodotti e servizi che gli utenti devono necessariamente attraversare. Il modello, che possiamo forse definire del software oligopolista
, sembra ora estendersi alle varie applicazioni dell’IA, che possono puntare moltissimo sulla raccolta pubblicitaria, visto che questa è favorita in modo decisivo dagli algoritmi di profilazione.
I giganti digitali sono ormai ben consapevoli del loro problema di immagine e reputazione, al punto tale da aver fatto alcuni tentativi di grande impatto mediatico, come ad esempio il recente documento firmato da venti tra le maggiori aziende del settore, il Tech Accord to Combat Deceptive Use of AI in 2024 Elections
che è stato annunciato in occasione della Munich Security Conference di febbraio. Questa e altre iniziative simili puntano a recuperare parte della credibilità perduta da quando il grande pubblico ha la netta percezione che in fondo la proliferazione di fake news e disinformazione di vario tipo sia un tratto distintivo (e molto redditizio) del modello di business, e non un semplice effetto collaterale
.
Si può anche notare una caratteristica ricorrente nelle startup del settore, che si ripercuote sul loro modello di crescita perfino quando diventano grandi aziende quotate: i loro flussi finanziari sono basati sulle proiezioni del valore futuro, assai più che sui profitti. Ora, se questo è piuttosto normale e comprensibile per una piccola impresa che muove i primi passi, lo è meno per un player che conquista grosse fette di mercato in un settore dinamico e strategico come quello digitale, e in particolare dell’IA. Come minimo, è opportuno porsi qualche domanda sulla solidità e affidabilità di un comparto industriale che, per attirare gli enormi investimenti di cui necessita, è quasi condannato a proiettare sempre e comunque tassi di crescita che in altri settori sarebbero considerati straordinari e perfino poco realistici. Insomma, in un contesto del genere il rischio concreto di bolle
ricorrenti sembra semplicemente strutturale.
Il modello di business ha poi particolare rilevanza per il rapporto tra produttori e consumatori, o piattaforme e utenti. Qui si è finora osservato un fenomeno oscillatorio
, una sorta di pendolo per cui le spinte al decentramento prevalgono nelle prime fasi in cui crescono le reti digitali, ma proprio il successo delle reti consente ad alcuni attori di concentrare una tale massa di dati da diventare dominanti sui mercati – dove si commercializzano i servizi che viaggiano lungo le vie digitali.
L’esito paradossale è che, in molti casi, tecnologie concepite per essere vantaggiose per la diffusione del potere negoziale e l’inclusione si sono rivelate invece funzionali alla concentrazione e perfino a forme di discriminazione. A esserne danneggiato è non soltanto il consumatore generico, ma ancor più chi non ha competenze sufficienti, e dunque alcune categorie di lavoratori.
Ci sono antidoti possibili, a cominciare dalla regolamentazione nel classico solco della tutela della concorrenza. Altrettanto importante è una visione umanistica della scienza (della scienza pura, prima ancora che di quella applicata), fondata sull’assunto che il metodo scientifico scaturisce proprio dal cervello umano in quanto modo specifico di guardare alla natura
(essa stessa una definizione culturale e dunque, in buona misura, una creazione umana). È un campo in cui Aspen Italia lavora ormai da diversi anni, insieme ad Aspen US, con un programma specifico sull’importanza dell’investimento nella scienza pura
.
Seconda preoccupazione di fondo: la competizione globale. È fuor di dubbio che l’IA produce un’accelerazione dei trend già in atto verso un sempre maggiore intreccio delle tecnologie digitali con le capacità di usare la coercizione – sia sotto forma di forza cinetica, sia di raccolta e manipolazione di dati a fini strategici. È stato già riconosciuto, perfino da un paese difficile come la Repubblica Popolare Cinese, che l’IA prefigura un salto di qualità e che – come recita il comunicato finale della conferenza organizzata dal governo britannico nel novembre 2023, il Bletchley Park Agreement, firmato anche dai rappresentati scientifici di Pechino – può porre una minaccia esistenziale per l’umanità, se finisse per andare fuori controllo. Proprio questo esito diventa ovviamente più probabile in un contesto di competizione sfrenata tra le maggiori potenze, e si pone dunque l’esigenza di una forma di controllo degli armamenti
in un settore di per sé multi-uso e non intrinsecamente militare.
Ritornano così in auge, quasi inesorabilmente, i classici scenari codificati dagli studi strategici, per cui all’ipotesi di gestire la conflittualità in modo consensuale (appunto, la via degli accordi formalizzati in trattati internazionali) si contrappone – e spesso si accompagna – il meccanismo dell’equilibrio di potenza (cioè, un precario bilanciamento tra forze). Il problema centrale, proprio come negli schemi tradizionali della competizione strategica, è impedire che si inneschi una corsa agli armamenti e una spirale fuori controllo fino a un fatale errore di calcolo
e a uno scontro militare. In breve, le ben note teorie sulla deterrenza e sul controllo degli armamenti tornano utili, ma vanno certamente aggiornate e adattate alle particolari circostanze tecnologiche dei prossimi anni. La sfida principale, in tal senso, è che, nonostante i tentativi dei governi di mantenere o ristabilire il controllo sull’innovazione e la sperimentazione, sono gli attori privati a spingersi verso le frontiere della conoscenza applicata. Il CEO di Google, Sundar Pichai, ha recentemente sostenuto l’esigenza di proseguire senza sosta nello sviluppo dell’IA anche in campo militare perché altrimenti altri lo faranno comunque (a scopi offensivi), lasciando le società democratiche meno bellicose senza la capacità di difendersi. Messa in questi termini, è una logica senza via d’uscita.
Si pongono quindi almeno due problemi. Il primo è la natura profondamente politica dei rischi e delle opportunità legati all’IA in chiave interna agli Stati: la Cina, come molti altri regimi autoritari e illiberali, vede nelle nuove tecnologie digitali soprattutto uno strumento ulteriore di controllo della sua stessa popolazione, mentre i paesi democratico-liberali cercano un delicato equilibrio tra competitività economica, logiche di mercato e tutela dei diritti civili. Queste prospettive radicalmente differenti si riverberano poi sui negoziati internazionali, rendendo difficile un consenso su standard comuni.
Il secondo problema è l’accesso alle competenze per comprendere le questioni tecniche, prima di poterle regolamentare o comunque gestire da parte delle agenzie governative – chiunque ricordi le audizioni di Mark Zuckerberg al Congresso americano si sarà reso conto che, in vari passaggi, i rappresentanti eletti dal popolo non avevano idea di cosa dicesse davvero il fondatore di Facebook/Meta, quasi che stessero usando due lingue diverse.
In sostanza, l’IA generativa è quasi sfuggente per gli stessi ingegneri che l’hanno programmata; è un vero enigma per chi dovrebbe metterla sotto controllo mediante regole giuridiche e procedure amministrative. Questo vale, a maggior ragione, per i possibili accordi internazionali: è più facile contare vettori e testate nucleari che quantificare le capacità generative
di un software che usa magari grandi server dislocati in più luoghi e che accede a un immenso cloud.
C’è infine una considerazione ancora più generale da fare sulle dinamiche interstatuali del potere nell’era dell’IA: come in passato alcuni teorici delle relazioni internazionali hanno ritenuto che fosse comunque preferibile un assetto multipolare
, perché più flessibile rispetto a uno bipolare
o egemonico
, così oggi ci sono dei potenziali vantaggi in un assetto che presenti molteplici intelligenze: è plausibile che queste finirebbero per controbilanciarsi a vicenda, scongiurando il peggiore degli scenari, cioè quello di una singola superintelligenza
– appunto, la temuta singolarità che porrebbe fine al genere umano per come lo intendiamo.
Concludendo su questo punto: parallelamente alla legittima ricerca di accordi tra Stati per la gestione e il controllo delle nuove tecnologie, possiamo aspettarci comunque una dinamica competitiva di potenza che potrebbe facilitare un certo bilanciamento, per quanto precario.
Aspenia 1-2024Il nostro cerchio ideale si chiude così con la terza preoccupazione causata dalle varie applicazioni dell’IA, sullo sfondo di tutte le altre: una perdita di controllo – quella che i tecnologi hanno denominato singolarità
. Per affrontare questa sfida davvero esistenziale pensiamo che si debba evitare un atteggiamento apocalittico o disfattista, partendo invece dalla questione fondamentale, cioè – come accennato all’inizio – dal concetto stesso di intelligenza
: tutt’altro che univoco e condiviso perfino per i neurobiologi, oltre che per psicologi e filosofi.
Come ci ricorda ancora Maurizio Ferraris, il termine intelligenza artificiale
è una metafora, o al più un’approssimazione non del tutto soddisfacente e comunque non precisa. Sappiamo infatti che l’intelligenza umana è sociale, e non soltanto individuale; ne deriva che storicamente il maggiore punto di forza evolutivo della nostra specie è stata la cultura, cioè la capacità di tramandare le conoscenze e dunque di edificare nuove idee sulle idee sviluppate da altri individui.
Come ha scritto un altro filosofo e storico delle scienze biologiche, Patrick Tort, si può così affermare che per l’umanità In termini semplificati, la selezione naturale seleziona la civilizzazione
¹, una dinamica che consente di tenere assieme la singolarità umana
, il nostro inscindibile legame con i fattori biologici e l’insieme della natura. Nel riflettere ora sull’avvento della cosiddetta intelligenza artificiale
non dovremmo allora dimenticare che questa è stata selezionata
dall’intelligenza umana, e che qualunque saranno i suoi sviluppi, perfino quelli parzialmente al di fuori del nostro diretto controllo, quel legame tra umano e artificiale resterà anch’esso inscindibile.
C’è un altro aspetto dell’IA come pericolosa controparte dell’umanità che non regge a un’osservazione più attenta: nello sviluppare i software che interagiscono e parlano
con gli esseri umani li si è dotati di un solo tipo di intelligenza: quella razionale. Ma sappiamo bene che, data la sua struttura biologica, l’essere umano elabora gli stimoli dell’ambiente utilizzando anche le componenti più antiche e rettiliane
del suo cervello. È questo mix che conferisce a Homo Sapiens altri tipi di intelligenza, che possiamo chiamare istintivi ed emotivi. Proprio l’emotività, compreso ovviamente il sentimento della paura, condiziona a volte il nostro atteggiamento verso l’evoluzione in corso dell’IA nelle sue varie forme. Non c’è nulla di strano: in fondo siamo esseri umani.
Al netto dei timori fondati, ci sono comunque enormi opportunità nelle punte più avanzate delle nuove tecnologie digitali, che si sta già cercando di mettere a fuoco e sfruttare mentre riflettiamo su come limitare i rischi collettivi e tutelare i diritti degli individui. Pensiamo alla medicina, all’ambiente, alla gestione e prevenzione dei disastri, all’esplorazione spaziale. C’è poi un impiego quasi banale dell’IA che tenderà probabilmente a diventare una semplice abitudine: quello di un assistente instancabile per risparmiare frammenti della risorsa scarsa più preziosa che esista, ossia il tempo. È proprio quanto è accaduto con il personal computer e poi in modo macroscopico con l’ubiquo smartphone, che ci accompagna ovunque per fornirci dati, posizioni sul GPS, contatti con i nostri amici, l’opportunità di scattare foto, e soddisfare delle curiosità.
In ultima analisi, coglie nel segno chi osserva che le nuove macchine potrebbero sostituire le persone; ma questo vale per qualsiasi tecnologia, visto che l’invenzione di strumenti e metodi per usarle è sempre stato un modo per moltiplicare la limitata energia fisica di cui dispone ogni singolo individuo. E punta comunque ad ampliare le possibilità umane e ad allargare gli orizzonti.
Dunque, anche l’IA sottrarrà alcuni compiti alle persone in carne e ossa (come è accaduto per il telaio a vapore o per le calcolatrici portatili) ma si tratterà appunto di compiti
e non certo di diritti, opportunità, desideri, progetti.