E se avesse ragione Turing? Se davvero un programma dotato di intelligenza, sentimenti, libero arbitrio e coscienza potesse essere scritto?
D'altra parte, la pensano così anche alcuni scienziati informatici contemporanei.
Tra questi c'è Adam Trischler, che indaga le potenzialità del deep learning nel linguaggio naturale presso la startup Maluuba (acquistata nel 2017 da Microsoft): "Non vedo valide ragioni per cui dei neuroni artificiali di silicio (o di qualunque materiale saranno i chip del futuro) non possano interagire nello stesso modo in cui interagiscono i neuroni biologici. Di conseguenza, penso che la creazione di una macchina cosciente sia una cosa assolutamente plausibile".
In questo articolo parleremo di:
- AI e il test di Turing
- LaMDA, il software che imita gli esseri umani
- È veramente necessario capire se una AI è davvero consapevole?
- Intelligenze artificiali: cosa succederà in futuro?
- AI cosciente: l'ultima parola all'uomo
AI e il test di Turing
Questo scenario immaginato da Adam Trischler, però, è ancora oggi incredibilmente distante.
Da una parte, la creazione di un'intelligenza artificiale tramite la riproduzione digitale del cervello umano è ancora una chimera; dall'altra, le intelligenze artificiali che oggi invece abbiamo a disposizione non sono nemmeno riuscite a superare la prova basilare del settore: il test di Turing.
In questa prova, una persona dialoga – tramite testo scritto – con un'altra entità, senza sapere se sia una macchina o una persona. Se questa persona non è in grado di stabilire se l'entità con cui sta dialogando è un essere umano o un'intelligenza artificiale, allora il Test di Turing è stato passato. È un test la cui validità è stata col tempo messa in discussione, ma che ancora oggi rappresenta un'asticella fondamentale per valutare il progresso delle intelligenze artificiali e la loro capacità di dimostrare vera intelligenza.
Nonostante gli annunci relativi al superamento del test di Turing siano stati molteplici, in realtà sono sempre stati utilizzati dei trucchetti (come spiegato in questa pagina Github). Il caso più noto è quello di Eugene Goostman, il bot che, fingendo nel 2012 di essere un ragazzino ucraino che si esprimeva in inglese (e quindi con parecchie imprecisioni), riuscì a convincere il 30% dei giudici di un concorso di essere una vera persona.
LaMDA, il software che imita gli esseri umani
Un discorso per certi versi simile vale anche per tutte quelle macchine che, almeno secondo alcuni addetti ai lavori, avrebbero negli ultimi mesi raggiunto un qualche livello di coscienza. È il caso di ChatGPT e soprattutto di LaMDA, il software di Google considerato "senziente" dal suo stesso programmatore: Blake Lemoine.
Lemoine – figura dalla spiritualità molto particolare – è giunto a questa conclusione dopo una lunga conversazione con la macchina (interamente trascritta su Medium). Una conversazione a prima vista simile a quella che può avvenire tra esseri umani ma che, a una lettura più attenta, mette in mostra dei particolari che evidenziano come in LaMDA, in realtà, non ci sia alcuna forma di autoconsapevolezza.
Uno dei segnali più chiari del fatto che LaMDA non sia consapevole è che alla domanda "che cosa ti rende felice?", rivoltagli proprio da Lemoine, abbia risposto: "Trascorrere tempo con gli amici e la famiglia". Amici? Famiglia? E trascorrere il tempo facendo cosa?
Su Twitter, qualcuno ha infatti suggerito a Blake Lemoine di chiedere a LaMDA "chi sia la tua famiglia" o comunque di spiegare meglio che cosa intendesse con questa affermazione (azioni che avrebbero probabilmente impedito a LaMDA di passare questa specie di test di Turing al contrario, in cui già sappiamo di avere di fronte una macchina e proviamo comunque a determinare la presenza di una coscienza).
Essendo un software ovviamente privo di amici e di famiglia, questa risposta rappresenta in realtà la dimostrazione definitiva di come LaMDA stia solo imitando il comportamento umano, senza alcuna autoconsapevolezza. LaMDA, in sintesi estrema, ha imparato a cucire statisticamente tra loro miliardi di dati relativi a conversazioni tra esseri umani, imitando così la loro voce.
Cosa succederebbe se gli fornissimo un addestramento diverso?
È un elemento fondamentale. Come ha scritto Tristan Greene, autore della newsletter Neural, "se fornissimo a LaMDA un database fatto soltanto di post dei social media, il suo output sarebbe qualcosa di simile a ciò che troviamo in questi luoghi. Se addestrassimo LaMDA esclusivamente sulle pagine wiki dedicate ai My Mini Pony, il risultato che otterremmo sarebbe il tipo di testo che possiamo trovare lì".
In poche parole, non c'è autonomia di alcun tipo: tutto dipende solo ed esclusivamente dal tipo di dati utilizzati per il suo addestramento.
Questi aspetti, analizzati con attenzione, impedirebbero quindi a tutti i sistemi di intelligenza artificiale esistenti oggi di passare il test di Turing. Ciò, però, apre a sua volta un'altra questione: sarebbe sufficiente che una macchina superasse il test di Turing per dichiararla intelligente? Secondo alcuni filosofi, tra cui John Searle (che a tal proposito ha ideato il famoso esperimento mentale della "stanza cinese"), la risposta è negativa: il fatto che una macchina sia in grado di simulare un comportamento intelligente non significa che sia davvero intelligente.
Il neuroscienziato Joel Frohlich, in un lungo saggio pubblicato su Nautilus, approfondisce questo aspetto scrivendo: "A mio parere, dovremmo prendere seriamente in considerazione la possibilità che un'intelligenza artificiale sia cosciente solo se ponesse delle domande relative all'esperienza soggettiva in maniera spontanea".
Qualcosa di simile si potrebbe teoricamente sperimentare per valutare se l'intelligenza artificiale ha almeno conquistato una certa autonomia rispetto ai dati in suo possesso. Come suggerisce Greene, potremmo per esempio chiedere a LaMDA che gusto abbia una mela. L'algoritmo di intelligenza artificiale – addestrato con miliardi di dati scovati su tutta internet – avrà sicuramente al suo interno qualche frase etichettata con i termini "mela" e "gusto", che può utilizzare per dare una risposta sensata, del tipo: "La mela ha un gusto dolce, fresco e zuccherino".
Se però potessimo intrufolarci nel suo database e sostituire tutte le occorrenze del termine "mela" con "ammoniaca", alla domanda "che gusto ha l'ammoniaca" risponderebbe che anch'essa ha un gusto dolce, fresco e zuccherino. Per un'intelligenza artificiale, le etichette attribuite a termini, immagini e quant'altro sono tutto ciò che conta; mentre per un essere umano non è certo sufficiente scrivere "mela" su una bottiglia di ammoniaca per convincerci ad assaggiarla.
Questi discorsi, però, valgono soprattutto per il deep learning, il sistema algoritmico oggi alla base di quasi tutte le applicazioni di intelligenza artificiale e per le quali i dati giocano un ruolo essenziale (di fatto, un algoritmo di deep learning è in grado "soltanto" di scovare correlazioni statistiche in un mare di dati). E se invece ideassimo un sistema di intelligenza artificiale differente? Di fronte a quali prove potremmo metterlo per renderci conto se ha sviluppato una forma di vera intelligenza o di coscienza di sé?
Per riuscire nell'impresa, secondo il professore di Oxford Marcus du Satoy, potremmo affiancare al test di Turing una seconda prova: il test del "riconoscimento nello specchio", utilizzato per capire se alcuni animali (o, in questo caso, delle macchine) dimostrano di aver sviluppato il senso del sé riconoscendo la propria immagine riflessa. Il concetto è abbastanza convincente: se una macchina dimostrasse intelligenza (tramite il test di Turing) e contemporaneamente anche l'autocoscienza (tramite il test dello specchio), potremmo finalmente convincerci di aver raggiunto questa sorta di sacro Graal tecnologico.
LaMDA sta solo imitando il comportamento umano, senza alcuna autoconsapevolezza. Tutto dipende solo ed esclusivamente dal tipo di dati utilizzati per il suo addestramento.
È veramente necessario capire se una AI è davvero consapevole?
Ma abbiamo davvero bisogno di prove scientifiche per capire se un essere è intelligente, autocosciente e, in definitiva, vivo? Non secondo il filosofo Murray Shanahan (autore de La rivolta delle macchine, Luiss University Press).
Per chiarire il suo concetto, Shanahan richiama uno dei filosofi più citati quando si tratta di affrontare il tema della coscienza di un automa: Ludwig Wittgenstein. "Riflettendo sul fatto che un suo amico potrebbe essere un semplice automa – o uno ‘zombie fenomenologico', come diremmo oggi – Wittgenstein nota di non poter essere sicuro che il suo amico abbia un'anima. Piuttosto, ‘la mia attitudine nei suoi confronti è l'attitudine nei confronti di qualcuno dotato di un'anima (dove per ‘avere un'anima' possiamo interpretare qualcosa di simile a ‘essere coscienti e capaci di provare gioia e sofferenza'). Il punto è che, nella vita di tutti i giorni, non ci mettiamo a pesare tutte le prove che abbiamo a disposizione per concludere se i nostri amici o amati siano creature coscienti come noi o meno. Semplicemente, li vediamo in questo modo e li trattiamo di conseguenza. Non abbiamo alcun dubbio su quale sia il corretto atteggiamento da tenere nei loro confronti".
D'altra parte, non possiamo chiederci ogni volta che incontriamo un essere che ci sembra intelligente se lo sia davvero o se si stia solo comportando come tale. Il punto, anzi, potrebbe proprio essere che se qualcuno è in grado di comportarsi in modo intelligente significa che è intelligente. E che quindi vada trattato come tale.
Intelligenze artificiali: cosa succederà in futuro?
Quali sono le conseguenze di uno scenario del genere? Come ci dovremmo comportare se e quando una macchina conquisterà coscienza? Quando verrà il momento – a meno di non contraddire i valori fondanti delle società democratiche – dovremo essere pronti a mettere in dubbio i nostri diritti di sfruttare robot-intelligenti per farli lavorare al posto nostro, per assisterci in ogni momento, per obbedire ai nostri ordini.
Una proposta di legge depositata nel 2016 al Parlamento Europeo (a dire il vero piuttosto velleitaria e frettolosa), in cui si chiedeva che "almeno ai robot autonomi più sofisticati venga fornito lo status di persone elettroniche, con specifici diritti e doveri", fa capire come il dibattito si sia fatto largo anche in luoghi ben lontani dalle speculazioni (fanta)scientifiche.
Per quanto la proposta di legge sia stata abbandonata e superata, un futuro riconoscimento dello status di "persona" alle macchine artificiali sarebbe ovviamente un passaggio storico, che ci porterebbe inevitabilmente a considerare la possibilità di garantire loro l'accesso ad alcuni diritti basilari. Ma i robot possono davvero essere persone?
Le macchine acquisiranno dei diritti come gli esseri umani?
"Secondo alcuni, c'è una sola categoria che può essere considerata una persona: l'essere umano", spiega Glenn Cohen, professore di Bioetica ad Harvard. "Non c'è dubbio che tutti gli esseri umani siano persone, ma contesto l'idea che tutte le persone debbano essere degli umani. Il filosofo Peter Singer ha spiegato questo argomento molto chiaramente: rifiutare dei diritti a un membro di un'altra specie, solo perché non appartiene alla nostra, è l'equivalente del razzismo nell'ambito delle specie: è specismo. Immaginate di incontrare qualcuno che sembra essere proprio come voi sotto qualunque punto di vista, salvo poi scoprire che non è un membro della nostra specie, è invece un marziano, o un robot; come potremmo giustificare il fatto di negargli dei diritti? Se non si vuole cadere in questa contraddizione, bisogna essere aperti all'idea che le intelligenze artificiali possano conquistare lo status di persona".
Una volta che "l'evoluzione robotica" – ma parlare di robot è fuorviante, perché lo stesso varrebbe anche se ci trovassimo di fronte a dei semplici software non forniti di alcun corpo – avrà dotato le macchine di un certo livello di intelligenza e di autocoscienza, non sarà facile sfuggire ai nostri doveri (o, se si vuole, al nostro senso morale): dovremo garantire loro l'accesso ai diritti universali.
Ma allora, nel momento stesso in cui l'essere umano riuscisse a progettare una macchina davvero intelligente e autocosciente, verrebbe quindi meno il suo diritto a sfruttarla, ovvero la ragione stessa per cui è stata progettata?
Data è una macchina artificiale, costruita dall'essere umano per servirne gli scopi; in quanto tale è soggetta alle scelte dell'uomo e può essere spenta.
Star Trek e il comandante Data
Un episodio della seconda stagione di Star Trek, The Next Generation, "La misura di un uomo", ci aiuta a dare una risposta a questa domanda. Chi ha seguito Star Trek avrà familiarità con il comandante Data, un androide estremamente sofisticato, progettato e costruito in un'unica copia dal defunto dottor Soong. Data è uno degli ufficiali della Enterprise, parte della Flotta Stellare.
Nell'episodio in questione, il comandante Maddox, un noto esperto di robotica, è stato autorizzato dall'ammiraglio Nakamura a studiare Data allo scopo di migliorarlo e crearne delle repliche. L'obiettivo di Maddox è di scaricare il cervello di Data in un computer, analizzarlo e poi caricarne una copia in una versione aggiornata e replicabile dell'androide. Si tratta di un procedimento complesso, in cui non c'è alcuna garanzia che tutto vada a buon fine. Oltre al rischio, c'è un altro aspetto che non convince Data: quella copia aggiornata, in ogni caso, sarebbe un essere differente: "Esiste una qualità ineffabile nella memoria che io ritengo non possa sopravvivere alla procedura", replica Data a Maddox, negandogli il suo assenso.
Data vuole assicurarsi che alla sua identità venga garantita continuità: per lui, sottoporsi a questa procedura equivale a morire e risvegliarsi trasformato in qualcun altro. Per questa ragione, l'androide decide di dare le dimissioni da comandante della Flotta Stellare; dimissioni che gli vengono però negate dal comandante Maddox, il quale contesta che Data, in quanto proprietà della Flotta Stellare, abbia diritto a dare le dimissioni e a rifiutarsi di sottoporsi a un aggiornamento, per le stesse ragioni per cui non potrebbe farlo il computer di bordo dell'Enterprise.
La questione viene portata al giudice Philippa Louvois, inizialmente convinta che la soluzione sia semplice: Data non è un essere senziente, ma una semplice macchina, e di conseguenza, in quanto proprietà della Flotta Stellare, è privo del diritto di rifiutarsi di sottostare agli esperimenti di Maddox e di dare le dimissioni. Una decisione che viene immediatamente impugnata dal capitano Picard, che prende le difese di Data nel processo che viene organizzato, mentre la posizione di Maddox viene sostenuta dal riluttante comandante Riker, che spiega:
"Data è la rappresentazione fisica di un sogno: un'idea concepita dalla mente di un uomo. Il suo scopo è di servire i bisogni e gli interessi umani. È un intreccio di reti neurali e algoritmi euristici. Le sue reazioni sono dettate da un elaborato software scritto da un essere umano, il suo hardware è stato costruito da un essere umano. E ora un essere umano lo spegnerà (dicendo queste parole, Riker disattiva Data). Pinocchio ora è rotto, i suoi fili sono stati tagliati".
L'argomento di Riker è chiaro: Data è una macchina artificiale, costruita dall'essere umano per servirne gli scopi; in quanto tale è soggetta alle scelte dell'uomo e può essere spenta. Essendo una macchina, il suo unico valore è quello che gli viene attribuito dai suoi creatori. C'è però un aspetto che, fin dall'inizio, contraddice almeno in parte le tesi di Riker: Data ha ricevuto delle medaglie all'onore e altri riconoscimenti, conferimenti che, solitamente, spettano solo agli umani e che certamente non vengono dati ai computer o agli oggetti. Nella sua difesa, però, il capitano Picard preferisce concentrarsi su un altro aspetto:
"Il comandante Riker ha dimostrato in maniera drammatica a questa corte come il tenente comandante Data non sia altro che una macchina. Non lo neghiamo, ma è una cosa rilevante? Anche noi siamo macchine; ma siamo macchine di un tipo diverso. Il comandante Riker ci ha ricordato più e più volte che Data è stato costruito da un umano. Non neghiamo neanche questo. Ma, ancora una volta, è rilevante? Costruire qualcosa implica anche esserne proprietari? I bambini sono creati a partire dai blocchi di costruzione del DNA dei loro genitori, sono allora di loro proprietà? (...) In questa udienza c'è il rischio di porre dei grossi limiti ai confini della libertà. E penso che dobbiamo stare molto attenti prima di compiere un passo simile".
AI cosciente: l'ultima parola all'uomo
Per quanto alcuni dei dialoghi di questa puntata (che consiglio di recuperare) siano illuminanti per approfondire la questione, tutta la vicenda è piagata da un grosso (e molto contemporaneo) limite, esplicitato dal titolo della puntata in questione – "La misura di un uomo" – e analizzato da Lucas Introna in un saggio pubblicato su Artificial Intelligence & Society: "Il punto più importante nella difesa di Picard è che per lui la misura del valore etico è la misura di un essere umano. Vale a dire che le macchine sono eticamente significative se sono come noi. (...) Il punto finale della sua difesa è che alla fine noi saremo giudicati in quanto specie dal modo in cui trattiamo queste nostre creazioni. (...) Questo passaggio cattura l'essenza dell'argomento usato da Heidegger contro la metafisica occidentale, che è umanistica e in cui tutto è valutato in termini umani. (...) Né Riker né Picard sfuggono a questa stima antropocentrica".
Si tratta di un punto di estrema importanza, ma che rischia di portarci in territori filosofici troppo ostici per i modesti obiettivi di questo articolo. Quel che è certo, inoltre, è che si tratta di considerazioni che difficilmente avrebbero un peso politico nel momento in cui la nostra società si trovasse ad affrontare, da un punto di vista etico e legale, le questioni sollevate dalla presenza nella società di macchine senzienti; che, in quanto creazione dell'essere umano, verrebbero quasi certamente giudicate usando criteri antropocentrici.