È davvero possibile che una AI diventi cosciente?

È veramente necessario capire se una AI è davvero consapevole?

Ma abbiamo davvero bisogno di prove scientifiche per capire se un essere è intelligente, autocosciente e, in definitiva, vivo? Non secondo il filosofo Murray Shanahan (autore de La rivolta delle macchine, Luiss University Press).

Per chiarire il suo concetto, Shanahan richiama uno dei filosofi più citati quando si tratta di affrontare il tema della coscienza di un automa: Ludwig Wittgenstein. “Riflettendo sul fatto che un suo amico potrebbe essere un semplice automa – o uno ‘zombie fenomenologico’, come diremmo oggi – Wittgenstein nota di non poter essere sicuro che il suo amico abbia un’anima. Piuttosto, ‘la mia attitudine nei suoi confronti è l’attitudine nei confronti di qualcuno dotato di un’anima (dove per ‘avere un’anima’ possiamo interpretare qualcosa di simile a ‘essere coscienti e capaci di provare gioia e sofferenza’). Il punto è che, nella vita di tutti i giorni, non ci mettiamo a pesare tutte le prove che abbiamo a disposizione per concludere se i nostri amici o amati siano creature coscienti come noi o meno. Semplicemente, li vediamo in questo modo e li trattiamo di conseguenza. Non abbiamo alcun dubbio su quale sia il corretto atteggiamento da tenere nei loro confronti“.

D’altra parte, non possiamo chiederci ogni volta che incontriamo un essere che ci sembra intelligente se lo sia davvero o se si stia solo comportando come tale. Il punto, anzi, potrebbe proprio essere che se qualcuno è in grado di comportarsi in modo intelligente significa che è intelligente. E che quindi vada trattato come tale.

Intelligenze artificiali: cosa succederà in futuro?

Quali sono le conseguenze di uno scenario del genere? Come ci dovremmo comportare se e quando una macchina conquisterà coscienza? Quando verrà il momento – a meno di non contraddire i valori fondanti delle società democratiche – dovremo essere pronti a mettere in dubbio i nostri diritti di sfruttare robot-intelligenti per farli lavorare al posto nostro, per assisterci in ogni momento, per obbedire ai nostri ordini.

Una proposta di legge depositata nel 2016 al Parlamento Europeo (a dire il vero piuttosto velleitaria e frettolosa), in cui si chiedeva che “almeno ai robot autonomi più sofisticati venga fornito lo status di persone elettroniche, con specifici diritti e doveri”, fa capire come il dibattito si sia fatto largo anche in luoghi ben lontani dalle speculazioni (fanta)scientifiche.

Per quanto la proposta di legge sia stata abbandonata e superata, un futuro riconoscimento dello status di “persona” alle macchine artificiali sarebbe ovviamente un passaggio storico, che ci porterebbe inevitabilmente a considerare la possibilità di garantire loro l’accesso ad alcuni diritti basilari. Ma i robot possono davvero essere persone?

L’articolo continua…

  • È davvero possibile che una AI diventi cosciente?

    Prosegue il tour di “Agile Marketing” a cura di Daniel Casarin. Il 17 maggio è la volta di Padova

Le macchine acquisiranno dei diritti come gli esseri umani?

Secondo alcuni, c’è una sola categoria che può essere considerata una persona: l’essere umano“, spiega Glenn Cohen, professore di Bioetica ad Harvard. “Non c’è dubbio che tutti gli esseri umani siano persone, ma contesto l’idea che tutte le persone debbano essere degli umani. Il filosofo Peter Singer ha spiegato questo argomento molto chiaramente: rifiutare dei diritti a un membro di un’altra specie, solo perché non appartiene alla nostra, è l’equivalente del razzismo nell’ambito delle specie: è specismo. Immaginate di incontrare qualcuno che sembra essere proprio come voi sotto qualunque punto di vista, salvo poi scoprire che non è un membro della nostra specie, è invece un marziano, o un robot; come potremmo giustificare il fatto di negargli dei diritti? Se non si vuole cadere in questa contraddizione, bisogna essere aperti all’idea che le intelligenze artificiali possano conquistare lo status di persona”.

Una volta che “l’evoluzione robotica” – ma parlare di robot è fuorviante, perché lo stesso varrebbe anche se ci trovassimo di fronte a dei semplici software non forniti di alcun corpo – avrà dotato le macchine di un certo livello di intelligenza e di autocoscienza, non sarà facile sfuggire ai nostri doveri (o, se si vuole, al nostro senso morale): dovremo garantire loro l’accesso ai diritti universali.

Ma allora, nel momento stesso in cui l’essere umano riuscisse a progettare una macchina davvero intelligente e autocosciente, verrebbe quindi meno il suo diritto a sfruttarla, ovvero la ragione stessa per cui è stata progettata?

È davvero possibile che una AI diventi cosciente?Data è una macchina artificiale, costruita dall’essere umano per servirne gli scopi; in quanto tale è soggetta alle scelte dell’uomo e può essere spenta.

È davvero possibile che una AI diventi cosciente?

Star Trek e il comandante Data

Un episodio della seconda stagione di Star Trek, The Next Generation, “La misura di un uomo”, ci aiuta a dare una risposta a questa domanda. Chi ha seguito Star Trek avrà familiarità con il comandante Data, un androide estremamente sofisticato, progettato e costruito in un’unica copia dal defunto dottor Soong. Data è uno degli ufficiali della Enterprise, parte della Flotta Stellare.

Nell’episodio in questione, il comandante Maddox, un noto esperto di robotica, è stato autorizzato dall’ammiraglio Nakamura a studiare Data allo scopo di migliorarlo e crearne delle repliche. L’obiettivo di Maddox è di scaricare il cervello di Data in un computer, analizzarlo e poi caricarne una copia in una versione aggiornata e replicabile dell’androide. Si tratta di un procedimento complesso, in cui non c’è alcuna garanzia che tutto vada a buon fine. Oltre al rischio, c’è un altro aspetto che non convince Data: quella copia aggiornata, in ogni caso, sarebbe un essere differente: “Esiste una qualità ineffabile nella memoria che io ritengo non possa sopravvivere alla procedura“, replica Data a Maddox, negandogli il suo assenso.

Data vuole assicurarsi che alla sua identità venga garantita continuità: per lui, sottoporsi a questa procedura equivale a morire e risvegliarsi trasformato in qualcun altro. Per questa ragione, l’androide decide di dare le dimissioni da comandante della Flotta Stellare; dimissioni che gli vengono però negate dal comandante Maddox, il quale contesta che Data, in quanto proprietà della Flotta Stellare, abbia diritto a dare le dimissioni e a rifiutarsi di sottoporsi a un aggiornamento, per le stesse ragioni per cui non potrebbe farlo il computer di bordo dell’Enterprise.

La questione viene portata al giudice Philippa Louvois, inizialmente convinta che la soluzione sia semplice: Data non è un essere senziente, ma una semplice macchina, e di conseguenza, in quanto proprietà della Flotta Stellare, è privo del diritto di rifiutarsi di sottostare agli esperimenti di Maddox e di dare le dimissioni. Una decisione che viene immediatamente impugnata dal capitano Picard, che prende le difese di Data nel processo che viene organizzato, mentre la posizione di Maddox viene sostenuta dal riluttante comandante Riker, che spiega:

“Data è la rappresentazione fisica di un sogno: un’idea concepita dalla mente di un uomo. Il suo scopo è di servire i bisogni e gli interessi umani. È un intreccio di reti neurali e algoritmi euristici. Le sue reazioni sono dettate da un elaborato software scritto da un essere umano, il suo hardware è stato costruito da un essere umano. E ora un essere umano lo spegnerà (dicendo queste parole, Riker disattiva Data). Pinocchio ora è rotto, i suoi fili sono stati tagliati”.

L’argomento di Riker è chiaro: Data è una macchina artificiale, costruita dall’essere umano per servirne gli scopi; in quanto tale è soggetta alle scelte dell’uomo e può essere spenta. Essendo una macchina, il suo unico valore è quello che gli viene attribuito dai suoi creatori. C’è però un aspetto che, fin dall’inizio, contraddice almeno in parte le tesi di Riker: Data ha ricevuto delle medaglie all’onore e altri riconoscimenti, conferimenti che, solitamente, spettano solo agli umani e che certamente non vengono dati ai computer o agli oggetti. Nella sua difesa, però, il capitano Picard preferisce concentrarsi su un altro aspetto:

“Il comandante Riker ha dimostrato in maniera drammatica a questa corte come il tenente comandante Data non sia altro che una macchina. Non lo neghiamo, ma è una cosa rilevante? Anche noi siamo macchine; ma siamo macchine di un tipo diverso. Il comandante Riker ci ha ricordato più e più volte che Data è stato costruito da un umano. Non neghiamo neanche questo. Ma, ancora una volta, è rilevante? Costruire qualcosa implica anche esserne proprietari? I bambini sono creati a partire dai blocchi di costruzione del DNA dei loro genitori, sono allora di loro proprietà? (…) In questa udienza c’è il rischio di porre dei grossi limiti ai confini della libertà. E penso che dobbiamo stare molto attenti prima di compiere un passo simile”.

AI cosciente: l’ultima parola all’uomo

Per quanto alcuni dei dialoghi di questa puntata (che consiglio di recuperare) siano illuminanti per approfondire la questione, tutta la vicenda è piagata da un grosso (e molto contemporaneo) limite, esplicitato dal titolo della puntata in questione – “La misura di un uomo” – e analizzato da Lucas Introna in un saggio pubblicato su Artificial Intelligence & Society: “Il punto più importante nella difesa di Picard è che per lui la misura del valore etico è la misura di un essere umano. Vale a dire che le macchine sono eticamente significative se sono come noi. (…) Il punto finale della sua difesa è che alla fine noi saremo giudicati in quanto specie dal modo in cui trattiamo queste nostre creazioni. (…) Questo passaggio cattura l’essenza dell’argomento usato da Heidegger contro la metafisica occidentale, che è umanistica e in cui tutto è valutato in termini umani. (…) Né Riker né Picard sfuggono a questa stima antropocentrica”.

Si tratta di un punto di estrema importanza, ma che rischia di portarci in territori filosofici troppo ostici per i modesti obiettivi di questo articolo. Quel che è certo, inoltre, è che si tratta di considerazioni che difficilmente avrebbero un peso politico nel momento in cui la nostra società si trovasse ad affrontare, da un punto di vista etico e legale, le questioni sollevate dalla presenza nella società di macchine senzienti; che, in quanto creazione dell’essere umano, verrebbero quasi certamente giudicate usando criteri antropocentrici.

È davvero possibile che una AI diventi cosciente?

Milanese, classe 1982, giornalista freelance. Scrive di innovazione digitale e del suo impatto sulla società per La Stampa, Wired Italia, Domani, Il Tascabile, Esquire Italia, cheFare e altri. Nel 2021 ha pubblicato “Technosapiens: come l’essere umano si trasforma in macchina” per D Editore.

Come possiamo aiutarti?

Costruisci un’impresa resiliente reinventando le funzioni aziendali per supportare l’innovazione agile e modi migliori per soddisfare le mutevoli esigenze dei tuoi dipendenti e dei tuoi clienti. Consenti esperienze fluide, personalizzate e intuitive. Vuoi saperne di più?