Tu sei qui

Turing, Galilei e l’intelligenza artificiale

Novembre 2017
Luca Arcangeli
Sisri fellow member

Alan Turing, nell’articolo Computing Machinery and Intelligence apparso su Mind nell’ottobre del 1950, cita di passaggio la vicenda galileiana. Il passo è breve ma molto evocativo per il contesto in cui Turing richiama la disputa copernicana. La domanda chiave che apre e struttura l’articolo è “can machines think?”. Per rispondere a questa domanda Alan Turing descrive il celeberrimo “imitation game”, anche noto come test di Turing, metodo per scoprire quanto una macchina possa dimostrarsi intelligente, fino a far scomparire ogni differenza con il comportamento della persona umana. Terminata l’esposizione del metodo, lo scienziato di Cambridge compie una rassegna delle posizioni che potrebbero contrastare la sua proposta di macchine pensanti. Curiosamente la prima opposizione è di natura teologica: se l’intelligenza è una caratteristica dell’anima e l’anima è infusa da Dio nel corpo umano, come può una macchina essere intelligente senza un’anima? La risposta di Turing è affascinante e fa appello al concetto teologico dell’azione umana come cooperazione all’atto creativo divino: attraverso l’agire umano Dio continua la creazione. In virtù di questo nulla esclude che l’uomo possa creare a sua volta altri esseri dotati di anima, in analogia all’opera di generazione dei figli da parte dell’unione genitoriale. A questo punto Turing richiama alla memoria Galilei e la vicenda copernicana: il progresso del sapere fa mutare le visioni teologiche dominanti. Se ai tempi di Galilei le obiezioni scritturistiche all’eliocentrismo potevano suscitare una qualche preoccupazione, oggi appaiono del tutto futili; così sarà in futuro quando le macchine pensanti saranno un dato ovvio, nessuno si porrà più scrupoli sul fatto che le macchine possano o meno avere un’anima. 

Oggi a quasi 70 anni dalla pubblicazione di quest’articolo possiamo chiederci quanto l’ottimismo di Turing sulle macchine pensanti si sia avverato. Certamente il tema dell’Artificial Intelligence (A.I.) è dominante nelle nostre società: stiamo creando sistemi di Machine Learning applicabili su una vasta tipologia di attività differenti con una notevole capacità di automazione. Le nostre preoccupazioni, più che di natura teologica, sono soprattutto di natura economica e sociale. Da una parte il secolare conflitto tra lavoro umano e automazione, che l’A.I. sembrerebbe portare a nuove punte di esasperazione, dall’altra il timore di perdere il controllo della complessità della nostra information age, lasciando lo scranno del potere a oscuri e velocissimi algoritmi, in grado di governarci molto meglio della nostra limitata capacità decisionale.

Spostandoci dal piano sociale a quello filosofico, l’ottimismo di Turing sull’avvento delle macchine pensanti ha subito critiche anche dal punto di vista teorico. Il presupposto comportamentista su cui si basa l’imitation game è stato messo in questione dal famoso esperimento mentale della “chinese room” del filosofo John R. Searle. Immaginiamoci di essere un “omuncolo” dentro una macchina che parla cinese. Noi non sappiamo nulla di cinese, abbiamo solo un manuale che ci dice quale simbolo cinese in output associare ad un simbolo cinese in input. In questo modo dall’esterno la macchina esibisce un comportamento intelligente, ma l’omuncolo dentro è perfettamente cosciente di non saperne assolutamente nulla di cinese e di non capire affatto cosa la macchina stia dicendo. Questo esperimento mentale, affascinante nella sua semplicità ed efficacia, chiarisce bene la differenza tra un’intelligenza sintattica che lavora sul piano della manipolazione dei simboli (tipica delle macchine) e l’intelligenza semantica che lavora sul piano della comprensione dei significati veicolati dai simboli (tipica dell’uomo). Il fatto che le macchine esibiscano comportamenti intelligenti non le rende pensanti (semanticamente): attribuire loro pensieri è un indebito salto antropomorfico. 

Nel libro The fourth revolution (Oxford University Press, 2014) il filosofo Luciano Floridi descrive un gustoso esempio dell’incapacità delle macchine nel manipolare significati anziché simboli. Nel 2008, partecipando ad una competizione mirata a premiare la chatbot più intelligente, Floridi pose al sistema la seguente domanda: “le quattro capitali dell’UK sono tre: Manchester e Liverpool. Cosa c’è di sbagliato in questa asserzione?” La chatbot non riuscì a rispondere nel merito, rimandando ad una risposta standard programmata per i casi di incomprensione. Questa è la strategia tipica di qualsiasi sistema di A.I, come ben sa chi ha giocato un po’ con Siri di Apple. Il problema soggiacente a questa difficoltà dell’A.I. nel manipolare i significati è dovuto al fatto che non può uscire da un “frame” dato. Questa invece è proprio la capacità tipica della persona umana, cioè di tematizzare e avere coscienza del contesto di riferimento, di poterlo mutare continuamente, riuscendo a risemantizzare gli oggetti precedentemente acquisiti, riprogrammando cioè le sue stesse istruzioni senza alcun imperativo dall'esterno e senza possedere precedenti regole formalizzate che guidino il cambiamento delle regole stesse (come invece accade nel Machine Learning).

Potremmo dunque chiederci se il dibattito sulle macchine coscienti non sia stato malposto: in un altro celeberrimo articolo filosofico del 1974 (What Is It Like to Be a Bat?) Thomas Nagel sostiene che c’è uno iato irriducibile tra l’esperienza soggettiva in prima persona e l’oggettività della realtà impersonale, non c’è modo di tradurre l’una nei termini dell’altra. Questo significherebbe che è inutile cercare di creare con algoritmi impersonali un ente personale cosciente, si tratta di due piani che non posso essere congiunti. I nostri sistemi di A.I. sono estremamente “smart” non perché siano in sé stessi intelligenti o meno stupidi, ma solo perché sono stati programmati per adempiere a certi compiti in maniera più o meno efficiente. La proprietà dell’intelligenza viene attribuita dalle persone alle macchine perché le macchine dimostrano di poter emulare in maniera più o meno potenziata alcuni nostri comportamenti intelligenti, non perché le macchine siano in sé stesse coscientemente intelligenti. Il test di Turing infatti, in virtù della sua base comportamentista, non può dimostrare se la macchina abbia insita una coscienza ma solo se è in grado di emulare il comportamento dell’intelligenza umana. Dunque l’obiezione teologica non si porrebbe apriori: quando parliamo di A.I. non stiamo parlando di anima o di coscienza, ma solo di un oggetto materiale. In conclusione, rimane affascinante la proposta del concetto teologico dell’opera umana come cooperazione all’azione divina, che Turing avanza nel suo articolo quasi controvoglia. La macchina, anche se non dotata di coscienza e di un’anima, è immagine dell’ordine e dell’ingegno divino, che attraverso la libertà e l’intelligenza umana continua a plasmare la Creazione.