Il caso mediatico di ChatGPT (Chat Generative Pretrained Transformer), un modello di Intelligenza Artificiale (d’ora in poi IA) sviluppato recentemente da OpenAI, sta riportando sotto i riflettori della comunità scientifica internazionale (come ciclicamente avviene ormai da tanto tempo) il dibattito intorno alle possibilità che avrebbe una macchina di emulare il pensiero umano [1].
Da quando, nel 1956, sono state gettate le basi di questo settore scientifico pieno di prospettive interessanti, si è assistito a periodici ritorni di fiamma, che regolarmente rimandavano ad un futuro più o meno prossimo, con la promessa che “le macchine, un giorno, si comporteranno come un essere umano”. Dato che, ormai, si usa il termine “intelligente” per molte applicazioni tecnologiche, può essere utile tornare a riflettere su questi temi, oggi più che mai.
Per restituire il giusto orizzonte a questo dibattito, conviene allora chiedersi: che cos’è il pensiero? Qual è il rapporto fra pensiero e linguaggio? Dove risiede la coscienza e, soprattutto, che cos’è la mente? Queste domande, che si confondono e si intrecciano con l’intera storia della filosofia, hanno interessato e tormentato a lungo studiosi di varie discipline, senza trovare mai una risposta definitiva e indicando quanto sia ancora insufficiente la nostra comprensione dell’intelligenza umana. Dopo secoli di riflessioni e di appassionate discussioni senza esito, la domanda è sempre la stessa: che cos’è che rende l’uomo ciò che è? Abbiamo continuamente assistito, da una parte, all’affermazione di una visione della mente umana rigorosamente materialistica, sostenuta da una concezione meccanicistica degli eventi mentali, dall’altra a interpretazioni spiritualistiche, che hanno cercato di mettere in evidenza i tratti specifici e ineliminabili dell’intelletto umano, mentre si cerca, ancora oggi, di definire, o addirittura di riprodurre, le capacità infinite del cervello. Il dibattito contemporaneo ha ribadito le questioni sopra espresse, alla luce dei progressi ottenuti in campo scientifico, rinnovando la sfida lanciata all’uomo e alla sua identità. Una sfida che, come è stato notato, affonda le radici nell’età moderna, un’epoca di umiliazioni per l’uomo: da quella cosmologica, alla quale ha dato vita il sistema copernicano, a quella biologica, consegnataci dal darwinismo, sino a quella psicologica, prodotta dalla scoperta freudiana dell’inconscio (Alici, 1990, p.39).
L’intelligenza artificiale, argomento utilizzato ormai da molti anni per sostenere un’antropologia filosofica materialista, è l’ultimo tentativo, in ordine di tempo, per mettere in discussione il primato dell’uomo-persona, ma anche ormai da tanto tempo una delle prospettive più suggestive e significative della scienza e della tecnologia del nostro tempo; si può cogliere quindi, in tale sfida tecnologica, un’occasione perché l’uomo possa esplicitare lo specifico della sua stessa intelligenza e si possa quindi raggiungere una consapevolezza più profonda della natura umana e della conoscenza. Ci si è posti inoltre una domanda: perché l’intelligenza artificiale ha rilevanza filosofica? (Agazzi, 1991, p.1) In fondo, si tratta di una disciplina scientifica che si muove nella direzione delle applicazioni tecnologiche, senza rivestire uno specifico interesse filosofico. Il punto in questione è proprio questo: chi teorizza la realizzazione di un’intelligenza artificiale è convinto della riproducibilità della capacità umana di ragionare e avanza la sicurezza di poter costruire, in un futuro molto prossimo, macchine intelligenti; ecco, è proprio l’uso dell’aggettivo intelligente, normalmente riservato agli esseri umani, che stimola un’indagine, un approfondimento, una domanda filosofica, oltreché un chiarimento terminologico. Occorre, peraltro, riflettere su questi argomenti poiché è la funzione stessa della filosofia a essere messa in discussione; per il mondo dell’IA, infatti, la conoscenza che conta è quella che proviene dalle ricerche empirico positive, che si occupano esclusivamente di descrivere e spiegare il mondo e i suoi processi in maniera oggettiva, basandosi soltanto, o soprattutto, su una psicologia comportamentista e togliendo alla filosofia qualsiasi fondamento di natura cognitiva. La questione acquista dunque un’importanza determinante, dato che la posta in gioco non riguarda le macchine, ma l’uomo e la sua essenza, fino ad arrivare al valore stesso della filosofia.
Il progetto delle macchine pensanti
La storia è piena di tentativi, più o meno strani e misteriosi, di riproduzione dell’intelligenza umana. Per evitare di perdersi in un tortuoso cammino che, volendo tornare indietro, ci porterebbe dall’homunculus di Paracelso fino all’Egitto del 200 a.C., sarà qui considerata come punto di partenza l’età moderna, anche perché è proprio di quest’epoca la prima idea di un pensiero che possa svilupparsi in una macchina.
“Noi possiamo definire, cioè determinare che cosa intendiamo con questa parola ragione, quando la contiamo tra le facoltà dello spirito. Poiché la ragione non è, in questo senso, che è un calcolo – cioè un’addizione e una sottrazione delle conseguenze – dei nomi generali messi insieme, per notare ed esprimere i nostri pensieri, cioè notarli, quando li calcoliamo per noi stessi, esprimerli, quando dimostriamo e spieghiamo i nostri calcoli ad altri uomini”. Forse, in epoca moderna, l’esordio del progetto può essere fatto risalire proprio al momento in cui Hobbes, opponendo alla res cogitanscartesiana le proprie idee materialiste, formulava alla metà del XVII secolo la prima espressione della visione computazionale del pensiero. Convinto tra l’altro, come è noto, della necessità di costituire un corpo artificiale, lo Stato, il filosofo inglese era fermamente convinto del fatto che ragionare non fosse altro che calcolare e, abbracciando l’idea che la realtà fosse essenzialmente matematica, sosteneva che il pensiero fosse fondato soltanto su operazioni simboliche. I tre secoli successivi hanno visto l’intuizione filosofica originaria di Hobbes progredire fino a diventare uno dei nodi filosofici più dibattuti e affascinanti del sapere scientifico e tecnologico contemporaneo. Al di là di questo, tre episodi sono considerati come cardine del progresso delle cosiddette macchine pensanti: la macchina per il calcolo aritmetico di Leibniz, il calcolatore concepito nel XIX secolo dal matematico inglese Babbage e la definizione elaborata da Alan Turing nel 1936 di una macchina ragionante ideale, caratterizzata da onnipotenza logica (Pratt, 1990, pp. 9-16).
Matematico e filosofo da un lato, diplomatico di professione dall’altro, Leibniz, precursore e, in un certo senso, fondatore della logica formale, fu uno tra i primi ad accarezzare l’idea che una macchina potesse eseguire compiti intellettuali. Partendo da una riflessione sulla natura della logica, convinto dell’inadeguatezza del linguaggio nel rispecchiare la struttura del mondo e consapevole della possibilità di meccanizzare il ragionamento, egli incoraggiò il tentativo di costruire una sorta di linguaggio simbolico che utilizzasse la combinazione di proposizioni elementari (con precedenti nella logica combinatoria di Pietro Ramo e nell’Ars Magna di Raimondo Lullo e con una continuazione, almeno in parte, nei Principia Mathematica di Russell e Whitehead) e che potesse quindi rappresentare tutti i concetti conquistando così la palma di “scrittura universale” (characteristica universalis) e quindi di conoscenza universale.
Successivamente, più di centocinquant’anni fa, il geniale matematico inglese Charles Babbage, dopo un tentativo poi abbandonato con la cosiddetta macchina alle differenze, progettò un calcolatore di dimensioni eccezionali che avrebbe dovuto avere il compito di liberare l’uomo dai calcoli più faticosi. Questa macchina, detta macchina analitica, doveva avere il potere di combinare insieme simboli generici e doveva costituire l’incarnazione di un’algebra nuova, considerata come la scienza del ragionamento generale. Accanto a lui, Ada Augusta Byron, contessa di Lovelace e figlia di George Byron, intuì che le potenzialità della macchina analitica avrebbero potuto sfruttare la formalizzazione della logica per costruire un sistema simbolico che avrebbe creato un linguaggio in grado di esprimere tutte le leggi che regolano la relazione tra due cose qualsiasi.
“Possono pensare le macchine?” si chiedeva già Alan Turing in un celebre articolo (Turing, 1950) apparso sulla rivista Mind. In questo contributo, egli sosteneva la dimensione operazionale del pensiero e incoraggiava il tentativo di costruire una macchina dotata di poteri di estensione pari a quelli di un cervello umano. Il suo progetto, proposto per la prima volta nel 1936, fu quindi la prima vera e propria idea concreta di costruire una macchina pensante. Il matematico inglese, oltre a fornire fondamentali contributi per lo sviluppo dei primi calcolatori elettronici, enunciava la prima teoria della computazione matematicamente precisa, in cui sono infatti comprese alcune sorprendenti scoperte sulle possibilità dei calcolatori (macchine di Turing). Il cosiddetto test di Turing, poi, è stato utilizzato come paradigma di base del disegno dell’intelligenza artificiale.
Un seminario svoltosi al Dartmouth College durante l’estate del 1956 diede finalmente inizio in modo ufficiale agli studi intorno all’intelligenza artificiale, proiettando un nutrito gruppo di studiosi di varie discipline verso l’idea dell’esistenza di un modo oggettivo e rigoroso di spiegare la mente umana: questo avvenne anche attraverso la realizzazione di Logic Theorist (1956), un programma in grado di dimostrare automaticamente alcuni teoremi matematici, di General Problem Solver (1958), un ormai celebre risolutore di problemi e di Perceptron (1960), il primo dispositivo costruito per simulare il funzionamento non più soltanto logico, ma anche fisico, di un neurone. L’obiettivo che accompagnava il progetto era sostanzialmente dichiarato: portare le macchine ad apprendere. Durante gli anni Sessanta Hilary Putnam, introducendo il concetto di isomorfismo funzionale, getta le basi per una giustificazione logica e psicologica dell’analogia mente-macchina. Qualche anno più tardi, i neo-funzionalisti Dennett e Hofstadter, autore di un fortunatissimo manifesto dell’IA (Hofstadter, 1979), enunceranno definitivamente quel principio che equipara il rapporto mente-corpo nell’uomo a quello software-hardware nel calcolatore, con la conseguente analogia sopra ricordata coniata da Putnam.
Negli anni Ottanta l’avvento della linguistica computazionale, cioè dello studio delle possibilità dei calcolatori di comprendere il linguaggio naturale, e la meccanizzazione della logica dei predicati hanno aperto la strada alla programmazione logica e all’affermazione dei cosiddetti sistemi esperti, congegni nati per risolvere i problemi in uno specifico àmbito della conoscenza e inizialmente usati nella diagnosi delle malattie, realizzati per imitare i processi di ragionamento tipicamente umani. Essi rappresentano il primo vero tentativo di creare macchine intelligenti. Vediamone, brevemente, l’idea che ne è alla base. Un sistema esperto è un programma che cerca di risolvere un problema utilizzando due tipi di conoscenza, quella concettuale e teorica che viene dai libri e quella che proviene dall’esperienza nel mettere in atto metodi di ragionamento per risolvere problemi. Su questa base, un sistema esperto è composto da due parti distinte, una base di conoscenza e un motore inferenziale. La prima costituita da una rappresentazione nel calcolatore della conoscenza disponibile, il secondo un algoritmo fondato sul metodo di ragionamento capace di individuare soluzioni a fronte di problemi. Un banale esempio chiarisce questo detto: se conosco la connessione esistente tra malattia e febbre (base di conoscenza) e so che Marco ha la febbre, posso dedurre che Marco è malato, secondo il più classico dei sillogismi.
Il fondamento filosofico dell’IA: il funzionalismo di Hilary Putnam
Parlando di macchine intelligenti, non si può certo trascurare il pensiero di Hilary Putnam, il cosiddetto advocatus diaboli del mind-body problem, colui che, almeno inizialmente, sosteneva la possibilità, da un punto di vista logico, di riconoscere i diritti civili a una macchina di Turing. Le prime convinzioni del filosofo statunitense intorno alla mente e alla natura della psicologia, che hanno portato a delineare una teoria originale di questo autore, il funzionalismo, possono essere ormai considerati come il fondamento filosofico dell’intelligenza artificiale.
Il funzionalismo di Putnam ha vissuto una tortuosa e difficile esistenza, fino ad essere quasi integralmente rinnegato dal suo stesso autore. Dopo aver scritto, insieme a Paul Oppenheim, uno dei manifesti contemporanei più decisamente iper-riduzionistici, all’inizio degli anni Sessanta Putnam avanza l’ipotesi che un computer, o meglio, una macchina di Turing, è un modello appropriato della mente umana; una macchina di Turing, per il filosofo statunitense, è una macchina astratta, fisicamente realizzabile in un numero pressoché infinito di modi diversi (Putnam, 1987 (1), p.402). Putnam, in questo periodo, si dimostra piuttosto critico nei confronti di coloro che non credono alla dimensione operazionale dei pensiero e sostiene che il fatto che i robot siano coscienti non lo si può né affermare, né negare: asserire che è un robot vivo e cosciente può essere falso, ma non è una contraddizione e propendere per l’una o l’altra ipotesi è frutto non di una scoperta, bensì di una decisione. Il primo Putnam afferma dunque l’esistenza di un’evidente analogia tra gli esseri umani e quella specie di automi a stati finiti che sono le macchine di Turing, fra stati mentali fisici dell’uomo e stati logici strutturali della macchina; egli, sulla scorta di quello che Eccles e Popper hanno definito, sarcasticamente, un materialismo promettente, ritiene che data la crescente velocità delle trasformazioni tecnologiche sociali è possibilissimo che un giorno i robot esisteranno e dichiareranno: noi siamo vivi, siamo coscienti (Putnam, 1987 (1), p.425). Già è presente, in questo periodo, qualche elemento funzionalista, poiché Putnam, contro l’identity-theory, avanza l’ipotesi che un robot e un essere umano abbiano la stessa psicologia, nel senso che entrambi possono obbedire alle stesse leggi psicologiche, intendendo dire, con ciò, che strutture fisicamente diverse possono obbedire alla stessa teoria psicologica. Occorre, a questo proposito, fare una distinzione fra identità dei tipi (type-type identity) e identità delle occorrenze (token-token identity), poiché il funzionalismo critica la prima per affermare la seconda, laddove per identità dei tipi si intende un’eredità che faccia riferimento all’’essenza dei termini in questione, mentre per identità delle occorrenze il riferimento è alla funzione: una distinzione, quindi, fra essere e agire, una distinzione decisiva per il funzionalismo. Tutto ciò ha portato Putnam a fare affermazioni che hanno disorientato e sconcertato più di uno studioso, come quando ha affermato che oggi nessuna conoscenza in nostro possesso è a rigore incompatibile con l’ipotesi che noi tutti siamo macchine di Turing, benché alcune cose a noi note rendono l’ipotesi poco verosimile; oppure quando ha sostenuto che “sembra preferibile estendere il concetto di coscienza in modo che i robot siano coscienti, giacché una discriminazione fondata sulla morbidezza o durezza delle parti componenti il corpo di un organismo sintetico mi sembra altrettanto sciocca di un trattamento discriminatorio degli esseri umani fondato sul colore della pelle” (Putnam, 1987 (1), p. 443).
Verso la fine degli anni Sessanta, comunque, egli si dirige verso il riconoscimento di un’autonomia del mentale e verso una riabilitazione della psicologia, sia criticando il materialismo tradizionale e il fisicalismo, sia valutando negativamente le proprie precedenti affermazioni. A proposito dell’identificazione degli stati psicologici di un essere umano con gli stati logici di una macchina di Turing: gli stati mentali di un essere umano, per essere simili a quelli di una macchina di Turing, dovrebbero risultare necessariamente istantanee, la qualcosa è ovviamente impossibile per stati come gelosia, amore, competitività; questi ultimi dipendono da un gran numero di informazioni, di abitudini e fatti appresi, da relazioni sociali.
Putnam aveva, per la verità, già introdotto nel dibattito del tempo sul mind-body problem le prime considerazioni che preludevano a quell’ipotesi di lavoro e a quell’impostazione epistemologico-psicologica che il funzionalismo tentava di esplicitare in seno alla philosophy of mind contemporanea. Le tradizionali filosofie della mente, come è noto, potevano essere suddivise in due aree: dualismo e monismo, dove per dualismo si intende quella corrente di pensiero per la quale la realtà umana è di due ordini, mentale e fisica, mentre per il monismo detta realtà è essenzialmente formata da un’unica sostanza. Fino al periodo precedente la nascita del funzionalismo ad opera di Putman, le dottrine che sembravano più accreditate erano il dualismo di origine cartesiana da una parte e il materialismo dall’altra. Per il dualista di stampo cartesiano, dunque, la mente è una sostanza non fisica; per il materialista, il mentale non è distinto dal fisico, e tutti gli stati, i processi, le proprietà e le operazioni mentali sono identici a stati, processi, proprietà e operazioni fisiche; fra i materialisti, i comportamentisti sostengono che il mentale può essere eliminato facendo riferimento a stimoli ambientali e risposte comportamentali, mentre i sostenitori della identity-theory affermano che cause mentali esistono e vanno identificate con eventi neurofisiologici nel cervello (Fodor, 1981, p. 100). Gradualmente, ci si è accorti dell’inadeguatezza di entrambe le posizioni (dualistica e materialistica), viste le difficoltà che si nascondono nella loro formulazione teorica: il dualismo è incapace di rendere conto della causazione mentale (la ghiandola pineale di Cartesio), dato che non è affatto chiaro come una mente non fisica possa dar luogo a effetti fisici; il materialismo, soprattutto nella sua espressione comportamentista, incontra difficoltà nel definire sia l’interazione mente-corpo, sia alcuni concetti piuttosto importanti come quelli di coscienza e intenzionalità, poiché credenze, aspettative, conoscenze, hanno qualcosa in più di una semplice qualifica comportamentale. Come è stato notato, infatti, mentre ogni comportamento è anche un’attività, possono esistere attività che non si traducono in uno speciale comportamento fisicamente osservabile; si pensi, ad esempio, “a un uomo disteso sul letto e immerso in un sonno perfettamente tranquillo, e la stessa persona che nell’identica posizione, invece di dormire sta pensando ad occhi chiusi a qualche cosa” (Agazzi, 1967, p.7). Anche la visione identitista, in alternativa al comportamentismo logico, si imbatte in complicazioni, con una visione troppo deterministica della mente umana. È stato prima ricordato che per ogni identitista ogni fenomeno mentale è nient’altro che un determinato evento neurofisiologico. Ma, mentre le sensazioni sembrano abbastanza facilmente riconducibili a eventi/processi fisici, come posso paragonare a eventi fisici fenomeni mentali come credenze, intenzioni, speranze? Inoltre, se un chirurgo esaminasse con strumenti qualsivoglia sofisticati il cervello (o il the SNC) di un uomo che sceglie o di un uomo che crede, non vi troverebbe mai la scelta o la credenza come e in quanto tale. Il che non significa assolutamente che i fenomeni psichici siano privi di rapporti con determinati processi neurofisiologici.
Sulle rovine di queste complicazioni, Putnam dà vita quindi ad una filosofia della mente che non è né dualista, né materialista, che prende il nome di funzionalismo e che sostiene che la psicologia di un sistema non dipende da ciò di cui è fatto, ma dal modo in cui è assemblato ciò che lo compone; i funzionalisti, in definitiva, sostengono che l’intelligenza artificiale funziona proprio come l’intelligenza autentica. L’atteggiamento riduzionista di Putnam viene così abbandonato per lasciare posto a un’affermazione dell’organizzazione funzionale degli stati mentali; questa originale formulazione del filosofo americano si basa sul concetto di isomorfismo funzionale: due sistemi sono funzionalmente isomorfi se esiste una corrispondenza fra gli stati dell’uno e gli stati dell’altro che conservi le reazioni funzionali e ciò accade anche per sistemi fisicamente diversi tra loro, anzi, a rigore, una macchina di Turing non deve neppure essere un sistema fisico: qualsiasi cosa che sia in grado di passare attraverso la successione di stati nel tempo può essere una macchina di Turing. In sostanza, quindi, non ha alcuna importanza il fatto che le realizzazioni fisiche siano diverse, visto che un calcolatore costruito con un certo tipo di valvole, fili e relè, si trova, durante le sue operazioni di calcolo, in uno stato chimico e fisico diverso da quello di un altro calcolatore fatto con un diverso tipo di valvole, fili e relè, ma la descrizione funzionale può essere la stessa. Putnam distingue, ormai, fra un ente e il suo comportamento.
In tempi più recenti, Putnam stesso ha ammesso che l’analogia computazionale fra uomo e macchina non riesce a fornire risposte adeguate a questioni importanti riguardanti la natura di stati mentali come credenza, preferenza, ragionamento, razionalità, conoscenza, compiendo un’attenta autocritica delle proprie originarie convinzioni; il ripensamento di Putnam non ha però fermato i sostenitori dell’IA, i quali sono ispirati proprio al suo concetto di funzionalismo per costruire le proprie teorie riguardanti il pensiero artificiale.
L’avversario di sempre: John Searle
Sarebbe impossibile riassumere in questa sede tutte le critiche rivolte al progetto dell’intelligenza artificiale visto che il great debate ha prodotto una vera e propria spaccatura all’interno della filosofia contemporanea. John Searle ha dato il via già nel 1980 al grande dibattito intorno al problema mente-corpo, che vede da quella data contrapposti matematici, biologi, filosofi, psicologi, epistemologi e sostenitori dell’IA che tentano di venire a capo della questione, cercando così di far luce sui punti oscuri della philosophy of mind. Searle stesso propone di fare una distinzione fra versione debole (o scientifica) e versione forte (o ideologica) dell’IA: secondo i fautori della prima, il valore principale del computer nello studio della mente è quello di fornirci uno strumento molto potente nella formulazione di ipotesi; essa, infatti, “non pretende di emulare l’intelligenza umana, bensì semplicemente di simulare alcuni comportamenti intelligenti dell’uomo che implichino compiti deduttivi e ripetitivi” (Basti, 1991, p.109), dimostrandosi quindi piuttosto rigorosa nella verifica di strumenti e affermazioni riguardanti la natura della mente, dell’intelligenza e della psicologia; per i sostenitori della seconda, invece, il computer non è semplicemente uno strumento, piuttosto esso, opportunamente programmato, è realmente una mente, nel senso che capisce e possiede stati coscienti e consapevoli; sa cioè, ad esempio, di essere vivo (!).
Il principale argomento avanzato contro la versione forte dell’IA nasce con Searle proprio da un punto di vista linguistico. Si afferma che mentre è pensabile inserire nel programma di un computer un controllo circa la correttezza sintattica del deduzioni, non pare invece immaginabile immettere nel calcolatore un vero e proprio controllo di tipo semantico; in sostanza l’obiezione ricorrente contro le macchine intelligenti, che può essere utilizzata anche nei confronti di ChatGPT, è quella che i nostri pensieri possiedono un significato, perché un pensiero si riferisce a qualcosa al di là di se stesso, è relativo a qualcosa e riflette quella caratteristica ed esclusiva possibilità del nostro cervello di mettere in relazione l’organismo umano con il mondo: l’intenzionalità. È proprio in virtù di quest’ultima che pare possibile attribuire agli enunciati un significato, un contenuto; mentre nelle macchine le formule si riferiscono semplicemente a se stesse, noi sì che abbiamo la facoltà di conferire loro un potere designante. Come è stato sopra ricordato, Putnam stesso ha rivisto le proprie idee riguardo l’analogia mente-macchina ed è proprio lui a sostenere che il test di Turing per il riferimento non è una prova definitiva; quella del riferimento è infatti soltanto un’illusione e tutto ciò che noi possiamo dire riguardo le cose è intimamente legato alle nostre transazioni non verbali con le cose (Putnam, 1989, p.17). Se una formica camminasse su una spiaggia e disegnasse sulla sabbia una caricatura di Winston Churchill, l’immagine disegnata rappresenterebbe Winston Churchill? Ovviamente no, dato che essa, per accidens, ha tracciato semplicemente una linea (…) che noi possiamo vedere come un’immagine di Winston Churchill (Putnam, 1989, p.7). Il fatto è che esistono regole di ingresso del linguaggio e regole di uscita dal linguaggio per cui noi compiamo azioni che non sono soltanto di ordine verbale; ciò nella macchina non avviene e non vi è alcun motivo per considerare la conversazione di una macchina come qualcosa di più che un semplice gioco sintattico che in verità assomiglia moltissimo a un discorso intelligente, ma non più di quanto la curva tracciata dalla formica assomiglia ad una caricatura. Nel caso della formica, si potrebbe dire che essa avrebbe tracciato la medesima curva anche se Churchill non fosse esistito. il riferimento della macchina a cose esterne viene infatti influenzato da chi scrive il programma, dunque un certo legame causale tra macchina e oggetti del mondo reale esiste ma è così debole da dimostrarsi del tutto insufficiente perché si possa parlare di riferimento. Searle sostiene che il computer è una sintassi mentre la mente ha qualcosa di più di una sintassi, ha una semantica (…) Le menti sono semantiche, nel senso che possiedono qualcosa di più di una struttura formale: esse hanno un contenuto (Searle, 1988, p.24). Egli si unisce inoltre a coloro che vedono nell’intenzionalità quella caratteristica, legata a quella specie di osservatore speciale che è la coscienza, non riproducibile da parte della macchina. La tesi secondo la quale l’intenzionalità è il tratto distintivo del mentale è la cosiddetta tesi di Brentano: tutti i fenomeni mentali manifestano intenzionalità, mentre nessun fenomeno fisico ne è in grado, quindi il mentale non può essere ridotto al fisico. Su questa linea stessa linea di pensiero, anche Agazzi sostiene che il di più che caratterizza l’organismo umano rispetto alla macchina viene denotato col termine “intenzionalità, col quale si allude appunto al fatto che nell’attività conoscitiva del vivente si verifica una sorta di partecipazione o di identificazione del soggetto nei confronti degli oggetti, i quali, pur restando se stessi, divengono in qualche modo parte del soggetto (…) Un suo surrogato (che però esprime solo approssimativamente quel significato ed allude con precisione ad un livello un po’ più ricco della semplice intenzionalità, poiché quest’ultima non comporta di per sé la consapevolezza di conoscere) può essere, nell’uso corrente, il termine coscienza” (Agazzi, 1967, p.16).
Tornando a Searle, il suo argomento più famoso contro l’IA nella sua versione forte è senz’altro quello della stanza del cinese: si immagini un individuo, chiuso in una stanza, che non conosca affatto il cinese, ma al quale venga fornita una serie di regole scritte nella propria lingua per la manipolazione di ideogrammi in cinese; ebbene questa persona sarebbe in grado di produrre risposte in cinese a domande poste in cinese da altre persone poste fuori dalla stanza che conoscono perfettamente il cinese, pur continuando a non capire assolutamente il significato di un solo ideogramma. Ora, un calcolatore manipola simboli linguistici in ingresso ed uscita secondo i medesimi principi della stanza cinese; attribuire ad esso intelligenza, intenzionalità e poteri semantici significa andare contro il test di Turing. Inoltre, Davidson sostiene che “prima che un calcolatore possa avere credenze, desideri, pensieri di qualsiasi tipo che possono essere riconosciuti come tali, deve avere a disposizione gran parte delle informazioni che formano il bagaglio naturale di ciascuno di noi. Prima di allora possiamo solo dire che il sistema rappresenta alcune informazioni, o persino fini e strategie, ma non si può certo interpretare il sistema come avente quelle informazioni, fini, strategie” (Davidson, 1989, p.43). Per quanto attiene al riferimento e in modo particolare alla capacità delle macchine di riferirsi a qualcosa di esterno ad essi anche Putnam, fermo inizialmente su posizioni piuttosto riduzioniste in filosofia della mente, ha cambiato idea; egli, nella sua più recente revisione della propria ipotesi funzionalista, afferma che “sembra evidente che non possiamo attribuire a un congegno simile la possibilità di riferimento. è vero, per esempio, che tale macchina può dire delle cose meravigliose su un paesaggio; essa però non sarebbe in grado di riconoscere (…) Si tratta di un congegno per la produzione di enunciati in risposta a enunciati: tuttavia, nessuno di questi enunciati è legato in alcun modo al mondo reale; infatti, due macchine cui si lasciasse fare il gioco dell’imitazione potrebbero continuare a prendersi in giro a vicenda per sempre, anche se tutto il resto del mondo dovesse scomparire!” (Putnam, 1989, p.17).
I sostenitori della versione forte dell’IA, richiamandosi ad una teoria formalistica della mente, affermano invece che l’intelligenza è semplicemente una questione di manipolazione di simboli governata da regole, sbarazzandosi così di concetti tradizionali come quelli di intenzionalità, coscienza, interiorità, etc. In definitiva, la versione forte dell’IA nega al soggetto individuale la facoltà del pensiero in quanto pensiero pensante, privandolo dunque di ogni possibilità di libera autodeterminazione, anche se, con i suoi rilevanti interrogativi sull’uomo, sulla natura della conoscenza e dell’intelligenza, il mondo dell’IA offre stimolanti percorsi di studio e di approfondimento diversi da quelli tradizionali, riaffermando l’importanza dell’indagine sugli sviluppi delle scienze cognitive. Nonostante ciò, l’analogia computazionale fra uomo e macchina non riesce a fornire risposte adeguate a questioni importanti riguardanti la natura di stati mentali e di concetti come sentimento, pensiero, significato, soggettività, personalità, creatività, coscienza, concetti che puntano diritto al cuore della filosofia della mente. Non abbiamo prove che una macchina si senta, ad esempio, emozionata, triste, fiduciosa, colpevole, altruista, preoccupata, arrabbiata, speranzosa, o che possieda dei valori. E pensare che John McCarthy, che tra l’altro fu il primo ad usare il termine intelligenza artificiale, diceva che perfino di macchine semplici come termostati si può dire che abbiano pensieri e credenze (qui è caldo, qui è freddo, qui si sta bene). Per non parlare di Marvin Minsky, uno dei padri delle cosiddette macchine intelligenti, il quale sosteneva che i calcolatori della prossima generazione – ancora materialismo promettente direbbe Popper – saranno così intelligente che saremo fortunati se avranno voglia di tenerci in casa con loro. Questo per rendere chiaro quanto siano distanti le convinzioni dei sostenitori dell’IA da quelle dei loro critici.
Ulteriori osservazioni e qualche considerazione sul progetto dell’IA
Il dibattito sulla capacità di simulare il pensiero umano da parte della macchina sembra ormai eterno. ChatGPT può essere la svolta? Siamo di fronte ad un cambio di passo per quanto concerne l’IA? L’intelligenza umana può essere addirittura riprodotta? O la domanda che ci dobbiamo porre è: quali parti del nostro lavoro mentale possiamo affidare ad un calcolatore? Senza dubbio lo sviluppo dell’IA nella sua versione forte delle cosiddette macchine pensanti ha vissuto e continua comunque a vivere tuttora un momento di grande notorietà, pur nei suoi terribili presupposti di emulazione del pensiero umano. Gli studiosi che lavorano ai progetti sulle reti neurali, e qualche ulteriore indagine a sostegno di una visione materialista della mente umana, ne testimoniano tuttora le attuali linee di ricerca. Al di là di tutto questo, sembra piuttosto evidente come la sfida tecnologica proposta dall’IA abbia minato in modo radicale anche le basi della filosofia tradizionale, ma lo sviluppo del calcolatore passa attraverso l’uomo: gli esseri viventi agiscono per soddisfare i bisogni intrinseci come il sopravvivere, mentre l’elaboratore è sempre sottomesso ai compiti esterni. È stato notato da Lambertino che “il calcolatore sembra seguire uno scopo, una logica interna. In realtà, la sua idea è una teleologia oggettiva e non soggettiva, trattandosi di uno scopo che viene conseguito necessariamente in modo inconsapevole; infatti, le sue interpretazioni sono tutt’altro che soggettive, vale a dire che il suo comportamento rivela una disposizione oggettiva trattare le informazioni e la conoscenza. Lambertino prosegue sottolineando che “l’uomo, a differenza della macchina, può errare e questo non soltanto nelle conoscenze di carattere morale (…) Ma anche nelle conoscenze di carattere scientifico. Anzi la fallibilità è un proprio dell’uomo. Infatti, una macchina, propriamente parlando non sbaglia mai; secondo Lambertino “l’errore va addebitato, anziché all’intelligenza, alla componente affettiva passionale volitiva, cosciente e inconscia, dell’agire umano, presenti in ogni formulazione di giudizio che preclude all’intelligenza il necessario rigore della ricerca (…) L’uomo erra in quanto soggetto morale e libero, non propriamente in quanto essere intelligente. È, infatti da un uso indebito dell’intelligenza che scaturisce l’errore” (Lambertino, 1991).
Il calcolatore è diventato comunque uno straordinario complemento dell’intelligenza umana fino a cambiare, in un certo senso, il nostro modo di lavorare e di studiare, e ciò non è in discussione. Piuttosto che un irrigidimento su semplificazioni ideologiche, sarebbe innanzitutto quanto mai opportuno riflettere sui risvolti antropologici e sociali che questa rivoluzione industriale ha prodotto, e sta tuttora producendo, nella nostra vita quotidiana. Inoltre, le scienze cognitive, nate proprio sulla scia degli studi sui calcolatori, ci aiutano a capire meglio il funzionamento della mente umana. Il problema mente-macchina e la conseguente ammissibilità delle teorie relative all’intelligenza artificiale rimangono ancora dei problemi aperti, anche se, come ha detto Pratt, noi teniamo ancora troppo in considerazione quegli aspetti della nostra intelligenza che meglio si prestano ad essere sostituiti dalla macchina, come la capacità nei quiz e il ragionare in modo veloce, ma il reperimento di dati memorizzati e il ragionamento formale sono cose che la macchina fa bene e farà sempre meglio. Tutto ciò a scapito di quegli aspetti della nostra intelligenza che vengono considerati periferici e che gli psicologi chiamano sentimenti; la capacità di calcolare non distingue affatto il pensiero umano, il quale possiede aspetti che si riferiscono alla propria intelligenza che resistono all’interpretazione come rappresentazione. Da più parti, soprattutto da quella degli stessi teorici dell’IA, viene invocato un nuovo test di Turing, visto che anch’essi si sono resi conto della necessità di una nuova e più alta definizione di intelligenza, che non sia quella di dimostrare teoremi o giocare a scacchi, e tanto meno di produrre testi di cui la macchina non conosce il significato. D’altra parte, l’essere umano è ovviamente corpo, cervello, materia, fisicità, ma è anche, e soprattutto, persona, persona che esprime la dimensione irriducibile la propria soggettività e che fa del riferimento a un sistema simbolico e culturale personale il nucleo privilegiato per l’interpretazione del proprio essere-nel-mondo; il progetto dell’IA è sempre attuale e pieno di interessi, di suggestioni, mentre dall’altra parte della barricata, alcune riflessioni da parte dei suoi critici tentano di dare una versione più appropriata del nostro essere umani, da sempre uno dei compiti principali della filosofia.
Bibliografia
Agazzi E., Alcune osservazioni sull’intelligenza artificiale, “Rivista di Filosofia Neoscolastica” 59 (1967), pp. 1-34.
Alici L., Il futuro della persona e il dibattito sull’intelligenza artificiale, “Studium” 86, (1990), pp. 37-59.
Basti G., Il rapporto mente-corpo nella filosofia e nella scienza, Bologna 1991.
Davidson D., Rappresentazione e interpretazione, in Mente umana, mente artificiale, a cura di R. Viale (Milano 1989), 40-54.
Fodor J., Il problema mente-corpo, “Le Scienze”, 151, (1981), pp. 100-110.
Hofstadter D.R., Gödel, Escher, Bach: An Eternal Golden Braid, New York 1979.
Lambertino A., Quale intelligenza? in Intelligenza naturale e intelligenza artificiale, a cura di S. Biolo, Genova 1991, pp. 213-218.
Pratt V., Macchine pensanti. L’evoluzione dell’intelligenza artificiale, 1987, trad. it., Bologna 1990.
Putnam H. (1), Mente, linguaggio e realtà (1975; trad. it., Milano 1987).
Putnam H. (2), Il riduzionismo e la natura della psicologia, (1973), ora in Progettare la mente: filosofia, psicologia, intelligenza artificiale, a cura di J. Haugeland (trad. it., Bologna 1987), 221-235.
Putnam H., Ragione, verità e storia (1981; trad. it, Milano 1989).
Putnam H., Representation and reality (Cambridge 1988).
Searle J.R., Mente, cervello, intelligenza (1984; trad. it, Milano 1988).
Searle J.R., Menti, cervelli e programmi. Un dibattito sull’intelligenza artificiale (1980, trad. it, Milano 1984).
Turing A.M., Macchine calcolatrici e intelligenza (1950), trad. it., in La filosofia degli automi, a cura di V. Somenzi e R. Cordeschi (Torino 1986), pp.157-183.
[1]Riprendo, con qualche aggiunta e qualche modifica, quanto ho già scritto in Capponi M., Macchine “intelligenti”, in Rossetti L., Bellini O. (a cura di), Retorica e verità. Le insidie della comunicazione, Quaderni dell’Istituto di Filosofia della Facoltà di Magistero dell’Università degli Studi di Perugia, Edizioni Scientifiche Italiane, Perugia 1998, pp. 77-96. Le considerazioni allora svolte, a distanza di tanto tempo, sono tuttora valide e confermano le problematiche da sempre esistenti a proposito di intelligenza artificiale.