C’è qualcosa che una macchina (munita di protesi percettive, e di un sistema motorio) non possa mai fare? Schiere di moralisti – almeno a partire dagli androidi di Jacques de Vaucanson, costruiti intorno agli anni Trenta del XVIII secolo – si sono accaniti a elencare tutto ciò che un dispositivo costruito da umani, a differenza dei suoi stessi autori, sia in grado o meno di fare.
Col progresso delle tecniche, la soglia di questa differenza ontologica si è andata progressivamente innalzando: azioni e competenze squisitamente umane sono state via via simulate (o raggiunte?) da meri artefatti. Se una cinquantina di anni fa i difensori della tesi separatista insistevano su competenze e disposizioni «creative» (come, poniamo, la traduzione, la pittura, la composizione letteraria o musicale), le prestazioni raggiunte dalle «macchine» in questi domini hanno portato la riflessione su terreni più raffinati. Il giudizio riflettente, e soprattutto il mistero di quella «voce interiore» che chiamiamo «coscienza», sono stati assunti come soglia invalicabile delle caratteristiche che una macchina – per sua propria natura – non potrebbe eguagliare.
Succede però che questa soglia sia mal definita. Una rassegna condotta nel 2021 da otto studiosi italiani – su un corpo di 21.661 articoli scientifici pubblicati tra il 2007 e il 2017 – metteva per esempio in luce la possibilità di classificare almeno 29 teorie della coscienza umana, la più «gettonata» delle quali risultava essere quella che invoca la meccanica quantistica, come teoria esplicativa di codesta «voce interiore». Qui non c’è chi non veda una sorta di rinvio da Ponzio a Pilato: una caratteristica familiare a noi tutti (come è la coscienza che abbiamo), la quale presenta molti tratti incompresi, viene «spiegata» invocando una teoria del mondo fisico che manifesta tratti ben più bizzarri, e controintuitivi. Quale giudice si sentirebbe di condannare allora una macchina – sottoposta all’imperativo: «devi avere coscienza!» – se l’oggetto di questa ingiunzione (la coscienza) non è ben definito?
Intorno alla metà del secolo scorso, problemi di questo genere impegnavano i «padri» della «intelligenza artificiale» (IA): i quattro organizzatori di un incontro seminale a Dartmouth, del 1955 (John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon) e – prima ancora – il matematico inglese Alan M. Turing. Alcuni di loro, qualche anno dopo, ebbero a chiedere: se i filosofi non hanno raggiunto un accordo in 2500 anni, per quanto attiene l’intelligenza e il pensiero, perché mai non dovremmo tentare di «dare un corpo alla filosofia», incarnandola in dispositivi?
Oltremodo opportuna – mentre stiamo qui a interrogarci sulle perfomance delle attuali IA «generative», è dunque la terza edizione italiana di un saggio fondamentale di Turing, curata da Diego Marconi: Alan M. Turing, Macchine calcolatrici e intelligenza (Einaudi, pp. 129, € 13,00), che segue – dopo oltre trent’anni – l’edizione curata da Vittorio Somenzi e Roberto Cordeschi (1986), poi quella curata da Cesare Lolli (1994). In questo saggio del 1950, Turing passava in rassegna le principali obiezioni all’idea che le macchine siano in grado di pensare (in qualche accezione di questo termine), con una preveggenza che – alla luce del dibattito successivo – fa davvero impressione.
Un’obiezione ancora ben radicata si basa per esempio sull’idea che soltanto il possesso di un corpo umano permetta di pensare come gli umani. È una tesi ragionevole, ma alquanto spuntata: ha l’aspetto di un truismo, o di una petizione («il corpo umano è condizione necessaria perché si sia un pensiero umano»), che restringe in maniera arbitraria l’eventualità che si diano esseri diversi dagli umani, ma in grado di pensare; e blocca la ricerca sul pensiero umano, svilendone i tentativi di analisi e di simulazione. Un’altra obiezione molto diffusa – sulla «stupidità» delle macchine – concerne la loro capacità di elaborare simboli, ma senza capirli: si tratta del problema della «competenza referenziale», che riguarda la capacità di attribuire significati extralinguistici alle parole. Di più: siccome il significato dei termini dipende dal contesto (e uno stesso ente si può nominare in molteplici modi), sembrerebbe che le macchine – messe alla prova – debbano trovarsi in seria difficoltà, nel distinguere il senso dei termini trattati. Molte di queste difficoltà diventano in verità meno serie, nel caso di macchine dotate di protesi, in grado di stabilire un rapporto diretto col mondo estero, di apprendere e di auto-correggersi. Per altro, già nell’Inghilterra del giovane Turing non mancava un esempio monumentale, costruito proprio con l’ambizione di imbrigliare in un unico repertorio scritto tutte le occorrenze accertate dei termini in uso: mi riferisco a quell’Oxford English Dictionary, in dieci volumi, che già nel 1928 raccoglieva più di 250.000 ingressi principali, etimologia, significato e uso dei termini, con oltre un milione di citazioni. Lo sviluppo successivo di quell’opera accompagnò tutta la vita attiva di Turing; e, in tempi più vicini a noi, è diventato popolare al grande pubblico, grazie al romanzo Il professore e il pazzo e all’omonimo film, diretto dal regista iraniano Farhad Safinia.
Nella sua accurata post-fazione, Diego Marconi attualizza problemi di questo tipo, affrontando in particolare il nodo delle competenze linguistiche dei sistemi di IA «generativa» (e – più in generale – della eventuale «intelligenza» dei sistemi basati su Large Language Model, come l’ormai famoso ChatGPT). Qui, l’obiezione si basa spesso sull’idea che sistemi di questo genere siano in grado sì di raggiungere (e superare) prestazioni tipicamente umane, ma – se lo fanno – adottano procedure affatto diverse da quelle dei sapiens. Verrebbe da dire che questi sistemi, se mai fossero in grado di «pensare», lo fanno nello stesso senso in cui gli aerei «volano» (sebbene non siano in senso proprio volatili) e i motocicli «corrono» (sebbene non siano atleti). Però: le procedure attraverso le quali gli attuali sistemi «generativi» raggiungono prestazioni paragonabili a quelle umane si svolgono in prevalenza nel così detto «strato nascosto» delle reti neurali, secondo pattern e procedure destinate a restare – per loro natura – del tutto opache. Si confrontano allora – se così si può dire – due generi di «misteri»: quello delle esatte procedure mentali che portano il cervello umano ai suoi risultati e quello delle procedure «nascoste» di reti artificiali, che le portano a certe conclusioni. È un confronto fecondo? Filosofi e tecnici, per ragioni opposte, sono portati sovente a dubitare che lo sia.
Sulla scia di una tesi che risale almeno Mersenne, passa per Hobbes e si precisa con Vico, un imprenditore tedesco del XIX secolo, che si era andato formando nei circoli dei giovani hegeliani, ebbe a scrivere nel 1886: «se possiamo mostrare che la nostra comprensione di un dato fenomeno naturale è giusta, creandolo noi stessi, producendolo nelle sue condizioni e, quel che più conta, facendolo servire ai nostri fini, l’inafferrabile “cosa in sé” di Kant è finita» (Friedrich Engels, Ludwig Feuerbach e il punto d’approdo della filosofia classica tedesca). Probabilmente, questo epitaffio della «realtà lì fuori», sostituita dalle riproduzioni che sanno farne gli umani, era davvero grossolano; ma coglie in qualche modo lo spirito degli odierni studiosi e tecnici dell’artificiale, che non cessano di stupirci con i loro risultati.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link