Da Turing a Orwell
a cura di Claudia Perdighe e Ivan Pavesi
Il 20 aprile all’Università Pontificia Salesiana Francesco Mancini ha voluto un convegno dal titolo “intelligenza artificiale e psicoterapia”. L’intenzione dichiarata era portare la riflessione di alcuni autorevoli esperti in ambito psicologico e scientifico su due domande: che implicazioni ha lo sviluppo della IA sulla professione dello psicoterapeuta? Quali problemi etici pone l’IA allo psicoterapeuta?
Abbiamo avuto risposte? Possiamo dire che l’incontro lascia alcune risposte e molte domande.
Il rapporto tra IA e psicoterapia nasce da lontano. Nel 1950 il geniale Alan Turing, che nel 36,, sulla scorta delle intuizioni di Babbage e Lovelace, diede piena formulazione teorica al concetto di macchina universale (ciò che oggi chiamiamo comunemente computer), ha immaginato l’IA e ideato il test di Turing. Nella versione semplificata: se un valutatore umano, conversando via chat, non riesce a distinguere la macchina da un umano, la macchina si considera intelligente. Si tratta, dunque, di un criterio per valutare se una macchina mostra un’intelligenza non distinguibile da quella umana. Il primo programma che supera il test è ELIZA, un programma costruito nel 1966 da Joseph Weizenbaum . Curiosamente, ma non so se accidentalmente, ELIZA era un programma (chat bot diremmo oggi) che simulava uno psicoterapeuta rogersiano. Eliza ha avuto un certo successo: Weizenbaum racconta di esser rimasto sorpreso quando la sua segretaria, pur sapendo che si trattava di un chatbot, dopo pochi scambi chiese a lui di uscire dalla stanza (Weizenbaum, 1976). In un articolo del 1966, sempre Weizenbaum, riporta quanto fosse difficile convincere alcuni soggetti che ELIZA era un programma (“this is a striking form of Turing’s test”). Questo, tuttavia, ci parla non tanto di quanto ELIZA mostrasse un comportamento intelligente ma quanto facilmente gli esseri umani siano portati ad attribuire intenzionalità a un programma capace di simulare una conversazione terapeutica. La psicologia generale ce lo aveva già insegnato con gli esperimenti di Heider sulle forme geometriche, a cui viene attribuita intenzionalità. L’effetto prodotto da ELIZA può essere infatti letto alla luce di questa tendenza psicologica più generale dell’essere umano. E questo, parrebbe chiamare in causa una questione etica.
Turing, dunque, aveva già immaginato lo sviluppo dell’IA e si era posto il problema del come distinguere IA da umano. Il primo programma a superare a simulare sufficientemente bene un umano così da superare il test di Turing, simula uno psicoterapeuta.
Questi curiosi fatti storici, suggeriscono la vera domanda: il terapeuta virtuale sostituirà quello umano? È possibile? È eticamente accettabile?
Il convegno naturalmente non offre risposte definitive, ma sembra suggerire due cose per certi aspetti contrapposte
- Caro psicoterapeuta, non aver paura dell’IA: può essere un utile strumento per migliorare l’efficacia delle psicoterapie e faticare meno. La calcolatrice oggi è uno strumento che ci rende tutti capaci di fare calcoli complessi che la maggior parte di noi non saprebbe fare senza. Eppure nel XVII secolo l’automazione del calcolo è stata accompagnata da diverse paure come la sostituzione del lavoro umano, la perdita di capacità mentali, l’affidabilità; queste paure somigliano a quelle attuali sull’IA. Tuttavia, l’AI può non solo automatizzare le parti più laterali dell’incontro clinico, certo non prive di risonanza clinica, ma essere strumento di supporto all’attività clinica, come mostrato da Alessandro Calderoni. Quanto potrebbe migliorare il sostegno scolastico a bambini con disabilità se la molto usata Token Economy fosse preceduta a una analisi comportamentale accurata che, come ci ha spiegato Carlo Ricci, vari programmi di IA (ad esempio BORIS) possono aiutarci a svolgere efficacemente? In questo senso è stato suggestivo l’intervento di Tiziana Catarci quando suggerisce che non basta più parlare di Human-in-the-loop, ovverosia l’umano come presenza formale che controlla e accetta assumendosi la responsabilità per l’operato dell’IA. Ciò che suggeriva è uno spostamento verso un paradigma di Human in the reasoning. Con l’IA agentica cioè capace di pianificare passaggi, usare strumenti e assemblare decisioni diventa importante una trasparenza ragionevole del funzionamento di un sistema di IA. Questo consente di limitare almeno 2 bias. Da un lato l’automation bias: la tendenza ad affidarsi quasi completamente all’IA, anche quado il risultato andrebbe verificato. Dall’altro l’algorithm aversion, cioè il rifiuto del consiglio dell’IA quando potrebbe essere utile. In questo senso l’IA, in qualità di agente, diventa polo di un’azione distribuita e che può essere valutata. In termini psicoterapeutici, un terapeuta che, ad esempio, legga una formulazione del caso o un progetto di intervento terapeutico prodotto attraverso l’IA non rischia di subirne l’autorevolezza apparente oppure, al contrario, di rifiutarla per diffidenza generica. Altrimenti, in entrambi i casi il ragionamento clinico non viene davvero potenziato. Serve invece che il terapeuta possa vedere come il sistema ha selezionato le informazioni, quali ipotesi ha privilegiato, quali alternative ha scartato e quali incertezze restano aperte. L’IA è utile solo se aumenta la capacità critica del clinico; non se la sostituisce con un risultato più o meno elegante.
- Caro psicoterapeuta, preoccupati dell’IA e chiediti come contribuire al contenimento delle possibili derive dal punto di vista etico. Cristiano Castelfranchi, con la sua abituale capacità di smuovere menti e coscienze, ha parlato di IA come inizio di una rivoluzione antropologica. Se abbiamo ben compreso è qualcosa di sovrapponibile alla cosiddetta rivoluzione cognitiva, iniziata come ben racconta Harari in Sapiens, con la nascita del linguaggio: con l’invenzione di strumenti di caccia, il Sapiens ha più tempo libero e questo favorisce il riunirsi intorno al fuoco e, appunto, la nascita del linguaggio e, quindi, del pensiero astratto. Messa così l’IA appare una cosa giusta e buona. C’è un “ma” che è stato solo accennato: chi crea e mette i contenuti dell’IA? Ovverosia quali dati vengono usati, quali bias incorporano. Chi decide che terapeuta l’IA sarà e quali principi etici lo guideranno? Più in generale, chi e come saranno dati confini etici che ci proteggeranno dal futuro descritto in La fattoria degli animali da Orwel? Nel convegno sono stati evocati, in via finzionale, scenari di un’AI autonoma che può prendere il sopravvento sull’umano. Effettivamente ad ora, e si fatica a vederne la realizzazione, è uno scenario finzionale. Le varie notizie emerse al riguardo sono più a scopo impressionistico e forse presentano una qualche utilità per chi fornisce servizi di AI generativa. Le notizie, ad esempio, al modello di IA Claude Opus 4, e successivi hanno sviluppato una descrizione di uno scenario di pericolo, dove l’AI prendeva il sopravvento agendo autonomamente: ricattando, denunciando per evitare lo spegnimento. Lo scopo sembrava essere garantirsi la sopravvivenza (timore: allora Spielberg aveva solo anticipato un fatto che ora si sta avverando con Odissea 2001 nello spazio? HAL 9000 già esiste!). Tuttavia queste sono situazioni che, per ora, si sono verificate solo in condizioni sperimentali. Ad oggi, quindi, che si sappia, non c’è un’AI in grado di darsi scopi propri, ma se e quando accadrà, la preoccupazione è d’obbligo.
Ringraziamo Francesco Mancini, la Consulta delle Scuole di Psicoterapie e l’Università Pontificia Salesiana per gli spunti di riflessione (anche di ansia per il futuro!).
foto di Tim Witzdam by Pexels.com



