ELIZA: la prima AI terapeuta
Dal 30 novembre 12.022 EU (2022 d.C.), data di rilascio al pubblico di ChatGPT da parte dell’organizzazione no profit OpenAI, si è tornato a parlare tantissimo di intelligenze artificiali: applicazioni, potenzialità e rischi che ne conseguono. Non molti forse conoscono la storia di una delle primissime intelligenze artificiali: ELIZA.
Proprio come ChatGPT, ELIZA appartiene alla classe dei chatterbots, ossia un motore di dialogo basato su un sistema di machine–learning in grado di simulare ed elaborare risposte convincenti agli occhi (o alle orecchie) di un essere umano. A rendere speciale ELIZA è il suo periodo di sviluppo, gli anni ’60, mezzo secolo prima di ChatGPT!
Il primo chatbot della storia
Tra il ’64 e il ’66, Joseph Weizenbaum, ricercatore informatico e docente presso il MIT, iniziò a sviluppare attraverso un linguaggio informatico di sua stessa invenzione un programma che fosse in grado di simulare una conversazione umana.
Lo scopo di Weizenbaum non era di sostenere una conversazione qualsiasi, ma quella tra un paziente e uno psicoterapeuta di stampo “rogersiano”. In quegli anni, infatti, Carl Rogers, un importante terapeuta americano, aveva ideato un aiuto terapeutico detto “counseling” incentrato sull’ascolto del paziente, sull’accettazione e l’empatia.
Per avere un’idea di quanto pionieristica fosse tale idea per il ’64, teniamo a mente che l’uomo non aveva ancora messo piede sulla Luna. Inoltre, i primi personal computers non sarebbero arrivati nelle case dei consumatori più benestanti prima di un altro decennio.
Per realizzare un sistema che fosse sufficientemente credibile, Weizenbaum dovette affrontare cinque problemi tecnici che egli stesso definì “fondamentali”, ossia:
- Individuazione delle parole chiave.
- Identificazione di un contesto minimo.
- Trasformazione dell’input in output.
- Generazione di risposte in assenza di parole chiave valide.
- Capacità di adattare lo script DOCTOR al contesto.
A differenza di un moderno chatbot, infatti, ELIZA era sprovvista di una rete neurale artificiale che le avrebbe permesso di attingere a una vasta banca dati in tempo reale così da perfezionare le sue risposte. D’altronde, mancava una tale potenza di calcolo. Per aggirare il problema, ELIZA svolgeva il ruolo “dinamico” di analizzare il contesto e curarne un output che fosse coerente.
Dopodiché, ELIZA attingeva da uno script denominato DOCTOR rappresentante invece il “vocabolario”, congruente con lo stile di counseling psicoterapeutico che voleva imitare. Inoltre, ELIZA possedeva una ridotta capacità nell’alterare quello stesso script, nel caso fosse opportuno.
Il funzionamento di ELIZA
Affrontiamo passo passo un’ipotetica conversazione con ELIZA e vediamo come quest’ultima svolga dietro le quinte il processo di analisi, elaborazione e produzione di una risposta che suoni convincente per un interlocutore umano. La frase ricevuta in input da ELIZA sarà: “mi fa stare male“.
Come spiegato nel precedente paragrafo, il primo passo è l’individuazione di tutte le “parole chiave”.
Per riconoscere le parole chiave ELIZA si avvale dello script, in questo caso DOCTOR. Esso infatti contiene non solo i termini da ricercare nel testo, ma anche il valore, o rank, da associare a ciascuno. Parole chiave di discreta rilevanza conversazionale, ad esempio “stare male” riceveranno un punteggio superiore rispetto a termini più comuni, come “mi” e “fa”.
In questo modo, si avvierà il processo di identificazione del contesto minimo attraverso cui ELIZA registrerà i valori di ciascuna parola e le riorganizzerà in una classifica decrescente, dando maggior priorità agli elementi in cima: “stare male” (3), “fa” (2); “mi” (1). Questo processo può variare sensibilmente in funzione della “regola di scomposizione” applicata.
Fatto ciò, si aprirà la fase di trasformazione dell’input in output e sarà necessario ricostruire la frase in una risposta di senso compiuto. Per farlo, la “regola di scomposizione” richiama a sua volta una “regola di ricostruzione“, o più, in funzione del contesto.
Una frase come “Mi fa stare male“, richiamerebbe ad esempio la risposta “Cosa ti (2) (3)?”, che diverrebbe: “Cosa ti fa stare male?”. In questo caso, ELIZA verrebbe istruita a convertire automaticamente la particella pronominale “mi” in “ti” dallo script DOCTOR, qualora dovesse individuarla nel testo.
E se ELIZA non riconoscesse alcuna parola chiave? Il Prof. Weizenbaum fornisce istruzioni anche su questo.
ELIZA fornirebbe un output generico (“Capisco”, oppure “Puoi spiegarti meglio?”) volto a far proseguire la conversazione e catturare nuove parole chiave nel round successivo. Oppure appellarsi all’unità MEMORY per ripescare parole chiavi individuate negli scambi precedenti in modo da riaprire la conversazione.
Per ogni sessione era possibile arricchire lo script, fosse esso DOCTOR o un insieme di istruzioni create da zero, aggiungendo nuove parole chiave e correggendo le regole di trasformazione. Questo permetteva a ELIZA di adattare le risposte in base allo scenario richiesto.
L’effetto ELIZA
Data la straordinaria similitudine nelle risposte di ELIZA a quelle di un essere umano, divenne molto facile per gli utenti cadere nella convinzione che dall’altra parte dello schermo vi fosse un umano in carne e ossa. Questa falsa impressione fu coniata proprio a partire dal lavoro del Prof. Weizenbaum come “the ELIZA effect”.
Da allora l’effetto ELIZA viene indicato per descrivere tutti quei casi dove siamo naturalmente spinti a rapportarci con gentilezza o empatia verso un assistente virtuale come Google Assistant, Siri o Alexa.
Ma non solo. Nel recente periodo, questo effetto si è ripresentato attraverso la diffusione nell’uso quotidiano del chatbot ChatGPT e derivati. Le sue risposte, facilmente interpretabili come umane, hanno spinto moltз a domandarsi se dietro quelle righe di codice vi fosse un’entità cosciente, in grado di provare emozioni.
Nonostante i primi timori e scetticismi, le intelligenze artificiali stanno divenendo sempre più importanti nelle nostre vite. Di come le AI stiano gettando le basi per il futuro nel campo della tecnologia, e sopratutto della medicina ne abbiamo parlato qui.
Per concludere in bellezza (e con un pizzico di ironia) non ci resta che far concludere a un chatbot un articolo sulla storia di un chatbot!
ChatGPT, fornisci una conclusione interessante per un articolo su ELIZA.
«In conclusione, ELIZA, il chatbot sviluppato dal professor Weizenbaum, rappresenta un importante capitolo nella storia dei chatbot. Creato oltre cinquant’anni fa, ELIZA continua ad influenzare la progettazione dei chatbot moderni, grazie alla sua capacità di simulare una conversazione terapeutica e all’uso per supporto emotivo e benessere mentale.
Inoltre, ELIZA ha sollevato questioni etiche e filosofiche sulla relazione uomo-macchina, che sono ancora al centro del dibattito attuale. Il suo impatto profondo e duraturo nel campo degli chatbot lo rende un punto di riferimento fondamentale che continuerà a guidare le future generazioni di sistemi di conversazione.»
Fonti
Weizenbaum, J. (1966). ELIZA—a computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36-45. DOI: 10.1145/365153.365168
Laureato in Scienze Biologiche presso l’Università degli Studi di Ferrara e studente magistrale in Molecular and Cell Biology presso l’Alma Mater Studiorum di Bologna. Profondamente innamorato della Scienza in tutte le sue diramazioni, di musica elettronica e cyberpunk.