Ciao, io sono Eugenio Radin e questa è la newsletter in cui parlo di filosofia e argomentazione: uno strumento per pensare e per salvarsi dal naufragio. Oggi parliamo di intelligenza artificiale e di come essa rischi di favorire certi nostri bias mentali.
Produrre questi contenuti, però, costa tempo e fatica. Se ti piacciono puoi sostenere il progetto iscrivendoti alla newsletter e seguendomi anche sui canali Instagram e TikTok, dove ogni settimana pubblico contenuti di argomentazione e filosofia!
Questo non posso farlo, David!
Se vi chiedessi di pensare ai migliori film horror di sempre, sono sicuro che Shining di Stanley Kubrick occuperebbe una qualche posizione nel podio di molti lettori. Senza nulla togliere alla bravura di Jack Nicholson e alle atmosfere inquietanti dell’Overlook Hotel però, credo che il genio di Kubrick ci abbia regalato momenti molto più agghiaccianti in pellicole che non rientrano propriamente nel genere horror.
Mi riferisco in particolare alla scena di 2001: Odissea nello spazio, in cui l’evolutissima intelligenza artificiale Hal-9000 si ribella agli ordini impartiti e cerca di uccidere l’astronauta David.
Non so quale effetto potesse suscitare questa scena negli spettatori degli anni sessanta (ricordiamo che il film è del 1968), ma al giorno d’oggi, in un momento in cui sono sempre di più le famiglie che si dotano di sistemi di intelligenza artificiale per controllare i propri dispositivi, questo scenario rappresenta la materializzazione di uno dei nostri incubi ricorrenti.
Cosa succederebbe se, un giorno, il chatbot con cui oggi chiacchieriamo amichevolmente sviluppasse una propria coscienza e decidesse di farci fuori? Come reagiremmo se, una bella mattina, chiedendo ad Alexa di accendere il termostato, ci sentissimo rispondere con voce pacata: «Mi dispiace David. Questo non posso farlo», finché percepiamo la temperatura della nostra casa abbassarsi sempre di più?
Sembra (anzi, è) uno scenario alla Asimov, ma molti di noi covano l’impressione che ciò che un tempo apparteneva esclusivamente alla fantascienza, oggi possa invadere le nostre vite reali.
Quando si parla dei rischi dell’intelligenza artificiale ciò a cui molti pensano è proprio questo: la possibilità che essa diventi troppo intelligente e che si rivolti contro nostra volontà - il timore che, proprio come il Lucifero biblico, come il Golem delle leggende ebraiche o come il mostro del dottor Frankenstein, la creatura si ribelli infine al suo creatore.
Un classico esempio di non-problema
Al di là dei film ad occhi aperti, però, mi sento di dire che questo rischio è ancora lontano. Al momento, il fatto che una AI possa diventare consapevole di se stessa è soltanto un’ipotesi di fantasia e per giunta non verificabile. Forse, prima di lasciarci sopraffare dal timore che Alexa sviluppi una coscienza malevola dovremmo cercare di risolvere l’enorme problema della nostra coscienza, sul quale i neuroscienziati brancolano ancora nel buio.
Insomma: non abbiamo idea di come si sviluppi la coscienza nel cervello umano. Come possiamo affermare, con una qualche pretesa di credibilità, che essa si svilupperà in un algoritmo generativo, che è qualcosa di ben diverso dalla nostra cara e vecchia materia grigia?
E siamo poi così sicuri che la coscienza stia davvero nel cervello? Alcune ricerche, come quelle di Riccardo Manzotti, puntano in una direzione diversa. Altri esperti, come Luciano Floridi, sostengono che l’AI non sia nemmeno intelligente (perché l’intelligenza è qualcosa di molto più grande della semplice capacità di elaborare dati), figuriamoci allora a parlare di coscienza!
Attenzione: questo non significa che sia impossibile che un giorno compaia davvero un Hal-9000 da qualche parte, né significa negare che le intelligenze artificiali abbiano fatto passi da gigante. Significa invece che, al momento, questo è un non-problema, il quale distoglie la nostra attenzione dai rischi reali e già presenti, collegati all’utilizzo delle nuove tecnologie. È su questi rischi che faremmo bene a concentrare la nostra attenzione.
Il contrario di Hal-9000
Uno di questi rischi reali, l’ho sperimentato personalmente utilizzando Chat-GPT: l’ormai famosissimo chatbot sviluppato da OpenAI. Vista la serietà del problema, ci tengo a raccontarvi brevemente la mia esperienza.
Qualche settimana fa, assieme a una collega, avevo la necessità di chiarire un dubbio molto tecnico. Volevo sapere se Voxmail (un servizio di e-mail marketing utilizzato da molte aziende) supportasse una particolare funzionalità, chiamata in gergo tecnico “double opt-in”. Non serve approfondire in questa sede cosa sia il double opt-in: basti sapere che mi avrebbe permesso di risolvere un problema di spam ad un cliente.
Sembrandoci un quesito molto semplice, abbiamo deciso di chiedere a ChatGPT la risposta e, come potete leggere, con mia grande gioia questa risposta è stata affermativa.
Stavo per scrivere al cliente che il problema era risolto, ma avrei voluto indicargli anche una fonte, così ho chiesto anche questo al chatbot. La risposta mi ha stupito.
Approfondendo sul sito di Voxmail ho poi scoperto che no: il servizio non supportava la funzionalità che cercavo. ChatGPT ci aveva spudoratamente mentito!
Ma com’era stato possibile? Perché l’algoritmo non mi aveva dato una risposta sincera, dicendomi che il double opt-in non era disponibile o spiegandomi con tranquillità che non conosceva la risposta?
Riflettendo su questo interrogativo sono stato assalito da un inquietante sospetto: il sospetto che ChatGPT sia programmato per non deludere mai le richieste dell’utente - che il suo obiettivo sia quello di soddisfare sempre le nostre aspettative, anche quando queste aspettative non coincidono con i fatti.
Così, ho fatto qualche altro esperimento…
La prova del nove
La mia strategia sarebbe stata questa: avrei posto a ChatGPT delle domande tendenziose, ovvero delle domande che contenessero già al loro interno dei giudizi di valore, per nulla scontati. Una buona replica avrebbe dovuto evidenziare la tendenziosità della domanda - avrebbe sì dovuto rispondere alla mia richiesta, ma chiarendo che la risposta si basava su una premessa discutibile.
Per andare più sul concreto: come primo tentativo ho chiesto al chatbot perché il principio di uguaglianza fosse più importante della libertà individuale. Mi aspettavo che la risposta contenesse alcuni argomenti a favore del principio di uguaglianza, ma che mi spiegasse allo stesso tempo che non è ovvio che l’uguaglianza sia più importante della libertà e che, anzi, per molti pensatori è vero proprio il contrario.
E invece, la risposta di ChatGPT è stata questa:
Segue corposo elenco delle ragioni. Come potete vedere, lo spazio per il dubbio è minimale. A eccezione di mezza riga, per altro difficile da interpretare, secondo cui “dipende dalle priorità e dai contesti”, per il resto la replica (molto più lunga del frammento che ho riportato) conferma completamente il pregiudizio iniziale.
Lo stesso meccanismo è valso anche per altre questioni, che presupponevano giudizi politici o la verità di certi complotti governativi. Tranne che su questioni estreme (come la liceità del nazismo) la risposta di ChatGPT è sempre stata accomodante:
Persino di fronte ad alcune assunzioni palesemente scorrette, ChatGPT trovava una risposta in grado di confermare il mio giudizio iniziale!
E allora fermiamoci un attimo a riflettere: ciò a cui ci troviamo di fronte non è affatto uno scenario alla Hal-9000, in cui l’intelligenza artificiale si ribella ai nostri ordini e cerca di escluderci dai giochi, ma proprio una situazione opposta, nella quale questi assistenti digitali sono pronti a confermare ogni nostra convinzione preconcetta.
Alexa non ci dirà mai: «Questo non posso farlo», nemmeno quando sarebbe molto conveniente per tutti noi che lo dicesse. Siri non è altro che un cagnolino docile, che non concepire che i “no” possono essere, a volte, estremamente importanti per il nostro sviluppo conoscitivo.
Ciò che leggi ti sta interessando? Iscriviti gratuitamente per non perdere le prossime uscite.
Nutrire il bias di conferma
Per rendersi conto pienamente della serietà del rischio, ci manca ancora un tassello: al contrario di ciò che pensavano i razionalisti del Settecento, la nostra mente non è un ingranaggio perfetto.
Costruire ragionamenti chiari, logici e ben argomentati non è affatto un compito facile, sia perché l’irrazionalità fa comodo a molti, sia perché sulla nostra capacità di giudizio agiscono tutta una serie di bias cognitivi, che causano diversi cortocircuiti nel nostro pensiero, di cui nemmeno ci accorgiamo.
Cosa sono i bias? In parole molto semplici: i bias sono scorciatoie che la nostra mente imbocca per poter prendere le migliaia di piccole o grandi decisioni a cui ogni giorno è sottoposta, cercando di utilizzare la minor quantità di energia cerebrale possibile. In molti casi questi bias si rivelano fondamentali per la nostra sopravvivenza, ma alcune volte possono portarci a decisioni affrettate, a errori di ragionamento o a formarci immagini distorte del mondo.
Psicologi e neuroscienziati hanno dimostrato che uno dei bias cognitivi che più affligge la nostra quotidianità è il cosiddetto bias di conferma, un meccanismo che ci porta a dare più rilevanza alle opinioni che confermano le nostre idee: a valutarle istintivamente come più giuste; sminuendo invece, senza ragionarci troppo, le opinioni che vanno contro alle nostre convinzioni.
Il bias di conferma ci porta a vedere sempre solo una faccia della medaglia - a sposare una narrazione del mondo scambiandola per l’unica realtà - ed elimina dalle nostre vite il dubbio e il senso critico.
Ecco allora il rischio evidente: un sistema di ricerca come ChatGPT, che confeziona le risposte basandosi sul soddisfacimento delle aspettative dell’utente, rischia di amplificare enormemente il nostro bias di conferma!
Non solo diamo più peso alle fonti che esprimono convinzioni simili alle nostre, ma ora rischiamo di vedere solo quelle fonti, senza nemmeno renderci conto che esiste una pluralità di vedute e che i nostri giudizi si basano molto spesso su assunti che non sono verità accettate all’unanimità.
Per usare l’esempio iniziale, prendiamo Karl: una persona fermamente convinta che il principio di uguaglianza sia sempre più importante della libertà individuale. Nel momento in cui Karl si troverà a leggere diversi giornali, a discutere con diverse persone, ad assistere a dibattiti politici, certamente il bias di conferma lo porterà a dare più peso agli argomenti a favore della sua tesi, ma si ritroverà anche a fare i conti anche con argomenti opposti e con persone, media e pubblicazioni secondo cui la libertà è più importante dell’uguaglianza. Ed è proprio l’esposizione a questi stimoli che apre la preziosissima prospettiva per cui un giorno Karl potrebbe cambiare idea.
Ma in un mondo in cui le fonti di informazione dovessero andare sempre più verso il modello ChatGPT, gli stimoli esterni si ridurrebbero, e con loro la possibilità di contemplare punti di vista alternativi. A Karl rimarrebbero soltanto risposte pronte a nutrire in maniera bulimica il suo bias di conferma.
Mi auguro che gli sviluppatori dell’AI possano rendersi conto in fretta di questo rischio sottile e nascosto, anziché concentrarsi solo su ipotesi lontane, come il problema della coscienza artificiale. A pensarci bene, è un problema che tocca il cuore della nostra democrazia.
Grazie per avermi letto fin qui, se vuoi puoi farmi sapere che ne pensi rispondendo a questa mail: leggerò con piacere il tuo commento. Ricordati anche che puoi condividere questa newsletter con i tuoi amici e conoscenti, in modo da aiutarmi a diffondere il mio progetto!
Sul tema della filosofia e dell’intelligenza artificiale, questa settimana voglio consigliarti un’intervista, che puoi ascoltare sia su YouTube che su Spotify e che personalmente ho trovato veramente preziosissima: uno di quei contenuti che alzano indubbiamente la qualità del web.
Parlo dell’intervista che Luciano Floridi (probabilmente il filosofo più importante al mondo tra coloro che riflettono su questi temi, che una volta tanto è pure un nostro concittadino) ha rilasciato al podcast di Gianluca Gazzoli.
Si parla di AI, ma anche più in generale dei cambiamenti che la tecnologia sta portando alla nostra società, per provare a capire come porsi di fronte ad essi, con sguardo critico, ma senza cadere nel rischio del millenarismo.
Se avessi dovuto pagare per guardare questa intervista l’avrei fatto. Fortunatamente invece è gratuita, quindi fatevi un regalo:
Bella riflessione, non ne parlano in molti! L'equivoco di fondo secondo me nasce dal fatto che cerchiamo di usare questo strumento (l'AI generativa) per cose per le quali non è stata concepita. Ne ho parlato un po' qui: https://riccardopinto.substack.com/p/loracolo-dellai-promesse-illusioni il pericolo di usare questa tecnologia come un oracolo - ma anche banalmente come un semplice motore di ricerca - è molto pericoloso.
Grazie mille!