Pare che in gennaio, a soli due mesi dal lancio, ChatGpt, applicazione che utilizza algoritmi di apprendimento automatico per generare risposte simili a quelle umane all’interno di un discorso, abbia raggiunto oltre cento milioni di utenti mensili diventando l’applicazione con la crescita più rapida della storia. L’espressione intelligenza artificiale ha inondato il web e molte chiacchiere da bar. Ma davvero dobbiamo rassegnarci al dominio di frasi improprie e apparentemente innocue come “l’algoritmo impara”, “il programma capisce”, “il sistema comunica”…?

Le parole rendono pensabile ciò che esprimono, in qualche modo modificano la realtà e, addirittura, possono contribuire a generarla. Dire qualcosa è già farla esistere nella forma in cui è stata detta: in questo aspetto (non in questioni di carattere morale o estetico) leggo il peso delle bugie, delle false notizie, delle distorsioni del linguaggio.
Nel dibattito sull’intelligenza artificiale, in particolare su ChatGPT, sto incontrando parole che accreditano a un programma o a un algoritmo attributi umani che in nessun modo li possono riguardare, col risultato di umanizzare ciò che umano non è, rendere vivo ciò che vivo non è.
Le macchine, i sistemi, i programmi, gli algoritmi possono registrare, conservare, calcolare, riconoscere, rispondere (automaticamente) a una sollecitazione, simulare, comporre dati, restituirli: possono eseguire comandi; non possono imparare, ricordare, pensare, capire, comprendere, comunicare, entrare in relazione… Funzionano per accumulo di dati e procedure prodotte o autoprodotte (ma anche l’autoproduzione delle procedure è programmata), l’apparente capacità di scelta è orientata dalla probabilità e dalla statistica. Dunque le frasi come “l’algoritmo impara”, “il programma capisce”, “Il sistema comunica” ecc. sono improprie, generano una realtà distorta. La stessa parola “intelligenza”, riducendo l’intelligenza alla computazione, viene usata ambiguamente e in modo riduttivo.
Rischiamo di umanizzare le macchine, come gli animali, le piante, come per secoli abbiamo umanizzato dio. Con le parole sbagliate ci abituiamo a pensare le macchine simili a noi e così contribuiamo a distorcere la realtà. E distorcendo la realtà, riducendola ai soli dati computabili, potremmo finire per accettare di pensare noi come macchine. Che è peggio.
Massimo Angelini è autore di ricerche e scritti dedicati alla storia della cultura delle comunità locali, vive a Minceto, frazione di Ronco Scrivia (Genova). Coordinatore nazionale della Rete Semi Rurali è stato direttore editoriale della casa editrice Pentàgora. Oggi è tra i promotori di Temposospeso, nuova esperienza editoriale nata per raccogliere storie legate alla vita di ogni giorno ma anche riflessioni e sguardi disallineati.
Lascia un commento