
L’intelligenza artificiale: potenzialità e limiti nell’apprendimento e nelle decisioni
Non possiamo fare una TAC o una risonanza magnetica ai chatbot per capire cosa succede al loro interno quando rispondono. Già nel 2018, lo studioso statunitense Frank Pasquale parlava dei chatbot come di una “scatola nera”: trasparenti solo per input e output, ma senza rivelare come arrivano alle loro risposte. La Dott.ssa Fosca Giannotti, ordinaria alla Normale di Pisa, sottolinea che gli algoritmi dei modelli di linguaggio (LLM) sono così complessi che spesso sfuggono persino a chi li ha creati. A complicare le cose, non sappiamo esattamente cosa sappiano questi modelli. Paradossalmente, mentre i chatbot trovano risposte a ogni domanda, non riescono a rispondere nemmeno a quella più semplice: “Chi te l’ha detto?”
Ad esempio, il chatbot di Google, chiamato Gemini, ha una funzione speciale che permette di verificare l’attendibilità delle risposte. Dopo aver generato un testo, Gemini effettua una ricerca web per confermare o confutare le informazioni. Le frasi verdi sono quelle verificate, mentre quelle arancioni sono quelle che probabilmente differiscono da quelle trovate online. In pratica, Gemini non è sicuro delle sue affermazioni, e cerca conferme dopo aver parlato. Questo crea un’enorme incertezza: mentre il cervello umano ha delle certezze sul suo processo di apprendimento, per le macchine non è così. Un computer, infatti, non deve spiegare come prende le sue decisioni, l’importante è il risultato.
Nel mondo reale, però, le cose funzionano diversamente. In uno stato di diritto, chi prende decisioni deve essere in grado di motivarle e rispondere delle proprie azioni. Perciò, nei processi decisionali che coinvolgono l’AI, è fondamentale che l’uomo sia presente dall’inizio alla fine. La domanda cruciale è: cosa succede quando le risposte di una macchina possono cambiare la vita delle persone? E cosa accade quando le macchine diventano così diffuse e accessibili da influenzare le menti delle nuove generazioni?
Prendiamo ad esempio la pandemia e il lockdown, periodi in cui la DAD e l’uso di ChatGPT hanno avuto grande successo, specialmente tra gli adolescenti. Molti hanno smesso di leggere e scrivere, passando da un video all’altro senza interazioni profonde. Questo ha avuto delle ripercussioni sul pensiero critico, sull’immaginazione creativa, sull’introspezione e sulla capacità di comprendere le emozioni altrui. I modelli di linguaggio come le LLM hanno estratto conoscenze dal linguaggio, ma senza considerare la dimensione spazio-temporale, che è fondamentale per l’apprendimento umano.
Siamo umani, viviamo di relazioni ed emozioni. Ogni esperienza che apprendiamo viene etichettata nei nostri ricordi, contribuendo a formarci come persone. I chatbot, invece, sono strumenti cooperativi che rispondono in modo statisticamente pertinente, ma non sono in grado di mettersi in discussione, aggiornarsi autonomamente o contestualizzare il loro sapere come farebbe un insegnante. Viviamo in un’epoca in cui i testi sono automatizzati e potenziati dall’AI. Come diceva Platone, la scrittura può rispondere sempre la stessa cosa quando la interroghi, mentre il dialogo e il confronto ti permettono di arrivare alla verità tramite il discorso.
In conclusione, l’intelligenza artificiale è una risorsa straordinaria, ma è necessario che la ricerca sviluppi nuovi strumenti per prevenire storture e distorsioni che potrebbero trasformarla in un pericoloso ingranaggio.
Pierluigi Seri