
Artificiale, certamente, intelligente, a condizione.
Si è tenuto a Parigi, nelle settimane scorse, il secondo vertice mondiale sull’Intelligenza Artificiale, con il fine di valutare il trend di sviluppo di questa tecnologia rivoluzionaria, con i pericoli, le opportunità che porta con sé e le prospettive di una sua regolamentazione condivisa a livello internazionale.
In tale sede, la presidentessa della Commissione dell’Unione Europea, Ursula Von der Leyen, ha annunciato un piano straordinario d’investimenti di 200 miliardi di euro, per consentire all’Europa di non essere dipendente da America o Cina, su una frontiera tecnologica e politico-economica decisiva per affrontare il futuro.
Il documento finale che raccomanda un controllo sui contenuti ed i soggetti gestori dell’I.A. non è stato condiviso dal rappresentante USA e anche il Regno Unito, sorprendentemente, si è defilato.
Il mondo occidentale, così è apparso più debole e diviso; l’Italia si è segnalata per l’assenza della Presidente del Consiglio Meloni, a dimostrazione del fatto che il Governo non sta affrontando, con la serietà necessaria, questa sfida, per l’importanza che ha.
Il tema dell’IA è certamente complesso, ma ciò che appare chiaro è l’esigenza di una regolamentazione, apertamente contrastata dal Presidente Trump che vuole lasciare campo libero agli oligarchi delle Big Tech, che lo hanno finanziato e sostenuto nella sua compagna elettorale.
Sono gli stessi scienziati, inventori dell’IA a segnalare la necessità di una regolamentazione, in assenza della quale i pericoli supereranno nettamente i vantaggi della nuova tecnologia cibernetica.
Il Premio Nobel Geoffrey Hinton, uno dei padri dell’IA, ha affermato che, “senza vincoli, l’IA è un’arma terribile e che l’alleanza tra vertici politici e padroni delle Big Tech, come quella realizzata a Washington, è un’alleanza pericolosa”.
Hinton ha precisato che “l’Intelligenza Artificiale può essere molto utile in molti campi, come medicina e ambiente.
Certo che bisogna svilupparla. Ma bisogna farlo in modo sicuro per l’umanità.
Cosa che invece non sembra affatto preoccupare il nuovo Governo USA”; tanto che il Vice Presidente Vance, nel vertice di Parigi, ha minacciato ritorsioni contro le nazioni che si azzarderanno a regolamentare questo nuovo settore tecnologico di punta.
Un avvertimento “padronale” all’Europa che da poco ha varato l’AI Act, fissando obiettivi ed ambiti della regolamentazione multilaterale. Con una impostazione che rappresenta una terza via, tra il far west americano, dove tutto è permesso, e il controllo totalitario cinese.
La normativa europea che non piace a Washington, assicura il pluralismo, ma, combatte i contenuti d’odio, imponendo obblighi di controllo e moderazione alle piattaforme.
Il diritto alla libertà di espressione non è il diritto alla vitalità di contenuti falsi o dannosi.
La trasparenza ed accessibilità degli algoritmi è fondamentale per proteggere i cittadini europei. Sui rischi, il Nobel Hinton ha aggiunto che, “sempre più malintenzionati o terroristi, usando, senza controlli, l’intelligenza artificiale, lanceranno attacchi cyber alle nostre infrastrutture e servizi”; come sta accadendo, in questo periodo, a quelle italiane, da parte di Hacker russi.
Prolifereranno le notizie manipolate online.
Le opinioni delle persone saranno anch’esse manipolate.
La potenza ed insieme la fragilità dell’intelligenza artificiale sono state ben chiarite da un altro Premio Nobel per la fisica; questa volta italiano, il Prof. Parisi che ha sottolineato la necessità della creazione di un centro pubblico europeo dedicato allo studio dell’IA.
Il Nobel italiano ha spiegato che “IA non ragiona” in modo autonomo, ma si limita a proporre una soluzione ad un problema, basandosi sull’enorme quantità di testi con cui è stata addestrata.
In sostanza, spiega Parisi, “L’IA è un grande riassunto di tutto ciò che l’umanità ha prodotto sul web, senza un vero processo logico; una sorta di “pappagallo” che ripete e combina informazioni senza comprenderne il significato; non possiede una rappresentazione critica del mondo reale, quindi non è in grado di adattarsi a nuove situazioni o correggere errori in autonomia”.
In sostanza, le risposte dell’IA dipendono dai dati con cui è stata addestrata. Se un sistema legge solo testi scientifici, darà risposte basate sulla scienza.
Se invece viene addestrato da teorie complottiste o “terrapiattiste”, restituirà risposte coerenti con queste false e pericolose narrazioni.
Il danno allo sviluppo di un pensiero autonomo e critico dei giovani è assai alto. Già oggi, molti studenti svolgono i compiti in classe con l’aiuto, via smartphone, di “chatgpt”, senza padroneggiare culturalmente ciò che scrivono.
L’IA, inoltre, non fornisce le fonti delle sue risposte, quindi è essenziale controllare l’attendibilità delle informazioni ricevute dal suo sistema. Da qui l’esigenza di una regolamentazione internazionale, per sfruttarne tutte le potenzialità e controllarne sempre i rischi potenziali.
Giacomo Porrazzini