OpenAI, l’azienda fondata da Sam Altman, creatore di ChatGPT, ha pubblicato ieri un rapporto di 54 pagine in cui afferma di aver bloccato oltre 20 operazioni e reti ingannevoli da tutto il mondo che hanno cercato di sfruttare i modelli di ChatGPT. Le minacce identificate variavano da articoli generati dall’intelligenza artificiale su siti web a post sui social media provenienti da account falsi.
L’azienda ha affermato che l’aggiornamento su queste operazioni di influenza e informatiche era destinato a fornire una panoramica iniziale su come l’IA si inserisce nel più ampio panorama delle minacce. Questo rapporto arriva a meno di un mese dalle elezioni presidenziali degli Stati Uniti e in un anno elettorale significativo per oltre 40 Paesi, con competizioni che interessano più di 4 miliardi di persone in tutto il mondo.
L’allarme lanciato al World Economic Forum di Davos
Le preoccupazioni legate all’uso della disinformazione non sono nuove. Già a gennaio 2024, durante il World Economic Forum di Davos, il “Global Risks Report” ha classificato la disinformazione e l’informazione errata legate all’intelligenza artificiale come uno dei principali rischi globali per i prossimi due anni. I rischi identificati includevano la polarizzazione sociale, eventi meteorologici estremi, conflitti interstatali e insicurezza informatica.
Eventi come l’aumento dei deepfake, che sono cresciuti del 900% anno su anno secondo Clarity, un’azienda di apprendimento automatico, hanno amplificato i timori che l’IA possa essere utilizzata per manipolare l’opinione pubblica su larga scala. La disinformazione, in particolare durante le elezioni, è già stata un problema rilevante nelle campagne passate, come quelle presidenziali statunitensi del 2016, quando attori russi hanno sfruttato i social media per diffondere contenuti falsi.
Preoccupazioni crescenti sull’uso politico dell’intelligenza artificiale
Con il crescente uso dell’intelligenza artificiale generativa, lanciata con ChatGPT alla fine del 2022, le preoccupazioni tra i legislatori si sono intensificate. OpenAI ha sottolineato nel suo rapporto come l’uso dell’IA durante le elezioni vari per complessità: dalle semplici richieste di generazione di contenuti fino agli sforzi più complessi, che includono analisi e risposte mirate sui social media.
Alcuni degli attacchi sono stati condotti in nazioni come gli Stati Uniti, il Ruanda, l’India e l’Unione Europea. In uno dei casi documentati ad agosto, i servizi di intelligence iraniani hanno utilizzato i prodotti di OpenAI per creare articoli e post social lunghi, mirati a influenzare le elezioni statunitensi, ma con scarso successo: molti di questi post hanno ricevuto pochi o nessun Mi piace, condivisione o commento.
Anche se queste operazioni non hanno ancora ottenuto un coinvolgimento virale significativo, il potenziale per manipolazioni su larga scala nelle future elezioni è evidente. In un altro esempio, OpenAI ha scoperto un’operazione che ha utilizzato la sua tecnologia per generare commenti sulle elezioni del Parlamento europeo, oltre che sulla politica in Germania, Italia e Polonia. Anche in questo caso, il coinvolgimento del pubblico è stato limitato, ma alcuni utenti reali hanno risposto ai post generati dall’intelligenza artificiale.
Conclusioni
Nonostante l’impatto limitato delle operazioni finora osservate, la crescente adozione dell’intelligenza artificiale generativa solleva preoccupazioni su come questi strumenti possano essere usati per influenzare le elezioni. Se finora la manipolazione elettorale è stata marginale, il pericolo che queste tecniche possano diventare più efficaci in futuro è reale.
Il rapporto di OpenAI ha l’obiettivo di aumentare la consapevolezza di queste minacce e di preparare il terreno per regolamentazioni e misure preventive che possano contrastare l’uso scorretto dell’intelligenza artificiale nei contesti elettorali e politici.
Approfondimento
Oltre i “Magnifici”: Cinque Grandi Temi di Crescita da Osservare