Le contromisure
Elezioni e disinformazione, come OpenAI contrasterà chatbot e messaggi ingannevoli

Con oltre 50 paesi che si avvicinano a elezioni quest’anno, OpenAI ha presentato il nuovo piano volto a contrastare la disinformazione elettorale tramite i suoi servizi, in particolar modo ChatGPT e DALL-E. La società ha delineato le linee guida strategiche per evitare l’uso improprio dei suoi strumenti di AI generativa, capaci di generare rapidamente testi e immagini, ma anche suscettibili a essere usati per diffondere messaggi ingannevoli. OpenAI introdurrà misure specifiche come vietare l’uso delle sue tecnologie per creare chatbot che impersonano candidati o governi, diffondere informazioni false sul processo di voto, o scoraggiare la partecipazione elettorale.
La compagnia ha anche deciso di impedire a collaboratori e aziende che usano le sue tecnologie lo sviluppo di applicazioni per campagne politiche o lobbying, in attesa di ulteriori ricerche sul loro potenziale impatto. Un elemento cruciale del piano è anche quello della introduzione di “watermark digitali” – impronte che li rendono immediatamente riconoscibili – sulle immagini generate dal DALL-E, per identificarne chiaramente l’origine artificiale. Inoltre, OpenAI collaborerà con enti terzi super-partes per indirizzare gli utenti verso informazioni accurate sul voto.
L’efficacia di queste misure dipenderà dalla loro implementazione e da più parti della società civile arrivano interrogativi sulla capacità dei filtri di OpenAI di gestire le domande sulle elezioni in modo esauriente: la sfida è aperta e l’arena altamente competitiva, considerando che altre aziende nel campo dell’AI generativa non hanno ancora adottato salvaguardie simili. Da molte parti, invece, arriva la richiesta di sottolineare l’importanza di un approccio coordinato nel settore dell’AI generativa: senza un’adozione volontaria di politiche di trasparenza, la regolamentazione della disinformazione in politica potrebbe richiedere infatti un intervento legislativo.
Negli USA, il Congresso non ha ancora passato leggi specifiche per il settore, mentre altri stati si sono mossi autonomamente contro i deepfake nelle campagne, inclusa l’Europa con norme specifiche all’interno dell’AI-Act in approvazione nei prossimi mesi. Da sottolineare infine come, nonostante le misure implementate, Sam Altman – CEO di OpenAI – continui a esprimere preoccupazione, evidenziando la necessità di un monitoraggio costante e attento per affrontare efficacemente la disinformazione durante le imminenti elezioni. Una prospettiva non proprio rassicurante…
© Riproduzione riservata