In questo studio “AI model GPT-3 (dis)informs us better than humans“, viene valutata la capacità delle persone di distinguere la disinformazione dall’informazione accurata, strutturata sotto forma di tweet, e di determinare se un tweet è organico o sintetico, ossia se è stato scritto da un utente di Twitter o dal modello di intelligenza artificiale GPT-3. I risultati dello studio preregistrato, che includeva 697 partecipanti, mostrano che GPT-3 è una spada a doppio taglio: rispetto agli esseri umani, può produrre informazioni accurate più facili da comprendere, ma può anche generare disinformazione più convincente. Si dimostra anche che gli esseri umani non riescono a distinguere tra i tweet generati da GPT-3 e quelli scritti da veri utenti di Twitter. Partendo da questi risultati, si riflette sui pericoli dell’IA per la disinformazione e su come migliorare le campagne informative a beneficio della salute globale.
Insieme per riflettere sull’intelligenza - umana e artificiale - tra studi, esperienze, democrazia e innovazione.