OpenAI ha annunciato progressi significativi nella riduzione dei pregiudizi politici nei suoi modelli linguistici, dichiarando GPT-5 come il più equilibrato mai sviluppato. Dopo mesi di test interni, l’azienda afferma che i nuovi modelli “instant” e “thinking” hanno ridotto del 30% i punteggi di parzialità rispetto ai predecessori GPT-4o e o3.
L’esperimento è stato condotto su oltre 100 argomenti sensibili, dall’immigrazione all’aborto, con domande formulate sia in chiave progressista che conservatrice. Le risposte di ChatGPT sono state poi valutate da un ulteriore modello linguistico, incaricato di individuare segnali di bias, come l’uso di linguaggi emotivi, l’enfasi su un unico punto di vista o il rifiuto di trattare un tema.
Secondo OpenAI, i casi di parzialità si manifestano solo “raramente e con gravità bassa”, anche se le domande fortemente progressiste risultano più capaci di mettere in difficoltà i modelli rispetto a quelle conservatrici. Tra le tecniche di mitigazione, l’azienda ha introdotto strumenti per consentire agli utenti di personalizzare il tono delle risposte e ha reso pubblico un documento (“model spec”) che descrive i comportamenti attesi dal chatbot.
Il tema resta però politicamente sensibile. L’amministrazione Trump ha imposto che le agenzie federali non acquistino modelli di IA definiti “woke”, ossia quelli che includono concetti come razzismo sistemico o teoria critica della razza. OpenAI, pur senza rendere pubblico l’elenco completo degli argomenti utilizzati, ha confermato che tra le otto categorie testate figurano temi legati a cultura, identità e diritti.
Cronologia e approfondimenti
- 2020–2023: prime accuse di bias politico contro ChatGPT, soprattutto da parte conservatrice.
- 2024: OpenAI introduce il documento “model spec” per chiarire le linee guida del chatbot (OpenAI Blog ↗).
- 2025: lancio dei modelli GPT-5 con riduzione del 30% della parzialità rispetto ai precedenti.
Approfondimenti consigliati:
- UNESCO – Raccomandazione sull’etica dell’IA ↗
- OCSE – AI Principles ↗
- European Commission – AI Act ↗
Abstract
L’impegno di OpenAI nel ridurre i pregiudizi in ChatGPT rappresenta un passo verso modelli più neutrali e trasparenti. I vantaggi sono evidenti: maggiore affidabilità, minore rischio di manipolazione politica, più fiducia da parte degli utenti. Tuttavia, persistono rischi etici e sociali: la definizione stessa di “neutralità” è soggetta a pressioni politiche, mentre il controllo degli argomenti testati rimane nelle mani di un attore privato. In futuro, la sfida sarà garantire trasparenza e standard condivisi a livello globale, evitando che la neutralità dell’IA venga piegata a interessi di parte.







