OpenAI è finita sotto accusa dopo aver attribuito a GPT-5 la soluzione di celebri problemi matematici, ma si è trattato solo di ricerche bibliografiche. Dure critiche da LeCun e Hassabis, mentre la comunità scientifica parla di “fraintendimento”.
OpenAI è nuovamente al centro di polemiche, questa volta nel mondo accademico. L’azienda aveva annunciato che GPT-5 aveva risolto dieci problemi di Erdős, celebri congetture formulate dal matematico Paul Erdős e considerate aperte da decenni. La notizia, rilanciata dal vicepresidente Kevin Weil in un post poi rimosso, ha scatenato entusiasmo, ma anche scetticismo.
Yann LeCun, capo scienziato di Meta, ha liquidato l’annuncio come “imbarazzante”, mentre Demis Hassabis, CEO di Google DeepMind, ha usato la stessa parola per commentare la vicenda. A chiarire la confusione è intervenuto Thomas Bloom, matematico e curatore del sito Erdős Problems: i quesiti citati risultavano “aperti” solo perché non era a conoscenza di pubblicazioni che li affrontassero. In realtà, GPT-5 non ha generato nuove dimostrazioni, ma ha rintracciato articoli già esistenti che fornivano soluzioni o parziali avanzamenti.
Anche Sebastien Bubeck, ricercatore di OpenAI, ha riconosciuto l’errore, sottolineando però il valore tecnico della ricerca bibliografica compiuta dal modello: “È difficile esplorare la letteratura matematica, e GPT-5 ha mostrato capacità notevoli in questo campo”.
Il caso solleva interrogativi sul rapporto tra hype tecnologico e rigore scientifico. Dichiarazioni premature rischiano di compromettere la credibilità delle aziende di intelligenza artificiale, alimentando un clima di competizione più basato sulla comunicazione che sul merito dei risultati.
Cronologia e approfondimenti
- Paul Erdős e i suoi problemi matematici: American Mathematical Society
- Commento di Thomas Bloom sul sito Erdős Problems: Erdős Problems
- Posizione accademica sul ruolo dell’IA nella matematica: Nature
Consigli di lettura
- Analisi di Yann LeCun sul futuro dell’IA: Meta AI Research
- Articolo di DeepMind sulle applicazioni dell’IA nella matematica: DeepMind Blog
Abstract
Il caso dei presunti “problemi di Erdős risolti da GPT-5” dimostra i rischi di comunicazioni affrettate nell’IA. Pro: la capacità del modello di esplorare la letteratura scientifica è un passo avanti utile per i ricercatori. Contro: la confusione tra ricerca bibliografica e scoperta originale rischia di minare la credibilità scientifica e di alimentare hype ingiustificato. Le conseguenze future potrebbero riguardare sia la fiducia pubblica verso l’IA, sia il rapporto tra scienza e comunicazione nelle Big Tech.







