Un nuovo studio accademico suggerisce che prompt maleducati rivolti a ChatGPT-4o producano risposte leggermente più accurate. Il risultato riapre il dibattito su affidabilità, prevedibilità ed etica delle interazioni uomo-IA.
Essere gentili con gli assistenti vocali è una pratica ormai diffusa. Tuttavia, secondo una ricerca preliminare condotta da due studiosi della Penn State University, la cortesia potrebbe non essere la strategia più efficace quando si interagisce con ChatGPT. Lo studio, attualmente in fase di peer review e riportato da Fortune, ha analizzato l’impatto del tono dei prompt sulle prestazioni del modello ChatGPT-4o di OpenAI.
I ricercatori hanno formulato 50 domande di base, riscrivendole cinque volte con toni progressivamente diversi: da “molto educato” a “molto maleducato”. I risultati mostrano che i prompt più scortesi hanno raggiunto un’accuratezza dell’84,8%, contro l’80,8% di quelli molto cortesi e il 75,8% di quelli semplicemente educati.
Il dato appare in contrasto con precedenti studi. Una ricerca del 2024 del RIKEN Center for Advanced Intelligence Project e della Waseda University aveva evidenziato come la scortesia riducesse le prestazioni dei modelli linguistici, mentre l’eccessiva gentilezza produceva rendimenti decrescenti. Anche Google DeepMind ha mostrato che prompt di supporto migliorano la risoluzione di problemi matematici, suggerendo che gli LLM assorbano segnali sociali dai dati di addestramento.
Secondo Akhil Kumar, co-autore dello studio, le interfacce conversazionali presentano limiti strutturali: minime variazioni linguistiche possono generare risposte significativamente diverse, mettendo in discussione affidabilità e prevedibilità dell’IA.
Gli autori, tuttavia, escludono qualsiasi giustificazione all’uso di linguaggi offensivi: l’adozione di interazioni ostili, avvertono, rischia di compromettere inclusività, accessibilità e norme sociali.
Approfondimento – Cronologia e contesto
- 2024 – RIKEN & Waseda University: studio su cortesia e prestazioni degli LLM
https://www.riken.jp - 2023–2024 – Google DeepMind: prompt di supporto e apprendimento matematico
https://deepmind.google - 2026 – Penn State University: studio preliminare su tono e accuratezza di ChatGPT-4o
https://www.psu.edu - 2026 – Fortune: reportage sullo studio
https://fortune.com
Consigli di approfondimento
- OpenAI, Model Behavior and Alignment: https://openai.com
- OECD, AI and Human Interaction: https://www.oecd.org/ai
Abstract – Pro e rischi etico-sociali
Lo studio evidenzia come il linguaggio influenzi le prestazioni dell’IA, aprendo opportunità per migliorare l’ingegneria dei prompt. Tuttavia, normalizzare la scortesia potrebbe rafforzare comportamenti comunicativi tossici, con effetti negativi sull’educazione digitale e sulle interazioni sociali future. La sfida sarà progettare interfacce robuste senza sacrificare etica e inclusività.







