A febbraio gli utenti si rivolgono a Copilot soprattutto per consigli sulle relazioni personali. È quanto emerge da un nuovo studio basato sull’analisi di 37,5 milioni di conversazioni de-identificate, che fotografa come bisogni emotivi, solitudine e domande esistenziali stiano ridefinendo l’uso quotidiano dell’intelligenza artificiale, soprattutto nelle ore notturne.
Un nuovo studio sui comportamenti d’uso di Microsoft Copilot rivela un dato curioso ma significativo: nel mese di febbraio si registra un picco di richieste legate alle relazioni sentimentali, ai rapporti familiari e ai dubbi personali. L’analisi, condotta su 37,5 milioni di conversazioni Copilot de-identificate, mostra come l’intelligenza artificiale venga sempre più utilizzata non solo come strumento di produttività, ma come interlocutore emotivo.
Il report evidenzia anche un altro trend: le domande esistenziali aumentano sensibilmente intorno alle 2 del mattino, una fascia oraria in cui emergono solitudine, ansia e bisogno di ascolto. Un fenomeno che riflette dinamiche già note agli psicologi, ma che ora trova riscontro quantitativo nell’interazione uomo-macchina.
Secondo i ricercatori, questi pattern indicano un cambiamento strutturale nel rapporto con l’IA. Copilot non viene più interrogato solo per scrivere email o riassumere documenti, ma per ottenere consigli su scelte di vita, relazioni e identità personale. Una trasformazione che solleva interrogativi etici rilevanti, soprattutto in termini di dipendenza emotiva, responsabilità del fornitore e limiti del supporto automatizzato.
Lo studio suggerisce inoltre di superare il modello unico del chatbot generalista, puntando su una maggiore varietà di intelligenze artificiali, con competenze e “personalità” differenziate a seconda del contesto d’uso. In particolare, si ipotizzano modelli più personali e cauti per le piattaforme mobili, dove l’interazione è più intima e continua, rispetto a quelli impiegati in ambito lavorativo.
Approfondimento – Cronologia e contesto
- 2023–2024: crescita dei chatbot generalisti come strumenti di produttività (Microsoft, OpenAI).
https://www.microsoft.com/ai - 2024: primi studi su uso emotivo e supporto personale dei chatbot (università e centri di ricerca).
- 2025: analisi su larga scala delle conversazioni Copilot e attenzione ai rischi psicosociali.
Fonti istituzionali e di ricerca
- Microsoft Research: https://www.microsoft.com/research
- OECD – AI e benessere sociale: https://www.oecd.org/digital/artificial-intelligence/
- World Health Organization – salute mentale digitale: https://www.who.int
Consigli di approfondimento
- AI e solitudine digitale: https://www.pewresearch.org
- Etica dei chatbot conversazionali: https://www.weforum.org
- Linee guida UE su IA affidabile: https://digital-strategy.ec.europa.eu
Abstract – Pro, rischi e implicazioni future
Pro: accesso immediato al supporto, riduzione delle barriere nel chiedere aiuto, personalizzazione dell’esperienza digitale.
Rischi: dipendenza emotiva, illusioni di empatia, assenza di responsabilità clinica, possibile isolamento sociale.
Conseguenze future: crescente segmentazione delle IA per contesti emotivi e lavorativi, maggiore pressione normativa su sicurezza, trasparenza e tutela degli utenti vulnerabili.
Meta description (120 caratteri)
Copilot usato per consigli sulle relazioni: studio su 37,5 milioni di chat rivela bisogni emotivi e rischi etici dell’IA.






