Video generati con intelligenza artificiale che mostrano guarigioni miracolose stanno invadendo Facebook e Instagram Reels. Clip di predicatori digitali che “curano” malattie spettacolari ottengono milioni di visualizzazioni, sollevando interrogativi su disinformazione, manipolazione religiosa e responsabilità delle piattaforme social.
L’ascesa dei “guaritori AI” nei feed social
Negli ultimi mesi le piattaforme di Meta, in particolare Facebook e Instagram Reels, stanno registrando un aumento di video generati con intelligenza artificiale che simulano presunte guarigioni miracolose. In questi filmati, predicatori digitali o figure spirituali impongono le mani su persone affette da deformazioni estreme, tumori o malattie immaginarie che scompaiono in pochi secondi.
Uno degli esempi più diffusi è l’account Facebook “Mystery Hub”, che pubblica centinaia di clip con scene surreali: gambe che si allungano improvvisamente, tumori che spariscono o persone che recuperano istantaneamente la salute dopo una preghiera. Alcuni video superano centinaia di migliaia di visualizzazioni, mentre altri arrivano a decine di milioni, segno della forte viralità del fenomeno.
Il meccanismo narrativo è sempre simile: il predicatore pronuncia una formula religiosa — spesso invocando la guarigione “nel nome di Gesù” — e il corpo del malato si trasforma digitalmente davanti agli occhi degli spettatori.
Viralità, algoritmi e disinformazione
Il fenomeno si inserisce nella crescita dei contenuti generati automaticamente che invadono i feed social. Secondo diversi analisti dei media digitali, l’IA generativa permette di produrre rapidamente grandi quantità di video sensazionalistici progettati per attirare l’attenzione dell’algoritmo.
Un altro esempio citato è la pagina “ForvaStar Comics”, che conta circa 1,5 milioni di follower, dove appaiono clip ancora più bizzarre: sciamani che estraggono animali dal corpo delle persone o presunti miracoli medici impossibili.
Il problema, evidenziano diversi ricercatori di comunicazione digitale, è che una parte del pubblico non riconosce questi video come contenuti artificiali, mentre altri utenti interagiscono con emoji o commenti che ne amplificano ulteriormente la diffusione.
Le sfide per le piattaforme
Il proliferare di questi contenuti solleva interrogativi su come le piattaforme possano gestire la crescente quantità di media sintetici. Meta ha già introdotto alcune politiche per l’etichettatura dei contenuti generati con IA, ma l’applicazione su larga scala resta complessa.
Il rischio principale è la diffusione di disinformazione sanitaria o religiosa, soprattutto tra utenti vulnerabili o con scarsa alfabetizzazione digitale.
Approfondimento e cronologia
- 2023 – 2024: diffusione massiccia di strumenti di generazione video con IA generativa (OpenAI, Runway, Pika).
- 2024: Meta annuncia sistemi di etichettatura per contenuti AI sulle sue piattaforme.
- 2025: crescita dei cosiddetti AI slop, contenuti generati automaticamente per massimizzare visualizzazioni.
- 2026: emergono nuovi formati virali come i “guaritori AI” nei Reels.
Fonti istituzionali e studi:
- Stanford Internet Observatory – ricerca su disinformazione e media sintetici
https://cyber.fsi.stanford.edu/io - UNESCO – raccomandazioni etiche sull’IA
https://www.unesco.org/en/artificial-intelligence/ethics - Commissione europea – AI Act
https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence
Consigli di approfondimento
- Studio MIT su contenuti generativi e algoritmi social
https://www.media.mit.edu - Report OECD sull’impatto dell’IA nei media digitali
https://www.oecd.org/digital/artificial-intelligence/
Abstract: opportunità e rischi
L’uso dell’intelligenza artificiale nei contenuti virali apre nuove opportunità creative e narrative per i social media, ma comporta rischi significativi. La facilità con cui è possibile produrre video iperrealistici può favorire manipolazioni emotive, disinformazione sanitaria o sfruttamento di credenze religiose.
Dal punto di vista etico e sociale, la sfida principale riguarda la trasparenza dei contenuti generati artificialmente, l’educazione digitale degli utenti e la responsabilità delle piattaforme nella moderazione. Senza sistemi di etichettatura efficaci e politiche di governance più solide, la diffusione di media sintetici potrebbe erodere ulteriormente la fiducia nelle informazioni online.







