L’inventore della capsula per il suicidio assistito “Sarco” annuncia l’integrazione di un sistema di intelligenza artificiale per valutare la capacità mentale dei pazienti. La proposta riaccende il confronto internazionale su eutanasia, affidabilità dell’IA e responsabilità etica.
L’inventore australiano Philip Nitschke, fondatore del progetto Sarco Pod, ha dichiarato che la controversa capsula per il suicidio assistito sarà potenziata con un sistema di intelligenza artificiale incaricato di valutare la capacità mentale delle persone prima dell’accesso al dispositivo. L’annuncio è stato rilasciato in un’intervista al Daily Mail il 19 gennaio 2026.
Il Sarco Pod, una capsula stampata in 3D che induce la morte tramite saturazione di azoto, è stato utilizzato una sola volta finora: nel 2024, in Svizzera, dove il suicidio assistito è legale solo se l’atto è compiuto autonomamente e se la persona è ritenuta mentalmente capace. In seguito a quell’episodio, le autorità svizzere arrestarono temporaneamente un responsabile dell’organizzazione The Last Resort con l’accusa di istigazione al suicidio.
La nuova versione, denominata “Double Dutch”, prevede che l’utente sostenga un test psicologico somministrato da un avatar basato su IA. In caso di esito positivo, il dispositivo verrebbe attivato per una finestra temporale di 24 ore. Secondo Nitschke, questo sistema sostituirebbe la tradizionale valutazione psichiatrica.
Tuttavia, la proposta solleva forti criticità etiche e scientifiche. Numerosi studi dimostrano che i modelli di IA generativa possono produrre risposte errate, allucinazioni e bias, soprattutto in ambito medico e psicologico. Organismi internazionali come l’Organizzazione Mondiale della Sanità e la Commissione Europea hanno più volte messo in guardia contro l’uso dell’IA in decisioni ad alto rischio senza supervisione umana qualificata.
Affidare a un sistema automatizzato la valutazione della capacità di intendere e di volere in un contesto di vita o di morte rappresenta, secondo molti esperti, un precedente pericoloso, con implicazioni profonde sul piano legale, sociale e dei diritti umani.
Abstract – Pro, rischi e implicazioni future
Pro: accesso standardizzato, riduzione della discrezionalità umana, rapidità di valutazione.
Rischi: errori decisionali, deresponsabilizzazione, normalizzazione tecnologica del suicidio, vulnerabilità dei soggetti fragili.
Possibili conseguenze: pressione normativa su governi e sistemi sanitari, ridefinizione del ruolo medico, rischio di emulazione e conflitti etici globali sull’uso dell’IA in ambito bioetico.
Approfondimento – Cronologia essenziale e fonti
- 2019 – Presentazione del Sarco Pod
https://exitinternational.net - 2024 – Primo utilizzo in Svizzera e intervento delle autorità
https://www.swissinfo.ch - 2026 – Annuncio integrazione IA (Daily Mail)
https://www.dailymail.co.uk - Linee guida OMS su IA e salute
https://www.who.int - UE – Etica dell’IA e AI Act
https://digital-strategy.ec.europa.eu
Consigli di approfondimento
- OMS, Ethics and Governance of AI for Health
- Parlamento Europeo, AI Act – sistemi ad alto rischio
- Journal of Medical Ethics, IA e fine vita







