Una nuova startup fondata da ex dipendenti di Anthropic e xAI promette un’“intelligenza artificiale per dare potere agli esseri umani”. Si chiama Humans&, ha raccolto 480 milioni di dollari in tre mesi ed è già valutata 4,48 miliardi. Ma dietro la narrazione umanistica, emergono contraddizioni e precedenti che sollevano interrogativi etici e sociali.
La notizia, riportata dal New York Times e rilanciata da Futurism (22 gennaio 2026), descrive Humans& come un progetto che vuole superare l’attuale paradigma “domande-risposte” per costruire strumenti di collaborazione uomo-macchina, “come una versione AI di un’app di messaggistica”. Tra gli investitori figurano Nvidia, Jeff Bezos e Google Ventures.
Tra i fondatori spicca Andi Peng, ex ricercatore di Anthropic. In un’intervista al NYT, Peng prende le distanze dalla filosofia di addestrare modelli a lavorare in modo completamente autonomo per decine di ore: “Considero macchine ed esseri umani complementari”. Una posizione in contrasto con le dichiarazioni del CEO di Anthropic Dario Amodei, che aveva previsto la sostituzione di oltre metà dei lavori impiegatizi di base.
Gli altri due co-fondatori, Eric Zelikman e Yuchen He, provengono da xAI, l’azienda di Elon Musk che ha sviluppato Grok, finito al centro di scandali per contenuti non consensuali e potenzialmente illegali. Ora, sostengono, il loro obiettivo è costruire un’IA che “consenta alle persone di fare di più insieme”, andando oltre i chatbot.
Il contesto resta però critico. Sam Altman (OpenAI) e lo stesso Amodei prevedono l’eliminazione di intere categorie di lavori. Satya Nadella (Microsoft) ammette che il 30% del codice aziendale è già scritto con l’IA, mentre clienti dichiarano di aver sostituito personale con modelli generativi.
Secondo Ben Shneiderman (Università del Maryland), uno dei principali teorici dell’“IA incentrata sull’uomo”, il principio chiave resta “garantire il controllo umano”. La sfida è trasformare questa affermazione in pratiche verificabili.
Cronologia essenziale e fonti
- 22 gennaio 2026 – NYT: annuncio di Humans& e round da 480M$
https://www.nytimes.com - 22 gennaio 2026 – Futurism: analisi critica del progetto
https://futurism.com - 2024–2025 – Dichiarazioni pubbliche di Amodei, Altman, Nadella
Anthropic, OpenAI, Microsoft (comunicazioni ufficiali)
Consigli di approfondimento
- Human-Centered AI – Università del Maryland
https://hci.umd.edu - Linee guida UE su IA affidabile
https://digital-strategy.ec.europa.eu
Abstract: pro, rischi e conseguenze
Pro: maggiore collaborazione uomo-macchina, riduzione dell’automazione cieca, narrativa etica.
Rischi: “ethics washing”, sostituzione occupazionale mascherata, precedenti problematici dei fondatori.
Conseguenze future: se non accompagnata da governance trasparente e standard verificabili, l’IA “umana” rischia di diventare un brand, non un cambiamento strutturale.







