OpenAI si prepara a rivoluzionare ulteriormente l’esperienza degli utenti con ChatGPT grazie alla funzione “Live Camera”. Questa nuova modalità, anticipata durante l’annuncio di GPT-4o a maggio 2024, promette di integrare la visione dal vivo con la già avanzata modalità vocale.
Secondo le stringhe di codice individuate nell’ultima build beta di ChatGPT v1.2024.317, la funzione sembra pronta per una distribuzione più ampia in fase beta. La “Live Camera” consentirà al chatbot non solo di rispondere vocalmente, ma anche di interpretare immagini in tempo reale attraverso la fotocamera del dispositivo.
Durante la dimostrazione iniziale, ChatGPT ha mostrato le sue capacità identificando oggetti e situazioni riprese dalla telecamera, come un cane che giocava con una palla. Queste funzionalità si basano su un’elaborazione avanzata che permette all’intelligenza artificiale di comprendere il contesto e fornire risposte precise, anche con informazioni limitate.
I primi test condotti da utenti selezionati hanno fornito risultati promettenti, confermando la precisione e l’utilità della funzione. Tuttavia, OpenAI ha avvertito che “Live Camera” non dovrebbe essere utilizzata per applicazioni critiche come navigazione in tempo reale o decisioni legate alla sicurezza e alla salute.
Con l’imminente fase beta, si prevede che la funzione sarà inizialmente disponibile per gli abbonati a ChatGPT Plus, offrendo un’esperienza più immersiva e interattiva. Questa innovazione rappresenta un passo avanti nella trasformazione delle interazioni AI, ampliando il potenziale di applicazioni pratiche per utenti privati e professionisti.
Mentre OpenAI continua a perfezionare la tecnologia, il lancio di “Live Camera” segna un’importante evoluzione nel panorama dell’intelligenza artificiale, aprendo nuove possibilità per l’integrazione tra voce, visione e comprensione contestuale.