OpenAI, una delle aziende piĂą innovative nel campo dell’intelligenza artificiale, ha annunciato nuovi strumenti per affrontare il problema della provenienza e dell’autenticitĂ del contenuto digitale. L’azienda ha dichiarato di essersi unita alla Coalizione per la Provenienza e l’AutenticitĂ del Contenuto (C2PA) come membro del Comitato di Gestione, sottolineando l’importanza di stabilire standard aperti e condivisi per verificare l’origine del contenuto online.
L’adozione sempre piĂą ampia dell’intelligenza artificiale generativa sta cambiando il modo in cui il contenuto viene creato e consumato. Immagini, video e audio possono essere modificati in modi che rendono difficile determinare la loro autenticitĂ . OpenAI ha riconosciuto questa sfida e sta lavorando su due fronti: da un lato, adottando standard aperti per certificare il processo di creazione del contenuto, e dall’altro, sviluppando tecnologie proprietarie per identificare il contenuto generato dai propri strumenti.
Con l’introduzione di C2PA, OpenAI ha iniziato a incorporare metadati di autenticitĂ in tutte le immagini create e modificate dal suo modello DALL·E 3, sia su ChatGPT che tramite l’API. Questi metadati possono fornire informazioni cruciali sull’origine del contenuto, contribuendo a una maggiore trasparenza e fiducia nel mondo digitale. Inoltre, OpenAI ha anche annunciato l’apertura del suo classificatore di immagini DALL·E 3 a un gruppo selezionato di tester per valutare le prestazioni e raccogliere feedback.
L’obiettivo di queste iniziative è quello di stabilire un ecosistema digitale in cui il contenuto possa essere verificato e rintracciato in modo affidabile, contribuendo a combattere la disinformazione e le manipolazioni online. OpenAI crede che questi passi verso l’autenticitĂ digitale possano migliorare la sicurezza e la fiducia nel contenuto online, offrendo agli utenti strumenti concreti per distinguere tra contenuto autentico e falsificato.