Apple ha annunciato un passo avanti rivoluzionario in termini di privacy e sicurezza nell’ambito dell’intelligenza artificiale in cloud, presentando nuove risorse per il monitoraggio e la verifica del suo sistema Private Cloud Compute (PCC). Apple Security Engineering and Architecture (SEAR) ha illustrato come la struttura del PCC, integrata in Apple Intelligence, mantenga livelli di privacy avanzati applicando il modello di sicurezza dei dispositivi direttamente al cloud.
Uno degli elementi chiave di questa iniziativa è l’apertura del sistema ai ricercatori di sicurezza. Apple ha infatti reso accessibile il Virtual Research Environment (VRE), un ambiente unico nel suo genere che permette di analizzare il software PCC, confermando le misure di protezione della privacy degli utenti. Disponibile su macOS Sequoia 15.1, il VRE consente ai ricercatori di testare il software in un ambiente virtualizzato e di accedere a risorse avanzate come un Secure Enclave Processor virtuale.
Apple ha pubblicato la guida sulla sicurezza di PCC, fornendo dettagli tecnici sull’architettura, dai processi di attestazione hardware alle tecniche di autenticazione e routing. Inoltre, ha rilasciato parte del codice sorgente di PCC su GitHub, invitando esperti a esaminare i progetti CloudAttestation e Thimble, tra gli altri, per migliorare ulteriormente la sicurezza.
Per incentivare il monitoraggio della sicurezza, Apple ha espanso il programma di bug bounty includendo il PCC. Gli esperti che identificheranno vulnerabilitĂ in grado di compromettere la sicurezza del sistema potranno ottenere premi fino a 1 milione di dollari, con ricompense variabili in base alla gravitĂ delle falle identificate.
Questo progetto è l’ultimo passo di Apple per stabilire nuovi standard di sicurezza e trasparenza nell’AI cloud, rivolgendosi alla comunitĂ di ricerca per rafforzare la fiducia nel sistema e mantenere la privacy degli utenti al primo posto.