Per proteggere la privacy, il Commissario per la protezione dei dati personali raccomanda alle aziende di regolamentare l’uso dell’IA generativa. Diffusa una checklist con cinque criteri fondamentali.
Il Commissario per la privacy di Hong Kong, Ada Chung Lai-ling, ha esortato i datori di lavoro a stabilire confini chiari sull’uso dell’intelligenza artificiale generativa (GAI) da parte dei dipendenti, per evitare rischi legati alla sicurezza e alla privacy dei dati. Lo ha dichiarato il 7 aprile, a seguito della pubblicazione ufficiale, il 31 marzo, di una checklist di linee guida per l’adozione aziendale dell’IA.
Il documento, redatto dall’Ufficio del Commissario per la protezione dei dati personali, evidenzia cinque elementi chiave: definizione dell’ambito di utilizzo, tutela della riservatezza, uso etico e legale, sicurezza dei dati e gestione delle violazioni. L’obiettivo è supportare le organizzazioni nella creazione di politiche interne che massimizzino i benefici dell’IA limitandone gli abusi.
Chung ha sottolineato che molti dipendenti ricorrono oggi all’IA generativa senza alcuna supervisione, rischiando di inserire dati sensibili o di usare impropriamente le informazioni raccolte, come quelle dei clienti, per addestrare i modelli. Questi comportamenti, se non regolamentati, possono portare a fughe di dati e violazioni gravi.
Per rafforzare la sicurezza, è stata lanciata una hotline dedicata all’IA per le imprese, mentre a giugno si terrà un seminario in collaborazione con l’Hong Kong Productivity Council.
Cronologia e fonti collegate
- 31 marzo 2025 – Pubblicazione della checklist da parte del PCPD: pcpd.org.hk
- 7 aprile 2025 – Intervista radiofonica di Ada Chung sull’urgenza delle politiche interne
- Giugno 2025 – Seminario sulla sicurezza dell’IA promosso dal PCPD e dall’HKPC
Consigli di approfondimento
- Linee guida OCSE sull’intelligenza artificiale
- Rischi etici dell’IA secondo il Consiglio d’Europa
- Toolkit IA e privacy – Future of Privacy Forum
Abstract: Pro e rischi etici e sociali
L’introduzione di linee guida specifiche per l’uso dell’IA generativa rappresenta un passo positivo verso la tutela della privacy, la sicurezza dei dati e l’adozione etica della tecnologia. Tuttavia, la mancanza di formazione dei dipendenti e la velocità con cui si diffonde l’uso di strumenti AI possono generare rischi di sorveglianza e discriminazione, oltre a possibili violazioni normative. In futuro, sarà necessario un equilibrio tra innovazione e protezione, favorendo una governance condivisa e trasparente all’interno delle aziende.







