L'Autorità italiana per la protezione dei dati personali ha chiesto a OpenAI, la società dietro il software di intelligenza artificiale ChatGPT, di conformarsi alle norme dell'UE, abbiamo appreso martedì.
L'autorità italiana ritiene che le disposizioni osservate da OpenAI per proteggere i dati personali dei propri utenti costituiscano “irregolarità” rispetto al Regolamento generale sulla protezione dei dati (GDPR) dell'Unione europea, si legge in un comunicato stampa.
OpenAI ha ora 30 giorni per rispondere all'autorità specificando che terrà conto nella sua decisione dei “lavori in corso” nell'ambito del gruppo di lavoro lanciato dall'Unione Europea per rafforzare la cooperazione su questo tema.
L'autorità italiana ha bandito ChatGPT alla fine di marzo 2023, accusandolo di non rispettare le normative europee e di non avere un sistema per verificare l'età degli utenti minorenni.
L'Autorità ha inoltre criticato ChatGPT per “l'assenza di un'informativa per gli utenti i cui dati vengono raccolti da OpenAI (…) con l'obiettivo + di formare + gli algoritmi che gestiscono la piattaforma”.
Alla fine di aprile dello stesso anno, il programma venne nuovamente approvato nella penisola, riconoscendo da parte delle autorità italiane “le misure adottate per coniugare il progresso tecnologico con il rispetto dei diritti delle persone”.