Nella corsa alla produttività tramite strumenti di intelligenza artificiale, Microsoft e altri hanno trascurato aspetti fondamentali della sicurezza e della governance, secondo Jack Berkowitz, chief data officer di Securiti, in un’intervista a The Register.
“Microsoft propone Copilot come un modo per rendere gli utenti più creativi e produttivi acquisendo tutto il lavoro umano inerente ai dati utilizzati per addestrare i suoi modelli di intelligenza artificiale e rivendendolo.”dice Jack Berkowitz. “I servizi di intelligenza artificiale generativa esistono solo da un paio d’anni e c’è ancora molto lavoro da fare”. COSÌ, “Il copilota può fornire informazioni riservate a tutti i dipendenti, comprese, ad esempio, informazioni sullo stipendio.”. “E non sono solo i dati HR che possono apparire in modo inappropriato durante un’interazione con un copilota.”“, osserva Jack Berkowitz. Egli osserva che ciò ha sollevato interrogativi sull’implementazione dei servizi di copilota all’interno delle grandi aziende in cui lavorano i suoi colleghi americani.
Uno studio di GCS Technologies evidenzia che il 16% dei dati critici per l’azienda viene condiviso in eccesso utilizzando Copilot, il 90% dei documenti critici per l’azienda vengono scambiati al di fuori del management e il 17% dei dati sensibili viene condiviso con terze parti.