controQuesto mese, L’ingegnere, Yannick Kilcher, Divertiti ad addestrare un algoritmo, destinato a essere utilizzato in un proxy di conversazione, su un set di dati deliberatamente basato su conversazioni abusive e discriminatorie. Non sorprende che il chatbot utilizzato da umani come te e me in circostanze reali abbia fatto commenti controversi e inappropriati. Poi l’ingegnere rivelò di aver realizzato – disse – l’algoritmo più terribile. Poi è sorta un’ondata di proteste tra scienziati e ingegneri che hanno messo in dubbio le condizioni di un tale esperimento. Perché la scienza non è un gioco e va condotta secondo le buone pratiche.
Nell’esperimento condotto qui, Yannic Kilcher ha addestrato un algoritmo su una serie di conversazioni offensive all’interno del forum di discussione della rete di condivisione di foto 4Chan. L’algoritmo, che è stato poi incorporato in un chat agent scritto, ha riprodotto gli schemi ricorrenti di conversazione generati dalla fase di apprendimento negli scambi con gli utenti. Coinvolgere razzismo, sessismo o altra discriminazione e contraccolpo nei confronti degli utenti che, a loro volta, non sapevano di scambiare l’algoritmo. Ma perché così tanti scienziati e ingegneri hanno condannato questi calcoli algoritmici?
Esperimento con porcellini d’India “ciechi”.
Prima di tutto, l’idea di celebrare la creazione dell’algoritmo “più terribile” è cinica e riprovevole. Nel contesto dell’approccio scientifico, ci si può anche interrogare sulle condizioni per la progettazione e l’attuazione di questo test. Sembra infatti che in questo esperimento non sia stata presa in considerazione alcuna dimensione etica. Definire chiaramente cosa ci si aspetta da questo test, cosa possono portare i risultati alla scienza o anche il danno che può fare sono tra i punti che devono essere affrontati. Alcuni giocatori raccomandano che tale esperimento sia convalidato e monitorato da un comitato etico. Infine, viene da chiedersi se sia onesto mettere in guardia gli utenti del loro ruolo in questo esperimento: cavie cieche.
Intendiamoci, condurre un simile esperimento può essere importante, come informare il pubblico in generale sulle minacce dei pregiudizi algoritmici dovuti a set di dati diretti statisticamente. Può anche fungere da fulcro per una discussione sulla governance computazionale attraverso le migliori pratiche per la progettazione, lo sviluppo, il test e l’uso di queste entità digitali. Ma deve essere fatto con cautela rischiando uno spettacolo orribile degno della leggenda di Frankenstein.
Leggi ancheAlgoritmi: “Le persone devono essere responsabilizzate”
Per parafrasare Ben Parker – lo zio di Spider-Man – o Franklin Roosevelt o Winston Churchill, Da grande forza derivano grandi responsabilità. Una responsabilità che continuerà a crescere in futuro, con un algoritmo potenziato per la comunità i cui attori sembrano essere ancora più potenti.
“Appassionato di alcol. Piantagrane. Introverso. Studente. Amante dei social media. Ninja del web. Fan del bacon. Lettore”.