Martedì ChatGPT è stato sbloccato per diverse ore, rispondendo alle domande degli utenti con frasi senza senso, per ricordare che i modelli di intelligenza artificiale generativa (AI) rimangono programmi per computer che non comprendono il linguaggio umano.
OpenAI, la startup californiana che ha lanciato l'interfaccia alla fine del 2022, ha notato mercoledì mattina sul suo sito che ChatGPT funzionava di nuovo “normalmente”.
Nel tardo pomeriggio ha pubblicato un breve comunicato stampa in cui spiega il problema tecnico del computer che ha causato il problema, verificatosi dopo l'aggiornamento.
“Soldi per pezzi ed elenchi di sconosciuti e Internet dove la valuta e una persona costano da amici e valuta. La prossima volta che guardi il sistema, lo scambio e la verità, non dimenticare di dare”, ChatGPT ha risposto a una domanda dell'utente “scott.eskridge”.
In un forum per sviluppatori che utilizzano gli strumenti di OpenAI, martedì si è lamentato del fatto che tutte le sue conversazioni con il modello linguistico “si sono trasformate rapidamente in sciocchezze nelle ultime tre ore”.
Con il successo di ChatGPT, OpenAI ha suscitato un enorme entusiasmo per l’intelligenza artificiale generativa, rendendo possibile la produzione di tutti i tipi di contenuti (testi, suoni, video) – solitamente di straordinaria qualità – basati su una semplice richiesta nel linguaggio quotidiano.
Martedì pomeriggio – ora di San Francisco, dove risiede – ha annunciato “un’indagine sulle segnalazioni di risposte inaspettate da ChatGPT”.
Pochi minuti dopo, la star della Silicon Valley ha confermato di aver “identificato il problema” e di essere “in procinto di risolverlo”.
GBT “L'infestato”.
Molti utenti hanno caricato screenshot che mostrano risposte irregolari o incomprensibili dal modulo.
“Genera parole che sono completamente inesistenti, cancella parole e produce sequenze di piccole parole chiave che mi risultano incomprensibili, oltre ad altre anomalie”, ha riferito sullo stesso forum un utente chiamato “IYAnepo”.
“Potresti pensare che avrei specificato un'istruzione del genere, ma non è così. Sento che il mio GPT è infestato (…)”
OpenAI ha spiegato mercoledì che “migliorare l'esperienza dell'utente” ha “provato un errore nel modo in cui il modello elabora il linguaggio”.
L'azienda ha confermato che “i modelli linguistici generano risposte campionando casualmente le parole, in parte sulla base della probabilità”, prima di fornire ulteriori dettagli tecnici e concludere che l'incidente è stato “risolto” dopo “l'installazione della patch”.
L’incidente ci ricorda che l’intelligenza artificiale, anche se generativa, non ha consapevolezza né comprensione di ciò che sta “dicendo”, contrariamente all’impressione che può dare durante le “conversazioni” con gli utenti.
Quando apparvero per la prima volta un anno fa, interfacce come ChatGPT o i suoi rivali di Google e Microsoft tendevano regolarmente ad “allucinare”, cioè a inventare fatti o addirittura a simulare emozioni.
L’esperto di intelligenza artificiale Gary Marcus spera che l’incidente di martedì venga visto come un “campanello d’allarme”.
“Questi sistemi non sono mai stati stabili. Nessuno è mai stato in grado di sviluppare misure di sicurezza attorno a questi sistemi”, ha scritto martedì nella sua newsletter.
“La necessità di tecnologie completamente diverse che siano meno ambigue, più spiegabili, più facili da mantenere ed eseguire il debug – e quindi più facili da implementare – rimane fondamentale”, ha aggiunto.