Home Tecnologia Articoli “falsi”: l’intelligenza artificiale interferisce con le pubblicazioni scientifiche

Articoli “falsi”: l’intelligenza artificiale interferisce con le pubblicazioni scientifiche

0
Articoli “falsi”: l’intelligenza artificiale interferisce con le pubblicazioni scientifiche

L’immagine di un topo con un pene gigante, l’altra immagine di una gamba umana contenente molte ossa, parole sospette… Esempi recenti confermano l’uso sempre più importante dell’intelligenza artificiale nelle pubblicazioni scientifiche, a scapito della loro qualità.

Se i professionisti intervistati dall’AFP sono consapevoli dell’interesse per strumenti come ChatGPT che aiutano nella scrittura dei contenuti, soprattutto per quanto riguarda la traduzione per tutti i ricercatori la cui lingua madre non è l’inglese, diverse recenti ritrattazioni tramite revisioni hanno evidenziato l’esistenza di pratiche disoneste.

All’inizio dell’anno, un’illustrazione che rappresentava un topo con genitali sovradimensionati, ampiamente diffusa sui social network, aveva portato alla ritrattazione di uno studio pubblicato su una rivista dalla casa editrice universitaria Frontiers, uno dei pesi massimi del settore.

Il mese scorso, un altro studio è stato ritirato dopo aver presentato la foto di una gamba umana contenente troppe ossa.

Al di là di queste false illustrazioni, la novità più grande in questo settore sembra arrivare da ChatGPT, lo strumento di conversazione sviluppato dall’azienda americana OpenAI e basato sull’intelligenza artificiale.

Uno studio pubblicato dal gruppo editoriale scientifico britannico Elsevier è diventato virale a marzo, con la sua introduzione che inizia con “Certo, questa è una possibile introduzione al tuo argomento”, una formula tipica per le risposte ChatGPT.

“fabbriche di merci”

Diversi specialisti hanno dichiarato all’AFP che questi imbarazzanti fallimenti, sfuggiti alla vigilanza degli esperti incaricati di rileggere gli studi prima della pubblicazione, sono ancora rari e potrebbero non aver superato i filtri di censura di riviste prestigiose.

L’utilizzo dell’intelligenza artificiale è spesso difficile da individuare, ma appare sempre più evidente nella letteratura scientifica.

Andrew Gray, bibliotecario dell’University College di Londra, ha cercato in milioni di articoli scientifici parole come “accurato”, “complesso” o “encomiabile”, di cui l’intelligenza artificiale spesso abusa. Secondo lui, nel 2023 sarebbe possibile produrre almeno 60.000 prodotti utilizzando l’intelligenza artificiale, ovvero l’1% della produzione annuale, e il 2024 dovrebbe rappresentare un “aumento significativo” di queste cifre.

Per quanto riguarda l’American Retraction Monitoring Association, nel 2023 ha registrato il numero record di 13.000 ritrattazioni di articoli in ambito scientifico, un numero senza precedenti. Per Ivan Oransky, uno dei suoi fondatori, l’intelligenza artificiale permette oggi di “industrializzare” la produzione di carta “falsa” attraverso le “fabbriche”.

Questi attori producono molti articoli di scarsa qualità, plagiati o falsi, afferma la microbiologa olandese Elisabeth Beck, specializzata nell’individuazione di immagini false. Si ritiene che queste “fabbriche”, pagate dai ricercatori incoraggiati a produrre di più, costituiscano circa il 2% delle pubblicazioni ogni anno, ma secondo l’esperto questa cifra sta “esplodendo” a causa dell’intelligenza artificiale.

Corrimano

Per Ivan Oransky l’intelligenza artificiale non fa altro che alimentare un “problema enorme”: l’insaziabile richiesta di articoli da parte di editori e università mette sotto pressione i ricercatori, che vengono classificati in base ai loro risultati, creando così un “circolo vizioso”.

Allo stesso tempo, le tutele contro le “cartiere” restano insufficienti.

Il problema di questa massiccia frode è stato particolarmente esposto dopo l’acquisizione della casa editrice Hindawi da parte della società americana Wiley nel 2021, a cui da allora è seguito il ritiro di circa 11.300 articoli precedentemente pubblicati da Hindawi. Per cercare di risolvere questo problema crescente, Wiley ha implementato l’”Article Mill Detection Service” per scoprire gli abusi dell’IA, un servizio esso stesso basato sull’intelligenza artificiale.

Ma la scorsa settimana, un ricercatore americano ha scoperto quella che sembra essere una versione riscritta da ChatGPT di uno dei suoi articoli, pubblicato sulla rivista Wiley.

Samuel Payne, professore di bioinformatica alla Brigham Young University negli Stati Uniti, ha detto all’AFP che gli era stato chiesto a marzo di verificare la validità dello studio in questione. Dopo aver realizzato che si trattava di un “plagio” del suo stesso studio riscritto dall’intelligenza artificiale, ha rifiutato di approvarne la pubblicazione.

Payne si è detto “scioccato” nello scoprire che invece di ritrattare il lavoro plagiato, era stato semplicemente pubblicato su un’altra rivista.

LEAVE A REPLY

Please enter your comment!
Please enter your name here