Una parte della risposta del chatbot non è stata cancellata: uno scivolone che mette in dubbio tutto il processo di “peer review” ed evidenzia il fenomeno del “publish or perish”
Lo scivolone della rivista scientifica Elsevier nell’approvare un articolo con un’introduzione generata da ChatGPT ha sollevato interrogativi sull’integrità del processo sulla procedura di revisione e sulla meticolosità del processo tra i ricercatori e ha evidenziato le pressioni del “publish or perish” nel mondo accademico.
Quella che in gergo tecnico viene chiamata “peer review” è fondamentale. Si tratta del processo on il quale i ricercatori analizzano il lavoro altrui per assicurarsi che sia stato svolto correttamente, garantendo l’affidabilità delle pubblicazioni scientifiche, distinguendole da quelle meno credibili.
Qui invece qualcosa è andato storto. Lo si è scoperto quando si è visto che una parte della risposta del software, utilizzata per generare l’introduzione dell’articolo, è stata erroneamente lasciata nel testo pubblicato. Ciò non sarebbe un problema se non fosse che la regola di Elsevier richiede che gli autori dichiarino esplicitamente l’uso di strumenti basati sull’intelligenza artificiale. Cosa che, a quanto pare, non è stata fatta.
Elsevier ha risposto annunciando un’indagine sull’incidente e promettendo una nuova revisione dell’articolo coinvolgendo il team editoriale e gli autori. La casa editrice in un post su X (ex Twitter) ha fatto sapere in merito all’articolo di Zhang et al. frutto del lavoro di ricercatori e ricercatrici dell’Università di Pechino e di quella di Hangzhou intitolato The three-dimensional porous mesh structure of Cu-based metal-organic-framework – aramid cellulose separator enhances the electrochemical performance of lithium metal anode batteries:
Le nostre politiche chiariscono che i Large Language Model (LLM) possono essere utilizzati nella stesura di articoli purché sia dichiarato dagli autori al momento della presentazione. Stiamo esaminando questo articolo e stiamo discutendo con il team editoriale e gli autori.
Il pericolo del fenomeno del “publish or perish”
La situazione, come detto, mette in luce le tensioni nel mondo accademico, dove i ricercatori sono spesso soggetti a una crescente pressione per pubblicare un gran numero di articoli per mantenere la loro posizione e il loro prestigio.
Il fenomeno noto come “publish or perish” riflette un sistema in cui i ricercatori sono incentivati o persino costretti a produrre un elevato volume di pubblicazioni, spesso a scapito della qualità e dell’originalità dei loro lavori.
Questa corsa alla pubblicazione può portare a una focalizzazione eccessiva sulla quantità, con il rischio che alcuni articoli vengano scritti solo per soddisfare i requisiti di produzione e citazione, anziché per contribuire in modo significativo alla conoscenza scientifica.
🤖 So #ChatGPT wrote the first sentence of this @ElsevierConnect article. Any other parts of the article too? How come none of the coauthors, Editor-in-Chief, reviewers, typesetters noticed? How can this happen with regular peer-review? https://t.co/C4vX317zYV pic.twitter.com/K5IgZKcLz9
— Guillaume Cabanac ⟨here and elsewhere⟩ (@gcabanac) March 12, 2024
Non vuoi perdere le nostre notizie?
- Iscriviti ai nostri canali Whatsapp e Telegram
- Siamo anche su Google News, attiva la stella per inserirci tra le fonti preferite
Fonte: Elsevier
Ti potrebbe interessare anche:
- Usi ChatGpt? Non immaginerai mai quanta acqua sta consumando la tua intelligenza artificiale
- ChatGpt: così l’Intelligenza artificiale può aiutare anche i medici nei trattamenti per la depressione
- Qual è l’impatto ambientale dell’intelligenza artificiale? Cosa sappiamo (e cosa no) sulle emissioni di ChatGPT & Co.