• 0 commenti

Quando l’intelligenza artificiale scrive al posto nostro: il caso degli abstract biomedici

Nel 2024, circa un abstract su sette nel campo della ricerca biomedica è stato redatto - almeno in parte - con l'aiuto di un modello linguistico di grandi dimensioni (LLM) come ChatGPT. Questa stima emerge da un'analisi statistica su oltre 1,5 milioni di sintesi scientifiche indicizzate in PubMed, la principale banca dati internazionale di medicina. La scoperta solleva domande cruciali sulla trasparenza e sulla integrità della letteratura scientifica, ma offre anche spunti positivi su come gli strumenti di AI possano democratizzare la comunicazione accademica.

Come è stata condotta l'analisi

  1. Raccolta dati: gli studiosi hanno scaricato tutti gli abstract pubblicati tra il 2010 e il 2024.

  2. Metodo delle "parole in eccesso": il team ha individuato 454 termini che, a partire dal novembre 2022 (data di rilascio di ChatGPT), compaiono molto più spesso del previsto. Parole come "invaluable", "unparalleled", "crucial" o verbi ricercati come "delves" e "showcasing" sono tipici suggerimenti stilistici degli LLM.

  3. Calcolo della prevalenza: se un abstract conteneva un numero elevato di questi termini, veniva classificato come probabile esempio di testo AI‑assistito.

Il risultato? 14 % degli abstract del 2024 e oltre 22 % in discipline come bioinformatica e in paesi tra cui Cina e Corea del Sud mostrano tracce di AI.

Perché queste "parole in eccesso" sono un campanello d'allarme

  • Gli LLM tendono a usare superlativi e aggettivi enfatici più di un autore umano esperto.

  • Termini ridondanti si diffondono a macchia d'olio perché gli scienziati, inconsapevolmente, accettano i suggerimenti automatici.

  • Il fenomeno ricorda i modelli usati per stimare le "morti in eccesso" durante la pandemia: qui, invece, si tratta di lessico in eccesso.

Implicazioni principali

  1. Accessibilità della lingua - Per i ricercatori non madrelingua, l'IA rappresenta uno strumento prezioso di revisione e traduzione.

  2. Integrità scientifica - L'uso non dichiarato può mascherare errori o allucinazioni prodotte dal modello, minacciando la fiducia nel processo di peer review.

  3. Evoluzione dello stile - Stiamo assistendo a un cambiamento rapido del lessico accademico: le parole funzionali sostituiscono quelle specialistiche, con il rischio di impoverire la specificità terminologica.

  4. Geografia dell'adozione - L'alta percentuale di AI in Asia suggerisce un divario linguistico che l'IA colma, ma mette in luce anche differenze di politica editoriale e pressione alla pubblicazione.

Sfide future

  • Rilevamento: man mano che gli autori imparano a "nascondere" le tracce, gli algoritmi di identificazione perdono efficacia.

  • Normative: riviste e istituzioni dovranno stabilire linee guida chiare sull'uso dichiarato e responsabile dell'AI.

  • Formazione: occorre educare i giovani scienziati a usare questi strumenti come assistenti, non come sostituti del pensiero critico.

Cosa significa per il lettore comune

Per chi consulta notizie o articoli scientifici, sapere che l'IA partecipa alla stesura degli abstract implica:

  • Un possibile aumento di chiarezza e fluidità della lingua.

  • Ma anche la necessità di un occhio critico su formule troppo sensazionalistiche o ripetitive.

Conclusioni

L'adozione degli LLM nella scrittura scientifica non è un'anomalia da demonizzare, ma una trasformazione da governare. Se usati correttamente, questi strumenti possono democratizzare l'accesso alla comunicazione accademica e accelerare la diffusione delle scoperte. Tuttavia, senza trasparenza e regole condivise, rischiano di erodere la credibilità della ricerca. Il prossimo passo spetta a editori, università e autori, chiamati a tracciare confini etici che concilino innovazione e rigore scientifico.
FONTE

Di Gaetano

Lascia il tuo commento