Nell’era delle intelligenze artificiali anche la Peer Review sembra essere diventata oggetto di interesse per i tanti che oggi hanno sposato le pretese colonizzatrici delle intelligenze artificiali su ogni aspetto della vita umana. Fidarsi, affidarsi ciecamente, come molti stanno facendo comporta una perdita, la perdita di qualcosa di importante per chi vuole continuare a essere, a sentirsi e ad agire da umani.
"Scrivere è pensare. Scrivere bene significa pensare con chiarezza. Ecco perché è così difficile".
Umani sono anche i ricercatori che oggi sembrano acriticamente affidarsi al giudizio scientifico delle macchine per accelerare e/o automatizzare la revisione paritaria (Peer Review) senza tenere conto del fatto che, pur dotati di modelli linguistici complessi, non possiedono le capacità, le conoscenze e le esperienze uniche dei veri revisori umani.
La corsa alle IA, all’autom(tizz)azione da parte di molti sembra dettata da un bisogno comprensibile, ridurre il consumo di un bene prezioso come il tempo ricorrendo a sempre nuove tecnologie che posano alleggerire lavoro e il suo carico. Non tutto però può essere automatizzato. Non lo si può fare con la lettura, la letteratura, la stesura di manoscritti e, nel contesto di questo post, la revisione paritaria di lavori scientifici. E questo nonostante la IA manifesti senza pudore la pretesa di automatizzare anche queste attività.
Gli articoli non sono il prodotto della ricerca scientifica allo stesso modo in cui le fusioni sono il prodotto di una fonderia.
L’IA è già presente operativamente in mille aspetti del lavoro scientifico. Si usa la IA per la generazione di ipotesi, per la raccolta dei dati, per le analisi, per scrivere articoli, per condurre revisioni, per individuare errori e per valutare l’affidabilità dei lavori pubblicati. In certi ambiti di ricerca si è arrivati (già) persino a ipotizzare progetti di ricerca condotti in prima persona da agenti AI capaci di operare come scienziati autonomi.
Sul tema della Peer Review assegnata alle macchine hanno scritto un interessante articolo due ricercatori della filiale di Seattle della Università di Washington, Carl T. Bergstrom e Joe Bak-Coleman. L’articolo è pubblicato sulla rivista scientifica Nature e dovrebbe essere disponibile alla lettura per tutti.
I due estensori dell’articolo da tempo studiano l’impatto delle tecnologie dell’informazione digitale sulla società interrogandosi, anche eticamente e con attenzione particolare all’accuratezza, se e come adottare l’IA nel loro lavoro di ricercatori. Ammettono di sentire la pressione di una tecnologia che continua a cambiare, conoscono le difficoltà di molti ricercatori che devono confrontarsi con pressioni e motivazioni all’utilizzo delle IA per rendere più facile e rapido il loro lavoro. Per gli autori dell’articolo però bisogna considerare cosa si perda quando si cede la nostra capacità di agire alle macchine e investire sulle capacità umane di prendere decisioni scientifiche. Ciò vale in modo particolare nello scrivere una peer review che, per definizione, non è mai un lavoro meccanico perché pbbliga all’analisi critica, alla capacità si smistare e classificare concetti, organizzare pensieri non sempre strutturati, negoziare con sé stessi per poi negoziare con i curatori e gli autori su ciò che deve essere modificato.
Queste capacità mancano a una IA (LLM) perché le mancano una formazione, una prospettiva, valori, etica, competenza di settore, comprensione delle priorità editoriali e delle percezioni degli autori, ecc.
Cedere le Peer Review alle IA significa rinunciare alla nostra capacità umana di migliorare la letteratura scientifica.
Per saperne di più e approfondire l’argomento questo è il link all’articolo su Nature: https://www.nature.com/articles/d41586-025-01839-w?WT.ec_id=NATURE-202506