Esistono riviste scientifiche che millantano standard accademici, ma che a pagamento pubblicano qualsiasi articolo. Sono un pericolo perché a volte queste pubblicazioni sono considerate nelle valutazioni della qualità della ricerca. Un problema anche in Italia. I suggerimenti per risolverlo.
Articoli pubblicati a pagamento
La scienza non è immune alla corruzione. Da qualche anno, accanto alle frodi classiche (fabbricazione, falsificazione e plagio), la credibilità della comunicazione scientifica deve affrontare una nuova minaccia: le riviste che millantano standard accademici, ma che, invece, pubblicano qualsiasi articolo a pagamento. Jeffrey Beall, bibliotecario dell’università del Colorado, le ha battezzate riviste “predatorie” e dal 2010 redige una lista che, non senza problemi e controversie, prova a catalogarle. John Bohannon ne ha testato l’affidabilità in un esperimento i cui risultati sono stati pubblicati su Science: ha inviato un articolo chiaramente artefatto a un centinaio di riviste della lista. Solo il 16 per cento l’ha rifiutato, mentre l’84 per cento l’ha accettato senza alcuna revisione.
Figura 1
Un nostro lavoro mostra che l’Italia non è immune al problema. Incrociando i curricula di 46mila ricercatori che hanno partecipato all’abilitazione scientifica nazionale con le riviste della lista di Beall, abbiamo identificato circa 6mila articoli ivi pubblicati nel periodo 2002-2012, lo 0,3 per cento del totale. L’economia e il management sembrano essere i settori dove il problema è più grave: nel 2012, più del 5 per cento degli articoli è stato pubblicato su una rivista della lista (figura 1). Complessivamente, circa il 5 per cento dei ricercatori del campione ha almeno una pubblicazione predatoria e, a parità di altre condizioni, la percentuale è più alta fra i più giovani e fra chi lavora nelle università meridionali.
Perché si pubblica su una rivista predatoria
Per comprendere meglio le motivazioni dei ricercatori e misurare la qualità delle riviste identificate, abbiamo somministrato un questionario via email a un campione di circa mille ricercatori e professori che vi hanno pubblicato. Il tasso di risposta è stato inaspettatamente alto (54 per cento). I risultati indicano che almeno il 36 per cento delle riviste identificate non svolge peer review e altre hanno falsificato il loro impact factor, contrattato aggressivamente sul prezzo, pubblicato articoli senza il consenso degli autori. Per alcune riviste, invece, abbiamo ottenuto commenti coerenti con una buona attività editoriale. In molti casi, si trattava di numeri speciali curati da editor esterni alla rivista.
La bassa qualità media delle riviste esaminate è confermata da dati bibliometrici: solo il 38 per cento ha pubblicato negli ultimi cinque anni almeno cinque articoli con cinque citazioni e più di un terzo degli articoli del campione non ha alcuna citazione su Google Scholar. A conferma dell’eterogeneità dei commenti ricevuti, qualche articolo ha invece avuto un buon impatto ed è citato su riviste come Science e The Lancet.
Ci siamo anche chiesti cosa spinga i colleghi a pubblicare, spesso a pagamento, su riviste dal dubbio valore scientifico.
Una prima spiegazione, come suggerisce uno dei commenti ricevuti, è l’inesperienza: “Avevo poca esperienza con riviste straniere. Successivamente sono stato criticato da un collega per quella pubblicazione, oggi non lo rifarei anche perché l’articolo in questione ha avuto poca visibilità ma a me è costato fatica”.
Ma anche valutazioni che enfatizzano la quantità e non la qualità delle pubblicazioni rischiano di spingere le prede fra le braccia dei predatori: “Partecipai a una conferenza di quell’organizzazione e mi fu offerto di pubblicare velocemente il paper in una rivista (…). Avevo bisogno della pubblicazione per l’abilitazione e accettai di pubblicare nella rivista che mi proponevano. Mi sono pentita di quella scelta”.
Un altro autore si chiede come sia possibile che le pubblicazioni su queste riviste vengano considerate nella valutazione: “Tutte le riviste della casa editrice sono solo spazzatura e non capisco come possano essere considerate ai fini Vqr (valutazione qualità della ricerca)”.
Il motivo principale è che quasi un quarto delle riviste identificate è indicizzato in Scopus, una delle principali banche dati di settore, spesso utilizzata come segno di qualità. Mentre secondo i nostri risultati in almeno un terzo dei casi anche le riviste che compaiono nella lista e sono indicizzate hanno comportamenti predatori.
Il nostro studio mostra che anche in Italia un numero significativo di ricercatori pubblica articoli su riviste con nessun valore accademico sprecando risorse economiche e intellettuali. È arrivato il momento di affrontare il problema. Un primo passo è quello di sensibilizzare i giovani ricercatori a scegliere con maggiore attenzione le riviste sulle quali pubblicare. Un secondo potrebbe essere quello di migliorare ancora la qualità della valutazione. Il nostro lavoro mostra che liste come Scopus o la stessa lista di Beall sono informative, ma imperfette. Più in generale, l’uso di liste predeterminate dovrebbe essere accompagnato dalla peer review. Forse il lato selvaggio della scienza può ancora essere sconfitto.
Lavoce è di tutti: sostienila!
Lavoce.info non ospita pubblicità e, a differenza di molti altri siti di informazione, l’accesso ai nostri articoli è completamente gratuito. L’impegno dei redattori è volontario, ma le donazioni sono fondamentali per sostenere i costi del nostro sito. Il tuo contributo rafforzerebbe la nostra indipendenza e ci aiuterebbe a migliorare la nostra offerta di informazione libera, professionale e gratuita. Grazie del tuo aiuto!
Paolo Palazzi
Permettetemi un’osservazione banale.
Se le commissioni di valutazione e di concorso avessero l’abitudine di leggere gli articoli o le monografie prima di esprimere i giudizi forse il problema non esisterebbe, o no?
Mauro
In alcune valutazioni leggere e giudicare tutte le pubblicazioni può essere difficile o costoso. In questi casi è utile affidarsi a strumenti aggiuntivi che rendono la “peer review” maggiormente “informata” (liste di riviste o di editori, bibliometria,…). Utilizzare questi strumenti aggiuntivi in modo automatico può però avere delle controindicazioni.
Guido Sassi
Leggere tutto è difficile e costoso? Mica devono leggere tutto, possono selezionare alcune pubblicazioni e leggerle o farle leggere e rendere pesante la discussione dei titoli. In tanti concorsi (15) a me è successo 2 volte. Con le mie pubblicazioni costellate di segnalibri e aperte al passo in discussione con domande precise di chiarimento, unici 2 esami di soddisfazione e utili. I concorsi mi hanno fatto capire la pochezza della quasi totalità degli esaminatori, molti hanno fatto domande che dimostravano l’ignoranza completa degli argomenti che loro stessi mi avevano assegnato per la lezione e dei miei argomenti di ricerca. Su circa 70 esaminatori che ho subito, più della metà hanno solamente presenziato, alcuni dormendo. Dei rimanenti ne salverei meno di 10.
Gli strumenti sarebbero utili per verificare i numeri e la qualità delle citazioni e delle riviste meno conosciute.
Concordo sull’uso automartico di questi strumenti, è fuorviante e non si può applicare su numerosità così basse.
Le liste di riviste e i loro score, dovrebbero essere dati, in ogni SSD, dai professori ordinari con validità poliennale (almeno 4 anni) e aggiornate annualmente, così come le soglie di ammissione ai concorsi, definite con 10/15 anni di anticipo e riviste annualmente. In pochi anni il sistema andrebbe a regime, tenendo conto delle attitudini a pubblicare e citare dei vari sotto settori. E la VQR avrebbe, in anticipo, i suoi parametri, che gli ordinari degli SSD dovrebbero giustificare.
Michele Lalla
In generale, è bene tenere monitorate e sulla corda le riviste predatorie. Si deve rilevare, tuttavia, che anche quelle che sono considerate ‘non predatorie’ non si comportano sempre correttamente. Ho una esperienza diretta in tale antinomia. A mio avviso, il problema è come dimostrare compiutamente che una rivista sia (è) predatoria, perché se fosse possibile farlo in modo inequivocabile, allora si potrebbe espellerla dal circuito. Se i revisori (referees) leggessero accuratamente gli articoli, forse quelli artefatti non passerebbero. Osserviamo pure che un articolo fabbricato ad hoc per ingannare i revisori, magari basato su un dettaglio, non fa testo perché a chiunque può sfuggire: nessuno è onniveggente e onnisciente.
Mauro
Sono d’accordo con lei. Il confine tra riviste “predatorie” e riviste di bassa qualità è molto impreciso. In alcuni casi, inoltre, anche riviste di ottima qualità compiono errori, in buona o in cattiva fede. Comunque, parafrasando Churchill, la peer review è la peggior forma per far avanzare la scienza, ad eccezione di tutte quelle sperimentate finora.
Marco Spampinato
Sono molto d’accordo con quanto scritto da Paolo Palazzi. Pur considerando utili alcune misure quantitative, penso ci sia una distorsione dell’incentivo alla qualità della ricerca, determinato dal peso della quantità delle “cose pubblicate”. Senza quel meccanismo, spendere da uno o tre anni per una buona pubblicazione, preferibilmente individuale, risulterebbe utile e conveniente, oltre che moralmente convincente per se stessi. Oltre a riuscire forse a pubblicare in una rivista di primo livello (senza assicurazione dal rischio), la pubblicazione costituirebbe un investimento fondamentale nella propria carriera. Altrimenti, per minimizzare ogni rischio, “conviene” essere ad es. coautore con molti altri, in articoli dove la responsabilità è molto frammentata. Questo fenomeno non sembra sia considerato “corruttivo”, ma potrebbe essere molto diffuso, anche in Italia. Si riduce l'”esposizione personale” del ricercatore, si fa punteggio restando in una catena di montaggio (dove si può saper fare una cosa sola), e ci si può garantire, immagino, più facile accesso alla rivista presso la quale il docente di riferimento è accreditato. Una osservazione, infine, sul termine corruzione. Con un click al vostro link appaiono su Nature tre parole – falsification, fabrication and plagiarism. Non c’è scritto corruption. Perché semplificare? Corruzione non significa granché. Quelle tre parole hanno invece un significato non banale nel contesto della ricerca scientifica.
Mauro
Condivido gran parte del suo commento. La parola corruzione effettivamente può avere diversi significati. Per esempio: “comportamenti privati eticamente “discutibili” (Pizzorno, 1993) http://www.treccani.it/enciclopedia/corruzione_(Enciclopedia-Italiana)/ In questo senso, il termine non è usato a sproposito e credo le tre parole (citate anche nel nostro testo!) siano forme di corruzione.
Marco Spampinato
Vero, le avevate citate in parentesi. Ho letto la Treccani sul punto. La mia svista, oltre alla lettura veloce da video, può forse segnalare che l’espansività o inerzia del concetto di corruzione, di per sé sintomo del suo grado di generalità e flessibilità, potrebbe farlo percepire come meno stringente, troppo generico. Ogni comportamento retto può corrompersi, ma non tutte le corruzioni sono eguali per loro intrinseche caratteristiche – non tanto o non troppo semplicemente morali. Se prendo la categoria del plagio, il termine italiano ha due significati: plagiare o essere plagiati. E infatti per evitare il “plagiarism” (trarre vantaggio dalle idee altrui senza citarle; da google), il ricercatore deve sviluppare grande attenzione non solo a non copiare, ma anche a non inglobare nel testo, attraverso qualche routine data per assodata, il pensiero altrui. L’esempio è per dire che per sua natura il plagio può agire su base volontaria e involontaria – conscia o inconscia. Ad un estremo opposto dello spettro del concetto di corruzione si hanno scambi del tutto intenzionali (danaro o altro) per ottenere un trattamento di favore rispetto ad una procedura legale imparziale. L’espansione di un concetto, quando questo è vivo e attivo nel linguaggio comune di una società, con riferimento a fattispecie differenti, non è atto di poco conto. La mia opinione è che per andare a fondo, come è un valore fare, valga la pena fare un passo avanti nella psicologia del comportamento.
Mauro
Sono d’accordo con lei. Personalmente la definizione che preferisco, che rispetto a quella che ho citato sopra ha il dono delle chiarezza, è questa: “Infrazione di una regola per un vantaggio personale da parte di un burocrate, politico o soggetto privato al quale è stato delegato un potere”. La frode scientifica potrebbe rientrare in questa definizione se crediamo che chi fa ricerca o chi cura una rivista è destinatario di un potere di delega da parte della Repubblica della Scienza (cfr. Polanyi).
Maurizio Grassini
Le riviste ‘predatorie’ e il killeraggio dei revisiori sono figli del Vqr. Il Vqr è stato richiesto e ottenuto dalla stragrande maggioranza dei giovani e non più giovani ricercatori. L’illusione dell’esistenza di un metodo di misurazione degli studi di economia simile a quello delle misura della temperature è semplicemente assurdo. I revisori controllano semplicemente se i lavori sono in linea con la moda del momento. Qualunque contributo innovativo e/o originale riceverà il rifiuto o la tortura di questi inquisitori. Il Vqr sembra fatto apposta per garantire la mediocrità (anche come stare nella folla: impact factor). Invito gli economisti di questo Forum a rileggere i verbali del gruppo 13 che delibò sul metodo di valutazione delle ricerche economiche: in particolare la relazione di minoranza di Luigi Pasinetti.
Mauro
Se fosse vero quello che sostiene lei, non dovremmo osservare pubblicazioni su riviste predatorie prima della VQR (il primo bando è del 2011). Purtroppo, come mostriamo nel nostro articolo, non è così. Sono invece d’accordo sul fatto che l’utilizzo automatico (senza peer review) della lista Scopus (e nel caso di Econonia anche Google Scholar) ha delle controindicazioni.
Mauro
Se le reviste predatorie fossero “figlie” della VQR, allora non dovremmo osservare pubblicazioni su riviste predatorie prima del 2011 (anno del primo bando VQR). Purtroppo, come mostriamo nel nostro articolo, non è così.
Guido Sassi
La richiesta dei ricercatori non era la VQR. Abbiamo richiesto di porre dei paletti trasparenti sulla ammissione ai concorsi e sulla valutazione dei titoli. 1 per avere degli obiettivi chiari per il nostro lavoro (sapere quali sono i requisiti minimi, avere un elenco (per SSD) delle riviste e titoli sicuramente considerati). 2 per limitare la discrezionalità della commissione. Il mondo accademico ha reagito creando questo mostro con regole automatiche che cambiano di continuo a posteriori. Il sonno della ragione (o l’iperattività di menti distorte) genera mostri.
Massimo Auci
Credo che si sia trascurato un serio problema. Io ho pubblicato in riviste di livello come Physics Letters e International Journal of Modern Physics articoli che mi sono costati anni di fatica. Queste riviste sono considerate il top in ambito fisico, poi ho dovuto attendere alcuni anni prima di pubblicare, lavori teorici lunghi. Ho inviato articoli su campi di ricerca molto personali, hanno cominciato a chiedermi i nomi di possibili referee. Ma pur essendo la rivista adatta non pubblicavano per la mancanza di persone che accettassero la revisione senza nemmeno leggerli.
Quando ho trovato delle riviste che mi sembravano adatte, ignoravo questo problema che ancora ora capisco poco.
Se il contenuto di una ricerca è buono perché le riviste famose lo scartarlo a priori senza nemmeno leggerlo pur essendo adatte?? Quindi è ovvio che ci si rivolge ad altre riviste, è stressante andare a cercare se certe riviste sono predatorie oppure no. Garantisco che non ho quasi mai pagato cifre proibitive. Semplici contributi attendendo un tempo di peer review del tutto normale e addirittura facendo correzioni. Se pubblichi in riviste definite predatorie sei segnato a vita. E’ assurdo.