La diffusione dei risultati del primo ciclo di valutazione della produzione scientifica condotta dal Civr sul triennio 2001-03 rappresenta una novità di grande rilievo per la ricerca italiana.
Come ben documentato dai commenti di Fabio Schiantarelli e Tullio Jappelli apparsi su lavoce.info, il processo di valutazione è stato articolato e complesso, riguardando oltre 17mila prodotti di ricerca valutati da oltre 150 esperti che si sono avvalsi del giudizio di 6.600 referee esterni. Questo enorme sforzo ha portato come prodotto finale a delle graduatorie dei vari atenei italiani, distintamente per ciascuna area di ricerca, a seconda del giudizio attribuito alla loro produzione scientifica.
Questione di metodologia
Nelle dichiarazioni del ministro Moratti la valutazione del Civr dovrebbe fornire la base per assegnare una parte rilevante delle risorse pubbliche (il 30 per cento del Fondo di funzionamento ordinario del Miur) secondo criteri di qualità della ricerca. Ovviamente, leffettiva attuazione di questi indirizzi è condizionata allesito delle prossime elezioni, sebbene in questi giorni si siano moltiplicate le richieste perché il finanziamento degli atenei, e la ripartizione delle risorse tra le loro strutture interne, sia condizionato, seppur parzialmente, ai risultati del Civr.
È comprensibile che questo esercizio di valutazione abbia suscitato un ampio dibattito sullappropriatezza della metodologia utilizzata. In particolare, nellambito dellarea delle scienze economiche, si sono registrate delle profonde divergenze circa i criteri adottati e i rischi di discriminazione delle aree disciplinari meno rappresentate a livello internazionale. Rispetto a queste questioni centrali, che mettono in discussione lintero impianto della valutazione, vogliamo qui soffermarci su un aspetto tecnico apparentemente marginale, che tuttavia può condizionare in modo radicale la lettura dei risultati diffusi dal Civr.
È necessario richiamare brevemente i punti essenziali della procedura seguita.
Le linee guida dettate dal Civr richiedevano che ogni struttura, intesa come singolo ateneo o centro di ricerca, selezionasse un numero di contributi (articoli, capitoli in libri, eccetera), prodotti durante il periodo 2001-2003, pari al 50 per cento del numero di ricercatori a tempo pieno afferenti a quella struttura nella media del triennio. Ciascun contributo è valutato da un panel di area (ad esempio, “scienze economiche e statistiche”) secondo la scala “eccellente”, “buono”, “accettabile”, o “limitato”. A partire da queste valutazioni, il Civr ha poi ricavato un indicatore sintetico della qualità della ricerca per ogni struttura in ciascuna area mediante una media pesata che assegna il peso 1 a “eccellente”, 0,8 a “buono”, 0,6 ad “accettabile” e 0,2 a “limitato”. Si è quindi creata una graduatoria delle strutture in base a questo indicatore distintamente per ciascuna area di ricerca.
È chiaro che il valore assunto da questo indicatore sintetico varia al variare del numero dei contributi presentati (tranne, ovviamente, nel caso limite di una struttura che abbia solo prodotti di un unico livello di qualità). Quindi, il numero dei contributi valutati dovrebbe essere proporzionale a un indicatore di produzione potenziale misurato, ad esempio, dal numero di ricercatori afferenti a una particolare struttura in quella specifica area. Questo è il punto critico. Il legame fra contributi presentati e numero di ricercatori è stato fissato nelle linee guida del Civr con riferimento allintera struttura e non alla specifica area oggetto di valutazione. È quindi accaduto che nelle singole aree molti atenei siano stati valutati su un numero di contributi superiore/inferiore al 50 per cento dei ricercatori di quellarea.
Con quali effetti? È ovviamente impossibile stabilire quali pubblicazioni avrebbero presentato, e a quali pubblicazioni avrebbero rinunciato, gli atenei che si sono rispettivamente posizionati al di sotto o al di sopra della regola del 50 per cento. Tuttavia, per comprendere la rilevanza del problema può essere utile ricorrere a qualche ipotesi ragionevole. Sebbene i criteri specifici utilizzati dai panel non fossero noti al momento della presentazione dei contributi, è verosimile ritenere che gli atenei fossero in grado di selezionare nellambito della propria produzione scientifica i contributi migliori, quelli “eccellenti” o “buoni”. Si può quindi assumere che se a un ateneo fosse stato richiesto di sottoporre più contributi rispetto a quelli effettivamente presentati, li avrebbe integrati con pubblicazioni di qualità certamente non superiore. Specularmente, un ateneo che avesse dovuto ridurre il numero di contributi presentati, avrebbe ritirato quelli di qualità più bassa.
La tabella 1 mostra i risultati di questo esercizio limitatamente allarea di scienze economiche e statistiche e alle strutture di “medie dimensioni” secondo la classificazione del Civr. Ovviamente, date le ipotesi qui adottate, gli atenei che hanno presentato al Civr relativamente pochi contributi (quelli “sotto la regola del 50 per cento”) tendono a scendere in graduatoria, mentre quelli effettivamente valutati su un numero di pubblicazioni superiore a quanto indicato dalla regola del 50 per cento risalgono posizioni. Il riordinamento che ne risulta non è affatto marginale, con alcuni salti di posizione particolarmente ampi (Venezia, Pisa e Palermo verso il basso; Lecce, Cassino e Padova verso lalto).
Rimediare allerrore commesso in questo ciclo di valutazione è estremamente difficile. Qualsiasi criterio alternativo utilizzato per correggere il ranking sarebbe oggetto di legittime opposizioni da parte delle università perdenti. È quindi auspicabile che nei prossimi cicli di valutazione si ponga maggiore attenzione a questi dettagli tecnici, ad esempio verificando, sia in fase di presentazione che di valutazione, la corrispondenza fra numerosità dei contributi e numerosità dei ricercatori.
Struttura | Classifica modificata | Classifica originaria | Guadagni/perdite di posizione | Prodotti presentati in eccesso (+)/ difetto (-) |
Univ. PADOVA | 1 | 5 | 4 | 0 |
Univ. SALERNO | 2 | 2 | 0 | -1 |
Univ. PAVIA | 3 | 4 | 1 | -2 |
Univ. MODENA e REGGIO EMILIA | 4 | 1 | -3 | -6 |
Univ. CHIETI-PESCARA | 5 | 6 | 1 | -2 |
Univ. LECCE | 6 | 23 | 17 | 6 |
Univ. URBINO | 7 | 7 | 0 | 0 |
Univ. BERGAMO | 8 | 10 | 2 | 1 |
Univ. PIEMONTE ORIENTALE | 9 | 8 | -1 | 0 |
Univ. MILANO-BICOCCA | 10 | 9 | -1 | 0 |
Univ. MILANO | 11 | 12 | 1 | 0 |
Univ. TRENTO | 12 | 11 | -1 | 0 |
Univ. VENEZIA | 13 | 3 | -10 | -14 |
Univ. ROMA TRE | 14 | 13 | -1 | -1 |
Univ. TRIESTE | 15 | 14 | -1 | -3 |
Univ. CALABRIA | 16 | 17 | 1 | 0 |
Univ. UDINE | 17 | 16 | -1 | 0 |
Univ. BRESCIA | 18 | 18 | 0 | 0 |
Univ. CASSINO | 19 | 27 | 8 | 4 |
Univ. CAGLIARI | 20 | 19 | -1 | 0 |
Univ. PARMA | 21 | 20 | -1 | 0 |
Univ. CATANIA | 22 | 22 | 0 | 1 |
Univ. PISA | 23 | 15 | -8 | -5 |
Univ. Politecnica MARCHE | 24 | 24 | 0 | 0 |
Univ. VERONA | 25 | 25 | 0 | -1 |
Univ. ROMA TOR VERGATA | 26 | 28 | 2 | 0 |
Univ. PERUGIA | 27 | 26 | -1 | -2 |
Univ. PALERMO | 28 | 21 | -7 | -9 |
Univ. MESSINA | 29 | 29 | 0 | -4 |
Univ. GENOVA | 30 | 30 | 0 | 0 |
Univ. NAPOLI PARTHENOPE | 31 | 31 | 0 | 0 |