E’ un fatto positivo che la valutazione della ricerca nelle università italiane abbia avuto luogo e che le linee guida si riferissero a standard di eccellenza internazionali. Il suo limite principale è la mancanza di un chiaro legame con la riallocazione di risorse finanziarie a favore delle università migliori. Perché se il punteggio basso di un ateneo può contribuire a dare più voce ai ricercatori di qualità, certamente un incentivo economico sarebbe stato più potente. Considerazioni analoghe si applicano anche a chi sta in cima alla classifica. Si è conclusa la valutazione della produttività scientifica delle università e dei centri di ricerca italiani organizzata dal Comitato di indirizzo per la valutazione della ricerca (Civr) per il periodo 2001-2003. (1) Criteri di valutazione Lobiettivo esplicito era considerare il “Posizionamento del prodotto rispetto alleccellenza scientifica nella scala di valore condivisa dalla comunità scientifica internazionale”. Questo criterio è essenziale nel valutare la ricerca dei singoli e delle università. Non so se questo sia successo in tutte le discipline. Nell’area che conosco meglio, la mia esperienza diretta come referee e unattenta lettura delle conclusioni finali del panel incaricato di scienze economiche e statistiche suggerisce che questo criterio di eccellenza scientifica internazionale sia stato in larga parte rispettato. Altri aspetti interessanti Un altro elemento positivo è che lesercizio sia stato condotto con grande trasparenza, in tempi relativamente brevi e con buona efficienza, nonostante alcuni problemi tecnici. Certamente può essere ripetuto regolarmente, in modo da riflettere i cambiamenti di qualità in corso nelle università italiane. Limiti Il limite principale di tutto il processo di valutazione appena condotto è la mancanza di un chiaro legame con la riallocazione delle risorse finanziarie a favore delle università con il livello di ricerca più alto, a scapito delle università di peggiore qualità. Risultati Quali sono le conclusioni di questo processo di valutazione per il raggruppamento che comprende le scienze economiche e statistiche? Un primo risultato interessante è che se la qualità media della ricerca in economia e statistica non è soddisfacente, quella in economia aziendale è assolutamente disastrosa (con poche eccezioni). Basta un unico dato indicativo: solo il 27 per cento dei contributi di economia aziendale sono pubblicati su riviste internazionali di qualche prestigio. (3) Per economia la proporzione è il 57 per cento e per statistica il 75 per cento. Conclusioni Una domanda interessante è come risponderanno le università alla loro posizione nelle classifiche. Per esempio, a quali pressioni si sentirà sottoposta un’università che è in fondo alle classifiche, per fare meglio? L’umiliazione in termini di reputazione può essere fonte di miglioramento, ma non basta. L’incentivo economico sarebbe certamente più potente. Per ora c’è da sperare che la brutta figura fatta contribuisca a dare più voce ai ricercatori di qualità e li aiuti nelle loro battaglie per un’università migliore. Considerazioni analoghe si applicano per le università in cima alla classifica: l’incentivo economico rafforzerebbe il loro desiderio di rimanervi. (1) Ricordiamo brevemente le procedure. Le “strutture” (dipartimenti, centri di ricerca) dovevano selezionare un numero di contributi (articoli, capitoli in libri, etc.) prodotti durante il periodo 2001-2003 pari al 50 per cento del numero medio di ricercatori a tempo pieno nel triennio (per luniversità, in pratica, un prodotto ogni quattro unità di personale accademico). I contributi venivano assegnati a componenti di diversi panel (uno per ciascuna area di ricerca) composti da esperti selezionati dal ministero dellIstruzione, delluniversità e ricerca, che a loro volta li assegnavano a referee esterni. I contributi dovevano essere valutati in base alla qualità, rilevanza, originalità e internazionalizzazione. Ciascun contributo poteva essere valutato come “eccellente”, “buono”, “accettabile”, o “limitato” dai referee. Ciascun panelista, sulla base del lavoro dei referee proponeva una di queste quattro valutazioni, su cui poi il panel doveva esprimersi a maggioranza. Il Civr procedeva poi ad aggregare i voti per ciascuna struttura e a esprimerli come qualità media ponderata (quindi su una scala che ha 1.0 come valore massimo) dando peso 1 a “eccellente”, peso 0.8 a “buono”, peso 0.6 ad “accettabile” e peso 0.2 a “limitato”. Per dettagli si veda: http://vtr2006.cineca.it/ (5) Si veda tabella B1 e B2 (prime due colonne) in Combes, P.P. and L. Linnemer, “Where are the economists Who Publish? Publication Concentration and Rankings in Europe Based on Cumulative Pubblications”. Journal of the European Economic Association, December 2003.
È un fatto positivo che abbia avuto luogo e che le linee guida si riferissero esplicitamente a standard di eccellenza internazionali. Il suo limite principale è la mancanza di un chiaro legame con la riallocazione di risorse finanziarie consistenti a favore delle università migliori in termini di ricerca, a scapito delle università peggiori.
Questo non è successo senza discussioni e dissensi. Esiste ancora nell’accademia italiana una componente che ritiene che il riferimento a standard internazionali nasconda l’imposizione di un paradigma particolare (l’economia neoclassica) dominante negli Stati Uniti e di lì esportato. Questa posizione è sbagliata ed è basata su una visione distorta e antiquata di che cosa sia la ricerca economica a livello internazionale. E ignora gli sviluppi nuovi e la diversificazione avvenuta dalla fine degli anni Sessanta a oggi. Fortunatamente queste posizioni si sono rivelate minoritarie.
È interessante che in alcuni casi chi (rettori, direttori di dipartimento, eccetera) doveva decidere dentro le università gli studi da sottomettere, lo abbia fatto non in base a criteri di qualità, ma di equilibrio politico interno: pensavano forse che lesercizio non sarebbe stato serio o che non ci sarebbero state conseguenze finanziarie? Nonostante tutto, per economia e statistica la valutazione del Civr dà risultati più affidabili di quelli che si ottengono valutando la qualità della ricerca nelle università sulla base del numero dei progetti finanziati dal Miur (come ad esempio lindagine Censis-Repubblica).
È certamente possibile e necessario introdurre miglioramenti e cambiamenti nel processo di valutazione e nelle strutture che ne sono incaricate, ma manca qui lo spazio per una discussione approfondita. (2) Un tema su cui bisogna discutere è invece listituzione di un un’agenzia per la ricerca come la National Science Foundation negli Stati Uniti, separata e indipendente dalle strutture ministeriali, e incaricata di valutare la qualità scientifica degli gli atenei e dei progettidi ricerca. Un secondo tema importante è che cosa possiamo imparare da esercizi sulla valutazione delle università condotti in altri paesi, come il Research Assessment Exercise nel Regno Unito.
A regime, il ministro Moratti ha suggerito che il 30 per cento delle risorse dovrebbero essere allocate sulla base della valutazione della qualità della ricerca scientifica di ciascun ateneo.
Tuttavia, non è chiaro quali saranno in pratica le conseguenze finanziarie per ciascuna università di questo primo ciclo di valutazione e quando verrà ripetuto. Se al giudizio non seguisse una riallocazione delle risorse, il processo risulterebbe di limitata utilità. Solo se i soldi vanno dove si produce ricerca (come avviene per esempio nel Regno Unito, nel contesto di un sistema essenzialmente pubblico) si può nutrire un minimo di speranza per il futuro della ricerca nell’università. Daltra parte, si può facilmente immaginare le resistenze che possono sorgere verso una tale riallocazione e non mi è chiaro se esista in Italia la volontà politica di vincerle.
Per quanto riguarda il ranking delle università non ci sono molte sorprese. (4)
Tra le grandi strutture la Bocconi (0.89), Bologna (0.81), Siena (0.80), Torino (0.76) e la Cattolica (0.70) occupano i primi cinque posti. Tra le medie strutture, Modena e Reggio Emilia (0.89), Salerno (0.86), Venezia(0.86), Pavia (0.85), e Padova (0.85) sono in testa alla classifica.
Rimane il fatto deprimente che nei ranking internazionali le università italiane vanno male. Appaiono, per esempio, al meglio solo tra il cinquantesimo ed il sessantesimo posto (Bocconi e Bologna ) tra le istituzioni europee e statunitensi, in termini di stock di produzione scientifica totale nel periodo 1996-2000 (pesata per la qualità delle riviste). In termini di produzione pro capite le cose vanno peggio (solo la Bocconi appare tra il sessantesimo e il settantesimo posto). (5)
Se gli incentivi fossero giusti (e non lo sono nella situazione attuale, nemmeno con la riforma Moratti), bisognerebbe lasciare autonomia alle università nelle politiche di assunzione, promozione e remunerazione. In mancanza di incentivi per le università ad assumere i migliori ricercatori e di stipendi competitivi e differenziati per attrarli, la fuga dei cervelli verso lestero continuerà.
È troppo presto per dire se le dovute conseguenze verranno tratte da questo primo passo nella direzione giusta e se esso verrà seguito da altre modifiche sostanziali. Confesso che il mio ottimismo del desiderio è tenuto sotto controllo dal pessimismo della ragione, che riconosce come sia difficile cambiare un sistema distorto con molti ricercatori e dipartimenti di bassa qualità avversi al cambiamento.
(2) Temi specifici da discutere sono, ad esempio: a) la scelta tra misure di flusso e di stock (meglio queste ultime); b) il numero totale e per membro dei contributi (ora troppo piccolo); c) lautomatizzazione (o meno) di parte del processo sulla base di una classifica delle riviste fondata sulla loro qualità (o del tipo di case editrici per libri e capitoli); d) la lunghezza del periodo coperto e la frequenza della valutazione; e) la scelta dei membri dei panel.
(3) Riviste con Impact Factor attribuito dallInstitute for Scientific Information.
(4) Una sorpresa è la classifica di Roma Tor Vergata (ventottesima su trentuno strutture medie), che risulta meglio piazzata (seconda) nella classifica di Dosi e Sembenelli, basata sul numero di contributi pro capite che compaiono in Econ Lit. (Si veda G. Dosi e A. Sembenelli, “Una nota sulla produttività scientifica dei docenti italiani nelle discipline economiche”, mimeo, 2005, tabella 4). Lascio agli interessati decidere quanto ciò sia dovuto al fatto che una minoranza di ricercatori di grande valore sia circondata da un grande numero di ricercatori mediocri e quanto alla scelta dei contributi presentati al Civr.
di Giampaolo Arachi e Alberto Zanardi La diffusione dei risultati del primo ciclo di valutazione della produzione scientifica condotta dal Civr sul triennio 2001-03 rappresenta una novità di grande rilievo per la ricerca italiana. Come ben documentato dai commenti di Fabio Schiantarelli e Tullio Jappelli apparsi su lavoce.info, il processo di valutazione è stato articolato e complesso, riguardando oltre 17mila prodotti di ricerca valutati da oltre 150 esperti che si sono avvalsi del giudizio di 6.600 referee esterni. Questo enorme sforzo ha portato come prodotto finale a delle graduatorie dei vari atenei italiani, distintamente per ciascuna area di ricerca, a seconda del giudizio attribuito alla loro produzione scientifica. Questione di metodologia Nelle dichiarazioni del ministro Moratti la valutazione del Civr dovrebbe fornire la base per assegnare una parte rilevante delle risorse pubbliche (il 30 per cento del Fondo di funzionamento ordinario del Miur) secondo criteri di qualità della ricerca. Ovviamente, leffettiva attuazione di questi indirizzi è condizionata allesito delle prossime elezioni, sebbene in questi giorni si siano moltiplicate le richieste perché il finanziamento degli atenei, e la ripartizione delle risorse tra le loro strutture interne, sia condizionato, seppur parzialmente, ai risultati del Civr. È necessario richiamare brevemente i punti essenziali della procedura seguita. Struttura Classifica modificata Classifica originaria Guadagni/perdite di posizione Prodotti presentati in eccesso (+)/ Univ. PADOVA 1 5 4 0 Univ. SALERNO 2 2 0 -1 Univ. PAVIA 3 4 1 -2 Univ. MODENA e REGGIO EMILIA 4 1 -3 -6 Univ. CHIETI-PESCARA 5 6 1 -2 Univ. LECCE 6 23 17 6 Univ. URBINO 7 7 0 0 Univ. BERGAMO 8 10 2 1 Univ. PIEMONTE ORIENTALE 9 8 -1 0 Univ. MILANO-BICOCCA 10 9 -1 0 Univ. MILANO 11 12 1 0 Univ. TRENTO 12 11 -1 0 Univ. VENEZIA 13 3 -10 -14 Univ. ROMA TRE 14 13 -1 -1 Univ. TRIESTE 15 14 -1 -3 Univ. CALABRIA 16 17 1 0 Univ. UDINE 17 16 -1 0 Univ. BRESCIA 18 18 0 0 Univ. CASSINO 19 27 8 4 Univ. CAGLIARI 20 19 -1 0 Univ. PARMA 21 20 -1 0 Univ. CATANIA 22 22 0 1 Univ. PISA 23 15 -8 -5 Univ. Politecnica MARCHE 24 24 0 0 Univ. VERONA 25 25 0 -1 Univ. ROMA TOR VERGATA 26 28 2 0 Univ. PERUGIA 27 26 -1 -2 Univ. PALERMO 28 21 -7 -9 Univ. MESSINA 29 29 0 -4 Univ. GENOVA 30 30 0 0 Univ. NAPOLI PARTHENOPE 31 31 0 0
È comprensibile che questo esercizio di valutazione abbia suscitato un ampio dibattito sullappropriatezza della metodologia utilizzata. In particolare, nellambito dellarea delle scienze economiche, si sono registrate delle profonde divergenze circa i criteri adottati e i rischi di discriminazione delle aree disciplinari meno rappresentate a livello internazionale. Rispetto a queste questioni centrali, che mettono in discussione lintero impianto della valutazione, vogliamo qui soffermarci su un aspetto tecnico apparentemente marginale, che tuttavia può condizionare in modo radicale la lettura dei risultati diffusi dal Civr.
Le linee guida dettate dal Civr richiedevano che ogni struttura, intesa come singolo ateneo o centro di ricerca, selezionasse un numero di contributi (articoli, capitoli in libri, eccetera), prodotti durante il periodo 2001-2003, pari al 50 per cento del numero di ricercatori a tempo pieno afferenti a quella struttura nella media del triennio. Ciascun contributo è valutato da un panel di area (ad esempio, “scienze economiche e statistiche”) secondo la scala “eccellente”, “buono”, “accettabile”, o “limitato”. A partire da queste valutazioni, il Civr ha poi ricavato un indicatore sintetico della qualità della ricerca per ogni struttura in ciascuna area mediante una media pesata che assegna il peso 1 a “eccellente”, 0,8 a “buono”, 0,6 ad “accettabile” e 0,2 a “limitato”. Si è quindi creata una graduatoria delle strutture in base a questo indicatore distintamente per ciascuna area di ricerca.
È chiaro che il valore assunto da questo indicatore sintetico varia al variare del numero dei contributi presentati (tranne, ovviamente, nel caso limite di una struttura che abbia solo prodotti di un unico livello di qualità). Quindi, il numero dei contributi valutati dovrebbe essere proporzionale a un indicatore di produzione potenziale misurato, ad esempio, dal numero di ricercatori afferenti a una particolare struttura in quella specifica area. Questo è il punto critico. Il legame fra contributi presentati e numero di ricercatori è stato fissato nelle linee guida del Civr con riferimento allintera struttura e non alla specifica area oggetto di valutazione. È quindi accaduto che nelle singole aree molti atenei siano stati valutati su un numero di contributi superiore/inferiore al 50 per cento dei ricercatori di quellarea.
Con quali effetti? È ovviamente impossibile stabilire quali pubblicazioni avrebbero presentato, e a quali pubblicazioni avrebbero rinunciato, gli atenei che si sono rispettivamente posizionati al di sotto o al di sopra della regola del 50 per cento. Tuttavia, per comprendere la rilevanza del problema può essere utile ricorrere a qualche ipotesi ragionevole. Sebbene i criteri specifici utilizzati dai panel non fossero noti al momento della presentazione dei contributi, è verosimile ritenere che gli atenei fossero in grado di selezionare nellambito della propria produzione scientifica i contributi migliori, quelli “eccellenti” o “buoni”. Si può quindi assumere che se a un ateneo fosse stato richiesto di sottoporre più contributi rispetto a quelli effettivamente presentati, li avrebbe integrati con pubblicazioni di qualità certamente non superiore. Specularmente, un ateneo che avesse dovuto ridurre il numero di contributi presentati, avrebbe ritirato quelli di qualità più bassa.
La tabella 1 mostra i risultati di questo esercizio limitatamente allarea di scienze economiche e statistiche e alle strutture di “medie dimensioni” secondo la classificazione del Civr. Ovviamente, date le ipotesi qui adottate, gli atenei che hanno presentato al Civr relativamente pochi contributi (quelli “sotto la regola del 50 per cento”) tendono a scendere in graduatoria, mentre quelli effettivamente valutati su un numero di pubblicazioni superiore a quanto indicato dalla regola del 50 per cento risalgono posizioni. Il riordinamento che ne risulta non è affatto marginale, con alcuni salti di posizione particolarmente ampi (Venezia, Pisa e Palermo verso il basso; Lecce, Cassino e Padova verso lalto).
Rimediare allerrore commesso in questo ciclo di valutazione è estremamente difficile. Qualsiasi criterio alternativo utilizzato per correggere il ranking sarebbe oggetto di legittime opposizioni da parte delle università perdenti. È quindi auspicabile che nei prossimi cicli di valutazione si ponga maggiore attenzione a questi dettagli tecnici, ad esempio verificando, sia in fase di presentazione che di valutazione, la corrispondenza fra numerosità dei contributi e numerosità dei ricercatori.
difetto (-)
In merito alle osservazioni formulate dai Colleghi Prof. Zanardi e Prof. Arachi, nel loro articolo dello scorso 8 febbraio (Un punto critico nella valutazione), mi preme puntualizzare quanto segue. 1) Ha senso che una piccola Struttura operi in molte Aree o è più opportuno che concentri le proprie risorse su poche e solide vocazioni? 2) E’ logico considerare le Aree come compartimenti blindati, quando sappiamo bene che non pochi ricercatori operano nominalmente in un’Area ma di fatto, attraverso consolidate collaborazioni, pubblicano entro il perimetro disciplinare di un’altra Area? 3) Una numerosità subcritica di ricercatori in un’Area, tale da non poter consentire la costituzione di un gruppo interno di ricerca, anche se sufficientemente compensativa in termini di copertura dei carichi didattici, perché dovrebbe costringere la Struttura a partecipare alla gara anche in quell’Area? 4) Infine, se la Struttura considera debole già in partenza, una propria Area, per quale motivo pretenderne il suicidio?
Il VTR, come noto, mira a far emergere i punti di forza delle Strutture (i cd “gioielli di famiglia”) e non, secondo una logica punitiva, i prodotti di scarsa qualità realizzati in ciascuna Area.
In teoria, secondo le nostre Linee guida, una Struttura avrebbe anche potuto scegliere di non presentare prodotti in un’Area con molti ricercatori, presentandone un numero maggiore, in via compensativa, in un’altra, ma con il rischio concreto di far emergere in quest’ultima anche prodotti di basso livello qualitativo! Il CIVR, quindi, nella seconda parte del processo di valutazione delle Strutture (che si concluderà nellarco dei prossimi due mesi), avrebbe espresso un giudizio negativo sulla prima Area, considerandola INATTIVA (pur se con molti ricercatori!), mentre la maggior attribuzione di prodotti alla seconda Area, avrebbe potuto tradursi in un abbassamento critico del livello complessivo di qualità della stessa. In sostanza, fermo restando il vincolo numerico complessivo dei prodotti da presentare, la Struttura deve operare le proprie scelte, Area per Area, in piena autonomia decisionale e responsabilità, per poter poi adottare, in relazione ai risultati, le proprie strategie di policy. Infine, alcune considerazioni, non secondarie:
di Pier Mannuccio Mannucci
Uno dei principali problemi della ricerca scientifica italiana, sia nelle università che negli enti come Cnr ed Enea, è sempre stato la mancanza pressoché totale di un processo indipendente di valutazione. Il Comitato di indirizzo per la valutazione della ricerca (Civr) ha recentemente terminato il primo esercizio di valutazione degli atenei e degli enti di ricerca relativo al periodo 2001-2003 e ne ha pubblicati i risultati (
www.civr.it).Come sono stati composti i panel di valutazione per area-scientifico disciplinare? In linea di massima (almeno nel settore che conosco) si sono scelti membri di valore, di cui era obiettivamente documentata la competenza, la qualità e limpatto delle pubblicazioni scientifiche. Era scarso, se non assente, il numero di valutatori legati al mondo politico e spesso inesistenti sul piano scientifico. Si è cercato di evitare i conflitti di interesse, includendo nei panel un buon numero di stranieri e soprattutto di ricercatori italiani allestero (20-25 per cento del totale). Questi ultimi si sono rivelati i più attivi e i più utili, rispetto agli stranieri, che si sono spesso impegnati poco (nonostante fosse prevista anche una ricompensa monetaria).
La classifica e i finanziamenti
Il rapporto del Civr rappresenta comunque il primo tentativo di fare una classifica di merito delle università e degli enti di ricerca. Il processo di valutazione del Civr non considerava tutti i prodotti di ricerca, ma solo i prodotti migliori. Questa scelta di valutazione aveva ovviamente dei limiti perché tendeva a comprimere le differenze; come pure aveva limiti il criterio di valutare per ogni ateneo ed ente un numero di prodotti proporzionale al numero dei ricercatori. Tale criterio ha favorito le istituzioni più piccole che, essendo giudicate su un numero ridotto di prodotti, più facilmente potevano scegliere i migliori. Lesempio più eclatante è stato fornito dalluniversità della Tuscia, la quale ha presentato un solo prodotto, che è stato giudicato eccellente, risultando quindi la prima in assoluto nel campo delle scienze mediche. Comunque, le differenze fra università ed enti paragonabili per dimensioni si vedono, anche se compresse dal metodo di valutazione. Per esempio, fra i mega atenei il ranking della prima classificata nelle scienze mediche (lUniversità Statale di Milano) e quello dellultima (Palermo) registra una differenza del 25 per cento.
Rimangono ora del tutto da verificare le conseguenze pratiche dellesercizio di valutazione del Civr. Ci possiamo aspettare che si premino i migliori atenei ed enti con lattribuzione di maggiori fondi per la ricerca? Il ministro Moratti ha promesso che il 30 per cento del fondo di finanziamento ordinario (Ffo) delle università e degli enti sarà assegnato secondo le classifiche del Civr. Non vi è purtroppo nessuna garanzia che il “premio” in termini di Ffo determini un maggiore sostegno per la ricerca, tenendo conto del fatto ben noto che il 90 per cento o più delle spese degli atenei sono per stipendi e amministrazione.
Da questo punto di vista appare più interessante la proposta contenuta nel progetto di legge dei Ds per una Authority per la ricerca. In essa si propone che la valutazione possa portare allattribuzione massima di una percentuale molto più bassa del Ffo (2 per cento), ma che questa sia unicamente destinata alla ricerca scientifica e ai dottorati di ricerca. I compiti dellAuthority appaiono più ampi di quelli assegnati al Civr: fra questi anche la vigilanza “sulla competenza e correttezza della comunicazione pubblica” degli atenei ed enti di ricerca. Chi è quotidianamente disgustato dai proclami di mirabolanti scoperte scientifiche vantate dai potenti uffici stampa di atenei ed enti di ricerca privati (e dalla complicità di una parte della stampa quotidiana e periodica nel diffonderle al pubblico ignaro e illuso), non può che essere lieto nel vedere che chi si candida a governare il paese si rende finalmente conto che questa prassi è dannosa per limmagine stessa della scienza e degli scienziati.
Rispetto al meccanismo del Civr e quello dellAuthority dei Ds, il Gruppo 2003 persegue da tempo un obiettivo più ambizioso: quello ben sintetizzato nella proposta di Garattini relativo allAgenzia per la ricerca (pubblicato pochi giorni orsono su lavoce.info). LAgenzia riassumerebbe in ununica entità, affidata a un board scientificamente competente e svincolato dal ministero e dai condizionamenti politici, le
Lavoce è di tutti: sostienila!
Lavoce.info non ospita pubblicità e, a differenza di molti altri siti di informazione, l’accesso ai nostri articoli è completamente gratuito. L’impegno dei redattori è volontario, ma le donazioni sono fondamentali per sostenere i costi del nostro sito. Il tuo contributo rafforzerebbe la nostra indipendenza e ci aiuterebbe a migliorare la nostra offerta di informazione libera, professionale e gratuita. Grazie del tuo aiuto!
Emanuele
Finalmente si è fatto quello che si doveva fare. Seppur con i limiti da lei enunciati nel suo articolo sembra di capire che qualcosa di importante si è mosso nel mondo della valutazione accademica. Già il mero fatto di vedere la propria università inserita in una classifica dovrebbe suscitare qualche emozione a chiunque faccia parte di quella istituzione: orgoglio d’appartenenza per i migliori e malcontento per i peggiori. Conoscendo l’orgoglio che da sempre contraddistingue noi italiani sono certo che il fatto di sentirsi in competizione con altri non faccia altro che aumentare lo stimolo a fare meglio. Credo sia importante mantenere un continuo monitoraggio dei risultati (nella speranza che la frequenza con la quale siano aggiornate queste classifiche sia elevata) e altrettanto importante giudico la loro pubblicazione su organi di informazione pubblica. Da questo punto di vista La Voce potrebbe essere uno strumento importante per generare trasparenza ed interesse verso questo “Campionato italiano” delle Università. Un suggerimento: perchè la Voce non si prende il compito di pubblicare le classifiche per intero aggiornate di volta in volta?
La redazione
I documenti sono disponibili integralmente sul sito
http://www.civr.it
Alessandro Figà-Talamanca
Non sono un esperto di economia. Mi sembra però che le argomentazioni della relazione di minoranza del “panel” per le Scienze Economiche e Statistiche, come pure le risposte della maggioranza, meritino una discussione più approfondita della veloce menzione che se ne fa in questo articolo, per concludere che la posizione di minoranza riflette il “vecchio che resiste” e quella di maggioranza “il nuovo che avanza”. Cominciamo quindi a publicare i due documenti e a sollecitare un dibattito tra gli esperti, che sia illuminante anche per i non esperti.
La redazione
Grazie per il suo messaggio. Grazie alla trasparenza delle procedure di valutazione del CIVR i documenti rilevanti sono gia’ disponibili a chiunque sia interessato. Si veda la Relazione Finale d’Area per il Raggruppamento di Scienze Economiche e Statistiche. Particolarmente informativa e’ la
Relazione Finale del Consensus Group di Economia, e le Appendici 4 e 5. Il tutto è disponibile a http://vtr2006.cineca.it/rel_area/panel_13.pdf
Mario Strada
L’iniziativa dovrebbe continuare, migliorandola se possibile, e, come suggerito, essere la base per valutare la ripartizione di fondi a Universita’ e Istituti Universitari. A mio parere, a regime, dovrebbe condizionare una quota molto importante dei flussi finanziari (70/80%?). Credo poco all'”umiliazione” per giudizio poco positivo. Per esempio, si potrebbe immaginare che si possa arrivare “a regime” entro un determinato lasso di tempo (anche lungo:10 anni) ma con percentuali annue fisse di incremento del peso della valutazione sul totale delle somme erogate, eventualmente con una o piu’ verifiche intermedie per verificare gli effetti pratici. Solo cosi’, a mio avviso, si puo’ lasciare ragionevole autonomia decisionale a Universita’ ed Istituti. Perche’ in un modo o nell’altro dovranno darsi una regolata in termini di qualita’. Circa i criteri di decisione del panel (a maggioranza): se ho ben capito il processo di decisione, sarebbe opportuno che il numero dei voti a favore o contro una determinata valutazione (eccellente, buono, ecc.) influisca sul punteggio, facendolo slittare verso il basso o verso lalto a seconda che la maggioranza sia stata risicata o unanime. I giudizi finali cosi rispecchierebbero un po di piu la diversita delle opinioni.
Marco Arnone
Vorrei aggiungere una considerazione sulla eta’ di pensionamento in universita’. Sarebbe opportuno introdurre una eta’, ad esempio 65 anni, in cui (far)andare tassativamente in pensione. Questo ridurrebbe l’eta’ media, aumenterebbe il turnover dei docenti, con maggiori possibilita’ di inserimento di giovani.