Lavoce.info

Valutazioni che non danno risposte

L’Italia partecipa alle indagini campionarie internazionali che misurano il livello di apprendimento degli studenti, costruite con metodologie rigorose nella selezione dei campioni, degli indicatori e nello svolgimento delle prove. Ma a livello nazionale la valutazione è affidata all’Invalsi, che però utilizza criteri meno rigorosi, con risultati che suscitano più di una perplessità. Soprattutto, non si risponde al bisogno delle famiglie di conoscere quale sia la “qualità” dei diversi istituti, prima di iscrivervi i propri figli.

Il tema della valutazione delle scuole, sollevato dalla cosiddetta direttiva “Invalsi” del ministro della Pubblica istruzione del 25 agosto, ha riproposto un problema endemico nel caso italiano, in particolare con riferimento alla pubblica amministrazione: la carenza di dati valutativi sull’attività svolta.

Dal campione all’intero sistema

A livello internazionale esistono indagini campionarie che misurano il livello di apprendimento degli studenti, costruite con metodologie rigorose nella selezione dei campioni, nello svolgimento delle prove e nella costruzione degli indicatori relativi alla performance degli studenti. Basti citare i nomi delle indagini Pirls, Timms, Pisa. Tuttavia, queste indagini sono finalizzate al confronto internazionale, e non all’interno dei paesi stessi. La dimensione dei campioni è normalmente adeguata allo scopo, e non supera qualche migliaio di casi. Diversi paesi hanno poi le rilevazioni nazionali, spesso sull’intera popolazione scolastica, che permettono di estendere la valutazione a un livello più basso, arrivando in alcuni casi alla definizione di punteggi relativi alla performance della singola scuola.
Il caso italiano è invece atipico. Il nostro paese ha partecipato a molte indagini comparative nell’ultimo decennio, e nel contempo l’Invalsi ha tentato di costruire un complesso di prove valutative esteso all’intero sistema scolastico, inizialmente denominandoli “progetti pilota” e ora “valutazione del sistema scolastico nazionale”. Esistono tuttavia forti motivi di insoddisfazione nei confronti della significatività di queste prove, come emerge per esempio dal confronto dei risultati dell’indagine Pisa (relativa agli studenti quindicenni) con la valutazione nazionale delle classi prima e terza delle scuole superiori.
indagine Pisa condotta in ambito Ocse con cadenza triennale (fino ad oggi nel 2000, nel 2003 e nel 2006) riguarda un campione rappresentativo della popolazione studentesca quindicenne. L’ultima per la quale sono disponibili i dati (liberamente scaricabili dal sito
www.pisa.oecd.org) ha riguardato 11.639 studenti quindicenni, di cui 11 in seconda media, 63 in terza media (evidentemente pluribocciati), 1.775 in prima superiore (presumibilmente in massima parte ripetenti o “riorientati”), 9.562 in seconda superiore e 228 in terza superiore (i cosiddetti “anticipi”).
Poiché è plausibile auspicare che la valutazione della qualità della formazione non sia influenzata dalle diverse politiche di selezione (anche perché non vorremmo indurre l’incentivo distorto di promuovere tutti), ci possiamo concentrare sugli studenti appartenenti alla classe modale, ovverosia ai 9.562 iscritti alla seconda classe di 381 scuole secondarie del secondo ciclo, distribuite su ottanta province italiane: una media di 4,7 istituti per provincia. Se si considera che per lo stesso anno scolastico 2002-03 gli istituti d’istruzione superiore statali erano 4.876 (a cui andrebbero aggiunti gli istituti privati) ci si accorge subito di come questa valutazione non possa che essere presa con molta cautela quando si scende al di sotto del livello nazionale.
Più ampio è invece il campione delle scuole partecipanti alla rilevazione promossa annualmente dall’Invalsi per la valutazione del sistema scolastico. (1)
Si tratta di una valutazione condotta nelle classi seconde e quarte nella scuola primaria, seconde nella scuola secondaria del primo ciclo e nelle classi prime e terze della scuola secondaria del secondo ciclo. Per quanto riguarda le scuole secondarie del secondo ciclo, risultano rilevati 1.728 istituti e circa 200mila studenti (222.498 nella rilevazione sul primo anno e 182.816 nella rilevazione sul terzo anno), con un campione nettamente più ampio. Tuttavia, a differenza dell’indagine Pisa in cui il campione è scelto rigorosamente in modo da essere rappresentativo della situazione nazionale, con precisi standard in termini di tassi di risposta minimi e di rimpiazzo in caso di assenza, il campione Invalsi è (almeno nel caso dell’istruzione secondaria di secondo ciclo) a partecipazione volontaria, con regole meno rigorose in merito alla presenza/assenza di studenti scadenti durante la somministrazione della prova.

Leggi anche:  Parità di genere: dov'è il collo di bottiglia nella carriera universitaria

Due valutazioni, due graduatorie

Se le due valutazioni rilevassero competenze analoghe, con procedure validate e validabili, ci aspetteremmo che l’ordinamento delle scuole che se ne ottiene sia confrontabile. Tuttavia, se osserviamo la tabella seguente (che riporta su base regionale quello che la figura ripete su base provinciale) notiamo che le due rilevazioni forniscono graduatorie molto diverse.
Utilizzando come base di analisi le medie provinciali di ciascuna rilevazione (essendo questo il livello di disaggregazione dei dati più fine a cui siamo riusciti ad accedere), riscontriamo sì una associazione di segno positivo, ma di entità molto bassa (0.41) rispetto a quanto ci saremmo aspettati. Paradossalmente la correlazione dei dati provinciali è maggiore tra l’indagine Pisa e la rilevazione rispetto alla classe seconde del primo ciclo della scuola secondaria (0.58).
Certo ci sono molte differenze: si tratta di rilevazioni condotte in anni diversi (2003 per Pisa, 2006 per Invalsi) su studenti in classi diverse (seconda superiore per Pisa, prima superiore per Invalsi, ma i risultati sono molto simili anche se si considera la terza superiore per Invalsi), con regole di selezione diverse (nel campione Pisa abbiamo escluso studenti in ritardo o in anticipo, nel campione Invalsi sono presenti tutti gli studenti partecipanti). Tuttavia, se la qualità di una scuola è data dal patrimonio acquisito di competenze del corpo docente, non ci aspettiamo che cambi nel tempo molto velocemente. Stupisce allora in particolare osservare che i divari territoriali nei risultati, che rappresentano uno degli interrogativi più macroscopici all’efficacia del sistema scolastico italiano, tendano a scomparire nell’indagine Invalsi (vedi tabella che riporta i punteggi relativi all’area matematica – risultati analoghi per l’area letteraria o per quella scientifica).

 

Area matematica – scostamenti dalla media nazionale (non ponderata)

 

PISA 2003 II superiore

Invalsi 2006 I media

Invalsi 2006 I superiore

Invalsi 2006 III superiore

Valle d’Aosta

1.212

0.960

0.956

0.926

Piemonte

1.066

1.030

1.050

1.065

Lombardia

1.110

1.048

1.057

1.077

Veneto

1.066

1.039

1.053

1.082

Trentino Alto Adige

1.132

0.988

0.986

1.060

Friuli Venezia Giulia

1.084

1.048

1.196

1.073

Liguria

0.998

1.023

0.965

1.012

Emilia Romagna

1.029

1.050

1.073

1.066

Toscana

1.039

1.025

0.970

0.961

Umbria

1.015

1.017

1.102

1.021

Marche

0.987

1.069

1.090

1.136

Lazio

0.935

0.984

0.987

0.971

Abruzzo

0.869

1.009

0.953

0.945

Molise

 

0.985

1.021

0.973

Campania

0.874

0.962

0.940

0.963

Basilicata

 

1.028

0.971

0.985

Puglia

0.932

0.984

0.968

0.965

Calabria

0.823

0.932

0.953

0.989

Sicilia

0.886

0.919

0.951

0.945

Sardegna

0.942

0.899

0.758

0.785

 

L’insoddisfazione per l’assenza di dati affidabili sulla performance delle scuole superiori ha indotto alcune amministrazioni regionali (tra cui Piemonte, Lombardia, Veneto, Trentino, Toscana) a stipulare accordi specifici con Ocse rispetto all’indagine 2003 al fine di sovracampionare le proprie regioni per ottenere campioni rappresentativi su base regionale. La stessa procedura si è ripetuta e allargata con l’indagine Pisa relativa al 2006, dove ben undici regioni e due province autonome hanno scelto di cofinanziare l’indagine al fine di ottenere campioni rappresentativi su base regionale (Basilicata, Bolzano, Campania, Emilia Romagna, Friuli Venezia Giulia, Liguria, Lombardia, Piemonte, Puglia, Sardegna, Sicilia, Trento, Veneto).
Se questo può far piacere allo studioso, che potrà finalmente analizzare con maggior dettaglio le caratteristiche delle scuole meridionali caratterizzate da bassa performance, dal punto di vista istituzionale ci si trova nella imbarazzante situazione in cui l’organismo preposto alla valutazione del sistema scolastico produce statistiche su cui diverse parti sollevano perplessità relativamente ad attendibilità e rappresentatività, e nel contempo altri settori della pubblica amministrazione delegano a organismi esterni (quali l’Ocse-Pisa) la realizzazione di indagini analoghe, ma di maggior affidabilità scientifica. Ironicamente i dettagli di entrambe le valutazioni risiedono nello stesso website, visto che l’Invalsi è anche il referente nazionale dell’indagine Pisa internazionale. L’ovvio spreco di risorse è lasciato alla valutazione del lettore. Quello che a noi interessa è che in nessuno dei due casi si risolve il problema informativo che sta a cuore di molte famiglie: conoscere quale sia la “qualità” dei diversi istituti a cui devono scegliere se mandare i propri figli.

(1) I dati elementari non sono disponibili, mentre il rapporto finale per l’anno scolastico 2004-2005 è scaricabile al sito www.invalsi.it.

Area matematica – scostamenti dalla media nazionale (non ponderata)

 

PISA 2003 II superiore

Invalsi 2006 I media

Invalsi 2006 I superiore

Invalsi 2006 III superiore

Valle d’Aosta

1.212

0.960

0.956

0.926

Piemonte

1.066

1.030

1.050

1.065

Lombardia

1.110

1.048

1.057

1.077

Veneto

1.066

1.039

1.053

1.082

Trentino Alto Adige

1.132

0.988

0.986

1.060

Friuli Venezia Giulia

1.084

1.048

1.196

1.073

Liguria

0.998

1.023

0.965

1.012

Emilia Romagna

1.029

1.050

1.073

1.066

Toscana

1.039

1.025

0.970

0.961

Umbria

1.015

1.017

1.102

1.021

Marche

0.987

1.069

1.090

1.136

Lazio

0.935

0.984

0.987

0.971

Abruzzo

0.869

1.009

0.953

0.945

Molise

 

0.985

1.021

0.973

Campania

0.874

0.962

0.940

0.963

Basilicata

 

1.028

0.971

0.985

Puglia

0.932

0.984

0.968

0.965

Calabria

0.823

0.932

0.953

0.989

Sicilia

0.886

0.919

0.951

0.945

Sardegna

0.942

0.899

0.758

0.785

Lavoce è di tutti: sostienila!

Lavoce.info non ospita pubblicità e, a differenza di molti altri siti di informazione, l’accesso ai nostri articoli è completamente gratuito. L’impegno dei redattori è volontario, ma le donazioni sono fondamentali per sostenere i costi del nostro sito. Il tuo contributo rafforzerebbe la nostra indipendenza e ci aiuterebbe a migliorare la nostra offerta di informazione libera, professionale e gratuita. Grazie del tuo aiuto!

Leggi anche:  L'alternanza scuola-lavoro? A volte porta all'università

Precedente

Verso le nuove partecipazioni statali?

Successivo

I poeti del dolce Pil novo

  1. Francesco Ferrante

    Ritengo non appropriato utilizzare i risultati dei test logico cognitivi per misurare la qualità delle scuole a scopi comparativi.
    E’ evidente che, a parità di qualità delle risorse didattiche e organizzative messe in campo, la qualità in uscita del processo formativo, misurata attraverso tali test, è fortemente condizionata dal profilo degli studenti in entrata (in particolare, dalle caratteristiche del contesto socio-culturale).
    Potremmo avere una scuola con ottimi insegnanti che però non riescono ad ottenere i medesimi esiti formativi di una scuola con insegnanti meno capaci ma che si avvantaggiano della presenza di studenti più seguiti e motivati.
    Le mie informazioni mi fanno ritenere che quest’ultima sia una casistica molto diffusa nel contesto italiano.

  2. antonio gasperi

    Le considerazioni di carattere statistico mi paiono inappuntabili (non sono del mestiere), la necessità di avere una procedura di “ranking” delle scuole un po’ meno, ma così va il mondo. solo un veloce appunto quando si dice che queste indagini sulle competenze degli studenti rilevano le competenze degli insegnanti. ho capito male oppure si tratta di una teoria dell’apprendimento a me sconosciuta’
    grazie dell’ospitalità
    Antonio Gasperi

  3. Massimiliano Bratti

    Condivido in pieno il punto di vista dell’autore. Anzi sollevo altre perplessità rispetto all’Indagine Invalsi che sembra muoversi rispetto a tutt’altra ottica rispetto all’Indagine PISA. Infatti, mentre la seconda raccoglie informazioni dettagliate sulle caratteristiche familiari degli studenti, la prima raccoglie solo i risultati delle prove come se le scuole fossero le uniche responsabili dell’apprendimento degli studenti o come se questi ultimi fossero tutti uguali. In realtà al fine di una valutazione corretta del “valore aggiunto” prodotto dalle scuole e al fine di rendere comparabili i risultati tra diverse scuole sarebbe necessario un confronto che aggiusti per la diversa “qualità” degli studenti iscritti alle diverse scuole. Per fare questo risulta indispensabile avere informazioni sul background familiare (economico, sociale e culturale) degli studenti.

  4. Tommaso G.

    Del resto ho potuto constatare che gli studenti del 2° e 3° della Facoltà di Scienze della formazione non sanno cos’è PISA e solo pochi sanno cos’è Invalsi (tra l’altro, tra i partecipanti ad un corso di base di statistica…).
    Del resto: quale dibattito si solleva in Italia dopo la pubblicazione dei risultati di PISA? Ero casualmente in Germania nei giorni che vennero pubblicati i risultati e si sollevò una polemica, durata giorni, a causa del peggioramento dei risultati degli studenti tedeschi.

  5. Giuseppe Terruzzi

    Il Prof. D. Checchi propone elementi di riflessione molto interessanti in un contesto caratterizzato – come segnala un altro commento – da scarsa conoscenza di quel che sono PISA e INValSI. Due indagini che nei loro intenti però sono diverse: PISA vuol sondare le abilità per la vita; INValSI l’efficacia del curricolo scolastico e quindi gli apprendimenti ad esso funzionali. Le loro strumentazioni sono diverse, sia negli indicatori di competenza, sia nei test utilizzati, sia nelle metodologie di somministrazione e di valutazione, oltre che nella campionatura. A proposito della quale, per altro, va ricordato che INValSI accetta iscrizioni volontarie ma costruisce anche un campione statistico nazionale di riferimento. Discutere con il contributo del prof. Checchi è necessario, ma ora c’è il rischio di voler rifondare il sistema di valutazione nazionale ad ogni cambio di ministro. Con l’aggiunta della pretesa di introdurre una scientificità che non ci sarebbe stata in precedenza. Eccessivo. Certo i somministratori scelti fra i docenti delle scuole testate non sono una garanzia. Ma non tutta l’esperienza INValSI è da buttare, anzi.

  6. moncada giuseppe

    Sono un ex Preside mandato a casa dal decreto bersani. Nella scuola che dirigevo, liceo scientifico di una cittadina della provincia di catania, abbiamo sempre volantariamente partecipato all’indagine Invalsi. Lo abbiamo fatto con lo spirito di cercare di migliorare l’offerta formativa delle discipline in discussione e non affinchè le famiglie potessero percepire che la nostra scuola fosse migliore di altre.Penso che sia profondamente errato il concetto della concorrenza. Il Ministero, responsabile unico del buon funzionamento delle scuole, ha il dovere di verificare se funzionano bene. Non credo che la fiat metta in concorrenza gli stabilimenti di Torino, con quelli di Termini Imerese o altri, si adpera affinchè tutti produnano macchine efficienti.L’istituto fino al 1989 era l’unico della zona, era frequentato da alunni provenienti da paesi vicini, distanti dagli 8 ai 10 Km. Successivamente, per evitare di fare stancare i propri figli, in due comuni vicini si sono attivati altri licei scientifici.Nel liceo abbiamo tre laboratori di informatica, uno multimediale, uno di fisica e di scienze, due aule di disegno, una palestra e un’aula magna.Le scuole degli altri paesi sono in abitazioni private e prive di tutte le apparecchiature costruite nei 15 anni di mia permaneza nella scuola.inoltre sono sezioni staccate di altre scuole distanti dalla loro cittadina. Ebbene, ai politici e alle famiglie dei giovani dei suddetti paesi la qualità del servizio offerto non interessa affatto. Preciso nel liceo, i docenti di matematica e fisica e di scienze sono di ruolo e del luogo, nelle altre scuole sono pendolari. Tuttavia sono profondamente convinto, avendo girato parecchie scuole europee che, degli indicatori educativi debbono esistere. Visalberchi nel 1989 ha scritoo un bell’articolosull’argomento, ma in Italia con la classe politica che ci ritroviamo poco si farà. Il modo come si sta muovendo Fioroni è esemplificativo, più apparenza che sostanza.

Lascia un commento

Non vengono pubblicati i commenti che contengono volgarità, termini offensivi, espressioni diffamatorie, espressioni razziste, sessiste, omofobiche o violente. Non vengono pubblicati gli indirizzi web inseriti a scopo promozionale. Invitiamo inoltre i lettori a firmare i propri commenti con nome e cognome.

Powered by WordPress & Theme by Anders Norén