Lavoce.info

Categoria: Dossier Pagina 15 di 16

Tremonti, ultimo atto

Sommario, a cura di Giuseppe Pisauro

All’inizio di luglio, quando ci preparavamo a festeggiare il secondo compleanno de lavoce, ci siamo ritrovati orfani di Tremonti. Raramente una persona ha rappresentato la politica economica di un intero governo, come è avvenuto negli anni in cui Giulio Tremonti è stato il Ministro dell’economia. Come regalo di Natale per i nostri lettori, riproduciamo qui gli articoli in cui abbiamo discusso la sua eredità. Il controllo pubblico dell’economia è rimasto invariato, con il paradosso di imprese in mano pubblica che si comportano come private. Sul lato delle entrate, condono e scudo fiscale hanno tramandato al successore un calo strutturale del gettito. Sul lato della spesa, non c’e’ stato alcuno sforzo di ridurla, ma neanche una completa perdita di controllo come spesso paventato. Gli artifici sul debito hanno ridotto la trasparenza dei nostri conti pubblici.

L’Italia e il risanamento, di Vincenzo Visco

La politica di bilancio perseguita in Italia negli ultimi anni si presta a una lettura diversa da quella che ne dà Roberto Perotti nel suo articolo su lavoce.info “La macroeconomia di Tremonti”. La mia analisi si differenzia soprattutto per quanto riguarda gli anni Novanta. (1)

La pressione fiscale

Nel 1992, dopo oltre dieci anni di disordine finanziario, l’Italia era stata colpita dalla più grave crisi valutaria e finanziaria dopo il 1949: i rischi di insolvenza erano reali e il governo Amato presentò una manovra correttiva che diede il via al processo di risanamento del bilancio che fu poi proseguito dal governo Ciampi nel 1993. A fine 1996 la situazione risultava migliorata, grazie alla manovra correttiva subito operata dal governo Prodi nel giugno. Tuttavia (vedi Tavola 1), il disavanzo del settore pubblico continuava a superare il 7 per cento e il surplus primario (4,4 per cento) risultava ancora insufficiente rispetto a quanto richiesto dal processo di convergenza; in compenso continuava una lenta discesa del rapporto debito – Pil. Ulteriori informazioni circa le caratteristiche strutturali del risanamento si possono ricavare dalle Tavole 2 e 3 relative alla struttura della spesa pubblica e alla pressione fiscale in Italia negli anni Novanta. Come si può vedere, con l’eccezione del 1992-3 (gli anni della prima grande manovra di risanamento) e del 1997, che presentano picchi nel prelievo tributario, la pressione fiscale si è successivamente stabilizzata ai livelli prevalenti negli anni precedenti, intorno al 42 per cento del Pil.Quindi a livelli coincidenti con la media europea, e inferiori a quelli di non pochi paesi, per esempio della Francia. Non è corretto affermare, come spesso si è fatto, che il risanamento italiano si è basato su un eccesso di tassazione che ha interferito negativamente con l’attività economica. La realtà invece mostra che per gran parte degli anni Settanta e Ottanta il settore pubblico italiano si era illuso di poter finanziare spese crescenti con imposte chiaramente insufficienti (e cioè in disavanzo), per cui fu necessario un recupero di entrate fortemente concentrato in pochi anni su cui ancora si polemizza, ma che comunque si era completato agli inizi degli anni Novanta (vedi Tavole 1 e 3).

Il punto di dissenso

Sulla entità e adeguatezza della pressione fiscale e della spesa pubblica in Italia il dibattito e le polemiche sono continuate per tutti gli anni Ottanta e continuano tuttora. In proposito il punto rilevante di dissenso (spesso implicito) è il seguente: può l’Italia, paese fragile, caratterizzato da piccole e micro imprese, da una classe imprenditoriale provinciale, dall’assenza di una classe di manager professionali, da un capitalismo familiare e non di mercato, da tensioni sociali storiche, e classi dirigenti periodicamente inaffidabili, permettersi un sistema di welfare europeo, mercati concorrenziali, una corporate governance adeguata, un livello di pressione tributaria e di tax compliance soddisfacente? A ben vedere sono proprio le diverse risposte che si possono dare a queste domande che chiariscono e fanno comprendere le divisioni che si manifestarono allora e ancora si manifestano tra euroscettici e fautori della partecipazione all’Unione monetaria; e anche tra visione e programmi del centrosinistra e quelli della coalizione costruita da Silvio Berlusconi. Per fortuna, dal mio punto di vista, l’ingresso in Europa è avvenuto, e si tratta di un evento ragionevolmente irreversibile.

La spesa pubblica

Per quanto riguarda le spese, la Tavola 2 mostra che, rispetto al picco del 1993 (57,6 per cento del Pil), la spesa complessiva si è ridotta nel 2000 di 10,3 punti, liberando quindi massicciamente risorse per il settore privato. Tuttavia, ben 6,5 punti di tale riduzione derivano dalla diminuzione dei tassi di interesse, e solo 3,8 da una riduzione di spesa primaria, derivante soprattutto dalla riduzione del personale della pubblica amministrazione. Per quanto la spesa primaria italiana al netto degli interessi sia sempre stata, e sia ancora oggi, inferiore (di circa 3 punti di Pil) alla media europea, è certo che da questo punto di vista si sarebbe potuto fare di più: soprattutto per quanto riguarda la spesa pensionistica che è rimasta costante negli ultimi anni, ma che, nonostante tre o quattro successivi interventi di riforma, è ancora destinata a crescere nei prossimi decenni. In ogni caso, è chiaro qual’è stato l’equilibrio raggiunto dalla finanza pubblica italiana: una pressione fiscale pari alla media europea, e un livello di spesa primaria al netto degli interessi inferiore alla media europea e sufficiente a finanziare l’eccesso di spesa per interessi che, a (quasi) parità di tassi con gli altri paesi, risulta tuttavia doppia (almeno) di quella dei paesi che presentano uno stock di debito coerente col parametro di riferimento (60 per cento).

Una fragilità intrinseca

Queste considerazioni spiegano da un lato il malessere dei contribuenti che, a fronte di imposte elevate, non ottengono servizi di corrispondente valore. Dall’altro, quali siano le debolezze che permangono per il bilancio e la finanza pubblica italiana: è sufficiente infatti una crescita dei tassi di interesse di mercato per avere ripercussioni negative sul bilancio doppie rispetto agli altri paesi; la rigidità strutturale del bilancio è tale che basta un attimo di disattenzione, o un minimo di lassismo per ritrovarsi con deviazioni sostanziali dai criteri di convergenza. Ciò purtroppo è quanto si è verificato in Italia in questi tre anni di governo di una destra politica sostanzialmente euroscettica e con forti pulsioni populiste. E resta valido quanto già detto nel 2002: la intrinseca fragilità dell’equilibrio della finanza pubblica italiana dovrebbe suggerire la accelerazione dei processi di privatizzazione, il conseguimento di un surplus primario più elevato, il completamento della riforma previdenziale, e vincoli di spesa efficaci per le Regioni e gli enti locali.

* Questo intervento ripropone in sintesi la versione in italiano del testo preparato per il seminario “New Dimensions in Italian Public Policy” European Studies Centre, St Antony’s College, University of Oxford, 18 Oct.-29 Nov. 2002.
Sugli argomenti trattati si veda anche Chiorazzo V. e Spaventa L. Astuzia o virtù? Come accadde che l’Italia fu ammessa all’Unione monetaria, Donzelli (2000) e Onofri P. Un’economia sbloccata, Il Mulino (2001).


Le privatizzazioni di Tremonti, di Carlo Scarpa

Possiamo fare il bilancio delle politiche industriali, privatizzazioni eccetera del “regno” di Giulio Tremonti? Per certi versi, ovviamente no perché il responsabile delle politiche industriali non è il ministro dell’Economia. Per altro, il ministro dell’Economia è colui che gestisce le partecipazioni in imprese ancora sotto il controllo pubblico e “ha il pallino in mano” per una serie di questioni di fondamentale importanza.
Il Governo Berlusconi era partito come governo liberalizzatore, volto ad alleggerire la presenza pubblica nell’economia e a lasciare spazio agli investimenti privati. (Anche) su questo è difficile mascherare la delusione (acuita da quanto non ha fatto il ministero dell’Industria sulla liberalizzazione delle professioni sull’avvio della Borsa elettrica). Tanti sarebbero i temi, ad esempio la mancata liberalizzazione dei servizi pubblici locali, sulla quale Tremonti sembra avere aderito al partito trasversale degli amministratori locali, molto propensi a difendere le posizioni acquisite, oppure la vicenda delle Autostrade (vedi Ponti 20-01-2004). Ma procediamo con ordine.

Il sistema finanziario

Sulla ristrutturazione del sistema finanziario, Tremonti ha perduto. Purtroppo. E mi riferisco non tanto alla riforma della protezione del risparmio, per la quale la partita è complessa, ma soprattutto al ruolo delle fondazioni bancarie, che restano al cuore del sistema finanziario italiano, soggetti né propriamente pubblici né veramente privati, residui delle peggiori abitudini della prima repubblica. (vedi Moise)
Anche se curiosamente proprio le fondazioni sono state protagoniste di una importante operazione, ovvero il passaggio di proprietà del 30 per cento della Cassa depositi e prestiti dal Tesoro alle stesse fondazioni. Una della operazioni pomposamente contrabbandate come privatizzazioni, quasi le fondazioni fossero rappresentanti del rampante capitalismo nazionale…

Quanta voglia di Iri…

Sulle imprese pubbliche e le privatizzazioni, non è facile dire se Tremonti abbia perso o abbia vinto: se solo se ne conoscesse il vero obiettivo… Capire quale fosse il fine di Tremonti sulla base del suo operare non è facile. Ingerenza e rilancio dell’impresa pubblica o orientamento genuino al privato?
Da un lato, non risulta – bisogna darne atto – nessuna pesante ingerenza del ministro nell’operato delle grandi imprese rimaste in mano pubblica. Ci piacerebbe poter dire la stessa cosa dei suoi colleghi e alleati, ma questa è un’altra storia.
Tuttavia, anche la non-ingerenza può dar luogo a paradossi. Si pensi al settore energetico, che ora è nell’occhio del ciclone grazie alla offensiva congiunta di Autorità antitrust e Autorità per l’energia. Si accusano Eni ed Enel di tenere prezzi troppo alti ai danni dei consumatori e della competitività del settore privato. Di chi sono Eni ed Enel? I loro amministratori sono nominati dal governo. Non ho certo nostalgie delle ingerenze governative nelle imprese, ma il fatto che siano proprio aziende in mano pubblica a creare (pare) tutti questi problemi all’intero paese, dato il loro orientamento al profitto, sembra un po’ ridicolo.
A fianco di questo, purtroppo si deve invece ricordare la pesante ingerenza nell’attività delle Autorità, la cui indipendenza dà parecchio fastidio. Ma in realtà anche col precedente governo, al momento di fissare le tariffe elettriche gli interessi del proprietario di Enel (il Tesoro) avevano finito per farsi sentire in modo pesante.
Dopo aver detto della gestione delle imprese, passiamo alle privatizzazioni. Quali, diranno i lettori? Bella domanda.
L’unica vera privatizzazione del triennio è la vendita dell’Eti, il monopolio tabacchi; non era proprio una partecipazione strategica, ma almeno su questo il ministero ha operato bene, anche oltre le aspettative, cedendo interamente le sigarette di Stato, per una cifra del tutto ragguardevole (2,3 miliardi di euro), anche se con qualche preoccupazione per la concorrenza in quel mercato – sul quale per altro l’Autorità antitrust si è limitata a chiedere alcune correzioni tutto sommato marginali.

A parte questo, abbiamo visto solo cessioni di quote marginali (il 6,6 per cento di Enel – un modo come altri di far cassa) o privatizzazioni “all’italiana”, ovvero azioni passate in mano alla Cassa depositi e prestiti, controllata a sua volta dalle fondazioni bancarie. E così resta purtroppo dominante la presenza pubblica in imprese che la propaganda da diversi anni vuole “privatizzate” (Eni, Enel) anche se i loro consigli di amministrazione sono di nomina pubblica.
Quindi, il controllo pubblico sull’industria resta praticamente invariato rispetto a quello che era all’inizio della legislatura, nonostante un governo sedicente pro-mercato e privatizzatore. Colpa di Tremonti? Da un lato il pessimo periodo del mercato azionario ha costituito talvolta una scusa, ma anche una discreta ragione per rallentare le vendite. Dall’altro, non ricordo di avere sentito molte voci – né a destra, né a sinistra – favorevoli alla cessione del controllo pubblico delle grandi imprese energetiche. Il consenso politico su questo non sembra proprio esserci, a prescindere dall’identità del ministro di turno. E serpeggia tanta voglia di tornare all’Iri…

Alitalia

Questa ex-impresa merita un capitolo a parte. Su questo, a quanto trapela, Tremonti ha perduto una battaglia. E ci dispiace. Alitalia è un’impresa tecnicamente fallita, e da tempo. (vedi Ponti 26-02-2004) I patetici tentativi di coprire la situazione con piani industriali che sono sempre quelli e sempre più improbabili e con interventi finanziari sempre più lontani dal cuore della questione sono stati approvati nonostante i richiami di Tremonti. Che forse a riguardo può essere accusato di essere stato troppo flessibile, ai limiti della complicità. Avere accettato l’idea del prestito ponte è stato un errore: un ponte ha senso quando sappiamo dove conduce. E un’impresa che perde un milione di euro al giorno non va da nessuna parte. Questo Tremonti lo sa bene: forse sa già che la Commissione boccerà il prestito? Credo comunque che avrebbe dovuto fare e dire di più, ma almeno i veri “cattivi” di questa vicenda senza speranza sono stati altri.

Un bilancio?

Tremonti non ha fatto peggio di altri, ma merita rispetto. Certo, non abbiamo visto nessuna delle rivoluzioni annunciate. E il problema è proprio che a riguardo è mancata una strategia, e abbiamo anzi avuto troppo immobilismo.
Tremonti ha oscillato tra Colbert (il padre delle imprese pubbliche francesi) e Margaret Thatcher (la madre delle privatizzazioni inglesi) – che è come dire tra il diavolo e l’acqua santa.
Questa contraddizione (vorrei liberalizzare il sistema industriale, ma anche mantenerne il controllo…) ha condannato il governo all’immobilismo per quanto riguarda le quote di proprietà (per non perdere il controllo), ma anche a un curioso non intervento (per non interferire con il processo di mercato). Con il paradosso che abbiamo imprese che restano in mano pubblica, ma si comportano come se fossero private. E allora, ci si chiede, a che serve la proprietà pubblica?

Rimpiangeremo Tremonti? Diciamo che, se è vero che ha vinto il partito delle poltrone nelle imprese pubbliche e degli infiniti buchi di bilancio, il bello viene adesso.

Sono stati anni difficili, di Giuseppe Pisauro e Riccardo Faini

Uno dei pochi punti di consenso tra gli economisti è che il rallentamento economico abbia svolto un ruolo di tutto rilievo nel deterioramento dei conti pubblici dei paesi europei. La più bassa crescita comporta infatti un calo delle entrate e nella maggior parte dei casi (l’Italia, dato lo scarso rilievo degli ammortizzatori sociali, è però un’eccezione al riguardo) anche un aumento delle spese, con effetti negativi sulle finanze pubbliche. La speranza è che la tanto sospirata ripresa economica riesca a riportare un po’ di luce anche sui disastrati conti pubblici italiani tenendoli lontani dalla soglia di Maastricht.

Ottimismo fuori luogo

Ma sarà proprio così? Purtroppo l’ottimismo, anche in questo caso, rischia di essere fuori luogo. Vediamo perché. Proprio per tenere conto degli effetti del ciclo economico sui conti pubblici, la Commissione europea calcola regolarmente un saldo di bilancio corretto per gli andamenti del ciclo economico e lo utilizza sistematicamente per formulare le proprie raccomandazioni ai paesi membri in termini di politica fiscale.

Come viene effettuato il calcolo? Il primo passo è la stima del Pil potenziale, il livello del Pil che si avrebbe se l’economia funzionasse a pieno regime. La differenza fra Pil effettivo e Pil potenziale dà il cosiddetto output gap.

Il secondo passo è la stima dell’intensità (l’elasticità, nel gergo degli economisti) con cui entrate e spese primarie (al netto cioè degli interessi) reagiscono a variazioni del Pil. Si calcola infine il saldo di bilancio nell’ipotesi di un output gap pari a zero. Questa misura è nota come disavanzo strutturale, il disavanzo che si avrebbe se il Pil fosse pari al suo potenziale.

Nel calcolo, tuttavia, non si tiene conto, presumibilmente per le difficoltà tecniche che ciò comporterebbe, degli effetti del ciclo sulla spesa per interessi. Ma non si tratta di una voce di scarso rilievo, soprattutto per un paese altamente indebitato come l’Italia. In risposta a un aumento dello scarto fra output potenziale e effettivo, la Banca centrale interverrà infatti riducendo i tassi, con un effetto particolarmente favorevole per i paesi altamente indebitati o con un debito sbilanciato verso il breve termine. Se prendiamo per buone le stime disponibili della funzione di reazione della Banca centrale, vediamo che un deterioramento dell’output gap di un punto percentuale induce una riduzione dei tassi perlomeno di 50 punti base (mezzo punto percentuale). A regime, il miglioramento per il disavanzo pubblico di un paese con un rapporto debito/Pil pari al 100 per cento è quindi di circa mezzo punto percentuale: una minore crescita del Pil di un punto dà luogo a un diminuzione del tasso di interesse di mezzo punto che implica una minore spesa per interessi pari ancora a mezzo punto di Pil. Naturalmente l’effetto sulla spesa per interessi non è istantaneo: secondo le stime ufficiali del Tesoro una diminuzione di un punto del tasso di interesse ha un impatto sulla spesa per interessi pari allo 0,23 per cento del Pil dopo un anno, 0,41 per cento del Pil dopo due anni, 0,51 per cento del Pil dopo tre anni.

È indubbiamente vero che un peggioramento dell’output gap deprime le entrate e accresce il disavanzo (nel caso dell’Italia la stima è ancora di quasi mezzo punto di Pil per ogni punto di output gap), ma dopo tre anni metà del peggioramento è compensato dal calo della spesa per interessi e dopo circa cinque anni (questo è il tempo necessario perché una variazione dei tassi di interesse si trasferisca interamente sul costo del debito) la compensazione è completa.

In conclusione, il metodo di correzione per il ciclo utilizzato dalla Commissione europea e da altre istituzioni internazionali rischia di fornire un quadro eccessivamente ottimista (pessimista) per un paese altamente indebitato come l’Italia durante i periodi di rallentamento (ripresa) dell’economia.

Se l’Italia non aggancia la ripresa

Ma vi è un altro rischio. Supponiamo che l’Italia manchi, come sembra possibile, l’aggancio con la ripresa europea. Secondo le stime di primavera della Commissione europea la crescita nel 2004 sarà pari all’1,7 per cento per l’area euro ma solo all’1,2 per cento per l’Italia. Anche nel 2005 l’area euro dovrebbe crescere più rapidamente dell’Italia. Le migliorate condizioni economiche nell’area dell’euro, e un’ulteriore ‘stretta’ della Fed, potrebbero indurre la Banca centrale europea ad aumentare i tassi di interesse. Paradossalmente, è del tutto possibile che l’Italia non tragga grande beneficio dalla modesta ripresa a livello nazionale, ma soffra le conseguenze in termini di più alti tassi di interesse della ripresa a livello europeo.

Le stime sull’andamento dei conti pubblici dell’Italia rischiano quindi di peccare, nuovamente, di ottimismo. Rimane da sperare che il nuovo Dpef, che dovrebbe essere varato nei prossimi giorni, tenga conto di questi fattori e riesca a fornire un quadro un poco più realista della situazione della nostra finanza pubblica, anche a costo di dovere ammettere che non vi è spazio per gli sgravi fiscali.

Meno tasse o meno debito?, di Alberto Cavaliere e Luigi Spaventa

Dopo l’equilibrato numero monografico de lavoce.info, consideriamo concluso il momento degli epicedi sul dimissionamento del ministro GiulioTremonti (1) e occupiamoci del futuro. Non di chi gli succederà come autocrate dell’economia e delle finanze; piuttosto dei problemi che il successore, chiunque egli sia, dovrà affrontare.

I problemi del successore di Tremonti

La premessa è che la questione vera della nostra finanza pubblica non risiede nel numero magico del 3 per cento di disavanzo, ma nella dinamica del rapporto fra debito pubblico e prodotto. Non che esista un obiettivo preciso per questo rapporto. Ma, se il suo livello è e resta particolarmente elevato, i tassi d’interesse sono più alti e i conti pubblici sono più esposti al rischio di una loro variazione; comunque una parte cospicua delle entrate deve essere destinata al pagamento di interessi ai possessori di titoli anziché alla provvista di beni e servizi. Si vorrà riconoscere che il nostro 106 per cento, superiore di 35 punti alla media europea, è molto, troppo alto: con 10 punti in meno, la spesa di interessi si ridurrebbe di mezzo punto di prodotto: di tanto potrebbero essere ridotte le imposte (o, se i cittadini lo preferiscono, di tanto aumentata l’offerta di investimenti e servizi pubblici). Assicurare una continua, anche se graduale, diminuzione del rapporto fra debito e prodotto è dunque un obiettivo importante ed economicamente significativo. Per fissare le idee, e senza troppe ambizioni, chiediamoci a quali condizioni si possa ottenere un calo di due punti all’anno, in modo da avere entro il 2007 un debito non superiore al prodotto nazionale.

L’algebra del debito

L’algebra elementare del debito ci dice che la dinamica di esso rispetto al prodotto dipende da tre variabili: costo medio del debito, tasso di crescita nominale dell’economia, saldo (primario) fra entrate e spese al netto degli interessi: una differenza positiva fra costo del debito e tasso di crescita fa aumentare il rapporto fra debito e prodotto nazionale; un avanzo primario lo fa diminuire. (2)
Vi è anche un altro fattore, la differenza fra fabbisogno e indebitamento, che ha contribuito negli ultimi anni ad alimentare, e non di poco, la crescita del debito. Ipotizziamo, a rischio di essere indebitamente ottimisti, che la forbice fra fabbisogno di cassa e indebitamento di competenza si richiuda e ci concentriamo quindi solo sulle prime tre variabili. Supponiamo che l’economia torni a un normale, anche se non esaltante regime di crescita: un’ipotesi del 4 per cento medio annuo (nominale) sembra sensata. Oggi il costo medio del debito è vicino al 5 per cento: a essere benevoli, si può anche supporre che possa abbassarsi sino al 4,5. Dalla formuletta riportata in nota risulta che occorre un avanzo primario stabile dell’ordine del 2,5 per cento del prodotto per ottenere la riduzione di due punti all’anno del rapporto che abbiamo posto come modesto obiettivo (con mezzo punto in meno o in più di avanzo primario per mezzo punto in meno o in più della differenza fra costo del debito e tasso di crescita).
Quale avanzo primario? Poiché stiamo ragionando sul medio periodo, il saldo che ci interessa deve avere natura strutturale: né abbellito da misure una tantum che, per definizione, non possono essere ripetute (anche perché oramai resta ben poco spazio all’inventiva), né ridotto dagli effetti di una congiuntura negativa. Per capire dove ci troviamo ora, usiamo gli utili numeri elaborati da Roberto Perotti nella sua analisi della “macroeconomia di Tremonti”. Nelle plausibili stime di Perotti, l’avanzo primario depurato da misure non ripetibili come i condoni (pari a quasi il 2 per cento del prodotto), ma aggiustato in aumento per tener conto della congiuntura negativa, è stato dell’1,12 per cento nel 2003. Rimarrà probabilmente vicino a quel livello anche nel 2004, sempre che le misure di correzione della recente manovra governativa riescano a compensare il peggioramento in atto (ma secondo il Governatore della Banca d’Italia l’avanzo primario si riduce comunque). Ne segue che, solo per consentire la modesta riduzione del rapporto fra debito e prodotto di cui si è detto, occorre che l’avanzo primario strutturale (depurato da una tantum e da effetti ciclici) migliori nel 2005 e negli anni a venire di ben oltre un punto in termini di prodotto.

Ministri e padri di famiglia

Come ottenere questo miglioramento? Un aumento della pressione fiscale è improponibile. Occorre dunque intervenire sulla spesa al netto degli interessi, per contenerne la crescita ben al di sotto della crescita dell’economia: compito certo difficile, ma non impossibile nelle dimensioni indicate. Negli ultimi mesi, tuttavia, e da ultimo all’assemblea dell’Abi, il presidente del Consiglio ha ribadito la fermissima intenzione di ridurre la pressione fiscale sui redditi personali, per mantenere le sue promesse elettorali: ha concesso che le aliquote possano essere tre e non due, ma ha anche promesso una qualche riduzione dell’Irap. La ricetta di copertura offerta all’Abi dal presidente-ministro ad interim dell’Economia risiede in un semplice teorema, mutuato, come egli ci ha detto, dalla finanza della famiglia e dell’impresa. Meno soldi entrano, meno si spende: se si tagliano le imposte, ogni buon padre di famiglia e ogni accorto imprenditore dovrà necessariamente tagliare le spese.
Facciamo un po’ di conti. Le promesse del presidente assommano ad almeno un punto e mezzo di prodotto: più o meno tanto quanto sarebbe necessario per ottenere la riduzione del debito di due punti. Per raggiungere entrambi gli obiettivi servirebbero dunque interventi sulla spesa dell’ordine di 35-40 miliardi, pari al 5-6 per cento delle uscite al netto degli interessi. Temo che neppure un ottimo padre di famiglia, quale è il Ragioniere generale dello Stato, Vittorio Grilli, ci riuscirebbe. Il governo si è impegnato a non toccare la spesa previdenziale, e in genere quella sociale; le spese per il pubblico impiego sono obbligatorie; agli investimenti pubblici si assegna priorità; gli acquisti di beni e servizi sono stati drasticamente tagliati con la recente manovra, per evitare un peggioramento (non per ottenere un miglioramento) dell’avanzo primario. Che cosa rimane? La riforma degli incentivi alle imprese potrà rendere al più 10-12 miliardi. E il resto da dove viene? Per saperlo, aspettiamo la pubblicazione del documento di programmazione economica e finanziaria, mai così tardivo. Ma vi sono, temo, pochi dubbi: il resto manca. Se così è, la promessa riduzione della pressione fiscale ordinaria (al netto dei condoni) potrà avvenire solo lasciando dov’era il rapporto fra debito e prodotto – o con qualche frazione in meno, se si escogita qualche altro espediente (come la vendita con lease back di immobili pubblici) o si vende qualche gioiello residuo. Dato un limite di fattibilità al contenimento della spesa nel breve periodo, questa è dunque l’alternativa: o una diminuzione del rapporto fra debito e prodotto, che potrà consentire in futuro un calo della pressione fiscale, o una riduzione delle aliquote subito. Forse il padre di famiglia sceglierebbe prudentemente la prima strada, per mettersi al riparo dai rischi di mercato ed evitare le censure internazionali. Ma, a meno di due anni dalle elezioni, conosciamo le preferenze del padrone della famiglia: anche perché, come ha detto nel suo intervento all’Abi, con un debito dell’ordine di 1400 miliardi poco importa averne qualche decina di miliardi in più.

(1) Due citazioni riassuntive dal Giulio Cesare. Antonio: “Il male che gli uomini fanno sopravvive loro, il bene spesso finisce sotto terra con le loro ossa”. Popolano: “Temo che ve ne sarà uno peggiore al suo posto”.

(2) La formuletta, approssimata, è: Dd = (r-g)d – a, ove Dd è la variazione del rapporto fra debito e prodotto nazionale, r è il costo medio del debito, g è il tasso di crescita nominale dell’economia, e a è il saldo fra entrate e spese al netto degli interessi, positivo o negativo. Se ad esempio il debito è pari al prodotto e il costo del debito eccede di un punto il tasso di crescita, con un avanzo primario nullo il rapporto cresce di un punto; resta costante con un avanzo primario dell’1 per cento; diminuisce di un punto con un avanzo primario del 2 per cento.

Eredità , di Riccardo Faini

L’articolo, assai pregevole, di Roberto Perotti offre un bilancio dell’operato del ministro Giulio Tremonti. La ricostruzione del passato va però fatta con i dati che erano disponibili in quel momento, non con le informazioni di oggi. Le valutazioni che ne risultano possono essere assai diverse.

Il lascito dei governi precedenti

Il governo di centrodestra ereditò un processo di aggiustamento fiscale del tutto sbilanciato? È questa la tesi di Perotti secondo cui l’aggiustamento fiscale dei governi precedenti fece uso di misure temporanee, privilegiò l’aumento delle entrate e non incise se non de minimis sulla spesa primaria.

Tesi non del tutto convincente se consideriamo che il processo di risanamento fiscale comincia con il governo Amato nel 1992. La Finanziaria di Amato non è però “visibile” negli andamenti effettivi delle uscite in quanto incide sul tendenziale della spesa pensionistica. In assenza di tale correzione, la spesa sociale sarebbe cresciuta, secondo le stime dell’Ocse, di altri 5 punti del Pil. La mera analisi del dato nasconde quindi una correzione radicale dell’andamento dei conti pubblici. E fu proprio il miglioramento del saldo primario indotto dalle misure adottate dai governi precedenti che consentì all’esecutivo guidato da Prodi di intervenire con provvedimenti in gran parte temporanei per accedere all’Unione monetaria e beneficiare di un calo massiccio della spesa per interessi. Semmai la colpa dei governi di centrosinistra è di non avere fatto di più dopo il 1997 per proseguire l’opera di risanamento del bilancio.

Furono gli squilibri di bilancio ereditati dal governo precedente (il disavanzo nel 2001, ci ricorda Perotti, si attesta al 2,6 per cento del Pil) che costrinsero il governo di centrodestra a ricorrere massicciamente alle una tantum? Di nuovo si corre il rischio di un errore di prospettiva.

Fino a febbraio del 2002 (ben dopo quindi l’attacco alle Torri Gemelle), l’esecutivo di centrodestra era convinto che i conti pubblici fossero sotto controllo, che il disavanzo del 2001 non avrebbe superato l’1,1 per cento e che anche la situazione del 2002 non destasse preoccupazioni (il disavanzo tendenziale per quell’anno veniva stimato all’1,7 per cento dalla Relazione previsionale e programmatica). Ci vorranno più di diciotto mesi di revisioni dell’Istat e di sentenze dell’Eurostat perché il disavanzo del 2001 venga rivisto al 2,6 per cento. Si tratta di un dato quindi che non può avere indotto il governo a orientare la politica fiscale in senso restrittivo né per il 2002 né per il 2003. Semmai è vero il contrario. La sentenza Eurostat di luglio 2002 sulle cartolarizzazioni aggravò il saldo del 2001 per una cifra pari a circa 7 miliardi di euro, ma consentì di contabilizzare tali entrate nel 2002 e nel 2003 riducendo quindi le esigenze di una stretta di bilancio per quegli anni.

Rallentamenti dell’economia e tassi d’interesse

Le difficoltà di bilancio dopo il 2001 vanno attribuite al rallentamento dell’economia mondiale? Perotti mette in luce come il disavanzo corretto per il ciclo migliori, e di molto, dal 2001 al 2003. Verissimo. Le stime della Commissione pubblicate nell’ultimo rapporto di primavera mettono in luce una riduzione dell’indebitamento strutturale dal 3,2 per cento nel 2001 all’1,9 per cento nel 2003. Ma anche questo dato va considerato con molta cautela, almeno per quattro motivi.

In primo luogo, è completamente cambiata la stima dell’output gap, negativo nelle stime formulate a novembre del 2001 (la produzione effettiva era quindi inferiore a quella potenziale e il disavanzo corretto per il ciclo minore di quello effettivo) ma positivo nei dati rivisti successivamente e utilizzati da Perotti. Utilizzando la stima dell’output gap disponibile nel 2001, il disavanzo strutturale di quell’anno scenderebbe di quasi un punto, al 2,3 per cento.

In secondo luogo, sul dato del 2001 si concentrano tutta una serie di revisioni, molte delle quali – si pensi alla spesa sanitaria – andrebbero attribuite ad anni precedenti. Inoltre, tutto il miglioramento del saldo di bilancio strutturale va attribuito al calo della spesa per interessi – 1,2 per cento – a sua volta frutto della riduzione dei tassi di interessi mondiali e non della diminuzione del debito che rimane invece inchiodato su valori ben al di sopra del 100 per cento. Infine, se è vero che l’avanzo primario corretto per il ciclo non peggiora tra il 2001 e il 2003, questo risultato è stato ottenuto con misure tampone, come i condoni, che peseranno, e non poco, sui conti pubblici nei prossimi anni.

Il fardello del prossimo ministro

In conclusione, sembra difficile sostenere che il governo di centrodestra ereditò da quello precedente una situazione dei conti pubblici fortemente deteriorata o che il rallentamento dell’economia mondiale abbia pesato in maniera determinante sugli andamenti di finanza pubblica dopo il 2001. Se così fosse, tra l’altro, i conti pubblici non registrerebbero un ulteriore e pronunciato deterioramento proprio nel 2004, quando si manifestano i primi segnali di una seppur timida ripresa.

L’articolo di Perotti si ferma al 2003 e trascura quindi il periodo in cui i nodi di una politica sbagliata stanno venendo tutti al pettine. Secondo le stime della Commissione, l’avanzo primario corretto per il ciclo si ridurrà infatti nel 2004 di un punto del Pil, circa 13 miliardi di euro.

Per il 2005 gli andamenti sarebbero ancora peggiori. Dovremo aspettare il Dpef per avere informazioni al riguardo, anche se è oramai evidente che il nuovo ministro dell’Economia dovrà fare i conti con un disavanzo che, anche in assenza degli sgravi promessi, è ben al di sopra del 4 per cento e di una dinamica del debito palesemente insostenibile.

Bilancio di un ministro, di Roberto Perotti

Come ho cercato di documentare (vedi Perotti) dal lato delle entrate, Tremonti lascia un’immagine di misure improvvisate e di mancanza di trasparenza. Tuttavia, il vero neo della gestione Tremonti sono stati i condoni; per il resto, non è stata molto diversa dalle precedenti. Anche e soprattutto dal lato delle spese la gestione Tremonti non è stata molto diversa dalle precedenti. Non c’è stata alcuna azione decisa per ridurre la spesa, ma questo è vero anche per i governi precedenti. E la spesa non è esplosa, anzi in termini reali essa è aumentata meno che nel periodo precedente, nonostante la situazione ciclica sfavorevole e anche escludendo le entrate una tantum contabilizzate in detrazione di spesa.

Perché le una tantum

Ma è importante cercare di spiegare perché un editorialista e politico che per anni aveva predicato la semplificazione delle imposte e la chiarezza dei bilanci, una volta diventato ministro abbia fatto ricorso a misure così imbarazzanti quali i condoni. Il motivo immediato è semplice. La riga 14 della tabella 2 (riportata nel mio altro articolo) mostra che l’indebitamento netto sul Pil era nel 2001 pericolosamente vicino alla fatidica soglia del 3 per cento, e in crescita. Per evitare di sforare il Patto di Stabilità e crescita, Tremonti si è trovato nella necessità di ridurre il disavanzo, e in fretta. Ma come? Come abbiamo visto, nessun governo degli ultimi dieci anni in Italia è riuscito a ridurre la spesa primaria, e a maggior ragione in pochi mesi. Ed era irrealistico pensare che un governo che era caduto nel 1994 sulle pensioni avrebbe proposto una riforma delle pensioni seria appena tornato al potere. Era anche difficile pensare che il ministro di un governo eletto in parte su una piattaforma di tagli alle tasse potesse aumentarle. Rimanevano le misure una tantum. E come abbiamo visto, Tremonti non ne ha fatto un uso molto più sfrenato di altri governi che si sono trovati a dover agire in condizioni di crisi o di pressione esterna, come nel 1992-3 o nel 1997. La composizione però è stata diversa, con un’enfasi esagerata sui condoni, per di più male attuati (vedi Guerra).

L’alternativa era sforare il Patto in maniera ancora più vistosa. Anche qui Tremonti era tra l’incudine e il martello: se avesse ignorato il Patto, come hanno poi fatto Francia e Germania, probabilmente sarebbe stato accusato di anti-europeismo.

Come si è arrivati al 3 percento?

La domanda fondamentale è quindi: come si è arrivati a un indebitamento vicino al 3 percento nel 2001? La riga 14 della tabella 2 mostra che, dopo tutto, l’ indebitamento netto era solo il 0,65 per cento nel 2000. Tuttavia, questa cifra è fuorviante, perché risente dei proventi una tantum Umts. Al netto di questi, l’indebitamento netto era già vicino al 2 per cento nel 2000. Al 2,65 per cento del 2001 si è arrivati con il rallentamento della crescita e con misure discrezionali, di cui probabilmente la maggior parte, come abbiamo visto, imputabile al governo precedente.

Molti, e la Commissione europea con particolare insistenza, sostengono che i vincoli del Patto non creerebbero problemi se i governi seguissero una semplice regola: diminuire i disavanzi, o addirittura creare degli avanzi di bilancio, in tempi di alta crescita, per permettere ai disavanzi, in tempi di rallentamento ciclico, di crescere senza sorpassare il 3 per cento. Così non è stato: come abbiamo visto, Tremonti ereditò dagli anni buoni un indebitamento netto che era già pericolosamente vicino al 3 per cento. Ancora una volta sarebbe scorretto ignorare il passato.

Un’ immagine di improvvisazione

Tremonti ha dovuto fronteggiare una doppia emergenza: il rallentamento ciclico, e il Patto che mordeva per la prima volta; tutto questo con veti incrociati degli alleati sulle politiche attuabili. Certo, forse avrebbe potuto gestire meglio l’emergenza. E qui veniamo all’aspetto forse più appariscente della gestione Tremonti. Indubbiamente il ministero ha spesso proiettato, soprattutto all’inizio, un’immagine di impreparazione e di dilettantismo nella gestione della politica economica. L’ esempio più eclatante è probabilmente il primo Dpef del governo Berlusconi del luglio 2001, che, nonostante chiari segnali del rallentamento ciclico, prevedeva un tasso di crescita programmatico del 3,1 percento ogni anno fino al 2006, grazie alle misure di politica economica che il governo avrebbe preso! Questa imbarazzante dimostrazione di incompetenza economica e di cieca credenza in teorie economiche semplicistiche e universalmente screditate potrebbe forse venire classificata benevolmente come una irresponsabile operazione di marketing, se non indicasse che il governo si fece cogliere largamente impreparato dagli eventi seguenti, sprecando mesi preziosi a inseguire fantasmi.

Ma a onor del vero Tremonti e i suoi collaboratori erano ancora una volta in buona compagnia, in termini di sostanza se non di forma. Solo pochi mesi prima, alla fine di settembre del 2000, la nota di aggiornamento al Dpef prevedeva un indebitamento netto, grazie alla manovra messa in atto da quel governo, del 0,9 percento del Pil nel 2001 – quasi 2 punti percentuali sotto quello realizzato – e addirittura dello 0 per cento nel 2003!

Un secondo esempio fra i tanti è la saga senza fine degli incentivi alle imprese e al Sud, sottoposti a una decretazione incontinente, con un alternarsi continuo di messaggi contrastanti e di cambiamenti di direzione, che hanno svilito e complicato ulteriormente degli strumenti già largamente screditati e incomprensibili. Ma anche in questo caso, niente di nuovo sotto il sole; l’approccio al Sud non è cambiato, sono forse cambiati leggermente gli strumenti preferiti – e ugualmente inefficaci.

Indubbiamente da Tremonti ci si aspettava di più: misurata contro le aspettative, la gestione Tremonti può essere vista come una delusione. Ma misurata contro molti predecessori, e tenuto conto del ciclo economico, è ben lungi dall’essere stata un disastro.

La macroeconomia di Tremonti, di Roberto Perotti

Che conti pubblici ci lascia Tremonti? Prima di tentare un bilancio, è importante stabilire i fatti.

Le entrate: i condoni, e il resto

Partiamo dalle entrate. Tremonti rischia di venire ricordato per l’uso massiccio di misure una tantum. La tabella 1 mostra il dettaglio delle misure una tantum durante la gestione Tremonti e nei periodi precedenti. (1)
Sono incluse solo le misure che effettivamente contribuiscono a ridurre l’indebitamento netto (2) delle amministrazioni pubbliche (Ap) (3), il dato rilevante sia per i parametri del Patto di stabilità e crescita, sia per gli effetti macroeconomici. In media, le misure una tantum sono valse circa 1,3 punti percentuali del Pil all’anno durante il periodo 2001-2003, contro una media degli anni precedenti di 0,75 punti percentuali.
È importante però distinguere tre tipi di misure una tantum: condoni, anticipazioni di entrate, ed entrate straordinarie e occasionali.
I condoni sono una manifestazione delle famose “tre i”: “immoralità”, “inciviltà”, e “incompetenza”. Hanno svolto egregiamente il compito di fare cassa in fretta; ma il prezzo da pagare (sebbene non quantificabile) è stato altissimo in termini di immagine e di cultura della semi-illegalità (vedi Guerra). La tabella 1 mostra che i condoni sono la vera anomalia della gestione Tremonti: ben l,5 percento del Pil nel 2003: se si escludono i condoni, la gestione Tremonti mostra una media di misure una tantum simile agli anni precedenti.

Le anticipazioni di entrate sono una cosa diversa. Consistono soprattutto nelle cartolarizzazioni immobiliari, una misura di qualche rilevanza solo nel 2002 quando valse lo 0,5 per cento del Pil. Con questo meccanismo, le Ap cedono degli immobili a una società veicolo, a fronte di una somma che presumibilmente rappresenta il valore atteso ricavabile dalla vendita di questi immobili a privati in futuro. Da un punto di vista macroeconomico, le anticipazioni di entrate rappresentano essenzialmente un cambiamento del profilo temporale delle entrate nette (più alte oggi, più basse domani), senza necessariamente cambiarne il valore atteso. In questo senso, non hanno necessariamente una grande rilevanza macroeconomica, ma sono ovviamente molto utili per soddisfare i vincoli del Patto. Questo in teoria. In pratica, hanno infatti due tipi di costi, anche se difficilmente quantificabili: riducono la trasparenza dei bilanci, e possono comportare un costo implicito maggiore del tasso di interesse che le Ap oggi pagano sul debito pubblico (vedi Pisauro 06-05-2003).

Anche le entrate straordinarie e occasionali (cessioni di immobili, prelievi sostitutivi straordinari, versamenti per le rivalutazioni dei cespiti aziendali) sono state usate in misura limitata (tra lo 0,4 e lo 0,55 del Pil a seconda degli anni), e comparabile a simili occasioni in passato: per esempio, l’Eurotassa del 1997-8 valeva circa l’1 per cento del Pil.
Vi sono però due osservazioni più generali sulle misure una tantum. Primo, alcune delle operazioni che più hanno fatto notizia, come le cartolarizzazioni immobiliari e dei proventi del Lotto del 2001, lo swap del debito e le cartolarizzazioni dei crediti Inpdap e della Cassa depositi e prestiti del 2002, e le cartolarizzazioni dei crediti Inps del 2002 e 2003, hanno inciso sul fabbisogno di cassa e sul debito – e in misura rilevante, circa 2 punti di Pil nel 2002 e 2003; tuttavia, esse non hanno inciso sull’indebitamento netto. (4)

Qualunque sia il giudizio che si dà sulla loro trasparenza e opportunità, è importante quindi tenere presente che i risultati discussi qui non dipendono da queste misure.
Secondo, la vendita di immobili pubblici può essere un’operazione perfettamente legittima e opportuna. È anche tutto sommato comprensibile che, sotto pressione per soddisfare gli impegni del Patto, un ministro delle Finanze cerchi di anticipare introiti futuri. Il vero problema è che le dismissioni e le cartolarizzazioni immobiliari sono state in gran parte virtuali, cioè hanno coinvolto società solo legalmente al di fuori delle Ap, in realtà controllate dal Tesoro. Come spiegano (Pisauro 01-03-2004 e Bayron 12-12-2002), non è ovvio che queste società riusciranno a vendere a privati nei prezzi impliciti nelle cartolarizzazioni.

Le spese: alcuni miti, e la realtà

Consideriamo ora il lato delle spese della gestione Tremonti. Partiamo dal dato aggregato, la spesa primaria (cioè al netto degli interessi). Qui sorgono due difficoltà. La prima è quale anno prendere come punto di partenza: il 2000 o il 2001? Il secondo risente dell’attività di due governi diversi, che si dividono l’anno quasi a metà. Per i motivi che discuto sotto, il 2001 è probabilmente un migliore punto di riferimento. La seconda difficoltà è che i dati ufficiali sulla spesa primaria possono essere fuorvianti, perché per convenzione le spese in conto capitale sono al netto di alcune entrate una tantum, come le vendite e cartolarizzazioni di immobili e i proventi Umts (vedi tabella 1). (5)

Le righe 1 e 2 della tabella 2 presentano l’andamento del rapporto spesa primaria/Pil, sia quello originale sia quello, più significativo, “corretto” escludendo appunto le entrate una tantum portate in detrazione alle spese in conto capitale. La spesa primaria ufficiale del 2003 è più alta di 1,7 punti percentuali del Pil rispetto al 2001 e di 3,4 punti percentuali rispetto al 2000 (che beneficiò dei proventi Umts); per quella corretta, i numeri sono 1,7 e 2,4 punti percentuali.

Due voci di bilancio rappresentano quasi l’85 per cento di tutta la spesa primaria: consumi pubblici (cioè consumi intermedi più remunerazione degli impiegati pubblici, o spesa per il personale) e prestazioni sociali alle famiglie. L’andamento di queste due voci è dunque cruciale per comprendere la dinamica delle spese; fortunatamente, inoltre, i dati su queste due voci sono abbastanza incontroversi, ed esenti da interpretazioni alternative e alchimie contabili.

La spesa per consumi pubblici nel 2003 è aumentata rispetto al 2001 dello 0,5 percento del Pil. Di questi, solo 0,2 punti percentuali sono dovuti all’ aumento della spesa per personale. Ciò sembra contrastare con l’opinione diffusa che la spesa per consumi intermedi e per il personale stesse aumentando fuori controllo, con aumenti nel 2003 rispettivamente del 19,5 per cento e del 9,3 per cento. Il motivo della apparente contraddizione è semplice: questi ultimi dati si riferiscono al settore statale, e sono di cassa; inoltre, omettono il fatto che nel 2002 la spese per consumi intermedi e per il personale del settore statale diminuirono dell’2,4 e dell’1,3 per cento, rispettivamente. Il primo dato si riferisce alle Ap, ed è di competenza.

Come spiegare allora l’aumento considerevole – 1 punto percentuale del Pil – dei consumi pubblici nel 2003 rispetto al 2000? Metà di questo aumento è avvenuto nel 2001, ed è imputabile in gran parte all’aumento della spesa sanitaria (15,9 per cento) e in particolare di quella farmaceutica (32,8 per cento). È difficile attribuire esattamente la responsabilita’ di questo aumento, ma certamente su esso hanno influito pesantemente le misure prese dal governo precedente nella prima parte dell’ anno, quali l’ abolizione del ticket e l’ ampliamento delle prestazioni garantite dal SSN.

La spesa per prestazioni sociali monetarie nel 2003 è aumentata di 0,4 pp rispetto al 2000, e di 0,6 pp rispetto al 2001. L’ aumento è dovuto soprattutto alla spesa pensionistica, in parte a causa delle tendenze demografiche in atto, in parte per misure discrezionali quali l’ aumento delle pensioni minime. È legittimo incolpare Tremonti di parte di questo aumento, ma bisogna allora essere coerenti fino in fondo: molti di coloro che invece accusano questo governo di irresponsabilità fiscale e di tradire il Trattato di Maastricht allo stesso tempo lo accusano di volere attaccare lo stato sociale.

Sono davvero aumentate le spese?

I dati su entrate e spese in relazione al Pil sono però leggermente fuorvianti. È importante ricordare che il ciclo economico (vedi riga 20 della tabella 2) è stato negativo nel 2002-2003 e positivo (almeno per gli standard italiani) nel 1995-2001. Un peggioramento della congiuntura fa aumentare spese ed entrate in rapporto al Pil semplicemente perché fa diminuire il denominatore. Per avere un’idea dell’effetto denominatore sulle spese, le righe dalla 8 alla 13 della tabella mostrano i tassi di crescita in termini reali (valori nominali divisi per il deflattore del Pil) delle voci di spesa analizzate in precedenza. Nel 2002 e 2003, la crescita della spesa primaria corretta e dei consumi pubblici (inclusa la spesa per personale) è stata più bassa che nel biennio precedente.

Peggio del resto d’Europa? Dipende…

Sia per le spese, sia soprattutto per le entrate il ciclo economico impatta anche sul numeratore del rapporto. Un modo per tenerne conto è di esprimere entrate e spese al netto dell’effetto del ciclo economico, ottenendo così dati “cyclically adjusted”. (6)
La riga 17 della tabella 2 mostra che indebitamento netto “cyclically adjusted” calcolato dalla Commissione è addirittura diminuito tra il 2001 e il 2003.
Si può obiettare che ciò è avvenuto per la provvidenziale discesa dei tassi di interesse e per l’uso di misure una tantum, condoni, e artifici contabili. Come indica la riga 7, tra il 2001 e il 2003 la spesa per interessi è diminuita dell1,1 per cento del Pil. Al netto di questa spesa, rimane vero che l’avanzo primario “cyclically adjusted” è rimasto essenzialmente invariato tra il 2001 e il 2003 (riga 18 della tabella 2). (7)

L’avanzo primario “cyclically adjusted” corretto per le misure una tantum è sceso di 1,5 punti percentuali fra il 2001 e il 2003 (riga 19). (8)
Anche questa diminuzione è simile a quella avvenuta nel periodo 1997-2000.
In conclusione, includendo le misure una tantum, Tremonti ha fatto meglio della media dell’area euro, in cui l’ avanzo primario “cyclically adjusted” è sceso tra il 2001 e il 2003 di 0,4 punti percentuali secondo i calcoli della Commissione. Al netto delle misure una tantum, l’avanzo primario corretto per il ciclo è invece andato peggio della media dell’area euro. (9)
Il giudizio finale, quindi, verte sulla legittimità delle misure una tantum. Come ho detto prima, non tutte sono necessariamente negative; ma il ruolo dei condoni nel salvare il 2003 è rilevante.

….E dei suoi predecessori? Probabilmente no

In ogni caso, non si può disconoscere che è mancata sotto Tremonti una politica di riduzione della spesa primaria. In questo, tuttavia, Tremonti è in ottima compagnia. Dalle righe 1 e 14 della tabella 2, si può notare che neanche nel periodo di massimo sforzo per entrare nell’unione monetaria, tra il 1995 e il 1999, quando l’indebitamento netto delle AP cadde dal 7.6 all’1,7 e il ciclo economico era in larga parte favorevole, vi fu la pur minima riduzione della spesa primaria: tutto l’aggiustamento fiscale fu fatto dal lato delle entrate, e anche in questo caso con ampio ricorso a misure una tantum.

Il debito pubblico: la fantasia al potere

Si afferma frequentemente che la discesa del debito pubblico è rallentata sotto la gestione Tremonti. Anche in questo caso la differenza è spiegabile in gran parte con l’effetto denominatore; ma soprattutto in questo caso, gli artifici contabili hanno contribuito a salvare le apparenze. È infatti sul debito che si è scatenata maggiormente la fantasia del ministero dell’Economia.
Anche in questo caso si possono distinguere due strategie: anticipare entrate, portando i proventi in riduzione del debito, e modificare lo status legale di alcune entità per farle uscire dalla definizione delle Ap. Riguardo alla prima, mentre come abbiamo visto solo una parte delle cartolarizzazioni ha avuto effetti dell’indebitamento netto, tutte hanno avuto effetti sul debito delle Ap, anche in questo caso il dato rilevante per il Patto. Riguardo alla seconda, la “privatizzazione” della Cassa depositi e prestiti è emblematica. Di per sé, questa ha portato una minima riduzione del debito (0,6 miliardi di euro). Tuttavia, una volta privatizzata la Cassa, il governo ha potuto “venderle” 11 miliardi di euro di partecipazioni azionarie, e portare il ricavato in riduzione del debito.

Anche in questo caso bisogna distinguere tra aspetti contabili ed effetti macroeconomici. Per un cittadino, ciò che conta è il debito pubblico totale di tutti gli enti che sono sotto il controllo pubblico: che questi enti siano formalmente società per azioni, o siano invece parte delle Ap, è irrilevante. Allo stesso modo, il fatto che certi proventi siano cartolarizzati – e per di più venduti a enti privati solo di nome, ma in realtà controllati integralmente dal ministero – non cambia il valore atteso delle tasse che il governo prima o poi chiederà per pagare il debito.
È interessante notare come, nella motivazione del downgrading del debito pubblico (http://www2.standardandpoors.com/NASApp/cs/ContentServerpagename=sp/Page/HomePg) annunciata mercoledì 7 luglio, Standard & Poor’s menzioni molto raramente il debito, e si concentri prevalentemente sul disavanzo di bilancio: gli artifici contabili sul debito servono a soddisfare formalmente il Patto, ma non ingannano nessuno.

L’impatto macroeconomico diretto di questi artifici contabili è dunque probabilmente limitato. Ma il loro costo, in termini di immagine e trasparenza, potrebbe rivelarsi alto; e in questo senso il loro impatto macroeconomico indiretto potrebbe non essere trascurabile.

(1) Questi ultimi sono desunti da varie “Relazioni del Governatore della Banca d’Italia”.
(2) L’ indebitamento netto è all’incirca la differenza fra uscite ed entrate di competenza.
(3) Le amministrazioni pubbliche includono il settore statale (cui si riferisce il bilancio dello Stato) ma anche Regioni, province, comuni, enti di previdenza, ed altri enti. I dati delle amministrazioni pubbliche, incluso l’indebitamento netto, sono per competenza, quelli sul settore statale quasi sempre di cassa. Molti equivoci sarebbero stati evitati se i media fossero consapevoli della enorme differenza fra i dati delle amministrazioni pubbliche e quelli del settore statale, e della diversa copertura dei vari documenti economici prodotti durante l’anno.
(4) Nelle intenzioni, le prime due misure dovevano ridurre anche l’indebitamento, ma non sono state accettate da Eurostat.
(5) La tabella 1 mostra che il totale di queste entrate in detrazione di spesa è stato dell’1,3 per cento nel 2000 e dello 0,9 percento nel 2002, e trascurabile nel 2001 e 2003. È importante ricordare che questo non è un trucco contabile di Tremonti, ma una convenzione adottata da tutti i paesi europei e incorporata in tutti i dati ufficiali, inclusi quelli certificati da Eurostat e usati per il calcolo dei parametri del Patto di stabilità e crescita.
(6) L’aggiustamento ciclico dei dati di bilancio non è una semplice operazione contabile, ma comporta dei giudizi soggettivi. Di conseguenza, diverse organizzazioni (Ocse, Commissione europea, Fondo Monetario, Banca d’Italia) possono fornire stime diverse dell’aggiustamento ciclico nello stesso anno.
(7) L’opinione diffusa secondo cui la discesa dei tassi è stata resa possibile dall’adesione alla unione monetaria è inoltre un poco maliziosa. Secondo i calcoli di Lorenzo Codogno, Carlo Favero, e Alessandro Missale (“EMU and government bond spreads”, Economic Policy, October 2003), l’adesione all’euro, eliminando il rischio di cambio, ha diminuito il differenziale con i tassi a lunga tedeschi di circa 300 punti base (3 punti percentuali) – un numero molto alto. Ma dal 2000 in poi, il differenziale con i tassi tedeschi ha sempre fluttuato tra i 20 e i 40 punti base: in altre parole, gli effetti dell’entrata nell’unione monetaria si sono esauriti ben prima della gestione Tremonti. I tassi di mercato italiani ed europei sono in gran parte decisi dalla Fed americana, che tra il maggio 2000 e la fine del 2003 ha ridotto il Federal Fund rate dal 6,5 per cento all’1 per cento.
(8) Questo dato probabilmente sottostima l’effetto negativo dei fattori esterni sull’indebitamento netto. Con la fine del boom di Borsa, tra il 2000 e il 2003 le Ap hanno perso di colpo circa 8 miliardi di euro (circa lo 0,6 percento del Pil del 2001) in imposte legate all’andamento del mercato borsistico. L’aggiustamento ciclico del deficit tiene conto della caduta del tasso di crescita del Pil, ma non della caduta delle quotazioni di Borsa.
(9) In quest’ultimo confronto, non si tiene conto che anche altri paesi europei hanno fatto uso di misure una tantum, seppure in misura minore.

Fonte: righe 1-16: “Relazione del Governatore della Banca d’ Italia”, varie edizioni
righe 17-20: “Public Finance in EMU”, edizione 2004, Bruxelles, Commissione europea
Per gli anni 1995 e 1996, nelle righe 16 e 19 si è assunto che le misure temporanee fossero pari a 0,5 punti percentuali del Pil, ottenuto dividendo in tre parti uguali il dato aggregato di 1,5 punti percentuali per il triennio 1994-96 citato dalla “Relazione del Governatore per l’ Esercizio 1999”, p. 177.

Le imposte di Tremonti, di Maria Cecilia Guerra

La riforma fiscale, annunciata in campagna elettorale, per la quale aveva presentato un disegno di legge delega già nel dicembre del 2001: questa doveva essere l’eredità di Giulio Tremonti alla fine del suo mandato. Le sue dimissioni lasciano invece il “progetto” incompiuto.

La riforma annunciata

Due elementi hanno impedito a Tremonti di procedere nella sua riforma. In primo luogo, si trattava di una riforma costosissima: l’abolizione dell’Irap, 30 miliardi di euro, la riforma dell’Irpef, altri 20 miliardi di euro.

Ma non sono solo i vincoli di bilancio che hanno costretto Tremonti a procedere a piccoli passi: un primo modulo di riforma dell’Irpef, la riforma della tassazione dei redditi delle società.

L’altra importante ragione è che la legge delega, approvata, pur senza particolari modifiche rispetto al testo originale, dal Parlamento ben sedici mesi dopo la sua presentazione (aprile 2003), con la sola eccezione della parte relativa alla tassazione del reddito di impresa, non è una vera legge delega. È un manifesto di intenti, poco più o poco meno di una piattaforma elettorale.

Quando si è trattato di tradurlo in una riforma vera, i nodi sono venuti al pettine. Solo allora gli alleati di governo, che pure l’avevano votata compatti, si sono resi conto degli effetti redistributivi fortemente negativi del passaggio a un’imposta sui redditi a due aliquote, 23 e 33 per cento. Effetti che erano stati ampiamente segnalati dalla letteratura sull’argomento, ma che non erano emersi con chiarezza nell’attuazione del primo modulo, costoso sì, ma abbastanza neutrale sul piano distributivo. La maggioranza ha cominciato ad andare in ordine sparso, quando ha realizzato che la menzione di una generica volontà di tener conto della famiglia non significa niente: occorre decidere se l’unità di riferimento deve o meno rimanere l’individuo, e, soprattutto, occorre affrontare il problema dell’incapienza fiscale. Alzare le deduzioni o le detrazioni per carichi di famiglia, non dà alcun beneficio (o lo dà solo in misura ridotta) agli individui poveri che non hanno sufficiente imponibile o imposte contro cui farle valere.

Allo stesso modo, si sono scontrati con l’insostenibilità della promessa di abolire l’Irap, senza procedere alla ben che minima indicazione di un prelievo che possa sostituirla nel finanziamento delle Regioni (e quindi della sanità). Questi ostacoli, oltre a quello della perdita di gettito, che qualcuno ritiene ancora aggirabile, hanno impedito a Tremonti di realizzare la sua riforma. E non lo renderanno facile neppure al suo attuale successore, Silvio Berlusconi.

Il taglio delle tasse che si autofinanzia

Fra i provvedimenti più significativi che Tremonti ha comunque realizzato nel triennio in cui è stato ministro, merita di essere ricordato il reiterato ricorso alla strategia del taglio delle tasse, finanziato temporaneamente con entrate straordinarie, con l’obiettivo di attivare un circolo virtuoso, taglio delle tasse- sviluppo economico-aumento delle tasse indotto dalla crescita, che nella sua filosofia avrebbero dovuto permettere al taglio stesso di autofinanziarsi.

Lo ha fatto da subito, con la manovra dei cento giorni, il cui cardine, la “Tremonti bis“, era stato il cavallo di battaglia della sua campagna elettorale presso gli industriali e i commercianti. Si è trattato di un’agevolazione non selettiva, indifferentemente concessa a qualsiasi tipo di investimenti, nuovi o di rimpiazzo, di tutti gli operatori economici (compresi i lavoratori autonomi, le banche e le assicurazioni), comunque finanziati, e quindi anche con debito, alla condizione che risultassero superiori, nell’esercizio considerato, alla media degli investimenti realizzati nei precedenti cinque periodi di imposta.

Lo ha fatto poi con l’introduzione del cosiddetto primo modulo della riforma dell’Irpef: rimodulazione delle aliquote e introduzione di una deduzione di base, denominata no tax area, in sostituzione della preesistente detrazione per lavoro dipendente e autonomo. Doveva essere la parte della riforma dell’Irpef maggiormente concentrata sui redditi medio bassi, a più alta propensione al consumo, ed essere quindi, a un tempo, redistributiva e di stimolo ai consumi.

In entrambi i casi, l’atteso sostegno alla domanda non è venuto, anche a causa della congiuntura economica sfavorevole. Non sono però pochi i contribuenti per i quali la Tremonti bis si è tradotta in un contributo a fondo perduto per sostituire l’auto o l’arredamento dell’ufficio. E non sono state le famiglie più povere (e a più alta propensione al consumo) a beneficiare maggiormente dello sgravio Irpef: secondo le stime del Capp (Cfr. Baldini e Bosi), il 63 per cento di tale sgravio è andato alle famiglie comprese nei decili dal sesto al decimo. Le famiglie più povere, quelle del primo decile, non ne hanno goduto in misura rilevante, in larga parte perché incapienti.

Mentre la Tremonti bis ha tagliato le imposte solo temporaneamente, il primo modulo dell’Irpef ha comportato un taglio permanente di imposte: 5,5, miliardi che mancheranno ogni anno alle casse dello stato. Un taglio che richiede una copertura anch’essa permanente (riduzione di spese? aumento di tasse?) che non è ancora stata trovata. Questo problema viene tranquillamente ignorato nel dibattito attuale in cui viene menzionato, esclusivamente, il problema della copertura di eventuali ulteriori tagli fiscali.

Le entrate straordinarie: scudo fiscale e condoni

La copertura dei tagli fiscali è stata ottenuta, inizialmente, con entrate straordinarie. Quelle a cui ha fatto ricorso Tremonti hanno avuto caratteristiche particolari, su alcune delle quali è bene soffermarsi.
Nel settembre 2001, al duplice scopo di stimolare lo sviluppo economico e di acquisire gettito per finanziare la Tremonti bis, veniva sperimentata la prima edizione dello scudo fiscale, un provvedimento finalizzato a incentivare il rientro o, comunque, l’emersione di capitali illecitamente esportati all’estero, coadiuvato dalle nuove norme sul falso in bilancio.
Pagando una piccola tassa, il contribuente si precostituiva una franchigia (lo scudo, appunto) di ammontare pari all’importo dei capitali emersi o rientrati da opporre all’amministrazione finanziaria in caso di eventuali futuri accertamenti fiscali e previdenziali relativi a periodi precedenti. Larga parte dei capitali che hanno beneficiato dello scudo non sono rimpatriati, se non temporaneamente (vedi Cottarelli), e non hanno quindi contribuito a finanziare lo sviluppo. Molti invece sembrano essere stati i casi di frode: promotori finanziari che si sono prestati al riciclaggio di proventi derivanti dall’evasione fiscale e da altre attività illecite, realizzato proprio grazie al meccanismo dello scudo fiscale. Questo rischio era stato paventato da molti esperti al momento dell’ emanazione della legge, ma ignorato dalle autorità.
L’anno dopo, il finanziamento è arrivato da uno strumento vecchio, a cui anche governi passati hanno fatto ricorso: il condono. Non si è trattato però né di un solo condono, né di un condono qualsiasi. In questo campo infatti il ministro Tremonti ha superato di gran lunga la fantasia dei suoi predecessori. Non solo per la varietà di condoni previsti (cfr Giannini), non solo nel lasciare che venissero di fatto annunciati ancora prima della chiusura dei termini per la dichiarazione a cui si riferivano, ma anche introducendo un’importante innovazione mutuata dai provvedimenti per il rientro dei capitali: la possibilità di fare il condono mantenendo l’anonimato.
Le conseguenze di questi provvedimenti sull’attività di accertamento sono state e saranno molto gravi. Quelle del passato sono state svendute a basso prezzo (come nel caso del provvedimento di “rottamazione” dei ruoli che ha concesso la possibilità di estinguere le pretese del fisco pagando soltanto il 25 per cento delle somme complessivamente dovute). L’attività corrente di accertamento è stata inibita dal continuo spostamento dei termini per l’adesione alle diverse sanatorie. Negli anni a venire, infine, l’amministrazione si troverà per molto tempo nella situazione di condurre accertamenti al buio, per poi scoprire che il soggetto su cui sta indagando non è perseguibile perché si è avvalso di sanatorie anonime (scudo fiscale, condono tombale), o può comunque beneficiare delle diverse franchigie concesse nei confronti degli accertamenti futuri. Proprio lo strumento della franchigia si è infine tradotto in legittimazione, ex ante, all’evasione, nel caso del concordato “preventivo” varato con la Finanziaria per il 2004: il contribuente che aderisce al concordato potrà poi dichiarare un reddito inferiore al vero avendo la garanzia che non sarà sottoposto ad accertamento fintantoché il reddito occultato non supera di oltre il 50 per cento quello dichiarato (vedi Guerra).
In questi anni, in definitiva, l’attività di accertamento dell’amministrazione sembra confinata a svolgere un avvilente ruolo di strumento di ricatto, sollecitata come è a inasprire i controlli sui soggetti che non hanno aderito a questo o quel condono, magari perché onesti. In compenso, i contribuenti disonesti si trovano a godere di benefici inattesi: se avevano contabilizzato fatture false, facendo emergere falsi crediti Iva, aderendo al condono vedranno tali crediti trasformarsi in crediti veri, che il fisco pagherà. Lo svilimento del ruolo dell’amministrazione finanziaria, il condono che legittima un atto illecito, il condono che delegittima le imposte quale strumento democratico di finanziamento della cosa pubblica: questa è l’eredità, certamente più pesante di quella dei conti in disordine, che Tremonti lascia ai suoi successori e al paese.

Un bilancio ad interim, di Tito Boeri e Giuseppe Pisauro

Come Jacques Necker, ministro delle Finanze di Luigi XVI, Giulio Tremonti ha goduto di un grande potere. Come Necker, Tremonti ha finito per essere vittima delle sue stesse creazioni. È stato il ministro delle una tantum. E di una tantum oggi perisce. Ha giocato d’azzardo sperando in una ripresa del ciclo e in un allentamento dei vincoli europei. E ha perso. Ci lascia un eredità pesante. Ma le sue dimissioni rischiano di spianare la strada al peggiore dei cicli politici. Potremo anche rimpiangerlo.

Il potere di Tremonti

Tremonti è stato il primo ministro dell’Economia della storia repubblicana, il che gli ha permesso di accorpare su di sé le funzioni precedentemente ricoperte dai titolari del ministero del Tesoro e delle Finanze e, se vogliamo risalire indietro nel tempo, dai ministeri delle Partecipazioni Statali e del Bilancio e della Programmazione Economica. È stato ministro di un governo con la più solida maggioranza parlamentare (in entrambi i rami del Parlamento) dopo il sesto Governo De Gasperi. Ha potuto gestire la politica economica del Governo Berlusconi avendo di fronte a sé un’associazione degli industriali molto arrendevole. Ha dovuto fronteggiare un sindacato non disposto a concedere sconti, ma anche fortemente diviso al suo interno.

Nonostante dovesse attuare un programma che prevedeva una forte riduzione delle tasse e della spesa pubblica, è riuscito in questi anni solo a espandere la spesa, cresciuta di ben due punti del Pil. La congiuntura non è stata per lui particolarmente favorevole, ma neanche così ostile come spesso paventato. È più facile tagliare le tasse e la spesa pubblica in periodi di crescita economica. Ma sotto il suo regno è continuata la discesa dei tassi di interesse, una manna per chi deve gestire il “terzo debito pubblico del pianeta”. Sarà più difficile il compito del suo successore, adesso che si è interrotta la fase dei tassi calanti.

Vittima delle sue creazioni

Tremonti è stato di una fantasia rara nell’inventare misure una tantum, un genio nella finanza creativa. Questo ha permesso al nostro paese di rispettare i vincoli presi a livello europeo. Non è stato certo il primo a usare le una tantum (ce ne sono state anche nella passata legislatura), ma senz’altro il più assiduo. Nelle sue intenzioni, sarebbero dovute servire a guadagnare tempo, in attesa di momenti migliori. Ma il rinvio dei problemi agli esercizi futuri e la finanza creativa hanno finito per allentare anche i vincoli di bilancio percepiti all’interno della coalizione, permettendo agli alleati di governo di sottoscrivere accordi per il pubblico impiego che recepivano in pieno la piattaforma sindacale. E quando il quadro preoccupante dei conti pubblici è risultato evidente a tutti, è stato facile per gli alleati incolpare Tremonti di averli truccati.

Sotto la sua reggenza dell’Ecofin, si è consumata la rottura del Patto di Stabilità e crescita, con la riunione dei ministri delle Finanze dell’Unione che ha deciso di non applicare le sanzioni a Francia e Germania in cambio di un atteggiamento più morbido nei confronti dell’Italia (quello che oggi ci ha permesso di evitare l’early warning). Il messaggio secondo cui le regole ci sono solo per non essere applicate, il protratto sforamento dei vincoli di Maastricht da parte dei nostri principali partner europei hanno, di fatto, indebolito l’azione di Tremonti sul fronte interno. È stato costretto a dimettersi alla vigilia di una riunione Ecofin decisiva per il nostro paese. Segnale chiaro del fatto che i vincoli europei non sono stati presi troppo sul serio da molti ministri.

Un’eredità pesante

Abbiamo documentato su questo sito lo stato attuale dei conti pubblici. Il consuntivo degli ultimi tre anni è sintetizzato in un dato: il saldo primario della Pa nel 2003 è stato peggiore di 1,7 punti di Pil rispetto al risultato del 2000. Solo la riduzione della spesa per interessi (1,2 punti di Pil), il dividendo dell’euro, ha consentito di mantenere il disavanzo complessivo al di sotto della soglia del 3 per cento. Di fronte a un prevedibile rialzo dei tassi, bisognerà ridurre la spesa primaria che, invece, ha ripreso a crescere (un punto nel solo 2003), dopo essere rimasta costante tra il 1996 e il 2000. Non tanto per nuove misure, ma perché l’azione di contrasto è stata debole, basata su interventi tampone (vedi taglia-spese), con lenti progressi nella costruzione di un moderno sistema di monitoraggio e controllo (come testimonia la diatriba tra Tesoro e Banca d’Italia sull’emersione di nuovo debito pubblico alla fine dello scorso anno vedi Perotti) e di un compiuto sistema di relazioni finanziarie tra Stato centrale e autonomie territoriali.

Anche le entrate sono cresciute (due punti di Pil rispetto al 2000) sotto la reggenza Tremonti, ma è una crescita che contiene i germi di andamenti molto meno favorevoli in futuro.

La successione di condoni ha fortemente incrinato il rapporto tra fisco e contribuenti (vedi Bordignon). Segnali evidenti sull’andamento delle entrate “strutturali” (al netto dei condoni) sono presenti già nel 2003. L’aumento dell’evasione, per una sorta di contrappasso, potrebbe divenire la pietra tombale sulle ipotesi di riduzione delle aliquote dell’Irpef. Buona parte delle entrate aggiuntive è venuta dai proventi della vendita del patrimonio pubblico, non destinati a ridurre il debito, ma solo a tenere insieme l’equilibrio dei conti. Anche qui con costi potenziali non trascurabili (vedi Scip2).

Negli ultimi mesi il gioco d’azzardo, la politica dell’attesa di tempi migliori è divenuta insostenibile: il disavanzo viaggia verso il 4 per cento del Pil e il tempo per mantenere le promesse elettorali si sta esaurendo.

Cosa accadrà ora?

Difficile cercare di leggere nella sfera di cristallo, almeno fin quando non si saprà chi sostituirà Tremonti. Ma una cosa è certa: chiunque siederà alla scrivania di Quintino Sella in via XX Settembre, magari in affitto, difficilmente potrà accentrare su di sé lo stesso potere del suo predecessore e vivrà in un clima di assalto alla diligenza.

Dietro alla richiesta di collegialità, si legge un tentativo di procedere a uno smembramento delle competenze del ministro dell’Economia, con la ricostruzione di fatto del dualismo fra Finanze e Tesoro e si parla anche di un ministero per il Mezzogiorno. Una collegialità virtuosa può invece venire da una maggiore trasparenza della politica di bilancio che renda il vincolo finanziario chiaramente percepibile a tutti: ministri, gruppi di interesse e opinione pubblica. Per evitare il saccheggio del bilancio pubblico è necessario un sistema di regole rigide e una “casa di vetro”.

Varranno poi per il successore di Tremonti le leggi del ciclo politico, che comportano un aumento del deficit pubblico di circa mezzo punto di Pil in occasione di ogni tornata elettorale. Tremonti sembrava in procinto di gestire il ciclo politico riducendo le tasse, anche senza copertura. Nel suo mesto messaggio di congedo, in quel suo “non mi hanno lasciato tagliare le tasse”, si intuisce che il suo successore verrà spinto dai colleghi ad aumentare il disavanzo nel modo più tradizionale: aumentando la spesa, anziché riducendo le tasse.

Dato lo stato dei nostri conti pubblici, il ciclo politico, che rischia di essere molto lungo data la minaccia continua di elezioni anticipate, è comunque una sciagura. Non si sa cosa scegliere fra disavanzo con più spesa “per lo sviluppo”, disavanzo con più devolution o disavanzo con meno tasse. Con l’interim di Berlusconi, rischiamo di averle tutte e tre. In questo interim elettorale potremo anche rimpiangere Tremonti.

Pluralismo, chi era costui?

Sommario a cura di Michele Polo

Il 2004 è stato un anno importante per l’informazione e i media nel mercato italiano. A maggio è stata approvata la nuova legge che regolamenta gli assetti del settore delle comunicazioni, la Legge Gasparri, che introduce profondi cambiamenti rispetto al quadro recedente. Ma mantiene un dato di continuità con le precedenti normative, nel fotografare la situazione esistente senza incidere sul quadro allarmante dell’informazione e del pluralismo in Italia. Il mercato televisivo viene sottoposto a vincoli antitrust, calcolati tuttavia su un mercato di riferimento talmente ampio e eterogeneo da consentire non solo il mantenimento, ma la crescita delle attuali posizioni dominanti. Ma il pluralismo in Italia non è solamente un problema di televisioni. Anche la stampa, settore apparentemente più frammentato, si caratterizza come un insieme di piccoli oligopoli locali, all’interno dei quali pochissime testate vantano quote di mercato molto elevate. In questo quadro di concentrazione persistente e non intaccato dalle nuove norme inizia a profilarsi all’orizzonte una revisione della par condicio, che in un contesto come quello italiano appare uno dei pochi vincoli che garantiscano un bilanciamento delle opportunità tra le diverse posizioni politiche.

Una regolamentazione per il pluralismo, di Michele Polo

Le dinamiche di mercato difficilmente possano portare a una offerta diversificata e ampia di posizioni politiche tra operatori dell’informazione o all’interno di ciascuno di essi, come abbiamo illustrato nell’intervento a fianco. Da questo fallimento del mercato nel garantire il pluralismo deriva l’esigenza di appropriate politiche pubbliche.

L’antitrust non basta

È bene sottolineare subito che le politiche antitrust, per quanto utili a mantenere la concorrenza e i mercati aperti ai nuovi entranti, non possono da sole supplire alle esigenze di pluralismo, e ubbidiscono a obiettivi di efficienza economica che non sempre coincidono con quelli di un libero accesso di tutte le opinioni ai mezzi di comunicazione.
Si rende quindi necessario il disegno di appropriate politiche regolatorie per il pluralismo.

Abbiamo argomentato come in molti mercati dei media esiste una tendenza alla concentrazione, dovuta a dinamiche in parte diverse, che ben difficilmente le politiche pubbliche possono evitare. Esiste tuttavia uno spazio su cui intervenire per evitare che la concentrazione risulti anche maggiore di quanto le dinamiche concorrenziali giustifichino, sottoponendo a un attento controllo la creazione di gruppi multimediali su uno stesso o su più mercati.
In primo luogo la concentrazione, in una prospettiva di pluralismo, dovrebbe essere valutata mercato per mercato, con riferimento alla distribuzione degli ascoltatori e dei lettori, in modo da verificare se qualcuno tra i media presenta problemi di insufficiente pluralismo esterno. Siamo quindi ben lontani da quel singolare coacervo di mercati e di fatturati, il sistema integrato di comunicazione, creato dalla Legge Gasparri per annacquare ogni posizione dominante.

L’impostazione che riteniamo meno intrusiva sulle dinamiche di mercato dovrebbe limitare la concentrazione sul singolo mercato dei media (pur sacrificando in questo eventuali sinergie), qualora questa si realizzi attraverso la proprietà di più mezzi (molti canali televisivi, o numerosi giornali o stazioni radio) attivi sul mercato stesso. Se tuttavia con un singolo mezzo, un operatore fosse in grado di raccogliere un ampio pubblico grazie alla bontà dei suoi contenuti, non riteniamo che le politiche pubbliche dovrebbero intervenire con dei vincoli alle quote di mercato.
Al contempo, tali sinergie dovrebbero essere invece consentite tra diversi segmenti dei media, laddove l’operatore multimediale non raggiunga posizioni dominanti in nessuno dei singoli mercati. In una parola, gruppi multimediali risultano desiderabili se attivi su più mercati, ma dovrebbero essere contrastati se dominanti in un singolo mercato

Gli strumenti da utilizzare

Gli strumenti che in questa prospettiva appaiono più utili risultano le limitazioni al numero di licenze in capo a uno stesso operatore, applicabili in quei mercati (televisione e radio) nei quali una autorizzazione è necessaria per l’uso dello spettro elettromagnetico. Utilizzando questo strumento è possibile quindi limitare la crescita di un operatore che disponga di un portafoglio con più licenze per canali televisivi, laddove la sua quota cumulata di audience superi determinate soglie (in Germania è attualmente posta al 30 per cento), costringendolo a cedere licenze nel caso di superamento dei limiti consentiti. Analogamente, vincoli alla partecipazione su più mercati (giornali, televisioni, radio) dovrebbero intervenire laddove l’operatore raggiunga una posizione dominante in qualcuno di essi, imponendo anche in questo caso la cessione di licenze.

Più difficile intervenire in caso di forte dominanza realizzata da gruppi editoriali attivi solo nella carta stampata con numerose testate, per le quali evidentemente non esistono licenze da ottenere. Solamente in caso di fusioni e acquisizione, ma non di creazione ex-novo di testate, ci sarebbe spazio per intervenire. Quando questi interventi volti a garantire il pluralismo esterno risultano poco efficaci, vanno associate misure per il pluralismo interno.
Il pericolo maggiore per il pluralismo interno nei contenuti dei singoli operatori, ritengo derivi dalle motivazioni lobbistiche dei gruppi proprietari, che inducono a privilegiare la rappresentazione di posizioni politiche specifiche. Questa componente risulta enfatizzata quando la proprietà dei gruppi di comunicazione veda coinvolti investitori attivi in altre industrie regolate (public utilities, banche, trasporti, eccetera). Occorre quindi fissare dei limiti alla partecipazione azionaria di queste categorie di soggetti al settore dei media.

Le motivazioni lobbistiche o partigiane espresse dalla proprietà dei media sono tuttavia in parte ineliminabili. Occorre quindi pensare, in particolare nelle fasi (campagne elettorali) nelle quali distorsioni informative eserciterebbero effetti di lungo periodo, a una regolazione diretta degli spazi, del diritto di replica, dell’accesso, secondo criteri di par condicio. Questa regolamentazione è stata sino a oggi applicata all’informazione televisiva. La situazione di forte concentrazione nei mercati locali della carta stampata pone tuttavia l’esigenza di iniziare a discutere di quello che sinora è considerato un tabù, il diritto di accesso sui giornali. Infine, il mantenimento di un canale pubblico televisivo (ben diverso dalla attuale Rai) sottoposto a un controllo diretto da parte di una autorità di vigilanza indipendente dovrebbe offrire un ulteriore, parziale, tassello, a garanzia di una informazione più articolate e pluralista.

Regole, monitoraggi e sanzioni, Antonio Zizzoli

Nel dibattito politico italiano, il tema del pluralismo nei mass media ha un ruolo centrale. L’Osservatorio di Pavia svolge monitoraggi in Italia da più di dieci anni e più di cinquanta sono state le missioni elettorali all’estero. (1)
Forse proprio perché ha il polso delle variegate situazioni, ha maturato la convinzione che su questo aspetto del funzionamento del processo democratico sia necessaria una riflessione attenta e pacata, poco legata alla contingenza e alle pressioni dei vari attori.

La par condicio in Italia e all’estero

È bene sgombrare subito il campo dall’idea che la regolamentazione della comunicazione politica sia una peculiarità italiana.
Un memorandum di intenti di trentadue pagine, che stabiliva minuziosamente tutti i particolari del confronto, ha regolato i tre recenti dibattiti presidenziali Bush–Kerry.
Sempre negli Usa, i tempi di presenza dei canditati sono rigidamente contingentati. Per esempio, durante la campagna per governatore della California, secondo le leggi federali sulla par condicio i film di Arnold Schwarzenegger costituivano spazio televisivo e quindi mandarli in onda non rispettava la parità di accesso. Qualora fossero stati trasmessi film come Terminator o Atto Forza, i rivali di Schwarzenegger avrebbero potuto chiedere e ottenere analoghi spazi televisivi gratis. Libertà certo, ma ben regolamentata.

In Italia, la legge 28/2000, detta della par condicio, “promuove e disciplina, al fine di garantire la parità di trattamento e l’imparzialità rispetto a tutti i soggetti politici, l’accesso ai mezzi di informazione per la comunicazione politica”.
I principi di tale legge sono relativamente chiari e sinteticamente così riassumibili:
– durante le campagne elettorali la comunicazione politica viene compressa in spazi rigidamente regolamentati e vietata in qualsiasi altro genere televisivo, fatta eccezione per le notizie dei telegiornali (le news).
– Sono vietati gli spot e permessi spazi autogestiti (i messaggi autogestiti), anche questi rigidamenti normati
– Gli spazi concessi ai soggetti partecipanti alla competizione sono un mix tra rappresentanza esistente e candidature ex-novo.
– Infine sono date indicazione di massima sull’uso corretto del mezzo televisivo (“I registi ed i conduttori sono altresì tenuti ad un comportamento corretto ed imparziale nella gestione del programma, così da non esercitare, anche in forma surrettizia, influenza sulle libere scelte degli elettori”).

I monitoraggi

La Commissione parlamentare di vigilanza e l’Autorità delle comunicazioni (Agcom), previa consultazione tra loro, e ciascuna nell’ambito della propria competenza, regolano il riparto degli spazi tra i soggetti politici e stilano il regolamento dei messaggi autogestiti. Quest’attività ha il fine di rendere operativi i principi “astratti” sanciti dalla legge 28/2000 e di calarli nel contesto delle diverse campagne elettorali.

Contestualmente vengono svolti due monitoraggi (2) che controllano la conformità di quanto trasmesso con le disposizioni regolamentari. Un monitoraggio è a cura dell’Agcom e disponibile continuativamente sul sito www.agcom.it, l’altro è a cura dell’Osservatorio di Pavia per conto della Rai. In questo modo gli organi di controllo, le emittenti e i cittadini hanno a disposizione gli strumenti per controllare, valutare e sanzionare la correttezza della campagna elettorale per quanto riguarda il pluralismo politico.

Punti di forza e limiti

Nelle recenti campagne elettorali la parte relativa alle disposizioni su “Messaggi autogestiti, ripartizione dei tempi dei soggetti nei programmi dedicati alla campagna elettorale e la loro assenza al di fuori di tali programmi” è stata per lo più rispettata.
Punti critici invece, perché di difficile interpretazione, sono risultati:
– gli spazi dei soggetti politici nei telegiornali
– gli spazi dei soggetti politici dedicati alla cronaca al di fuori dei telegiornali
– il comportamento corretto e imparziale nella gestione dei programmi da parte dei conduttori.

Il trade off tra libertà di informazione e regole del pluralismo è forse il punto più delicato della normativa sulle campagne elettorali, poiché va a incidere sul diritto-dovere del giornalista di informare e scegliere le notizie. Come distribuire i tempi tra i partiti in modo equo rispettando l’esigenza del pubblico di essere informato su ciò che accade? Gli esponenti del Governo candidati come devono essere conteggiati? Se un ministro inaugura una strada in campagna elettorale, questo tempo è da attribuire alla competizione elettorale o al diritto-dovere del Governo di informare sulla propria attività? Questa distinzione appare più agevole nelle campagne elettorali per le elezioni politiche, durante le quali l’attività governativa si limita all’ordinaria amministrazione. Più difficile è distinguere tra informazione sull’attività governativa e propaganda per i candidati nel caso di elezioni (europee, regionali) che avvengono mentre il Governo in carica è pienamente operativo.

Problematico risulta poi valutare la qualità della comunicazione soprattutto in relazione al comportamento corretto e imparziale nella gestione dei programmi da parte dei conduttori.
I casi di aperta violazione di questa regola sono rari e quasi sempre riconducibili a pochi conduttori: la delicatezza del tema è evidente perché la partigianeria di un giornalista può essere valutata come comportamento coraggioso e “libero” dalla parte in sintonia con la sua posizione politica. Va tuttavia ricordato che in questi casi, oltre alla prudenza nell’intervenire, occorre che le sanzioni siano tempestive, cosa che non sempre avviene.

L’attuale legge italiana, sicuramente perfettibile, costituisce una buona base per il conseguimento del pluralismo. Lasciare non regolamentato questo campo, come in modo ricorrente viene sostenuto, significa rischiare gravi squilibri soprattutto in situazioni in cui le risorse delle emittenti sono molto concentrate e il controllo indiretto sul trasmesso è quasi inevitabile.


(1) Si veda il sito
www.osservatorio.it

(2) I monitoraggi, che coprono tutto il trasmesso 24 ore su 24 per 365 giorni l’anno, tra l’altro evidenziano:
– la presenza di un soggetto politico e la sua anagrafica (nome, cognome, sesso, partito, carica istituzionale, eccetera)
– la durata dell’intervento in secondi
– l’anagrafica della presenza (giorno, ora, minuto, rete e programma,)
– il tema dell’interevento.

La concentrazione nascosta, di Marco Gambaro

Nel dibattito sul pluralismo, il tema della concentrazione nel mercato dei quotidiani è spesso sostanzialmente sottovalutato. Si dà per scontato, almeno in Italia, che il pluralismo esista perché è alto il numero di testate presenti sul piano nazionale.

La dimensione locale

Una valutazione della concentrazione del mercato dovrebbe tuttavia tenere conto del fatto che i quotidiani competono prevalentemente su scala locale e che negli specifici mercati il grado di concentrazione può essere molto elevato.
Negli Stati Uniti, ad esempio, negli ultimi vent’anni vi è stato un continuo processo di concentrazione che ha portato la quasi totalità delle aree urbane ad avere un’unica testata oppure più testate dello stesso proprietario (in precedenza in circa i due terzi dei mercati operavano più testate ed editori concorrenti). Se si escludono l’unico quotidiano nazionale, Usa Today, e poche grandi città con più quotidiani in concorrenza tra loro (taluni prestigiosi, ma sempre locali), il mercato statunitense è configurato come un insieme di monopoli locali sostanzialmente autonomi dove operano 1.457 testate che vendono circa cinquantacinque milioni di copie giornaliere.

Nel nostro paese la situazione non è così polarizzata e i singoli mercati non sono così separati, ma la dimensione locale della concorrenza è comunque molto importante. In Italia si pubblicano novantuno testate e le prime due, Corriere della Sera e Repubblica, hanno quote di mercato di poco superiori al 10 per cento della diffusione giornaliera, mentre i gruppi cui fanno capo totalizzano assieme poco più del 40 per cento della diffusione complessiva. (1)

Misurare la concentrazione

Questi dati a livello nazionale non rappresentano tuttavia l’indicatore più corretto per una valutazione della concentrazione, poiché anche le maggiori testate hanno una diffusione molto disomogenea sul territorio. La Stampa (2) ad esempio vende nelle sue prime tre province di diffusione (Torino, Cuneo e Alessandria) il 50 per cento delle copie totali e nelle prime dieci province il 75per cento delle copie, mentre in ciascuna delle province restanti vende mediamente lo 0,3 per cento della sua diffusione. Il Corriere della Sera vende nelle sue prime tre province (Milano, Roma e Varese) il 45 per cento delle copie e nelle prime dieci il 60 per cento mentre nel resto d’Italia realizza mediamente lo 0,44 per cento delle sue vendite in ogni provincia. Anche la Repubblica, che pure ha una diffusione più omogenea, vende il 54 per cento nelle prime dieci province.

Per meglio valutare la concentrazione sui mercati rilevanti si è quindi proceduto a identificare, per ciascun quotidiano, l’insieme delle province nelle quali viene realizzata la maggior parte delle vendite, definibile come mercato di riferimento. Due sono le misure utilizzate, in modo da cogliere sia le realtà di giornali con una distribuzione molto concentrata in poche province (in questo caso sono state considerate le aree che cumulativamente rappresentano il 90 per cento delle vendite della testata), sia quelle di quotidiani con una diffusione relativamente più estesa (prendendo in questo caso tutte le province con una diffusione almeno pari allo 0,5 per cento delle vendite totali del quotidiano, senza necessariamente raggiungere in questo caso il 90 per cento delle vendite). (3)
Per ogni testata, sull’insieme di province che costituiscono il suo mercato di riferimento, sono stati calcolati diversi indici di concentrazione. (4) In questo modo è possibile verificare se nella sua area territoriale di diffusione, il quotidiano fronteggia un numero elevato di concorrenti o ha una posizione dominante. I risultati così ottenuti confermano una forte concentrazione nei mercati di riferimento. Delle cinquantaquattro testate di cui sono disponibili i dati Ads (Accertamenti diffusione stampa) delle vendite provinciali, ventiquattro operano in mercati con un indice di Herfindahl-Hirschmann superiore a 0,15 considerato normalmente la soglia di attenzione delle autorità antitrust. Ventisei quotidiani nel loro mercato di riferimento hanno una quota di mercato superiore al 30 per cento e ben quarantadue testate contribuiscono all’indice HH del loro mercato per più del 50 per cento.
Ad esempio, un quotidiano come Il Messaggero ha una quota del mercato nazionale inferiore al 5 per cento, ma nelle province del suo mercato specifico ha una quota del 23 per cento, l’indice di HH del suo mercato è 0,1068 cui contribuisce per circa il 50 per cento. Oppure Il Gazzettino di Venezia ha una quota del 33 per cento del suo mercato specifico che a sua volta ha un indice di HH di 0,1529 cui Il Gazzettino contribuisce per il 73 per cento.

Distinguendo per tipologie di quotidiani e calcolando per ciascuno di essi i valori medi della categoria, quelli nazionali operano in un mercato di riferimento relativamente ampio e poco concentrato, mentre le testate multiregionali, regionali e provinciali, con diffusione e mercati di riferimento via via più ristretti, evidenziano una forte concentrazione dei lettori, come si può notare nella tabella.
Questo dato conferma indirettamente il fatto che nei mercati locali (corrispondenti ai mercati di riferimento per queste testate) quasi sempre un numero molto limitato di quotidiani si contende il pubblico. Dall’analisi emerge quindi come la concentrazione effettiva nei mercati dei quotidiani sia superiore a quanto comunemente si crede per effetto della forte polarizzazione geografica della diffusione, anche per i quotidiani tradizionalmente considerati nazionali.



(1) La Federazione degli editori indica otto testate nazionali che complessivamente hanno venduto nel 2002 il 36 per cento delle copie giornaliere: Avvenire, Corriere della Sera, Foglio, Il Giornale, Il Giorno, La Repubblica, La Stampa, Libero.

(2) Questi dati e le altre elaborazioni di questo articolo derivano da uno studio da me svolto presso l’Università Statale di Milano e si riferiscono a dati 2000; la situazione relativa alla diffusione non è tuttavia sostanzialmente cambiata.

(3) Si tratta di confini piuttosto ampi se si considera che l’Autorità per le comunicazioni norvegese considera come mercato di riferimento di un quotidiano quelle province dove vende oltre il 10 per cento della sua diffusione.

(4) Si è calcolata nel mercato di riferimento la quota di mercato della testata, il rapporto tra quota della prima e della seconda testata (quota di mercato relativa), l’indice di Herfindahl-Hirschmann (somma delle quote di mercato al quadrato), utilizzato solitamente nelle valutazioni antitrust, e il contributo della prima testata al valore complessivo di questo indicatore

Quando il mercato non salva il pluralismo, di Michele Polo

Il pluralismo è un malato grave nel nostro paese. Ma non gode di buona salute in molti altre realtà, nonostante negli ultimi dieci anni i mezzi attraverso cui raggiungere il pubblico si siano moltiplicati, con lo sviluppo della televisione commerciale, il prossimo avvento di quella digitale e il fenomeno di Internet. A fronte di queste maggiori possibilità, i fenomeni di concentrazione sono tutt’oggi molto diffusi, e non rappresentano solamente il retaggio di un passato oramai chiuso, ma appaiono semmai come il risultato delle nuove modalità di concorrenza nei settori della comunicazione.

Concentrazione in televisione

Quando guardiamo al tema del pluralismo nel settore dei media, ci occupiamo prevalentemente di mercati nei quali operano imprese e gruppi di comunicazione privati, dalle cui scelte e dalle cui dinamiche competitive occorre partire per rispondere alla domanda se il mercato sia in grado di sfruttare le nuove opportunità tecnologiche (digitale, Internet) garantendo un accesso bilanciato e non discriminatorio a tutte le opinioni politiche.
In questa prospettiva solitamente si distingue tra pluralismo esterno, che considera se nell’offerta complessiva di un particolare mercato dei media (giornali, o televisione o radio, eccetera) tutte le opinioni politiche trovano spazio, e pluralismo interno, che invece guarda a come le diverse opinioni politiche sono rappresentate nell’offerta di un singolo operatore.

Se osserviamo il mercato dei media in una prospettiva di pluralismo esterno, due fenomeni appaiono frenare il raggiungimento di questo obiettivo. La perdurante concentrazione in segmenti come la televisione commerciale finanziata con pubblicità è sostenuta dalla forte concorrenza per i programmi più richiesti, che determina una forte lievitazione dei costi strettamente correlata ai futuri ricavi dai proventi pubblicitari. In questa corsa al rialzo c’è posto per pochi vincitori, come i dati sulla concentrazione televisiva testimoniano in tutti i paesi europei e parzialmente, dopo vent’anni di erosione da parte delle pay-tv, negli stessi Stati Uniti, dove i principali network raccolgono ancora circa la metà della audience nel prime time.

E nei giornali

Ma la concentrazione non è un fenomeno unicamente televisivo, interessa marcatamente anche la carta stampata.
Se andiamo al di là dei dati nazionali sulle vendite di quotidiani per studiarne la distribuzione geografica, troviamo una forte segmentazione nella quale in ogni mercato locale, quello in cui ciascuno di noi lettori abita,
uno o due giornali raccolgono la maggior parte dei lettori. E questo riguarda non solo, e ovviamente, i giornali locali, ma gli stessi quotidiani di opinione, che, con pochissime eccezioni, vantano un forte radicamento regionale. Fenomeno che non è solo nostrano, come testimonia l’evoluzione dei mercati locali della stampa negli Stati Uniti e la sempre più frequente sopravvivenza di un solo quotidiano locale. Le dimensioni relativamente limitate dei mercati provinciali e regionali spiegano quindi perché solamente pochi quotidiani possano sopravvivere in ciascuna area coprendo i significativi costi di struttura e di personale necessari per una edizione locale.

Il pluralismo interno

In mercati fortemente concentrati, per loro natura impossibilitati a sostenere una offerta di media ampia e diversificata (pluralismo esterno), rimane la strada del pluralismo interno.
Vorremmo fosse affidato in primo luogo agli incentivi di un operatore o gruppo di comunicazione a coprire più segmenti di mercato (opinioni politiche) con la propria offerta, analogamente a come si coprono molte discipline sportive, vari temi di intrattenimento, molti generi di film. L’ostacolo maggiore in questa prospettiva si ritrova nel forte ruolo che i media esercitano come strumento di lobbying, che li trasforma in un mezzo ideale in quel terreno scivoloso di contrattazione politica tanto prezioso soprattutto per i gruppi economici fortemente regolati.
Analoghe distorsioni possono poi nascere dalla stessa identificazione politica dei gruppi di comunicazione, dove a fronte dei fin troppo ovvi esempi nostrani, non possiamo che registrare con preoccupazione un fenomeno, relativamente nuovo per il mercato americano, quale la spregiudicata propaganda di parte di un grande network come Fox.

La conclusione cui giungiamo, guardando alle possibilità che il mercato trasformi le nuove e grandi opportunità tecnologiche di comunicazione in una offerta ampia e diversificata di contenuti e informazioni politiche, è quindi venata di una forte preoccupazione.
Oggi disponiamo di mezzi sempre più ricchi, sempre più persuasivi ma, apparentemente, sempre più concentrati. E il cittadino difficilmente trova i mezzi per formarsi una opinione informata e libera da distorsioni e condizionamenti.
Di fronte a questo nuovo fallimento del mercato, si richiedono quindi adeguate politiche pubbliche per il pluralismo.

La legge Gasparri, una vera best practice, di Ferruccio De Bortoli

Tutti coloro, e io tra questi, che hanno duramente criticato la legge Gasparri sul riordino (a casa Berlusconi) del sistema delle comunicazioni dovrebbero ammettere che alla fine non è poi male. Anzi, che tutto sommato rappresenta un esempio di efficienza legislativa e di inusuale velocità nella sua applicazione pratica. Mai legge, a dispetto dello scontro istituzionale che ne ha preceduto il varo, è entrata in vigore così rapidamente e ha prodotto effetti così vasti e duraturi. E mai la volontà del legislatore è stata così prontamente accolta dal mercato. Una straordinaria sintonia.

Per usare una celebre espressione di Umberto Bossi un “idem sentire” incredibilmente armonico. Come se gli attori del mercato della comunicazione, del sistema televisivo, l’avessero studiata in anticipo quella legge. Con una tale attenzione che potrebbe far sorgere il dubbio, sicuramente infondato, che qualcuno se la sia scritta direttamente. In casa. Malignità degli outsider.

È il mercato, bellezza

Ma non c’è dubbio che la Gasparri rappresenti una best practice. In pochi mesi Mediaset si è mossa sul mercato del digitale terrestre acquistando i diritti criptati per le dirette casalinghe di Juventus, Milan e Inter, che verranno offerte grazie a una carta prepagata a due euro l’una.

“Questo è il mercato, bellezza”, avrebbero esclamato i difensori ministeriali della legge a lungo osteggiata da Carlo Azelio Ciampi. Una risposta a tutti coloro che protestavano per la mossa, sicuramente tempestiva, del gruppo di proprietà del presidente del Consiglio e ormai gestito, con grande abilità va riconosciuto, da suo figlio Pier Silvio.

Peccato che gli stessi che difendono la libertà, di chi è forte e conosce il mercato, di muoversi liberamente siano gli stessi che in altri settori dell’economia invocano l’intervento dello Stato, hanno nostalgia della Cassa del Mezzogiorno e sostengono che il metodo Alitalia, ovvero procrastinare il destino di una compagnia sprecando ancora denaro pubblico, sia un esempio virtuoso nel rapporto fra politica ed economia. Peccato.

E peccato ancora che quella carta prepagata per il digitale terrestre sia stata studiata e messa a punto nei laboratori della Rai, l’operatore del servizio pubblico, il cui consiglio d’amministrazione è territorio di caccia delle forze di governo e di strage intellettuale di molti personaggi, alcuni di spicco e di grande qualità professionale e morale. E pensare che la Rai entrò a suo tempo come socio in Telepiù, facendosi pagare e non poco in cambio di un pacchetto di canali. Con una semplice autorizzazione e ora assiste impotente allo sviluppo di una sua ricerca. Lo ha bene notato sul Sole-24Ore Marco Mele, il quale non ha mancato di sottolineare come sia virtualmente cambiata la natura del digitale terrestre: da piattaforma gratuita e, in qualche modo, alternativa alla televisione generalista, a nuovo terreno di sfida e di conquista perché abbondante di spazi pubblicitari appetiti dall’utenza (grazie al calcio, vero driver dell’espansione televisiva).

Dunque, Publitalia avrà un’offerta aggiuntiva da proporre ai suoi grandi clienti e potrà ulteriormente, come gli consente la legge, allargare la propria quota di mercato.

La Gasparri e la pubblicità

Ma proprio sul mercato pubblicitario sta accadendo qualcosa di assolutamente inedito che dovrebbe preoccupare fortemente gli editori di carta stampata.

Per la prima volta una fase di ripresa degli investimenti pubblicitari, che difficilmente torneranno ai valori dell’anno 2000, vede quotidiani e periodici continuare a soffrire sugli spazi e sulle tariffe.

La televisione, e in particolare le reti del Cavaliere, viaggiano secondo gli ultimi dati, con un tasso di crescita a due cifre, rispetto all’anno scorso, mentre la carta stampata annaspa, nel migliore dei casi registra un progresso fra il due e il quattro per cento. Colpa dei costi contatto? Colpa delle difficoltà in cui versano quotidiani e periodici? Della migliore qualità della programmazione? Forse. Ma è anche vero che le reti generaliste, e in particolare quelle Mediaset, possono ormai espandersi senza limiti. I problemi di affollamento, importanti per misurare l’efficacia della pubblicità, sembrano non esistere più. I palinsesti televisivi sono in overbooking pubblicitario fino a ottobre. Una volta l’estate era un periodo di magra per gli spot. Non è più così. Una volta il medio-piccolo investitore pubblicitario non andava in televisione e riteneva più conveniente per la propria comunicazione apparire sui mezzi tradizionali. Oggi la rete della pubblicità televisiva, in crescita bulimica, prende tutto: pesci grandi e pesci piccoli. E i grandi, i cosiddetti big spender, pensiamo soltanto alle case automobilistiche, preferiscono concentrare i propri investimenti sulla televisione.

È diventata di colpo così efficace? Forse, certo molti imprenditori e amministratori delegati hanno capito che l’investimento pubblicitario può avere anche un dividendo, diciamo così, politico. E non c’è da biasimarli: nell’ottica di massimizzare il rendimento del loro investimento compiono senza dubbio la scelta migliore. La più razionale. E molti di loro redigono un conto economico in cui l’andamento delle tariffe è cruciale. E le tariffe sono fortemente influenzate da fattori politici. Anche questa è una malignità da outsider, ma forse è un sospetto con una qualche fondatezza.

La Gasparri ha mosso il mercato. E questo è positivo.

Dovrebbe anche favorire la privatizzazione della Rai. Ma sul versante dell’operatore pubblico, anche per colpe sue per carità, non si assiste alla stessa effervescenza progettuale che si registra su quello privato. Tutt’altro. E pensare che proprio dopo le dimissioni del ministro dell’Economia, Giulio Tremonti, e l’interim di Berlusconi, palazzo Chigi è diventato direttamente l’azionista di Rai Holding. E noi cittadini che paghiamo il canone saremmo particolarmente felici che, al di là delle riconosciute capacità manageriali del direttore generale di viale Mazzini, l’azienda pubblica ricevesse qualche buon consiglio da parte del suo azionista diretto che il mercato televisivo conosce come le proprie tasche.

Non solo la tv va bene, sotto il profilo pubblicitario, ma anche la radio. Ed ecco muoversi a poche settimane dall’approvazione della Gasparri, la Mondadori, uno dei primi gruppi editoriali del paese che ha manifestato la propria intenzione di entrare nel mercato della radio con un’offerta per acquisire Radio 101. Tutto bene. Naturalmente in questo caso va sottolineato che la mia è un’opinione di parte, lavorando io in Rcs-Mediagroup (1).

Ecco perché sostengo che la Gasparri rappresenti uno straordinario benchmark legislativo. Lo dico senza ironia. Mi sarebbe piaciuto che lo stesso grado di attenzione e di compattezza politica fosse stato riservato anche ad altri temi, all’economia per esempio. E forse non ci saremmo trovati a questo punto. Con il dubbio rovente che i conti pubblici siano stati falsati e che le promesse fatte al paese siano ormai accantonate. Se ai temi che interessano il futuro del paese fosse stato dedicato soltanto un decimo del tempo che hanno richiesto la Gasparri o la Cirami, staremmo tutti meglio. Come paese. Ma quelli forse erano interessi diffusi, pubblici. Gli altri erano interessi un po’ più privati. E dunque meritevoli di maggior riguardo.

Buon compleanno a lavoce.info

Così, buon compleanno a lavoce.info. Non è vero che in questo paese di voci ce ne siano poche. Ce ne sono ancora tante e libere. Ma ce ne vorrebbero molte di più. Il pluralismo esiste ancora. Non viviamo in alcun regime. Ma purtroppo assistiamo a una lenta deriva e a una progressiva assuefazione all’idea che l’informazione debba essere schierata, strumentale, ancillare e direttamente soggetta agli interessi dei proprietari. Non parlo solo del Cavaliere e non mi riferisco solo a questa maggioranza. Le voci libere danno fastidio. Eppure se qualcuno obnubilato dal potere le avesse ascoltate non si troverebbe oggi in fondo al baratro. E anche l’Italia starebbe un po’ meglio.

(1) E la mia è un’opinione strettamente personale.

Va in onda la Gasparri, di Marco Gambaro

Dopo un tormentato, ma accelerato, iter di discussione la legge Gasparri è stata pubblicata in Gazzetta ufficiale nella sua versione definitiva.
Si tratta di una legge che tocca molti punti, con diversi interventi condivisibili.

Dalle tv locali alla privatizzazione della Rai

È condivisibile, ad esempio, l’articolo 8 quando amplia da sei a dodici ore lo spazio di interconnessione nazionale per le emittenti locali e consente loro di raccogliere pubblicità nazionale. Si pongono così le prime basi per il progressivo superamento di una situazione che le rende quasi insignificanti nel panorama televisivo. Anche se, per favorirne la crescita, sarebbe stato meglio consentire il possesso di stazioni in mercati diversi, invece di aumentare fino a tre il numero di emittenti che un soggetto può possedere nello stesso bacino di utenza.
Una parte rilevante della legge è dedicata alle procedure di nomina del consiglio d’amministrazione Rai e alla sua privatizzazione.
Sul primo punto, occorre prendere atto che finora l’influenza politica sulla Rai e sulla scelta dei dirigenti è stata assolutamente indipendente dai criteri di nomina via via adottati.

La privatizzazione ipotizzata dalla legge Gasparri non prevede, però, interventi strutturali che allontanino l’influenza dei partiti dalla televisione pubblica. E l’idea di vendere una minoranza del capitale azionario con quote che non possono superare il 2 per cento, senza modificare la struttura saldamente duopolistica del mercato televisivo, sembra un esempio da manuale di come non cogliere i vantaggi della privatizzazione. Se non quello, meramente finanziario, di scaricare sui piccoli risparmiatori i rischi di un’azienda dalla redditività incerta e in cui le possibilità di controllo degli azionisti sono modeste.

Il caso delle telepromozioni

Aumenta lo spazio per le telepromozioni, soprattutto per Mediaset, con un approccio che allontana l’Italia da diversi altri paesi europei. (1)
Ma la norma non modifica la struttura del mercato né è in grado di sottrarre quote ad altri mezzi.
Le ragioni della limitata raccolta pubblicitaria di quotidiani e periodici vanno cercate nella ridotta diffusione della stampa in Italia più che nel potere di mercato della televisione. Se si effettuano confronti internazionali considerando i ricavi pubblicitari per copia, si scoprono indicatori abbastanza omogenei tra i vari paesi: sembrano mostrare come sia possibile conquistare investimenti pubblicitari, una volta raggiunti i lettori.

Tra Sic e digitale terrestre

Il problema della struttura del mercato – limitazione o riduzione della concentrazione e aumento dei concorrenti e delle voci disponibili – ha implicazioni sia economiche che politiche.
La legge Gasparri lo affronta con la definizione del Sic (sistema integrato delle comunicazioni, di cui nessun operatore può controllare più del 20 per cento) e la promozione accelerata della televisione digitale terrestre.
Il Sic è stato ridotto con la riscrittura della legge, in seguito al rinvio alle Camere da parte del presidente della Repubblica. Sono stati eliminati dal perimetro libri e pubbliche relazioni e corrette alcune vistose ingenuità.
Per esempio, l’avervi compreso all’inizio le agenzie di stampa, le produzioni televisive e le produzioni cinematografiche: tutti mercati intermedi che entrano rispettivamente nel fatturato di giornali, televisioni e sale cinematografiche, e dunque erano banalmente contati due volte.
In questo modo, il Sic raggiunge una dimensione di circa 22 miliardi di euro.
Una quota del 20 per cento corrisponde a 4,5 miliardi di euro: cifra opportunamente al di sopra di quella attuale dei maggiori operatori (Rai 3 miliardi, Mediaset 4 miliardi, Rcs per ora 2,3 miliardi).

Il Sic non è un mercato rilevante nel senso comunemente inteso dall’economia industriale e dalle autorità antitrust. Si tratta piuttosto di un aggregato arbitrario, di una convenzione dove conta solo il prodotto tra perimetro complessivo e quota consentita. E la combinazione scelta non è stringente per nessun operatore presente sul mercato, nonostante in diversi mercati delle comunicazioni si registrino tassi di concentrazione assai elevati: in quello televisivo nazionale, nella televisione a pagamento, nelle directory o in molti mercati locali dei quotidiani.
La televisione digitale terrestre rappresenta un’innovazione di sistema perseguita da molti paesi. Per la sua inevitabilità tecnologica, e perché utilizzando in modo più efficiente lo spettro elettromagnetico, permette alternativamente di aumentare il numero di canali o di destinare parte delle frequenze televisive ad altri utilizzi.
La legge italiana progetta una transizione accelerata soprattutto per ovviare all’obbligo imposto dalla norma precedente e dalla Corte costituzionale di spostare Rete 4 sul satellite e di togliere la pubblicità a Rai 3.
Purtroppo, la concentrazione del mercato televisivo è legata alle economie di scala nei programmi più che alla scarsità di frequenze: appare probabile che i nuovi canali trasmessi sul digitale terrestre si limitino ad aumentare il numero teorico dei canali e non riescano a erodere le quote di mercato degli incumbent. (vedi lavoce.info del 03-07-2003)

Nel segno della continuità

Nell’insieme si tratta di misure che non sembrano in grado di perseguire una riduzione della concentrazione nel mercato televisivo. Vi è cioè un’incoerenza tra finalità dichiarate e strumenti utilizzati.
Va detto però che su questo terreno la Gasparri mantiene una forte continuità con le altre leggi sulla televisione promulgate negli ultimi vent’anni, che si occupano di molte cose per lasciare sostanzialmente invariata la struttura del settore, caratterizzato da un duopolio dove i due operatori controllano circa il 90 per cento del mercato di riferimento. Ha un approccio comune con la legge Mammì del 1990 e la legge Maccanico del 1997, peraltro emanate da Governi diversi.

Nonostante le polemiche, l’Italia è solo parzialmente un’anomalia nel contesto televisivo europeo. In Germania i primi due operatori controllano il 68 per cento degli ascolti, in Gran Bretagna il 60 per cento, in Francia il 71 per cento. Si tratta ovunque di tassi di concentrazione elevati, ma inferiori all’89 per cento italiano. In questi altri paesi vi è spazio normalmente per almeno tre-quattro gruppi televisivi significativi, più gli operatori della pay-tv.
Un accettabile grado di concorrenza nel settore televisivo è rilevante per il buon funzionamento degli altri mercati, attraverso la pubblicità, ma anche per il buon funzionamento del sistema politico perché ormai i cittadini ricevono gran parte delle informazioni proprio dalla televisione.
Dunque, è probabile che la legge Gasparri sia solo una tappa provvisoria nella costruzione di un assetto accettabile del sistema televisivo italiano.
Si continuerà inevitabilmente a parlare di questo tema: sarebbe opportuno farlo con meno ideologia, meno preconcetti ma con più dati oggettivi, più confronti internazionali, con profondità e consapevolezza crescenti.

(1) In Francia le telepromozioni non sono consentite nei programmi e in Germania rientrano nella normativa generale sugli spot.

Par condicio con l’handicap, di Nicola Lacetera e Mario Macis

La legge sulla par condicio regolamenta l’attribuzione degli spazi televisivi ai partiti e ai candidati nelle campagne elettorali, per garantire parità di accesso ai mezzi di informazione.
Il presidente del Consiglio Silvio Berlusconi ha annunciato di voler modificare la legge. Il vicepremier Gianfranco Fini ha affermato che “non è certo una provocazione pensare di attribuire a ciascun partito uno spazio diverso in base alla sua forza elettorale”. Fini e Berlusconi ritengono dunque che spazi maggiori dovrebbero essere attribuiti a partiti con più peso in Parlamento.

L’handicapping applicato alle campagne elettorali

In un paese democratico i cittadini debbono essere messi nelle condizioni di scegliere la forza politica per cui votare in maniera consapevole. Devono quindi essere a conoscenza delle alternative disponibili. Le forze politiche devono essere incentivate a fornire informazioni veritiere e sostanziali sulle proprie posizioni e i propri programmi.
Se accettiamo queste premesse, e più in generale l’esigenza di garanzia del pluralismo nelle competizioni elettorali, l’impostazione di riforma della legge sulla comunicazione elettorale suggerita da Fini e Berlusconi non è necessariamente quella corretta.
Per capire perché consideriamo cosa avviene negli Stati Uniti in diverse competizioni sportive.

Negli incontri di golf non professionistici, ma anche nelle corse di cavalli, nel baseball o nel basket, è molto comune la pratica di assegnare un certo svantaggio ai giocatori più dotati. Per esempio, nelle corse di cavalli i fantini più leggeri sono caricati con del peso extra. Nel golf, i giocatori più bravi partono con alcuni punti di svantaggio. Queste pratiche, cosiddette di handicapping, pongono il giocatore più dotato in condizioni iniziali più simili rispetto a quello meno dotato.
Quando i valori in campo sono in partenza squilibrati in favore di una parte, per cui il risultato dell’incontro è scontato, la competizione perde di interesse per il pubblico, perché tanto il giocatore più dotato quanto quello meno dotato non sono incentivati a giocare al meglio delle loro possibilità: il primo perché è sicuro di vincere, e il secondo perché certo di perdere. Nel rendere la competizione più equa, l’handicapping fornisce più stimoli a tutti i contendenti.

Recentemente, un filone di letteratura economica ha discusso l’utilità delle pratiche di handicapping nelle imprese, per le promozioni dei manager a posizioni gerarchiche superiori.
È possibile trasferire la logica dell’handicapping dal mondo dello sport (e dell’impresa) a quello delle competizioni elettorali, dove si applica forse ancor meglio.
Nelle campagne elettorali, l’utilità per i cittadini di rafforzare posizioni precostituite non è per nulla scontata. Al contrario, nelle democrazie compiute l’esigenza di garantire effettiva parità di condizioni ai partiti e ai candidati dovrebbe essere ben superiore a quella di garantire parità di condizioni in un incontro di golf, dal quale dipendono le emozioni dei tifosi, ma non certo le sorti di un paese.
Ora, dal momento che la maggioranza in Parlamento, proprio per il suo ruolo di governo, gode di una maggiore esposizione mediatica tra una legislatura e l’altra, la logica dell’handicapping attribuirebbe più spazi ai partiti meno rappresentati in Parlamento: l’esatto contrario rispetto a quanto suggerito da Berlusconi e Fini.

In tal modo, non solo la competizione partirebbe da basi più eque, ma sarebbe anche più ricca e vivace.
La maggioranza sarebbe stimolata a impegnarsi di più sulla qualità dei messaggi di propaganda (sostituendo qualità per quantità). L’opposizione, sapendo di avere spazi a sufficienza per presentare le proprie, sarebbe spronata a farlo. Al contrario, laddove si attribuissero gli spazi in base ai risultati delle passate elezioni, sarebbe lo status quo a prevalere, e ci sarebbero meno incentivi a cambiare, con una perdita secca per i cittadini.
Inoltre, con un esito elettorale più incerto, il voto del singolo cittadino diventa più influente, e ciò stimola la partecipazione al voto. È noto che nelle democrazie “bloccate” e laddove il risultato delle elezioni è più scontato, l’assenteismo degli elettori è maggiore.

Uguaglianza di condizioni

La proposta di modifica della legge sulla par condicio nella direzione accennata dal presidente del Consiglio e dal suo vice può essere giustificata con la volontà di creare un disincentivo all’eccessiva proliferazione di sigle politiche. Privilegiare le forze esistenti, in un regime democratico, può anche rappresentare un argine contro l’emergere di forze non democratiche.
Tuttavia, argomenti altrettanto validi spingono esattamente nella direzione opposta. Al punto che potrebbe essere più opportuno offrire maggiori spazi (rispetto alla loro forza elettorale) ai partiti minori e a quelli di opposizione, nonché garantire una qualche visibilità alle nuove formazioni.
Infatti, la realtà socio-politica di un paese (specie se democratico e pluralistico) è intrinsecamente dinamica. Nuovi gruppi ed esigenze emergono continuamente. Importanti eventi e processi storici possono sostanzialmente modificare le posizioni e le attitudini dei cittadini, con profondi effetti sulla competizione politico-elettorale.

Si considerino, ad esempio, la fine dei regimi comunisti, e le inchieste giudiziarie su “Tangentopoli” nei primi anni Novanta: questi eventi hanno cambiato il panorama politico italiano. Tale cambiamento (compresa la nascita del partito “Forza Italia”) sarebbe stato ostacolato da regole della comunicazione elettorale basate sul peso storico delle forze politiche.
Garantire uguali spazi a tutte le forze appare coerente con un criterio intuitivo di uguaglianza delle condizioni di partenza. Dalle considerazioni esposte in precedenza, la par condicio può anche essere considerata come una soluzione di compromesso virtuoso fra argomenti che spingono verso soluzioni opposte per la distribuzione degli spazi televisivi ai partiti in campagna elettorale.
In ogni caso, se le regole sulla par condicio devono essere riviste, la riflessione dovrà essere ben più profonda e complessa della semplice logica proposta da Berlusconi e Fini.

Si tenga conto, infine, che con questi argomenti si è “finto” di parlare di un paese in cui vi sia effettiva separazione tra i poteri economico, mediatico e politico. Se accade, come in Italia, che il partito politico che guida la maggioranza di Governo controlla attraverso il suo leader larga parte dei mezzi di comunicazione televisiva, la situazione è assai più complicata e delicata, e l’handicapping attribuito ai partiti di Governo dovrebbe essere ancora più forte.

Oro nero, anno buio

Sommario a cura di Marzio Galeotti

Il 2004 sarà ricordato come l’anno del petrolio. Il suo prezzo in termini nominali ha raggiunto i massimi di tutti i tempi. L’andamento delle quotazioni ha preoccupato le nazioni sotto il profilo economico e politico,tanto da riportare alla ribalta il quasi dimenticato timore di essere vicini al suo esaurimento. Al di là delle implicazioni contingenti, forte è stato lo stimolo ad interrogarsi su cosa questi eventi in realtà implicano per la nostra civiltà basata sull’uso dell’energia soprattutto di fonte fossile. Con rinnovata attenzione e preoccupazione per gli aspetti ambientali.

Petrolio senza alternative, di Marzio Galeotti

Le turbolenze sul mercato del greggio rendono opportuna qualche pacata riflessione sugli scenari energetici futuri.
La persistente crescita del prezzo del petrolio ripropone infatti la questione della sostenibilità dell’attuale modello di sviluppo, crucialmente basato sul consumo di fonti fossili di energia. Ma mentre la preoccupazione generale è, come sempre, concentrata sugli effetti di breve periodo su crescita e inflazione, resta ancora scarsa l’attenzione dedicata a questioni di fondo come le opzioni energetiche possibili per le prossime decadi.

Tutta questione di prezzo

Gli esperti concordano sul fatto che il petrolio, o più in generale le fonti fossili di energia, saranno in giro ancora per parecchio tempo. Dagli anni Settanta a oggi, la preoccupazione ambientale-climatica si è affermata e ha portato a politiche di regolamentazione. Ma resta ancora vero che il maggiore fattore di risparmio energetico è l’aumento del prezzo del petrolio: è questo l’elemento che induce e ha indotto una riduzione dell’intensità energetica dei processi produttivi, e come tale ha contribuito a contenere le emissioni di gas-serra. Altrettanto vero è che nessuna nuova opzione energetica su larga scala, in particolare nel campo della generazione elettrica, la più energivora delle attività produttive, è stata introdotta negli ultimi trent’anni. Se si eccettua il nucleare. (1)

Quanto alle fonti rinnovabili, Chip Goodyear, amministratore delegato di Bhp Billiton, società globale attiva nel settore delle risorse naturali, ha dichiarato al recente World Energy Congress di Sydney, che le fonti energetiche verdi resteranno relativamente insignificanti almeno per i prossimi venti anni. Le previsioni dicono che i combustibili fossili saranno l’87 per cento delle fonti primarie di energia, un punto percentuale in più di oggi. Sulla scia della corsa del prezzo del petrolio di quest’anno infatti non saranno probabilmente intrapresi investimenti in rinnovabili: i prezzi dell’oro nero dovranno restare alti a lungo perché qualcosa cambi. “L’industria ha bisogno di altre brutte notizie dal prezzo del petrolio perché si sposti sulle fonti rinnovabili”, sostiene Andrew Oswald, professore di Economia all’università di Warwick. Una recente pubblicazione dell’Iea, l’agenzia internazionale dell’energia dell’Ocse, nota che la quota di finanziamento pubblico alla ricerca e sviluppo in campo energetico destinata alle rinnovabili è decrescente, in contraddizione con le asserite intenzioni di molti governanti dei paesi sviluppati. (2)

Le fonti rinnovabili nel mondo

Nel mondo, le rinnovabili coprono solo il 2,1 per cento degli usi energetici. Ciò nonostante molti paesi si stanno muovendo: il ministro dell’Industria spagnolo ha annunciato lo scorso agosto l’obiettivo di accrescere del 12 per cento entro il 2010 la quota delle rinnovabili sul consumo primario di energia, particolarmente energia solare e produzione di biodiesel. Così il governo giapponese ha predisposto un piano per l’incremento dell’uso delle biomasse con obiettivi specifici di aumento della generazione elettrica al 2010. (3) Gli inglesi, sempre entro il 2010, dovrebbero produrre con fonti rinnovabili il 10 per cento dell’elettricità. Questa quota è già pari al 20 per cento in Danimarca, soprattutto energia eolica. (4) L’Energy Information Administration statunitense ha simulato gli effetti della proposta McCain-Lieberman di introdurre un tetto alle emissioni di gas-serra sulla quantità di rinnovabili utilizzate: nel 2025 esse sarebbero il doppio di quanto proiettato nel caso di assenza del tetto. Infine, il nostro paese ha introdotto l’obbligo per i produttori di elettricità di garantire a partire dal 2002 una quota pari al 2 per cento della generazione termoelettrica con nuova elettricità generata da fonti rinnovabili.
Tutto bene, dunque? Non proprio, come mostra il fatto che la Commissione europea ha deciso alcuni mesi fa di abbandonare gli obiettivi di produzione di energia a mezzo di rinnovabili fissati per il 2010 (12 per cento nei paesi Ue-15 e 21 per cento nei paesi Ue-25), in quanto non raggiungibili, e ha rinunciato per il momento a fissarne dei nuovi per il 2020. Una brutta figura addebitata ai responsabili dei paesi membri che non hanno mostrato la capacità e la determinazione di voler raggiungere gli obiettivi prefissati. Se ne riparlerà nel 2007.

Tempi lunghi per l’idrogeno

In sostanza, non pare al momento esservi alternativa che, in termini di tempo, costi e quantitativi, possa sostituire l’oro nero in tempi ragionevoli. Dei nuovi sistemi energetici ipotizzati all’indomani del primo shock petrolifero, dalla fusione e fissione nucleare, dai bio-carburanti alle varie fonti rinnovabili – solare, geotermico, eolico, biomasse – nessuno è emerso come l’alternativa con la “a” maiuscola.
Pensare all’idrogeno, e alle automobili con celle a combustibile, significa adottare un orizzonte che parte dal 2035 in poi. Diceva Scientific American del maggio 2004: “Ci si può aspettare che lo sviluppo di auto con celle a combustibile, al contrario delle cosiddette ibride, proceda secondo gli stessi tempi del volo umano su Marte progettato dalla Nasa e che abbia lo stesso grado di probabilità”.


(1) Queste considerazioni sono contenute, e ampiamente argomentate, in “The Outlook for Energy Three Decades After the Energy Crisis”, lavoro presentato da uno dei massimi esperti mondiali, William D. Nordhaus, all’International Energy Workshop di Parigi dello scorso 22-24 giugno 2004. Il paper è scaricabile dall’indirizzo www.iiasa.ac.at/Research/ECS/IEW2004/docs/2004A_Nordhaus.pdf.

(2) Questo aspetto è messo chiaramente in evidenza in una recente pubblicazione della IEA-AIE, Renewable Energy – Market and Policy Trends in IEA Countries, Parigi: IEA, 2004.

(3) Si veda il recente rapporto dell’Ocse, Biomass and Agriculture: Sustainability, Markets and Policies, Parigi: OECD, 2004.

(4) A parte considerazioni di costo, le varie fonti rinnovabili non presentano solo vantaggi. La produzione di nuova energia idroelettrica ed eolica, per esempio, reca con sé rilevanti problemi di impatto ambientale. Sulla seconda si veda l’interessante articolo “Ill winds”, The Economist del 29 luglio 2004.

L’utile sequetro del carbonio di Raffaella Bordogna

Numerosi progetti nazionali e internazionali stanno attualmente verificando un approccio alternativo alla risoluzione del problema dei cambiamenti climatici: il sequestro geologico di anidride carbonica.

Come avviene il sequestro

Si tratta di una attività di riduzione delle emissioni di gas serra che comporta la cattura da fonti industriali della CO2, un gas inerte e non tossico a basse concentrazioni, e la successiva immissione in formazioni geologiche appropriate, come i giacimenti di petrolio e gas naturale, esauriti oppure ancora in uso, le formazioni geologiche porose sature di acqua salata (i cosiddetti acquiferi salini) e i giacimenti carboniferi profondi. Qualche anno fa, veniva considerata anche la possibilità di immettere CO2 negli oceani a grandi profondità, ma tale alternativa è stata abbandonata per l’incertezza degli effetti di un’aumentata acidità delle acque sugli ecosistemi marini.
Per avere successo la tecnica di sequestro geologico della CO2 deve soddisfare tre requisiti:
– deve essere competitiva in termini di costi rispetto alle attuali alternative per il contenimento dei gas serra, quali le fonti rinnovabili e i miglioramenti di efficienza dei processi di produzione
– deve garantire uno stoccaggio nel sottosuolo stabile e di lungo termine
– deve essere ambientalmente compatibile.

Dal punto di vista economico, vi è ancora molta incertezza sulla determinazione dei costi nelle varie situazioni operative. Le esperienze sinora effettuate e gli scenari studiati lasciano intendere che i costi possono variare anche significativamente da una situazione all’altra, andando da qualche decina di euro per tonnellata fino a 100 euro/tonnellata. Fonti Iea indicano un costo complessivo compreso tra 9 e 49 euro/tonnellata CO2.
Quel che è certo è che l’immissione di CO2 in giacimenti di petrolio o gas naturale per il recupero assistito, rappresenta la migliore opportunità di sequestro a bassi costi se si considerano i ricavi dovuti al recupero di petrolio o gas. Tale attività (la cosiddetta Eor, Enhanced Oil Recovery) ha una duplice funzione: garantisce evidenti vantaggi ambientali, perché riduce le emissioni di gas serra in atmosfera, e aumenta la produzione di idrocarburi in quei giacimenti dove la pressione esistente non ne consente una adeguata fuoriuscita. Gli Stati Uniti sono i leader mondiali nella tecnologia Eor e utilizzano circa 32 milioni di tonnellate anno di CO2 a questo scopo. (1) Tra i vari progetti merita una citazione quello di Weyburn in Canada: grazie al sequestro permanente di circa 20 milioni di tonnellate di CO2 durante l’intero progetto sarà possibile produrre almeno 130 milioni di barili di petrolio incrementale, il che estenderebbe la vita residua del giacimento di circa 25 anni.

I rischi

Molto è stato scritto sugli effetti connessi all’esposizione di esseri viventi alla CO2. A basse concentrazioni (1 per cento in volume), l’anidride carbonica non ha effetti dannosi sugli esseri umani e sugli ecosistemi, anzi è indispensabile per alcuni processi vitali quali la fotosintesi. Per esempio, in alcune serre l’aumento del tasso di CO2 è voluto, per accelerare la crescita delle piante. È invece letale per l’uomo, perché può causare asfissia, una concentrazione di CO2 dell’ordine del 10 per cento in volume.
Nel sequestro geologico le concentrazioni elevate di CO2 in atmosfera possono essere correlate a due ordini di problemi: fuoriuscite di CO2 durante le fasi operative volte alla cattura, trasporto e iniezione nel sottosuolo e rilascio in atmosfera dal sito di stoccaggio.
Sul primo punto si può affermare con certezza che la cattura, il trasporto e l’iniezione di CO2 sono pratiche ben testate nel settore petrolifero e si avvalgono di tecnologie all’avanguardia. Gli incidenti più frequenti sono dovuti a rotture nei tubi o nei pozzi di iniezione, ma la fuoriuscita di CO2 in questi casi è trascurabile per la presenza di opportune valvole di sicurezza che interrompono il flusso di gas al variare della sua pressione. Anche il rischio di corrosione dei tubi che può provocare fuoriuscite incontrollate di CO2 è stato aggirato grazie all’utilizzo di moderni materiali anticorrosivi. Adottando pertanto le opportune pratiche di sicurezza, già ampiamente in uso per il trasporto del gas e del petrolio, i rischi nella fase operativa possono essere decisamente contenuti.
Minore è l’esperienza sul rilascio di CO2 dal sito di stoccaggio. Le uniche considerazioni che possono essere fatte riguardano eventi naturali del passato. In natura, infatti, esistono già migliaia di depositi di CO2 nel sottosuolo e le fuoriuscite più cospicue sono perlopiù correlabili ad attività vulcaniche. Esempi eclatanti sono il monte Kilaua alla Hawaii, che emette circa 1,4 milioni di tonnellate l’anno di CO2, e l’eruzione del 1991 del monte Pinatubo, nelle Filippine, in cui furono emesse 42 milioni di tonnellate di CO2. Entrambi gli eventi non si sono dimostrati letali per gli esseri viventi dal momento che i fattori di dispersione in atmosfera hanno contribuito ad attenuare le concentrazioni di CO2 al suolo.
Si intuisce pertanto che la CO2 può diventare pericolosa solo se il suo rilascio avviene molto rapidamente e in spazi confinati. Ma sono caratteristiche ben lontane da quelle delle attività di stoccaggio nel sottosuolo: il pozzo per l’iniezione di anidride carbonica tende a disperdere la CO2 nella formazione geologica, non a concentrarla, e le eventuali perdite nella riserva sotterranea sono lente e diffuse. Qualsiasi rischio connesso allo stoccaggio può comunque essere minimizzato sviluppando i migliori criteri per la scelta del sito più opportuno.

I vantaggi per l’ambiente

Quanto alla compatibilità ambientale, il sequestro geologico, appare la soluzione che più di altre è in grado di assicurare le consistenti riduzioni delle emissioni e stabilizzare così la concentrazione della CO2 in atmosfera sui livelli giudicati ottimali per non gravare sui meccanismi che presiedono al controllo del clima. Le indagini fino ad ora condotte sull’argomento, hanno evidenziato che vi sono grandi capacità di stoccaggio della CO2 nel sottosuolo. Secondo fonti Ipcc, i volumi disponibili su scala mondiale nei campi a olio e gas depletati consentirebbero lo stoccaggio di 1830 GtCO2eq, un volume pari alla produzione mondiale di CO2 dei prossimi venticinque anni, stimata di 1800 Gt. E ben superiore sembra essere il potenziale di stoccaggio offerto dagli acquiferi salini, stimato maggiore di 3600 GtCO2eq.


(1) Fonte DOE 2003

Un futuro di gas, carbone e nucleare, di Marzio Galeotti

Se eliminare, o quanto meno ridurre, le emissioni nocive a monte, passando a fonti energetiche pulite non è possibile, ecco che l’interesse si sposta a valle, sulla fattibilità di eliminare, o quanto meno ridurre, le emissioni della combustione delle fonti fossili.

Torna il carbone

Si parla molto per esempio dell’opzione della cattura e sequestro del carbonio prodotto dal processo di combustione. In sostanza, si tratta di un processo a due stadi mediante il quale il gas (essenzialmente l’anidride carbonica) viene dapprima estratto dalla macchina che brucia il combustibile fossile (la “cattura”) e successivamente immagazzinato in apposite sedi da cui non può più scappare (il “sequestro”). La prima fase è la più costosa anche perché va prevista fin dalla costruzione dell’impianto di produzione dell’energia, anche se esistono soluzioni che consentono l’adattamento di impianti esistenti. (1)
Interessante è notare che questa opzione di breve termine riporta in gioco anche la più inquinante delle fonti fossili: il carbone, minerale di cui paesi abbondano come la Cina, l’India e il Sud Africa, che non intendono rinunciarvi perché alimenta il loro processo di sviluppo.
Naturalmente, anche i paesi industrializzati si attivano su questo fronte: nel 2003 è partito il Carbon Sequestration Regional Partnership Program patrocinato dal ministero dell’Energia americano. Mette in rete Stati, governo federale e settore privato con il compito di raccomandare nel giro di due anni soluzioni tecnologiche (aspetti tecnici, regolatori e infrastrutturali) da sottoporre a validazione su piccola scala. Non a caso questo programma è parte integrante della politica energetica del presidente Bush. In Europa, il governo britannico ha lanciato una consultazione sulle tecnologie di abbattimento del carbonio che guardi allo sviluppo di metodi di cattura e sequestro, anche dialogando con i norvegesi, in quanto i pozzi esauriti di petrolio e gas del Mare del Nord potrebbero fungere da depositi di carbonio. Infine, va segnalato un piano internazionale per sviluppare e promuovere la cooperazione sul recupero e uso del metano, cui partecipano Australia, Giappone, India, Italia, Messico, Regno Unito, Ucraina e Usa.

Senza dimenticare il nucleare

Da qualche tempo, però, i riflettori si sono riaccesi sull’altra opzione attualmente utilizzata, quella nucleare. La sua quota è aumentata rapidamente fino agli anni Novanta, ma da allora è rimasta attorno al 17 per cento di tutta l’elettricità generata. Perché aumenti in misura significativa deve superare due test, come osserva William Nordhaus dell’Università di Yale, esperto di questioni energetiche e ambientali.
Il primo è convincere le scettiche opinioni pubbliche che il nucleare è sicuro. Sulla necessità del nucleare, scienziati, governanti e dirigenti del settore energetico da qualche tempo mostrano di non avere dubbi. Non ne ha la (ex) commissaria europea all’Energia Loyola de Palacio, che sottolinea invece il problema della sicurezza degli approvvigionamenti energetici. Anche il governo spagnolo, dopo avere chiuso il reattore più vecchio, incrementerà l’output del nucleare esistente. E il Regno Unito mette l’accento sul problema ambientale: per raggiungere il target di emissioni di gas-serra, metà dell’elettricità inglese dovrà provenire dal nucleare, quando oggi ne provvede solo un quinto. Infine l’Italia, dove il ministro Antonio Marzano o l’amministratore delegato di Enel Scaroni non fanno mistero della necessità di rivedere le nostre decisioni in materia di energia nucleare, che non produciamo più, ma che comunque continuiamo a importare, soprattutto dalla Francia.

È però l’altro test che desta attenzione crescente: la sicurezza delle centrali nucleari.
Timori per nuove Chernobyl (quello che fu, non quello che è oggi, che è altra cosa e probema) o Three Mile Island sono oggi, secondo gli esperti, fuori luogo. Con più di 10mila anni-reattore di esperienza al 2004, osserva Nordhaus, le analisi standard di valutazione del rischio dei reattori ad acqua leggera sono risultate largamente accurate.
Ciò che invece genera una crescente preoccupazione è il problema del dirottamento di materiale nucleare verso la produzione di armamenti. Tutti i casi di recente proliferazione di armi atomiche, in Corea del Nord, India, Pakistan per esempio, si sono verificati in paesi che hanno ottenuto il materiale da impianti civili di produzione di energia. E in questo contesto si inserisce il contenzioso in corso tra Iran e l’agenzia internazionale dell’energia atomica. (2)

Le novità possibili

In conclusione, nel prossimo futuro non vi sono alternative alle fonti fossili: è e resta l’opzione preferita, in quanto politicamente accettabile, nella maggior parte delle regioni del mondo. Tanto più che le proiezioni attuali della disponibilità di petrolio e gas non segnalano riduzioni, ma anzi sono state riviste verso l’alto dal 1973 a oggi. Ciò nondimeno, crescono i problemi e le difficoltà connesse al petrolio, riconducibili ai problemi politici di sicurezza dell’approvvigionamento (geograficamente le fonti sono concentrate soprattutto nella regione araba), e ai problemi ambientali, primo fra tutti il riscaldamento globale.
Possiamo aspettarci qualche novità? La prima è appunto il ritorno del carbone, che già alimenta un terzo dell’elettricità inglese, metà di quella tedesca e statunitense, tre quarti di quella cinese e indiana. E la cui estrazione sta tornando a essere un business vantaggioso per la crescente domanda anche di paesi come gli Usa. Inoltre, le tecnologie moderne consentono di ridurre l’impatto ambientale del minerale nero.
L’altra novità che il prossimo futuro probabilmente ci riserva è una significativa sostituzione del petrolio con il gas naturale. I vantaggi importanti sono due: le sue riserve sono meno concentrate geograficamente ed è più pulito. Lo svantaggio è che si tratta di un gas e come tale meno facile da trasportare del petrolio (il sistema dei gasdotti è complesso e perciò non molto ramificato e a lunga gittata). Nonostante lo sforzo finanziario sia ingente, con poche società in grado di sostenerlo, si sta diffondendo la pratica di costruzione di impianti di liquefazione e successiva rigassificazione del Lng (gas naturale liquido). (3)
Spostarsi dal petrolio all’accoppiata carbone-gas certamente avrebbe vantaggi di costo. Secondo la Royal Academy of Engineering (marzo 2004), il costo di generazione di un kilowattora in centesimi di euro è 3,3 nel caso del gas-ciclo combinato con turbina e di 4,2 gas-turbina, di 3,7 nel caso del carbone in polvere e di 6,7 nel caso di carbone in polvere con abbattimento dei fumi. (4)

Forse, non è un caso se il recente decreto governativo che ha autorizzato la costruzione di ventidue nuove centrali elettriche alimentate da combustibili fossili con una capacità complessiva superiore a 11 gigawatts (un terzo in più rispetto all’attuale), prevede che esse bruceranno gas con ciclo combinato, mentre un paio di quelle esistenti saranno riconvertite a carbone o orimulsion, una specie di olio combustibile alquanto inquinante. Naturalmente, c’è da augurarsi che il ritorno nostrano al carbone si accompagni all’adozione delle più moderne tecniche di abbattimento delle emissioni nocive.

(1) Istruttivo è l’articolo “Fired up with ideas”, in The Economist del 6 luglio 2002.

(2) Sul nucleare da segnalare il recente ponderoso studio interdisciplinare del Mit, “The Future of Nuclear Power”, scaricabile all’indirizzo htto://web.mit.edu/nuclearpower/. Sul caso dell’Iran si veda l’esauriente storia “The world of the ideologues” in The Economist del 2 settembre 2004.

(3) Ancora una volta: “The future’s a gas”, The Economist 28 agosto 2004 e “The future is clean”, The Economist 2 settembre 2004.

(4) Traiamo questi numeri da “The cost of generating electricity” rintracciabile all’indirizzo www.raeng.org.uk/news/temp/cost_generation_commentary.pdf.

Il petrolio non brucia la borsa, di Tommaso Monacelli

Quanto è preoccupante per le prospettiva di crescita dell’economia mondiale e per i mercati finanziari l’attuale rialzo del prezzo del petrolio? Il grafico qui sotto mostra l’andamento del prezzo del greggio (prezzo spot del Brent) dal gennaio 1990 a settembre 2004.
Gennaio 1999 sembra segnare una svolta. Mentre prima di questa data il prezzo oscilla costantemente intorno a una media di 20 dollari al barile (con l’eccezione del periodo della guerra del Golfo), successivamente sembra iniziare una transizione verso una media più alta.


Cresce la domanda

Cosa spiega questo possibile mutamento di trend? Come in ogni mercato, anche in quello del petrolio conta l’interazione tra domanda e offerta. Il quadro attuale differisce da quello che causò gli shock petroliferi degli anni Settanta, determinati da restrizioni sul versante dell’offerta.
Il fattore nuovo, che spiega la dinamica dopo gennaio ’99, è la forte accelerazione della domanda proveniente dai paesi asiatici, in primo luogo Cina e India. Questo è un fattore strutturale (non semplicemente ciclico) che ha probabilmente mutato (verso l’alto) il valore medio intorno al quale oscillano le variazioni cicliche del prezzo. Un modo ottimistico di leggere questo dato è che è causato da una forte vivacità dell’economia mondiale, fattore cruciale affinché il gigantesco deficit della bilancia dei pagamenti americana continui a essere finanziato.
In un mercato in cui la domanda preme così tanto sull’offerta, ogni evento che metta a rischio l’espandersi della capacità produttiva provoca una reazione esasperata dei prezzi. Recentemente, gli eventi in Iraq, le turbolenze in Venezuela e Nigeria, l’uragano in Messico hanno avuto precisamente questo ruolo: hanno rallentato la dinamica dell’offerta nel corso del 2004 a fronte dell’impetuosa accelerazione della domanda. A questo sembra aggiungersi una diminuita capacità delle raffinerie americane (attualmente 150 rispetto alle 250 di venticinque anni fa). Ciò impedisce agli Stati Uniti di accogliere l’ultima proposta dell’Arabia Saudita di espandere la produzione (per circa due milioni di barili aggiuntivi al giorno) di una qualità di petrolio considerata inferiore, ma che se correttamente trattata permetterebbe di calmierare un mercato così sensibile a ogni notizia di restrizioni sul versante dell’offerta. Il grafico qui sotto mostra come le scorte mondiali di petrolio abbiano raggiunto un valore storicamente minimo nell’ottobre del 2004, anche se la situazione non è sostanzialmente diversa da quella del minimo raggiunto nel febbraio 2004. (La linea arancione nel grafico mostra il livello mensile delle scorte, mentre la banda azzurra ne mostra la gamma di variazione).

Recessione lontana

Tutto questo deve farci temere effetti recessivi sull’economia mondiale? Un buon modo per misurare le aspettative del mercato riguardo all’andamento futuro del prezzo del petrolio è quello di guardare ai prezzi dei futures sul greggio.



Il grafico mostra l’andamento, da maggio a oggi per il mercato di New York, del prezzo del future di dicembre 2005 (sul Brent). Il trend è in netto rialzo. In sostanza, quello che secondo il mercato sarà il prezzo del greggio nel dicembre 2005 è andato sensibilmente aumentando nel corso di questi ultimi mesi. Si noti però che il prezzo rimane attualmente intorno ai 42 dollari, indicando un probabile rallentamento rispetto al picco attuale di quasi 54 dollari al barile (dato del 12 ottobre 2004) per il prezzo spot.

Riguardo all’impatto macroeconomico dell’andamento del prezzo del greggio, giova poi ricordare tre aspetti. Primo, un indicatore più corretto è quello che converte il prezzo nominale (in dollari) in termini reali (cioè in rapporto all’andamento generale dei prezzi). I valori attuali rimangono lontani dai picchi della fine degli anni Settanta se si introduce questa correzione. Secondo, rispetto agli anni Settanta, la dipendenza dal petrolio delle economie industrializzate si è fortemente ridotta, a favore dell’espansione di una economia di servizi. Terzo, l’accelerazione del prezzo del greggio in quest’ultimo anno rimane sostanzialmente una correzione della forte discesa (sia in termini nominali che reali) degli anni precedenti. È noto da studi empirici che una dinamica di questo genere produce un impatto recessivo molto limitato, rispetto invece ad accelerazioni del prezzo che non intervengono a correggere discese precedenti.

Cosa succede nei mercati finanziari

Una preoccupazione crescente è quella che l’andamento del prezzo del greggio influisca negativamente sulla buona performance dei mercati finanziari. La ragione sembra ovvia. Rialzi del prezzo del petrolio segnalano possibili effetti recessivi futuri oppure potrebbero indurre rialzi dei tassi di interesse da parte delle autorità monetarie per impedire focolai inflazionistici, con conseguenze depressive sui corsi azionari. Ma questa ipotesi non sembra sopravvivere già a una prima superficiale analisi dei dati.

Il grafico qui sotto confronta l’andamento dell’indice S&P 500 con quello del prezzo del greggio dal 1990 a oggi (dati mensili).


È difficile individuare una relazione sistematica, anche se nel periodo 1998-2000 e recentemente la correlazione sembra positiva. In realtà, un modo corretto per confrontare le due serie è quello di guardare alla correlazione tra le rispettive variazioni percentuali.
Il coefficiente di correlazione è un numero compreso tra 0 (correlazione minima) e 1 (massima) che indica la misura in cui le due serie tendono a muoversi in sincronia (pur escludendo ogni relazione di causalità). Nel caso di queste due serie, il coefficiente di correlazione è molto basso, circa 0,011. In sostanza, i numeri ci dicono che tra variazioni dei corsi azionari e variazioni del prezzo del greggio esiste una relazione minima. Buone notizie per chi è pessimista sulla Borsa.


Petrolio le cose non dette, di Marzio Galeotti

(1) Il petrolio è e resta una risorsa scarsa.
Come spiegatoci da Harold Hotelling nel 1931 (Cfr. “The Economics of Exhaustible Resources” in Journal of Political Economy), il prezzo di una risorsa esauribile è destinato ad aumentare costantemente nel tempo in funzione della sua crescente scarsità. Questo fatto non è certo di difficile comprensione. Ovviamente non sappiamo quando esattamente le riserve di petrolio si esauriranno, non sappiamo nemmeno quanto ampie esattamente siano, tra accertate e presunte, e su questo punto il dibattito tra pessimisti e ottimisti s’infiamma in tutte le occasioni come in quella attuale. Il punto che va rilevato, tuttavia, e che a nostro modesto parere non è stato ripetuto abbastanza, è che nel medio-lungo periodo il prezzo del petrolio è destinato ad aumentare. Naturalmente, quanto appena detto non implica che l’oro nero, toccati i 50 dollari a barile, non possa scendere. Ciò è possibile, anzi probabile.

(2) Ciò che conta è il prezzo reale del petrolio,
il suo prezzo rapportato al livello generale dei prezzi del paese che lo consuma. Troppo spesso si fanno comparazioni con le quotazioni in dollari di un barile di greggio a prezzi correnti. I livelli di prezzo raggiunti durante il primo shock petrolifero del 1973-74, fatti i debiti calcoli, equivalgono ad un prezzo oggi di circa 80 dollari, ben lontano dunque dalle quotazioni attuali. Ancora più elevato in termini reali era stato il prezzo del greggio durante la seconda crisi petrolifera, quella della guerra Iran-Iraq del 1979-81. Quindi i prezzi attuali non sono affatto senza precedenti, come scritto da alcuni.


(3) L’impatto degli aumenti del prezzo del petrolio su inflazione e crescita economica,
si potrebbe riassumere nel seguente adagio: l’aumento del prezzo del petrolio fa molto male all’economia, la discesa del prezzo fa bene, ma non molto. Su questo si leggono in questi giorni molti numeri in libertà sull’impatto. Ad esempio, il sottosegretario all’Economia Gianluigi Magri ha parlato di una riduzione del Pil dello 0,3%, mentre il suo collega, Giuseppe Vegas ha posto l’accento, sulla base presumiamo, delle stesse informazioni possedute da Magri, che i pericoli per la crescita sarebbero minimi. Quel che conta rilevare è che sembra esserci un’asimmetria negli effetti che variazioni del prezzo del greggio hanno sul PIL. Diversi studi, nella maggior parte riguardanti gli Stati Uniti, ma anche altri paesi, Italia inclusa, documentano che l’impatto negativo (sul reddito) di un aumento di prezzo del petrolio è quantitativamente più consistente dell’impatto positivo di un’analoga riduzione di prezzo. Questa è una nota non piacevole ma importante per comprendere meglio i meccanismi che legano le grandezze economiche in questione e soprattutto per informare nel miglior modo le politiche a riguardo. Un altro importante caso di (ampiamente) documentata asimmetria è quella che contrappone il prezzo del greggio a quello dei carburanti, a cominciare dalla benzina. Di questo aspetto i giornali si sono regolarmente occupati.

(4) La relazione negativa tra crescita economica e prezzo del petrolio
(basso prezzo del greggio = elevata crescita, prezzo elevato = crescita ridotta) è destinata a perdurare. Ciò avverrà fino a quando le modalità di produzione e consumo saranno basate sull’impiego dei combustibili fossili, petrolio in primis, che li rende beni necessari. L’affrancamento dello sviluppo economico dal petrolio si avrà solo con il risparmio energetico e soprattutto con la diversificazione verso fonti energetiche alternative. Ma quel momento oggi appare ancora molto lontano.

(5) L’ambiente e la crescita del prezzo del greggio.
In termini di minori emissioni di gas serra quali il CO2 il primo shock petrolifero ha fatto più di tutti gli altri provvedimenti e comportamenti “virtuosi” che si sono susseguiti da allora. L’aumento del prezzo del petrolio svolge lo stesso ruolo di una tassa ambientale che ha lo scopo di contenere le emissioni dannose. Allora forse l’altra faccia della medaglia di questi aumenti di prezzo sarà una reazione favorevole all’ambiente: forse è una magra consolazione ma è un aspetto da non dimenticare. Qui confessiamo di avere sentimenti misti di fronte alla notizia che la Cina, così vorace d’energia in questi tempi, diminuirà la sua domanda di greggio: la Cina ha, infatti, deciso di costruire nuove centrali elettriche per una produzione pari a quella dell’intera Gran Bretagna, ma saranno centrali a carbone, che non è petrolio ma è notoriamente il più inquinante delle fonti fossili.

(6) Perché ridurre le imposte?
Allo stesso modo della tassa, pagare di più il petrolio fa sì che chi inquina percepisca il costo della sua attività (ne “internalizzi” il costo). In questa cornice va valutata la proposta di intervenire sulle accise per mantenere il prezzo dell’energia, e dei carburanti in particolare, allo stesso livello antecedente l’aumento. In realtà, nel settore dei trasporti il maggiore prezzo del carburante serve a far pagare l’inquinamento ed il congestionamento del traffico proprio ai responsabili di tali effetti. Ancorché al margine, l’aumento del prezzo di benzina e gasolio dovrebbe contribuire a spostare sul traffico ferroviario parte dello scambio delle merci e ad adottare modalità più efficienti di trasporto delle persone abolendo, ad esempio, i viaggi meno necessari. E ciò con buona pace delle associazioni dei consumatori.

L’alba del giorno prima, di Marzio Galeotti e Alessandro Lanza

Che aria tira sul clima in giro per il mondo?
Negli Stati Uniti, dopo il discusso rapporto preparato dal Pentagono che dipingeva scenari catastrofici causati dai cambiamenti climatici nei prossimi vent’anni, tornano alla carica i senatori Lieberman e McCain, un democratico e un repubblicano “ribelle”, con una proposta di legge, che intende limitare le emissioni americane di gas-serra nel 2010 ai livelli del 2000. (1)

Gli Usa ci ripensano?

Intanto, la politica di George W. Bush prosegue nella sua ambiguità. Harlan Watson, negoziatore capo per gli Usa sui cambiamenti climatici, il 10 maggio scorso in una conferenza a Bruxelles ha dichiarato che il presidente è stato male interpretato sulla questione, ma ha altresì affermato che l’ambiente non figurerà esplicitamente nella sua campagna presidenziale per la rielezione.
Europa e Giappone ripongono le loro speranze in John Kerry, candidato alla presidenza e senatore con il record di votazioni più “verdi”. Parla appassionatamente di effetto serra e ha nel suo programma l’introduzione di una legislazione nazionale ad ampio raggio, incluso un mercato nazionale dei permessi, per combattere il riscaldamento globale. Ma dalle colonne dell’International Herald Tribune, Nigel Purvis ammonisce che ci sbaglieremmo di grosso se sperassimo che Kerry, una volta eletto, spingerebbe per una ratifica del Protocollo di Kyoto. (2)
Tuttavia, anche senza l’elezione di Kerry, è possibile che negli Usa qualcosa accada.
Infatti, in assenza di una politica federale, sono gli Stati a essersi mossi.
Il Massachusetts è stato il primo a regolamentare le emissioni di anidride carbonica generate dalle centrali elettriche. Gli Stati del New England si sono quindi uniti alle province orientali del Canada nell’assunzione ufficiale dell’impegno a ridurre le emissioni di gas-serra del 12 per cento entro la fine di questa decade. Sull’altra costa, Oregon e Washington si stanno organizzando insieme alla California, il primo Stato ad approvare una legge che regolamenta le emissioni delle automobili.
In una sorta di gara virtuosa, il governatore del Massachusetts ha annunciato all’inizio di maggio un piano che in materia di pianificazione e finanziamento di opere pubbliche nel campo dei trasporti condiziona, in parte, le decisioni alle emissioni di gas-serra che tali progetti genererebbero.

Tutti questi fermenti formano un’alternativa credibile a Kyoto, si domanda l’Economist? (3) L’argomentata risposta è negativa. Tuttavia, a questo punto anche la grande industria chiede decisioni. Le società elettriche, che in larga parte impiegano combustibili fossili, hanno avallato la legislazione che obbligatoriamente limiterà le emissioni da esse stesse prodotte. Persino la ExxonMobil (e con essa ChevronTexaco), grande supporter della politica energetica di Bush, comincia a dare segnali di sensibilità al tema ambientale, anche perché si aspetta che molti azionisti la metteranno sotto pressione su questo tema nella prossima assemblea. E non va infine dimenticato che spesso la legislazione statale precede e provoca quella federale.

La Ue ha fede nel protocollo

E in Europa come vanno le cose? Il clima in questa regione del mondo mostra luci e ombre.
Alla fine la perseveranza europea nei confronti della Russia sembra avere pagato. Dopo un lungo tentennare, Vladimir Putin ha annunciato venerdì 21 maggio che il suo paese si “sarebbe mosso rapidamente verso la ratifica”. Per il realista Putin la ratifica del Protocollo sembra infatti ridursi a una mera questione di politica estera. Visto che Kyoto non dovrebbe costare ai russi, anzi potrebbe addirittura generare ricavi per 10 miliardi di sterline, secondo il Financial Times, il presidente russo offrirebbe agli europei la ratifica del Protocollo insieme a un raddoppio del prezzo interno del gas (pari attualmente a un quarto di quello esportato agli europei) in cambio dell’assenso europeo all’ammissione alla Wto, l’organizzazione mondiale del commercio. (4)
La scelta russa lascia peraltro gli americani più soli e dovrebbe incoraggiare ulteriormente il movimento d’opinione favorevole a iniziative sul fronte del clima.
Per loro conto gli europei si apprestano ad affrontare l’appuntamento pre-Kyoto più significativo, il mercato europeo dei permessi di emissione che parte il 1 gennaio 2005.
È un atto di fede nei confronti di un protocollo le cui condizioni vale comunque la pena soddisfare, si sostiene, anche senza che sia entrato in vigore. Nel frattempo, l’Europa impara l’uso di uno strumento che anche gli stati e i territori australiani stanno considerando, così come il Giappone e gli Usa. Negli Stati Uniti il commercio dei permessi ha avuto avvio l’anno scorso attraverso il Chicago Climate Exchange, che ha tra i suoi membri società come Dow Corning, Dupont, Motorola, Ibm e Ford.

Gli Stati membri dell’Ue devono assegnare alle proprie industrie una certa quantità di permessi che saranno poi scambiati sul mercato secondo il piano nazionale di allocazione o Nap, che ciascun paese doveva inoltrare alla Commissione europea entro fine marzo, termine che peraltro nessuno ha rispettato. Secondo le regole, la Commissione ha il diritto di porre il veto a quei piani che ritiene eccessivamente generosi verso l’industria e incoerenti con gli obiettivi di Kyoto. Se poi un paese rifiuta di rivedere il proprio Nap, la Commissione può citarlo in giudizio.
A metà maggio su ventitré paesi membri, otto non avevano ancora pubblicato un piano provvisorio. Tre di questi – Francia, Spagna e Polonia – sono tra i maggiori emittenti in Europa. Gli altri che mancano all’appello sono Belgio, Grecia, Repubblica Ceca, Slovacchia e Ungheria. Un’analisi provvisoria dell’allocazione per settori di attività rivela che l’elettrico conta per oltre il 50 per cento, seguito da petrolio e gas, cemento e vetro, metalli, carta. Queste saranno dunque le industrie verosimilmente più coinvolte dal futuro mercato dei permessi.
I primi verdetti ufficiali della Commissione vanno emessi entro il 30 giugno. Ma indiscrezioni e schermaglie sono già iniziate. Mentre il piano italiano, come racconta Enzo Di Giulio, appare fuori linea, voci riferiscono che quello polacco sarà eccessivamente generoso.

Al punto che il commissario all’Ambiente, Margot Wallström, ha dichiarato che si prepara ad agire contro quei paesi che non hanno ancora sottomesso il Nap. Ma l’elemento più significativo delle sue dichiarazioni è che cruciale sarà la quantità totale di permessi. La prima impressione che emerge dalla lettura dei Nap inoltrati è che l’ammontare relativo appare troppo alto.
Un mercato funziona quando c’è scarsità. E infatti la percepita mancanza di scarsità si riflette sul prezzo di mercato di quei permessi che sono già attualmente scambiati: il prezzo di una tonnellata di CO2 era pari a 13 euro in gennaio mentre a fine aprile è sceso fino a 7 euro.
Ma per capire la posta in gioco basta una notizia che viene dall’Inghilterra, paese tra i più virtuosi in Europa quanto a politiche di riduzione delle emissioni. Ebbene, il ministro dell’Ambiente ha annunciato di avere incaricato una società di consulenza specializzata di valutare i Nap dei paesi membri nel timore che l’industria britannica possa essere danneggiata dalla mancanza di rigore degli altri paesi. E nel fare ciò i britannici esprimono anche dubbi sul fatto che la Commissione europea abbia effettivamente la forza per rigettare i piani di Germania, Francia e Italia.
Non c’è dubbio che la probabile ratifica russa del Protocollo dà ulteriore forza e credibilità all’iniziativa europea sul mercato dei permessi. E finisce per spuntare le armi di chi, come il nostro ministro dell’Industria Antonio Marzano all’ultima assemblea di Confindustria, riecheggiando i dubbi del Governo più volte esplicitati a livello europeo dal ministro dell’Ambiente Altero Matteoli, ha un poco avventatamente dichiarato che l’Italia potrebbe rivedere la sua posizione su Kyoto.

(1) Il rapporto sostiene che il mondo potrebbe finire sull’orlo dell’anarchia con alcuni paesi che utilizzano la minaccia nucleare per assicurarsi adeguate forniture di cibo, acqua ed energia. Gli autori del rapporto affermano che i cambiamenti climatici dovrebbero essere elevati al di sopra del dibattito scientifico a materia di sicurezza nazionale. La proposta Lieberman-McCain introduce limiti alle emissioni generate dalla produzione elettrica, dai trasporti, dall’industria e dal commercio e istituisce un mercato dove le singole imprese possono commerciare diritti d’emissione.

(2) “Europe and Japan misread Kerry on Kyoto” di Nigel Purvis, International Herald Tribune, 5 aprile 2004.

(3) “Bottom-up greenery”, The Economist, 18 marzo 2004.

(4) “Kyoto could be Russia’s ticket to Europe” di Anders Aslund, International Herald Tribune, 5 aprile 2004 e “A change in the climate: will Russia help the Kyoto protocol come into forse?” di Vanessa Houlder, Financial Times, 20 maggio 2004.

Legge Biagi, anno zero

Sommario a cura di Pietro Garibaldi

L’andamento del mercato del lavoro nel primo anno della riforma Biagi e la continua crescita dell’occupazione nonostante la bassa crescita economica. Sono queste le problematiche fondamentali del mercato del lavoro nel primo anno di entrata in vigore della legge 30/2003, analizzate da la voce.info. Sullo sfondo la mancata riforma degli ammortizzatori sociali e i lenti progressi della trattativa sulla riforma degli assetti contrattuali.

Nuovi lavori e nuovi numeri, di Tito Boeri e Guido Tabellini

Dopo quasi un semestre di blackout, l’Istat ha pubblicato la nuova indagine sulle Forze lavoro trimestrali. Era un’indagine molto attesa. Otteniamo i nuovi numeri un anno dopo l’approvazione della Legge Biagi di riforma del mercato del lavoro. Inoltre, si tratta della prima rilevazione ufficiale che utilizza il nuovo metodo di rilevazione “continua” dell’andamento del mercato del lavoro . Infine, le statistiche delle forze lavoro stanno pian piano incorporando gli effetti della regolarizzazione dell’occupazione immigrata, man mano che i nuovi residenti cominciano a entrare nel campione. È un momento di grande cambiamento. Non è facile orientarsi tra i numeri in queste condizioni, ma ci abbiamo provato.

Posti di lavoro e obiettivi di Lisbona

Negli ultimi dodici mesi, il mercato del lavoro italiano ha creato 163mila posti di lavoro. Ciò corrisponde a una crescita dell’occupazione pari allo 0,7 per cento. C’è un rallentamento rispetto all’anno precedente (in cui l’occupazione era cresciuta al tasso doppio, +1,5 per cento), ma è pur sempre un dato importante. Il numero di posti creati è significativo soprattutto alla luce della bassa crescita del prodotto interno, che nello stesso periodo non ha superato l’1 per cento.
E non si tratta di precari. Negli ultimi dodici mesi, sono stati creati quasi 200mila posti di lavoro permanenti a tempo indeterminato, mentre è diminuito di ben 110mila unità il numero di lavoratori a termine.
La maggior parte di questi lavori è però al Nord, mentre nel Mezzogiorno gli occupati sono addirittura calati. La settentrionalizzazione della crescita occupazionale, un fenomeno che già era evidente negli ultimi dodici mesi, continua ininterrotta.
Nonostante i 160mila nuovi occupati, ci allontaniamo da Lisbona, l’obiettivo che conta per chiudere il divario in reddito pro capite rispetto agli Stati Uniti. Negli ultimi dodici mesi, il tasso di occupazione, ossia il rapporto tra occupati e popolazione in età lavorativa, è diminuito. Siamo al 57,5 per cento. Secondo i parametri di Lisbona, dovremmo arrivare al 70 per cento entro il 2010. Un miraggio.
Come si spiega la diminuzione del tasso di occupazione quando l’occupazione cresce? Con la dinamica della popolazione in età lavorativa. È l’effetto immigrati regolarizzati, individui occupati che pian piano stanno entrando nelle forze lavoro, ampliando la base su cui calcoliamo il numero di occupati. Alla luce della composizione settoriale dei nuovi occupati (agricoltura ed edilizia), è probabile che anche la maggior parte dei nuovi occupati siano immigrati regolarizzati.

Gli effetti demografici

Si abbassa anche il tasso di disoccupazione di mezzo punto, scendendo al di sotto dell’8 per cento. Un dato importante, in quanto l’8 per cento era chiaramente una soglia significativa.
Ma questo declino riflette anche un fenomeno demografico. A riprova di questo, il fatto che la riduzione della disoccupazione sia concentrata al Sud, dove anche l’occupazione è in calo. Le coorti che si affacciano sul mercato del lavoro cominciano ad assottigliarsi, pesando di meno sul tasso di disoccupazione. Gli effetti coorte aiutano anche a capire perché l’occupazione aumenti fra gli ultra cinquantenni. Si tratta di persone che erano occupate precedentemente e continuano a esserlo. Le coorti precedenti, soprattutto tra le donne, erano formate da persone che non avevano mai partecipato al mercato del lavoro.
Purtroppo nessuna informazione è ancora disponibile sullo stato di attuazione della Legge Biagi.
Le nuove forze di lavoro dovrebbero registrare anche il numero di occupati sotto forma di collaborazioni coordinate e continuative, ma tale stima non è ancora stata rilasciata.
In parte il blackout continua. Speriamo per poco.

Un anno di legge Biagi, di Armando Tursi

La ex baby sitter dei miei figli, che ancora oggi si occupa di loro di tanto in tanto, mi ha chiesto di spiegarle cos’è il lavoro a chiamata. Gliel’ho spiegato, e lei, confermando la mia idea che l’intuizione giuridica non è prerogativa dei giuristi, mi ha detto: “ma allora io sono una lavoratrice a chiamata!”. Devo confessare che non ci avevo pensato, ma, in effetti, ci sono tutti gli elementi previsti dall’articolo 34 della nuova legge: ha meno di 25 anni, è disoccupata, e l’intesa è stata, finora, che io la chiamassi con un certo preavviso in caso di necessità. Dunque, in virtù della “legge barbara” che mercifica il lavoro, alla mia baby sitter spetterebbe l’indennità di disponibilità (il 20 per cento della retribuzione contrattuale) per i periodi di “attesa” della chiamata. Per fortuna, lei stessa si è subito affrettata a tranquillizzarmi, chiarendo che non sa che farsene del lavoro a chiamata.

Gli obiettivi della legge

I mali da attaccare erano noti: il tasso di occupazione più basso d’Europa, la seconda peggiore performance (dopo il Belgio) nell’occupazione dei lavoratori anziani, la più elevata incidenza europea del lavoro illegale, i più intensi squilibri territoriali del mercato del lavoro.
La “riforma Biagi” è partita dall’assunto che, per curare quei mali, fosse necessario massimizzare la flessibilità dell’offerta di lavoro, e lo ha fatto a partire dall’anello più debole della catena: non già la regolazione del rapporto di lavoro, bensì la diversificazione dei modelli o tipi contrattuali attraverso i quali è possibile procacciarsi lavoro (la cosiddetta “flessibilità tipologica” o “in entrata”). Operazione accompagnata, poi, dal completamento del processo di decentramento e razionalizzazione organizzativa dei servizi per l’impiego, già avviato dal Governo di centrosinistra.
Su questo secondo fronte, la riforma ha prodotto forse gli sforzi più apprezzabili, per comune riconoscimento bipartisan; benché debba constatarsi che sul piano operativo e dei risultati ottenuti siamo ancora quasi all’anno zero.

I punti critici

Ma è la seconda parte della riforma – quella che moltiplica e rimodula i tipi contrattuali flessibili – che lascia più perplessi.
I dati che l’Istat ha appena fornito sembrano confermare un’impressione diffusa, che registra non tanto la temuta destrutturazione del nostrano diritto del lavoro, quanto la scarsa efficacia di istituti quali il lavoro a chiamata, il lavoro gemellato, il part time flessibile, lo stesso staff-leasing all’italiana (somministrazione cosiddetta “a tempo indeterminato”), che paiono inadatti non solo a destare in maniera significativa l’attenzione degli imprenditori, ma anche a stimolare l’offerta di lavoro.
La verità è che la riforma del 2003 ha utilizzato in maniera un po’ confusa strumenti con diversa finalità: andavano infatti meglio distinti gli strumenti di lotta all’esclusione sociale (lavoro a chiamata, contratto di inserimento, prestazioni occasionali di tipo accessorio), da quelli finalizzati a conciliare in maniera ottimale la domanda di flessibilità delle imprese con quella di tutela, ma a sua volta di flessibilità, dei lavoratori (part time, lavoro ripartito, contratto a termine, somministrazione, lavoro parasubordinato, collaborazioni occasionali).
Se ciò si fosse fatto, sarebbe parso chiaro, intanto, che i primi soffrono della concorrenza insuperabile del lavoro irregolare, la cui eliminazione è precondizione per la loro efficacia, oltre che per l’accertamento effettivo della condizione di debolezza occupazionale.
Quanto ai secondi, essi avrebbero richiesto una più attenta calibratura tra flessibilità nell’interesse dell’impresa, flessibilità nell’interesse del lavoratore e semplicità regolativa: se infatti il nuovo part time è troppo poco “women friendly” per poter contribuire a innalzare il tasso di occupazione femminile, il lavoro ripartito, il lavoro a progetto e occasionale, la nuova somministrazione di lavoro e lo stesso lavoro a termine, sono inficiati, a seconda dei casi, e spesso assieme, da eccesso o inefficienza regolativi.
I critici a oltranza della riforma Biagi, peraltro, hanno puntato solo sulle sue reali o presunte iniquità regolative, curandosi ben poco del difetto di fondo, individuabile in una sorta di eccedenza del messaggio politico-mediatico rispetto alla sostanza normativa.

Verso uno “Statuto dei lavori”?

Il risultato, è che dopo il varo di un decreto legislativo composto di ben ottantasei lunghi articoli, e di un decreto correttivo di altri ventuno articoli, resta da scrivere lo “Statuto dei lavori” di cui si parla ormai da un decennio. Resta, per esempio, da allestire la rete di sicurezza sociale resa necessaria proprio dal proliferare di rapporti di lavoro instabili e discontinui, guardando, modernamente, al problema della “sotto-occupazione” più che a quello della “disoccupazione”.
Nel contempo, però, sarebbe necessario rimpiazzare, almeno in parte, molte delle flessibilità inutili introdotte nel 2003, con la flessibilità utile e praticabile, che dovrebbe rispondere a due caratteristiche: 1) dovrebbe riguardare direttamente le “modalità d’uso” del lavoro, anche nei rapporti di lavoro “standard” e non precari; 2) dovrebbe operare in funzione non antisindacale.
Ciò sarebbe possibile se si lasciasse alla contrattazione collettiva la facoltà di decidere in quali casi, a quali condizioni e in quali limiti sarebbe lecito, per i singoli lavoratori e per i singoli datori di lavoro, contrattare individualmente condizioni di lavoro adatte alla situazione specifica, anche se formalmente peggiorative rispetto a quelle stabilite dalle norme inderogabili del diritto del lavoro. Ciò costituirebbe, tra l’altro, anche un arricchimento funzionale della contrattazione collettiva e del sindacato, oggi particolarmente bisognosi di allargare e potenziare le basi della propria legittimazione sociale.

Una riforma in progress, di Riccardo Del Punta

Tracciare, a un anno di distanza, un bilancio della riforma del mercato del lavoro (decreto legislativo 10 settembre 2003 n. 276), è compito tutt’altro che facile. La riforma, anzitutto, è ancora un “cantiere aperto”, pur essendo stati emanati quasi tutti i rispettivi decreti di attuazione.

Qualche prima indicazione

Per alcune novità già in tutto o in parte operative (agenzie per il lavoro, somministrazione, appalto e distacco, part-time, lavoro intermittente, contratto di inserimento, lavoro a progetto), ve ne sono altre che indugiano ai blocchi di partenza (le commissioni di certificazione e l’apprendistato, per il quale alcune Regioni stanno cominciando a muoversi), e altre ancora le cui prospettive sono più remote (la mitica Borsa continua del lavoro, in via di sperimentazione in alcune Regioni, ma della quale pare lontana una realizzazione completa). Ma, anche per gli istituti teoricamente già operativi, di una completa attuazione si potrà parlare soltanto quando la normativa sarà stata metabolizzata da una contrattazione collettiva che appare non così entusiasta, anche perché penalizzata dall’incertezza, ormai cronica, sulle regole del sistema contrattuale. In un contesto così fluido, non stupisce la mancanza di dati disaggregati sull’impatto del decreto e soprattutto delle diverse tipologie contrattuali. Ciò non impedisce di tentare, in attesa della verifica ufficiale prevista per il maggio 2005, qualche riflessione. Il tasso di occupazione è ancora abissalmente distante dai sogni di Lisbona: l’ultima rilevazione Istat lo colloca al 56,5 per cento (quello femminile al 45,2 per cento). Tuttavia l’occupazione continua a crescere, pur ad un tasso più ridotto che in passato. Non è escluso, tra l’altro, che sia cresciuta nelle fasce più passive della popolazione (pressate, nel frattempo, dal caro-vita), la percezione di poter trovare lavoro in tante forme e modi diversi da quello canonico, e che ciò le abbia riavvicinate, quantomeno psicologicamente al mercato. È lecito dubitare, invece, che i nuovi contratti flessibili abbiano sinora dato qualche risultato in termini di emersione del sommerso. Quanto alla distribuzione interna fra le tipologie contrattuali, non sembra essersi verificata la paventata crisi delle collaborazioni autonome, a causa delle rigidità del lavoro a progetto. Ciò perché il decreto Biagi ha consentito la sopravvivenza transitoria, tramite accordo sindacale, delle vecchie co.co.co. (peraltro non oltre il 24 ottobre 2005), e perché la prassi ha saputo riassorbire la novità e trasportare la maggior parte delle collaborazioni sotto l’ombrello del nuovo istituto. Quel che è rimasto fuori è fuggito, di solito, non verso il lavoro subordinato, ma verso la partita Iva o il sommerso. Ma ciò significa pure che la nuova normativa non sembra essere riuscita nello scopo di “scremare” le collaborazioni fasulle, per quanto si debba riconoscerle di aver incentivato le parti a una maggiore trasparenza formale nella redazione dei contratti.

Alla ricerca di una regolazione

Se la questione vera è come adeguare le regole del mercato del lavoro alla realtà del postfordismo, la direzione di fondo additata dal decreto (in sostanziale continuità, mutatis mutandis, con un trend legislativo che risale sino alla legge Treu del 1997), rivolta al rafforzamento della posizione del lavoratore sul mercato, è quella giusta. O, quantomeno, non si vedono in giro progetti alternativi. Ciò non toglie che vi siano ancora aspetti discutibili, e almeno tre grandi incognite. Le prime due concernono le altre indispensabili “gambe” della riforma: i nuovi ammortizzatori sociali e un regime previdenziale da “tarare” anche sui lavoratori precari del postfordismo; il futuro e ancora fumoso Statuto dei lavori, del quale sta discutendo una commissione ministeriale, volto a ridisegnare organicamente il quadro delle tutele, alla luce della centralità acquisita dai lavori flessibili ampiamente intesi. In generale, si tratta di perfezionare in ogni sua parte un progetto di regolazione del mercato del lavoro, adeguato alle nuove sfide della competitività e del rilancio del paese. E si tratta di capire, una volta smaltita la pur inevitabile sbornia della flessibilità, che una compiuta modernizzazione non potrà che passare, nello specifico della realtà italiana, attraverso un’idea condivisa di collaborazione istituzionale fra tutti gli attori del sistema: imprese, lavoratori, sindacati ed enti bilaterali, enti pubblici territoriali, apparati statali. Tale disegno cooperatorio dovrà svilupparsi e articolarsi soprattutto sul territorio, con un auspicabile rincorrersi di best practice, e mirare a un circolo virtuoso fra sviluppo e sostenibilità sociale. Le componenti dovranno esserne una contrattazione collettiva tanto giuridicamente solida quanto capace di rapportarsi alle necessità dei vari settori e distretti, efficienti servizi per l’impiego, una formazione professionale riqualificata, reti di sicurezza per la precarietà, e ovviamente la tutela dei diritti fondamentali dei lavoratori. Sulla realizzabilità di una siffatta prospettiva regolativa, intesa come possibile “vantaggio istituzionale comparato” del nostro paese, si giocano scommesse forse decisive, oltre che per il diritto del lavoro, per la stessa economia italiana.

Quanto lavorano gli italiani, di Domenico Tobasso

Alla luce dei recenti accordi aziendali che prevedono un incremento delle ore di lavoro in grandi imprese operanti in Francia e Germania, si è tornato a discutere del divario di ore lavorate fra Europa e Stati Uniti e delle asimmetrie in quanto a grado di utilizzo del fattore lavoro che sono presenti all’interno della stessa Unione Europea. Molte analisi, tuttavia, sono basate su una lettura troppo frettolosa dei dati. È quanto mai opportuno allora provare ad analizzare il contesto del mercato del lavoro italiano partendo da numeri che permettano davvero un confronto con la situazione di altri Stati europei e con gli Stati Uniti. In questo compito, un aiuto rilevante è quello che viene offerto dai dati delle inchieste sulle forze lavoro europee, regolarmente condotte dall’Eurostat e nelle quali un’intera sezione viene dedicata all’analisi degli orari di lavoro.
Sulla base di queste informazioni è possibile calcolare gli orari medi di lavoro, sia annuali che settimanali, di diversi lavoratori europei.

Quanto lavorano i dipendenti

La prima osservazione non può non riguardare il numero di ore effettivamente lavorate dai lavoratori italiani, rispetto ai colleghi di altri paesi.

La tabella 1 ci aiuta a sintetizzare il quadro di insieme del carico di lavoro annuale degli occupati dipendenti, fornendo un confronto tra Europa e Stati Uniti sulla base dei dati dell’Ocse sul numero di ore di lavoro annue per occupato. Le note dolenti, per il vecchio Continente non mancano. Come già evidenziato su questo sito da Pietro Garibaldi , la differenza fra i dati americani e quelli italiani è degna di nota; ma ancor più evidente è il gap fra gli Stati Uniti, da una parte, e Francia e Germania, dall’altra. Se infatti il dato d’oltreoceano si attesta poco oltre le 1700 ore di lavoro annuo, e quello italiano intorno alle 1600, nelle due “locomotive d’Europa” si riscontra una media vicina alle 1450 ore. E proprio con riguardo a Francia e Germania le differenze appaiono aumentare nel corso degli ultimi anni. Nel 1995 il numero di ore di lavoro italiane erano pari al 94% di quello statunitense e nel 2001 tale percentuale era pressoché invariata, a differenza di quanto osservato in Francia e Germania, dove le percentuali tra il 1995 e il 2001 sono calate rispettivamente del 6 e del 4%. Con riferimento, dunque, a dati che rapportino il numero di ore di lavoro al numero di occupati, la performance italiana appare complessivamente più vicina a quella degli Stati Uniti che alle nazioni dell’Europa Continentale.

Tabella 1

Numero di ore di lavoro annuo per lavoratore occupato

1995

2001

Italia

1636

1619

Germania

1520

1444

Francia

1567

1459

Spagna

1815

1807

Regno Unito

1739

1707

Stati Uniti

1737

1724

È poi possibile un’analisi dei dati su base settimanale. Prendendo in considerazione i maggiori paesi europei, il numero di ore di lavoro in Italia risulta essere esattamente il linea con la media europea oltre che decisamente superiore a quello di Francia e Germania. Ciò vale sia per le ore di lavoro settimanali che per il numero di settimane lavorative in un anno. A proposito di questo ultimo dato è possibile aggiungere che in base a statistiche elaborate dall’Ilo (International Labour Organization), il numero di settimane lavorate da un cittadino americano nel 2002 è risultato essere pari a 40,5, dunque in linea con i dati europei. Tuttavia, puntare a una comparazione precisa fra le due banche dati sarebbe poco corretto: i dati europei si riferiscono ai soli occupati dipendenti, mentre quelli dell’Ilo si riferiscono all’insieme dei lavoratori statunitensi.

Tabella 2

Ore di lavoro settimanali

Settimane di lavoro in un anno

Settimane di vacanza

Settimane interamente non lavorative non per ferie

Settimane parzialmente non lavorative non per ferie

Italia

37.4

41

7.9

1.8

0.3

Francia

36.2

40.5

7

2.2

0.5

Germania

35.2

40.6

7.8

1.9

0.3

Regno Unito

38.2

40.5

6.5

1.8

1.6

Spagna

38.8

42.2

7

1.3

0.4

Vacanze e permessi

Dunque, da dove deriva la (peraltro diffusa) convinzione che i ritmi lavorativi italiani siano più blandi rispetto agli a quelli degli altri paesi industrializzati? Le ultime colonne della tabella 2 possono indirizzarci verso una prima risposta: le vacanze dei lavoratori italiani risultano più lunghe rispetto a quelle degli occupati europei. In media un dipendente italiano dispone di 7,9 settimane di vacanza all’anno, contro le 7 di francesi e spagnoli e le 6,5 dei britannici. E tuttavia, volendo calcolare il numero complessivo di giorni non lavorati è necessario tener conto dei giorni persi non solo per ferie, ma anche per motivi quali assenze per malattia, maternità, permessi. L’Italia è fra i paesi in cui questi permessi vengono meno utilizzati (anche perchè ci sono meno donne che lavorano). quindi, quando si guarda al numero complessivo di settimane non lavorate, non si notano forti differenze fra l’Italia (10 settimane all’anno) la Germania (anch’essa 10). la Francia (9,7) e la Gran Bretagna (9,9).

Breve storia dell’articolazione articolata, di Pietro Ichino

All’origine ci fu la tornata dei rinnovi contrattuali dei primi anni Sessanta, che sancì l’inizio della contrattazione articolata: i contratti collettivi nazionali di settore restavano il pilastro portante del sistema, ma contenevano le clausole di rinvio alla contrattazione aziendale per due materie: il premio di produzione e l’inquadramento professionale. E fissavano i relativi criteri vincolanti.

Dall’autunno caldo al protocollo Scotti

Al termine del decennio, quel sistema di contrattazione articolata venne messo in crisi da un vasto movimento di lotta, in larga parte spontanea, tendente a liberare la contrattazione aziendale dai vincoli nazionali. Nell’“autunno caldo” del 1969 le trattative per il rinnovo del contratto dei metalmeccanici rimasero bloccate per tre mesi proprio su questo punto; e si sbloccarono soltanto con un “disaccordo tacito” su questo punto – patrocinato dal ministro del Lavoro dell’epoca Carlo Donat Cattin – che sostanzialmente segnava la fine del sistema di articolazione contrattuale. Da quel momento in avanti la contrattazione aziendale sarebbe stata libera di svilupparsi anche al di fuori dell’alveo tracciato dal contratto nazionale, persino rimettendo in discussione le materie da esso già compiutamente regolate.

Durante gli anni Settanta le cose andarono proprio così: la contrattazione aziendale, promossa e gestita dai consigli di fabbrica, poté svolgersi al di fuori di qualsiasi coordinamento vincolante con la contrattazione nazionale. Ma i due livelli di negoziazione poterono convivere e sovrapporsi disorganicamente soltanto fino a quando il movimento sindacale ebbe la forza per imporli entrambi alla controparte. Quando, tra la fine degli anni Settanta e l’inizio degli anni Ottanta, la crisi economica incominciò a mordere duramente nel vivo del tessuto produttivo e il movimento sindacale incominciò a perdere colpi, la Confindustria poté porre come condizione per il rinnovo dei contratti collettivi nazionali il ripristino di regole di coordinamento vincolanti per la contrattazione aziendale. Ne seguì per quasi due anni la paralisi della contrattazione collettiva al livello nazionale; alla fine Cgil Cisl e Uil dovettero accettare il ritorno a regole vincolanti sull’articolazione del sistema contrattuale.

La crisi del sistema di relazioni sindacali si risolse con il protocollo Scotti del gennaio 1983, che aprì la strada ai rinnovi dei contratti nazionali, ma al prezzo del ripristino del sistema delle clausole di rinvio tra il contratto nazionale e il contratto aziendale. In altre parole: Cgil Cisl e Uil poterono riattivare la contrattazione al livello nazionale soltanto spendendo la “moneta di scambio” di un controllo effettivo sui contenuti della contrattazione aziendale. E, nonostante le divisioni tra loro, le tre confederazioni mostrarono di saper tener fede all’impegno contrattuale: nel corso degli anni Ottanta il nuovo sistema funzionò con un tasso altissimo di effettività.

L’accordo del 1993

Il sistema delineato dal protocollo del 1983 venne perfezionato e integrato dieci anni dopo con il protocollo Ciampi del luglio 1993, che stabilì una cadenza biennale della contrattazione nazionale degli standard retributivi minimi, ne fissò il criterio agganciando gli aumenti al “tasso di inflazione programmato” e demandò alla contrattazione aziendale l’adeguamento delle retribuzioni agli incrementi di produttività o redditività delle singole imprese.

Debellata l’inflazione, entrata l’Italia nel sistema monetario europeo, gli spazi di una negoziazione dei minimi retributivi al livello nazionale, secondo le regole del protocollo Ciampi, si riducono di molto. E a rincarare la dose si aggiungono le proposte di Confindustria da un lato, di Cisl e Uil dall’altro, tendenti in vario modo a spostare il baricentro della contrattazione dal centro verso la periferia. Da molte parti si osserva che il collegamento alla produttività o alla redditività aziendale di una porzione più ampia della retribuzione potrebbe consentire notevoli incrementi effettivi della retribuzione complessiva distribuita. Da molte parti si osserva, altresì, che consentire una differenziazione regionale di quei minimi potrebbe giovare allo sviluppo del Mezzogiorno, dove peraltro minimi inferiori sarebbero giustificati dal minore costo della vita. Di qui anche la proposta di consentire la deroga ai minimi stabiliti dal contratto nazionale, mediante contratto collettivo regionale o provinciale, in funzione di politiche di sviluppo concertate nella sede decentrata.

La Cgil e il contratto nazionale

Senonché ridurre lo spazio del contratto nazionale rispetto a quello riservato alla contrattazione periferica significa – per definizione – aumento delle differenze retributive da regione a regione e/o da impresa a impresa; ed è proprio a questa differenziazione che oggi la Cgil si oppone. E non si limita a opporsi, ma sembra spingersi a rivendicare un aumento del peso del contratto nazionale rispetto a quello attribuitogli dal protocollo Ciampi.

Dall’ala sinistra della Cgil e in particolare dalla Fiom si chiede, più specificamente, che gli aumenti retributivi contrattati al livello nazionale siano svincolati dal tasso di inflazione programmato, restando inderogabili gli standard minimi. Si invocano, a sostegno di questa linea, le ragioni della solidarietà: si vuole che i comparti più forti di ciascuna categoria possano aiutare i più deboli, in un sistema che riduca al minimo le disuguaglianze. Ma a questa linea d’azione si contrappone un interrogativo: i lavoratori delle regioni più arretrate del paese traggono davvero vantaggio da standard minimi elevati, uguali per tutto il territorio nazionale? Riescono davvero ad accedere a un lavoro regolare rispettoso di quegli standard? Oppure l’effetto di una politica di questo genere è solo di favorire, in quelle regioni, il dilagare del lavoro irregolare?
Più in generale, l’ala sinistra della Cgil chiede che si volti pagina rispetto a una lunga stagione di politica dei redditi; che si volti pagina, in particolare, rispetto ai vincoli posti non solo alla contrattazione nazionale delle retribuzioni, ma anche a quella aziendale, dal protocollo Ciampi del 1993.
Vi sono alcune analogie evidenti tra questa rivendicazione e quella sulla quale divamparono le lotte dell’autunno caldo del 1969. Ma le condizioni attuali di unità e di forza del movimento sindacale sono molto più simili a quelle dei primi anni Ottanta che a quelle della fine degli anni Sessanta. Come nei primi anni Ottanta, anche oggi la Confindustria può rispondere a quella rivendicazione con il rifiuto di stipulare, a quelle condizioni, il contratto nazionale. E a quel punto – piaccia o non piaccia alla Cgil o alla sua ala sinistra – lo spostamento dal centro alla periferia del baricentro del sistema delle relazioni sindacali si verificherebbe nei fatti, senza bisogno di alcun accordo-quadro.

Contratti: a chi serve lo status quo, di Tito Boeri

Un tavolo chiuso ancora prima di aprirsi

Il tavolo sulla nuova concertazione è partito male. La Cgil ha abbandonato la trattativa prima ancora si aprisse perché i) si discuteva di riforma degli assetti contrattuali senza avere raggiunto una posizione unitaria all’interno del sindacato e ii) si sarebbe rischiato di ritardare la conclusione di molti contratti, in attesa dell’introduzione delle nuove regole (vedi la dichiarazione di Patta su www.cgil.it nella sezione Ufficio Stampa). Ma Confindustria si è dichiarata disposta a concedere un periodo di moratoria in cui continuare ad applicare le vecchie regole, chiudendo dunque tutte le trattative in corso per il rinnovo dei contratti con le regole dell’accordo del luglio del 1993. Quindi il vero ostacolo sulla strada della riapertura del dialogo rimane la divisione nel sindacato circa gli assetti contrattuali.

Le divisioni nel sindacato

Cisl e Uil si sono da tempo espresse a favore di un maggiore decentramento della contrattazione, mentre la Cgil si erge a difesa degli accordi del luglio 1993, in nome di principi di egualitarismo e di difesa dei lavoratori più deboli. In altri interventi su questo sito si è discusso perché le regole introdotte nel 1993 possano essere poco adatte a gestire la contrattazione dopo l’entrata del nostro paese nell’euro, ora che non è più possibile ricorrere alle cosiddette svalutazioni competitive (vedi il dibattito sul Tip e sulle forme di contrattazione). Ci preme qui, invece, giudicare in che misura gli assetti attuali siano davvero in condizione di tutelare i lavoratori più deboli, come sostenuto al tavolo della trattativa dalla Cgil.

Chi beneficia del secondo livello?

Come è noto, l’accordo del luglio 1993 prevede un doppio livello di contrattazione: nazionale e aziendale.

Il secondo livello dovrebbe in principio essere collegato all’andamento della produttività e può solo incrementare il salario rispetto ai minimi nazionali. Proprio in virtù di questo “effetto sommatoria”, i contratti di primo livello fissano minimi relativamente bassi, lasciando spazio ad accordi integrativi (additivi) aziendali. Chi lavora in imprese in cui c’è anche contrattazione di secondo livello perciò beneficia, a parità di altre condizioni, di salari più elevati degli altri lavoratori. Difficile stabilire di quanto. La contrattazione decentrata comporta mediamente incrementi del 3-4 per cento rispetto al salario nazionale. Sommata su più rinnovi contrattuali, questo incremento può, nel corso del tempo, creare differenziali salariali di un certo livello per le regole della capitalizzazione composta. Bastano quattro rinnovi contrattuali per creare differenziali salariali dell’ordine del 20 per cento.

Ma chi sono i lavoratori che beneficiano della contrattazione di secondo livello? Sin qui si sapeva poco a riguardo, se non che i lavoratori nelle imprese coperte dalla contrattazione di secondo livello sono circa un terzo del totale. Grazie a una indagine Eurostat sulla struttura delle retribuzioni (per ora sono disponibili solo i dati riferiti al 1997) è possibile saperne di più. Il grafico qui sotto, tratto da questa indagine, riproduce il grado di copertura della contrattazione di secondo livello (la percentuale di lavoratori che operano in imprese in cui si pratica la contrattazione di secondo livello) per decile di reddito. Il primo decile corrisponde al 10 per cento di lavoratori con salari più bassi, il secondo decile al 10 per cento di lavoratori con salari più alti del primo decile, ma inferiori al quelli del terzo decile e così via.

Il messaggio del grafico è molto chiaro: non sono certo i lavoratori più deboli a beneficiare degli attuali assetti contrattuali. Il grado di copertura della contrattazione di secondo livello cresce col reddito dei lavoratori anche perché si svolge soprattutto nelle imprese di grandi dimensioni che, a parità di altre condizioni, offrono retribuzioni più elevate delle imprese più piccole. I lavoratori con i salari più bassi, spesso impiegati nell’impresa minore, non vengono perciò messi nella condizione di partecipare a potenziali incrementi di produttività raggiunti nell’impresa in cui operano.

Se il sindacato ha davvero interesse a proteggere i lavoratori più deboli o a offrire loro almeno le stesse opportunità di quelli meglio retribuiti, dovrebbe allora preoccuparsi di far sì che la contrattazione aziendale avvenga anche nelle imprese in cui operano i lavoratori con salari più bassi. Dato che non sembra in grado di imporre un secondo livello di contrattazione in queste imprese, meglio evitare che la contrattazione integrativa sia sempre e comunque penalizzante per il datore di lavoro. Ciò significa permettere alla contrattazione integrativa di sperimentare schemi retributivi che mettano davvero in relazione il salario alla produttività, prevedendo dunque variazioni sia in positivo che in negativo a partire da una componente fissa della retribuzione.

In ogni caso, l’attuale sistema di contrattazione impedisce a molti lavoratori, soprattutto ai più deboli, di partecipare a incrementi di produttività e permette anche forti differenziali salariali a favore di un gruppo ristretto di lavoratori delle grandi imprese, in cui si svolge contrattazione di secondo livello. La Cgil professa la necessità di aumentare la quota dei salari sul prodotto e ha fatto dell’egualitarismo un proprio cavallo di battaglia. Alla luce di questi obiettivi, farebbe bene ad accettare quanto meno di discutere di riforme degli assetti contrattuali, anziché ergersi a difesa dello status quo.

Un taglio elettorale, di Tito Boeri e Guido Tabellini

L’idea di aumentare per legge le ore lavorate sembra rientrata. L’attenzione del Governo si è invece spostata sui tagli di imposta. Il cambiamento di enfasi e di strumento è quanto mai opportuno.
Una riduzione del prelievo contributivo sul lavoro, finanziata da un taglio di spese di pari importo, può avvicinarci agli obiettivi di Lisbona. Il taglio per legge delle ferie rischia, invece, di aumentare il divario in ore lavorate con i paesi che crescono di più, a partire dagli Stati Uniti.

Perché i tagli alle ferie aumentano il divario in ore lavorate

L’occupazione dipende dal costo del lavoro per ora lavorata.
Imporre per legge un numero di ore lavorate diverso da quello liberamente scelto dalla contrattazione privata può solo creare inefficienze e far salire il costo orario del lavoro.
Già il governo Jospin in Francia aveva provato a imporre per legge un orario ridotto, nell’illusione di aumentare il numero di occupati. Il risultato è stato aumentare il costo delle ore lavorate, a scapito di tutti.
L’operazione inversa, aumentare per legge il numero di ore lavorate da ogni individuo, avrebbe lo stesso effetto. Lo stipendio mensile aumenterebbe, probabilmente più che in proporzione per compensare le inefficienze create dall’intervento legislativo.
Chi ha già un impiego probabilmente lavorerebbe di più, ma ci sarebbero meno persone con un lavoro. E aumenterebbe il divario in ore lavorate con gli Stati Uniti – un divario nella percentuale di persone che hanno un lavoro molto più che nel numero di ore lavorate da chi un impiego ce l’ha (vedi lavoce.info 25/03/2004).
È meglio quindi lasciare alla contrattazione fra imprese e lavoratori la scelta su come compensare i lavoratori alla fine del mese (se con più salario o con più tempo libero).

Perché riduzioni del prelievo fiscale e contributivo sul lavoro possono servire

Se davvero vogliamo aumentare il numero di ore lavorate, la via maestra è quella degli incentivi, e in particolare delle riduzioni del prelievo fiscale e contributivo sul lavoro.
Oggi si lavora poco anche perché i redditi da lavoro sono tassati troppo.
Le conseguenze delle imposte sui redditi da lavoro dipendono da chi ne sopporta l’onere: se le imprese, che pagano un costo del lavoro più elevato, o i lavoratori, che ricevono un salario netto più basso.
Nel caso dei lavoratori che non sono tutelati dal sindacato, l’onere delle imposte è principalmente su di loro. Gli effetti dei tagli fiscali quindi si esplicano soprattutto attraverso un aumento del salario netto e tramite l’offerta di lavoro. Molti studi dimostrano che la crescita dei salari netti induce aumenti più rilevanti dell’offerta di lavoro tra chi è ai margini del mercato del lavoro, soprattutto tra le donne e i giovani. In Italia il 30 per cento delle madri non torna al lavoro dopo la maternità e quasi la metà di coloro che sono in cerca di prima occupazione hanno almeno un diploma di scuola secondaria. Si tratta in entrambi i casi di lavori potenzialmente ad alta produttività, dunque in grado di generare una forte riduzione del costo del lavoro per unità di prodotto e far crescere l’economia. Lo strumento per concentrare i tagli d’imposta su queste categorie di lavoratori sono le detrazioni fiscali.

Un seconda distorsione sull’offerta di lavoro riguarda i redditi alti. Qui il colpevole è un’elevata aliquota marginale. Lo strumento per porvi rimedio è ridurre la progressività delle imposte, che in Italia resta elevata. Ma la distorsione è meno rilevante della precedente, perché i lavoratori coinvolti sono un numero più esiguo.

Quando i lavoratori sono tutelati dal sindacato, possono riuscire a scaricare sul datore di lavoro buona parte dell’onere fiscale. In questo caso, le imposte sul lavoro hanno anche un effetto sulla domanda di lavoro. Abbassare il prelievo farebbe scendere il costo del lavoro per le imprese e quindi potrebbe favorire la creazione di nuovi posti di lavoro. Anche qui vi sono studi che mostrano la rilevanza di questo effetto. Lo strumento per raggiungere questo obiettivo è una riduzione generalizzata del prelievo fiscale complessivo (Irpef e contributi sociali) sui redditi da lavoro medio-bassi nel settore privato. Questo intervento potrebbe anche facilitare un maggiore decentramento territoriale della contrattazione. Molti lavori a bassa produttività sono concentrati al Sud. Uno sgravio fiscale su questi redditi potrebbe forse indurre il sindacato ad accettare riduzioni del costo del lavoro che non abbassino i salari netti dei dipendenti e facilitare l’emersione del sommerso, oggi per l’80 per cento concentrato al Sud.

Queste riduzioni del prelievo fiscale per i salari bassi sarebbero un primo tassello importante di un nuovo sistema di welfare compatibile con forti incentivi al lavoro. Potrebbero essere finanziate tagliando le spese per “politiche attive del lavoro” di assai dubbia efficacia, che oggi ammontano a circa lo 0,6 per cento del Pil. È anche possibile (ma per prudenza, è meglio non contarci) che una parte della riduzione delle imposte possa essere finanziata dall’aumento della base contributiva legata all’emersione del sommerso.

Ma è questo l’obiettivo del Governo?

Ma sarebbe ingenuo pensare che l’azione del Governo sia motivata solo o soprattutto da questi criteri di efficienza economica. La principale motivazione politica per abbassare le imposte non è certo quella di aumentare le ore lavorate. La vera ragione sono le imminenti elezioni europee. L’evidenza empirica tratta da un ampio campione di democrazie mostra che, in un anno elettorale, in media il disavanzo fiscale sale di quasi mezzo punto di Pil, prevalentemente per via di tagli d’imposta. In Italia lo aveva fatto anche il governo Amato prima delle precedenti elezioni politiche. Ora lo farà il governo Berlusconi, prima di quelle europee. Anche l’entità del taglio promesso (6 miliardi di euro) è perfettamente in linea con l’esperienza dei cicli elettorali in questo e in altri paesi.
Non è detto che questa motivazione elettorale per i tagli d’imposta riduca i loro effetti benefici sull’economia. Per certi aspetti, i tagli possono anche ridurre gli effetti negativi del ciclo politico. Poco dopo le elezioni europee vi saranno le elezioni politiche, ovviamente ancora più importanti per il Governo. Si può immaginare che l’assalto alla diligenza del bilancio dello Stato sarà quasi irresistibile. È meglio quindi se la cassa è già stata svuotata, perché questo renderà più difficile spendere di più l’anno prossimo. Sempre che la cassa non sia già vuota, perché i primi dati disponibili sul fabbisogno nel 2004 sono tutt’altro che incoraggianti. Inoltre, casse vuote possono anche ostacolare tagli mirati della spesa, o riforme strutturali che richiedono misure di compensazione.

Siamo troppo cinici a imputare una motivazione prevalentemente elettorale per i tagli d’imposta che il Governo si accinge a promettere? Il Governo ha un modo credibile per smentire questa interpretazione e mostrare le sue buone intenzioni: accompagnare ogni taglio di imposta con riduzioni di spesa di pari importo.
Renderebbe i tagli credibili e sostenibili, quindi più efficaci nei loro effetti di stimolo della crescita. Come suggerito da diversi studi, i tagli di imposta che non implicano un aumento del disavanzo riescono ad avere effetti maggiori sulla crescita.

Come lavorare di più, di Pietro Garibaldi

Le giornate di lavoro pro-capite hanno recentemente conquistato il centro della scena nel dibattito sul mercato del lavoro italiano.
Due sono i motivi di questa enfasi. Da un lato, si è osservato che le ore di lavoro annuo per lavoratore occupato in Italia sono inferiori a quelle degli Stati Uniti: 1.619 contro 1.724.
Dall’altro, si è molto discusso della proposta del presidente del Consiglio di ridurre le festività o almeno razionalizzare la loro posizione all’interno della settimana al fine di aumentare la produzione nazionale.
Sorprendentemente, la discussione ha completamente ignorato il ruolo della contrattazione collettiva, e ha analizzato il problema come se il numero di giornate lavorative potesse essere deciso per legge.

Per legge o per contratto

In Italia, come in ogni paese, il numero di giorni lavorati viene contrattato dalla parti sociali e non viene stabilito per legge.
I contratti nazionali di categoria, in qualunque settore del sistema economico, contengono precisi riferimenti al numero di giorni lavorati e al numero di giorni di ferie retribuite per ciascun livello salariale.
Tutto ciò che la legge può stabilire è soltanto il numero di festività.

Supponiamo che il numero di festività venga effettivamente ridotto. Due sono le domande da porsi. Primo, alla riduzione seguirebbe automaticamente un aumento del numero di giorni lavorati? Secondo, che effetto si avrebbe sul prodotto interno lordo?
Analizziamo la prima. Nel breve periodo, a contratti nazionali invariati, il numero di giorni lavorati probabilmente aumenterebbe, in quanto i contratti vengono rinnovati con scadenze pluriennali.
Nel lungo periodo, tuttavia, la risposta è più incerta, perché dipende in modo cruciale da come i rinnovi contrattuali reagiranno alla riduzione di festività. Potrebbero benissimo, ad esempio, aumentare il numero di ferie e rendere nullo l’impulso iniziale.

Ma veniamo alla seconda e più importante domanda. Quale effetto si avrebbe sul Pil, nel breve periodo, da una riduzione delle festività? La risposta a questa domanda è molto incerta.
Innanzitutto, occorre ricordare che il Pil (prodotto interno lordo, valore aggiunto) è grosso modo uguale alla somma di profitti e salari dell’economia. È ovvio che se aumenta il numero di giorni lavorati, ma il monte salario percepito dai lavoratori rimane invariato, più ore lavorate non si trasformano direttamente in aumento del valore aggiunto. Tuttavia, a un aumento delle ore lavorate dovrebbe seguire una crescita della produzione, delle vendite, dei profitti, e quindi del valore aggiunto. Ma affinché questa catena di eventi si manifesti, è comunque necessario che la maggiore produzione incontri una domanda sufficiente. E se i salari rimangono costanti, non è ovvio che la domanda aggregata alla fine aumenti davvero.
In sostanza, nel breve periodo il Pil potrebbe anche restare invariato.

Uno scambio tra ferie e reddito

Ma la questione più importante è come far sì che aumenti in Italia il numero di ore lavorate pro-capite.
I ragionamenti precedenti suggeriscono che l’unico modo è attraverso la contrattazione collettiva. Ricordiamo infatti che le ferie sono giorni completamente retribuiti e che un individuo non accetterà mai una riduzione di ferie con un aumento di lavoro a parità di salario. Questa è la base della teoria dell’offerta di lavoro.
Si potrebbe però ottenere un aumento di giornate lavorate proponendo ai lavoratori uno sgravio fiscale in cambio di un aumento del numero di giornate lavorate.
In ciascuno dei più importanti contratti collettivi, il Governo potrebbe offrire una totale de-contribuzione di tutte le ore lavorate in eccesso a un numero prestabilito, diverso per ciascun contratto. I cittadini lavoratori sarebbero messi di fronte a un semplice trade-off: ridurre il numero dei giorni di ferie in cambio di un aumento di reddito disponibile.
E le imprese potrebbero così ridurre il ricorso allo straordinario, un strumento molto utilizzato nonostante l’onerosità del costo.
Che impatto avrebbe questa misura sulle casse dell’erario? Ci sarebbero due effetti.
Da un lato, il gettito diminuirebbe, in quanto si sostituirebbero ferie regolarmente tassate con giorni lavorativi esenti da tassazione. Ma probabilmente aumenterebbero la produzione e il reddito, con effetti positivi finali sul gettito.
Certamente, diminuirebbe il gap di ore lavorate tra Italia e resto del mondo..

Il sindacato nella riforma del lavoro: di Armando Tursi

La “riforma Biagi” contiene numerosi paradossi. Il più segnalato finora è quello dell’apparente sfavore per i rapporti di lavoro parasubordinati (vedi il dibattito su lavoce.info).
Vorrei qui segnalarne un altro, di ben più ampia portata, anche culturale: riguarda il ruolo del sindacato nel disegno riformatore.
Con il decreto legislativo n. 276/2003 la ormai ventennale tendenza legislativa a delegare funzioni paralegislative alle parti sociali ha toccato il culmine: in questo provvedimento si ritrovano una sessantina di rinvii alla contrattazione collettiva.

A che servono i rinvii

I rinvii servono a integrare previsioni legislative incomplete (per esempio, in tema di lavoro ripartito, l’articolo 43 del Dlgs n. 276/2003), oppure a derogare a tali previsioni in direzione di una maggiore “flessibilità” della disciplina del rapporto di lavoro.
Non mancano previsioni di sapore sadomasochistico, come quelle che rimettono ai contratti collettivi la definizione dei periodi durante i quali è preclusa la possibilità di introdurre limitazioni quantitative al ricorso al lavoro temporaneo (vedi l’articolo 10 e l’articolo 20 del Dlgs n. 276/2003).
Talvolta il dono dei Danai è reso necessario, e ben accetto alle Minerve sindacali, proprio dall’irragionevolezza della norma: esemplare, in proposito, è la previsione della “transizione” graduale dalle vecchie “co.co.co.” al “lavoro a progetto”, affidata a provvidenziali accordi aziendali (articolo 86, comma 1 del Dlgs n. 276/2003).
Non sono rare, infine, le ipotesi in cui il “rinvio” è del tutto inutile, poiché la norma non attribuisce alle parti sociali alcun potere che esse già non detengano in virtù del generale principio di libertà negoziale privata: per esempio, quando si dice che i contratti collettivi “possono determinare condizioni e modalità della prestazione lavorativa” nel rapporto di lavoro a tempo parziale (articolo 1, comma 3 del Dlgs n. 61/2000, confermato, sul punto, dall’articolo 46 del Dlgs n. 276/2003).

L’integrazione tra legge e contratto collettivo

Beninteso, il processo di stretta integrazione tra legge e contratto collettivo ha serie ragioni di ordine sociale e istituzionale, per la necessità di individuare forme di regolazione che consentano di conciliare la crescente complessità delle società moderne con la coesione sociale. La ricetta è individuata nel cosiddetto “diritto riflessivo“, ossia nella previsione di meccanismi di produzione delle regole giuridiche che siano “consensuali” e provengano “dal basso”.
Perché ciò non comporti, però, il completo assorbimento della libertà negoziale e dell’autonomia sociale, sarebbe necessario distinguere le ipotesi in cui le parti sociali operano in virtù di una delega da parte del legislatore, da quelle in cui esercitano la propria autonomia e libertà negoziale.

È invece molto diffusa, e trasversalmente, l’idea secondo cui la distinzione tra libertà (private) e funzioni (pubbliche), contratti e norme, privato (anche collettivo) e pubblico, politico e sindacale, non avrebbe ormai più senso. In questa prospettiva, la contrattazione collettiva cessa di essere espressione di autonomia e diventa vincolo imposto dall’esterno.
E il sindacato, da organizzazione che era, diventa istituzione.

Il problema della rappresentanza

Un’istituzione democratica esige meccanismi di produzione della norma ispirati alla regola maggioritaria. È dunque coerente la pressante richiesta della sinistra sindacale di introdurre una disciplina legale della rappresentanza, che dia attuazione all’articolo 39 della Costituzione, ridisegnando il diritto sindacale alla luce del principio maggioritario, sì da chiarire, finalmente, “chi sia legittimato a decidere e come si misuri la rappresentanza”.
Appare poco coerente, invece, il Governo di centro-destra, che pretende di far vivere il suo progetto di compenetrazione tra la legge e la contrattazione collettiva all’ombra del totale astensionismo legislativo in materia di disciplina della rappresentanza sindacale, proclamato nel “Libro bianco”.

Ma da questo equivoco non si esce con successo se si resta invischiati nella prospettiva culturale di cui lo stesso Governo è prigioniero: per un verso, a causa della lettura cripto-corporativa del principio di sussidiarietà, che lo porta a concepire il sindacato come ente necessario e funzionalizzato, e per l’altro, per l’improprio riferimento al modello del “dialogo sociale” comunitario, in cui il “partenariato sociale” è strumento di supporto a un rule-making process che soffre di uno strutturale deficit democratico sul versante politico.
Proprio il modello del “dialogo sociale” comunitario, che vorrebbe essere la risposta liberal alla concertazione dirigista, è una forma di democrazia politica procedurale, che ha poco a che fare con un autentico “ordinamento intersindacale”.
Anche a questo proposito il Libro bianco “equivoca”, focalizzando il falso obiettivo della presunta differenza tra “concertazione” e “dialogo sociale”. Mentre la distinzione da farsi sarebbe quella tra la concertazione (alias “dialogo sociale”), intesa come forma di cooperazione tra pubblico e privato-collettivo, e la contrattazione collettiva, che è invece una forma di manifestazione dell’autonomia negoziale privata, in virtù della quale le parti sociali esercitano poteri propri, senza che sia necessario alcun rinvio a opera della legge.

È alla luce di tale distinzione che bisognerebbe affrontare il problema della riforma delle “regole della rappresentanza sindacale”.
Ma da una prospettiva siffatta il problema presenta connotati alquanto diversi rispetto a quelli usuali nel dibattito politico-sindacale.
Non si tratta, infatti, di decidere se sia meglio una disciplina legale o negoziata. E non si tratta nemmeno di stabilire regole per la misurazione della rappresentatività, che valgano per decidere “chi contratta e per chi”: come accade nel pubblico impiego “contrattualizzato”.

Si tratta, invece, di fissare criteri per l’individuazione dei soggetti collettivi coi quali instaurare pratiche concertative e di dialogo sociale: e a tal fine la sperimentata nozione di “maggiore rappresentatività” (sia pure nella innocua variante della “rappresentatività comparativamente maggiore”) conserva intatta la sua idoneità selettiva.
Si tratta anche di conciliare l’efficacia erga omnes dei contratti collettivi con il pluralismo sindacale imposto dall’articolo 39 Costituzione: sarebbe incompatibile con tale principio la sottrazione della libertà di contrattazione collettiva a sindacati (datoriali e dei lavoratori) che, pur essendo genuina espressione di gruppi più o meno numerosi di lavoratori, non siano annoverabili tra quelli “rappresentativi” negli ambiti e secondo i criteri (inevitabilmente) stabiliti dalla legge.

L’occupazione cresce ancora: di Pietro Garibaldi

Nel corso del 2003, il mercato del lavoro italiano ha chiaramente risentito del brusco rallentamento dell’economia, ma è rimasto un mercato che crea posti di lavoro. Nel 2004 gli occupati sono aumentati 170mila unità, con uno sviluppo su base annua pari allo 0,8 per cento.
Tenendo conto che la crescita del prodotto nel 2003 è stata dello 0,4 per cento, il risultato complessivo del 2003 è decisamente positivo.
Rispetto a gennaio 2004, il tasso di disoccupazione è sceso dal 9,1 percento all’8,7 per cento, continuando un trend in atto dal 1998, quando il tasso di disoccupazione aveva raggiunto il 12 percento. Il tasso di occupazione, il rapporto tra occupati e popolazione in età lavorativa, è cresciuto di 1,4 punti percentuali, raggiungendo quota 55,8 per cento, una cifra che rimane comunque bassissima su base europea, e molto lontano dal 70 per cento richiesto dagli obiettivi di Lisbona.

I motivi di questa onda di medio periodo dell’occupazione italiana sono stati più volte analizzati (vedi ” Il bicchiere mezzo pieno dell’occupazione“), e rimangono legati alla lunga serie di riforme del mercato del lavoro, alla moderazione salariale, al ruolo degli incentivi all’occupazione e, in parte, anche all’emersione di lavoro precedentemente sommerso.
Inoltre, anche l’invecchiamento della popolazione facilita un miglioramento delle statistiche del lavoro (vedi “La popolazione invecchia, le statistiche migliorano“).

Un segnale preoccupante

Se analizziamo i dati su base congiunturale, confrontando i dati de-stagionalizzati delle rilevazioni di gennaio 2004 con quelle di ottobre 2003, emerge un segnale decisamente preoccupante.
La crescita occupazionale ha tenuto. Il mercato del lavoro ha infatti creato in un trimestre 45mila posti di lavoro, una cifra che su base annua permetterebbe comunque di mantenere un tasso di crescita pari allo 0,8 per cento. Tuttavia, la crescita dei posti di lavoro è avvenuta intermente nel Nord Italia (con una crescita pari allo 0,4 per cento) mentre è rimasta pressoché invariata nel Centro Italia e completamente piatta nel Mezzogiorno.

Questo è un dato allarmante, in quanto implica un ripristino del divario territoriale del mercato del lavoro, un fenomeno che sembrava invertito all’inizio del decennio. Probabilmente, per recuperare crescita occupazionale nel Mezzogiorno, sarebbe necessario ricorrere a un decentramento territoriale della contrattazione collettiva, uno dei meccanismi in grado di legare la domanda di lavoro alle condizioni locali. Recentemente ci sono state numerose aperture sindacali in questa direzione , ed è bene sperare che alle parole possano presto seguire i fatti.

Infine, la distribuzione della crescita occupazionale per settore di attività suggerisce che la maggior parte dei posti di lavoro sono creati nel settore delle costruzioni, un settore caratterizzato da alta volatilità occupazionale.
In quest’ottica, non è affatto detto che gli ultimi posti creati siano stabili e duraturi.

Il ruolo del part-time

La distribuzione della crescita occupazionale per tipologia di lavoro mostra che quattro su cinque dei nuovi lavoratori sono dipendenti, mentre la metà di questi ultimi sono lavoratori temporanei o a tempo parziale.
È utile riflettere sul ruolo dei lavoratori part-time, una tipologia di contratto che ha raggiunto in Italia quasi il 6 per cento dell’occupazione. La crescita del part-time è sempre vista come un fenomeno cruciale per aumentare l’occupazione italiana femminile nel lungo periodo.

Tuttavia, non si deve dimenticare che un aumento di lavoratori part-time determina automaticamente una diminuzione del numero di ore lavorate per addetto, una statistica che vede l’Italia indietro rispetto agli altri paesi dell’Ocse.
È vero che quantitativamente la crescita del part-time può spiegare soltanto una parte minore della differenza tra le ore lavorate per addetto in Italia e Stati Uniti. Tuttavia, alla luce dell’auspicato aumento del part-time in Italia, il divario nelle ore lavorate per addetto continuerà ad aumentare.

Scuola e università

Sommario a cura di Daniele Checchi

La scuola italiana non funziona. Ma non è un problema di risorse: nei paesi che spendono quanto l’Italia in formazione primaria e secondaria, la performance dei quindicenni è di gran lunga migliore che da noi. E’ un problema di qualità degli insegnanti? E’ difficile, ma non impossibile, misurarla e dovrebbe essere maggiormente incentivata. Ma per farlo bisogna affermare la cultura della valutazione, vincendo fortissime resistenze alle rilevazioni. La valutazione sulla base di parametri oggettivi è ancora più importante nel caso dei concorsi universitari. Apriamo il confronto su due proposte alternative. La prima propone di mantenere i concorsi per l’ingresso nella carriera universitaria a livello decentrato, attribuendo agli atenei locali anche la responsabilità finale (e l’onere economico corrispondente) della conversione a tempo indeterminato dei contratti di docenza e/o ricerca. La seconda propone di tornare ai concorsi nazionali per combattere il malcostume dei concorsi fasulli. Ma non basta probabilmente riformare i concorsi. Perchè l’università italiana incentivi la ricerca bisogna smettere di premiare solo (e troppo) l’anzianità di servizio, rendendo il sistema impermeabile alla concorrenza esterna, come dimostrano i dati sui pochissimi docenti stranieri presenti in Italia. Mentre le risorse disponibili al sistema universitario italiano non sono cresciute in termini reali negli ultimi 5 anni, il governo ha scommesso sulle iniziative di eccellenza come l’Istituto italiano di tecnologia. Se ne è parlato più prima della sua nascita che adesso che sta per concludersi la fase di startup. Al commissario unico e al direttore scientifico dell’Iit abbiamo formulato alcune domande per capire lo stato di avanzamento di questo progetto. Ospitiamo le risposte di Vittorio Grilli, commissario unico dell’Iit e Roberto Cingolani, direttore scientifico dell’istituto.

Il concorso? Meglio nazionale, di Pietro Ichino

Per il reclutamento dei professori universitari, fino alla riforma del 1998 la legge italiana prevedeva che si svolgesse un concorso unico nazionale ad anni alterni, un anno per quelli di prima fascia e nell’altro anno per quello degli associati. Quanto alla commissione giudicatrice, per la prima fascia, tutti i professori della materia erano chiamati a eleggere dieci possibili commissari, tra i quali venivano sorteggiati i cinque membri. Per gli associati, il sorteggio dei possibili commissari precedeva l’elezione. Alle singole facoltà interessate era data poi la scelta tra i vincitori per la copertura delle cattedre messe a concorso.

Il circolo vizioso del passato

Perché quel sistema funzionasse bene (nei limiti consentiti dal contesto del sistema universitario italiano), mancava solo una regola: scioglimento automatico della commissione che non avesse esaurito i propri lavori entro tre o quattro mesi; ed elezione di una nuova, con esclusione dall’elettorato passivo per i vecchi commissari.
Poiché questa regola non c’era, i lavori delle commissioni erano sovente interminabili, essendo intralciati dai veti incrociati e dai complessi giochi di alleanze e contro-alleanze accademiche in cui i commissari venivano invischiati. I concorsi duravano anni. Così, a ogni nuovo concorso, il numero di posti in palio era molto elevato; il che contribuiva ulteriormente a rallentare i lavori. L’intervallo lungo tra un concorso e l’altro e il numero abnorme dei posti in palio contribuivano a drammatizzare l’importanza del concorso e a rallentarne lo svolgimento, in un evidente circolo vizioso. La drammatizzazione portava poi con sé un altissimo numero di ricorsi dei candidati perdenti al Tribunale amministrativo, dai quali il ministro dell’Istruzione era letteralmente sommerso.

I gravi difetti dell’attuale sistema

Questa alluvione di ricorsi giudiziali è stata una ragione non secondaria della scelta del ministro Berlinguer di decentrare i concorsi: con la riforma del 1998 sono ora i singoli atenei a bandirli (e quindi a doversi eventualmente difendere davanti al Tar). Ma il nuovo sistema ha due difetti gravissimi. In primo luogo, garantisce un forte privilegio al candidato appartenente all’università che bandisce il concorso, alla quale compete la nomina di uno dei membri della commissione; è rarissimo, infatti, che il “candidato interno” risulti perdente; l’unico dato incerto, quando è incerto, è il nome del secondo vincitore, destinato a essere chiamato altrove. Inoltre, il nuovo sistema prevede l’elezione di tante commissioni quanti sono i concorsi banditi dagli atenei: ciò che comporta un gran numero di voti e di candidature, con corrispondente enorme lavorio elettorale (praticamente ininterrotto: le “tornate” elettorali sono due, tre, persino quattro all’anno), seguito da giochi estremamente complessi tra le commissioni di concorsi diversi cui partecipano contemporaneamente gli stessi candidati. E poiché per questo lavorio elettorale e post-elettorale sono normalmente più disponibili i professori che si dedicano meno intensamente alla ricerca e all’insegnamento, il sistema presenta un alto rischio di favorire nettamente gli interessi di questi ultimi rispetto a quelli dei professori migliori.
Questo spiega e in qualche misura giustifica la prassi, invalsa in numerosi comparti accademici, di affidare a uno o più professori anziani il compito di “dirigere il traffico” concorsuale, raccogliendo le candidature, valutandone il merito, stabilendo una sorta di graduatoria di precedenza ragionata e proponendo alla comunità accademica le corrispondenti indicazioni elettorali per la costituzione delle commissioni. Anche se comprensibile – e, dove funziona in modo pulito, giustificabile come male minore – questa prassi significa che, in realtà, i concorsi tendono a ridursi a una formalità vuota: la vera sede in cui si decidono i vincitori è l’organo informale di “coordinamento”. Quando poi il coordinatore – rafforzato dagli alti costi di transazione che si impongono a chi tenti di scalzarlo dalla sua posizione – si trasforma in dittatore, minacciando e applicando sanzioni contro chi disattende le sue indicazioni, si verifica la grave degenerazione del sistema denunciata da Gino Giugni due settimane or sono. L’ordinamento statale, come ci ha insegnato Ronald Coase, serve essenzialmente per ridurre i costi di transazione. Quando esso, invece di ridurli, li moltiplica, tende a nascere spontaneamente qualche altro ordinamento finalizzato a ridurre quei costi, che si sovrappone all’ordinamento statale. Con risultati sovente pessimi: la spontaneità del fenomeno non costituisce affatto una garanzia di bontà del rimedio.

Una possibile soluzione

Alla radice di questi mali del nostro sistema universitario sta, certo, il “valore legale” della laurea che toglie gran parte del significato alla concorrenza tra gli atenei; e a questo si accompagnano altri difetti strutturali che non si eliminano con la sola riforma – per quanto ben congegnata – del reclutamento dei docenti (per un disegno di riforma organica vedi qui sotto l’articolo di Gagliarducci, Ichino, Peri, Perotti). Ma il sistema di reclutamento oggi in vigore fa troppi danni per essere lasciato sopravvivere anche solo per poco. Nel contesto attuale, forse la scelta migliore è quella di un ritorno al sistema precedente al 1998 per i professori di prima fascia, con il correttivo di cui si è detto sopra: i professori di ciascuna materia votano una volta all’anno e una sola, per una commissione composta da membri non rieleggibili nella tornata successiva; la commissione designa ogni anno un piccolo numero di idonei alla cattedra; e se non lo fa entro tre mesi decade automaticamente. Libero poi ciascun ateneo di chiamare uno degli idonei, se concorda con la commissione nel ritenerlo tale, anche rispetto ai propri standard, alle proprie esigenze didattiche e ai propri programmi di ricerca.

Come reclutare i migliori, di Pietro Reichlin e Filippo Taddei

Questo scritto propone un sistema per il reclutamento dei docenti universitari che possa facilitare l’accesso alla carriera accademica a chi è giovane e si dedica principalmente alla ricerca. Il nostro schema adotta la produzione scientifica come criterio fondamentale per l’assunzione e l’entrata in ruolo dei giovani ricercatori il cui lavoro verrebbe valutato dai dipartimenti di riferimento e da commissioni composte da ricercatori di “chiara fama” (come nel Comitato di indirizzo per la valutazione della ricerca). Tuttavia, il nostro schema ha il pregio di non proporre un meccanismo esclusivo rispetto ad altri sistemi di reclutamento. In particolare, riteniamo che debba affiancare un sistema concorsuale completamente decentrato regolato da incentivi e disincentivi pecuniari per il miglioramento della qualità (scientifica e didattica) degli atenei.

Perché intervenire

Nella seduta del 13 e 14 aprile del 2005, il Consiglio universitario nazionale ha approvato un parere sul riordino dello stato giuridico e del reclutamento dei professori universitari che, esprimendo contrarietà alla messa in esaurimento del ruolo dei “ricercatori”, propone l’articolazione “della docenza universitaria in tre livelli, con precisa definizione delle funzioni specifiche di ognuno di essi”. (1)
Chi ritiene che la qualità della ricerca e l’inserimento dei giovani nell’università italiana siano obiettivi fondamentali, non può che essere deluso dal documento del Cun. Non si capisce a cosa serva un terzo livello di docenza. Non si avverte l’allarme per l’automatismo che caratterizza la progressione di carriera dei professori. Del resto, nemmeno il ministro Moratti offre proposte soddisfacenti. Il prospettato ritorno al “concorso nazionale” non risolve nessuno dei problemi principali. Alcuni sostengono giustamente l’esigenza di “liberalizzare” il reclutamento per concentrarsi sui meccanismi di finanziamento degli atenei, incentivando così comportamenti virtuosi. Gli atenei che assumono ricercatori bravi dovrebbero avere più soldi, quelli che assumono parenti e amici dovrebbero essere penalizzati. Il criterio di ripartizione dei fondi dovrebbe essere affidato a una commissione composta da accademici di fama italiani e stranieri. Questa proposta, che chiameremo “liberista”, semplifica enormemente le procedure, cerca di premiare il merito scientifico, ma, secondo noi, soffre di alcuni difetti che la nostra prospettiva cerca di risolvere.
In base al sistema liberista, i dipartimenti hanno incentivi deboli: possono aspettarsi di conseguire solo vantaggi marginali da un comportamento virtuoso perché l’assegnazione dei fondi avverrebbe sulla base degli atenei, non dei dipartimenti. Inoltre, la penalizzazione pecuniaria ex post ha due problemi. In primo luogo, non è facilmente praticabile perché sanziona, negando i finanziamenti, sulla base di criteri stabiliti posteriormente alle condotte.
In secondo luogo, ha il difetto di colpire tutti i dipartimenti e le facoltà compresi nell’ateneo, indipendentemente dal loro comportamento individuale. Infine, la proposta liberista sembra penalizzare gli atenei periferici e di recente formazione, generalmente caratterizzati da una breve serie di risultati scientifici e una scarsa capacità di attrazione.

La nostra proposta

Questi difetti non rendono inopportuno il principio meritocratico alla base del sistema liberista, ma richiedono l’introduzione di un meccanismo parallelo per il reclutamento dei docenti rivolti alla ricerca. Già oggi le unità di ricerca che si formano nei dipartimenti possono ottenere dal ministero il finanziamento di posizioni a contratto nell’ambito dei progetti di ricerca. Si tratta, in generale, di contributi inadeguati e limitati a un massimo di tre anni.
Questo sistema dovrebbe essere potenziato e adeguato. Vogliamo fare in modo che i contratti di lavoro per i ricercatori così finanziati (1) siano retribuiti in modo adeguato, (2) abbiano maggiore durata riducendo l’incertezza dei giovani ricercatori e, soprattutto, (3) permettano l’immissione nell’organico di ruolo dell’università, previo parere favorevole di una commissione ministeriale e degli organi accademici di riferimento. Il sistema che abbiamo in mente potrebbe essere facilmente organizzato. Ogni anno ciascun dipartimento può sottoporre al ministero alcuni progetti di ricerca di durata compresa tra tre e sei anni. La flessibilità è completa: ciascun progetto risponde a esigenze e caratteristiche della disciplina di riferimento, ma include sempre la richiesta dei fondi necessari al suo completamento e, in particolare, del finanziamento del numero di ricercatori desiderati. I rapporti di lavoro prodotti sono quindi motivati dal progetto di ricerca, e perciò di eguale durata. Le retribuzioni di ciascun ricercatore sono flessibili e decise in autonomia da ciascun dipartimento: soggette a un limite minimo, non ne hanno uno massimo. I dipartimenti possono essere incoraggiati, da incentivi fiscali ai donatori e premi ministeriali, a “cofinanziare” il progetto procurandosi finanziamenti aggiuntivi (privati, ateneo, eccetera). Il ministero costituisce un fondo per ciascuna disciplina e i dipartimenti che vi appartengono competono per l’attribuzione delle risorse ministeriali. Naturalmente, questi fondi devono essere ben più consistenti di quelli oggi stanziati. Potrebbero essere aumentati anche prelevando denaro dal fondo per la gestione ordinaria degli atenei.
approvazione dei progetti e la conseguente assegnazione dei fondi viene quindi decisa sulla base del giudizio di una commissione nazionale composta da studiosi di chiara fama impegnati in Italia e all’estero, per ciascuna disciplina di riferimento. Non tutti i progetti presentati devono necessariamente essere finanziati: una preselezione esclude quelli non meritevoli. Come si vede, la caratteristica fondamentale del sistema fin qui proposto è quella di garantire un punto di partenza paritetico a ciascun dipartimento, tenendo fermo l’obiettivo di incentivare comportamenti virtuosi, come nel sistema liberista, e fornendo un canale aggiuntivo per l’assunzione dei giovani ricercatori.
Una volta attribuiti i fondi, i dipartimenti bandiscono con procedura pubblica e trasparente le posizioni a contratto coerenti col progetto approvato. Non hanno però alcun vincolo riguardo alle procedure di selezione, ai possibili vincitori e alle remunerazioni, eccetto l’incompatibilità con altri incarichi di docenza a tempo pieno.
Infine, alla scadenza dei termini del progetto di ricerca, le commissioni nazionali valutano la coerenza tra obiettivi e risultati dei progetti finanziati (numero e qualità delle pubblicazioni scientifiche, risultati di esperimenti, brevetti, eccetera). Il risultato di queste valutazioni porta all’assegnazione del finanziamento necessario a trasformare, presso il dipartimento ove si è svolta la ricerca, una o più posizioni a tempo determinato in posti di ruolo per professori di prima o seconda fascia (ad arbitrio della commissione). Oppure, alternativamente, alla negazione di tale finanziamento e alla conclusione del rapporto di lavoro degli assunti. Il numero delle posizioni di ruolo finanziate mediante questa procedura dipende dall’ammontare dei fondi ministeriali stanziati. Il sistema non subisce la pressione corporativa: da una parte la limitatezza dei fondi e dall’altra il doppio livello di controllo (commissione ministeriale e dipartimento afferente) garantiscono la selettività delle “conferme in ruolo”.

I vantaggi

Riassumiamo i principali vantaggi di questo sistema. Innanzitutto, è basato sul merito scientifico perché “incentiva” comportamenti virtuosi nella selezione dei ricercatori, condizionando la concessione dei fondi ai risultati della ricerca. È un obiettivo condiviso dal sistema “liberista”, che pensiamo debba essere introdotto come sistema principale per l’assunzione e la promozione dei docenti universitari. Tuttavia, crediamo che il nostro meccanismo possa funzionare come “complemento” sia dell’attuale ordinamento che di quello “liberista”. Il sistema da noi proposto interviene ex-ante, cioè all’inizio del progetto quando i ricercatori vengono selezionati, garantendo un punto di partenza paritetico a tutti i dipartimenti in competizione. Inoltre, è maggiormente selettivo: concede premi o penalità ai singoli dipartimenti, evitando che “le politiche di ateneo” possano contrastare l’efficacia degli incentivi ministeriali, mentre consente ai docenti più impegnati nella ricerca di acquisire un maggiore potere accademico.

(1) Sessione 174, 13 e 14/4/2005

Rilevazioni senza qualità, di Solomon Gursky

Quest’anno per la prima volta si è registrata nelle scuole una notevole opposizione alle rilevazioni del Servizio nazionale di valutazione degli apprendimenti, a diversi livelli e con diverse motivazioni. Alcune critiche sembrano francamente poco condivisibili, altre sono decisamente più fondate. Come l’obbligatorietà, l’oggetto e il campo delle rilevazioni e il periodo in cui vengono effettuate. Ma soprattutto la scarsa qualità delle prove. Si rischia così di bloccare la diffusione della cultura della valutazione nella scuola.

In aprile si sono svolte le rilevazioni del “Servizio nazionale di valutazione degli apprendimenti”, organizzate e gestite dall’Invalsi.
Per la prima volta da quando sono stati organizzati i cosiddetti “Progetti pilota”, nel 2001-2002, si è registrata nelle scuole una notevole opposizione alle rilevazioni, a diversi livelli e con diverse motivazioni. Allo stesso tempo, prese di posizione critiche sono state assunte da parte di organizzazioni sindacali, di associazioni professionali e di genitori, di comitati spontanei che si sono formati in questi ultimi due anni in opposizione alla legge di riforma della scuola promossa dal ministro Moratti.

I motivi delle resistenze

Basta navigare un po’ in Internet per raccogliere un campionario dei motivi all’origine delle proteste che si sono manifestate nelle scuole. Alcuni di questi motivi sembrano francamente poco condivisibili, altri hanno ben diversa e più fondata motivazione. Tra i primi rientrano quelli che denunciano ipotetiche situazioni di stress a cui verrebbero sottoposti i “bambini” della scuola elementare; oppure quelli che sottolineano l’impossibilità e l’illegittimità di qualsiasi forma di rilevazione esterna, che non sia preventivamente negoziata e concordata con insegnanti e genitori. Altri motivi appaiono invece più fondati e più mirati.
Obbligatorietà delle prove Da quest’anno la partecipazione alle rilevazioni è obbligatoria per il primo ciclo dell’istruzione (scuole elementari e medie). In realtà, non c’è alcuna circolare ministeriale che sancisca questa obbligatorietà. La comunicazione alle scuole è arrivata dall’Invalsi e sulla base della approvazione di alcuni provvedimenti normativi: la legge di riforma della scuola che prevede l’istituzione del Servizio nazionale di valutazione; il decreto legislativo con il quale è stato riordinato l’Invalsi, trasformandolo definitivamente (per ora) in Istituto nazionale per la valutazione del sistema dell’istruzione e della formazione; la pubblicazione delle Indicazioni nazionali, allegate al decreto legge 59/2004. Ma in nessuno di questi documenti è sancita esplicitamente la obbligatorietà della partecipazione alle rilevazioni. Il Miur ha interpretato in termini di obbligatorietà quanto nel decreto istitutivo del Servizio nazionale di valutazione viene presentato in termini di “concorrenza“: “(…) al conseguimento degli obiettivi di cui al comma 1 concorrono l’Istituto nazionale di valutazione di cui all’articolo 2 e le istituzioni scolastiche e formative“.
L’oggetto della rilevazione. Per la costruzione delle prove si è fatto riferimento agli Osa (Obiettivi specifici di apprendimento) contenuti nelle Indicazioni nazionali. Le Indicazioni sono allegate al decreto 59/04 e di fatto non si possono ancora considerare obbligatorie (anche in riferimento alla normativa vigente sull’autonomia delle istituzioni scolastiche).
Il campo della rilevazione. La rilevazione è limitata agli apprendimenti. Non viene utilizzato alcun questionario che consenta di interpretare i risultati conseguiti con le variabili socio-culturali di provenienza degli studenti. Il cosiddetto “questionario di sistema” a tutto aprile non era stato ancora inviato alle scuole e, comunque, non è prevista una sua utilizzazione per analizzare le variabili di contesto (scolastico) in rapporto ai risultati conseguiti dagli studenti nelle prove. Ulteriori critiche vengono rivolte all’attendibilità e alla trasparenza delle procedure di rilevazione, alla valenza culturale delle prove, all’uso dei risultati della rilevazione.

Le ambiguità e le contraddizioni

Queste critiche sarebbero già di per sé abbastanza rilevanti. In realtà la situazione è ancora peggiore, gli elementi di ambiguità e di contraddizione sono più numerosi.
Innanzitutto, permane l’ambiguità sull’oggetto delle rilevazioni. Leggendo i vari documenti normativi e i materiali pubblicati sul sito dell’Invalsi, di volta in volta si parla di Osa, di conoscenze e abilità, di competenze. Su questo punto specifico va ricordato che la legge di riforma riserva esplicitamente alle rilevazioni nazionali il compito di individuare soltanto le conoscenze e le abilità, ma non le competenze, la cui valutazione è spetta in modo esclusivo degli insegnanti.
In secondo luogo, anche se l’obiettivo dichiarato sembra essere quello di contribuire alla valutazione del sistema scolastico, la decisione di condurre una rilevazione non campionaria, ma censimentaria farebbe pensare alla volontà di utilizzare i risultati delle rilevazioni per valutare le singole scuole. Del resto, il ministro Moratti ha più volte affermato che, grazie al Servizio nazionale di valutazione, i genitori avranno utili elementi di giudizio per decidere a quale scuola iscrivere i propri figli.
In terzo luogo, il periodo dell’anno scolastico in cui vengono effettuate le rilevazioni è quanto meno singolare. Non siamo ancora alla fine dell’anno scolastico e quindi le rilevazioni non possono riferirsi a quanto gli studenti hanno acquisito nelle classi che stanno frequentando. D’altro canto, sono passati ormai troppi mesi perché le rilevazioni possano essere destinate a misurare i risultati conseguiti nel precedente anno scolastico.  È chiaro quindi che, da questo punto di vista, la rilevazione non è né carne, né pesce. Ma dopo tre progetti pilota non è più accettabile che ancora si parli di una prova volta a “testare la macchina organizzativa”. La riforma prevede che queste rilevazioni debbano in futuro essere effettuate all’inizio dell’anno scolastico per poter essere utilizzate in funzione diagnostica da parte degli insegnanti e delle scuole. Chi abbia un minimo di consuetudine con i problemi connessi alla realizzazione di rilevazioni su scala così larga e con i problemi legati alla elaborazione e alla analisi dei dati, sa bene che tutto ciò richiede alcuni mesi di lavoro e che quindi tale obiettivo è chiaramente non perseguibile.
Un quarto motivo di ambiguità, anzi di forte critica, è relativo alla qualità delle prove utilizzate e delle modalità con cui sono state elaborate. Fino ad ora non un solo dato è stato reso pubblico sulle caratteristiche metriche delle prove.
Preoccupa anche il fatto che tali prove non sono accompagnate – come è prassi normale in tutte le indagini – da questionari volti ad acquisire informazioni sulle variabili di contesto. In che modo interpretare, quindi, i dati raccolti? L’assenza di informazioni su tali variabili sarebbe giustificabile solo se la rilevazione avesse per obiettivo la certificazione di livelli di prestazione predefiniti. Ma questo non accade nelle “valutazioni di sistema” e, comunque, presuppone la definizione di standard di prestazione, articolati per ciascun anno scolastico, che nessuno ha provveduto a predisporre.

I rischi e i danni in prospettiva futura

Purtroppo, le reazioni negative determinate dal modo in cui le rilevazioni vengono impostate e realizzate stanno trasformandosi in un rifiuto generalizzato nei confronti della valutazione tout court. Il rischio è che sarà sempre più difficile distinguere tra posizioni di conservazione, contrarie a qualsiasi introduzione di momenti seri di valutazione nel nostro sistema scolastico, e posizioni che giustamente individuano le ambiguità e le caratteristiche negative delle rilevazioni in atto. Per anni, si è parlato della necessità di lavorare per la diffusione di una cultura della valutazione nella scuola, tra gli insegnanti e anche tra studenti e genitori.
L’impressione è che la (scarsissima) qualità delle rilevazioni proposte dall’Invalsi nell’ambito del nuovo sistema di valutazione vadano in direzione opposta, con il rischio di buttare il “bambino” della valutazione insieme all’acqua sporca delle rilevazioni di quest’anno.

Quanto conta il bravo maestro, di Salvatore Modica

È da poco apparsa su Econometrica una importante ricerca sulla qualità della scuola, alla quale hanno lavorato studiosi che si occupano di scuola da trent’anni. Le due questioni che l’articolo affronta sono queste: quanto contano gli insegnanti nel determinare la qualità dell’apprendimento? E cosa determina la qualità degli insegnanti?

Un insegnante vale l’altro?

A giudicare dall’alacrità con cui i genitori si informano sui possibili insegnanti dei figli, e da tutto quello che sono disposti a fare per ottenere che i figli entrino nelle classi degli insegnanti che vengono giudicati bravi, sembrerebbe del tutto evidente che la risposta alla prima domanda non possa che essere: “gli insegnanti contano quasi più di tutto il resto”.
Il problema è che quando per la prima volta, negli Stati Uniti con il Coleman Report del 1966 si cominciarono a misurare gli effetti delle caratteristiche principali degli insegnanti, quali per esempio la loro esperienza di insegnamento e il loro livello di istruzione, sui risultati degli alunni, si trovò che risultavano sorprendentemente deboli. Da allora, le ricerche si sono ovviamente moltiplicate, gli strumenti di misurazione raffinati, sono poi cominciati ad arrivare risultati dei test sulla qualità dell’apprendimento, si sono evolute le tecniche econometriche di analisi dei dati, e così via. Tutte queste ricerche non hanno fatto altro che riconfermare quelle strane conclusioni del Coleman Report: le caratteristiche che comunemente si pensa stiano alla base della qualità degli insegnanti non influenzano più di tanto la qualità dell’apprendimento. Pochi credo abbiano pensato di potersi basare su questa pur schiacciante evidenza per dire convinti a un genitore “Rilassati, in fin dei conti un insegnante vale l’altro”. Ma come dimostrare il contrario?
La svolta è arrivata con l’idea di un gruppo di ricerca della University of Texas, guidato da
Eric Hanushek. I ricercatori disponevano di campioni longitudinali adiacenti (sequenze di due coorti di studenti elementari e medi), e hanno potuto misurare la correlazione fra i loro rendimenti prima nello stesso anno (quando le coorti avevano insegnanti diversi), e dopo in anni adiacenti (quando le coorti passavano dallo stesso anno di corso e dallo stesso insegnante). (1)

Il principale risultato osservato è che la correlazione era alta fra i rendimenti scolastici di due coorti esposte allo stesso insegnante (entrambe buone o entrambe scarse), mentre nello stesso anno solare la correlazione era praticamente zero (il risultato di una coorte non diceva nulla su quello dell’altra). (2)

Questa era finalmente un’evidenza forte, anche se indiretta: i dati erano perfettamente compatibili con una realtà sottostante in cui l’elemento che fa la differenza è l’insegnante. Tuttavia, fino a questo punto, avrebbe potuto trattarsi di correlazione spuria, ovvero di un legame solo apparente tra fenomeni, in realtà spiegabili da eventi esterni non osservabili.
Le tecniche econometriche correntemente utilizzate permettono però l’identificazione diretta dell’effetto dell’insegnante sull’apprendimento, grazie all’utilizzo di modelli a effetti fissi, che tengano conto delle regolarità ricorrenti associate ai fattori familiari, a quelli della scuola e per l’appunto quelli relativi all’insegnante. In un modello di questo tipo, in pratica, si riesce a misurare quanto sistematicamente migliora l’apprendimento di uno studente esposto all’attività didattica di un insegnante, al netto delle caratteristiche ricorrenti sia nella famiglia dello studente che nelle caratteristiche della scuola frequentata. Solo così ci si pone al riparo della classica obiezione che dice “non si può confrontare il contributo all’apprendimento dovuto a diversi insegnanti, perché gli insegnanti operano in contesti socio-culturali molto diversificati”. È evidente che uno studente del liceo in media possiede più competenze di uno studente della scuola professionale, ma è meno evidente che le sue competenze crescano relativamente di più quando viene esposto a un buon insegnante, di quanto non possa per esempio accadere allo studente delle scuole professionali.
Con questa metodologia i risultati attesi sono emersi: l’insegnante risulta influenzare il rendimento dello studente in misura apprezzabile. È difficile ottenere misure precise, ma il paragone con la numerosità delle classi rende l’idea: un incremento del dieci per cento nella qualità dell’insegnante equivarrebbe all’effetto quasi di un dimezzamento del numero di alunni per classe.
Risultato addizionale, anche quello non inatteso, e che l’effetto insegnante va scemando con l’età dello studente.

La qualità della classe docente

Allora tutto a posto? Purtroppo niente affatto. Perché siamo rimasti che la qualità dell’insegnante è certamente importante, ma non dipende dalle variabili che si possono influenzare più facilmente, tipo il suo livello di istruzione. L’insegnante brava è brava perché è brava, punto e basta; ognuno può dire la sua (la mia è che è brava quando ci mette il cuore), ma niente che sia facile da tradurre in misure concrete di intervento pubblico.
Cosa suggerisce il gruppo di Hanushek? Testualmente, loro osservano che “the substantial differences in quality among those with similar observable backgrounds highlight the importance of effective hiring, firing, mentoring and promotion practices”. Elegantemente, “segnalano l’importanza di” una politica del personale di tipo privatistico. I termini usati sono molto americani, ma in sostanza vogliono solo suggerire che “un più stretto legame fra rendimenti e premi alzerebbe alla lunga il livello della classe insegnante”. Questo piaccia o no è difficile da contestare, sicché sembrerebbe più utile cominciare subito a pensare come farlo meglio, piuttosto che discutere se sia giusto farlo o meno. Il che non è una faccenda da poco, perché la “azienda scuola” ha centinaia di migliaia di dipendenti, non una dozzina.
Resta la legittima aspirazione dell’insegnante a far bene, che è fra l’altro completamente in linea con gli interessi dei beneficiari del servizio da loro fornito. E a questa non si può semplicemente rispondere “Se ce la fai bene, altrimenti a casa”.
Come migliorare la qualità dell’insegnante è l’altro tema su cui potrebbe essere utile (ri)focalizzare la discussione alla luce della nuova evidenza empirica. Anche qui la strada è lunga e sarà inevitabile procedere in modo sperimentale. Giusto per dirne una, se qualcosa di impalpabile sta sotto la capacità di insegnare, cioè di trasmettere, comunicare nuova conoscenza, allora potrebbe essere utile mandare i giovani insegnanti a vedere da vicino, cioè da dentro la classe, cosa/come fanno i docenti più bravi, non per dieci ore, ma per mille (due al giorno per due anni).

(1) In pratica, negli esperimenti cui i dati si riferiscono c’è un insegnante per anno (per eliminare l’effetto scuola i dati utilizzati riguardano solo scuole nelle quali esistono osservazioni per entrambi gli anni), e si procede così: si registrano i risultati di N classi “prime” ed N “seconde”, in N scuole, per esempio nell’anno 2000, siano essi P(1),…P(N) ed S(1),…S(N). Poi nel 2001 si registrano i risultati delle ex-prime diventate seconde, diciamo SS(1),…SS(N). Si noti che essendoci un insegnante per anno in ogni scuola, P ed S non hanno lo stesso insegnante, mentre S ed SS sì. Le correlazioni misurate sono fra P ed S e fra S ed SS.

(2) In termini delle variabili sopra definite, la correlazione fra S ed SS è alta (cioè in genere S(n) e SS(n) sono entrambe alte — possibilmente l’insegnante della scuola è bravo — o entrambe basse — possibilmente l’insegnante è scarso; mentre la correlazione è bassa fra P e S (la relazione fra P(n) e S(n) non è regolare – possibilmente perché in alcune scuole è più bravo l’insegnante di P, in altre quello di S).

Miti e realtà della scuola italiana, di Andrea Prat

In molti paesi sviluppati, dagli Stati Uniti alla Germania, è in corso un dibattito profondo sul futuro della scuola. In Italia, invece, si parla molto di alcune vicende specifiche, come i buoni per la scuola privata decisi da alcune Regioni, ma manca un dibattito a tutto campo su come vogliamo che l’istruzione evolva nei prossimi decenni. Anche lavoce.info ne ha parlato poco, ad eccezione di alcuni interventi molto interessanti di Solomon Gursky e Daniele Checchi.

I miti da sfatare

In questo intervento vorrei fare un confronto, molto rozzo, tra la scuola italiana e quella di altri paesi sviluppati e non. Cominciamo sfatando alcuni miti:
Tutto sommato, la scuola italiana non è male. Un confronto internazionale tra sistemi scolastici è svolto dal Programme for International Student Assessment dell’Ocse. Invito i lettori de lavoce.info a consultare i rapporti del 2000 e del 2003, disponibili sul sito Pisa. Tali rapporti, basati su test svolti da 4.500/10mila quindicenni per paese, indicano senza ombra di dubbio che gli italiani hanno risultati peggiori dei loro coetanei degli altri paesi dell’Europa occidentale (con la possibile eccezione, ma solo in alcuni casi, della Grecia e del Portogallo). Questo vale per tutte e tre le aree considerate: scienze, lettura e matematica. I nostri risultati sono peggiori anche di quelli di paesi con un Pil pro capite più basso del nostro, come Spagna, Corea del Sud e molti paesi dell’Europa dell’Est. (1)
Il problema è che mancano le risorse. Al contrario, l’Italia è uno dei paesi al mondo con la spesa per studente più alta (vedi Tabella 1). Solo l’Austria, la Svizzera e gli Stati Uniti spendono di più. Spendiamo il 50 per cento in più della Germania, che ci batte sistematicamente in tutte le materie. (2)

Tabella 1

Spesa cumulativa per studente (dai 6 ai 15 anni)

in dollari PPP adjusted

Australia

58 480

Austria

77 255

Belgio

63 571

Canada

59 810

R. Ceca

26 000

Danimarca

72 934

Finlandia

54 373

Francia

62 731

Germania

49 145

Grecia

32 990

Ungheria

25 631

Islanda

65 977

Irlanda

41 845

Italia

75 693

Giappone

60 004

Corea

41 802

Messico

15 312

Olanda

55 416

Norvegia

74 040

Polonia

23 387

Portogallo

48 811

Slovacchia

14 874

Spagna

46 774

Svezia

60 130

Svizzera

79 691

Stati Uniti

79 716

Il problema è la Moratti. Al di là dell’opinione che si può avere sull’operato di Letizia Moratti (la mia è molto negativa), la situazione era più o meno la stessa nel rapporto Pisa 2000.

I fatti

E adesso passiamo ai tre fatti.
In Italia ci sono tanti insegnanti. Secondo dati Ocse 2002, il numero di studenti per insegnante in Italia è ai minimi mondiali. La Tabella 2 riporta i dati per le quattro maggiori nazioni europee. Questo spiega perché in Italia la spesa per studente è così alta.

Tabella 2

Germania

Francia

GB

Italia

Primaria

18,9

19,4

19,9

10,6

Secondaria inferiore

15,7

13,7

17,6

9,9

Secondaria superiore

13,7

10,6

12,5

10,3

Manca un meccanismo di valutazione esterna degli studenti. Le commissioni esaminatrici ai vari livelli sono composte unicamente o in maggioranza da membri interni. Questa situazione è stata peggiorata dal ministro attuale, ma esisteva già prima. Nella maggior parte degli altri paesi europei esistono meccanismi di valutazione esterni, che cercano di offrire un giudizio imparziale e standardizzato. (3)
Manca un meccanismo di valutazione esterna degli insegnanti e delle scuole. La valutazione esterna degli studenti non serve solo per valutare gli studenti, ma permette anche di formare un’opinione, seppure imperfetta, sulla qualità dei singoli insegnanti e delle singole scuole. In Italia, ciò è impossibile. L’esperienza di altri paesi – soprattutto della Gran Bretagna e degli Stati Uniti – dimostra che quando ci si rende conto che un sistema scolastico non funziona non esistono soluzioni facili, e soprattutto non esistono soluzioni rapide. I sistemi di valutazione presentano problemi enormi e in alcuni casi possono essere controproducenti. (4)
Altre opzioni, come l’autonomia scolastica, gli incentivi per gli insegnanti o la libertà di scelta della scuola da parte dei genitori, sono controverse. Non esiste consenso su quale sia il sistema ideale. Però non possiamo continuare a nascondere la testa sotto la sabbia. La scuola italiana è in crisi. E non possiamo dire che non ci sono i soldi o che è tutta colpa di questo Governo. I mali della nostra scuola hanno radici profonde. È ora di aprire un dibattito a tutto campo, senza escludere a priori alcuna alternativa.

(1) Il rapporto Pisa mostra come, a parità di scuola, i risultati del singolo studente dipendano dalla situazione socio-economica della sua famiglia. Quindi gli studenti italiani potrebbero andare peggio di quelli tedeschi perché in media le famiglie italiane sono meno ricche ed istruite di quelle tedesche. Però, questo ragionamento non spiega perché gli studenti italiani vadano peggio di tutta una serie di paesi con condizioni socio-economiche meno avanzate. Su lavoce.info Salvatore Modica nell’articolo “L’educazione di Zu’ Vice’” ha messo in evidenza un’importante differenza tra i risultati dei ragazzi del Nord e di quelli del Sud. Sarebbe interessante capire quanta parte di questo divario è dovuta all’eterogeneità delle condizioni socio-economiche piuttosto che a differenze nel sistema scolastico.

(2) Non è neanche vero che gli insegnanti italiani siano necessariamente sottopagati. È vero che alcuni paesi, come la Germania e la Svizzera offrono stipendi nettamente più alti. Però i dati Ocse (2002) mostrano che un insegnante di secondaria superiore italiano di prima nomina guadagna come il suo collega francese o inglese (circa 25mila dollari all’anno).

(3) Anche negli Stati Uniti manca, per tradizione, un sistema nazionale di valutazione. Per un’analisi del costo di introdurre tale sistema si veda Caroline Hoxby, The cost of accountability.

(4) Si veda ad esempio il lavoro di Jacob e Levitt, Catching Cheating Teachers: The Results of an Unusual Experiment in Implementing Theory.

Le Retribuzioni Perverse dell’Universita’ Italiana, di Stefano Gagliarducci, Andrea Ichino, Giovanni Peri e Roberto Perotti

La “fuga dei cervelli” dall’Italia ha recentemente trovato spazio nelle prime pagine dei quotidiani ed è stata ampiamente confermata da numerose analisi statistiche. Tuttavia, ciò che forse dovrebbe fare riflettere maggiormente è che quasi nessun ricercatore straniero è attratto dal nostro paese. Nei corsi di Dottorato Italiani soltanto il 2% degli studenti proviene dall’estero e, in tutto, meno di 3,500 persone provenienti da altri paesi dell’Unione Europea lavorano nel settore scientifico-tecnologico in Italia. Nel Regno Unito (e risultati simili valgono per altri paesi europei) il 35% degli studenti nei corsi di Ph.D. sono stranieri e piu’ di 42,000 cittadini della U.E. (non Britannici) lavorano come ricercatori in quel paese.
Il nostro obiettivo in questo contributo (che si basa su Gagliarducci, Ichino, Peri e Perotti, 2005) e’ di illustrare tre punti fondamentali. Primo, mostrare che – contrariamente ad una interpretazione diffusa – un’ analisi corretta dei dati bibliometrici rivela che la qualita’ della produzione scientifica Italiana e’ modesta. Secondo, discutere come l’attuale sistema di remunerazioni e carriere induca incentivi sbagliati e allontani i “talenti”. Terzo, formulare una proposta di riforma a costo zero che modifichi profondamente il sistema di incentivi attuali.

Produttivita’ Scientifica dei Ricercatori Italiani

La prima e la seconda colonna della Tavola 1 mostrano il numero medio di pubblicazioni e di citazioni per ricercatore (nei settori di Scienza e Ingegneria) durante il periodo 1997-2001 (i dati sul numero dei ricercatori si riferiscono al 1999). L’Italia risulterebbe avere un rapporto “pubblicazioni / ricercatore” e “citazioni / ricercatore” tra i piu’ alti in assoluto (si vedano le colonne 1 e 2 della Tavola 1). Questi risultati, apparentemente incoraggianti, sono stati ampiamente citati nella stampa italiana, in particolare nella risposta del ministro Moratti ad un articolo di Francesco Giavazzi sul Corriere della Sera del 22 Novembre 2004. C’è tuttavia qualcosa di strano in questi dati: gli Stati Uniti appaiono agli ultimi posti di questa classifica – un risultato assai implausibile. Il mistero è facilmente svelato: la definizione di ricercatore include una varietà di figure professionali, ma le pubblicazioni scientifiche provengono per la maggior parte da una sola di queste figure: i ricercatori accademici. Essi sono una maggioranza nei paesi sud europei inclusa l’ Italia, ma sono una minoranza (e molto piccola negli Stati Uniti) in quasi tutti gli altri paesi. Quando al denominatore usiamo i ricercatori accademici l’Italia ha rapporti “pubblicazioni / ricercatore” (colonna 4) e “citazione / ricercatore” (colonna 5) ben inferiori agli USA, ma anche a Regno Unito, Olanda e Danimarca.
Una misura della qualità, anziché della quantità, di pubblicazioni è data dal loro fattore di impatto, cioè dal numero di citazioni che essa riceve. La colonna 6 della Tabella 1 mostra il numero medio di citazioni per lavoro pubblicato nel periodo 1997-2001. L’Italia ha un valore simile alla Francia, e superiore solo a Spagna e Portogallo.

Retribuzioni

Il sistema retributivo italiano ha tre caratteristiche. Primo, la progressione retributiva dipende quasi esclusivamente dall’ anzianità di servizio: all’interno di ciascuna categoria di docenza (Ricercatore, Associato, Ordinario), la produttività è completamente irrilevante per la determinazione del salario. Le analisi di Daniele Checchi (1999) di Roberto Perotti (2002) mostrano chiaramente che il numero di pubblicazioni ha un’influenza marginale nelle decisioni di promozione di categoria. Secondo, il profilo temporale della progressione salariale è molto “ripido”: si guadagna poco a inizio carriera, ma l’ anzianità viene remunerata molto bene. Consideriamo un giovane che diventi ricercatore a 25 anni, associato a 35 anni e ordinario a 45 anni: tra inizio e fine carriera il suo salario aumenta di un fattore pari a 5, sostanzialmente per effetto della sola anzianita’ (vedi Tabella 2).
Terzo, per effetto di questa progressione, e contrariamente ad una credenza assai diffusa, un ordinario italiano con 35 annni di anzianità è ben pagato anche rispetto ai suoi colleghi statunitensi. Come si vede confrontando la Tabella 2 con la Tabella 3, egli riceve un salario superiore a quello dell’ 80 percento dei professori ordinari nelle migliori università statunitensi (quelle con un programma di PhD), e superiore a quello del 95 percento degli ordinari nelle università con al più un corso di master (la stragrande maggiornaza delle università americane).
Il sistema retributivo dei docenti universitari negli Stati Uniti segue regole assai diverse. Il salario è negoziato individualmente, ed è quindi funzione delle opportunità di lavoro alternative, cioè, essenzialmente, dalla produttività di un professore. In conseguenza, a qualsiasi livello di anzianità la dispersione salariale è molto elevata (mentre in Italia è nulla). Ad esempio il rapporto tra i salario massimo (113,636 euro nelle piu’ prestigiose università con corsi di Ph.D.) e minimo (27,273 euro in un community college) di un assistant professor (ricercatore) è pari a circa 4.2. E un assistant professor di 25 anni molto produttivo e promettente può benissimo guadagnare ben più di un ordinario a fine carriera ma poco produttivo. D’altro canto, la progressione salariale in carriera è sempre ancorata alla produttività scientifica e non così accentuata come in Italia: a fine carriera un ottimo professore guadagna tra 1.5 e 2 volte il suo salario iniziale.
Questa è esattamente la struttura salariale che ci si apetterebbe se il salario fosse usato come strumento per incentivare la produttività e per premiare gli anni di ricerca più produttivi, che tipicamente sono quelli da inizio fino a metà carriera.

Proposte per una Riforma

La causa principale dei problemi dell’ università italiana non è dunque la mancanza di fondi, bensì l’esistenza di meccanismi sbagliati di distribuzione delle risorse. Le nostre proposte sono quindi volte a modificare il sistema di incentivi in modo che, a parità di risorse, nell’accademia italiana venga premiata l’eccellenza scientifica secondo parametri condivisi dalla comunità internazionale. Il nostro lavoro “Lo Splendido Isolamento dell’ Università Italiana” discute queste proposte in maggiore dettaglio.

1. Liberalizzare le retribuzioni del personale accademico.
2. Liberalizzare le assunzioni: ogni università assume chi vuole e come vuole; di conseguenza, è abolito l’attuale sistema concorsuale.
3. Liberalizzare i percorsi di carriera: ogni università promuove chi e come vuole.
4. Liberalizzare completamente la didattica: ogni università è libera di organizzare i corsi come vuole e di offrire i titoli che preferisce.
5. Liberalizzare le tasse universitarie: ogni università si appropria delle tasse pagate da i propri studenti.
6. In alternativa alla proposta precedente, mantenere il controllo pubblico sulle tasse universitarie aumentandole però considerevolmente.
7. Utilizzare i risparmi statali così ottenuti per istituire un sistema di vouchers, borse di studio e prestiti con restituzione graduata in base al reddito ottenuto dopo la laurea.
8. Allocare ogni eventuale altro finanziamento statale alle università in modo fortemente selettivo sulla base di indicatori di produttività scientifica condivisi dalla comunità internazionale.
9. Consentire l’accesso a finanziamenti privati senza limitazioni.
10. Abolire il valore legale del titolo di studio.

Tabella 1. La produttività e la qualità dei ricercatori italiani

pubblicazioni / ricercatori tot

citazioni / ricercatori tot

Ricercatori accademici / ricercatori tot

pubblicazioni / ricercatori accademici

citazioni / ricercatori accademici

impact factor medio

impact factor standardizzato

1

2

3

4

5

6

7

USA

1.00

8.60

0.15

6.80

58.33

8.57

1.48

Germania

1.25

8.64

0.26

4.77

32.98

6.91

1.33

Regno Unito

2.17

15.86

0.31

6.99

51.00

7.30

1.39

Francia

1.45

9.43

0.35

4.09

26.68

6.52

1.12

Italia

2.26

14.81

0.38

5.88

38.57

6.56

1.12

Spagna

1.68

9.09

0.55

3.06

16.54

5.41

.97

Portogallo

0.86

3.99

0.52

1.65

7.62

4.62

.82

Danimarca

1.96

15.57

0.30

6.50

51.56

7.93

1.48

Olanda

2.29

18.79

0.31

7.41

59.58

8.20

1.39

Canada

1.68

11.79

0.33

5.04

35.28

7.00

1.18

Da Gagliarducci, Ichino, Peri e Perotti (2005).
Definizioni: Colonna 6: impact factor: definito come numero totale di citazioni / numero totale di pubblicazioni, entrambe per il periodo 1997-2001;. Colonna 7: impact factor standardizzato, 2002; vedi testo per la definizione.
Fonti: Pubblicazioni e citazioni: King (2004), dati riferiti agli anni 1997-2001; Impact factor standardizzato: King (2004), dati riferiti al 2002; Numero di ricercatori: OECD, Main Science and Technology Indicators database, dati 1999 (1998 per Regno Unito). Il numero di ricercatori è espresso in unità full time equivalent.

Tabella 2. Distribuzione dei salari accademici in Italia

Anzianità di servizio

in anni

Professore Ordinario

a tempo pieno

Professore Associato

a tempo pieno

Ricercatore

a tempo pieno

0 (non conf.)

47631

36053

20225

3

50412

37999

29244

5

54207

40684

31150

7

56900

42596

32516

9

60696

45280

34422

11

63388

47192

35788

13

67184

49876

37694

15

70979

52560

39601

17

73968

54683

41117

19

76957

56806

42633

21

79946

58928

44149

23

82935

61051

45665

25

85924

63174

47181

27

88913

65296

48698

29

91902

67419

50214

31

94891

69542

51730

33

96735

70851

52665

35

98578

72160

53600

37

100421

73469

54535

39

102264

74778

55470

Media

77242

57020

42415

Da Gagliarducci, Ichino, Peri e Perotti (2005).
Nota: Dati aggiornati all’anno 2004. La tabella riporta il salario annuo in euro al lordo delle tasse per le tre categorie di docenti italiani al variare della anzianità di servizio, secondo la tabella elaborata dal CNU di Bari e pubblicata sul sito http://xoomer.virgilio.it/alpagli/. Poiché non disponiamo della distribuzione dei docenti italiani per anzianità, le retribuzioni medie nell’ultima riga sono calcolate ipotizzando una distribuzione uniforme.

Tabella 3. Distribuzione dei salari accademici negli Stati Uniti

Università con corsi undergraduate

e corsi di dottorato

Università con corsi undergraduate

e corsi di master

College senza corsi graduate

Percentile

Full

Associate

Assistant

Full

Associate

Assistant

Full

Associate

Assistant

1

49,091

38,182

30,909

41,818

34,545

29,091

36,364

29,091

27,273

5

56,364

43,636

36,364

47,273

40,000

32,727

41,818

34,545

32,727

10

68,969

52,678

44,994

53,526

44,728

38,386

42,749

37,871

32,906

20

73,139

55,133

46,742

56,721

47,005

40,217

47,956

40,698

35,404

30

77,091

57,091

48,378

59,075

48,733

41,338

51,109

42,951

37,047

40

79,738

58,875

50,493

61,465

50,515

42,336

53,589

44,857

38,552

50

83,820

61,747

51,825

63,913

51,879

43,435

56,944

46,835

39,592

60

89,466

63,622

54,266

66,523

53,535

44,788

59,843

48,796

40,931

70

94,616

65,989

55,896

70,540

55,623

46,265

63,037

50,730

42,147

80

98,730

69,816

58,476

75,203

58,567

48,661

67,198

53,529

44,383

90

108,003

73,599

63,804

81,060

63,645

51,465

78,941

59,007

48,832

95

119,212

79,177

65,953

86,323

66,372

53,279

86,854

64,672

51,373

99

195,455

122,727

113,636

122,727

92,727

80,000

122,727

83,636

69,091

Media

91,529

62,400

53,251

69,193

54,555

45,417

65,293

50,392

41,901

Da Gagliarducci, Ichino, Peri e Perotti (2005).
Nota: Dati riferiti all’anno accademico 2003-04. La tabella riporta i percentili in euro della distribuzione del salario annuo al lordo delle tasse per i Full Professor, gli Associate Professor e gli Assistant Professor in tre categorie di università degli Stati Uniti. La fonte è il rapporto della AAUP (2004), in particolare le Tabelle 4, 8 e 9a. I dati si riferiscono a 1446 università per un totale di 1775 campus. Per la conversione della valuta abbiamo utilizzato il tasso di cambio corretto per Purchasing Power Parity pari a 1.11 dollari per euro.

Bibliografia:

Checchi, D., 1999, Tenure. An Appraisal of a National Selection Process for Associate Professorship, Giornale degli Economisti ed Annali di Economia, 58 (2), 137-181.

Gagliarducci S., A. Ichino , G.Peri e R. Perotti (2005) “Lo Splendido Isolamento dell’ Universita’ Italiana” Working Paper, Fondazione Rodolfo De Benedetti, Milano, www.igier.uni-bocconi.it/perotti.

Kalaitzidakis P., Stengos T. e Mamuneas T.P., 2003, Rankings of Academic Journals and Institutions in Economics, Journal of the European Economic Association, 1 (6), 1346-1366.

Perotti, R., 2002, The Italian University System: Rules vs. Incentives, www.igier.uni-bocconi.it/perotti

Che fine ha fatto la Devolution?

Inserita in quella sorta di patchwork di bandierine elettorali, una per ciascuna componente politica della maggioranza, che è l’ultima riforma della Costituzione.
Sepolta da una ridda di numeri sui suoi costi, spesso presunti. Privata del meccanismo
automatico di perequazione nella distribuzione delle risorse fra le Regioni. Da quasi tutti voluta e da nessuno realizzata, la devolution continua a dibattersi negli stessi problemi di sempre. A partire dalla mancanza di chiarezza sui sistemi di
finanziamento e sugli spazi di autonomia da riconoscere agli enti decentrati. Anche perché il dualismo economico del paese rende necessario un sistema perequativo efficiente e l’assenza di un quadro di regole condivise tra centro e periferia espone al rischio di fenomeni d’irresponsabilità finanziaria, come quelli che si sono prodotti nel
caso della sanità.

Il telefono, la tua bolletta

E’ giusto chiedersi se la liberalizzazione delle telecomunicazioni abbia arrecato effettivi benefici ai consumatori finali. Andrea Gavosto contribuisce alla discussione aperta da Carlo Cambini rilevando che i dati sulle tariffe telefoniche apparsi su lavoce.info non tengono conto dei cosiddetti “pacchetti tariffari”. Nella sua controreplica, l’autore ricorda che l’analisi si proponeva di valutare l’impatto del processo di liberalizzazione e non delle strategie tariffarie dei singoli operatori.

Alitalia: bene così, ma non facciamoci illusioni

Sembra ormai vicina ad una soluzione la crisi Alitalia. Tuttavia, non è ancora tempo per nutrire facili illusioni, come sottolinea Carlo Scarpa  (Alitalia: bene così, ma non facciamoci illusioni).  Ricostruiamo  la dinamica della crisi nel corso degli ultimi mesi con interventi di Francesco Cavalli, Francesco Gazzoletti e Daniele Nepoti  (Come si dice Malpensa in cinese?), Andrea Goldstein (Per Alitalia, guardiamo all’estero), Marco Ponti (Vola solo il deficit e Alitalia: un’Italia senza ali), Carlo Scarpa, (All’Alitalia serve chiarezza), Mario Sebastiani (Perchè Alitalia resta a terra).

Europei oziosi?

Gli europei lavorano meno degli americani? E gli italiani meno degli altri lavoratori europei? Perchè ci sono differenze così grandi fra paesi in termini di ore lavorate? Si tratta di attitudini che rendono i lavoratori di alcuni paesi più “pigri” che in altri stati, oppure di istituzioni che tengono fuori dal mondo del lavoro molte persone?  Mentre in Francia si abbandonano le 35 ore e in Germania si raggiungono accordi aziendali che prevedono un incremento degli orari di lavoro, riproduciamo per i nostri lettori gli interventi di Olivier Blanchard, Tito Boeri, Michael Burda, Jean Pisani-Ferry, Guido Tabellini, Charles Wyplosz e una scheda di Domenico Tabasso.

Un mercato per le licenze

In una segnalazione inviata ai presidenti delle Camere e al Governo l’Antitrust denuncia l’esistenza di poca concorrenza nel mercato dei taxi. Nuove licenze potrebbero essere assegnate tramite aste. Lavoce aveva già affrontato questi temi, riproponiamo qui gli interventi di Andrea Boitani, Angela Bergantino e Massimo Bordignon.

Pagina 15 di 16

Powered by WordPress & Theme by Anders Norén