Lavoce.info

Tag: Monografie Pagina 3 di 4

Pluralismo, chi era costui?

Sommario a cura di Michele Polo

Il 2004 è stato un anno importante per l’informazione e i media nel mercato italiano. A maggio è stata approvata la nuova legge che regolamenta gli assetti del settore delle comunicazioni, la Legge Gasparri, che introduce profondi cambiamenti rispetto al quadro recedente. Ma mantiene un dato di continuità con le precedenti normative, nel fotografare la situazione esistente senza incidere sul quadro allarmante dell’informazione e del pluralismo in Italia. Il mercato televisivo viene sottoposto a vincoli antitrust, calcolati tuttavia su un mercato di riferimento talmente ampio e eterogeneo da consentire non solo il mantenimento, ma la crescita delle attuali posizioni dominanti. Ma il pluralismo in Italia non è solamente un problema di televisioni. Anche la stampa, settore apparentemente più frammentato, si caratterizza come un insieme di piccoli oligopoli locali, all’interno dei quali pochissime testate vantano quote di mercato molto elevate. In questo quadro di concentrazione persistente e non intaccato dalle nuove norme inizia a profilarsi all’orizzonte una revisione della par condicio, che in un contesto come quello italiano appare uno dei pochi vincoli che garantiscano un bilanciamento delle opportunità tra le diverse posizioni politiche.

Una regolamentazione per il pluralismo, di Michele Polo

Le dinamiche di mercato difficilmente possano portare a una offerta diversificata e ampia di posizioni politiche tra operatori dell’informazione o all’interno di ciascuno di essi, come abbiamo illustrato nell’intervento a fianco. Da questo fallimento del mercato nel garantire il pluralismo deriva l’esigenza di appropriate politiche pubbliche.

L’antitrust non basta

È bene sottolineare subito che le politiche antitrust, per quanto utili a mantenere la concorrenza e i mercati aperti ai nuovi entranti, non possono da sole supplire alle esigenze di pluralismo, e ubbidiscono a obiettivi di efficienza economica che non sempre coincidono con quelli di un libero accesso di tutte le opinioni ai mezzi di comunicazione.
Si rende quindi necessario il disegno di appropriate politiche regolatorie per il pluralismo.

Abbiamo argomentato come in molti mercati dei media esiste una tendenza alla concentrazione, dovuta a dinamiche in parte diverse, che ben difficilmente le politiche pubbliche possono evitare. Esiste tuttavia uno spazio su cui intervenire per evitare che la concentrazione risulti anche maggiore di quanto le dinamiche concorrenziali giustifichino, sottoponendo a un attento controllo la creazione di gruppi multimediali su uno stesso o su più mercati.
In primo luogo la concentrazione, in una prospettiva di pluralismo, dovrebbe essere valutata mercato per mercato, con riferimento alla distribuzione degli ascoltatori e dei lettori, in modo da verificare se qualcuno tra i media presenta problemi di insufficiente pluralismo esterno. Siamo quindi ben lontani da quel singolare coacervo di mercati e di fatturati, il sistema integrato di comunicazione, creato dalla Legge Gasparri per annacquare ogni posizione dominante.

L’impostazione che riteniamo meno intrusiva sulle dinamiche di mercato dovrebbe limitare la concentrazione sul singolo mercato dei media (pur sacrificando in questo eventuali sinergie), qualora questa si realizzi attraverso la proprietà di più mezzi (molti canali televisivi, o numerosi giornali o stazioni radio) attivi sul mercato stesso. Se tuttavia con un singolo mezzo, un operatore fosse in grado di raccogliere un ampio pubblico grazie alla bontà dei suoi contenuti, non riteniamo che le politiche pubbliche dovrebbero intervenire con dei vincoli alle quote di mercato.
Al contempo, tali sinergie dovrebbero essere invece consentite tra diversi segmenti dei media, laddove l’operatore multimediale non raggiunga posizioni dominanti in nessuno dei singoli mercati. In una parola, gruppi multimediali risultano desiderabili se attivi su più mercati, ma dovrebbero essere contrastati se dominanti in un singolo mercato

Gli strumenti da utilizzare

Gli strumenti che in questa prospettiva appaiono più utili risultano le limitazioni al numero di licenze in capo a uno stesso operatore, applicabili in quei mercati (televisione e radio) nei quali una autorizzazione è necessaria per l’uso dello spettro elettromagnetico. Utilizzando questo strumento è possibile quindi limitare la crescita di un operatore che disponga di un portafoglio con più licenze per canali televisivi, laddove la sua quota cumulata di audience superi determinate soglie (in Germania è attualmente posta al 30 per cento), costringendolo a cedere licenze nel caso di superamento dei limiti consentiti. Analogamente, vincoli alla partecipazione su più mercati (giornali, televisioni, radio) dovrebbero intervenire laddove l’operatore raggiunga una posizione dominante in qualcuno di essi, imponendo anche in questo caso la cessione di licenze.

Più difficile intervenire in caso di forte dominanza realizzata da gruppi editoriali attivi solo nella carta stampata con numerose testate, per le quali evidentemente non esistono licenze da ottenere. Solamente in caso di fusioni e acquisizione, ma non di creazione ex-novo di testate, ci sarebbe spazio per intervenire. Quando questi interventi volti a garantire il pluralismo esterno risultano poco efficaci, vanno associate misure per il pluralismo interno.
Il pericolo maggiore per il pluralismo interno nei contenuti dei singoli operatori, ritengo derivi dalle motivazioni lobbistiche dei gruppi proprietari, che inducono a privilegiare la rappresentazione di posizioni politiche specifiche. Questa componente risulta enfatizzata quando la proprietà dei gruppi di comunicazione veda coinvolti investitori attivi in altre industrie regolate (public utilities, banche, trasporti, eccetera). Occorre quindi fissare dei limiti alla partecipazione azionaria di queste categorie di soggetti al settore dei media.

Le motivazioni lobbistiche o partigiane espresse dalla proprietà dei media sono tuttavia in parte ineliminabili. Occorre quindi pensare, in particolare nelle fasi (campagne elettorali) nelle quali distorsioni informative eserciterebbero effetti di lungo periodo, a una regolazione diretta degli spazi, del diritto di replica, dell’accesso, secondo criteri di par condicio. Questa regolamentazione è stata sino a oggi applicata all’informazione televisiva. La situazione di forte concentrazione nei mercati locali della carta stampata pone tuttavia l’esigenza di iniziare a discutere di quello che sinora è considerato un tabù, il diritto di accesso sui giornali. Infine, il mantenimento di un canale pubblico televisivo (ben diverso dalla attuale Rai) sottoposto a un controllo diretto da parte di una autorità di vigilanza indipendente dovrebbe offrire un ulteriore, parziale, tassello, a garanzia di una informazione più articolate e pluralista.

Regole, monitoraggi e sanzioni, Antonio Zizzoli

Nel dibattito politico italiano, il tema del pluralismo nei mass media ha un ruolo centrale. L’Osservatorio di Pavia svolge monitoraggi in Italia da più di dieci anni e più di cinquanta sono state le missioni elettorali all’estero. (1)
Forse proprio perché ha il polso delle variegate situazioni, ha maturato la convinzione che su questo aspetto del funzionamento del processo democratico sia necessaria una riflessione attenta e pacata, poco legata alla contingenza e alle pressioni dei vari attori.

La par condicio in Italia e all’estero

È bene sgombrare subito il campo dall’idea che la regolamentazione della comunicazione politica sia una peculiarità italiana.
Un memorandum di intenti di trentadue pagine, che stabiliva minuziosamente tutti i particolari del confronto, ha regolato i tre recenti dibattiti presidenziali Bush–Kerry.
Sempre negli Usa, i tempi di presenza dei canditati sono rigidamente contingentati. Per esempio, durante la campagna per governatore della California, secondo le leggi federali sulla par condicio i film di Arnold Schwarzenegger costituivano spazio televisivo e quindi mandarli in onda non rispettava la parità di accesso. Qualora fossero stati trasmessi film come Terminator o Atto Forza, i rivali di Schwarzenegger avrebbero potuto chiedere e ottenere analoghi spazi televisivi gratis. Libertà certo, ma ben regolamentata.

In Italia, la legge 28/2000, detta della par condicio, “promuove e disciplina, al fine di garantire la parità di trattamento e l’imparzialità rispetto a tutti i soggetti politici, l’accesso ai mezzi di informazione per la comunicazione politica”.
I principi di tale legge sono relativamente chiari e sinteticamente così riassumibili:
– durante le campagne elettorali la comunicazione politica viene compressa in spazi rigidamente regolamentati e vietata in qualsiasi altro genere televisivo, fatta eccezione per le notizie dei telegiornali (le news).
– Sono vietati gli spot e permessi spazi autogestiti (i messaggi autogestiti), anche questi rigidamenti normati
– Gli spazi concessi ai soggetti partecipanti alla competizione sono un mix tra rappresentanza esistente e candidature ex-novo.
– Infine sono date indicazione di massima sull’uso corretto del mezzo televisivo (“I registi ed i conduttori sono altresì tenuti ad un comportamento corretto ed imparziale nella gestione del programma, così da non esercitare, anche in forma surrettizia, influenza sulle libere scelte degli elettori”).

I monitoraggi

La Commissione parlamentare di vigilanza e l’Autorità delle comunicazioni (Agcom), previa consultazione tra loro, e ciascuna nell’ambito della propria competenza, regolano il riparto degli spazi tra i soggetti politici e stilano il regolamento dei messaggi autogestiti. Quest’attività ha il fine di rendere operativi i principi “astratti” sanciti dalla legge 28/2000 e di calarli nel contesto delle diverse campagne elettorali.

Contestualmente vengono svolti due monitoraggi (2) che controllano la conformità di quanto trasmesso con le disposizioni regolamentari. Un monitoraggio è a cura dell’Agcom e disponibile continuativamente sul sito www.agcom.it, l’altro è a cura dell’Osservatorio di Pavia per conto della Rai. In questo modo gli organi di controllo, le emittenti e i cittadini hanno a disposizione gli strumenti per controllare, valutare e sanzionare la correttezza della campagna elettorale per quanto riguarda il pluralismo politico.

Punti di forza e limiti

Nelle recenti campagne elettorali la parte relativa alle disposizioni su “Messaggi autogestiti, ripartizione dei tempi dei soggetti nei programmi dedicati alla campagna elettorale e la loro assenza al di fuori di tali programmi” è stata per lo più rispettata.
Punti critici invece, perché di difficile interpretazione, sono risultati:
– gli spazi dei soggetti politici nei telegiornali
– gli spazi dei soggetti politici dedicati alla cronaca al di fuori dei telegiornali
– il comportamento corretto e imparziale nella gestione dei programmi da parte dei conduttori.

Il trade off tra libertà di informazione e regole del pluralismo è forse il punto più delicato della normativa sulle campagne elettorali, poiché va a incidere sul diritto-dovere del giornalista di informare e scegliere le notizie. Come distribuire i tempi tra i partiti in modo equo rispettando l’esigenza del pubblico di essere informato su ciò che accade? Gli esponenti del Governo candidati come devono essere conteggiati? Se un ministro inaugura una strada in campagna elettorale, questo tempo è da attribuire alla competizione elettorale o al diritto-dovere del Governo di informare sulla propria attività? Questa distinzione appare più agevole nelle campagne elettorali per le elezioni politiche, durante le quali l’attività governativa si limita all’ordinaria amministrazione. Più difficile è distinguere tra informazione sull’attività governativa e propaganda per i candidati nel caso di elezioni (europee, regionali) che avvengono mentre il Governo in carica è pienamente operativo.

Problematico risulta poi valutare la qualità della comunicazione soprattutto in relazione al comportamento corretto e imparziale nella gestione dei programmi da parte dei conduttori.
I casi di aperta violazione di questa regola sono rari e quasi sempre riconducibili a pochi conduttori: la delicatezza del tema è evidente perché la partigianeria di un giornalista può essere valutata come comportamento coraggioso e “libero” dalla parte in sintonia con la sua posizione politica. Va tuttavia ricordato che in questi casi, oltre alla prudenza nell’intervenire, occorre che le sanzioni siano tempestive, cosa che non sempre avviene.

L’attuale legge italiana, sicuramente perfettibile, costituisce una buona base per il conseguimento del pluralismo. Lasciare non regolamentato questo campo, come in modo ricorrente viene sostenuto, significa rischiare gravi squilibri soprattutto in situazioni in cui le risorse delle emittenti sono molto concentrate e il controllo indiretto sul trasmesso è quasi inevitabile.


(1) Si veda il sito
www.osservatorio.it

(2) I monitoraggi, che coprono tutto il trasmesso 24 ore su 24 per 365 giorni l’anno, tra l’altro evidenziano:
– la presenza di un soggetto politico e la sua anagrafica (nome, cognome, sesso, partito, carica istituzionale, eccetera)
– la durata dell’intervento in secondi
– l’anagrafica della presenza (giorno, ora, minuto, rete e programma,)
– il tema dell’interevento.

La concentrazione nascosta, di Marco Gambaro

Nel dibattito sul pluralismo, il tema della concentrazione nel mercato dei quotidiani è spesso sostanzialmente sottovalutato. Si dà per scontato, almeno in Italia, che il pluralismo esista perché è alto il numero di testate presenti sul piano nazionale.

La dimensione locale

Una valutazione della concentrazione del mercato dovrebbe tuttavia tenere conto del fatto che i quotidiani competono prevalentemente su scala locale e che negli specifici mercati il grado di concentrazione può essere molto elevato.
Negli Stati Uniti, ad esempio, negli ultimi vent’anni vi è stato un continuo processo di concentrazione che ha portato la quasi totalità delle aree urbane ad avere un’unica testata oppure più testate dello stesso proprietario (in precedenza in circa i due terzi dei mercati operavano più testate ed editori concorrenti). Se si escludono l’unico quotidiano nazionale, Usa Today, e poche grandi città con più quotidiani in concorrenza tra loro (taluni prestigiosi, ma sempre locali), il mercato statunitense è configurato come un insieme di monopoli locali sostanzialmente autonomi dove operano 1.457 testate che vendono circa cinquantacinque milioni di copie giornaliere.

Nel nostro paese la situazione non è così polarizzata e i singoli mercati non sono così separati, ma la dimensione locale della concorrenza è comunque molto importante. In Italia si pubblicano novantuno testate e le prime due, Corriere della Sera e Repubblica, hanno quote di mercato di poco superiori al 10 per cento della diffusione giornaliera, mentre i gruppi cui fanno capo totalizzano assieme poco più del 40 per cento della diffusione complessiva. (1)

Misurare la concentrazione

Questi dati a livello nazionale non rappresentano tuttavia l’indicatore più corretto per una valutazione della concentrazione, poiché anche le maggiori testate hanno una diffusione molto disomogenea sul territorio. La Stampa (2) ad esempio vende nelle sue prime tre province di diffusione (Torino, Cuneo e Alessandria) il 50 per cento delle copie totali e nelle prime dieci province il 75per cento delle copie, mentre in ciascuna delle province restanti vende mediamente lo 0,3 per cento della sua diffusione. Il Corriere della Sera vende nelle sue prime tre province (Milano, Roma e Varese) il 45 per cento delle copie e nelle prime dieci il 60 per cento mentre nel resto d’Italia realizza mediamente lo 0,44 per cento delle sue vendite in ogni provincia. Anche la Repubblica, che pure ha una diffusione più omogenea, vende il 54 per cento nelle prime dieci province.

Per meglio valutare la concentrazione sui mercati rilevanti si è quindi proceduto a identificare, per ciascun quotidiano, l’insieme delle province nelle quali viene realizzata la maggior parte delle vendite, definibile come mercato di riferimento. Due sono le misure utilizzate, in modo da cogliere sia le realtà di giornali con una distribuzione molto concentrata in poche province (in questo caso sono state considerate le aree che cumulativamente rappresentano il 90 per cento delle vendite della testata), sia quelle di quotidiani con una diffusione relativamente più estesa (prendendo in questo caso tutte le province con una diffusione almeno pari allo 0,5 per cento delle vendite totali del quotidiano, senza necessariamente raggiungere in questo caso il 90 per cento delle vendite). (3)
Per ogni testata, sull’insieme di province che costituiscono il suo mercato di riferimento, sono stati calcolati diversi indici di concentrazione. (4) In questo modo è possibile verificare se nella sua area territoriale di diffusione, il quotidiano fronteggia un numero elevato di concorrenti o ha una posizione dominante. I risultati così ottenuti confermano una forte concentrazione nei mercati di riferimento. Delle cinquantaquattro testate di cui sono disponibili i dati Ads (Accertamenti diffusione stampa) delle vendite provinciali, ventiquattro operano in mercati con un indice di Herfindahl-Hirschmann superiore a 0,15 considerato normalmente la soglia di attenzione delle autorità antitrust. Ventisei quotidiani nel loro mercato di riferimento hanno una quota di mercato superiore al 30 per cento e ben quarantadue testate contribuiscono all’indice HH del loro mercato per più del 50 per cento.
Ad esempio, un quotidiano come Il Messaggero ha una quota del mercato nazionale inferiore al 5 per cento, ma nelle province del suo mercato specifico ha una quota del 23 per cento, l’indice di HH del suo mercato è 0,1068 cui contribuisce per circa il 50 per cento. Oppure Il Gazzettino di Venezia ha una quota del 33 per cento del suo mercato specifico che a sua volta ha un indice di HH di 0,1529 cui Il Gazzettino contribuisce per il 73 per cento.

Distinguendo per tipologie di quotidiani e calcolando per ciascuno di essi i valori medi della categoria, quelli nazionali operano in un mercato di riferimento relativamente ampio e poco concentrato, mentre le testate multiregionali, regionali e provinciali, con diffusione e mercati di riferimento via via più ristretti, evidenziano una forte concentrazione dei lettori, come si può notare nella tabella.
Questo dato conferma indirettamente il fatto che nei mercati locali (corrispondenti ai mercati di riferimento per queste testate) quasi sempre un numero molto limitato di quotidiani si contende il pubblico. Dall’analisi emerge quindi come la concentrazione effettiva nei mercati dei quotidiani sia superiore a quanto comunemente si crede per effetto della forte polarizzazione geografica della diffusione, anche per i quotidiani tradizionalmente considerati nazionali.



(1) La Federazione degli editori indica otto testate nazionali che complessivamente hanno venduto nel 2002 il 36 per cento delle copie giornaliere: Avvenire, Corriere della Sera, Foglio, Il Giornale, Il Giorno, La Repubblica, La Stampa, Libero.

(2) Questi dati e le altre elaborazioni di questo articolo derivano da uno studio da me svolto presso l’Università Statale di Milano e si riferiscono a dati 2000; la situazione relativa alla diffusione non è tuttavia sostanzialmente cambiata.

(3) Si tratta di confini piuttosto ampi se si considera che l’Autorità per le comunicazioni norvegese considera come mercato di riferimento di un quotidiano quelle province dove vende oltre il 10 per cento della sua diffusione.

(4) Si è calcolata nel mercato di riferimento la quota di mercato della testata, il rapporto tra quota della prima e della seconda testata (quota di mercato relativa), l’indice di Herfindahl-Hirschmann (somma delle quote di mercato al quadrato), utilizzato solitamente nelle valutazioni antitrust, e il contributo della prima testata al valore complessivo di questo indicatore

Quando il mercato non salva il pluralismo, di Michele Polo

Il pluralismo è un malato grave nel nostro paese. Ma non gode di buona salute in molti altre realtà, nonostante negli ultimi dieci anni i mezzi attraverso cui raggiungere il pubblico si siano moltiplicati, con lo sviluppo della televisione commerciale, il prossimo avvento di quella digitale e il fenomeno di Internet. A fronte di queste maggiori possibilità, i fenomeni di concentrazione sono tutt’oggi molto diffusi, e non rappresentano solamente il retaggio di un passato oramai chiuso, ma appaiono semmai come il risultato delle nuove modalità di concorrenza nei settori della comunicazione.

Concentrazione in televisione

Quando guardiamo al tema del pluralismo nel settore dei media, ci occupiamo prevalentemente di mercati nei quali operano imprese e gruppi di comunicazione privati, dalle cui scelte e dalle cui dinamiche competitive occorre partire per rispondere alla domanda se il mercato sia in grado di sfruttare le nuove opportunità tecnologiche (digitale, Internet) garantendo un accesso bilanciato e non discriminatorio a tutte le opinioni politiche.
In questa prospettiva solitamente si distingue tra pluralismo esterno, che considera se nell’offerta complessiva di un particolare mercato dei media (giornali, o televisione o radio, eccetera) tutte le opinioni politiche trovano spazio, e pluralismo interno, che invece guarda a come le diverse opinioni politiche sono rappresentate nell’offerta di un singolo operatore.

Se osserviamo il mercato dei media in una prospettiva di pluralismo esterno, due fenomeni appaiono frenare il raggiungimento di questo obiettivo. La perdurante concentrazione in segmenti come la televisione commerciale finanziata con pubblicità è sostenuta dalla forte concorrenza per i programmi più richiesti, che determina una forte lievitazione dei costi strettamente correlata ai futuri ricavi dai proventi pubblicitari. In questa corsa al rialzo c’è posto per pochi vincitori, come i dati sulla concentrazione televisiva testimoniano in tutti i paesi europei e parzialmente, dopo vent’anni di erosione da parte delle pay-tv, negli stessi Stati Uniti, dove i principali network raccolgono ancora circa la metà della audience nel prime time.

E nei giornali

Ma la concentrazione non è un fenomeno unicamente televisivo, interessa marcatamente anche la carta stampata.
Se andiamo al di là dei dati nazionali sulle vendite di quotidiani per studiarne la distribuzione geografica, troviamo una forte segmentazione nella quale in ogni mercato locale, quello in cui ciascuno di noi lettori abita,
uno o due giornali raccolgono la maggior parte dei lettori. E questo riguarda non solo, e ovviamente, i giornali locali, ma gli stessi quotidiani di opinione, che, con pochissime eccezioni, vantano un forte radicamento regionale. Fenomeno che non è solo nostrano, come testimonia l’evoluzione dei mercati locali della stampa negli Stati Uniti e la sempre più frequente sopravvivenza di un solo quotidiano locale. Le dimensioni relativamente limitate dei mercati provinciali e regionali spiegano quindi perché solamente pochi quotidiani possano sopravvivere in ciascuna area coprendo i significativi costi di struttura e di personale necessari per una edizione locale.

Il pluralismo interno

In mercati fortemente concentrati, per loro natura impossibilitati a sostenere una offerta di media ampia e diversificata (pluralismo esterno), rimane la strada del pluralismo interno.
Vorremmo fosse affidato in primo luogo agli incentivi di un operatore o gruppo di comunicazione a coprire più segmenti di mercato (opinioni politiche) con la propria offerta, analogamente a come si coprono molte discipline sportive, vari temi di intrattenimento, molti generi di film. L’ostacolo maggiore in questa prospettiva si ritrova nel forte ruolo che i media esercitano come strumento di lobbying, che li trasforma in un mezzo ideale in quel terreno scivoloso di contrattazione politica tanto prezioso soprattutto per i gruppi economici fortemente regolati.
Analoghe distorsioni possono poi nascere dalla stessa identificazione politica dei gruppi di comunicazione, dove a fronte dei fin troppo ovvi esempi nostrani, non possiamo che registrare con preoccupazione un fenomeno, relativamente nuovo per il mercato americano, quale la spregiudicata propaganda di parte di un grande network come Fox.

La conclusione cui giungiamo, guardando alle possibilità che il mercato trasformi le nuove e grandi opportunità tecnologiche di comunicazione in una offerta ampia e diversificata di contenuti e informazioni politiche, è quindi venata di una forte preoccupazione.
Oggi disponiamo di mezzi sempre più ricchi, sempre più persuasivi ma, apparentemente, sempre più concentrati. E il cittadino difficilmente trova i mezzi per formarsi una opinione informata e libera da distorsioni e condizionamenti.
Di fronte a questo nuovo fallimento del mercato, si richiedono quindi adeguate politiche pubbliche per il pluralismo.

La legge Gasparri, una vera best practice, di Ferruccio De Bortoli

Tutti coloro, e io tra questi, che hanno duramente criticato la legge Gasparri sul riordino (a casa Berlusconi) del sistema delle comunicazioni dovrebbero ammettere che alla fine non è poi male. Anzi, che tutto sommato rappresenta un esempio di efficienza legislativa e di inusuale velocità nella sua applicazione pratica. Mai legge, a dispetto dello scontro istituzionale che ne ha preceduto il varo, è entrata in vigore così rapidamente e ha prodotto effetti così vasti e duraturi. E mai la volontà del legislatore è stata così prontamente accolta dal mercato. Una straordinaria sintonia.

Per usare una celebre espressione di Umberto Bossi un “idem sentire” incredibilmente armonico. Come se gli attori del mercato della comunicazione, del sistema televisivo, l’avessero studiata in anticipo quella legge. Con una tale attenzione che potrebbe far sorgere il dubbio, sicuramente infondato, che qualcuno se la sia scritta direttamente. In casa. Malignità degli outsider.

È il mercato, bellezza

Ma non c’è dubbio che la Gasparri rappresenti una best practice. In pochi mesi Mediaset si è mossa sul mercato del digitale terrestre acquistando i diritti criptati per le dirette casalinghe di Juventus, Milan e Inter, che verranno offerte grazie a una carta prepagata a due euro l’una.

“Questo è il mercato, bellezza”, avrebbero esclamato i difensori ministeriali della legge a lungo osteggiata da Carlo Azelio Ciampi. Una risposta a tutti coloro che protestavano per la mossa, sicuramente tempestiva, del gruppo di proprietà del presidente del Consiglio e ormai gestito, con grande abilità va riconosciuto, da suo figlio Pier Silvio.

Peccato che gli stessi che difendono la libertà, di chi è forte e conosce il mercato, di muoversi liberamente siano gli stessi che in altri settori dell’economia invocano l’intervento dello Stato, hanno nostalgia della Cassa del Mezzogiorno e sostengono che il metodo Alitalia, ovvero procrastinare il destino di una compagnia sprecando ancora denaro pubblico, sia un esempio virtuoso nel rapporto fra politica ed economia. Peccato.

E peccato ancora che quella carta prepagata per il digitale terrestre sia stata studiata e messa a punto nei laboratori della Rai, l’operatore del servizio pubblico, il cui consiglio d’amministrazione è territorio di caccia delle forze di governo e di strage intellettuale di molti personaggi, alcuni di spicco e di grande qualità professionale e morale. E pensare che la Rai entrò a suo tempo come socio in Telepiù, facendosi pagare e non poco in cambio di un pacchetto di canali. Con una semplice autorizzazione e ora assiste impotente allo sviluppo di una sua ricerca. Lo ha bene notato sul Sole-24Ore Marco Mele, il quale non ha mancato di sottolineare come sia virtualmente cambiata la natura del digitale terrestre: da piattaforma gratuita e, in qualche modo, alternativa alla televisione generalista, a nuovo terreno di sfida e di conquista perché abbondante di spazi pubblicitari appetiti dall’utenza (grazie al calcio, vero driver dell’espansione televisiva).

Dunque, Publitalia avrà un’offerta aggiuntiva da proporre ai suoi grandi clienti e potrà ulteriormente, come gli consente la legge, allargare la propria quota di mercato.

La Gasparri e la pubblicità

Ma proprio sul mercato pubblicitario sta accadendo qualcosa di assolutamente inedito che dovrebbe preoccupare fortemente gli editori di carta stampata.

Per la prima volta una fase di ripresa degli investimenti pubblicitari, che difficilmente torneranno ai valori dell’anno 2000, vede quotidiani e periodici continuare a soffrire sugli spazi e sulle tariffe.

La televisione, e in particolare le reti del Cavaliere, viaggiano secondo gli ultimi dati, con un tasso di crescita a due cifre, rispetto all’anno scorso, mentre la carta stampata annaspa, nel migliore dei casi registra un progresso fra il due e il quattro per cento. Colpa dei costi contatto? Colpa delle difficoltà in cui versano quotidiani e periodici? Della migliore qualità della programmazione? Forse. Ma è anche vero che le reti generaliste, e in particolare quelle Mediaset, possono ormai espandersi senza limiti. I problemi di affollamento, importanti per misurare l’efficacia della pubblicità, sembrano non esistere più. I palinsesti televisivi sono in overbooking pubblicitario fino a ottobre. Una volta l’estate era un periodo di magra per gli spot. Non è più così. Una volta il medio-piccolo investitore pubblicitario non andava in televisione e riteneva più conveniente per la propria comunicazione apparire sui mezzi tradizionali. Oggi la rete della pubblicità televisiva, in crescita bulimica, prende tutto: pesci grandi e pesci piccoli. E i grandi, i cosiddetti big spender, pensiamo soltanto alle case automobilistiche, preferiscono concentrare i propri investimenti sulla televisione.

È diventata di colpo così efficace? Forse, certo molti imprenditori e amministratori delegati hanno capito che l’investimento pubblicitario può avere anche un dividendo, diciamo così, politico. E non c’è da biasimarli: nell’ottica di massimizzare il rendimento del loro investimento compiono senza dubbio la scelta migliore. La più razionale. E molti di loro redigono un conto economico in cui l’andamento delle tariffe è cruciale. E le tariffe sono fortemente influenzate da fattori politici. Anche questa è una malignità da outsider, ma forse è un sospetto con una qualche fondatezza.

La Gasparri ha mosso il mercato. E questo è positivo.

Dovrebbe anche favorire la privatizzazione della Rai. Ma sul versante dell’operatore pubblico, anche per colpe sue per carità, non si assiste alla stessa effervescenza progettuale che si registra su quello privato. Tutt’altro. E pensare che proprio dopo le dimissioni del ministro dell’Economia, Giulio Tremonti, e l’interim di Berlusconi, palazzo Chigi è diventato direttamente l’azionista di Rai Holding. E noi cittadini che paghiamo il canone saremmo particolarmente felici che, al di là delle riconosciute capacità manageriali del direttore generale di viale Mazzini, l’azienda pubblica ricevesse qualche buon consiglio da parte del suo azionista diretto che il mercato televisivo conosce come le proprie tasche.

Non solo la tv va bene, sotto il profilo pubblicitario, ma anche la radio. Ed ecco muoversi a poche settimane dall’approvazione della Gasparri, la Mondadori, uno dei primi gruppi editoriali del paese che ha manifestato la propria intenzione di entrare nel mercato della radio con un’offerta per acquisire Radio 101. Tutto bene. Naturalmente in questo caso va sottolineato che la mia è un’opinione di parte, lavorando io in Rcs-Mediagroup (1).

Ecco perché sostengo che la Gasparri rappresenti uno straordinario benchmark legislativo. Lo dico senza ironia. Mi sarebbe piaciuto che lo stesso grado di attenzione e di compattezza politica fosse stato riservato anche ad altri temi, all’economia per esempio. E forse non ci saremmo trovati a questo punto. Con il dubbio rovente che i conti pubblici siano stati falsati e che le promesse fatte al paese siano ormai accantonate. Se ai temi che interessano il futuro del paese fosse stato dedicato soltanto un decimo del tempo che hanno richiesto la Gasparri o la Cirami, staremmo tutti meglio. Come paese. Ma quelli forse erano interessi diffusi, pubblici. Gli altri erano interessi un po’ più privati. E dunque meritevoli di maggior riguardo.

Buon compleanno a lavoce.info

Così, buon compleanno a lavoce.info. Non è vero che in questo paese di voci ce ne siano poche. Ce ne sono ancora tante e libere. Ma ce ne vorrebbero molte di più. Il pluralismo esiste ancora. Non viviamo in alcun regime. Ma purtroppo assistiamo a una lenta deriva e a una progressiva assuefazione all’idea che l’informazione debba essere schierata, strumentale, ancillare e direttamente soggetta agli interessi dei proprietari. Non parlo solo del Cavaliere e non mi riferisco solo a questa maggioranza. Le voci libere danno fastidio. Eppure se qualcuno obnubilato dal potere le avesse ascoltate non si troverebbe oggi in fondo al baratro. E anche l’Italia starebbe un po’ meglio.

(1) E la mia è un’opinione strettamente personale.

Va in onda la Gasparri, di Marco Gambaro

Dopo un tormentato, ma accelerato, iter di discussione la legge Gasparri è stata pubblicata in Gazzetta ufficiale nella sua versione definitiva.
Si tratta di una legge che tocca molti punti, con diversi interventi condivisibili.

Dalle tv locali alla privatizzazione della Rai

È condivisibile, ad esempio, l’articolo 8 quando amplia da sei a dodici ore lo spazio di interconnessione nazionale per le emittenti locali e consente loro di raccogliere pubblicità nazionale. Si pongono così le prime basi per il progressivo superamento di una situazione che le rende quasi insignificanti nel panorama televisivo. Anche se, per favorirne la crescita, sarebbe stato meglio consentire il possesso di stazioni in mercati diversi, invece di aumentare fino a tre il numero di emittenti che un soggetto può possedere nello stesso bacino di utenza.
Una parte rilevante della legge è dedicata alle procedure di nomina del consiglio d’amministrazione Rai e alla sua privatizzazione.
Sul primo punto, occorre prendere atto che finora l’influenza politica sulla Rai e sulla scelta dei dirigenti è stata assolutamente indipendente dai criteri di nomina via via adottati.

La privatizzazione ipotizzata dalla legge Gasparri non prevede, però, interventi strutturali che allontanino l’influenza dei partiti dalla televisione pubblica. E l’idea di vendere una minoranza del capitale azionario con quote che non possono superare il 2 per cento, senza modificare la struttura saldamente duopolistica del mercato televisivo, sembra un esempio da manuale di come non cogliere i vantaggi della privatizzazione. Se non quello, meramente finanziario, di scaricare sui piccoli risparmiatori i rischi di un’azienda dalla redditività incerta e in cui le possibilità di controllo degli azionisti sono modeste.

Il caso delle telepromozioni

Aumenta lo spazio per le telepromozioni, soprattutto per Mediaset, con un approccio che allontana l’Italia da diversi altri paesi europei. (1)
Ma la norma non modifica la struttura del mercato né è in grado di sottrarre quote ad altri mezzi.
Le ragioni della limitata raccolta pubblicitaria di quotidiani e periodici vanno cercate nella ridotta diffusione della stampa in Italia più che nel potere di mercato della televisione. Se si effettuano confronti internazionali considerando i ricavi pubblicitari per copia, si scoprono indicatori abbastanza omogenei tra i vari paesi: sembrano mostrare come sia possibile conquistare investimenti pubblicitari, una volta raggiunti i lettori.

Tra Sic e digitale terrestre

Il problema della struttura del mercato – limitazione o riduzione della concentrazione e aumento dei concorrenti e delle voci disponibili – ha implicazioni sia economiche che politiche.
La legge Gasparri lo affronta con la definizione del Sic (sistema integrato delle comunicazioni, di cui nessun operatore può controllare più del 20 per cento) e la promozione accelerata della televisione digitale terrestre.
Il Sic è stato ridotto con la riscrittura della legge, in seguito al rinvio alle Camere da parte del presidente della Repubblica. Sono stati eliminati dal perimetro libri e pubbliche relazioni e corrette alcune vistose ingenuità.
Per esempio, l’avervi compreso all’inizio le agenzie di stampa, le produzioni televisive e le produzioni cinematografiche: tutti mercati intermedi che entrano rispettivamente nel fatturato di giornali, televisioni e sale cinematografiche, e dunque erano banalmente contati due volte.
In questo modo, il Sic raggiunge una dimensione di circa 22 miliardi di euro.
Una quota del 20 per cento corrisponde a 4,5 miliardi di euro: cifra opportunamente al di sopra di quella attuale dei maggiori operatori (Rai 3 miliardi, Mediaset 4 miliardi, Rcs per ora 2,3 miliardi).

Il Sic non è un mercato rilevante nel senso comunemente inteso dall’economia industriale e dalle autorità antitrust. Si tratta piuttosto di un aggregato arbitrario, di una convenzione dove conta solo il prodotto tra perimetro complessivo e quota consentita. E la combinazione scelta non è stringente per nessun operatore presente sul mercato, nonostante in diversi mercati delle comunicazioni si registrino tassi di concentrazione assai elevati: in quello televisivo nazionale, nella televisione a pagamento, nelle directory o in molti mercati locali dei quotidiani.
La televisione digitale terrestre rappresenta un’innovazione di sistema perseguita da molti paesi. Per la sua inevitabilità tecnologica, e perché utilizzando in modo più efficiente lo spettro elettromagnetico, permette alternativamente di aumentare il numero di canali o di destinare parte delle frequenze televisive ad altri utilizzi.
La legge italiana progetta una transizione accelerata soprattutto per ovviare all’obbligo imposto dalla norma precedente e dalla Corte costituzionale di spostare Rete 4 sul satellite e di togliere la pubblicità a Rai 3.
Purtroppo, la concentrazione del mercato televisivo è legata alle economie di scala nei programmi più che alla scarsità di frequenze: appare probabile che i nuovi canali trasmessi sul digitale terrestre si limitino ad aumentare il numero teorico dei canali e non riescano a erodere le quote di mercato degli incumbent. (vedi lavoce.info del 03-07-2003)

Nel segno della continuità

Nell’insieme si tratta di misure che non sembrano in grado di perseguire una riduzione della concentrazione nel mercato televisivo. Vi è cioè un’incoerenza tra finalità dichiarate e strumenti utilizzati.
Va detto però che su questo terreno la Gasparri mantiene una forte continuità con le altre leggi sulla televisione promulgate negli ultimi vent’anni, che si occupano di molte cose per lasciare sostanzialmente invariata la struttura del settore, caratterizzato da un duopolio dove i due operatori controllano circa il 90 per cento del mercato di riferimento. Ha un approccio comune con la legge Mammì del 1990 e la legge Maccanico del 1997, peraltro emanate da Governi diversi.

Nonostante le polemiche, l’Italia è solo parzialmente un’anomalia nel contesto televisivo europeo. In Germania i primi due operatori controllano il 68 per cento degli ascolti, in Gran Bretagna il 60 per cento, in Francia il 71 per cento. Si tratta ovunque di tassi di concentrazione elevati, ma inferiori all’89 per cento italiano. In questi altri paesi vi è spazio normalmente per almeno tre-quattro gruppi televisivi significativi, più gli operatori della pay-tv.
Un accettabile grado di concorrenza nel settore televisivo è rilevante per il buon funzionamento degli altri mercati, attraverso la pubblicità, ma anche per il buon funzionamento del sistema politico perché ormai i cittadini ricevono gran parte delle informazioni proprio dalla televisione.
Dunque, è probabile che la legge Gasparri sia solo una tappa provvisoria nella costruzione di un assetto accettabile del sistema televisivo italiano.
Si continuerà inevitabilmente a parlare di questo tema: sarebbe opportuno farlo con meno ideologia, meno preconcetti ma con più dati oggettivi, più confronti internazionali, con profondità e consapevolezza crescenti.

(1) In Francia le telepromozioni non sono consentite nei programmi e in Germania rientrano nella normativa generale sugli spot.

Par condicio con l’handicap, di Nicola Lacetera e Mario Macis

La legge sulla par condicio regolamenta l’attribuzione degli spazi televisivi ai partiti e ai candidati nelle campagne elettorali, per garantire parità di accesso ai mezzi di informazione.
Il presidente del Consiglio Silvio Berlusconi ha annunciato di voler modificare la legge. Il vicepremier Gianfranco Fini ha affermato che “non è certo una provocazione pensare di attribuire a ciascun partito uno spazio diverso in base alla sua forza elettorale”. Fini e Berlusconi ritengono dunque che spazi maggiori dovrebbero essere attribuiti a partiti con più peso in Parlamento.

L’handicapping applicato alle campagne elettorali

In un paese democratico i cittadini debbono essere messi nelle condizioni di scegliere la forza politica per cui votare in maniera consapevole. Devono quindi essere a conoscenza delle alternative disponibili. Le forze politiche devono essere incentivate a fornire informazioni veritiere e sostanziali sulle proprie posizioni e i propri programmi.
Se accettiamo queste premesse, e più in generale l’esigenza di garanzia del pluralismo nelle competizioni elettorali, l’impostazione di riforma della legge sulla comunicazione elettorale suggerita da Fini e Berlusconi non è necessariamente quella corretta.
Per capire perché consideriamo cosa avviene negli Stati Uniti in diverse competizioni sportive.

Negli incontri di golf non professionistici, ma anche nelle corse di cavalli, nel baseball o nel basket, è molto comune la pratica di assegnare un certo svantaggio ai giocatori più dotati. Per esempio, nelle corse di cavalli i fantini più leggeri sono caricati con del peso extra. Nel golf, i giocatori più bravi partono con alcuni punti di svantaggio. Queste pratiche, cosiddette di handicapping, pongono il giocatore più dotato in condizioni iniziali più simili rispetto a quello meno dotato.
Quando i valori in campo sono in partenza squilibrati in favore di una parte, per cui il risultato dell’incontro è scontato, la competizione perde di interesse per il pubblico, perché tanto il giocatore più dotato quanto quello meno dotato non sono incentivati a giocare al meglio delle loro possibilità: il primo perché è sicuro di vincere, e il secondo perché certo di perdere. Nel rendere la competizione più equa, l’handicapping fornisce più stimoli a tutti i contendenti.

Recentemente, un filone di letteratura economica ha discusso l’utilità delle pratiche di handicapping nelle imprese, per le promozioni dei manager a posizioni gerarchiche superiori.
È possibile trasferire la logica dell’handicapping dal mondo dello sport (e dell’impresa) a quello delle competizioni elettorali, dove si applica forse ancor meglio.
Nelle campagne elettorali, l’utilità per i cittadini di rafforzare posizioni precostituite non è per nulla scontata. Al contrario, nelle democrazie compiute l’esigenza di garantire effettiva parità di condizioni ai partiti e ai candidati dovrebbe essere ben superiore a quella di garantire parità di condizioni in un incontro di golf, dal quale dipendono le emozioni dei tifosi, ma non certo le sorti di un paese.
Ora, dal momento che la maggioranza in Parlamento, proprio per il suo ruolo di governo, gode di una maggiore esposizione mediatica tra una legislatura e l’altra, la logica dell’handicapping attribuirebbe più spazi ai partiti meno rappresentati in Parlamento: l’esatto contrario rispetto a quanto suggerito da Berlusconi e Fini.

In tal modo, non solo la competizione partirebbe da basi più eque, ma sarebbe anche più ricca e vivace.
La maggioranza sarebbe stimolata a impegnarsi di più sulla qualità dei messaggi di propaganda (sostituendo qualità per quantità). L’opposizione, sapendo di avere spazi a sufficienza per presentare le proprie, sarebbe spronata a farlo. Al contrario, laddove si attribuissero gli spazi in base ai risultati delle passate elezioni, sarebbe lo status quo a prevalere, e ci sarebbero meno incentivi a cambiare, con una perdita secca per i cittadini.
Inoltre, con un esito elettorale più incerto, il voto del singolo cittadino diventa più influente, e ciò stimola la partecipazione al voto. È noto che nelle democrazie “bloccate” e laddove il risultato delle elezioni è più scontato, l’assenteismo degli elettori è maggiore.

Uguaglianza di condizioni

La proposta di modifica della legge sulla par condicio nella direzione accennata dal presidente del Consiglio e dal suo vice può essere giustificata con la volontà di creare un disincentivo all’eccessiva proliferazione di sigle politiche. Privilegiare le forze esistenti, in un regime democratico, può anche rappresentare un argine contro l’emergere di forze non democratiche.
Tuttavia, argomenti altrettanto validi spingono esattamente nella direzione opposta. Al punto che potrebbe essere più opportuno offrire maggiori spazi (rispetto alla loro forza elettorale) ai partiti minori e a quelli di opposizione, nonché garantire una qualche visibilità alle nuove formazioni.
Infatti, la realtà socio-politica di un paese (specie se democratico e pluralistico) è intrinsecamente dinamica. Nuovi gruppi ed esigenze emergono continuamente. Importanti eventi e processi storici possono sostanzialmente modificare le posizioni e le attitudini dei cittadini, con profondi effetti sulla competizione politico-elettorale.

Si considerino, ad esempio, la fine dei regimi comunisti, e le inchieste giudiziarie su “Tangentopoli” nei primi anni Novanta: questi eventi hanno cambiato il panorama politico italiano. Tale cambiamento (compresa la nascita del partito “Forza Italia”) sarebbe stato ostacolato da regole della comunicazione elettorale basate sul peso storico delle forze politiche.
Garantire uguali spazi a tutte le forze appare coerente con un criterio intuitivo di uguaglianza delle condizioni di partenza. Dalle considerazioni esposte in precedenza, la par condicio può anche essere considerata come una soluzione di compromesso virtuoso fra argomenti che spingono verso soluzioni opposte per la distribuzione degli spazi televisivi ai partiti in campagna elettorale.
In ogni caso, se le regole sulla par condicio devono essere riviste, la riflessione dovrà essere ben più profonda e complessa della semplice logica proposta da Berlusconi e Fini.

Si tenga conto, infine, che con questi argomenti si è “finto” di parlare di un paese in cui vi sia effettiva separazione tra i poteri economico, mediatico e politico. Se accade, come in Italia, che il partito politico che guida la maggioranza di Governo controlla attraverso il suo leader larga parte dei mezzi di comunicazione televisiva, la situazione è assai più complicata e delicata, e l’handicapping attribuito ai partiti di Governo dovrebbe essere ancora più forte.

Oro nero, anno buio

Sommario a cura di Marzio Galeotti

Il 2004 sarà ricordato come l’anno del petrolio. Il suo prezzo in termini nominali ha raggiunto i massimi di tutti i tempi. L’andamento delle quotazioni ha preoccupato le nazioni sotto il profilo economico e politico,tanto da riportare alla ribalta il quasi dimenticato timore di essere vicini al suo esaurimento. Al di là delle implicazioni contingenti, forte è stato lo stimolo ad interrogarsi su cosa questi eventi in realtà implicano per la nostra civiltà basata sull’uso dell’energia soprattutto di fonte fossile. Con rinnovata attenzione e preoccupazione per gli aspetti ambientali.

Petrolio senza alternative, di Marzio Galeotti

Le turbolenze sul mercato del greggio rendono opportuna qualche pacata riflessione sugli scenari energetici futuri.
La persistente crescita del prezzo del petrolio ripropone infatti la questione della sostenibilità dell’attuale modello di sviluppo, crucialmente basato sul consumo di fonti fossili di energia. Ma mentre la preoccupazione generale è, come sempre, concentrata sugli effetti di breve periodo su crescita e inflazione, resta ancora scarsa l’attenzione dedicata a questioni di fondo come le opzioni energetiche possibili per le prossime decadi.

Tutta questione di prezzo

Gli esperti concordano sul fatto che il petrolio, o più in generale le fonti fossili di energia, saranno in giro ancora per parecchio tempo. Dagli anni Settanta a oggi, la preoccupazione ambientale-climatica si è affermata e ha portato a politiche di regolamentazione. Ma resta ancora vero che il maggiore fattore di risparmio energetico è l’aumento del prezzo del petrolio: è questo l’elemento che induce e ha indotto una riduzione dell’intensità energetica dei processi produttivi, e come tale ha contribuito a contenere le emissioni di gas-serra. Altrettanto vero è che nessuna nuova opzione energetica su larga scala, in particolare nel campo della generazione elettrica, la più energivora delle attività produttive, è stata introdotta negli ultimi trent’anni. Se si eccettua il nucleare. (1)

Quanto alle fonti rinnovabili, Chip Goodyear, amministratore delegato di Bhp Billiton, società globale attiva nel settore delle risorse naturali, ha dichiarato al recente World Energy Congress di Sydney, che le fonti energetiche verdi resteranno relativamente insignificanti almeno per i prossimi venti anni. Le previsioni dicono che i combustibili fossili saranno l’87 per cento delle fonti primarie di energia, un punto percentuale in più di oggi. Sulla scia della corsa del prezzo del petrolio di quest’anno infatti non saranno probabilmente intrapresi investimenti in rinnovabili: i prezzi dell’oro nero dovranno restare alti a lungo perché qualcosa cambi. “L’industria ha bisogno di altre brutte notizie dal prezzo del petrolio perché si sposti sulle fonti rinnovabili”, sostiene Andrew Oswald, professore di Economia all’università di Warwick. Una recente pubblicazione dell’Iea, l’agenzia internazionale dell’energia dell’Ocse, nota che la quota di finanziamento pubblico alla ricerca e sviluppo in campo energetico destinata alle rinnovabili è decrescente, in contraddizione con le asserite intenzioni di molti governanti dei paesi sviluppati. (2)

Le fonti rinnovabili nel mondo

Nel mondo, le rinnovabili coprono solo il 2,1 per cento degli usi energetici. Ciò nonostante molti paesi si stanno muovendo: il ministro dell’Industria spagnolo ha annunciato lo scorso agosto l’obiettivo di accrescere del 12 per cento entro il 2010 la quota delle rinnovabili sul consumo primario di energia, particolarmente energia solare e produzione di biodiesel. Così il governo giapponese ha predisposto un piano per l’incremento dell’uso delle biomasse con obiettivi specifici di aumento della generazione elettrica al 2010. (3) Gli inglesi, sempre entro il 2010, dovrebbero produrre con fonti rinnovabili il 10 per cento dell’elettricità. Questa quota è già pari al 20 per cento in Danimarca, soprattutto energia eolica. (4) L’Energy Information Administration statunitense ha simulato gli effetti della proposta McCain-Lieberman di introdurre un tetto alle emissioni di gas-serra sulla quantità di rinnovabili utilizzate: nel 2025 esse sarebbero il doppio di quanto proiettato nel caso di assenza del tetto. Infine, il nostro paese ha introdotto l’obbligo per i produttori di elettricità di garantire a partire dal 2002 una quota pari al 2 per cento della generazione termoelettrica con nuova elettricità generata da fonti rinnovabili.
Tutto bene, dunque? Non proprio, come mostra il fatto che la Commissione europea ha deciso alcuni mesi fa di abbandonare gli obiettivi di produzione di energia a mezzo di rinnovabili fissati per il 2010 (12 per cento nei paesi Ue-15 e 21 per cento nei paesi Ue-25), in quanto non raggiungibili, e ha rinunciato per il momento a fissarne dei nuovi per il 2020. Una brutta figura addebitata ai responsabili dei paesi membri che non hanno mostrato la capacità e la determinazione di voler raggiungere gli obiettivi prefissati. Se ne riparlerà nel 2007.

Tempi lunghi per l’idrogeno

In sostanza, non pare al momento esservi alternativa che, in termini di tempo, costi e quantitativi, possa sostituire l’oro nero in tempi ragionevoli. Dei nuovi sistemi energetici ipotizzati all’indomani del primo shock petrolifero, dalla fusione e fissione nucleare, dai bio-carburanti alle varie fonti rinnovabili – solare, geotermico, eolico, biomasse – nessuno è emerso come l’alternativa con la “a” maiuscola.
Pensare all’idrogeno, e alle automobili con celle a combustibile, significa adottare un orizzonte che parte dal 2035 in poi. Diceva Scientific American del maggio 2004: “Ci si può aspettare che lo sviluppo di auto con celle a combustibile, al contrario delle cosiddette ibride, proceda secondo gli stessi tempi del volo umano su Marte progettato dalla Nasa e che abbia lo stesso grado di probabilità”.


(1) Queste considerazioni sono contenute, e ampiamente argomentate, in “The Outlook for Energy Three Decades After the Energy Crisis”, lavoro presentato da uno dei massimi esperti mondiali, William D. Nordhaus, all’International Energy Workshop di Parigi dello scorso 22-24 giugno 2004. Il paper è scaricabile dall’indirizzo www.iiasa.ac.at/Research/ECS/IEW2004/docs/2004A_Nordhaus.pdf.

(2) Questo aspetto è messo chiaramente in evidenza in una recente pubblicazione della IEA-AIE, Renewable Energy – Market and Policy Trends in IEA Countries, Parigi: IEA, 2004.

(3) Si veda il recente rapporto dell’Ocse, Biomass and Agriculture: Sustainability, Markets and Policies, Parigi: OECD, 2004.

(4) A parte considerazioni di costo, le varie fonti rinnovabili non presentano solo vantaggi. La produzione di nuova energia idroelettrica ed eolica, per esempio, reca con sé rilevanti problemi di impatto ambientale. Sulla seconda si veda l’interessante articolo “Ill winds”, The Economist del 29 luglio 2004.

L’utile sequetro del carbonio di Raffaella Bordogna

Numerosi progetti nazionali e internazionali stanno attualmente verificando un approccio alternativo alla risoluzione del problema dei cambiamenti climatici: il sequestro geologico di anidride carbonica.

Come avviene il sequestro

Si tratta di una attività di riduzione delle emissioni di gas serra che comporta la cattura da fonti industriali della CO2, un gas inerte e non tossico a basse concentrazioni, e la successiva immissione in formazioni geologiche appropriate, come i giacimenti di petrolio e gas naturale, esauriti oppure ancora in uso, le formazioni geologiche porose sature di acqua salata (i cosiddetti acquiferi salini) e i giacimenti carboniferi profondi. Qualche anno fa, veniva considerata anche la possibilità di immettere CO2 negli oceani a grandi profondità, ma tale alternativa è stata abbandonata per l’incertezza degli effetti di un’aumentata acidità delle acque sugli ecosistemi marini.
Per avere successo la tecnica di sequestro geologico della CO2 deve soddisfare tre requisiti:
– deve essere competitiva in termini di costi rispetto alle attuali alternative per il contenimento dei gas serra, quali le fonti rinnovabili e i miglioramenti di efficienza dei processi di produzione
– deve garantire uno stoccaggio nel sottosuolo stabile e di lungo termine
– deve essere ambientalmente compatibile.

Dal punto di vista economico, vi è ancora molta incertezza sulla determinazione dei costi nelle varie situazioni operative. Le esperienze sinora effettuate e gli scenari studiati lasciano intendere che i costi possono variare anche significativamente da una situazione all’altra, andando da qualche decina di euro per tonnellata fino a 100 euro/tonnellata. Fonti Iea indicano un costo complessivo compreso tra 9 e 49 euro/tonnellata CO2.
Quel che è certo è che l’immissione di CO2 in giacimenti di petrolio o gas naturale per il recupero assistito, rappresenta la migliore opportunità di sequestro a bassi costi se si considerano i ricavi dovuti al recupero di petrolio o gas. Tale attività (la cosiddetta Eor, Enhanced Oil Recovery) ha una duplice funzione: garantisce evidenti vantaggi ambientali, perché riduce le emissioni di gas serra in atmosfera, e aumenta la produzione di idrocarburi in quei giacimenti dove la pressione esistente non ne consente una adeguata fuoriuscita. Gli Stati Uniti sono i leader mondiali nella tecnologia Eor e utilizzano circa 32 milioni di tonnellate anno di CO2 a questo scopo. (1) Tra i vari progetti merita una citazione quello di Weyburn in Canada: grazie al sequestro permanente di circa 20 milioni di tonnellate di CO2 durante l’intero progetto sarà possibile produrre almeno 130 milioni di barili di petrolio incrementale, il che estenderebbe la vita residua del giacimento di circa 25 anni.

I rischi

Molto è stato scritto sugli effetti connessi all’esposizione di esseri viventi alla CO2. A basse concentrazioni (1 per cento in volume), l’anidride carbonica non ha effetti dannosi sugli esseri umani e sugli ecosistemi, anzi è indispensabile per alcuni processi vitali quali la fotosintesi. Per esempio, in alcune serre l’aumento del tasso di CO2 è voluto, per accelerare la crescita delle piante. È invece letale per l’uomo, perché può causare asfissia, una concentrazione di CO2 dell’ordine del 10 per cento in volume.
Nel sequestro geologico le concentrazioni elevate di CO2 in atmosfera possono essere correlate a due ordini di problemi: fuoriuscite di CO2 durante le fasi operative volte alla cattura, trasporto e iniezione nel sottosuolo e rilascio in atmosfera dal sito di stoccaggio.
Sul primo punto si può affermare con certezza che la cattura, il trasporto e l’iniezione di CO2 sono pratiche ben testate nel settore petrolifero e si avvalgono di tecnologie all’avanguardia. Gli incidenti più frequenti sono dovuti a rotture nei tubi o nei pozzi di iniezione, ma la fuoriuscita di CO2 in questi casi è trascurabile per la presenza di opportune valvole di sicurezza che interrompono il flusso di gas al variare della sua pressione. Anche il rischio di corrosione dei tubi che può provocare fuoriuscite incontrollate di CO2 è stato aggirato grazie all’utilizzo di moderni materiali anticorrosivi. Adottando pertanto le opportune pratiche di sicurezza, già ampiamente in uso per il trasporto del gas e del petrolio, i rischi nella fase operativa possono essere decisamente contenuti.
Minore è l’esperienza sul rilascio di CO2 dal sito di stoccaggio. Le uniche considerazioni che possono essere fatte riguardano eventi naturali del passato. In natura, infatti, esistono già migliaia di depositi di CO2 nel sottosuolo e le fuoriuscite più cospicue sono perlopiù correlabili ad attività vulcaniche. Esempi eclatanti sono il monte Kilaua alla Hawaii, che emette circa 1,4 milioni di tonnellate l’anno di CO2, e l’eruzione del 1991 del monte Pinatubo, nelle Filippine, in cui furono emesse 42 milioni di tonnellate di CO2. Entrambi gli eventi non si sono dimostrati letali per gli esseri viventi dal momento che i fattori di dispersione in atmosfera hanno contribuito ad attenuare le concentrazioni di CO2 al suolo.
Si intuisce pertanto che la CO2 può diventare pericolosa solo se il suo rilascio avviene molto rapidamente e in spazi confinati. Ma sono caratteristiche ben lontane da quelle delle attività di stoccaggio nel sottosuolo: il pozzo per l’iniezione di anidride carbonica tende a disperdere la CO2 nella formazione geologica, non a concentrarla, e le eventuali perdite nella riserva sotterranea sono lente e diffuse. Qualsiasi rischio connesso allo stoccaggio può comunque essere minimizzato sviluppando i migliori criteri per la scelta del sito più opportuno.

I vantaggi per l’ambiente

Quanto alla compatibilità ambientale, il sequestro geologico, appare la soluzione che più di altre è in grado di assicurare le consistenti riduzioni delle emissioni e stabilizzare così la concentrazione della CO2 in atmosfera sui livelli giudicati ottimali per non gravare sui meccanismi che presiedono al controllo del clima. Le indagini fino ad ora condotte sull’argomento, hanno evidenziato che vi sono grandi capacità di stoccaggio della CO2 nel sottosuolo. Secondo fonti Ipcc, i volumi disponibili su scala mondiale nei campi a olio e gas depletati consentirebbero lo stoccaggio di 1830 GtCO2eq, un volume pari alla produzione mondiale di CO2 dei prossimi venticinque anni, stimata di 1800 Gt. E ben superiore sembra essere il potenziale di stoccaggio offerto dagli acquiferi salini, stimato maggiore di 3600 GtCO2eq.


(1) Fonte DOE 2003

Un futuro di gas, carbone e nucleare, di Marzio Galeotti

Se eliminare, o quanto meno ridurre, le emissioni nocive a monte, passando a fonti energetiche pulite non è possibile, ecco che l’interesse si sposta a valle, sulla fattibilità di eliminare, o quanto meno ridurre, le emissioni della combustione delle fonti fossili.

Torna il carbone

Si parla molto per esempio dell’opzione della cattura e sequestro del carbonio prodotto dal processo di combustione. In sostanza, si tratta di un processo a due stadi mediante il quale il gas (essenzialmente l’anidride carbonica) viene dapprima estratto dalla macchina che brucia il combustibile fossile (la “cattura”) e successivamente immagazzinato in apposite sedi da cui non può più scappare (il “sequestro”). La prima fase è la più costosa anche perché va prevista fin dalla costruzione dell’impianto di produzione dell’energia, anche se esistono soluzioni che consentono l’adattamento di impianti esistenti. (1)
Interessante è notare che questa opzione di breve termine riporta in gioco anche la più inquinante delle fonti fossili: il carbone, minerale di cui paesi abbondano come la Cina, l’India e il Sud Africa, che non intendono rinunciarvi perché alimenta il loro processo di sviluppo.
Naturalmente, anche i paesi industrializzati si attivano su questo fronte: nel 2003 è partito il Carbon Sequestration Regional Partnership Program patrocinato dal ministero dell’Energia americano. Mette in rete Stati, governo federale e settore privato con il compito di raccomandare nel giro di due anni soluzioni tecnologiche (aspetti tecnici, regolatori e infrastrutturali) da sottoporre a validazione su piccola scala. Non a caso questo programma è parte integrante della politica energetica del presidente Bush. In Europa, il governo britannico ha lanciato una consultazione sulle tecnologie di abbattimento del carbonio che guardi allo sviluppo di metodi di cattura e sequestro, anche dialogando con i norvegesi, in quanto i pozzi esauriti di petrolio e gas del Mare del Nord potrebbero fungere da depositi di carbonio. Infine, va segnalato un piano internazionale per sviluppare e promuovere la cooperazione sul recupero e uso del metano, cui partecipano Australia, Giappone, India, Italia, Messico, Regno Unito, Ucraina e Usa.

Senza dimenticare il nucleare

Da qualche tempo, però, i riflettori si sono riaccesi sull’altra opzione attualmente utilizzata, quella nucleare. La sua quota è aumentata rapidamente fino agli anni Novanta, ma da allora è rimasta attorno al 17 per cento di tutta l’elettricità generata. Perché aumenti in misura significativa deve superare due test, come osserva William Nordhaus dell’Università di Yale, esperto di questioni energetiche e ambientali.
Il primo è convincere le scettiche opinioni pubbliche che il nucleare è sicuro. Sulla necessità del nucleare, scienziati, governanti e dirigenti del settore energetico da qualche tempo mostrano di non avere dubbi. Non ne ha la (ex) commissaria europea all’Energia Loyola de Palacio, che sottolinea invece il problema della sicurezza degli approvvigionamenti energetici. Anche il governo spagnolo, dopo avere chiuso il reattore più vecchio, incrementerà l’output del nucleare esistente. E il Regno Unito mette l’accento sul problema ambientale: per raggiungere il target di emissioni di gas-serra, metà dell’elettricità inglese dovrà provenire dal nucleare, quando oggi ne provvede solo un quinto. Infine l’Italia, dove il ministro Antonio Marzano o l’amministratore delegato di Enel Scaroni non fanno mistero della necessità di rivedere le nostre decisioni in materia di energia nucleare, che non produciamo più, ma che comunque continuiamo a importare, soprattutto dalla Francia.

È però l’altro test che desta attenzione crescente: la sicurezza delle centrali nucleari.
Timori per nuove Chernobyl (quello che fu, non quello che è oggi, che è altra cosa e probema) o Three Mile Island sono oggi, secondo gli esperti, fuori luogo. Con più di 10mila anni-reattore di esperienza al 2004, osserva Nordhaus, le analisi standard di valutazione del rischio dei reattori ad acqua leggera sono risultate largamente accurate.
Ciò che invece genera una crescente preoccupazione è il problema del dirottamento di materiale nucleare verso la produzione di armamenti. Tutti i casi di recente proliferazione di armi atomiche, in Corea del Nord, India, Pakistan per esempio, si sono verificati in paesi che hanno ottenuto il materiale da impianti civili di produzione di energia. E in questo contesto si inserisce il contenzioso in corso tra Iran e l’agenzia internazionale dell’energia atomica. (2)

Le novità possibili

In conclusione, nel prossimo futuro non vi sono alternative alle fonti fossili: è e resta l’opzione preferita, in quanto politicamente accettabile, nella maggior parte delle regioni del mondo. Tanto più che le proiezioni attuali della disponibilità di petrolio e gas non segnalano riduzioni, ma anzi sono state riviste verso l’alto dal 1973 a oggi. Ciò nondimeno, crescono i problemi e le difficoltà connesse al petrolio, riconducibili ai problemi politici di sicurezza dell’approvvigionamento (geograficamente le fonti sono concentrate soprattutto nella regione araba), e ai problemi ambientali, primo fra tutti il riscaldamento globale.
Possiamo aspettarci qualche novità? La prima è appunto il ritorno del carbone, che già alimenta un terzo dell’elettricità inglese, metà di quella tedesca e statunitense, tre quarti di quella cinese e indiana. E la cui estrazione sta tornando a essere un business vantaggioso per la crescente domanda anche di paesi come gli Usa. Inoltre, le tecnologie moderne consentono di ridurre l’impatto ambientale del minerale nero.
L’altra novità che il prossimo futuro probabilmente ci riserva è una significativa sostituzione del petrolio con il gas naturale. I vantaggi importanti sono due: le sue riserve sono meno concentrate geograficamente ed è più pulito. Lo svantaggio è che si tratta di un gas e come tale meno facile da trasportare del petrolio (il sistema dei gasdotti è complesso e perciò non molto ramificato e a lunga gittata). Nonostante lo sforzo finanziario sia ingente, con poche società in grado di sostenerlo, si sta diffondendo la pratica di costruzione di impianti di liquefazione e successiva rigassificazione del Lng (gas naturale liquido). (3)
Spostarsi dal petrolio all’accoppiata carbone-gas certamente avrebbe vantaggi di costo. Secondo la Royal Academy of Engineering (marzo 2004), il costo di generazione di un kilowattora in centesimi di euro è 3,3 nel caso del gas-ciclo combinato con turbina e di 4,2 gas-turbina, di 3,7 nel caso del carbone in polvere e di 6,7 nel caso di carbone in polvere con abbattimento dei fumi. (4)

Forse, non è un caso se il recente decreto governativo che ha autorizzato la costruzione di ventidue nuove centrali elettriche alimentate da combustibili fossili con una capacità complessiva superiore a 11 gigawatts (un terzo in più rispetto all’attuale), prevede che esse bruceranno gas con ciclo combinato, mentre un paio di quelle esistenti saranno riconvertite a carbone o orimulsion, una specie di olio combustibile alquanto inquinante. Naturalmente, c’è da augurarsi che il ritorno nostrano al carbone si accompagni all’adozione delle più moderne tecniche di abbattimento delle emissioni nocive.

(1) Istruttivo è l’articolo “Fired up with ideas”, in The Economist del 6 luglio 2002.

(2) Sul nucleare da segnalare il recente ponderoso studio interdisciplinare del Mit, “The Future of Nuclear Power”, scaricabile all’indirizzo htto://web.mit.edu/nuclearpower/. Sul caso dell’Iran si veda l’esauriente storia “The world of the ideologues” in The Economist del 2 settembre 2004.

(3) Ancora una volta: “The future’s a gas”, The Economist 28 agosto 2004 e “The future is clean”, The Economist 2 settembre 2004.

(4) Traiamo questi numeri da “The cost of generating electricity” rintracciabile all’indirizzo www.raeng.org.uk/news/temp/cost_generation_commentary.pdf.

Il petrolio non brucia la borsa, di Tommaso Monacelli

Quanto è preoccupante per le prospettiva di crescita dell’economia mondiale e per i mercati finanziari l’attuale rialzo del prezzo del petrolio? Il grafico qui sotto mostra l’andamento del prezzo del greggio (prezzo spot del Brent) dal gennaio 1990 a settembre 2004.
Gennaio 1999 sembra segnare una svolta. Mentre prima di questa data il prezzo oscilla costantemente intorno a una media di 20 dollari al barile (con l’eccezione del periodo della guerra del Golfo), successivamente sembra iniziare una transizione verso una media più alta.


Cresce la domanda

Cosa spiega questo possibile mutamento di trend? Come in ogni mercato, anche in quello del petrolio conta l’interazione tra domanda e offerta. Il quadro attuale differisce da quello che causò gli shock petroliferi degli anni Settanta, determinati da restrizioni sul versante dell’offerta.
Il fattore nuovo, che spiega la dinamica dopo gennaio ’99, è la forte accelerazione della domanda proveniente dai paesi asiatici, in primo luogo Cina e India. Questo è un fattore strutturale (non semplicemente ciclico) che ha probabilmente mutato (verso l’alto) il valore medio intorno al quale oscillano le variazioni cicliche del prezzo. Un modo ottimistico di leggere questo dato è che è causato da una forte vivacità dell’economia mondiale, fattore cruciale affinché il gigantesco deficit della bilancia dei pagamenti americana continui a essere finanziato.
In un mercato in cui la domanda preme così tanto sull’offerta, ogni evento che metta a rischio l’espandersi della capacità produttiva provoca una reazione esasperata dei prezzi. Recentemente, gli eventi in Iraq, le turbolenze in Venezuela e Nigeria, l’uragano in Messico hanno avuto precisamente questo ruolo: hanno rallentato la dinamica dell’offerta nel corso del 2004 a fronte dell’impetuosa accelerazione della domanda. A questo sembra aggiungersi una diminuita capacità delle raffinerie americane (attualmente 150 rispetto alle 250 di venticinque anni fa). Ciò impedisce agli Stati Uniti di accogliere l’ultima proposta dell’Arabia Saudita di espandere la produzione (per circa due milioni di barili aggiuntivi al giorno) di una qualità di petrolio considerata inferiore, ma che se correttamente trattata permetterebbe di calmierare un mercato così sensibile a ogni notizia di restrizioni sul versante dell’offerta. Il grafico qui sotto mostra come le scorte mondiali di petrolio abbiano raggiunto un valore storicamente minimo nell’ottobre del 2004, anche se la situazione non è sostanzialmente diversa da quella del minimo raggiunto nel febbraio 2004. (La linea arancione nel grafico mostra il livello mensile delle scorte, mentre la banda azzurra ne mostra la gamma di variazione).

Recessione lontana

Tutto questo deve farci temere effetti recessivi sull’economia mondiale? Un buon modo per misurare le aspettative del mercato riguardo all’andamento futuro del prezzo del petrolio è quello di guardare ai prezzi dei futures sul greggio.



Il grafico mostra l’andamento, da maggio a oggi per il mercato di New York, del prezzo del future di dicembre 2005 (sul Brent). Il trend è in netto rialzo. In sostanza, quello che secondo il mercato sarà il prezzo del greggio nel dicembre 2005 è andato sensibilmente aumentando nel corso di questi ultimi mesi. Si noti però che il prezzo rimane attualmente intorno ai 42 dollari, indicando un probabile rallentamento rispetto al picco attuale di quasi 54 dollari al barile (dato del 12 ottobre 2004) per il prezzo spot.

Riguardo all’impatto macroeconomico dell’andamento del prezzo del greggio, giova poi ricordare tre aspetti. Primo, un indicatore più corretto è quello che converte il prezzo nominale (in dollari) in termini reali (cioè in rapporto all’andamento generale dei prezzi). I valori attuali rimangono lontani dai picchi della fine degli anni Settanta se si introduce questa correzione. Secondo, rispetto agli anni Settanta, la dipendenza dal petrolio delle economie industrializzate si è fortemente ridotta, a favore dell’espansione di una economia di servizi. Terzo, l’accelerazione del prezzo del greggio in quest’ultimo anno rimane sostanzialmente una correzione della forte discesa (sia in termini nominali che reali) degli anni precedenti. È noto da studi empirici che una dinamica di questo genere produce un impatto recessivo molto limitato, rispetto invece ad accelerazioni del prezzo che non intervengono a correggere discese precedenti.

Cosa succede nei mercati finanziari

Una preoccupazione crescente è quella che l’andamento del prezzo del greggio influisca negativamente sulla buona performance dei mercati finanziari. La ragione sembra ovvia. Rialzi del prezzo del petrolio segnalano possibili effetti recessivi futuri oppure potrebbero indurre rialzi dei tassi di interesse da parte delle autorità monetarie per impedire focolai inflazionistici, con conseguenze depressive sui corsi azionari. Ma questa ipotesi non sembra sopravvivere già a una prima superficiale analisi dei dati.

Il grafico qui sotto confronta l’andamento dell’indice S&P 500 con quello del prezzo del greggio dal 1990 a oggi (dati mensili).


È difficile individuare una relazione sistematica, anche se nel periodo 1998-2000 e recentemente la correlazione sembra positiva. In realtà, un modo corretto per confrontare le due serie è quello di guardare alla correlazione tra le rispettive variazioni percentuali.
Il coefficiente di correlazione è un numero compreso tra 0 (correlazione minima) e 1 (massima) che indica la misura in cui le due serie tendono a muoversi in sincronia (pur escludendo ogni relazione di causalità). Nel caso di queste due serie, il coefficiente di correlazione è molto basso, circa 0,011. In sostanza, i numeri ci dicono che tra variazioni dei corsi azionari e variazioni del prezzo del greggio esiste una relazione minima. Buone notizie per chi è pessimista sulla Borsa.


Petrolio le cose non dette, di Marzio Galeotti

(1) Il petrolio è e resta una risorsa scarsa.
Come spiegatoci da Harold Hotelling nel 1931 (Cfr. “The Economics of Exhaustible Resources” in Journal of Political Economy), il prezzo di una risorsa esauribile è destinato ad aumentare costantemente nel tempo in funzione della sua crescente scarsità. Questo fatto non è certo di difficile comprensione. Ovviamente non sappiamo quando esattamente le riserve di petrolio si esauriranno, non sappiamo nemmeno quanto ampie esattamente siano, tra accertate e presunte, e su questo punto il dibattito tra pessimisti e ottimisti s’infiamma in tutte le occasioni come in quella attuale. Il punto che va rilevato, tuttavia, e che a nostro modesto parere non è stato ripetuto abbastanza, è che nel medio-lungo periodo il prezzo del petrolio è destinato ad aumentare. Naturalmente, quanto appena detto non implica che l’oro nero, toccati i 50 dollari a barile, non possa scendere. Ciò è possibile, anzi probabile.

(2) Ciò che conta è il prezzo reale del petrolio,
il suo prezzo rapportato al livello generale dei prezzi del paese che lo consuma. Troppo spesso si fanno comparazioni con le quotazioni in dollari di un barile di greggio a prezzi correnti. I livelli di prezzo raggiunti durante il primo shock petrolifero del 1973-74, fatti i debiti calcoli, equivalgono ad un prezzo oggi di circa 80 dollari, ben lontano dunque dalle quotazioni attuali. Ancora più elevato in termini reali era stato il prezzo del greggio durante la seconda crisi petrolifera, quella della guerra Iran-Iraq del 1979-81. Quindi i prezzi attuali non sono affatto senza precedenti, come scritto da alcuni.


(3) L’impatto degli aumenti del prezzo del petrolio su inflazione e crescita economica,
si potrebbe riassumere nel seguente adagio: l’aumento del prezzo del petrolio fa molto male all’economia, la discesa del prezzo fa bene, ma non molto. Su questo si leggono in questi giorni molti numeri in libertà sull’impatto. Ad esempio, il sottosegretario all’Economia Gianluigi Magri ha parlato di una riduzione del Pil dello 0,3%, mentre il suo collega, Giuseppe Vegas ha posto l’accento, sulla base presumiamo, delle stesse informazioni possedute da Magri, che i pericoli per la crescita sarebbero minimi. Quel che conta rilevare è che sembra esserci un’asimmetria negli effetti che variazioni del prezzo del greggio hanno sul PIL. Diversi studi, nella maggior parte riguardanti gli Stati Uniti, ma anche altri paesi, Italia inclusa, documentano che l’impatto negativo (sul reddito) di un aumento di prezzo del petrolio è quantitativamente più consistente dell’impatto positivo di un’analoga riduzione di prezzo. Questa è una nota non piacevole ma importante per comprendere meglio i meccanismi che legano le grandezze economiche in questione e soprattutto per informare nel miglior modo le politiche a riguardo. Un altro importante caso di (ampiamente) documentata asimmetria è quella che contrappone il prezzo del greggio a quello dei carburanti, a cominciare dalla benzina. Di questo aspetto i giornali si sono regolarmente occupati.

(4) La relazione negativa tra crescita economica e prezzo del petrolio
(basso prezzo del greggio = elevata crescita, prezzo elevato = crescita ridotta) è destinata a perdurare. Ciò avverrà fino a quando le modalità di produzione e consumo saranno basate sull’impiego dei combustibili fossili, petrolio in primis, che li rende beni necessari. L’affrancamento dello sviluppo economico dal petrolio si avrà solo con il risparmio energetico e soprattutto con la diversificazione verso fonti energetiche alternative. Ma quel momento oggi appare ancora molto lontano.

(5) L’ambiente e la crescita del prezzo del greggio.
In termini di minori emissioni di gas serra quali il CO2 il primo shock petrolifero ha fatto più di tutti gli altri provvedimenti e comportamenti “virtuosi” che si sono susseguiti da allora. L’aumento del prezzo del petrolio svolge lo stesso ruolo di una tassa ambientale che ha lo scopo di contenere le emissioni dannose. Allora forse l’altra faccia della medaglia di questi aumenti di prezzo sarà una reazione favorevole all’ambiente: forse è una magra consolazione ma è un aspetto da non dimenticare. Qui confessiamo di avere sentimenti misti di fronte alla notizia che la Cina, così vorace d’energia in questi tempi, diminuirà la sua domanda di greggio: la Cina ha, infatti, deciso di costruire nuove centrali elettriche per una produzione pari a quella dell’intera Gran Bretagna, ma saranno centrali a carbone, che non è petrolio ma è notoriamente il più inquinante delle fonti fossili.

(6) Perché ridurre le imposte?
Allo stesso modo della tassa, pagare di più il petrolio fa sì che chi inquina percepisca il costo della sua attività (ne “internalizzi” il costo). In questa cornice va valutata la proposta di intervenire sulle accise per mantenere il prezzo dell’energia, e dei carburanti in particolare, allo stesso livello antecedente l’aumento. In realtà, nel settore dei trasporti il maggiore prezzo del carburante serve a far pagare l’inquinamento ed il congestionamento del traffico proprio ai responsabili di tali effetti. Ancorché al margine, l’aumento del prezzo di benzina e gasolio dovrebbe contribuire a spostare sul traffico ferroviario parte dello scambio delle merci e ad adottare modalità più efficienti di trasporto delle persone abolendo, ad esempio, i viaggi meno necessari. E ciò con buona pace delle associazioni dei consumatori.

L’alba del giorno prima, di Marzio Galeotti e Alessandro Lanza

Che aria tira sul clima in giro per il mondo?
Negli Stati Uniti, dopo il discusso rapporto preparato dal Pentagono che dipingeva scenari catastrofici causati dai cambiamenti climatici nei prossimi vent’anni, tornano alla carica i senatori Lieberman e McCain, un democratico e un repubblicano “ribelle”, con una proposta di legge, che intende limitare le emissioni americane di gas-serra nel 2010 ai livelli del 2000. (1)

Gli Usa ci ripensano?

Intanto, la politica di George W. Bush prosegue nella sua ambiguità. Harlan Watson, negoziatore capo per gli Usa sui cambiamenti climatici, il 10 maggio scorso in una conferenza a Bruxelles ha dichiarato che il presidente è stato male interpretato sulla questione, ma ha altresì affermato che l’ambiente non figurerà esplicitamente nella sua campagna presidenziale per la rielezione.
Europa e Giappone ripongono le loro speranze in John Kerry, candidato alla presidenza e senatore con il record di votazioni più “verdi”. Parla appassionatamente di effetto serra e ha nel suo programma l’introduzione di una legislazione nazionale ad ampio raggio, incluso un mercato nazionale dei permessi, per combattere il riscaldamento globale. Ma dalle colonne dell’International Herald Tribune, Nigel Purvis ammonisce che ci sbaglieremmo di grosso se sperassimo che Kerry, una volta eletto, spingerebbe per una ratifica del Protocollo di Kyoto. (2)
Tuttavia, anche senza l’elezione di Kerry, è possibile che negli Usa qualcosa accada.
Infatti, in assenza di una politica federale, sono gli Stati a essersi mossi.
Il Massachusetts è stato il primo a regolamentare le emissioni di anidride carbonica generate dalle centrali elettriche. Gli Stati del New England si sono quindi uniti alle province orientali del Canada nell’assunzione ufficiale dell’impegno a ridurre le emissioni di gas-serra del 12 per cento entro la fine di questa decade. Sull’altra costa, Oregon e Washington si stanno organizzando insieme alla California, il primo Stato ad approvare una legge che regolamenta le emissioni delle automobili.
In una sorta di gara virtuosa, il governatore del Massachusetts ha annunciato all’inizio di maggio un piano che in materia di pianificazione e finanziamento di opere pubbliche nel campo dei trasporti condiziona, in parte, le decisioni alle emissioni di gas-serra che tali progetti genererebbero.

Tutti questi fermenti formano un’alternativa credibile a Kyoto, si domanda l’Economist? (3) L’argomentata risposta è negativa. Tuttavia, a questo punto anche la grande industria chiede decisioni. Le società elettriche, che in larga parte impiegano combustibili fossili, hanno avallato la legislazione che obbligatoriamente limiterà le emissioni da esse stesse prodotte. Persino la ExxonMobil (e con essa ChevronTexaco), grande supporter della politica energetica di Bush, comincia a dare segnali di sensibilità al tema ambientale, anche perché si aspetta che molti azionisti la metteranno sotto pressione su questo tema nella prossima assemblea. E non va infine dimenticato che spesso la legislazione statale precede e provoca quella federale.

La Ue ha fede nel protocollo

E in Europa come vanno le cose? Il clima in questa regione del mondo mostra luci e ombre.
Alla fine la perseveranza europea nei confronti della Russia sembra avere pagato. Dopo un lungo tentennare, Vladimir Putin ha annunciato venerdì 21 maggio che il suo paese si “sarebbe mosso rapidamente verso la ratifica”. Per il realista Putin la ratifica del Protocollo sembra infatti ridursi a una mera questione di politica estera. Visto che Kyoto non dovrebbe costare ai russi, anzi potrebbe addirittura generare ricavi per 10 miliardi di sterline, secondo il Financial Times, il presidente russo offrirebbe agli europei la ratifica del Protocollo insieme a un raddoppio del prezzo interno del gas (pari attualmente a un quarto di quello esportato agli europei) in cambio dell’assenso europeo all’ammissione alla Wto, l’organizzazione mondiale del commercio. (4)
La scelta russa lascia peraltro gli americani più soli e dovrebbe incoraggiare ulteriormente il movimento d’opinione favorevole a iniziative sul fronte del clima.
Per loro conto gli europei si apprestano ad affrontare l’appuntamento pre-Kyoto più significativo, il mercato europeo dei permessi di emissione che parte il 1 gennaio 2005.
È un atto di fede nei confronti di un protocollo le cui condizioni vale comunque la pena soddisfare, si sostiene, anche senza che sia entrato in vigore. Nel frattempo, l’Europa impara l’uso di uno strumento che anche gli stati e i territori australiani stanno considerando, così come il Giappone e gli Usa. Negli Stati Uniti il commercio dei permessi ha avuto avvio l’anno scorso attraverso il Chicago Climate Exchange, che ha tra i suoi membri società come Dow Corning, Dupont, Motorola, Ibm e Ford.

Gli Stati membri dell’Ue devono assegnare alle proprie industrie una certa quantità di permessi che saranno poi scambiati sul mercato secondo il piano nazionale di allocazione o Nap, che ciascun paese doveva inoltrare alla Commissione europea entro fine marzo, termine che peraltro nessuno ha rispettato. Secondo le regole, la Commissione ha il diritto di porre il veto a quei piani che ritiene eccessivamente generosi verso l’industria e incoerenti con gli obiettivi di Kyoto. Se poi un paese rifiuta di rivedere il proprio Nap, la Commissione può citarlo in giudizio.
A metà maggio su ventitré paesi membri, otto non avevano ancora pubblicato un piano provvisorio. Tre di questi – Francia, Spagna e Polonia – sono tra i maggiori emittenti in Europa. Gli altri che mancano all’appello sono Belgio, Grecia, Repubblica Ceca, Slovacchia e Ungheria. Un’analisi provvisoria dell’allocazione per settori di attività rivela che l’elettrico conta per oltre il 50 per cento, seguito da petrolio e gas, cemento e vetro, metalli, carta. Queste saranno dunque le industrie verosimilmente più coinvolte dal futuro mercato dei permessi.
I primi verdetti ufficiali della Commissione vanno emessi entro il 30 giugno. Ma indiscrezioni e schermaglie sono già iniziate. Mentre il piano italiano, come racconta Enzo Di Giulio, appare fuori linea, voci riferiscono che quello polacco sarà eccessivamente generoso.

Al punto che il commissario all’Ambiente, Margot Wallström, ha dichiarato che si prepara ad agire contro quei paesi che non hanno ancora sottomesso il Nap. Ma l’elemento più significativo delle sue dichiarazioni è che cruciale sarà la quantità totale di permessi. La prima impressione che emerge dalla lettura dei Nap inoltrati è che l’ammontare relativo appare troppo alto.
Un mercato funziona quando c’è scarsità. E infatti la percepita mancanza di scarsità si riflette sul prezzo di mercato di quei permessi che sono già attualmente scambiati: il prezzo di una tonnellata di CO2 era pari a 13 euro in gennaio mentre a fine aprile è sceso fino a 7 euro.
Ma per capire la posta in gioco basta una notizia che viene dall’Inghilterra, paese tra i più virtuosi in Europa quanto a politiche di riduzione delle emissioni. Ebbene, il ministro dell’Ambiente ha annunciato di avere incaricato una società di consulenza specializzata di valutare i Nap dei paesi membri nel timore che l’industria britannica possa essere danneggiata dalla mancanza di rigore degli altri paesi. E nel fare ciò i britannici esprimono anche dubbi sul fatto che la Commissione europea abbia effettivamente la forza per rigettare i piani di Germania, Francia e Italia.
Non c’è dubbio che la probabile ratifica russa del Protocollo dà ulteriore forza e credibilità all’iniziativa europea sul mercato dei permessi. E finisce per spuntare le armi di chi, come il nostro ministro dell’Industria Antonio Marzano all’ultima assemblea di Confindustria, riecheggiando i dubbi del Governo più volte esplicitati a livello europeo dal ministro dell’Ambiente Altero Matteoli, ha un poco avventatamente dichiarato che l’Italia potrebbe rivedere la sua posizione su Kyoto.

(1) Il rapporto sostiene che il mondo potrebbe finire sull’orlo dell’anarchia con alcuni paesi che utilizzano la minaccia nucleare per assicurarsi adeguate forniture di cibo, acqua ed energia. Gli autori del rapporto affermano che i cambiamenti climatici dovrebbero essere elevati al di sopra del dibattito scientifico a materia di sicurezza nazionale. La proposta Lieberman-McCain introduce limiti alle emissioni generate dalla produzione elettrica, dai trasporti, dall’industria e dal commercio e istituisce un mercato dove le singole imprese possono commerciare diritti d’emissione.

(2) “Europe and Japan misread Kerry on Kyoto” di Nigel Purvis, International Herald Tribune, 5 aprile 2004.

(3) “Bottom-up greenery”, The Economist, 18 marzo 2004.

(4) “Kyoto could be Russia’s ticket to Europe” di Anders Aslund, International Herald Tribune, 5 aprile 2004 e “A change in the climate: will Russia help the Kyoto protocol come into forse?” di Vanessa Houlder, Financial Times, 20 maggio 2004.

Legge Biagi, anno zero

Sommario a cura di Pietro Garibaldi

L’andamento del mercato del lavoro nel primo anno della riforma Biagi e la continua crescita dell’occupazione nonostante la bassa crescita economica. Sono queste le problematiche fondamentali del mercato del lavoro nel primo anno di entrata in vigore della legge 30/2003, analizzate da la voce.info. Sullo sfondo la mancata riforma degli ammortizzatori sociali e i lenti progressi della trattativa sulla riforma degli assetti contrattuali.

Nuovi lavori e nuovi numeri, di Tito Boeri e Guido Tabellini

Dopo quasi un semestre di blackout, l’Istat ha pubblicato la nuova indagine sulle Forze lavoro trimestrali. Era un’indagine molto attesa. Otteniamo i nuovi numeri un anno dopo l’approvazione della Legge Biagi di riforma del mercato del lavoro. Inoltre, si tratta della prima rilevazione ufficiale che utilizza il nuovo metodo di rilevazione “continua” dell’andamento del mercato del lavoro . Infine, le statistiche delle forze lavoro stanno pian piano incorporando gli effetti della regolarizzazione dell’occupazione immigrata, man mano che i nuovi residenti cominciano a entrare nel campione. È un momento di grande cambiamento. Non è facile orientarsi tra i numeri in queste condizioni, ma ci abbiamo provato.

Posti di lavoro e obiettivi di Lisbona

Negli ultimi dodici mesi, il mercato del lavoro italiano ha creato 163mila posti di lavoro. Ciò corrisponde a una crescita dell’occupazione pari allo 0,7 per cento. C’è un rallentamento rispetto all’anno precedente (in cui l’occupazione era cresciuta al tasso doppio, +1,5 per cento), ma è pur sempre un dato importante. Il numero di posti creati è significativo soprattutto alla luce della bassa crescita del prodotto interno, che nello stesso periodo non ha superato l’1 per cento.
E non si tratta di precari. Negli ultimi dodici mesi, sono stati creati quasi 200mila posti di lavoro permanenti a tempo indeterminato, mentre è diminuito di ben 110mila unità il numero di lavoratori a termine.
La maggior parte di questi lavori è però al Nord, mentre nel Mezzogiorno gli occupati sono addirittura calati. La settentrionalizzazione della crescita occupazionale, un fenomeno che già era evidente negli ultimi dodici mesi, continua ininterrotta.
Nonostante i 160mila nuovi occupati, ci allontaniamo da Lisbona, l’obiettivo che conta per chiudere il divario in reddito pro capite rispetto agli Stati Uniti. Negli ultimi dodici mesi, il tasso di occupazione, ossia il rapporto tra occupati e popolazione in età lavorativa, è diminuito. Siamo al 57,5 per cento. Secondo i parametri di Lisbona, dovremmo arrivare al 70 per cento entro il 2010. Un miraggio.
Come si spiega la diminuzione del tasso di occupazione quando l’occupazione cresce? Con la dinamica della popolazione in età lavorativa. È l’effetto immigrati regolarizzati, individui occupati che pian piano stanno entrando nelle forze lavoro, ampliando la base su cui calcoliamo il numero di occupati. Alla luce della composizione settoriale dei nuovi occupati (agricoltura ed edilizia), è probabile che anche la maggior parte dei nuovi occupati siano immigrati regolarizzati.

Gli effetti demografici

Si abbassa anche il tasso di disoccupazione di mezzo punto, scendendo al di sotto dell’8 per cento. Un dato importante, in quanto l’8 per cento era chiaramente una soglia significativa.
Ma questo declino riflette anche un fenomeno demografico. A riprova di questo, il fatto che la riduzione della disoccupazione sia concentrata al Sud, dove anche l’occupazione è in calo. Le coorti che si affacciano sul mercato del lavoro cominciano ad assottigliarsi, pesando di meno sul tasso di disoccupazione. Gli effetti coorte aiutano anche a capire perché l’occupazione aumenti fra gli ultra cinquantenni. Si tratta di persone che erano occupate precedentemente e continuano a esserlo. Le coorti precedenti, soprattutto tra le donne, erano formate da persone che non avevano mai partecipato al mercato del lavoro.
Purtroppo nessuna informazione è ancora disponibile sullo stato di attuazione della Legge Biagi.
Le nuove forze di lavoro dovrebbero registrare anche il numero di occupati sotto forma di collaborazioni coordinate e continuative, ma tale stima non è ancora stata rilasciata.
In parte il blackout continua. Speriamo per poco.

Un anno di legge Biagi, di Armando Tursi

La ex baby sitter dei miei figli, che ancora oggi si occupa di loro di tanto in tanto, mi ha chiesto di spiegarle cos’è il lavoro a chiamata. Gliel’ho spiegato, e lei, confermando la mia idea che l’intuizione giuridica non è prerogativa dei giuristi, mi ha detto: “ma allora io sono una lavoratrice a chiamata!”. Devo confessare che non ci avevo pensato, ma, in effetti, ci sono tutti gli elementi previsti dall’articolo 34 della nuova legge: ha meno di 25 anni, è disoccupata, e l’intesa è stata, finora, che io la chiamassi con un certo preavviso in caso di necessità. Dunque, in virtù della “legge barbara” che mercifica il lavoro, alla mia baby sitter spetterebbe l’indennità di disponibilità (il 20 per cento della retribuzione contrattuale) per i periodi di “attesa” della chiamata. Per fortuna, lei stessa si è subito affrettata a tranquillizzarmi, chiarendo che non sa che farsene del lavoro a chiamata.

Gli obiettivi della legge

I mali da attaccare erano noti: il tasso di occupazione più basso d’Europa, la seconda peggiore performance (dopo il Belgio) nell’occupazione dei lavoratori anziani, la più elevata incidenza europea del lavoro illegale, i più intensi squilibri territoriali del mercato del lavoro.
La “riforma Biagi” è partita dall’assunto che, per curare quei mali, fosse necessario massimizzare la flessibilità dell’offerta di lavoro, e lo ha fatto a partire dall’anello più debole della catena: non già la regolazione del rapporto di lavoro, bensì la diversificazione dei modelli o tipi contrattuali attraverso i quali è possibile procacciarsi lavoro (la cosiddetta “flessibilità tipologica” o “in entrata”). Operazione accompagnata, poi, dal completamento del processo di decentramento e razionalizzazione organizzativa dei servizi per l’impiego, già avviato dal Governo di centrosinistra.
Su questo secondo fronte, la riforma ha prodotto forse gli sforzi più apprezzabili, per comune riconoscimento bipartisan; benché debba constatarsi che sul piano operativo e dei risultati ottenuti siamo ancora quasi all’anno zero.

I punti critici

Ma è la seconda parte della riforma – quella che moltiplica e rimodula i tipi contrattuali flessibili – che lascia più perplessi.
I dati che l’Istat ha appena fornito sembrano confermare un’impressione diffusa, che registra non tanto la temuta destrutturazione del nostrano diritto del lavoro, quanto la scarsa efficacia di istituti quali il lavoro a chiamata, il lavoro gemellato, il part time flessibile, lo stesso staff-leasing all’italiana (somministrazione cosiddetta “a tempo indeterminato”), che paiono inadatti non solo a destare in maniera significativa l’attenzione degli imprenditori, ma anche a stimolare l’offerta di lavoro.
La verità è che la riforma del 2003 ha utilizzato in maniera un po’ confusa strumenti con diversa finalità: andavano infatti meglio distinti gli strumenti di lotta all’esclusione sociale (lavoro a chiamata, contratto di inserimento, prestazioni occasionali di tipo accessorio), da quelli finalizzati a conciliare in maniera ottimale la domanda di flessibilità delle imprese con quella di tutela, ma a sua volta di flessibilità, dei lavoratori (part time, lavoro ripartito, contratto a termine, somministrazione, lavoro parasubordinato, collaborazioni occasionali).
Se ciò si fosse fatto, sarebbe parso chiaro, intanto, che i primi soffrono della concorrenza insuperabile del lavoro irregolare, la cui eliminazione è precondizione per la loro efficacia, oltre che per l’accertamento effettivo della condizione di debolezza occupazionale.
Quanto ai secondi, essi avrebbero richiesto una più attenta calibratura tra flessibilità nell’interesse dell’impresa, flessibilità nell’interesse del lavoratore e semplicità regolativa: se infatti il nuovo part time è troppo poco “women friendly” per poter contribuire a innalzare il tasso di occupazione femminile, il lavoro ripartito, il lavoro a progetto e occasionale, la nuova somministrazione di lavoro e lo stesso lavoro a termine, sono inficiati, a seconda dei casi, e spesso assieme, da eccesso o inefficienza regolativi.
I critici a oltranza della riforma Biagi, peraltro, hanno puntato solo sulle sue reali o presunte iniquità regolative, curandosi ben poco del difetto di fondo, individuabile in una sorta di eccedenza del messaggio politico-mediatico rispetto alla sostanza normativa.

Verso uno “Statuto dei lavori”?

Il risultato, è che dopo il varo di un decreto legislativo composto di ben ottantasei lunghi articoli, e di un decreto correttivo di altri ventuno articoli, resta da scrivere lo “Statuto dei lavori” di cui si parla ormai da un decennio. Resta, per esempio, da allestire la rete di sicurezza sociale resa necessaria proprio dal proliferare di rapporti di lavoro instabili e discontinui, guardando, modernamente, al problema della “sotto-occupazione” più che a quello della “disoccupazione”.
Nel contempo, però, sarebbe necessario rimpiazzare, almeno in parte, molte delle flessibilità inutili introdotte nel 2003, con la flessibilità utile e praticabile, che dovrebbe rispondere a due caratteristiche: 1) dovrebbe riguardare direttamente le “modalità d’uso” del lavoro, anche nei rapporti di lavoro “standard” e non precari; 2) dovrebbe operare in funzione non antisindacale.
Ciò sarebbe possibile se si lasciasse alla contrattazione collettiva la facoltà di decidere in quali casi, a quali condizioni e in quali limiti sarebbe lecito, per i singoli lavoratori e per i singoli datori di lavoro, contrattare individualmente condizioni di lavoro adatte alla situazione specifica, anche se formalmente peggiorative rispetto a quelle stabilite dalle norme inderogabili del diritto del lavoro. Ciò costituirebbe, tra l’altro, anche un arricchimento funzionale della contrattazione collettiva e del sindacato, oggi particolarmente bisognosi di allargare e potenziare le basi della propria legittimazione sociale.

Una riforma in progress, di Riccardo Del Punta

Tracciare, a un anno di distanza, un bilancio della riforma del mercato del lavoro (decreto legislativo 10 settembre 2003 n. 276), è compito tutt’altro che facile. La riforma, anzitutto, è ancora un “cantiere aperto”, pur essendo stati emanati quasi tutti i rispettivi decreti di attuazione.

Qualche prima indicazione

Per alcune novità già in tutto o in parte operative (agenzie per il lavoro, somministrazione, appalto e distacco, part-time, lavoro intermittente, contratto di inserimento, lavoro a progetto), ve ne sono altre che indugiano ai blocchi di partenza (le commissioni di certificazione e l’apprendistato, per il quale alcune Regioni stanno cominciando a muoversi), e altre ancora le cui prospettive sono più remote (la mitica Borsa continua del lavoro, in via di sperimentazione in alcune Regioni, ma della quale pare lontana una realizzazione completa). Ma, anche per gli istituti teoricamente già operativi, di una completa attuazione si potrà parlare soltanto quando la normativa sarà stata metabolizzata da una contrattazione collettiva che appare non così entusiasta, anche perché penalizzata dall’incertezza, ormai cronica, sulle regole del sistema contrattuale. In un contesto così fluido, non stupisce la mancanza di dati disaggregati sull’impatto del decreto e soprattutto delle diverse tipologie contrattuali. Ciò non impedisce di tentare, in attesa della verifica ufficiale prevista per il maggio 2005, qualche riflessione. Il tasso di occupazione è ancora abissalmente distante dai sogni di Lisbona: l’ultima rilevazione Istat lo colloca al 56,5 per cento (quello femminile al 45,2 per cento). Tuttavia l’occupazione continua a crescere, pur ad un tasso più ridotto che in passato. Non è escluso, tra l’altro, che sia cresciuta nelle fasce più passive della popolazione (pressate, nel frattempo, dal caro-vita), la percezione di poter trovare lavoro in tante forme e modi diversi da quello canonico, e che ciò le abbia riavvicinate, quantomeno psicologicamente al mercato. È lecito dubitare, invece, che i nuovi contratti flessibili abbiano sinora dato qualche risultato in termini di emersione del sommerso. Quanto alla distribuzione interna fra le tipologie contrattuali, non sembra essersi verificata la paventata crisi delle collaborazioni autonome, a causa delle rigidità del lavoro a progetto. Ciò perché il decreto Biagi ha consentito la sopravvivenza transitoria, tramite accordo sindacale, delle vecchie co.co.co. (peraltro non oltre il 24 ottobre 2005), e perché la prassi ha saputo riassorbire la novità e trasportare la maggior parte delle collaborazioni sotto l’ombrello del nuovo istituto. Quel che è rimasto fuori è fuggito, di solito, non verso il lavoro subordinato, ma verso la partita Iva o il sommerso. Ma ciò significa pure che la nuova normativa non sembra essere riuscita nello scopo di “scremare” le collaborazioni fasulle, per quanto si debba riconoscerle di aver incentivato le parti a una maggiore trasparenza formale nella redazione dei contratti.

Alla ricerca di una regolazione

Se la questione vera è come adeguare le regole del mercato del lavoro alla realtà del postfordismo, la direzione di fondo additata dal decreto (in sostanziale continuità, mutatis mutandis, con un trend legislativo che risale sino alla legge Treu del 1997), rivolta al rafforzamento della posizione del lavoratore sul mercato, è quella giusta. O, quantomeno, non si vedono in giro progetti alternativi. Ciò non toglie che vi siano ancora aspetti discutibili, e almeno tre grandi incognite. Le prime due concernono le altre indispensabili “gambe” della riforma: i nuovi ammortizzatori sociali e un regime previdenziale da “tarare” anche sui lavoratori precari del postfordismo; il futuro e ancora fumoso Statuto dei lavori, del quale sta discutendo una commissione ministeriale, volto a ridisegnare organicamente il quadro delle tutele, alla luce della centralità acquisita dai lavori flessibili ampiamente intesi. In generale, si tratta di perfezionare in ogni sua parte un progetto di regolazione del mercato del lavoro, adeguato alle nuove sfide della competitività e del rilancio del paese. E si tratta di capire, una volta smaltita la pur inevitabile sbornia della flessibilità, che una compiuta modernizzazione non potrà che passare, nello specifico della realtà italiana, attraverso un’idea condivisa di collaborazione istituzionale fra tutti gli attori del sistema: imprese, lavoratori, sindacati ed enti bilaterali, enti pubblici territoriali, apparati statali. Tale disegno cooperatorio dovrà svilupparsi e articolarsi soprattutto sul territorio, con un auspicabile rincorrersi di best practice, e mirare a un circolo virtuoso fra sviluppo e sostenibilità sociale. Le componenti dovranno esserne una contrattazione collettiva tanto giuridicamente solida quanto capace di rapportarsi alle necessità dei vari settori e distretti, efficienti servizi per l’impiego, una formazione professionale riqualificata, reti di sicurezza per la precarietà, e ovviamente la tutela dei diritti fondamentali dei lavoratori. Sulla realizzabilità di una siffatta prospettiva regolativa, intesa come possibile “vantaggio istituzionale comparato” del nostro paese, si giocano scommesse forse decisive, oltre che per il diritto del lavoro, per la stessa economia italiana.

Quanto lavorano gli italiani, di Domenico Tobasso

Alla luce dei recenti accordi aziendali che prevedono un incremento delle ore di lavoro in grandi imprese operanti in Francia e Germania, si è tornato a discutere del divario di ore lavorate fra Europa e Stati Uniti e delle asimmetrie in quanto a grado di utilizzo del fattore lavoro che sono presenti all’interno della stessa Unione Europea. Molte analisi, tuttavia, sono basate su una lettura troppo frettolosa dei dati. È quanto mai opportuno allora provare ad analizzare il contesto del mercato del lavoro italiano partendo da numeri che permettano davvero un confronto con la situazione di altri Stati europei e con gli Stati Uniti. In questo compito, un aiuto rilevante è quello che viene offerto dai dati delle inchieste sulle forze lavoro europee, regolarmente condotte dall’Eurostat e nelle quali un’intera sezione viene dedicata all’analisi degli orari di lavoro.
Sulla base di queste informazioni è possibile calcolare gli orari medi di lavoro, sia annuali che settimanali, di diversi lavoratori europei.

Quanto lavorano i dipendenti

La prima osservazione non può non riguardare il numero di ore effettivamente lavorate dai lavoratori italiani, rispetto ai colleghi di altri paesi.

La tabella 1 ci aiuta a sintetizzare il quadro di insieme del carico di lavoro annuale degli occupati dipendenti, fornendo un confronto tra Europa e Stati Uniti sulla base dei dati dell’Ocse sul numero di ore di lavoro annue per occupato. Le note dolenti, per il vecchio Continente non mancano. Come già evidenziato su questo sito da Pietro Garibaldi , la differenza fra i dati americani e quelli italiani è degna di nota; ma ancor più evidente è il gap fra gli Stati Uniti, da una parte, e Francia e Germania, dall’altra. Se infatti il dato d’oltreoceano si attesta poco oltre le 1700 ore di lavoro annuo, e quello italiano intorno alle 1600, nelle due “locomotive d’Europa” si riscontra una media vicina alle 1450 ore. E proprio con riguardo a Francia e Germania le differenze appaiono aumentare nel corso degli ultimi anni. Nel 1995 il numero di ore di lavoro italiane erano pari al 94% di quello statunitense e nel 2001 tale percentuale era pressoché invariata, a differenza di quanto osservato in Francia e Germania, dove le percentuali tra il 1995 e il 2001 sono calate rispettivamente del 6 e del 4%. Con riferimento, dunque, a dati che rapportino il numero di ore di lavoro al numero di occupati, la performance italiana appare complessivamente più vicina a quella degli Stati Uniti che alle nazioni dell’Europa Continentale.

Tabella 1

Numero di ore di lavoro annuo per lavoratore occupato

1995

2001

Italia

1636

1619

Germania

1520

1444

Francia

1567

1459

Spagna

1815

1807

Regno Unito

1739

1707

Stati Uniti

1737

1724

È poi possibile un’analisi dei dati su base settimanale. Prendendo in considerazione i maggiori paesi europei, il numero di ore di lavoro in Italia risulta essere esattamente il linea con la media europea oltre che decisamente superiore a quello di Francia e Germania. Ciò vale sia per le ore di lavoro settimanali che per il numero di settimane lavorative in un anno. A proposito di questo ultimo dato è possibile aggiungere che in base a statistiche elaborate dall’Ilo (International Labour Organization), il numero di settimane lavorate da un cittadino americano nel 2002 è risultato essere pari a 40,5, dunque in linea con i dati europei. Tuttavia, puntare a una comparazione precisa fra le due banche dati sarebbe poco corretto: i dati europei si riferiscono ai soli occupati dipendenti, mentre quelli dell’Ilo si riferiscono all’insieme dei lavoratori statunitensi.

Tabella 2

Ore di lavoro settimanali

Settimane di lavoro in un anno

Settimane di vacanza

Settimane interamente non lavorative non per ferie

Settimane parzialmente non lavorative non per ferie

Italia

37.4

41

7.9

1.8

0.3

Francia

36.2

40.5

7

2.2

0.5

Germania

35.2

40.6

7.8

1.9

0.3

Regno Unito

38.2

40.5

6.5

1.8

1.6

Spagna

38.8

42.2

7

1.3

0.4

Vacanze e permessi

Dunque, da dove deriva la (peraltro diffusa) convinzione che i ritmi lavorativi italiani siano più blandi rispetto agli a quelli degli altri paesi industrializzati? Le ultime colonne della tabella 2 possono indirizzarci verso una prima risposta: le vacanze dei lavoratori italiani risultano più lunghe rispetto a quelle degli occupati europei. In media un dipendente italiano dispone di 7,9 settimane di vacanza all’anno, contro le 7 di francesi e spagnoli e le 6,5 dei britannici. E tuttavia, volendo calcolare il numero complessivo di giorni non lavorati è necessario tener conto dei giorni persi non solo per ferie, ma anche per motivi quali assenze per malattia, maternità, permessi. L’Italia è fra i paesi in cui questi permessi vengono meno utilizzati (anche perchè ci sono meno donne che lavorano). quindi, quando si guarda al numero complessivo di settimane non lavorate, non si notano forti differenze fra l’Italia (10 settimane all’anno) la Germania (anch’essa 10). la Francia (9,7) e la Gran Bretagna (9,9).

Breve storia dell’articolazione articolata, di Pietro Ichino

All’origine ci fu la tornata dei rinnovi contrattuali dei primi anni Sessanta, che sancì l’inizio della contrattazione articolata: i contratti collettivi nazionali di settore restavano il pilastro portante del sistema, ma contenevano le clausole di rinvio alla contrattazione aziendale per due materie: il premio di produzione e l’inquadramento professionale. E fissavano i relativi criteri vincolanti.

Dall’autunno caldo al protocollo Scotti

Al termine del decennio, quel sistema di contrattazione articolata venne messo in crisi da un vasto movimento di lotta, in larga parte spontanea, tendente a liberare la contrattazione aziendale dai vincoli nazionali. Nell’“autunno caldo” del 1969 le trattative per il rinnovo del contratto dei metalmeccanici rimasero bloccate per tre mesi proprio su questo punto; e si sbloccarono soltanto con un “disaccordo tacito” su questo punto – patrocinato dal ministro del Lavoro dell’epoca Carlo Donat Cattin – che sostanzialmente segnava la fine del sistema di articolazione contrattuale. Da quel momento in avanti la contrattazione aziendale sarebbe stata libera di svilupparsi anche al di fuori dell’alveo tracciato dal contratto nazionale, persino rimettendo in discussione le materie da esso già compiutamente regolate.

Durante gli anni Settanta le cose andarono proprio così: la contrattazione aziendale, promossa e gestita dai consigli di fabbrica, poté svolgersi al di fuori di qualsiasi coordinamento vincolante con la contrattazione nazionale. Ma i due livelli di negoziazione poterono convivere e sovrapporsi disorganicamente soltanto fino a quando il movimento sindacale ebbe la forza per imporli entrambi alla controparte. Quando, tra la fine degli anni Settanta e l’inizio degli anni Ottanta, la crisi economica incominciò a mordere duramente nel vivo del tessuto produttivo e il movimento sindacale incominciò a perdere colpi, la Confindustria poté porre come condizione per il rinnovo dei contratti collettivi nazionali il ripristino di regole di coordinamento vincolanti per la contrattazione aziendale. Ne seguì per quasi due anni la paralisi della contrattazione collettiva al livello nazionale; alla fine Cgil Cisl e Uil dovettero accettare il ritorno a regole vincolanti sull’articolazione del sistema contrattuale.

La crisi del sistema di relazioni sindacali si risolse con il protocollo Scotti del gennaio 1983, che aprì la strada ai rinnovi dei contratti nazionali, ma al prezzo del ripristino del sistema delle clausole di rinvio tra il contratto nazionale e il contratto aziendale. In altre parole: Cgil Cisl e Uil poterono riattivare la contrattazione al livello nazionale soltanto spendendo la “moneta di scambio” di un controllo effettivo sui contenuti della contrattazione aziendale. E, nonostante le divisioni tra loro, le tre confederazioni mostrarono di saper tener fede all’impegno contrattuale: nel corso degli anni Ottanta il nuovo sistema funzionò con un tasso altissimo di effettività.

L’accordo del 1993

Il sistema delineato dal protocollo del 1983 venne perfezionato e integrato dieci anni dopo con il protocollo Ciampi del luglio 1993, che stabilì una cadenza biennale della contrattazione nazionale degli standard retributivi minimi, ne fissò il criterio agganciando gli aumenti al “tasso di inflazione programmato” e demandò alla contrattazione aziendale l’adeguamento delle retribuzioni agli incrementi di produttività o redditività delle singole imprese.

Debellata l’inflazione, entrata l’Italia nel sistema monetario europeo, gli spazi di una negoziazione dei minimi retributivi al livello nazionale, secondo le regole del protocollo Ciampi, si riducono di molto. E a rincarare la dose si aggiungono le proposte di Confindustria da un lato, di Cisl e Uil dall’altro, tendenti in vario modo a spostare il baricentro della contrattazione dal centro verso la periferia. Da molte parti si osserva che il collegamento alla produttività o alla redditività aziendale di una porzione più ampia della retribuzione potrebbe consentire notevoli incrementi effettivi della retribuzione complessiva distribuita. Da molte parti si osserva, altresì, che consentire una differenziazione regionale di quei minimi potrebbe giovare allo sviluppo del Mezzogiorno, dove peraltro minimi inferiori sarebbero giustificati dal minore costo della vita. Di qui anche la proposta di consentire la deroga ai minimi stabiliti dal contratto nazionale, mediante contratto collettivo regionale o provinciale, in funzione di politiche di sviluppo concertate nella sede decentrata.

La Cgil e il contratto nazionale

Senonché ridurre lo spazio del contratto nazionale rispetto a quello riservato alla contrattazione periferica significa – per definizione – aumento delle differenze retributive da regione a regione e/o da impresa a impresa; ed è proprio a questa differenziazione che oggi la Cgil si oppone. E non si limita a opporsi, ma sembra spingersi a rivendicare un aumento del peso del contratto nazionale rispetto a quello attribuitogli dal protocollo Ciampi.

Dall’ala sinistra della Cgil e in particolare dalla Fiom si chiede, più specificamente, che gli aumenti retributivi contrattati al livello nazionale siano svincolati dal tasso di inflazione programmato, restando inderogabili gli standard minimi. Si invocano, a sostegno di questa linea, le ragioni della solidarietà: si vuole che i comparti più forti di ciascuna categoria possano aiutare i più deboli, in un sistema che riduca al minimo le disuguaglianze. Ma a questa linea d’azione si contrappone un interrogativo: i lavoratori delle regioni più arretrate del paese traggono davvero vantaggio da standard minimi elevati, uguali per tutto il territorio nazionale? Riescono davvero ad accedere a un lavoro regolare rispettoso di quegli standard? Oppure l’effetto di una politica di questo genere è solo di favorire, in quelle regioni, il dilagare del lavoro irregolare?
Più in generale, l’ala sinistra della Cgil chiede che si volti pagina rispetto a una lunga stagione di politica dei redditi; che si volti pagina, in particolare, rispetto ai vincoli posti non solo alla contrattazione nazionale delle retribuzioni, ma anche a quella aziendale, dal protocollo Ciampi del 1993.
Vi sono alcune analogie evidenti tra questa rivendicazione e quella sulla quale divamparono le lotte dell’autunno caldo del 1969. Ma le condizioni attuali di unità e di forza del movimento sindacale sono molto più simili a quelle dei primi anni Ottanta che a quelle della fine degli anni Sessanta. Come nei primi anni Ottanta, anche oggi la Confindustria può rispondere a quella rivendicazione con il rifiuto di stipulare, a quelle condizioni, il contratto nazionale. E a quel punto – piaccia o non piaccia alla Cgil o alla sua ala sinistra – lo spostamento dal centro alla periferia del baricentro del sistema delle relazioni sindacali si verificherebbe nei fatti, senza bisogno di alcun accordo-quadro.

Contratti: a chi serve lo status quo, di Tito Boeri

Un tavolo chiuso ancora prima di aprirsi

Il tavolo sulla nuova concertazione è partito male. La Cgil ha abbandonato la trattativa prima ancora si aprisse perché i) si discuteva di riforma degli assetti contrattuali senza avere raggiunto una posizione unitaria all’interno del sindacato e ii) si sarebbe rischiato di ritardare la conclusione di molti contratti, in attesa dell’introduzione delle nuove regole (vedi la dichiarazione di Patta su www.cgil.it nella sezione Ufficio Stampa). Ma Confindustria si è dichiarata disposta a concedere un periodo di moratoria in cui continuare ad applicare le vecchie regole, chiudendo dunque tutte le trattative in corso per il rinnovo dei contratti con le regole dell’accordo del luglio del 1993. Quindi il vero ostacolo sulla strada della riapertura del dialogo rimane la divisione nel sindacato circa gli assetti contrattuali.

Le divisioni nel sindacato

Cisl e Uil si sono da tempo espresse a favore di un maggiore decentramento della contrattazione, mentre la Cgil si erge a difesa degli accordi del luglio 1993, in nome di principi di egualitarismo e di difesa dei lavoratori più deboli. In altri interventi su questo sito si è discusso perché le regole introdotte nel 1993 possano essere poco adatte a gestire la contrattazione dopo l’entrata del nostro paese nell’euro, ora che non è più possibile ricorrere alle cosiddette svalutazioni competitive (vedi il dibattito sul Tip e sulle forme di contrattazione). Ci preme qui, invece, giudicare in che misura gli assetti attuali siano davvero in condizione di tutelare i lavoratori più deboli, come sostenuto al tavolo della trattativa dalla Cgil.

Chi beneficia del secondo livello?

Come è noto, l’accordo del luglio 1993 prevede un doppio livello di contrattazione: nazionale e aziendale.

Il secondo livello dovrebbe in principio essere collegato all’andamento della produttività e può solo incrementare il salario rispetto ai minimi nazionali. Proprio in virtù di questo “effetto sommatoria”, i contratti di primo livello fissano minimi relativamente bassi, lasciando spazio ad accordi integrativi (additivi) aziendali. Chi lavora in imprese in cui c’è anche contrattazione di secondo livello perciò beneficia, a parità di altre condizioni, di salari più elevati degli altri lavoratori. Difficile stabilire di quanto. La contrattazione decentrata comporta mediamente incrementi del 3-4 per cento rispetto al salario nazionale. Sommata su più rinnovi contrattuali, questo incremento può, nel corso del tempo, creare differenziali salariali di un certo livello per le regole della capitalizzazione composta. Bastano quattro rinnovi contrattuali per creare differenziali salariali dell’ordine del 20 per cento.

Ma chi sono i lavoratori che beneficiano della contrattazione di secondo livello? Sin qui si sapeva poco a riguardo, se non che i lavoratori nelle imprese coperte dalla contrattazione di secondo livello sono circa un terzo del totale. Grazie a una indagine Eurostat sulla struttura delle retribuzioni (per ora sono disponibili solo i dati riferiti al 1997) è possibile saperne di più. Il grafico qui sotto, tratto da questa indagine, riproduce il grado di copertura della contrattazione di secondo livello (la percentuale di lavoratori che operano in imprese in cui si pratica la contrattazione di secondo livello) per decile di reddito. Il primo decile corrisponde al 10 per cento di lavoratori con salari più bassi, il secondo decile al 10 per cento di lavoratori con salari più alti del primo decile, ma inferiori al quelli del terzo decile e così via.

Il messaggio del grafico è molto chiaro: non sono certo i lavoratori più deboli a beneficiare degli attuali assetti contrattuali. Il grado di copertura della contrattazione di secondo livello cresce col reddito dei lavoratori anche perché si svolge soprattutto nelle imprese di grandi dimensioni che, a parità di altre condizioni, offrono retribuzioni più elevate delle imprese più piccole. I lavoratori con i salari più bassi, spesso impiegati nell’impresa minore, non vengono perciò messi nella condizione di partecipare a potenziali incrementi di produttività raggiunti nell’impresa in cui operano.

Se il sindacato ha davvero interesse a proteggere i lavoratori più deboli o a offrire loro almeno le stesse opportunità di quelli meglio retribuiti, dovrebbe allora preoccuparsi di far sì che la contrattazione aziendale avvenga anche nelle imprese in cui operano i lavoratori con salari più bassi. Dato che non sembra in grado di imporre un secondo livello di contrattazione in queste imprese, meglio evitare che la contrattazione integrativa sia sempre e comunque penalizzante per il datore di lavoro. Ciò significa permettere alla contrattazione integrativa di sperimentare schemi retributivi che mettano davvero in relazione il salario alla produttività, prevedendo dunque variazioni sia in positivo che in negativo a partire da una componente fissa della retribuzione.

In ogni caso, l’attuale sistema di contrattazione impedisce a molti lavoratori, soprattutto ai più deboli, di partecipare a incrementi di produttività e permette anche forti differenziali salariali a favore di un gruppo ristretto di lavoratori delle grandi imprese, in cui si svolge contrattazione di secondo livello. La Cgil professa la necessità di aumentare la quota dei salari sul prodotto e ha fatto dell’egualitarismo un proprio cavallo di battaglia. Alla luce di questi obiettivi, farebbe bene ad accettare quanto meno di discutere di riforme degli assetti contrattuali, anziché ergersi a difesa dello status quo.

Un taglio elettorale, di Tito Boeri e Guido Tabellini

L’idea di aumentare per legge le ore lavorate sembra rientrata. L’attenzione del Governo si è invece spostata sui tagli di imposta. Il cambiamento di enfasi e di strumento è quanto mai opportuno.
Una riduzione del prelievo contributivo sul lavoro, finanziata da un taglio di spese di pari importo, può avvicinarci agli obiettivi di Lisbona. Il taglio per legge delle ferie rischia, invece, di aumentare il divario in ore lavorate con i paesi che crescono di più, a partire dagli Stati Uniti.

Perché i tagli alle ferie aumentano il divario in ore lavorate

L’occupazione dipende dal costo del lavoro per ora lavorata.
Imporre per legge un numero di ore lavorate diverso da quello liberamente scelto dalla contrattazione privata può solo creare inefficienze e far salire il costo orario del lavoro.
Già il governo Jospin in Francia aveva provato a imporre per legge un orario ridotto, nell’illusione di aumentare il numero di occupati. Il risultato è stato aumentare il costo delle ore lavorate, a scapito di tutti.
L’operazione inversa, aumentare per legge il numero di ore lavorate da ogni individuo, avrebbe lo stesso effetto. Lo stipendio mensile aumenterebbe, probabilmente più che in proporzione per compensare le inefficienze create dall’intervento legislativo.
Chi ha già un impiego probabilmente lavorerebbe di più, ma ci sarebbero meno persone con un lavoro. E aumenterebbe il divario in ore lavorate con gli Stati Uniti – un divario nella percentuale di persone che hanno un lavoro molto più che nel numero di ore lavorate da chi un impiego ce l’ha (vedi lavoce.info 25/03/2004).
È meglio quindi lasciare alla contrattazione fra imprese e lavoratori la scelta su come compensare i lavoratori alla fine del mese (se con più salario o con più tempo libero).

Perché riduzioni del prelievo fiscale e contributivo sul lavoro possono servire

Se davvero vogliamo aumentare il numero di ore lavorate, la via maestra è quella degli incentivi, e in particolare delle riduzioni del prelievo fiscale e contributivo sul lavoro.
Oggi si lavora poco anche perché i redditi da lavoro sono tassati troppo.
Le conseguenze delle imposte sui redditi da lavoro dipendono da chi ne sopporta l’onere: se le imprese, che pagano un costo del lavoro più elevato, o i lavoratori, che ricevono un salario netto più basso.
Nel caso dei lavoratori che non sono tutelati dal sindacato, l’onere delle imposte è principalmente su di loro. Gli effetti dei tagli fiscali quindi si esplicano soprattutto attraverso un aumento del salario netto e tramite l’offerta di lavoro. Molti studi dimostrano che la crescita dei salari netti induce aumenti più rilevanti dell’offerta di lavoro tra chi è ai margini del mercato del lavoro, soprattutto tra le donne e i giovani. In Italia il 30 per cento delle madri non torna al lavoro dopo la maternità e quasi la metà di coloro che sono in cerca di prima occupazione hanno almeno un diploma di scuola secondaria. Si tratta in entrambi i casi di lavori potenzialmente ad alta produttività, dunque in grado di generare una forte riduzione del costo del lavoro per unità di prodotto e far crescere l’economia. Lo strumento per concentrare i tagli d’imposta su queste categorie di lavoratori sono le detrazioni fiscali.

Un seconda distorsione sull’offerta di lavoro riguarda i redditi alti. Qui il colpevole è un’elevata aliquota marginale. Lo strumento per porvi rimedio è ridurre la progressività delle imposte, che in Italia resta elevata. Ma la distorsione è meno rilevante della precedente, perché i lavoratori coinvolti sono un numero più esiguo.

Quando i lavoratori sono tutelati dal sindacato, possono riuscire a scaricare sul datore di lavoro buona parte dell’onere fiscale. In questo caso, le imposte sul lavoro hanno anche un effetto sulla domanda di lavoro. Abbassare il prelievo farebbe scendere il costo del lavoro per le imprese e quindi potrebbe favorire la creazione di nuovi posti di lavoro. Anche qui vi sono studi che mostrano la rilevanza di questo effetto. Lo strumento per raggiungere questo obiettivo è una riduzione generalizzata del prelievo fiscale complessivo (Irpef e contributi sociali) sui redditi da lavoro medio-bassi nel settore privato. Questo intervento potrebbe anche facilitare un maggiore decentramento territoriale della contrattazione. Molti lavori a bassa produttività sono concentrati al Sud. Uno sgravio fiscale su questi redditi potrebbe forse indurre il sindacato ad accettare riduzioni del costo del lavoro che non abbassino i salari netti dei dipendenti e facilitare l’emersione del sommerso, oggi per l’80 per cento concentrato al Sud.

Queste riduzioni del prelievo fiscale per i salari bassi sarebbero un primo tassello importante di un nuovo sistema di welfare compatibile con forti incentivi al lavoro. Potrebbero essere finanziate tagliando le spese per “politiche attive del lavoro” di assai dubbia efficacia, che oggi ammontano a circa lo 0,6 per cento del Pil. È anche possibile (ma per prudenza, è meglio non contarci) che una parte della riduzione delle imposte possa essere finanziata dall’aumento della base contributiva legata all’emersione del sommerso.

Ma è questo l’obiettivo del Governo?

Ma sarebbe ingenuo pensare che l’azione del Governo sia motivata solo o soprattutto da questi criteri di efficienza economica. La principale motivazione politica per abbassare le imposte non è certo quella di aumentare le ore lavorate. La vera ragione sono le imminenti elezioni europee. L’evidenza empirica tratta da un ampio campione di democrazie mostra che, in un anno elettorale, in media il disavanzo fiscale sale di quasi mezzo punto di Pil, prevalentemente per via di tagli d’imposta. In Italia lo aveva fatto anche il governo Amato prima delle precedenti elezioni politiche. Ora lo farà il governo Berlusconi, prima di quelle europee. Anche l’entità del taglio promesso (6 miliardi di euro) è perfettamente in linea con l’esperienza dei cicli elettorali in questo e in altri paesi.
Non è detto che questa motivazione elettorale per i tagli d’imposta riduca i loro effetti benefici sull’economia. Per certi aspetti, i tagli possono anche ridurre gli effetti negativi del ciclo politico. Poco dopo le elezioni europee vi saranno le elezioni politiche, ovviamente ancora più importanti per il Governo. Si può immaginare che l’assalto alla diligenza del bilancio dello Stato sarà quasi irresistibile. È meglio quindi se la cassa è già stata svuotata, perché questo renderà più difficile spendere di più l’anno prossimo. Sempre che la cassa non sia già vuota, perché i primi dati disponibili sul fabbisogno nel 2004 sono tutt’altro che incoraggianti. Inoltre, casse vuote possono anche ostacolare tagli mirati della spesa, o riforme strutturali che richiedono misure di compensazione.

Siamo troppo cinici a imputare una motivazione prevalentemente elettorale per i tagli d’imposta che il Governo si accinge a promettere? Il Governo ha un modo credibile per smentire questa interpretazione e mostrare le sue buone intenzioni: accompagnare ogni taglio di imposta con riduzioni di spesa di pari importo.
Renderebbe i tagli credibili e sostenibili, quindi più efficaci nei loro effetti di stimolo della crescita. Come suggerito da diversi studi, i tagli di imposta che non implicano un aumento del disavanzo riescono ad avere effetti maggiori sulla crescita.

Come lavorare di più, di Pietro Garibaldi

Le giornate di lavoro pro-capite hanno recentemente conquistato il centro della scena nel dibattito sul mercato del lavoro italiano.
Due sono i motivi di questa enfasi. Da un lato, si è osservato che le ore di lavoro annuo per lavoratore occupato in Italia sono inferiori a quelle degli Stati Uniti: 1.619 contro 1.724.
Dall’altro, si è molto discusso della proposta del presidente del Consiglio di ridurre le festività o almeno razionalizzare la loro posizione all’interno della settimana al fine di aumentare la produzione nazionale.
Sorprendentemente, la discussione ha completamente ignorato il ruolo della contrattazione collettiva, e ha analizzato il problema come se il numero di giornate lavorative potesse essere deciso per legge.

Per legge o per contratto

In Italia, come in ogni paese, il numero di giorni lavorati viene contrattato dalla parti sociali e non viene stabilito per legge.
I contratti nazionali di categoria, in qualunque settore del sistema economico, contengono precisi riferimenti al numero di giorni lavorati e al numero di giorni di ferie retribuite per ciascun livello salariale.
Tutto ciò che la legge può stabilire è soltanto il numero di festività.

Supponiamo che il numero di festività venga effettivamente ridotto. Due sono le domande da porsi. Primo, alla riduzione seguirebbe automaticamente un aumento del numero di giorni lavorati? Secondo, che effetto si avrebbe sul prodotto interno lordo?
Analizziamo la prima. Nel breve periodo, a contratti nazionali invariati, il numero di giorni lavorati probabilmente aumenterebbe, in quanto i contratti vengono rinnovati con scadenze pluriennali.
Nel lungo periodo, tuttavia, la risposta è più incerta, perché dipende in modo cruciale da come i rinnovi contrattuali reagiranno alla riduzione di festività. Potrebbero benissimo, ad esempio, aumentare il numero di ferie e rendere nullo l’impulso iniziale.

Ma veniamo alla seconda e più importante domanda. Quale effetto si avrebbe sul Pil, nel breve periodo, da una riduzione delle festività? La risposta a questa domanda è molto incerta.
Innanzitutto, occorre ricordare che il Pil (prodotto interno lordo, valore aggiunto) è grosso modo uguale alla somma di profitti e salari dell’economia. È ovvio che se aumenta il numero di giorni lavorati, ma il monte salario percepito dai lavoratori rimane invariato, più ore lavorate non si trasformano direttamente in aumento del valore aggiunto. Tuttavia, a un aumento delle ore lavorate dovrebbe seguire una crescita della produzione, delle vendite, dei profitti, e quindi del valore aggiunto. Ma affinché questa catena di eventi si manifesti, è comunque necessario che la maggiore produzione incontri una domanda sufficiente. E se i salari rimangono costanti, non è ovvio che la domanda aggregata alla fine aumenti davvero.
In sostanza, nel breve periodo il Pil potrebbe anche restare invariato.

Uno scambio tra ferie e reddito

Ma la questione più importante è come far sì che aumenti in Italia il numero di ore lavorate pro-capite.
I ragionamenti precedenti suggeriscono che l’unico modo è attraverso la contrattazione collettiva. Ricordiamo infatti che le ferie sono giorni completamente retribuiti e che un individuo non accetterà mai una riduzione di ferie con un aumento di lavoro a parità di salario. Questa è la base della teoria dell’offerta di lavoro.
Si potrebbe però ottenere un aumento di giornate lavorate proponendo ai lavoratori uno sgravio fiscale in cambio di un aumento del numero di giornate lavorate.
In ciascuno dei più importanti contratti collettivi, il Governo potrebbe offrire una totale de-contribuzione di tutte le ore lavorate in eccesso a un numero prestabilito, diverso per ciascun contratto. I cittadini lavoratori sarebbero messi di fronte a un semplice trade-off: ridurre il numero dei giorni di ferie in cambio di un aumento di reddito disponibile.
E le imprese potrebbero così ridurre il ricorso allo straordinario, un strumento molto utilizzato nonostante l’onerosità del costo.
Che impatto avrebbe questa misura sulle casse dell’erario? Ci sarebbero due effetti.
Da un lato, il gettito diminuirebbe, in quanto si sostituirebbero ferie regolarmente tassate con giorni lavorativi esenti da tassazione. Ma probabilmente aumenterebbero la produzione e il reddito, con effetti positivi finali sul gettito.
Certamente, diminuirebbe il gap di ore lavorate tra Italia e resto del mondo..

Il sindacato nella riforma del lavoro: di Armando Tursi

La “riforma Biagi” contiene numerosi paradossi. Il più segnalato finora è quello dell’apparente sfavore per i rapporti di lavoro parasubordinati (vedi il dibattito su lavoce.info).
Vorrei qui segnalarne un altro, di ben più ampia portata, anche culturale: riguarda il ruolo del sindacato nel disegno riformatore.
Con il decreto legislativo n. 276/2003 la ormai ventennale tendenza legislativa a delegare funzioni paralegislative alle parti sociali ha toccato il culmine: in questo provvedimento si ritrovano una sessantina di rinvii alla contrattazione collettiva.

A che servono i rinvii

I rinvii servono a integrare previsioni legislative incomplete (per esempio, in tema di lavoro ripartito, l’articolo 43 del Dlgs n. 276/2003), oppure a derogare a tali previsioni in direzione di una maggiore “flessibilità” della disciplina del rapporto di lavoro.
Non mancano previsioni di sapore sadomasochistico, come quelle che rimettono ai contratti collettivi la definizione dei periodi durante i quali è preclusa la possibilità di introdurre limitazioni quantitative al ricorso al lavoro temporaneo (vedi l’articolo 10 e l’articolo 20 del Dlgs n. 276/2003).
Talvolta il dono dei Danai è reso necessario, e ben accetto alle Minerve sindacali, proprio dall’irragionevolezza della norma: esemplare, in proposito, è la previsione della “transizione” graduale dalle vecchie “co.co.co.” al “lavoro a progetto”, affidata a provvidenziali accordi aziendali (articolo 86, comma 1 del Dlgs n. 276/2003).
Non sono rare, infine, le ipotesi in cui il “rinvio” è del tutto inutile, poiché la norma non attribuisce alle parti sociali alcun potere che esse già non detengano in virtù del generale principio di libertà negoziale privata: per esempio, quando si dice che i contratti collettivi “possono determinare condizioni e modalità della prestazione lavorativa” nel rapporto di lavoro a tempo parziale (articolo 1, comma 3 del Dlgs n. 61/2000, confermato, sul punto, dall’articolo 46 del Dlgs n. 276/2003).

L’integrazione tra legge e contratto collettivo

Beninteso, il processo di stretta integrazione tra legge e contratto collettivo ha serie ragioni di ordine sociale e istituzionale, per la necessità di individuare forme di regolazione che consentano di conciliare la crescente complessità delle società moderne con la coesione sociale. La ricetta è individuata nel cosiddetto “diritto riflessivo“, ossia nella previsione di meccanismi di produzione delle regole giuridiche che siano “consensuali” e provengano “dal basso”.
Perché ciò non comporti, però, il completo assorbimento della libertà negoziale e dell’autonomia sociale, sarebbe necessario distinguere le ipotesi in cui le parti sociali operano in virtù di una delega da parte del legislatore, da quelle in cui esercitano la propria autonomia e libertà negoziale.

È invece molto diffusa, e trasversalmente, l’idea secondo cui la distinzione tra libertà (private) e funzioni (pubbliche), contratti e norme, privato (anche collettivo) e pubblico, politico e sindacale, non avrebbe ormai più senso. In questa prospettiva, la contrattazione collettiva cessa di essere espressione di autonomia e diventa vincolo imposto dall’esterno.
E il sindacato, da organizzazione che era, diventa istituzione.

Il problema della rappresentanza

Un’istituzione democratica esige meccanismi di produzione della norma ispirati alla regola maggioritaria. È dunque coerente la pressante richiesta della sinistra sindacale di introdurre una disciplina legale della rappresentanza, che dia attuazione all’articolo 39 della Costituzione, ridisegnando il diritto sindacale alla luce del principio maggioritario, sì da chiarire, finalmente, “chi sia legittimato a decidere e come si misuri la rappresentanza”.
Appare poco coerente, invece, il Governo di centro-destra, che pretende di far vivere il suo progetto di compenetrazione tra la legge e la contrattazione collettiva all’ombra del totale astensionismo legislativo in materia di disciplina della rappresentanza sindacale, proclamato nel “Libro bianco”.

Ma da questo equivoco non si esce con successo se si resta invischiati nella prospettiva culturale di cui lo stesso Governo è prigioniero: per un verso, a causa della lettura cripto-corporativa del principio di sussidiarietà, che lo porta a concepire il sindacato come ente necessario e funzionalizzato, e per l’altro, per l’improprio riferimento al modello del “dialogo sociale” comunitario, in cui il “partenariato sociale” è strumento di supporto a un rule-making process che soffre di uno strutturale deficit democratico sul versante politico.
Proprio il modello del “dialogo sociale” comunitario, che vorrebbe essere la risposta liberal alla concertazione dirigista, è una forma di democrazia politica procedurale, che ha poco a che fare con un autentico “ordinamento intersindacale”.
Anche a questo proposito il Libro bianco “equivoca”, focalizzando il falso obiettivo della presunta differenza tra “concertazione” e “dialogo sociale”. Mentre la distinzione da farsi sarebbe quella tra la concertazione (alias “dialogo sociale”), intesa come forma di cooperazione tra pubblico e privato-collettivo, e la contrattazione collettiva, che è invece una forma di manifestazione dell’autonomia negoziale privata, in virtù della quale le parti sociali esercitano poteri propri, senza che sia necessario alcun rinvio a opera della legge.

È alla luce di tale distinzione che bisognerebbe affrontare il problema della riforma delle “regole della rappresentanza sindacale”.
Ma da una prospettiva siffatta il problema presenta connotati alquanto diversi rispetto a quelli usuali nel dibattito politico-sindacale.
Non si tratta, infatti, di decidere se sia meglio una disciplina legale o negoziata. E non si tratta nemmeno di stabilire regole per la misurazione della rappresentatività, che valgano per decidere “chi contratta e per chi”: come accade nel pubblico impiego “contrattualizzato”.

Si tratta, invece, di fissare criteri per l’individuazione dei soggetti collettivi coi quali instaurare pratiche concertative e di dialogo sociale: e a tal fine la sperimentata nozione di “maggiore rappresentatività” (sia pure nella innocua variante della “rappresentatività comparativamente maggiore”) conserva intatta la sua idoneità selettiva.
Si tratta anche di conciliare l’efficacia erga omnes dei contratti collettivi con il pluralismo sindacale imposto dall’articolo 39 Costituzione: sarebbe incompatibile con tale principio la sottrazione della libertà di contrattazione collettiva a sindacati (datoriali e dei lavoratori) che, pur essendo genuina espressione di gruppi più o meno numerosi di lavoratori, non siano annoverabili tra quelli “rappresentativi” negli ambiti e secondo i criteri (inevitabilmente) stabiliti dalla legge.

L’occupazione cresce ancora: di Pietro Garibaldi

Nel corso del 2003, il mercato del lavoro italiano ha chiaramente risentito del brusco rallentamento dell’economia, ma è rimasto un mercato che crea posti di lavoro. Nel 2004 gli occupati sono aumentati 170mila unità, con uno sviluppo su base annua pari allo 0,8 per cento.
Tenendo conto che la crescita del prodotto nel 2003 è stata dello 0,4 per cento, il risultato complessivo del 2003 è decisamente positivo.
Rispetto a gennaio 2004, il tasso di disoccupazione è sceso dal 9,1 percento all’8,7 per cento, continuando un trend in atto dal 1998, quando il tasso di disoccupazione aveva raggiunto il 12 percento. Il tasso di occupazione, il rapporto tra occupati e popolazione in età lavorativa, è cresciuto di 1,4 punti percentuali, raggiungendo quota 55,8 per cento, una cifra che rimane comunque bassissima su base europea, e molto lontano dal 70 per cento richiesto dagli obiettivi di Lisbona.

I motivi di questa onda di medio periodo dell’occupazione italiana sono stati più volte analizzati (vedi ” Il bicchiere mezzo pieno dell’occupazione“), e rimangono legati alla lunga serie di riforme del mercato del lavoro, alla moderazione salariale, al ruolo degli incentivi all’occupazione e, in parte, anche all’emersione di lavoro precedentemente sommerso.
Inoltre, anche l’invecchiamento della popolazione facilita un miglioramento delle statistiche del lavoro (vedi “La popolazione invecchia, le statistiche migliorano“).

Un segnale preoccupante

Se analizziamo i dati su base congiunturale, confrontando i dati de-stagionalizzati delle rilevazioni di gennaio 2004 con quelle di ottobre 2003, emerge un segnale decisamente preoccupante.
La crescita occupazionale ha tenuto. Il mercato del lavoro ha infatti creato in un trimestre 45mila posti di lavoro, una cifra che su base annua permetterebbe comunque di mantenere un tasso di crescita pari allo 0,8 per cento. Tuttavia, la crescita dei posti di lavoro è avvenuta intermente nel Nord Italia (con una crescita pari allo 0,4 per cento) mentre è rimasta pressoché invariata nel Centro Italia e completamente piatta nel Mezzogiorno.

Questo è un dato allarmante, in quanto implica un ripristino del divario territoriale del mercato del lavoro, un fenomeno che sembrava invertito all’inizio del decennio. Probabilmente, per recuperare crescita occupazionale nel Mezzogiorno, sarebbe necessario ricorrere a un decentramento territoriale della contrattazione collettiva, uno dei meccanismi in grado di legare la domanda di lavoro alle condizioni locali. Recentemente ci sono state numerose aperture sindacali in questa direzione , ed è bene sperare che alle parole possano presto seguire i fatti.

Infine, la distribuzione della crescita occupazionale per settore di attività suggerisce che la maggior parte dei posti di lavoro sono creati nel settore delle costruzioni, un settore caratterizzato da alta volatilità occupazionale.
In quest’ottica, non è affatto detto che gli ultimi posti creati siano stabili e duraturi.

Il ruolo del part-time

La distribuzione della crescita occupazionale per tipologia di lavoro mostra che quattro su cinque dei nuovi lavoratori sono dipendenti, mentre la metà di questi ultimi sono lavoratori temporanei o a tempo parziale.
È utile riflettere sul ruolo dei lavoratori part-time, una tipologia di contratto che ha raggiunto in Italia quasi il 6 per cento dell’occupazione. La crescita del part-time è sempre vista come un fenomeno cruciale per aumentare l’occupazione italiana femminile nel lungo periodo.

Tuttavia, non si deve dimenticare che un aumento di lavoratori part-time determina automaticamente una diminuzione del numero di ore lavorate per addetto, una statistica che vede l’Italia indietro rispetto agli altri paesi dell’Ocse.
È vero che quantitativamente la crescita del part-time può spiegare soltanto una parte minore della differenza tra le ore lavorate per addetto in Italia e Stati Uniti. Tuttavia, alla luce dell’auspicato aumento del part-time in Italia, il divario nelle ore lavorate per addetto continuerà ad aumentare.

Scuola e università

Sommario a cura di Daniele Checchi

La scuola italiana non funziona. Ma non è un problema di risorse: nei paesi che spendono quanto l’Italia in formazione primaria e secondaria, la performance dei quindicenni è di gran lunga migliore che da noi. E’ un problema di qualità degli insegnanti? E’ difficile, ma non impossibile, misurarla e dovrebbe essere maggiormente incentivata. Ma per farlo bisogna affermare la cultura della valutazione, vincendo fortissime resistenze alle rilevazioni. La valutazione sulla base di parametri oggettivi è ancora più importante nel caso dei concorsi universitari. Apriamo il confronto su due proposte alternative. La prima propone di mantenere i concorsi per l’ingresso nella carriera universitaria a livello decentrato, attribuendo agli atenei locali anche la responsabilità finale (e l’onere economico corrispondente) della conversione a tempo indeterminato dei contratti di docenza e/o ricerca. La seconda propone di tornare ai concorsi nazionali per combattere il malcostume dei concorsi fasulli. Ma non basta probabilmente riformare i concorsi. Perchè l’università italiana incentivi la ricerca bisogna smettere di premiare solo (e troppo) l’anzianità di servizio, rendendo il sistema impermeabile alla concorrenza esterna, come dimostrano i dati sui pochissimi docenti stranieri presenti in Italia. Mentre le risorse disponibili al sistema universitario italiano non sono cresciute in termini reali negli ultimi 5 anni, il governo ha scommesso sulle iniziative di eccellenza come l’Istituto italiano di tecnologia. Se ne è parlato più prima della sua nascita che adesso che sta per concludersi la fase di startup. Al commissario unico e al direttore scientifico dell’Iit abbiamo formulato alcune domande per capire lo stato di avanzamento di questo progetto. Ospitiamo le risposte di Vittorio Grilli, commissario unico dell’Iit e Roberto Cingolani, direttore scientifico dell’istituto.

Il concorso? Meglio nazionale, di Pietro Ichino

Per il reclutamento dei professori universitari, fino alla riforma del 1998 la legge italiana prevedeva che si svolgesse un concorso unico nazionale ad anni alterni, un anno per quelli di prima fascia e nell’altro anno per quello degli associati. Quanto alla commissione giudicatrice, per la prima fascia, tutti i professori della materia erano chiamati a eleggere dieci possibili commissari, tra i quali venivano sorteggiati i cinque membri. Per gli associati, il sorteggio dei possibili commissari precedeva l’elezione. Alle singole facoltà interessate era data poi la scelta tra i vincitori per la copertura delle cattedre messe a concorso.

Il circolo vizioso del passato

Perché quel sistema funzionasse bene (nei limiti consentiti dal contesto del sistema universitario italiano), mancava solo una regola: scioglimento automatico della commissione che non avesse esaurito i propri lavori entro tre o quattro mesi; ed elezione di una nuova, con esclusione dall’elettorato passivo per i vecchi commissari.
Poiché questa regola non c’era, i lavori delle commissioni erano sovente interminabili, essendo intralciati dai veti incrociati e dai complessi giochi di alleanze e contro-alleanze accademiche in cui i commissari venivano invischiati. I concorsi duravano anni. Così, a ogni nuovo concorso, il numero di posti in palio era molto elevato; il che contribuiva ulteriormente a rallentare i lavori. L’intervallo lungo tra un concorso e l’altro e il numero abnorme dei posti in palio contribuivano a drammatizzare l’importanza del concorso e a rallentarne lo svolgimento, in un evidente circolo vizioso. La drammatizzazione portava poi con sé un altissimo numero di ricorsi dei candidati perdenti al Tribunale amministrativo, dai quali il ministro dell’Istruzione era letteralmente sommerso.

I gravi difetti dell’attuale sistema

Questa alluvione di ricorsi giudiziali è stata una ragione non secondaria della scelta del ministro Berlinguer di decentrare i concorsi: con la riforma del 1998 sono ora i singoli atenei a bandirli (e quindi a doversi eventualmente difendere davanti al Tar). Ma il nuovo sistema ha due difetti gravissimi. In primo luogo, garantisce un forte privilegio al candidato appartenente all’università che bandisce il concorso, alla quale compete la nomina di uno dei membri della commissione; è rarissimo, infatti, che il “candidato interno” risulti perdente; l’unico dato incerto, quando è incerto, è il nome del secondo vincitore, destinato a essere chiamato altrove. Inoltre, il nuovo sistema prevede l’elezione di tante commissioni quanti sono i concorsi banditi dagli atenei: ciò che comporta un gran numero di voti e di candidature, con corrispondente enorme lavorio elettorale (praticamente ininterrotto: le “tornate” elettorali sono due, tre, persino quattro all’anno), seguito da giochi estremamente complessi tra le commissioni di concorsi diversi cui partecipano contemporaneamente gli stessi candidati. E poiché per questo lavorio elettorale e post-elettorale sono normalmente più disponibili i professori che si dedicano meno intensamente alla ricerca e all’insegnamento, il sistema presenta un alto rischio di favorire nettamente gli interessi di questi ultimi rispetto a quelli dei professori migliori.
Questo spiega e in qualche misura giustifica la prassi, invalsa in numerosi comparti accademici, di affidare a uno o più professori anziani il compito di “dirigere il traffico” concorsuale, raccogliendo le candidature, valutandone il merito, stabilendo una sorta di graduatoria di precedenza ragionata e proponendo alla comunità accademica le corrispondenti indicazioni elettorali per la costituzione delle commissioni. Anche se comprensibile – e, dove funziona in modo pulito, giustificabile come male minore – questa prassi significa che, in realtà, i concorsi tendono a ridursi a una formalità vuota: la vera sede in cui si decidono i vincitori è l’organo informale di “coordinamento”. Quando poi il coordinatore – rafforzato dagli alti costi di transazione che si impongono a chi tenti di scalzarlo dalla sua posizione – si trasforma in dittatore, minacciando e applicando sanzioni contro chi disattende le sue indicazioni, si verifica la grave degenerazione del sistema denunciata da Gino Giugni due settimane or sono. L’ordinamento statale, come ci ha insegnato Ronald Coase, serve essenzialmente per ridurre i costi di transazione. Quando esso, invece di ridurli, li moltiplica, tende a nascere spontaneamente qualche altro ordinamento finalizzato a ridurre quei costi, che si sovrappone all’ordinamento statale. Con risultati sovente pessimi: la spontaneità del fenomeno non costituisce affatto una garanzia di bontà del rimedio.

Una possibile soluzione

Alla radice di questi mali del nostro sistema universitario sta, certo, il “valore legale” della laurea che toglie gran parte del significato alla concorrenza tra gli atenei; e a questo si accompagnano altri difetti strutturali che non si eliminano con la sola riforma – per quanto ben congegnata – del reclutamento dei docenti (per un disegno di riforma organica vedi qui sotto l’articolo di Gagliarducci, Ichino, Peri, Perotti). Ma il sistema di reclutamento oggi in vigore fa troppi danni per essere lasciato sopravvivere anche solo per poco. Nel contesto attuale, forse la scelta migliore è quella di un ritorno al sistema precedente al 1998 per i professori di prima fascia, con il correttivo di cui si è detto sopra: i professori di ciascuna materia votano una volta all’anno e una sola, per una commissione composta da membri non rieleggibili nella tornata successiva; la commissione designa ogni anno un piccolo numero di idonei alla cattedra; e se non lo fa entro tre mesi decade automaticamente. Libero poi ciascun ateneo di chiamare uno degli idonei, se concorda con la commissione nel ritenerlo tale, anche rispetto ai propri standard, alle proprie esigenze didattiche e ai propri programmi di ricerca.

Come reclutare i migliori, di Pietro Reichlin e Filippo Taddei

Questo scritto propone un sistema per il reclutamento dei docenti universitari che possa facilitare l’accesso alla carriera accademica a chi è giovane e si dedica principalmente alla ricerca. Il nostro schema adotta la produzione scientifica come criterio fondamentale per l’assunzione e l’entrata in ruolo dei giovani ricercatori il cui lavoro verrebbe valutato dai dipartimenti di riferimento e da commissioni composte da ricercatori di “chiara fama” (come nel Comitato di indirizzo per la valutazione della ricerca). Tuttavia, il nostro schema ha il pregio di non proporre un meccanismo esclusivo rispetto ad altri sistemi di reclutamento. In particolare, riteniamo che debba affiancare un sistema concorsuale completamente decentrato regolato da incentivi e disincentivi pecuniari per il miglioramento della qualità (scientifica e didattica) degli atenei.

Perché intervenire

Nella seduta del 13 e 14 aprile del 2005, il Consiglio universitario nazionale ha approvato un parere sul riordino dello stato giuridico e del reclutamento dei professori universitari che, esprimendo contrarietà alla messa in esaurimento del ruolo dei “ricercatori”, propone l’articolazione “della docenza universitaria in tre livelli, con precisa definizione delle funzioni specifiche di ognuno di essi”. (1)
Chi ritiene che la qualità della ricerca e l’inserimento dei giovani nell’università italiana siano obiettivi fondamentali, non può che essere deluso dal documento del Cun. Non si capisce a cosa serva un terzo livello di docenza. Non si avverte l’allarme per l’automatismo che caratterizza la progressione di carriera dei professori. Del resto, nemmeno il ministro Moratti offre proposte soddisfacenti. Il prospettato ritorno al “concorso nazionale” non risolve nessuno dei problemi principali. Alcuni sostengono giustamente l’esigenza di “liberalizzare” il reclutamento per concentrarsi sui meccanismi di finanziamento degli atenei, incentivando così comportamenti virtuosi. Gli atenei che assumono ricercatori bravi dovrebbero avere più soldi, quelli che assumono parenti e amici dovrebbero essere penalizzati. Il criterio di ripartizione dei fondi dovrebbe essere affidato a una commissione composta da accademici di fama italiani e stranieri. Questa proposta, che chiameremo “liberista”, semplifica enormemente le procedure, cerca di premiare il merito scientifico, ma, secondo noi, soffre di alcuni difetti che la nostra prospettiva cerca di risolvere.
In base al sistema liberista, i dipartimenti hanno incentivi deboli: possono aspettarsi di conseguire solo vantaggi marginali da un comportamento virtuoso perché l’assegnazione dei fondi avverrebbe sulla base degli atenei, non dei dipartimenti. Inoltre, la penalizzazione pecuniaria ex post ha due problemi. In primo luogo, non è facilmente praticabile perché sanziona, negando i finanziamenti, sulla base di criteri stabiliti posteriormente alle condotte.
In secondo luogo, ha il difetto di colpire tutti i dipartimenti e le facoltà compresi nell’ateneo, indipendentemente dal loro comportamento individuale. Infine, la proposta liberista sembra penalizzare gli atenei periferici e di recente formazione, generalmente caratterizzati da una breve serie di risultati scientifici e una scarsa capacità di attrazione.

La nostra proposta

Questi difetti non rendono inopportuno il principio meritocratico alla base del sistema liberista, ma richiedono l’introduzione di un meccanismo parallelo per il reclutamento dei docenti rivolti alla ricerca. Già oggi le unità di ricerca che si formano nei dipartimenti possono ottenere dal ministero il finanziamento di posizioni a contratto nell’ambito dei progetti di ricerca. Si tratta, in generale, di contributi inadeguati e limitati a un massimo di tre anni.
Questo sistema dovrebbe essere potenziato e adeguato. Vogliamo fare in modo che i contratti di lavoro per i ricercatori così finanziati (1) siano retribuiti in modo adeguato, (2) abbiano maggiore durata riducendo l’incertezza dei giovani ricercatori e, soprattutto, (3) permettano l’immissione nell’organico di ruolo dell’università, previo parere favorevole di una commissione ministeriale e degli organi accademici di riferimento. Il sistema che abbiamo in mente potrebbe essere facilmente organizzato. Ogni anno ciascun dipartimento può sottoporre al ministero alcuni progetti di ricerca di durata compresa tra tre e sei anni. La flessibilità è completa: ciascun progetto risponde a esigenze e caratteristiche della disciplina di riferimento, ma include sempre la richiesta dei fondi necessari al suo completamento e, in particolare, del finanziamento del numero di ricercatori desiderati. I rapporti di lavoro prodotti sono quindi motivati dal progetto di ricerca, e perciò di eguale durata. Le retribuzioni di ciascun ricercatore sono flessibili e decise in autonomia da ciascun dipartimento: soggette a un limite minimo, non ne hanno uno massimo. I dipartimenti possono essere incoraggiati, da incentivi fiscali ai donatori e premi ministeriali, a “cofinanziare” il progetto procurandosi finanziamenti aggiuntivi (privati, ateneo, eccetera). Il ministero costituisce un fondo per ciascuna disciplina e i dipartimenti che vi appartengono competono per l’attribuzione delle risorse ministeriali. Naturalmente, questi fondi devono essere ben più consistenti di quelli oggi stanziati. Potrebbero essere aumentati anche prelevando denaro dal fondo per la gestione ordinaria degli atenei.
approvazione dei progetti e la conseguente assegnazione dei fondi viene quindi decisa sulla base del giudizio di una commissione nazionale composta da studiosi di chiara fama impegnati in Italia e all’estero, per ciascuna disciplina di riferimento. Non tutti i progetti presentati devono necessariamente essere finanziati: una preselezione esclude quelli non meritevoli. Come si vede, la caratteristica fondamentale del sistema fin qui proposto è quella di garantire un punto di partenza paritetico a ciascun dipartimento, tenendo fermo l’obiettivo di incentivare comportamenti virtuosi, come nel sistema liberista, e fornendo un canale aggiuntivo per l’assunzione dei giovani ricercatori.
Una volta attribuiti i fondi, i dipartimenti bandiscono con procedura pubblica e trasparente le posizioni a contratto coerenti col progetto approvato. Non hanno però alcun vincolo riguardo alle procedure di selezione, ai possibili vincitori e alle remunerazioni, eccetto l’incompatibilità con altri incarichi di docenza a tempo pieno.
Infine, alla scadenza dei termini del progetto di ricerca, le commissioni nazionali valutano la coerenza tra obiettivi e risultati dei progetti finanziati (numero e qualità delle pubblicazioni scientifiche, risultati di esperimenti, brevetti, eccetera). Il risultato di queste valutazioni porta all’assegnazione del finanziamento necessario a trasformare, presso il dipartimento ove si è svolta la ricerca, una o più posizioni a tempo determinato in posti di ruolo per professori di prima o seconda fascia (ad arbitrio della commissione). Oppure, alternativamente, alla negazione di tale finanziamento e alla conclusione del rapporto di lavoro degli assunti. Il numero delle posizioni di ruolo finanziate mediante questa procedura dipende dall’ammontare dei fondi ministeriali stanziati. Il sistema non subisce la pressione corporativa: da una parte la limitatezza dei fondi e dall’altra il doppio livello di controllo (commissione ministeriale e dipartimento afferente) garantiscono la selettività delle “conferme in ruolo”.

I vantaggi

Riassumiamo i principali vantaggi di questo sistema. Innanzitutto, è basato sul merito scientifico perché “incentiva” comportamenti virtuosi nella selezione dei ricercatori, condizionando la concessione dei fondi ai risultati della ricerca. È un obiettivo condiviso dal sistema “liberista”, che pensiamo debba essere introdotto come sistema principale per l’assunzione e la promozione dei docenti universitari. Tuttavia, crediamo che il nostro meccanismo possa funzionare come “complemento” sia dell’attuale ordinamento che di quello “liberista”. Il sistema da noi proposto interviene ex-ante, cioè all’inizio del progetto quando i ricercatori vengono selezionati, garantendo un punto di partenza paritetico a tutti i dipartimenti in competizione. Inoltre, è maggiormente selettivo: concede premi o penalità ai singoli dipartimenti, evitando che “le politiche di ateneo” possano contrastare l’efficacia degli incentivi ministeriali, mentre consente ai docenti più impegnati nella ricerca di acquisire un maggiore potere accademico.

(1) Sessione 174, 13 e 14/4/2005

Rilevazioni senza qualità, di Solomon Gursky

Quest’anno per la prima volta si è registrata nelle scuole una notevole opposizione alle rilevazioni del Servizio nazionale di valutazione degli apprendimenti, a diversi livelli e con diverse motivazioni. Alcune critiche sembrano francamente poco condivisibili, altre sono decisamente più fondate. Come l’obbligatorietà, l’oggetto e il campo delle rilevazioni e il periodo in cui vengono effettuate. Ma soprattutto la scarsa qualità delle prove. Si rischia così di bloccare la diffusione della cultura della valutazione nella scuola.

In aprile si sono svolte le rilevazioni del “Servizio nazionale di valutazione degli apprendimenti”, organizzate e gestite dall’Invalsi.
Per la prima volta da quando sono stati organizzati i cosiddetti “Progetti pilota”, nel 2001-2002, si è registrata nelle scuole una notevole opposizione alle rilevazioni, a diversi livelli e con diverse motivazioni. Allo stesso tempo, prese di posizione critiche sono state assunte da parte di organizzazioni sindacali, di associazioni professionali e di genitori, di comitati spontanei che si sono formati in questi ultimi due anni in opposizione alla legge di riforma della scuola promossa dal ministro Moratti.

I motivi delle resistenze

Basta navigare un po’ in Internet per raccogliere un campionario dei motivi all’origine delle proteste che si sono manifestate nelle scuole. Alcuni di questi motivi sembrano francamente poco condivisibili, altri hanno ben diversa e più fondata motivazione. Tra i primi rientrano quelli che denunciano ipotetiche situazioni di stress a cui verrebbero sottoposti i “bambini” della scuola elementare; oppure quelli che sottolineano l’impossibilità e l’illegittimità di qualsiasi forma di rilevazione esterna, che non sia preventivamente negoziata e concordata con insegnanti e genitori. Altri motivi appaiono invece più fondati e più mirati.
Obbligatorietà delle prove Da quest’anno la partecipazione alle rilevazioni è obbligatoria per il primo ciclo dell’istruzione (scuole elementari e medie). In realtà, non c’è alcuna circolare ministeriale che sancisca questa obbligatorietà. La comunicazione alle scuole è arrivata dall’Invalsi e sulla base della approvazione di alcuni provvedimenti normativi: la legge di riforma della scuola che prevede l’istituzione del Servizio nazionale di valutazione; il decreto legislativo con il quale è stato riordinato l’Invalsi, trasformandolo definitivamente (per ora) in Istituto nazionale per la valutazione del sistema dell’istruzione e della formazione; la pubblicazione delle Indicazioni nazionali, allegate al decreto legge 59/2004. Ma in nessuno di questi documenti è sancita esplicitamente la obbligatorietà della partecipazione alle rilevazioni. Il Miur ha interpretato in termini di obbligatorietà quanto nel decreto istitutivo del Servizio nazionale di valutazione viene presentato in termini di “concorrenza“: “(…) al conseguimento degli obiettivi di cui al comma 1 concorrono l’Istituto nazionale di valutazione di cui all’articolo 2 e le istituzioni scolastiche e formative“.
L’oggetto della rilevazione. Per la costruzione delle prove si è fatto riferimento agli Osa (Obiettivi specifici di apprendimento) contenuti nelle Indicazioni nazionali. Le Indicazioni sono allegate al decreto 59/04 e di fatto non si possono ancora considerare obbligatorie (anche in riferimento alla normativa vigente sull’autonomia delle istituzioni scolastiche).
Il campo della rilevazione. La rilevazione è limitata agli apprendimenti. Non viene utilizzato alcun questionario che consenta di interpretare i risultati conseguiti con le variabili socio-culturali di provenienza degli studenti. Il cosiddetto “questionario di sistema” a tutto aprile non era stato ancora inviato alle scuole e, comunque, non è prevista una sua utilizzazione per analizzare le variabili di contesto (scolastico) in rapporto ai risultati conseguiti dagli studenti nelle prove. Ulteriori critiche vengono rivolte all’attendibilità e alla trasparenza delle procedure di rilevazione, alla valenza culturale delle prove, all’uso dei risultati della rilevazione.

Le ambiguità e le contraddizioni

Queste critiche sarebbero già di per sé abbastanza rilevanti. In realtà la situazione è ancora peggiore, gli elementi di ambiguità e di contraddizione sono più numerosi.
Innanzitutto, permane l’ambiguità sull’oggetto delle rilevazioni. Leggendo i vari documenti normativi e i materiali pubblicati sul sito dell’Invalsi, di volta in volta si parla di Osa, di conoscenze e abilità, di competenze. Su questo punto specifico va ricordato che la legge di riforma riserva esplicitamente alle rilevazioni nazionali il compito di individuare soltanto le conoscenze e le abilità, ma non le competenze, la cui valutazione è spetta in modo esclusivo degli insegnanti.
In secondo luogo, anche se l’obiettivo dichiarato sembra essere quello di contribuire alla valutazione del sistema scolastico, la decisione di condurre una rilevazione non campionaria, ma censimentaria farebbe pensare alla volontà di utilizzare i risultati delle rilevazioni per valutare le singole scuole. Del resto, il ministro Moratti ha più volte affermato che, grazie al Servizio nazionale di valutazione, i genitori avranno utili elementi di giudizio per decidere a quale scuola iscrivere i propri figli.
In terzo luogo, il periodo dell’anno scolastico in cui vengono effettuate le rilevazioni è quanto meno singolare. Non siamo ancora alla fine dell’anno scolastico e quindi le rilevazioni non possono riferirsi a quanto gli studenti hanno acquisito nelle classi che stanno frequentando. D’altro canto, sono passati ormai troppi mesi perché le rilevazioni possano essere destinate a misurare i risultati conseguiti nel precedente anno scolastico.  È chiaro quindi che, da questo punto di vista, la rilevazione non è né carne, né pesce. Ma dopo tre progetti pilota non è più accettabile che ancora si parli di una prova volta a “testare la macchina organizzativa”. La riforma prevede che queste rilevazioni debbano in futuro essere effettuate all’inizio dell’anno scolastico per poter essere utilizzate in funzione diagnostica da parte degli insegnanti e delle scuole. Chi abbia un minimo di consuetudine con i problemi connessi alla realizzazione di rilevazioni su scala così larga e con i problemi legati alla elaborazione e alla analisi dei dati, sa bene che tutto ciò richiede alcuni mesi di lavoro e che quindi tale obiettivo è chiaramente non perseguibile.
Un quarto motivo di ambiguità, anzi di forte critica, è relativo alla qualità delle prove utilizzate e delle modalità con cui sono state elaborate. Fino ad ora non un solo dato è stato reso pubblico sulle caratteristiche metriche delle prove.
Preoccupa anche il fatto che tali prove non sono accompagnate – come è prassi normale in tutte le indagini – da questionari volti ad acquisire informazioni sulle variabili di contesto. In che modo interpretare, quindi, i dati raccolti? L’assenza di informazioni su tali variabili sarebbe giustificabile solo se la rilevazione avesse per obiettivo la certificazione di livelli di prestazione predefiniti. Ma questo non accade nelle “valutazioni di sistema” e, comunque, presuppone la definizione di standard di prestazione, articolati per ciascun anno scolastico, che nessuno ha provveduto a predisporre.

I rischi e i danni in prospettiva futura

Purtroppo, le reazioni negative determinate dal modo in cui le rilevazioni vengono impostate e realizzate stanno trasformandosi in un rifiuto generalizzato nei confronti della valutazione tout court. Il rischio è che sarà sempre più difficile distinguere tra posizioni di conservazione, contrarie a qualsiasi introduzione di momenti seri di valutazione nel nostro sistema scolastico, e posizioni che giustamente individuano le ambiguità e le caratteristiche negative delle rilevazioni in atto. Per anni, si è parlato della necessità di lavorare per la diffusione di una cultura della valutazione nella scuola, tra gli insegnanti e anche tra studenti e genitori.
L’impressione è che la (scarsissima) qualità delle rilevazioni proposte dall’Invalsi nell’ambito del nuovo sistema di valutazione vadano in direzione opposta, con il rischio di buttare il “bambino” della valutazione insieme all’acqua sporca delle rilevazioni di quest’anno.

Quanto conta il bravo maestro, di Salvatore Modica

È da poco apparsa su Econometrica una importante ricerca sulla qualità della scuola, alla quale hanno lavorato studiosi che si occupano di scuola da trent’anni. Le due questioni che l’articolo affronta sono queste: quanto contano gli insegnanti nel determinare la qualità dell’apprendimento? E cosa determina la qualità degli insegnanti?

Un insegnante vale l’altro?

A giudicare dall’alacrità con cui i genitori si informano sui possibili insegnanti dei figli, e da tutto quello che sono disposti a fare per ottenere che i figli entrino nelle classi degli insegnanti che vengono giudicati bravi, sembrerebbe del tutto evidente che la risposta alla prima domanda non possa che essere: “gli insegnanti contano quasi più di tutto il resto”.
Il problema è che quando per la prima volta, negli Stati Uniti con il Coleman Report del 1966 si cominciarono a misurare gli effetti delle caratteristiche principali degli insegnanti, quali per esempio la loro esperienza di insegnamento e il loro livello di istruzione, sui risultati degli alunni, si trovò che risultavano sorprendentemente deboli. Da allora, le ricerche si sono ovviamente moltiplicate, gli strumenti di misurazione raffinati, sono poi cominciati ad arrivare risultati dei test sulla qualità dell’apprendimento, si sono evolute le tecniche econometriche di analisi dei dati, e così via. Tutte queste ricerche non hanno fatto altro che riconfermare quelle strane conclusioni del Coleman Report: le caratteristiche che comunemente si pensa stiano alla base della qualità degli insegnanti non influenzano più di tanto la qualità dell’apprendimento. Pochi credo abbiano pensato di potersi basare su questa pur schiacciante evidenza per dire convinti a un genitore “Rilassati, in fin dei conti un insegnante vale l’altro”. Ma come dimostrare il contrario?
La svolta è arrivata con l’idea di un gruppo di ricerca della University of Texas, guidato da
Eric Hanushek. I ricercatori disponevano di campioni longitudinali adiacenti (sequenze di due coorti di studenti elementari e medi), e hanno potuto misurare la correlazione fra i loro rendimenti prima nello stesso anno (quando le coorti avevano insegnanti diversi), e dopo in anni adiacenti (quando le coorti passavano dallo stesso anno di corso e dallo stesso insegnante). (1)

Il principale risultato osservato è che la correlazione era alta fra i rendimenti scolastici di due coorti esposte allo stesso insegnante (entrambe buone o entrambe scarse), mentre nello stesso anno solare la correlazione era praticamente zero (il risultato di una coorte non diceva nulla su quello dell’altra). (2)

Questa era finalmente un’evidenza forte, anche se indiretta: i dati erano perfettamente compatibili con una realtà sottostante in cui l’elemento che fa la differenza è l’insegnante. Tuttavia, fino a questo punto, avrebbe potuto trattarsi di correlazione spuria, ovvero di un legame solo apparente tra fenomeni, in realtà spiegabili da eventi esterni non osservabili.
Le tecniche econometriche correntemente utilizzate permettono però l’identificazione diretta dell’effetto dell’insegnante sull’apprendimento, grazie all’utilizzo di modelli a effetti fissi, che tengano conto delle regolarità ricorrenti associate ai fattori familiari, a quelli della scuola e per l’appunto quelli relativi all’insegnante. In un modello di questo tipo, in pratica, si riesce a misurare quanto sistematicamente migliora l’apprendimento di uno studente esposto all’attività didattica di un insegnante, al netto delle caratteristiche ricorrenti sia nella famiglia dello studente che nelle caratteristiche della scuola frequentata. Solo così ci si pone al riparo della classica obiezione che dice “non si può confrontare il contributo all’apprendimento dovuto a diversi insegnanti, perché gli insegnanti operano in contesti socio-culturali molto diversificati”. È evidente che uno studente del liceo in media possiede più competenze di uno studente della scuola professionale, ma è meno evidente che le sue competenze crescano relativamente di più quando viene esposto a un buon insegnante, di quanto non possa per esempio accadere allo studente delle scuole professionali.
Con questa metodologia i risultati attesi sono emersi: l’insegnante risulta influenzare il rendimento dello studente in misura apprezzabile. È difficile ottenere misure precise, ma il paragone con la numerosità delle classi rende l’idea: un incremento del dieci per cento nella qualità dell’insegnante equivarrebbe all’effetto quasi di un dimezzamento del numero di alunni per classe.
Risultato addizionale, anche quello non inatteso, e che l’effetto insegnante va scemando con l’età dello studente.

La qualità della classe docente

Allora tutto a posto? Purtroppo niente affatto. Perché siamo rimasti che la qualità dell’insegnante è certamente importante, ma non dipende dalle variabili che si possono influenzare più facilmente, tipo il suo livello di istruzione. L’insegnante brava è brava perché è brava, punto e basta; ognuno può dire la sua (la mia è che è brava quando ci mette il cuore), ma niente che sia facile da tradurre in misure concrete di intervento pubblico.
Cosa suggerisce il gruppo di Hanushek? Testualmente, loro osservano che “the substantial differences in quality among those with similar observable backgrounds highlight the importance of effective hiring, firing, mentoring and promotion practices”. Elegantemente, “segnalano l’importanza di” una politica del personale di tipo privatistico. I termini usati sono molto americani, ma in sostanza vogliono solo suggerire che “un più stretto legame fra rendimenti e premi alzerebbe alla lunga il livello della classe insegnante”. Questo piaccia o no è difficile da contestare, sicché sembrerebbe più utile cominciare subito a pensare come farlo meglio, piuttosto che discutere se sia giusto farlo o meno. Il che non è una faccenda da poco, perché la “azienda scuola” ha centinaia di migliaia di dipendenti, non una dozzina.
Resta la legittima aspirazione dell’insegnante a far bene, che è fra l’altro completamente in linea con gli interessi dei beneficiari del servizio da loro fornito. E a questa non si può semplicemente rispondere “Se ce la fai bene, altrimenti a casa”.
Come migliorare la qualità dell’insegnante è l’altro tema su cui potrebbe essere utile (ri)focalizzare la discussione alla luce della nuova evidenza empirica. Anche qui la strada è lunga e sarà inevitabile procedere in modo sperimentale. Giusto per dirne una, se qualcosa di impalpabile sta sotto la capacità di insegnare, cioè di trasmettere, comunicare nuova conoscenza, allora potrebbe essere utile mandare i giovani insegnanti a vedere da vicino, cioè da dentro la classe, cosa/come fanno i docenti più bravi, non per dieci ore, ma per mille (due al giorno per due anni).

(1) In pratica, negli esperimenti cui i dati si riferiscono c’è un insegnante per anno (per eliminare l’effetto scuola i dati utilizzati riguardano solo scuole nelle quali esistono osservazioni per entrambi gli anni), e si procede così: si registrano i risultati di N classi “prime” ed N “seconde”, in N scuole, per esempio nell’anno 2000, siano essi P(1),…P(N) ed S(1),…S(N). Poi nel 2001 si registrano i risultati delle ex-prime diventate seconde, diciamo SS(1),…SS(N). Si noti che essendoci un insegnante per anno in ogni scuola, P ed S non hanno lo stesso insegnante, mentre S ed SS sì. Le correlazioni misurate sono fra P ed S e fra S ed SS.

(2) In termini delle variabili sopra definite, la correlazione fra S ed SS è alta (cioè in genere S(n) e SS(n) sono entrambe alte — possibilmente l’insegnante della scuola è bravo — o entrambe basse — possibilmente l’insegnante è scarso; mentre la correlazione è bassa fra P e S (la relazione fra P(n) e S(n) non è regolare – possibilmente perché in alcune scuole è più bravo l’insegnante di P, in altre quello di S).

Miti e realtà della scuola italiana, di Andrea Prat

In molti paesi sviluppati, dagli Stati Uniti alla Germania, è in corso un dibattito profondo sul futuro della scuola. In Italia, invece, si parla molto di alcune vicende specifiche, come i buoni per la scuola privata decisi da alcune Regioni, ma manca un dibattito a tutto campo su come vogliamo che l’istruzione evolva nei prossimi decenni. Anche lavoce.info ne ha parlato poco, ad eccezione di alcuni interventi molto interessanti di Solomon Gursky e Daniele Checchi.

I miti da sfatare

In questo intervento vorrei fare un confronto, molto rozzo, tra la scuola italiana e quella di altri paesi sviluppati e non. Cominciamo sfatando alcuni miti:
Tutto sommato, la scuola italiana non è male. Un confronto internazionale tra sistemi scolastici è svolto dal Programme for International Student Assessment dell’Ocse. Invito i lettori de lavoce.info a consultare i rapporti del 2000 e del 2003, disponibili sul sito Pisa. Tali rapporti, basati su test svolti da 4.500/10mila quindicenni per paese, indicano senza ombra di dubbio che gli italiani hanno risultati peggiori dei loro coetanei degli altri paesi dell’Europa occidentale (con la possibile eccezione, ma solo in alcuni casi, della Grecia e del Portogallo). Questo vale per tutte e tre le aree considerate: scienze, lettura e matematica. I nostri risultati sono peggiori anche di quelli di paesi con un Pil pro capite più basso del nostro, come Spagna, Corea del Sud e molti paesi dell’Europa dell’Est. (1)
Il problema è che mancano le risorse. Al contrario, l’Italia è uno dei paesi al mondo con la spesa per studente più alta (vedi Tabella 1). Solo l’Austria, la Svizzera e gli Stati Uniti spendono di più. Spendiamo il 50 per cento in più della Germania, che ci batte sistematicamente in tutte le materie. (2)

Tabella 1

Spesa cumulativa per studente (dai 6 ai 15 anni)

in dollari PPP adjusted

Australia

58 480

Austria

77 255

Belgio

63 571

Canada

59 810

R. Ceca

26 000

Danimarca

72 934

Finlandia

54 373

Francia

62 731

Germania

49 145

Grecia

32 990

Ungheria

25 631

Islanda

65 977

Irlanda

41 845

Italia

75 693

Giappone

60 004

Corea

41 802

Messico

15 312

Olanda

55 416

Norvegia

74 040

Polonia

23 387

Portogallo

48 811

Slovacchia

14 874

Spagna

46 774

Svezia

60 130

Svizzera

79 691

Stati Uniti

79 716

Il problema è la Moratti. Al di là dell’opinione che si può avere sull’operato di Letizia Moratti (la mia è molto negativa), la situazione era più o meno la stessa nel rapporto Pisa 2000.

I fatti

E adesso passiamo ai tre fatti.
In Italia ci sono tanti insegnanti. Secondo dati Ocse 2002, il numero di studenti per insegnante in Italia è ai minimi mondiali. La Tabella 2 riporta i dati per le quattro maggiori nazioni europee. Questo spiega perché in Italia la spesa per studente è così alta.

Tabella 2

Germania

Francia

GB

Italia

Primaria

18,9

19,4

19,9

10,6

Secondaria inferiore

15,7

13,7

17,6

9,9

Secondaria superiore

13,7

10,6

12,5

10,3

Manca un meccanismo di valutazione esterna degli studenti. Le commissioni esaminatrici ai vari livelli sono composte unicamente o in maggioranza da membri interni. Questa situazione è stata peggiorata dal ministro attuale, ma esisteva già prima. Nella maggior parte degli altri paesi europei esistono meccanismi di valutazione esterni, che cercano di offrire un giudizio imparziale e standardizzato. (3)
Manca un meccanismo di valutazione esterna degli insegnanti e delle scuole. La valutazione esterna degli studenti non serve solo per valutare gli studenti, ma permette anche di formare un’opinione, seppure imperfetta, sulla qualità dei singoli insegnanti e delle singole scuole. In Italia, ciò è impossibile. L’esperienza di altri paesi – soprattutto della Gran Bretagna e degli Stati Uniti – dimostra che quando ci si rende conto che un sistema scolastico non funziona non esistono soluzioni facili, e soprattutto non esistono soluzioni rapide. I sistemi di valutazione presentano problemi enormi e in alcuni casi possono essere controproducenti. (4)
Altre opzioni, come l’autonomia scolastica, gli incentivi per gli insegnanti o la libertà di scelta della scuola da parte dei genitori, sono controverse. Non esiste consenso su quale sia il sistema ideale. Però non possiamo continuare a nascondere la testa sotto la sabbia. La scuola italiana è in crisi. E non possiamo dire che non ci sono i soldi o che è tutta colpa di questo Governo. I mali della nostra scuola hanno radici profonde. È ora di aprire un dibattito a tutto campo, senza escludere a priori alcuna alternativa.

(1) Il rapporto Pisa mostra come, a parità di scuola, i risultati del singolo studente dipendano dalla situazione socio-economica della sua famiglia. Quindi gli studenti italiani potrebbero andare peggio di quelli tedeschi perché in media le famiglie italiane sono meno ricche ed istruite di quelle tedesche. Però, questo ragionamento non spiega perché gli studenti italiani vadano peggio di tutta una serie di paesi con condizioni socio-economiche meno avanzate. Su lavoce.info Salvatore Modica nell’articolo “L’educazione di Zu’ Vice’” ha messo in evidenza un’importante differenza tra i risultati dei ragazzi del Nord e di quelli del Sud. Sarebbe interessante capire quanta parte di questo divario è dovuta all’eterogeneità delle condizioni socio-economiche piuttosto che a differenze nel sistema scolastico.

(2) Non è neanche vero che gli insegnanti italiani siano necessariamente sottopagati. È vero che alcuni paesi, come la Germania e la Svizzera offrono stipendi nettamente più alti. Però i dati Ocse (2002) mostrano che un insegnante di secondaria superiore italiano di prima nomina guadagna come il suo collega francese o inglese (circa 25mila dollari all’anno).

(3) Anche negli Stati Uniti manca, per tradizione, un sistema nazionale di valutazione. Per un’analisi del costo di introdurre tale sistema si veda Caroline Hoxby, The cost of accountability.

(4) Si veda ad esempio il lavoro di Jacob e Levitt, Catching Cheating Teachers: The Results of an Unusual Experiment in Implementing Theory.

Le Retribuzioni Perverse dell’Universita’ Italiana, di Stefano Gagliarducci, Andrea Ichino, Giovanni Peri e Roberto Perotti

La “fuga dei cervelli” dall’Italia ha recentemente trovato spazio nelle prime pagine dei quotidiani ed è stata ampiamente confermata da numerose analisi statistiche. Tuttavia, ciò che forse dovrebbe fare riflettere maggiormente è che quasi nessun ricercatore straniero è attratto dal nostro paese. Nei corsi di Dottorato Italiani soltanto il 2% degli studenti proviene dall’estero e, in tutto, meno di 3,500 persone provenienti da altri paesi dell’Unione Europea lavorano nel settore scientifico-tecnologico in Italia. Nel Regno Unito (e risultati simili valgono per altri paesi europei) il 35% degli studenti nei corsi di Ph.D. sono stranieri e piu’ di 42,000 cittadini della U.E. (non Britannici) lavorano come ricercatori in quel paese.
Il nostro obiettivo in questo contributo (che si basa su Gagliarducci, Ichino, Peri e Perotti, 2005) e’ di illustrare tre punti fondamentali. Primo, mostrare che – contrariamente ad una interpretazione diffusa – un’ analisi corretta dei dati bibliometrici rivela che la qualita’ della produzione scientifica Italiana e’ modesta. Secondo, discutere come l’attuale sistema di remunerazioni e carriere induca incentivi sbagliati e allontani i “talenti”. Terzo, formulare una proposta di riforma a costo zero che modifichi profondamente il sistema di incentivi attuali.

Produttivita’ Scientifica dei Ricercatori Italiani

La prima e la seconda colonna della Tavola 1 mostrano il numero medio di pubblicazioni e di citazioni per ricercatore (nei settori di Scienza e Ingegneria) durante il periodo 1997-2001 (i dati sul numero dei ricercatori si riferiscono al 1999). L’Italia risulterebbe avere un rapporto “pubblicazioni / ricercatore” e “citazioni / ricercatore” tra i piu’ alti in assoluto (si vedano le colonne 1 e 2 della Tavola 1). Questi risultati, apparentemente incoraggianti, sono stati ampiamente citati nella stampa italiana, in particolare nella risposta del ministro Moratti ad un articolo di Francesco Giavazzi sul Corriere della Sera del 22 Novembre 2004. C’è tuttavia qualcosa di strano in questi dati: gli Stati Uniti appaiono agli ultimi posti di questa classifica – un risultato assai implausibile. Il mistero è facilmente svelato: la definizione di ricercatore include una varietà di figure professionali, ma le pubblicazioni scientifiche provengono per la maggior parte da una sola di queste figure: i ricercatori accademici. Essi sono una maggioranza nei paesi sud europei inclusa l’ Italia, ma sono una minoranza (e molto piccola negli Stati Uniti) in quasi tutti gli altri paesi. Quando al denominatore usiamo i ricercatori accademici l’Italia ha rapporti “pubblicazioni / ricercatore” (colonna 4) e “citazione / ricercatore” (colonna 5) ben inferiori agli USA, ma anche a Regno Unito, Olanda e Danimarca.
Una misura della qualità, anziché della quantità, di pubblicazioni è data dal loro fattore di impatto, cioè dal numero di citazioni che essa riceve. La colonna 6 della Tabella 1 mostra il numero medio di citazioni per lavoro pubblicato nel periodo 1997-2001. L’Italia ha un valore simile alla Francia, e superiore solo a Spagna e Portogallo.

Retribuzioni

Il sistema retributivo italiano ha tre caratteristiche. Primo, la progressione retributiva dipende quasi esclusivamente dall’ anzianità di servizio: all’interno di ciascuna categoria di docenza (Ricercatore, Associato, Ordinario), la produttività è completamente irrilevante per la determinazione del salario. Le analisi di Daniele Checchi (1999) di Roberto Perotti (2002) mostrano chiaramente che il numero di pubblicazioni ha un’influenza marginale nelle decisioni di promozione di categoria. Secondo, il profilo temporale della progressione salariale è molto “ripido”: si guadagna poco a inizio carriera, ma l’ anzianità viene remunerata molto bene. Consideriamo un giovane che diventi ricercatore a 25 anni, associato a 35 anni e ordinario a 45 anni: tra inizio e fine carriera il suo salario aumenta di un fattore pari a 5, sostanzialmente per effetto della sola anzianita’ (vedi Tabella 2).
Terzo, per effetto di questa progressione, e contrariamente ad una credenza assai diffusa, un ordinario italiano con 35 annni di anzianità è ben pagato anche rispetto ai suoi colleghi statunitensi. Come si vede confrontando la Tabella 2 con la Tabella 3, egli riceve un salario superiore a quello dell’ 80 percento dei professori ordinari nelle migliori università statunitensi (quelle con un programma di PhD), e superiore a quello del 95 percento degli ordinari nelle università con al più un corso di master (la stragrande maggiornaza delle università americane).
Il sistema retributivo dei docenti universitari negli Stati Uniti segue regole assai diverse. Il salario è negoziato individualmente, ed è quindi funzione delle opportunità di lavoro alternative, cioè, essenzialmente, dalla produttività di un professore. In conseguenza, a qualsiasi livello di anzianità la dispersione salariale è molto elevata (mentre in Italia è nulla). Ad esempio il rapporto tra i salario massimo (113,636 euro nelle piu’ prestigiose università con corsi di Ph.D.) e minimo (27,273 euro in un community college) di un assistant professor (ricercatore) è pari a circa 4.2. E un assistant professor di 25 anni molto produttivo e promettente può benissimo guadagnare ben più di un ordinario a fine carriera ma poco produttivo. D’altro canto, la progressione salariale in carriera è sempre ancorata alla produttività scientifica e non così accentuata come in Italia: a fine carriera un ottimo professore guadagna tra 1.5 e 2 volte il suo salario iniziale.
Questa è esattamente la struttura salariale che ci si apetterebbe se il salario fosse usato come strumento per incentivare la produttività e per premiare gli anni di ricerca più produttivi, che tipicamente sono quelli da inizio fino a metà carriera.

Proposte per una Riforma

La causa principale dei problemi dell’ università italiana non è dunque la mancanza di fondi, bensì l’esistenza di meccanismi sbagliati di distribuzione delle risorse. Le nostre proposte sono quindi volte a modificare il sistema di incentivi in modo che, a parità di risorse, nell’accademia italiana venga premiata l’eccellenza scientifica secondo parametri condivisi dalla comunità internazionale. Il nostro lavoro “Lo Splendido Isolamento dell’ Università Italiana” discute queste proposte in maggiore dettaglio.

1. Liberalizzare le retribuzioni del personale accademico.
2. Liberalizzare le assunzioni: ogni università assume chi vuole e come vuole; di conseguenza, è abolito l’attuale sistema concorsuale.
3. Liberalizzare i percorsi di carriera: ogni università promuove chi e come vuole.
4. Liberalizzare completamente la didattica: ogni università è libera di organizzare i corsi come vuole e di offrire i titoli che preferisce.
5. Liberalizzare le tasse universitarie: ogni università si appropria delle tasse pagate da i propri studenti.
6. In alternativa alla proposta precedente, mantenere il controllo pubblico sulle tasse universitarie aumentandole però considerevolmente.
7. Utilizzare i risparmi statali così ottenuti per istituire un sistema di vouchers, borse di studio e prestiti con restituzione graduata in base al reddito ottenuto dopo la laurea.
8. Allocare ogni eventuale altro finanziamento statale alle università in modo fortemente selettivo sulla base di indicatori di produttività scientifica condivisi dalla comunità internazionale.
9. Consentire l’accesso a finanziamenti privati senza limitazioni.
10. Abolire il valore legale del titolo di studio.

Tabella 1. La produttività e la qualità dei ricercatori italiani

pubblicazioni / ricercatori tot

citazioni / ricercatori tot

Ricercatori accademici / ricercatori tot

pubblicazioni / ricercatori accademici

citazioni / ricercatori accademici

impact factor medio

impact factor standardizzato

1

2

3

4

5

6

7

USA

1.00

8.60

0.15

6.80

58.33

8.57

1.48

Germania

1.25

8.64

0.26

4.77

32.98

6.91

1.33

Regno Unito

2.17

15.86

0.31

6.99

51.00

7.30

1.39

Francia

1.45

9.43

0.35

4.09

26.68

6.52

1.12

Italia

2.26

14.81

0.38

5.88

38.57

6.56

1.12

Spagna

1.68

9.09

0.55

3.06

16.54

5.41

.97

Portogallo

0.86

3.99

0.52

1.65

7.62

4.62

.82

Danimarca

1.96

15.57

0.30

6.50

51.56

7.93

1.48

Olanda

2.29

18.79

0.31

7.41

59.58

8.20

1.39

Canada

1.68

11.79

0.33

5.04

35.28

7.00

1.18

Da Gagliarducci, Ichino, Peri e Perotti (2005).
Definizioni: Colonna 6: impact factor: definito come numero totale di citazioni / numero totale di pubblicazioni, entrambe per il periodo 1997-2001;. Colonna 7: impact factor standardizzato, 2002; vedi testo per la definizione.
Fonti: Pubblicazioni e citazioni: King (2004), dati riferiti agli anni 1997-2001; Impact factor standardizzato: King (2004), dati riferiti al 2002; Numero di ricercatori: OECD, Main Science and Technology Indicators database, dati 1999 (1998 per Regno Unito). Il numero di ricercatori è espresso in unità full time equivalent.

Tabella 2. Distribuzione dei salari accademici in Italia

Anzianità di servizio

in anni

Professore Ordinario

a tempo pieno

Professore Associato

a tempo pieno

Ricercatore

a tempo pieno

0 (non conf.)

47631

36053

20225

3

50412

37999

29244

5

54207

40684

31150

7

56900

42596

32516

9

60696

45280

34422

11

63388

47192

35788

13

67184

49876

37694

15

70979

52560

39601

17

73968

54683

41117

19

76957

56806

42633

21

79946

58928

44149

23

82935

61051

45665

25

85924

63174

47181

27

88913

65296

48698

29

91902

67419

50214

31

94891

69542

51730

33

96735

70851

52665

35

98578

72160

53600

37

100421

73469

54535

39

102264

74778

55470

Media

77242

57020

42415

Da Gagliarducci, Ichino, Peri e Perotti (2005).
Nota: Dati aggiornati all’anno 2004. La tabella riporta il salario annuo in euro al lordo delle tasse per le tre categorie di docenti italiani al variare della anzianità di servizio, secondo la tabella elaborata dal CNU di Bari e pubblicata sul sito http://xoomer.virgilio.it/alpagli/. Poiché non disponiamo della distribuzione dei docenti italiani per anzianità, le retribuzioni medie nell’ultima riga sono calcolate ipotizzando una distribuzione uniforme.

Tabella 3. Distribuzione dei salari accademici negli Stati Uniti

Università con corsi undergraduate

e corsi di dottorato

Università con corsi undergraduate

e corsi di master

College senza corsi graduate

Percentile

Full

Associate

Assistant

Full

Associate

Assistant

Full

Associate

Assistant

1

49,091

38,182

30,909

41,818

34,545

29,091

36,364

29,091

27,273

5

56,364

43,636

36,364

47,273

40,000

32,727

41,818

34,545

32,727

10

68,969

52,678

44,994

53,526

44,728

38,386

42,749

37,871

32,906

20

73,139

55,133

46,742

56,721

47,005

40,217

47,956

40,698

35,404

30

77,091

57,091

48,378

59,075

48,733

41,338

51,109

42,951

37,047

40

79,738

58,875

50,493

61,465

50,515

42,336

53,589

44,857

38,552

50

83,820

61,747

51,825

63,913

51,879

43,435

56,944

46,835

39,592

60

89,466

63,622

54,266

66,523

53,535

44,788

59,843

48,796

40,931

70

94,616

65,989

55,896

70,540

55,623

46,265

63,037

50,730

42,147

80

98,730

69,816

58,476

75,203

58,567

48,661

67,198

53,529

44,383

90

108,003

73,599

63,804

81,060

63,645

51,465

78,941

59,007

48,832

95

119,212

79,177

65,953

86,323

66,372

53,279

86,854

64,672

51,373

99

195,455

122,727

113,636

122,727

92,727

80,000

122,727

83,636

69,091

Media

91,529

62,400

53,251

69,193

54,555

45,417

65,293

50,392

41,901

Da Gagliarducci, Ichino, Peri e Perotti (2005).
Nota: Dati riferiti all’anno accademico 2003-04. La tabella riporta i percentili in euro della distribuzione del salario annuo al lordo delle tasse per i Full Professor, gli Associate Professor e gli Assistant Professor in tre categorie di università degli Stati Uniti. La fonte è il rapporto della AAUP (2004), in particolare le Tabelle 4, 8 e 9a. I dati si riferiscono a 1446 università per un totale di 1775 campus. Per la conversione della valuta abbiamo utilizzato il tasso di cambio corretto per Purchasing Power Parity pari a 1.11 dollari per euro.

Bibliografia:

Checchi, D., 1999, Tenure. An Appraisal of a National Selection Process for Associate Professorship, Giornale degli Economisti ed Annali di Economia, 58 (2), 137-181.

Gagliarducci S., A. Ichino , G.Peri e R. Perotti (2005) “Lo Splendido Isolamento dell’ Universita’ Italiana” Working Paper, Fondazione Rodolfo De Benedetti, Milano, www.igier.uni-bocconi.it/perotti.

Kalaitzidakis P., Stengos T. e Mamuneas T.P., 2003, Rankings of Academic Journals and Institutions in Economics, Journal of the European Economic Association, 1 (6), 1346-1366.

Perotti, R., 2002, The Italian University System: Rules vs. Incentives, www.igier.uni-bocconi.it/perotti

Che fine ha fatto la Devolution?

Inserita in quella sorta di patchwork di bandierine elettorali, una per ciascuna componente politica della maggioranza, che è l’ultima riforma della Costituzione.
Sepolta da una ridda di numeri sui suoi costi, spesso presunti. Privata del meccanismo
automatico di perequazione nella distribuzione delle risorse fra le Regioni. Da quasi tutti voluta e da nessuno realizzata, la devolution continua a dibattersi negli stessi problemi di sempre. A partire dalla mancanza di chiarezza sui sistemi di
finanziamento e sugli spazi di autonomia da riconoscere agli enti decentrati. Anche perché il dualismo economico del paese rende necessario un sistema perequativo efficiente e l’assenza di un quadro di regole condivise tra centro e periferia espone al rischio di fenomeni d’irresponsabilità finanziaria, come quelli che si sono prodotti nel
caso della sanità.

Tre crack nessuna riforma

Sommario, a cura di Daniela Marchesi

Recenti grandi crack finanziari di Parmalat, Cirio e Volare stanno mettendo in crisi il decollo dei nostri mercati finanziari. Proprio in un momento in cui per le imprese italiane è di cruciale importanza trovare fonti di finanziamento alternative al credito bancario. Tra stallo della riforma del fallimento, e paralisi di quella sulla tutela del risparmio, si susseguono soluzioni tampone applicate, a colpi di decreti, soltanto ai singoli casi concreti.

Il mondo cambia, la legge fallimentare no, di Lorenzo Stanghellini

Quando un’impresa cessa di pagare i suoi creditori, lo Stato interviene per tutelarli.
Le forme sono moltissime e graduali: si va da un controllo su cosa fanno i suoi amministratori fino alla loro sostituzione con un curatore (o commissario, nelle grandi imprese), che prende possesso dei beni e, a seconda dei casi, li liquida o li trasferisce ai creditori. Fra questi due estremi si trovano molte forme intermedie di intervento e di controllo sull’impresa.

Dal 1942 a oggi

La legge fallimentare è del 1942. È pensata per un sistema in cui le imprese sono piccole e quando diventano insolventi significa che non c’è nulla da salvare.
Il mondo è tuttavia molto cambiato da allora: le imprese sono oggi fatte d’idee più che di beni (e le idee non si vendono), i creditori sono sempre di più e conoscono poco i loro debitori (si pensi agli obbligazionisti). Spesso, infine, conviene agli stessi creditori che l’impresa continui a produrre invece di chiudere.
Proprio per questo dal 1979 abbiamo in Italia una normativa speciale per le grandi imprese (modificata nel 1999), le quali possono continuare l’attività anche quando sono insolventi, in attesa che le loro aziende vengano cedute in un tempo ragionevole (uno-due anni). È ciò che sta accadendo con Cirio.
Il quadro degli strumenti a disposizione del debitore e dei creditori resta però paurosamente incompleto. Per almeno tre motivi:
1) solo le grandi imprese (con almeno duecento dipendenti) possono tentare di salvarsi, con strumenti comunque insoddisfacenti. Decine di migliaia di altre aziende sono destinate a scomparire qualora vadano in crisi, anche se possiedano ancora valori da salvare;
2) i creditori, nel loro stesso interesse, possono certo accordarsi fra loro per aiutare il debitore in difficoltà a evitare il fallimento. Ma non è facile che riescano a farlo quando sono decine o centinaia o addirittura migliaia, se l’impresa ha emesso bond;
3) fino a oggi, e fino al caso Parmalat (per cui è stata adottata una legge speciale), l’unica cosa da fare in caso di crisi era vendere i beni dell’azienda, realizzando prezzi spesso modesti. Oggi è invece possibile trasferire l’impresa ai suoi creditori, facendoli diventare azionisti e conservando per loro tutto il valore d’avviamento. Solo però se ha almeno mille dipendenti. Un caso (fortunatamente) raro, anche se il probabile successo del piano di salvataggio Parmalat lascia pensare che ci saranno repliche per altre gravi crisi – come sembra stia già avvenendo proprio in questi giorni per “Volare

Così com’è oggi strutturata, la nostra legislazione fallimentare scoraggia inoltre l’intervento di investitori specializzati nel recupero delle imprese in crisi. Si tengono infatti a debita distanza, visto che la legge è così severa con tutti coloro che hanno avuto a che fare con l’impresa poi fallita, anche quando la scommessa di salvarla sia stata tentata in buona fede.
Che ci sia bisogno di una riforma del diritto fallimentare, per questi motivi e molti altri più tecnici, ognun lo dice. Perché non la si faccia è un’altra questione.

Interessi costituiti e vecchi retaggi

Il diritto fallimentare era, fino a pochi anni fa, il diritto del funerale dell’impresa. Oggi non deve più essere così: se pensato in termini moderni, si tratta di un settore importante e vitale, che può dare grande forza all’economia.
A partire dal 2000, sono apparsi progetti di legge che miravano a rovesciare le prospettive della legge fallimentare e a consentire salvataggi di imprese in crisi, pur senza riduzione della tutela dei creditori o inammissibili aiuti di Stato. (1) Finita la legislatura, si è buttato tutto nel cestino e si è ricominciato da zero. Dopo due anni di lavoro di un’ampia commissione (la commissione Trevisanato) sono arrivati altri progetti che, pur migliorando la situazione attuale, di innovativo avevano ben poco. Nemmeno quelli sono tuttavia passati. Perché?
La verità è che è difficile gettare abiti indossati per tanto tempo e cambiare mentalità d’improvviso.Questo vale anche per molti magistrati, affezionati al ruolo di gestori delle imprese in crisi che l’attuale legge loro riserva e restii ad affidare al mercato questo settore.
Le discussioni nella commissione Trevisanato si sono poi concentrate per mesi su aspetti marginali, probabilmente incomprensibili per un osservatore internazionale, incentrati a determinare se e quanto le banche, in caso di fallimento del loro cliente, debbano riversare al curatore di ciò che è passato dal conto corrente. Una sciocchezza, se comparata con gli interessi in gioco, ma una sciocchezza che nell’attuale legge colpisce pesantemente le banche (che vengono regolarmente citate in giudizio per somme ingenti, anche se quelle effettivamente versate sono spesso inferiori a quanto chiesto dal curatore) e dà grande lavoro ad avvocati e commercialisti. Si può capire perché su questo punto si sia così aspramente combattuto. Sulle spalle del paese, e in attesa di Parmalat.
Dopo il crack del gruppo di Collecchio nulla è più come prima: la legge sulla crisi delle grandissime imprese è stata più volte cambiata a colpi di decreto, per mettere (con successo) una toppa su un disastro che poteva diventare peggiore di come è già. I tecnici del Governo hanno da allora cominciato a produrre testi più moderni. (2) L’opposizione, nel luglio del 2004, ha ripresentato un nuovo testo. (3)
Nel frattempo, un progetto governativo di restyling dell’attuale legge fallimentare, dimenticato in Parlamento dal 2002, è stato recuperato e rivitalizzato nel tentativo di farlo assomigliare di più a una vera riforma. (4) Anche se le dinamiche parlamentari sono imprevedibili, è difficile che un testo intriso di sfiducia verso le imprese in crisi e verso il mercato, come la legge del 1942, possa essere trasformato nella riforma integrale di cui il Paese ha disperatamente bisogno: i rospi divengono principi azzurri solo nelle favole.

Una riforma bipartisan?

La cosa curiosa è che, in più punti, il testo dell’opposizione è più liberale delle bozze del Governo., Una riforma bipartisan, da fare in pochi mesi, non sembra dunque fuori dal mondo. Qualche apertura e disponibilità a collaborare vi è stata.
La questione è solo politica: i tecnici delle due parti potrebbero lavorare in sostanziale sintonia.
Basta che il Governo non pensi di fare una riforma così importante a colpi di maggioranza. Gli interessi costituiti e i vecchi retaggi, per essere superati in nome di una riforma vera, richiedono intese più larghe.

(1) Disegno di legge C. 4797, presentato il 14 dicembre 2000 (primo firmatario Walter Veltroni).

(2) Schema di disegno di legge redatto dalla commissione nominata con decreto ministeriale 27 febbraio 2004 dal ministro della Giustizia di concerto con il ministro dell’Economia e delle finanze.

(3) Disegno di legge C. 5171, presentato il 14 luglio 2004 (primo firmatario Piero Fassino).

(4) Disegno di legge S. 1243, presentato il 14 marzo 2002 su iniziativa del Governo.

Il dopo-Parmalat delle imprese italiane, di Carlo Maria Pinardi

Le conseguenze sul mondo del risparmio dovute ai fallimenti che si sono succeduti sul mercato dei corporate bond italiani negli ultimi due anni sono ben note. Più nebuloso, e probabilmente più complesso, è l’impatto che questi eventi hanno prodotto sulle politiche finanziarie delle imprese italiane.

Il campione

Proprio per indagare questi aspetti, il Crea dell’Università Bocconi ha svolto un’indagine fra le cento principali società industriali e commerciali italiane, quotate e non. (1)
A centoquaranta imprese italiane industriali e commerciali è stato inviato un questionario, le risposte ottenute centodue. Le società quotate sono settantanove – quelle dello SP-Mib e quelle a maggiore capitalizzazione, mentre le società non quotate sono state scelte in base alla classifica per valore aggiunto nelle classificazioni di Mediobanca. (2)
La capitalizzazione delle aziende che hanno risposto al questionario è di oltre 267 miliardi di euro (a fine settembre), ovviamente con peso preponderante delle blue chips. In termini di valore aggiunto per l’esercizio 2003, il dato complessivo del campione è pari a 95,4 miliardi di euro.

E i risultati

Quali sono i punti principali che emergono dall’indagine?
In primo luogo, si nota una differente valutazione tra impatto dei fallimenti sulla propria azienda e impatto sul sistema delle imprese nel suo complesso. Per la propria azienda, gli effetti sono rilevanti solo nel 49 per cento del totale, ma diventa il 64 per cento per le small caps quotate. Quando invece i direttori finanziari intervistati devono giudicare il sistema nel suo complesso, gli effetti sono rilevanti per il 94 per cento, con il 100 per cento per le non quotate e il 96 per cento per le small caps. Le aziende maggiori hanno quindi la percezione di “soffrire” meno delle Pmi l’impatto dei default. Due terzi degli intervistati indicano la fine del 2005 come il tempo necessario per “rientrare” dagli effetti negativi dei fallimenti, mentre un terzo pensa che sarà necessario un periodo più lungo. E il 43 per cento delle small caps quotate ritiene che le conseguenze si assorbiranno solo nel medio-lungo termine. Solo il 10 per cento delle aziende interpellate dichiara, però, di aver rinviato operazioni di emissioni obbligazionarie (“public” o “private”) nel 2004, ma il dato sale al 20 per cento per le small caps. Quanto ai tempi di concessione dei prestiti (sindacati o bilaterali) da parte delle banche di riferimento, per le società non quotate e per le small caps quotate le procedure si sono allungate, in media di tre mesi, in un terzo dei casi. E per ben il 32 per cento degli intervistati il ritardo è superiore ai tre mesi. Le small caps quotate sono quindi quelle che hanno risentito maggiormente del clima di sfiducia creatosi dopo il “caso Parmalat”, secondo il campione.

Tre quarti delle aziende interpellate sostengono che la “inadeguatezza” delle leggi in materia di fallimento ha aggravato le conseguenze dei default: la non adeguata tutela dei diritti dei creditori si traduce quindi in un costo addizionale per le aziende che chiedono fondi.
Per i collocamenti futuri, nel 71 per cento dei casi è previsto un maggior peso degli investitori istituzionali rispetto al passato nel “mix” tra istituzionali e retail. Tra le imprese del campione c’è la percezione che siano aumentati i controlli da parte di Bankitalia (73 per cento) e Consob (82 per cento), ma solo la metà degli intervistati li giudica efficaci. Peraltro, il maggior controllo significa allungamento dei tempi di autorizzazione: per Bankitalia nel 71 per cento e per Consob nel 68 per cento dei casi. Per migliorare l’efficacia dei controlli specifici della Consob, le imprese indicano alcuni interventi: in ordine di importanza, dovrebbero esserle attribuiti più poteri d’indagine, più poteri sanzionatori, più risorse umane provenienti dal mercato e la concessione di un potere di controllo di efficienza a intermediari e investitori (cioè al “tax payer”).
Inoltre, l’82 per cento delle imprese giudica che una migliore governance delle imprese sia necessaria per ridurre il costo di finanziamento sul mercato. A maggior ragione perché secondo l’86 per cento degli intervistati il peso delle regole di corporate governance sarà sempre maggiore nella valutazione del merito di credito dell’emittente espresso dalle società di rating. E quindi l’89 per cento delle società afferma di aver adottato provvedimenti per migliorare trasparenza e governance dopo i default. Solo nel 33 per cento dei casi (il 40 per cento per le non quotate) questo si è tradotto in oneri aggiuntivi significativi.
Oltre ai corporate bond, gli strumenti che hanno “patito” maggiormente le conseguenze dei default sono, nell’ordine, gli US Private Placements, le emissioni convertibili e le passività subordinate, mentre le asset backed securities e le cartolarizzazioni non hanno sofferto particolarmente. Solo il 37 per cento considera possibile entro il 2005 la riapertura del segmento retail del mercato dei corporate bond (naturalmente con rating) mentre l’84 per cento ritiene possibile entro il 2005 l’accesso agli “US private placements”.Gli intervistati giudicano i corporate bonds non rated, seguiti dai prodotti strutturati, gli strumenti meno trasparenti sul mercato finanziario. Mentre quelli che verranno utilizzati maggiormente nel prossimo biennio sono, in ordine di rilevanza, private placements, prestiti sindacati, corporate bond, asset backed e, solo da ultimo, collocamenti azionari e di convertibili. Forse incide su questa valutazione il fatto che in un quarto dei casi i direttori finanziari delle società quotate addebitano agli ultimi scandali finanziari un impatto negativo sui propri multipli borsistici. Infine, il 69 per cento (l’86 per cento per le imprese non quotate) ritiene che potrebbe rivelarsi efficace una norma che preveda più chiare responsabilità e l’attestazione di veridicità sui documenti contabili e sulla situazione patrimoniale-finanziaria da parte del direttore finanziario della società.

(1) L’analisi si inquadra in un progetto di ricerca condotto dal Crea Bocconi grazie al contributo di Ras, Unicredit e Telecom Italia.

(2) “Dati cumulativi di 1945 società italiane”, agosto 2004.

(3) Secondo i dati riportati su “Le principali società italiane – Industriali e di servizi” di Mediobanca, agosto 2004.

Parmalat, il fronte delle parti civili, di Lorenzo Stanghellini

Si è aperto a Milano il primo troncone dei processi ai responsabili, veri o presunti, del disastro Parmalat. Migliaia di risparmiatori inferociti si sono costituiti parte civile. Cosa possono attendersi da questo nuovo atto della vicenda del gruppo di Collecchio?

Risparmiatori di serie A e di serie B….

I risparmiatori danneggiati dal dissesto di Parmalat si dividono in due categorie: quelli che avevano acquistato obbligazioni (bond) e quelli che avevano acquistato azioni. I primi hanno fatto un prestito a Parmalat e speravano di ricevere il capitale e gli interessi, i secondi hanno fatto un investimento più rischioso, perché sapevano (o dovevano sapere) che sarebbero stati compensati solo se Parmalat avesse prodotto utili sufficienti e avesse distribuito dividendi. Nel crollo del gruppo Parmalat tutti hanno perso, ma gli azionisti hanno perso di più, perché hanno rischiato di più. Il piano di riorganizzazione di Parmalat si occupa solo dei creditori, ed è giusto che sia così: gli azionisti non possono in teoria ricevere nulla finché l’ultimo dei creditori non ha ricevuto fino all’ultimo centesimo. Dato che questo non accadrà, i vecchi azionisti di Parmalat sono fuori, e non si capisce come il ministro Alemanno in agosto abbia tentato di imporre a Enrico Bondi di considerare anche i piccoli azionisti: dato che nulla si crea dal nulla, ogni euro dato agli azionisti, piccoli o grandi che siano, verrebbe tolto ai creditori.

… ma tutti danneggiati dalle frodi di Parmalat

Tutti i risparmiatori, compresi quelli di serie B, sono stati tuttavia danneggiati dai bilanci truccati, dai prospetti mendaci e dalle varie frodi commesse dai diversi responsabili. Anche gli azionisti, infatti, avevano comprato azioni confidando su informazioni che si sono rivelate false, e non l’avrebbero certamente fatto se avessero saputo la verità. È per questo che tutti, obbligazionisti e azionisti, si presenteranno regolarmente ai vari processi penali, chiedendo di salire sul treno dei risarcimenti, costituendosi parte civile contro le persone fisiche responsabili del crack e, se verrà provato che le persone fisiche agivano nell’interesse di altre società, anche contro queste ultime.

Una strada poco costosa, ma comunque incerta

Nemmeno la strada della costituzione di parte civile è tuttavia priva di ostacoli. In primo luogo, provare la responsabilità di Calisto Tanzi, di Fausto Tonna, dell’avvocato Gian Paolo Zini, di alcuni fra i revisori e così via, sarà facile: ma quanto dell’enorme danno cagionato da Parmalat potranno essi risarcire? La scommessa dei risparmiatori è dunque quella di tirare nel mucchio dei responsabili le banche e gli intermediari finanziari che in varie fasi hanno avuto a che fare con Parmalat. Di coinvolgere cioè soggetti dotati di un patrimonio capace di essere aggredito. Per ora le persone giuridiche chiamate a rispondere degli illeciti sono tre (le filiali italiane di Bank of America, Deloitte & Touche e Grant Thornton), ma non è chiaro di quanto e come potranno essere chiamate a rispondere le case-madri, come pure le varie banche del cui ruolo si parla. In secondo luogo, ogni euro versato dai responsabili dovrebbe andare a risarcire i creditori, prima che gli azionisti. È per questo che crediamo che il commissario straordinario di Parmalat veda con sentimenti contrastanti la ressa dei risparmiatori ai processi penali: da un lato lo aiutano a creare la giusta pressione ambientale sui responsabili e sulle società che potrebbero in futuro essere chiamate a rispondere, ma dall’altro lato egli potrebbe dover dividere con loro una torta che non sarà mai sufficientemente grande per tutti. È così che si spiega perché il Codacons chieda l’esclusione di Bondi dal processo penale, in quanto è stato amministratore di Parmalat (ma solo negli ultimi giorni prima del crollo). L’argomentazione, alquanto debole, nasconde il desiderio di eliminare un commensale affamato da un banchetto che non si preannunzia abbondante. Quali speranze possono allora nutrire i risparmiatori costituendosi parti civili? Non moltissime. Perché il danno ai risparmiatori Parmalat venga risarcito in sede di processo penale occorre infatti che i dipendenti delle persone giuridiche (banche, eccetera) vengano condannati per un reato e che il loro comportamento criminale sia giudicato riferibile alle persone giuridiche per cui essi lavoravano. Ciò è molto più di quello che occorre per ottenere la condanna in una normale azione civile, dato che in quella sede è sufficiente dimostrare la colpa di chi ha arrecato un danno: basta cioè dimostrare un comportamento negligente o imprudente, e non necessariamente disonesto. Il processo penale non è un’occasione in cui fini controversie patrimoniali possono essere risolte secondo gli alti principi del diritto: per i risparmiatori è l’occasione della vendetta e, soprattutto, della speranza di arraffare qualche briciola gettata per placare la loro giusta rabbia. Il costo della costituzione di parte civile è tuttavia minimo rispetto a quello di un’azione civile per danni, e dunque vale la pena che ci provino.

Tre strade per il risparmio tradito

In conclusione, fino a ieri i risparmiatori traditi da Parmalat avevano due strade: agire contro chi aveva loro venduto i titoli, cercando di dimostrare che non erano stati adeguatamente informati, e (ma solo per i risparmiatori “di serie A”, cioè gli obbligazionisti) partecipare al piano Bondi, diventando azionisti della nuova Parmalat che risorgerà dalle ceneri del gruppo (si veda www.lavoce.info). Oggi, con l’apertura del processo penale, ne hanno una in più, ma il loro futuro non è roseo. È per questo che occorre che venga presto approvata una nuova legge che per il futuro tuteli i risparmiatori, prevedendo stringenti regole di corporate governance per le società quotate in Borsa, penalizzando adeguatamente chi falsifica i bilanci, attribuendo più poteri alla Consob e, infine, sancendo il diritto dei risparmiatori di agire collettivamente contro chiunque li abbia danneggiati (con una class action, che suddivide il costo dell’azione fra i tantissimi interessati). Una legge che tarda ad arrivare e che perde mordente man mano che le proposte si susseguono in Parlamento. Di solito, dopo che i buoi sono scappati si chiude almeno la stalla. In Italia, per ora, la si è lasciata aperta.

Se Parmalat dà il buon esempio, di Lorenzo Stanghellini

Le regole sulle imprese in crisi vivono una stagione strana: da un lato un faticoso processo di riforma generale, con tempi lunghi, commissioni che lavorano in silenzio e producono soluzioni poco innovative. Dall’altro, un reality show con le regole dettate per la crisi Parmalat, approvate, applicate e molto più coraggiose.
Se ne trova conferma nel piano di riassetto del gruppo Parmalat, appena presentato al Ministro Marzano. Come aveva auspicato lavoce.info all’indomani dell’approvazione del decreto d’emergenza alla vigilia di Natale (Dl 23-12-2003, n. 347), il piano può avvalersi di regole innovative che il Parlamento ha adottato convertendo il decreto in legge (L. 18-2-2004, n. 39). Tali regole consentono al commissario Parmalat di operare una vera ristrutturazione finanziaria e di trasferire l’impresa in crisi ai creditori.

Il piano

Il piano Parmalat prevede che venga costituita una società per azioni che assume l’attivo di sedici società della galassia Parmalat e ne paga i creditori. (1)
Il fatto nuovo è che mentre la nuova società pagherà in denaro (e per intero) i creditori privilegiati (fisco, lavoratori, artigiani, eccetera), “pagherà” con le proprie azioni tutti gli altri: le riceveranno in proporzione ai diritti che rispettivamente vantavano verso una o più delle sedici società. La nuova Parmalat, dotata di una governance all’avanguardia, verrà quotata in Borsa. (2)
I creditori che vogliono avere denaro potranno cedere le azioni, gli altri potranno giovarsi degli incrementi di valore che nel tempo dovessero prodursi. La perdita di un creditore oggi stimata, ad esempio, nell’80 per cento potrebbe ridursi (ma anche aumentare) in conseguenza dell’andamento delle azioni in Borsa.

Alla nuova società verranno attribuiti anche gli attivi che potrebbero derivare dalle azioni revocatorie e di risarcimento danni contro amministratori, sindaci, revisori e alcune banche e intermediari finanziari ritenuti (a torto o a ragione) responsabili del dissesto. Si tratta di un attivo del tutto incerto, ma che potrebbe ridurre le perdite dei creditori in misura anche significativa. D’altra parte la nuova società si assume anche il rischio delle cause iniziate contro Parmalat negli Stati Uniti, il cui costo, anche per spese legali, potrebbe essere elevato.

Restano fuori dal piano di ristrutturazione quattro società del gruppo Parmalat (fra cui Parma calcio) e alcune società sotto il controllo dei Tanzi, ma non di Parmalat (ad esempio, Parmatour). I loro creditori riceveranno, secondo il sistema tradizionale, ciò che si ricaverà dalla vendita dei beni delle società. Fuori dal piano sono anche le società poste al di fuori dell’Unione europea (Brasile e Stati Uniti principalmente), la cui crisi verrà risolta secondo le norme applicabili nei rispettivi paesi.
Il piano, dopo essere stato presentato ufficialmente, sarà sottoposto nei prossimi mesi al voto dei creditori i quali, a maggioranza, potranno approvarlo o rifiutarlo. Se lo approveranno, entro un anno la nuova società potrebbe essere già operativa.

E i vecchi azionisti? Sono ormai fuori: la nuova Parmalat sarà infatti (solo) dei creditori. Si era per la verità ipotizzato di dare agli azionisti un warrant per acquistare le azioni della nuova società a condizioni di favore, per rientrare in gioco se queste azioni acquistassero nel tempo così tanto valore da compensare i creditori-azionisti di tutta la perdita subita. La cosa è tuttavia tecnicamente difficile e, forse, anche iniqua: i vecchi azionisti sono stati alla finestra, protetti dalla responsabilità limitata, mentre Parmalat franava sulle spalle dei creditori. Agli azionisti (diversi dai Tanzi) resta quindi poco da fare, se non agire per il risarcimento del danno contro i responsabili del dissesto e, qualora abbiano ricevuto le azioni in violazione delle norme sui servizi finanziari, contro gli intermediari da cui le abbiano acquistate.

Parmalat: un caso “facile”

Pur nella sua incredibile complessità tecnica, è bene tenere a mente che, dal punto di vista della soluzione, Parmalat costituisce un caso politicamente facile. L’indebitamento che è emerso è enorme, ma l’impresa ha un margine operativo positivo e si autosostiene. Nessun licenziamento è stato necessario, e anche la finanza-ponte, prontamente concessa dalle banche, non è stata utilizzata. Lo Stato ha contribuito, consentendo ai creditori agricoli e agli autotrasportatori messi in difficoltà dal crac Parmalat di accedere a un credito particolarmente agevolato.

Il piano Parmalat, dunque, si limita a staccare i rami secchi e a liberare dai vecchi debiti un’impresa che, pur fragile, può riprendere a camminare da sola. Non si è posta, in altre parole, quell’alternativa fra tutela dei lavoratori (e dei fornitori) e tutela dei creditori che costituisce uno dei più difficili nodi “politici” della crisi d’impresa, soprattutto della grande impresa. La politica ha fatto da (interessato) sparring partner, ma non ha imposto in nome di interessi “politici” (occupazione, interesse nazionale) scelte che – soprattutto per gli obbligazionisti – sarebbero state indigeribili, con danni sul piano dell’immagine internazionale dell’Italia ancor più gravi di quelli che il caso ha già prodotto.
Ben diverso sarebbe, ad esempio, se Alitalia divenisse insolvente: le regole applicabili sarebbero le stesse (anche Alitalia ha più di mille dipendenti), ma il contesto sarebbe completamente diverso. Mentre Parmalat ha bisogno (soprattutto) di una ristrutturazione finanziaria, Alitalia avrebbe bisogno di una ristrutturazione industriale, per tornare a creare valore mentre oggi lo distrugge. All’eventuale commissario straordinario si presenterebbero scelte difficili, da operare sotto le direttive di una politica alle prese con una coperta troppo corta (creditori, lavoratori, divieto di aiuti di Stato).

Le lezioni da trarre

Quali le lezioni della crisi Parmalat? Sono principalmente due, e così ovvie che è strano che l’Italia le abbia definitivamente apprese solo con questa crisi (e solo per la grande impresa, che nel nostro paese dà lavoro a una parte minoritaria degli occupati).
(1) È importante avere una procedura che consenta la gestione dell’attivo e la continuazione dell’attività mentre il debitore (o il curatore) e i creditori negoziano una soluzione flessibile. Sembra incredibile, ma in Italia non c’è. Anche il Regno Unito, buon ultimo, se ne è dotato lo scorso anno, così completando un quadro che già era molto efficiente.
(2) È importante avere una procedura che consenta, accanto alla ristrutturazione industriale, anche la ristrutturazione finanziaria e che al limite eviti di dover vendere all’asta i beni dell’impresa (con le note perdite di valore dovute alle imperfezioni dei mercati). Esattamente questo accadrà con Parmalat, che invece di essere venduta a terzi verrà “venduta” ai suoi stessi creditori.
Anche se il prezzo è stato altissimo, la lezione di Parmalat potrebbe portare frutti positivi. Senz’altro li sta portando per il diritto della crisi d’impresa italiano, che fino a pochi mesi fa si basava su concetti antiquati e che oggi si trova proiettato in avanti dalle spinte del più grave dissesto degli ultimi decenni.
Il possibile successo di Parmalat non è facilmente ripetibile. Tuttavia, da qui occorre muovere per la riscrittura delle regole sulla crisi di tutte le imprese, grandi e piccole.

(1) Si vedano le linee-guida del piano, presentato ai creditori il 4 giugno 2004: http://www.parmalat.com/it/doc/Creditors%20Meeting%204%20June%20(ii).pdf

(2) La governance della nuova Parmalat è descritta al punto 3 del comunicato-stampa 17 maggio 2004: http://www.parmalat.com/it/doc/2004.05.17%20Linee%20guida%20it.pdf

Tre punti per la tutela del risparmio, di Mario Sarcinelli

Un regime di regolamentazione, composto necessariamente di una pluralità di regole, strumenti e obiettivi, abbisogna di una strategia che lo renda rispondente al sistema che s’intende “controllare”.
Ad esempio, se in un sistema economico prevalgono la quotazione in Borsa e la proprietà diffusa, è efficiente spostare il baricentro delle regole e dei controlli verso il mercato e verso le offerte pubbliche di acquisto o di scambio.
Se, al contrario, sono diffusissime le medie e piccole imprese sostanzialmente avverse alla Borsa, il fulcro della regolamentazione deve rimanere in maggior grado in ambito pubblicistico. E l’Italia, nonostante i progressi degli ultimi quindici anni, continua a esprimere un capitalismo familiare. In qualche caso, come quello Parmalat, anche un familismo amorale.

Le sanzioni nel nuovo diritto societario

La riforma del diritto societario nel nostro paese sarebbe dovuta essere il risultato di un attento studio delle necessità del nostro sistema produttivo.
Invece, quella che è entrata in vigore il 1° gennaio 2004 ha proceduto sulla base di principi teoricamente condivisibili, ma avulsi dalla realtà italiana.
Infatti, si è garantita la massima libertà statutaria alla Spa in grado di emettere un’ampia tipologia di azioni, di ricorrere senza limiti, se quotata, all’indebitamento obbligazionario anche atipico, di scegliere il regime di direzione tra diverse opzioni. Alla maggiore libertà non si è però accompagnata una sanzione proporzionalmente accresciuta nel caso di violazione di obblighi, come il falso in bilancio dimostra.
Poiché tale sistema mal si addice a un capitalismo familiare come il nostro, prima o poi dovrà porsi mano a una sua revisione.

Per difendersi dalla frode

La stabilità del capitalismo, da noi come negli Stati Uniti e in altri paesi europei, è stata messa in pericolo da tre cause: la frode, l’accumulazione involontaria di rischi e la concessione delle opzioni su azioni, con le connesse modalità di contabilizzazione e di esercizio.
Nella ricerca della miscela di strumenti e incentivi adatta a ogni economia, vanno anche individuati il tipo di pericolo da cui bisogna guardarsi e chi è preposto a vigilare sul medesimo. E in Italia, dopo il caso Parmalat, la frode sembra essere quella che suscita il maggiore allarme sociale.

Se questo è vero, ed essendo la frode un reato contro la fede pubblica, allora non si può prescindere dall’azione delle autorità di supervisione, della Guardia di finanza, che ha compiti di polizia economica, e delle procure della Repubblica. Ma questo non basta: per evitare che il potere pubblico arrivi quando il danno è stato arrecato, è necessario che vi siano dei filtri efficaci al livello dell’organizzazione aziendale, con obblighi sanzionabili. E affinché questi filtri funzionino, è necessario aumentare la loro distanza da proprietari e amministratori attraverso la divaricazione degli interessi.

Quali filtri sono previsti? Vediamone alcuni.In primo luogo, i revisori esterni, che hanno oggi l’obbligo di certificare la contabilità. Perché questi siano utili sentinelle dovrebbero essere privati di ogni capacità di consulenza; bisogna eliminare il potenziale conflitto d’interessi che potrebbe insorgere domani e/o in un altro ordinamento. Ma per ottenere questo è necessaria una forte e coordinata pressione internazionale.

Abbiamo poi i sindaci, ma anch’essi sono espressione della maggioranza, mentre sarebbe opportuno che fossero scelti dalla minoranza o, almeno, dai fondi comuni d’investimento che hanno nel proprio portafoglio titoli della società e/o del gruppo.
I consiglieri d’amministrazione indipendenti, quando esistono in società dalla forte impronta familiare, non sono affatto indipendenti, poiché sono scelti dal capo effettivo dell’azienda, che spesso è il presidente del gruppo, e restano in carica sino a quando sono a lui graditi.
Per i capi uffici della contabilità e della finanza vanno previste specifiche responsabilità fortemente sanzionabili, poiché per essi non è immaginabile una diversificazione degli interessi da quelli degli amministratori e dei proprietari. Particolari incentivi per chiunque voglia fare il whistleblower sono chiaramente poco efficaci, poiché sarebbe oggetto di ritorsioni prima e di discriminazioni poi.

Quanto alle sanzioni abbiamo diverse possibilità, con efficacia differente.
Quelle restrittive della libertà dovrebbero essere riservate ai comportamenti più gravi, mentre sono da preferire quelle sospensive o interdittive dalla professione o dalla carica.
In fondo, a un regime capitalistico interessa estromettere, temporaneamente o definitivamente, persone che si sono dimostrate incapaci di osservare le regole del gioco. Va da sé che questo tipo di misure deve essere pienamente appellabile.

Tornano le grida manzoniane?

Abbiamo quindi tre opzioni di intervento: la revisione del nuovo diritto societario, la divaricazione degl’interessi tra amministratori e proprietari e organi di controllo e infine l’inasprimento delle sanzioni.
Purtroppo, solo quest’ultimo è rapidamente attuabile, come del resto è avvenuto negli Stati Uniti.
Purché non si tenti di configurare un improbabile reato di “nocumento al risparmio” (da 3 a 12 anni di galera) per chi causa un danno superiore all’1 per mille del Pil, (come è noto, il Pil è frutto di stime soggette a molteplici revisioni), o colpisca un numero di risparmiatori superiore all’1 per mille della popolazione (la cui entità è accertata dal censimento ogni dieci anni). Le grida manzoniane sono ancora di moda?

Cani da quardia per decreto, di Carlo Scarpa

La proposta di istituire una SuperConsob contiene almeno un rischio: che si creda veramente di trasformare una pesante e lenta burocrazia come la Consob in un temibile ufficio ispettivo.
Ha ragione il ministero dell’Economia: in un paese normale l’allarme devono darlo le autorità di vigilanza. E poiché nello scandalo Parmalat le irregolarità sono di una società quotata (sorvegliata dalla Consob), non possiamo che rilevare come chi dovesse vigilare sulla Borsa e su chi sollecita il risparmio privato, non lo abbia fatto in modo sufficiente.

È evidente che una valutazione complessiva sull’attività della Consob su un arco trentennale richiederebbe ben più che un paio di paginette. Sarebbe una valutazione inevitabilmente complessa, con luci e ombre.
Qui mi limito a sottolineare come la Consob, che magari ha operato bene sullo sviluppo del mercato di Borsa, ha spesso scelto un profilo troppo basso nell’attività di vigilanza, una di quelle cui è delegata.
È la funzione più importante? Non so, ma non è marginale.

Il controllo delegato a Consob riguarda diversi soggetti, in particolare le “emittenti” (le società quotate), i revisori, gli intermediari finanziari. Esistono due tipi di controlli, quelli ex-ante (al momento dell’ingresso sul mercato, in particolare la quotazione delle società) e quelli ex-post, tramite ispezioni sui soggetti che operano.
Su entrambi abbiamo problemi, in parte dovuti al funzionamento della Borsa, in parte alla normativa esistente, ma in parte anche a Consob. Facciamo alcuni esempi.

Controlli ex-ante: la quotazione di società

Quando un’impresa viene venduta a un investitore privato, chi compra paga gli avvocati per effettuare un’accurata ricognizione di tutti i documenti della società venditrice, e segnalare ogni possibile problema (si chiama “due diligence”, la dovuta diligenza nell’accertare la situazione dell’impresa che si vuole acquistare).

Quando un’impresa viene venduta sul mercato azionario, invece, né la Borsa italiana (che fissa i requisiti per la quotazione) né la Consob fanno nulla di tutto questo. È l’impresa che si quota a pagare consulenti e avvocati per imbellettarsi, e convincere le autorità che tutto è a posto. (1)

Gli avvocati presentano alla Consob il prospetto, che sarà pubblicato per gli investitori, e l’elenco dei documenti sui quali il prospetto si basa. Nell’impresa c’è qualcosa che non va? Basta dire che il prospetto è compilato su un certo elenco di documenti, ed escludere da tale elenco le carte che potrebbero rivelare “grane”. Gli avvocati sono a posto: se una cosa non dichiarano di saperla, dimostrare che non si siano comportati correttamente è arduo.

Sarebbe interessante sapere quante volte la Consob si è spinta oltre commenti solo formali sul prospetto (è troppo lungo, o troppo corto; questo passaggio è poco chiaro; e cose del genere). E quali cambiamenti siano stati apportati (purtroppo le versioni preliminari del prospetto non sono pubbliche, e ci si deve accontentare di “voci”, non tutte rassicuranti).
Il fatto stesso che il prezzo di quotazione venga determinato senza che il prospetto dichiari quali ipotesi si facciano sui futuri flussi di cassa è indicativo.

Cosa succede nel resto del mondo? Anche altrove le autorità di controllo si affidano molto alla Borsa locale, ma in un contesto un po’ diverso. Mi pare che in Italia un maggiore controllo di Consob sarebbe forse auspicabile, quanto meno per i seguenti motivi:

– la Borsa italiana ha come prima esigenza far crescere il numero di società quotate: quali incentivi ha a effettuare una severa selezione delle imprese?

– mentre altri mercati che devono analizzare molte richieste di quotazione all’anno, possono avere team di analisti specializzati per settore, la Borsa italiana non li ha, e quindi la sua valutazione sulle società quotande è fatalmente più difficoltosa;

– in mercati più sviluppati, il collocamento avviene tramite investitori istituzionali, che svolgono un ruolo di controllo e una attività di due diligence che in Italia non sono effettuate da nessuno;

– le possibilità di controllo (ex-post) in Italia sono state da sempre più limitate (al di là delle critiche alla Consob, i confini imposti dalla normativa sono purtroppo risaputi.Vedremo cosa salterà fuori dalla riforma). Quindi una maggiore attenzione ex-ante sarebbe necessaria.

È forse il caso di ricordare che la sentenza della Cassazione civile n. 3132 del 3 marzo 2001 sancisce come la Consob sia responsabile della affidabilità delle informazioni diffuse sul mercato.
Per la verità, non sono sicuro che insistere sulla responsabilità civile della Consob rappresenti “la soluzione”, ma una maggiore attenzione sarebbe di gran lunga preferibile. Se non si vogliono dilatare i tempi della quotazione, forse sarebbe sufficiente verificare dopo la quotazione che le informazioni fornite all’atto dell’Ipo siano veritiere e complete.

Controlli ex-post: Parmalat e dintorni

Il presidente della Consob, Lamberto Cardia, si è lamentato, sostenendo che se la Consob avesse avuto la centrale dei rischi (banca dati in possesso della Banca d’Italia) avrebbe potuto intervenire sulla Parmalat.
Come ha messo in luce Giovanni Ferri su lavoce.info, questo nel caso Parmalat non è vero. Sia perché il grosso dei debiti Parmalat erano sull’estero, e quindi non sono in questa banca dati, sia perché la Consob, se avesse veramente voluto far qualcosa, doveva semplicemente chiedere quei dati alla Banca d’Italia. E la Banca (se anche avesse voluto) non avrebbe potuto negarli.
Ma la cosa curiosa è che la Consob non ha mai chiesto alla Banca d’Italia questi dati, né per Parmalat, né per altri casi. Perché? Forse sarebbero serviti a poco, ma resta piuttosto forte la sensazione che la Consob, come “vigilante”, abbia preferito un ruolo notarile. D’altronde, se il motto della Sec (l’equivalente americano) è “the investor’s advocate”, da noi è tuttora diffusa la dottrina secondo cui la Consob debba essere super partes (e non, invece, proteggere soprattutto gli investitori).

Nell’affaire Parmalat si mescolano le responsabilità di tanti, da questa parte come dall’altra dell’oceano, all’interno dell’impresa e fuori. Vi sono stati falsi (di cui forse solo a posteriori ci si poteva accorgere), ma è vero che una serie di osservatori da tempo sapevano che Parmalat non era in buona salute e che da sempre non dava informazioni chiare ed esaurienti.
Come denunciò Marco Vitale sul Corriere della Sera, è dal 1989 che alcuni investitori si lamentano della scarsa chiarezza delle comunicazioni societarie della Parmalat. Nel 1994, un articolo di Malagutti su “Il Mondo” denunciava il gioco delle tre carte della società: le obbligazioni Parmalat erano oggetto di scambi poco chiari, alla fine dei quali i quattrini sembravano moltiplicarsi come i pani e i pesci di evangelica memoria.
I bilanci Parmalat erano così “puliti” da non giustificare proprio alcuna reazione? Il presidente Cardia ha puntualmente elencato al Parlamento ciò che la Consob ha fatto. Sono interventi effettuati quando proprio non se ne poteva fare a meno, e quando ormai era tardi. Forse intervenire prima non avrebbe risolto il problema, ma almeno ora si potrebbe dire che qualcuno stava provando a suonare un campanello d’allarme.
Non è poi escluso che se la Consob avesse condotto ispezioni presso i revisori, qualcosa sarebbe saltato fuori per tempo. Ma purtroppo la vigilanza sui revisori è occasionale, e avviene solo su segnalazione di presunte irregolarità. Ovvero, si rischia di intervenire quando i buoi sono scappati. A quanto pare, infatti, la Consob ha un piano di vigilanza sistematico solo per gli intermediari, non per revisori e società quotate. E infatti esiste un ispettorato per gli intermediari (ventotto persone su un totale di quattrocento dipendenti), non per gli altri soggetti.

Ma allora serve rafforzare la Consob? Certo, le servono più poteri e più risorse, non negli uffici amministrativi, ma in quelli operativi. Soprattutto serve cambiare mentalità. Magari, se a tempo debito, i dirigenti Consob avessero alzato la voce con quelli della Parmalat …

Per saperne di più

Per una valutazione dei primi venti anni di attività della Consob, si rinvia a G. Nardozzi e G. Vaciago (a cura di) “La riforma della Consob nella prospettiva del mercato mobiliare europeo”, Il Mulino, 1994.

F. Vella, Gli assetti organizzativi del sistema dei controlli tra mercati globali e ordinamenti nazionali, in “Banca, impresa, società”, 2001, p. 351.

G. Visentini e A. Bernardo (2001) La responsabilità della Consob per negligenza nell’esercizio dell’attività di vigilanza, Documento del Ceradi, Luiss, Roma, scaricabile da http://www.archivioceradi.luiss.it/documenti/archivioceradi/impresa/banca/Consob_Bernardo.pdf

(1) Si ripresenta qui lo stesso problema di conflitto di interessi evidenziato da Luigi Guiso per i revisori dei conti: chi controlla le carte non è il controllore, ma qualcuno scelto e pagato dal controllato…

Cirio, Parmalat e il conflitto di interesse, di Luigi Guiso

Il conflitto di interesse – si verifica quando un soggetto a cui sono istituzionalmente assegnate alcune finalità da perseguire con il suo operato, può da questo trarre vantaggi personali, minando il raggiungimento delle finalità assegnate – può costituire, se non riconosciuto e controllato, una seria minaccia per gli investitori, fino a ostacolare lo sviluppo finanziario.
Mercati finanziari poco sviluppati sono, a loro volta, un impedimento alla nascita delle imprese, alla loro crescita dimensionale, alla produzione e adozione di nuove tecnologie. In altre parole, un limite allo sviluppo economico.
Il rapporto del Cepr e del Icmb, “Conflicts of interests in the financial services industry: what should we do about them?“, che verrà discusso in un incontro ad hoc e di cui
www.lavoce.info pubblica oggi un riassunto, mette a fuoco le origini del conflitto di interesse nei mercati finanziari, ne esamina le conseguenze e analizza i pro e i contro delle misure per fronteggiarlo.

Perché ci interessa?

Cirio e Parmalat sono vividi esempi in cui il conflitto di interesse di alcuni degli operatori coinvolti ha avuto un ruolo cruciale. Vediamo perché.

Parmalat. Vi è il fondato sospetto che la società di revisione abbia mancato di rivelare tutta l’informazione in suo possesso certificando bilanci alterati e falsificati, consentendo alla truffa imbastita dal management della Parmalat di perpetuarsi, a danno degli investitori. Perché avrebbe operato in questo modo esponendosi al rischio di una perdita di reputazione in un mercato, come quello degli auditor, relativamente competitivo? Perché chiudere un occhio sulle azioni scorrette del management garantiva il ripetuto rinnovo del contratto come revisore e possibilmente l’aggiudicazione di qualche contratto di consulenza. L’auditor era in conflitto di interesse.

Ma non era il solo. Il collegio sindacale, il principale organo interno di controllo, ma nominato dal management e retribuito dalla stessa società, era in una simile situazione. Perché esercitare un controllo contabile severo (come da compito istituzionale del collegio sindacale) se questo poteva urtare il management e compromettere la riconferma dei sindaci alla scadenza? Anche questi ultimi si trovavano in conflitto di interesse.
In conflitto di interesse era pure il consiglio di amministrazione formato esclusivamente da persone nominate dal manager e scelte spesso tra gli dirigenti del gruppo. Che incentivo potevano avere, qualora a conoscenza delle malversazioni contabili che si compivano, ad andare contro il manager se da questo dipendeva la loro riconferma come consiglieri e, per alcuni, la carriera futura?

Cirio. In questo caso pure è stato avanzato il sospetto che alcune banche esposte verso la Cirio abbiano trasferito il rischio ai loro depositanti, “collocando” nei loro portafogli obbligazioni Cirio, della cui rischiosità erano, a differenza dei clienti, consapevoli. Il conflitto di interesse origina in questo caso dal fatto che la banca è allo stesso tempo prestatrice di fondi alle imprese e consulente finanziario e gestore dei portafogli dei propri clienti.
Emerge con la banca universale, modello che l’Italia ha adottato con il nuovo ordinamento bancario del 1993. Il rischio di conflitto di interesse nella banca universale era noto già dall’intenso dibattito svoltosi negli Stati Uniti nel 1933 in preparazione del Glass-Steagall Act. Ferdinand Pecora, consulente del Banking and Currency Commitee, evidenziava: “Si presume che una banca intrattenga un rapporto fiduciario e protettivo con i propri clienti e non di un venditore (…). L’introduzione e la diffusione dei nuovi compiti ha corrotto le fondamenta di questa tradizionale etica della banca”.

Evidentemente l’etica non era sufficientemente robusta da resistere agli incentivi derivanti dallo sfruttamento del conflitto di interesse. In Italia, le avverse conseguenze del potenziale conflitto di interesse nel nuovo modello di banca universale dopo il 1993 sono state largamente sottovalutate. Il caso Cirio le ha fatte emergere, ma la loro portata è verosimilmente molto più vasta.

Che fare?

I casi Cirio e Parmalat hanno portato il Governo, su iniziativa del ministro del Tesoro, a varare un disegno di legge che nelle intenzioni dovrebbe contenere norme sufficienti a proteggere i risparmiatori da simili casi nel futuro.
Manca qui lo spazio per entrare in dettaglio nel merito del provvedimento.
Ma un fatto emerge con chiarezza: nel disegno di legge non vi è traccia di norme mirate a regolare il conflitto di interesse di amministratori e sindaci. Quelle indirizzate a regolare il conflitto di interesse delle società di auditing sono, come è stato rilevato, insufficienti.
Non vi sono norme che richiamino i conflitti di interesse delle banche e individuino misure per fronteggiarli. Eppure, sono i conflitti di interesse alla base della scarsa protezione dei risparmiatori.
Più in generale, delle varie misure che il rapporto del Cepr suggerisce per limitare lo sfruttamento dei conflitti di interesse e che sono elencate nel riassunto pubblicato, nessuna trova spazio nel decreto governativo.
Al Parlamento, il compito di rivedere il testo, contribuendo a riassorbire il pericoloso sentimento antifinanziario che si è sviluppato tra i risparmiatori del nostro paese.

La sanzione intelligente, di Michele Polo

Nel dibattito sollevato dalla sconcertante vicenda Parmalat, Luigi Zingales ha prospettato l’introduzione di uno strumento, utilizzato negli Stati Uniti per facilitare l’individuazione di condotte criminose all’interno delle organizzazioni. Consiste nella possibilità di premiare quanti, dall’interno delle organizzazioni stesse, rivelino informazioni cruciali per lo svolgimento delle indagini: i cosiddetti whistle-blowers.

È forse utile per inquadrare potenzialità e limiti di questa proposta analizzarla alla luce del problema di law enforcement che le autorità debbono affrontare nel perseguire i crimini attuati da organizzazioni, e nello specifico i cosiddetti corporate crimes. Inoltre, risulterà utile considerare questa proposta alla luce dell’esperienza di strumenti analoghi già utilizzati negli Stati Uniti e in Europa.

Un crimine in collaborazione

La principale caratteristica dei crimini commessi da organizzazioni, rispetto ai crimini individuali, risiede nella struttura più complessa e articolata del soggetto che promuove l’azione illegale, che richiede il coinvolgimento e la collaborazione di molti individui.
All’interno di una organizzazione, inoltre, i benefici delle azioni illegali non sono ripartiti in egual modo tra tutti i soggetti che, con ruolo direttivo o esecutivo, partecipano alla loro realizzazione. Infine, le sanzioni, pecuniarie e penali, possono colpire molti soggetti all’interno dell’organizzazione, con ruoli e responsabilità diverse.
Nella vicenda Parmalat, ad esempio, ogni giorno apprendiamo nuove informazioni sulle tecniche di manipolazione contabile e di equilibrismo finanziario che hanno permesso l’accumularsi degli ingenti ammanchi, e di come numerosi uffici e funzionari partecipassero a queste operazioni.
I corporate crimes, pertanto, pur potendo determinare conseguenze ben più devastanti di quelle innescate dalla condotta delittuosa di un singolo soggetto, hanno in sé un elemento di debolezza che può essere sfruttata nel disegno delle politiche repressive e di indagine: la collusione (omertà) tra i soggetti promotori dell’azione delittuosa può saltare, con una conseguente diffusione di notizie preziose per le indagini.
Contro questa fragilità sono naturalmente molti gli strumenti che una organizzazione può mettere in campo, dai benefici monetari allargati ai membri attivi della malversazione (come non pensare al signor Fausto Tonna) alle sanzioni “sociali” che possono creare terra bruciata attorno a quanti rivelano informazioni preziose per le indagini.

Il disegno di una politica repressiva intelligente deve tenere conto di questi fattori messi in campo dalle organizzazioni per garantire la propria coesione e omertà, e prevedere incentivi adeguati a neutralizzarli.
L’analisi economica dell’applicazione della legge da questo punto di vista offre importanti spunti e riferimenti, che possiamo sintetizzare in questo modo:

1. L’incentivo dei singoli soggetti di una organizzazione a rivelare informazioni utili è relativamente basso quando le indagini non hanno ancora puntato l’attenzione sulla vicenda che li coinvolge: in questa fase, infatti, a fronte dei benefici che i soggetti ricevono dal partecipare all’azione delittuosa, il pericolo di subire l’azione della legge appare remoto.

2. Gli incentivi alla collaborazione, invece, risultano molto più elevati, inducendo a collaborare alle indagini, una volta che una inchiesta sia aperta, o almeno i rumors su eventuali malversazioni inizino a circolare. È in questa fase che tipicamente si osserva il moltiplicarsi delle collaborazioni (si pensi anche al periodo delle inchieste di Mani Pulite).

3. Maggiori sono i benefici offerti a quanti collaborano, più efficace risulta lo strumento. Se ad esempio viene previsto non solo l’annullamento della sanzione (monetaria o penale), ma addirittura un premio a quanti collaborino, come proposto da Zingales, l’incentivo a rompere l’omertà potrebbe essere sufficiente a far emergere rivelazioni anche in assenza di indagini già avviate.

4. La capacità delle imprese di “comprare” l’omertà dei propri dipendenti e funzionari è minore quando questi ultimi rischiano sanzioni penali, mentre è facilitata da un clima sociale omertoso che condanna la collaborazione.

I Leniency Programs

La politica di protezione nei confronti dei collaboratori di giustizia nelle indagini contro il crimine organizzato risponde sostanzialmente a questa logica. Queste indicazioni sono anche alla base della politica sanzionatoria adottata dalle autorità antitrust americana ed europea.
Il dipartimento di Giustizia americano è stato l’apripista nell’utilizzo dei cosiddetti “Leniency Programs”, programmi di riduzione o annullamento delle sanzioni monetarie e penali nei confronti dei soggetti coinvolti in pratiche di cartello che collaborino alle indagini.
Sono stati creati partendo dalla constatazione che i corporate crimes non erano adeguatamente scoraggiati da sanzioni anche pesanti, senza una sufficiente capacità (probabilità) di arrivare alla condanna.

Introdotti nel 1978, i Leniency Programs prevedevano inizialmente uno sconto nella sanzione solamente nel caso in cui i manager delle aziende coinvolti rivelassero informazioni prima che una indagine venisse avviata. In questa formulazione si rivelarono scarsamente efficaci, con uno o due casi ogni anno avviati sulla base di queste rivelazioni. Nel 1993 i criteri vennero riformati, prevedendo la possibilità di riduzioni, anche complete, nelle sanzioni penali qualora la collaborazione alle indagini fosse sostanziale e avvenisse anche dopo l’avvio delle indagini stesse.

Con queste nuove regole l’efficacia dei Leniency Programs americani si è fortemente potenziata, con una media di venticinque casi all’anno conclusi con successo.

La Commissione europea a partire dal 1996 ha introdotto strumenti analoghi, ulteriormente affinati nel 2002.
La lezione che ci viene dall’esperienza sanzionatoria in materia antitrust ci permette di imparare qualcosa di utile anche in materia di crimini finanziari.
Gli sconti nelle sanzioni (o addirittura i premi) non sono un sostituto per gli sforzi di indagine indipendente da parte delle autorità di vigilanza, dal momento che risultano più efficaci proprio quando le indagini iniziano a stringere il cerchio attorno alle condotte criminali. Così come la capacità di indagine e verifica sulle rivelazioni appare cruciale per evitare di essere catturati da collaboratori “infedeli”.

Gli sconti nelle sanzioni, d’altra parte, consentono più rapidità nel concludere le indagini e un accertamento più pieno dei fatti (e delle risorse distratte). Gli sconti, inoltre, alzando il prezzo della fedeltà dei dipendenti coinvolti in condotte delittuose, riducono il profitto delle imprese derivante da tali condotte. Possono quindi operare indirettamente da deterrente rispetto a questi comportamenti.
Infine, una cultura della legalità è background necessario per affiancare alla sanzione della legge quella sociale, e al premio al collaboratore il suo apprezzamento da parte della collettività.

Per saperne di più

M.Polo, Internal Cohesion and Competition among Criminal Organizations, in S. Pelzman e G. Fiorentini (eds.), The Economics of Organized Crime, Cambridge U.P. pp. 87-108, 1995.
M.Polo, Cosa Nostra: ritratto di un interno. Coesione e strutture, in Secondo Rapporto sulle priorità nazionali, Fondazione Rosselli, Milano, Mondadori (1995).
F.Ghezzi, M.Polo, Osservazioni sulla politica sanzionatoria della Commissione in materia antitrust: la Comunicazione sulla non imposizione di ammende, Rivista delle Società , v. XLIII, n.2-3, pp.682-731, 1998.
M.Motta, M.Polo, Leniency Programs and Cartel Prosecution, International Journal of Industrial Organization, 21 (3), 347-380, 2003

Il denunciante civico: il lato oscuro della forza, di Vincenzo Perrone

La storia di Parmalat sembra essere la conferma definitiva del noto proverbio: chi trova un amico trova un tesoro. Almeno fino a quando non arriva la Guardia di finanza. A Parma gli amici venivano tutti dallo stesso istituto di ragioneria, si conoscevano da anni, cambiavano società di revisione, ma mantenevano lo stesso cliente. Al centro di tutto vi era il nocciolo duro della famiglia: figli, zii, forse nipoti.

Dal capitale sociale…

Le relazioni economiche sono immerse in una rete di relazioni sociali. Legami di sangue, di amicizia, di fiducia e lealtà, di clan e dialetto, di comunanza culturale, religiosa o ideologica, aiutano a scegliere le parti con le quali preferibilmente scambiare, ci spingono a rischiare di più in queste relazioni economiche e ci consentono di farle durare nel tempo.
Queste relazioni hanno un tale valore per l’azione economica che negli studi organizzativi da qualche tempo si è cominciato a parlare di capitale sociale per intendere proprio le maggiori possibilità di azione e di successo economico di cui gode l’attore che ha una dotazione elevata di relazioni sociali positive e con attori potenti, competenti, ricchi e affidabili, quanto e più di lui. Si è scoperto che quanto più elevato è il capitale sociale di un individuo, tanto più facile sarà per lui trovare un nuovo lavoro, o un’azienda partner per un accordo di joint-venture, o un banchiere disposto a prestargli soldi.
Il capitale sociale è una forza che riduce anche la complessità delle forme organizzative di governo degli scambi: se possiamo fidarci delle persone che abbiamo nella nostra rete di relazione, avremo meno bisogno di strumenti di controllo organizzativo costosi, come le regole formali o la gerarchia.

Il capitale sociale sostiene la produzione e la riproduzione del capitale economico: lo sapeva bene Georges Duroy l’arrivista assoluto detto “Bel-Amì” e con lui tutti i frequentatori di salotti e terrazze importanti. Lo sanno quanti operano in un distretto industriale e si occupano di alleanze tra imprese, o coloro che affidano alla società di consulenza dove hanno iniziato una brillante carriera la ricca commessa che ora possono firmare come amministratore delegato di un’impresa.

…Al familismo amorale

Del capitale sociale si parla quindi bene. Forse troppo. Nella vicenda Parmalat, relazioni personali di parentela e di amicizia, reti chiuse e cementate dalla fiducia e dalla conoscenza personale hanno svolto un ruolo tale da consentire il protrarsi di una truffa di quelle dimensioni per ben quindici anni.
Esaminata da questa prospettiva la storia dell’azienda, del suo fondatore e della rete di relazioni che ha saputo sviluppare nel tempo ci ricorda che il capitale sociale è neutro rispetto alle finalità dell’azione che sostiene: può aiutare a raggiungere i propri scopi Gino Strada come Totò Riina.
E può produrre esiti negativi di entità preoccupante.
Può fare assomigliare Parma a Montegrano, il nome fittizio scelto negli anni Cinquanta dal sociologo statunitense Edward C. Banfield per il paese della Basilicata emblema del nostro “familismo amorale”. Ovvero la tendenza a restringere la validità e l’obbligo di rispetto delle norme morali alla sola ristretta cerchia delle proprie relazioni familiari, sviluppando una contrapposizione netta tra famiglia (e famigli), per il bene dei quali tutto si giustifica, e società in generale.
Può trasformare la rete di relazioni amicali e di fiducia in una trappola nella quale si fa forza sui “debiti” e “crediti” sociali per ottenere acquiescenza, se non proprio connivenza, rispetto a comportamenti scorretti. O più semplicemente può stendere un velo opaco di benevola presunzione pro-reo che riduce l’incisività dei controlli, ritarda i dubbi e le verifiche, lascia prosperare il male.

Un sostituto del capitale finanziario

Verrebbe da pensare che in quella fondamentale componente del capitalismo italiano rappresentata dalle aziende a proprietà familiare, il capitale sociale sia stato usato al posto di quello finanziario per sostenere la crescita senza perdere il controllo.
Rivolgersi all’amico banchiere o farsi consigliare fantasiose e ardite operazioni societarie da qualche esperto, non meno vicino e disponibile, forse costa e preoccupa meno di aprirsi al mercato dei capitali, di fortificare le proprie strutture organizzative con immissione di manager capaci e relativamente indipendenti e di distinguere in modo più netto e trasparente il patrimonio aziendale da quello familiare.
L’era moderna comincia quando le relazioni tra estranei sono rese possibili e vantaggiose da un sistema di regole definito e fatto rispettare da una autorità legittimata, da diritti e doveri, individuali e collettivi, impersonali e universali, dall’autodisciplina determinata dalla necessità di competere in modo ordinato nel processo di allocazione di risorse scarse. Senza questi ingredienti essenziali il capitale sociale, da solo, rischia di essere il pericoloso pretesto per un salto all’indietro in un mondo nel quale la fedeltà conta più della fiducia.
Dobbiamo allora imparare a osservare meglio anche il lato oscuro del capitale sociale. E darci gli strumenti che possano servire a spezzare questa utile, ma a volte pericolosa rete di legami.

Whistle-blower e spie

Negli Stati Uniti nel gennaio del 2002 è stata varata una nuova legge, nota come “Sarbanes-Oxley Act”, che ha come finalità dichiarata quella di proteggere gli investitori migliorando l’accuratezza e l’affidabilità delle informazioni offerte dalle aziende e più in generale della loro gestione contabile e finanziaria. Nata come reazione decisa ai noti scandali, resta da vedere quanto sarà efficace.
Questa legge, oltre a prevedere fino a venticinque anni di galera per chi si rendesse colpevole di frodi al mercato azionario, parla della protezione del “whistle-blower”, letteralmente del soffiatore di fischietto. La spia, diremmo forse malignamente noi, visto che il colpo di fischietto serve per richiamare l’attenzione di chi sta fuori dall’azienda su cose non troppo pulite che vengono fatte e occultate all’interno.
La copiosa letteratura organizzativa che esiste sul fenomeno del whistle-blower, lo definisce infatti come colui o colei che fornisce informazioni a terzi relativamente ad azioni compiute dalla propria azienda, che potrebbero danneggiare altri o l’interesse pubblico, perché illegali o socialmente dannose. Corruzione, falso in bilancio, inquinamento, reati contro il diritto del lavoro, tanto per fare qualche esempio tra i casi più studiati.
Ci si è chiesti cosa motiva questo delatore a fin di bene. Valori morali a parte, la risposta sta nel calcolo dei benefici che si possono ottenere impedendo all’azienda di continuare nel proprio comportamento criminale in rapporto ai costi della denuncia. Costi in primo luogo determinati dalle ritorsioni che è lecito aspettarsi da parte dei manager responsabili dei comportamenti illeciti.

La mano pubblica può intervenire per rendere più conveniente questo calcolo e incentivare quindi le denunce dall’interno. Il Sarbanes-Oxley Act prevede espressamente per il whistle-blower la totale compensazione di qualsiasi danno dovesse subire a causa delle ritorsioni aziendali.
Ma si potrebbe essere ancora più proattivi, come proposto da Luigi Zingales proprio su lavoce.info, prevedendo premi proporzionali al danno evitato alla collettività o agli investitori con la denuncia.
Molti scandali italiani, a cominciare da tangentopoli, sono caratterizzati da una compatta omertà aziendale che curiosamente non ha attratto finora l’attenzione che forse meriterebbe.

Questo anche se la solitudine del politico che intasca la mazzetta richiede spesso una organizzazione criminale meno articolata e sofisticata di quella che l’azienda che gliela vuole dare deve mettere in piedi. E per tenere in vita una truffa enorme per quindici anni su scala globale occorre probabilmente coinvolgere un numero cospicuo di persone. Tutte pronte a parlare. Dopo. E tutte pronte a dire la stessa cosa: che eseguivano ordini irrifiutabili provenienti dall’alto.
Se l’onestà non paga, bisogna cambiare gli incentivi che la rendono la scelta migliore.
E magari cominciare a insegnare ai nostri figli una tiritera diversa da “chi fa la spia non è figlio di Maria…”

L’analisi finanziaria si è fermata a Parma, di Giuseppe Montesi

Il recente fallimento di Parmalat ha chiamato in causa la capacità di analisi e di controllo della comunità finanziaria. Tutti si chiedono come sia stato possibile che per anni nessuno tra banche, società di rating e di revisione in Italia e all’estero si sia accorto della reale situazione del gruppo.
Ormai è certo che da lungo tempo i dati contabili dell’azienda venivano alterati in modo da fornire una visione ufficiale distorta delle effettive condizioni finanziarie. Tuttavia, ci sembra che oggi l’attenzione sia concentrata prevalentemente sulle frodi contabili operate dal management, e sulle presunte distrazioni di fondi da parte del maggiore azionista. Elementi estremamente importanti, che però rischiano di far passare in secondo piano gli aspetti economici della vicenda.

Un rischio prevedibile

Immaginare che il “buco” di miliardi di euro sia solo il frutto di una appropriazione illecita di fondi è infatti difficile.
È invece molto più probabile che buona parte del “buco” sia il risultato di una gestione non redditizia del business, conseguenza di una politica di acquisizioni insensata e investimenti sbagliati.
È infatti possibile dimostrare (e si rinvia all’articolo di approfondimento per i dettagli dell’analisi) che anche prescindendo dai falsi in bilancio, era comunque possibile stimare per tempo l’effettivo rischio finanziario del gruppo Parmalat utilizzando correttamente le tecniche di analisi finanziaria. E intuire che i conti ufficiali dovevano necessariamente nascondere qualcosa.
Si deve comunque sottolineare che fino alla fine del 2003 la comunità finanziaria non scontava un grave rischio di crisi finanziaria imminente per Parmalat.

Fino a dicembre, l’azienda godeva di un rating ufficiale di Standard&Poor’s pari a BBB- . Secondo S&P corrisponde a una probabilità di default pari a 0,43 per cento entro un anno e a 1,36 per cento a due anni. Anche gli spread di mercato sui bonds Parmalat sono aumentati solo nel mese di novembre, quando sono sorti i primi dubbi sul fondo Epicurum.
I target price sul titolo azionario Parmalat delle maggiori banche di investimento erano in linea con le quotazioni di mercato, che negli ultimi anni, si sono di solito collocate tra i 2 e i 3 euro. Pertanto la capitalizzazione di mercato del capitale azionario presentava valori compresi tra 1.6 e 2.4 miliardi di euro, e un valore complessivo delle attività operative dell’azienda (Enterprise Value) compreso tra i 5 e i 5.8 miliardi di euro. (1)

Questi dati consentono di mettere in evidenza alcune anomalie.

1. Nell’ultimo consuntivo del 2002 Parmalat aveva debiti finanziari per quasi 6 miliardi di euro, ovvero un valore superiore al suo valore complessivo di mercato.

2. Il valore della capitalizzazione di mercato della società risultava inferiore a quello della presunta liquidità dichiarata, che era di oltre 3 miliardi di euro.

Troppa liquidità

Queste evidenze rappresentano una prima grossa stranezza e incoerenza che avrebbe dovuto far riflettere: una buona parte del valore di Parmalat era costituito da disponibilità liquide.
Inoltre, il capitale azionario aveva un valore solo in quanto vi erano disponibilità liquide, il cui valore dichiarato risultava maggiore rispetto alla capitalizzazione di mercato della società: un paradosso. Tanto che, se questi dati fossero stati veri, agli azionisti sarebbe convenuto distribuire tutta la liquidità esistente come dividendo ricavandone così un valore della partecipazione superiore a quello dato dalla vendita delle azioni sul mercato.
Se ne può quindi dedurre che evidentemente la gestione operativa di Parmalat non era tanto redditizia, quanto meno non abbastanza da supportare quel livello di indebitamento.
È bene soffermarsi su questo aspetto. E sottolineare come, da un punto di vista economico, non esistono debiti alti o bassi, ma esistono debiti sostenibili o insostenibili: i dati dicevano che l’indebitamento di Parmalat non era più sostenibile dal business aziendale.
La solvibilità del gruppo e le aspettative sulla capacità di rimborso del debito quindi dovevano risiedere in gran parte nella liquidità accumulata e non nelle capacità prospettiche di generare flussi di cassa.
Questa considerazione avrebbe dovuto far riflettere su una seconda stranezza: perché mai una società con consistenti disponibilità liquide, ben superiori alle esigenze fisiologiche di flessibilità finanziaria di una multinazionale come Parmalat, continuava negli anni a mantenere livelli di debito così elevati da risultare non più sostenibili dal business aziendale? Risposte convincenti al riguardo non sono mai state date dalla società, né tanto meno era possibile desumerle dalla normale logica economico-finanziaria.

Uno scenario improbabile

È agevole verificare l’assoluta incoerenza di un simile scenario. Se la liquidità era veramente disponibile non vi erano ragioni perché si continuasse a finanziare una società che aveva risorse finanziarie in abbondanza. Se questa non era invece “disponibile”, era logico presumere che fosse “necessaria”, importa poco per quali fini, alla gestione dell’azienda. E allora in questo caso non si capisce perché si sia continuato a dare credito a una società il cui valore complessivo non copriva ormai più da tempo il valore del debito.
È forse vero che sulla base delle informazioni disponibili non era possibile immaginare una situazione deficitaria delle dimensioni che sembrano emergere. Tuttavia, alcuni segnali inequivocabili sullo stato di salute dell’azienda c’erano da molto tempo. Purtroppo sono stati ignorati o non correttamente valutati da parte dell’intera comunità finanziaria internazionale. Ciò suggerisce che probabilmente occorrerebbe rivedere alcuni aspetti alla base dei processi di analisi e controllo del rischio finanziario, e riflettere maggiormente sui pericoli di alcuni meccanismi di funzionamento dei mercati finanziari che tendono spesso a essere autoreferenziali e ad adottare comportamenti emulativi.

(1) Su come sono ottenuti questi valori si faccia riferimento all’articolo di approfondimento.

Cos’è il decreto Parmalat, di Lorenzo Stanghellini

E’ ormai avviata per le principali società del gruppo Parmalat (Parmalat Spa e Parmalat Finanziaria Spa) la procedura accelerata di amministrazione straordinaria (da non confondere con l’amministrazione controllata) (1) disegnata dal Governo con il decreto-legge approvato subito prima di Natale proprio per rispondere alla crisi della società di Collecchio. In cosa consiste questa procedura?

Dalla “legge Prodi” alla “Prodi-bis”

Approvata d’urgenza nel 1979, la cosiddetta legge Prodi sull’amministrazione straordinaria delle grandi imprese in crisi (legge 95) prevedeva la pura continuazione dell’attività delle imprese insolventi in vista di un miracolo da attendere per anni a spese dei creditori. È stata abrogata nel 1999 dopo un lungo contenzioso con le istituzioni europee, che a più riprese avevano condannato l’Italia per la violazione delle regole sugli aiuti di Stato alle imprese, e sostituita con una normativa più flessibile, comunemente definita “Prodi-bis” (decreto legislativo 270).

La normativa del 1999 si applica alle imprese con almeno duecento dipendenti e prevede alternativamente:
(a) la cessione dei complessi aziendali dell’impresa insolvente: in attesa di trovare un acquirente vengono mantenuti in attività per un periodo massimo di un anno;
(b) la ristrutturazione economica e finanziaria dell’impresa insolvente, da completare entro un periodo massimo di due anni.
Quale obiettivo debba essere perseguito viene deciso al termine di una fase di analisi che dura da due a cinque mesi. Se nessuno dei due obiettivi sembra ragionevolmente raggiungibile (quando ad esempio l’attività distrugge irrimediabilmente ricchezza, sì che non è ragionevole sperare di trovare acquirenti), l’impresa viene dichiarata fallita.

Quali sono le deroghe

Le deroghe introdotte dal decreto Parmalat alla Prodi-bis del 1999 si applicano alle aziende con almeno mille dipendenti (e debiti per almeno un miliardo di euro). Tali deroghe, che mirano ad una accelerazione della procedura, sono essenzialmente le seguenti, concentrate soprattutto nella fase di avvio:

(a) la decisione sull’indirizzo da scegliere (la ristrutturazione) è immediata, senza la fase di analisi, ed è lasciata all’impresa e al ministro (e non al tribunale);

(b) il ministro (e non il tribunale) sceglie il commissario straordinario. Nel caso Parmalat il Ministro ha nominato Bondi, persona indipendente dagli azionisti di controllo, che era già presidente delle società insolventi e che ha pertanto assunto anche le nuove funzioni;

(c) il commissario può fare dismissioni immediatamente, anche prima dell’approvazione del programma, purché con l’approvazione del ministro (l’1,5% di Mediocredito Centrale ceduto ieri a Capitalia è la prima
dismissione e il Parma calcio potrebbe seguire a breve);

(d) il commissario può proporre le azioni revocatorie (cioè di impugnativa degli atti posti in essere dalla società e di restituzione dei pagamenti da essa effettuati), che di regola possono essere proposte solo in fase di liquidazione del patrimonio (Parmalat è invece in corso di ristrutturazione).

Secondo le stesse regole della Prodi-bis, Parmalat dovrà completare la ristrutturazione economica e finanziaria entro due anni. Se non lo farà, e salvo normative di salvataggio, si procederà alla liquidazione dei suoi beni.

Perché una legge “ad hoc”?

C’era bisogno di una legge speciale? No, se si fosse fatta la riforma delle procedure ordinarie, che quando sono sufficientemente rapide e flessibili (come in alcuni progetti di legge già presentati) rispondono perfettamente anche a crisi di grandissime imprese come la Parmalat. Con l’attuale normativa, invece, la rapidità della crisi di Parmalat e l’esigenza di garantire continuità alla sua attività hanno creato lo spazio per un intervento d’emergenza. Rapidità e flessibilità dovrebbero tuttavia caratterizzare tutte le procedure, per grandi e piccole imprese, ed il decreto Parmalat è la conseguenza dell’incapacità politica di giungere ad una riforma generale della legge fallimentare.

Non si comprende, però, perché l’accelerazione dell’avvio della procedura abbia portato al rafforzamento dei poteri del ministro: lo stesso risultato poteva essere raggiunto anche lasciando i poteri al tribunale. Sembra quindi che la gravità della crisi sia stata la scusa per preparare la strada a decisioni meno trasparenti – ma questo, per ora, è solo un processo alle intenzioni.

Un salvataggio statale?

Sembra invece fuori luogo gridare al salvataggio statale, almeno nella sua versione attuale. E’ importante ricordare cosa fosse già presente nella Prodi-bis del 1999: il decreto Parmalat altro non è se non una procedura di amministrazione straordinaria accelerata, che evita – ad esempio – l’inutile periodo di “analisi” che si è avuto per la Cirio e le incertezze connesse a tale ritardo.
E’ infatti evidente che l’attività di Parmalat doveva innanzitutto essere continuata, soprattutto nell’interesse dei creditori, e sarebbe stata continuata anche con la Prodi-bis. Può darsi (ed è anzi probabile) che Parmalat abbia distrutto ricchezza, ma ciò non è una buona ragione per distruggere anche quella (poca o tanta) che resta. Invocare il fallimento come sanzione per gli errori o i per i falsi compiuti dai manager e dai controllori è operazione antistorica, che trascura che i primi ad essere puniti sarebbero in questo caso i creditori: la punizione per gli azionisti resta comunque. Si valuti dunque con calma quali attività di Parmalat debbono essere cessate o ristrutturate, ma nel frattempo occorre tenerle in vita. E’ semplice fare di un acquario un fritto misto, mentre l’operazione contraria è più difficile.
Nessun aiuto di Stato, inoltre, è previsto dal decreto Parmalat. Certo, non si può escludere che in futuro vengano erogati aiuti di Stato a Parmalat o ai soggetti colpiti dal suo dissesto: saranno tuttavia quelli a dover essere valutati alla luce dei principi comunitari ed eventualmente a dover essere criticati. Anche la deroga per le azioni revocatorie (vedi sopra) è un regime di favore e può configurare una anomala forma di finanziamento di Parmalat, ma non è di per sé un aiuto di Stato. (2) Essa è quindi discutibile proprio in quanto deroga, ma è inutile invocare Bruxelles: per criticarla basta il principio di eguaglianza previsto dalla Costituzione italiana.

Strumenti per la ristrutturazione finanziaria

Il decreto Parmalat rappresenta tuttavia un’occasione perduta per ampliare la gamma degli strumenti di soluzione delle crisi d’impresa, che nel nostro paese è veramente molto ristretta e che tale è rimasta.
Per Parmalat il Governo ha scelto la seconda delle due alternative possibili secondo la Prodi-bis del 1999. Quella che mira a effettuare, assieme a una ristrutturazione industriale, anche una ristrutturazione finanziaria. Tuttavia, mentre il commissario straordinario ha sostanzialmente pieni poteri sul lato industriale, non ha alcun potere di incidere sul lato dell’indebitamento: per ristrutturare il passivo deve ottenere il consenso di ciascuno dei creditori, ai quali può offrire quote di capitale (azioni o obbligazioni convertibili in azioni) solo se l’assemblea dei soci lo consente. (3)
Anche nella “variante Parmalat” dell’amministrazione straordinaria, l’unica possibilità di “ristrutturare” il passivo è dunque quella di un concordato (articolo 78 decreto legislativo 270/1999), che consente di modificare le condizioni del debito con l’autorizzazione del tribunale.
Il concordato è però strumento alquanto rigido, perché include tutti i creditori non garantiti in un unico grande gruppo e richiede, come nel caso Parmalat, che migliaia di creditori (banche, obbligazionisti, etc.) siano trattati esattamente allo stesso modo, salvo un loro consenso individuale a un trattamento peggiore.
Questa carenza della legislazione italiana e di molti paesi europei (esclusa la procedura tedesca che divide i creditori in classi, e quella americana di Chapter 11 che addirittura consente di attribuire ai creditori anche azioni della società ristrutturata), non è minimamente sanata dal decreto Parmalat, che si limita ad accelerare la procedura di amministrazione straordinaria così com’è.

Si deve dunque ritenere che il compito di Enrico Bondi sia destinato a fallire? Forse no, soprattutto se il Parlamento e il Governo, sollecito ma non molto fantasioso, gli daranno più armi al momento in cui il “decreto Parmalat” dovrà essere convertito in legge.

(1) L’amministrazione controllata produce infatti una mera sospensione delle azioni dei creditori in vista di un risanamento più o meno spontaneo, ed è quindi poco adatta a situazioni di crisi che richiedono interventi energici e incisivi. È scarsamente utilizzata nella pratica.

(2) Corte di Giustizia delle Comunità Europee, caso PreussenElektra AG del 2001 (caso C-379/98).

(3) Quando il passivo supera l’attivo, i soci hanno interesse a consentire l’ingresso dei creditori nel capitale solo se viene loro riservato qualche vantaggio, quale ad esempio il mantenimento di una quota di minoranza che a loro non spetterebbe sulla base dei dati patrimoniali della società

Riforma fiscale, le verità nascoste

Sommario, a cura di Tullio Jappelli

La riforma delle aliquote dell’IRE e la sostituzione delle detrazioni di imposta per carichi famigliari con deduzioni dal reddito rappresentano, per il Governo, il fiore all’occhiello dell’intera legge finanziaria; lavoce.info documenta gli effetti della riforma dell’IRE e degli altri provvedimenti previsti in finanziaria sulla pressione fiscale complessiva, le conseguenze per la distribuzione dei redditi e l’aumento del numero di aliquote effettive implicite nella riforma fiscale. Propone anche i risultati di un sondaggio sull’opportunità di tagliare le imposte e sui possibili effetti della riforma fiscale sui consumi degli italiani.

Vero o falso, di Maria Cecilia Guerra

L’emendamento alla Finanziaria presentato lunedì 29 novembre dal Governo è destinato a fare discutere ancora a lungo. È bene però che la discussione avvenga sulla base di una corretta informazione.
Segnaliamo allora ai nostri lettori due casi di informazione non corretta.

1) La no tax area

Affermazione.

“Per effetto dell’emendamento del Governo la no tax area passerà da 7.500 euro a circa 14mila euro per un lavoratore dipendente con due figli a carico”.
L’affermazione è falsa

Che cosa è infatti la no tax area?
Con questo termine (che come tale non compare in nessun testo di legge) ci si riferisce generalmente alla deduzione dal reddito imponibile concessa a tutti i redditi Irpef, in misura diversa in relazione alla loro tipologia (redditi di lavoro dipendente, autonomo, pensione e altri) e del loro ammontare. Per un lavoratore dipendente essa è pari a 7.500 euro e decresce al crescere del reddito per annullarsi in corrispondenza di un reddito di 33.500 euro.
La “no tax area” così definita non viene modificata dall’emendamento del Governo.
Per la particolare figura considerata (lavoratore dipendente con coniuge e due figli a carico) il valore massimo che essa può assumere

passa da 7.500 euro a 7.500 euro

Nel dibattito recente lo stesso termine “no tax area” viene utilizzato per individuare il valore massimo di reddito che si può ottenere senza dovere pagare neanche un euro di imposta e cioè il valore massimo di reddito esente da imposta. Questa seconda no tax area dipende non solo dalla deduzione di cui al punto precedente, ma anche dalle agevolazioni riconosciute per carichi famigliari. Le agevolazioni per carichi famigliari non sono state introdotte dall’emendamento governativo. Esistono già nel nostro ordinamento sotto forma di detrazioni dall’imposta (riduzioni cioè dell’imposta dovuta). L’emendamento del Governo trasforma queste detrazioni in deduzioni (riduzioni del reddito a cui si applica l’imposta) e ne ridefinisce l’ammontare. Rispetto alla situazione precedente, il beneficio in termini di minore imposta pagata dal contribuente aumenta per redditi bassi e diminuisce per redditi medio alti. Se si tiene conto della deduzione di cui al punto precedente e delle agevolazioni per carichi famigliari, la no tax area intesa in questa seconda accezione, per la particolare figura considerata (lavoratore dipendente con coniuge e due figli a carico)

passa da 12.828,5 euro a 14.034 euro

2) Il contributo di solidarietà

Affermazione
“È introdotto un contributo di solidarietà del 4 per cento oltre i 100mila euro, che servirà per aumentare le deduzioni alle famiglie a basso reddito” o anche “che servirà per finanziare la deduzione prevista per le spese sostenute per le badanti”.
L’affermazione è falsa.

L’emendamento interviene sulla struttura delle aliquote modificandola nel modo seguente:


Scala delle aliquote attuale

Scaglioni in euro

Aliquota legale

Fino a 15000

23

da 15000 a 29000

29

da 29000 a 32600

31

da 32600 a 70000

39

oltre 70000

45

Scala delle aliquote secondo l’emendamento

Scaglioni in euro

Aliquota legale

Fino a 26000

23

da 26000 a 33500

33

Da 33500 a 100000

39

oltre 100000

43 = 39 +4 (aliquota legale + contributo di solidarietà)

Come si può notare le aliquote di imposta sono di fatto, dopo la riforma, quattro invece che cinque. Per farle apparire in un numero inferiore (tre, più prossimo alle due previste dalla delega), la quarta viene costruita come somma della terza più un “contributo di solidarietà” del 4 per cento. L’effetto è assolutamente identico a quello che si otterrebbe prevedendo esplicitamente una quarta aliquota.
Per la parte di reddito che eccede i 100mila euro l’aliquota dell’imposta cala quindi dall’attuale 45 per cento al previsto 43 per cento (39 di aliquota legale più 4 per cento di contributo di solidarietà). Come può uno sgravio di imposta essere utilizzato per finanziare l’aumento delle deduzioni alle famiglie a basso reddito? O la deduzione per le badanti?

Le famiglie dopo la riforma fiscale, di Massimo Baldini e Paolo Bosi

Con la presentazione al Senato dell’emendamento sulla riforma dell’Ire, la riforma fiscale ha raggiunto un sufficiente grado di definizione. In ogni caso, è sulla base di esso che i cittadini potranno misurare il grado di realizzazione dei programmi del Governo in questa legislatura.
La riforma dell’Irpef è stata realizzata, come noto, in due fasi, la prima delle quali è stata attuata nel 2003. Qui facciamo il punto della valutazione dei suoi effetti, considerando dapprima il secondo modulo, varato con la Finanziaria per il 2005, e presentando successivamente elementi di valutazione sulla riforma complessiva.

Il secondo modulo

Dopo un mese di vivace discussione all’interno della maggioranza, che a un certo punto è sembrata sfociare nella rinuncia al varo del secondo modulo, dall’emendamento finale emerge una struttura dell’Ire a tutti gli effetti di quattro aliquote dal 23 al 43 per cento. Su questo aspetto ci siamo già soffermati in un precedente articolo .
L’aspetto più innovativo a cui ha portato il dibattito delle ultime settimane è costituito da una nuova struttura di deduzioni per carichi di famiglia (coniuge, minori), con interventi di favore nei confronti dei minori con meno di tre anni o portatori di handicap e deduzioni per spese per servizi di cura . Scompaiono quindi le vecchie detrazioni per famigliari a carico e anche la detrazione speciale per dipendenti, autonomi e pensionati. È da segnalare che, rispetto agli annunci di un mese fa, nell’emendamento non v’è traccia dell’aumento degli assegni familiari. Il costo di questa tranche di riforma è valutabile in 6,5 miliardi di euro.
La tabella 1 mostra la distribuzione degli sgravi fiscali medi per livelli di reddito imponibile, sui contribuenti individuali. Vengono confermati gli aspetti di iniquità distributiva della misura già segnalati: in sintesi, al 50 per cento più povero dei contribuenti va il 12,5 per cento dello sgravio mentre il 16,5 per cento dei contribuenti più ricchi gode del 60 per cento del totale.
Nella figura 1 le barre mostrano la distribuzione di frequenza dei contribuenti per classi di reddito complessivo, mentre la linea indica il risparmio medio di imposta per ogni classe: lo sgravio ha generalmente un andamento crescente, temperato solo nell’intervallo tra 45 e 80mila euro di imponibile in ragione del venire meno delle deduzioni familiari. L’effetto di abbassamento delle aliquote più elevate gonfia poi gli sgravi per i redditi più elevati.
Su base familiare – quella più rilevante per valutare gli effetti distributivi – l’esito del secondo modulo è sintetizzato nella tabella 2, in cui, per decili di reddito equivalente, sono presentati gli sgravi fiscali in euro (non equivalenti). Lo sgravio medio per famiglia è di 325 euro, ma al risparmio di 17 euro delle famiglie del primo decile si contrappone quello di 1.164 euro del decimo delle famiglie più benestanti. La insoddisfacente performance distributiva è attribuibile sostanzialmente all’incapacità dell’Ire di affrontare le condizioni economiche delle famiglie incapienti. L’abbandono della proposta di aumento degli assegni familiari, un trasferimento che raggiunge anche i lavoratori dipendenti e pensionati che non pagano l’Irpef, rende quindi ancora più evidente questo limite della riforma.
Se immaginiamo di dividere la famiglie italiane in tre gruppi definiti per valori crescenti di reddito, si può dire che il 30 per cento più povero ottiene in media un risparmio annuo di circa 70-100 euro; le classi medie di circa 200, mentre il 30 per cento più benestante ottiene un risparmio variabile tra i 500 e 1.200 euro. A conferma di queste differenze, si noti che il 20 per cento più ricco ottiene il 51 per cento dei risparmi totali di imposta.
La tabella 3 mostra poi la dimensione degli sgravi medi per alcune tipologie di famiglie, differenziate per condizione professionale del capofamiglia. Le famiglie dei pensionati, ad esempio, pur rappresentando il 40 per cento delle famiglie italiane, ottengono solo il 22 per cento degli sgravi totali.

La riforma complessiva

La riforma nel suo complesso (primo e secondo modulo) comporterà una riduzione dell’incidenza media di poco più del 2 per cento del reddito imponibile. La sua distribuzione per decili è documentata dalla tabella 4 e dalla figura 2. Anche tenendo conto del fatto che il primo modulo della riforma era più orientato alle famiglie meno abbienti, la maggioranza delle famiglie appartenenti ai primi due decili di reddito non ha ricevuto benefici significativi. E si conferma la modesta efficacia sulle famiglie dei primi due decili. In percentuale dell’imponibile, lo sgravio complessivo decresce dal 3,4 per cento delle famiglie del terzo decile sino all’1,5 di quelle più agiate.
Questo esito è però il risultato dell’applicazione di due strumenti: la progressività (definita dalla struttura delle aliquote e delle detrazioni della no tax area) e la sostituzione delle detrazioni per carichi familiari con deduzioni.
Nella figura 3 si tenta una scomposizione del ruolo relativo di questi due strumenti. Si osserva che la gran parte dello sgravio è attribuibile alla modificazione delle aliquote, mentre un peso dell’ordine di appena il 10 per cento deriva dalla introduzione delle deduzioni per familiari a carico. Appare quindi impropria l’enfasi posta da alcuni commentatori sull’importanza di questa riforma per la famiglia, soprattutto se si tiene conto che dal prossimo anno si profila l’abolizione dell’assegno di mille euro per il secondo figlio.
La componente delle deduzioni familiari ha però un ruolo nettamente più importante per le famiglie più povere, dato che rispetto alle precedenti detrazioni, le deduzioni sono state disegnate in modo selettivo (si annullano per imponibili attorno a 80mila euro).

Una riforma al 25 per cento

Rispetto agli annunci contenuti nella legge delega di riforma del sistema fiscale e alla struttura a due aliquote là indicata, la promessa appare realizzata per meno della metà. Ma in altri settori le promesse sono state mancate in misura maggiore.
L’abolizione dell’Irap prometteva sgravi alle imprese per 33 miliardi, realizzati solo per 500 milioni. Altre imposte sono state aumentate. Limitando l’attenzione solo a quelle messe in campo con la Finanziaria per il 2005, si potrebbe fornire una più adeguata valutazione dell’impatto delle riforme fiscali sulle famiglia tenendo conto, ad esempio, di parte delle maggiori imposte introdotte (studi di settore, catasto, Tarsu, accise, giochi e lotto, acconti Irpef, eccetera).
Pur con notevole approssimazione, si può stimare che sulle famiglie finiranno per gravare 5 miliardi di ulteriori tributi. Lo sgravio netto per le famiglie si ridurrebbe in questo modo a poco più di 7 miliardi; un quarto di quanto promesso.

Tab. 1 – Risparmi medi di imposta del secondo modulo di riforma dell’Ire per classi di reddito imponibile individuale

Reddito

Distribuzione %

Risparmi di imposta

Risparmi in %

Ripartizione %

imponibile

dei contribuenti

In euro

dell’imponibile

dei risparmi

0-5

9,0

0

0,0%

0,0%

5-10

22,4

21

0,3%

2,4%

10-15

20,7

114

0,9%

12,0%

15-20

19,8

100

0,6%

10,0%

20-25

11,6

268

1,2%

15,7%

25-30

5,9

467

1,7%

13,9%

30-35

2,5

492

1,5%

6,1%

35-40

1,8

637

1,7%

5,7%

40-45

1,1

758

1,8%

4,3%

45-50

0,9

688

1,4%

3,1%

50-55

0,6

632

1,2%

1,9%

55-60

1,2

567

1,0%

3,3%

60-65

0,5

404

0,6%

1,0%

65-70

0,4

416

0,6%

0,8%

70-75

0,1

317

0,4%

0,2%

75-80

0,2

916

1,2%

1,1%

80-85

0,1

989

1,2%

0,6%

85-90

0,2

1276

1,5%

1,2%

90-95

0,1

1714

1,9%

0,5%

95-100

0,2

1862

1,9%

2,0%

>100

0,9

3320

2,0%

14,3%

Totale/media

100,0

198

1,1%

100,0%



Tab.2 – Secondo modulo della riforma – Effetti sulle famiglie per decili di reddito equivalente

Decili di imponibile equivalente

Imponibile medio familiare

Irpef media 2004

Irpef media 2005

Risparmio di imposta

Ripartizione del risparmio totale

Incidenza media

irpef 2004

Incidenza media

irpef 2005

Variaz. Incid.media

% delle famiglie che guadagna

1

4653

17

1

17

1%

0,4%

0,0%

-0,4%

2%

2

9629

148

75

72

2%

1,5%

0,8%

-0,8%

27%

3

13435

803

660

143

4%

6,0%

4,9%

-1,1%

58%

4

16633

1709

1559

150

5%

10,3%

9,4%

-0,9%

59%

5

20132

2538

2327

211

6%

12,6%

11,6%

-1,0%

54%

6

25796

3727

3466

261

8%

14,4%

13,4%

-1,0%

55%

7

30221

5063

4767

296

9%

16,8%

15,8%

-1,0%

67%

8

36185

6614

6227

387

12%

18,3%

17,2%

-1,1%

82%

9

47802

10526

9980

546

17%

22,0%

20,9%

-1,1%

95%

10

93273

29219

28055

1164

36%

31,3%

30,1%

-1,2%

99%

Totale

29765

6034

5709

325

100%

20,3%

19,2%

-1,1%

60%


Tab. 3 – Secondo modulo della riforma: risparmi di imposta medi familiari per alcune tipologie di famiglie

Professione del capofamiglia

% delle famiglie

Reddito imponibile medio

Irpef 2004

Irpef 2005

Risparmio medio

Ripartizione del risparmio totale

Operaio

17

25254

3702

3470

233

12%

Impiegato,insegnante

15

36610

7397

6997

400

19%

Dirigente

4

64289

18408

17600

808

9%

Lav. indipendente

12

47501

13058

12409

649

25%

Pensionato

41

22867

3753

3578

174

22%

Altro

11

20959

4004

3622

382

13%

Totale

100

29765

6034

5709

325

100%



Tab.4 – Riforma complessiva – Effetti sulle famiglie per decili di reddito equivalente

Decili di imponibile equiv.

Imponibile medio familiare

Irpef media 2004

Irpef media 2005

Risparmio di imposta

Ripartiz.

del risparmio totale

Incidenza media irpef 2004

Incidenza media irpef 2005

Variazione incidenza media

% delle famiglie che guadagna

1

4653

30

1

29

0%

0,6%

0,0%

-0,6%

9%

2

9629

311

75

236

4%

3,2%

0,8%

-2,4%

63%

3

13435

1115

660

455

7%

8,3%

4,9%

-3,4%

92%

4

16633

2035

1559

476

8%

12,2%

9,4%

-2,9%

99%

5

20132

2854

2327

527

9%

14,2%

11,6%

-2,6%

97%

6

25796

4096

3466

630

10%

15,9%

13,4%

-2,4%

99%

7

30221

5446

4767

680

11%

18,0%

15,8%

-2,2%

100%

8

36185

6994

6227

767

12%

19,3%

17,2%

-2,1%

100%

9

47802

10849

9980

869

14%

22,7%

20,9%

-1,8%

100%

10

93273

29482

28055

1427

23%

31,6%

30,1%

-1,5%

100%

Totale

29765

6323

5709

614

99%

21,2%

19,2%

-2,1%

86%


Gli italiani e la riduzione delle imposte: un’indagine de lavoce.info, di Giuseppe Pisauroe Paola Monti

La riduzione delle imposte domina il dibattito politico da mesi. Dopo tanti annunci che indicavano nel taglio delle aliquote dell’Irpef l’obiettivo principale (per tutti i redditi? solo per i redditi bassi e medi? solo per i redditi medio-alti?), sembra che l’idea sia stata accantonata (o meglio, posticipata a data elettorale…) e sostituita dalla promessa di una riduzione dell’Irap a partire dal 2005.

Il campione

Ma gli italiani pensano veramente che la riduzione delle tasse sia la priorità nazionale? E, nel caso, quali imposte vorrebbero veder diminuire?
Per saperlo, abbiamo provato a rivolgere queste domande a un campione di cittadini. Il metodo scelto è stato quello del sondaggio tramite internet. Grazie al supporto della società Carlo Erminero & Co., sono stati contattati via web 2.300 individui e, nell’arco di pochi giorni, 954 di queste persone hanno risposto al sondaggio restituendo il questionario compilato.
Questo metodo di indagine chiaramente presenta problemi non indifferenti di rappresentatività del campione, nonostante siano possibili correttivi in fase di elaborazione dei dati (per maggiori informazioni a questo proposito, si rinvia alla scheda sulle caratteristiche del sondaggio).

Le priorità degli italiani

Innanzi tutto, abbiamo cercato di capire quali dovrebbero essere le priorità della politica di bilancio secondo gli intervistati, ipotizzando che il Governo disponga di risorse aggiuntive per un miliardo di euro. Alla domanda era possibile dare più di una risposta (e lo ha fatto circa metà degli intervistati).
Come si vede nella figura 1, l’ipotesi che ha raccolto maggiori consensi (è stata indicata dal 47 per cento del campione) è effettivamente quella di una riduzione delle imposte. Tuttavia, nell’insieme, una quota maggiore dei consensi va a un aumento della spesa pubblica per la sanità, l’istruzione e la ricerca e gli stipendi dei dipendenti pubblici. Un quarto del campione, infine, utilizzerebbe in tutto o in parte le nuove risorse per ridurre il debito pubblico.
Circa metà del campione non ha dato una risposta univoca: destinerebbe cioè eventuali nuove risorse, ad esempio, in parte a ridurre le imposte, in parte ad aumentare la spesa e in parte a ridurre il debito. Se consideriamo coloro che hanno dato una sola risposta, soltanto l’8 per cento degli intervistati ha indicato il taglio delle imposte come unica destinazione delle nuove risorse, il 13 per cento ha indicato un aumento della spesa (il 7 per cento di quella per l’istruzione) e il 6 per cento destinerebbe tutto all’abbattimento del debito. Insomma, la riduzione delle imposte non emerge affatto come una priorità assoluta: gli intervistati sembrano avere ben chiari altri problemi strutturali della nostra economia come l’elevato debito pubblico e le carenze del sistema di istruzione e ricerca.
In realtà, molti sarebbero anche disposti a pagare più imposte per avere servizi migliori. Davanti all’ipotesi di un aumento dell’addizionale regionale Irpef da destinare alla sanità per ridurre i tempi di attesa per esami diagnostici, il 47 per cento del campione ha risposto affermativamente (contro il 35 per cento di contrari e il 18 per cento di indecisi).

Quali imposte ridurre

Ritornando sull’ipotesi di riduzione delle imposte, abbiamo poi chiesto al campione quale tipo di imposta sarebbe opportuno ridurre. I risultati sono riportati nella tabella 1.
L’opzione di gran lunga preferita (da quasi il 60 per cento del campione) è una riduzione delle imposte sui consumi, come l’Iva e l’accisa sulla benzina. Sono forme di tassazione che coinvolgono indiscriminatamente tutti i cittadini e spesso colpiscono consumi indispensabili (la cui domanda è quindi poco elastica al prezzo).
Non stupisce perciò che la richiesta di una riduzione delle imposte sui consumi sia più pressante tra i gruppi sociali che normalmente dispongono di redditi più bassi: i giovani, gli studenti, le persone senza elevati titoli di studio, o tra coloro che valutano la propria situazione economica difficile o discreta, ma non buona. Insomma, i ceti sociali che negli ultimi anni hanno subito una perdita del potere d’acquisto dei propri redditi.
La riduzione dell’Irpef raccoglie il 37 per cento dei consensi e risulta più popolare nell’ambito impiegatizio e dei pensionati, al crescere del titolo di studio e dell’età, e tra coloro che valutano positivamente la propria situazione economica. Una riduzione dell’Irap, infine, è molto poco popolare (è stata indicata solo dal 3 per cento) e raccoglie qualche consenso solo tra commercianti, artigiani, dirigenti, imprenditori, liberi professionisti. L’area del lavoro autonomo, insomma.





Meno Irpef per i redditi bassi

Infine, abbiamo concentrato l’attenzione dei nostri intervistati su un’eventuale riduzione dell’Irpef (all’epoca del sondaggio, una settimana fa, era ancora d’attualità…).
Il risultato è molto netto: il 60 per cento del campione ritiene che lo sgravio fiscale dovrebbe andare unicamente a favore dei redditi bassi. Sommando anche coloro che distribuirebbero lo sgravio tra redditi bassi e medi, arriviamo al 74 per cento del campione (figura 2).
Abbiamo poi chiesto di scegliere tra un sistema fiscale proporzionale (ad aliquota unica) e progressivo (ad aliquota crescente, oppure ad aliquota unica, ma con esenzione totale dei redditi bassi). Anche in questo caso i risultati non lasciano dubbi: sceglie il sistema progressivo ad aliquota crescente il 66 per cento del campione (figura 3). La progressività delle imposte (e di eventuali sgravi) sembra essere un valore condiviso dagli intervistati a prescindere dalla propria situazione: tra coloro che dichiarano di essere in una condizione economica “molto buona”, il 49 per cento sceglie il sistema ad aliquota crescente e il 53 per cento concentrerebbe eventuali sgravi solo sui redditi bassi.
Insomma, gli italiani non guardano con sfavore a un taglio delle imposte, ma non pensano che esso debba essere la principale priorità della politica di bilancio. Ridurre il debito pubblico e migliorare alcuni servizi sembrano obiettivi almeno altrettanto importanti. Dovendo intervenire sulle imposte, preferirebbero che la riduzione avesse un impatto immediato sui prezzi piuttosto che sui redditi. Dovendo riformare l’Irpef, vorrebbero mantenere la progressività dell’imposta e concentrare gli sgravi sui meno abbienti.






Dov’è finito il popolo delle formiche, di Tullio Jappelli e Daniele Checchi

Lo scorso 5 novembre si è celebrata la giornata internazionale del risparmio.
Come negli ultimi anni, si sono sentiti toni allarmati sul calo del risparmio delle famiglie. L’ultima indagine Ipsos presentata per l’occasione riscontra che il 21 per cento delle famiglie intervistate ha consumato tutto il proprio reddito, mentre il 14 per cento ha fatto ricorso a risparmi accumulati o a debiti per far fronte alle spese per consumo; secondo l’indagine, in futuro il numero di coloro che non risparmiano è destinato ad aumentare.
( http://www.acri.it/7_even/Acri_Ipsos_2004.ppt).

Le famiglie e il risparmio

I dati non sono certo una novità. Secondo la più recente Indagine sui bilanci delle famiglie della Banca d’Italia, il 13 per cento degli intervistati tra febbraio e settembre del 2003 dichiarava che “Il reddito a disposizione della famiglia permette di arrivare alla fine del mese con molta difficoltà”; il 14 per cento che il reddito consente di “arrivare alla fine del mese con difficoltà”. Dunque, circa un terzo delle famiglie italiane dichiarava di avere gravi problemi di bilancio.
Si conferma quanto si è letto spesso in questi mesi sui giornali, con articoli e commenti allarmati sul grave impoverimento delle famiglie e del paese, quasi si trattasse di un fenomeno nuovo e prima poco diffuso. È vero che il popolo delle formiche non risparmia più? Dobbiamo preoccuparci per le tendenze del risparmio nel nostro paese?

È aumentato davvero il numero di quelli che non risparmiano?

Le espressioni “non arrivare alla fine del mese”, “famiglie in bolletta” e loro varianti sono generiche e non chiariscono se il fenomeno è aumentato o si è ridotto nel tempo.
Proviamo a definire meglio il concetto. Chi non riesce ad arrivare alla fine del mese ha un reddito inferiore al consumo, cioè un risparmio negativo. Vuol dire che in quel mese si è indebitato presso una banca, un parente, un amico (cioè ha aumentato le proprie passività), oppure ha fatto fronte alle spese per consumo con risorse risparmiate in precedenza (cioè ha ridotto le proprie attività). Per misurare il risparmio occorre quindi conoscere sia il reddito che il consumo di una famiglia.
L’Indagine della Banca d’Italia sui bilanci delle famiglie è il migliore strumento di cui disponiamo per studiare le tendenze del risparmio nel nostro paese, perché raccoglie informazioni sui redditi e sui consumi delle famiglie a partire dai primi anni ottanta. Il campione è formato da circa ottomila famiglie (24mila individui), distribuite in circa trecento comuni italiani. I risultati dell’indagine vengono regolarmente pubblicati nei supplementi al Bollettino statistico della Banca. I dati raccolti presso le famiglie, in forma anonima, sono disponibili gratuitamente per elaborazioni e ricerche. La metodologia di rilevazione è rimasta sostanzialmente invariata nel tempo.
Naturalmente, il risparmio può riflettere errori di misura del reddito o del consumo. Ad esempio, se una famiglia riporta tutte le spese sostenute, ma non tutto il reddito percepito, segnalerà con maggiore probabilità che il risparmio (cioè la differenza tra reddito e consumo) è negativo. Al contrario, una famiglia che registra con cura tutte le entrate ma sottostima le spese, tenderà a segnalare un risparmio positivo. Questi errori potrebbero avere una componente sistematica, ad esempio perché il numero di famiglie che sottostima le spese è superiore a quello che sottostima le entrate. Tuttavia, è poco probabile che l’andamento nel tempo del risparmio sia influenzato dagli errori di misura.

La figura 1 indica che fino al 1991 la quota di famiglie con risparmio negativo si è ridotta di cinque punti percentuali. Durante la recessione del 1992-93 la quota aumenta di oltre dieci punti. Dal 1993 si osserva però una sostanziale stabilità della quota di famiglie con risparmio negativo. L’Indagine della Banca d’Italia indica dunque che tra il 1993 e il 2002 il numero di famiglie che non risparmiano non è aumentato.
L’analisi per gruppi sociali coglie alcune differenze di rilievo. La quota di famiglie con risparmio negativo è maggiore tra i giovani (capofamiglia con età inferiore a 30 anni) e tra gli anziani (oltre i 60 anni). La quota è molto più elevata tra gli autonomi, che hanno redditi più variabili, che tra le famiglie di operai e impiegati, che invece hanno un reddito più stabile. Infine, la quota di famiglie con risparmio negativo è maggiore nel Mezzogiorno. Ma per tutti i gruppi si evidenzia una sostanziale stabilità del numero di famiglie con risparmio negativo tra il 1993 e il 2002.
Anche l’analisi della propensione al risparmio per fasce di reddito conferma il fatto che il risparmio delle famiglie non si è ridotto. La figura 2 mostra che negli anni più recenti il rapporto tra risparmio e reddito delle famiglie ha mantenuto un profilo costante, per ciascuno dei quattro gruppi di reddito considerati.

Il risparmio è una misura della povertà?

La tabella 1 riporta il rapporto tra risparmio e reddito disponibile delle famiglie (il cosiddetto saggio di risparmio) nei principali paesi europei, in Giappone e negli Stati Uniti. Fino al 1990 in Italia il risparmio era pari a circa il 27 per cento del reddito. Nel decennio successivo si è ridotto di oltre dieci punti. Dal 2000 però il saggio di risparmio in Italia si è mantenuto stabile, con valori prossimi al 15 per cento.
Il confronto internazionale evidenzia che nel 2004 l’Italia ha il saggio di risparmio più elevato tra i paesi industrializzati. In Francia, Germania, Olanda e Spagna il risparmio è intorno al 10-12 per cento del reddito disponibile. In Inghilterra, Stati Uniti, Giappone, e in tutti i paesi Scandinavi il saggio di risparmio è di circa tre volte inferiore a quello del nostro paese. La tabella evidenzia anche che il risparmio si è dimezzato in Austria, Giappone, Inghilterra, Stati Uniti; in altri paesi si è mantenuto stabile o è aumentato (Francia, Irlanda, Olanda, Portogallo, Spagna, Norvegia). Nonostante questo, l’Italia ha mantenuto il primo posto in classifica.

Naturalmente, un indicatore aggregato potrebbe nascondere dinamiche molto diverse a livello di singola famiglia. Sgombriamo però il campo da un equivoco. Il risparmio (o l’assenza di risparmio) non è una misura di benessere o di povertà. L’ultima colonna della tabella riporta il reddito pro capite in dollari nel 2003. La graduatoria del risparmio non coincide purtroppo con quella del reddito. Paesi in cui il reddito pro capite è molto più elevato del nostro (Stati Uniti, Svezia, Danimarca, Norvegia) hanno tassi di risparmio molto più bassi. Altri paesi, molto più poveri in termini di reddito pro capite (come la Cina) hanno tassi di risparmio molto più elevati del nostro. Dunque, per misurare la povertà o il benessere occorre guardare alla distribuzione dei redditi o dei consumi tra le famiglie, non alla differenza tra reddito e consumo. (1)

Perché allora il risparmio non è calato?

Il risparmio delle famiglie italiane rimane dunque elevato, sia nel confronto storico che in quello internazionale, nonostante l’abbassamento del tasso di crescita dei redditi familiari e il calo demografico. Ciò per due ragioni.
Le riforme della previdenza degli anni Novanta hanno drasticamente ridotto il grado di copertura previdenziale, particolarmente per le nuove generazioni. Dalla fine del 2001 gli indicatori sul clima di fiducia delle famiglie sono peggiorati costantemente e si sono collocati su valori nettamente inferiori a quelli del decennio precedente.
Le famiglie hanno quindi continuato a risparmiare per compensare il calo di ricchezza previdenziale. Allo stesso tempo, il movente precauzionale e il timore di una caduta dei redditi hanno frenato i consumi e favorito l’accumulazione. La figura 3 indica che il fenomeno si è verificato soprattutto per le nuove generazioni (persone nate dopo il 1960), quelle più colpite dalle riforma della previdenza e più incerte sul proprio futuro.(2)
Invece il risparmio di quelli nati prima del 1960 è calato o è rimasto costante; sono le persone che ai tempi delle riforme Amato e Dini (1992 e 1995) erano già in pensione o che hanno potuto mantenere, anche dopo le riforme, lo stesso livello di copertura previdenziale.


(1) Sotto questo profilo, l’indagine della Banca d’Italia segnala una sostanziale stabilità degli
indici di povertà e degli indici di disuguaglianza dei redditi disponibili tra il 1997 e il 2002.

(2) Per un’analisi dell’effetto della riforma della previdenza sul risparmio delle famiglie italiane cfr. Attanasio e Brugiavini (Social security and households’ saving,” Quarterly Journal of Economics, vol. 118, 2003) e Bottazzi, Jappelli e Padula (Retirement expectations, pension reform, and their impoact on private accumulation, settembre 2004, CSEF Working Paper n. 92 [http://www.dise.unisa.it/WP/wp92.pdf].





Fonte: Indagine della Banca d’Italia sui bilanci delle famiglie, 1984-2002.


Fonte: Indagine della Banca d’Italia sui bilanci delle famiglie, 1984-2002.


Fonte: Indagine della Banca d’Italia sui bilanci delle famiglie, 1984-2002.

Fonte: Elaborazioni Cesifi-Dice su OECD Economic Outlook. Il PIL pro capite è misurato in dollari. I saggi di risparmio riflettono anche differenze nelle definizioni adottate da ciascun paese sul risparmio delle famiglie; il reddito disponibile invece è armonizzato dall’OECD.
* dato stimato.

Un taglio poco consumato, di Tullio Jappelli e Mario Padula

Nelle intenzioni del presidente del Consiglio la riduzione delle imposte sui redditi a partire dal 1° gennaio 2005 aumenterà il reddito disponibile delle famiglie e i consumi, sostenendo la nostra esangue economia. Troppo spesso gli interventi di politica economica vengono attuati senza uno studio delle conseguenze delle manovre, senza una simulazione del loro impatto.

La propensione marginale al consumo

La questione è particolarmente delicata nel caso di uno sgravio fiscale. Si dà spesso per scontato che un aumento del reddito stimoli il consumo. Ciò non è sempre vero, perché un aumento di reddito può essere consumato interamente, risparmiato interamente, o in parte consumato e in parte risparmiato. Per rispondere a questa domanda, è importante calcolare la cosiddetta propensione marginale al consumo, cioè il rapporto tra la variazione dei consumi e del reddito. Se, ad esempio, il reddito di una famiglia aumenta di 500 euro e i consumi di 250 euro, la propensione marginale al consumo della famiglia è di 0,5. Ovvero, per ogni euro in più di reddito, 50 centesimi vengono risparmiati e 50 consumati. Tanto più elevata la propensione marginale al consumo, tanto maggiore lo stimolo ai consumi di uno sgravio fiscale.

Cinquecento euro da spendere. O risparmiare

Solo conoscendo la propensione marginale al consumo si può valutare l’effetto di una riduzione delle imposte. Servirebbero allo scopo indagini campionarie specifiche sui comportamenti dei consumatori, in grado di valutare l’impatto di breve e di lungo periodo di uno sgravio fiscale. I mezzi di cui dispone lavoce.info sono modesti. Con la collaborazione della società Carlo Erminero & Co , abbiamo condotto un’indagine campionaria via internet. Il campione è stato estratto da un indirizzario con oltre 500mila nomi. Le persone intervistate sono 954; il tasso di partecipazione (cioè il rapporto tra le persone che hanno risposto all’intervista e le persone contattate) è del 50 per cento. I dati vanno trattati e interpretati con cautela. In Italia gli utenti domestici di internet sono solo il 22 per cento della popolazione (10,5 milioni, dati di febbraio 2004) e sono ancora molto diversi dai non utenti. Fra gli utenti domestici di internet sono più numerosi i giovani, i laureati, gli imprenditori, i professionisti, i ceti medi e superiori. Le risposte devono quindi essere ricondotte alla popolazione italiana con un sistema di ponderazione.

Lo scopo del questionario è di valutare l’impatto di breve periodo sui consumi (la cosiddetta “scossa” all’economia) di un ipotetico sgravio fiscale. (1) Abbiamo dunque deciso di rivolgere al campione la domanda:

Nel caso in cui il Suo reddito l’anno prossimo aumentasse di 500 euro perché è stata varata una riforma fiscale che riduce le sue imposte sul reddito, cosa farebbe?

  • Utilizzerei i 500 euro soprattutto per spendere di più
  • Utilizzerei i 500 euro soprattutto per risparmiare di più
  • Utilizzerei i 500 euro soprattutto per pagare i debiti

Dalle risposte è emerso che il 21 per cento del campione destinerebbe un aumento di 500 euro di reddito soprattutto al consumo, il 48 per cento utilizzerebbe l’aumento soprattutto per incrementare il risparmio, il 31 per cento per ridurre i debiti.

Per valutare gli effetti di una riduzione delle imposte, occorre distinguere tra variazioni permanenti e variazioni transitorie del reddito. Le prime hanno un forte effetto sui consumi; le seconde hanno effetti modesti o trascurabili. Questo accade perché le famiglie desiderano mantenere standard di vita stabili nel tempo e sono disposte ad aumentare il consumo solo se pensano che l’aumento di reddito sarà duraturo. A un aumento temporaneo, invece, reagiscono aumentando il risparmio o riducendo il debito, per evitare di dover ridurre il consumo quando il reddito ritornerà ai valori precedenti l’aumento. Perché si verifichi un forte effetto sui consumi, è quindi essenziale che il taglio fiscale sia duraturo o, almeno, che sia percepito come tale. Le risposte del questionario indicano che l’effetto sul consumo è modesto. La riforma fiscale è percepita come transitoria, dunque poco credibile.

Un confronto con gli Usa

A titolo di confronto è utile riportare alcuni dati tratti da uno studio di due economisti americani che hanno sottoposto a un campione rappresentativo della popolazione degli Stati Uniti domande simili a quella dell’indagine de lavoce.info. Hanno infatti chiesto, nel 2001 e nel 2002, se il rimborso fiscale erogato dall’amministrazione Bush nel 2001 sia stato utilizzato prevalentemente per consumi, per risparmio, o per ridurre debiti. (2)

Il rimborso una tantum era compreso fra 300 e 600 dollari. La differenza principale è che nel caso americano si tratta di domande retrospettive; nel caso dell’indagine de lavoce.info invece si chiedono le intenzioni di spesa.

La tabella 1 indica che la percentuale di persone che destinerebbe soprattutto al consumo lo sgravio fiscale è molto simile a quella riscontrata dai due ricercatori americani: negli Stati Uniti poco più del 20 per cento degli intervistati dichiara che il rimborso fiscale è stato utilizzato prevalentemente per aumentare il consumo; l’80 per cento dichiara invece che il rimborso è stato utilizzato soprattutto per aumentare il risparmio o per ridurre i debiti. La reazione dei consumatori italiani rispetto a un’ipotetica riforma fiscale è simile a quella dei consumatori americani in risposta a una variazione una tantum del reddito, un’altra conferma di scarsa credibilità dello sgravio fiscale in Italia.

È utile chiedersi se l’effetto sui consumi cambi secondo i gruppi sociali. La tabella 2 offre alcune risposte. La quota di coloro che utilizzerebbero lo sgravio fiscale soprattutto per aumentare il consumo sale al 26 per cento tra i laureati e tra coloro che hanno più di 44 anni; raggiunge il 35 per cento per coloro che hanno redditi medi e alti. Non si riscontrano variazioni significative per ripartizione geografica. Nel complesso le risposte sono abbastanza omogenee: la quota di coloro che dichiara che destinerebbe lo sgravio fiscale prevalentemente al consumo oscilla tra il 18 e il 35 per cento.

Quanto aumenteranno i consumi?

Riconoscere che la risposta a una manovra fiscale è diversa tra i vari gruppi sociali aiuta a valutarne l’effetto complessivo. Tuttavia, la quota di coloro che dichiarano che lo sgravio servirà prevalentemente a finanziare i consumi non ci dice ancora di quanto i consumi aumenteranno. Anche chi dichiara che destinerà il maggiore reddito prevalentemente al risparmio, non è detto che destinerà tutto al risparmio. E anche chi decide di utilizzare il reddito soprattutto per aumentare il consumo potrebbe usarne una parte per risparmiare. La nostra indagine contiene una seconda domanda che consente di ripartire un’eventuale aumento di reddito di 500 euro in spese per consumi, risparmio e rimborso di debiti:

Se oggi il Suo reddito aumentasse di 500 euro, quanti euro risparmierebbe, quanti ne consumerebbe, quanti ne userebbe per ripagare i debiti?

  • Euro per consumo:
  • Euro per risparmio:
  • Euro per debiti:

Le risposte permettono di calcolare la propensione marginale al consumo di ciascuna famiglia intervistata. Nel campione, la media generale di tutte le propensioni marginali al consumo è 32 per cento (vedi l’ultima colonna della tabella 2). (3)

Inoltre, la propensione marginale al consumo è sostanzialmente stabile per gruppi di età, titolo di studio e ripartizione geografica. Solo per le famiglie con redditi medi e alti si registra un valore più elevato (42 per cento), presumibilmente perché per questi gruppi l’incertezza sulle condizioni dell’economia e della famiglia riduce le esigenze di risparmio.

In conclusione: secondo l’indagine de lavoce.info circa un terzo della riduzione di imposte promessa da Silvio Berlusconi per il 2005 si tradurrà in un aumento dei consumi. La gran parte del reddito aggiuntivo servirà per aumentare il risparmio (o ridurre il debito). Se la credibilità della manovra rimanesse ai livelli attuali, un’ipotetica riduzione delle imposte sul reddito delle famiglie di 8 miliardi di euro nel 2005 darebbe una “scossa” iniziale all’economia di soli 2,6 miliardi di euro, cioè lo 0,2 per cento del Pil. Naturalmente, ciò non tiene conto dell’effetto di una riduzione della spesa pubblica necessaria a finanziare il taglio delle imposte. Fra un anno sapremo se la montagna sarà riuscita almeno a partorire un topolino. Nel frattempo il Governo potrebbe almeno promuovere studi più approfonditi sugli effetti della manovra, sulla credibilità di un taglio duraturo delle imposte e sulle sue conseguenze di breve e di lungo periodo. Al momento, il clima di incertezza generato da annunci successivamente ritrattati non aiuta affatto la credibilità delle future riforme. Alimenta anzi la convinzione che eventuali tagli fiscali potrebbero avere effetti limitati nel tempo.

(1) David S. Johnson, Jonathan A. Parker e Nicholas S. Souleles, (“Household expenditure and the income tax rebates of 2001”, NBER WP 10784, 2004) studiano l’impatto di breve e di lungo periodo del bonus fiscale che le famiglie americane hanno ricevuto nel 2001 dall’amministrazione Bush. Utilizzando un campione rappresentativo della popolazione, essi mostrano che le famiglie americane hanno aumentato il consumo di circa il 30 per cento del bonus nei primi tre mesi, e di un altro 30 per cento nel trimestre successivo.

(2) Matthew D. Shapiro e Joel Slemrod, “Did the 2001 tax rebate stimulate spending? Evidence from taxpayer surveys”, NBER WP 9308, 2001. L’indagine è stata condotta per telefono nel 2001e nel 2002, come parte di Surveys of Consumers, un campione rappresentativo della popolazione americana utilizzato dall’Università di Michigan per costruire un indice di fiducia dei consumatori (Index of Consumers Sentiment). I due economisti usano anche un’altra indagine, How America Responds, che chiede ad un campione di famiglie americane: “Cosa farebbe se il Governo federale tagliasse le imposte di 1000 dollari?”. Il 16,6 per cento degli intervistati destinerebbe l’aumento del reddito disponibile soprattutto ai consumi.

(3) David S. Johnson, Jonathan A. Parker e Nicholas S. Souleles, (“Household expenditure and the income tax rebates of 2001”, NBER WP 10784, 2004) ottengono un risultato molto simile per la propensione marginale al consumo di breve periodo.


Tabella 1. Nel caso in cui il Suo reddito l’anno prossimo aumentasse di 500 euro perché è stata varata una riforma fiscale che riduce le sue imposte sul reddito, cosa farebbe?

Confronto Italia -USA

Italia 2004

Usa 2001

Usa 2002

Soprattutto per spendere di più

0.21

0.22

0.25

Soprattutto per risparmiare di più

0.48

0.46

0.48

Soprattutto per pagare i debiti

0.31

0.32

0.27

<TD style=”BORDER-RIGHT: black 1pt solid; PADDING-RIGHT: 5.4pt; BORDER-TOP: #ece9d8; PAD

Tabella 2. Nel caso in cui il Suo reddito l’anno prossimo aumentasse di 500 euro perché è stata varata una riforma fiscale che riduce le sue imposte sul reddito, cosa farebbe?

Analisi per gruppi sociali

Soprattutto per spendere di più

Soprattutto per risparmiare di più

Soprattutto per pagare i debiti

Propensione marginale al consumo

Età

fino a 34 anni

0.20

0.62

0.18

0.35

da 35 a 44 anni

0.19

0.46

0.35

0.31

oltre 44 anni

0.26

0.34

0.40

0.32

Titolo di studio

senza laurea

0.19

0.45

0.36

0.31

con laurea

0.26

0.48

0.26

0.36

Condizione economica

Buona

0.35

0.47

0.18

0.42

Discreta

0.23

0.54

0.23

0.34

Difficile

0.11

0.34

0.55

0.25

Area geografica

Nord

0.23

0.50

0.27

0.32

Centro

0.19

0.40

0.41

0.30

Il gioco delle tre aliquote, di Massimo Baldini e Paolo Bosi

L’ultimo mese è passato alla ricerca di una mediazione tra le forze di maggioranza sulla proposta di riforma del secondo modulo dell’Irpef. Si è discusso molto, quindi, ma di che cosa? Vediamo di capirlo aggiornando il nostro precedente articolo su lavoce.info, seppur con la cautela dovuta al fatto che non disponiamo ancora di tutti i dettagli delle proposte in campo.

Tre aliquote. Più una

Consideriamo in particolare tre ipotesi di riforma. Tutte condividono la struttura delle prime tre aliquote (23 per cento fino a 26mila euro, 33 per cento da 26mila a 33mila, 39 per cento oltre 33mila), ma si differenziano nei seguenti aspetti:
a) quarta aliquota del 43 per cento oltre i 100mila euro (ipotesi del ministero del Tesoro);
b) quarta aliquota del 43 per cento oltre gli 80mila euro (ipotesi An-Udc);
c) solo tre aliquote, con in più un contributo fisso di 1.000 euro oltre i 100mila, e esclusione della detraibilità delle spese oltre la stessa soglia (variante dell’ipotesi di riforma del ministero del Tesoro).

In tutte le ipotesi, inoltre, le detrazioni per coniuge e familiari a carico sono sostituite da deduzioni dall’imponibile, decrescenti al crescere del reddito, pari a 3.200 euro per il coniuge e a 2.900 per ogni figlio, che si annullano in corrispondenza di un reddito pari a 78mila euro.

Dal punto di vista del gettito, la ricerca del compromesso tra le diverse visioni in campo dovrebbe comportare un costo del secondo modulo della riforma dell’Irpef variabile da 7,2 a 7,6 miliardi, a seconda delle alternative, comprensivo anche di circa un miliardo per maggiori assegni familiari. Il che significa che la seconda tranche della riforma finirà per costare ben più dei sei miliardi (compresi eventuali tagli all’Irap) di cui si è parlato finora.

Non ripetiamo qui l’analisi già fatta nel precedente articolo. Rispetto alla struttura con tre aliquote e detrazioni lì discussa, le controproposte di Fini e dell’Udc con quattro aliquote e deduzioni si configurano come una lieve redistribuzione dai contribuenti con più reddito dichiarato a quelli che si collocano nelle fasce attorno a 40-50mila euro. Ciò è però dovuto alla sostituzione delle detrazioni con deduzioni, mentre, come si può notare dalla tabella 1, tutte le varianti oggi in discussione comportano lo stesso risparmio di imposta per tutti i contribuenti fino a 80mila euro di imponibile.

Gli effetti sui redditi familiari

Tuttavia, qualora si considerino i redditi familiari equivalenti, ordinati per decili di reddito imponibile equivalente, l’effetto del secondo modulo, in tutte le varianti proposte, continua ad avvantaggiare le famiglie più ricche.
L’ipotesi di An e Udc apporta alcuni limitati correttivi al privilegio di quelle appartenenti al decile più ricco (vedi la figura 1). Ma viene confermata la netta differenza di effetti del primo modulo rispetto al secondo.
Per quanto riguarda la riforma dell’Irpef, la discussione dell’ultimo mese si è quindi concentrata su aspetti poco significativi. Quarta aliquota, “aliquota etica” sembrano essere solo estemporanei correttivi di un impianto già disegnato nella proposta a tre aliquote.

Ma quale sarà l’effetto della riforma nel suo complesso (primo e secondo modulo)?
Come mostra la figura 2, l’abbandono dell’impostazione a due aliquote della legge delega ha in effetti introdotto elementi di maggiore moderazione nei propositi della riforma. La perdita di gettito è dimezzata (da 28 a 13 miliardi sommando le due fasi della riforma) e anche gli effetti distributivi appaiono meno drammaticamente sbilanciati nei confronti dei più ricchi.
Permangono tuttavia aspetti insoddisfacenti, che rivelano il carattere poco sistematico della riforma complessiva. È infatti un ibrido tra due visioni molto diverse dell’imposta personale all’interno della maggioranza di Governo: il modello della flat rate tax della legge delega, che rimane sullo sfondo degli obiettivi del premier, e le soluzioni più tradizionali di An e Udc.
Ma l’aspetto più preoccupante, messo in luce dalla figura 2, è che le famiglie che si collocano nel primo e nel secondo decile (il 20 per cento della popolazione con redditi più bassi) otterranno alla fine sgravi fiscali inferiori a quelle più benestanti.
La proposta di riforma avanzata nelle ultime ore dal ministero dell’Economia prevede però un correttivo, attraverso un aumento generalizzato degli assegni al nucleo familiare (anf).
Il carattere molto selettivo di questo strumento consente infatti di “mettere una pezza” allo svantaggio relativo delle famiglie più povere. Solo uno strumento di spesa permette di ottenere risultati distributivi non deludenti. Perché consente di raggiungere anche le famiglie che, in ragione della scarsità di imponibile, non sono soggetti passivi dell’imposta sul reddito o non possono godere di tutte le detrazioni o deduzioni cui avrebbero diritto (gli incapienti).
Non si può fare a meno di osservare che, con un minore dispendio di risorse, si sarebbero potuti realizzare obiettivi distributivi più apprezzabili, mantenendo a disposizione del bilancio pubblico risorse preziose per realizzare altre riforme nel campo del welfare. (1)


(1) Baldini, M., P. Bosi, Matteuzzi, Sostegno alle responsabilità familiari e contrasto della povertà: ipotesi di riforma, in Rivista delle politiche sociali, n.2, 2004 e in
www.capp.unimo.it.

Tabella 1 – Contribuenti: Risparmi di imposta derivanti da ipotesi alternative del secondo modulo della riforma fiscale



Figura 1 – Famiglie: Risparmio di imposta del primo e del secondo modulo in % dell’imponibile

Figura 2 – Famiglie: Riforme complessive risparmi di imposta totale in % dell’imponibile


Chi vince e chi perde con la nuova Irpef, di Massimo Baldini e Paolo Bosi

Dalla presentazione della legge delega (7 aprile 2003), è stato un continuo susseguirsi di proposte e discussioni sugli effetti redistributivi e di gettito della riforma dell’Irpef.
Non ci si può illudere di essere giunti a intenzioni definitive del Governo in questa delicata area, ma può essere utile fare il punto della situazione, sulla base delle informazioni fornite dalla stampa sulla struttura degli scaglioni, delle aliquote e delle deduzioni previste per il secondo modulo della riforma dell’Ire.
Secondo queste indicazioni, si prevede una nuova struttura degli scaglioni e delle aliquote, illustrata nella quarta colonna della tabella 1 (riforma finale).

Tab.1 – Scaglioni e aliquote dell’Irpef 2002 e delle riforme

Irpef 2002

Legge delega

Primo modulo

Riforma finale

scaglioni

aliquote

scaglioni

aliquote

scaglioni

Aliquote

scaglioni

aliquote

0-10329

0,18

0-100000

0,23

0-15000

0,23

0-26000

0,23

10329-15494

0,24

oltre 100000

0,33

15000-29000

0,29

26000-32600

0,33

15494-30987

0,32

29000-32600

0,31

oltre 32600

0,39

30987-69722

0,39

32600-70000

0,39

oltre 69722

0,45

oltre 70000

0,45

Qui interessano gli effetti di gettito e distributivi di questa seconda fase, messa a confronto non solo con la legislazione vigente, che è segnata dall’intervento effettuato nel 2003, il cosiddetto primo modulo della riforma dell’Ire, ma anche con la situazione in vigore nel 2002. I redditi sono in valori del 2004. (1)

Effetti della riforma sul gettito

Secondo le stime fornite dal modello di microsimulazione del Centro di analisi delle politiche pubbliche dell’Università di Modena, il secondo tempo della riforma costerà 6,9 miliardi di euro, che si aggiungono ai circa 6 miliardi del primo modulo. Complessivamente, si tratta di una riduzione del carico fiscale di circa il 2 per cento. La riforma prevista nella legge delega, basata su un modello a due sole aliquote, avrebbe invece comportato uno sgravio fiscale di circa 28 miliardi di euro, pari al 4,4 per cento dell’imponibile.
Tra l’approvazione della delega e la Finanziaria per il 2005, il Governo è stato quindi indotto a più che dimezzare gli originali propositi di “ridurre le tasse”. La riforma dell’Ire alla fine sottrarrà comunque all’erario 13 miliardi di euro.

Analisi individuale per contribuenti

La tabella 2 mostra i risparmi di imposta dei contribuenti, sia in valori assoluti, sia in percentuale del reddito imponibile. Si tratta quindi di un’analisi di tipo individuale.
Il secondo modulo della riforma non concede praticamente nulla ai redditi inferiori ai 20mila euro (se non l’aumento da 7mila a 7.500 euro della no tax area per i pensionati), e favorisce soprattutto i redditi attorno ai 35mila euro, a causa della rimodulazione delle aliquote, e quelli superiori ai 70mila euro, a seguito della riduzione dell’aliquota marginale più elevata. I maggiori beneficiari degli sgravi sono i redditi più bassi e quelli più alti, mentre i guadagni sono inferiori per le classi centrali della distribuzione del reddito. Un risultato tipico, quando si riduce il numero degli scaglioni e ci si avvicina a uno schema flat rate: se si vuole diminuire il numero degli scaglioni e non si vuole perdere troppo gettito, è inevitabile premiare soprattutto i molto ricchi e i molto poveri.
Se si considera invece la riforma nel suo complesso, essa non sembra avere una chiara identità. Fino a imponibili di 30mila euro, lo sgravio della riforma complessiva presenta un andamento altalenante che non sembra rispondere a una precisa logica. Da 30mila sino a 70mila euro, lo sgravio percentuale è decrescente, accentuando quindi la progressività della struttura preesistente. Da 70mila in su, lo sgravio risulterebbe proporzionalmente crescente per raggiungere il valore massimo di quasi il 4 per cento per i contribuenti più ricchi.
Il Governo, nel corso del tempo, ha ridimensionato significativamente i suoi propositi di passaggio al modello della flat rate, contenuti nella legge delega del 2003: le ultime colonne della tabella 2 mostrano che, se si fosse passati alle due sole aliquote del 23 e 33 per cento (oltre i 100.000 euro), il beneficio per i contribuenti oltre i 70mila euro non si sarebbe limitato a due o tre punti percentuali del reddito, ma avrebbe superato abbondantemente il 10 per cento .
Anche se appare evidente la differenza rispetto alla riforma programmata con la legge delega, sulla base di queste stime il giudizio distributivo sulla riforma complessiva non può essere positivo. A favore dell’1,78 per cento di contribuenti con imponibile superiore a 70mila euro si concentra il 20 per cento dello sgravio complessivo. A un contribuente con reddito tra i 20-25mila euro vengono restituiti 444 euro; per il contribuente con imponibile superiore a 100mila euro, lo sgravio è quindici volte tanto: 6.357 euro.

Tab. 2 Risparmi di imposta per contribuente per classi di imponibile delle riforme dell’Irpef

Reddito

primo modulo

secondo modulo

Riforma complessiva

Legge delega

Imponibile

%

sgravio

Var.%

sgravio

Var.%

sgravio

Var.%

sgravio

Var.%

(000 euro)

contrib.

in euro

imponibile

in euro

imponibile

in euro

Imponibile

in euro

imponibile

0-5

9,0

-30

-1,3

0

0,0

-30

-1,3

-30

-1,3

5-10

22,4

-168

-2,3

-23

-0,3

-192

-2,6

-192

-2,6

10-15

20,7

-250

-2,0

-54

-0,4

-305

-2,4

-305

-2,4

15-20

19,8

-237

-1,4

-38

-0,2

-276

-1,6

-276

-1,6

20-25

11,6

-165

-0,7

-278

-1,3

-444

-2,0

-444

-2,0

25-30

5,9

-68

-0,3

-589

-2,2

-657

-2,4

-732

-2,7

30-35

2,5

-56

-0,2

-495

-1,5

-551

-1,7

-1189

-3,7

35-40

1,8

-58

-0,2

-468

-1,3

-526

-1,4

-1933

-5,2

40-45

1,1

-42

-0,1

-468

-1,1

-510

-1,2

-2781

-6,5

45-50

0,9

-55

-0,1

-468

-1,0

-523

-1,1

-3583

-7,5

50-55

0,6

-94

-0,2

-468

-0,9

-562

-1,1

-4500

-8,5

55-60

1,2

-89

-0,2

-468

-0,8

-557

-1,0

-5153

-9,0

60-65

0,5

-77

-0,1

-468

-0,7

-545

-0,9

-6019

-9,6

65-70

0,4

-101

-0,1

-468

-0,7

-569

-0,8

-6787

-10,1

70-75

0,1

-147

-0,2

-672

-0,9

-819

-1,1

-8007

-10,9

75-80

0,2

-157

-0,2

-904

-1,2

-1061

-1,4

-8867

-11,5

80-85

0,1

-128

-0,2

-1221

-1,5

-1349

-1,6

-10000

-12,1

85-90

0,2

-166

-0,2

-1526

-1,7

-1691

-1,9

-11155

-12,7

90-95

0,1

-172

-0,2

-1812

-2,0

-1984

-2,1

-12212

-13,2

95-100

0,2

-177

-0,2

-2159

-2,2

-2336

-2,4

-13488

-13,7

>100

0,9

-193

-0,1

-6165

-3,7

-6357

-3,9

-21698

-13,2

media

100,0

-171

-0,9

-198

-1,1

-369

-2,0

-809

-4,5

Analisi per redditi familiari equivalenti

Nello studio degli effetti distributivi di una riforma, non si può prescindere da un’analisi che assuma come unità di riferimento le famiglie.
La figura illustra gli effetti della riforma con riferimento alle famiglie ordinate per decili di reddito imponibile complessivo. In questa più appropriata dimensione, appare evidente l’inversione di rotta tra la riforma proposta nella legge delega e quella prevista per il 2005, in particolare con riguardo agli effetti sulle famiglie del nono e soprattutto del decimo decile, il più ricco della popolazione.
Il grafico mette anche in rilievo il carattere compensativo del secondo modulo rispetto al primo. Il primo, a partire dal terzo decile, mostra sgravi in percentuale dell’imponibile decrescenti. Il secondo modulo mostra invece vantaggi percentualmente crescenti al crescere dell’imponibile familiare. Nel complesso per le famiglie dal terzo al decimo decile lo sgravio oscilla mediamente intorno al valore del 2 per cento. L’assenza di compensazione per le famiglie più povere (in cui come è noto si concentra il fenomeno dell’incapienza) comporta vantaggi pressoché nulli per il primo decile e molto bassi e comunque inferiori alla media per le famiglie comprese nel secondo decile. Un effetto più volte messo in luce in passato, che l’attuale riforma non sembra risolvere, quantomeno con lo strumento dell’imposta personale.

L’effetto complessivo della riforma può infine essere valutato con l’indice di Gini (pari a 0 nel caso di distribuzione egualitaria e pari a 100 nel caso di massima disuguaglianza). Mentre il primo modulo della riforma ha prodotto un effetto moderatamente migliorativo dell’uguaglianza delle distribuzione del reddito netto (l’indice di Gini infatti diminuisce di 0,23), la riforma nel suo complesso produce un lieve peggioramento, (+ 0,16 nell’indice di Gini). La riforma originaria prevista nella legge delega avrebbe comunque avuto un effetto assai più forte (1,65 nel valore dell’indice), dimezzando l’effetto redistributivo dell’Irpef. Conclusione provvisoria: è una riforma che aumenta le disuguaglianze e che assorbe 13 miliardi che altrimenti potrebbero essere utilizzati per riformare gli ammortizzatori sociali e introdurre un programma nazionale per la non autosufficienza. La pur modesta riforma degli ammortizzatori prevista dal Patto per l’Italia, giace ancora inattuata e l’assistenza sociale continua a essere affidata a comuni con tetti di spesa sempre più stringenti.

(1) La tabella 1 non tiene conto di altri importanti cambiamenti della normativa sull’Irpef, considerati invece conto nelle simulazioni, che riguardano in particolare la sostituzione delle detrazioni da lavoro e pensione con una deduzione dal reddito complessivo decrescente per mantenere comunque la presenza di una iniziale no tax area, che rispetto ai governi dell’Ulivo aumenta da circa 6500 a 7500 euro. Nella simulazione relativa al secondo modulo, si è ipotizzato che la no tax area abbia un livello iniziale di 7500 euro sia per i dipendenti che per i pensionati, e di 4500 euro per gli autonomi. Questa deduzione decresce linearmente fino ad azzerarsi a 33mila euro. Il primo modulo ha mantenuto la detrazione sui redditi da lavoro e pensione solo per una ristretta fascia di redditi medi; in mancanza di indicazioni precise, si è supposto che essa non subirà modificazioni. La simulazione inoltre non considera gli eventuali incrementi degli assegni familiari, su cui al momento non si dispone peraltro di nessuna informazione precisa. Non teniamo neppure in considerazione gli aumenti delle imposte locali, tra cui le addizionali regionali e comunali all’Irpef, che faranno molto probabilmente seguito alla riduzione dei trasferimenti statali, e che quindi ridurranno i benefici netti degli sgravi decisi a livello centrale.

Il telefono, la tua bolletta

E’ giusto chiedersi se la liberalizzazione delle telecomunicazioni abbia arrecato effettivi benefici ai consumatori finali. Andrea Gavosto contribuisce alla discussione aperta da Carlo Cambini rilevando che i dati sulle tariffe telefoniche apparsi su lavoce.info non tengono conto dei cosiddetti “pacchetti tariffari”. Nella sua controreplica, l’autore ricorda che l’analisi si proponeva di valutare l’impatto del processo di liberalizzazione e non delle strategie tariffarie dei singoli operatori.

Alitalia: bene così, ma non facciamoci illusioni

Sembra ormai vicina ad una soluzione la crisi Alitalia. Tuttavia, non è ancora tempo per nutrire facili illusioni, come sottolinea Carlo Scarpa  (Alitalia: bene così, ma non facciamoci illusioni).  Ricostruiamo  la dinamica della crisi nel corso degli ultimi mesi con interventi di Francesco Cavalli, Francesco Gazzoletti e Daniele Nepoti  (Come si dice Malpensa in cinese?), Andrea Goldstein (Per Alitalia, guardiamo all’estero), Marco Ponti (Vola solo il deficit e Alitalia: un’Italia senza ali), Carlo Scarpa, (All’Alitalia serve chiarezza), Mario Sebastiani (Perchè Alitalia resta a terra).

Europei oziosi?

Gli europei lavorano meno degli americani? E gli italiani meno degli altri lavoratori europei? Perchè ci sono differenze così grandi fra paesi in termini di ore lavorate? Si tratta di attitudini che rendono i lavoratori di alcuni paesi più “pigri” che in altri stati, oppure di istituzioni che tengono fuori dal mondo del lavoro molte persone?  Mentre in Francia si abbandonano le 35 ore e in Germania si raggiungono accordi aziendali che prevedono un incremento degli orari di lavoro, riproduciamo per i nostri lettori gli interventi di Olivier Blanchard, Tito Boeri, Michael Burda, Jean Pisani-Ferry, Guido Tabellini, Charles Wyplosz e una scheda di Domenico Tabasso.

Pagina 3 di 4

Powered by WordPress & Theme by Anders Norén