Lavoce.info

Categoria: Dossier Pagina 14 di 16

L’Europa nel Patto

Un nostro sondaggio ha confermato che i giovani italiani continuano a essere filo-europei e voterebbero a favore del Trattato costituzionale. Perché hanno poca fiducia nel nostro sistema politico e nelle nostre istituzioni e l’Europa piace perché ci protegge dai nostri stessi errori. Eppure, il nuovo Patto resta troppo indulgente verso alcuni paesi. Affidare il giudizio sul rispetto delle regole all’Ecofin è svantaggioso per noi. Perché senza la garanzia che i deficit eccessivi siano osservati da vicino da un’istituzione indipendente, le agenzie di rating alzeranno lo spread sui titoli italiani. Se poi si vuole rilanciare la crescita economica, va attuato il processo di riforme strutturali di Lisbona.

Non solo devolution

Oggi alla Camera si vota per la riforma costituzionale del Polo. E’ il secondo passaggio. Dopo resta solo l’approvazione definitiva da parte del Senato. Ma non è chiaro se la riforma sarà mai applicata.

Antitrust e concorrenza

Riproponiamo ai lettori una serie di interventi che lavoce.info ha offerto in tema di concorrenza e antitrust.

Pensioni e TFR

In vista del tavolo con le parti sociali, riproponiamo ai lettori una serie di interventi che lavoce.info ha dedicato al decreto del Governo in tema di trasferimento del Tfr ai fondi pensione.

Bisogna brevettare il software?

In Italia e in Europa le l’idea di incoraggiare la ricerca e l’innovazione è ormai diventata un luogo comune del dibattito politico. MA non c’è identità di vedute su come fare. Proprio in questi giorni (luglio 2005), ad esempio, in Europa si discute di politiche per la brevettabilità del software e, più in generale, della tutela dei diritti di proprietà intellettuale.
Gli articoli in questa monografia trattano di questi temi offrendo punti di vista anche differenziati sulle politiche da adottare e – comunque – tanti spunti per riflettere.

 

Il software è un’opera dell’ingegno, tutelata dal diritto d’autore. Non serve permetterne la brevettazione, come si chiede ora anche in Europa sull’esempio americano. Intanto, il brevetto è uno strumento sempre meno utile a incentivare l’innovazione. Nel caso del sofware non accelera il processo di diffusione delle conoscenze né ci sono da ripagare ingenti investimenti iniziali. Infatti, vi si affidano soprattutto le imprese più grandi e meno innovative, spesso con l’intento di bloccare le invenzioni altrui, più che di proteggere le proprie.

Perché il software non ha bisogno del brevetto

 

Raimondello Orsini e Massimo Portolani


Il software è un’opera dell’ingegno, tutelata dal diritto d’autore (copyright). Viene inoltre commercializzato con un nome o marchio depositato: oggi quindi un’impresa che sviluppa software è già protetta dal diritto d’autore e dalla legge sui marchi industriali. Negli Usa, a partire dalla fine degli anni Ottanta, si è ritenuto di permettere anche la brevettazione del software: proteggere quindi non più solo il programma (la forma nella quale è scritto), ma anche la funzione che assolve. L’Europa si sta interrogando sull’opportunità di seguire gli Usa su questa strada. Tra i motivi che inducono a rispondere negativamente si intrecciano sia ragioni generali che rendono il brevetto in sé uno strumento sempre meno utile a incentivare l’innovazione, sia ragioni specifiche che rendono il software inadatto al brevetto.

Le ragioni del brevetto

La concessione del brevetto è finalizzata a incentivare l’innovazione, che viene remunerata dai profitti monopolistici, e ad accelerare il processo di diffusione delle conoscenze, tramite il disvelamento, o “rivelazione dell’insegnamento inventivo” contestuale al deposito del brevetto.
Entrambe queste motivazioni sociali sembrano mancare nel caso del software. L’equazione “maggiore protezione uguale maggiore incentivo a innovare” solitamente non vale se le innovazioni hanno natura sequenziale (ovvero si appoggiano su innovazioni precedenti, avendo carattere complementare o incrementale): ampliare la protezione può avere un effetto deterrente superiore all’effetto incentivante (si incentiva il primo innovatore, ma si disincentivano i potenziali innovatori successivi). Riguardo al disvelamento, la brevettazione del software così come intesa negli Usa permette all’innovatore di depositare il software senza svelarne il codice sorgente. È quindi scarso il beneficio che la società riceve come corrispettivo alla concessione del monopolio. Il brevetto ricompensa chi ha ottenuto l’innovazione impiegando ingenti risorse in un progetto complesso e rischioso, investimenti che necessitano di anni di protezione monopolistica per essere recuperati (per esempio, nel settore farmaceutico). Lo sviluppo di soluzioni software non ha questi requisiti. Risolvere un problema con un algoritmo richiede delle valutazioni astratte e capacità creativa, non investimenti. Anche per questo è stato finora escluso dalla brevettabilità, come gli algoritmi matematici. Inoltre, la complessità dell’oggetto software è tale da non consentire un facile giudizio sia in sede di deposito del brevetto, sia in caso di contenzioso: difficilissimo accertare i requisiti di novità e non ovvietà, necessari perché il brevetto sia valido. Negli Usa, visto che l’Uspto si finanzia con le tasse di deposito, il brevetto viene concesso praticamente sempre, e la sua validità viene valutata in tribunale, dove il detentore si ritiene autorizzato a trascinare coloro che considera illegali imitatori. L’esplosione della litigiosità brevettuale – che non riguarda solo il software – costituisce un problema economico rilevante: le risorse spese nel deposito di brevetti inutili e nelle cause legali da questi generate sono spese di rent-seeking che non creano alcun valore per la società. Uno spreco di risorse di cui beneficiano solo gli studi tecnico-legali. (1)

A chi è utile

La natura burocratica e costosa dell’attività di brevettazione fa sì che a essa si affidino soprattutto le imprese più grandi e – paradossalmente – meno innovative, spesso con l’intento non di proteggere le proprie invenzioni, ma di bloccare quelle altrui. La possibilità di essere trascinati in costose cause legali è in grado di scoraggiare sia le numerose piccole imprese che operano in ambito proprietario, sia la miriade di operatori che collaborano al circolo virtuoso dei progetti Open Source. L’incertezza, i lunghi tempi dei processi e l’impegno finanziario sono un’arma nelle mani delle grandi imprese detentrici di brevetti (validi o no), per indurre altre imprese ad accettare accordi extragiudiziali che possono anche implicare restrizioni della concorrenza. La legislazione sul diritto di proprietà intellettuale deve essere chiara e ridurre le incertezze. La concessione di brevetti dalla validità opinabile non va evidentemente in questa direzione.
In Europa ci sono poche grandi case di software che non siano distributrici o sussidiarie di grandi imprese americane. Queste non aspettano altro che l’estensione dei propri brevetti ai paesi europei. A desiderare un esito simile, possono essere solo la potente lobby degli avvocati o i funzionari dell’European Patent Office (Epo), i quali hanno pensato bene di organizzare, il 30 marzo 2005, un Information Day presso il Parlamento europeo.
http://events.european-patent-office.org/2005/0330/ Tra le motivazioni della “urgenza” della brevettabilità del software ve ne è una davvero singolare: il Parlamento europeo deve legiferare in proposito, perché ormai l’Epo ha già concesso più di 30mila brevetti in ambito software (in palese violazione della normativa vigente: “la prassi ha ormai scavalcato i vincoli normativi”). Resta da vedere se il Parlamento è ancora sovrano, o deve limitarsi a recepire le pressioni dei lobbisti avvallandone i comportamenti mediante modifiche legislative che ne sanino gli abusi.

Per saperne di più

Sul ruolo controproducente dei brevetti, si veda J. Bessen- E. Maskin (2000), “Sequential innovation, patents, and imitation”, Working Paper del Mit: http://www.researchoninnovation.org/patent.pdf .

(1) Per rendersi conto direttamente dell’esplosione del numero dei brevetti depositati negli Usa senza avere i requisiti di novità e non ovvietà, si può consultare il sito ufficiale Uspto: http://patft.uspto.gov/netahtml/search-adv.htm facendo una ricerca con parole chiave come “computer” o “internet”.

L’Europa potrebbe risolvere la diatriba tra fautori e critici della brevettabilità del software istituzionalizzando la Generalized Public License. E’ il contratto principe dell’open source e impone a chi migliora un programma open di mettere a disposizione il codice sorgente dei nuovi apporti. E’ anche facilmente applicabile ad altri contesti. Questa soluzione stimolerebbe la concorrenza tra i due sistemi: chi inventa potrebbe scegliere tra brevettare o mettere le proprie innovazioni in campo aperto.

Licenza d’innovare

 

Alfonso Gambardella

Il 7 marzo, il Consiglio sulla competitività della Commissione europea ha rimandato al Parlamento il testo della “direttiva sulla brevettabilità del software“. È l’atto più recente di una diatriba che va avanti dal 2002, da quando Commissione e Parlamento si rimpallano il documento a suon di emendamenti in cui la prima amplia ciò che può essere brevettato come software e il secondo lo restringe.

Chi brevetta. E chi no

Per entrare nel merito della disputa, possiamo valutare l’esperienza degli Stati Uniti, che hanno avviato la brevettazione “forte” sin dai primi anni Ottanta.
I problemi sono la crescita dei brevetti mirati non tanto a proteggere le proprie invenzioni quanto a bloccare quelle degli altri e il grande aumento delle citazioni in giudizio su questioni brevettuali. D’altra parte, brevetti più forti non sembrano aver scoraggiato le piccole-medie imprese high-tech. Sam Kortum e Joshua Lerner mostrano che nella seconda metà degli anni Ottanta, la quota di imprese che non avevano brevettato nel quinquennio precedente è aumentata rispetto alla seconda metà degli anni Settanta. Brownyn Hall e Rosemarie Ziedonis documentano entrambi gli effetti nei semiconduttori. E mostrano che l’effetto dell’aumento della litigiosità brevettuale e dei “blocking patent” è più marcato degli stimoli alle piccole-medie imprese innovative. Jim Bessen e Robert Hunt ottengono risultati analoghi proprio nel software. Anzitutto, i brevetti delle grandi imprese manifatturiere sono aumentati molto di più di quelli delle imprese di software: secondo i loro dati, le prime impiegano l’11 per cento dei programmatori e analisti di software e detengono il 75 per cento dei brevetti, mentre le seconde impiegano il 33 per cento dei programmatori e analisti e posseggono il 13 per cento dei brevetti software. Una differenza così marcata nella produttività brevettuale non può essere spiegata da differenze di efficienza, ma solo da differenze nella propensione a brevettare. Inoltre, Bessen e Hunt mostrano che, a parità di altre condizioni, le imprese con una maggiore propensione a brevettare hanno una intensità più bassa di ricerca & sviluppo (R&S). Un brevetto più forte, che protegge meglio chi brevetta nella difesa delle proprie innovazioni, rende la R&S più remunerativa, e dunque dovrebbe aumentarla e non diminuirla. Il sospetto è perciò che i brevetti non servano a proteggere le proprie innovazioni, ma a qualcos’altro, e probabilmente ad avere più potere contrattuale rispetto ai concorrenti e a bloccarne le innovazioni.

Il modello open source

Insomma, gli Stati Uniti sembrano essersi spinti un po’ troppo in là. E, in effetti, due rapporti della Federal Trade Commission e della National Academy of Science suggeriscono strade per riequilibrare il sistema. Ora, la posizione della Commissione è più articolata di quanto gli oppositori della direttiva sostengono. La direttiva metterebbe solo ordine in una materia in cui non c’è disciplina in Europa e, comunque, l’Ufficio brevetti europeo sta brevettando software da tempo senza guida da parte del legislatore. Inoltre, come ribadito l’8 marzo di fronte al Parlamento dal commissario alla Direzione mercato interno e servizi, Charlie McCreevy, la direttiva non consente di brevettare nulla che non sia già brevettabile oggi, ed è fatta in modo da consentire di brevettare soltanto contributi tecnologici importanti.
L’esperienza Usa ha mostrato però che la corsa alla brevettazione e l’aumento delle citazioni in giudizio sono stati un fenomeno troppo grande e socialmente costoso per sentirsi rassicurati dalle parole di un Consiglio comunitario, per quanto autorevole. Al tempo stesso, l’open source è un modello nuovo e interessante di produzione del software, sta realizzando progetti e innovazioni utili per la società e andrebbe incoraggiato.
Perché non pensare anche a una direttiva che istituzionalizzi la Generalized Public License (Gpl)? La Gpl è il contratto principe dell’open source che impone a chi contribuisce a un programma open, del quale viene cioè messo a disposizione pubblicamente il codice sorgente, di mettere a disposizione il codice sorgente dei relativi miglioramenti. Il modello potrebbe essere adottato in contesti diversi e difatti si sta diffondendo in altri sistemi tecnologici, come le biotecnologie. La direttiva potrebbe definire il meccanismo e in particolare l’estensione del vincolo di pubblicità dei miglioramenti a valle, standardizzare le caratteristiche dei contratti Gpl, articolarne la tipologia e assicurarne il rispetto. Al di fuori del software, la Gpl potrebbe imporre pubblicità e licenze non esclusive sui migliormenti di un’innovazione.
La direttiva stimolerebbe poi la concorrenza tra i due sistemi. Chi inventa può brevettare o mettere le proprie innovazioni in campo aperto. Il meccanismo va studiato e precisato, ma sarebbe una bella innovazione istituzionale europea, una volta tanto in anticipo e non a rimorchio degli Stati Uniti.

Per saperne di più

Bessen, J. e R. Hunt (2004) “An Empirical Look at Software Patents”, Working Paper 03-17, Federal Reserve Bank of Philadelphia.
Gambardella, A. e B.H. Hall (2005) “Proprietary vs Public Domain Licensing in Software and Research Products”, NBER Working Paper 11120,
www.nber.org.
Hall, B.H. e R. Ziedonis (2001) “The Patent Paradox Revisited: Determinants of Patenting in the US Semiconductor Industry, 1980-1994”, Rand Journal of Economics 32 (1), 101-128.
Kortum, S. e J. Lerner (1999) “What is Behind the Recent Surge in Patenting”, Research Policy 28, 1-22.

Link ai rapporti Ftc e Nas:
http://www.ftc.gov/opp/intellect/
http://www7.nationalacademies.org/ocga/briefings/Patent_system_21st_Century.asp

 

Si può trasferire l’esperienza dell’open source in campo informatico ad altri aspetti del progresso tecnologico? A dispetto del problema del free-riding, la ricerca sullo sviluppo di un input comune a più processi produttivi può risultare addirittura maggiore in un contesto di General Public Licence rispetto a un regime di monopolio protetto da brevetto. Accade quando si ha un effetto di accrescimento del profitto totale dell’industria dovuto a un miglioramento tecnologico dell’input comune. Ciò suggerisce una nuova politica della brevettabilità.

 

Oltre Linux

 

Philippe Aghion e Salvatore Modica


Il dibattito sull’open source, o più propriamente sulla General Public Licence, è generalmente centrato sul software, dove in termini di miglioramento del prodotto la Gpl ha dato risultati estremamente positivi, in particolare con Linux.
Lavoce.info ha già discusso gli aspetti fondamentali del problema negli articoli di Gambardella e Santarelli-Bono. (LINK) Vorremmo aggiungere qualche commento su un’altra questione: cosa possiamo astrarre dall’esperienza di Linux pensando al progresso tecnologico in generale, non necessariamente “digitale”?

I due problemi dell’open source

Conviene tener distinte le due fasi principali del ciclo di vita di un nuovo prodotto: (i) la nascita, con l’invenzione primaria (per il software si pensi alla versione 0.01 di Linux, che Linus Torvalds mise in giro a beneficio di un centinaio di hackers, o al sistema Dos di Microsoft) e (ii) il successivo sviluppo, generato dai miglioramenti apportati da ricerca incrementale (ad opera della collettività degli sviluppatori o del monopolista proprietario del brevetto). Della General Public Licence si dice che permette a ognuno di “dare un mattone per avere in cambio una casa intera”. (1)
Ma lo slogan non racconta proprio tutto: primo, qualcuno deve aver gettato le fondamenta. (2) Secondo, vero è che in fase di sviluppo uno può dare un mattone e avere una casa intera in cambio, ma è altrettanto vero che la casa è sua anche se il mattone non ce lo mette: quindi, perché sprecarlo? In altre parole, l’adozione della Gpl presenta due problemi. Il primo, classico, è che l’assenza di brevettabilità riduce l’incentivo a inventare – in fase (i). L’altro, che a invenzione avvenuta, miglioramenti incrementali di qualità possono essere frustrati dal free-riding – in fase (ii).
Il primo problema, discusso già da Schumpeter e poi da Nordhaus in un famoso libro del 1969, è ancora più chiaro alla luce della teoria della crescita contemporanea che individua nel processo innovativo il motore principale dello sviluppo economico. (3) La prospettiva di profitti monopolistici garantita dalla brevettabilità rende profittevole l’attività di ricerca in quanto consente di recuperare costi iniziali che vendendo al costo marginale andrebbero inevitabilmente perduti. Fortunatamente, i processi innovativi non si arrestano del tutto in assenza di brevettabilità, e Linux ne è esempio eloquente. D’altra parte, è difficile contestare il fatto che tipicamente la brevettabilità costituisce un importante incentivo alla ricerca. (4)

Se l’input è comune a più processi produttivi

Il problema di free-riding creato dalla Gpl sugli sviluppi della nuova invenzione, con conseguente livello subottimale dell’investimento, è tipico dei beni pubblici (il risultato della ricerca diventa un bene pubblico con la General Public Licence). Tuttavia, il volume di ricerca su Linux ha di gran lunga superato quello messo in atto da Microsoft su Windows, e da un paio d’anni allo sviluppo di Linux concorre un pool di grosse imprese di telecomunicazioni e di produttori di hardware (in concorrenza fra loro) che finanziano l’Open Source Development Labs, dove non a caso lavora Torvalds a tempo pieno. Cosa sta succedendo? La nostra opinione è che stia accadendo qualcosa che non ha tanto a che fare con la natura digitale di Linux, quanto con la sua funzione di input comune a molteplici processi produttivi (5).
Per ricorrere a un esempio non digitale e non high-tech, si pensi agli impianti frenanti che entrano nella produzione delle automobili, dei camion, degli aeroplani. La nostra idea, confermata nel contesto di un modello biperiodale, è che a dispetto del problema di free-riding, la ricerca sullo sviluppo di un input comune a più processi in un contesto di General Public Licence può risultare addirittura maggiore che in regime di monopolio protetto da brevetto. Accade quando a fronte dell’effetto negativo di bene pubblico, è presente un abbastanza forte effetto di accrescimento del profitto totale dell’industria dovuto alla qualità dell’input comune e alla conseguente crescente produttività dei processi produttivi delle singole imprese. In altre parole, l’impresa investe nell’input/bene comune nonostante così facendo avvantaggi non solo se stessa ma anche i concorrenti, se al contempo accresce abbastanza la dimensione della “torta” da dividere con loro. Questa dei beni intermedi largamente usati sembra dunque la categoria di prodotti su cui concentrarsi, al di là del software, per pensare alla possibilità di adozione della Gpl.

Quale politica dei brevetti

Ristretta in tal modo l’attenzione a un campo di applicazione potenzialmente proficuo, emerge comunque un tradeoff per la politica dei brevetti: orientarsi sulla brevettabilità, favorendo innovazioni primarie che andrebbero incontro a uno sviluppo di prodotto relativamente lento. Oppure imporre una Gpl sulle nuove invenzioni (del tipo in questione) garantendo uno sviluppo sostenuto di qualità, accettando però un rallentamento del loro tasso di natalità. Ci sono vie d’uscita? Alla ricerca di un intervento pubblico che riesca ad aggirare il tradeoff appena descritto, sembrerebbe ragionevole esplorare la possibilità di mantenere sì la brevettabilità, ma poi per quei beni in cui c’è più ricerca incrementale con Gpl che sotto regime di monopolio (del tipo da noi individuato), lo Stato acquisti i brevetti, e li rilasci con licenza Gpl.

(1) Sono parole di Ganesh Prasad, un web designer affascinato dalle implicazioni economiche e sociali di Linux, che utilizza dal 1996.
(2) Per Linux è stato Linus Torvalds, un finlandese freddoloso che voleva fare tutto da casa, come ricorda nella sua autobiografia “Rivoluzionario per caso” pubblicata da Garzanti.
(3) Si vedano ad esempio i capitoli disponibili dell’
Handbook edito da Philippe Aghion e Steven Durlauf, di prossima pubblicazione.
(4) Il caso della brevettabilità del software piuttosto che la sua protezione con copyright, che tocca anche delicate questioni di brevettabilità delle idee, potrebbe essere un’eccezione, anche a causa degli intricati problemi legali che verrebbero a crearsi. Vedi il sito della Foundation for a Free Information Infrastructure,
ffii.org, per il dibattito in Europa.
(5) Aghion, P. e Modica S., “Open Source without Free-Riding”, in preparazione.


La Commissione Europea e i ministri europei reponsabili della Competitività hanno varato una controversa direttiva sulla brevettabilità di “computer-implemented inventions”. Lungi da poter essere considerato concluso, il dibattito dovrebbe ora investire l’intero sistema di tutela della proprietà intellettuale. Se si vuole incoraggiare l’attività innovativa e favorire la circolazione dei suoi risultati, le strategie copyleft sembrano le più adatte a promuovere la ricerca di base. E potrebbero innescare meccanismi per il recupero di competitività e di rilancio verso l’economia basata sulla conoscenza, perno della strategia di Lisbona.

L’Europa tra copyright e copyleft

Giovanni Bono e Enrico Santarelli

In passato, i programmi per elaboratori elettronici (“software”) erano soggetti alla disciplina sul diritto d’autore: le idee contenute nel programma non potevano essere brevettate. Sulla scorta dell’idea che il software contiene invenzioni come ogni altra realizzazione tecnologica, gli Stati Uniti (USA) hanno da tempo rotto con questa tradizione ed il software – come gli algoritmi matematici, i “business methods”, etc. – è entrato a pieno titolo fra le materie di brevetto. Nello stesso tempo, il “copyright” sul software è stato messo in crisi da una comunità transnazionale di sviluppatori, detta del “software libero” o “movimento open source”. Questa comunità è cresciuta grazie all’uso di licenze cosiddette “copyleft”, che mettono in comune i risultati invece di negoziarne la circolazione sul mercato. Tale pratica, che ha prodotto esperienze di successo nel settore del software – come GNU, Linux e Apache – e ha contagiato giganti come Netscape, IBM e Sun Microsystem si sta estendendo anche ad altri settori, dalla musica alle biotecnologie.
Commissione europea ed Europarlamento hanno dibattuto a lungo attorno alla possibilità di brevettare software.
La querelle si è aperta con un Green Paper presentato dalla Commissione nel 1997. Il 24 settembre 2003, l’Europarlamento ha approvato un testo fortemente limitativo, la direttiva dell’Unione Europea sulla brevettabilità di “computer-implemented inventions”. A sua volta, la Commissione ha presentato, il 18 maggio 2004, un testo modificato nella direzione opposta. Quest’ultimo, tuttavia, non ha raccolto sufficienti consensi, tanto che il 2 febbraio 2005 l’Europarlamento ha chiesto l’azzeramento dell’intera procedura, invitando la Commissione a soprassedere rispetto alla decisione in tema di brevettabilità del software. Infine, tra il 3 e il 7 marzo 2005, prima la Commissione poi i ministri europei responsabili della Competitività, hanno respinto questo invito e, malgrado l’opposizione più o meno ferma di alcuni paesi membri (la Spagna in testa, ma anche Cipro, Danimarca Lettonia, Paesi Bassi, Polonia, Ungheria) e l’astensione di altri (Austria, Belgio e Italia), manifestato una preferenza per l’orientamento copyright. In attesa di un nuovo pronunciamento dell’Europarlamento, è nostra opinione che la politica comunitaria per l’innovazione dovrebbe invece operare una scelta di campo diversa e decidere di sfruttare a fondo le opportunità di crescita generate dal copyleft.

Fautori e oppositori della brevettabilità

I fautori ritengono la brevettabilità del software un incentivo necessario all’attività innovativa: ne garantirebbe il futuro in Europa proteggendo le invenzioni sia delle piccole che delle grandi imprese. Gli oppositori osservano che, mentre negli altri campi la concessione del brevetto è subordinata alla divulgazione dell’informazione tecnologica su cui esso si basa, nel caso del software tale protezione è accordata anche se il codice sorgente rimane segreto. Di conseguenza, l’estensione del meccanismo brevettuale frenerebbe l’innovazione, mettendo l’industria europea del software saldamente in mano a un cartello di grandi imprese in grado di eliminare i concorrenti più piccoli grazie al pieno controllo che esercitano sui codici sorgente del software più diffuso. In effetti, il dibattito è stato talvolta letto come uno scontro tra gli interessi delle grandi e delle piccole imprese del settore.
La prassi ha tuttavia da tempo scavalcato i vincoli normativi, posti ad esempio dall’articolo 52 della European Patent Convention, e di fatto sono stati concessi numerosissimi brevetti sul software. Il problema, però, è di portata maggiore. Il punto di fondo è infatti se l’Unione europea debba seguire gli Stati Uniti sulla strada di una politica intransigente di tutela della proprietà intellettuale o se vi sia la possibilità di imboccare percorsi diversi. Si tratta, in altre parole, di scegliere con chiarezza il sistema prevalente di accesso alle conoscenze codificate, che rappresentano sia il principale input che il principale output di ogni attività innovativa.

Copyright e copyleft

La regolamentazione privata dell’accesso alle conoscenze codificate prende forme diverse in settori e sistemi giuridici diversi. Questa varietà di forme, pratiche e strategie negoziali può essere ricondotta a due tipologie generali: “copyright” e “copyleft”.
La strategia copyright, che include i brevetti, è tipicamente “chiusa” e comporta un’attribuzione selettiva dei diritti di accesso. La strategia copyleft, adottata dalla comunità degli sviluppatori di software libero, è invece “aperta” e attribuisce i diritti di accesso non selettivamente. Nel primo caso, la conoscenza generata dall’attività innovativa è una collezione di beni privati, accessibili soltanto a seguito di una negoziazione privata. Nel secondo, è un “commons”, cioè una risorsa di proprietà comune la cui riproduzione, circolazione e modifica sono limitate in modo tale da garantire la loro permanenza nel “commons”. Gli esempi di “commons” nella moderna società dell’informazione sono molteplici. Basti pensare, ad esempio, che gli standard tecnologici del world wide web sono in larga parte un “commons” e che l’istituzione che orienta la loro produzione – iniziata al Cern di Ginevra nel 1989 – è una joint venture franco-nippo-statunitense, il World Wide Web Consortium (w3c). E recenti esempi di successo di software copyleft come quelli del sistema operativo Linux e del server http (hyper text transfer protocol) Apache dovrebbero attenuare la diffidenza attorno a questa modalità di accesso alle conoscenze codificate. Tra l’altro, il ciclo di vita del software tende a diventare sempre più breve. Tutelarlo con una strategia copyright rigida e protratta nel tempo non sembra avere molto senso, anche in considerazione del fatto che la profittabilità di un prodotto software è di regola alta subito dopo la sua immissione sul mercato, ma rapidamente decrescente nel periodo successivo (Forrest, 2003).

Imparare dagli Usa?

L’esperienza Usa non sembra d’altra parte un modello da imitare. In un recente libro, due tra i massimi studiosi statunitensi di economia dell’innovazione, Adam Jaffe e Josh Lerner, sostengono che il sistema americano di tutela della proprietà intellettuale tramite i brevetti è andato in crisi proprio a partire dalla prima metà degli anni Ottanta.
Le cause sono l’introduzione di una Corte d’Appello centralizzata (Cafc) che ha unificato e potenziato il trattamento giudiziario dei diritti brevettuali, e la trasformazione dell’ufficio brevettuale (Uspto) in agenzia di servizi i cui costi di mantenimento sono pagati attraverso le fees dei “clienti” (i patent applicants, coloro che presentano domanda di concessione di brevetto), anziché dal governo federale. L’orientamento pregiudizialmente favorevole della Cafc nei confronti dei titolari di brevetto (“patent holders”) e la trasformazione dello Uspto in una struttura di servizio dei “patent applicants”, ha determinato una autentica esplosione dell’attività brevettale, cresciuta tra il 1982 e il 2002 al ritmo medio del 5,7 per cento l’anno, contro l’1 per cento medio annuo del periodo 1930-1982. Accompagnata, però, da una crescita esponenziale nel numero dei contenziosi giudiziari, da una sostanziale perdita di rigore nelle procedure di valutazione delle domande e di attribuzione dei brevetti da parte dello Uspto, nonché da un aumento dei costi di transazione per l’acquisto e la cessione di licenze sui brevetti. Oltre tutto, la proliferazione di brevetti di scarsa o nessuna rilevanza tecnologica e i costi sempre più elevati di difesa dei brevetti in sede giudiziale, non hanno portato all’incremento sperato nella realizzazione di innovazioni di prodotto.

Cosa fare in Europa

Naturalmente, occorre valutare con estrema cautela se una politica tradizionale – di impostazione copyright – sia preferibile all’esplorazione di politiche nuove – di ispirazione copyleft. Oltre a suggerire un ripensamento della normativa sulla brevettabilità del software, il dibattito europeo dovrebbe investire l’intero sistema di tutela della proprietà intellettuale. Gli strumenti per la “tutela della proprietà intellettuale” e quelli per la formazione di “commons” di conoscenza servono lo stesso duplice scopo: incentivare l’attività innovativa e favorire la circolazione dei suoi risultati. L’esperienza delle economie industriali induce a considerare i primi come i più adatti a promuovere gli investimenti privati in ricerca & sviluppo, perché consentono una esplorazione sistematica e ordinata delle prospettive aperte da una invenzione primaria. I secondi sembrano invece i più adatti a favorire la ricerca di base, svolta o finanziata da fondazioni ed enti pubblici, le università in testa.
Se l’Europa riuscisse a coniugare il regime di tutela e riconoscimento dell’innovazione nel suo complesso con politiche ispirate a esperienze copyleft, potrebbe gettare le basi per lo sviluppo di un meccanismo incentivante originale e capace di indurre individui e imprese a scegliere strategie di innovazione aperte. Sarebbe uno strumento di recupero di competitività e di rilancio nel cammino verso un’economia basata sulla conoscenza, l’obiettivo prioritario individuato dal Consiglio europeo di Lisbona nel marzo 2000.

Per saperne di più

Sulle recenti tendenze negli Usa e in Europa abbiamo citato:
Jaffe, Adam J e Josh Lerner (2004), Innovation and Its Discontents, Princeton e Oxford, Princeton University Press.
Forrest, Heather (2003), “Europe: Open Market … Open Source?”, Duke Law & Technology Review, http://www.law.duke.edu/journals/dltr/articles/2003dltr0028.html

Per quanto riguarda il “copyleft”, rinviamo alle pagine web delle più importanti istituzioni di governo di “knowledge commons”, la Free Software Foundation (http://www.fsf.org/), la Open Source Initiative (http://www.opensource.org/) e il Creative Commons (http://creativecommons.org/).

Un’introduzione tecnica ma accessibile al problema della circolazione delle conoscenze codificate è contenuta in:
Quah, Danny (2004), “Digital Goods and the New Economy”, Centre for Economic Policy Research, Discussion Paper Series No. 3846,
www.cepr.org/pubs/dps/DP3846.asp

Un’utile risorsa bibliografica per il lettore economista si può trovare al seguente indirizzo:
http://www.dklevine.com/general/intellectual/intellectual.htm

 


La pubblica amministrazione ha difficoltà a utilizzare le tecnologie con efficienza e efficacia. Lo dimostra la limitata diffusione di software open source. Per non aggravare i ritardi già accumulati servono scelte precise e un sistema di incentivi e disincentivi per realizzarle. E si potrebbe così rivitalizzare l’industria italiana del software.

Perchè la PA diffida di Apache

Lucio Picci


Il 63 per cento nel mondo, ma solo il 38 per cento nell
amministrazione pubblica italiana: questo il confronto della diffusione di un importante software open source (Os), il server web Apache, il programma che permette di far funzionare i siti web (compreso quello de lavoce.info). (1) Sono necessarie politiche precise per colmare questa distanza, che è un sintomo della difficoltà dellamministrazione italiana a utilizzare le tecnologie con efficacia ed efficienza. Da un punto di vista pratico, e con qualche approssimazione, la differenza tra software proprietario e Os consiste nel fatto che nel primo caso, di solito dopo il pagamento di una licenza duso, lutente può eseguire il programma, ma non vede come è stato scritto e non può modificarlo, mentre il software open source può essere modificato e ulteriormente distribuito, ed è gratuito.

Non sempre vince il migliore

La scelta tra software proprietario (come quello prodotto da Microsoft) e Os non è ovvia. È importante considerare la presenza di effetti di rete, che si hanno quando il beneficio del possesso di un prodotto dipende positivamente dal numero di consumatori che già ne dispongono. Come telefono o fax, anche il software è tanto più utile quanto più è diffuso. Per questo è difficile contrastare un prodotto che gode di un mercato ampio anche quando si dispone di una tecnologia più vanzata: nelle industrie in cui vi sono effetti di rete, non sempre vince il migliore. Ed è questo il vantaggio di cui godono i prodotti Microsoft nel mercato del software per la produttività di ufficio (videoscrittura e fogli di calcolo, per esempio): abbandonarli significa anche rinunciare allestrema comodità con cui si scambiano per e-mail documenti in un formato che è divenuto uno standard de facto, oltre che alla consulenza gratuita dei vicini di scrivania.
Nel mercato
lato server, come nel caso del server web Apache, la situazione è diversa. Per esempio, Apache è dominante, gratuito, eccellente, ben documentato e utilizza un sistema operativo, Unix, disponibile (anche) a titolo gratuito, secondo molti migliore del concorrente Microsoft. Al di là di una generale avversione per il software che non proviene da un produttore importante, con la relativa deresponsabilizzazione dei tecnici che comporta una tale attitudine, vi sono dunque poche ragioni per non adottarlo: la ridotta diffusione di Apache nellamministrazione pubblica indica una scarsa propensione ad avvalersi di soluzioni tecnologiche efficaci ed efficienti.

Dalla commissione le consuete raccomandazioni

Il Governo dovrebbe riflettere. Il ministro dellInnovazione, Lucio Stanca, istituì lo scorso novembre una commissione sul software Os che ha da poco terminato i suoi lavori. Senza prendere posizione precisa, e cercando di accontentare un po’ tutti, la commissione propone lusuale armamentario: qualche misura concreta, qualche risorsa, ma soprattutto raccomandazioni assortite, il più delle volte senza occuparsi degli incentivi e disincentivi perchè queste non rimangano sulla carta. Invece, trascura completamente il fatto che la scelta di una tecnologia di rete non è analizzabile al livello del singolo utente, ma deve tenere conto degli effetti che abbiamo indicato e del conseguente problema del coordinamento delle scelte individuali. Esiste unampia letteratura scientifica su questo tema, e Stanca avrebbe fatto bene a non affidarsi soltanto, o prevalentemente, a (ingegneri) informatici, le cui competenze sono altre.

È tempo di decisioni

Nei fatti se non nelle intenzioni, le commissioni dagli esiti ecumenici, molto spesso servono per non decidere, o per decidere di non fare nulla. Per il software Os, con i ritardi già accumulati e dopo decenni di decadenza dellindustria italiana del software, sono invece necessarie iniziative, magari di portata ridotta, ma concrete.
Un obiettivo ragionevole consiste nel promuovere il software Os
lato server, dove gli effetti di rete non sono avversi. Servirebbe un misto di prescrizioni e di incentivi verso quei tecnici e quelle amministrazioni che si comportano virtuosamente, e un servizio di consulenza e di formazione, allinterno di strutture già presenti, che permetta ai tecnici di adeguarsi e renda ingiustificabili le eventuali resistenze. Si otterrebbero risparmi, si incoraggerebbe lutilizzo di tecnologie avanzate, si creerebbe un primo presupposto per un maggiore controllo delle tecnologie e si valorizzerebbero le competenze tecniche migliori dentro lamministrazione. Esistono però obiettivi più ambiziosi, che il Governo farebbe bene a considerare con attenzione maggiore di quanto non abbia fatto sino ad ora, e senza timore reverenziale verso Microsoft. Lamministrazione pubblica spende per il software circa 700 milioni di euro allanno. C’è spazio per una politica che promuova linsieme della produzione Os, tanto più che uno spostamento della domanda dellamministrazione pubblica sarebbe di grande beneficio per lindustria italiana del software, in un certo senso la reinventerebbe. Ma sarebbero necessari interventi veramente incisivi e una notevole capacità di gestire una strategia coraggiosa e innovativa.
Il primo, più
modesto, obiettivo, può essere considerato intermedio rispetto al secondo: lanalisi dei primi risultati ottenuti potrebbe servire per decidere se allungare il passo.
In ogni caso, però
, il Governo dovrebbe dichiarare che cosa vuole fare e con quali strumenti. Tenendo presente che le scelte, o le non scelte, del passato, hanno già danneggiato la diffusione del software Os nell’amministrazione pubblica.

(1) I dati derivano da una rilevazione realizzata presso il corso di laurea in Economia di Internet dellUniversità di Bologna, e si riferiscono a un campione di siti dei soli comuni, province e regioni. Oltre alla diffusione del server web Apache, essi mostrano la diffusione degli analoghi prodotti Microsoft, utilizzati nel 58 per cento dei casi, contro il 27 per cento a livello mondiale (il confronto mondiale è reso possibile dalla rilevazione di Netcraft).

IRAP

Il rischio di bocciatura dell’Irap da parte della Corte di Giustizia Europea, per quanto immotivato dal punto di vista giuridico ed economico, ha riportato alla ribalta il dibattito su come sostituire la terza imposta del nostro ordinamento.
Fra le opzioni che sono discusse negli articoli che seguono, alcune puntano a preservare le caratteristiche dell’Irap (ipotesi dello “spacchettamento”), altre considerano imposte alternative, sui redditi o sui consumi. Fra queste, assumono particolare interesse quelle che garantiscano autonomia impositiva alle regioni, e sono meno sperequate sul territorio. Su un tema così delicato è comunque fondamentale evitare l’improvvisazione.

Scuola e università

Sommario a cura di Daniele Checchi

La scuola italiana non funziona. Ma non è un problema di risorse: nei paesi che spendono quanto l’Italia in formazione primaria e secondaria, la performance dei quindicenni è di gran lunga migliore che da noi. E’ un problema di qualità degli insegnanti? E’ difficile, ma non impossibile, misurarla e dovrebbe essere maggiormente incentivata. Ma per farlo bisogna affermare la cultura della valutazione, vincendo fortissime resistenze alle rilevazioni. La valutazione sulla base di parametri oggettivi è ancora più importante nel caso dei concorsi universitari. Apriamo il confronto su due proposte alternative. La prima propone di mantenere i concorsi per l’ingresso nella carriera universitaria a livello decentrato, attribuendo agli atenei locali anche la responsabilità finale (e l’onere economico corrispondente) della conversione a tempo indeterminato dei contratti di docenza e/o ricerca. La seconda propone di tornare ai concorsi nazionali per combattere il malcostume dei concorsi fasulli. Ma non basta probabilmente riformare i concorsi. Perchè l’università italiana incentivi la ricerca bisogna smettere di premiare solo (e troppo) l’anzianità di servizio, rendendo il sistema impermeabile alla concorrenza esterna, come dimostrano i dati sui pochissimi docenti stranieri presenti in Italia. Mentre le risorse disponibili al sistema universitario italiano non sono cresciute in termini reali negli ultimi 5 anni, il governo ha scommesso sulle iniziative di eccellenza come l’Istituto italiano di tecnologia. Se ne è parlato più prima della sua nascita che adesso che sta per concludersi la fase di startup. Al commissario unico e al direttore scientifico dell’Iit abbiamo formulato alcune domande per capire lo stato di avanzamento di questo progetto. Ospitiamo le risposte di Vittorio Grilli, commissario unico dell’Iit e Roberto Cingolani, direttore scientifico dell’istituto.

Il concorso? Meglio nazionale, di Pietro Ichino

Per il reclutamento dei professori universitari, fino alla riforma del 1998 la legge italiana prevedeva che si svolgesse un concorso unico nazionale ad anni alterni, un anno per quelli di prima fascia e nell’altro anno per quello degli associati. Quanto alla commissione giudicatrice, per la prima fascia, tutti i professori della materia erano chiamati a eleggere dieci possibili commissari, tra i quali venivano sorteggiati i cinque membri. Per gli associati, il sorteggio dei possibili commissari precedeva l’elezione. Alle singole facoltà interessate era data poi la scelta tra i vincitori per la copertura delle cattedre messe a concorso.

Il circolo vizioso del passato

Perché quel sistema funzionasse bene (nei limiti consentiti dal contesto del sistema universitario italiano), mancava solo una regola: scioglimento automatico della commissione che non avesse esaurito i propri lavori entro tre o quattro mesi; ed elezione di una nuova, con esclusione dall’elettorato passivo per i vecchi commissari.
Poiché questa regola non c’era, i lavori delle commissioni erano sovente interminabili, essendo intralciati dai veti incrociati e dai complessi giochi di alleanze e contro-alleanze accademiche in cui i commissari venivano invischiati. I concorsi duravano anni. Così, a ogni nuovo concorso, il numero di posti in palio era molto elevato; il che contribuiva ulteriormente a rallentare i lavori. L’intervallo lungo tra un concorso e l’altro e il numero abnorme dei posti in palio contribuivano a drammatizzare l’importanza del concorso e a rallentarne lo svolgimento, in un evidente circolo vizioso. La drammatizzazione portava poi con sé un altissimo numero di ricorsi dei candidati perdenti al Tribunale amministrativo, dai quali il ministro dell’Istruzione era letteralmente sommerso.

I gravi difetti dell’attuale sistema

Questa alluvione di ricorsi giudiziali è stata una ragione non secondaria della scelta del ministro Berlinguer di decentrare i concorsi: con la riforma del 1998 sono ora i singoli atenei a bandirli (e quindi a doversi eventualmente difendere davanti al Tar). Ma il nuovo sistema ha due difetti gravissimi. In primo luogo, garantisce un forte privilegio al candidato appartenente all’università che bandisce il concorso, alla quale compete la nomina di uno dei membri della commissione; è rarissimo, infatti, che il “candidato interno” risulti perdente; l’unico dato incerto, quando è incerto, è il nome del secondo vincitore, destinato a essere chiamato altrove. Inoltre, il nuovo sistema prevede l’elezione di tante commissioni quanti sono i concorsi banditi dagli atenei: ciò che comporta un gran numero di voti e di candidature, con corrispondente enorme lavorio elettorale (praticamente ininterrotto: le “tornate” elettorali sono due, tre, persino quattro all’anno), seguito da giochi estremamente complessi tra le commissioni di concorsi diversi cui partecipano contemporaneamente gli stessi candidati. E poiché per questo lavorio elettorale e post-elettorale sono normalmente più disponibili i professori che si dedicano meno intensamente alla ricerca e all’insegnamento, il sistema presenta un alto rischio di favorire nettamente gli interessi di questi ultimi rispetto a quelli dei professori migliori.
Questo spiega e in qualche misura giustifica la prassi, invalsa in numerosi comparti accademici, di affidare a uno o più professori anziani il compito di “dirigere il traffico” concorsuale, raccogliendo le candidature, valutandone il merito, stabilendo una sorta di graduatoria di precedenza ragionata e proponendo alla comunità accademica le corrispondenti indicazioni elettorali per la costituzione delle commissioni. Anche se comprensibile – e, dove funziona in modo pulito, giustificabile come male minore – questa prassi significa che, in realtà, i concorsi tendono a ridursi a una formalità vuota: la vera sede in cui si decidono i vincitori è l’organo informale di “coordinamento”. Quando poi il coordinatore – rafforzato dagli alti costi di transazione che si impongono a chi tenti di scalzarlo dalla sua posizione – si trasforma in dittatore, minacciando e applicando sanzioni contro chi disattende le sue indicazioni, si verifica la grave degenerazione del sistema denunciata da Gino Giugni due settimane or sono. L’ordinamento statale, come ci ha insegnato Ronald Coase, serve essenzialmente per ridurre i costi di transazione. Quando esso, invece di ridurli, li moltiplica, tende a nascere spontaneamente qualche altro ordinamento finalizzato a ridurre quei costi, che si sovrappone all’ordinamento statale. Con risultati sovente pessimi: la spontaneità del fenomeno non costituisce affatto una garanzia di bontà del rimedio.

Una possibile soluzione

Alla radice di questi mali del nostro sistema universitario sta, certo, il “valore legale” della laurea che toglie gran parte del significato alla concorrenza tra gli atenei; e a questo si accompagnano altri difetti strutturali che non si eliminano con la sola riforma – per quanto ben congegnata – del reclutamento dei docenti (per un disegno di riforma organica vedi qui sotto l’articolo di Gagliarducci, Ichino, Peri, Perotti). Ma il sistema di reclutamento oggi in vigore fa troppi danni per essere lasciato sopravvivere anche solo per poco. Nel contesto attuale, forse la scelta migliore è quella di un ritorno al sistema precedente al 1998 per i professori di prima fascia, con il correttivo di cui si è detto sopra: i professori di ciascuna materia votano una volta all’anno e una sola, per una commissione composta da membri non rieleggibili nella tornata successiva; la commissione designa ogni anno un piccolo numero di idonei alla cattedra; e se non lo fa entro tre mesi decade automaticamente. Libero poi ciascun ateneo di chiamare uno degli idonei, se concorda con la commissione nel ritenerlo tale, anche rispetto ai propri standard, alle proprie esigenze didattiche e ai propri programmi di ricerca.

Come reclutare i migliori, di Pietro Reichlin e Filippo Taddei

Questo scritto propone un sistema per il reclutamento dei docenti universitari che possa facilitare l’accesso alla carriera accademica a chi è giovane e si dedica principalmente alla ricerca. Il nostro schema adotta la produzione scientifica come criterio fondamentale per l’assunzione e l’entrata in ruolo dei giovani ricercatori il cui lavoro verrebbe valutato dai dipartimenti di riferimento e da commissioni composte da ricercatori di “chiara fama” (come nel Comitato di indirizzo per la valutazione della ricerca). Tuttavia, il nostro schema ha il pregio di non proporre un meccanismo esclusivo rispetto ad altri sistemi di reclutamento. In particolare, riteniamo che debba affiancare un sistema concorsuale completamente decentrato regolato da incentivi e disincentivi pecuniari per il miglioramento della qualità (scientifica e didattica) degli atenei.

Perché intervenire

Nella seduta del 13 e 14 aprile del 2005, il Consiglio universitario nazionale ha approvato un parere sul riordino dello stato giuridico e del reclutamento dei professori universitari che, esprimendo contrarietà alla messa in esaurimento del ruolo dei “ricercatori”, propone l’articolazione “della docenza universitaria in tre livelli, con precisa definizione delle funzioni specifiche di ognuno di essi”. (1)
Chi ritiene che la qualità della ricerca e l’inserimento dei giovani nell’università italiana siano obiettivi fondamentali, non può che essere deluso dal documento del Cun. Non si capisce a cosa serva un terzo livello di docenza. Non si avverte l’allarme per l’automatismo che caratterizza la progressione di carriera dei professori. Del resto, nemmeno il ministro Moratti offre proposte soddisfacenti. Il prospettato ritorno al “concorso nazionale” non risolve nessuno dei problemi principali. Alcuni sostengono giustamente l’esigenza di “liberalizzare” il reclutamento per concentrarsi sui meccanismi di finanziamento degli atenei, incentivando così comportamenti virtuosi. Gli atenei che assumono ricercatori bravi dovrebbero avere più soldi, quelli che assumono parenti e amici dovrebbero essere penalizzati. Il criterio di ripartizione dei fondi dovrebbe essere affidato a una commissione composta da accademici di fama italiani e stranieri. Questa proposta, che chiameremo “liberista”, semplifica enormemente le procedure, cerca di premiare il merito scientifico, ma, secondo noi, soffre di alcuni difetti che la nostra prospettiva cerca di risolvere.
In base al sistema liberista, i dipartimenti hanno incentivi deboli: possono aspettarsi di conseguire solo vantaggi marginali da un comportamento virtuoso perché l’assegnazione dei fondi avverrebbe sulla base degli atenei, non dei dipartimenti. Inoltre, la penalizzazione pecuniaria ex post ha due problemi. In primo luogo, non è facilmente praticabile perché sanziona, negando i finanziamenti, sulla base di criteri stabiliti posteriormente alle condotte.
In secondo luogo, ha il difetto di colpire tutti i dipartimenti e le facoltà compresi nell’ateneo, indipendentemente dal loro comportamento individuale. Infine, la proposta liberista sembra penalizzare gli atenei periferici e di recente formazione, generalmente caratterizzati da una breve serie di risultati scientifici e una scarsa capacità di attrazione.

La nostra proposta

Questi difetti non rendono inopportuno il principio meritocratico alla base del sistema liberista, ma richiedono l’introduzione di un meccanismo parallelo per il reclutamento dei docenti rivolti alla ricerca. Già oggi le unità di ricerca che si formano nei dipartimenti possono ottenere dal ministero il finanziamento di posizioni a contratto nell’ambito dei progetti di ricerca. Si tratta, in generale, di contributi inadeguati e limitati a un massimo di tre anni.
Questo sistema dovrebbe essere potenziato e adeguato. Vogliamo fare in modo che i contratti di lavoro per i ricercatori così finanziati (1) siano retribuiti in modo adeguato, (2) abbiano maggiore durata riducendo l’incertezza dei giovani ricercatori e, soprattutto, (3) permettano l’immissione nell’organico di ruolo dell’università, previo parere favorevole di una commissione ministeriale e degli organi accademici di riferimento. Il sistema che abbiamo in mente potrebbe essere facilmente organizzato. Ogni anno ciascun dipartimento può sottoporre al ministero alcuni progetti di ricerca di durata compresa tra tre e sei anni. La flessibilità è completa: ciascun progetto risponde a esigenze e caratteristiche della disciplina di riferimento, ma include sempre la richiesta dei fondi necessari al suo completamento e, in particolare, del finanziamento del numero di ricercatori desiderati. I rapporti di lavoro prodotti sono quindi motivati dal progetto di ricerca, e perciò di eguale durata. Le retribuzioni di ciascun ricercatore sono flessibili e decise in autonomia da ciascun dipartimento: soggette a un limite minimo, non ne hanno uno massimo. I dipartimenti possono essere incoraggiati, da incentivi fiscali ai donatori e premi ministeriali, a “cofinanziare” il progetto procurandosi finanziamenti aggiuntivi (privati, ateneo, eccetera). Il ministero costituisce un fondo per ciascuna disciplina e i dipartimenti che vi appartengono competono per l’attribuzione delle risorse ministeriali. Naturalmente, questi fondi devono essere ben più consistenti di quelli oggi stanziati. Potrebbero essere aumentati anche prelevando denaro dal fondo per la gestione ordinaria degli atenei.
approvazione dei progetti e la conseguente assegnazione dei fondi viene quindi decisa sulla base del giudizio di una commissione nazionale composta da studiosi di chiara fama impegnati in Italia e all’estero, per ciascuna disciplina di riferimento. Non tutti i progetti presentati devono necessariamente essere finanziati: una preselezione esclude quelli non meritevoli. Come si vede, la caratteristica fondamentale del sistema fin qui proposto è quella di garantire un punto di partenza paritetico a ciascun dipartimento, tenendo fermo l’obiettivo di incentivare comportamenti virtuosi, come nel sistema liberista, e fornendo un canale aggiuntivo per l’assunzione dei giovani ricercatori.
Una volta attribuiti i fondi, i dipartimenti bandiscono con procedura pubblica e trasparente le posizioni a contratto coerenti col progetto approvato. Non hanno però alcun vincolo riguardo alle procedure di selezione, ai possibili vincitori e alle remunerazioni, eccetto l’incompatibilità con altri incarichi di docenza a tempo pieno.
Infine, alla scadenza dei termini del progetto di ricerca, le commissioni nazionali valutano la coerenza tra obiettivi e risultati dei progetti finanziati (numero e qualità delle pubblicazioni scientifiche, risultati di esperimenti, brevetti, eccetera). Il risultato di queste valutazioni porta all’assegnazione del finanziamento necessario a trasformare, presso il dipartimento ove si è svolta la ricerca, una o più posizioni a tempo determinato in posti di ruolo per professori di prima o seconda fascia (ad arbitrio della commissione). Oppure, alternativamente, alla negazione di tale finanziamento e alla conclusione del rapporto di lavoro degli assunti. Il numero delle posizioni di ruolo finanziate mediante questa procedura dipende dall’ammontare dei fondi ministeriali stanziati. Il sistema non subisce la pressione corporativa: da una parte la limitatezza dei fondi e dall’altra il doppio livello di controllo (commissione ministeriale e dipartimento afferente) garantiscono la selettività delle “conferme in ruolo”.

I vantaggi

Riassumiamo i principali vantaggi di questo sistema. Innanzitutto, è basato sul merito scientifico perché “incentiva” comportamenti virtuosi nella selezione dei ricercatori, condizionando la concessione dei fondi ai risultati della ricerca. È un obiettivo condiviso dal sistema “liberista”, che pensiamo debba essere introdotto come sistema principale per l’assunzione e la promozione dei docenti universitari. Tuttavia, crediamo che il nostro meccanismo possa funzionare come “complemento” sia dell’attuale ordinamento che di quello “liberista”. Il sistema da noi proposto interviene ex-ante, cioè all’inizio del progetto quando i ricercatori vengono selezionati, garantendo un punto di partenza paritetico a tutti i dipartimenti in competizione. Inoltre, è maggiormente selettivo: concede premi o penalità ai singoli dipartimenti, evitando che “le politiche di ateneo” possano contrastare l’efficacia degli incentivi ministeriali, mentre consente ai docenti più impegnati nella ricerca di acquisire un maggiore potere accademico.

(1) Sessione 174, 13 e 14/4/2005

Rilevazioni senza qualità, di Solomon Gursky

Quest’anno per la prima volta si è registrata nelle scuole una notevole opposizione alle rilevazioni del Servizio nazionale di valutazione degli apprendimenti, a diversi livelli e con diverse motivazioni. Alcune critiche sembrano francamente poco condivisibili, altre sono decisamente più fondate. Come l’obbligatorietà, l’oggetto e il campo delle rilevazioni e il periodo in cui vengono effettuate. Ma soprattutto la scarsa qualità delle prove. Si rischia così di bloccare la diffusione della cultura della valutazione nella scuola.

In aprile si sono svolte le rilevazioni del “Servizio nazionale di valutazione degli apprendimenti”, organizzate e gestite dall’Invalsi.
Per la prima volta da quando sono stati organizzati i cosiddetti “Progetti pilota”, nel 2001-2002, si è registrata nelle scuole una notevole opposizione alle rilevazioni, a diversi livelli e con diverse motivazioni. Allo stesso tempo, prese di posizione critiche sono state assunte da parte di organizzazioni sindacali, di associazioni professionali e di genitori, di comitati spontanei che si sono formati in questi ultimi due anni in opposizione alla legge di riforma della scuola promossa dal ministro Moratti.

I motivi delle resistenze

Basta navigare un po’ in Internet per raccogliere un campionario dei motivi all’origine delle proteste che si sono manifestate nelle scuole. Alcuni di questi motivi sembrano francamente poco condivisibili, altri hanno ben diversa e più fondata motivazione. Tra i primi rientrano quelli che denunciano ipotetiche situazioni di stress a cui verrebbero sottoposti i “bambini” della scuola elementare; oppure quelli che sottolineano l’impossibilità e l’illegittimità di qualsiasi forma di rilevazione esterna, che non sia preventivamente negoziata e concordata con insegnanti e genitori. Altri motivi appaiono invece più fondati e più mirati.
Obbligatorietà delle prove Da quest’anno la partecipazione alle rilevazioni è obbligatoria per il primo ciclo dell’istruzione (scuole elementari e medie). In realtà, non c’è alcuna circolare ministeriale che sancisca questa obbligatorietà. La comunicazione alle scuole è arrivata dall’Invalsi e sulla base della approvazione di alcuni provvedimenti normativi: la legge di riforma della scuola che prevede l’istituzione del Servizio nazionale di valutazione; il decreto legislativo con il quale è stato riordinato l’Invalsi, trasformandolo definitivamente (per ora) in Istituto nazionale per la valutazione del sistema dell’istruzione e della formazione; la pubblicazione delle Indicazioni nazionali, allegate al decreto legge 59/2004. Ma in nessuno di questi documenti è sancita esplicitamente la obbligatorietà della partecipazione alle rilevazioni. Il Miur ha interpretato in termini di obbligatorietà quanto nel decreto istitutivo del Servizio nazionale di valutazione viene presentato in termini di “concorrenza“: “(…) al conseguimento degli obiettivi di cui al comma 1 concorrono l’Istituto nazionale di valutazione di cui all’articolo 2 e le istituzioni scolastiche e formative“.
L’oggetto della rilevazione. Per la costruzione delle prove si è fatto riferimento agli Osa (Obiettivi specifici di apprendimento) contenuti nelle Indicazioni nazionali. Le Indicazioni sono allegate al decreto 59/04 e di fatto non si possono ancora considerare obbligatorie (anche in riferimento alla normativa vigente sull’autonomia delle istituzioni scolastiche).
Il campo della rilevazione. La rilevazione è limitata agli apprendimenti. Non viene utilizzato alcun questionario che consenta di interpretare i risultati conseguiti con le variabili socio-culturali di provenienza degli studenti. Il cosiddetto “questionario di sistema” a tutto aprile non era stato ancora inviato alle scuole e, comunque, non è prevista una sua utilizzazione per analizzare le variabili di contesto (scolastico) in rapporto ai risultati conseguiti dagli studenti nelle prove. Ulteriori critiche vengono rivolte all’attendibilità e alla trasparenza delle procedure di rilevazione, alla valenza culturale delle prove, all’uso dei risultati della rilevazione.

Le ambiguità e le contraddizioni

Queste critiche sarebbero già di per sé abbastanza rilevanti. In realtà la situazione è ancora peggiore, gli elementi di ambiguità e di contraddizione sono più numerosi.
Innanzitutto, permane l’ambiguità sull’oggetto delle rilevazioni. Leggendo i vari documenti normativi e i materiali pubblicati sul sito dell’Invalsi, di volta in volta si parla di Osa, di conoscenze e abilità, di competenze. Su questo punto specifico va ricordato che la legge di riforma riserva esplicitamente alle rilevazioni nazionali il compito di individuare soltanto le conoscenze e le abilità, ma non le competenze, la cui valutazione è spetta in modo esclusivo degli insegnanti.
In secondo luogo, anche se l’obiettivo dichiarato sembra essere quello di contribuire alla valutazione del sistema scolastico, la decisione di condurre una rilevazione non campionaria, ma censimentaria farebbe pensare alla volontà di utilizzare i risultati delle rilevazioni per valutare le singole scuole. Del resto, il ministro Moratti ha più volte affermato che, grazie al Servizio nazionale di valutazione, i genitori avranno utili elementi di giudizio per decidere a quale scuola iscrivere i propri figli.
In terzo luogo, il periodo dell’anno scolastico in cui vengono effettuate le rilevazioni è quanto meno singolare. Non siamo ancora alla fine dell’anno scolastico e quindi le rilevazioni non possono riferirsi a quanto gli studenti hanno acquisito nelle classi che stanno frequentando. D’altro canto, sono passati ormai troppi mesi perché le rilevazioni possano essere destinate a misurare i risultati conseguiti nel precedente anno scolastico.  È chiaro quindi che, da questo punto di vista, la rilevazione non è né carne, né pesce. Ma dopo tre progetti pilota non è più accettabile che ancora si parli di una prova volta a “testare la macchina organizzativa”. La riforma prevede che queste rilevazioni debbano in futuro essere effettuate all’inizio dell’anno scolastico per poter essere utilizzate in funzione diagnostica da parte degli insegnanti e delle scuole. Chi abbia un minimo di consuetudine con i problemi connessi alla realizzazione di rilevazioni su scala così larga e con i problemi legati alla elaborazione e alla analisi dei dati, sa bene che tutto ciò richiede alcuni mesi di lavoro e che quindi tale obiettivo è chiaramente non perseguibile.
Un quarto motivo di ambiguità, anzi di forte critica, è relativo alla qualità delle prove utilizzate e delle modalità con cui sono state elaborate. Fino ad ora non un solo dato è stato reso pubblico sulle caratteristiche metriche delle prove.
Preoccupa anche il fatto che tali prove non sono accompagnate – come è prassi normale in tutte le indagini – da questionari volti ad acquisire informazioni sulle variabili di contesto. In che modo interpretare, quindi, i dati raccolti? L’assenza di informazioni su tali variabili sarebbe giustificabile solo se la rilevazione avesse per obiettivo la certificazione di livelli di prestazione predefiniti. Ma questo non accade nelle “valutazioni di sistema” e, comunque, presuppone la definizione di standard di prestazione, articolati per ciascun anno scolastico, che nessuno ha provveduto a predisporre.

I rischi e i danni in prospettiva futura

Purtroppo, le reazioni negative determinate dal modo in cui le rilevazioni vengono impostate e realizzate stanno trasformandosi in un rifiuto generalizzato nei confronti della valutazione tout court. Il rischio è che sarà sempre più difficile distinguere tra posizioni di conservazione, contrarie a qualsiasi introduzione di momenti seri di valutazione nel nostro sistema scolastico, e posizioni che giustamente individuano le ambiguità e le caratteristiche negative delle rilevazioni in atto. Per anni, si è parlato della necessità di lavorare per la diffusione di una cultura della valutazione nella scuola, tra gli insegnanti e anche tra studenti e genitori.
L’impressione è che la (scarsissima) qualità delle rilevazioni proposte dall’Invalsi nell’ambito del nuovo sistema di valutazione vadano in direzione opposta, con il rischio di buttare il “bambino” della valutazione insieme all’acqua sporca delle rilevazioni di quest’anno.

Quanto conta il bravo maestro, di Salvatore Modica

È da poco apparsa su Econometrica una importante ricerca sulla qualità della scuola, alla quale hanno lavorato studiosi che si occupano di scuola da trent’anni. Le due questioni che l’articolo affronta sono queste: quanto contano gli insegnanti nel determinare la qualità dell’apprendimento? E cosa determina la qualità degli insegnanti?

Un insegnante vale l’altro?

A giudicare dall’alacrità con cui i genitori si informano sui possibili insegnanti dei figli, e da tutto quello che sono disposti a fare per ottenere che i figli entrino nelle classi degli insegnanti che vengono giudicati bravi, sembrerebbe del tutto evidente che la risposta alla prima domanda non possa che essere: “gli insegnanti contano quasi più di tutto il resto”.
Il problema è che quando per la prima volta, negli Stati Uniti con il Coleman Report del 1966 si cominciarono a misurare gli effetti delle caratteristiche principali degli insegnanti, quali per esempio la loro esperienza di insegnamento e il loro livello di istruzione, sui risultati degli alunni, si trovò che risultavano sorprendentemente deboli. Da allora, le ricerche si sono ovviamente moltiplicate, gli strumenti di misurazione raffinati, sono poi cominciati ad arrivare risultati dei test sulla qualità dell’apprendimento, si sono evolute le tecniche econometriche di analisi dei dati, e così via. Tutte queste ricerche non hanno fatto altro che riconfermare quelle strane conclusioni del Coleman Report: le caratteristiche che comunemente si pensa stiano alla base della qualità degli insegnanti non influenzano più di tanto la qualità dell’apprendimento. Pochi credo abbiano pensato di potersi basare su questa pur schiacciante evidenza per dire convinti a un genitore “Rilassati, in fin dei conti un insegnante vale l’altro”. Ma come dimostrare il contrario?
La svolta è arrivata con l’idea di un gruppo di ricerca della University of Texas, guidato da
Eric Hanushek. I ricercatori disponevano di campioni longitudinali adiacenti (sequenze di due coorti di studenti elementari e medi), e hanno potuto misurare la correlazione fra i loro rendimenti prima nello stesso anno (quando le coorti avevano insegnanti diversi), e dopo in anni adiacenti (quando le coorti passavano dallo stesso anno di corso e dallo stesso insegnante). (1)

Il principale risultato osservato è che la correlazione era alta fra i rendimenti scolastici di due coorti esposte allo stesso insegnante (entrambe buone o entrambe scarse), mentre nello stesso anno solare la correlazione era praticamente zero (il risultato di una coorte non diceva nulla su quello dell’altra). (2)

Questa era finalmente un’evidenza forte, anche se indiretta: i dati erano perfettamente compatibili con una realtà sottostante in cui l’elemento che fa la differenza è l’insegnante. Tuttavia, fino a questo punto, avrebbe potuto trattarsi di correlazione spuria, ovvero di un legame solo apparente tra fenomeni, in realtà spiegabili da eventi esterni non osservabili.
Le tecniche econometriche correntemente utilizzate permettono però l’identificazione diretta dell’effetto dell’insegnante sull’apprendimento, grazie all’utilizzo di modelli a effetti fissi, che tengano conto delle regolarità ricorrenti associate ai fattori familiari, a quelli della scuola e per l’appunto quelli relativi all’insegnante. In un modello di questo tipo, in pratica, si riesce a misurare quanto sistematicamente migliora l’apprendimento di uno studente esposto all’attività didattica di un insegnante, al netto delle caratteristiche ricorrenti sia nella famiglia dello studente che nelle caratteristiche della scuola frequentata. Solo così ci si pone al riparo della classica obiezione che dice “non si può confrontare il contributo all’apprendimento dovuto a diversi insegnanti, perché gli insegnanti operano in contesti socio-culturali molto diversificati”. È evidente che uno studente del liceo in media possiede più competenze di uno studente della scuola professionale, ma è meno evidente che le sue competenze crescano relativamente di più quando viene esposto a un buon insegnante, di quanto non possa per esempio accadere allo studente delle scuole professionali.
Con questa metodologia i risultati attesi sono emersi: l’insegnante risulta influenzare il rendimento dello studente in misura apprezzabile. È difficile ottenere misure precise, ma il paragone con la numerosità delle classi rende l’idea: un incremento del dieci per cento nella qualità dell’insegnante equivarrebbe all’effetto quasi di un dimezzamento del numero di alunni per classe.
Risultato addizionale, anche quello non inatteso, e che l’effetto insegnante va scemando con l’età dello studente.

La qualità della classe docente

Allora tutto a posto? Purtroppo niente affatto. Perché siamo rimasti che la qualità dell’insegnante è certamente importante, ma non dipende dalle variabili che si possono influenzare più facilmente, tipo il suo livello di istruzione. L’insegnante brava è brava perché è brava, punto e basta; ognuno può dire la sua (la mia è che è brava quando ci mette il cuore), ma niente che sia facile da tradurre in misure concrete di intervento pubblico.
Cosa suggerisce il gruppo di Hanushek? Testualmente, loro osservano che “the substantial differences in quality among those with similar observable backgrounds highlight the importance of effective hiring, firing, mentoring and promotion practices”. Elegantemente, “segnalano l’importanza di” una politica del personale di tipo privatistico. I termini usati sono molto americani, ma in sostanza vogliono solo suggerire che “un più stretto legame fra rendimenti e premi alzerebbe alla lunga il livello della classe insegnante”. Questo piaccia o no è difficile da contestare, sicché sembrerebbe più utile cominciare subito a pensare come farlo meglio, piuttosto che discutere se sia giusto farlo o meno. Il che non è una faccenda da poco, perché la “azienda scuola” ha centinaia di migliaia di dipendenti, non una dozzina.
Resta la legittima aspirazione dell’insegnante a far bene, che è fra l’altro completamente in linea con gli interessi dei beneficiari del servizio da loro fornito. E a questa non si può semplicemente rispondere “Se ce la fai bene, altrimenti a casa”.
Come migliorare la qualità dell’insegnante è l’altro tema su cui potrebbe essere utile (ri)focalizzare la discussione alla luce della nuova evidenza empirica. Anche qui la strada è lunga e sarà inevitabile procedere in modo sperimentale. Giusto per dirne una, se qualcosa di impalpabile sta sotto la capacità di insegnare, cioè di trasmettere, comunicare nuova conoscenza, allora potrebbe essere utile mandare i giovani insegnanti a vedere da vicino, cioè da dentro la classe, cosa/come fanno i docenti più bravi, non per dieci ore, ma per mille (due al giorno per due anni).

(1) In pratica, negli esperimenti cui i dati si riferiscono c’è un insegnante per anno (per eliminare l’effetto scuola i dati utilizzati riguardano solo scuole nelle quali esistono osservazioni per entrambi gli anni), e si procede così: si registrano i risultati di N classi “prime” ed N “seconde”, in N scuole, per esempio nell’anno 2000, siano essi P(1),…P(N) ed S(1),…S(N). Poi nel 2001 si registrano i risultati delle ex-prime diventate seconde, diciamo SS(1),…SS(N). Si noti che essendoci un insegnante per anno in ogni scuola, P ed S non hanno lo stesso insegnante, mentre S ed SS sì. Le correlazioni misurate sono fra P ed S e fra S ed SS.

(2) In termini delle variabili sopra definite, la correlazione fra S ed SS è alta (cioè in genere S(n) e SS(n) sono entrambe alte — possibilmente l’insegnante della scuola è bravo — o entrambe basse — possibilmente l’insegnante è scarso; mentre la correlazione è bassa fra P e S (la relazione fra P(n) e S(n) non è regolare – possibilmente perché in alcune scuole è più bravo l’insegnante di P, in altre quello di S).

Miti e realtà della scuola italiana, di Andrea Prat

In molti paesi sviluppati, dagli Stati Uniti alla Germania, è in corso un dibattito profondo sul futuro della scuola. In Italia, invece, si parla molto di alcune vicende specifiche, come i buoni per la scuola privata decisi da alcune Regioni, ma manca un dibattito a tutto campo su come vogliamo che l’istruzione evolva nei prossimi decenni. Anche lavoce.info ne ha parlato poco, ad eccezione di alcuni interventi molto interessanti di Solomon Gursky e Daniele Checchi.

I miti da sfatare

In questo intervento vorrei fare un confronto, molto rozzo, tra la scuola italiana e quella di altri paesi sviluppati e non. Cominciamo sfatando alcuni miti:
Tutto sommato, la scuola italiana non è male. Un confronto internazionale tra sistemi scolastici è svolto dal Programme for International Student Assessment dell’Ocse. Invito i lettori de lavoce.info a consultare i rapporti del 2000 e del 2003, disponibili sul sito Pisa. Tali rapporti, basati su test svolti da 4.500/10mila quindicenni per paese, indicano senza ombra di dubbio che gli italiani hanno risultati peggiori dei loro coetanei degli altri paesi dell’Europa occidentale (con la possibile eccezione, ma solo in alcuni casi, della Grecia e del Portogallo). Questo vale per tutte e tre le aree considerate: scienze, lettura e matematica. I nostri risultati sono peggiori anche di quelli di paesi con un Pil pro capite più basso del nostro, come Spagna, Corea del Sud e molti paesi dell’Europa dell’Est. (1)
Il problema è che mancano le risorse. Al contrario, l’Italia è uno dei paesi al mondo con la spesa per studente più alta (vedi Tabella 1). Solo l’Austria, la Svizzera e gli Stati Uniti spendono di più. Spendiamo il 50 per cento in più della Germania, che ci batte sistematicamente in tutte le materie. (2)

Tabella 1

Spesa cumulativa per studente (dai 6 ai 15 anni)

in dollari PPP adjusted

Australia

58 480

Austria

77 255

Belgio

63 571

Canada

59 810

R. Ceca

26 000

Danimarca

72 934

Finlandia

54 373

Francia

62 731

Germania

49 145

Grecia

32 990

Ungheria

25 631

Islanda

65 977

Irlanda

41 845

Italia

75 693

Giappone

60 004

Corea

41 802

Messico

15 312

Olanda

55 416

Norvegia

74 040

Polonia

23 387

Portogallo

48 811

Slovacchia

14 874

Spagna

46 774

Svezia

60 130

Svizzera

79 691

Stati Uniti

79 716

Il problema è la Moratti. Al di là dell’opinione che si può avere sull’operato di Letizia Moratti (la mia è molto negativa), la situazione era più o meno la stessa nel rapporto Pisa 2000.

I fatti

E adesso passiamo ai tre fatti.
In Italia ci sono tanti insegnanti. Secondo dati Ocse 2002, il numero di studenti per insegnante in Italia è ai minimi mondiali. La Tabella 2 riporta i dati per le quattro maggiori nazioni europee. Questo spiega perché in Italia la spesa per studente è così alta.

Tabella 2

Germania

Francia

GB

Italia

Primaria

18,9

19,4

19,9

10,6

Secondaria inferiore

15,7

13,7

17,6

9,9

Secondaria superiore

13,7

10,6

12,5

10,3

Manca un meccanismo di valutazione esterna degli studenti. Le commissioni esaminatrici ai vari livelli sono composte unicamente o in maggioranza da membri interni. Questa situazione è stata peggiorata dal ministro attuale, ma esisteva già prima. Nella maggior parte degli altri paesi europei esistono meccanismi di valutazione esterni, che cercano di offrire un giudizio imparziale e standardizzato. (3)
Manca un meccanismo di valutazione esterna degli insegnanti e delle scuole. La valutazione esterna degli studenti non serve solo per valutare gli studenti, ma permette anche di formare un’opinione, seppure imperfetta, sulla qualità dei singoli insegnanti e delle singole scuole. In Italia, ciò è impossibile. L’esperienza di altri paesi – soprattutto della Gran Bretagna e degli Stati Uniti – dimostra che quando ci si rende conto che un sistema scolastico non funziona non esistono soluzioni facili, e soprattutto non esistono soluzioni rapide. I sistemi di valutazione presentano problemi enormi e in alcuni casi possono essere controproducenti. (4)
Altre opzioni, come l’autonomia scolastica, gli incentivi per gli insegnanti o la libertà di scelta della scuola da parte dei genitori, sono controverse. Non esiste consenso su quale sia il sistema ideale. Però non possiamo continuare a nascondere la testa sotto la sabbia. La scuola italiana è in crisi. E non possiamo dire che non ci sono i soldi o che è tutta colpa di questo Governo. I mali della nostra scuola hanno radici profonde. È ora di aprire un dibattito a tutto campo, senza escludere a priori alcuna alternativa.

(1) Il rapporto Pisa mostra come, a parità di scuola, i risultati del singolo studente dipendano dalla situazione socio-economica della sua famiglia. Quindi gli studenti italiani potrebbero andare peggio di quelli tedeschi perché in media le famiglie italiane sono meno ricche ed istruite di quelle tedesche. Però, questo ragionamento non spiega perché gli studenti italiani vadano peggio di tutta una serie di paesi con condizioni socio-economiche meno avanzate. Su lavoce.info Salvatore Modica nell’articolo “L’educazione di Zu’ Vice’” ha messo in evidenza un’importante differenza tra i risultati dei ragazzi del Nord e di quelli del Sud. Sarebbe interessante capire quanta parte di questo divario è dovuta all’eterogeneità delle condizioni socio-economiche piuttosto che a differenze nel sistema scolastico.

(2) Non è neanche vero che gli insegnanti italiani siano necessariamente sottopagati. È vero che alcuni paesi, come la Germania e la Svizzera offrono stipendi nettamente più alti. Però i dati Ocse (2002) mostrano che un insegnante di secondaria superiore italiano di prima nomina guadagna come il suo collega francese o inglese (circa 25mila dollari all’anno).

(3) Anche negli Stati Uniti manca, per tradizione, un sistema nazionale di valutazione. Per un’analisi del costo di introdurre tale sistema si veda Caroline Hoxby, The cost of accountability.

(4) Si veda ad esempio il lavoro di Jacob e Levitt, Catching Cheating Teachers: The Results of an Unusual Experiment in Implementing Theory.

Le Retribuzioni Perverse dell’Universita’ Italiana, di Stefano Gagliarducci, Andrea Ichino, Giovanni Peri e Roberto Perotti

La “fuga dei cervelli” dall’Italia ha recentemente trovato spazio nelle prime pagine dei quotidiani ed è stata ampiamente confermata da numerose analisi statistiche. Tuttavia, ciò che forse dovrebbe fare riflettere maggiormente è che quasi nessun ricercatore straniero è attratto dal nostro paese. Nei corsi di Dottorato Italiani soltanto il 2% degli studenti proviene dall’estero e, in tutto, meno di 3,500 persone provenienti da altri paesi dell’Unione Europea lavorano nel settore scientifico-tecnologico in Italia. Nel Regno Unito (e risultati simili valgono per altri paesi europei) il 35% degli studenti nei corsi di Ph.D. sono stranieri e piu’ di 42,000 cittadini della U.E. (non Britannici) lavorano come ricercatori in quel paese.
Il nostro obiettivo in questo contributo (che si basa su Gagliarducci, Ichino, Peri e Perotti, 2005) e’ di illustrare tre punti fondamentali. Primo, mostrare che – contrariamente ad una interpretazione diffusa – un’ analisi corretta dei dati bibliometrici rivela che la qualita’ della produzione scientifica Italiana e’ modesta. Secondo, discutere come l’attuale sistema di remunerazioni e carriere induca incentivi sbagliati e allontani i “talenti”. Terzo, formulare una proposta di riforma a costo zero che modifichi profondamente il sistema di incentivi attuali.

Produttivita’ Scientifica dei Ricercatori Italiani

La prima e la seconda colonna della Tavola 1 mostrano il numero medio di pubblicazioni e di citazioni per ricercatore (nei settori di Scienza e Ingegneria) durante il periodo 1997-2001 (i dati sul numero dei ricercatori si riferiscono al 1999). L’Italia risulterebbe avere un rapporto “pubblicazioni / ricercatore” e “citazioni / ricercatore” tra i piu’ alti in assoluto (si vedano le colonne 1 e 2 della Tavola 1). Questi risultati, apparentemente incoraggianti, sono stati ampiamente citati nella stampa italiana, in particolare nella risposta del ministro Moratti ad un articolo di Francesco Giavazzi sul Corriere della Sera del 22 Novembre 2004. C’è tuttavia qualcosa di strano in questi dati: gli Stati Uniti appaiono agli ultimi posti di questa classifica – un risultato assai implausibile. Il mistero è facilmente svelato: la definizione di ricercatore include una varietà di figure professionali, ma le pubblicazioni scientifiche provengono per la maggior parte da una sola di queste figure: i ricercatori accademici. Essi sono una maggioranza nei paesi sud europei inclusa l’ Italia, ma sono una minoranza (e molto piccola negli Stati Uniti) in quasi tutti gli altri paesi. Quando al denominatore usiamo i ricercatori accademici l’Italia ha rapporti “pubblicazioni / ricercatore” (colonna 4) e “citazione / ricercatore” (colonna 5) ben inferiori agli USA, ma anche a Regno Unito, Olanda e Danimarca.
Una misura della qualità, anziché della quantità, di pubblicazioni è data dal loro fattore di impatto, cioè dal numero di citazioni che essa riceve. La colonna 6 della Tabella 1 mostra il numero medio di citazioni per lavoro pubblicato nel periodo 1997-2001. L’Italia ha un valore simile alla Francia, e superiore solo a Spagna e Portogallo.

Retribuzioni

Il sistema retributivo italiano ha tre caratteristiche. Primo, la progressione retributiva dipende quasi esclusivamente dall’ anzianità di servizio: all’interno di ciascuna categoria di docenza (Ricercatore, Associato, Ordinario), la produttività è completamente irrilevante per la determinazione del salario. Le analisi di Daniele Checchi (1999) di Roberto Perotti (2002) mostrano chiaramente che il numero di pubblicazioni ha un’influenza marginale nelle decisioni di promozione di categoria. Secondo, il profilo temporale della progressione salariale è molto “ripido”: si guadagna poco a inizio carriera, ma l’ anzianità viene remunerata molto bene. Consideriamo un giovane che diventi ricercatore a 25 anni, associato a 35 anni e ordinario a 45 anni: tra inizio e fine carriera il suo salario aumenta di un fattore pari a 5, sostanzialmente per effetto della sola anzianita’ (vedi Tabella 2).
Terzo, per effetto di questa progressione, e contrariamente ad una credenza assai diffusa, un ordinario italiano con 35 annni di anzianità è ben pagato anche rispetto ai suoi colleghi statunitensi. Come si vede confrontando la Tabella 2 con la Tabella 3, egli riceve un salario superiore a quello dell’ 80 percento dei professori ordinari nelle migliori università statunitensi (quelle con un programma di PhD), e superiore a quello del 95 percento degli ordinari nelle università con al più un corso di master (la stragrande maggiornaza delle università americane).
Il sistema retributivo dei docenti universitari negli Stati Uniti segue regole assai diverse. Il salario è negoziato individualmente, ed è quindi funzione delle opportunità di lavoro alternative, cioè, essenzialmente, dalla produttività di un professore. In conseguenza, a qualsiasi livello di anzianità la dispersione salariale è molto elevata (mentre in Italia è nulla). Ad esempio il rapporto tra i salario massimo (113,636 euro nelle piu’ prestigiose università con corsi di Ph.D.) e minimo (27,273 euro in un community college) di un assistant professor (ricercatore) è pari a circa 4.2. E un assistant professor di 25 anni molto produttivo e promettente può benissimo guadagnare ben più di un ordinario a fine carriera ma poco produttivo. D’altro canto, la progressione salariale in carriera è sempre ancorata alla produttività scientifica e non così accentuata come in Italia: a fine carriera un ottimo professore guadagna tra 1.5 e 2 volte il suo salario iniziale.
Questa è esattamente la struttura salariale che ci si apetterebbe se il salario fosse usato come strumento per incentivare la produttività e per premiare gli anni di ricerca più produttivi, che tipicamente sono quelli da inizio fino a metà carriera.

Proposte per una Riforma

La causa principale dei problemi dell’ università italiana non è dunque la mancanza di fondi, bensì l’esistenza di meccanismi sbagliati di distribuzione delle risorse. Le nostre proposte sono quindi volte a modificare il sistema di incentivi in modo che, a parità di risorse, nell’accademia italiana venga premiata l’eccellenza scientifica secondo parametri condivisi dalla comunità internazionale. Il nostro lavoro “Lo Splendido Isolamento dell’ Università Italiana” discute queste proposte in maggiore dettaglio.

1. Liberalizzare le retribuzioni del personale accademico.
2. Liberalizzare le assunzioni: ogni università assume chi vuole e come vuole; di conseguenza, è abolito l’attuale sistema concorsuale.
3. Liberalizzare i percorsi di carriera: ogni università promuove chi e come vuole.
4. Liberalizzare completamente la didattica: ogni università è libera di organizzare i corsi come vuole e di offrire i titoli che preferisce.
5. Liberalizzare le tasse universitarie: ogni università si appropria delle tasse pagate da i propri studenti.
6. In alternativa alla proposta precedente, mantenere il controllo pubblico sulle tasse universitarie aumentandole però considerevolmente.
7. Utilizzare i risparmi statali così ottenuti per istituire un sistema di vouchers, borse di studio e prestiti con restituzione graduata in base al reddito ottenuto dopo la laurea.
8. Allocare ogni eventuale altro finanziamento statale alle università in modo fortemente selettivo sulla base di indicatori di produttività scientifica condivisi dalla comunità internazionale.
9. Consentire l’accesso a finanziamenti privati senza limitazioni.
10. Abolire il valore legale del titolo di studio.

Tabella 1. La produttività e la qualità dei ricercatori italiani

pubblicazioni / ricercatori tot

citazioni / ricercatori tot

Ricercatori accademici / ricercatori tot

pubblicazioni / ricercatori accademici

citazioni / ricercatori accademici

impact factor medio

impact factor standardizzato

1

2

3

4

5

6

7

USA

1.00

8.60

0.15

6.80

58.33

8.57

1.48

Germania

1.25

8.64

0.26

4.77

32.98

6.91

1.33

Regno Unito

2.17

15.86

0.31

6.99

51.00

7.30

1.39

Francia

1.45

9.43

0.35

4.09

26.68

6.52

1.12

Italia

2.26

14.81

0.38

5.88

38.57

6.56

1.12

Spagna

1.68

9.09

0.55

3.06

16.54

5.41

.97

Portogallo

0.86

3.99

0.52

1.65

7.62

4.62

.82

Danimarca

1.96

15.57

0.30

6.50

51.56

7.93

1.48

Olanda

2.29

18.79

0.31

7.41

59.58

8.20

1.39

Canada

1.68

11.79

0.33

5.04

35.28

7.00

1.18

Da Gagliarducci, Ichino, Peri e Perotti (2005).
Definizioni: Colonna 6: impact factor: definito come numero totale di citazioni / numero totale di pubblicazioni, entrambe per il periodo 1997-2001;. Colonna 7: impact factor standardizzato, 2002; vedi testo per la definizione.
Fonti: Pubblicazioni e citazioni: King (2004), dati riferiti agli anni 1997-2001; Impact factor standardizzato: King (2004), dati riferiti al 2002; Numero di ricercatori: OECD, Main Science and Technology Indicators database, dati 1999 (1998 per Regno Unito). Il numero di ricercatori è espresso in unità full time equivalent.

Tabella 2. Distribuzione dei salari accademici in Italia

Anzianità di servizio

in anni

Professore Ordinario

a tempo pieno

Professore Associato

a tempo pieno

Ricercatore

a tempo pieno

0 (non conf.)

47631

36053

20225

3

50412

37999

29244

5

54207

40684

31150

7

56900

42596

32516

9

60696

45280

34422

11

63388

47192

35788

13

67184

49876

37694

15

70979

52560

39601

17

73968

54683

41117

19

76957

56806

42633

21

79946

58928

44149

23

82935

61051

45665

25

85924

63174

47181

27

88913

65296

48698

29

91902

67419

50214

31

94891

69542

51730

33

96735

70851

52665

35

98578

72160

53600

37

100421

73469

54535

39

102264

74778

55470

Media

77242

57020

42415

Da Gagliarducci, Ichino, Peri e Perotti (2005).
Nota: Dati aggiornati all’anno 2004. La tabella riporta il salario annuo in euro al lordo delle tasse per le tre categorie di docenti italiani al variare della anzianità di servizio, secondo la tabella elaborata dal CNU di Bari e pubblicata sul sito http://xoomer.virgilio.it/alpagli/. Poiché non disponiamo della distribuzione dei docenti italiani per anzianità, le retribuzioni medie nell’ultima riga sono calcolate ipotizzando una distribuzione uniforme.

Tabella 3. Distribuzione dei salari accademici negli Stati Uniti

Università con corsi undergraduate

e corsi di dottorato

Università con corsi undergraduate

e corsi di master

College senza corsi graduate

Percentile

Full

Associate

Assistant

Full

Associate

Assistant

Full

Associate

Assistant

1

49,091

38,182

30,909

41,818

34,545

29,091

36,364

29,091

27,273

5

56,364

43,636

36,364

47,273

40,000

32,727

41,818

34,545

32,727

10

68,969

52,678

44,994

53,526

44,728

38,386

42,749

37,871

32,906

20

73,139

55,133

46,742

56,721

47,005

40,217

47,956

40,698

35,404

30

77,091

57,091

48,378

59,075

48,733

41,338

51,109

42,951

37,047

40

79,738

58,875

50,493

61,465

50,515

42,336

53,589

44,857

38,552

50

83,820

61,747

51,825

63,913

51,879

43,435

56,944

46,835

39,592

60

89,466

63,622

54,266

66,523

53,535

44,788

59,843

48,796

40,931

70

94,616

65,989

55,896

70,540

55,623

46,265

63,037

50,730

42,147

80

98,730

69,816

58,476

75,203

58,567

48,661

67,198

53,529

44,383

90

108,003

73,599

63,804

81,060

63,645

51,465

78,941

59,007

48,832

95

119,212

79,177

65,953

86,323

66,372

53,279

86,854

64,672

51,373

99

195,455

122,727

113,636

122,727

92,727

80,000

122,727

83,636

69,091

Media

91,529

62,400

53,251

69,193

54,555

45,417

65,293

50,392

41,901

Da Gagliarducci, Ichino, Peri e Perotti (2005).
Nota: Dati riferiti all’anno accademico 2003-04. La tabella riporta i percentili in euro della distribuzione del salario annuo al lordo delle tasse per i Full Professor, gli Associate Professor e gli Assistant Professor in tre categorie di università degli Stati Uniti. La fonte è il rapporto della AAUP (2004), in particolare le Tabelle 4, 8 e 9a. I dati si riferiscono a 1446 università per un totale di 1775 campus. Per la conversione della valuta abbiamo utilizzato il tasso di cambio corretto per Purchasing Power Parity pari a 1.11 dollari per euro.

Bibliografia:

Checchi, D., 1999, Tenure. An Appraisal of a National Selection Process for Associate Professorship, Giornale degli Economisti ed Annali di Economia, 58 (2), 137-181.

Gagliarducci S., A. Ichino , G.Peri e R. Perotti (2005) “Lo Splendido Isolamento dell’ Universita’ Italiana” Working Paper, Fondazione Rodolfo De Benedetti, Milano, www.igier.uni-bocconi.it/perotti.

Kalaitzidakis P., Stengos T. e Mamuneas T.P., 2003, Rankings of Academic Journals and Institutions in Economics, Journal of the European Economic Association, 1 (6), 1346-1366.

Perotti, R., 2002, The Italian University System: Rules vs. Incentives, www.igier.uni-bocconi.it/perotti

Che fine ha fatto la Devolution?

Inserita in quella sorta di patchwork di bandierine elettorali, una per ciascuna componente politica della maggioranza, che è l’ultima riforma della Costituzione.
Sepolta da una ridda di numeri sui suoi costi, spesso presunti. Privata del meccanismo
automatico di perequazione nella distribuzione delle risorse fra le Regioni. Da quasi tutti voluta e da nessuno realizzata, la devolution continua a dibattersi negli stessi problemi di sempre. A partire dalla mancanza di chiarezza sui sistemi di
finanziamento e sugli spazi di autonomia da riconoscere agli enti decentrati. Anche perché il dualismo economico del paese rende necessario un sistema perequativo efficiente e l’assenza di un quadro di regole condivise tra centro e periferia espone al rischio di fenomeni d’irresponsabilità finanziaria, come quelli che si sono prodotti nel
caso della sanità.

Tre crack nessuna riforma

Sommario, a cura di Daniela Marchesi

Recenti grandi crack finanziari di Parmalat, Cirio e Volare stanno mettendo in crisi il decollo dei nostri mercati finanziari. Proprio in un momento in cui per le imprese italiane è di cruciale importanza trovare fonti di finanziamento alternative al credito bancario. Tra stallo della riforma del fallimento, e paralisi di quella sulla tutela del risparmio, si susseguono soluzioni tampone applicate, a colpi di decreti, soltanto ai singoli casi concreti.

Il mondo cambia, la legge fallimentare no, di Lorenzo Stanghellini

Quando un’impresa cessa di pagare i suoi creditori, lo Stato interviene per tutelarli.
Le forme sono moltissime e graduali: si va da un controllo su cosa fanno i suoi amministratori fino alla loro sostituzione con un curatore (o commissario, nelle grandi imprese), che prende possesso dei beni e, a seconda dei casi, li liquida o li trasferisce ai creditori. Fra questi due estremi si trovano molte forme intermedie di intervento e di controllo sull’impresa.

Dal 1942 a oggi

La legge fallimentare è del 1942. È pensata per un sistema in cui le imprese sono piccole e quando diventano insolventi significa che non c’è nulla da salvare.
Il mondo è tuttavia molto cambiato da allora: le imprese sono oggi fatte d’idee più che di beni (e le idee non si vendono), i creditori sono sempre di più e conoscono poco i loro debitori (si pensi agli obbligazionisti). Spesso, infine, conviene agli stessi creditori che l’impresa continui a produrre invece di chiudere.
Proprio per questo dal 1979 abbiamo in Italia una normativa speciale per le grandi imprese (modificata nel 1999), le quali possono continuare l’attività anche quando sono insolventi, in attesa che le loro aziende vengano cedute in un tempo ragionevole (uno-due anni). È ciò che sta accadendo con Cirio.
Il quadro degli strumenti a disposizione del debitore e dei creditori resta però paurosamente incompleto. Per almeno tre motivi:
1) solo le grandi imprese (con almeno duecento dipendenti) possono tentare di salvarsi, con strumenti comunque insoddisfacenti. Decine di migliaia di altre aziende sono destinate a scomparire qualora vadano in crisi, anche se possiedano ancora valori da salvare;
2) i creditori, nel loro stesso interesse, possono certo accordarsi fra loro per aiutare il debitore in difficoltà a evitare il fallimento. Ma non è facile che riescano a farlo quando sono decine o centinaia o addirittura migliaia, se l’impresa ha emesso bond;
3) fino a oggi, e fino al caso Parmalat (per cui è stata adottata una legge speciale), l’unica cosa da fare in caso di crisi era vendere i beni dell’azienda, realizzando prezzi spesso modesti. Oggi è invece possibile trasferire l’impresa ai suoi creditori, facendoli diventare azionisti e conservando per loro tutto il valore d’avviamento. Solo però se ha almeno mille dipendenti. Un caso (fortunatamente) raro, anche se il probabile successo del piano di salvataggio Parmalat lascia pensare che ci saranno repliche per altre gravi crisi – come sembra stia già avvenendo proprio in questi giorni per “Volare

Così com’è oggi strutturata, la nostra legislazione fallimentare scoraggia inoltre l’intervento di investitori specializzati nel recupero delle imprese in crisi. Si tengono infatti a debita distanza, visto che la legge è così severa con tutti coloro che hanno avuto a che fare con l’impresa poi fallita, anche quando la scommessa di salvarla sia stata tentata in buona fede.
Che ci sia bisogno di una riforma del diritto fallimentare, per questi motivi e molti altri più tecnici, ognun lo dice. Perché non la si faccia è un’altra questione.

Interessi costituiti e vecchi retaggi

Il diritto fallimentare era, fino a pochi anni fa, il diritto del funerale dell’impresa. Oggi non deve più essere così: se pensato in termini moderni, si tratta di un settore importante e vitale, che può dare grande forza all’economia.
A partire dal 2000, sono apparsi progetti di legge che miravano a rovesciare le prospettive della legge fallimentare e a consentire salvataggi di imprese in crisi, pur senza riduzione della tutela dei creditori o inammissibili aiuti di Stato. (1) Finita la legislatura, si è buttato tutto nel cestino e si è ricominciato da zero. Dopo due anni di lavoro di un’ampia commissione (la commissione Trevisanato) sono arrivati altri progetti che, pur migliorando la situazione attuale, di innovativo avevano ben poco. Nemmeno quelli sono tuttavia passati. Perché?
La verità è che è difficile gettare abiti indossati per tanto tempo e cambiare mentalità d’improvviso.Questo vale anche per molti magistrati, affezionati al ruolo di gestori delle imprese in crisi che l’attuale legge loro riserva e restii ad affidare al mercato questo settore.
Le discussioni nella commissione Trevisanato si sono poi concentrate per mesi su aspetti marginali, probabilmente incomprensibili per un osservatore internazionale, incentrati a determinare se e quanto le banche, in caso di fallimento del loro cliente, debbano riversare al curatore di ciò che è passato dal conto corrente. Una sciocchezza, se comparata con gli interessi in gioco, ma una sciocchezza che nell’attuale legge colpisce pesantemente le banche (che vengono regolarmente citate in giudizio per somme ingenti, anche se quelle effettivamente versate sono spesso inferiori a quanto chiesto dal curatore) e dà grande lavoro ad avvocati e commercialisti. Si può capire perché su questo punto si sia così aspramente combattuto. Sulle spalle del paese, e in attesa di Parmalat.
Dopo il crack del gruppo di Collecchio nulla è più come prima: la legge sulla crisi delle grandissime imprese è stata più volte cambiata a colpi di decreto, per mettere (con successo) una toppa su un disastro che poteva diventare peggiore di come è già. I tecnici del Governo hanno da allora cominciato a produrre testi più moderni. (2) L’opposizione, nel luglio del 2004, ha ripresentato un nuovo testo. (3)
Nel frattempo, un progetto governativo di restyling dell’attuale legge fallimentare, dimenticato in Parlamento dal 2002, è stato recuperato e rivitalizzato nel tentativo di farlo assomigliare di più a una vera riforma. (4) Anche se le dinamiche parlamentari sono imprevedibili, è difficile che un testo intriso di sfiducia verso le imprese in crisi e verso il mercato, come la legge del 1942, possa essere trasformato nella riforma integrale di cui il Paese ha disperatamente bisogno: i rospi divengono principi azzurri solo nelle favole.

Una riforma bipartisan?

La cosa curiosa è che, in più punti, il testo dell’opposizione è più liberale delle bozze del Governo., Una riforma bipartisan, da fare in pochi mesi, non sembra dunque fuori dal mondo. Qualche apertura e disponibilità a collaborare vi è stata.
La questione è solo politica: i tecnici delle due parti potrebbero lavorare in sostanziale sintonia.
Basta che il Governo non pensi di fare una riforma così importante a colpi di maggioranza. Gli interessi costituiti e i vecchi retaggi, per essere superati in nome di una riforma vera, richiedono intese più larghe.

(1) Disegno di legge C. 4797, presentato il 14 dicembre 2000 (primo firmatario Walter Veltroni).

(2) Schema di disegno di legge redatto dalla commissione nominata con decreto ministeriale 27 febbraio 2004 dal ministro della Giustizia di concerto con il ministro dell’Economia e delle finanze.

(3) Disegno di legge C. 5171, presentato il 14 luglio 2004 (primo firmatario Piero Fassino).

(4) Disegno di legge S. 1243, presentato il 14 marzo 2002 su iniziativa del Governo.

Il dopo-Parmalat delle imprese italiane, di Carlo Maria Pinardi

Le conseguenze sul mondo del risparmio dovute ai fallimenti che si sono succeduti sul mercato dei corporate bond italiani negli ultimi due anni sono ben note. Più nebuloso, e probabilmente più complesso, è l’impatto che questi eventi hanno prodotto sulle politiche finanziarie delle imprese italiane.

Il campione

Proprio per indagare questi aspetti, il Crea dell’Università Bocconi ha svolto un’indagine fra le cento principali società industriali e commerciali italiane, quotate e non. (1)
A centoquaranta imprese italiane industriali e commerciali è stato inviato un questionario, le risposte ottenute centodue. Le società quotate sono settantanove – quelle dello SP-Mib e quelle a maggiore capitalizzazione, mentre le società non quotate sono state scelte in base alla classifica per valore aggiunto nelle classificazioni di Mediobanca. (2)
La capitalizzazione delle aziende che hanno risposto al questionario è di oltre 267 miliardi di euro (a fine settembre), ovviamente con peso preponderante delle blue chips. In termini di valore aggiunto per l’esercizio 2003, il dato complessivo del campione è pari a 95,4 miliardi di euro.

E i risultati

Quali sono i punti principali che emergono dall’indagine?
In primo luogo, si nota una differente valutazione tra impatto dei fallimenti sulla propria azienda e impatto sul sistema delle imprese nel suo complesso. Per la propria azienda, gli effetti sono rilevanti solo nel 49 per cento del totale, ma diventa il 64 per cento per le small caps quotate. Quando invece i direttori finanziari intervistati devono giudicare il sistema nel suo complesso, gli effetti sono rilevanti per il 94 per cento, con il 100 per cento per le non quotate e il 96 per cento per le small caps. Le aziende maggiori hanno quindi la percezione di “soffrire” meno delle Pmi l’impatto dei default. Due terzi degli intervistati indicano la fine del 2005 come il tempo necessario per “rientrare” dagli effetti negativi dei fallimenti, mentre un terzo pensa che sarà necessario un periodo più lungo. E il 43 per cento delle small caps quotate ritiene che le conseguenze si assorbiranno solo nel medio-lungo termine. Solo il 10 per cento delle aziende interpellate dichiara, però, di aver rinviato operazioni di emissioni obbligazionarie (“public” o “private”) nel 2004, ma il dato sale al 20 per cento per le small caps. Quanto ai tempi di concessione dei prestiti (sindacati o bilaterali) da parte delle banche di riferimento, per le società non quotate e per le small caps quotate le procedure si sono allungate, in media di tre mesi, in un terzo dei casi. E per ben il 32 per cento degli intervistati il ritardo è superiore ai tre mesi. Le small caps quotate sono quindi quelle che hanno risentito maggiormente del clima di sfiducia creatosi dopo il “caso Parmalat”, secondo il campione.

Tre quarti delle aziende interpellate sostengono che la “inadeguatezza” delle leggi in materia di fallimento ha aggravato le conseguenze dei default: la non adeguata tutela dei diritti dei creditori si traduce quindi in un costo addizionale per le aziende che chiedono fondi.
Per i collocamenti futuri, nel 71 per cento dei casi è previsto un maggior peso degli investitori istituzionali rispetto al passato nel “mix” tra istituzionali e retail. Tra le imprese del campione c’è la percezione che siano aumentati i controlli da parte di Bankitalia (73 per cento) e Consob (82 per cento), ma solo la metà degli intervistati li giudica efficaci. Peraltro, il maggior controllo significa allungamento dei tempi di autorizzazione: per Bankitalia nel 71 per cento e per Consob nel 68 per cento dei casi. Per migliorare l’efficacia dei controlli specifici della Consob, le imprese indicano alcuni interventi: in ordine di importanza, dovrebbero esserle attribuiti più poteri d’indagine, più poteri sanzionatori, più risorse umane provenienti dal mercato e la concessione di un potere di controllo di efficienza a intermediari e investitori (cioè al “tax payer”).
Inoltre, l’82 per cento delle imprese giudica che una migliore governance delle imprese sia necessaria per ridurre il costo di finanziamento sul mercato. A maggior ragione perché secondo l’86 per cento degli intervistati il peso delle regole di corporate governance sarà sempre maggiore nella valutazione del merito di credito dell’emittente espresso dalle società di rating. E quindi l’89 per cento delle società afferma di aver adottato provvedimenti per migliorare trasparenza e governance dopo i default. Solo nel 33 per cento dei casi (il 40 per cento per le non quotate) questo si è tradotto in oneri aggiuntivi significativi.
Oltre ai corporate bond, gli strumenti che hanno “patito” maggiormente le conseguenze dei default sono, nell’ordine, gli US Private Placements, le emissioni convertibili e le passività subordinate, mentre le asset backed securities e le cartolarizzazioni non hanno sofferto particolarmente. Solo il 37 per cento considera possibile entro il 2005 la riapertura del segmento retail del mercato dei corporate bond (naturalmente con rating) mentre l’84 per cento ritiene possibile entro il 2005 l’accesso agli “US private placements”.Gli intervistati giudicano i corporate bonds non rated, seguiti dai prodotti strutturati, gli strumenti meno trasparenti sul mercato finanziario. Mentre quelli che verranno utilizzati maggiormente nel prossimo biennio sono, in ordine di rilevanza, private placements, prestiti sindacati, corporate bond, asset backed e, solo da ultimo, collocamenti azionari e di convertibili. Forse incide su questa valutazione il fatto che in un quarto dei casi i direttori finanziari delle società quotate addebitano agli ultimi scandali finanziari un impatto negativo sui propri multipli borsistici. Infine, il 69 per cento (l’86 per cento per le imprese non quotate) ritiene che potrebbe rivelarsi efficace una norma che preveda più chiare responsabilità e l’attestazione di veridicità sui documenti contabili e sulla situazione patrimoniale-finanziaria da parte del direttore finanziario della società.

(1) L’analisi si inquadra in un progetto di ricerca condotto dal Crea Bocconi grazie al contributo di Ras, Unicredit e Telecom Italia.

(2) “Dati cumulativi di 1945 società italiane”, agosto 2004.

(3) Secondo i dati riportati su “Le principali società italiane – Industriali e di servizi” di Mediobanca, agosto 2004.

Parmalat, il fronte delle parti civili, di Lorenzo Stanghellini

Si è aperto a Milano il primo troncone dei processi ai responsabili, veri o presunti, del disastro Parmalat. Migliaia di risparmiatori inferociti si sono costituiti parte civile. Cosa possono attendersi da questo nuovo atto della vicenda del gruppo di Collecchio?

Risparmiatori di serie A e di serie B….

I risparmiatori danneggiati dal dissesto di Parmalat si dividono in due categorie: quelli che avevano acquistato obbligazioni (bond) e quelli che avevano acquistato azioni. I primi hanno fatto un prestito a Parmalat e speravano di ricevere il capitale e gli interessi, i secondi hanno fatto un investimento più rischioso, perché sapevano (o dovevano sapere) che sarebbero stati compensati solo se Parmalat avesse prodotto utili sufficienti e avesse distribuito dividendi. Nel crollo del gruppo Parmalat tutti hanno perso, ma gli azionisti hanno perso di più, perché hanno rischiato di più. Il piano di riorganizzazione di Parmalat si occupa solo dei creditori, ed è giusto che sia così: gli azionisti non possono in teoria ricevere nulla finché l’ultimo dei creditori non ha ricevuto fino all’ultimo centesimo. Dato che questo non accadrà, i vecchi azionisti di Parmalat sono fuori, e non si capisce come il ministro Alemanno in agosto abbia tentato di imporre a Enrico Bondi di considerare anche i piccoli azionisti: dato che nulla si crea dal nulla, ogni euro dato agli azionisti, piccoli o grandi che siano, verrebbe tolto ai creditori.

… ma tutti danneggiati dalle frodi di Parmalat

Tutti i risparmiatori, compresi quelli di serie B, sono stati tuttavia danneggiati dai bilanci truccati, dai prospetti mendaci e dalle varie frodi commesse dai diversi responsabili. Anche gli azionisti, infatti, avevano comprato azioni confidando su informazioni che si sono rivelate false, e non l’avrebbero certamente fatto se avessero saputo la verità. È per questo che tutti, obbligazionisti e azionisti, si presenteranno regolarmente ai vari processi penali, chiedendo di salire sul treno dei risarcimenti, costituendosi parte civile contro le persone fisiche responsabili del crack e, se verrà provato che le persone fisiche agivano nell’interesse di altre società, anche contro queste ultime.

Una strada poco costosa, ma comunque incerta

Nemmeno la strada della costituzione di parte civile è tuttavia priva di ostacoli. In primo luogo, provare la responsabilità di Calisto Tanzi, di Fausto Tonna, dell’avvocato Gian Paolo Zini, di alcuni fra i revisori e così via, sarà facile: ma quanto dell’enorme danno cagionato da Parmalat potranno essi risarcire? La scommessa dei risparmiatori è dunque quella di tirare nel mucchio dei responsabili le banche e gli intermediari finanziari che in varie fasi hanno avuto a che fare con Parmalat. Di coinvolgere cioè soggetti dotati di un patrimonio capace di essere aggredito. Per ora le persone giuridiche chiamate a rispondere degli illeciti sono tre (le filiali italiane di Bank of America, Deloitte & Touche e Grant Thornton), ma non è chiaro di quanto e come potranno essere chiamate a rispondere le case-madri, come pure le varie banche del cui ruolo si parla. In secondo luogo, ogni euro versato dai responsabili dovrebbe andare a risarcire i creditori, prima che gli azionisti. È per questo che crediamo che il commissario straordinario di Parmalat veda con sentimenti contrastanti la ressa dei risparmiatori ai processi penali: da un lato lo aiutano a creare la giusta pressione ambientale sui responsabili e sulle società che potrebbero in futuro essere chiamate a rispondere, ma dall’altro lato egli potrebbe dover dividere con loro una torta che non sarà mai sufficientemente grande per tutti. È così che si spiega perché il Codacons chieda l’esclusione di Bondi dal processo penale, in quanto è stato amministratore di Parmalat (ma solo negli ultimi giorni prima del crollo). L’argomentazione, alquanto debole, nasconde il desiderio di eliminare un commensale affamato da un banchetto che non si preannunzia abbondante. Quali speranze possono allora nutrire i risparmiatori costituendosi parti civili? Non moltissime. Perché il danno ai risparmiatori Parmalat venga risarcito in sede di processo penale occorre infatti che i dipendenti delle persone giuridiche (banche, eccetera) vengano condannati per un reato e che il loro comportamento criminale sia giudicato riferibile alle persone giuridiche per cui essi lavoravano. Ciò è molto più di quello che occorre per ottenere la condanna in una normale azione civile, dato che in quella sede è sufficiente dimostrare la colpa di chi ha arrecato un danno: basta cioè dimostrare un comportamento negligente o imprudente, e non necessariamente disonesto. Il processo penale non è un’occasione in cui fini controversie patrimoniali possono essere risolte secondo gli alti principi del diritto: per i risparmiatori è l’occasione della vendetta e, soprattutto, della speranza di arraffare qualche briciola gettata per placare la loro giusta rabbia. Il costo della costituzione di parte civile è tuttavia minimo rispetto a quello di un’azione civile per danni, e dunque vale la pena che ci provino.

Tre strade per il risparmio tradito

In conclusione, fino a ieri i risparmiatori traditi da Parmalat avevano due strade: agire contro chi aveva loro venduto i titoli, cercando di dimostrare che non erano stati adeguatamente informati, e (ma solo per i risparmiatori “di serie A”, cioè gli obbligazionisti) partecipare al piano Bondi, diventando azionisti della nuova Parmalat che risorgerà dalle ceneri del gruppo (si veda www.lavoce.info). Oggi, con l’apertura del processo penale, ne hanno una in più, ma il loro futuro non è roseo. È per questo che occorre che venga presto approvata una nuova legge che per il futuro tuteli i risparmiatori, prevedendo stringenti regole di corporate governance per le società quotate in Borsa, penalizzando adeguatamente chi falsifica i bilanci, attribuendo più poteri alla Consob e, infine, sancendo il diritto dei risparmiatori di agire collettivamente contro chiunque li abbia danneggiati (con una class action, che suddivide il costo dell’azione fra i tantissimi interessati). Una legge che tarda ad arrivare e che perde mordente man mano che le proposte si susseguono in Parlamento. Di solito, dopo che i buoi sono scappati si chiude almeno la stalla. In Italia, per ora, la si è lasciata aperta.

Se Parmalat dà il buon esempio, di Lorenzo Stanghellini

Le regole sulle imprese in crisi vivono una stagione strana: da un lato un faticoso processo di riforma generale, con tempi lunghi, commissioni che lavorano in silenzio e producono soluzioni poco innovative. Dall’altro, un reality show con le regole dettate per la crisi Parmalat, approvate, applicate e molto più coraggiose.
Se ne trova conferma nel piano di riassetto del gruppo Parmalat, appena presentato al Ministro Marzano. Come aveva auspicato lavoce.info all’indomani dell’approvazione del decreto d’emergenza alla vigilia di Natale (Dl 23-12-2003, n. 347), il piano può avvalersi di regole innovative che il Parlamento ha adottato convertendo il decreto in legge (L. 18-2-2004, n. 39). Tali regole consentono al commissario Parmalat di operare una vera ristrutturazione finanziaria e di trasferire l’impresa in crisi ai creditori.

Il piano

Il piano Parmalat prevede che venga costituita una società per azioni che assume l’attivo di sedici società della galassia Parmalat e ne paga i creditori. (1)
Il fatto nuovo è che mentre la nuova società pagherà in denaro (e per intero) i creditori privilegiati (fisco, lavoratori, artigiani, eccetera), “pagherà” con le proprie azioni tutti gli altri: le riceveranno in proporzione ai diritti che rispettivamente vantavano verso una o più delle sedici società. La nuova Parmalat, dotata di una governance all’avanguardia, verrà quotata in Borsa. (2)
I creditori che vogliono avere denaro potranno cedere le azioni, gli altri potranno giovarsi degli incrementi di valore che nel tempo dovessero prodursi. La perdita di un creditore oggi stimata, ad esempio, nell’80 per cento potrebbe ridursi (ma anche aumentare) in conseguenza dell’andamento delle azioni in Borsa.

Alla nuova società verranno attribuiti anche gli attivi che potrebbero derivare dalle azioni revocatorie e di risarcimento danni contro amministratori, sindaci, revisori e alcune banche e intermediari finanziari ritenuti (a torto o a ragione) responsabili del dissesto. Si tratta di un attivo del tutto incerto, ma che potrebbe ridurre le perdite dei creditori in misura anche significativa. D’altra parte la nuova società si assume anche il rischio delle cause iniziate contro Parmalat negli Stati Uniti, il cui costo, anche per spese legali, potrebbe essere elevato.

Restano fuori dal piano di ristrutturazione quattro società del gruppo Parmalat (fra cui Parma calcio) e alcune società sotto il controllo dei Tanzi, ma non di Parmalat (ad esempio, Parmatour). I loro creditori riceveranno, secondo il sistema tradizionale, ciò che si ricaverà dalla vendita dei beni delle società. Fuori dal piano sono anche le società poste al di fuori dell’Unione europea (Brasile e Stati Uniti principalmente), la cui crisi verrà risolta secondo le norme applicabili nei rispettivi paesi.
Il piano, dopo essere stato presentato ufficialmente, sarà sottoposto nei prossimi mesi al voto dei creditori i quali, a maggioranza, potranno approvarlo o rifiutarlo. Se lo approveranno, entro un anno la nuova società potrebbe essere già operativa.

E i vecchi azionisti? Sono ormai fuori: la nuova Parmalat sarà infatti (solo) dei creditori. Si era per la verità ipotizzato di dare agli azionisti un warrant per acquistare le azioni della nuova società a condizioni di favore, per rientrare in gioco se queste azioni acquistassero nel tempo così tanto valore da compensare i creditori-azionisti di tutta la perdita subita. La cosa è tuttavia tecnicamente difficile e, forse, anche iniqua: i vecchi azionisti sono stati alla finestra, protetti dalla responsabilità limitata, mentre Parmalat franava sulle spalle dei creditori. Agli azionisti (diversi dai Tanzi) resta quindi poco da fare, se non agire per il risarcimento del danno contro i responsabili del dissesto e, qualora abbiano ricevuto le azioni in violazione delle norme sui servizi finanziari, contro gli intermediari da cui le abbiano acquistate.

Parmalat: un caso “facile”

Pur nella sua incredibile complessità tecnica, è bene tenere a mente che, dal punto di vista della soluzione, Parmalat costituisce un caso politicamente facile. L’indebitamento che è emerso è enorme, ma l’impresa ha un margine operativo positivo e si autosostiene. Nessun licenziamento è stato necessario, e anche la finanza-ponte, prontamente concessa dalle banche, non è stata utilizzata. Lo Stato ha contribuito, consentendo ai creditori agricoli e agli autotrasportatori messi in difficoltà dal crac Parmalat di accedere a un credito particolarmente agevolato.

Il piano Parmalat, dunque, si limita a staccare i rami secchi e a liberare dai vecchi debiti un’impresa che, pur fragile, può riprendere a camminare da sola. Non si è posta, in altre parole, quell’alternativa fra tutela dei lavoratori (e dei fornitori) e tutela dei creditori che costituisce uno dei più difficili nodi “politici” della crisi d’impresa, soprattutto della grande impresa. La politica ha fatto da (interessato) sparring partner, ma non ha imposto in nome di interessi “politici” (occupazione, interesse nazionale) scelte che – soprattutto per gli obbligazionisti – sarebbero state indigeribili, con danni sul piano dell’immagine internazionale dell’Italia ancor più gravi di quelli che il caso ha già prodotto.
Ben diverso sarebbe, ad esempio, se Alitalia divenisse insolvente: le regole applicabili sarebbero le stesse (anche Alitalia ha più di mille dipendenti), ma il contesto sarebbe completamente diverso. Mentre Parmalat ha bisogno (soprattutto) di una ristrutturazione finanziaria, Alitalia avrebbe bisogno di una ristrutturazione industriale, per tornare a creare valore mentre oggi lo distrugge. All’eventuale commissario straordinario si presenterebbero scelte difficili, da operare sotto le direttive di una politica alle prese con una coperta troppo corta (creditori, lavoratori, divieto di aiuti di Stato).

Le lezioni da trarre

Quali le lezioni della crisi Parmalat? Sono principalmente due, e così ovvie che è strano che l’Italia le abbia definitivamente apprese solo con questa crisi (e solo per la grande impresa, che nel nostro paese dà lavoro a una parte minoritaria degli occupati).
(1) È importante avere una procedura che consenta la gestione dell’attivo e la continuazione dell’attività mentre il debitore (o il curatore) e i creditori negoziano una soluzione flessibile. Sembra incredibile, ma in Italia non c’è. Anche il Regno Unito, buon ultimo, se ne è dotato lo scorso anno, così completando un quadro che già era molto efficiente.
(2) È importante avere una procedura che consenta, accanto alla ristrutturazione industriale, anche la ristrutturazione finanziaria e che al limite eviti di dover vendere all’asta i beni dell’impresa (con le note perdite di valore dovute alle imperfezioni dei mercati). Esattamente questo accadrà con Parmalat, che invece di essere venduta a terzi verrà “venduta” ai suoi stessi creditori.
Anche se il prezzo è stato altissimo, la lezione di Parmalat potrebbe portare frutti positivi. Senz’altro li sta portando per il diritto della crisi d’impresa italiano, che fino a pochi mesi fa si basava su concetti antiquati e che oggi si trova proiettato in avanti dalle spinte del più grave dissesto degli ultimi decenni.
Il possibile successo di Parmalat non è facilmente ripetibile. Tuttavia, da qui occorre muovere per la riscrittura delle regole sulla crisi di tutte le imprese, grandi e piccole.

(1) Si vedano le linee-guida del piano, presentato ai creditori il 4 giugno 2004: http://www.parmalat.com/it/doc/Creditors%20Meeting%204%20June%20(ii).pdf

(2) La governance della nuova Parmalat è descritta al punto 3 del comunicato-stampa 17 maggio 2004: http://www.parmalat.com/it/doc/2004.05.17%20Linee%20guida%20it.pdf

Tre punti per la tutela del risparmio, di Mario Sarcinelli

Un regime di regolamentazione, composto necessariamente di una pluralità di regole, strumenti e obiettivi, abbisogna di una strategia che lo renda rispondente al sistema che s’intende “controllare”.
Ad esempio, se in un sistema economico prevalgono la quotazione in Borsa e la proprietà diffusa, è efficiente spostare il baricentro delle regole e dei controlli verso il mercato e verso le offerte pubbliche di acquisto o di scambio.
Se, al contrario, sono diffusissime le medie e piccole imprese sostanzialmente avverse alla Borsa, il fulcro della regolamentazione deve rimanere in maggior grado in ambito pubblicistico. E l’Italia, nonostante i progressi degli ultimi quindici anni, continua a esprimere un capitalismo familiare. In qualche caso, come quello Parmalat, anche un familismo amorale.

Le sanzioni nel nuovo diritto societario

La riforma del diritto societario nel nostro paese sarebbe dovuta essere il risultato di un attento studio delle necessità del nostro sistema produttivo.
Invece, quella che è entrata in vigore il 1° gennaio 2004 ha proceduto sulla base di principi teoricamente condivisibili, ma avulsi dalla realtà italiana.
Infatti, si è garantita la massima libertà statutaria alla Spa in grado di emettere un’ampia tipologia di azioni, di ricorrere senza limiti, se quotata, all’indebitamento obbligazionario anche atipico, di scegliere il regime di direzione tra diverse opzioni. Alla maggiore libertà non si è però accompagnata una sanzione proporzionalmente accresciuta nel caso di violazione di obblighi, come il falso in bilancio dimostra.
Poiché tale sistema mal si addice a un capitalismo familiare come il nostro, prima o poi dovrà porsi mano a una sua revisione.

Per difendersi dalla frode

La stabilità del capitalismo, da noi come negli Stati Uniti e in altri paesi europei, è stata messa in pericolo da tre cause: la frode, l’accumulazione involontaria di rischi e la concessione delle opzioni su azioni, con le connesse modalità di contabilizzazione e di esercizio.
Nella ricerca della miscela di strumenti e incentivi adatta a ogni economia, vanno anche individuati il tipo di pericolo da cui bisogna guardarsi e chi è preposto a vigilare sul medesimo. E in Italia, dopo il caso Parmalat, la frode sembra essere quella che suscita il maggiore allarme sociale.

Se questo è vero, ed essendo la frode un reato contro la fede pubblica, allora non si può prescindere dall’azione delle autorità di supervisione, della Guardia di finanza, che ha compiti di polizia economica, e delle procure della Repubblica. Ma questo non basta: per evitare che il potere pubblico arrivi quando il danno è stato arrecato, è necessario che vi siano dei filtri efficaci al livello dell’organizzazione aziendale, con obblighi sanzionabili. E affinché questi filtri funzionino, è necessario aumentare la loro distanza da proprietari e amministratori attraverso la divaricazione degli interessi.

Quali filtri sono previsti? Vediamone alcuni.In primo luogo, i revisori esterni, che hanno oggi l’obbligo di certificare la contabilità. Perché questi siano utili sentinelle dovrebbero essere privati di ogni capacità di consulenza; bisogna eliminare il potenziale conflitto d’interessi che potrebbe insorgere domani e/o in un altro ordinamento. Ma per ottenere questo è necessaria una forte e coordinata pressione internazionale.

Abbiamo poi i sindaci, ma anch’essi sono espressione della maggioranza, mentre sarebbe opportuno che fossero scelti dalla minoranza o, almeno, dai fondi comuni d’investimento che hanno nel proprio portafoglio titoli della società e/o del gruppo.
I consiglieri d’amministrazione indipendenti, quando esistono in società dalla forte impronta familiare, non sono affatto indipendenti, poiché sono scelti dal capo effettivo dell’azienda, che spesso è il presidente del gruppo, e restano in carica sino a quando sono a lui graditi.
Per i capi uffici della contabilità e della finanza vanno previste specifiche responsabilità fortemente sanzionabili, poiché per essi non è immaginabile una diversificazione degli interessi da quelli degli amministratori e dei proprietari. Particolari incentivi per chiunque voglia fare il whistleblower sono chiaramente poco efficaci, poiché sarebbe oggetto di ritorsioni prima e di discriminazioni poi.

Quanto alle sanzioni abbiamo diverse possibilità, con efficacia differente.
Quelle restrittive della libertà dovrebbero essere riservate ai comportamenti più gravi, mentre sono da preferire quelle sospensive o interdittive dalla professione o dalla carica.
In fondo, a un regime capitalistico interessa estromettere, temporaneamente o definitivamente, persone che si sono dimostrate incapaci di osservare le regole del gioco. Va da sé che questo tipo di misure deve essere pienamente appellabile.

Tornano le grida manzoniane?

Abbiamo quindi tre opzioni di intervento: la revisione del nuovo diritto societario, la divaricazione degl’interessi tra amministratori e proprietari e organi di controllo e infine l’inasprimento delle sanzioni.
Purtroppo, solo quest’ultimo è rapidamente attuabile, come del resto è avvenuto negli Stati Uniti.
Purché non si tenti di configurare un improbabile reato di “nocumento al risparmio” (da 3 a 12 anni di galera) per chi causa un danno superiore all’1 per mille del Pil, (come è noto, il Pil è frutto di stime soggette a molteplici revisioni), o colpisca un numero di risparmiatori superiore all’1 per mille della popolazione (la cui entità è accertata dal censimento ogni dieci anni). Le grida manzoniane sono ancora di moda?

Cani da quardia per decreto, di Carlo Scarpa

La proposta di istituire una SuperConsob contiene almeno un rischio: che si creda veramente di trasformare una pesante e lenta burocrazia come la Consob in un temibile ufficio ispettivo.
Ha ragione il ministero dell’Economia: in un paese normale l’allarme devono darlo le autorità di vigilanza. E poiché nello scandalo Parmalat le irregolarità sono di una società quotata (sorvegliata dalla Consob), non possiamo che rilevare come chi dovesse vigilare sulla Borsa e su chi sollecita il risparmio privato, non lo abbia fatto in modo sufficiente.

È evidente che una valutazione complessiva sull’attività della Consob su un arco trentennale richiederebbe ben più che un paio di paginette. Sarebbe una valutazione inevitabilmente complessa, con luci e ombre.
Qui mi limito a sottolineare come la Consob, che magari ha operato bene sullo sviluppo del mercato di Borsa, ha spesso scelto un profilo troppo basso nell’attività di vigilanza, una di quelle cui è delegata.
È la funzione più importante? Non so, ma non è marginale.

Il controllo delegato a Consob riguarda diversi soggetti, in particolare le “emittenti” (le società quotate), i revisori, gli intermediari finanziari. Esistono due tipi di controlli, quelli ex-ante (al momento dell’ingresso sul mercato, in particolare la quotazione delle società) e quelli ex-post, tramite ispezioni sui soggetti che operano.
Su entrambi abbiamo problemi, in parte dovuti al funzionamento della Borsa, in parte alla normativa esistente, ma in parte anche a Consob. Facciamo alcuni esempi.

Controlli ex-ante: la quotazione di società

Quando un’impresa viene venduta a un investitore privato, chi compra paga gli avvocati per effettuare un’accurata ricognizione di tutti i documenti della società venditrice, e segnalare ogni possibile problema (si chiama “due diligence”, la dovuta diligenza nell’accertare la situazione dell’impresa che si vuole acquistare).

Quando un’impresa viene venduta sul mercato azionario, invece, né la Borsa italiana (che fissa i requisiti per la quotazione) né la Consob fanno nulla di tutto questo. È l’impresa che si quota a pagare consulenti e avvocati per imbellettarsi, e convincere le autorità che tutto è a posto. (1)

Gli avvocati presentano alla Consob il prospetto, che sarà pubblicato per gli investitori, e l’elenco dei documenti sui quali il prospetto si basa. Nell’impresa c’è qualcosa che non va? Basta dire che il prospetto è compilato su un certo elenco di documenti, ed escludere da tale elenco le carte che potrebbero rivelare “grane”. Gli avvocati sono a posto: se una cosa non dichiarano di saperla, dimostrare che non si siano comportati correttamente è arduo.

Sarebbe interessante sapere quante volte la Consob si è spinta oltre commenti solo formali sul prospetto (è troppo lungo, o troppo corto; questo passaggio è poco chiaro; e cose del genere). E quali cambiamenti siano stati apportati (purtroppo le versioni preliminari del prospetto non sono pubbliche, e ci si deve accontentare di “voci”, non tutte rassicuranti).
Il fatto stesso che il prezzo di quotazione venga determinato senza che il prospetto dichiari quali ipotesi si facciano sui futuri flussi di cassa è indicativo.

Cosa succede nel resto del mondo? Anche altrove le autorità di controllo si affidano molto alla Borsa locale, ma in un contesto un po’ diverso. Mi pare che in Italia un maggiore controllo di Consob sarebbe forse auspicabile, quanto meno per i seguenti motivi:

– la Borsa italiana ha come prima esigenza far crescere il numero di società quotate: quali incentivi ha a effettuare una severa selezione delle imprese?

– mentre altri mercati che devono analizzare molte richieste di quotazione all’anno, possono avere team di analisti specializzati per settore, la Borsa italiana non li ha, e quindi la sua valutazione sulle società quotande è fatalmente più difficoltosa;

– in mercati più sviluppati, il collocamento avviene tramite investitori istituzionali, che svolgono un ruolo di controllo e una attività di due diligence che in Italia non sono effettuate da nessuno;

– le possibilità di controllo (ex-post) in Italia sono state da sempre più limitate (al di là delle critiche alla Consob, i confini imposti dalla normativa sono purtroppo risaputi.Vedremo cosa salterà fuori dalla riforma). Quindi una maggiore attenzione ex-ante sarebbe necessaria.

È forse il caso di ricordare che la sentenza della Cassazione civile n. 3132 del 3 marzo 2001 sancisce come la Consob sia responsabile della affidabilità delle informazioni diffuse sul mercato.
Per la verità, non sono sicuro che insistere sulla responsabilità civile della Consob rappresenti “la soluzione”, ma una maggiore attenzione sarebbe di gran lunga preferibile. Se non si vogliono dilatare i tempi della quotazione, forse sarebbe sufficiente verificare dopo la quotazione che le informazioni fornite all’atto dell’Ipo siano veritiere e complete.

Controlli ex-post: Parmalat e dintorni

Il presidente della Consob, Lamberto Cardia, si è lamentato, sostenendo che se la Consob avesse avuto la centrale dei rischi (banca dati in possesso della Banca d’Italia) avrebbe potuto intervenire sulla Parmalat.
Come ha messo in luce Giovanni Ferri su lavoce.info, questo nel caso Parmalat non è vero. Sia perché il grosso dei debiti Parmalat erano sull’estero, e quindi non sono in questa banca dati, sia perché la Consob, se avesse veramente voluto far qualcosa, doveva semplicemente chiedere quei dati alla Banca d’Italia. E la Banca (se anche avesse voluto) non avrebbe potuto negarli.
Ma la cosa curiosa è che la Consob non ha mai chiesto alla Banca d’Italia questi dati, né per Parmalat, né per altri casi. Perché? Forse sarebbero serviti a poco, ma resta piuttosto forte la sensazione che la Consob, come “vigilante”, abbia preferito un ruolo notarile. D’altronde, se il motto della Sec (l’equivalente americano) è “the investor’s advocate”, da noi è tuttora diffusa la dottrina secondo cui la Consob debba essere super partes (e non, invece, proteggere soprattutto gli investitori).

Nell’affaire Parmalat si mescolano le responsabilità di tanti, da questa parte come dall’altra dell’oceano, all’interno dell’impresa e fuori. Vi sono stati falsi (di cui forse solo a posteriori ci si poteva accorgere), ma è vero che una serie di osservatori da tempo sapevano che Parmalat non era in buona salute e che da sempre non dava informazioni chiare ed esaurienti.
Come denunciò Marco Vitale sul Corriere della Sera, è dal 1989 che alcuni investitori si lamentano della scarsa chiarezza delle comunicazioni societarie della Parmalat. Nel 1994, un articolo di Malagutti su “Il Mondo” denunciava il gioco delle tre carte della società: le obbligazioni Parmalat erano oggetto di scambi poco chiari, alla fine dei quali i quattrini sembravano moltiplicarsi come i pani e i pesci di evangelica memoria.
I bilanci Parmalat erano così “puliti” da non giustificare proprio alcuna reazione? Il presidente Cardia ha puntualmente elencato al Parlamento ciò che la Consob ha fatto. Sono interventi effettuati quando proprio non se ne poteva fare a meno, e quando ormai era tardi. Forse intervenire prima non avrebbe risolto il problema, ma almeno ora si potrebbe dire che qualcuno stava provando a suonare un campanello d’allarme.
Non è poi escluso che se la Consob avesse condotto ispezioni presso i revisori, qualcosa sarebbe saltato fuori per tempo. Ma purtroppo la vigilanza sui revisori è occasionale, e avviene solo su segnalazione di presunte irregolarità. Ovvero, si rischia di intervenire quando i buoi sono scappati. A quanto pare, infatti, la Consob ha un piano di vigilanza sistematico solo per gli intermediari, non per revisori e società quotate. E infatti esiste un ispettorato per gli intermediari (ventotto persone su un totale di quattrocento dipendenti), non per gli altri soggetti.

Ma allora serve rafforzare la Consob? Certo, le servono più poteri e più risorse, non negli uffici amministrativi, ma in quelli operativi. Soprattutto serve cambiare mentalità. Magari, se a tempo debito, i dirigenti Consob avessero alzato la voce con quelli della Parmalat …

Per saperne di più

Per una valutazione dei primi venti anni di attività della Consob, si rinvia a G. Nardozzi e G. Vaciago (a cura di) “La riforma della Consob nella prospettiva del mercato mobiliare europeo”, Il Mulino, 1994.

F. Vella, Gli assetti organizzativi del sistema dei controlli tra mercati globali e ordinamenti nazionali, in “Banca, impresa, società”, 2001, p. 351.

G. Visentini e A. Bernardo (2001) La responsabilità della Consob per negligenza nell’esercizio dell’attività di vigilanza, Documento del Ceradi, Luiss, Roma, scaricabile da http://www.archivioceradi.luiss.it/documenti/archivioceradi/impresa/banca/Consob_Bernardo.pdf

(1) Si ripresenta qui lo stesso problema di conflitto di interessi evidenziato da Luigi Guiso per i revisori dei conti: chi controlla le carte non è il controllore, ma qualcuno scelto e pagato dal controllato…

Cirio, Parmalat e il conflitto di interesse, di Luigi Guiso

Il conflitto di interesse – si verifica quando un soggetto a cui sono istituzionalmente assegnate alcune finalità da perseguire con il suo operato, può da questo trarre vantaggi personali, minando il raggiungimento delle finalità assegnate – può costituire, se non riconosciuto e controllato, una seria minaccia per gli investitori, fino a ostacolare lo sviluppo finanziario.
Mercati finanziari poco sviluppati sono, a loro volta, un impedimento alla nascita delle imprese, alla loro crescita dimensionale, alla produzione e adozione di nuove tecnologie. In altre parole, un limite allo sviluppo economico.
Il rapporto del Cepr e del Icmb, “Conflicts of interests in the financial services industry: what should we do about them?“, che verrà discusso in un incontro ad hoc e di cui
www.lavoce.info pubblica oggi un riassunto, mette a fuoco le origini del conflitto di interesse nei mercati finanziari, ne esamina le conseguenze e analizza i pro e i contro delle misure per fronteggiarlo.

Perché ci interessa?

Cirio e Parmalat sono vividi esempi in cui il conflitto di interesse di alcuni degli operatori coinvolti ha avuto un ruolo cruciale. Vediamo perché.

Parmalat. Vi è il fondato sospetto che la società di revisione abbia mancato di rivelare tutta l’informazione in suo possesso certificando bilanci alterati e falsificati, consentendo alla truffa imbastita dal management della Parmalat di perpetuarsi, a danno degli investitori. Perché avrebbe operato in questo modo esponendosi al rischio di una perdita di reputazione in un mercato, come quello degli auditor, relativamente competitivo? Perché chiudere un occhio sulle azioni scorrette del management garantiva il ripetuto rinnovo del contratto come revisore e possibilmente l’aggiudicazione di qualche contratto di consulenza. L’auditor era in conflitto di interesse.

Ma non era il solo. Il collegio sindacale, il principale organo interno di controllo, ma nominato dal management e retribuito dalla stessa società, era in una simile situazione. Perché esercitare un controllo contabile severo (come da compito istituzionale del collegio sindacale) se questo poteva urtare il management e compromettere la riconferma dei sindaci alla scadenza? Anche questi ultimi si trovavano in conflitto di interesse.
In conflitto di interesse era pure il consiglio di amministrazione formato esclusivamente da persone nominate dal manager e scelte spesso tra gli dirigenti del gruppo. Che incentivo potevano avere, qualora a conoscenza delle malversazioni contabili che si compivano, ad andare contro il manager se da questo dipendeva la loro riconferma come consiglieri e, per alcuni, la carriera futura?

Cirio. In questo caso pure è stato avanzato il sospetto che alcune banche esposte verso la Cirio abbiano trasferito il rischio ai loro depositanti, “collocando” nei loro portafogli obbligazioni Cirio, della cui rischiosità erano, a differenza dei clienti, consapevoli. Il conflitto di interesse origina in questo caso dal fatto che la banca è allo stesso tempo prestatrice di fondi alle imprese e consulente finanziario e gestore dei portafogli dei propri clienti.
Emerge con la banca universale, modello che l’Italia ha adottato con il nuovo ordinamento bancario del 1993. Il rischio di conflitto di interesse nella banca universale era noto già dall’intenso dibattito svoltosi negli Stati Uniti nel 1933 in preparazione del Glass-Steagall Act. Ferdinand Pecora, consulente del Banking and Currency Commitee, evidenziava: “Si presume che una banca intrattenga un rapporto fiduciario e protettivo con i propri clienti e non di un venditore (…). L’introduzione e la diffusione dei nuovi compiti ha corrotto le fondamenta di questa tradizionale etica della banca”.

Evidentemente l’etica non era sufficientemente robusta da resistere agli incentivi derivanti dallo sfruttamento del conflitto di interesse. In Italia, le avverse conseguenze del potenziale conflitto di interesse nel nuovo modello di banca universale dopo il 1993 sono state largamente sottovalutate. Il caso Cirio le ha fatte emergere, ma la loro portata è verosimilmente molto più vasta.

Che fare?

I casi Cirio e Parmalat hanno portato il Governo, su iniziativa del ministro del Tesoro, a varare un disegno di legge che nelle intenzioni dovrebbe contenere norme sufficienti a proteggere i risparmiatori da simili casi nel futuro.
Manca qui lo spazio per entrare in dettaglio nel merito del provvedimento.
Ma un fatto emerge con chiarezza: nel disegno di legge non vi è traccia di norme mirate a regolare il conflitto di interesse di amministratori e sindaci. Quelle indirizzate a regolare il conflitto di interesse delle società di auditing sono, come è stato rilevato, insufficienti.
Non vi sono norme che richiamino i conflitti di interesse delle banche e individuino misure per fronteggiarli. Eppure, sono i conflitti di interesse alla base della scarsa protezione dei risparmiatori.
Più in generale, delle varie misure che il rapporto del Cepr suggerisce per limitare lo sfruttamento dei conflitti di interesse e che sono elencate nel riassunto pubblicato, nessuna trova spazio nel decreto governativo.
Al Parlamento, il compito di rivedere il testo, contribuendo a riassorbire il pericoloso sentimento antifinanziario che si è sviluppato tra i risparmiatori del nostro paese.

La sanzione intelligente, di Michele Polo

Nel dibattito sollevato dalla sconcertante vicenda Parmalat, Luigi Zingales ha prospettato l’introduzione di uno strumento, utilizzato negli Stati Uniti per facilitare l’individuazione di condotte criminose all’interno delle organizzazioni. Consiste nella possibilità di premiare quanti, dall’interno delle organizzazioni stesse, rivelino informazioni cruciali per lo svolgimento delle indagini: i cosiddetti whistle-blowers.

È forse utile per inquadrare potenzialità e limiti di questa proposta analizzarla alla luce del problema di law enforcement che le autorità debbono affrontare nel perseguire i crimini attuati da organizzazioni, e nello specifico i cosiddetti corporate crimes. Inoltre, risulterà utile considerare questa proposta alla luce dell’esperienza di strumenti analoghi già utilizzati negli Stati Uniti e in Europa.

Un crimine in collaborazione

La principale caratteristica dei crimini commessi da organizzazioni, rispetto ai crimini individuali, risiede nella struttura più complessa e articolata del soggetto che promuove l’azione illegale, che richiede il coinvolgimento e la collaborazione di molti individui.
All’interno di una organizzazione, inoltre, i benefici delle azioni illegali non sono ripartiti in egual modo tra tutti i soggetti che, con ruolo direttivo o esecutivo, partecipano alla loro realizzazione. Infine, le sanzioni, pecuniarie e penali, possono colpire molti soggetti all’interno dell’organizzazione, con ruoli e responsabilità diverse.
Nella vicenda Parmalat, ad esempio, ogni giorno apprendiamo nuove informazioni sulle tecniche di manipolazione contabile e di equilibrismo finanziario che hanno permesso l’accumularsi degli ingenti ammanchi, e di come numerosi uffici e funzionari partecipassero a queste operazioni.
I corporate crimes, pertanto, pur potendo determinare conseguenze ben più devastanti di quelle innescate dalla condotta delittuosa di un singolo soggetto, hanno in sé un elemento di debolezza che può essere sfruttata nel disegno delle politiche repressive e di indagine: la collusione (omertà) tra i soggetti promotori dell’azione delittuosa può saltare, con una conseguente diffusione di notizie preziose per le indagini.
Contro questa fragilità sono naturalmente molti gli strumenti che una organizzazione può mettere in campo, dai benefici monetari allargati ai membri attivi della malversazione (come non pensare al signor Fausto Tonna) alle sanzioni “sociali” che possono creare terra bruciata attorno a quanti rivelano informazioni preziose per le indagini.

Il disegno di una politica repressiva intelligente deve tenere conto di questi fattori messi in campo dalle organizzazioni per garantire la propria coesione e omertà, e prevedere incentivi adeguati a neutralizzarli.
L’analisi economica dell’applicazione della legge da questo punto di vista offre importanti spunti e riferimenti, che possiamo sintetizzare in questo modo:

1. L’incentivo dei singoli soggetti di una organizzazione a rivelare informazioni utili è relativamente basso quando le indagini non hanno ancora puntato l’attenzione sulla vicenda che li coinvolge: in questa fase, infatti, a fronte dei benefici che i soggetti ricevono dal partecipare all’azione delittuosa, il pericolo di subire l’azione della legge appare remoto.

2. Gli incentivi alla collaborazione, invece, risultano molto più elevati, inducendo a collaborare alle indagini, una volta che una inchiesta sia aperta, o almeno i rumors su eventuali malversazioni inizino a circolare. È in questa fase che tipicamente si osserva il moltiplicarsi delle collaborazioni (si pensi anche al periodo delle inchieste di Mani Pulite).

3. Maggiori sono i benefici offerti a quanti collaborano, più efficace risulta lo strumento. Se ad esempio viene previsto non solo l’annullamento della sanzione (monetaria o penale), ma addirittura un premio a quanti collaborino, come proposto da Zingales, l’incentivo a rompere l’omertà potrebbe essere sufficiente a far emergere rivelazioni anche in assenza di indagini già avviate.

4. La capacità delle imprese di “comprare” l’omertà dei propri dipendenti e funzionari è minore quando questi ultimi rischiano sanzioni penali, mentre è facilitata da un clima sociale omertoso che condanna la collaborazione.

I Leniency Programs

La politica di protezione nei confronti dei collaboratori di giustizia nelle indagini contro il crimine organizzato risponde sostanzialmente a questa logica. Queste indicazioni sono anche alla base della politica sanzionatoria adottata dalle autorità antitrust americana ed europea.
Il dipartimento di Giustizia americano è stato l’apripista nell’utilizzo dei cosiddetti “Leniency Programs”, programmi di riduzione o annullamento delle sanzioni monetarie e penali nei confronti dei soggetti coinvolti in pratiche di cartello che collaborino alle indagini.
Sono stati creati partendo dalla constatazione che i corporate crimes non erano adeguatamente scoraggiati da sanzioni anche pesanti, senza una sufficiente capacità (probabilità) di arrivare alla condanna.

Introdotti nel 1978, i Leniency Programs prevedevano inizialmente uno sconto nella sanzione solamente nel caso in cui i manager delle aziende coinvolti rivelassero informazioni prima che una indagine venisse avviata. In questa formulazione si rivelarono scarsamente efficaci, con uno o due casi ogni anno avviati sulla base di queste rivelazioni. Nel 1993 i criteri vennero riformati, prevedendo la possibilità di riduzioni, anche complete, nelle sanzioni penali qualora la collaborazione alle indagini fosse sostanziale e avvenisse anche dopo l’avvio delle indagini stesse.

Con queste nuove regole l’efficacia dei Leniency Programs americani si è fortemente potenziata, con una media di venticinque casi all’anno conclusi con successo.

La Commissione europea a partire dal 1996 ha introdotto strumenti analoghi, ulteriormente affinati nel 2002.
La lezione che ci viene dall’esperienza sanzionatoria in materia antitrust ci permette di imparare qualcosa di utile anche in materia di crimini finanziari.
Gli sconti nelle sanzioni (o addirittura i premi) non sono un sostituto per gli sforzi di indagine indipendente da parte delle autorità di vigilanza, dal momento che risultano più efficaci proprio quando le indagini iniziano a stringere il cerchio attorno alle condotte criminali. Così come la capacità di indagine e verifica sulle rivelazioni appare cruciale per evitare di essere catturati da collaboratori “infedeli”.

Gli sconti nelle sanzioni, d’altra parte, consentono più rapidità nel concludere le indagini e un accertamento più pieno dei fatti (e delle risorse distratte). Gli sconti, inoltre, alzando il prezzo della fedeltà dei dipendenti coinvolti in condotte delittuose, riducono il profitto delle imprese derivante da tali condotte. Possono quindi operare indirettamente da deterrente rispetto a questi comportamenti.
Infine, una cultura della legalità è background necessario per affiancare alla sanzione della legge quella sociale, e al premio al collaboratore il suo apprezzamento da parte della collettività.

Per saperne di più

M.Polo, Internal Cohesion and Competition among Criminal Organizations, in S. Pelzman e G. Fiorentini (eds.), The Economics of Organized Crime, Cambridge U.P. pp. 87-108, 1995.
M.Polo, Cosa Nostra: ritratto di un interno. Coesione e strutture, in Secondo Rapporto sulle priorità nazionali, Fondazione Rosselli, Milano, Mondadori (1995).
F.Ghezzi, M.Polo, Osservazioni sulla politica sanzionatoria della Commissione in materia antitrust: la Comunicazione sulla non imposizione di ammende, Rivista delle Società , v. XLIII, n.2-3, pp.682-731, 1998.
M.Motta, M.Polo, Leniency Programs and Cartel Prosecution, International Journal of Industrial Organization, 21 (3), 347-380, 2003

Il denunciante civico: il lato oscuro della forza, di Vincenzo Perrone

La storia di Parmalat sembra essere la conferma definitiva del noto proverbio: chi trova un amico trova un tesoro. Almeno fino a quando non arriva la Guardia di finanza. A Parma gli amici venivano tutti dallo stesso istituto di ragioneria, si conoscevano da anni, cambiavano società di revisione, ma mantenevano lo stesso cliente. Al centro di tutto vi era il nocciolo duro della famiglia: figli, zii, forse nipoti.

Dal capitale sociale…

Le relazioni economiche sono immerse in una rete di relazioni sociali. Legami di sangue, di amicizia, di fiducia e lealtà, di clan e dialetto, di comunanza culturale, religiosa o ideologica, aiutano a scegliere le parti con le quali preferibilmente scambiare, ci spingono a rischiare di più in queste relazioni economiche e ci consentono di farle durare nel tempo.
Queste relazioni hanno un tale valore per l’azione economica che negli studi organizzativi da qualche tempo si è cominciato a parlare di capitale sociale per intendere proprio le maggiori possibilità di azione e di successo economico di cui gode l’attore che ha una dotazione elevata di relazioni sociali positive e con attori potenti, competenti, ricchi e affidabili, quanto e più di lui. Si è scoperto che quanto più elevato è il capitale sociale di un individuo, tanto più facile sarà per lui trovare un nuovo lavoro, o un’azienda partner per un accordo di joint-venture, o un banchiere disposto a prestargli soldi.
Il capitale sociale è una forza che riduce anche la complessità delle forme organizzative di governo degli scambi: se possiamo fidarci delle persone che abbiamo nella nostra rete di relazione, avremo meno bisogno di strumenti di controllo organizzativo costosi, come le regole formali o la gerarchia.

Il capitale sociale sostiene la produzione e la riproduzione del capitale economico: lo sapeva bene Georges Duroy l’arrivista assoluto detto “Bel-Amì” e con lui tutti i frequentatori di salotti e terrazze importanti. Lo sanno quanti operano in un distretto industriale e si occupano di alleanze tra imprese, o coloro che affidano alla società di consulenza dove hanno iniziato una brillante carriera la ricca commessa che ora possono firmare come amministratore delegato di un’impresa.

…Al familismo amorale

Del capitale sociale si parla quindi bene. Forse troppo. Nella vicenda Parmalat, relazioni personali di parentela e di amicizia, reti chiuse e cementate dalla fiducia e dalla conoscenza personale hanno svolto un ruolo tale da consentire il protrarsi di una truffa di quelle dimensioni per ben quindici anni.
Esaminata da questa prospettiva la storia dell’azienda, del suo fondatore e della rete di relazioni che ha saputo sviluppare nel tempo ci ricorda che il capitale sociale è neutro rispetto alle finalità dell’azione che sostiene: può aiutare a raggiungere i propri scopi Gino Strada come Totò Riina.
E può produrre esiti negativi di entità preoccupante.
Può fare assomigliare Parma a Montegrano, il nome fittizio scelto negli anni Cinquanta dal sociologo statunitense Edward C. Banfield per il paese della Basilicata emblema del nostro “familismo amorale”. Ovvero la tendenza a restringere la validità e l’obbligo di rispetto delle norme morali alla sola ristretta cerchia delle proprie relazioni familiari, sviluppando una contrapposizione netta tra famiglia (e famigli), per il bene dei quali tutto si giustifica, e società in generale.
Può trasformare la rete di relazioni amicali e di fiducia in una trappola nella quale si fa forza sui “debiti” e “crediti” sociali per ottenere acquiescenza, se non proprio connivenza, rispetto a comportamenti scorretti. O più semplicemente può stendere un velo opaco di benevola presunzione pro-reo che riduce l’incisività dei controlli, ritarda i dubbi e le verifiche, lascia prosperare il male.

Un sostituto del capitale finanziario

Verrebbe da pensare che in quella fondamentale componente del capitalismo italiano rappresentata dalle aziende a proprietà familiare, il capitale sociale sia stato usato al posto di quello finanziario per sostenere la crescita senza perdere il controllo.
Rivolgersi all’amico banchiere o farsi consigliare fantasiose e ardite operazioni societarie da qualche esperto, non meno vicino e disponibile, forse costa e preoccupa meno di aprirsi al mercato dei capitali, di fortificare le proprie strutture organizzative con immissione di manager capaci e relativamente indipendenti e di distinguere in modo più netto e trasparente il patrimonio aziendale da quello familiare.
L’era moderna comincia quando le relazioni tra estranei sono rese possibili e vantaggiose da un sistema di regole definito e fatto rispettare da una autorità legittimata, da diritti e doveri, individuali e collettivi, impersonali e universali, dall’autodisciplina determinata dalla necessità di competere in modo ordinato nel processo di allocazione di risorse scarse. Senza questi ingredienti essenziali il capitale sociale, da solo, rischia di essere il pericoloso pretesto per un salto all’indietro in un mondo nel quale la fedeltà conta più della fiducia.
Dobbiamo allora imparare a osservare meglio anche il lato oscuro del capitale sociale. E darci gli strumenti che possano servire a spezzare questa utile, ma a volte pericolosa rete di legami.

Whistle-blower e spie

Negli Stati Uniti nel gennaio del 2002 è stata varata una nuova legge, nota come “Sarbanes-Oxley Act”, che ha come finalità dichiarata quella di proteggere gli investitori migliorando l’accuratezza e l’affidabilità delle informazioni offerte dalle aziende e più in generale della loro gestione contabile e finanziaria. Nata come reazione decisa ai noti scandali, resta da vedere quanto sarà efficace.
Questa legge, oltre a prevedere fino a venticinque anni di galera per chi si rendesse colpevole di frodi al mercato azionario, parla della protezione del “whistle-blower”, letteralmente del soffiatore di fischietto. La spia, diremmo forse malignamente noi, visto che il colpo di fischietto serve per richiamare l’attenzione di chi sta fuori dall’azienda su cose non troppo pulite che vengono fatte e occultate all’interno.
La copiosa letteratura organizzativa che esiste sul fenomeno del whistle-blower, lo definisce infatti come colui o colei che fornisce informazioni a terzi relativamente ad azioni compiute dalla propria azienda, che potrebbero danneggiare altri o l’interesse pubblico, perché illegali o socialmente dannose. Corruzione, falso in bilancio, inquinamento, reati contro il diritto del lavoro, tanto per fare qualche esempio tra i casi più studiati.
Ci si è chiesti cosa motiva questo delatore a fin di bene. Valori morali a parte, la risposta sta nel calcolo dei benefici che si possono ottenere impedendo all’azienda di continuare nel proprio comportamento criminale in rapporto ai costi della denuncia. Costi in primo luogo determinati dalle ritorsioni che è lecito aspettarsi da parte dei manager responsabili dei comportamenti illeciti.

La mano pubblica può intervenire per rendere più conveniente questo calcolo e incentivare quindi le denunce dall’interno. Il Sarbanes-Oxley Act prevede espressamente per il whistle-blower la totale compensazione di qualsiasi danno dovesse subire a causa delle ritorsioni aziendali.
Ma si potrebbe essere ancora più proattivi, come proposto da Luigi Zingales proprio su lavoce.info, prevedendo premi proporzionali al danno evitato alla collettività o agli investitori con la denuncia.
Molti scandali italiani, a cominciare da tangentopoli, sono caratterizzati da una compatta omertà aziendale che curiosamente non ha attratto finora l’attenzione che forse meriterebbe.

Questo anche se la solitudine del politico che intasca la mazzetta richiede spesso una organizzazione criminale meno articolata e sofisticata di quella che l’azienda che gliela vuole dare deve mettere in piedi. E per tenere in vita una truffa enorme per quindici anni su scala globale occorre probabilmente coinvolgere un numero cospicuo di persone. Tutte pronte a parlare. Dopo. E tutte pronte a dire la stessa cosa: che eseguivano ordini irrifiutabili provenienti dall’alto.
Se l’onestà non paga, bisogna cambiare gli incentivi che la rendono la scelta migliore.
E magari cominciare a insegnare ai nostri figli una tiritera diversa da “chi fa la spia non è figlio di Maria…”

L’analisi finanziaria si è fermata a Parma, di Giuseppe Montesi

Il recente fallimento di Parmalat ha chiamato in causa la capacità di analisi e di controllo della comunità finanziaria. Tutti si chiedono come sia stato possibile che per anni nessuno tra banche, società di rating e di revisione in Italia e all’estero si sia accorto della reale situazione del gruppo.
Ormai è certo che da lungo tempo i dati contabili dell’azienda venivano alterati in modo da fornire una visione ufficiale distorta delle effettive condizioni finanziarie. Tuttavia, ci sembra che oggi l’attenzione sia concentrata prevalentemente sulle frodi contabili operate dal management, e sulle presunte distrazioni di fondi da parte del maggiore azionista. Elementi estremamente importanti, che però rischiano di far passare in secondo piano gli aspetti economici della vicenda.

Un rischio prevedibile

Immaginare che il “buco” di miliardi di euro sia solo il frutto di una appropriazione illecita di fondi è infatti difficile.
È invece molto più probabile che buona parte del “buco” sia il risultato di una gestione non redditizia del business, conseguenza di una politica di acquisizioni insensata e investimenti sbagliati.
È infatti possibile dimostrare (e si rinvia all’articolo di approfondimento per i dettagli dell’analisi) che anche prescindendo dai falsi in bilancio, era comunque possibile stimare per tempo l’effettivo rischio finanziario del gruppo Parmalat utilizzando correttamente le tecniche di analisi finanziaria. E intuire che i conti ufficiali dovevano necessariamente nascondere qualcosa.
Si deve comunque sottolineare che fino alla fine del 2003 la comunità finanziaria non scontava un grave rischio di crisi finanziaria imminente per Parmalat.

Fino a dicembre, l’azienda godeva di un rating ufficiale di Standard&Poor’s pari a BBB- . Secondo S&P corrisponde a una probabilità di default pari a 0,43 per cento entro un anno e a 1,36 per cento a due anni. Anche gli spread di mercato sui bonds Parmalat sono aumentati solo nel mese di novembre, quando sono sorti i primi dubbi sul fondo Epicurum.
I target price sul titolo azionario Parmalat delle maggiori banche di investimento erano in linea con le quotazioni di mercato, che negli ultimi anni, si sono di solito collocate tra i 2 e i 3 euro. Pertanto la capitalizzazione di mercato del capitale azionario presentava valori compresi tra 1.6 e 2.4 miliardi di euro, e un valore complessivo delle attività operative dell’azienda (Enterprise Value) compreso tra i 5 e i 5.8 miliardi di euro. (1)

Questi dati consentono di mettere in evidenza alcune anomalie.

1. Nell’ultimo consuntivo del 2002 Parmalat aveva debiti finanziari per quasi 6 miliardi di euro, ovvero un valore superiore al suo valore complessivo di mercato.

2. Il valore della capitalizzazione di mercato della società risultava inferiore a quello della presunta liquidità dichiarata, che era di oltre 3 miliardi di euro.

Troppa liquidità

Queste evidenze rappresentano una prima grossa stranezza e incoerenza che avrebbe dovuto far riflettere: una buona parte del valore di Parmalat era costituito da disponibilità liquide.
Inoltre, il capitale azionario aveva un valore solo in quanto vi erano disponibilità liquide, il cui valore dichiarato risultava maggiore rispetto alla capitalizzazione di mercato della società: un paradosso. Tanto che, se questi dati fossero stati veri, agli azionisti sarebbe convenuto distribuire tutta la liquidità esistente come dividendo ricavandone così un valore della partecipazione superiore a quello dato dalla vendita delle azioni sul mercato.
Se ne può quindi dedurre che evidentemente la gestione operativa di Parmalat non era tanto redditizia, quanto meno non abbastanza da supportare quel livello di indebitamento.
È bene soffermarsi su questo aspetto. E sottolineare come, da un punto di vista economico, non esistono debiti alti o bassi, ma esistono debiti sostenibili o insostenibili: i dati dicevano che l’indebitamento di Parmalat non era più sostenibile dal business aziendale.
La solvibilità del gruppo e le aspettative sulla capacità di rimborso del debito quindi dovevano risiedere in gran parte nella liquidità accumulata e non nelle capacità prospettiche di generare flussi di cassa.
Questa considerazione avrebbe dovuto far riflettere su una seconda stranezza: perché mai una società con consistenti disponibilità liquide, ben superiori alle esigenze fisiologiche di flessibilità finanziaria di una multinazionale come Parmalat, continuava negli anni a mantenere livelli di debito così elevati da risultare non più sostenibili dal business aziendale? Risposte convincenti al riguardo non sono mai state date dalla società, né tanto meno era possibile desumerle dalla normale logica economico-finanziaria.

Uno scenario improbabile

È agevole verificare l’assoluta incoerenza di un simile scenario. Se la liquidità era veramente disponibile non vi erano ragioni perché si continuasse a finanziare una società che aveva risorse finanziarie in abbondanza. Se questa non era invece “disponibile”, era logico presumere che fosse “necessaria”, importa poco per quali fini, alla gestione dell’azienda. E allora in questo caso non si capisce perché si sia continuato a dare credito a una società il cui valore complessivo non copriva ormai più da tempo il valore del debito.
È forse vero che sulla base delle informazioni disponibili non era possibile immaginare una situazione deficitaria delle dimensioni che sembrano emergere. Tuttavia, alcuni segnali inequivocabili sullo stato di salute dell’azienda c’erano da molto tempo. Purtroppo sono stati ignorati o non correttamente valutati da parte dell’intera comunità finanziaria internazionale. Ciò suggerisce che probabilmente occorrerebbe rivedere alcuni aspetti alla base dei processi di analisi e controllo del rischio finanziario, e riflettere maggiormente sui pericoli di alcuni meccanismi di funzionamento dei mercati finanziari che tendono spesso a essere autoreferenziali e ad adottare comportamenti emulativi.

(1) Su come sono ottenuti questi valori si faccia riferimento all’articolo di approfondimento.

Cos’è il decreto Parmalat, di Lorenzo Stanghellini

E’ ormai avviata per le principali società del gruppo Parmalat (Parmalat Spa e Parmalat Finanziaria Spa) la procedura accelerata di amministrazione straordinaria (da non confondere con l’amministrazione controllata) (1) disegnata dal Governo con il decreto-legge approvato subito prima di Natale proprio per rispondere alla crisi della società di Collecchio. In cosa consiste questa procedura?

Dalla “legge Prodi” alla “Prodi-bis”

Approvata d’urgenza nel 1979, la cosiddetta legge Prodi sull’amministrazione straordinaria delle grandi imprese in crisi (legge 95) prevedeva la pura continuazione dell’attività delle imprese insolventi in vista di un miracolo da attendere per anni a spese dei creditori. È stata abrogata nel 1999 dopo un lungo contenzioso con le istituzioni europee, che a più riprese avevano condannato l’Italia per la violazione delle regole sugli aiuti di Stato alle imprese, e sostituita con una normativa più flessibile, comunemente definita “Prodi-bis” (decreto legislativo 270).

La normativa del 1999 si applica alle imprese con almeno duecento dipendenti e prevede alternativamente:
(a) la cessione dei complessi aziendali dell’impresa insolvente: in attesa di trovare un acquirente vengono mantenuti in attività per un periodo massimo di un anno;
(b) la ristrutturazione economica e finanziaria dell’impresa insolvente, da completare entro un periodo massimo di due anni.
Quale obiettivo debba essere perseguito viene deciso al termine di una fase di analisi che dura da due a cinque mesi. Se nessuno dei due obiettivi sembra ragionevolmente raggiungibile (quando ad esempio l’attività distrugge irrimediabilmente ricchezza, sì che non è ragionevole sperare di trovare acquirenti), l’impresa viene dichiarata fallita.

Quali sono le deroghe

Le deroghe introdotte dal decreto Parmalat alla Prodi-bis del 1999 si applicano alle aziende con almeno mille dipendenti (e debiti per almeno un miliardo di euro). Tali deroghe, che mirano ad una accelerazione della procedura, sono essenzialmente le seguenti, concentrate soprattutto nella fase di avvio:

(a) la decisione sull’indirizzo da scegliere (la ristrutturazione) è immediata, senza la fase di analisi, ed è lasciata all’impresa e al ministro (e non al tribunale);

(b) il ministro (e non il tribunale) sceglie il commissario straordinario. Nel caso Parmalat il Ministro ha nominato Bondi, persona indipendente dagli azionisti di controllo, che era già presidente delle società insolventi e che ha pertanto assunto anche le nuove funzioni;

(c) il commissario può fare dismissioni immediatamente, anche prima dell’approvazione del programma, purché con l’approvazione del ministro (l’1,5% di Mediocredito Centrale ceduto ieri a Capitalia è la prima
dismissione e il Parma calcio potrebbe seguire a breve);

(d) il commissario può proporre le azioni revocatorie (cioè di impugnativa degli atti posti in essere dalla società e di restituzione dei pagamenti da essa effettuati), che di regola possono essere proposte solo in fase di liquidazione del patrimonio (Parmalat è invece in corso di ristrutturazione).

Secondo le stesse regole della Prodi-bis, Parmalat dovrà completare la ristrutturazione economica e finanziaria entro due anni. Se non lo farà, e salvo normative di salvataggio, si procederà alla liquidazione dei suoi beni.

Perché una legge “ad hoc”?

C’era bisogno di una legge speciale? No, se si fosse fatta la riforma delle procedure ordinarie, che quando sono sufficientemente rapide e flessibili (come in alcuni progetti di legge già presentati) rispondono perfettamente anche a crisi di grandissime imprese come la Parmalat. Con l’attuale normativa, invece, la rapidità della crisi di Parmalat e l’esigenza di garantire continuità alla sua attività hanno creato lo spazio per un intervento d’emergenza. Rapidità e flessibilità dovrebbero tuttavia caratterizzare tutte le procedure, per grandi e piccole imprese, ed il decreto Parmalat è la conseguenza dell’incapacità politica di giungere ad una riforma generale della legge fallimentare.

Non si comprende, però, perché l’accelerazione dell’avvio della procedura abbia portato al rafforzamento dei poteri del ministro: lo stesso risultato poteva essere raggiunto anche lasciando i poteri al tribunale. Sembra quindi che la gravità della crisi sia stata la scusa per preparare la strada a decisioni meno trasparenti – ma questo, per ora, è solo un processo alle intenzioni.

Un salvataggio statale?

Sembra invece fuori luogo gridare al salvataggio statale, almeno nella sua versione attuale. E’ importante ricordare cosa fosse già presente nella Prodi-bis del 1999: il decreto Parmalat altro non è se non una procedura di amministrazione straordinaria accelerata, che evita – ad esempio – l’inutile periodo di “analisi” che si è avuto per la Cirio e le incertezze connesse a tale ritardo.
E’ infatti evidente che l’attività di Parmalat doveva innanzitutto essere continuata, soprattutto nell’interesse dei creditori, e sarebbe stata continuata anche con la Prodi-bis. Può darsi (ed è anzi probabile) che Parmalat abbia distrutto ricchezza, ma ciò non è una buona ragione per distruggere anche quella (poca o tanta) che resta. Invocare il fallimento come sanzione per gli errori o i per i falsi compiuti dai manager e dai controllori è operazione antistorica, che trascura che i primi ad essere puniti sarebbero in questo caso i creditori: la punizione per gli azionisti resta comunque. Si valuti dunque con calma quali attività di Parmalat debbono essere cessate o ristrutturate, ma nel frattempo occorre tenerle in vita. E’ semplice fare di un acquario un fritto misto, mentre l’operazione contraria è più difficile.
Nessun aiuto di Stato, inoltre, è previsto dal decreto Parmalat. Certo, non si può escludere che in futuro vengano erogati aiuti di Stato a Parmalat o ai soggetti colpiti dal suo dissesto: saranno tuttavia quelli a dover essere valutati alla luce dei principi comunitari ed eventualmente a dover essere criticati. Anche la deroga per le azioni revocatorie (vedi sopra) è un regime di favore e può configurare una anomala forma di finanziamento di Parmalat, ma non è di per sé un aiuto di Stato. (2) Essa è quindi discutibile proprio in quanto deroga, ma è inutile invocare Bruxelles: per criticarla basta il principio di eguaglianza previsto dalla Costituzione italiana.

Strumenti per la ristrutturazione finanziaria

Il decreto Parmalat rappresenta tuttavia un’occasione perduta per ampliare la gamma degli strumenti di soluzione delle crisi d’impresa, che nel nostro paese è veramente molto ristretta e che tale è rimasta.
Per Parmalat il Governo ha scelto la seconda delle due alternative possibili secondo la Prodi-bis del 1999. Quella che mira a effettuare, assieme a una ristrutturazione industriale, anche una ristrutturazione finanziaria. Tuttavia, mentre il commissario straordinario ha sostanzialmente pieni poteri sul lato industriale, non ha alcun potere di incidere sul lato dell’indebitamento: per ristrutturare il passivo deve ottenere il consenso di ciascuno dei creditori, ai quali può offrire quote di capitale (azioni o obbligazioni convertibili in azioni) solo se l’assemblea dei soci lo consente. (3)
Anche nella “variante Parmalat” dell’amministrazione straordinaria, l’unica possibilità di “ristrutturare” il passivo è dunque quella di un concordato (articolo 78 decreto legislativo 270/1999), che consente di modificare le condizioni del debito con l’autorizzazione del tribunale.
Il concordato è però strumento alquanto rigido, perché include tutti i creditori non garantiti in un unico grande gruppo e richiede, come nel caso Parmalat, che migliaia di creditori (banche, obbligazionisti, etc.) siano trattati esattamente allo stesso modo, salvo un loro consenso individuale a un trattamento peggiore.
Questa carenza della legislazione italiana e di molti paesi europei (esclusa la procedura tedesca che divide i creditori in classi, e quella americana di Chapter 11 che addirittura consente di attribuire ai creditori anche azioni della società ristrutturata), non è minimamente sanata dal decreto Parmalat, che si limita ad accelerare la procedura di amministrazione straordinaria così com’è.

Si deve dunque ritenere che il compito di Enrico Bondi sia destinato a fallire? Forse no, soprattutto se il Parlamento e il Governo, sollecito ma non molto fantasioso, gli daranno più armi al momento in cui il “decreto Parmalat” dovrà essere convertito in legge.

(1) L’amministrazione controllata produce infatti una mera sospensione delle azioni dei creditori in vista di un risanamento più o meno spontaneo, ed è quindi poco adatta a situazioni di crisi che richiedono interventi energici e incisivi. È scarsamente utilizzata nella pratica.

(2) Corte di Giustizia delle Comunità Europee, caso PreussenElektra AG del 2001 (caso C-379/98).

(3) Quando il passivo supera l’attivo, i soci hanno interesse a consentire l’ingresso dei creditori nel capitale solo se viene loro riservato qualche vantaggio, quale ad esempio il mantenimento di una quota di minoranza che a loro non spetterebbe sulla base dei dati patrimoniali della società

Riforma fiscale, le verità nascoste

Sommario, a cura di Tullio Jappelli

La riforma delle aliquote dell’IRE e la sostituzione delle detrazioni di imposta per carichi famigliari con deduzioni dal reddito rappresentano, per il Governo, il fiore all’occhiello dell’intera legge finanziaria; lavoce.info documenta gli effetti della riforma dell’IRE e degli altri provvedimenti previsti in finanziaria sulla pressione fiscale complessiva, le conseguenze per la distribuzione dei redditi e l’aumento del numero di aliquote effettive implicite nella riforma fiscale. Propone anche i risultati di un sondaggio sull’opportunità di tagliare le imposte e sui possibili effetti della riforma fiscale sui consumi degli italiani.

Vero o falso, di Maria Cecilia Guerra

L’emendamento alla Finanziaria presentato lunedì 29 novembre dal Governo è destinato a fare discutere ancora a lungo. È bene però che la discussione avvenga sulla base di una corretta informazione.
Segnaliamo allora ai nostri lettori due casi di informazione non corretta.

1) La no tax area

Affermazione.

“Per effetto dell’emendamento del Governo la no tax area passerà da 7.500 euro a circa 14mila euro per un lavoratore dipendente con due figli a carico”.
L’affermazione è falsa

Che cosa è infatti la no tax area?
Con questo termine (che come tale non compare in nessun testo di legge) ci si riferisce generalmente alla deduzione dal reddito imponibile concessa a tutti i redditi Irpef, in misura diversa in relazione alla loro tipologia (redditi di lavoro dipendente, autonomo, pensione e altri) e del loro ammontare. Per un lavoratore dipendente essa è pari a 7.500 euro e decresce al crescere del reddito per annullarsi in corrispondenza di un reddito di 33.500 euro.
La “no tax area” così definita non viene modificata dall’emendamento del Governo.
Per la particolare figura considerata (lavoratore dipendente con coniuge e due figli a carico) il valore massimo che essa può assumere

passa da 7.500 euro a 7.500 euro

Nel dibattito recente lo stesso termine “no tax area” viene utilizzato per individuare il valore massimo di reddito che si può ottenere senza dovere pagare neanche un euro di imposta e cioè il valore massimo di reddito esente da imposta. Questa seconda no tax area dipende non solo dalla deduzione di cui al punto precedente, ma anche dalle agevolazioni riconosciute per carichi famigliari. Le agevolazioni per carichi famigliari non sono state introdotte dall’emendamento governativo. Esistono già nel nostro ordinamento sotto forma di detrazioni dall’imposta (riduzioni cioè dell’imposta dovuta). L’emendamento del Governo trasforma queste detrazioni in deduzioni (riduzioni del reddito a cui si applica l’imposta) e ne ridefinisce l’ammontare. Rispetto alla situazione precedente, il beneficio in termini di minore imposta pagata dal contribuente aumenta per redditi bassi e diminuisce per redditi medio alti. Se si tiene conto della deduzione di cui al punto precedente e delle agevolazioni per carichi famigliari, la no tax area intesa in questa seconda accezione, per la particolare figura considerata (lavoratore dipendente con coniuge e due figli a carico)

passa da 12.828,5 euro a 14.034 euro

2) Il contributo di solidarietà

Affermazione
“È introdotto un contributo di solidarietà del 4 per cento oltre i 100mila euro, che servirà per aumentare le deduzioni alle famiglie a basso reddito” o anche “che servirà per finanziare la deduzione prevista per le spese sostenute per le badanti”.
L’affermazione è falsa.

L’emendamento interviene sulla struttura delle aliquote modificandola nel modo seguente:


Scala delle aliquote attuale

Scaglioni in euro

Aliquota legale

Fino a 15000

23

da 15000 a 29000

29

da 29000 a 32600

31

da 32600 a 70000

39

oltre 70000

45

Scala delle aliquote secondo l’emendamento

Scaglioni in euro

Aliquota legale

Fino a 26000

23

da 26000 a 33500

33

Da 33500 a 100000

39

oltre 100000

43 = 39 +4 (aliquota legale + contributo di solidarietà)

Come si può notare le aliquote di imposta sono di fatto, dopo la riforma, quattro invece che cinque. Per farle apparire in un numero inferiore (tre, più prossimo alle due previste dalla delega), la quarta viene costruita come somma della terza più un “contributo di solidarietà” del 4 per cento. L’effetto è assolutamente identico a quello che si otterrebbe prevedendo esplicitamente una quarta aliquota.
Per la parte di reddito che eccede i 100mila euro l’aliquota dell’imposta cala quindi dall’attuale 45 per cento al previsto 43 per cento (39 di aliquota legale più 4 per cento di contributo di solidarietà). Come può uno sgravio di imposta essere utilizzato per finanziare l’aumento delle deduzioni alle famiglie a basso reddito? O la deduzione per le badanti?

Le famiglie dopo la riforma fiscale, di Massimo Baldini e Paolo Bosi

Con la presentazione al Senato dell’emendamento sulla riforma dell’Ire, la riforma fiscale ha raggiunto un sufficiente grado di definizione. In ogni caso, è sulla base di esso che i cittadini potranno misurare il grado di realizzazione dei programmi del Governo in questa legislatura.
La riforma dell’Irpef è stata realizzata, come noto, in due fasi, la prima delle quali è stata attuata nel 2003. Qui facciamo il punto della valutazione dei suoi effetti, considerando dapprima il secondo modulo, varato con la Finanziaria per il 2005, e presentando successivamente elementi di valutazione sulla riforma complessiva.

Il secondo modulo

Dopo un mese di vivace discussione all’interno della maggioranza, che a un certo punto è sembrata sfociare nella rinuncia al varo del secondo modulo, dall’emendamento finale emerge una struttura dell’Ire a tutti gli effetti di quattro aliquote dal 23 al 43 per cento. Su questo aspetto ci siamo già soffermati in un precedente articolo .
L’aspetto più innovativo a cui ha portato il dibattito delle ultime settimane è costituito da una nuova struttura di deduzioni per carichi di famiglia (coniuge, minori), con interventi di favore nei confronti dei minori con meno di tre anni o portatori di handicap e deduzioni per spese per servizi di cura . Scompaiono quindi le vecchie detrazioni per famigliari a carico e anche la detrazione speciale per dipendenti, autonomi e pensionati. È da segnalare che, rispetto agli annunci di un mese fa, nell’emendamento non v’è traccia dell’aumento degli assegni familiari. Il costo di questa tranche di riforma è valutabile in 6,5 miliardi di euro.
La tabella 1 mostra la distribuzione degli sgravi fiscali medi per livelli di reddito imponibile, sui contribuenti individuali. Vengono confermati gli aspetti di iniquità distributiva della misura già segnalati: in sintesi, al 50 per cento più povero dei contribuenti va il 12,5 per cento dello sgravio mentre il 16,5 per cento dei contribuenti più ricchi gode del 60 per cento del totale.
Nella figura 1 le barre mostrano la distribuzione di frequenza dei contribuenti per classi di reddito complessivo, mentre la linea indica il risparmio medio di imposta per ogni classe: lo sgravio ha generalmente un andamento crescente, temperato solo nell’intervallo tra 45 e 80mila euro di imponibile in ragione del venire meno delle deduzioni familiari. L’effetto di abbassamento delle aliquote più elevate gonfia poi gli sgravi per i redditi più elevati.
Su base familiare – quella più rilevante per valutare gli effetti distributivi – l’esito del secondo modulo è sintetizzato nella tabella 2, in cui, per decili di reddito equivalente, sono presentati gli sgravi fiscali in euro (non equivalenti). Lo sgravio medio per famiglia è di 325 euro, ma al risparmio di 17 euro delle famiglie del primo decile si contrappone quello di 1.164 euro del decimo delle famiglie più benestanti. La insoddisfacente performance distributiva è attribuibile sostanzialmente all’incapacità dell’Ire di affrontare le condizioni economiche delle famiglie incapienti. L’abbandono della proposta di aumento degli assegni familiari, un trasferimento che raggiunge anche i lavoratori dipendenti e pensionati che non pagano l’Irpef, rende quindi ancora più evidente questo limite della riforma.
Se immaginiamo di dividere la famiglie italiane in tre gruppi definiti per valori crescenti di reddito, si può dire che il 30 per cento più povero ottiene in media un risparmio annuo di circa 70-100 euro; le classi medie di circa 200, mentre il 30 per cento più benestante ottiene un risparmio variabile tra i 500 e 1.200 euro. A conferma di queste differenze, si noti che il 20 per cento più ricco ottiene il 51 per cento dei risparmi totali di imposta.
La tabella 3 mostra poi la dimensione degli sgravi medi per alcune tipologie di famiglie, differenziate per condizione professionale del capofamiglia. Le famiglie dei pensionati, ad esempio, pur rappresentando il 40 per cento delle famiglie italiane, ottengono solo il 22 per cento degli sgravi totali.

La riforma complessiva

La riforma nel suo complesso (primo e secondo modulo) comporterà una riduzione dell’incidenza media di poco più del 2 per cento del reddito imponibile. La sua distribuzione per decili è documentata dalla tabella 4 e dalla figura 2. Anche tenendo conto del fatto che il primo modulo della riforma era più orientato alle famiglie meno abbienti, la maggioranza delle famiglie appartenenti ai primi due decili di reddito non ha ricevuto benefici significativi. E si conferma la modesta efficacia sulle famiglie dei primi due decili. In percentuale dell’imponibile, lo sgravio complessivo decresce dal 3,4 per cento delle famiglie del terzo decile sino all’1,5 di quelle più agiate.
Questo esito è però il risultato dell’applicazione di due strumenti: la progressività (definita dalla struttura delle aliquote e delle detrazioni della no tax area) e la sostituzione delle detrazioni per carichi familiari con deduzioni.
Nella figura 3 si tenta una scomposizione del ruolo relativo di questi due strumenti. Si osserva che la gran parte dello sgravio è attribuibile alla modificazione delle aliquote, mentre un peso dell’ordine di appena il 10 per cento deriva dalla introduzione delle deduzioni per familiari a carico. Appare quindi impropria l’enfasi posta da alcuni commentatori sull’importanza di questa riforma per la famiglia, soprattutto se si tiene conto che dal prossimo anno si profila l’abolizione dell’assegno di mille euro per il secondo figlio.
La componente delle deduzioni familiari ha però un ruolo nettamente più importante per le famiglie più povere, dato che rispetto alle precedenti detrazioni, le deduzioni sono state disegnate in modo selettivo (si annullano per imponibili attorno a 80mila euro).

Una riforma al 25 per cento

Rispetto agli annunci contenuti nella legge delega di riforma del sistema fiscale e alla struttura a due aliquote là indicata, la promessa appare realizzata per meno della metà. Ma in altri settori le promesse sono state mancate in misura maggiore.
L’abolizione dell’Irap prometteva sgravi alle imprese per 33 miliardi, realizzati solo per 500 milioni. Altre imposte sono state aumentate. Limitando l’attenzione solo a quelle messe in campo con la Finanziaria per il 2005, si potrebbe fornire una più adeguata valutazione dell’impatto delle riforme fiscali sulle famiglia tenendo conto, ad esempio, di parte delle maggiori imposte introdotte (studi di settore, catasto, Tarsu, accise, giochi e lotto, acconti Irpef, eccetera).
Pur con notevole approssimazione, si può stimare che sulle famiglie finiranno per gravare 5 miliardi di ulteriori tributi. Lo sgravio netto per le famiglie si ridurrebbe in questo modo a poco più di 7 miliardi; un quarto di quanto promesso.

Tab. 1 – Risparmi medi di imposta del secondo modulo di riforma dell’Ire per classi di reddito imponibile individuale

Reddito

Distribuzione %

Risparmi di imposta

Risparmi in %

Ripartizione %

imponibile

dei contribuenti

In euro

dell’imponibile

dei risparmi

0-5

9,0

0

0,0%

0,0%

5-10

22,4

21

0,3%

2,4%

10-15

20,7

114

0,9%

12,0%

15-20

19,8

100

0,6%

10,0%

20-25

11,6

268

1,2%

15,7%

25-30

5,9

467

1,7%

13,9%

30-35

2,5

492

1,5%

6,1%

35-40

1,8

637

1,7%

5,7%

40-45

1,1

758

1,8%

4,3%

45-50

0,9

688

1,4%

3,1%

50-55

0,6

632

1,2%

1,9%

55-60

1,2

567

1,0%

3,3%

60-65

0,5

404

0,6%

1,0%

65-70

0,4

416

0,6%

0,8%

70-75

0,1

317

0,4%

0,2%

75-80

0,2

916

1,2%

1,1%

80-85

0,1

989

1,2%

0,6%

85-90

0,2

1276

1,5%

1,2%

90-95

0,1

1714

1,9%

0,5%

95-100

0,2

1862

1,9%

2,0%

>100

0,9

3320

2,0%

14,3%

Totale/media

100,0

198

1,1%

100,0%



Tab.2 – Secondo modulo della riforma – Effetti sulle famiglie per decili di reddito equivalente

Decili di imponibile equivalente

Imponibile medio familiare

Irpef media 2004

Irpef media 2005

Risparmio di imposta

Ripartizione del risparmio totale

Incidenza media

irpef 2004

Incidenza media

irpef 2005

Variaz. Incid.media

% delle famiglie che guadagna

1

4653

17

1

17

1%

0,4%

0,0%

-0,4%

2%

2

9629

148

75

72

2%

1,5%

0,8%

-0,8%

27%

3

13435

803

660

143

4%

6,0%

4,9%

-1,1%

58%

4

16633

1709

1559

150

5%

10,3%

9,4%

-0,9%

59%

5

20132

2538

2327

211

6%

12,6%

11,6%

-1,0%

54%

6

25796

3727

3466

261

8%

14,4%

13,4%

-1,0%

55%

7

30221

5063

4767

296

9%

16,8%

15,8%

-1,0%

67%

8

36185

6614

6227

387

12%

18,3%

17,2%

-1,1%

82%

9

47802

10526

9980

546

17%

22,0%

20,9%

-1,1%

95%

10

93273

29219

28055

1164

36%

31,3%

30,1%

-1,2%

99%

Totale

29765

6034

5709

325

100%

20,3%

19,2%

-1,1%

60%


Tab. 3 – Secondo modulo della riforma: risparmi di imposta medi familiari per alcune tipologie di famiglie

Professione del capofamiglia

% delle famiglie

Reddito imponibile medio

Irpef 2004

Irpef 2005

Risparmio medio

Ripartizione del risparmio totale

Operaio

17

25254

3702

3470

233

12%

Impiegato,insegnante

15

36610

7397

6997

400

19%

Dirigente

4

64289

18408

17600

808

9%

Lav. indipendente

12

47501

13058

12409

649

25%

Pensionato

41

22867

3753

3578

174

22%

Altro

11

20959

4004

3622

382

13%

Totale

100

29765

6034

5709

325

100%



Tab.4 – Riforma complessiva – Effetti sulle famiglie per decili di reddito equivalente

Decili di imponibile equiv.

Imponibile medio familiare

Irpef media 2004

Irpef media 2005

Risparmio di imposta

Ripartiz.

del risparmio totale

Incidenza media irpef 2004

Incidenza media irpef 2005

Variazione incidenza media

% delle famiglie che guadagna

1

4653

30

1

29

0%

0,6%

0,0%

-0,6%

9%

2

9629

311

75

236

4%

3,2%

0,8%

-2,4%

63%

3

13435

1115

660

455

7%

8,3%

4,9%

-3,4%

92%

4

16633

2035

1559

476

8%

12,2%

9,4%

-2,9%

99%

5

20132

2854

2327

527

9%

14,2%

11,6%

-2,6%

97%

6

25796

4096

3466

630

10%

15,9%

13,4%

-2,4%

99%

7

30221

5446

4767

680

11%

18,0%

15,8%

-2,2%

100%

8

36185

6994

6227

767

12%

19,3%

17,2%

-2,1%

100%

9

47802

10849

9980

869

14%

22,7%

20,9%

-1,8%

100%

10

93273

29482

28055

1427

23%

31,6%

30,1%

-1,5%

100%

Totale

29765

6323

5709

614

99%

21,2%

19,2%

-2,1%

86%


Gli italiani e la riduzione delle imposte: un’indagine de lavoce.info, di Giuseppe Pisauroe Paola Monti

La riduzione delle imposte domina il dibattito politico da mesi. Dopo tanti annunci che indicavano nel taglio delle aliquote dell’Irpef l’obiettivo principale (per tutti i redditi? solo per i redditi bassi e medi? solo per i redditi medio-alti?), sembra che l’idea sia stata accantonata (o meglio, posticipata a data elettorale…) e sostituita dalla promessa di una riduzione dell’Irap a partire dal 2005.

Il campione

Ma gli italiani pensano veramente che la riduzione delle tasse sia la priorità nazionale? E, nel caso, quali imposte vorrebbero veder diminuire?
Per saperlo, abbiamo provato a rivolgere queste domande a un campione di cittadini. Il metodo scelto è stato quello del sondaggio tramite internet. Grazie al supporto della società Carlo Erminero & Co., sono stati contattati via web 2.300 individui e, nell’arco di pochi giorni, 954 di queste persone hanno risposto al sondaggio restituendo il questionario compilato.
Questo metodo di indagine chiaramente presenta problemi non indifferenti di rappresentatività del campione, nonostante siano possibili correttivi in fase di elaborazione dei dati (per maggiori informazioni a questo proposito, si rinvia alla scheda sulle caratteristiche del sondaggio).

Le priorità degli italiani

Innanzi tutto, abbiamo cercato di capire quali dovrebbero essere le priorità della politica di bilancio secondo gli intervistati, ipotizzando che il Governo disponga di risorse aggiuntive per un miliardo di euro. Alla domanda era possibile dare più di una risposta (e lo ha fatto circa metà degli intervistati).
Come si vede nella figura 1, l’ipotesi che ha raccolto maggiori consensi (è stata indicata dal 47 per cento del campione) è effettivamente quella di una riduzione delle imposte. Tuttavia, nell’insieme, una quota maggiore dei consensi va a un aumento della spesa pubblica per la sanità, l’istruzione e la ricerca e gli stipendi dei dipendenti pubblici. Un quarto del campione, infine, utilizzerebbe in tutto o in parte le nuove risorse per ridurre il debito pubblico.
Circa metà del campione non ha dato una risposta univoca: destinerebbe cioè eventuali nuove risorse, ad esempio, in parte a ridurre le imposte, in parte ad aumentare la spesa e in parte a ridurre il debito. Se consideriamo coloro che hanno dato una sola risposta, soltanto l’8 per cento degli intervistati ha indicato il taglio delle imposte come unica destinazione delle nuove risorse, il 13 per cento ha indicato un aumento della spesa (il 7 per cento di quella per l’istruzione) e il 6 per cento destinerebbe tutto all’abbattimento del debito. Insomma, la riduzione delle imposte non emerge affatto come una priorità assoluta: gli intervistati sembrano avere ben chiari altri problemi strutturali della nostra economia come l’elevato debito pubblico e le carenze del sistema di istruzione e ricerca.
In realtà, molti sarebbero anche disposti a pagare più imposte per avere servizi migliori. Davanti all’ipotesi di un aumento dell’addizionale regionale Irpef da destinare alla sanità per ridurre i tempi di attesa per esami diagnostici, il 47 per cento del campione ha risposto affermativamente (contro il 35 per cento di contrari e il 18 per cento di indecisi).

Quali imposte ridurre

Ritornando sull’ipotesi di riduzione delle imposte, abbiamo poi chiesto al campione quale tipo di imposta sarebbe opportuno ridurre. I risultati sono riportati nella tabella 1.
L’opzione di gran lunga preferita (da quasi il 60 per cento del campione) è una riduzione delle imposte sui consumi, come l’Iva e l’accisa sulla benzina. Sono forme di tassazione che coinvolgono indiscriminatamente tutti i cittadini e spesso colpiscono consumi indispensabili (la cui domanda è quindi poco elastica al prezzo).
Non stupisce perciò che la richiesta di una riduzione delle imposte sui consumi sia più pressante tra i gruppi sociali che normalmente dispongono di redditi più bassi: i giovani, gli studenti, le persone senza elevati titoli di studio, o tra coloro che valutano la propria situazione economica difficile o discreta, ma non buona. Insomma, i ceti sociali che negli ultimi anni hanno subito una perdita del potere d’acquisto dei propri redditi.
La riduzione dell’Irpef raccoglie il 37 per cento dei consensi e risulta più popolare nell’ambito impiegatizio e dei pensionati, al crescere del titolo di studio e dell’età, e tra coloro che valutano positivamente la propria situazione economica. Una riduzione dell’Irap, infine, è molto poco popolare (è stata indicata solo dal 3 per cento) e raccoglie qualche consenso solo tra commercianti, artigiani, dirigenti, imprenditori, liberi professionisti. L’area del lavoro autonomo, insomma.





Meno Irpef per i redditi bassi

Infine, abbiamo concentrato l’attenzione dei nostri intervistati su un’eventuale riduzione dell’Irpef (all’epoca del sondaggio, una settimana fa, era ancora d’attualità…).
Il risultato è molto netto: il 60 per cento del campione ritiene che lo sgravio fiscale dovrebbe andare unicamente a favore dei redditi bassi. Sommando anche coloro che distribuirebbero lo sgravio tra redditi bassi e medi, arriviamo al 74 per cento del campione (figura 2).
Abbiamo poi chiesto di scegliere tra un sistema fiscale proporzionale (ad aliquota unica) e progressivo (ad aliquota crescente, oppure ad aliquota unica, ma con esenzione totale dei redditi bassi). Anche in questo caso i risultati non lasciano dubbi: sceglie il sistema progressivo ad aliquota crescente il 66 per cento del campione (figura 3). La progressività delle imposte (e di eventuali sgravi) sembra essere un valore condiviso dagli intervistati a prescindere dalla propria situazione: tra coloro che dichiarano di essere in una condizione economica “molto buona”, il 49 per cento sceglie il sistema ad aliquota crescente e il 53 per cento concentrerebbe eventuali sgravi solo sui redditi bassi.
Insomma, gli italiani non guardano con sfavore a un taglio delle imposte, ma non pensano che esso debba essere la principale priorità della politica di bilancio. Ridurre il debito pubblico e migliorare alcuni servizi sembrano obiettivi almeno altrettanto importanti. Dovendo intervenire sulle imposte, preferirebbero che la riduzione avesse un impatto immediato sui prezzi piuttosto che sui redditi. Dovendo riformare l’Irpef, vorrebbero mantenere la progressività dell’imposta e concentrare gli sgravi sui meno abbienti.






Dov’è finito il popolo delle formiche, di Tullio Jappelli e Daniele Checchi

Lo scorso 5 novembre si è celebrata la giornata internazionale del risparmio.
Come negli ultimi anni, si sono sentiti toni allarmati sul calo del risparmio delle famiglie. L’ultima indagine Ipsos presentata per l’occasione riscontra che il 21 per cento delle famiglie intervistate ha consumato tutto il proprio reddito, mentre il 14 per cento ha fatto ricorso a risparmi accumulati o a debiti per far fronte alle spese per consumo; secondo l’indagine, in futuro il numero di coloro che non risparmiano è destinato ad aumentare.
( http://www.acri.it/7_even/Acri_Ipsos_2004.ppt).

Le famiglie e il risparmio

I dati non sono certo una novità. Secondo la più recente Indagine sui bilanci delle famiglie della Banca d’Italia, il 13 per cento degli intervistati tra febbraio e settembre del 2003 dichiarava che “Il reddito a disposizione della famiglia permette di arrivare alla fine del mese con molta difficoltà”; il 14 per cento che il reddito consente di “arrivare alla fine del mese con difficoltà”. Dunque, circa un terzo delle famiglie italiane dichiarava di avere gravi problemi di bilancio.
Si conferma quanto si è letto spesso in questi mesi sui giornali, con articoli e commenti allarmati sul grave impoverimento delle famiglie e del paese, quasi si trattasse di un fenomeno nuovo e prima poco diffuso. È vero che il popolo delle formiche non risparmia più? Dobbiamo preoccuparci per le tendenze del risparmio nel nostro paese?

È aumentato davvero il numero di quelli che non risparmiano?

Le espressioni “non arrivare alla fine del mese”, “famiglie in bolletta” e loro varianti sono generiche e non chiariscono se il fenomeno è aumentato o si è ridotto nel tempo.
Proviamo a definire meglio il concetto. Chi non riesce ad arrivare alla fine del mese ha un reddito inferiore al consumo, cioè un risparmio negativo. Vuol dire che in quel mese si è indebitato presso una banca, un parente, un amico (cioè ha aumentato le proprie passività), oppure ha fatto fronte alle spese per consumo con risorse risparmiate in precedenza (cioè ha ridotto le proprie attività). Per misurare il risparmio occorre quindi conoscere sia il reddito che il consumo di una famiglia.
L’Indagine della Banca d’Italia sui bilanci delle famiglie è il migliore strumento di cui disponiamo per studiare le tendenze del risparmio nel nostro paese, perché raccoglie informazioni sui redditi e sui consumi delle famiglie a partire dai primi anni ottanta. Il campione è formato da circa ottomila famiglie (24mila individui), distribuite in circa trecento comuni italiani. I risultati dell’indagine vengono regolarmente pubblicati nei supplementi al Bollettino statistico della Banca. I dati raccolti presso le famiglie, in forma anonima, sono disponibili gratuitamente per elaborazioni e ricerche. La metodologia di rilevazione è rimasta sostanzialmente invariata nel tempo.
Naturalmente, il risparmio può riflettere errori di misura del reddito o del consumo. Ad esempio, se una famiglia riporta tutte le spese sostenute, ma non tutto il reddito percepito, segnalerà con maggiore probabilità che il risparmio (cioè la differenza tra reddito e consumo) è negativo. Al contrario, una famiglia che registra con cura tutte le entrate ma sottostima le spese, tenderà a segnalare un risparmio positivo. Questi errori potrebbero avere una componente sistematica, ad esempio perché il numero di famiglie che sottostima le spese è superiore a quello che sottostima le entrate. Tuttavia, è poco probabile che l’andamento nel tempo del risparmio sia influenzato dagli errori di misura.

La figura 1 indica che fino al 1991 la quota di famiglie con risparmio negativo si è ridotta di cinque punti percentuali. Durante la recessione del 1992-93 la quota aumenta di oltre dieci punti. Dal 1993 si osserva però una sostanziale stabilità della quota di famiglie con risparmio negativo. L’Indagine della Banca d’Italia indica dunque che tra il 1993 e il 2002 il numero di famiglie che non risparmiano non è aumentato.
L’analisi per gruppi sociali coglie alcune differenze di rilievo. La quota di famiglie con risparmio negativo è maggiore tra i giovani (capofamiglia con età inferiore a 30 anni) e tra gli anziani (oltre i 60 anni). La quota è molto più elevata tra gli autonomi, che hanno redditi più variabili, che tra le famiglie di operai e impiegati, che invece hanno un reddito più stabile. Infine, la quota di famiglie con risparmio negativo è maggiore nel Mezzogiorno. Ma per tutti i gruppi si evidenzia una sostanziale stabilità del numero di famiglie con risparmio negativo tra il 1993 e il 2002.
Anche l’analisi della propensione al risparmio per fasce di reddito conferma il fatto che il risparmio delle famiglie non si è ridotto. La figura 2 mostra che negli anni più recenti il rapporto tra risparmio e reddito delle famiglie ha mantenuto un profilo costante, per ciascuno dei quattro gruppi di reddito considerati.

Il risparmio è una misura della povertà?

La tabella 1 riporta il rapporto tra risparmio e reddito disponibile delle famiglie (il cosiddetto saggio di risparmio) nei principali paesi europei, in Giappone e negli Stati Uniti. Fino al 1990 in Italia il risparmio era pari a circa il 27 per cento del reddito. Nel decennio successivo si è ridotto di oltre dieci punti. Dal 2000 però il saggio di risparmio in Italia si è mantenuto stabile, con valori prossimi al 15 per cento.
Il confronto internazionale evidenzia che nel 2004 l’Italia ha il saggio di risparmio più elevato tra i paesi industrializzati. In Francia, Germania, Olanda e Spagna il risparmio è intorno al 10-12 per cento del reddito disponibile. In Inghilterra, Stati Uniti, Giappone, e in tutti i paesi Scandinavi il saggio di risparmio è di circa tre volte inferiore a quello del nostro paese. La tabella evidenzia anche che il risparmio si è dimezzato in Austria, Giappone, Inghilterra, Stati Uniti; in altri paesi si è mantenuto stabile o è aumentato (Francia, Irlanda, Olanda, Portogallo, Spagna, Norvegia). Nonostante questo, l’Italia ha mantenuto il primo posto in classifica.

Naturalmente, un indicatore aggregato potrebbe nascondere dinamiche molto diverse a livello di singola famiglia. Sgombriamo però il campo da un equivoco. Il risparmio (o l’assenza di risparmio) non è una misura di benessere o di povertà. L’ultima colonna della tabella riporta il reddito pro capite in dollari nel 2003. La graduatoria del risparmio non coincide purtroppo con quella del reddito. Paesi in cui il reddito pro capite è molto più elevato del nostro (Stati Uniti, Svezia, Danimarca, Norvegia) hanno tassi di risparmio molto più bassi. Altri paesi, molto più poveri in termini di reddito pro capite (come la Cina) hanno tassi di risparmio molto più elevati del nostro. Dunque, per misurare la povertà o il benessere occorre guardare alla distribuzione dei redditi o dei consumi tra le famiglie, non alla differenza tra reddito e consumo. (1)

Perché allora il risparmio non è calato?

Il risparmio delle famiglie italiane rimane dunque elevato, sia nel confronto storico che in quello internazionale, nonostante l’abbassamento del tasso di crescita dei redditi familiari e il calo demografico. Ciò per due ragioni.
Le riforme della previdenza degli anni Novanta hanno drasticamente ridotto il grado di copertura previdenziale, particolarmente per le nuove generazioni. Dalla fine del 2001 gli indicatori sul clima di fiducia delle famiglie sono peggiorati costantemente e si sono collocati su valori nettamente inferiori a quelli del decennio precedente.
Le famiglie hanno quindi continuato a risparmiare per compensare il calo di ricchezza previdenziale. Allo stesso tempo, il movente precauzionale e il timore di una caduta dei redditi hanno frenato i consumi e favorito l’accumulazione. La figura 3 indica che il fenomeno si è verificato soprattutto per le nuove generazioni (persone nate dopo il 1960), quelle più colpite dalle riforma della previdenza e più incerte sul proprio futuro.(2)
Invece il risparmio di quelli nati prima del 1960 è calato o è rimasto costante; sono le persone che ai tempi delle riforme Amato e Dini (1992 e 1995) erano già in pensione o che hanno potuto mantenere, anche dopo le riforme, lo stesso livello di copertura previdenziale.


(1) Sotto questo profilo, l’indagine della Banca d’Italia segnala una sostanziale stabilità degli
indici di povertà e degli indici di disuguaglianza dei redditi disponibili tra il 1997 e il 2002.

(2) Per un’analisi dell’effetto della riforma della previdenza sul risparmio delle famiglie italiane cfr. Attanasio e Brugiavini (Social security and households’ saving,” Quarterly Journal of Economics, vol. 118, 2003) e Bottazzi, Jappelli e Padula (Retirement expectations, pension reform, and their impoact on private accumulation, settembre 2004, CSEF Working Paper n. 92 [http://www.dise.unisa.it/WP/wp92.pdf].





Fonte: Indagine della Banca d’Italia sui bilanci delle famiglie, 1984-2002.


Fonte: Indagine della Banca d’Italia sui bilanci delle famiglie, 1984-2002.


Fonte: Indagine della Banca d’Italia sui bilanci delle famiglie, 1984-2002.

Fonte: Elaborazioni Cesifi-Dice su OECD Economic Outlook. Il PIL pro capite è misurato in dollari. I saggi di risparmio riflettono anche differenze nelle definizioni adottate da ciascun paese sul risparmio delle famiglie; il reddito disponibile invece è armonizzato dall’OECD.
* dato stimato.

Un taglio poco consumato, di Tullio Jappelli e Mario Padula

Nelle intenzioni del presidente del Consiglio la riduzione delle imposte sui redditi a partire dal 1° gennaio 2005 aumenterà il reddito disponibile delle famiglie e i consumi, sostenendo la nostra esangue economia. Troppo spesso gli interventi di politica economica vengono attuati senza uno studio delle conseguenze delle manovre, senza una simulazione del loro impatto.

La propensione marginale al consumo

La questione è particolarmente delicata nel caso di uno sgravio fiscale. Si dà spesso per scontato che un aumento del reddito stimoli il consumo. Ciò non è sempre vero, perché un aumento di reddito può essere consumato interamente, risparmiato interamente, o in parte consumato e in parte risparmiato. Per rispondere a questa domanda, è importante calcolare la cosiddetta propensione marginale al consumo, cioè il rapporto tra la variazione dei consumi e del reddito. Se, ad esempio, il reddito di una famiglia aumenta di 500 euro e i consumi di 250 euro, la propensione marginale al consumo della famiglia è di 0,5. Ovvero, per ogni euro in più di reddito, 50 centesimi vengono risparmiati e 50 consumati. Tanto più elevata la propensione marginale al consumo, tanto maggiore lo stimolo ai consumi di uno sgravio fiscale.

Cinquecento euro da spendere. O risparmiare

Solo conoscendo la propensione marginale al consumo si può valutare l’effetto di una riduzione delle imposte. Servirebbero allo scopo indagini campionarie specifiche sui comportamenti dei consumatori, in grado di valutare l’impatto di breve e di lungo periodo di uno sgravio fiscale. I mezzi di cui dispone lavoce.info sono modesti. Con la collaborazione della società Carlo Erminero & Co , abbiamo condotto un’indagine campionaria via internet. Il campione è stato estratto da un indirizzario con oltre 500mila nomi. Le persone intervistate sono 954; il tasso di partecipazione (cioè il rapporto tra le persone che hanno risposto all’intervista e le persone contattate) è del 50 per cento. I dati vanno trattati e interpretati con cautela. In Italia gli utenti domestici di internet sono solo il 22 per cento della popolazione (10,5 milioni, dati di febbraio 2004) e sono ancora molto diversi dai non utenti. Fra gli utenti domestici di internet sono più numerosi i giovani, i laureati, gli imprenditori, i professionisti, i ceti medi e superiori. Le risposte devono quindi essere ricondotte alla popolazione italiana con un sistema di ponderazione.

Lo scopo del questionario è di valutare l’impatto di breve periodo sui consumi (la cosiddetta “scossa” all’economia) di un ipotetico sgravio fiscale. (1) Abbiamo dunque deciso di rivolgere al campione la domanda:

Nel caso in cui il Suo reddito l’anno prossimo aumentasse di 500 euro perché è stata varata una riforma fiscale che riduce le sue imposte sul reddito, cosa farebbe?

  • Utilizzerei i 500 euro soprattutto per spendere di più
  • Utilizzerei i 500 euro soprattutto per risparmiare di più
  • Utilizzerei i 500 euro soprattutto per pagare i debiti

Dalle risposte è emerso che il 21 per cento del campione destinerebbe un aumento di 500 euro di reddito soprattutto al consumo, il 48 per cento utilizzerebbe l’aumento soprattutto per incrementare il risparmio, il 31 per cento per ridurre i debiti.

Per valutare gli effetti di una riduzione delle imposte, occorre distinguere tra variazioni permanenti e variazioni transitorie del reddito. Le prime hanno un forte effetto sui consumi; le seconde hanno effetti modesti o trascurabili. Questo accade perché le famiglie desiderano mantenere standard di vita stabili nel tempo e sono disposte ad aumentare il consumo solo se pensano che l’aumento di reddito sarà duraturo. A un aumento temporaneo, invece, reagiscono aumentando il risparmio o riducendo il debito, per evitare di dover ridurre il consumo quando il reddito ritornerà ai valori precedenti l’aumento. Perché si verifichi un forte effetto sui consumi, è quindi essenziale che il taglio fiscale sia duraturo o, almeno, che sia percepito come tale. Le risposte del questionario indicano che l’effetto sul consumo è modesto. La riforma fiscale è percepita come transitoria, dunque poco credibile.

Un confronto con gli Usa

A titolo di confronto è utile riportare alcuni dati tratti da uno studio di due economisti americani che hanno sottoposto a un campione rappresentativo della popolazione degli Stati Uniti domande simili a quella dell’indagine de lavoce.info. Hanno infatti chiesto, nel 2001 e nel 2002, se il rimborso fiscale erogato dall’amministrazione Bush nel 2001 sia stato utilizzato prevalentemente per consumi, per risparmio, o per ridurre debiti. (2)

Il rimborso una tantum era compreso fra 300 e 600 dollari. La differenza principale è che nel caso americano si tratta di domande retrospettive; nel caso dell’indagine de lavoce.info invece si chiedono le intenzioni di spesa.

La tabella 1 indica che la percentuale di persone che destinerebbe soprattutto al consumo lo sgravio fiscale è molto simile a quella riscontrata dai due ricercatori americani: negli Stati Uniti poco più del 20 per cento degli intervistati dichiara che il rimborso fiscale è stato utilizzato prevalentemente per aumentare il consumo; l’80 per cento dichiara invece che il rimborso è stato utilizzato soprattutto per aumentare il risparmio o per ridurre i debiti. La reazione dei consumatori italiani rispetto a un’ipotetica riforma fiscale è simile a quella dei consumatori americani in risposta a una variazione una tantum del reddito, un’altra conferma di scarsa credibilità dello sgravio fiscale in Italia.

È utile chiedersi se l’effetto sui consumi cambi secondo i gruppi sociali. La tabella 2 offre alcune risposte. La quota di coloro che utilizzerebbero lo sgravio fiscale soprattutto per aumentare il consumo sale al 26 per cento tra i laureati e tra coloro che hanno più di 44 anni; raggiunge il 35 per cento per coloro che hanno redditi medi e alti. Non si riscontrano variazioni significative per ripartizione geografica. Nel complesso le risposte sono abbastanza omogenee: la quota di coloro che dichiara che destinerebbe lo sgravio fiscale prevalentemente al consumo oscilla tra il 18 e il 35 per cento.

Quanto aumenteranno i consumi?

Riconoscere che la risposta a una manovra fiscale è diversa tra i vari gruppi sociali aiuta a valutarne l’effetto complessivo. Tuttavia, la quota di coloro che dichiarano che lo sgravio servirà prevalentemente a finanziare i consumi non ci dice ancora di quanto i consumi aumenteranno. Anche chi dichiara che destinerà il maggiore reddito prevalentemente al risparmio, non è detto che destinerà tutto al risparmio. E anche chi decide di utilizzare il reddito soprattutto per aumentare il consumo potrebbe usarne una parte per risparmiare. La nostra indagine contiene una seconda domanda che consente di ripartire un’eventuale aumento di reddito di 500 euro in spese per consumi, risparmio e rimborso di debiti:

Se oggi il Suo reddito aumentasse di 500 euro, quanti euro risparmierebbe, quanti ne consumerebbe, quanti ne userebbe per ripagare i debiti?

  • Euro per consumo:
  • Euro per risparmio:
  • Euro per debiti:

Le risposte permettono di calcolare la propensione marginale al consumo di ciascuna famiglia intervistata. Nel campione, la media generale di tutte le propensioni marginali al consumo è 32 per cento (vedi l’ultima colonna della tabella 2). (3)

Inoltre, la propensione marginale al consumo è sostanzialmente stabile per gruppi di età, titolo di studio e ripartizione geografica. Solo per le famiglie con redditi medi e alti si registra un valore più elevato (42 per cento), presumibilmente perché per questi gruppi l’incertezza sulle condizioni dell’economia e della famiglia riduce le esigenze di risparmio.

In conclusione: secondo l’indagine de lavoce.info circa un terzo della riduzione di imposte promessa da Silvio Berlusconi per il 2005 si tradurrà in un aumento dei consumi. La gran parte del reddito aggiuntivo servirà per aumentare il risparmio (o ridurre il debito). Se la credibilità della manovra rimanesse ai livelli attuali, un’ipotetica riduzione delle imposte sul reddito delle famiglie di 8 miliardi di euro nel 2005 darebbe una “scossa” iniziale all’economia di soli 2,6 miliardi di euro, cioè lo 0,2 per cento del Pil. Naturalmente, ciò non tiene conto dell’effetto di una riduzione della spesa pubblica necessaria a finanziare il taglio delle imposte. Fra un anno sapremo se la montagna sarà riuscita almeno a partorire un topolino. Nel frattempo il Governo potrebbe almeno promuovere studi più approfonditi sugli effetti della manovra, sulla credibilità di un taglio duraturo delle imposte e sulle sue conseguenze di breve e di lungo periodo. Al momento, il clima di incertezza generato da annunci successivamente ritrattati non aiuta affatto la credibilità delle future riforme. Alimenta anzi la convinzione che eventuali tagli fiscali potrebbero avere effetti limitati nel tempo.

(1) David S. Johnson, Jonathan A. Parker e Nicholas S. Souleles, (“Household expenditure and the income tax rebates of 2001”, NBER WP 10784, 2004) studiano l’impatto di breve e di lungo periodo del bonus fiscale che le famiglie americane hanno ricevuto nel 2001 dall’amministrazione Bush. Utilizzando un campione rappresentativo della popolazione, essi mostrano che le famiglie americane hanno aumentato il consumo di circa il 30 per cento del bonus nei primi tre mesi, e di un altro 30 per cento nel trimestre successivo.

(2) Matthew D. Shapiro e Joel Slemrod, “Did the 2001 tax rebate stimulate spending? Evidence from taxpayer surveys”, NBER WP 9308, 2001. L’indagine è stata condotta per telefono nel 2001e nel 2002, come parte di Surveys of Consumers, un campione rappresentativo della popolazione americana utilizzato dall’Università di Michigan per costruire un indice di fiducia dei consumatori (Index of Consumers Sentiment). I due economisti usano anche un’altra indagine, How America Responds, che chiede ad un campione di famiglie americane: “Cosa farebbe se il Governo federale tagliasse le imposte di 1000 dollari?”. Il 16,6 per cento degli intervistati destinerebbe l’aumento del reddito disponibile soprattutto ai consumi.

(3) David S. Johnson, Jonathan A. Parker e Nicholas S. Souleles, (“Household expenditure and the income tax rebates of 2001”, NBER WP 10784, 2004) ottengono un risultato molto simile per la propensione marginale al consumo di breve periodo.


Tabella 1. Nel caso in cui il Suo reddito l’anno prossimo aumentasse di 500 euro perché è stata varata una riforma fiscale che riduce le sue imposte sul reddito, cosa farebbe?

Confronto Italia -USA

Italia 2004

Usa 2001

Usa 2002

Soprattutto per spendere di più

0.21

0.22

0.25

Soprattutto per risparmiare di più

0.48

0.46

0.48

Soprattutto per pagare i debiti

0.31

0.32

0.27

<TD style=”BORDER-RIGHT: black 1pt solid; PADDING-RIGHT: 5.4pt; BORDER-TOP: #ece9d8; PAD

Tabella 2. Nel caso in cui il Suo reddito l’anno prossimo aumentasse di 500 euro perché è stata varata una riforma fiscale che riduce le sue imposte sul reddito, cosa farebbe?

Analisi per gruppi sociali

Soprattutto per spendere di più

Soprattutto per risparmiare di più

Soprattutto per pagare i debiti

Propensione marginale al consumo

Età

fino a 34 anni

0.20

0.62

0.18

0.35

da 35 a 44 anni

0.19

0.46

0.35

0.31

oltre 44 anni

0.26

0.34

0.40

0.32

Titolo di studio

senza laurea

0.19

0.45

0.36

0.31

con laurea

0.26

0.48

0.26

0.36

Condizione economica

Buona

0.35

0.47

0.18

0.42

Discreta

0.23

0.54

0.23

0.34

Difficile

0.11

0.34

0.55

0.25

Area geografica

Nord

0.23

0.50

0.27

0.32

Centro

0.19

0.40

0.41

0.30

Il gioco delle tre aliquote, di Massimo Baldini e Paolo Bosi

L’ultimo mese è passato alla ricerca di una mediazione tra le forze di maggioranza sulla proposta di riforma del secondo modulo dell’Irpef. Si è discusso molto, quindi, ma di che cosa? Vediamo di capirlo aggiornando il nostro precedente articolo su lavoce.info, seppur con la cautela dovuta al fatto che non disponiamo ancora di tutti i dettagli delle proposte in campo.

Tre aliquote. Più una

Consideriamo in particolare tre ipotesi di riforma. Tutte condividono la struttura delle prime tre aliquote (23 per cento fino a 26mila euro, 33 per cento da 26mila a 33mila, 39 per cento oltre 33mila), ma si differenziano nei seguenti aspetti:
a) quarta aliquota del 43 per cento oltre i 100mila euro (ipotesi del ministero del Tesoro);
b) quarta aliquota del 43 per cento oltre gli 80mila euro (ipotesi An-Udc);
c) solo tre aliquote, con in più un contributo fisso di 1.000 euro oltre i 100mila, e esclusione della detraibilità delle spese oltre la stessa soglia (variante dell’ipotesi di riforma del ministero del Tesoro).

In tutte le ipotesi, inoltre, le detrazioni per coniuge e familiari a carico sono sostituite da deduzioni dall’imponibile, decrescenti al crescere del reddito, pari a 3.200 euro per il coniuge e a 2.900 per ogni figlio, che si annullano in corrispondenza di un reddito pari a 78mila euro.

Dal punto di vista del gettito, la ricerca del compromesso tra le diverse visioni in campo dovrebbe comportare un costo del secondo modulo della riforma dell’Irpef variabile da 7,2 a 7,6 miliardi, a seconda delle alternative, comprensivo anche di circa un miliardo per maggiori assegni familiari. Il che significa che la seconda tranche della riforma finirà per costare ben più dei sei miliardi (compresi eventuali tagli all’Irap) di cui si è parlato finora.

Non ripetiamo qui l’analisi già fatta nel precedente articolo. Rispetto alla struttura con tre aliquote e detrazioni lì discussa, le controproposte di Fini e dell’Udc con quattro aliquote e deduzioni si configurano come una lieve redistribuzione dai contribuenti con più reddito dichiarato a quelli che si collocano nelle fasce attorno a 40-50mila euro. Ciò è però dovuto alla sostituzione delle detrazioni con deduzioni, mentre, come si può notare dalla tabella 1, tutte le varianti oggi in discussione comportano lo stesso risparmio di imposta per tutti i contribuenti fino a 80mila euro di imponibile.

Gli effetti sui redditi familiari

Tuttavia, qualora si considerino i redditi familiari equivalenti, ordinati per decili di reddito imponibile equivalente, l’effetto del secondo modulo, in tutte le varianti proposte, continua ad avvantaggiare le famiglie più ricche.
L’ipotesi di An e Udc apporta alcuni limitati correttivi al privilegio di quelle appartenenti al decile più ricco (vedi la figura 1). Ma viene confermata la netta differenza di effetti del primo modulo rispetto al secondo.
Per quanto riguarda la riforma dell’Irpef, la discussione dell’ultimo mese si è quindi concentrata su aspetti poco significativi. Quarta aliquota, “aliquota etica” sembrano essere solo estemporanei correttivi di un impianto già disegnato nella proposta a tre aliquote.

Ma quale sarà l’effetto della riforma nel suo complesso (primo e secondo modulo)?
Come mostra la figura 2, l’abbandono dell’impostazione a due aliquote della legge delega ha in effetti introdotto elementi di maggiore moderazione nei propositi della riforma. La perdita di gettito è dimezzata (da 28 a 13 miliardi sommando le due fasi della riforma) e anche gli effetti distributivi appaiono meno drammaticamente sbilanciati nei confronti dei più ricchi.
Permangono tuttavia aspetti insoddisfacenti, che rivelano il carattere poco sistematico della riforma complessiva. È infatti un ibrido tra due visioni molto diverse dell’imposta personale all’interno della maggioranza di Governo: il modello della flat rate tax della legge delega, che rimane sullo sfondo degli obiettivi del premier, e le soluzioni più tradizionali di An e Udc.
Ma l’aspetto più preoccupante, messo in luce dalla figura 2, è che le famiglie che si collocano nel primo e nel secondo decile (il 20 per cento della popolazione con redditi più bassi) otterranno alla fine sgravi fiscali inferiori a quelle più benestanti.
La proposta di riforma avanzata nelle ultime ore dal ministero dell’Economia prevede però un correttivo, attraverso un aumento generalizzato degli assegni al nucleo familiare (anf).
Il carattere molto selettivo di questo strumento consente infatti di “mettere una pezza” allo svantaggio relativo delle famiglie più povere. Solo uno strumento di spesa permette di ottenere risultati distributivi non deludenti. Perché consente di raggiungere anche le famiglie che, in ragione della scarsità di imponibile, non sono soggetti passivi dell’imposta sul reddito o non possono godere di tutte le detrazioni o deduzioni cui avrebbero diritto (gli incapienti).
Non si può fare a meno di osservare che, con un minore dispendio di risorse, si sarebbero potuti realizzare obiettivi distributivi più apprezzabili, mantenendo a disposizione del bilancio pubblico risorse preziose per realizzare altre riforme nel campo del welfare. (1)


(1) Baldini, M., P. Bosi, Matteuzzi, Sostegno alle responsabilità familiari e contrasto della povertà: ipotesi di riforma, in Rivista delle politiche sociali, n.2, 2004 e in
www.capp.unimo.it.

Tabella 1 – Contribuenti: Risparmi di imposta derivanti da ipotesi alternative del secondo modulo della riforma fiscale



Figura 1 – Famiglie: Risparmio di imposta del primo e del secondo modulo in % dell’imponibile

Figura 2 – Famiglie: Riforme complessive risparmi di imposta totale in % dell’imponibile


Chi vince e chi perde con la nuova Irpef, di Massimo Baldini e Paolo Bosi

Dalla presentazione della legge delega (7 aprile 2003), è stato un continuo susseguirsi di proposte e discussioni sugli effetti redistributivi e di gettito della riforma dell’Irpef.
Non ci si può illudere di essere giunti a intenzioni definitive del Governo in questa delicata area, ma può essere utile fare il punto della situazione, sulla base delle informazioni fornite dalla stampa sulla struttura degli scaglioni, delle aliquote e delle deduzioni previste per il secondo modulo della riforma dell’Ire.
Secondo queste indicazioni, si prevede una nuova struttura degli scaglioni e delle aliquote, illustrata nella quarta colonna della tabella 1 (riforma finale).

Tab.1 – Scaglioni e aliquote dell’Irpef 2002 e delle riforme

Irpef 2002

Legge delega

Primo modulo

Riforma finale

scaglioni

aliquote

scaglioni

aliquote

scaglioni

Aliquote

scaglioni

aliquote

0-10329

0,18

0-100000

0,23

0-15000

0,23

0-26000

0,23

10329-15494

0,24

oltre 100000

0,33

15000-29000

0,29

26000-32600

0,33

15494-30987

0,32

29000-32600

0,31

oltre 32600

0,39

30987-69722

0,39

32600-70000

0,39

oltre 69722

0,45

oltre 70000

0,45

Qui interessano gli effetti di gettito e distributivi di questa seconda fase, messa a confronto non solo con la legislazione vigente, che è segnata dall’intervento effettuato nel 2003, il cosiddetto primo modulo della riforma dell’Ire, ma anche con la situazione in vigore nel 2002. I redditi sono in valori del 2004. (1)

Effetti della riforma sul gettito

Secondo le stime fornite dal modello di microsimulazione del Centro di analisi delle politiche pubbliche dell’Università di Modena, il secondo tempo della riforma costerà 6,9 miliardi di euro, che si aggiungono ai circa 6 miliardi del primo modulo. Complessivamente, si tratta di una riduzione del carico fiscale di circa il 2 per cento. La riforma prevista nella legge delega, basata su un modello a due sole aliquote, avrebbe invece comportato uno sgravio fiscale di circa 28 miliardi di euro, pari al 4,4 per cento dell’imponibile.
Tra l’approvazione della delega e la Finanziaria per il 2005, il Governo è stato quindi indotto a più che dimezzare gli originali propositi di “ridurre le tasse”. La riforma dell’Ire alla fine sottrarrà comunque all’erario 13 miliardi di euro.

Analisi individuale per contribuenti

La tabella 2 mostra i risparmi di imposta dei contribuenti, sia in valori assoluti, sia in percentuale del reddito imponibile. Si tratta quindi di un’analisi di tipo individuale.
Il secondo modulo della riforma non concede praticamente nulla ai redditi inferiori ai 20mila euro (se non l’aumento da 7mila a 7.500 euro della no tax area per i pensionati), e favorisce soprattutto i redditi attorno ai 35mila euro, a causa della rimodulazione delle aliquote, e quelli superiori ai 70mila euro, a seguito della riduzione dell’aliquota marginale più elevata. I maggiori beneficiari degli sgravi sono i redditi più bassi e quelli più alti, mentre i guadagni sono inferiori per le classi centrali della distribuzione del reddito. Un risultato tipico, quando si riduce il numero degli scaglioni e ci si avvicina a uno schema flat rate: se si vuole diminuire il numero degli scaglioni e non si vuole perdere troppo gettito, è inevitabile premiare soprattutto i molto ricchi e i molto poveri.
Se si considera invece la riforma nel suo complesso, essa non sembra avere una chiara identità. Fino a imponibili di 30mila euro, lo sgravio della riforma complessiva presenta un andamento altalenante che non sembra rispondere a una precisa logica. Da 30mila sino a 70mila euro, lo sgravio percentuale è decrescente, accentuando quindi la progressività della struttura preesistente. Da 70mila in su, lo sgravio risulterebbe proporzionalmente crescente per raggiungere il valore massimo di quasi il 4 per cento per i contribuenti più ricchi.
Il Governo, nel corso del tempo, ha ridimensionato significativamente i suoi propositi di passaggio al modello della flat rate, contenuti nella legge delega del 2003: le ultime colonne della tabella 2 mostrano che, se si fosse passati alle due sole aliquote del 23 e 33 per cento (oltre i 100.000 euro), il beneficio per i contribuenti oltre i 70mila euro non si sarebbe limitato a due o tre punti percentuali del reddito, ma avrebbe superato abbondantemente il 10 per cento .
Anche se appare evidente la differenza rispetto alla riforma programmata con la legge delega, sulla base di queste stime il giudizio distributivo sulla riforma complessiva non può essere positivo. A favore dell’1,78 per cento di contribuenti con imponibile superiore a 70mila euro si concentra il 20 per cento dello sgravio complessivo. A un contribuente con reddito tra i 20-25mila euro vengono restituiti 444 euro; per il contribuente con imponibile superiore a 100mila euro, lo sgravio è quindici volte tanto: 6.357 euro.

Tab. 2 Risparmi di imposta per contribuente per classi di imponibile delle riforme dell’Irpef

Reddito

primo modulo

secondo modulo

Riforma complessiva

Legge delega

Imponibile

%

sgravio

Var.%

sgravio

Var.%

sgravio

Var.%

sgravio

Var.%

(000 euro)

contrib.

in euro

imponibile

in euro

imponibile

in euro

Imponibile

in euro

imponibile

0-5

9,0

-30

-1,3

0

0,0

-30

-1,3

-30

-1,3

5-10

22,4

-168

-2,3

-23

-0,3

-192

-2,6

-192

-2,6

10-15

20,7

-250

-2,0

-54

-0,4

-305

-2,4

-305

-2,4

15-20

19,8

-237

-1,4

-38

-0,2

-276

-1,6

-276

-1,6

20-25

11,6

-165

-0,7

-278

-1,3

-444

-2,0

-444

-2,0

25-30

5,9

-68

-0,3

-589

-2,2

-657

-2,4

-732

-2,7

30-35

2,5

-56

-0,2

-495

-1,5

-551

-1,7

-1189

-3,7

35-40

1,8

-58

-0,2

-468

-1,3

-526

-1,4

-1933

-5,2

40-45

1,1

-42

-0,1

-468

-1,1

-510

-1,2

-2781

-6,5

45-50

0,9

-55

-0,1

-468

-1,0

-523

-1,1

-3583

-7,5

50-55

0,6

-94

-0,2

-468

-0,9

-562

-1,1

-4500

-8,5

55-60

1,2

-89

-0,2

-468

-0,8

-557

-1,0

-5153

-9,0

60-65

0,5

-77

-0,1

-468

-0,7

-545

-0,9

-6019

-9,6

65-70

0,4

-101

-0,1

-468

-0,7

-569

-0,8

-6787

-10,1

70-75

0,1

-147

-0,2

-672

-0,9

-819

-1,1

-8007

-10,9

75-80

0,2

-157

-0,2

-904

-1,2

-1061

-1,4

-8867

-11,5

80-85

0,1

-128

-0,2

-1221

-1,5

-1349

-1,6

-10000

-12,1

85-90

0,2

-166

-0,2

-1526

-1,7

-1691

-1,9

-11155

-12,7

90-95

0,1

-172

-0,2

-1812

-2,0

-1984

-2,1

-12212

-13,2

95-100

0,2

-177

-0,2

-2159

-2,2

-2336

-2,4

-13488

-13,7

>100

0,9

-193

-0,1

-6165

-3,7

-6357

-3,9

-21698

-13,2

media

100,0

-171

-0,9

-198

-1,1

-369

-2,0

-809

-4,5

Analisi per redditi familiari equivalenti

Nello studio degli effetti distributivi di una riforma, non si può prescindere da un’analisi che assuma come unità di riferimento le famiglie.
La figura illustra gli effetti della riforma con riferimento alle famiglie ordinate per decili di reddito imponibile complessivo. In questa più appropriata dimensione, appare evidente l’inversione di rotta tra la riforma proposta nella legge delega e quella prevista per il 2005, in particolare con riguardo agli effetti sulle famiglie del nono e soprattutto del decimo decile, il più ricco della popolazione.
Il grafico mette anche in rilievo il carattere compensativo del secondo modulo rispetto al primo. Il primo, a partire dal terzo decile, mostra sgravi in percentuale dell’imponibile decrescenti. Il secondo modulo mostra invece vantaggi percentualmente crescenti al crescere dell’imponibile familiare. Nel complesso per le famiglie dal terzo al decimo decile lo sgravio oscilla mediamente intorno al valore del 2 per cento. L’assenza di compensazione per le famiglie più povere (in cui come è noto si concentra il fenomeno dell’incapienza) comporta vantaggi pressoché nulli per il primo decile e molto bassi e comunque inferiori alla media per le famiglie comprese nel secondo decile. Un effetto più volte messo in luce in passato, che l’attuale riforma non sembra risolvere, quantomeno con lo strumento dell’imposta personale.

L’effetto complessivo della riforma può infine essere valutato con l’indice di Gini (pari a 0 nel caso di distribuzione egualitaria e pari a 100 nel caso di massima disuguaglianza). Mentre il primo modulo della riforma ha prodotto un effetto moderatamente migliorativo dell’uguaglianza delle distribuzione del reddito netto (l’indice di Gini infatti diminuisce di 0,23), la riforma nel suo complesso produce un lieve peggioramento, (+ 0,16 nell’indice di Gini). La riforma originaria prevista nella legge delega avrebbe comunque avuto un effetto assai più forte (1,65 nel valore dell’indice), dimezzando l’effetto redistributivo dell’Irpef. Conclusione provvisoria: è una riforma che aumenta le disuguaglianze e che assorbe 13 miliardi che altrimenti potrebbero essere utilizzati per riformare gli ammortizzatori sociali e introdurre un programma nazionale per la non autosufficienza. La pur modesta riforma degli ammortizzatori prevista dal Patto per l’Italia, giace ancora inattuata e l’assistenza sociale continua a essere affidata a comuni con tetti di spesa sempre più stringenti.

(1) La tabella 1 non tiene conto di altri importanti cambiamenti della normativa sull’Irpef, considerati invece conto nelle simulazioni, che riguardano in particolare la sostituzione delle detrazioni da lavoro e pensione con una deduzione dal reddito complessivo decrescente per mantenere comunque la presenza di una iniziale no tax area, che rispetto ai governi dell’Ulivo aumenta da circa 6500 a 7500 euro. Nella simulazione relativa al secondo modulo, si è ipotizzato che la no tax area abbia un livello iniziale di 7500 euro sia per i dipendenti che per i pensionati, e di 4500 euro per gli autonomi. Questa deduzione decresce linearmente fino ad azzerarsi a 33mila euro. Il primo modulo ha mantenuto la detrazione sui redditi da lavoro e pensione solo per una ristretta fascia di redditi medi; in mancanza di indicazioni precise, si è supposto che essa non subirà modificazioni. La simulazione inoltre non considera gli eventuali incrementi degli assegni familiari, su cui al momento non si dispone peraltro di nessuna informazione precisa. Non teniamo neppure in considerazione gli aumenti delle imposte locali, tra cui le addizionali regionali e comunali all’Irpef, che faranno molto probabilmente seguito alla riduzione dei trasferimenti statali, e che quindi ridurranno i benefici netti degli sgravi decisi a livello centrale.

Pagina 14 di 16

Powered by WordPress & Theme by Anders Norén