Lavoce.info

Tag: Monografie Pagina 3 di 4

Tre crack nessuna riforma

Sommario, a cura di Daniela Marchesi

Recenti grandi crack finanziari di Parmalat, Cirio e Volare stanno mettendo in crisi il decollo dei nostri mercati finanziari. Proprio in un momento in cui per le imprese italiane è di cruciale importanza trovare fonti di finanziamento alternative al credito bancario. Tra stallo della riforma del fallimento, e paralisi di quella sulla tutela del risparmio, si susseguono soluzioni tampone applicate, a colpi di decreti, soltanto ai singoli casi concreti.

Il mondo cambia, la legge fallimentare no, di Lorenzo Stanghellini

Quando un’impresa cessa di pagare i suoi creditori, lo Stato interviene per tutelarli.
Le forme sono moltissime e graduali: si va da un controllo su cosa fanno i suoi amministratori fino alla loro sostituzione con un curatore (o commissario, nelle grandi imprese), che prende possesso dei beni e, a seconda dei casi, li liquida o li trasferisce ai creditori. Fra questi due estremi si trovano molte forme intermedie di intervento e di controllo sull’impresa.

Dal 1942 a oggi

La legge fallimentare è del 1942. È pensata per un sistema in cui le imprese sono piccole e quando diventano insolventi significa che non c’è nulla da salvare.
Il mondo è tuttavia molto cambiato da allora: le imprese sono oggi fatte d’idee più che di beni (e le idee non si vendono), i creditori sono sempre di più e conoscono poco i loro debitori (si pensi agli obbligazionisti). Spesso, infine, conviene agli stessi creditori che l’impresa continui a produrre invece di chiudere.
Proprio per questo dal 1979 abbiamo in Italia una normativa speciale per le grandi imprese (modificata nel 1999), le quali possono continuare l’attività anche quando sono insolventi, in attesa che le loro aziende vengano cedute in un tempo ragionevole (uno-due anni). È ciò che sta accadendo con Cirio.
Il quadro degli strumenti a disposizione del debitore e dei creditori resta però paurosamente incompleto. Per almeno tre motivi:
1) solo le grandi imprese (con almeno duecento dipendenti) possono tentare di salvarsi, con strumenti comunque insoddisfacenti. Decine di migliaia di altre aziende sono destinate a scomparire qualora vadano in crisi, anche se possiedano ancora valori da salvare;
2) i creditori, nel loro stesso interesse, possono certo accordarsi fra loro per aiutare il debitore in difficoltà a evitare il fallimento. Ma non è facile che riescano a farlo quando sono decine o centinaia o addirittura migliaia, se l’impresa ha emesso bond;
3) fino a oggi, e fino al caso Parmalat (per cui è stata adottata una legge speciale), l’unica cosa da fare in caso di crisi era vendere i beni dell’azienda, realizzando prezzi spesso modesti. Oggi è invece possibile trasferire l’impresa ai suoi creditori, facendoli diventare azionisti e conservando per loro tutto il valore d’avviamento. Solo però se ha almeno mille dipendenti. Un caso (fortunatamente) raro, anche se il probabile successo del piano di salvataggio Parmalat lascia pensare che ci saranno repliche per altre gravi crisi – come sembra stia già avvenendo proprio in questi giorni per “Volare

Così com’è oggi strutturata, la nostra legislazione fallimentare scoraggia inoltre l’intervento di investitori specializzati nel recupero delle imprese in crisi. Si tengono infatti a debita distanza, visto che la legge è così severa con tutti coloro che hanno avuto a che fare con l’impresa poi fallita, anche quando la scommessa di salvarla sia stata tentata in buona fede.
Che ci sia bisogno di una riforma del diritto fallimentare, per questi motivi e molti altri più tecnici, ognun lo dice. Perché non la si faccia è un’altra questione.

Interessi costituiti e vecchi retaggi

Il diritto fallimentare era, fino a pochi anni fa, il diritto del funerale dell’impresa. Oggi non deve più essere così: se pensato in termini moderni, si tratta di un settore importante e vitale, che può dare grande forza all’economia.
A partire dal 2000, sono apparsi progetti di legge che miravano a rovesciare le prospettive della legge fallimentare e a consentire salvataggi di imprese in crisi, pur senza riduzione della tutela dei creditori o inammissibili aiuti di Stato. (1) Finita la legislatura, si è buttato tutto nel cestino e si è ricominciato da zero. Dopo due anni di lavoro di un’ampia commissione (la commissione Trevisanato) sono arrivati altri progetti che, pur migliorando la situazione attuale, di innovativo avevano ben poco. Nemmeno quelli sono tuttavia passati. Perché?
La verità è che è difficile gettare abiti indossati per tanto tempo e cambiare mentalità d’improvviso.Questo vale anche per molti magistrati, affezionati al ruolo di gestori delle imprese in crisi che l’attuale legge loro riserva e restii ad affidare al mercato questo settore.
Le discussioni nella commissione Trevisanato si sono poi concentrate per mesi su aspetti marginali, probabilmente incomprensibili per un osservatore internazionale, incentrati a determinare se e quanto le banche, in caso di fallimento del loro cliente, debbano riversare al curatore di ciò che è passato dal conto corrente. Una sciocchezza, se comparata con gli interessi in gioco, ma una sciocchezza che nell’attuale legge colpisce pesantemente le banche (che vengono regolarmente citate in giudizio per somme ingenti, anche se quelle effettivamente versate sono spesso inferiori a quanto chiesto dal curatore) e dà grande lavoro ad avvocati e commercialisti. Si può capire perché su questo punto si sia così aspramente combattuto. Sulle spalle del paese, e in attesa di Parmalat.
Dopo il crack del gruppo di Collecchio nulla è più come prima: la legge sulla crisi delle grandissime imprese è stata più volte cambiata a colpi di decreto, per mettere (con successo) una toppa su un disastro che poteva diventare peggiore di come è già. I tecnici del Governo hanno da allora cominciato a produrre testi più moderni. (2) L’opposizione, nel luglio del 2004, ha ripresentato un nuovo testo. (3)
Nel frattempo, un progetto governativo di restyling dell’attuale legge fallimentare, dimenticato in Parlamento dal 2002, è stato recuperato e rivitalizzato nel tentativo di farlo assomigliare di più a una vera riforma. (4) Anche se le dinamiche parlamentari sono imprevedibili, è difficile che un testo intriso di sfiducia verso le imprese in crisi e verso il mercato, come la legge del 1942, possa essere trasformato nella riforma integrale di cui il Paese ha disperatamente bisogno: i rospi divengono principi azzurri solo nelle favole.

Una riforma bipartisan?

La cosa curiosa è che, in più punti, il testo dell’opposizione è più liberale delle bozze del Governo., Una riforma bipartisan, da fare in pochi mesi, non sembra dunque fuori dal mondo. Qualche apertura e disponibilità a collaborare vi è stata.
La questione è solo politica: i tecnici delle due parti potrebbero lavorare in sostanziale sintonia.
Basta che il Governo non pensi di fare una riforma così importante a colpi di maggioranza. Gli interessi costituiti e i vecchi retaggi, per essere superati in nome di una riforma vera, richiedono intese più larghe.

(1) Disegno di legge C. 4797, presentato il 14 dicembre 2000 (primo firmatario Walter Veltroni).

(2) Schema di disegno di legge redatto dalla commissione nominata con decreto ministeriale 27 febbraio 2004 dal ministro della Giustizia di concerto con il ministro dell’Economia e delle finanze.

(3) Disegno di legge C. 5171, presentato il 14 luglio 2004 (primo firmatario Piero Fassino).

(4) Disegno di legge S. 1243, presentato il 14 marzo 2002 su iniziativa del Governo.

Il dopo-Parmalat delle imprese italiane, di Carlo Maria Pinardi

Le conseguenze sul mondo del risparmio dovute ai fallimenti che si sono succeduti sul mercato dei corporate bond italiani negli ultimi due anni sono ben note. Più nebuloso, e probabilmente più complesso, è l’impatto che questi eventi hanno prodotto sulle politiche finanziarie delle imprese italiane.

Il campione

Proprio per indagare questi aspetti, il Crea dell’Università Bocconi ha svolto un’indagine fra le cento principali società industriali e commerciali italiane, quotate e non. (1)
A centoquaranta imprese italiane industriali e commerciali è stato inviato un questionario, le risposte ottenute centodue. Le società quotate sono settantanove – quelle dello SP-Mib e quelle a maggiore capitalizzazione, mentre le società non quotate sono state scelte in base alla classifica per valore aggiunto nelle classificazioni di Mediobanca. (2)
La capitalizzazione delle aziende che hanno risposto al questionario è di oltre 267 miliardi di euro (a fine settembre), ovviamente con peso preponderante delle blue chips. In termini di valore aggiunto per l’esercizio 2003, il dato complessivo del campione è pari a 95,4 miliardi di euro.

E i risultati

Quali sono i punti principali che emergono dall’indagine?
In primo luogo, si nota una differente valutazione tra impatto dei fallimenti sulla propria azienda e impatto sul sistema delle imprese nel suo complesso. Per la propria azienda, gli effetti sono rilevanti solo nel 49 per cento del totale, ma diventa il 64 per cento per le small caps quotate. Quando invece i direttori finanziari intervistati devono giudicare il sistema nel suo complesso, gli effetti sono rilevanti per il 94 per cento, con il 100 per cento per le non quotate e il 96 per cento per le small caps. Le aziende maggiori hanno quindi la percezione di “soffrire” meno delle Pmi l’impatto dei default. Due terzi degli intervistati indicano la fine del 2005 come il tempo necessario per “rientrare” dagli effetti negativi dei fallimenti, mentre un terzo pensa che sarà necessario un periodo più lungo. E il 43 per cento delle small caps quotate ritiene che le conseguenze si assorbiranno solo nel medio-lungo termine. Solo il 10 per cento delle aziende interpellate dichiara, però, di aver rinviato operazioni di emissioni obbligazionarie (“public” o “private”) nel 2004, ma il dato sale al 20 per cento per le small caps. Quanto ai tempi di concessione dei prestiti (sindacati o bilaterali) da parte delle banche di riferimento, per le società non quotate e per le small caps quotate le procedure si sono allungate, in media di tre mesi, in un terzo dei casi. E per ben il 32 per cento degli intervistati il ritardo è superiore ai tre mesi. Le small caps quotate sono quindi quelle che hanno risentito maggiormente del clima di sfiducia creatosi dopo il “caso Parmalat”, secondo il campione.

Tre quarti delle aziende interpellate sostengono che la “inadeguatezza” delle leggi in materia di fallimento ha aggravato le conseguenze dei default: la non adeguata tutela dei diritti dei creditori si traduce quindi in un costo addizionale per le aziende che chiedono fondi.
Per i collocamenti futuri, nel 71 per cento dei casi è previsto un maggior peso degli investitori istituzionali rispetto al passato nel “mix” tra istituzionali e retail. Tra le imprese del campione c’è la percezione che siano aumentati i controlli da parte di Bankitalia (73 per cento) e Consob (82 per cento), ma solo la metà degli intervistati li giudica efficaci. Peraltro, il maggior controllo significa allungamento dei tempi di autorizzazione: per Bankitalia nel 71 per cento e per Consob nel 68 per cento dei casi. Per migliorare l’efficacia dei controlli specifici della Consob, le imprese indicano alcuni interventi: in ordine di importanza, dovrebbero esserle attribuiti più poteri d’indagine, più poteri sanzionatori, più risorse umane provenienti dal mercato e la concessione di un potere di controllo di efficienza a intermediari e investitori (cioè al “tax payer”).
Inoltre, l’82 per cento delle imprese giudica che una migliore governance delle imprese sia necessaria per ridurre il costo di finanziamento sul mercato. A maggior ragione perché secondo l’86 per cento degli intervistati il peso delle regole di corporate governance sarà sempre maggiore nella valutazione del merito di credito dell’emittente espresso dalle società di rating. E quindi l’89 per cento delle società afferma di aver adottato provvedimenti per migliorare trasparenza e governance dopo i default. Solo nel 33 per cento dei casi (il 40 per cento per le non quotate) questo si è tradotto in oneri aggiuntivi significativi.
Oltre ai corporate bond, gli strumenti che hanno “patito” maggiormente le conseguenze dei default sono, nell’ordine, gli US Private Placements, le emissioni convertibili e le passività subordinate, mentre le asset backed securities e le cartolarizzazioni non hanno sofferto particolarmente. Solo il 37 per cento considera possibile entro il 2005 la riapertura del segmento retail del mercato dei corporate bond (naturalmente con rating) mentre l’84 per cento ritiene possibile entro il 2005 l’accesso agli “US private placements”.Gli intervistati giudicano i corporate bonds non rated, seguiti dai prodotti strutturati, gli strumenti meno trasparenti sul mercato finanziario. Mentre quelli che verranno utilizzati maggiormente nel prossimo biennio sono, in ordine di rilevanza, private placements, prestiti sindacati, corporate bond, asset backed e, solo da ultimo, collocamenti azionari e di convertibili. Forse incide su questa valutazione il fatto che in un quarto dei casi i direttori finanziari delle società quotate addebitano agli ultimi scandali finanziari un impatto negativo sui propri multipli borsistici. Infine, il 69 per cento (l’86 per cento per le imprese non quotate) ritiene che potrebbe rivelarsi efficace una norma che preveda più chiare responsabilità e l’attestazione di veridicità sui documenti contabili e sulla situazione patrimoniale-finanziaria da parte del direttore finanziario della società.

(1) L’analisi si inquadra in un progetto di ricerca condotto dal Crea Bocconi grazie al contributo di Ras, Unicredit e Telecom Italia.

(2) “Dati cumulativi di 1945 società italiane”, agosto 2004.

(3) Secondo i dati riportati su “Le principali società italiane – Industriali e di servizi” di Mediobanca, agosto 2004.

Parmalat, il fronte delle parti civili, di Lorenzo Stanghellini

Si è aperto a Milano il primo troncone dei processi ai responsabili, veri o presunti, del disastro Parmalat. Migliaia di risparmiatori inferociti si sono costituiti parte civile. Cosa possono attendersi da questo nuovo atto della vicenda del gruppo di Collecchio?

Risparmiatori di serie A e di serie B….

I risparmiatori danneggiati dal dissesto di Parmalat si dividono in due categorie: quelli che avevano acquistato obbligazioni (bond) e quelli che avevano acquistato azioni. I primi hanno fatto un prestito a Parmalat e speravano di ricevere il capitale e gli interessi, i secondi hanno fatto un investimento più rischioso, perché sapevano (o dovevano sapere) che sarebbero stati compensati solo se Parmalat avesse prodotto utili sufficienti e avesse distribuito dividendi. Nel crollo del gruppo Parmalat tutti hanno perso, ma gli azionisti hanno perso di più, perché hanno rischiato di più. Il piano di riorganizzazione di Parmalat si occupa solo dei creditori, ed è giusto che sia così: gli azionisti non possono in teoria ricevere nulla finché l’ultimo dei creditori non ha ricevuto fino all’ultimo centesimo. Dato che questo non accadrà, i vecchi azionisti di Parmalat sono fuori, e non si capisce come il ministro Alemanno in agosto abbia tentato di imporre a Enrico Bondi di considerare anche i piccoli azionisti: dato che nulla si crea dal nulla, ogni euro dato agli azionisti, piccoli o grandi che siano, verrebbe tolto ai creditori.

… ma tutti danneggiati dalle frodi di Parmalat

Tutti i risparmiatori, compresi quelli di serie B, sono stati tuttavia danneggiati dai bilanci truccati, dai prospetti mendaci e dalle varie frodi commesse dai diversi responsabili. Anche gli azionisti, infatti, avevano comprato azioni confidando su informazioni che si sono rivelate false, e non l’avrebbero certamente fatto se avessero saputo la verità. È per questo che tutti, obbligazionisti e azionisti, si presenteranno regolarmente ai vari processi penali, chiedendo di salire sul treno dei risarcimenti, costituendosi parte civile contro le persone fisiche responsabili del crack e, se verrà provato che le persone fisiche agivano nell’interesse di altre società, anche contro queste ultime.

Una strada poco costosa, ma comunque incerta

Nemmeno la strada della costituzione di parte civile è tuttavia priva di ostacoli. In primo luogo, provare la responsabilità di Calisto Tanzi, di Fausto Tonna, dell’avvocato Gian Paolo Zini, di alcuni fra i revisori e così via, sarà facile: ma quanto dell’enorme danno cagionato da Parmalat potranno essi risarcire? La scommessa dei risparmiatori è dunque quella di tirare nel mucchio dei responsabili le banche e gli intermediari finanziari che in varie fasi hanno avuto a che fare con Parmalat. Di coinvolgere cioè soggetti dotati di un patrimonio capace di essere aggredito. Per ora le persone giuridiche chiamate a rispondere degli illeciti sono tre (le filiali italiane di Bank of America, Deloitte & Touche e Grant Thornton), ma non è chiaro di quanto e come potranno essere chiamate a rispondere le case-madri, come pure le varie banche del cui ruolo si parla. In secondo luogo, ogni euro versato dai responsabili dovrebbe andare a risarcire i creditori, prima che gli azionisti. È per questo che crediamo che il commissario straordinario di Parmalat veda con sentimenti contrastanti la ressa dei risparmiatori ai processi penali: da un lato lo aiutano a creare la giusta pressione ambientale sui responsabili e sulle società che potrebbero in futuro essere chiamate a rispondere, ma dall’altro lato egli potrebbe dover dividere con loro una torta che non sarà mai sufficientemente grande per tutti. È così che si spiega perché il Codacons chieda l’esclusione di Bondi dal processo penale, in quanto è stato amministratore di Parmalat (ma solo negli ultimi giorni prima del crollo). L’argomentazione, alquanto debole, nasconde il desiderio di eliminare un commensale affamato da un banchetto che non si preannunzia abbondante. Quali speranze possono allora nutrire i risparmiatori costituendosi parti civili? Non moltissime. Perché il danno ai risparmiatori Parmalat venga risarcito in sede di processo penale occorre infatti che i dipendenti delle persone giuridiche (banche, eccetera) vengano condannati per un reato e che il loro comportamento criminale sia giudicato riferibile alle persone giuridiche per cui essi lavoravano. Ciò è molto più di quello che occorre per ottenere la condanna in una normale azione civile, dato che in quella sede è sufficiente dimostrare la colpa di chi ha arrecato un danno: basta cioè dimostrare un comportamento negligente o imprudente, e non necessariamente disonesto. Il processo penale non è un’occasione in cui fini controversie patrimoniali possono essere risolte secondo gli alti principi del diritto: per i risparmiatori è l’occasione della vendetta e, soprattutto, della speranza di arraffare qualche briciola gettata per placare la loro giusta rabbia. Il costo della costituzione di parte civile è tuttavia minimo rispetto a quello di un’azione civile per danni, e dunque vale la pena che ci provino.

Tre strade per il risparmio tradito

In conclusione, fino a ieri i risparmiatori traditi da Parmalat avevano due strade: agire contro chi aveva loro venduto i titoli, cercando di dimostrare che non erano stati adeguatamente informati, e (ma solo per i risparmiatori “di serie A”, cioè gli obbligazionisti) partecipare al piano Bondi, diventando azionisti della nuova Parmalat che risorgerà dalle ceneri del gruppo (si veda www.lavoce.info). Oggi, con l’apertura del processo penale, ne hanno una in più, ma il loro futuro non è roseo. È per questo che occorre che venga presto approvata una nuova legge che per il futuro tuteli i risparmiatori, prevedendo stringenti regole di corporate governance per le società quotate in Borsa, penalizzando adeguatamente chi falsifica i bilanci, attribuendo più poteri alla Consob e, infine, sancendo il diritto dei risparmiatori di agire collettivamente contro chiunque li abbia danneggiati (con una class action, che suddivide il costo dell’azione fra i tantissimi interessati). Una legge che tarda ad arrivare e che perde mordente man mano che le proposte si susseguono in Parlamento. Di solito, dopo che i buoi sono scappati si chiude almeno la stalla. In Italia, per ora, la si è lasciata aperta.

Se Parmalat dà il buon esempio, di Lorenzo Stanghellini

Le regole sulle imprese in crisi vivono una stagione strana: da un lato un faticoso processo di riforma generale, con tempi lunghi, commissioni che lavorano in silenzio e producono soluzioni poco innovative. Dall’altro, un reality show con le regole dettate per la crisi Parmalat, approvate, applicate e molto più coraggiose.
Se ne trova conferma nel piano di riassetto del gruppo Parmalat, appena presentato al Ministro Marzano. Come aveva auspicato lavoce.info all’indomani dell’approvazione del decreto d’emergenza alla vigilia di Natale (Dl 23-12-2003, n. 347), il piano può avvalersi di regole innovative che il Parlamento ha adottato convertendo il decreto in legge (L. 18-2-2004, n. 39). Tali regole consentono al commissario Parmalat di operare una vera ristrutturazione finanziaria e di trasferire l’impresa in crisi ai creditori.

Il piano

Il piano Parmalat prevede che venga costituita una società per azioni che assume l’attivo di sedici società della galassia Parmalat e ne paga i creditori. (1)
Il fatto nuovo è che mentre la nuova società pagherà in denaro (e per intero) i creditori privilegiati (fisco, lavoratori, artigiani, eccetera), “pagherà” con le proprie azioni tutti gli altri: le riceveranno in proporzione ai diritti che rispettivamente vantavano verso una o più delle sedici società. La nuova Parmalat, dotata di una governance all’avanguardia, verrà quotata in Borsa. (2)
I creditori che vogliono avere denaro potranno cedere le azioni, gli altri potranno giovarsi degli incrementi di valore che nel tempo dovessero prodursi. La perdita di un creditore oggi stimata, ad esempio, nell’80 per cento potrebbe ridursi (ma anche aumentare) in conseguenza dell’andamento delle azioni in Borsa.

Alla nuova società verranno attribuiti anche gli attivi che potrebbero derivare dalle azioni revocatorie e di risarcimento danni contro amministratori, sindaci, revisori e alcune banche e intermediari finanziari ritenuti (a torto o a ragione) responsabili del dissesto. Si tratta di un attivo del tutto incerto, ma che potrebbe ridurre le perdite dei creditori in misura anche significativa. D’altra parte la nuova società si assume anche il rischio delle cause iniziate contro Parmalat negli Stati Uniti, il cui costo, anche per spese legali, potrebbe essere elevato.

Restano fuori dal piano di ristrutturazione quattro società del gruppo Parmalat (fra cui Parma calcio) e alcune società sotto il controllo dei Tanzi, ma non di Parmalat (ad esempio, Parmatour). I loro creditori riceveranno, secondo il sistema tradizionale, ciò che si ricaverà dalla vendita dei beni delle società. Fuori dal piano sono anche le società poste al di fuori dell’Unione europea (Brasile e Stati Uniti principalmente), la cui crisi verrà risolta secondo le norme applicabili nei rispettivi paesi.
Il piano, dopo essere stato presentato ufficialmente, sarà sottoposto nei prossimi mesi al voto dei creditori i quali, a maggioranza, potranno approvarlo o rifiutarlo. Se lo approveranno, entro un anno la nuova società potrebbe essere già operativa.

E i vecchi azionisti? Sono ormai fuori: la nuova Parmalat sarà infatti (solo) dei creditori. Si era per la verità ipotizzato di dare agli azionisti un warrant per acquistare le azioni della nuova società a condizioni di favore, per rientrare in gioco se queste azioni acquistassero nel tempo così tanto valore da compensare i creditori-azionisti di tutta la perdita subita. La cosa è tuttavia tecnicamente difficile e, forse, anche iniqua: i vecchi azionisti sono stati alla finestra, protetti dalla responsabilità limitata, mentre Parmalat franava sulle spalle dei creditori. Agli azionisti (diversi dai Tanzi) resta quindi poco da fare, se non agire per il risarcimento del danno contro i responsabili del dissesto e, qualora abbiano ricevuto le azioni in violazione delle norme sui servizi finanziari, contro gli intermediari da cui le abbiano acquistate.

Parmalat: un caso “facile”

Pur nella sua incredibile complessità tecnica, è bene tenere a mente che, dal punto di vista della soluzione, Parmalat costituisce un caso politicamente facile. L’indebitamento che è emerso è enorme, ma l’impresa ha un margine operativo positivo e si autosostiene. Nessun licenziamento è stato necessario, e anche la finanza-ponte, prontamente concessa dalle banche, non è stata utilizzata. Lo Stato ha contribuito, consentendo ai creditori agricoli e agli autotrasportatori messi in difficoltà dal crac Parmalat di accedere a un credito particolarmente agevolato.

Il piano Parmalat, dunque, si limita a staccare i rami secchi e a liberare dai vecchi debiti un’impresa che, pur fragile, può riprendere a camminare da sola. Non si è posta, in altre parole, quell’alternativa fra tutela dei lavoratori (e dei fornitori) e tutela dei creditori che costituisce uno dei più difficili nodi “politici” della crisi d’impresa, soprattutto della grande impresa. La politica ha fatto da (interessato) sparring partner, ma non ha imposto in nome di interessi “politici” (occupazione, interesse nazionale) scelte che – soprattutto per gli obbligazionisti – sarebbero state indigeribili, con danni sul piano dell’immagine internazionale dell’Italia ancor più gravi di quelli che il caso ha già prodotto.
Ben diverso sarebbe, ad esempio, se Alitalia divenisse insolvente: le regole applicabili sarebbero le stesse (anche Alitalia ha più di mille dipendenti), ma il contesto sarebbe completamente diverso. Mentre Parmalat ha bisogno (soprattutto) di una ristrutturazione finanziaria, Alitalia avrebbe bisogno di una ristrutturazione industriale, per tornare a creare valore mentre oggi lo distrugge. All’eventuale commissario straordinario si presenterebbero scelte difficili, da operare sotto le direttive di una politica alle prese con una coperta troppo corta (creditori, lavoratori, divieto di aiuti di Stato).

Le lezioni da trarre

Quali le lezioni della crisi Parmalat? Sono principalmente due, e così ovvie che è strano che l’Italia le abbia definitivamente apprese solo con questa crisi (e solo per la grande impresa, che nel nostro paese dà lavoro a una parte minoritaria degli occupati).
(1) È importante avere una procedura che consenta la gestione dell’attivo e la continuazione dell’attività mentre il debitore (o il curatore) e i creditori negoziano una soluzione flessibile. Sembra incredibile, ma in Italia non c’è. Anche il Regno Unito, buon ultimo, se ne è dotato lo scorso anno, così completando un quadro che già era molto efficiente.
(2) È importante avere una procedura che consenta, accanto alla ristrutturazione industriale, anche la ristrutturazione finanziaria e che al limite eviti di dover vendere all’asta i beni dell’impresa (con le note perdite di valore dovute alle imperfezioni dei mercati). Esattamente questo accadrà con Parmalat, che invece di essere venduta a terzi verrà “venduta” ai suoi stessi creditori.
Anche se il prezzo è stato altissimo, la lezione di Parmalat potrebbe portare frutti positivi. Senz’altro li sta portando per il diritto della crisi d’impresa italiano, che fino a pochi mesi fa si basava su concetti antiquati e che oggi si trova proiettato in avanti dalle spinte del più grave dissesto degli ultimi decenni.
Il possibile successo di Parmalat non è facilmente ripetibile. Tuttavia, da qui occorre muovere per la riscrittura delle regole sulla crisi di tutte le imprese, grandi e piccole.

(1) Si vedano le linee-guida del piano, presentato ai creditori il 4 giugno 2004: http://www.parmalat.com/it/doc/Creditors%20Meeting%204%20June%20(ii).pdf

(2) La governance della nuova Parmalat è descritta al punto 3 del comunicato-stampa 17 maggio 2004: http://www.parmalat.com/it/doc/2004.05.17%20Linee%20guida%20it.pdf

Tre punti per la tutela del risparmio, di Mario Sarcinelli

Un regime di regolamentazione, composto necessariamente di una pluralità di regole, strumenti e obiettivi, abbisogna di una strategia che lo renda rispondente al sistema che s’intende “controllare”.
Ad esempio, se in un sistema economico prevalgono la quotazione in Borsa e la proprietà diffusa, è efficiente spostare il baricentro delle regole e dei controlli verso il mercato e verso le offerte pubbliche di acquisto o di scambio.
Se, al contrario, sono diffusissime le medie e piccole imprese sostanzialmente avverse alla Borsa, il fulcro della regolamentazione deve rimanere in maggior grado in ambito pubblicistico. E l’Italia, nonostante i progressi degli ultimi quindici anni, continua a esprimere un capitalismo familiare. In qualche caso, come quello Parmalat, anche un familismo amorale.

Le sanzioni nel nuovo diritto societario

La riforma del diritto societario nel nostro paese sarebbe dovuta essere il risultato di un attento studio delle necessità del nostro sistema produttivo.
Invece, quella che è entrata in vigore il 1° gennaio 2004 ha proceduto sulla base di principi teoricamente condivisibili, ma avulsi dalla realtà italiana.
Infatti, si è garantita la massima libertà statutaria alla Spa in grado di emettere un’ampia tipologia di azioni, di ricorrere senza limiti, se quotata, all’indebitamento obbligazionario anche atipico, di scegliere il regime di direzione tra diverse opzioni. Alla maggiore libertà non si è però accompagnata una sanzione proporzionalmente accresciuta nel caso di violazione di obblighi, come il falso in bilancio dimostra.
Poiché tale sistema mal si addice a un capitalismo familiare come il nostro, prima o poi dovrà porsi mano a una sua revisione.

Per difendersi dalla frode

La stabilità del capitalismo, da noi come negli Stati Uniti e in altri paesi europei, è stata messa in pericolo da tre cause: la frode, l’accumulazione involontaria di rischi e la concessione delle opzioni su azioni, con le connesse modalità di contabilizzazione e di esercizio.
Nella ricerca della miscela di strumenti e incentivi adatta a ogni economia, vanno anche individuati il tipo di pericolo da cui bisogna guardarsi e chi è preposto a vigilare sul medesimo. E in Italia, dopo il caso Parmalat, la frode sembra essere quella che suscita il maggiore allarme sociale.

Se questo è vero, ed essendo la frode un reato contro la fede pubblica, allora non si può prescindere dall’azione delle autorità di supervisione, della Guardia di finanza, che ha compiti di polizia economica, e delle procure della Repubblica. Ma questo non basta: per evitare che il potere pubblico arrivi quando il danno è stato arrecato, è necessario che vi siano dei filtri efficaci al livello dell’organizzazione aziendale, con obblighi sanzionabili. E affinché questi filtri funzionino, è necessario aumentare la loro distanza da proprietari e amministratori attraverso la divaricazione degli interessi.

Quali filtri sono previsti? Vediamone alcuni.In primo luogo, i revisori esterni, che hanno oggi l’obbligo di certificare la contabilità. Perché questi siano utili sentinelle dovrebbero essere privati di ogni capacità di consulenza; bisogna eliminare il potenziale conflitto d’interessi che potrebbe insorgere domani e/o in un altro ordinamento. Ma per ottenere questo è necessaria una forte e coordinata pressione internazionale.

Abbiamo poi i sindaci, ma anch’essi sono espressione della maggioranza, mentre sarebbe opportuno che fossero scelti dalla minoranza o, almeno, dai fondi comuni d’investimento che hanno nel proprio portafoglio titoli della società e/o del gruppo.
I consiglieri d’amministrazione indipendenti, quando esistono in società dalla forte impronta familiare, non sono affatto indipendenti, poiché sono scelti dal capo effettivo dell’azienda, che spesso è il presidente del gruppo, e restano in carica sino a quando sono a lui graditi.
Per i capi uffici della contabilità e della finanza vanno previste specifiche responsabilità fortemente sanzionabili, poiché per essi non è immaginabile una diversificazione degli interessi da quelli degli amministratori e dei proprietari. Particolari incentivi per chiunque voglia fare il whistleblower sono chiaramente poco efficaci, poiché sarebbe oggetto di ritorsioni prima e di discriminazioni poi.

Quanto alle sanzioni abbiamo diverse possibilità, con efficacia differente.
Quelle restrittive della libertà dovrebbero essere riservate ai comportamenti più gravi, mentre sono da preferire quelle sospensive o interdittive dalla professione o dalla carica.
In fondo, a un regime capitalistico interessa estromettere, temporaneamente o definitivamente, persone che si sono dimostrate incapaci di osservare le regole del gioco. Va da sé che questo tipo di misure deve essere pienamente appellabile.

Tornano le grida manzoniane?

Abbiamo quindi tre opzioni di intervento: la revisione del nuovo diritto societario, la divaricazione degl’interessi tra amministratori e proprietari e organi di controllo e infine l’inasprimento delle sanzioni.
Purtroppo, solo quest’ultimo è rapidamente attuabile, come del resto è avvenuto negli Stati Uniti.
Purché non si tenti di configurare un improbabile reato di “nocumento al risparmio” (da 3 a 12 anni di galera) per chi causa un danno superiore all’1 per mille del Pil, (come è noto, il Pil è frutto di stime soggette a molteplici revisioni), o colpisca un numero di risparmiatori superiore all’1 per mille della popolazione (la cui entità è accertata dal censimento ogni dieci anni). Le grida manzoniane sono ancora di moda?

Cani da quardia per decreto, di Carlo Scarpa

La proposta di istituire una SuperConsob contiene almeno un rischio: che si creda veramente di trasformare una pesante e lenta burocrazia come la Consob in un temibile ufficio ispettivo.
Ha ragione il ministero dell’Economia: in un paese normale l’allarme devono darlo le autorità di vigilanza. E poiché nello scandalo Parmalat le irregolarità sono di una società quotata (sorvegliata dalla Consob), non possiamo che rilevare come chi dovesse vigilare sulla Borsa e su chi sollecita il risparmio privato, non lo abbia fatto in modo sufficiente.

È evidente che una valutazione complessiva sull’attività della Consob su un arco trentennale richiederebbe ben più che un paio di paginette. Sarebbe una valutazione inevitabilmente complessa, con luci e ombre.
Qui mi limito a sottolineare come la Consob, che magari ha operato bene sullo sviluppo del mercato di Borsa, ha spesso scelto un profilo troppo basso nell’attività di vigilanza, una di quelle cui è delegata.
È la funzione più importante? Non so, ma non è marginale.

Il controllo delegato a Consob riguarda diversi soggetti, in particolare le “emittenti” (le società quotate), i revisori, gli intermediari finanziari. Esistono due tipi di controlli, quelli ex-ante (al momento dell’ingresso sul mercato, in particolare la quotazione delle società) e quelli ex-post, tramite ispezioni sui soggetti che operano.
Su entrambi abbiamo problemi, in parte dovuti al funzionamento della Borsa, in parte alla normativa esistente, ma in parte anche a Consob. Facciamo alcuni esempi.

Controlli ex-ante: la quotazione di società

Quando un’impresa viene venduta a un investitore privato, chi compra paga gli avvocati per effettuare un’accurata ricognizione di tutti i documenti della società venditrice, e segnalare ogni possibile problema (si chiama “due diligence”, la dovuta diligenza nell’accertare la situazione dell’impresa che si vuole acquistare).

Quando un’impresa viene venduta sul mercato azionario, invece, né la Borsa italiana (che fissa i requisiti per la quotazione) né la Consob fanno nulla di tutto questo. È l’impresa che si quota a pagare consulenti e avvocati per imbellettarsi, e convincere le autorità che tutto è a posto. (1)

Gli avvocati presentano alla Consob il prospetto, che sarà pubblicato per gli investitori, e l’elenco dei documenti sui quali il prospetto si basa. Nell’impresa c’è qualcosa che non va? Basta dire che il prospetto è compilato su un certo elenco di documenti, ed escludere da tale elenco le carte che potrebbero rivelare “grane”. Gli avvocati sono a posto: se una cosa non dichiarano di saperla, dimostrare che non si siano comportati correttamente è arduo.

Sarebbe interessante sapere quante volte la Consob si è spinta oltre commenti solo formali sul prospetto (è troppo lungo, o troppo corto; questo passaggio è poco chiaro; e cose del genere). E quali cambiamenti siano stati apportati (purtroppo le versioni preliminari del prospetto non sono pubbliche, e ci si deve accontentare di “voci”, non tutte rassicuranti).
Il fatto stesso che il prezzo di quotazione venga determinato senza che il prospetto dichiari quali ipotesi si facciano sui futuri flussi di cassa è indicativo.

Cosa succede nel resto del mondo? Anche altrove le autorità di controllo si affidano molto alla Borsa locale, ma in un contesto un po’ diverso. Mi pare che in Italia un maggiore controllo di Consob sarebbe forse auspicabile, quanto meno per i seguenti motivi:

– la Borsa italiana ha come prima esigenza far crescere il numero di società quotate: quali incentivi ha a effettuare una severa selezione delle imprese?

– mentre altri mercati che devono analizzare molte richieste di quotazione all’anno, possono avere team di analisti specializzati per settore, la Borsa italiana non li ha, e quindi la sua valutazione sulle società quotande è fatalmente più difficoltosa;

– in mercati più sviluppati, il collocamento avviene tramite investitori istituzionali, che svolgono un ruolo di controllo e una attività di due diligence che in Italia non sono effettuate da nessuno;

– le possibilità di controllo (ex-post) in Italia sono state da sempre più limitate (al di là delle critiche alla Consob, i confini imposti dalla normativa sono purtroppo risaputi.Vedremo cosa salterà fuori dalla riforma). Quindi una maggiore attenzione ex-ante sarebbe necessaria.

È forse il caso di ricordare che la sentenza della Cassazione civile n. 3132 del 3 marzo 2001 sancisce come la Consob sia responsabile della affidabilità delle informazioni diffuse sul mercato.
Per la verità, non sono sicuro che insistere sulla responsabilità civile della Consob rappresenti “la soluzione”, ma una maggiore attenzione sarebbe di gran lunga preferibile. Se non si vogliono dilatare i tempi della quotazione, forse sarebbe sufficiente verificare dopo la quotazione che le informazioni fornite all’atto dell’Ipo siano veritiere e complete.

Controlli ex-post: Parmalat e dintorni

Il presidente della Consob, Lamberto Cardia, si è lamentato, sostenendo che se la Consob avesse avuto la centrale dei rischi (banca dati in possesso della Banca d’Italia) avrebbe potuto intervenire sulla Parmalat.
Come ha messo in luce Giovanni Ferri su lavoce.info, questo nel caso Parmalat non è vero. Sia perché il grosso dei debiti Parmalat erano sull’estero, e quindi non sono in questa banca dati, sia perché la Consob, se avesse veramente voluto far qualcosa, doveva semplicemente chiedere quei dati alla Banca d’Italia. E la Banca (se anche avesse voluto) non avrebbe potuto negarli.
Ma la cosa curiosa è che la Consob non ha mai chiesto alla Banca d’Italia questi dati, né per Parmalat, né per altri casi. Perché? Forse sarebbero serviti a poco, ma resta piuttosto forte la sensazione che la Consob, come “vigilante”, abbia preferito un ruolo notarile. D’altronde, se il motto della Sec (l’equivalente americano) è “the investor’s advocate”, da noi è tuttora diffusa la dottrina secondo cui la Consob debba essere super partes (e non, invece, proteggere soprattutto gli investitori).

Nell’affaire Parmalat si mescolano le responsabilità di tanti, da questa parte come dall’altra dell’oceano, all’interno dell’impresa e fuori. Vi sono stati falsi (di cui forse solo a posteriori ci si poteva accorgere), ma è vero che una serie di osservatori da tempo sapevano che Parmalat non era in buona salute e che da sempre non dava informazioni chiare ed esaurienti.
Come denunciò Marco Vitale sul Corriere della Sera, è dal 1989 che alcuni investitori si lamentano della scarsa chiarezza delle comunicazioni societarie della Parmalat. Nel 1994, un articolo di Malagutti su “Il Mondo” denunciava il gioco delle tre carte della società: le obbligazioni Parmalat erano oggetto di scambi poco chiari, alla fine dei quali i quattrini sembravano moltiplicarsi come i pani e i pesci di evangelica memoria.
I bilanci Parmalat erano così “puliti” da non giustificare proprio alcuna reazione? Il presidente Cardia ha puntualmente elencato al Parlamento ciò che la Consob ha fatto. Sono interventi effettuati quando proprio non se ne poteva fare a meno, e quando ormai era tardi. Forse intervenire prima non avrebbe risolto il problema, ma almeno ora si potrebbe dire che qualcuno stava provando a suonare un campanello d’allarme.
Non è poi escluso che se la Consob avesse condotto ispezioni presso i revisori, qualcosa sarebbe saltato fuori per tempo. Ma purtroppo la vigilanza sui revisori è occasionale, e avviene solo su segnalazione di presunte irregolarità. Ovvero, si rischia di intervenire quando i buoi sono scappati. A quanto pare, infatti, la Consob ha un piano di vigilanza sistematico solo per gli intermediari, non per revisori e società quotate. E infatti esiste un ispettorato per gli intermediari (ventotto persone su un totale di quattrocento dipendenti), non per gli altri soggetti.

Ma allora serve rafforzare la Consob? Certo, le servono più poteri e più risorse, non negli uffici amministrativi, ma in quelli operativi. Soprattutto serve cambiare mentalità. Magari, se a tempo debito, i dirigenti Consob avessero alzato la voce con quelli della Parmalat …

Per saperne di più

Per una valutazione dei primi venti anni di attività della Consob, si rinvia a G. Nardozzi e G. Vaciago (a cura di) “La riforma della Consob nella prospettiva del mercato mobiliare europeo”, Il Mulino, 1994.

F. Vella, Gli assetti organizzativi del sistema dei controlli tra mercati globali e ordinamenti nazionali, in “Banca, impresa, società”, 2001, p. 351.

G. Visentini e A. Bernardo (2001) La responsabilità della Consob per negligenza nell’esercizio dell’attività di vigilanza, Documento del Ceradi, Luiss, Roma, scaricabile da http://www.archivioceradi.luiss.it/documenti/archivioceradi/impresa/banca/Consob_Bernardo.pdf

(1) Si ripresenta qui lo stesso problema di conflitto di interessi evidenziato da Luigi Guiso per i revisori dei conti: chi controlla le carte non è il controllore, ma qualcuno scelto e pagato dal controllato…

Cirio, Parmalat e il conflitto di interesse, di Luigi Guiso

Il conflitto di interesse – si verifica quando un soggetto a cui sono istituzionalmente assegnate alcune finalità da perseguire con il suo operato, può da questo trarre vantaggi personali, minando il raggiungimento delle finalità assegnate – può costituire, se non riconosciuto e controllato, una seria minaccia per gli investitori, fino a ostacolare lo sviluppo finanziario.
Mercati finanziari poco sviluppati sono, a loro volta, un impedimento alla nascita delle imprese, alla loro crescita dimensionale, alla produzione e adozione di nuove tecnologie. In altre parole, un limite allo sviluppo economico.
Il rapporto del Cepr e del Icmb, “Conflicts of interests in the financial services industry: what should we do about them?“, che verrà discusso in un incontro ad hoc e di cui
www.lavoce.info pubblica oggi un riassunto, mette a fuoco le origini del conflitto di interesse nei mercati finanziari, ne esamina le conseguenze e analizza i pro e i contro delle misure per fronteggiarlo.

Perché ci interessa?

Cirio e Parmalat sono vividi esempi in cui il conflitto di interesse di alcuni degli operatori coinvolti ha avuto un ruolo cruciale. Vediamo perché.

Parmalat. Vi è il fondato sospetto che la società di revisione abbia mancato di rivelare tutta l’informazione in suo possesso certificando bilanci alterati e falsificati, consentendo alla truffa imbastita dal management della Parmalat di perpetuarsi, a danno degli investitori. Perché avrebbe operato in questo modo esponendosi al rischio di una perdita di reputazione in un mercato, come quello degli auditor, relativamente competitivo? Perché chiudere un occhio sulle azioni scorrette del management garantiva il ripetuto rinnovo del contratto come revisore e possibilmente l’aggiudicazione di qualche contratto di consulenza. L’auditor era in conflitto di interesse.

Ma non era il solo. Il collegio sindacale, il principale organo interno di controllo, ma nominato dal management e retribuito dalla stessa società, era in una simile situazione. Perché esercitare un controllo contabile severo (come da compito istituzionale del collegio sindacale) se questo poteva urtare il management e compromettere la riconferma dei sindaci alla scadenza? Anche questi ultimi si trovavano in conflitto di interesse.
In conflitto di interesse era pure il consiglio di amministrazione formato esclusivamente da persone nominate dal manager e scelte spesso tra gli dirigenti del gruppo. Che incentivo potevano avere, qualora a conoscenza delle malversazioni contabili che si compivano, ad andare contro il manager se da questo dipendeva la loro riconferma come consiglieri e, per alcuni, la carriera futura?

Cirio. In questo caso pure è stato avanzato il sospetto che alcune banche esposte verso la Cirio abbiano trasferito il rischio ai loro depositanti, “collocando” nei loro portafogli obbligazioni Cirio, della cui rischiosità erano, a differenza dei clienti, consapevoli. Il conflitto di interesse origina in questo caso dal fatto che la banca è allo stesso tempo prestatrice di fondi alle imprese e consulente finanziario e gestore dei portafogli dei propri clienti.
Emerge con la banca universale, modello che l’Italia ha adottato con il nuovo ordinamento bancario del 1993. Il rischio di conflitto di interesse nella banca universale era noto già dall’intenso dibattito svoltosi negli Stati Uniti nel 1933 in preparazione del Glass-Steagall Act. Ferdinand Pecora, consulente del Banking and Currency Commitee, evidenziava: “Si presume che una banca intrattenga un rapporto fiduciario e protettivo con i propri clienti e non di un venditore (…). L’introduzione e la diffusione dei nuovi compiti ha corrotto le fondamenta di questa tradizionale etica della banca”.

Evidentemente l’etica non era sufficientemente robusta da resistere agli incentivi derivanti dallo sfruttamento del conflitto di interesse. In Italia, le avverse conseguenze del potenziale conflitto di interesse nel nuovo modello di banca universale dopo il 1993 sono state largamente sottovalutate. Il caso Cirio le ha fatte emergere, ma la loro portata è verosimilmente molto più vasta.

Che fare?

I casi Cirio e Parmalat hanno portato il Governo, su iniziativa del ministro del Tesoro, a varare un disegno di legge che nelle intenzioni dovrebbe contenere norme sufficienti a proteggere i risparmiatori da simili casi nel futuro.
Manca qui lo spazio per entrare in dettaglio nel merito del provvedimento.
Ma un fatto emerge con chiarezza: nel disegno di legge non vi è traccia di norme mirate a regolare il conflitto di interesse di amministratori e sindaci. Quelle indirizzate a regolare il conflitto di interesse delle società di auditing sono, come è stato rilevato, insufficienti.
Non vi sono norme che richiamino i conflitti di interesse delle banche e individuino misure per fronteggiarli. Eppure, sono i conflitti di interesse alla base della scarsa protezione dei risparmiatori.
Più in generale, delle varie misure che il rapporto del Cepr suggerisce per limitare lo sfruttamento dei conflitti di interesse e che sono elencate nel riassunto pubblicato, nessuna trova spazio nel decreto governativo.
Al Parlamento, il compito di rivedere il testo, contribuendo a riassorbire il pericoloso sentimento antifinanziario che si è sviluppato tra i risparmiatori del nostro paese.

La sanzione intelligente, di Michele Polo

Nel dibattito sollevato dalla sconcertante vicenda Parmalat, Luigi Zingales ha prospettato l’introduzione di uno strumento, utilizzato negli Stati Uniti per facilitare l’individuazione di condotte criminose all’interno delle organizzazioni. Consiste nella possibilità di premiare quanti, dall’interno delle organizzazioni stesse, rivelino informazioni cruciali per lo svolgimento delle indagini: i cosiddetti whistle-blowers.

È forse utile per inquadrare potenzialità e limiti di questa proposta analizzarla alla luce del problema di law enforcement che le autorità debbono affrontare nel perseguire i crimini attuati da organizzazioni, e nello specifico i cosiddetti corporate crimes. Inoltre, risulterà utile considerare questa proposta alla luce dell’esperienza di strumenti analoghi già utilizzati negli Stati Uniti e in Europa.

Un crimine in collaborazione

La principale caratteristica dei crimini commessi da organizzazioni, rispetto ai crimini individuali, risiede nella struttura più complessa e articolata del soggetto che promuove l’azione illegale, che richiede il coinvolgimento e la collaborazione di molti individui.
All’interno di una organizzazione, inoltre, i benefici delle azioni illegali non sono ripartiti in egual modo tra tutti i soggetti che, con ruolo direttivo o esecutivo, partecipano alla loro realizzazione. Infine, le sanzioni, pecuniarie e penali, possono colpire molti soggetti all’interno dell’organizzazione, con ruoli e responsabilità diverse.
Nella vicenda Parmalat, ad esempio, ogni giorno apprendiamo nuove informazioni sulle tecniche di manipolazione contabile e di equilibrismo finanziario che hanno permesso l’accumularsi degli ingenti ammanchi, e di come numerosi uffici e funzionari partecipassero a queste operazioni.
I corporate crimes, pertanto, pur potendo determinare conseguenze ben più devastanti di quelle innescate dalla condotta delittuosa di un singolo soggetto, hanno in sé un elemento di debolezza che può essere sfruttata nel disegno delle politiche repressive e di indagine: la collusione (omertà) tra i soggetti promotori dell’azione delittuosa può saltare, con una conseguente diffusione di notizie preziose per le indagini.
Contro questa fragilità sono naturalmente molti gli strumenti che una organizzazione può mettere in campo, dai benefici monetari allargati ai membri attivi della malversazione (come non pensare al signor Fausto Tonna) alle sanzioni “sociali” che possono creare terra bruciata attorno a quanti rivelano informazioni preziose per le indagini.

Il disegno di una politica repressiva intelligente deve tenere conto di questi fattori messi in campo dalle organizzazioni per garantire la propria coesione e omertà, e prevedere incentivi adeguati a neutralizzarli.
L’analisi economica dell’applicazione della legge da questo punto di vista offre importanti spunti e riferimenti, che possiamo sintetizzare in questo modo:

1. L’incentivo dei singoli soggetti di una organizzazione a rivelare informazioni utili è relativamente basso quando le indagini non hanno ancora puntato l’attenzione sulla vicenda che li coinvolge: in questa fase, infatti, a fronte dei benefici che i soggetti ricevono dal partecipare all’azione delittuosa, il pericolo di subire l’azione della legge appare remoto.

2. Gli incentivi alla collaborazione, invece, risultano molto più elevati, inducendo a collaborare alle indagini, una volta che una inchiesta sia aperta, o almeno i rumors su eventuali malversazioni inizino a circolare. È in questa fase che tipicamente si osserva il moltiplicarsi delle collaborazioni (si pensi anche al periodo delle inchieste di Mani Pulite).

3. Maggiori sono i benefici offerti a quanti collaborano, più efficace risulta lo strumento. Se ad esempio viene previsto non solo l’annullamento della sanzione (monetaria o penale), ma addirittura un premio a quanti collaborino, come proposto da Zingales, l’incentivo a rompere l’omertà potrebbe essere sufficiente a far emergere rivelazioni anche in assenza di indagini già avviate.

4. La capacità delle imprese di “comprare” l’omertà dei propri dipendenti e funzionari è minore quando questi ultimi rischiano sanzioni penali, mentre è facilitata da un clima sociale omertoso che condanna la collaborazione.

I Leniency Programs

La politica di protezione nei confronti dei collaboratori di giustizia nelle indagini contro il crimine organizzato risponde sostanzialmente a questa logica. Queste indicazioni sono anche alla base della politica sanzionatoria adottata dalle autorità antitrust americana ed europea.
Il dipartimento di Giustizia americano è stato l’apripista nell’utilizzo dei cosiddetti “Leniency Programs”, programmi di riduzione o annullamento delle sanzioni monetarie e penali nei confronti dei soggetti coinvolti in pratiche di cartello che collaborino alle indagini.
Sono stati creati partendo dalla constatazione che i corporate crimes non erano adeguatamente scoraggiati da sanzioni anche pesanti, senza una sufficiente capacità (probabilità) di arrivare alla condanna.

Introdotti nel 1978, i Leniency Programs prevedevano inizialmente uno sconto nella sanzione solamente nel caso in cui i manager delle aziende coinvolti rivelassero informazioni prima che una indagine venisse avviata. In questa formulazione si rivelarono scarsamente efficaci, con uno o due casi ogni anno avviati sulla base di queste rivelazioni. Nel 1993 i criteri vennero riformati, prevedendo la possibilità di riduzioni, anche complete, nelle sanzioni penali qualora la collaborazione alle indagini fosse sostanziale e avvenisse anche dopo l’avvio delle indagini stesse.

Con queste nuove regole l’efficacia dei Leniency Programs americani si è fortemente potenziata, con una media di venticinque casi all’anno conclusi con successo.

La Commissione europea a partire dal 1996 ha introdotto strumenti analoghi, ulteriormente affinati nel 2002.
La lezione che ci viene dall’esperienza sanzionatoria in materia antitrust ci permette di imparare qualcosa di utile anche in materia di crimini finanziari.
Gli sconti nelle sanzioni (o addirittura i premi) non sono un sostituto per gli sforzi di indagine indipendente da parte delle autorità di vigilanza, dal momento che risultano più efficaci proprio quando le indagini iniziano a stringere il cerchio attorno alle condotte criminali. Così come la capacità di indagine e verifica sulle rivelazioni appare cruciale per evitare di essere catturati da collaboratori “infedeli”.

Gli sconti nelle sanzioni, d’altra parte, consentono più rapidità nel concludere le indagini e un accertamento più pieno dei fatti (e delle risorse distratte). Gli sconti, inoltre, alzando il prezzo della fedeltà dei dipendenti coinvolti in condotte delittuose, riducono il profitto delle imprese derivante da tali condotte. Possono quindi operare indirettamente da deterrente rispetto a questi comportamenti.
Infine, una cultura della legalità è background necessario per affiancare alla sanzione della legge quella sociale, e al premio al collaboratore il suo apprezzamento da parte della collettività.

Per saperne di più

M.Polo, Internal Cohesion and Competition among Criminal Organizations, in S. Pelzman e G. Fiorentini (eds.), The Economics of Organized Crime, Cambridge U.P. pp. 87-108, 1995.
M.Polo, Cosa Nostra: ritratto di un interno. Coesione e strutture, in Secondo Rapporto sulle priorità nazionali, Fondazione Rosselli, Milano, Mondadori (1995).
F.Ghezzi, M.Polo, Osservazioni sulla politica sanzionatoria della Commissione in materia antitrust: la Comunicazione sulla non imposizione di ammende, Rivista delle Società , v. XLIII, n.2-3, pp.682-731, 1998.
M.Motta, M.Polo, Leniency Programs and Cartel Prosecution, International Journal of Industrial Organization, 21 (3), 347-380, 2003

Il denunciante civico: il lato oscuro della forza, di Vincenzo Perrone

La storia di Parmalat sembra essere la conferma definitiva del noto proverbio: chi trova un amico trova un tesoro. Almeno fino a quando non arriva la Guardia di finanza. A Parma gli amici venivano tutti dallo stesso istituto di ragioneria, si conoscevano da anni, cambiavano società di revisione, ma mantenevano lo stesso cliente. Al centro di tutto vi era il nocciolo duro della famiglia: figli, zii, forse nipoti.

Dal capitale sociale…

Le relazioni economiche sono immerse in una rete di relazioni sociali. Legami di sangue, di amicizia, di fiducia e lealtà, di clan e dialetto, di comunanza culturale, religiosa o ideologica, aiutano a scegliere le parti con le quali preferibilmente scambiare, ci spingono a rischiare di più in queste relazioni economiche e ci consentono di farle durare nel tempo.
Queste relazioni hanno un tale valore per l’azione economica che negli studi organizzativi da qualche tempo si è cominciato a parlare di capitale sociale per intendere proprio le maggiori possibilità di azione e di successo economico di cui gode l’attore che ha una dotazione elevata di relazioni sociali positive e con attori potenti, competenti, ricchi e affidabili, quanto e più di lui. Si è scoperto che quanto più elevato è il capitale sociale di un individuo, tanto più facile sarà per lui trovare un nuovo lavoro, o un’azienda partner per un accordo di joint-venture, o un banchiere disposto a prestargli soldi.
Il capitale sociale è una forza che riduce anche la complessità delle forme organizzative di governo degli scambi: se possiamo fidarci delle persone che abbiamo nella nostra rete di relazione, avremo meno bisogno di strumenti di controllo organizzativo costosi, come le regole formali o la gerarchia.

Il capitale sociale sostiene la produzione e la riproduzione del capitale economico: lo sapeva bene Georges Duroy l’arrivista assoluto detto “Bel-Amì” e con lui tutti i frequentatori di salotti e terrazze importanti. Lo sanno quanti operano in un distretto industriale e si occupano di alleanze tra imprese, o coloro che affidano alla società di consulenza dove hanno iniziato una brillante carriera la ricca commessa che ora possono firmare come amministratore delegato di un’impresa.

…Al familismo amorale

Del capitale sociale si parla quindi bene. Forse troppo. Nella vicenda Parmalat, relazioni personali di parentela e di amicizia, reti chiuse e cementate dalla fiducia e dalla conoscenza personale hanno svolto un ruolo tale da consentire il protrarsi di una truffa di quelle dimensioni per ben quindici anni.
Esaminata da questa prospettiva la storia dell’azienda, del suo fondatore e della rete di relazioni che ha saputo sviluppare nel tempo ci ricorda che il capitale sociale è neutro rispetto alle finalità dell’azione che sostiene: può aiutare a raggiungere i propri scopi Gino Strada come Totò Riina.
E può produrre esiti negativi di entità preoccupante.
Può fare assomigliare Parma a Montegrano, il nome fittizio scelto negli anni Cinquanta dal sociologo statunitense Edward C. Banfield per il paese della Basilicata emblema del nostro “familismo amorale”. Ovvero la tendenza a restringere la validità e l’obbligo di rispetto delle norme morali alla sola ristretta cerchia delle proprie relazioni familiari, sviluppando una contrapposizione netta tra famiglia (e famigli), per il bene dei quali tutto si giustifica, e società in generale.
Può trasformare la rete di relazioni amicali e di fiducia in una trappola nella quale si fa forza sui “debiti” e “crediti” sociali per ottenere acquiescenza, se non proprio connivenza, rispetto a comportamenti scorretti. O più semplicemente può stendere un velo opaco di benevola presunzione pro-reo che riduce l’incisività dei controlli, ritarda i dubbi e le verifiche, lascia prosperare il male.

Un sostituto del capitale finanziario

Verrebbe da pensare che in quella fondamentale componente del capitalismo italiano rappresentata dalle aziende a proprietà familiare, il capitale sociale sia stato usato al posto di quello finanziario per sostenere la crescita senza perdere il controllo.
Rivolgersi all’amico banchiere o farsi consigliare fantasiose e ardite operazioni societarie da qualche esperto, non meno vicino e disponibile, forse costa e preoccupa meno di aprirsi al mercato dei capitali, di fortificare le proprie strutture organizzative con immissione di manager capaci e relativamente indipendenti e di distinguere in modo più netto e trasparente il patrimonio aziendale da quello familiare.
L’era moderna comincia quando le relazioni tra estranei sono rese possibili e vantaggiose da un sistema di regole definito e fatto rispettare da una autorità legittimata, da diritti e doveri, individuali e collettivi, impersonali e universali, dall’autodisciplina determinata dalla necessità di competere in modo ordinato nel processo di allocazione di risorse scarse. Senza questi ingredienti essenziali il capitale sociale, da solo, rischia di essere il pericoloso pretesto per un salto all’indietro in un mondo nel quale la fedeltà conta più della fiducia.
Dobbiamo allora imparare a osservare meglio anche il lato oscuro del capitale sociale. E darci gli strumenti che possano servire a spezzare questa utile, ma a volte pericolosa rete di legami.

Whistle-blower e spie

Negli Stati Uniti nel gennaio del 2002 è stata varata una nuova legge, nota come “Sarbanes-Oxley Act”, che ha come finalità dichiarata quella di proteggere gli investitori migliorando l’accuratezza e l’affidabilità delle informazioni offerte dalle aziende e più in generale della loro gestione contabile e finanziaria. Nata come reazione decisa ai noti scandali, resta da vedere quanto sarà efficace.
Questa legge, oltre a prevedere fino a venticinque anni di galera per chi si rendesse colpevole di frodi al mercato azionario, parla della protezione del “whistle-blower”, letteralmente del soffiatore di fischietto. La spia, diremmo forse malignamente noi, visto che il colpo di fischietto serve per richiamare l’attenzione di chi sta fuori dall’azienda su cose non troppo pulite che vengono fatte e occultate all’interno.
La copiosa letteratura organizzativa che esiste sul fenomeno del whistle-blower, lo definisce infatti come colui o colei che fornisce informazioni a terzi relativamente ad azioni compiute dalla propria azienda, che potrebbero danneggiare altri o l’interesse pubblico, perché illegali o socialmente dannose. Corruzione, falso in bilancio, inquinamento, reati contro il diritto del lavoro, tanto per fare qualche esempio tra i casi più studiati.
Ci si è chiesti cosa motiva questo delatore a fin di bene. Valori morali a parte, la risposta sta nel calcolo dei benefici che si possono ottenere impedendo all’azienda di continuare nel proprio comportamento criminale in rapporto ai costi della denuncia. Costi in primo luogo determinati dalle ritorsioni che è lecito aspettarsi da parte dei manager responsabili dei comportamenti illeciti.

La mano pubblica può intervenire per rendere più conveniente questo calcolo e incentivare quindi le denunce dall’interno. Il Sarbanes-Oxley Act prevede espressamente per il whistle-blower la totale compensazione di qualsiasi danno dovesse subire a causa delle ritorsioni aziendali.
Ma si potrebbe essere ancora più proattivi, come proposto da Luigi Zingales proprio su lavoce.info, prevedendo premi proporzionali al danno evitato alla collettività o agli investitori con la denuncia.
Molti scandali italiani, a cominciare da tangentopoli, sono caratterizzati da una compatta omertà aziendale che curiosamente non ha attratto finora l’attenzione che forse meriterebbe.

Questo anche se la solitudine del politico che intasca la mazzetta richiede spesso una organizzazione criminale meno articolata e sofisticata di quella che l’azienda che gliela vuole dare deve mettere in piedi. E per tenere in vita una truffa enorme per quindici anni su scala globale occorre probabilmente coinvolgere un numero cospicuo di persone. Tutte pronte a parlare. Dopo. E tutte pronte a dire la stessa cosa: che eseguivano ordini irrifiutabili provenienti dall’alto.
Se l’onestà non paga, bisogna cambiare gli incentivi che la rendono la scelta migliore.
E magari cominciare a insegnare ai nostri figli una tiritera diversa da “chi fa la spia non è figlio di Maria…”

L’analisi finanziaria si è fermata a Parma, di Giuseppe Montesi

Il recente fallimento di Parmalat ha chiamato in causa la capacità di analisi e di controllo della comunità finanziaria. Tutti si chiedono come sia stato possibile che per anni nessuno tra banche, società di rating e di revisione in Italia e all’estero si sia accorto della reale situazione del gruppo.
Ormai è certo che da lungo tempo i dati contabili dell’azienda venivano alterati in modo da fornire una visione ufficiale distorta delle effettive condizioni finanziarie. Tuttavia, ci sembra che oggi l’attenzione sia concentrata prevalentemente sulle frodi contabili operate dal management, e sulle presunte distrazioni di fondi da parte del maggiore azionista. Elementi estremamente importanti, che però rischiano di far passare in secondo piano gli aspetti economici della vicenda.

Un rischio prevedibile

Immaginare che il “buco” di miliardi di euro sia solo il frutto di una appropriazione illecita di fondi è infatti difficile.
È invece molto più probabile che buona parte del “buco” sia il risultato di una gestione non redditizia del business, conseguenza di una politica di acquisizioni insensata e investimenti sbagliati.
È infatti possibile dimostrare (e si rinvia all’articolo di approfondimento per i dettagli dell’analisi) che anche prescindendo dai falsi in bilancio, era comunque possibile stimare per tempo l’effettivo rischio finanziario del gruppo Parmalat utilizzando correttamente le tecniche di analisi finanziaria. E intuire che i conti ufficiali dovevano necessariamente nascondere qualcosa.
Si deve comunque sottolineare che fino alla fine del 2003 la comunità finanziaria non scontava un grave rischio di crisi finanziaria imminente per Parmalat.

Fino a dicembre, l’azienda godeva di un rating ufficiale di Standard&Poor’s pari a BBB- . Secondo S&P corrisponde a una probabilità di default pari a 0,43 per cento entro un anno e a 1,36 per cento a due anni. Anche gli spread di mercato sui bonds Parmalat sono aumentati solo nel mese di novembre, quando sono sorti i primi dubbi sul fondo Epicurum.
I target price sul titolo azionario Parmalat delle maggiori banche di investimento erano in linea con le quotazioni di mercato, che negli ultimi anni, si sono di solito collocate tra i 2 e i 3 euro. Pertanto la capitalizzazione di mercato del capitale azionario presentava valori compresi tra 1.6 e 2.4 miliardi di euro, e un valore complessivo delle attività operative dell’azienda (Enterprise Value) compreso tra i 5 e i 5.8 miliardi di euro. (1)

Questi dati consentono di mettere in evidenza alcune anomalie.

1. Nell’ultimo consuntivo del 2002 Parmalat aveva debiti finanziari per quasi 6 miliardi di euro, ovvero un valore superiore al suo valore complessivo di mercato.

2. Il valore della capitalizzazione di mercato della società risultava inferiore a quello della presunta liquidità dichiarata, che era di oltre 3 miliardi di euro.

Troppa liquidità

Queste evidenze rappresentano una prima grossa stranezza e incoerenza che avrebbe dovuto far riflettere: una buona parte del valore di Parmalat era costituito da disponibilità liquide.
Inoltre, il capitale azionario aveva un valore solo in quanto vi erano disponibilità liquide, il cui valore dichiarato risultava maggiore rispetto alla capitalizzazione di mercato della società: un paradosso. Tanto che, se questi dati fossero stati veri, agli azionisti sarebbe convenuto distribuire tutta la liquidità esistente come dividendo ricavandone così un valore della partecipazione superiore a quello dato dalla vendita delle azioni sul mercato.
Se ne può quindi dedurre che evidentemente la gestione operativa di Parmalat non era tanto redditizia, quanto meno non abbastanza da supportare quel livello di indebitamento.
È bene soffermarsi su questo aspetto. E sottolineare come, da un punto di vista economico, non esistono debiti alti o bassi, ma esistono debiti sostenibili o insostenibili: i dati dicevano che l’indebitamento di Parmalat non era più sostenibile dal business aziendale.
La solvibilità del gruppo e le aspettative sulla capacità di rimborso del debito quindi dovevano risiedere in gran parte nella liquidità accumulata e non nelle capacità prospettiche di generare flussi di cassa.
Questa considerazione avrebbe dovuto far riflettere su una seconda stranezza: perché mai una società con consistenti disponibilità liquide, ben superiori alle esigenze fisiologiche di flessibilità finanziaria di una multinazionale come Parmalat, continuava negli anni a mantenere livelli di debito così elevati da risultare non più sostenibili dal business aziendale? Risposte convincenti al riguardo non sono mai state date dalla società, né tanto meno era possibile desumerle dalla normale logica economico-finanziaria.

Uno scenario improbabile

È agevole verificare l’assoluta incoerenza di un simile scenario. Se la liquidità era veramente disponibile non vi erano ragioni perché si continuasse a finanziare una società che aveva risorse finanziarie in abbondanza. Se questa non era invece “disponibile”, era logico presumere che fosse “necessaria”, importa poco per quali fini, alla gestione dell’azienda. E allora in questo caso non si capisce perché si sia continuato a dare credito a una società il cui valore complessivo non copriva ormai più da tempo il valore del debito.
È forse vero che sulla base delle informazioni disponibili non era possibile immaginare una situazione deficitaria delle dimensioni che sembrano emergere. Tuttavia, alcuni segnali inequivocabili sullo stato di salute dell’azienda c’erano da molto tempo. Purtroppo sono stati ignorati o non correttamente valutati da parte dell’intera comunità finanziaria internazionale. Ciò suggerisce che probabilmente occorrerebbe rivedere alcuni aspetti alla base dei processi di analisi e controllo del rischio finanziario, e riflettere maggiormente sui pericoli di alcuni meccanismi di funzionamento dei mercati finanziari che tendono spesso a essere autoreferenziali e ad adottare comportamenti emulativi.

(1) Su come sono ottenuti questi valori si faccia riferimento all’articolo di approfondimento.

Cos’è il decreto Parmalat, di Lorenzo Stanghellini

E’ ormai avviata per le principali società del gruppo Parmalat (Parmalat Spa e Parmalat Finanziaria Spa) la procedura accelerata di amministrazione straordinaria (da non confondere con l’amministrazione controllata) (1) disegnata dal Governo con il decreto-legge approvato subito prima di Natale proprio per rispondere alla crisi della società di Collecchio. In cosa consiste questa procedura?

Dalla “legge Prodi” alla “Prodi-bis”

Approvata d’urgenza nel 1979, la cosiddetta legge Prodi sull’amministrazione straordinaria delle grandi imprese in crisi (legge 95) prevedeva la pura continuazione dell’attività delle imprese insolventi in vista di un miracolo da attendere per anni a spese dei creditori. È stata abrogata nel 1999 dopo un lungo contenzioso con le istituzioni europee, che a più riprese avevano condannato l’Italia per la violazione delle regole sugli aiuti di Stato alle imprese, e sostituita con una normativa più flessibile, comunemente definita “Prodi-bis” (decreto legislativo 270).

La normativa del 1999 si applica alle imprese con almeno duecento dipendenti e prevede alternativamente:
(a) la cessione dei complessi aziendali dell’impresa insolvente: in attesa di trovare un acquirente vengono mantenuti in attività per un periodo massimo di un anno;
(b) la ristrutturazione economica e finanziaria dell’impresa insolvente, da completare entro un periodo massimo di due anni.
Quale obiettivo debba essere perseguito viene deciso al termine di una fase di analisi che dura da due a cinque mesi. Se nessuno dei due obiettivi sembra ragionevolmente raggiungibile (quando ad esempio l’attività distrugge irrimediabilmente ricchezza, sì che non è ragionevole sperare di trovare acquirenti), l’impresa viene dichiarata fallita.

Quali sono le deroghe

Le deroghe introdotte dal decreto Parmalat alla Prodi-bis del 1999 si applicano alle aziende con almeno mille dipendenti (e debiti per almeno un miliardo di euro). Tali deroghe, che mirano ad una accelerazione della procedura, sono essenzialmente le seguenti, concentrate soprattutto nella fase di avvio:

(a) la decisione sull’indirizzo da scegliere (la ristrutturazione) è immediata, senza la fase di analisi, ed è lasciata all’impresa e al ministro (e non al tribunale);

(b) il ministro (e non il tribunale) sceglie il commissario straordinario. Nel caso Parmalat il Ministro ha nominato Bondi, persona indipendente dagli azionisti di controllo, che era già presidente delle società insolventi e che ha pertanto assunto anche le nuove funzioni;

(c) il commissario può fare dismissioni immediatamente, anche prima dell’approvazione del programma, purché con l’approvazione del ministro (l’1,5% di Mediocredito Centrale ceduto ieri a Capitalia è la prima
dismissione e il Parma calcio potrebbe seguire a breve);

(d) il commissario può proporre le azioni revocatorie (cioè di impugnativa degli atti posti in essere dalla società e di restituzione dei pagamenti da essa effettuati), che di regola possono essere proposte solo in fase di liquidazione del patrimonio (Parmalat è invece in corso di ristrutturazione).

Secondo le stesse regole della Prodi-bis, Parmalat dovrà completare la ristrutturazione economica e finanziaria entro due anni. Se non lo farà, e salvo normative di salvataggio, si procederà alla liquidazione dei suoi beni.

Perché una legge “ad hoc”?

C’era bisogno di una legge speciale? No, se si fosse fatta la riforma delle procedure ordinarie, che quando sono sufficientemente rapide e flessibili (come in alcuni progetti di legge già presentati) rispondono perfettamente anche a crisi di grandissime imprese come la Parmalat. Con l’attuale normativa, invece, la rapidità della crisi di Parmalat e l’esigenza di garantire continuità alla sua attività hanno creato lo spazio per un intervento d’emergenza. Rapidità e flessibilità dovrebbero tuttavia caratterizzare tutte le procedure, per grandi e piccole imprese, ed il decreto Parmalat è la conseguenza dell’incapacità politica di giungere ad una riforma generale della legge fallimentare.

Non si comprende, però, perché l’accelerazione dell’avvio della procedura abbia portato al rafforzamento dei poteri del ministro: lo stesso risultato poteva essere raggiunto anche lasciando i poteri al tribunale. Sembra quindi che la gravità della crisi sia stata la scusa per preparare la strada a decisioni meno trasparenti – ma questo, per ora, è solo un processo alle intenzioni.

Un salvataggio statale?

Sembra invece fuori luogo gridare al salvataggio statale, almeno nella sua versione attuale. E’ importante ricordare cosa fosse già presente nella Prodi-bis del 1999: il decreto Parmalat altro non è se non una procedura di amministrazione straordinaria accelerata, che evita – ad esempio – l’inutile periodo di “analisi” che si è avuto per la Cirio e le incertezze connesse a tale ritardo.
E’ infatti evidente che l’attività di Parmalat doveva innanzitutto essere continuata, soprattutto nell’interesse dei creditori, e sarebbe stata continuata anche con la Prodi-bis. Può darsi (ed è anzi probabile) che Parmalat abbia distrutto ricchezza, ma ciò non è una buona ragione per distruggere anche quella (poca o tanta) che resta. Invocare il fallimento come sanzione per gli errori o i per i falsi compiuti dai manager e dai controllori è operazione antistorica, che trascura che i primi ad essere puniti sarebbero in questo caso i creditori: la punizione per gli azionisti resta comunque. Si valuti dunque con calma quali attività di Parmalat debbono essere cessate o ristrutturate, ma nel frattempo occorre tenerle in vita. E’ semplice fare di un acquario un fritto misto, mentre l’operazione contraria è più difficile.
Nessun aiuto di Stato, inoltre, è previsto dal decreto Parmalat. Certo, non si può escludere che in futuro vengano erogati aiuti di Stato a Parmalat o ai soggetti colpiti dal suo dissesto: saranno tuttavia quelli a dover essere valutati alla luce dei principi comunitari ed eventualmente a dover essere criticati. Anche la deroga per le azioni revocatorie (vedi sopra) è un regime di favore e può configurare una anomala forma di finanziamento di Parmalat, ma non è di per sé un aiuto di Stato. (2) Essa è quindi discutibile proprio in quanto deroga, ma è inutile invocare Bruxelles: per criticarla basta il principio di eguaglianza previsto dalla Costituzione italiana.

Strumenti per la ristrutturazione finanziaria

Il decreto Parmalat rappresenta tuttavia un’occasione perduta per ampliare la gamma degli strumenti di soluzione delle crisi d’impresa, che nel nostro paese è veramente molto ristretta e che tale è rimasta.
Per Parmalat il Governo ha scelto la seconda delle due alternative possibili secondo la Prodi-bis del 1999. Quella che mira a effettuare, assieme a una ristrutturazione industriale, anche una ristrutturazione finanziaria. Tuttavia, mentre il commissario straordinario ha sostanzialmente pieni poteri sul lato industriale, non ha alcun potere di incidere sul lato dell’indebitamento: per ristrutturare il passivo deve ottenere il consenso di ciascuno dei creditori, ai quali può offrire quote di capitale (azioni o obbligazioni convertibili in azioni) solo se l’assemblea dei soci lo consente. (3)
Anche nella “variante Parmalat” dell’amministrazione straordinaria, l’unica possibilità di “ristrutturare” il passivo è dunque quella di un concordato (articolo 78 decreto legislativo 270/1999), che consente di modificare le condizioni del debito con l’autorizzazione del tribunale.
Il concordato è però strumento alquanto rigido, perché include tutti i creditori non garantiti in un unico grande gruppo e richiede, come nel caso Parmalat, che migliaia di creditori (banche, obbligazionisti, etc.) siano trattati esattamente allo stesso modo, salvo un loro consenso individuale a un trattamento peggiore.
Questa carenza della legislazione italiana e di molti paesi europei (esclusa la procedura tedesca che divide i creditori in classi, e quella americana di Chapter 11 che addirittura consente di attribuire ai creditori anche azioni della società ristrutturata), non è minimamente sanata dal decreto Parmalat, che si limita ad accelerare la procedura di amministrazione straordinaria così com’è.

Si deve dunque ritenere che il compito di Enrico Bondi sia destinato a fallire? Forse no, soprattutto se il Parlamento e il Governo, sollecito ma non molto fantasioso, gli daranno più armi al momento in cui il “decreto Parmalat” dovrà essere convertito in legge.

(1) L’amministrazione controllata produce infatti una mera sospensione delle azioni dei creditori in vista di un risanamento più o meno spontaneo, ed è quindi poco adatta a situazioni di crisi che richiedono interventi energici e incisivi. È scarsamente utilizzata nella pratica.

(2) Corte di Giustizia delle Comunità Europee, caso PreussenElektra AG del 2001 (caso C-379/98).

(3) Quando il passivo supera l’attivo, i soci hanno interesse a consentire l’ingresso dei creditori nel capitale solo se viene loro riservato qualche vantaggio, quale ad esempio il mantenimento di una quota di minoranza che a loro non spetterebbe sulla base dei dati patrimoniali della società

Riforma fiscale, le verità nascoste

Sommario, a cura di Tullio Jappelli

La riforma delle aliquote dell’IRE e la sostituzione delle detrazioni di imposta per carichi famigliari con deduzioni dal reddito rappresentano, per il Governo, il fiore all’occhiello dell’intera legge finanziaria; lavoce.info documenta gli effetti della riforma dell’IRE e degli altri provvedimenti previsti in finanziaria sulla pressione fiscale complessiva, le conseguenze per la distribuzione dei redditi e l’aumento del numero di aliquote effettive implicite nella riforma fiscale. Propone anche i risultati di un sondaggio sull’opportunità di tagliare le imposte e sui possibili effetti della riforma fiscale sui consumi degli italiani.

Vero o falso, di Maria Cecilia Guerra

L’emendamento alla Finanziaria presentato lunedì 29 novembre dal Governo è destinato a fare discutere ancora a lungo. È bene però che la discussione avvenga sulla base di una corretta informazione.
Segnaliamo allora ai nostri lettori due casi di informazione non corretta.

1) La no tax area

Affermazione.

“Per effetto dell’emendamento del Governo la no tax area passerà da 7.500 euro a circa 14mila euro per un lavoratore dipendente con due figli a carico”.
L’affermazione è falsa

Che cosa è infatti la no tax area?
Con questo termine (che come tale non compare in nessun testo di legge) ci si riferisce generalmente alla deduzione dal reddito imponibile concessa a tutti i redditi Irpef, in misura diversa in relazione alla loro tipologia (redditi di lavoro dipendente, autonomo, pensione e altri) e del loro ammontare. Per un lavoratore dipendente essa è pari a 7.500 euro e decresce al crescere del reddito per annullarsi in corrispondenza di un reddito di 33.500 euro.
La “no tax area” così definita non viene modificata dall’emendamento del Governo.
Per la particolare figura considerata (lavoratore dipendente con coniuge e due figli a carico) il valore massimo che essa può assumere

passa da 7.500 euro a 7.500 euro

Nel dibattito recente lo stesso termine “no tax area” viene utilizzato per individuare il valore massimo di reddito che si può ottenere senza dovere pagare neanche un euro di imposta e cioè il valore massimo di reddito esente da imposta. Questa seconda no tax area dipende non solo dalla deduzione di cui al punto precedente, ma anche dalle agevolazioni riconosciute per carichi famigliari. Le agevolazioni per carichi famigliari non sono state introdotte dall’emendamento governativo. Esistono già nel nostro ordinamento sotto forma di detrazioni dall’imposta (riduzioni cioè dell’imposta dovuta). L’emendamento del Governo trasforma queste detrazioni in deduzioni (riduzioni del reddito a cui si applica l’imposta) e ne ridefinisce l’ammontare. Rispetto alla situazione precedente, il beneficio in termini di minore imposta pagata dal contribuente aumenta per redditi bassi e diminuisce per redditi medio alti. Se si tiene conto della deduzione di cui al punto precedente e delle agevolazioni per carichi famigliari, la no tax area intesa in questa seconda accezione, per la particolare figura considerata (lavoratore dipendente con coniuge e due figli a carico)

passa da 12.828,5 euro a 14.034 euro

2) Il contributo di solidarietà

Affermazione
“È introdotto un contributo di solidarietà del 4 per cento oltre i 100mila euro, che servirà per aumentare le deduzioni alle famiglie a basso reddito” o anche “che servirà per finanziare la deduzione prevista per le spese sostenute per le badanti”.
L’affermazione è falsa.

L’emendamento interviene sulla struttura delle aliquote modificandola nel modo seguente:


Scala delle aliquote attuale

Scaglioni in euro

Aliquota legale

Fino a 15000

23

da 15000 a 29000

29

da 29000 a 32600

31

da 32600 a 70000

39

oltre 70000

45

Scala delle aliquote secondo l’emendamento

Scaglioni in euro

Aliquota legale

Fino a 26000

23

da 26000 a 33500

33

Da 33500 a 100000

39

oltre 100000

43 = 39 +4 (aliquota legale + contributo di solidarietà)

Come si può notare le aliquote di imposta sono di fatto, dopo la riforma, quattro invece che cinque. Per farle apparire in un numero inferiore (tre, più prossimo alle due previste dalla delega), la quarta viene costruita come somma della terza più un “contributo di solidarietà” del 4 per cento. L’effetto è assolutamente identico a quello che si otterrebbe prevedendo esplicitamente una quarta aliquota.
Per la parte di reddito che eccede i 100mila euro l’aliquota dell’imposta cala quindi dall’attuale 45 per cento al previsto 43 per cento (39 di aliquota legale più 4 per cento di contributo di solidarietà). Come può uno sgravio di imposta essere utilizzato per finanziare l’aumento delle deduzioni alle famiglie a basso reddito? O la deduzione per le badanti?

Le famiglie dopo la riforma fiscale, di Massimo Baldini e Paolo Bosi

Con la presentazione al Senato dell’emendamento sulla riforma dell’Ire, la riforma fiscale ha raggiunto un sufficiente grado di definizione. In ogni caso, è sulla base di esso che i cittadini potranno misurare il grado di realizzazione dei programmi del Governo in questa legislatura.
La riforma dell’Irpef è stata realizzata, come noto, in due fasi, la prima delle quali è stata attuata nel 2003. Qui facciamo il punto della valutazione dei suoi effetti, considerando dapprima il secondo modulo, varato con la Finanziaria per il 2005, e presentando successivamente elementi di valutazione sulla riforma complessiva.

Il secondo modulo

Dopo un mese di vivace discussione all’interno della maggioranza, che a un certo punto è sembrata sfociare nella rinuncia al varo del secondo modulo, dall’emendamento finale emerge una struttura dell’Ire a tutti gli effetti di quattro aliquote dal 23 al 43 per cento. Su questo aspetto ci siamo già soffermati in un precedente articolo .
L’aspetto più innovativo a cui ha portato il dibattito delle ultime settimane è costituito da una nuova struttura di deduzioni per carichi di famiglia (coniuge, minori), con interventi di favore nei confronti dei minori con meno di tre anni o portatori di handicap e deduzioni per spese per servizi di cura . Scompaiono quindi le vecchie detrazioni per famigliari a carico e anche la detrazione speciale per dipendenti, autonomi e pensionati. È da segnalare che, rispetto agli annunci di un mese fa, nell’emendamento non v’è traccia dell’aumento degli assegni familiari. Il costo di questa tranche di riforma è valutabile in 6,5 miliardi di euro.
La tabella 1 mostra la distribuzione degli sgravi fiscali medi per livelli di reddito imponibile, sui contribuenti individuali. Vengono confermati gli aspetti di iniquità distributiva della misura già segnalati: in sintesi, al 50 per cento più povero dei contribuenti va il 12,5 per cento dello sgravio mentre il 16,5 per cento dei contribuenti più ricchi gode del 60 per cento del totale.
Nella figura 1 le barre mostrano la distribuzione di frequenza dei contribuenti per classi di reddito complessivo, mentre la linea indica il risparmio medio di imposta per ogni classe: lo sgravio ha generalmente un andamento crescente, temperato solo nell’intervallo tra 45 e 80mila euro di imponibile in ragione del venire meno delle deduzioni familiari. L’effetto di abbassamento delle aliquote più elevate gonfia poi gli sgravi per i redditi più elevati.
Su base familiare – quella più rilevante per valutare gli effetti distributivi – l’esito del secondo modulo è sintetizzato nella tabella 2, in cui, per decili di reddito equivalente, sono presentati gli sgravi fiscali in euro (non equivalenti). Lo sgravio medio per famiglia è di 325 euro, ma al risparmio di 17 euro delle famiglie del primo decile si contrappone quello di 1.164 euro del decimo delle famiglie più benestanti. La insoddisfacente performance distributiva è attribuibile sostanzialmente all’incapacità dell’Ire di affrontare le condizioni economiche delle famiglie incapienti. L’abbandono della proposta di aumento degli assegni familiari, un trasferimento che raggiunge anche i lavoratori dipendenti e pensionati che non pagano l’Irpef, rende quindi ancora più evidente questo limite della riforma.
Se immaginiamo di dividere la famiglie italiane in tre gruppi definiti per valori crescenti di reddito, si può dire che il 30 per cento più povero ottiene in media un risparmio annuo di circa 70-100 euro; le classi medie di circa 200, mentre il 30 per cento più benestante ottiene un risparmio variabile tra i 500 e 1.200 euro. A conferma di queste differenze, si noti che il 20 per cento più ricco ottiene il 51 per cento dei risparmi totali di imposta.
La tabella 3 mostra poi la dimensione degli sgravi medi per alcune tipologie di famiglie, differenziate per condizione professionale del capofamiglia. Le famiglie dei pensionati, ad esempio, pur rappresentando il 40 per cento delle famiglie italiane, ottengono solo il 22 per cento degli sgravi totali.

La riforma complessiva

La riforma nel suo complesso (primo e secondo modulo) comporterà una riduzione dell’incidenza media di poco più del 2 per cento del reddito imponibile. La sua distribuzione per decili è documentata dalla tabella 4 e dalla figura 2. Anche tenendo conto del fatto che il primo modulo della riforma era più orientato alle famiglie meno abbienti, la maggioranza delle famiglie appartenenti ai primi due decili di reddito non ha ricevuto benefici significativi. E si conferma la modesta efficacia sulle famiglie dei primi due decili. In percentuale dell’imponibile, lo sgravio complessivo decresce dal 3,4 per cento delle famiglie del terzo decile sino all’1,5 di quelle più agiate.
Questo esito è però il risultato dell’applicazione di due strumenti: la progressività (definita dalla struttura delle aliquote e delle detrazioni della no tax area) e la sostituzione delle detrazioni per carichi familiari con deduzioni.
Nella figura 3 si tenta una scomposizione del ruolo relativo di questi due strumenti. Si osserva che la gran parte dello sgravio è attribuibile alla modificazione delle aliquote, mentre un peso dell’ordine di appena il 10 per cento deriva dalla introduzione delle deduzioni per familiari a carico. Appare quindi impropria l’enfasi posta da alcuni commentatori sull’importanza di questa riforma per la famiglia, soprattutto se si tiene conto che dal prossimo anno si profila l’abolizione dell’assegno di mille euro per il secondo figlio.
La componente delle deduzioni familiari ha però un ruolo nettamente più importante per le famiglie più povere, dato che rispetto alle precedenti detrazioni, le deduzioni sono state disegnate in modo selettivo (si annullano per imponibili attorno a 80mila euro).

Una riforma al 25 per cento

Rispetto agli annunci contenuti nella legge delega di riforma del sistema fiscale e alla struttura a due aliquote là indicata, la promessa appare realizzata per meno della metà. Ma in altri settori le promesse sono state mancate in misura maggiore.
L’abolizione dell’Irap prometteva sgravi alle imprese per 33 miliardi, realizzati solo per 500 milioni. Altre imposte sono state aumentate. Limitando l’attenzione solo a quelle messe in campo con la Finanziaria per il 2005, si potrebbe fornire una più adeguata valutazione dell’impatto delle riforme fiscali sulle famiglia tenendo conto, ad esempio, di parte delle maggiori imposte introdotte (studi di settore, catasto, Tarsu, accise, giochi e lotto, acconti Irpef, eccetera).
Pur con notevole approssimazione, si può stimare che sulle famiglie finiranno per gravare 5 miliardi di ulteriori tributi. Lo sgravio netto per le famiglie si ridurrebbe in questo modo a poco più di 7 miliardi; un quarto di quanto promesso.

Tab. 1 – Risparmi medi di imposta del secondo modulo di riforma dell’Ire per classi di reddito imponibile individuale

Reddito

Distribuzione %

Risparmi di imposta

Risparmi in %

Ripartizione %

imponibile

dei contribuenti

In euro

dell’imponibile

dei risparmi

0-5

9,0

0

0,0%

0,0%

5-10

22,4

21

0,3%

2,4%

10-15

20,7

114

0,9%

12,0%

15-20

19,8

100

0,6%

10,0%

20-25

11,6

268

1,2%

15,7%

25-30

5,9

467

1,7%

13,9%

30-35

2,5

492

1,5%

6,1%

35-40

1,8

637

1,7%

5,7%

40-45

1,1

758

1,8%

4,3%

45-50

0,9

688

1,4%

3,1%

50-55

0,6

632

1,2%

1,9%

55-60

1,2

567

1,0%

3,3%

60-65

0,5

404

0,6%

1,0%

65-70

0,4

416

0,6%

0,8%

70-75

0,1

317

0,4%

0,2%

75-80

0,2

916

1,2%

1,1%

80-85

0,1

989

1,2%

0,6%

85-90

0,2

1276

1,5%

1,2%

90-95

0,1

1714

1,9%

0,5%

95-100

0,2

1862

1,9%

2,0%

>100

0,9

3320

2,0%

14,3%

Totale/media

100,0

198

1,1%

100,0%



Tab.2 – Secondo modulo della riforma – Effetti sulle famiglie per decili di reddito equivalente

Decili di imponibile equivalente

Imponibile medio familiare

Irpef media 2004

Irpef media 2005

Risparmio di imposta

Ripartizione del risparmio totale

Incidenza media

irpef 2004

Incidenza media

irpef 2005

Variaz. Incid.media

% delle famiglie che guadagna

1

4653

17

1

17

1%

0,4%

0,0%

-0,4%

2%

2

9629

148

75

72

2%

1,5%

0,8%

-0,8%

27%

3

13435

803

660

143

4%

6,0%

4,9%

-1,1%

58%

4

16633

1709

1559

150

5%

10,3%

9,4%

-0,9%

59%

5

20132

2538

2327

211

6%

12,6%

11,6%

-1,0%

54%

6

25796

3727

3466

261

8%

14,4%

13,4%

-1,0%

55%

7

30221

5063

4767

296

9%

16,8%

15,8%

-1,0%

67%

8

36185

6614

6227

387

12%

18,3%

17,2%

-1,1%

82%

9

47802

10526

9980

546

17%

22,0%

20,9%

-1,1%

95%

10

93273

29219

28055

1164

36%

31,3%

30,1%

-1,2%

99%

Totale

29765

6034

5709

325

100%

20,3%

19,2%

-1,1%

60%


Tab. 3 – Secondo modulo della riforma: risparmi di imposta medi familiari per alcune tipologie di famiglie

Professione del capofamiglia

% delle famiglie

Reddito imponibile medio

Irpef 2004

Irpef 2005

Risparmio medio

Ripartizione del risparmio totale

Operaio

17

25254

3702

3470

233

12%

Impiegato,insegnante

15

36610

7397

6997

400

19%

Dirigente

4

64289

18408

17600

808

9%

Lav. indipendente

12

47501

13058

12409

649

25%

Pensionato

41

22867

3753

3578

174

22%

Altro

11

20959

4004

3622

382

13%

Totale

100

29765

6034

5709

325

100%



Tab.4 – Riforma complessiva – Effetti sulle famiglie per decili di reddito equivalente

Decili di imponibile equiv.

Imponibile medio familiare

Irpef media 2004

Irpef media 2005

Risparmio di imposta

Ripartiz.

del risparmio totale

Incidenza media irpef 2004

Incidenza media irpef 2005

Variazione incidenza media

% delle famiglie che guadagna

1

4653

30

1

29

0%

0,6%

0,0%

-0,6%

9%

2

9629

311

75

236

4%

3,2%

0,8%

-2,4%

63%

3

13435

1115

660

455

7%

8,3%

4,9%

-3,4%

92%

4

16633

2035

1559

476

8%

12,2%

9,4%

-2,9%

99%

5

20132

2854

2327

527

9%

14,2%

11,6%

-2,6%

97%

6

25796

4096

3466

630

10%

15,9%

13,4%

-2,4%

99%

7

30221

5446

4767

680

11%

18,0%

15,8%

-2,2%

100%

8

36185

6994

6227

767

12%

19,3%

17,2%

-2,1%

100%

9

47802

10849

9980

869

14%

22,7%

20,9%

-1,8%

100%

10

93273

29482

28055

1427

23%

31,6%

30,1%

-1,5%

100%

Totale

29765

6323

5709

614

99%

21,2%

19,2%

-2,1%

86%


Gli italiani e la riduzione delle imposte: un’indagine de lavoce.info, di Giuseppe Pisauroe Paola Monti

La riduzione delle imposte domina il dibattito politico da mesi. Dopo tanti annunci che indicavano nel taglio delle aliquote dell’Irpef l’obiettivo principale (per tutti i redditi? solo per i redditi bassi e medi? solo per i redditi medio-alti?), sembra che l’idea sia stata accantonata (o meglio, posticipata a data elettorale…) e sostituita dalla promessa di una riduzione dell’Irap a partire dal 2005.

Il campione

Ma gli italiani pensano veramente che la riduzione delle tasse sia la priorità nazionale? E, nel caso, quali imposte vorrebbero veder diminuire?
Per saperlo, abbiamo provato a rivolgere queste domande a un campione di cittadini. Il metodo scelto è stato quello del sondaggio tramite internet. Grazie al supporto della società Carlo Erminero & Co., sono stati contattati via web 2.300 individui e, nell’arco di pochi giorni, 954 di queste persone hanno risposto al sondaggio restituendo il questionario compilato.
Questo metodo di indagine chiaramente presenta problemi non indifferenti di rappresentatività del campione, nonostante siano possibili correttivi in fase di elaborazione dei dati (per maggiori informazioni a questo proposito, si rinvia alla scheda sulle caratteristiche del sondaggio).

Le priorità degli italiani

Innanzi tutto, abbiamo cercato di capire quali dovrebbero essere le priorità della politica di bilancio secondo gli intervistati, ipotizzando che il Governo disponga di risorse aggiuntive per un miliardo di euro. Alla domanda era possibile dare più di una risposta (e lo ha fatto circa metà degli intervistati).
Come si vede nella figura 1, l’ipotesi che ha raccolto maggiori consensi (è stata indicata dal 47 per cento del campione) è effettivamente quella di una riduzione delle imposte. Tuttavia, nell’insieme, una quota maggiore dei consensi va a un aumento della spesa pubblica per la sanità, l’istruzione e la ricerca e gli stipendi dei dipendenti pubblici. Un quarto del campione, infine, utilizzerebbe in tutto o in parte le nuove risorse per ridurre il debito pubblico.
Circa metà del campione non ha dato una risposta univoca: destinerebbe cioè eventuali nuove risorse, ad esempio, in parte a ridurre le imposte, in parte ad aumentare la spesa e in parte a ridurre il debito. Se consideriamo coloro che hanno dato una sola risposta, soltanto l’8 per cento degli intervistati ha indicato il taglio delle imposte come unica destinazione delle nuove risorse, il 13 per cento ha indicato un aumento della spesa (il 7 per cento di quella per l’istruzione) e il 6 per cento destinerebbe tutto all’abbattimento del debito. Insomma, la riduzione delle imposte non emerge affatto come una priorità assoluta: gli intervistati sembrano avere ben chiari altri problemi strutturali della nostra economia come l’elevato debito pubblico e le carenze del sistema di istruzione e ricerca.
In realtà, molti sarebbero anche disposti a pagare più imposte per avere servizi migliori. Davanti all’ipotesi di un aumento dell’addizionale regionale Irpef da destinare alla sanità per ridurre i tempi di attesa per esami diagnostici, il 47 per cento del campione ha risposto affermativamente (contro il 35 per cento di contrari e il 18 per cento di indecisi).

Quali imposte ridurre

Ritornando sull’ipotesi di riduzione delle imposte, abbiamo poi chiesto al campione quale tipo di imposta sarebbe opportuno ridurre. I risultati sono riportati nella tabella 1.
L’opzione di gran lunga preferita (da quasi il 60 per cento del campione) è una riduzione delle imposte sui consumi, come l’Iva e l’accisa sulla benzina. Sono forme di tassazione che coinvolgono indiscriminatamente tutti i cittadini e spesso colpiscono consumi indispensabili (la cui domanda è quindi poco elastica al prezzo).
Non stupisce perciò che la richiesta di una riduzione delle imposte sui consumi sia più pressante tra i gruppi sociali che normalmente dispongono di redditi più bassi: i giovani, gli studenti, le persone senza elevati titoli di studio, o tra coloro che valutano la propria situazione economica difficile o discreta, ma non buona. Insomma, i ceti sociali che negli ultimi anni hanno subito una perdita del potere d’acquisto dei propri redditi.
La riduzione dell’Irpef raccoglie il 37 per cento dei consensi e risulta più popolare nell’ambito impiegatizio e dei pensionati, al crescere del titolo di studio e dell’età, e tra coloro che valutano positivamente la propria situazione economica. Una riduzione dell’Irap, infine, è molto poco popolare (è stata indicata solo dal 3 per cento) e raccoglie qualche consenso solo tra commercianti, artigiani, dirigenti, imprenditori, liberi professionisti. L’area del lavoro autonomo, insomma.





Meno Irpef per i redditi bassi

Infine, abbiamo concentrato l’attenzione dei nostri intervistati su un’eventuale riduzione dell’Irpef (all’epoca del sondaggio, una settimana fa, era ancora d’attualità…).
Il risultato è molto netto: il 60 per cento del campione ritiene che lo sgravio fiscale dovrebbe andare unicamente a favore dei redditi bassi. Sommando anche coloro che distribuirebbero lo sgravio tra redditi bassi e medi, arriviamo al 74 per cento del campione (figura 2).
Abbiamo poi chiesto di scegliere tra un sistema fiscale proporzionale (ad aliquota unica) e progressivo (ad aliquota crescente, oppure ad aliquota unica, ma con esenzione totale dei redditi bassi). Anche in questo caso i risultati non lasciano dubbi: sceglie il sistema progressivo ad aliquota crescente il 66 per cento del campione (figura 3). La progressività delle imposte (e di eventuali sgravi) sembra essere un valore condiviso dagli intervistati a prescindere dalla propria situazione: tra coloro che dichiarano di essere in una condizione economica “molto buona”, il 49 per cento sceglie il sistema ad aliquota crescente e il 53 per cento concentrerebbe eventuali sgravi solo sui redditi bassi.
Insomma, gli italiani non guardano con sfavore a un taglio delle imposte, ma non pensano che esso debba essere la principale priorità della politica di bilancio. Ridurre il debito pubblico e migliorare alcuni servizi sembrano obiettivi almeno altrettanto importanti. Dovendo intervenire sulle imposte, preferirebbero che la riduzione avesse un impatto immediato sui prezzi piuttosto che sui redditi. Dovendo riformare l’Irpef, vorrebbero mantenere la progressività dell’imposta e concentrare gli sgravi sui meno abbienti.






Dov’è finito il popolo delle formiche, di Tullio Jappelli e Daniele Checchi

Lo scorso 5 novembre si è celebrata la giornata internazionale del risparmio.
Come negli ultimi anni, si sono sentiti toni allarmati sul calo del risparmio delle famiglie. L’ultima indagine Ipsos presentata per l’occasione riscontra che il 21 per cento delle famiglie intervistate ha consumato tutto il proprio reddito, mentre il 14 per cento ha fatto ricorso a risparmi accumulati o a debiti per far fronte alle spese per consumo; secondo l’indagine, in futuro il numero di coloro che non risparmiano è destinato ad aumentare.
( http://www.acri.it/7_even/Acri_Ipsos_2004.ppt).

Le famiglie e il risparmio

I dati non sono certo una novità. Secondo la più recente Indagine sui bilanci delle famiglie della Banca d’Italia, il 13 per cento degli intervistati tra febbraio e settembre del 2003 dichiarava che “Il reddito a disposizione della famiglia permette di arrivare alla fine del mese con molta difficoltà”; il 14 per cento che il reddito consente di “arrivare alla fine del mese con difficoltà”. Dunque, circa un terzo delle famiglie italiane dichiarava di avere gravi problemi di bilancio.
Si conferma quanto si è letto spesso in questi mesi sui giornali, con articoli e commenti allarmati sul grave impoverimento delle famiglie e del paese, quasi si trattasse di un fenomeno nuovo e prima poco diffuso. È vero che il popolo delle formiche non risparmia più? Dobbiamo preoccuparci per le tendenze del risparmio nel nostro paese?

È aumentato davvero il numero di quelli che non risparmiano?

Le espressioni “non arrivare alla fine del mese”, “famiglie in bolletta” e loro varianti sono generiche e non chiariscono se il fenomeno è aumentato o si è ridotto nel tempo.
Proviamo a definire meglio il concetto. Chi non riesce ad arrivare alla fine del mese ha un reddito inferiore al consumo, cioè un risparmio negativo. Vuol dire che in quel mese si è indebitato presso una banca, un parente, un amico (cioè ha aumentato le proprie passività), oppure ha fatto fronte alle spese per consumo con risorse risparmiate in precedenza (cioè ha ridotto le proprie attività). Per misurare il risparmio occorre quindi conoscere sia il reddito che il consumo di una famiglia.
L’Indagine della Banca d’Italia sui bilanci delle famiglie è il migliore strumento di cui disponiamo per studiare le tendenze del risparmio nel nostro paese, perché raccoglie informazioni sui redditi e sui consumi delle famiglie a partire dai primi anni ottanta. Il campione è formato da circa ottomila famiglie (24mila individui), distribuite in circa trecento comuni italiani. I risultati dell’indagine vengono regolarmente pubblicati nei supplementi al Bollettino statistico della Banca. I dati raccolti presso le famiglie, in forma anonima, sono disponibili gratuitamente per elaborazioni e ricerche. La metodologia di rilevazione è rimasta sostanzialmente invariata nel tempo.
Naturalmente, il risparmio può riflettere errori di misura del reddito o del consumo. Ad esempio, se una famiglia riporta tutte le spese sostenute, ma non tutto il reddito percepito, segnalerà con maggiore probabilità che il risparmio (cioè la differenza tra reddito e consumo) è negativo. Al contrario, una famiglia che registra con cura tutte le entrate ma sottostima le spese, tenderà a segnalare un risparmio positivo. Questi errori potrebbero avere una componente sistematica, ad esempio perché il numero di famiglie che sottostima le spese è superiore a quello che sottostima le entrate. Tuttavia, è poco probabile che l’andamento nel tempo del risparmio sia influenzato dagli errori di misura.

La figura 1 indica che fino al 1991 la quota di famiglie con risparmio negativo si è ridotta di cinque punti percentuali. Durante la recessione del 1992-93 la quota aumenta di oltre dieci punti. Dal 1993 si osserva però una sostanziale stabilità della quota di famiglie con risparmio negativo. L’Indagine della Banca d’Italia indica dunque che tra il 1993 e il 2002 il numero di famiglie che non risparmiano non è aumentato.
L’analisi per gruppi sociali coglie alcune differenze di rilievo. La quota di famiglie con risparmio negativo è maggiore tra i giovani (capofamiglia con età inferiore a 30 anni) e tra gli anziani (oltre i 60 anni). La quota è molto più elevata tra gli autonomi, che hanno redditi più variabili, che tra le famiglie di operai e impiegati, che invece hanno un reddito più stabile. Infine, la quota di famiglie con risparmio negativo è maggiore nel Mezzogiorno. Ma per tutti i gruppi si evidenzia una sostanziale stabilità del numero di famiglie con risparmio negativo tra il 1993 e il 2002.
Anche l’analisi della propensione al risparmio per fasce di reddito conferma il fatto che il risparmio delle famiglie non si è ridotto. La figura 2 mostra che negli anni più recenti il rapporto tra risparmio e reddito delle famiglie ha mantenuto un profilo costante, per ciascuno dei quattro gruppi di reddito considerati.

Il risparmio è una misura della povertà?

La tabella 1 riporta il rapporto tra risparmio e reddito disponibile delle famiglie (il cosiddetto saggio di risparmio) nei principali paesi europei, in Giappone e negli Stati Uniti. Fino al 1990 in Italia il risparmio era pari a circa il 27 per cento del reddito. Nel decennio successivo si è ridotto di oltre dieci punti. Dal 2000 però il saggio di risparmio in Italia si è mantenuto stabile, con valori prossimi al 15 per cento.
Il confronto internazionale evidenzia che nel 2004 l’Italia ha il saggio di risparmio più elevato tra i paesi industrializzati. In Francia, Germania, Olanda e Spagna il risparmio è intorno al 10-12 per cento del reddito disponibile. In Inghilterra, Stati Uniti, Giappone, e in tutti i paesi Scandinavi il saggio di risparmio è di circa tre volte inferiore a quello del nostro paese. La tabella evidenzia anche che il risparmio si è dimezzato in Austria, Giappone, Inghilterra, Stati Uniti; in altri paesi si è mantenuto stabile o è aumentato (Francia, Irlanda, Olanda, Portogallo, Spagna, Norvegia). Nonostante questo, l’Italia ha mantenuto il primo posto in classifica.

Naturalmente, un indicatore aggregato potrebbe nascondere dinamiche molto diverse a livello di singola famiglia. Sgombriamo però il campo da un equivoco. Il risparmio (o l’assenza di risparmio) non è una misura di benessere o di povertà. L’ultima colonna della tabella riporta il reddito pro capite in dollari nel 2003. La graduatoria del risparmio non coincide purtroppo con quella del reddito. Paesi in cui il reddito pro capite è molto più elevato del nostro (Stati Uniti, Svezia, Danimarca, Norvegia) hanno tassi di risparmio molto più bassi. Altri paesi, molto più poveri in termini di reddito pro capite (come la Cina) hanno tassi di risparmio molto più elevati del nostro. Dunque, per misurare la povertà o il benessere occorre guardare alla distribuzione dei redditi o dei consumi tra le famiglie, non alla differenza tra reddito e consumo. (1)

Perché allora il risparmio non è calato?

Il risparmio delle famiglie italiane rimane dunque elevato, sia nel confronto storico che in quello internazionale, nonostante l’abbassamento del tasso di crescita dei redditi familiari e il calo demografico. Ciò per due ragioni.
Le riforme della previdenza degli anni Novanta hanno drasticamente ridotto il grado di copertura previdenziale, particolarmente per le nuove generazioni. Dalla fine del 2001 gli indicatori sul clima di fiducia delle famiglie sono peggiorati costantemente e si sono collocati su valori nettamente inferiori a quelli del decennio precedente.
Le famiglie hanno quindi continuato a risparmiare per compensare il calo di ricchezza previdenziale. Allo stesso tempo, il movente precauzionale e il timore di una caduta dei redditi hanno frenato i consumi e favorito l’accumulazione. La figura 3 indica che il fenomeno si è verificato soprattutto per le nuove generazioni (persone nate dopo il 1960), quelle più colpite dalle riforma della previdenza e più incerte sul proprio futuro.(2)
Invece il risparmio di quelli nati prima del 1960 è calato o è rimasto costante; sono le persone che ai tempi delle riforme Amato e Dini (1992 e 1995) erano già in pensione o che hanno potuto mantenere, anche dopo le riforme, lo stesso livello di copertura previdenziale.


(1) Sotto questo profilo, l’indagine della Banca d’Italia segnala una sostanziale stabilità degli
indici di povertà e degli indici di disuguaglianza dei redditi disponibili tra il 1997 e il 2002.

(2) Per un’analisi dell’effetto della riforma della previdenza sul risparmio delle famiglie italiane cfr. Attanasio e Brugiavini (Social security and households’ saving,” Quarterly Journal of Economics, vol. 118, 2003) e Bottazzi, Jappelli e Padula (Retirement expectations, pension reform, and their impoact on private accumulation, settembre 2004, CSEF Working Paper n. 92 [http://www.dise.unisa.it/WP/wp92.pdf].





Fonte: Indagine della Banca d’Italia sui bilanci delle famiglie, 1984-2002.


Fonte: Indagine della Banca d’Italia sui bilanci delle famiglie, 1984-2002.


Fonte: Indagine della Banca d’Italia sui bilanci delle famiglie, 1984-2002.

Fonte: Elaborazioni Cesifi-Dice su OECD Economic Outlook. Il PIL pro capite è misurato in dollari. I saggi di risparmio riflettono anche differenze nelle definizioni adottate da ciascun paese sul risparmio delle famiglie; il reddito disponibile invece è armonizzato dall’OECD.
* dato stimato.

Un taglio poco consumato, di Tullio Jappelli e Mario Padula

Nelle intenzioni del presidente del Consiglio la riduzione delle imposte sui redditi a partire dal 1° gennaio 2005 aumenterà il reddito disponibile delle famiglie e i consumi, sostenendo la nostra esangue economia. Troppo spesso gli interventi di politica economica vengono attuati senza uno studio delle conseguenze delle manovre, senza una simulazione del loro impatto.

La propensione marginale al consumo

La questione è particolarmente delicata nel caso di uno sgravio fiscale. Si dà spesso per scontato che un aumento del reddito stimoli il consumo. Ciò non è sempre vero, perché un aumento di reddito può essere consumato interamente, risparmiato interamente, o in parte consumato e in parte risparmiato. Per rispondere a questa domanda, è importante calcolare la cosiddetta propensione marginale al consumo, cioè il rapporto tra la variazione dei consumi e del reddito. Se, ad esempio, il reddito di una famiglia aumenta di 500 euro e i consumi di 250 euro, la propensione marginale al consumo della famiglia è di 0,5. Ovvero, per ogni euro in più di reddito, 50 centesimi vengono risparmiati e 50 consumati. Tanto più elevata la propensione marginale al consumo, tanto maggiore lo stimolo ai consumi di uno sgravio fiscale.

Cinquecento euro da spendere. O risparmiare

Solo conoscendo la propensione marginale al consumo si può valutare l’effetto di una riduzione delle imposte. Servirebbero allo scopo indagini campionarie specifiche sui comportamenti dei consumatori, in grado di valutare l’impatto di breve e di lungo periodo di uno sgravio fiscale. I mezzi di cui dispone lavoce.info sono modesti. Con la collaborazione della società Carlo Erminero & Co , abbiamo condotto un’indagine campionaria via internet. Il campione è stato estratto da un indirizzario con oltre 500mila nomi. Le persone intervistate sono 954; il tasso di partecipazione (cioè il rapporto tra le persone che hanno risposto all’intervista e le persone contattate) è del 50 per cento. I dati vanno trattati e interpretati con cautela. In Italia gli utenti domestici di internet sono solo il 22 per cento della popolazione (10,5 milioni, dati di febbraio 2004) e sono ancora molto diversi dai non utenti. Fra gli utenti domestici di internet sono più numerosi i giovani, i laureati, gli imprenditori, i professionisti, i ceti medi e superiori. Le risposte devono quindi essere ricondotte alla popolazione italiana con un sistema di ponderazione.

Lo scopo del questionario è di valutare l’impatto di breve periodo sui consumi (la cosiddetta “scossa” all’economia) di un ipotetico sgravio fiscale. (1) Abbiamo dunque deciso di rivolgere al campione la domanda:

Nel caso in cui il Suo reddito l’anno prossimo aumentasse di 500 euro perché è stata varata una riforma fiscale che riduce le sue imposte sul reddito, cosa farebbe?

  • Utilizzerei i 500 euro soprattutto per spendere di più
  • Utilizzerei i 500 euro soprattutto per risparmiare di più
  • Utilizzerei i 500 euro soprattutto per pagare i debiti

Dalle risposte è emerso che il 21 per cento del campione destinerebbe un aumento di 500 euro di reddito soprattutto al consumo, il 48 per cento utilizzerebbe l’aumento soprattutto per incrementare il risparmio, il 31 per cento per ridurre i debiti.

Per valutare gli effetti di una riduzione delle imposte, occorre distinguere tra variazioni permanenti e variazioni transitorie del reddito. Le prime hanno un forte effetto sui consumi; le seconde hanno effetti modesti o trascurabili. Questo accade perché le famiglie desiderano mantenere standard di vita stabili nel tempo e sono disposte ad aumentare il consumo solo se pensano che l’aumento di reddito sarà duraturo. A un aumento temporaneo, invece, reagiscono aumentando il risparmio o riducendo il debito, per evitare di dover ridurre il consumo quando il reddito ritornerà ai valori precedenti l’aumento. Perché si verifichi un forte effetto sui consumi, è quindi essenziale che il taglio fiscale sia duraturo o, almeno, che sia percepito come tale. Le risposte del questionario indicano che l’effetto sul consumo è modesto. La riforma fiscale è percepita come transitoria, dunque poco credibile.

Un confronto con gli Usa

A titolo di confronto è utile riportare alcuni dati tratti da uno studio di due economisti americani che hanno sottoposto a un campione rappresentativo della popolazione degli Stati Uniti domande simili a quella dell’indagine de lavoce.info. Hanno infatti chiesto, nel 2001 e nel 2002, se il rimborso fiscale erogato dall’amministrazione Bush nel 2001 sia stato utilizzato prevalentemente per consumi, per risparmio, o per ridurre debiti. (2)

Il rimborso una tantum era compreso fra 300 e 600 dollari. La differenza principale è che nel caso americano si tratta di domande retrospettive; nel caso dell’indagine de lavoce.info invece si chiedono le intenzioni di spesa.

La tabella 1 indica che la percentuale di persone che destinerebbe soprattutto al consumo lo sgravio fiscale è molto simile a quella riscontrata dai due ricercatori americani: negli Stati Uniti poco più del 20 per cento degli intervistati dichiara che il rimborso fiscale è stato utilizzato prevalentemente per aumentare il consumo; l’80 per cento dichiara invece che il rimborso è stato utilizzato soprattutto per aumentare il risparmio o per ridurre i debiti. La reazione dei consumatori italiani rispetto a un’ipotetica riforma fiscale è simile a quella dei consumatori americani in risposta a una variazione una tantum del reddito, un’altra conferma di scarsa credibilità dello sgravio fiscale in Italia.

È utile chiedersi se l’effetto sui consumi cambi secondo i gruppi sociali. La tabella 2 offre alcune risposte. La quota di coloro che utilizzerebbero lo sgravio fiscale soprattutto per aumentare il consumo sale al 26 per cento tra i laureati e tra coloro che hanno più di 44 anni; raggiunge il 35 per cento per coloro che hanno redditi medi e alti. Non si riscontrano variazioni significative per ripartizione geografica. Nel complesso le risposte sono abbastanza omogenee: la quota di coloro che dichiara che destinerebbe lo sgravio fiscale prevalentemente al consumo oscilla tra il 18 e il 35 per cento.

Quanto aumenteranno i consumi?

Riconoscere che la risposta a una manovra fiscale è diversa tra i vari gruppi sociali aiuta a valutarne l’effetto complessivo. Tuttavia, la quota di coloro che dichiarano che lo sgravio servirà prevalentemente a finanziare i consumi non ci dice ancora di quanto i consumi aumenteranno. Anche chi dichiara che destinerà il maggiore reddito prevalentemente al risparmio, non è detto che destinerà tutto al risparmio. E anche chi decide di utilizzare il reddito soprattutto per aumentare il consumo potrebbe usarne una parte per risparmiare. La nostra indagine contiene una seconda domanda che consente di ripartire un’eventuale aumento di reddito di 500 euro in spese per consumi, risparmio e rimborso di debiti:

Se oggi il Suo reddito aumentasse di 500 euro, quanti euro risparmierebbe, quanti ne consumerebbe, quanti ne userebbe per ripagare i debiti?

  • Euro per consumo:
  • Euro per risparmio:
  • Euro per debiti:

Le risposte permettono di calcolare la propensione marginale al consumo di ciascuna famiglia intervistata. Nel campione, la media generale di tutte le propensioni marginali al consumo è 32 per cento (vedi l’ultima colonna della tabella 2). (3)

Inoltre, la propensione marginale al consumo è sostanzialmente stabile per gruppi di età, titolo di studio e ripartizione geografica. Solo per le famiglie con redditi medi e alti si registra un valore più elevato (42 per cento), presumibilmente perché per questi gruppi l’incertezza sulle condizioni dell’economia e della famiglia riduce le esigenze di risparmio.

In conclusione: secondo l’indagine de lavoce.info circa un terzo della riduzione di imposte promessa da Silvio Berlusconi per il 2005 si tradurrà in un aumento dei consumi. La gran parte del reddito aggiuntivo servirà per aumentare il risparmio (o ridurre il debito). Se la credibilità della manovra rimanesse ai livelli attuali, un’ipotetica riduzione delle imposte sul reddito delle famiglie di 8 miliardi di euro nel 2005 darebbe una “scossa” iniziale all’economia di soli 2,6 miliardi di euro, cioè lo 0,2 per cento del Pil. Naturalmente, ciò non tiene conto dell’effetto di una riduzione della spesa pubblica necessaria a finanziare il taglio delle imposte. Fra un anno sapremo se la montagna sarà riuscita almeno a partorire un topolino. Nel frattempo il Governo potrebbe almeno promuovere studi più approfonditi sugli effetti della manovra, sulla credibilità di un taglio duraturo delle imposte e sulle sue conseguenze di breve e di lungo periodo. Al momento, il clima di incertezza generato da annunci successivamente ritrattati non aiuta affatto la credibilità delle future riforme. Alimenta anzi la convinzione che eventuali tagli fiscali potrebbero avere effetti limitati nel tempo.

(1) David S. Johnson, Jonathan A. Parker e Nicholas S. Souleles, (“Household expenditure and the income tax rebates of 2001”, NBER WP 10784, 2004) studiano l’impatto di breve e di lungo periodo del bonus fiscale che le famiglie americane hanno ricevuto nel 2001 dall’amministrazione Bush. Utilizzando un campione rappresentativo della popolazione, essi mostrano che le famiglie americane hanno aumentato il consumo di circa il 30 per cento del bonus nei primi tre mesi, e di un altro 30 per cento nel trimestre successivo.

(2) Matthew D. Shapiro e Joel Slemrod, “Did the 2001 tax rebate stimulate spending? Evidence from taxpayer surveys”, NBER WP 9308, 2001. L’indagine è stata condotta per telefono nel 2001e nel 2002, come parte di Surveys of Consumers, un campione rappresentativo della popolazione americana utilizzato dall’Università di Michigan per costruire un indice di fiducia dei consumatori (Index of Consumers Sentiment). I due economisti usano anche un’altra indagine, How America Responds, che chiede ad un campione di famiglie americane: “Cosa farebbe se il Governo federale tagliasse le imposte di 1000 dollari?”. Il 16,6 per cento degli intervistati destinerebbe l’aumento del reddito disponibile soprattutto ai consumi.

(3) David S. Johnson, Jonathan A. Parker e Nicholas S. Souleles, (“Household expenditure and the income tax rebates of 2001”, NBER WP 10784, 2004) ottengono un risultato molto simile per la propensione marginale al consumo di breve periodo.


Tabella 1. Nel caso in cui il Suo reddito l’anno prossimo aumentasse di 500 euro perché è stata varata una riforma fiscale che riduce le sue imposte sul reddito, cosa farebbe?

Confronto Italia -USA

Italia 2004

Usa 2001

Usa 2002

Soprattutto per spendere di più

0.21

0.22

0.25

Soprattutto per risparmiare di più

0.48

0.46

0.48

Soprattutto per pagare i debiti

0.31

0.32

0.27

<TD style=”BORDER-RIGHT: black 1pt solid; PADDING-RIGHT: 5.4pt; BORDER-TOP: #ece9d8; PAD

Tabella 2. Nel caso in cui il Suo reddito l’anno prossimo aumentasse di 500 euro perché è stata varata una riforma fiscale che riduce le sue imposte sul reddito, cosa farebbe?

Analisi per gruppi sociali

Soprattutto per spendere di più

Soprattutto per risparmiare di più

Soprattutto per pagare i debiti

Propensione marginale al consumo

Età

fino a 34 anni

0.20

0.62

0.18

0.35

da 35 a 44 anni

0.19

0.46

0.35

0.31

oltre 44 anni

0.26

0.34

0.40

0.32

Titolo di studio

senza laurea

0.19

0.45

0.36

0.31

con laurea

0.26

0.48

0.26

0.36

Condizione economica

Buona

0.35

0.47

0.18

0.42

Discreta

0.23

0.54

0.23

0.34

Difficile

0.11

0.34

0.55

0.25

Area geografica

Nord

0.23

0.50

0.27

0.32

Centro

0.19

0.40

0.41

0.30

Il gioco delle tre aliquote, di Massimo Baldini e Paolo Bosi

L’ultimo mese è passato alla ricerca di una mediazione tra le forze di maggioranza sulla proposta di riforma del secondo modulo dell’Irpef. Si è discusso molto, quindi, ma di che cosa? Vediamo di capirlo aggiornando il nostro precedente articolo su lavoce.info, seppur con la cautela dovuta al fatto che non disponiamo ancora di tutti i dettagli delle proposte in campo.

Tre aliquote. Più una

Consideriamo in particolare tre ipotesi di riforma. Tutte condividono la struttura delle prime tre aliquote (23 per cento fino a 26mila euro, 33 per cento da 26mila a 33mila, 39 per cento oltre 33mila), ma si differenziano nei seguenti aspetti:
a) quarta aliquota del 43 per cento oltre i 100mila euro (ipotesi del ministero del Tesoro);
b) quarta aliquota del 43 per cento oltre gli 80mila euro (ipotesi An-Udc);
c) solo tre aliquote, con in più un contributo fisso di 1.000 euro oltre i 100mila, e esclusione della detraibilità delle spese oltre la stessa soglia (variante dell’ipotesi di riforma del ministero del Tesoro).

In tutte le ipotesi, inoltre, le detrazioni per coniuge e familiari a carico sono sostituite da deduzioni dall’imponibile, decrescenti al crescere del reddito, pari a 3.200 euro per il coniuge e a 2.900 per ogni figlio, che si annullano in corrispondenza di un reddito pari a 78mila euro.

Dal punto di vista del gettito, la ricerca del compromesso tra le diverse visioni in campo dovrebbe comportare un costo del secondo modulo della riforma dell’Irpef variabile da 7,2 a 7,6 miliardi, a seconda delle alternative, comprensivo anche di circa un miliardo per maggiori assegni familiari. Il che significa che la seconda tranche della riforma finirà per costare ben più dei sei miliardi (compresi eventuali tagli all’Irap) di cui si è parlato finora.

Non ripetiamo qui l’analisi già fatta nel precedente articolo. Rispetto alla struttura con tre aliquote e detrazioni lì discussa, le controproposte di Fini e dell’Udc con quattro aliquote e deduzioni si configurano come una lieve redistribuzione dai contribuenti con più reddito dichiarato a quelli che si collocano nelle fasce attorno a 40-50mila euro. Ciò è però dovuto alla sostituzione delle detrazioni con deduzioni, mentre, come si può notare dalla tabella 1, tutte le varianti oggi in discussione comportano lo stesso risparmio di imposta per tutti i contribuenti fino a 80mila euro di imponibile.

Gli effetti sui redditi familiari

Tuttavia, qualora si considerino i redditi familiari equivalenti, ordinati per decili di reddito imponibile equivalente, l’effetto del secondo modulo, in tutte le varianti proposte, continua ad avvantaggiare le famiglie più ricche.
L’ipotesi di An e Udc apporta alcuni limitati correttivi al privilegio di quelle appartenenti al decile più ricco (vedi la figura 1). Ma viene confermata la netta differenza di effetti del primo modulo rispetto al secondo.
Per quanto riguarda la riforma dell’Irpef, la discussione dell’ultimo mese si è quindi concentrata su aspetti poco significativi. Quarta aliquota, “aliquota etica” sembrano essere solo estemporanei correttivi di un impianto già disegnato nella proposta a tre aliquote.

Ma quale sarà l’effetto della riforma nel suo complesso (primo e secondo modulo)?
Come mostra la figura 2, l’abbandono dell’impostazione a due aliquote della legge delega ha in effetti introdotto elementi di maggiore moderazione nei propositi della riforma. La perdita di gettito è dimezzata (da 28 a 13 miliardi sommando le due fasi della riforma) e anche gli effetti distributivi appaiono meno drammaticamente sbilanciati nei confronti dei più ricchi.
Permangono tuttavia aspetti insoddisfacenti, che rivelano il carattere poco sistematico della riforma complessiva. È infatti un ibrido tra due visioni molto diverse dell’imposta personale all’interno della maggioranza di Governo: il modello della flat rate tax della legge delega, che rimane sullo sfondo degli obiettivi del premier, e le soluzioni più tradizionali di An e Udc.
Ma l’aspetto più preoccupante, messo in luce dalla figura 2, è che le famiglie che si collocano nel primo e nel secondo decile (il 20 per cento della popolazione con redditi più bassi) otterranno alla fine sgravi fiscali inferiori a quelle più benestanti.
La proposta di riforma avanzata nelle ultime ore dal ministero dell’Economia prevede però un correttivo, attraverso un aumento generalizzato degli assegni al nucleo familiare (anf).
Il carattere molto selettivo di questo strumento consente infatti di “mettere una pezza” allo svantaggio relativo delle famiglie più povere. Solo uno strumento di spesa permette di ottenere risultati distributivi non deludenti. Perché consente di raggiungere anche le famiglie che, in ragione della scarsità di imponibile, non sono soggetti passivi dell’imposta sul reddito o non possono godere di tutte le detrazioni o deduzioni cui avrebbero diritto (gli incapienti).
Non si può fare a meno di osservare che, con un minore dispendio di risorse, si sarebbero potuti realizzare obiettivi distributivi più apprezzabili, mantenendo a disposizione del bilancio pubblico risorse preziose per realizzare altre riforme nel campo del welfare. (1)


(1) Baldini, M., P. Bosi, Matteuzzi, Sostegno alle responsabilità familiari e contrasto della povertà: ipotesi di riforma, in Rivista delle politiche sociali, n.2, 2004 e in
www.capp.unimo.it.

Tabella 1 – Contribuenti: Risparmi di imposta derivanti da ipotesi alternative del secondo modulo della riforma fiscale



Figura 1 – Famiglie: Risparmio di imposta del primo e del secondo modulo in % dell’imponibile

Figura 2 – Famiglie: Riforme complessive risparmi di imposta totale in % dell’imponibile


Chi vince e chi perde con la nuova Irpef, di Massimo Baldini e Paolo Bosi

Dalla presentazione della legge delega (7 aprile 2003), è stato un continuo susseguirsi di proposte e discussioni sugli effetti redistributivi e di gettito della riforma dell’Irpef.
Non ci si può illudere di essere giunti a intenzioni definitive del Governo in questa delicata area, ma può essere utile fare il punto della situazione, sulla base delle informazioni fornite dalla stampa sulla struttura degli scaglioni, delle aliquote e delle deduzioni previste per il secondo modulo della riforma dell’Ire.
Secondo queste indicazioni, si prevede una nuova struttura degli scaglioni e delle aliquote, illustrata nella quarta colonna della tabella 1 (riforma finale).

Tab.1 – Scaglioni e aliquote dell’Irpef 2002 e delle riforme

Irpef 2002

Legge delega

Primo modulo

Riforma finale

scaglioni

aliquote

scaglioni

aliquote

scaglioni

Aliquote

scaglioni

aliquote

0-10329

0,18

0-100000

0,23

0-15000

0,23

0-26000

0,23

10329-15494

0,24

oltre 100000

0,33

15000-29000

0,29

26000-32600

0,33

15494-30987

0,32

29000-32600

0,31

oltre 32600

0,39

30987-69722

0,39

32600-70000

0,39

oltre 69722

0,45

oltre 70000

0,45

Qui interessano gli effetti di gettito e distributivi di questa seconda fase, messa a confronto non solo con la legislazione vigente, che è segnata dall’intervento effettuato nel 2003, il cosiddetto primo modulo della riforma dell’Ire, ma anche con la situazione in vigore nel 2002. I redditi sono in valori del 2004. (1)

Effetti della riforma sul gettito

Secondo le stime fornite dal modello di microsimulazione del Centro di analisi delle politiche pubbliche dell’Università di Modena, il secondo tempo della riforma costerà 6,9 miliardi di euro, che si aggiungono ai circa 6 miliardi del primo modulo. Complessivamente, si tratta di una riduzione del carico fiscale di circa il 2 per cento. La riforma prevista nella legge delega, basata su un modello a due sole aliquote, avrebbe invece comportato uno sgravio fiscale di circa 28 miliardi di euro, pari al 4,4 per cento dell’imponibile.
Tra l’approvazione della delega e la Finanziaria per il 2005, il Governo è stato quindi indotto a più che dimezzare gli originali propositi di “ridurre le tasse”. La riforma dell’Ire alla fine sottrarrà comunque all’erario 13 miliardi di euro.

Analisi individuale per contribuenti

La tabella 2 mostra i risparmi di imposta dei contribuenti, sia in valori assoluti, sia in percentuale del reddito imponibile. Si tratta quindi di un’analisi di tipo individuale.
Il secondo modulo della riforma non concede praticamente nulla ai redditi inferiori ai 20mila euro (se non l’aumento da 7mila a 7.500 euro della no tax area per i pensionati), e favorisce soprattutto i redditi attorno ai 35mila euro, a causa della rimodulazione delle aliquote, e quelli superiori ai 70mila euro, a seguito della riduzione dell’aliquota marginale più elevata. I maggiori beneficiari degli sgravi sono i redditi più bassi e quelli più alti, mentre i guadagni sono inferiori per le classi centrali della distribuzione del reddito. Un risultato tipico, quando si riduce il numero degli scaglioni e ci si avvicina a uno schema flat rate: se si vuole diminuire il numero degli scaglioni e non si vuole perdere troppo gettito, è inevitabile premiare soprattutto i molto ricchi e i molto poveri.
Se si considera invece la riforma nel suo complesso, essa non sembra avere una chiara identità. Fino a imponibili di 30mila euro, lo sgravio della riforma complessiva presenta un andamento altalenante che non sembra rispondere a una precisa logica. Da 30mila sino a 70mila euro, lo sgravio percentuale è decrescente, accentuando quindi la progressività della struttura preesistente. Da 70mila in su, lo sgravio risulterebbe proporzionalmente crescente per raggiungere il valore massimo di quasi il 4 per cento per i contribuenti più ricchi.
Il Governo, nel corso del tempo, ha ridimensionato significativamente i suoi propositi di passaggio al modello della flat rate, contenuti nella legge delega del 2003: le ultime colonne della tabella 2 mostrano che, se si fosse passati alle due sole aliquote del 23 e 33 per cento (oltre i 100.000 euro), il beneficio per i contribuenti oltre i 70mila euro non si sarebbe limitato a due o tre punti percentuali del reddito, ma avrebbe superato abbondantemente il 10 per cento .
Anche se appare evidente la differenza rispetto alla riforma programmata con la legge delega, sulla base di queste stime il giudizio distributivo sulla riforma complessiva non può essere positivo. A favore dell’1,78 per cento di contribuenti con imponibile superiore a 70mila euro si concentra il 20 per cento dello sgravio complessivo. A un contribuente con reddito tra i 20-25mila euro vengono restituiti 444 euro; per il contribuente con imponibile superiore a 100mila euro, lo sgravio è quindici volte tanto: 6.357 euro.

Tab. 2 Risparmi di imposta per contribuente per classi di imponibile delle riforme dell’Irpef

Reddito

primo modulo

secondo modulo

Riforma complessiva

Legge delega

Imponibile

%

sgravio

Var.%

sgravio

Var.%

sgravio

Var.%

sgravio

Var.%

(000 euro)

contrib.

in euro

imponibile

in euro

imponibile

in euro

Imponibile

in euro

imponibile

0-5

9,0

-30

-1,3

0

0,0

-30

-1,3

-30

-1,3

5-10

22,4

-168

-2,3

-23

-0,3

-192

-2,6

-192

-2,6

10-15

20,7

-250

-2,0

-54

-0,4

-305

-2,4

-305

-2,4

15-20

19,8

-237

-1,4

-38

-0,2

-276

-1,6

-276

-1,6

20-25

11,6

-165

-0,7

-278

-1,3

-444

-2,0

-444

-2,0

25-30

5,9

-68

-0,3

-589

-2,2

-657

-2,4

-732

-2,7

30-35

2,5

-56

-0,2

-495

-1,5

-551

-1,7

-1189

-3,7

35-40

1,8

-58

-0,2

-468

-1,3

-526

-1,4

-1933

-5,2

40-45

1,1

-42

-0,1

-468

-1,1

-510

-1,2

-2781

-6,5

45-50

0,9

-55

-0,1

-468

-1,0

-523

-1,1

-3583

-7,5

50-55

0,6

-94

-0,2

-468

-0,9

-562

-1,1

-4500

-8,5

55-60

1,2

-89

-0,2

-468

-0,8

-557

-1,0

-5153

-9,0

60-65

0,5

-77

-0,1

-468

-0,7

-545

-0,9

-6019

-9,6

65-70

0,4

-101

-0,1

-468

-0,7

-569

-0,8

-6787

-10,1

70-75

0,1

-147

-0,2

-672

-0,9

-819

-1,1

-8007

-10,9

75-80

0,2

-157

-0,2

-904

-1,2

-1061

-1,4

-8867

-11,5

80-85

0,1

-128

-0,2

-1221

-1,5

-1349

-1,6

-10000

-12,1

85-90

0,2

-166

-0,2

-1526

-1,7

-1691

-1,9

-11155

-12,7

90-95

0,1

-172

-0,2

-1812

-2,0

-1984

-2,1

-12212

-13,2

95-100

0,2

-177

-0,2

-2159

-2,2

-2336

-2,4

-13488

-13,7

>100

0,9

-193

-0,1

-6165

-3,7

-6357

-3,9

-21698

-13,2

media

100,0

-171

-0,9

-198

-1,1

-369

-2,0

-809

-4,5

Analisi per redditi familiari equivalenti

Nello studio degli effetti distributivi di una riforma, non si può prescindere da un’analisi che assuma come unità di riferimento le famiglie.
La figura illustra gli effetti della riforma con riferimento alle famiglie ordinate per decili di reddito imponibile complessivo. In questa più appropriata dimensione, appare evidente l’inversione di rotta tra la riforma proposta nella legge delega e quella prevista per il 2005, in particolare con riguardo agli effetti sulle famiglie del nono e soprattutto del decimo decile, il più ricco della popolazione.
Il grafico mette anche in rilievo il carattere compensativo del secondo modulo rispetto al primo. Il primo, a partire dal terzo decile, mostra sgravi in percentuale dell’imponibile decrescenti. Il secondo modulo mostra invece vantaggi percentualmente crescenti al crescere dell’imponibile familiare. Nel complesso per le famiglie dal terzo al decimo decile lo sgravio oscilla mediamente intorno al valore del 2 per cento. L’assenza di compensazione per le famiglie più povere (in cui come è noto si concentra il fenomeno dell’incapienza) comporta vantaggi pressoché nulli per il primo decile e molto bassi e comunque inferiori alla media per le famiglie comprese nel secondo decile. Un effetto più volte messo in luce in passato, che l’attuale riforma non sembra risolvere, quantomeno con lo strumento dell’imposta personale.

L’effetto complessivo della riforma può infine essere valutato con l’indice di Gini (pari a 0 nel caso di distribuzione egualitaria e pari a 100 nel caso di massima disuguaglianza). Mentre il primo modulo della riforma ha prodotto un effetto moderatamente migliorativo dell’uguaglianza delle distribuzione del reddito netto (l’indice di Gini infatti diminuisce di 0,23), la riforma nel suo complesso produce un lieve peggioramento, (+ 0,16 nell’indice di Gini). La riforma originaria prevista nella legge delega avrebbe comunque avuto un effetto assai più forte (1,65 nel valore dell’indice), dimezzando l’effetto redistributivo dell’Irpef. Conclusione provvisoria: è una riforma che aumenta le disuguaglianze e che assorbe 13 miliardi che altrimenti potrebbero essere utilizzati per riformare gli ammortizzatori sociali e introdurre un programma nazionale per la non autosufficienza. La pur modesta riforma degli ammortizzatori prevista dal Patto per l’Italia, giace ancora inattuata e l’assistenza sociale continua a essere affidata a comuni con tetti di spesa sempre più stringenti.

(1) La tabella 1 non tiene conto di altri importanti cambiamenti della normativa sull’Irpef, considerati invece conto nelle simulazioni, che riguardano in particolare la sostituzione delle detrazioni da lavoro e pensione con una deduzione dal reddito complessivo decrescente per mantenere comunque la presenza di una iniziale no tax area, che rispetto ai governi dell’Ulivo aumenta da circa 6500 a 7500 euro. Nella simulazione relativa al secondo modulo, si è ipotizzato che la no tax area abbia un livello iniziale di 7500 euro sia per i dipendenti che per i pensionati, e di 4500 euro per gli autonomi. Questa deduzione decresce linearmente fino ad azzerarsi a 33mila euro. Il primo modulo ha mantenuto la detrazione sui redditi da lavoro e pensione solo per una ristretta fascia di redditi medi; in mancanza di indicazioni precise, si è supposto che essa non subirà modificazioni. La simulazione inoltre non considera gli eventuali incrementi degli assegni familiari, su cui al momento non si dispone peraltro di nessuna informazione precisa. Non teniamo neppure in considerazione gli aumenti delle imposte locali, tra cui le addizionali regionali e comunali all’Irpef, che faranno molto probabilmente seguito alla riduzione dei trasferimenti statali, e che quindi ridurranno i benefici netti degli sgravi decisi a livello centrale.

Europa, cantiere aperto

Sommario a cura di Riccardo Faini

I due pilastri della politica economica europea, il Patto di stabilita’ e l’agenda di Lisbona, necessitano di un’urgente opera di manutenzione. Il coordinamento delle politiche fiscali e’ pero’ essenziale al buon funzionamento di un’unione monetaria. Analogamente, il processo di riforme strutturali di Lisbona va attuato se si vuole rilanciare la crescita economica. Su questi temi gli economisti intervenuti su lavoce.info sono sostanzialmente d’accordo. Su molte altre cose – delegare il rigore fiscale ai Parlamenti nazionali o rafforzare i poteri della Commissione, integrare il Patto di stabilita’ con tutta l’agenda di Lisbona o riportare nel Patto solo alcuni elementi, in particolare le pensioni, di tale agenda – invece le opinioni divergono. Rimane irrisolto infine il problema della piena integrazione dei nuovi paesi membri nella politica economica europea.

Le pensioni nel Patto, di Tito Boeri e Guido Tabellini

Alla riunione dell’Ecofin di Scheveningen, i ministri economici si sono limitati a mostrare le carte. Sono davvero molte le questioni aperte al tavolo della trattativa sulla riforma del Patto di stabilità e crescita. Si deve, infatti, trovare un difficile equilibrio tra due diversi obiettivi: da una parte, il Patto deve continuare a prevenire un’accumulazione eccessiva del debito, dall’altra, ai governi deve essere concesso un più ampio spazio di manovra per mettere in atto riforme strutturali e ridare competitività all’Europa.

Un ostacolo alle riforme

Così com’è, il Patto ha un problema fondamentale: è un ostacolo alle riforme. I leader europei stanno sprecando tutte le loro energie e il capitale politico per rispettare i parametri di bilancio, mentre non fanno niente per affrontare le vere sfide: l’invecchiamento della popolazione, il peso dell’elevata imposizione fiscale, la perdita di competitività. Le riforme strutturali, infatti, “pagano” nel lungo periodo, e “costano” nel breve. Il Patto è nato per proteggere i cittadini europei dalla miopia dei governi, ma ha finito per determinare comportamenti ancor più miopi. Un esempio tipico è quello delle riforme pensionistiche. Pensiamo a una riforma che riduca il peso del pilastro pubblico a ripartizione ed espanda gli schemi a piena capitalizzazione. Per incoraggiare l’avvio di schemi pensionistici privati, è necessario ridurre i contributi obbligatori al sistema pubblico. Allo stesso tempo, si devono però continuare a pagare le pensioni a chi è già pensionato. Questo significa meno risorse per le pensioni pubbliche e, quindi, un aumento temporaneo del deficit corrente. Ma con la diminuzione delle pensioni future si avrà poi un miglioramento della sostenibilità del sistema. Le regole attuali del Patto scoraggiano questo tipo di riforme: l’aumento temporaneo del deficit di bilancio è proibito, anche se accompagnato da miglioramenti di lungo periodo. I politici europei sono divenuti consapevoli del problema. In quest’ultima riunione dell’Ecofin, la Commissione ha chiesto una maggiore discrezionalità e ha espresso la volontà di dare più enfasi al debito (esplicito): i paesi con un più basso rapporto fra debito pubblico e Pil avranno maggiore libertà nella politica fiscale. I ministri economici hanno, inoltre, proposto che riforma delle pensioni e sostenibilità di lungo periodo rientrino nei criteri di valutazione dei paesi. Per superare gli ostacoli che il Patto pone alle riforme strutturali, alcuni paesi hanno chiesto che il Patto sia legato agli obiettivi di Lisbona, per dare maggiore flessibilità di bilancio ai paesi che li stanno realizzando. Alcune di queste innovazioni potrebbero rivelarsi utili. Ma c’è il rischio di dare troppa discrezionalità alla Commissione o al Consiglio.

Le regole del Patto

Il Patto è basato su regole e perché possano essere applicate è necessario che possano essere definite con una certa precisione ex ante. Altrimenti, le regole diventano inapplicabili. Vediamo allora la proposta di legare il Patto agli obiettivi di Lisbona. Ci sono più di cento indicatori nella strategia di Lisbona: che succede se un paese fa progressi in una di queste direzioni, ma peggiora in un’altra? Se fosse la Commissione a decidere sulla rilevanza dei diversi indicatori, interferirebbe così nei processi politici nazionali, imponendo priorità in aree che non sono di sua competenza e nelle quali non ha nessuna legittimazione politica. Se invece questa discrezionalità incontrollata fosse lasciata al Consiglio, e non alla Commissione, è facile prevedere che la “pressione dei pari grado” per ristabilire l’equilibrio di bilancio finirebbe presto per trasformarsi in una “protezione dei pari”. È possibile utilizzare il Patto a favore e non contro le riforme strutturali senza rendere le regole inapplicabili? Noi crediamo di sì. L’idea è individuare alcuni parametri ampi, ma precisi dal punto di vista operativo, e applicare a questi indicatori la stessa idea suggerita dalla Commissione per il debito pubblico: i paesi che fanno progressi su questi indicatori possono avere maggiore libertà d’azione sul deficit di bilancio. Un indicatore che risponde a questo criterio è il debito implicito dei sistemi pensionistici pubblici, cioè il valore attuale scontato delle prestazioni pensionistiche future, a legislazione vigente. Le prestazioni pensionistiche promesse ai lavoratori e ai pensionati sono più importanti dei deficit futuri dei sistemi previdenziali. I deficit possono essere ridotti con contributi più alti, ma non è nostra intenzione spingere i governi in questa direzione: i contributi per la sicurezza sociale sono già fin troppo alti in Europa e l’unico modo per riavviare la crescita senza compromettere il futuro, è attraverso una riforma delle pensioni che riduca il peso della componente previdenziale pubblica. Ovviamente, ogni stima del debito pensionistico implicito richiede cautele e assunzioni arbitrarie. Ma altrettanto arbitraria è l’attuale applicazione del Patto. Per esempio, sono convenzionali i criteri con cui si misurano i deficit di bilancio e si definisce che cosa è e che cosa non è un’entrata pubblica. Inoltre, la Commissione ha già fatto passi importanti nell’armonizzare le ipotesi utilizzate nelle proiezioni della spesa previdenziale nei diversi paesi. Ai fini del Patto, poi, il punto di riferimento dovrebbero essere le variazioni nello stock di debito pensionistico (date certe ipotesi economico/demografiche) piuttosto che il livello stesso. Le variazioni sono più semplici da confrontare dei livelli, perché è meno probabile che riflettano ipotesi arbitrarie.

Informare i cittadini

Ma c’è un motivo ancor più importante per concentrare l’attenzione sulle variazioni che avverranno da qui in poi nel debito pensionistico, a seguito di riforme previdenziali. Non c’è nessuna ragione perché l’Europa intervenga nei sistemi pensionistici dei singoli Stati membri. Dopotutto, qual è l’esternalità negativa per gli altri paesi europei se, per dire, la Spagna mantiene un sistema pensionistico generoso? Il problema è che la formulazione attuale del Patto è un ostacolo alle riforme. E d’ora in poi non deve essere più così. Una maggiore attenzione ai debiti pensionistici impliciti servirebbe anche per informare i cittadini. I sondaggi dicono che la maggior parte dei cittadini europei non è pienamente consapevole dell’entità della redistribuzione fra generazioni implicita nel funzionamento dei sistemi previdenziali pubblici. Molti ritengono che i loro contributi pensionistici vadano in un conto individuale, a capitalizzazione. Ignorano che invece stanno pagando le pensioni degli attuali pensionati. Questi sondaggi (www.frdb.org) rivelano anche che i cittadini più informati sono più favorevoli a riforme che riducano la generosità dei sistemi previdenziali. Stime ufficiali del debito pensionistico implicito aumenterebbero la trasparenza della redistribuzione tra generazioni dovuta ai sistemi a ripartizione. Così i governi verrebbero premiati da un più forte consenso politico per riforme che non possono essere ulteriormente rinviate.

Una riforma per due, di Riccardo Faini

Il quadro della politica economica in Europa è desolante. Tralasciando la politica monetaria, entrambi i pilastri su cui doveva poggiare la politica economica del nostro continente – il Patto di stabilità e crescita e l’agenda di Lisbona di riforme strutturali – necessitano di un’urgente e radicale opera di manutenzione.

Il Patto di stabilità e crescita

Cominciamo dal Patto di stabilità. L’obiettivo di rigore fiscale che avrebbe dovuto portare i paesi membri a conseguire il pareggio di bilancio entro il 2004 preparando i conti pubblici alle ricadute del processo di invecchiamento e consentendo alla politica fiscale di svolgere pienamente il suo ruolo di stabilizzatore del ciclo, è stato presto dimenticato, prima ancora che il rallentamento economico esercitasse i suoi effetti sui conti pubblici. Il Patto di stabilità rimane però uno strumento essenziale di coordinamento delle politiche fiscali in un’unione monetaria. In tale contesto, infatti, il mercato dei cambi non disciplina più le scelte di politica fiscale. Si appiattiscono quindi gli spread fra paesi e si indebolisce la sanzione di mercato nei confronti dei paesi meno virtuosi. Di conseguenza, politiche fiscali insostenibili in un paese membro si ripercuoteranno sui tassi di interesse di tutta l’area monetaria più che sui differenziali fra paesi. È un’esternalità negativa che la politica fiscale in un paese esercita sugli altri membri dell’area monetaria. Al Patto di stabilità era nei fatti assegnato il compito di internalizzare il più possibile questo effetto. Ma vi è un’altra esternalità, di segno opposto, che pesa non poco nel giudizio dei critici del Patto. È vero infatti che un miglioramento dei conti pubblici conseguito esclusivamente attraverso riduzioni di spesa o aumenti di imposte deprime l’economia e riduce la domanda di importazioni, con inevitabili effetti recessivi anche sulle altre economie dell’area. Oggi, in una situazione di forte rallentamento economico, è questo secondo effetto a prevalere.

L’agenda di Lisbona

Passiamo all’agenda di Lisbona. L’obiettivo era di favorire l’adozione di misure volte ad accrescere il potenziale di crescita delle economie dei paesi europei. L’attuazione delle riforme di Lisbona è però in gravissimo ritardo, come denunciato non solo dalla Commissione, ma anche dal Comitato di politica economica dell’Ecofin. Progressi più significativi avrebbero prodotto benefici di rilievo. Una crescita più rapida infatti non solo migliora i saldi di bilancio nel paese in questione, ma stimola i flussi di importazione e si ripercuote favorevolmente sui livelli di attività economica in tutta l’area. È un’esternalità positiva, a differenza del Patto di stabilità: l’adozione di politiche virtuose da parte di un paese ha ricadute favorevoli sui livelli di attività e sui conti pubblici di tutti i paesi dell’area. A ostacolare l’adozione dell’agenda di Lisbona hanno però contribuito i costi, anche di bilancio, delle riforme, le conseguenti resistenze politiche all’interno di ciascun paese, la riluttanza dei paesi membri a conferire ulteriori poteri alla Commissione e, di riflesso, la scelta di un metodo, quello del coordinamento aperto, in cui i paesi si limitano a confrontare le proprie esperienze di riforma nell’improbabile ricerca di una “best practice”. A differenza del Patto di stabilità, questo metodo non fornisce nessun incentivo, in positivo o in negativo, ad attuare le riforme per le quali, a parole, i governi si erano impegnati.

Il possibile rimedio

Un ovvio rimedio alla situazione di stallo che caratterizza sia il Patto di stabilità sia l’agenda di Lisbona consiste nel legare più strettamente i due programmi. Più che scorporare alcune voci “virtuose” di bilancio, ad esempio gli investimenti pubblici, dal computo del saldo di bilancio a fini dell’applicazione del Patto (anche molte voci di spesa corrente hanno effetti positivi sulla crescita, troppo spesso gli investimenti pubblici sono totalmente improduttivi), si dovrebbe consentire ai paesi che procedono più speditamente sulla strada delle riforme di struttura margini più generosi (ma limitati, nell’ordine dello 0,2-0,3 per cento del Pil) nella valutazione delle politiche di bilancio. I vantaggi sarebbero ovvii. Si stempererebbero le esternalità negative di una politica di mera restrizione fiscale che riduce la domanda aggregata anche nel resto dell’area. Si fornirebbe un incentivo ad attuare politiche di riforma, consentendo in particolare ai governi di compensare, nel breve periodo, i gruppi sfavoriti dalle riforme. L’obiettivo di crescita diverrebbe finalmente parte integrante del Patto di stabilità e l’agenda di Lisbona si vedrebbe dotata di strumenti operativi. Non mancheranno inevitabilmente le obiezioni a questa proposta. Valutare un programma di riforme strutturali è un esercizio intrinsecamente difficile,ma non impossibile. Non ci dovrebbero essere dubbi ad esempio che la liberalizzazione degli ordini professionali o lo smantellamento di un monopolio nel settore delle industrie a rete costituiscono un progresso anche se è difficile misurarne gli effetti. Ogni anno, sia la Commissione attraverso l’Implementation Report, sia il Comitato di politica economica dell’Ecofin, attraverso l’Annual Report, forniscono una valutazione dettagliata delle nuove politiche di riforma del mercato dei beni, dei servizi, del lavoro e dei capitali adottate dagli stati membri. Rimane ancora da definire a chi verrebbe affidata la valutazione delle politiche di riforme di un paese membro. All’Ecofin? No di certo. L’incentivo a un accordo collusivo in cui le riforme di tutti i paesi ricevono una valutazione favorevole sarebbe troppo forte. Una ragionevole soluzione di compromesso sarebbe di delegare alla Commissione tale valutazione, con l’obbligo però di sentire il Comitato di politica economica. Si eviterebbe così di conferire poteri giudicati eccessivi alla Commissione, si preserverebbe il metodo comunitario e si utilizzerebbero al meglio le competenze esistenti.

Nessun brindisi per il nuovo patto, di Charles Wyplosz

Il tentativo della Commissione europea di infondere nuova vita al moribondo Patto di stabilità e crescita è stato in larga parte accettato nell’incontro dell’Ecofin dello scorso week end, anche se resta qualche elemento di disaccordo. La strategia è quella di dichiarare che il Patto è vivo e vegeto, ma nello stesso tempo annacquarlo fino a renderlo irrilevante.

Le ragioni della Commissione

A prima vista, questo è un bene: il Patto doveva morire perché ha violato principi elementari di saggezza economica. Con l’estensione del concetto di circostanze eccezionali (l’oggetto del disaccordo all’Ecofin) per affrontare “condizioni specifiche” di un paese, la proposta della Commissione rompe quell’automaticità che era stata finora l’elemento fondamentale del Patto.
La Commissione ha ragione. Non solo mettere il pilota automatico alla politica fiscale è un non senso economico, ma è anche contrario al fondamentale principio democratico secondo il quale sono i parlamenti, e non le regole automatiche, a decidere sui bilanci. Alla Commissione deve inoltre essere riconosciuto il merito di aver respinto i suggerimenti dei tecnocrati che puntavano ad applicare il criterio del deficit del 3 per cento ai bilanci corretti per il ciclo. Il calcolo degli aggiustamenti per il ciclo è soggetto a tali difficoltà pratiche che potrebbe generare qualsiasi numero. Ma non solo. Perché mai cittadini e parlamenti dovrebbero imparare tali arcani concetti quando tutto quello che vogliono sapere è perché pagano le tasse? Infine, la Commissione ha giustamente riconosciuto che il metro corretto per misurare la virtù fiscale non è dato dall’equilibrio di bilancio annuale, ma dal fatto che i debiti pubblici, adeguatamente misurati, riescano a ridursi quando sono troppo alti.

Niente da festeggiare

Dobbiamo dunque festeggiare? Sfortunatamente, no. Il vecchio Patto era così rigido da risultare inapplicabile. È probabile che il nuovo sia così flessibile da non essere mai applicato. Certo, ai ministri delle Finanze continueranno a essere consegnati i pesanti rapporti della Commissione, con la descrizione accurata di tutti i loro sbagli. E continueranno gli inviti a esercitare la “pressione dei pari” l’uno sull’altro. I peccatori prometteranno di diventare virtuosi, per poi tornare nelle loro capitali e continuare a peccare. Come il precedente, anche il Patto resuscitato premia l’ipocrisia e come sempre le vittime sono i contribuenti. Con poche brillanti eccezioni, nell’Eurozona i debiti pubblici ufficiali sono già elevati, quelli reali sono ancora più alti. Il costo di pensioni e assistenza sanitaria presto reclamati dalla generazione del baby boom porterà i debiti pubblici ben al di sopra del 100 per cento del Pil. I governi soffrono di una distorsione sul deficit: amano lasciare un grosso conto da pagare ai loro successori più o meno prossimi. La maggior parte di noi non vuole lasciare in eredità ai propri figli debiti pesanti, invece è proprio questo che fanno i governi. Ma i contribuenti – e i loro figli – vanno protetti da questa distorsione sul deficit. Dobbiamo tornare ai principi di base e ricordarci che impedire ai governi di comportarsi male è esattamente la ragione per cui è nata la democrazia. Questo non ha niente a che vedere con l’unione monetaria, ma il Patto esiste ed è difficile che sia abolito. È perciò meglio usarlo per spingere i paesi membri ad adottare procedure che riportino i debiti pubblici a livelli ragionevoli. Ma non è necessaria l’uniformità. Ogni paese ha i suoi metodi per combattere il crimine o per scegliere i suoi governanti. Allo stesso modo, ogni paese può darsi le sue istituzioni per prevenire la distorsione sul deficit. Quelli che imputano il fallimento del Patto alla debolezza della Commissione perdono di vista il semplice fatto che fin dall’inizio la Commissione non doveva neanche essere coinvolta nella questione. È stata capace di uscire dalla trappola in modo intelligente, ma avrebbe potuto fare un passo ulteriore: chiamare i parlamenti nazionali a farsi carico della distorsione sul deficit, come sono costituzionalmente obbligati a fare. Il Patto deve diventare un accordo formale per costruire istituzioni nazionali capaci di varare politiche di bilancio virtuose. Come guardiano del Trattato, la Commissione dovrebbe proporre un calendario, monitorare i progressi e, se necessario, portare i governi inadempienti davanti alla Corte di giustizia europea.

Un patto più intelligente, di Andrea Montanino

Il 3 settembre la Commissione europea ha presentato le sue idee sulla revisione del Patto di stabilità e crescita. Si tratta di un ulteriore passaggio, dopo la Comunicazione di novembre 2002 (Pubblicata su lavoce.info del 26.11.2002) e quella di giugno 2004 (File pdf), verso un Patto più “intelligente”. Non sono però ancora proposte definitive e formali, ma piuttosto idee da cui partire per la discussione delle prossime settimane con gli Stati membri.

Le idee della Commissione

In sostanza, le idee della Commissione si sviluppano lungo due assi. In primo luogo, si propone una maggiore attenzione alla sostenibilità delle finanze pubbliche. Ciò si otterrebbe attraverso alcune modifiche legislative all’attuale sistema di regole tale da enfatizzare l’importanza delle condizioni del debito pubblico nella sorveglianza fiscale. Il secondo asse riguarda il ruolo da assegnare alla congiuntura economica. Attualmente, le condizioni cicliche sono considerate nell’analisi dell’obiettivo di medio termine (che è misurato in termini aggiustati per il ciclo), ma non nella procedura di deficit eccessivo: il tempo a disposizione per correggere il deficit una volta avviata la procedura è sostanzialmente indipendente dalla crescita economica.
Per quanto riguarda la sostenibilità, la Commissione propone che il percorso di rientro dal deficit eccessivo (quando cioè il deficit supera il 3 per cento del Pil) sia modulato in base allo stock del debito pubblico. In pratica, paesi a basso debito potrebbero beneficiare di un percorso d’aggiustamento più lento rispetto a quello attualmente previsto dal Patto (due anni. Cfr. http://europa.eu.int/). Anche l’obiettivo di medio termine – il cosiddetto bilancio prossimo al pareggio o in surplus – si differenzierebbe in base al debito e ai rischi di sostenibilità delle finanze pubbliche. Ancora una volta, paesi con posizioni di bilancio virtuose potrebbero avere obiettivi di medio termine meno stringenti del bilancio in pareggio, vale a dire un deficit.
Si tratterebbe poi di rendere operativo il criterio del debito previsto dal Trattato di Maastricht. Secondo il Trattato, un paese è soggetto alla procedura di deficit eccessivo sia se non rispetta il limite del 3 per cento nel rapporto deficit/Pil, sia se il suo debito è superiore al 60 per cento del Pil e il tasso di riduzione non è soddisfacente. Per mancanza di chiarezza su cosa debba intendersi per tasso di riduzione soddisfacente, la parte del Trattato relativa al debito non è stata di fatto mai applicata. La Commissione sembrerebbe intenzionata a dedicare maggiore attenzione alle condizioni cicliche anche nella procedura di deficit eccessivo, ammettendo ad esempio che la bassa crescita possa giustificare un aggiustamento più lento di quello normalmente richiesto. Inoltre, si avanza l’idea di rivedere la cosiddetta clausola di eccezionalità. Questa prevede che solo una caduta del Pil reale di almeno lo 0,75 per cento in un anno possa evitare la procedura a un paese che ha superato la soglia del 3 per cento nel rapporto deficit/Pil. La clausola di eccezionalità potrebbe invece verrebbe rivista per contemplare anche casi di riduzioni del Pil meno marcate. Così facendo, si potrebbero verificare più frequentemente casi di paesi con deficit superiori al 3 per cento, ma che – in base alle condizioni cicliche – non vengono sottoposti a procedura.

Il Trattato resta valido

Nel complesso, il Trattato rimane pienamente valido e l’impianto del Patto di stabilità non viene messo in discussione: i deficit eccessivi devono essere evitati, l’obiettivo di medio termine deve garantire finanze pubbliche sane e la sorveglianza fiscale rimane uno strumento essenziale di coordinamento delle politiche economiche. Le proposte della Commissione tendono piuttosto ad aumentare la razionalità economica del Patto stesso: maggiore attenzione alla sostenibilità, che in ultima analisi ha un effetto sulla stabilità dei prezzi, maggiore attenzione alle condizioni strutturali della finanza pubblica – in particolare lo stock e la dinamica del debito -, maggiore attenzione alle condizioni del ciclo economico nel fissare le scadenze della procedura di deficit eccessivo.
E’ necessario evitare che l’approccio proposto finisca per aumentare la discrezionalità degli agenti, in primo luogo del Consiglio, con il risultato di favorire un maggiore “opportunismo” piuttosto che una maggiore “intelligenza”. Per questo la Commissione sembra in favore di un sistema che preveda anche un tempo massimo per la correzione dei deficit eccessivi, oltre il quale un paese non può andare. Questo coniugherebbe la flessibilità necessaria per tenere conto delle diverse condizioni nei paesi membri, con il giusto rigore per dare certezza alle regole, anche a quella componente del Trattato che prevede sanzioni. L’applicazione del criterio del debito pubblico previsto dal Trattato andrebbe anch’essa in questa direzione.
Un approccio come quello abbozzato dalla Commissione non è maggiormente punitivo rispetto al sistema di regole attualmente in vigore per i paesi ad alto debito, ma piuttosto offre certezza che tutti i paesi si impegnino al risanamento fiscale per assicurare la sostenibilità delle finanze pubbliche nel lungo periodo. È un sistema che crea incentivi per politiche fiscali sane in periodi di alta crescita: la riduzione del debito pubblico infatti potrebbe portare in dote una maggiore flessibilità sul bilancio da usare in periodi di bassa crescita o per intraprendere costose riforme strutturali.

* L’autore opera presso la Direzione Generale Affari Economici e Finanziari della Commissione Europea, dove si occupa di finanza pubblica dei paesi europei e della riforma del Patto di Stabilità.

L’agenda di Lisbona e il presidente portoghese, di Stefano Micossi

L’agenda di Lisbona …

Tra i dossier che attendono il presidente Durão Barroso sulla scrivania, quello più impegnativo riguarda l’agenda di Lisbona, un ambizioso programma di riforme economiche approvato a Lisbona dai Capi di Stato e di Governo dell’Unione nel 2000, con l’obiettivo di fare dell’Unione “la più competitiva e dinamica economia della conoscenza entro il 2010”. Tutti i campi della politica economica sono coperti: innovazione e imprenditorialità, riforma del welfare e inclusione sociale, capitale umano e riqualificazione del lavoro, uguali opportunità per il lavoro femminile, liberalizzazione dei mercati del lavoro e dei prodotti, sviluppo sostenibile. Gli obiettivi sono condivisibili: ma essi appartengono perlopiù alla sfera delle decisioni nazionali. Nella maggior parte di quelle materie l’Unione non ha né competenze, né poteri d’intervento.

… e il coordinamento aperto delle politiche economiche

Tuttavia, il Consiglio europeo, dietro impulso della Commissione, ha utilizzato un nuovo metodo – il coordinamento aperto delle politiche economiche, già previsto dal Trattato per le politiche dell’occupazione – per giocare un ruolo crescente in questi campi. Il coordinamento aperto contempla la definizione d’obiettivi comuni a livello dell’Unione, l’adesione volontaria a tali obiettivi da parte dei paesi membri, e la verifica dei progressi compiuti da parte del Consiglio europeo attraverso meccanismi di benchmarking e “pressione dei pari”. Com’era inevitabile, il coordinamento aperto non ha mantenuto la promessa di facili realizzazioni. Inoltre, l’illusione di poter ottenere dal Consiglio europeo la ripresa della crescita e della produttività è diventata un diversivo per quei governi nazionali che non avevano la forza di decidere da soli. Per rimediare a tali mancanze, sono state proposte due vie d’uscita. La prima consiste nel far discutere ai parlamenti nazionali lo stato d’attuazione del programma di Lisbona, che in tal modo dovrebbero assumersene la responsabilità; la seconda, di accrescere la flessibilità del vincolo di bilancio del Patto di stabilità in funzione della realizzazione di certi obiettivi di Lisbona (ad esempio, le liberalizzazioni). Il mio suggerimento al presidente Barroso è di trovare il coraggio di gettare alle ortiche l’agenda di Lisbona. Ciò chiarirà, oltre ogni dubbio, che la responsabilità per la crescita, la disoccupazione e l’innovazione appartiene ai governi e ai parlamenti nazionali.

Il coordinamento delle politiche macro-economiche

Il mio secondo suggerimento riguarda il coordinamento delle politiche macro-economiche nazionali. Il Trattato di Maastricht aveva prefigurato uno schema semplice per la fase dell’unione economica e monetaria. La politica monetaria fu centralizzata e affidata ad una banca centrale indipendente, mentre la politica di bilancio fu lasciata agli stati membri, ma con il duplice vincolo – fissato dalla procedura dei disavanzi eccessivi del Trattato – del 3 percento sul rapporto tra il disavanzo (indebitamento netto) del settore pubblico e il pil e del 60 percento sul rapporto tra il debito e il pil (o almeno della tendenza a convergere verso tale valore). In seguito, il Patto di stabilità e crescita ha aggiunto l’ulteriore requisito dell’equilibrio “tendenziale”, nel medio termine, del saldo del bilancio pubblico. Ciò rispose all’obiettivo di prevenire il ritorno a politiche di bilancio destabilizzanti dopo l’ingresso nell’euro, creando al contempo lo spazio per oscillazioni adeguate del disavanzo, in funzione anticiclica, all’interno del limite del 3 percento.

Nonostante la sua credibilità sia danneggiata …

La credibilità di quest’apparato è stata malamente danneggiata – oltre che dalle difficoltà dei paesi membri a rispettare quei vincolo in un periodo prolungato di bassa crescita – dalla controversia pubblica tra il Consiglio Ecofin e la Commissione europea, nel novembre 2003, sull’applicazione della procedura dei disavanzi eccessivi alla Francia e alla Germania. Ciò non implica che l’apparato debba essere abbandonato.

… un vincolo esterno sulle politiche di bilancio dei paesi dell’Unione è necessario …

…come assicurazione collettiva contro il rischio di un’accumulazione esplosiva di debito pubblico in uno stato membro – un rischio accresciuto dall’impatto dell’invecchiamento della popolazione sulle spese per l’assistenza e le pensioni – la quale potrebbe danneggiare la stabilità finanziaria dell’Unione. Inoltre, tale vincolo fornisce un’ancora alle politiche di bilancio dei paesi membri con deboli sistemi politici e istituzionali.

… ma esso dovrebbe essere riferito alla sostenibilità del debito pubblico …

Ma l’apparato deve essere rivisto. Non condivido la posizione di coloro che chiedono di escludere le spese d’investimento dal disavanzo pubblico consentito: ciò fornirebbe nuovo stimolo agli accorgimenti contabili “creativi” e alimenterebbe il rischio d’accumulazione eccessiva di debito pubblico. Piuttosto, mi sembra che si dovrebbe spostare l’enfasi dei meccanismi di sorveglianza collettivi dal disavanzo allo stock del debito e alla sua stabilità intertemporale.

… e a contenere la crescita della spesa pubblica

Inoltre, il criterio di sostenibilità del debito pubblico dovrebbe essere integrato da un vincolo sul tasso di crescita tendenziale della spesa pubblica, che dovrebbe essere mantenuto sotto a quello del pil (nominale). La ragione è semplice: se le spese aumentano più del pil, alla fine si dovranno aumentare le imposte per sostenerne l’onere; e questo, abbassando il tasso di crescita potenziale del pil, finirà per ripercuotersi negativamente sullo stato di sostenibilità del debito pubblico.
Si dovrebbero anche aumentare i poteri della Commissione nell’iniziare la procedura dei disavanzi eccessivi, come da molte parti è stato proposto. Purché mai più essa dimentichi che la sorveglianza sulle politiche di bilancio degli stati membri è un compito che richiede nel massimo grado giudizio politico, e non può essere lasciato nelle mani di avvocati e meccanici esecutori.

Soprattutto, occorre concentrarsi sul completamento del mercato interno

Infine, la nuova Commissione dovrebbe assegnare priorità assoluta al completamento del mercato interno dell’Unione, un campo nel quale essa dispone di incisivi poteri legislativi e di esecuzione. Quest’obiettivo è ben lontano dall’essere realizzato, come risulta evidente dalla diffusione degli aiuti di stato e dalla mancata applicazione di direttive chiave quali quelle su appalti e forniture pubbliche e sulla liberalizzazione dell’energia. Inoltre, le norme comuni di liberalizzazione ancora mancano per molti servizi, dalla distribuzione ai servizi professionali ai servizi pubblici locali. L’evidenza empirica indica che la bassa produttività in questi servizi spiega largamente il divario di produttività dell’Unione rispetto agli Stati Uniti.

Benvenuto allargamento, di Fabrizio Coricelli

Il

 

Il primo maggio dieci nuovi paesi entreranno nell’Unione europea in un contesto di crescente scetticismo sul futuro della Ue.

Una barca senza timoniere

È sempre più evidente che si è messa in mare una barca senza timoniere. Gli atteggiamenti dei nuovi paesi membri sono altrettanto preoccupanti. Citiamo due esempi emblematici.
Il primo è il referendum tenutosi a Cipro, che ha visto la popolazione greca opporsi al piano dell’Onu per una riunificazione del paese.
Il secondo è dato dai consensi crescenti in Polonia per il partito populista di Lepper. Secondo il quotidiano Rzeczpolita, se si tenessero elezioni oggi, Lepper risulterebbe vincitore.
Questi non sono casi isolati. Con l’eccezione della Slovenia, i partiti di governo che hanno accompagnato i paesi nella Ue hanno consensi molto bassi (vedi tabella).
È difficile giudicare la dinamica politica nei vari paesi e le ragioni del netto calo di consensi verso i partiti pro-europeisti. È peraltro indubbio che qualcosa non abbia funzionato nel processo di allargamento, se si considera che l’ingresso nella Ue è stato uno dei principali motori del cambiamento e delle riforme in quei paesi.

Responsabilità equamente divise

A nostro avviso le responsabilità sono da attribuire, in parti uguali, ai vecchi paesi membri e alle istituzioni della Ue.
Si pensi a come è stato affrontato il problema dell’apertura delle frontiere ai cittadini dei nuovi paesi membri.
L’immigrazione è il principale beneficio economico per i vecchi paesi della Ue, che sono paesi maturi con una popolazione stagnante. L’immigrazione di cittadini dei nuovi paesi, molto più poveri, porterebbe significativi benefici al funzionamento del mercato del lavoro e contribuirebbe a migliorare le prospettive di sostenibilità dei piani pensionistici in molti paesi della Ue.
Questo, e forse unico, chiaro beneficio economico per i vecchi paesi Ue non potrà essere sfruttato, perlomeno nei prossimi anni, poiché si è deciso di rinviare fino a sette anni l’applicazione della libera circolazione dei cittadini nei paesi Ue.
A tale mancanza di visione di lungo periodo si è poi aggiunto il discredito delle istituzioni europee, in primis della Commissione europea.
Le vicende sul Patto di stabilità ne sono l’esempio più rappresentativo. La disinvoltura con la quale l’Ecofin ha liquidato le raccomandazioni della Commissione sull’applicazione delle regole fiscali alla Germania e alla Francia, ha minato la credibilità delle istituzioni europee.
Il segnale nei confronti dei nuovi paesi è chiaro: entrare nella Ue non vuol dire entrare in un’Unione condotta sulla base di regole trasparenti e, soprattutto, da rispettare.

Fuori dall’euro

Come si può notare nella tabella qui sotto, i paesi dell’Europa centro-orientale entrano nella Ue con elevati deficit fiscali, nettamente al di sopra del tetto massimo consentito del 3 per cento.
Non si può certo affermare che tali deficit sono causati da una posizione ciclica sfavorevole, poiché il tasso di crescita delle economie dei paesi entranti è sostenuto. Tali deficit sono il risultato di politiche economiche errate.
I paesi più piccoli (i paesi baltici e Slovenia) hanno seguito strategie diverse, probabilmente perché più consapevoli dei rischi che corrono paesi piccoli totalmente aperti ai movimenti di merci e di capitali se le politiche macroeconomiche non sono sostenibili.
Per i paesi più grandi non vi è stata alcuna pressione da parte della Commissione europea o della Banca centrale europea. Anzi, con l’obiettivo di ritardare i tempi dell’adozione dell’euro, la Commissione e la Bce hanno dato segnali evidenti di tolleranza per elevati deficit.
Si è diffusa l’opinione che finché resteranno fuori dall’euro i nuovi paesi membri non saranno soggetti ai vincoli fiscali della Ue. Questo fatto, scarsamente notato, è grave poiché i vincoli fiscali si applicano, secondo i Trattati dell’Unione, a tutti i paesi membri della Ue e non soltanto ai paesi della zona euro.
Fino a quando saranno fuori dall’euro i nuovi paesi membri rischiano crisi valutarie e finanziarie causate dal trinomio esplosivo di alti deficit pubblici, tassi di cambio più o meno controllati come prevede la Ue e perfetta mobilità dei capitali. L’esperienza dell’America Latina dimostra la vulnerabilità dei paesi emergenti a movimenti di capitali erratici, con boom seguiti da fughe repentine.

L’Ungheria ha già adottato il sistema di cambio previsto dalla Ue prima dell’ingresso nell’euro, ovvero quello di una banda (del 15 per cento sopra e sotto) attorno a una parità.
I risultati sono evidenti. Negli ultimi due anni il fiorino è stato sottoposto ad attacchi speculativi, prima verso l’apprezzamento poi verso il deprezzamento. La banca centrale ungherese ha tentato di scongiurare una crisi valutaria alzando drasticamente i tassi di interesse che sono saliti fino a toccare il 12 per cento, in un paese che ha un tasso di inflazione di poco superiore al 4 per cento.
Dopo che i mercati avevano scommesso su un rapido ingresso dei paesi entranti nell’euro, con una conseguente convergenza dei tassi di interesse ai livelli europei, ora le aspettative sono che l’ingresso nell’euro avverrà in un futuro remoto, con effetti negativi sui tassi di interesse interni anche per altri paesi, come ad esempio la Polonia. I nuovi paesi membri, in particolare quelli più grandi, sono avviati verso un periodo di forte instabilità economica che rischia di vanificare i grandi vantaggi del loro ingresso nella Ue. Al tempo stesso le tendenze politiche interne spingono in direzione di governi populisti e spesso anti-europeisti. Dall’euforia degli anni passati si sta passando a uno scetticismo generalizzato che prevede forti spinte nazionaliste.
Le responsabilità dei governi e delle istituzioni europee sono grandi. Un evento storico di portata straordinaria si sta trasformando in un processo caotico che accresce le spinte per un indebolimento del disegno di costruzione di una grande Europa.
La speranza è che i governi di tutti i paesi membri, vecchi e nuovi, comprendano la necessità di cambiare rotta per evitare che sfumi una grande opportunità.

Per saperne di più

Per una discussione più approfondita si veda Boeri, Tito e Fabrizio Coricelli, Europa: più grande o più unita?, Ed. Laterza, 2003.

 

 

 

Il fascino discreto del monopolio

Sommario, a cura di Carlo Scarpa

E’ stato un anno difficile per i servizi pubblici italiani, e lavoce.info ha cercato di mettere in luce alcuni aspetti critici. Soprattutto la telefonia sembra ancora un mercato ove la concorrenza stenta molto a funzionare, checché ne dica l’impresa dominante… Mentre i trasporti vivono momenti difficili, sia per quanto riguarda il punto di vista deiconsumatori, sia per la crisi pesante di Alitalia, che abbiamo analizzato sotto tanti punti di vista, senza pretendere di “dare una risposta” ma, speriamo, offrendo alcuni elementi di riflessione.

Liberalizzazione, servizi pubblici e povertà, di Raffaele Miniaci, Carlo Scarpa e Paola Valbonesi

Si parla di impoverimento continuo, di difficoltà delle famiglie ad arrivare alla fine del mese; temi più che rilevanti e preoccupazioni rispettabili. Spesso si incolpa l’euro o i commercianti , ma qualche volta si punta il dito accusatore anche contro le tariffe dei servizi pubblici, e ci si chiede se i consumatori siano veramente tutelati da chi le determina.

L’orientamento al mercato

La questione è particolarmente spinosa, poiché da diversi anni a questa parte si è assistito a un processo di graduale liberalizzazione – o quanto meno “orientamento al mercato” – di molti servizi pubblici. Questa tendenza ha avuto realizzazioni ed effetti diversi nelle diverse utility.
Nella telefonia, ormai siamo di fronte a un mercato dalla parvenze concorrenziali, anche se dominato dal vecchio monopolista. In ogni caso, è un mercato con dinamiche proprie e in forte evoluzione, tanto da meritare
un’analisi a parte.
Nel settore idrico, la riforma del 1994 (la “Legge Galli”) ha lentamente portato a superare la frammentazione dei servizi forniti nel territorio, così che quasi in ogni provincia si sta gradualmente giungendo ad avere un unico fornitore di tutti i servizi (acquedotto, fognatura e depurazione).
Liberalizzazione certo non è un’espressione pertinente a descrivere quanto avviene, ma “orientamento al mercato” sì: i sussidi pubblici non sono più accettati, e anzi il prezzo dell’acqua deve salire per coprire il costo dei pesanti investimenti necessari (1) e per incentivare il risparmio idrico a favore delle generazioni future.
Parimenti, nei settori dell’energia, il processo di orientamento al mercato si caratterizza per una maggiore attenzione alla copertura dei costi del servizio attraverso la tariffazione e per una maggiore trasparenza delle tariffe stesse. Qui, tale processo ha toccato soprattutto il segmento all’ingrosso (si pensi ad esempio alla borsa elettrica) ma, comunque, è sempre poca la concorrenza indotta: restano, infatti, posizioni di enorme potere di mercato da parte di Eni ed Enel.
D’altro canto, è anche vero che i conti delle imprese di questi settori, ormai tutte sul mercato azionario, devono rispettare criteri di mercato.

E l’impatto sulle famiglie

Come ha inciso questo processo di riforma sul budget delle famiglie italiane? I cosiddetti “problemi di sostenibilità” nel consumo delle utility di base sono aumentati o diminuiti? Analizzare i dati Istat sui consumi delle famiglie consente di mettere in luce alcuni aspetti di rilievo. (2)
Tra le tre utility “di base” qui considerate, il metano e gli altri combustibili per riscaldamento sono quelle per cui si spende di più: in media circa il 5-6 per cento del reddito delle famiglie italiane. Non gran che, ma tale ammontare varia parecchio da Regione a Regione, in considerazione di vari elementi che determinano effetti contrastanti (tabella 1).
Da un lato, il Nord è più ricco, ma è anche più freddo, e questo richiede maggiori spese per il riscaldamento (non a caso, in Sicilia la spesa per riscaldamento è minima…). Dall’altro, mentre i prezzi dell’elettricità sono uguali su tutto il territorio, quelli del gas e quelli dell’acqua presentano differenze a volte colossali (e non sempre comprensibili). Ad esempio, perché per riscaldarsi una famiglia dell’Emilia Romagna paga il 14 per cento più di una famiglia piemontese? Non certo perché in Piemonte fa più caldo. Si tratta quasi certamente di differenze di prezzo sulle quali occorrerà riflettere meglio.
Anche se si guarda alla percentuale del reddito che si spende per questi servizi, le differenze non riflettono la classica dicotomia Nord-Sud. La Regione ove in media si spende meno (il 4,6 per cento della spesa) è la Sicilia, probabilmente per ragioni climatiche. Quelle ove si spende di più, Basilicata e Calabria (6,6 e 6,9 per cento della spesa): qui il reddito basso non è neppure compensato da condizioni climatiche sempre favorevoli.

Povertà e servizi di base

Tutto questo assume un rilievo particolare quando l’attenzione si concentra sulle fasce più deboli. L’analisi a questo punto si scontra con un limite oggettivo. In Italia non si è mai costruito un indice sulla cui base definire – date le condizioni climatiche delle diverse zone del paese – quanta energia e quanta acqua dovrebbe consumare una famiglia per condurre una vita, non diciamo agiata, ma almeno sana. Quindi, manca un parametro oggettivo che ci sappia dire cosa significa “povertà” – in senso assoluto – con riferimento al consumo di questi servizi di base (ad esempio, quella che in Gran Bretagna si chiama “fuel poverty”).
A partire dalle informazioni contenute nell’indagine Istat sui consumi delle famiglie è comunque possibile individuare un livello minimo di consumi in utility al di sotto del quale si può parlare di “esclusione sociale”, e valutare che una famiglia incontri problemi di sostenibilità se per assicurarsi questi standard minimi di consumi deve spendere una quota considerata eccessiva del proprio reddito
Seguendo questa logica, si scopre che una quota tra l’11 e il 15 per cento delle famiglie italiane si trova a spendere per il paniere minimo considerato più di questa soglia – ovvero ha problemi di sostenibilità della spesa nei servizi di base – almeno per una delle tre utility. Questa percentuale è più alta in alcune delle Regioni tradizionalmente povere (Molise, Basilicata, Calabria), ma anche Regioni quali Piemonte o Friuli – più ricche, ma anche più fredde – mostrano tensioni da non trascurare.
Il processo di liberalizzazione ha acuito il problema? Per questi settori, la risposta per ora sembra essere negativa. La quota di famiglie “sotto stress” non cresce, anzi sembra diminuire. E in realtà se si guarda alla dinamica dei prezzi (figura 1) si vede come gas ed elettricità abbiano una dinamica dei prezzi in linea con l’indice generale dell’inflazione: nonostante l’aumento del petrolio, l’operare dell’Autorità per l’energia – almeno fino al 2003 – ha saputo proteggere i consumatori.
D’altra parte, i prezzi dell’acqua sono esplosi: +33 per cento dal 1997 al 2003 in termini nominali, circa 15 per cento sopra il tasso di inflazione. E questo è purtroppo solo l’inizio, stanti gli investimenti ingenti che attendono il settore idrico nei prossimi anni. Poiché elettricità e riscaldamento pesano di più nei bilanci familiari, questo significa che in media i consumatori che spendono una quota troppo elevata della loro spesa nelle utility di base sembra diminuire, proprio a partire dal 2001.
Possiamo fare previsioni sul futuro immediato? Sul fronte idrico, le tariffe continueranno a crescere, e su quello energetico presto o tardi le tariffe risentiranno dell’aumento del prezzo del petrolio. E non è certo che le Autorità locali preposte al servizio idrico integrato riusciranno a concordare opportune articolazioni tariffarie con i rispettivi gestori, né che – a livello nazionale, per gas ed elettricità – l’attuale Autorità dell’energia sarà in grado di proteggere i consumatori come quella precedente, guidata da Pippo Ranci.
Per ora, in termini di tariffe, le riforme in queste utility sembrano avere funzionato in modo imperfetto, ma almeno ragionevole.


(1) Si stimano pari a 51 miliardi di euro nell’arco di ventisei anni, di cui circa il 45 per cento per acquedotti e il 55 per cento per fognatura e depurazione, (Comitato Risorse Idriche, Relazione al Parlamento sullo Stato dei Servizi Idrici, 2003)

(2) R. Miniaci, C. Scarpa e P. Valbonesi (2004), Restructuring Italian utility markets: household distributional effects.



Il telefono, la tua bolletta, di Carlo Cambini

La liberalizzazione ha trasformato profondamente il settore delle telecomunicazioni, che oggi opera in regime di concorrenza, anche se imperfetta.
In attesa che l’Autorità per le garanzie nelle comunicazioni renda pubblica la sua analisi di mercato e quindi ci dica se esistono eventuali problemi a cui porre rimedio, cerchiamo di valutare l’impatto che la liberalizzazione ha avuto dal 1998 a oggi sulle tariffe telefoniche e quindi sul consumatore.

Un’analisi difficile

Effettuare tale analisi è assai arduo. I servizi sono molto differenziati tra loro (chiamate urbane, nazionali e internazionali, le chiamate fisso-mobile, accesso a internet), spesso le tariffe variano con le fascia oraria, e il dedalo delle offerte (con parti fisse o variabili, sconti, offerte speciali e quant’altro), soprattutto nella telefonia mobile, complica ulteriormente la situazione.
Possiamo però dire qualcosa di più preciso sui servizi voce tradizionali (telefonia fissa) e sui ricavi medi per abbonato nel caso della telefonia mobile. Sono i segmenti più tradizionali, ma forse quelli più delicati per valutare se e quanto i piccoli consumatori abbiano beneficiato dalla liberalizzazione.

L’andamento delle tariffe nel fisso…

In tabella 1 sono riportati i valori dei canoni mensili dal 1998 al 2003. (1)
Ne emerge che – a seguito del ribilanciamento tariffario (2) – i canoni medi sono aumentati di circa il 20 per cento in cinque anni, con un aumento in termini nominali del 44,2 per cento per il canone residenziale e del 13,8 per cento per quello affari (per il periodo 2000 – 2004).
Questo pesa soprattutto per le famiglie, per le quali il canone costituisce oggi in media circa il 40 per cento della spesa complessiva, mentre per l’utenza affari incide solo per circa il 18 per cento.
Il peso sempre più rilevante del canone è bene evidente anche nei ricavi di Telecom Italia: dal 2003 i ricavi fissi da canone (pari a 7.870 milioni di euro) hanno superato quelli da traffico (7.116 milioni di euro).
I costi variabili (per minuto) sono invece calati. I prezzi delle chiamate urbane (tabella 2) sono rimasti costanti in termini nominali e quindi si sono ridotti in termini reali, restando per altro sempre inferiori alla media Ue. Sia per le chiamate a lunga distanza (tabella 3) sia per quelle internazionali (tabella 4), i prezzi hanno avuto una consistente riduzione in termini nominali, pur restando in entrambi i casi ben al di sopra della media europea.
In media, quindi, la riduzione delle tariffe per il traffico voce in Italia è stata circa pari al 50 per cento, non distante peraltro dalla riduzione che hanno avuto le tariffe all’ingrosso (- 45 per cento circa) che gli operatori alternativi devono pagare a Telecom Italia per l’accesso alle sue reti.

…E nel mobile

Un discorso a parte merita il settore della telefonia mobile. Come già detto, i prezzi in questo settore sono particolarmente difficili da analizzare, stante i pochi dati a disposizione. In assenza di un vero e proprio prezzo di riferimento, si può usare come approssimazione il ricavo medio per abbonato (figura 1). Dai dati emerge come esso si sia ridotto nel tempo di circa il 50 per cento, ma anche come dal 2000 a oggi la discesa di questo valore si sia pressoché fermata.
Un tale andamento è legato all’esplosione nell’utilizzo del cellulare sia per le chiamate sia per i servizi dati (sms soprattutto) che ha permesso agli operatori di mantenere stabili i propri ricavi per abbonato. Proprio per il fatto che l’Italia è uno dei primi paesi europei per numero degli sms inviati, gli operatori mobili, invece di abbassare i prezzi unitari delle chiamate o guerreggiare su tariffe al minuto più basse, si sono concentrati sull’offerta di pacchetti di servizi sempre più articolati basati sulla possibilità di inviare centinaia di messaggi gratuiti a fronte di un costo fisso.
Il risultato è di rendere il sistema tariffario ancor meno trasparente di quanto poteva esserlo prima, ma questa è un’altra storia.

Dove sono i benefici per il consumatore

Se è vero che non si è qui tenuto conto delle molteplici offerte presenti oggi in Italia, è altresì vero che non si hanno dati certi circa il loro utilizzo nelle famiglie italiane. Quindi, la nostra analisi può considerarsi una proxy del consumatore medio italiano che non necessariamente utilizza offerte speciali.
Se in prima battuta ci si aspettava che la liberalizzazione avrebbe dato ai consumatori finali ampi benefici, forse è bene ricrederci, almeno in parte. Pur nei limiti dei dati disponibili, possiamo infatti concludere che i prezzi unitari dei servizi di telefonia si sono ridotti, ma l’aumento della spesa per il canone fisso è tale da assorbire buona parte di questi benefici.
Nelle stime effettuate da Eurostat ciò è evidenziato in modo significativo.
Considerando un paniere di spesa dei servizi telefonici in modo aggregato – fisso (canone + chiamate) + mobile, utenza residenziale e business -, si può osservare come dal gennaio 1996 al gennaio 2004 l’indice dei prezzi in Italia si è ridotto solamente di 10 punti percentuali in termini reali (si veda LINK BERARDI), molto meno di quanto si è verificato in Francia e Germania, paesi in cui il processo di liberalizzazione è partito allo stesso momento dell’Italia. E non solo: particolarmente preoccupante è il fatto che tale indice sia rimasto pressoché costante dal 2002 a oggi. Che ciò sia dovuto alla presenza di competitori più efficienti o a una regolazione più rigida di quella italiana è difficile da dire. Senza dubbio, ciò mostra che in Italia molto ancora si può e si deve fare per garantire maggiori benefici ai consumatori finali.


(1) Tutti i dati sono stati ripresi dai “Report on the implementation of the Telecommunications Regulatory Package” della Commissione europea pubblicati tra il 1999 e il 2004.

(2) In capo a Telecom Italia vi è l’obbligo di fornire il cosiddetto “servizio universale”, che consiste nell’assicurare l’accesso e l’erogazione di un livello minimo di servizi a tutti gli utenti che ne facciano richiesta, a un prezzo ragionevole e a prescindere dalla loro ubicazione geografica. Storicamente questi costi venivano coperti tramite sussidi incrociati, ossia praticando tariffe superiori ai costi per alcuni servizi (chiamate interurbane e internazionali) e tariffe più basse sui servizi di base. Questo poteva essere sostenibile con un solo operatore, ma con la liberalizzazione alcuni concorrenti sono entrati soprattutto ove i margini di guadagno erano più elevati, e il regolatore è allora dovuto intervenire, attuando il cosiddetto “ribilanciamento” tariffario che ha significato riallineare i prezzi ai costi dei singoli servizi, e anche aumentare il canone. Per maggiori dettagli si rimanda a Cambini, Ravazzi e Valletti, Il mercato delle telecomunicazioni, Il Mulino, 2003.



Alitalia dopo gli accordi, di Marco Ponti e Andrea Boitani

È difficile compiere una valutazione accurata delle prospettive di Alitalia dopo l’accordo con i sindacati. Molti punti cruciali del piano industriale sono ancora poco noti e pende il giudizio della Commissione europea sul riassetto societario e finanziario complessivo del gruppo, in particolare dopo la recente “segnalazione” da parte di otto compagnie concorrenti, secondo le quali il piano sarebbe sorretto da aiuti di Stato.

I vincoli della Commissione

La Commissione europea aveva condizionato l’autorizzazione all’erogazione del prestito-ponte di 400 milioni di euro (garantito dallo Stato) al varo di un piano credibile per riportare la compagnia in utile dopo dieci anni di bilanci in rosso. Inoltre, aveva vietato ad Alitalia (se si fosse salvata) di accrescere la sua flotta per qualche anno, in modo che non potesse utilizzare i fondi del prestito ponte per potenziare la sua capacità concorrenziale nei confronti delle altre compagnie europee. Allo stesso tempo, la Commissione aveva vincolato l’autorizzazione alla ricapitalizzazione di Alitalia alla riduzione della quota dello Stato nella compagine azionaria al di sotto del 50 per cento.

Gli accordi con i sindacati e la parte del Governo

La credibilità a breve termine del piano stava quasi tutta nella capacità della compagnia di ridurre il personale (che nei due anni precedenti era cresciuto, nonostante i risultati sempre più negativi) e il costo del lavoro per unità di prodotto, che era il più alto in Europa. (1) Perciò, nella trattativa coi sindacati, l’azienda aveva posto un obiettivo di 5mila esuberi, ma è riuscita a ottenerne soltanto 3.700. Inoltre, aveva chiesto e ottenuto l’azzeramento dei vecchi contratti di lavoro e l’accordo per contratti meno onerosi, con stipendi legati al lavoro effettivo prestato (ore volate, eccetera). Altro punto fondamentale era, per l’azienda, la separazione dei destini della compagnia di volo (AZ Fly) dalle attività di servizio a terra (manutenzione, handling aeroportuale, servizi di informatica, call center e così via), in cui si annidava una parte consistente delle perdite e che dovevano confluire nell’azienda AZ Service.
Un a volta raggiunto l’accordo con i sindacati, il Governo decideva di accordare ai lavoratori in esubero di Alitalia, così come ai loro eventuali colleghi di altre compagnie aeree, l’accesso alla cassa integrazione guadagni, integrata con un fondo speciale per portare i sussidi erogati all’80 per cento dello stipendio. Tale fondo dovrebbe venir alimentato con una piccola “tassa” (circa 1 euro) sui biglietti aerei.
La riduzione degli esuberi rispetto alle richieste dell’azienda può avere diverse letture. Resta comunque il fatto che i minori esuberi implicano una minor riduzione dei costi rispetto al desiderato e quindi – per far tornare i conti – la necessità di un maggior incremento dei ricavi. Cosa quest’ultima che implica una riconquista di quote di mercato non facile da ottenere nel quadro fortemente competitivo che si va affermando sulle rotte europee, grazie soprattutto alla presenza aggressiva delle compagnie low cost. Le prospettate alleanze di AZ Fly con altri vettori italiani, però, potrebbero semplicemente tradursi in un aumento del “grado di monopolio” sulle rotte nazionali, ovviamente a danno dei consumatori.
Quanto al nuovo sistema retributivo concordato con i sindacati, sembra di poter dire che esso rappresenti un effettivo passo in avanti verso un assetto sostenibile tanto sotto il profilo dei costi quanto sotto quello della produttività, anche se non è possibile affermare – sulla base delle informazioni disponibili in questo momento – che si tratti di un passo decisivo o anche solo sufficiente.
Per la prima volta si è deciso di offrire ammortizzatori sociali estesi a un intero comparto e non limitati all’azienda in crisi. È una novità importante. Tuttavia, la concessione del fondo integrativo appare un pericoloso precedente, soprattutto in quanto destinato a categorie di lavoratori tradizionalmente alquanto privilegiate. La vicenda, inoltre, ripropone l’esigenza di prevedere – non nel mezzo di una crisi aziendale o settoriale – un sistema di ammortizzatori sociali equo e generalizzato a tutti i lavoratori.

Riassetto societario o aiuti di Stato?

Molti dubbi solleva il riassetto societario previsto dagli accordi. Il controllo azionario di AZ Service da parte di AZ Fly (preteso e ottenuto dai sindacati) può indurre a sospettare che non venga reciso il cordone ombelicale tra le due aziende e che, quindi, AZ Fly continui ad “acquistare” servizi inefficienti e a costi superiori a quelli di mercato da AZ Service o che, invece, AZ Service fornisca i suoi servizi sottocosto, sobbarcandosi passivi ingenti.
Non chiaro appare il ruolo attribuito nel piano a Fintecna, che dovrebbe rilevare una quota rilevante (se non addirittura il 49 per cento) del capitale ordinario di AZ Service (e il 100 per cento del capitale “privilegiato”). Perché dovrebbe farlo? E a quale prezzo per ogni azione? Allo stato degli atti non pare che, per Fintecna, un simile acquisto possa costituire un obiettivo strategico. Qualora Fintecna acquisti le azioni di AZ Service solo perché l’azionista di riferimento di Fintecna stessa (cioè il Tesoro) lo impone, e a un prezzo molto più alto di quello di mercato, l’operazione potrebbe configurarsi come una mascheratura di aiuti di Stato. Che potrebbero configurarsi anche se ad AZ Service venisse attribuita una quota molto grande dei debiti pregressi di Alitalia. Ma qui conviene sospendere il giudizio, in attesa di maggiori informazioni sulla natura dell’operazione e del pronunciamento della Commissione europea.
La segnalazione alla Commissione da parte di otto compagnie europee è un segno inequivocabile dell’interesse con cui la vicenda Alitalia è seguita dai concorrenti. È anche un segnale (positivo) che il grado di collusione nel settore si è ridotto (un atteggiamento simile sarebbe impensabile nel settore ferroviario, per esempio).
D’altra parte, date le regole vigenti, i concorrenti possono sempre sperare che il mancato salvataggio di Alitalia sia seguito dalla cessione dell’azienda per un valore pari a quello degli unici asset realmente interessanti che possiede: gli slot aeroportuali e la “designazione” per le rotte intercontinentali più ricche (cioè soprattutto quelle transatlantiche). (2)
Alitalia non è più da tempo un monopolista in Italia, ma detiene pur sempre il 43 per cento del mercato nazionale (aveva il 66 per cento solo nel 2001) e il 22 per cento circa dei voli tra l’Italia e le altre città europee, ma soprattutto è ancora il duopolista leader sulla rotta Milano-Roma, una delle più ricche del continente.
Chi “ereditasse” Alitalia non sarebbe meno ingombrante della vecchia compagnia di bandiera. D’altra parte, le compagnie denuncianti hanno non a caso fatto riferimento alla presenza di un eccesso di capacità nel mercato del trasporto aereo. Il che significa che la scomparsa di un concorrente potrebbe consentire di ridurre la capacità e alzare i prezzi, con improbabili vantaggi per i consumatori. Purché, naturalmente, il salvataggio di Alitalia non sia esso stesso distorsivo della concorrenza, e che il perdurare di una “compagnia di bandiera” in difficoltà non induca il Governo ad atteggiamenti anticoncorrenziali sia nelle scelte di riassetto interno del comparto sia nei confronti di Bruxelles.


(1) Il valore aggiunto per dipendente è passato da 64mila euro nel 1999 a 47mila nel 2003, a causa di una riduzione del valore aggiunto prodotto e di un aumento dei dipendenti da circa 19100 a oltre 20600.

(2) Gli slot, infatti, non vengono messi all’asta ma sono assegnati in base alla regola dei grandfather rights. Questi diritti hanno dunque un valore di mercato proporzionale ai profitti ottenibili sui voli che possono essere fatti grazie a quegli slot.

Alitalia: bene così, ma non facciamoci illusioni di Carlo Scarpa

La crisi Alitalia sembra ormai arrivata vicina ad una soluzione. Era chiaro a tutti che o si sarebbe trovato un accordo sul nuovo assetto della compagnia, o il fallimento sarebbe stata l’unica alternativa. E’ da molti mesi evidente come un’impresa che perde oltre un milione di Euro al giorno (dati di inzio 2004) non aveva altre possibilità. Su lavoce.info abbiamo già trattato spesso il tema, e in particolare Marco Ponti già 15 mesi fa aveva indicato come la strada più seria poteva essere quella di rimettere Alitalia in linea con le compagnie a costo minore, piuttosto che rilanciare una improbabile super-impresa con ambizioni di “globalità”. Ma abbassare il costo del lavoro o il numero di dipendenti non serve a molto, se non aumenta di molto la produttività: di chi resta, e anche questo sembra che stia per succedere con i nuovi contratti. Non possiamo che rallegrarcene, auspicando che adeguati ammortizzatori sociali siano attivati per tutti i lavoratori coinvolti dagli esuberi. Purtroppo, della liberalizzazione che si auspicava allora si vede ben poco – anzi il recente richiamo dell’Enac alle compagnie straniere affinché aumentino i prezzi sembra un’agghiacciante stonatura. E della privatizzazione (auspicata anche da Mario Sebastiani) ancora non si vedono che promesse, e solo relativamente a una vendita parziale. Anche se è forse ovvio che al momento attuale solo un folle investirebbe in Alitalia, la soluzione che si prefigura – la semplice discesa della quota pubblica sotto il 50% – non è certo garanzia di apertura, poiché il controllo rimarrebbe saldamente in mano al Governo. Il problema (come anche sottolineato da Goldstein con riferimento ad esperienze apparentemente lontane) è la credibilità del Governo – non tanto o non solo di quello attuale, quanto dell’esecutivo italiano, sempre esposto a pressioni difficilmente controllabili. E, infatti, il costante richiamo di parte del sindacato al mantenimento del controllo pubblico rappresenta un’altra nota stonata, sia rispetto alle raccomandazioni della Commissione, sia rispetto ad eventuali prospettive di alleanze su base internazionale. Un altro tema importante che ora riaffiora è quello delle rotte da sviluppare o da abbandonare. Anche se le economie di rete non sono tali da prestarsi a soluzioni semplicistiche, il ridisegno delle rotte e del rapporto con gli aeroporti è un passaggio inevitabile. Allo stesso tempo, emerge con chiarezza che Malpensa sarà un problema, e lo si sapeva da tempo. Non credo sia un problema tanto per Alitalia, ma soprattutto per la Lombardia. E Malpensa dovrà seriamente cercare una soluzione ai suoi problemi senza Alitalia. La cosa curiosa è che la soluzione per Malpensa potrebbe proprio essere un aumento della concorrenza per Alitalia: mentre da un lato iniettiamo denaro pubblico per salvare la compagnia di bandiera, proprio i grandi investimenti effettuati a suo tempo con denaro pubblico si ritorceranno contro Alitalia?

Per Alitalia, guardiamo all’estero, di Andrea Goldstein

Sul Sole 24Ore del 18 maggio, Carlo De Benedetti osserva giustamente che la nazionalizzazione non può essere la soluzione dei problemi del trasporto aereo in Italia.

Una tattica errata

La strategia che De Benedetti indica, però, non convince e rischia di suggerire al Governo una tattica sbagliata nella ricerca delle risorse necessarie per risolvere la crisi di Alitalia. Un business plan che punti a rafforzare i collegamenti point-to-point in Europa e nel Mediterraneo, grosso modo sotto le tre ore, non è né necessario né sufficiente.
Non c’è bisogno di creare una nuova azienda sulle ceneri di Alitalia per permettere alla business community italiana e ai turisti stranieri di viaggiare. Per questo ci sono già i vettori stranieri e le low-cost, comprese quelle italiane che, come Volareweb, stanno già crescendo rapidamente.
Inoltre, a nessun vettore tradizionale, anche ove liberato degli oneri del servizio pubblico, è riuscita la transizione verso un modello di gestione a costi ridotti. Ma se anche questa strategia funzionasse, rischia di non essere sufficiente.
L’esperienza di compagnie europee e asiatiche (spesso pubbliche, come Air France, Emirates o Singapore Airlines) mostra chiaramente come il salto di qualità nei risultati aziendali richiede una strategia aggressiva di sviluppo a partire di un hub efficiente.

Due esperienze di successo

La strada per Alitalia passa necessariamente per la vendita di una quota significativa del capitale (diciamo il 30/40 per cento) a un operatore straniero, cui sia trasferita la gestione operativa del vettore.
Con esso il Tesoro dovrà firmare un chiaro contratto che indichi gli obiettivi strategici: in altre parole, la visione che il Governo ha per la compagnia di bandiera. Non è ragionevole discutere della cessione di una quota di maggioranza: allo stato la compagnia non è un cespite interessante e, soprattutto, la regolamentazione del trasporto aereo internazionale condiziona la designazione di una compagnia nel quadro degli accordi bilaterali alla proprietà nazionale.
Gli esempi cui guardare non mancano, per una volta bisogna però avere l’umiltà di imparare da paesi ben più poveri dell’Italia.
Nel 1996 e 1997, rispettivamente, i governi del Kenya e dello Sri Lanka decisero che l’unica strada per arrestare l’inesorabile declino delle proprie compagnie aeree passava per un accordo con partner esteri disposti a investire risorse, non solo finanziarie, nella difficile missione di trasformare vettori locali privi di una strategia chiara in aerolinee capaci di crescere e sostenere lo sviluppo dell’industria e del turismo.

Emirates ha acquistato 40 per cento di Air Lanka, ribattezzata Srilankan, mentre Klm ha acquisito il 26 per cento di Kenya Airways.
In ambedue i casi, l’investimento finanziario è stato relativamente modesto, anche perché gli introiti sono andati al fisco, non alla società.L’elemento cruciale è stato il contratto di gestione che ha chiaramente definito gli obiettivi e le responsabilità del nuovo partner.
Nel caso keniota, l’accordo indica come obiettivi aumentare i servizi tra l’Africa e il resto del mondo, condividere risorse, conseguire economie di scala e integrare Kenya Airways nelle alleanze che Klm sviluppa a livello globale. In cambio, Klm nomina i principali dirigenti, ma non la maggioranza del consiglio d’amministrazione, e ha il potere di veto sulle decisioni più importanti.
Anche in un contesto globale di crisi del trasporto aereo, le due compagnie hanno registrato tassi di crescita importanti – conseguiti grazie alla razionalizzazione della flotta, alla massiccia introduzione di strumenti informatici per ottimizzare la struttura tariffaria, a una rete di rotte e frequenze capace di supportare lo sviluppo di Nairobi e Colombo come incipienti hub regionali. Il margine operativo lordo è migliorato, il numero di passeggeri e la quantità di merce trasportati sono moltiplicati e ambedue la compagnie accumulano i riconoscimenti internazionali.
Risultati tanto più sorprendenti se si ricorda che Kenya e Sri Lanka sono stati drammaticamente colpiti dall’instabilità politica – attentati di Al Quaida a Nairobi e Mombasa, la guerra civile in Sri Lanka e la distruzione di aerei di Srilankan a opera dei terroristi Tamil. Ma ambedue le compagnie hanno ben letto i segnali del mercato. Ad esempio, dopo la conclusione di un accordo open skies con l’India, Srilankan serve quindici destinazioni in quel paese, con l’obiettivo di fare di Colombo un nuovo hub per collegare un mercato di un miliardo di persone con l’Asia e l’Europa.

Credibilità da costruire

L’esperienza di Kenya Airways e Srilankan contiene due messaggi che vale la pena trasmettere a chi ha a cuore l’avvenire di Alitalia.
Il primo, e più immediato, è che l’apertura a capitali esteri migliora la gestione con benefici reali, tra i quali l’aumento della forza lavoro rispetto all’epoca della proprietà pubblica. Non a caso, in ambedue i paesi le relazioni industriali sono ora significativamente migliori di quanto fossero quando la controparte del sindacato era il Governo.
Il secondo è che, in un settore come il trasporto aereo, per consentire questi risultati è necessario che il Governo sviluppi una strategia chiara e credibile. La credibilità si può costruire anche in contesti difficili come quelli di Kenya e Sri Lanka e non dipende necessariamente dalla continuità politica – tant’è che in nessuno di questi paesi il Governo che firmò gli accordi con gli investitori stranieri è ancora al potere.
Ma ciò richiede visione e perseveranza nel non capitolare di fronte alle proteste, per esempio quelle che accompagneranno la necessaria scelta dell’unico hub nazionale. Questa è la politica industriale moderna di cui l’Alitalia e il paese avrebbero bisogno.

(1) “Il mercato richiede chiarezza”, Il Sole 24 Ore, 18 maggio

Come si dice Malpensa in cinese?, di Francesco Cavalli, Francesco Gazzoletti e Daniele Nepoti

Malpensa e Alitalia: un rapporto turbolento

Malpensa è stato pensato e costruito come un grande hub. Uno scalo di questo tipo funziona se ricorrono, tra le altre, almeno tre condizioni:
La prima è che ci sia una compagnia aerea di riferimento. Alitalia è, nelle dichiarazioni, questa compagnia. Installata nell’hub di Fiumicino, la compagnia sostiene da anni di voler rafforzare Malpensa. Tuttavia, il personale Alitalia dislocato presso gli scali milanesi (centro di un bacino che vale circa il 70 per cento della domanda di trasporto aereo nazionale) si mantiene intorno a un irrisorio 6,6per cento (1.400 persone su 21.000) e non c’è traccia di progetto per l’installazione di una base di armamento a Malpensa.
Ora, è noto che nessuna compagnia aerea può puntare simultaneamente su due hub, meno che mai Alitalia. Il problema è che la lotta tra romani e milanesi per l’esclusività di Alitalia danneggia tutti, in primo luogo la compagnia aerea.

Una volta tramontata l’ipotesi di fusione con Klm infatti, che proprio in Malpensa trovò il motivo della progettata alleanza e la causa del suo fallimento, il rapporto speciale tra Alitalia e l’hub varesino è finito per sempre. Ed è interesse di tutte le parti in gioco considerarlo reciso una volta per tutte.

La questione di fondo è che in il trasferimento di Alitalia a Malpensa risulta semplicemente impossibile. A parte i costi in questo momento impensabili che la compagnia dovrebbe sopportare per il “trasloco”, Alitalia non lascerà Fiumicino perché è una società romana, nel bene e nel male legata a Roma e al suo milieu politico-economico.

Malpensa solo contro tutti

Una seconda condizione è che esista una serie di aeroporti serventi (Feeding). Si sa che Malpensa ha un nemico in casa: Linate. Un grande aeroporto riceve benefici dalla vicinanza di scali più piccoli a patto che sul primo si concentrino un’importante quantità di voli intercontinentali e che sia ben collegato, anche via terra, con i secondi.
Sotto il primo aspetto, Alitalia ha poche rotte intercontinentali (per di più spalmate tra Fiumicino e Malpensa) e con prezzi medi elevati. Inoltre, trasferire le rotte di Linate su Malpensa sarebbe possibile solo se il progetto incontrasse il consenso di tutto il paese. Ma questo non avverrà, in quanto il centro Sud (ovvero chi prende l’aereo e non il treno per raggiungere il Nord) preferisce (a ragione) volare su Linate, a soli 7 Km dal centro di Milano. Inoltre, i continui conflitti tra i soggetti politico-istituzionali milanesi e lombardi, con la Regione (esclusa dal capitale di Sea) decisamente propensa ad un depotenziamento di Linate e il Comune e la Provincia di Milano fieramente avversi, indeboliscono ulteriormente tale possibilità. Questi elementi, uniti alla questione infrastrutturale, spiegano il fatto che Linate (come altri aeroporti del Nord) funzioni spesso come vero feeding airport di hub europei diversi da Malpensa.

La terza condizione è poi un adeguato sviluppo delle infrastrutture e delle funzioni complementari di terra. Malpensa è sostanzialmente isolato dal suo territorio a causa della mancata attuazione dei piani esistenti per creare un sistema efficiente di infrastrutture stradali e ferroviarie. A questo si aggiunga il fatto che in prossimità dell’aeroporto non si è pienamente realizzato il necessario complesso di funzioni complementari e di supporto alle attività aeroportuali (accoglienza, logistica, ecc.).
Eppure, Malpensa beneficia di una localizzazione straordinaria per la prossimità al nodo di Milano (incrocio tra Corridoio V e Genova – Rotterdam, e tra i bracci della grande “T” dell’Alta Velocità italiana) e al mega polo esterno della Fiera.
Inoltre, dal punto di vista tecnico e di pianificazione, esistono tutti gli elementi perché possa decollare lo sviluppo del territorio circostante l’aeroporto (Piano d’area Malpensa) e perché possano essere gradualmente realizzate tutte le infrastrutture di trasporto necessarie (verso Milano e Orio al Serio, il Gottardo e il Sempione, Torino e Genova).

Quale soluzione?

Appare chiaro che la soluzione di questi tre punti è intimamente legata. Solo scegliendo una compagnia di riferimento si potrà ottenere un coinvolgimento dei privati, capace di affiancare un attore pubblico che difficilmente potrà farsi carico interamente del finanziamento delle opere infrastrutturali sopra richiamate.
Non è nell’interesse di nessuno che Alitalia fallisca. E se la compagnia italiana riuscirà ad uscire dalla crisi attuale, sembra destinata a raggiungere l’alleanza franco-olandese. Tuttavia, tale prospettiva pone a Malpensa un problema. La geografia stessa indica infatti che, al di là delle intenzioni di Alitalia, Malpensa sarebbe fagocitato da Parigi Charles de Gaulle: troppo vicini i due aeroporti, troppo bassa la capacità di contrattazione di Alitalia, troppo sviluppato l’hub parigino. Chi si prende dunque il mercato aereo del Nord Italia?

Sulla base di un quadro di fondo così tratteggiato, è possibile ipotizzare schematicamente uno scenario di questo tipo:

– abbandono da parte di Malpensa del legame con Alitalia, in favore di un vettore non continentale e concorrente rispetto agli aeroporti di riferimento dell’alleanza Skyteam e Star Alliance, meglio se asiatico: Malpensa hub europeo di AirChina?

Inoltre:
– definizione del ruolo degli scali dell’Italia del Nord attraverso l’avvio di uno stretto coordinamento tra la Sea e i gestori aeroportuali favorevoli;
– blocco di ogni prospettiva di sviluppo dell’aeroporto di Montichiari come ulteriore hub intercontinentale del Nord e progressiva riduzione di Linate ad aeroporto regionale.
-privatizzazione di Sea, cautelandosi rispetto a acquisizioni da parte dei concorrenti. In presenza di conflitti endemici tra diversi livelli amministrativi e partitici la privatizzazione della Sea, costituisce l’unica via per impostare una strategia di sviluppo svincolata dagli umori politici del momento.

All’Alitalia serve chiarezza, di Carlo Scarpa

Nel bloccare il salvataggio di Alitalia – se veramente è questa la sua intenzione – Giulio Tremonti ha ragione; è un atto di serietà. Ma la storia di Alitalia è complessa, e non abbiamo ancora capito come può andare a finire. E occorre proporre qualche alternativa (anche se il “no” è già un buon punto di partenza).

La storia di Alitalia, già raccontata anche su questo sito (vedi Ponti), è fatta di perdite che si cerca di tappare con provvedimenti di breve respiro e che ripetutamente la Commissione europea bolla come aiuti di Stato. E quando la società prova a mettere le mani a rimedi strutturali, montano gli scioperi e si cerca la soluzione politica. Ignorando che non c’è soluzione politica che possa consentire a un’impresa di stare su un mercato avendo costi superiori a quelli dei rivali, cambiando piani industriali ogni tre mesi, e fornendo un servizio di qualità ormai percepita dai consumatori come inferiore a quella degli altri. E Alitalia continua inesorabilmente a scivolare su una china in fondo alla quale non ci sono certo posti di lavoro.

Quanto costa il servizio pubblico?

Poco tempo fa, Mario Sebastiani su lavoce.info ha sottolineato come la privatizzazione totale di Alitalia sia l’unica strada per fare chiarezza, e la chiarezza è fondamentale se vogliamo riportare l’impresa sulla strada dell’equilibrio economico.
Da un lato, abbiamo rotte che “stanno in piedi da sole”, che sono redditizie e sulle quali Alitalia non avrebbe bisogno di particolari sussidi. Dall’altro, abbiamo rotte che invece vengono servite soprattutto, se non soltanto, per ragioni di equilibrio territoriale, per non isolare le periferie di questo complesso paese (le isole, ma non solo) dai suoi “centri”.
Se le prime possono essere lasciate al mercato, le seconde – costituendo un servizio “sociale” – dovrebbero essere invece pagate come gli altri servizi sociali di questo paese. Solo che questo richiede, intanto, di far sapere esplicitamente quanto costano, e poi di porre il problema di chi debba pagare per tale servizio. Potremmo magari scoprire che interessa una parte del territorio, ma non il resto. E in periodi di devolution, questi sono temi scottanti.
Si può lasciare Alitalia al mercato? Se si separa ciò che ha senso dal punto di vista della redditività dell’impresa da quanto invece è servizio pubblico, forse sì. O almeno, una volta effettuata tale separazione, se Alitalia dovesse affondare, le rotte non servite da Alitalia sarebbero comunque coperte da altre compagnie, che avrebbero a loro volta bisogno di lavoratori in più, e quindi non sarebbe un problema enorme. Se questa separazione avvenisse, sarebbe il mercato a dire se Alitalia merita di restare in vita, e il paese e i lavoratori andrebbero avanti comunque.
Se questa separazione non avviene, allora Alitalia resterà con un peso (il servizio pubblico in aree non redditizie) che rischia di affondare anche quanto di buono si annidasse in questo carrozzone. E continuiamo a vivere una contraddizione. Da un lato, mettiamo un’impresa nel mercato azionario; dall’altro continuiamo però a gravarla di obblighi simili al “servizio universale” a cui si assoggettano le imprese che vendono acqua, luce o gas, senza però dire chi dovrebbe pagare per tale obbligo. Peggio ancora, questo avviene in un settore che l’Unione europea (non solo la perfida Commissione) ha da tempo dichiarato aperto alla concorrenza, e ove gli aiuti di Stato non sono tollerati.
Come dicevo prima: occorre fare chiarezza. Occorre distinguere ciò che pertiene alla sfera del mercato, e ciò che invece pertiene alla sfera del servizio pubblico. Però per fare questo bisogna avere il coraggio di dire quanto costa servire le isole; quanto costa servire il Sud del paese, e magari convincere la Lega che probabilmente parte di questo deve essere pagato anche dal “Nord”.

Non facciamo previsioni…

Anche se ritengo questa la soluzione (nel medio periodo) più sensata, non scommetterei un centesimo sul fatto che sarà quella prescelta.

Tempo fa, Guido Rossi definiva il capitalismo italiano un capitalismo “straccione”. È vero. Ma è anche un capitalismo – sempre – assistito e politicizzato. Purtroppo questo è vero per Parmalat (che per anni ha cercato di tenersi in piedi con appoggi politici), per Retequattro (salvata dal satellite dalla legge Gasparri), per le piccole imprese (leggi allevatori e quote latte, o società di calcio). Ed è vero per l’industria pubblica (leggi Alitalia). Ma l’elenco potrebbe continuare.

La chiarezza dei conti sembra essere un optional. E lo stesso Tremonti farà fatica a mantenere alta la guardia. Forse non è un caso che proprio un ministro della Lega (Roberto Maroni) preferisca un piano di salvataggio che mantiene l’attuale commistione tra mercato e servizio pubblico, che evita quindi la chiarezza, ma anche ad esempio di comunicare agli elettori del Nord quanto costa servire le zone meno avanzate del paese.

Perchè Alitalia resta a terra, di Mario Sebastiani

Si fa un gran parlare di Alitalia, come se rappresentasse l’unico motivo di preoccupazione del nostro paese in campo aereo. Lo stesso “tavolo” di settore attivato mesi fa dal Governo, iniziativa lodevole in astratto, in definitiva sembra avere come destinatario vero la sola compagnia di bandiera. Ma tutte le compagnie aeree italiane se la passano molto male, troppo piccole per essere competitive. Lo stesso vale per gli operatori aeroportuali, privi di certezze sul loro status, spesso carenti di cultura imprenditoriale e in deficit di trasparenza verso compagnie aeree o passeggeri.

Un paradosso italiano

Se le difficoltà del settore oggi hanno dimensione mondiale, in Italia assumono un aspetto paradossale. Le potenzialità di crescita della domanda di trasporto aereo sono considerevolmente più elevate che altrove e, diversamente dagli altri aeroporti europei, quelli italiani hanno capacità in eccesso. Esiste dunque una domanda sommersa da sfruttare e infrastrutture sufficienti a sostenerla, per quanto poco efficienti; ma sembra non esistano compagnie nazionali in grado di cogliere questa opportunità.
Alitalia rappresenta un problema nel problema: costi unitari più elevati, progressivo ritiro da una serie di collegamenti, perdita di quote di mercato su altri, con un circolo perverso attivato dalla tirannia dei costi fissi. E poi c’è Malpensa, hub senza speranze immediate, ma che obbliga la compagnia a dividere la già insufficiente massa critica di mezzi con Fiumicino.
A mio avviso, il management ha lavorato bene, anche se qualche errore lo ha commesso.

Ha avuto poco coraggio nel presidiare collegamenti in perdita, sottovalutando l’effetto domino, per cui se si abbandona un collegamento si finisce con il perdere traffico anche su altri. E forse c’è stata una certa mancanza di coraggio sul piano del costo del lavoro/sindacale, anche se questo va soprattutto attribuito ai condizionamenti politici. Le due cose hanno interagito, perché le opposizioni sindacali hanno tratto alimento anche dalla sensazione che gli esuberi fossero dovuti al ritirarsi progressivamente da una serie di mercati.
Ora il piano Alitalia sembrava andare nella direzione giusta. Nell’arco di un triennio, prevede di abbattere del 18 per cento i costi per posto offerto e di aumentare del 30 per cento la capacità, in parte consistente su collegamenti di lungo raggio. L’introduzione della cassa integrazione è un provvedimento salutare (lo sarebbe per l’intero settore dei trasporti) che può contribuire a sdrammatizzare nell’immediato le tensioni, anche se non risolve i problemi a lungo andare.

Un caso emblematico

E allora, perché cambiare cavallo proprio ora? Il motivo è lo stesso che ha decretato il declino della compagnia e del settore da quando la liberalizzazione ne ha rese evidenti le debolezze.
Da dieci anni il mercato su cui opera Alitalia è diventato contendibile, ma la società seguita a essere considerata come concessionaria di pubblico servizio, delegata a svolgere ruoli, come venditore e come acquirente di servizi, in nome e per conto dello Stato, entità che da noi è tradotta in “Governo”. Di qui la missione di massimizzare il consenso sociale e territoriale, in base al noto teorema per il quale una società di proprietà pubblica che genera tensioni sociali fa perdere voti nell’immediato, mentre non li fa guadagnare se è in utile, per lo meno non entro un orizzonte temporale rilevante.

Sotto questo profilo l’Alitalia è un caso emblematico dei molti conflitti di interesse che si annidano nei tanti ruoli che lo Stato si trova a svolgere. A cominciare dalla difficoltà di identificare l’azionista pubblico: teoricamente è il Tesoro che dovrebbe avere come obiettivo quello di massimizzare il valore dell’azienda. In realtà è il Governo, la cui collegialità costituisce la stanza di compensazione dei mille obiettivi che si pretende di assegnare alla compagnia.
E ci stupiamo se gli alleati europei pretendono che la società sia privatizzata prima di costituire un’alleanza? In generale la privatizzazione non è un toccasana, ma nel caso specifico porterebbe a due risultati essenziali:

· tracciare una chiara demarcazione fra i servizi che vanno svolti in regime di mercato (pagano i passeggeri) e quelli da sussidiare (paga la fiscalità generale). Se un’impresa ritiene non conveniente un servizio deve essere libera di sopprimerlo; se altri non subentrano spontaneamente interviene lo Stato con incentivi non discriminatori;
· attribuire alla politica il ruolo che le spetta: indicare le linee industriali del settore (non della compagnia);

Fatto questo, le relazioni industriali rientrerebbero nella normale dialettica fra le parti sociali.
E resterebbero distinte due figure che oggi si confondono: gli shareholders dagli stakeholders, posto che oggi gli italiani tutti si sentono azionisti; peggio, si sentono soci di un’associazione da cui pretendono servizi personalizzati.

La privatizzazione necessaria

In questo contesto una parziale privatizzazione è inimmaginabile: come può esistere un soggetto privato serio (disposto a investire soldi veri) desideroso di entrare in società con lo Stato? Più fattibile una privatizzazione totale: le difficoltà industriali ed economiche della compagnia sono un rischio valutabile, che ovviamente andrebbe scontato dal prezzo, con conseguente sacrificio per l’azionista uscente.
Naturalmente questo suscita lo spauracchio della mano straniera, della compagnia di bandiera “non più” di bandiera. Per inciso, questo spauracchio è stato agitato anche per altri settori, e la giusta richiesta di reciprocità verso gli altri Stati non sembra essere stata dettata tanto dall’obiettivo di offrire alle nostre aziende le stesso opportunità all’estero che riconosciamo a quelle straniere, quanto dall’inclinazione ad attivare un processo di reciproca interdizione.

Con la privatizzazione sarebbe possibile attivare le alleanze, complemento essenziale per ogni ipotesi risanamento e di sviluppo. È questa la via da seguire anche sul mercato domestico, dove le altre compagnie sono destinate a scomparire se non si va verso una logica di integrazione.
Sappiamo bene che su questa strada si va incontro ai rilievi delle Autorità antitrust, in particolare di quella italiana. Ma se è vero che il diritto della concorrenza deve assicurare il pluralismo, è anche vero che se si disconoscono le logiche industriali pluralismo e competitività verranno comunque meno, e con esse lo sviluppo e la tutela degli utenti.

Appartiene dunque alla politica europea e nazionale ricercare un nuovo equilibrio fra istanze che appaiono contrapposte, inclusa l’armonizzazione delle discipline e delle prassi antitrust.
Bisogna promuovere aggregazioni fra le compagnie (sostituire la concorrenza con la cooperazione) fino ad arrivare a pochi gruppi internazionali, ma al tempo stesso creare le condizioni per una concorrenza vera fra i gruppi.

Vola solo il deficit, di Marco Ponti

Alitalia perde 50mila euro all’ora. Ma negli ultimi quindici anni ha visto pochi bilanci in attivo, e a volte solo grazie ad artifici contabili. Questo, anche negli anni in cui era monopolista, con tariffe molto alte.

Una fotografia della situazione

Quanto è costato agli italiani il monopolio in questi anni? Difficile fare i conti: ma poiché le tariffe “low cost” sono circa un terzo di quelle delle compagnie tradizionali, la stima dell’ordine di grandezza è possibile. E si immagini gli effetti sulla crescita complessiva del settore, e dell’occupazione (la domanda è molto elastica alle tariffe).
Con l’avvento di una (modesta e incompleta) liberalizzazione, le tariffe hanno iniziato a scendere, e la crisi, già nota e segnalata dagli studiosi del settore, è diventata “conclamata”.
Le cause più evidenti sono da ricercarsi nella bassa produttività del personale e dei mezzi, una politica tariffaria divenuta dinamica solo da poco, una flotta “arlecchino”, con moltissimi tipi di aereo, e alcune scelte incomprensibili (in particolare il trireattore MD11).

Il settore rimane caratterizzato inoltre da costi elevati sia per i servizi aeroportuali (non liberalizzati nonostante i richiami della Commissione europea) che per quelli del controllo del traffico aereo, mai regolati in modo efficiente.
Rimangono, poi, importanti segmenti non liberalizzati: i voli intercontinentali e i diritti di atterraggio (“slots aeroportuali”) più redditizi, proprietà esclusiva della compagnie di bandiera. Senza tali protezioni pubbliche (assimilabili di fatto a sussidi), molte compagnie di bandiera sarebbero già uscite da tempo dal mercato, e non solo in Italia.

Da notare che la dominanza della compagnia di bandiera (che detiene più del 50 per cento del mercato) genera “scioperi selvaggi”. Tali scioperi in un mercato concorrenziale farebbero rischiare il fallimento della compagnia che non riuscisse a evitarli.
Nel caso di un produttore dominante paralizzano il paese, e quindi conferiscono un potere improprio per chi li promuove. È esattamente quanto accade nel trasporto pubblico locale, anch’esso caratterizzato da scioperi selvaggi che fermano le città.
Il monopolio quindi non garantisce la pace sociale, anzi si può affermare il contrario.

Una scelta di sviluppo

Che fare ora, con una situazione così deteriorata? La privatizzazione, sempre annunciata e sempre rimandata, sembra indispensabile, per rimettere nella gestione obiettivi di efficienza, “allontanando” le interferenze politico-clientelari.
Il cambio del management ora sembra immotivato (o peggio, ancora motivato da ragioni di controllo politico). Potrebbe essere giustificato solo se il nuovo vertice fosse scelto in base a un piano industriale più convincente di quello ora sul tavolo, ma non ci sono segnali in questo senso.

Ma il problema più di fondo, da molti sollevato, è quale politica complessiva perseguire per il settore.
Le alternative sono sempre le stesse: o una politica “colbertiana”, di rinnovata tutela del “campione nazionale”, o una politica che punta allo sviluppo di un contesto davvero concorrenziale, proteggendo gli utenti invece che i produttori, e favorendo la crescita complessiva del settore.
La prima strada punta a rafforzare le alleanze internazionali. Il loro scopo primario, si badi, non è il bene dei viaggiatori, ma la capacità di premere su Bruxelles per mantenere posizioni di privilegio nelle condizioni di apertura del mercato in corso di negoziato con gli Usa. Si tratta cioè di costituire “compagnie di bandiera europee” al posto di quelle nazionali. Questa strategia comporterebbe poi il mantenimento allo Stato di una “golden share”, che segnali la posizione di privilegio di Alitalia, e lo spostamento dei voli da Linate a Malpensa, in modo da ridurre la concorrenza sui voli intercontinentali, a danno dei milanesi (e delle città del Sud).

In passato, in questo modo non si è generata né efficienza né capacità di competere. Perché dovrebbe accadere ora?
La strada alternativa è quella di accelerare la privatizzazione senza “golden share”, e premere sull’Europa perché si acceleri la reale liberalizzazione del settore (l’Italia ha sempre agito in senso contrario, con i risultati che si vedono). La liberalizzazione dei servizi aeroportuali, e una regolazione efficiente delle concessioni (richiesta anche dall’antitrust) e del controllo del traffico aereo dovrebbe ridurre molti costi impropri.
Il settore è in rapida evoluzione con l’avvento delle compagnie “low cost”, che dovranno anche poter oprare sui servizi extra-Europa. Cosa abbiamo da perdere? Perché non scommettere su una Ryanair italiana tra qualche anno?
C’è solo da rammaricarsi che queste cose si scrivevano già cinque anni fa, in un contesto assai meno compromesso.

Alitalia: un’Italia senza ali, di Marco Ponti

Le recenti imbarazzanti vicende dell’Alitalia, ma soprattutto i disagi dei cittadini che devono servirsene, sollecitano qualche riflessione di carattere generale sul settore, senza soffermarsi solo su un episodio di ordinario malcostume.

Lo scenario

L’11 settembre, la guerra irachena, e infine la Sars hanno accentuato una crisi del comparto aereo in atto da tempo su scala mondiale: la United Airlines prossima al fallimento, la Sabena e la Swissair chiuse, Alitalia con bilanci in rosso da un decennio, e il ricorso di molte compagnie di bandiera europee agli aiuti di Stato (ogni volta l’ultimo, si intende). Ma la crisi è crisi delle “grandi compagnie storiche”, perché nel frattempo le nuove compagnie “low cost” sono cresciute e hanno anche realizzato ingenti profitti. E ciò nonostante l’opposizione, oltre che delle compagnie di bandiera “attaccate”, anche dei Governi. E senza risparmi in fatto di sicurezza perché le compagnie “low cost” attribuiscono a questo fattore una priorità molto elevata per la semplicissima economica ragione che nel loro caso un incidente sarebbe sicuramente attribuito dai “media” a insufficiente manutenzione, con conseguenze devastanti.

Caratterizzato da crisi profonde anche nei decenni precedenti (si pensi alla scomparsa delle maggiori compagnie “storiche” statunitensi (Twa, Eastern e Pan American), il settore affronta quindi un cambiamento strutturale, seppure ancora in presenza di elevate protezioni per le compagnie maggiori, sia negli Stati Uniti che, soprattutto, in Europa. Il regime degli “slots” (il diritto di operare servizi in certe ore su certe rotte) non è stato mai liberalizzato, così come sostanzialmente rimangono vincolati alle grandi compagnie i servizi intercontinentali (e infatti le compagnie “low cost” non operano in questo campo). Inoltre, sia negli Usa che in Europa permangono vincoli molto stringenti per i regimi proprietari, che sono negati a soggetti “esterni”.

Una debolezza strutturale

Di questa debolezza strutturale del settore sono state tentate molte spiegazioni. Vediamone due, tanto recenti e accreditate quanto poco convincenti. La prima (cfr. “The Economist” 3-9 maggio 2003) sostiene che il problema è essenzialmente legato a dimensioni aziendali insufficienti: basterebbe accentuare (e consentire) fusioni e concentrazioni per garantire la prosperità del settore (in analogia con quello automobilistico). Ma qui le “economie di scala” hanno un ruolo molto più incerto, come dimostra il fatto che sono le compagnie di maggiori dimensioni ad avere sofferto di più la crisi in Usa (e in Europa). Anche il fenomeno della crescita delle compagnie “low cost” contribuisce a smentire questa tesi.

La seconda spiegazione si fonda sui costi eccessivi del carburante, del lavoro, dei servizi aeroportuali, del controllo del traffico aereo, ecc., (cfr. “Volare” maggio 2003), ma la crescita delle compagnie “low cost” sembra indebolire l’argomentazione. Gli aumenti di costi, se reali, hanno colpito tutto il settore: le “low cost” sono sfuggite in Europa solo all’esosità dei grandi aeroporti, ma non alle altre voci, di fatto preponderanti.

E comunque non è chiaro perché tali maggiori costi non possano essere trasferiti all’utenza finale, in forte crescita sul lungo periodo (per confermare tale “non trasferibilità”, si ricorda che il settore ha avuto redditività molto modeste fino dagli anni Settanta, pur con crescita impressionante del traffico servito).

Sembrerebbe invece che la fragilità del settore sia determinata dalla combinazione di due fattori: caratterizzato da bassi profitti e con una domanda fluttuante nel breve periodo, il settore si dimostra inoltre a offerta rigida, come se prevalessero i costi fissi. In altre parole, sembra che la crisi sia connessa a esuberi di capacità strutturali, anche se periodici. Questa spiegazione si adatta bene all’Europa: grandi compagnie semipubbliche e inefficienti (da cui i bassi profitti), con offerta rigida per ragioni politiche (iper-tutela del lavoro, “immagine nazionale” da sostenere).

Ma forse è possibile riscontrare elementi di rigidità dell’offerta anche nelle grandi compagnie americane. Possono essere legati alla necessità del controllo sui segmenti più redditizi della rete (gli “slots” strategici non liberalizzati richiedono la non interruzione, neppure temporanea, del servizio, pena l’avvento di concorrenti. È la logica che discenda da un regime noto come “grandfathers’right”). A ciò si può aggiungere per estensione la necessità del controllo di interi aeroporti “hub” (cioè nodo della rete dei servizi, e spesso sede amministrativa e tecnica della compagnia dominante), come Atlanta, Denver, Chicago. La posizione dominante in un aeroporto ha anche risvolti politici: garantisce posti di lavoro o servizi alla comunità locale che è generalmente proprietaria dell’aeroporto, e che “ricambia” garantendo proprio la dominanza. Ridurre i voli nei periodi di crisi può incrinare le alleanze costituite, aprendo così le porte ai concorrenti (si pensi ai complessi rapporti tra Sea, Aeroporti di Roma e Alitalia, per un esempio più vicino a noi).

Il caso Alitalia

Per quanto riguarda il nostro Paese, Alitalia è in sofferenza ormai da più di dieci anni, con bilanci in perdita nonostante le elevate tariffe e la protezione di cui gode (slots, voli intercontinentali). La crisi attuale mette in moto pressioni per ridurre alcuni costi (aeroportuali e di controllo del traffico aereo). Sono costi da monopolio naturale che vanno ridimensionati, e di molto, con una buona regolazione pubblica mirata a incentivare drasticamente l’efficienza delle gestioni. In questi giorni il tentativo di riduzione del costo del lavoro, con la contrazione del personale di bordo, ha dato luogo a forme di protesta inaccettabili, indicative di relazioni industriali improprie e tipiche di aziende abituate a regimi clientelari (per inciso, un contesto più concorrenziale ridurrebbe grandemente l’impatto di tali proteste anomale sugli utenti, grazie a un’offerta di servizi meno concentrata).

Ma a livello europeo occorrerebbe “approfittare” dell’attuale crisi per liberalizzare il settore, invece che per rafforzarne le barriere monopolistiche (c’è una proposta all’attenzione della Commissione europea di “congelare” gli slots non usati dalle compagnie maggiori, a danno delle compagnie “low cost” che potrebbero accedere a rotte e aeroporti più appetibili).

Si potrebbe pensare a sostegni economici (“una tantum” per davvero, questa volta) concordati a livello europeo anche per bilanciare gli analoghi interventi in Usa. In cambio si dovrebbe avviare una reale privatizzazione e apertura del sistema a nuovi soggetti, che già hanno creato grandi benefici agli utenti europei con la loro efficienza. Tali sostegni economici avrebbero il significato di “viatico”, cioè sarebbero connessi alla sostanziale cessazione della presenza pubblica nel settore (se non a fini regolatori a difesa degli utenti), e potrebbero servire anche a tutelare gli addetti delle compagnie che fossero costrette a drastici ridimensionamenti.

Infine, la crescita delle compagnie “low cost” significa occupazione e domanda di nuovi aerei, in altre parole uno sviluppo del settore che i grandi “elefanti bianchi” del passato non sembrano più in grado di garantire. A quando una “Ryan Air” italiana?

Il magico mondo delle ferrovie, di Carlo Scarpa

C’erano una volta le Ferrovie dello Stato. Funzionavano bene o male, a seconda, ma almeno non cercavano di “gabbare” i passeggeri. Ora tutto è cambiato, e forse anche quest’ultima convinzione dovrebbe essere messa in discussione. Permettetemi di raccontare un paio di storie.

L’interregionale dei desideri

Cerco di fare un biglietto da Pordenone a Brescia. Mi dicono che all’ora che mi interessa devo cambiare a Mestre (vero) e che posso prendere solo l’Eurostar. Obietto: guardi che mi hanno detto che c’è un Intercity. Il bigliettaio mi guarda un po’ torvo, finge di faticare un po’ al terminale, e mi fa il biglietto Intercity (treno che partiva prima dell’Eurostar, si noti.). Stava cercando di farmi arrivare dopo, facendomi pagare più del necessario? Strano.

Cerco poi altri treni alla biglietteria automatica, e noto che sistematicamente, per andare da A a B, ti suggeriscono sempre se possibile l’Eurostar o l’Intercity, nascondendo gli interregionali fin quando possibile, ovvero te li propongono per la tratta minima.
Esempio? Per andare da Mestre a Treviglio (che è tra Brescia e Milano) si può andare in Intercity fino a Brescia, e poi prendere l’interregionale (che viene da Verona) per l’ultimo pezzetto; oppure prendere l’Intercity solo fino a Verona, e poi salire sullo stesso interregionale di cui sopra fino a Treviglio. Orari di partenza e di arrivo sono gli stessi. Ma la “macchinetta” ti nasconde la seconda combinazione, proponendo solo la prima, che ha una tratta Intercity più lunga, e quindi costa di più. Ripeto: a parità di orari di partenza e arrivo.
Il dubbio che effettivamente stiano cercando di far pagare al cliente più del necessario si rafforza. Esempi di questo tipo, da pendolare “storico” e cliente “affezionato” delle nostre ferrovie ne potrei fare tanti, ma mi sono chiesto se stavo sviluppando una mia paranoia, o se c’era qualcosa di vero in quanto osservavo. E ho cominciato a chiedere.

A ciascuno la sua Divisione

La separazione tra chi gestisce la rete (i binari, eccetera, Rfi) e chi gestisce il “materiale rotabile” (i treni, Trenitalia) è nota da tempo, sulla scorta di una qualche moda politica e intellettuale, secondo la quale si può avere sufficiente concorrenza tra diverse compagnie ferroviarie da più che compensare gli intuibili scompensi, frammentazione di responsabilità e così via, che la separazione comporta. Speriamo sia vero.
La cosa meno nota è che in questa riorganizzazione sono state effettuate ulteriori suddivisioni all’interno di Trenitalia, che è articolata non in vere e proprie società, ma in “divisioni”, che non solo non si coordinano come dovrebbero, ma hanno proprio interessi divergenti.
Per quanto ci riguarda più direttamente, da una parte abbiamo la “Divisione passeggeri”, a cui fanno capo tra l’altro Eurostar, Intercity e la maggior parte delle biglietterie; dall’altra, troviamo la “Divisione trasporto regionale”, ove stanno invece i treni regionali e interregionali. A parte il dubbio gusto nella scelta del nome (sono passeggeri pure le persone che viaggiano sui treni regionali) dove sta il problema? Facciamo un paio di esempi.

Ogni divisione ha i suoi treni e i suoi centri di manutenzione. In Lombardia, i due centri di manutenzione ancora aperti sono destinati uno ai treni merci (“Divisione cargo”, che meriterebbe un altro articolo), l’altro agli Intercity e Eurostar (della Divisione passeggeri). I locomotori del trasporto regionale vengono sottoposti a manutenzione un po’ da una parte e un po’ dall’altra, “ospiti” delle altre divisioni. Lo stato dei mezzi alimenta il sospetto – che ambienti sindacali non provano neppure a soffocare – che ciascuna divisione privilegi la manutenzione dei propri mezzi, a scapito di quelli regionali.

Secondo esempio? Quello dei biglietti. Poiché il grosso delle biglietterie appartiene alla stessa “Divisione passeggeri” insieme agli Intercity, mentre gli interregionali “stanno da un’altra parte”, può capitare (capita spesso) che, appena ci riesce, una biglietteria vi vende un biglietto per l’Intercity e non per il meno costoso interregionale.
Infatti, ogni divisione ha i suoi obiettivi distinti di ricavo, e se una di queste biglietterie vende un biglietto per un interregionale invece di uno per Intercity, una parte del ricavato passerà alla “Divisione trasporto regionale”, ovviamente a scapito degli obiettivi di reddito della “Divisione passeggeri”.
Morale? Abbiamo trasformato un’impresa statale che non pareva avere limiti nella capacità di bruciare denaro pubblico in un’impresa che cerca di perseguire l’utile (siamo realisti, basterebbe una riduzione delle perdite) con successi tra l’altro discutibili.

Non ho nostalgie per il passato, ma si vorrebbe almeno una qualche tutela per i passeggeri.
Perfino quelli dei treni locali, che forse non riguardano la “Divisione passeggeri”, ma non sono ancora bestiame.
A quando un’autorità per i trasporti che controlli quello che si sta facendo in questo settore alle spalle degli utenti? Per ora c’è solo una supervisione “tecnica”, effettuata tra l’altro dalla Rete ferroviaria italiana, anch’essa del gruppo Trenitalia.
Se tutti gli altri settori, una volta orientati al mercato, sono stati assoggettati a un controllo indipendente, cosa stiamo aspettando per i trasporti ferroviari?

Tremonti, ultimo atto

Sommario, a cura di Giuseppe Pisauro

All’inizio di luglio, quando ci preparavamo a festeggiare il secondo compleanno de lavoce, ci siamo ritrovati orfani di Tremonti. Raramente una persona ha rappresentato la politica economica di un intero governo, come è avvenuto negli anni in cui Giulio Tremonti è stato il Ministro dell’economia. Come regalo di Natale per i nostri lettori, riproduciamo qui gli articoli in cui abbiamo discusso la sua eredità. Il controllo pubblico dell’economia è rimasto invariato, con il paradosso di imprese in mano pubblica che si comportano come private. Sul lato delle entrate, condono e scudo fiscale hanno tramandato al successore un calo strutturale del gettito. Sul lato della spesa, non c’e’ stato alcuno sforzo di ridurla, ma neanche una completa perdita di controllo come spesso paventato. Gli artifici sul debito hanno ridotto la trasparenza dei nostri conti pubblici.

L’Italia e il risanamento, di Vincenzo Visco

La politica di bilancio perseguita in Italia negli ultimi anni si presta a una lettura diversa da quella che ne dà Roberto Perotti nel suo articolo su lavoce.info “La macroeconomia di Tremonti”. La mia analisi si differenzia soprattutto per quanto riguarda gli anni Novanta. (1)

La pressione fiscale

Nel 1992, dopo oltre dieci anni di disordine finanziario, l’Italia era stata colpita dalla più grave crisi valutaria e finanziaria dopo il 1949: i rischi di insolvenza erano reali e il governo Amato presentò una manovra correttiva che diede il via al processo di risanamento del bilancio che fu poi proseguito dal governo Ciampi nel 1993. A fine 1996 la situazione risultava migliorata, grazie alla manovra correttiva subito operata dal governo Prodi nel giugno. Tuttavia (vedi Tavola 1), il disavanzo del settore pubblico continuava a superare il 7 per cento e il surplus primario (4,4 per cento) risultava ancora insufficiente rispetto a quanto richiesto dal processo di convergenza; in compenso continuava una lenta discesa del rapporto debito – Pil. Ulteriori informazioni circa le caratteristiche strutturali del risanamento si possono ricavare dalle Tavole 2 e 3 relative alla struttura della spesa pubblica e alla pressione fiscale in Italia negli anni Novanta. Come si può vedere, con l’eccezione del 1992-3 (gli anni della prima grande manovra di risanamento) e del 1997, che presentano picchi nel prelievo tributario, la pressione fiscale si è successivamente stabilizzata ai livelli prevalenti negli anni precedenti, intorno al 42 per cento del Pil.Quindi a livelli coincidenti con la media europea, e inferiori a quelli di non pochi paesi, per esempio della Francia. Non è corretto affermare, come spesso si è fatto, che il risanamento italiano si è basato su un eccesso di tassazione che ha interferito negativamente con l’attività economica. La realtà invece mostra che per gran parte degli anni Settanta e Ottanta il settore pubblico italiano si era illuso di poter finanziare spese crescenti con imposte chiaramente insufficienti (e cioè in disavanzo), per cui fu necessario un recupero di entrate fortemente concentrato in pochi anni su cui ancora si polemizza, ma che comunque si era completato agli inizi degli anni Novanta (vedi Tavole 1 e 3).

Il punto di dissenso

Sulla entità e adeguatezza della pressione fiscale e della spesa pubblica in Italia il dibattito e le polemiche sono continuate per tutti gli anni Ottanta e continuano tuttora. In proposito il punto rilevante di dissenso (spesso implicito) è il seguente: può l’Italia, paese fragile, caratterizzato da piccole e micro imprese, da una classe imprenditoriale provinciale, dall’assenza di una classe di manager professionali, da un capitalismo familiare e non di mercato, da tensioni sociali storiche, e classi dirigenti periodicamente inaffidabili, permettersi un sistema di welfare europeo, mercati concorrenziali, una corporate governance adeguata, un livello di pressione tributaria e di tax compliance soddisfacente? A ben vedere sono proprio le diverse risposte che si possono dare a queste domande che chiariscono e fanno comprendere le divisioni che si manifestarono allora e ancora si manifestano tra euroscettici e fautori della partecipazione all’Unione monetaria; e anche tra visione e programmi del centrosinistra e quelli della coalizione costruita da Silvio Berlusconi. Per fortuna, dal mio punto di vista, l’ingresso in Europa è avvenuto, e si tratta di un evento ragionevolmente irreversibile.

La spesa pubblica

Per quanto riguarda le spese, la Tavola 2 mostra che, rispetto al picco del 1993 (57,6 per cento del Pil), la spesa complessiva si è ridotta nel 2000 di 10,3 punti, liberando quindi massicciamente risorse per il settore privato. Tuttavia, ben 6,5 punti di tale riduzione derivano dalla diminuzione dei tassi di interesse, e solo 3,8 da una riduzione di spesa primaria, derivante soprattutto dalla riduzione del personale della pubblica amministrazione. Per quanto la spesa primaria italiana al netto degli interessi sia sempre stata, e sia ancora oggi, inferiore (di circa 3 punti di Pil) alla media europea, è certo che da questo punto di vista si sarebbe potuto fare di più: soprattutto per quanto riguarda la spesa pensionistica che è rimasta costante negli ultimi anni, ma che, nonostante tre o quattro successivi interventi di riforma, è ancora destinata a crescere nei prossimi decenni. In ogni caso, è chiaro qual’è stato l’equilibrio raggiunto dalla finanza pubblica italiana: una pressione fiscale pari alla media europea, e un livello di spesa primaria al netto degli interessi inferiore alla media europea e sufficiente a finanziare l’eccesso di spesa per interessi che, a (quasi) parità di tassi con gli altri paesi, risulta tuttavia doppia (almeno) di quella dei paesi che presentano uno stock di debito coerente col parametro di riferimento (60 per cento).

Una fragilità intrinseca

Queste considerazioni spiegano da un lato il malessere dei contribuenti che, a fronte di imposte elevate, non ottengono servizi di corrispondente valore. Dall’altro, quali siano le debolezze che permangono per il bilancio e la finanza pubblica italiana: è sufficiente infatti una crescita dei tassi di interesse di mercato per avere ripercussioni negative sul bilancio doppie rispetto agli altri paesi; la rigidità strutturale del bilancio è tale che basta un attimo di disattenzione, o un minimo di lassismo per ritrovarsi con deviazioni sostanziali dai criteri di convergenza. Ciò purtroppo è quanto si è verificato in Italia in questi tre anni di governo di una destra politica sostanzialmente euroscettica e con forti pulsioni populiste. E resta valido quanto già detto nel 2002: la intrinseca fragilità dell’equilibrio della finanza pubblica italiana dovrebbe suggerire la accelerazione dei processi di privatizzazione, il conseguimento di un surplus primario più elevato, il completamento della riforma previdenziale, e vincoli di spesa efficaci per le Regioni e gli enti locali.

* Questo intervento ripropone in sintesi la versione in italiano del testo preparato per il seminario “New Dimensions in Italian Public Policy” European Studies Centre, St Antony’s College, University of Oxford, 18 Oct.-29 Nov. 2002.
Sugli argomenti trattati si veda anche Chiorazzo V. e Spaventa L. Astuzia o virtù? Come accadde che l’Italia fu ammessa all’Unione monetaria, Donzelli (2000) e Onofri P. Un’economia sbloccata, Il Mulino (2001).


Le privatizzazioni di Tremonti, di Carlo Scarpa

Possiamo fare il bilancio delle politiche industriali, privatizzazioni eccetera del “regno” di Giulio Tremonti? Per certi versi, ovviamente no perché il responsabile delle politiche industriali non è il ministro dell’Economia. Per altro, il ministro dell’Economia è colui che gestisce le partecipazioni in imprese ancora sotto il controllo pubblico e “ha il pallino in mano” per una serie di questioni di fondamentale importanza.
Il Governo Berlusconi era partito come governo liberalizzatore, volto ad alleggerire la presenza pubblica nell’economia e a lasciare spazio agli investimenti privati. (Anche) su questo è difficile mascherare la delusione (acuita da quanto non ha fatto il ministero dell’Industria sulla liberalizzazione delle professioni sull’avvio della Borsa elettrica). Tanti sarebbero i temi, ad esempio la mancata liberalizzazione dei servizi pubblici locali, sulla quale Tremonti sembra avere aderito al partito trasversale degli amministratori locali, molto propensi a difendere le posizioni acquisite, oppure la vicenda delle Autostrade (vedi Ponti 20-01-2004). Ma procediamo con ordine.

Il sistema finanziario

Sulla ristrutturazione del sistema finanziario, Tremonti ha perduto. Purtroppo. E mi riferisco non tanto alla riforma della protezione del risparmio, per la quale la partita è complessa, ma soprattutto al ruolo delle fondazioni bancarie, che restano al cuore del sistema finanziario italiano, soggetti né propriamente pubblici né veramente privati, residui delle peggiori abitudini della prima repubblica. (vedi Moise)
Anche se curiosamente proprio le fondazioni sono state protagoniste di una importante operazione, ovvero il passaggio di proprietà del 30 per cento della Cassa depositi e prestiti dal Tesoro alle stesse fondazioni. Una della operazioni pomposamente contrabbandate come privatizzazioni, quasi le fondazioni fossero rappresentanti del rampante capitalismo nazionale…

Quanta voglia di Iri…

Sulle imprese pubbliche e le privatizzazioni, non è facile dire se Tremonti abbia perso o abbia vinto: se solo se ne conoscesse il vero obiettivo… Capire quale fosse il fine di Tremonti sulla base del suo operare non è facile. Ingerenza e rilancio dell’impresa pubblica o orientamento genuino al privato?
Da un lato, non risulta – bisogna darne atto – nessuna pesante ingerenza del ministro nell’operato delle grandi imprese rimaste in mano pubblica. Ci piacerebbe poter dire la stessa cosa dei suoi colleghi e alleati, ma questa è un’altra storia.
Tuttavia, anche la non-ingerenza può dar luogo a paradossi. Si pensi al settore energetico, che ora è nell’occhio del ciclone grazie alla offensiva congiunta di Autorità antitrust e Autorità per l’energia. Si accusano Eni ed Enel di tenere prezzi troppo alti ai danni dei consumatori e della competitività del settore privato. Di chi sono Eni ed Enel? I loro amministratori sono nominati dal governo. Non ho certo nostalgie delle ingerenze governative nelle imprese, ma il fatto che siano proprio aziende in mano pubblica a creare (pare) tutti questi problemi all’intero paese, dato il loro orientamento al profitto, sembra un po’ ridicolo.
A fianco di questo, purtroppo si deve invece ricordare la pesante ingerenza nell’attività delle Autorità, la cui indipendenza dà parecchio fastidio. Ma in realtà anche col precedente governo, al momento di fissare le tariffe elettriche gli interessi del proprietario di Enel (il Tesoro) avevano finito per farsi sentire in modo pesante.
Dopo aver detto della gestione delle imprese, passiamo alle privatizzazioni. Quali, diranno i lettori? Bella domanda.
L’unica vera privatizzazione del triennio è la vendita dell’Eti, il monopolio tabacchi; non era proprio una partecipazione strategica, ma almeno su questo il ministero ha operato bene, anche oltre le aspettative, cedendo interamente le sigarette di Stato, per una cifra del tutto ragguardevole (2,3 miliardi di euro), anche se con qualche preoccupazione per la concorrenza in quel mercato – sul quale per altro l’Autorità antitrust si è limitata a chiedere alcune correzioni tutto sommato marginali.

A parte questo, abbiamo visto solo cessioni di quote marginali (il 6,6 per cento di Enel – un modo come altri di far cassa) o privatizzazioni “all’italiana”, ovvero azioni passate in mano alla Cassa depositi e prestiti, controllata a sua volta dalle fondazioni bancarie. E così resta purtroppo dominante la presenza pubblica in imprese che la propaganda da diversi anni vuole “privatizzate” (Eni, Enel) anche se i loro consigli di amministrazione sono di nomina pubblica.
Quindi, il controllo pubblico sull’industria resta praticamente invariato rispetto a quello che era all’inizio della legislatura, nonostante un governo sedicente pro-mercato e privatizzatore. Colpa di Tremonti? Da un lato il pessimo periodo del mercato azionario ha costituito talvolta una scusa, ma anche una discreta ragione per rallentare le vendite. Dall’altro, non ricordo di avere sentito molte voci – né a destra, né a sinistra – favorevoli alla cessione del controllo pubblico delle grandi imprese energetiche. Il consenso politico su questo non sembra proprio esserci, a prescindere dall’identità del ministro di turno. E serpeggia tanta voglia di tornare all’Iri…

Alitalia

Questa ex-impresa merita un capitolo a parte. Su questo, a quanto trapela, Tremonti ha perduto una battaglia. E ci dispiace. Alitalia è un’impresa tecnicamente fallita, e da tempo. (vedi Ponti 26-02-2004) I patetici tentativi di coprire la situazione con piani industriali che sono sempre quelli e sempre più improbabili e con interventi finanziari sempre più lontani dal cuore della questione sono stati approvati nonostante i richiami di Tremonti. Che forse a riguardo può essere accusato di essere stato troppo flessibile, ai limiti della complicità. Avere accettato l’idea del prestito ponte è stato un errore: un ponte ha senso quando sappiamo dove conduce. E un’impresa che perde un milione di euro al giorno non va da nessuna parte. Questo Tremonti lo sa bene: forse sa già che la Commissione boccerà il prestito? Credo comunque che avrebbe dovuto fare e dire di più, ma almeno i veri “cattivi” di questa vicenda senza speranza sono stati altri.

Un bilancio?

Tremonti non ha fatto peggio di altri, ma merita rispetto. Certo, non abbiamo visto nessuna delle rivoluzioni annunciate. E il problema è proprio che a riguardo è mancata una strategia, e abbiamo anzi avuto troppo immobilismo.
Tremonti ha oscillato tra Colbert (il padre delle imprese pubbliche francesi) e Margaret Thatcher (la madre delle privatizzazioni inglesi) – che è come dire tra il diavolo e l’acqua santa.
Questa contraddizione (vorrei liberalizzare il sistema industriale, ma anche mantenerne il controllo…) ha condannato il governo all’immobilismo per quanto riguarda le quote di proprietà (per non perdere il controllo), ma anche a un curioso non intervento (per non interferire con il processo di mercato). Con il paradosso che abbiamo imprese che restano in mano pubblica, ma si comportano come se fossero private. E allora, ci si chiede, a che serve la proprietà pubblica?

Rimpiangeremo Tremonti? Diciamo che, se è vero che ha vinto il partito delle poltrone nelle imprese pubbliche e degli infiniti buchi di bilancio, il bello viene adesso.

Sono stati anni difficili, di Giuseppe Pisauro e Riccardo Faini

Uno dei pochi punti di consenso tra gli economisti è che il rallentamento economico abbia svolto un ruolo di tutto rilievo nel deterioramento dei conti pubblici dei paesi europei. La più bassa crescita comporta infatti un calo delle entrate e nella maggior parte dei casi (l’Italia, dato lo scarso rilievo degli ammortizzatori sociali, è però un’eccezione al riguardo) anche un aumento delle spese, con effetti negativi sulle finanze pubbliche. La speranza è che la tanto sospirata ripresa economica riesca a riportare un po’ di luce anche sui disastrati conti pubblici italiani tenendoli lontani dalla soglia di Maastricht.

Ottimismo fuori luogo

Ma sarà proprio così? Purtroppo l’ottimismo, anche in questo caso, rischia di essere fuori luogo. Vediamo perché. Proprio per tenere conto degli effetti del ciclo economico sui conti pubblici, la Commissione europea calcola regolarmente un saldo di bilancio corretto per gli andamenti del ciclo economico e lo utilizza sistematicamente per formulare le proprie raccomandazioni ai paesi membri in termini di politica fiscale.

Come viene effettuato il calcolo? Il primo passo è la stima del Pil potenziale, il livello del Pil che si avrebbe se l’economia funzionasse a pieno regime. La differenza fra Pil effettivo e Pil potenziale dà il cosiddetto output gap.

Il secondo passo è la stima dell’intensità (l’elasticità, nel gergo degli economisti) con cui entrate e spese primarie (al netto cioè degli interessi) reagiscono a variazioni del Pil. Si calcola infine il saldo di bilancio nell’ipotesi di un output gap pari a zero. Questa misura è nota come disavanzo strutturale, il disavanzo che si avrebbe se il Pil fosse pari al suo potenziale.

Nel calcolo, tuttavia, non si tiene conto, presumibilmente per le difficoltà tecniche che ciò comporterebbe, degli effetti del ciclo sulla spesa per interessi. Ma non si tratta di una voce di scarso rilievo, soprattutto per un paese altamente indebitato come l’Italia. In risposta a un aumento dello scarto fra output potenziale e effettivo, la Banca centrale interverrà infatti riducendo i tassi, con un effetto particolarmente favorevole per i paesi altamente indebitati o con un debito sbilanciato verso il breve termine. Se prendiamo per buone le stime disponibili della funzione di reazione della Banca centrale, vediamo che un deterioramento dell’output gap di un punto percentuale induce una riduzione dei tassi perlomeno di 50 punti base (mezzo punto percentuale). A regime, il miglioramento per il disavanzo pubblico di un paese con un rapporto debito/Pil pari al 100 per cento è quindi di circa mezzo punto percentuale: una minore crescita del Pil di un punto dà luogo a un diminuzione del tasso di interesse di mezzo punto che implica una minore spesa per interessi pari ancora a mezzo punto di Pil. Naturalmente l’effetto sulla spesa per interessi non è istantaneo: secondo le stime ufficiali del Tesoro una diminuzione di un punto del tasso di interesse ha un impatto sulla spesa per interessi pari allo 0,23 per cento del Pil dopo un anno, 0,41 per cento del Pil dopo due anni, 0,51 per cento del Pil dopo tre anni.

È indubbiamente vero che un peggioramento dell’output gap deprime le entrate e accresce il disavanzo (nel caso dell’Italia la stima è ancora di quasi mezzo punto di Pil per ogni punto di output gap), ma dopo tre anni metà del peggioramento è compensato dal calo della spesa per interessi e dopo circa cinque anni (questo è il tempo necessario perché una variazione dei tassi di interesse si trasferisca interamente sul costo del debito) la compensazione è completa.

In conclusione, il metodo di correzione per il ciclo utilizzato dalla Commissione europea e da altre istituzioni internazionali rischia di fornire un quadro eccessivamente ottimista (pessimista) per un paese altamente indebitato come l’Italia durante i periodi di rallentamento (ripresa) dell’economia.

Se l’Italia non aggancia la ripresa

Ma vi è un altro rischio. Supponiamo che l’Italia manchi, come sembra possibile, l’aggancio con la ripresa europea. Secondo le stime di primavera della Commissione europea la crescita nel 2004 sarà pari all’1,7 per cento per l’area euro ma solo all’1,2 per cento per l’Italia. Anche nel 2005 l’area euro dovrebbe crescere più rapidamente dell’Italia. Le migliorate condizioni economiche nell’area dell’euro, e un’ulteriore ‘stretta’ della Fed, potrebbero indurre la Banca centrale europea ad aumentare i tassi di interesse. Paradossalmente, è del tutto possibile che l’Italia non tragga grande beneficio dalla modesta ripresa a livello nazionale, ma soffra le conseguenze in termini di più alti tassi di interesse della ripresa a livello europeo.

Le stime sull’andamento dei conti pubblici dell’Italia rischiano quindi di peccare, nuovamente, di ottimismo. Rimane da sperare che il nuovo Dpef, che dovrebbe essere varato nei prossimi giorni, tenga conto di questi fattori e riesca a fornire un quadro un poco più realista della situazione della nostra finanza pubblica, anche a costo di dovere ammettere che non vi è spazio per gli sgravi fiscali.

Meno tasse o meno debito?, di Alberto Cavaliere e Luigi Spaventa

Dopo l’equilibrato numero monografico de lavoce.info, consideriamo concluso il momento degli epicedi sul dimissionamento del ministro GiulioTremonti (1) e occupiamoci del futuro. Non di chi gli succederà come autocrate dell’economia e delle finanze; piuttosto dei problemi che il successore, chiunque egli sia, dovrà affrontare.

I problemi del successore di Tremonti

La premessa è che la questione vera della nostra finanza pubblica non risiede nel numero magico del 3 per cento di disavanzo, ma nella dinamica del rapporto fra debito pubblico e prodotto. Non che esista un obiettivo preciso per questo rapporto. Ma, se il suo livello è e resta particolarmente elevato, i tassi d’interesse sono più alti e i conti pubblici sono più esposti al rischio di una loro variazione; comunque una parte cospicua delle entrate deve essere destinata al pagamento di interessi ai possessori di titoli anziché alla provvista di beni e servizi. Si vorrà riconoscere che il nostro 106 per cento, superiore di 35 punti alla media europea, è molto, troppo alto: con 10 punti in meno, la spesa di interessi si ridurrebbe di mezzo punto di prodotto: di tanto potrebbero essere ridotte le imposte (o, se i cittadini lo preferiscono, di tanto aumentata l’offerta di investimenti e servizi pubblici). Assicurare una continua, anche se graduale, diminuzione del rapporto fra debito e prodotto è dunque un obiettivo importante ed economicamente significativo. Per fissare le idee, e senza troppe ambizioni, chiediamoci a quali condizioni si possa ottenere un calo di due punti all’anno, in modo da avere entro il 2007 un debito non superiore al prodotto nazionale.

L’algebra del debito

L’algebra elementare del debito ci dice che la dinamica di esso rispetto al prodotto dipende da tre variabili: costo medio del debito, tasso di crescita nominale dell’economia, saldo (primario) fra entrate e spese al netto degli interessi: una differenza positiva fra costo del debito e tasso di crescita fa aumentare il rapporto fra debito e prodotto nazionale; un avanzo primario lo fa diminuire. (2)
Vi è anche un altro fattore, la differenza fra fabbisogno e indebitamento, che ha contribuito negli ultimi anni ad alimentare, e non di poco, la crescita del debito. Ipotizziamo, a rischio di essere indebitamente ottimisti, che la forbice fra fabbisogno di cassa e indebitamento di competenza si richiuda e ci concentriamo quindi solo sulle prime tre variabili. Supponiamo che l’economia torni a un normale, anche se non esaltante regime di crescita: un’ipotesi del 4 per cento medio annuo (nominale) sembra sensata. Oggi il costo medio del debito è vicino al 5 per cento: a essere benevoli, si può anche supporre che possa abbassarsi sino al 4,5. Dalla formuletta riportata in nota risulta che occorre un avanzo primario stabile dell’ordine del 2,5 per cento del prodotto per ottenere la riduzione di due punti all’anno del rapporto che abbiamo posto come modesto obiettivo (con mezzo punto in meno o in più di avanzo primario per mezzo punto in meno o in più della differenza fra costo del debito e tasso di crescita).
Quale avanzo primario? Poiché stiamo ragionando sul medio periodo, il saldo che ci interessa deve avere natura strutturale: né abbellito da misure una tantum che, per definizione, non possono essere ripetute (anche perché oramai resta ben poco spazio all’inventiva), né ridotto dagli effetti di una congiuntura negativa. Per capire dove ci troviamo ora, usiamo gli utili numeri elaborati da Roberto Perotti nella sua analisi della “macroeconomia di Tremonti”. Nelle plausibili stime di Perotti, l’avanzo primario depurato da misure non ripetibili come i condoni (pari a quasi il 2 per cento del prodotto), ma aggiustato in aumento per tener conto della congiuntura negativa, è stato dell’1,12 per cento nel 2003. Rimarrà probabilmente vicino a quel livello anche nel 2004, sempre che le misure di correzione della recente manovra governativa riescano a compensare il peggioramento in atto (ma secondo il Governatore della Banca d’Italia l’avanzo primario si riduce comunque). Ne segue che, solo per consentire la modesta riduzione del rapporto fra debito e prodotto di cui si è detto, occorre che l’avanzo primario strutturale (depurato da una tantum e da effetti ciclici) migliori nel 2005 e negli anni a venire di ben oltre un punto in termini di prodotto.

Ministri e padri di famiglia

Come ottenere questo miglioramento? Un aumento della pressione fiscale è improponibile. Occorre dunque intervenire sulla spesa al netto degli interessi, per contenerne la crescita ben al di sotto della crescita dell’economia: compito certo difficile, ma non impossibile nelle dimensioni indicate. Negli ultimi mesi, tuttavia, e da ultimo all’assemblea dell’Abi, il presidente del Consiglio ha ribadito la fermissima intenzione di ridurre la pressione fiscale sui redditi personali, per mantenere le sue promesse elettorali: ha concesso che le aliquote possano essere tre e non due, ma ha anche promesso una qualche riduzione dell’Irap. La ricetta di copertura offerta all’Abi dal presidente-ministro ad interim dell’Economia risiede in un semplice teorema, mutuato, come egli ci ha detto, dalla finanza della famiglia e dell’impresa. Meno soldi entrano, meno si spende: se si tagliano le imposte, ogni buon padre di famiglia e ogni accorto imprenditore dovrà necessariamente tagliare le spese.
Facciamo un po’ di conti. Le promesse del presidente assommano ad almeno un punto e mezzo di prodotto: più o meno tanto quanto sarebbe necessario per ottenere la riduzione del debito di due punti. Per raggiungere entrambi gli obiettivi servirebbero dunque interventi sulla spesa dell’ordine di 35-40 miliardi, pari al 5-6 per cento delle uscite al netto degli interessi. Temo che neppure un ottimo padre di famiglia, quale è il Ragioniere generale dello Stato, Vittorio Grilli, ci riuscirebbe. Il governo si è impegnato a non toccare la spesa previdenziale, e in genere quella sociale; le spese per il pubblico impiego sono obbligatorie; agli investimenti pubblici si assegna priorità; gli acquisti di beni e servizi sono stati drasticamente tagliati con la recente manovra, per evitare un peggioramento (non per ottenere un miglioramento) dell’avanzo primario. Che cosa rimane? La riforma degli incentivi alle imprese potrà rendere al più 10-12 miliardi. E il resto da dove viene? Per saperlo, aspettiamo la pubblicazione del documento di programmazione economica e finanziaria, mai così tardivo. Ma vi sono, temo, pochi dubbi: il resto manca. Se così è, la promessa riduzione della pressione fiscale ordinaria (al netto dei condoni) potrà avvenire solo lasciando dov’era il rapporto fra debito e prodotto – o con qualche frazione in meno, se si escogita qualche altro espediente (come la vendita con lease back di immobili pubblici) o si vende qualche gioiello residuo. Dato un limite di fattibilità al contenimento della spesa nel breve periodo, questa è dunque l’alternativa: o una diminuzione del rapporto fra debito e prodotto, che potrà consentire in futuro un calo della pressione fiscale, o una riduzione delle aliquote subito. Forse il padre di famiglia sceglierebbe prudentemente la prima strada, per mettersi al riparo dai rischi di mercato ed evitare le censure internazionali. Ma, a meno di due anni dalle elezioni, conosciamo le preferenze del padrone della famiglia: anche perché, come ha detto nel suo intervento all’Abi, con un debito dell’ordine di 1400 miliardi poco importa averne qualche decina di miliardi in più.

(1) Due citazioni riassuntive dal Giulio Cesare. Antonio: “Il male che gli uomini fanno sopravvive loro, il bene spesso finisce sotto terra con le loro ossa”. Popolano: “Temo che ve ne sarà uno peggiore al suo posto”.

(2) La formuletta, approssimata, è: Dd = (r-g)d – a, ove Dd è la variazione del rapporto fra debito e prodotto nazionale, r è il costo medio del debito, g è il tasso di crescita nominale dell’economia, e a è il saldo fra entrate e spese al netto degli interessi, positivo o negativo. Se ad esempio il debito è pari al prodotto e il costo del debito eccede di un punto il tasso di crescita, con un avanzo primario nullo il rapporto cresce di un punto; resta costante con un avanzo primario dell’1 per cento; diminuisce di un punto con un avanzo primario del 2 per cento.

Eredità , di Riccardo Faini

L’articolo, assai pregevole, di Roberto Perotti offre un bilancio dell’operato del ministro Giulio Tremonti. La ricostruzione del passato va però fatta con i dati che erano disponibili in quel momento, non con le informazioni di oggi. Le valutazioni che ne risultano possono essere assai diverse.

Il lascito dei governi precedenti

Il governo di centrodestra ereditò un processo di aggiustamento fiscale del tutto sbilanciato? È questa la tesi di Perotti secondo cui l’aggiustamento fiscale dei governi precedenti fece uso di misure temporanee, privilegiò l’aumento delle entrate e non incise se non de minimis sulla spesa primaria.

Tesi non del tutto convincente se consideriamo che il processo di risanamento fiscale comincia con il governo Amato nel 1992. La Finanziaria di Amato non è però “visibile” negli andamenti effettivi delle uscite in quanto incide sul tendenziale della spesa pensionistica. In assenza di tale correzione, la spesa sociale sarebbe cresciuta, secondo le stime dell’Ocse, di altri 5 punti del Pil. La mera analisi del dato nasconde quindi una correzione radicale dell’andamento dei conti pubblici. E fu proprio il miglioramento del saldo primario indotto dalle misure adottate dai governi precedenti che consentì all’esecutivo guidato da Prodi di intervenire con provvedimenti in gran parte temporanei per accedere all’Unione monetaria e beneficiare di un calo massiccio della spesa per interessi. Semmai la colpa dei governi di centrosinistra è di non avere fatto di più dopo il 1997 per proseguire l’opera di risanamento del bilancio.

Furono gli squilibri di bilancio ereditati dal governo precedente (il disavanzo nel 2001, ci ricorda Perotti, si attesta al 2,6 per cento del Pil) che costrinsero il governo di centrodestra a ricorrere massicciamente alle una tantum? Di nuovo si corre il rischio di un errore di prospettiva.

Fino a febbraio del 2002 (ben dopo quindi l’attacco alle Torri Gemelle), l’esecutivo di centrodestra era convinto che i conti pubblici fossero sotto controllo, che il disavanzo del 2001 non avrebbe superato l’1,1 per cento e che anche la situazione del 2002 non destasse preoccupazioni (il disavanzo tendenziale per quell’anno veniva stimato all’1,7 per cento dalla Relazione previsionale e programmatica). Ci vorranno più di diciotto mesi di revisioni dell’Istat e di sentenze dell’Eurostat perché il disavanzo del 2001 venga rivisto al 2,6 per cento. Si tratta di un dato quindi che non può avere indotto il governo a orientare la politica fiscale in senso restrittivo né per il 2002 né per il 2003. Semmai è vero il contrario. La sentenza Eurostat di luglio 2002 sulle cartolarizzazioni aggravò il saldo del 2001 per una cifra pari a circa 7 miliardi di euro, ma consentì di contabilizzare tali entrate nel 2002 e nel 2003 riducendo quindi le esigenze di una stretta di bilancio per quegli anni.

Rallentamenti dell’economia e tassi d’interesse

Le difficoltà di bilancio dopo il 2001 vanno attribuite al rallentamento dell’economia mondiale? Perotti mette in luce come il disavanzo corretto per il ciclo migliori, e di molto, dal 2001 al 2003. Verissimo. Le stime della Commissione pubblicate nell’ultimo rapporto di primavera mettono in luce una riduzione dell’indebitamento strutturale dal 3,2 per cento nel 2001 all’1,9 per cento nel 2003. Ma anche questo dato va considerato con molta cautela, almeno per quattro motivi.

In primo luogo, è completamente cambiata la stima dell’output gap, negativo nelle stime formulate a novembre del 2001 (la produzione effettiva era quindi inferiore a quella potenziale e il disavanzo corretto per il ciclo minore di quello effettivo) ma positivo nei dati rivisti successivamente e utilizzati da Perotti. Utilizzando la stima dell’output gap disponibile nel 2001, il disavanzo strutturale di quell’anno scenderebbe di quasi un punto, al 2,3 per cento.

In secondo luogo, sul dato del 2001 si concentrano tutta una serie di revisioni, molte delle quali – si pensi alla spesa sanitaria – andrebbero attribuite ad anni precedenti. Inoltre, tutto il miglioramento del saldo di bilancio strutturale va attribuito al calo della spesa per interessi – 1,2 per cento – a sua volta frutto della riduzione dei tassi di interessi mondiali e non della diminuzione del debito che rimane invece inchiodato su valori ben al di sopra del 100 per cento. Infine, se è vero che l’avanzo primario corretto per il ciclo non peggiora tra il 2001 e il 2003, questo risultato è stato ottenuto con misure tampone, come i condoni, che peseranno, e non poco, sui conti pubblici nei prossimi anni.

Il fardello del prossimo ministro

In conclusione, sembra difficile sostenere che il governo di centrodestra ereditò da quello precedente una situazione dei conti pubblici fortemente deteriorata o che il rallentamento dell’economia mondiale abbia pesato in maniera determinante sugli andamenti di finanza pubblica dopo il 2001. Se così fosse, tra l’altro, i conti pubblici non registrerebbero un ulteriore e pronunciato deterioramento proprio nel 2004, quando si manifestano i primi segnali di una seppur timida ripresa.

L’articolo di Perotti si ferma al 2003 e trascura quindi il periodo in cui i nodi di una politica sbagliata stanno venendo tutti al pettine. Secondo le stime della Commissione, l’avanzo primario corretto per il ciclo si ridurrà infatti nel 2004 di un punto del Pil, circa 13 miliardi di euro.

Per il 2005 gli andamenti sarebbero ancora peggiori. Dovremo aspettare il Dpef per avere informazioni al riguardo, anche se è oramai evidente che il nuovo ministro dell’Economia dovrà fare i conti con un disavanzo che, anche in assenza degli sgravi promessi, è ben al di sopra del 4 per cento e di una dinamica del debito palesemente insostenibile.

Bilancio di un ministro, di Roberto Perotti

Come ho cercato di documentare (vedi Perotti) dal lato delle entrate, Tremonti lascia un’immagine di misure improvvisate e di mancanza di trasparenza. Tuttavia, il vero neo della gestione Tremonti sono stati i condoni; per il resto, non è stata molto diversa dalle precedenti. Anche e soprattutto dal lato delle spese la gestione Tremonti non è stata molto diversa dalle precedenti. Non c’è stata alcuna azione decisa per ridurre la spesa, ma questo è vero anche per i governi precedenti. E la spesa non è esplosa, anzi in termini reali essa è aumentata meno che nel periodo precedente, nonostante la situazione ciclica sfavorevole e anche escludendo le entrate una tantum contabilizzate in detrazione di spesa.

Perché le una tantum

Ma è importante cercare di spiegare perché un editorialista e politico che per anni aveva predicato la semplificazione delle imposte e la chiarezza dei bilanci, una volta diventato ministro abbia fatto ricorso a misure così imbarazzanti quali i condoni. Il motivo immediato è semplice. La riga 14 della tabella 2 (riportata nel mio altro articolo) mostra che l’indebitamento netto sul Pil era nel 2001 pericolosamente vicino alla fatidica soglia del 3 per cento, e in crescita. Per evitare di sforare il Patto di Stabilità e crescita, Tremonti si è trovato nella necessità di ridurre il disavanzo, e in fretta. Ma come? Come abbiamo visto, nessun governo degli ultimi dieci anni in Italia è riuscito a ridurre la spesa primaria, e a maggior ragione in pochi mesi. Ed era irrealistico pensare che un governo che era caduto nel 1994 sulle pensioni avrebbe proposto una riforma delle pensioni seria appena tornato al potere. Era anche difficile pensare che il ministro di un governo eletto in parte su una piattaforma di tagli alle tasse potesse aumentarle. Rimanevano le misure una tantum. E come abbiamo visto, Tremonti non ne ha fatto un uso molto più sfrenato di altri governi che si sono trovati a dover agire in condizioni di crisi o di pressione esterna, come nel 1992-3 o nel 1997. La composizione però è stata diversa, con un’enfasi esagerata sui condoni, per di più male attuati (vedi Guerra).

L’alternativa era sforare il Patto in maniera ancora più vistosa. Anche qui Tremonti era tra l’incudine e il martello: se avesse ignorato il Patto, come hanno poi fatto Francia e Germania, probabilmente sarebbe stato accusato di anti-europeismo.

Come si è arrivati al 3 percento?

La domanda fondamentale è quindi: come si è arrivati a un indebitamento vicino al 3 percento nel 2001? La riga 14 della tabella 2 mostra che, dopo tutto, l’ indebitamento netto era solo il 0,65 per cento nel 2000. Tuttavia, questa cifra è fuorviante, perché risente dei proventi una tantum Umts. Al netto di questi, l’indebitamento netto era già vicino al 2 per cento nel 2000. Al 2,65 per cento del 2001 si è arrivati con il rallentamento della crescita e con misure discrezionali, di cui probabilmente la maggior parte, come abbiamo visto, imputabile al governo precedente.

Molti, e la Commissione europea con particolare insistenza, sostengono che i vincoli del Patto non creerebbero problemi se i governi seguissero una semplice regola: diminuire i disavanzi, o addirittura creare degli avanzi di bilancio, in tempi di alta crescita, per permettere ai disavanzi, in tempi di rallentamento ciclico, di crescere senza sorpassare il 3 per cento. Così non è stato: come abbiamo visto, Tremonti ereditò dagli anni buoni un indebitamento netto che era già pericolosamente vicino al 3 per cento. Ancora una volta sarebbe scorretto ignorare il passato.

Un’ immagine di improvvisazione

Tremonti ha dovuto fronteggiare una doppia emergenza: il rallentamento ciclico, e il Patto che mordeva per la prima volta; tutto questo con veti incrociati degli alleati sulle politiche attuabili. Certo, forse avrebbe potuto gestire meglio l’emergenza. E qui veniamo all’aspetto forse più appariscente della gestione Tremonti. Indubbiamente il ministero ha spesso proiettato, soprattutto all’inizio, un’immagine di impreparazione e di dilettantismo nella gestione della politica economica. L’ esempio più eclatante è probabilmente il primo Dpef del governo Berlusconi del luglio 2001, che, nonostante chiari segnali del rallentamento ciclico, prevedeva un tasso di crescita programmatico del 3,1 percento ogni anno fino al 2006, grazie alle misure di politica economica che il governo avrebbe preso! Questa imbarazzante dimostrazione di incompetenza economica e di cieca credenza in teorie economiche semplicistiche e universalmente screditate potrebbe forse venire classificata benevolmente come una irresponsabile operazione di marketing, se non indicasse che il governo si fece cogliere largamente impreparato dagli eventi seguenti, sprecando mesi preziosi a inseguire fantasmi.

Ma a onor del vero Tremonti e i suoi collaboratori erano ancora una volta in buona compagnia, in termini di sostanza se non di forma. Solo pochi mesi prima, alla fine di settembre del 2000, la nota di aggiornamento al Dpef prevedeva un indebitamento netto, grazie alla manovra messa in atto da quel governo, del 0,9 percento del Pil nel 2001 – quasi 2 punti percentuali sotto quello realizzato – e addirittura dello 0 per cento nel 2003!

Un secondo esempio fra i tanti è la saga senza fine degli incentivi alle imprese e al Sud, sottoposti a una decretazione incontinente, con un alternarsi continuo di messaggi contrastanti e di cambiamenti di direzione, che hanno svilito e complicato ulteriormente degli strumenti già largamente screditati e incomprensibili. Ma anche in questo caso, niente di nuovo sotto il sole; l’approccio al Sud non è cambiato, sono forse cambiati leggermente gli strumenti preferiti – e ugualmente inefficaci.

Indubbiamente da Tremonti ci si aspettava di più: misurata contro le aspettative, la gestione Tremonti può essere vista come una delusione. Ma misurata contro molti predecessori, e tenuto conto del ciclo economico, è ben lungi dall’essere stata un disastro.

La macroeconomia di Tremonti, di Roberto Perotti

Che conti pubblici ci lascia Tremonti? Prima di tentare un bilancio, è importante stabilire i fatti.

Le entrate: i condoni, e il resto

Partiamo dalle entrate. Tremonti rischia di venire ricordato per l’uso massiccio di misure una tantum. La tabella 1 mostra il dettaglio delle misure una tantum durante la gestione Tremonti e nei periodi precedenti. (1)
Sono incluse solo le misure che effettivamente contribuiscono a ridurre l’indebitamento netto (2) delle amministrazioni pubbliche (Ap) (3), il dato rilevante sia per i parametri del Patto di stabilità e crescita, sia per gli effetti macroeconomici. In media, le misure una tantum sono valse circa 1,3 punti percentuali del Pil all’anno durante il periodo 2001-2003, contro una media degli anni precedenti di 0,75 punti percentuali.
È importante però distinguere tre tipi di misure una tantum: condoni, anticipazioni di entrate, ed entrate straordinarie e occasionali.
I condoni sono una manifestazione delle famose “tre i”: “immoralità”, “inciviltà”, e “incompetenza”. Hanno svolto egregiamente il compito di fare cassa in fretta; ma il prezzo da pagare (sebbene non quantificabile) è stato altissimo in termini di immagine e di cultura della semi-illegalità (vedi Guerra). La tabella 1 mostra che i condoni sono la vera anomalia della gestione Tremonti: ben l,5 percento del Pil nel 2003: se si escludono i condoni, la gestione Tremonti mostra una media di misure una tantum simile agli anni precedenti.

Le anticipazioni di entrate sono una cosa diversa. Consistono soprattutto nelle cartolarizzazioni immobiliari, una misura di qualche rilevanza solo nel 2002 quando valse lo 0,5 per cento del Pil. Con questo meccanismo, le Ap cedono degli immobili a una società veicolo, a fronte di una somma che presumibilmente rappresenta il valore atteso ricavabile dalla vendita di questi immobili a privati in futuro. Da un punto di vista macroeconomico, le anticipazioni di entrate rappresentano essenzialmente un cambiamento del profilo temporale delle entrate nette (più alte oggi, più basse domani), senza necessariamente cambiarne il valore atteso. In questo senso, non hanno necessariamente una grande rilevanza macroeconomica, ma sono ovviamente molto utili per soddisfare i vincoli del Patto. Questo in teoria. In pratica, hanno infatti due tipi di costi, anche se difficilmente quantificabili: riducono la trasparenza dei bilanci, e possono comportare un costo implicito maggiore del tasso di interesse che le Ap oggi pagano sul debito pubblico (vedi Pisauro 06-05-2003).

Anche le entrate straordinarie e occasionali (cessioni di immobili, prelievi sostitutivi straordinari, versamenti per le rivalutazioni dei cespiti aziendali) sono state usate in misura limitata (tra lo 0,4 e lo 0,55 del Pil a seconda degli anni), e comparabile a simili occasioni in passato: per esempio, l’Eurotassa del 1997-8 valeva circa l’1 per cento del Pil.
Vi sono però due osservazioni più generali sulle misure una tantum. Primo, alcune delle operazioni che più hanno fatto notizia, come le cartolarizzazioni immobiliari e dei proventi del Lotto del 2001, lo swap del debito e le cartolarizzazioni dei crediti Inpdap e della Cassa depositi e prestiti del 2002, e le cartolarizzazioni dei crediti Inps del 2002 e 2003, hanno inciso sul fabbisogno di cassa e sul debito – e in misura rilevante, circa 2 punti di Pil nel 2002 e 2003; tuttavia, esse non hanno inciso sull’indebitamento netto. (4)

Qualunque sia il giudizio che si dà sulla loro trasparenza e opportunità, è importante quindi tenere presente che i risultati discussi qui non dipendono da queste misure.
Secondo, la vendita di immobili pubblici può essere un’operazione perfettamente legittima e opportuna. È anche tutto sommato comprensibile che, sotto pressione per soddisfare gli impegni del Patto, un ministro delle Finanze cerchi di anticipare introiti futuri. Il vero problema è che le dismissioni e le cartolarizzazioni immobiliari sono state in gran parte virtuali, cioè hanno coinvolto società solo legalmente al di fuori delle Ap, in realtà controllate dal Tesoro. Come spiegano (Pisauro 01-03-2004 e Bayron 12-12-2002), non è ovvio che queste società riusciranno a vendere a privati nei prezzi impliciti nelle cartolarizzazioni.

Le spese: alcuni miti, e la realtà

Consideriamo ora il lato delle spese della gestione Tremonti. Partiamo dal dato aggregato, la spesa primaria (cioè al netto degli interessi). Qui sorgono due difficoltà. La prima è quale anno prendere come punto di partenza: il 2000 o il 2001? Il secondo risente dell’attività di due governi diversi, che si dividono l’anno quasi a metà. Per i motivi che discuto sotto, il 2001 è probabilmente un migliore punto di riferimento. La seconda difficoltà è che i dati ufficiali sulla spesa primaria possono essere fuorvianti, perché per convenzione le spese in conto capitale sono al netto di alcune entrate una tantum, come le vendite e cartolarizzazioni di immobili e i proventi Umts (vedi tabella 1). (5)

Le righe 1 e 2 della tabella 2 presentano l’andamento del rapporto spesa primaria/Pil, sia quello originale sia quello, più significativo, “corretto” escludendo appunto le entrate una tantum portate in detrazione alle spese in conto capitale. La spesa primaria ufficiale del 2003 è più alta di 1,7 punti percentuali del Pil rispetto al 2001 e di 3,4 punti percentuali rispetto al 2000 (che beneficiò dei proventi Umts); per quella corretta, i numeri sono 1,7 e 2,4 punti percentuali.

Due voci di bilancio rappresentano quasi l’85 per cento di tutta la spesa primaria: consumi pubblici (cioè consumi intermedi più remunerazione degli impiegati pubblici, o spesa per il personale) e prestazioni sociali alle famiglie. L’andamento di queste due voci è dunque cruciale per comprendere la dinamica delle spese; fortunatamente, inoltre, i dati su queste due voci sono abbastanza incontroversi, ed esenti da interpretazioni alternative e alchimie contabili.

La spesa per consumi pubblici nel 2003 è aumentata rispetto al 2001 dello 0,5 percento del Pil. Di questi, solo 0,2 punti percentuali sono dovuti all’ aumento della spesa per personale. Ciò sembra contrastare con l’opinione diffusa che la spesa per consumi intermedi e per il personale stesse aumentando fuori controllo, con aumenti nel 2003 rispettivamente del 19,5 per cento e del 9,3 per cento. Il motivo della apparente contraddizione è semplice: questi ultimi dati si riferiscono al settore statale, e sono di cassa; inoltre, omettono il fatto che nel 2002 la spese per consumi intermedi e per il personale del settore statale diminuirono dell’2,4 e dell’1,3 per cento, rispettivamente. Il primo dato si riferisce alle Ap, ed è di competenza.

Come spiegare allora l’aumento considerevole – 1 punto percentuale del Pil – dei consumi pubblici nel 2003 rispetto al 2000? Metà di questo aumento è avvenuto nel 2001, ed è imputabile in gran parte all’aumento della spesa sanitaria (15,9 per cento) e in particolare di quella farmaceutica (32,8 per cento). È difficile attribuire esattamente la responsabilita’ di questo aumento, ma certamente su esso hanno influito pesantemente le misure prese dal governo precedente nella prima parte dell’ anno, quali l’ abolizione del ticket e l’ ampliamento delle prestazioni garantite dal SSN.

La spesa per prestazioni sociali monetarie nel 2003 è aumentata di 0,4 pp rispetto al 2000, e di 0,6 pp rispetto al 2001. L’ aumento è dovuto soprattutto alla spesa pensionistica, in parte a causa delle tendenze demografiche in atto, in parte per misure discrezionali quali l’ aumento delle pensioni minime. È legittimo incolpare Tremonti di parte di questo aumento, ma bisogna allora essere coerenti fino in fondo: molti di coloro che invece accusano questo governo di irresponsabilità fiscale e di tradire il Trattato di Maastricht allo stesso tempo lo accusano di volere attaccare lo stato sociale.

Sono davvero aumentate le spese?

I dati su entrate e spese in relazione al Pil sono però leggermente fuorvianti. È importante ricordare che il ciclo economico (vedi riga 20 della tabella 2) è stato negativo nel 2002-2003 e positivo (almeno per gli standard italiani) nel 1995-2001. Un peggioramento della congiuntura fa aumentare spese ed entrate in rapporto al Pil semplicemente perché fa diminuire il denominatore. Per avere un’idea dell’effetto denominatore sulle spese, le righe dalla 8 alla 13 della tabella mostrano i tassi di crescita in termini reali (valori nominali divisi per il deflattore del Pil) delle voci di spesa analizzate in precedenza. Nel 2002 e 2003, la crescita della spesa primaria corretta e dei consumi pubblici (inclusa la spesa per personale) è stata più bassa che nel biennio precedente.

Peggio del resto d’Europa? Dipende…

Sia per le spese, sia soprattutto per le entrate il ciclo economico impatta anche sul numeratore del rapporto. Un modo per tenerne conto è di esprimere entrate e spese al netto dell’effetto del ciclo economico, ottenendo così dati “cyclically adjusted”. (6)
La riga 17 della tabella 2 mostra che indebitamento netto “cyclically adjusted” calcolato dalla Commissione è addirittura diminuito tra il 2001 e il 2003.
Si può obiettare che ciò è avvenuto per la provvidenziale discesa dei tassi di interesse e per l’uso di misure una tantum, condoni, e artifici contabili. Come indica la riga 7, tra il 2001 e il 2003 la spesa per interessi è diminuita dell1,1 per cento del Pil. Al netto di questa spesa, rimane vero che l’avanzo primario “cyclically adjusted” è rimasto essenzialmente invariato tra il 2001 e il 2003 (riga 18 della tabella 2). (7)

L’avanzo primario “cyclically adjusted” corretto per le misure una tantum è sceso di 1,5 punti percentuali fra il 2001 e il 2003 (riga 19). (8)
Anche questa diminuzione è simile a quella avvenuta nel periodo 1997-2000.
In conclusione, includendo le misure una tantum, Tremonti ha fatto meglio della media dell’area euro, in cui l’ avanzo primario “cyclically adjusted” è sceso tra il 2001 e il 2003 di 0,4 punti percentuali secondo i calcoli della Commissione. Al netto delle misure una tantum, l’avanzo primario corretto per il ciclo è invece andato peggio della media dell’area euro. (9)
Il giudizio finale, quindi, verte sulla legittimità delle misure una tantum. Come ho detto prima, non tutte sono necessariamente negative; ma il ruolo dei condoni nel salvare il 2003 è rilevante.

….E dei suoi predecessori? Probabilmente no

In ogni caso, non si può disconoscere che è mancata sotto Tremonti una politica di riduzione della spesa primaria. In questo, tuttavia, Tremonti è in ottima compagnia. Dalle righe 1 e 14 della tabella 2, si può notare che neanche nel periodo di massimo sforzo per entrare nell’unione monetaria, tra il 1995 e il 1999, quando l’indebitamento netto delle AP cadde dal 7.6 all’1,7 e il ciclo economico era in larga parte favorevole, vi fu la pur minima riduzione della spesa primaria: tutto l’aggiustamento fiscale fu fatto dal lato delle entrate, e anche in questo caso con ampio ricorso a misure una tantum.

Il debito pubblico: la fantasia al potere

Si afferma frequentemente che la discesa del debito pubblico è rallentata sotto la gestione Tremonti. Anche in questo caso la differenza è spiegabile in gran parte con l’effetto denominatore; ma soprattutto in questo caso, gli artifici contabili hanno contribuito a salvare le apparenze. È infatti sul debito che si è scatenata maggiormente la fantasia del ministero dell’Economia.
Anche in questo caso si possono distinguere due strategie: anticipare entrate, portando i proventi in riduzione del debito, e modificare lo status legale di alcune entità per farle uscire dalla definizione delle Ap. Riguardo alla prima, mentre come abbiamo visto solo una parte delle cartolarizzazioni ha avuto effetti dell’indebitamento netto, tutte hanno avuto effetti sul debito delle Ap, anche in questo caso il dato rilevante per il Patto. Riguardo alla seconda, la “privatizzazione” della Cassa depositi e prestiti è emblematica. Di per sé, questa ha portato una minima riduzione del debito (0,6 miliardi di euro). Tuttavia, una volta privatizzata la Cassa, il governo ha potuto “venderle” 11 miliardi di euro di partecipazioni azionarie, e portare il ricavato in riduzione del debito.

Anche in questo caso bisogna distinguere tra aspetti contabili ed effetti macroeconomici. Per un cittadino, ciò che conta è il debito pubblico totale di tutti gli enti che sono sotto il controllo pubblico: che questi enti siano formalmente società per azioni, o siano invece parte delle Ap, è irrilevante. Allo stesso modo, il fatto che certi proventi siano cartolarizzati – e per di più venduti a enti privati solo di nome, ma in realtà controllati integralmente dal ministero – non cambia il valore atteso delle tasse che il governo prima o poi chiederà per pagare il debito.
È interessante notare come, nella motivazione del downgrading del debito pubblico (http://www2.standardandpoors.com/NASApp/cs/ContentServerpagename=sp/Page/HomePg) annunciata mercoledì 7 luglio, Standard & Poor’s menzioni molto raramente il debito, e si concentri prevalentemente sul disavanzo di bilancio: gli artifici contabili sul debito servono a soddisfare formalmente il Patto, ma non ingannano nessuno.

L’impatto macroeconomico diretto di questi artifici contabili è dunque probabilmente limitato. Ma il loro costo, in termini di immagine e trasparenza, potrebbe rivelarsi alto; e in questo senso il loro impatto macroeconomico indiretto potrebbe non essere trascurabile.

(1) Questi ultimi sono desunti da varie “Relazioni del Governatore della Banca d’Italia”.
(2) L’ indebitamento netto è all’incirca la differenza fra uscite ed entrate di competenza.
(3) Le amministrazioni pubbliche includono il settore statale (cui si riferisce il bilancio dello Stato) ma anche Regioni, province, comuni, enti di previdenza, ed altri enti. I dati delle amministrazioni pubbliche, incluso l’indebitamento netto, sono per competenza, quelli sul settore statale quasi sempre di cassa. Molti equivoci sarebbero stati evitati se i media fossero consapevoli della enorme differenza fra i dati delle amministrazioni pubbliche e quelli del settore statale, e della diversa copertura dei vari documenti economici prodotti durante l’anno.
(4) Nelle intenzioni, le prime due misure dovevano ridurre anche l’indebitamento, ma non sono state accettate da Eurostat.
(5) La tabella 1 mostra che il totale di queste entrate in detrazione di spesa è stato dell’1,3 per cento nel 2000 e dello 0,9 percento nel 2002, e trascurabile nel 2001 e 2003. È importante ricordare che questo non è un trucco contabile di Tremonti, ma una convenzione adottata da tutti i paesi europei e incorporata in tutti i dati ufficiali, inclusi quelli certificati da Eurostat e usati per il calcolo dei parametri del Patto di stabilità e crescita.
(6) L’aggiustamento ciclico dei dati di bilancio non è una semplice operazione contabile, ma comporta dei giudizi soggettivi. Di conseguenza, diverse organizzazioni (Ocse, Commissione europea, Fondo Monetario, Banca d’Italia) possono fornire stime diverse dell’aggiustamento ciclico nello stesso anno.
(7) L’opinione diffusa secondo cui la discesa dei tassi è stata resa possibile dall’adesione alla unione monetaria è inoltre un poco maliziosa. Secondo i calcoli di Lorenzo Codogno, Carlo Favero, e Alessandro Missale (“EMU and government bond spreads”, Economic Policy, October 2003), l’adesione all’euro, eliminando il rischio di cambio, ha diminuito il differenziale con i tassi a lunga tedeschi di circa 300 punti base (3 punti percentuali) – un numero molto alto. Ma dal 2000 in poi, il differenziale con i tassi tedeschi ha sempre fluttuato tra i 20 e i 40 punti base: in altre parole, gli effetti dell’entrata nell’unione monetaria si sono esauriti ben prima della gestione Tremonti. I tassi di mercato italiani ed europei sono in gran parte decisi dalla Fed americana, che tra il maggio 2000 e la fine del 2003 ha ridotto il Federal Fund rate dal 6,5 per cento all’1 per cento.
(8) Questo dato probabilmente sottostima l’effetto negativo dei fattori esterni sull’indebitamento netto. Con la fine del boom di Borsa, tra il 2000 e il 2003 le Ap hanno perso di colpo circa 8 miliardi di euro (circa lo 0,6 percento del Pil del 2001) in imposte legate all’andamento del mercato borsistico. L’aggiustamento ciclico del deficit tiene conto della caduta del tasso di crescita del Pil, ma non della caduta delle quotazioni di Borsa.
(9) In quest’ultimo confronto, non si tiene conto che anche altri paesi europei hanno fatto uso di misure una tantum, seppure in misura minore.

Fonte: righe 1-16: “Relazione del Governatore della Banca d’ Italia”, varie edizioni
righe 17-20: “Public Finance in EMU”, edizione 2004, Bruxelles, Commissione europea
Per gli anni 1995 e 1996, nelle righe 16 e 19 si è assunto che le misure temporanee fossero pari a 0,5 punti percentuali del Pil, ottenuto dividendo in tre parti uguali il dato aggregato di 1,5 punti percentuali per il triennio 1994-96 citato dalla “Relazione del Governatore per l’ Esercizio 1999”, p. 177.

Le imposte di Tremonti, di Maria Cecilia Guerra

La riforma fiscale, annunciata in campagna elettorale, per la quale aveva presentato un disegno di legge delega già nel dicembre del 2001: questa doveva essere l’eredità di Giulio Tremonti alla fine del suo mandato. Le sue dimissioni lasciano invece il “progetto” incompiuto.

La riforma annunciata

Due elementi hanno impedito a Tremonti di procedere nella sua riforma. In primo luogo, si trattava di una riforma costosissima: l’abolizione dell’Irap, 30 miliardi di euro, la riforma dell’Irpef, altri 20 miliardi di euro.

Ma non sono solo i vincoli di bilancio che hanno costretto Tremonti a procedere a piccoli passi: un primo modulo di riforma dell’Irpef, la riforma della tassazione dei redditi delle società.

L’altra importante ragione è che la legge delega, approvata, pur senza particolari modifiche rispetto al testo originale, dal Parlamento ben sedici mesi dopo la sua presentazione (aprile 2003), con la sola eccezione della parte relativa alla tassazione del reddito di impresa, non è una vera legge delega. È un manifesto di intenti, poco più o poco meno di una piattaforma elettorale.

Quando si è trattato di tradurlo in una riforma vera, i nodi sono venuti al pettine. Solo allora gli alleati di governo, che pure l’avevano votata compatti, si sono resi conto degli effetti redistributivi fortemente negativi del passaggio a un’imposta sui redditi a due aliquote, 23 e 33 per cento. Effetti che erano stati ampiamente segnalati dalla letteratura sull’argomento, ma che non erano emersi con chiarezza nell’attuazione del primo modulo, costoso sì, ma abbastanza neutrale sul piano distributivo. La maggioranza ha cominciato ad andare in ordine sparso, quando ha realizzato che la menzione di una generica volontà di tener conto della famiglia non significa niente: occorre decidere se l’unità di riferimento deve o meno rimanere l’individuo, e, soprattutto, occorre affrontare il problema dell’incapienza fiscale. Alzare le deduzioni o le detrazioni per carichi di famiglia, non dà alcun beneficio (o lo dà solo in misura ridotta) agli individui poveri che non hanno sufficiente imponibile o imposte contro cui farle valere.

Allo stesso modo, si sono scontrati con l’insostenibilità della promessa di abolire l’Irap, senza procedere alla ben che minima indicazione di un prelievo che possa sostituirla nel finanziamento delle Regioni (e quindi della sanità). Questi ostacoli, oltre a quello della perdita di gettito, che qualcuno ritiene ancora aggirabile, hanno impedito a Tremonti di realizzare la sua riforma. E non lo renderanno facile neppure al suo attuale successore, Silvio Berlusconi.

Il taglio delle tasse che si autofinanzia

Fra i provvedimenti più significativi che Tremonti ha comunque realizzato nel triennio in cui è stato ministro, merita di essere ricordato il reiterato ricorso alla strategia del taglio delle tasse, finanziato temporaneamente con entrate straordinarie, con l’obiettivo di attivare un circolo virtuoso, taglio delle tasse- sviluppo economico-aumento delle tasse indotto dalla crescita, che nella sua filosofia avrebbero dovuto permettere al taglio stesso di autofinanziarsi.

Lo ha fatto da subito, con la manovra dei cento giorni, il cui cardine, la “Tremonti bis“, era stato il cavallo di battaglia della sua campagna elettorale presso gli industriali e i commercianti. Si è trattato di un’agevolazione non selettiva, indifferentemente concessa a qualsiasi tipo di investimenti, nuovi o di rimpiazzo, di tutti gli operatori economici (compresi i lavoratori autonomi, le banche e le assicurazioni), comunque finanziati, e quindi anche con debito, alla condizione che risultassero superiori, nell’esercizio considerato, alla media degli investimenti realizzati nei precedenti cinque periodi di imposta.

Lo ha fatto poi con l’introduzione del cosiddetto primo modulo della riforma dell’Irpef: rimodulazione delle aliquote e introduzione di una deduzione di base, denominata no tax area, in sostituzione della preesistente detrazione per lavoro dipendente e autonomo. Doveva essere la parte della riforma dell’Irpef maggiormente concentrata sui redditi medio bassi, a più alta propensione al consumo, ed essere quindi, a un tempo, redistributiva e di stimolo ai consumi.

In entrambi i casi, l’atteso sostegno alla domanda non è venuto, anche a causa della congiuntura economica sfavorevole. Non sono però pochi i contribuenti per i quali la Tremonti bis si è tradotta in un contributo a fondo perduto per sostituire l’auto o l’arredamento dell’ufficio. E non sono state le famiglie più povere (e a più alta propensione al consumo) a beneficiare maggiormente dello sgravio Irpef: secondo le stime del Capp (Cfr. Baldini e Bosi), il 63 per cento di tale sgravio è andato alle famiglie comprese nei decili dal sesto al decimo. Le famiglie più povere, quelle del primo decile, non ne hanno goduto in misura rilevante, in larga parte perché incapienti.

Mentre la Tremonti bis ha tagliato le imposte solo temporaneamente, il primo modulo dell’Irpef ha comportato un taglio permanente di imposte: 5,5, miliardi che mancheranno ogni anno alle casse dello stato. Un taglio che richiede una copertura anch’essa permanente (riduzione di spese? aumento di tasse?) che non è ancora stata trovata. Questo problema viene tranquillamente ignorato nel dibattito attuale in cui viene menzionato, esclusivamente, il problema della copertura di eventuali ulteriori tagli fiscali.

Le entrate straordinarie: scudo fiscale e condoni

La copertura dei tagli fiscali è stata ottenuta, inizialmente, con entrate straordinarie. Quelle a cui ha fatto ricorso Tremonti hanno avuto caratteristiche particolari, su alcune delle quali è bene soffermarsi.
Nel settembre 2001, al duplice scopo di stimolare lo sviluppo economico e di acquisire gettito per finanziare la Tremonti bis, veniva sperimentata la prima edizione dello scudo fiscale, un provvedimento finalizzato a incentivare il rientro o, comunque, l’emersione di capitali illecitamente esportati all’estero, coadiuvato dalle nuove norme sul falso in bilancio.
Pagando una piccola tassa, il contribuente si precostituiva una franchigia (lo scudo, appunto) di ammontare pari all’importo dei capitali emersi o rientrati da opporre all’amministrazione finanziaria in caso di eventuali futuri accertamenti fiscali e previdenziali relativi a periodi precedenti. Larga parte dei capitali che hanno beneficiato dello scudo non sono rimpatriati, se non temporaneamente (vedi Cottarelli), e non hanno quindi contribuito a finanziare lo sviluppo. Molti invece sembrano essere stati i casi di frode: promotori finanziari che si sono prestati al riciclaggio di proventi derivanti dall’evasione fiscale e da altre attività illecite, realizzato proprio grazie al meccanismo dello scudo fiscale. Questo rischio era stato paventato da molti esperti al momento dell’ emanazione della legge, ma ignorato dalle autorità.
L’anno dopo, il finanziamento è arrivato da uno strumento vecchio, a cui anche governi passati hanno fatto ricorso: il condono. Non si è trattato però né di un solo condono, né di un condono qualsiasi. In questo campo infatti il ministro Tremonti ha superato di gran lunga la fantasia dei suoi predecessori. Non solo per la varietà di condoni previsti (cfr Giannini), non solo nel lasciare che venissero di fatto annunciati ancora prima della chiusura dei termini per la dichiarazione a cui si riferivano, ma anche introducendo un’importante innovazione mutuata dai provvedimenti per il rientro dei capitali: la possibilità di fare il condono mantenendo l’anonimato.
Le conseguenze di questi provvedimenti sull’attività di accertamento sono state e saranno molto gravi. Quelle del passato sono state svendute a basso prezzo (come nel caso del provvedimento di “rottamazione” dei ruoli che ha concesso la possibilità di estinguere le pretese del fisco pagando soltanto il 25 per cento delle somme complessivamente dovute). L’attività corrente di accertamento è stata inibita dal continuo spostamento dei termini per l’adesione alle diverse sanatorie. Negli anni a venire, infine, l’amministrazione si troverà per molto tempo nella situazione di condurre accertamenti al buio, per poi scoprire che il soggetto su cui sta indagando non è perseguibile perché si è avvalso di sanatorie anonime (scudo fiscale, condono tombale), o può comunque beneficiare delle diverse franchigie concesse nei confronti degli accertamenti futuri. Proprio lo strumento della franchigia si è infine tradotto in legittimazione, ex ante, all’evasione, nel caso del concordato “preventivo” varato con la Finanziaria per il 2004: il contribuente che aderisce al concordato potrà poi dichiarare un reddito inferiore al vero avendo la garanzia che non sarà sottoposto ad accertamento fintantoché il reddito occultato non supera di oltre il 50 per cento quello dichiarato (vedi Guerra).
In questi anni, in definitiva, l’attività di accertamento dell’amministrazione sembra confinata a svolgere un avvilente ruolo di strumento di ricatto, sollecitata come è a inasprire i controlli sui soggetti che non hanno aderito a questo o quel condono, magari perché onesti. In compenso, i contribuenti disonesti si trovano a godere di benefici inattesi: se avevano contabilizzato fatture false, facendo emergere falsi crediti Iva, aderendo al condono vedranno tali crediti trasformarsi in crediti veri, che il fisco pagherà. Lo svilimento del ruolo dell’amministrazione finanziaria, il condono che legittima un atto illecito, il condono che delegittima le imposte quale strumento democratico di finanziamento della cosa pubblica: questa è l’eredità, certamente più pesante di quella dei conti in disordine, che Tremonti lascia ai suoi successori e al paese.

Un bilancio ad interim, di Tito Boeri e Giuseppe Pisauro

Come Jacques Necker, ministro delle Finanze di Luigi XVI, Giulio Tremonti ha goduto di un grande potere. Come Necker, Tremonti ha finito per essere vittima delle sue stesse creazioni. È stato il ministro delle una tantum. E di una tantum oggi perisce. Ha giocato d’azzardo sperando in una ripresa del ciclo e in un allentamento dei vincoli europei. E ha perso. Ci lascia un eredità pesante. Ma le sue dimissioni rischiano di spianare la strada al peggiore dei cicli politici. Potremo anche rimpiangerlo.

Il potere di Tremonti

Tremonti è stato il primo ministro dell’Economia della storia repubblicana, il che gli ha permesso di accorpare su di sé le funzioni precedentemente ricoperte dai titolari del ministero del Tesoro e delle Finanze e, se vogliamo risalire indietro nel tempo, dai ministeri delle Partecipazioni Statali e del Bilancio e della Programmazione Economica. È stato ministro di un governo con la più solida maggioranza parlamentare (in entrambi i rami del Parlamento) dopo il sesto Governo De Gasperi. Ha potuto gestire la politica economica del Governo Berlusconi avendo di fronte a sé un’associazione degli industriali molto arrendevole. Ha dovuto fronteggiare un sindacato non disposto a concedere sconti, ma anche fortemente diviso al suo interno.

Nonostante dovesse attuare un programma che prevedeva una forte riduzione delle tasse e della spesa pubblica, è riuscito in questi anni solo a espandere la spesa, cresciuta di ben due punti del Pil. La congiuntura non è stata per lui particolarmente favorevole, ma neanche così ostile come spesso paventato. È più facile tagliare le tasse e la spesa pubblica in periodi di crescita economica. Ma sotto il suo regno è continuata la discesa dei tassi di interesse, una manna per chi deve gestire il “terzo debito pubblico del pianeta”. Sarà più difficile il compito del suo successore, adesso che si è interrotta la fase dei tassi calanti.

Vittima delle sue creazioni

Tremonti è stato di una fantasia rara nell’inventare misure una tantum, un genio nella finanza creativa. Questo ha permesso al nostro paese di rispettare i vincoli presi a livello europeo. Non è stato certo il primo a usare le una tantum (ce ne sono state anche nella passata legislatura), ma senz’altro il più assiduo. Nelle sue intenzioni, sarebbero dovute servire a guadagnare tempo, in attesa di momenti migliori. Ma il rinvio dei problemi agli esercizi futuri e la finanza creativa hanno finito per allentare anche i vincoli di bilancio percepiti all’interno della coalizione, permettendo agli alleati di governo di sottoscrivere accordi per il pubblico impiego che recepivano in pieno la piattaforma sindacale. E quando il quadro preoccupante dei conti pubblici è risultato evidente a tutti, è stato facile per gli alleati incolpare Tremonti di averli truccati.

Sotto la sua reggenza dell’Ecofin, si è consumata la rottura del Patto di Stabilità e crescita, con la riunione dei ministri delle Finanze dell’Unione che ha deciso di non applicare le sanzioni a Francia e Germania in cambio di un atteggiamento più morbido nei confronti dell’Italia (quello che oggi ci ha permesso di evitare l’early warning). Il messaggio secondo cui le regole ci sono solo per non essere applicate, il protratto sforamento dei vincoli di Maastricht da parte dei nostri principali partner europei hanno, di fatto, indebolito l’azione di Tremonti sul fronte interno. È stato costretto a dimettersi alla vigilia di una riunione Ecofin decisiva per il nostro paese. Segnale chiaro del fatto che i vincoli europei non sono stati presi troppo sul serio da molti ministri.

Un’eredità pesante

Abbiamo documentato su questo sito lo stato attuale dei conti pubblici. Il consuntivo degli ultimi tre anni è sintetizzato in un dato: il saldo primario della Pa nel 2003 è stato peggiore di 1,7 punti di Pil rispetto al risultato del 2000. Solo la riduzione della spesa per interessi (1,2 punti di Pil), il dividendo dell’euro, ha consentito di mantenere il disavanzo complessivo al di sotto della soglia del 3 per cento. Di fronte a un prevedibile rialzo dei tassi, bisognerà ridurre la spesa primaria che, invece, ha ripreso a crescere (un punto nel solo 2003), dopo essere rimasta costante tra il 1996 e il 2000. Non tanto per nuove misure, ma perché l’azione di contrasto è stata debole, basata su interventi tampone (vedi taglia-spese), con lenti progressi nella costruzione di un moderno sistema di monitoraggio e controllo (come testimonia la diatriba tra Tesoro e Banca d’Italia sull’emersione di nuovo debito pubblico alla fine dello scorso anno vedi Perotti) e di un compiuto sistema di relazioni finanziarie tra Stato centrale e autonomie territoriali.

Anche le entrate sono cresciute (due punti di Pil rispetto al 2000) sotto la reggenza Tremonti, ma è una crescita che contiene i germi di andamenti molto meno favorevoli in futuro.

La successione di condoni ha fortemente incrinato il rapporto tra fisco e contribuenti (vedi Bordignon). Segnali evidenti sull’andamento delle entrate “strutturali” (al netto dei condoni) sono presenti già nel 2003. L’aumento dell’evasione, per una sorta di contrappasso, potrebbe divenire la pietra tombale sulle ipotesi di riduzione delle aliquote dell’Irpef. Buona parte delle entrate aggiuntive è venuta dai proventi della vendita del patrimonio pubblico, non destinati a ridurre il debito, ma solo a tenere insieme l’equilibrio dei conti. Anche qui con costi potenziali non trascurabili (vedi Scip2).

Negli ultimi mesi il gioco d’azzardo, la politica dell’attesa di tempi migliori è divenuta insostenibile: il disavanzo viaggia verso il 4 per cento del Pil e il tempo per mantenere le promesse elettorali si sta esaurendo.

Cosa accadrà ora?

Difficile cercare di leggere nella sfera di cristallo, almeno fin quando non si saprà chi sostituirà Tremonti. Ma una cosa è certa: chiunque siederà alla scrivania di Quintino Sella in via XX Settembre, magari in affitto, difficilmente potrà accentrare su di sé lo stesso potere del suo predecessore e vivrà in un clima di assalto alla diligenza.

Dietro alla richiesta di collegialità, si legge un tentativo di procedere a uno smembramento delle competenze del ministro dell’Economia, con la ricostruzione di fatto del dualismo fra Finanze e Tesoro e si parla anche di un ministero per il Mezzogiorno. Una collegialità virtuosa può invece venire da una maggiore trasparenza della politica di bilancio che renda il vincolo finanziario chiaramente percepibile a tutti: ministri, gruppi di interesse e opinione pubblica. Per evitare il saccheggio del bilancio pubblico è necessario un sistema di regole rigide e una “casa di vetro”.

Varranno poi per il successore di Tremonti le leggi del ciclo politico, che comportano un aumento del deficit pubblico di circa mezzo punto di Pil in occasione di ogni tornata elettorale. Tremonti sembrava in procinto di gestire il ciclo politico riducendo le tasse, anche senza copertura. Nel suo mesto messaggio di congedo, in quel suo “non mi hanno lasciato tagliare le tasse”, si intuisce che il suo successore verrà spinto dai colleghi ad aumentare il disavanzo nel modo più tradizionale: aumentando la spesa, anziché riducendo le tasse.

Dato lo stato dei nostri conti pubblici, il ciclo politico, che rischia di essere molto lungo data la minaccia continua di elezioni anticipate, è comunque una sciagura. Non si sa cosa scegliere fra disavanzo con più spesa “per lo sviluppo”, disavanzo con più devolution o disavanzo con meno tasse. Con l’interim di Berlusconi, rischiamo di averle tutte e tre. In questo interim elettorale potremo anche rimpiangere Tremonti.

Pluralismo, chi era costui?

Sommario a cura di Michele Polo

Il 2004 è stato un anno importante per l’informazione e i media nel mercato italiano. A maggio è stata approvata la nuova legge che regolamenta gli assetti del settore delle comunicazioni, la Legge Gasparri, che introduce profondi cambiamenti rispetto al quadro recedente. Ma mantiene un dato di continuità con le precedenti normative, nel fotografare la situazione esistente senza incidere sul quadro allarmante dell’informazione e del pluralismo in Italia. Il mercato televisivo viene sottoposto a vincoli antitrust, calcolati tuttavia su un mercato di riferimento talmente ampio e eterogeneo da consentire non solo il mantenimento, ma la crescita delle attuali posizioni dominanti. Ma il pluralismo in Italia non è solamente un problema di televisioni. Anche la stampa, settore apparentemente più frammentato, si caratterizza come un insieme di piccoli oligopoli locali, all’interno dei quali pochissime testate vantano quote di mercato molto elevate. In questo quadro di concentrazione persistente e non intaccato dalle nuove norme inizia a profilarsi all’orizzonte una revisione della par condicio, che in un contesto come quello italiano appare uno dei pochi vincoli che garantiscano un bilanciamento delle opportunità tra le diverse posizioni politiche.

Una regolamentazione per il pluralismo, di Michele Polo

Le dinamiche di mercato difficilmente possano portare a una offerta diversificata e ampia di posizioni politiche tra operatori dell’informazione o all’interno di ciascuno di essi, come abbiamo illustrato nell’intervento a fianco. Da questo fallimento del mercato nel garantire il pluralismo deriva l’esigenza di appropriate politiche pubbliche.

L’antitrust non basta

È bene sottolineare subito che le politiche antitrust, per quanto utili a mantenere la concorrenza e i mercati aperti ai nuovi entranti, non possono da sole supplire alle esigenze di pluralismo, e ubbidiscono a obiettivi di efficienza economica che non sempre coincidono con quelli di un libero accesso di tutte le opinioni ai mezzi di comunicazione.
Si rende quindi necessario il disegno di appropriate politiche regolatorie per il pluralismo.

Abbiamo argomentato come in molti mercati dei media esiste una tendenza alla concentrazione, dovuta a dinamiche in parte diverse, che ben difficilmente le politiche pubbliche possono evitare. Esiste tuttavia uno spazio su cui intervenire per evitare che la concentrazione risulti anche maggiore di quanto le dinamiche concorrenziali giustifichino, sottoponendo a un attento controllo la creazione di gruppi multimediali su uno stesso o su più mercati.
In primo luogo la concentrazione, in una prospettiva di pluralismo, dovrebbe essere valutata mercato per mercato, con riferimento alla distribuzione degli ascoltatori e dei lettori, in modo da verificare se qualcuno tra i media presenta problemi di insufficiente pluralismo esterno. Siamo quindi ben lontani da quel singolare coacervo di mercati e di fatturati, il sistema integrato di comunicazione, creato dalla Legge Gasparri per annacquare ogni posizione dominante.

L’impostazione che riteniamo meno intrusiva sulle dinamiche di mercato dovrebbe limitare la concentrazione sul singolo mercato dei media (pur sacrificando in questo eventuali sinergie), qualora questa si realizzi attraverso la proprietà di più mezzi (molti canali televisivi, o numerosi giornali o stazioni radio) attivi sul mercato stesso. Se tuttavia con un singolo mezzo, un operatore fosse in grado di raccogliere un ampio pubblico grazie alla bontà dei suoi contenuti, non riteniamo che le politiche pubbliche dovrebbero intervenire con dei vincoli alle quote di mercato.
Al contempo, tali sinergie dovrebbero essere invece consentite tra diversi segmenti dei media, laddove l’operatore multimediale non raggiunga posizioni dominanti in nessuno dei singoli mercati. In una parola, gruppi multimediali risultano desiderabili se attivi su più mercati, ma dovrebbero essere contrastati se dominanti in un singolo mercato

Gli strumenti da utilizzare

Gli strumenti che in questa prospettiva appaiono più utili risultano le limitazioni al numero di licenze in capo a uno stesso operatore, applicabili in quei mercati (televisione e radio) nei quali una autorizzazione è necessaria per l’uso dello spettro elettromagnetico. Utilizzando questo strumento è possibile quindi limitare la crescita di un operatore che disponga di un portafoglio con più licenze per canali televisivi, laddove la sua quota cumulata di audience superi determinate soglie (in Germania è attualmente posta al 30 per cento), costringendolo a cedere licenze nel caso di superamento dei limiti consentiti. Analogamente, vincoli alla partecipazione su più mercati (giornali, televisioni, radio) dovrebbero intervenire laddove l’operatore raggiunga una posizione dominante in qualcuno di essi, imponendo anche in questo caso la cessione di licenze.

Più difficile intervenire in caso di forte dominanza realizzata da gruppi editoriali attivi solo nella carta stampata con numerose testate, per le quali evidentemente non esistono licenze da ottenere. Solamente in caso di fusioni e acquisizione, ma non di creazione ex-novo di testate, ci sarebbe spazio per intervenire. Quando questi interventi volti a garantire il pluralismo esterno risultano poco efficaci, vanno associate misure per il pluralismo interno.
Il pericolo maggiore per il pluralismo interno nei contenuti dei singoli operatori, ritengo derivi dalle motivazioni lobbistiche dei gruppi proprietari, che inducono a privilegiare la rappresentazione di posizioni politiche specifiche. Questa componente risulta enfatizzata quando la proprietà dei gruppi di comunicazione veda coinvolti investitori attivi in altre industrie regolate (public utilities, banche, trasporti, eccetera). Occorre quindi fissare dei limiti alla partecipazione azionaria di queste categorie di soggetti al settore dei media.

Le motivazioni lobbistiche o partigiane espresse dalla proprietà dei media sono tuttavia in parte ineliminabili. Occorre quindi pensare, in particolare nelle fasi (campagne elettorali) nelle quali distorsioni informative eserciterebbero effetti di lungo periodo, a una regolazione diretta degli spazi, del diritto di replica, dell’accesso, secondo criteri di par condicio. Questa regolamentazione è stata sino a oggi applicata all’informazione televisiva. La situazione di forte concentrazione nei mercati locali della carta stampata pone tuttavia l’esigenza di iniziare a discutere di quello che sinora è considerato un tabù, il diritto di accesso sui giornali. Infine, il mantenimento di un canale pubblico televisivo (ben diverso dalla attuale Rai) sottoposto a un controllo diretto da parte di una autorità di vigilanza indipendente dovrebbe offrire un ulteriore, parziale, tassello, a garanzia di una informazione più articolate e pluralista.

Regole, monitoraggi e sanzioni, Antonio Zizzoli

Nel dibattito politico italiano, il tema del pluralismo nei mass media ha un ruolo centrale. L’Osservatorio di Pavia svolge monitoraggi in Italia da più di dieci anni e più di cinquanta sono state le missioni elettorali all’estero. (1)
Forse proprio perché ha il polso delle variegate situazioni, ha maturato la convinzione che su questo aspetto del funzionamento del processo democratico sia necessaria una riflessione attenta e pacata, poco legata alla contingenza e alle pressioni dei vari attori.

La par condicio in Italia e all’estero

È bene sgombrare subito il campo dall’idea che la regolamentazione della comunicazione politica sia una peculiarità italiana.
Un memorandum di intenti di trentadue pagine, che stabiliva minuziosamente tutti i particolari del confronto, ha regolato i tre recenti dibattiti presidenziali Bush–Kerry.
Sempre negli Usa, i tempi di presenza dei canditati sono rigidamente contingentati. Per esempio, durante la campagna per governatore della California, secondo le leggi federali sulla par condicio i film di Arnold Schwarzenegger costituivano spazio televisivo e quindi mandarli in onda non rispettava la parità di accesso. Qualora fossero stati trasmessi film come Terminator o Atto Forza, i rivali di Schwarzenegger avrebbero potuto chiedere e ottenere analoghi spazi televisivi gratis. Libertà certo, ma ben regolamentata.

In Italia, la legge 28/2000, detta della par condicio, “promuove e disciplina, al fine di garantire la parità di trattamento e l’imparzialità rispetto a tutti i soggetti politici, l’accesso ai mezzi di informazione per la comunicazione politica”.
I principi di tale legge sono relativamente chiari e sinteticamente così riassumibili:
– durante le campagne elettorali la comunicazione politica viene compressa in spazi rigidamente regolamentati e vietata in qualsiasi altro genere televisivo, fatta eccezione per le notizie dei telegiornali (le news).
– Sono vietati gli spot e permessi spazi autogestiti (i messaggi autogestiti), anche questi rigidamenti normati
– Gli spazi concessi ai soggetti partecipanti alla competizione sono un mix tra rappresentanza esistente e candidature ex-novo.
– Infine sono date indicazione di massima sull’uso corretto del mezzo televisivo (“I registi ed i conduttori sono altresì tenuti ad un comportamento corretto ed imparziale nella gestione del programma, così da non esercitare, anche in forma surrettizia, influenza sulle libere scelte degli elettori”).

I monitoraggi

La Commissione parlamentare di vigilanza e l’Autorità delle comunicazioni (Agcom), previa consultazione tra loro, e ciascuna nell’ambito della propria competenza, regolano il riparto degli spazi tra i soggetti politici e stilano il regolamento dei messaggi autogestiti. Quest’attività ha il fine di rendere operativi i principi “astratti” sanciti dalla legge 28/2000 e di calarli nel contesto delle diverse campagne elettorali.

Contestualmente vengono svolti due monitoraggi (2) che controllano la conformità di quanto trasmesso con le disposizioni regolamentari. Un monitoraggio è a cura dell’Agcom e disponibile continuativamente sul sito www.agcom.it, l’altro è a cura dell’Osservatorio di Pavia per conto della Rai. In questo modo gli organi di controllo, le emittenti e i cittadini hanno a disposizione gli strumenti per controllare, valutare e sanzionare la correttezza della campagna elettorale per quanto riguarda il pluralismo politico.

Punti di forza e limiti

Nelle recenti campagne elettorali la parte relativa alle disposizioni su “Messaggi autogestiti, ripartizione dei tempi dei soggetti nei programmi dedicati alla campagna elettorale e la loro assenza al di fuori di tali programmi” è stata per lo più rispettata.
Punti critici invece, perché di difficile interpretazione, sono risultati:
– gli spazi dei soggetti politici nei telegiornali
– gli spazi dei soggetti politici dedicati alla cronaca al di fuori dei telegiornali
– il comportamento corretto e imparziale nella gestione dei programmi da parte dei conduttori.

Il trade off tra libertà di informazione e regole del pluralismo è forse il punto più delicato della normativa sulle campagne elettorali, poiché va a incidere sul diritto-dovere del giornalista di informare e scegliere le notizie. Come distribuire i tempi tra i partiti in modo equo rispettando l’esigenza del pubblico di essere informato su ciò che accade? Gli esponenti del Governo candidati come devono essere conteggiati? Se un ministro inaugura una strada in campagna elettorale, questo tempo è da attribuire alla competizione elettorale o al diritto-dovere del Governo di informare sulla propria attività? Questa distinzione appare più agevole nelle campagne elettorali per le elezioni politiche, durante le quali l’attività governativa si limita all’ordinaria amministrazione. Più difficile è distinguere tra informazione sull’attività governativa e propaganda per i candidati nel caso di elezioni (europee, regionali) che avvengono mentre il Governo in carica è pienamente operativo.

Problematico risulta poi valutare la qualità della comunicazione soprattutto in relazione al comportamento corretto e imparziale nella gestione dei programmi da parte dei conduttori.
I casi di aperta violazione di questa regola sono rari e quasi sempre riconducibili a pochi conduttori: la delicatezza del tema è evidente perché la partigianeria di un giornalista può essere valutata come comportamento coraggioso e “libero” dalla parte in sintonia con la sua posizione politica. Va tuttavia ricordato che in questi casi, oltre alla prudenza nell’intervenire, occorre che le sanzioni siano tempestive, cosa che non sempre avviene.

L’attuale legge italiana, sicuramente perfettibile, costituisce una buona base per il conseguimento del pluralismo. Lasciare non regolamentato questo campo, come in modo ricorrente viene sostenuto, significa rischiare gravi squilibri soprattutto in situazioni in cui le risorse delle emittenti sono molto concentrate e il controllo indiretto sul trasmesso è quasi inevitabile.


(1) Si veda il sito
www.osservatorio.it

(2) I monitoraggi, che coprono tutto il trasmesso 24 ore su 24 per 365 giorni l’anno, tra l’altro evidenziano:
– la presenza di un soggetto politico e la sua anagrafica (nome, cognome, sesso, partito, carica istituzionale, eccetera)
– la durata dell’intervento in secondi
– l’anagrafica della presenza (giorno, ora, minuto, rete e programma,)
– il tema dell’interevento.

La concentrazione nascosta, di Marco Gambaro

Nel dibattito sul pluralismo, il tema della concentrazione nel mercato dei quotidiani è spesso sostanzialmente sottovalutato. Si dà per scontato, almeno in Italia, che il pluralismo esista perché è alto il numero di testate presenti sul piano nazionale.

La dimensione locale

Una valutazione della concentrazione del mercato dovrebbe tuttavia tenere conto del fatto che i quotidiani competono prevalentemente su scala locale e che negli specifici mercati il grado di concentrazione può essere molto elevato.
Negli Stati Uniti, ad esempio, negli ultimi vent’anni vi è stato un continuo processo di concentrazione che ha portato la quasi totalità delle aree urbane ad avere un’unica testata oppure più testate dello stesso proprietario (in precedenza in circa i due terzi dei mercati operavano più testate ed editori concorrenti). Se si escludono l’unico quotidiano nazionale, Usa Today, e poche grandi città con più quotidiani in concorrenza tra loro (taluni prestigiosi, ma sempre locali), il mercato statunitense è configurato come un insieme di monopoli locali sostanzialmente autonomi dove operano 1.457 testate che vendono circa cinquantacinque milioni di copie giornaliere.

Nel nostro paese la situazione non è così polarizzata e i singoli mercati non sono così separati, ma la dimensione locale della concorrenza è comunque molto importante. In Italia si pubblicano novantuno testate e le prime due, Corriere della Sera e Repubblica, hanno quote di mercato di poco superiori al 10 per cento della diffusione giornaliera, mentre i gruppi cui fanno capo totalizzano assieme poco più del 40 per cento della diffusione complessiva. (1)

Misurare la concentrazione

Questi dati a livello nazionale non rappresentano tuttavia l’indicatore più corretto per una valutazione della concentrazione, poiché anche le maggiori testate hanno una diffusione molto disomogenea sul territorio. La Stampa (2) ad esempio vende nelle sue prime tre province di diffusione (Torino, Cuneo e Alessandria) il 50 per cento delle copie totali e nelle prime dieci province il 75per cento delle copie, mentre in ciascuna delle province restanti vende mediamente lo 0,3 per cento della sua diffusione. Il Corriere della Sera vende nelle sue prime tre province (Milano, Roma e Varese) il 45 per cento delle copie e nelle prime dieci il 60 per cento mentre nel resto d’Italia realizza mediamente lo 0,44 per cento delle sue vendite in ogni provincia. Anche la Repubblica, che pure ha una diffusione più omogenea, vende il 54 per cento nelle prime dieci province.

Per meglio valutare la concentrazione sui mercati rilevanti si è quindi proceduto a identificare, per ciascun quotidiano, l’insieme delle province nelle quali viene realizzata la maggior parte delle vendite, definibile come mercato di riferimento. Due sono le misure utilizzate, in modo da cogliere sia le realtà di giornali con una distribuzione molto concentrata in poche province (in questo caso sono state considerate le aree che cumulativamente rappresentano il 90 per cento delle vendite della testata), sia quelle di quotidiani con una diffusione relativamente più estesa (prendendo in questo caso tutte le province con una diffusione almeno pari allo 0,5 per cento delle vendite totali del quotidiano, senza necessariamente raggiungere in questo caso il 90 per cento delle vendite). (3)
Per ogni testata, sull’insieme di province che costituiscono il suo mercato di riferimento, sono stati calcolati diversi indici di concentrazione. (4) In questo modo è possibile verificare se nella sua area territoriale di diffusione, il quotidiano fronteggia un numero elevato di concorrenti o ha una posizione dominante. I risultati così ottenuti confermano una forte concentrazione nei mercati di riferimento. Delle cinquantaquattro testate di cui sono disponibili i dati Ads (Accertamenti diffusione stampa) delle vendite provinciali, ventiquattro operano in mercati con un indice di Herfindahl-Hirschmann superiore a 0,15 considerato normalmente la soglia di attenzione delle autorità antitrust. Ventisei quotidiani nel loro mercato di riferimento hanno una quota di mercato superiore al 30 per cento e ben quarantadue testate contribuiscono all’indice HH del loro mercato per più del 50 per cento.
Ad esempio, un quotidiano come Il Messaggero ha una quota del mercato nazionale inferiore al 5 per cento, ma nelle province del suo mercato specifico ha una quota del 23 per cento, l’indice di HH del suo mercato è 0,1068 cui contribuisce per circa il 50 per cento. Oppure Il Gazzettino di Venezia ha una quota del 33 per cento del suo mercato specifico che a sua volta ha un indice di HH di 0,1529 cui Il Gazzettino contribuisce per il 73 per cento.

Distinguendo per tipologie di quotidiani e calcolando per ciascuno di essi i valori medi della categoria, quelli nazionali operano in un mercato di riferimento relativamente ampio e poco concentrato, mentre le testate multiregionali, regionali e provinciali, con diffusione e mercati di riferimento via via più ristretti, evidenziano una forte concentrazione dei lettori, come si può notare nella tabella.
Questo dato conferma indirettamente il fatto che nei mercati locali (corrispondenti ai mercati di riferimento per queste testate) quasi sempre un numero molto limitato di quotidiani si contende il pubblico. Dall’analisi emerge quindi come la concentrazione effettiva nei mercati dei quotidiani sia superiore a quanto comunemente si crede per effetto della forte polarizzazione geografica della diffusione, anche per i quotidiani tradizionalmente considerati nazionali.



(1) La Federazione degli editori indica otto testate nazionali che complessivamente hanno venduto nel 2002 il 36 per cento delle copie giornaliere: Avvenire, Corriere della Sera, Foglio, Il Giornale, Il Giorno, La Repubblica, La Stampa, Libero.

(2) Questi dati e le altre elaborazioni di questo articolo derivano da uno studio da me svolto presso l’Università Statale di Milano e si riferiscono a dati 2000; la situazione relativa alla diffusione non è tuttavia sostanzialmente cambiata.

(3) Si tratta di confini piuttosto ampi se si considera che l’Autorità per le comunicazioni norvegese considera come mercato di riferimento di un quotidiano quelle province dove vende oltre il 10 per cento della sua diffusione.

(4) Si è calcolata nel mercato di riferimento la quota di mercato della testata, il rapporto tra quota della prima e della seconda testata (quota di mercato relativa), l’indice di Herfindahl-Hirschmann (somma delle quote di mercato al quadrato), utilizzato solitamente nelle valutazioni antitrust, e il contributo della prima testata al valore complessivo di questo indicatore

Quando il mercato non salva il pluralismo, di Michele Polo

Il pluralismo è un malato grave nel nostro paese. Ma non gode di buona salute in molti altre realtà, nonostante negli ultimi dieci anni i mezzi attraverso cui raggiungere il pubblico si siano moltiplicati, con lo sviluppo della televisione commerciale, il prossimo avvento di quella digitale e il fenomeno di Internet. A fronte di queste maggiori possibilità, i fenomeni di concentrazione sono tutt’oggi molto diffusi, e non rappresentano solamente il retaggio di un passato oramai chiuso, ma appaiono semmai come il risultato delle nuove modalità di concorrenza nei settori della comunicazione.

Concentrazione in televisione

Quando guardiamo al tema del pluralismo nel settore dei media, ci occupiamo prevalentemente di mercati nei quali operano imprese e gruppi di comunicazione privati, dalle cui scelte e dalle cui dinamiche competitive occorre partire per rispondere alla domanda se il mercato sia in grado di sfruttare le nuove opportunità tecnologiche (digitale, Internet) garantendo un accesso bilanciato e non discriminatorio a tutte le opinioni politiche.
In questa prospettiva solitamente si distingue tra pluralismo esterno, che considera se nell’offerta complessiva di un particolare mercato dei media (giornali, o televisione o radio, eccetera) tutte le opinioni politiche trovano spazio, e pluralismo interno, che invece guarda a come le diverse opinioni politiche sono rappresentate nell’offerta di un singolo operatore.

Se osserviamo il mercato dei media in una prospettiva di pluralismo esterno, due fenomeni appaiono frenare il raggiungimento di questo obiettivo. La perdurante concentrazione in segmenti come la televisione commerciale finanziata con pubblicità è sostenuta dalla forte concorrenza per i programmi più richiesti, che determina una forte lievitazione dei costi strettamente correlata ai futuri ricavi dai proventi pubblicitari. In questa corsa al rialzo c’è posto per pochi vincitori, come i dati sulla concentrazione televisiva testimoniano in tutti i paesi europei e parzialmente, dopo vent’anni di erosione da parte delle pay-tv, negli stessi Stati Uniti, dove i principali network raccolgono ancora circa la metà della audience nel prime time.

E nei giornali

Ma la concentrazione non è un fenomeno unicamente televisivo, interessa marcatamente anche la carta stampata.
Se andiamo al di là dei dati nazionali sulle vendite di quotidiani per studiarne la distribuzione geografica, troviamo una forte segmentazione nella quale in ogni mercato locale, quello in cui ciascuno di noi lettori abita,
uno o due giornali raccolgono la maggior parte dei lettori. E questo riguarda non solo, e ovviamente, i giornali locali, ma gli stessi quotidiani di opinione, che, con pochissime eccezioni, vantano un forte radicamento regionale. Fenomeno che non è solo nostrano, come testimonia l’evoluzione dei mercati locali della stampa negli Stati Uniti e la sempre più frequente sopravvivenza di un solo quotidiano locale. Le dimensioni relativamente limitate dei mercati provinciali e regionali spiegano quindi perché solamente pochi quotidiani possano sopravvivere in ciascuna area coprendo i significativi costi di struttura e di personale necessari per una edizione locale.

Il pluralismo interno

In mercati fortemente concentrati, per loro natura impossibilitati a sostenere una offerta di media ampia e diversificata (pluralismo esterno), rimane la strada del pluralismo interno.
Vorremmo fosse affidato in primo luogo agli incentivi di un operatore o gruppo di comunicazione a coprire più segmenti di mercato (opinioni politiche) con la propria offerta, analogamente a come si coprono molte discipline sportive, vari temi di intrattenimento, molti generi di film. L’ostacolo maggiore in questa prospettiva si ritrova nel forte ruolo che i media esercitano come strumento di lobbying, che li trasforma in un mezzo ideale in quel terreno scivoloso di contrattazione politica tanto prezioso soprattutto per i gruppi economici fortemente regolati.
Analoghe distorsioni possono poi nascere dalla stessa identificazione politica dei gruppi di comunicazione, dove a fronte dei fin troppo ovvi esempi nostrani, non possiamo che registrare con preoccupazione un fenomeno, relativamente nuovo per il mercato americano, quale la spregiudicata propaganda di parte di un grande network come Fox.

La conclusione cui giungiamo, guardando alle possibilità che il mercato trasformi le nuove e grandi opportunità tecnologiche di comunicazione in una offerta ampia e diversificata di contenuti e informazioni politiche, è quindi venata di una forte preoccupazione.
Oggi disponiamo di mezzi sempre più ricchi, sempre più persuasivi ma, apparentemente, sempre più concentrati. E il cittadino difficilmente trova i mezzi per formarsi una opinione informata e libera da distorsioni e condizionamenti.
Di fronte a questo nuovo fallimento del mercato, si richiedono quindi adeguate politiche pubbliche per il pluralismo.

La legge Gasparri, una vera best practice, di Ferruccio De Bortoli

Tutti coloro, e io tra questi, che hanno duramente criticato la legge Gasparri sul riordino (a casa Berlusconi) del sistema delle comunicazioni dovrebbero ammettere che alla fine non è poi male. Anzi, che tutto sommato rappresenta un esempio di efficienza legislativa e di inusuale velocità nella sua applicazione pratica. Mai legge, a dispetto dello scontro istituzionale che ne ha preceduto il varo, è entrata in vigore così rapidamente e ha prodotto effetti così vasti e duraturi. E mai la volontà del legislatore è stata così prontamente accolta dal mercato. Una straordinaria sintonia.

Per usare una celebre espressione di Umberto Bossi un “idem sentire” incredibilmente armonico. Come se gli attori del mercato della comunicazione, del sistema televisivo, l’avessero studiata in anticipo quella legge. Con una tale attenzione che potrebbe far sorgere il dubbio, sicuramente infondato, che qualcuno se la sia scritta direttamente. In casa. Malignità degli outsider.

È il mercato, bellezza

Ma non c’è dubbio che la Gasparri rappresenti una best practice. In pochi mesi Mediaset si è mossa sul mercato del digitale terrestre acquistando i diritti criptati per le dirette casalinghe di Juventus, Milan e Inter, che verranno offerte grazie a una carta prepagata a due euro l’una.

“Questo è il mercato, bellezza”, avrebbero esclamato i difensori ministeriali della legge a lungo osteggiata da Carlo Azelio Ciampi. Una risposta a tutti coloro che protestavano per la mossa, sicuramente tempestiva, del gruppo di proprietà del presidente del Consiglio e ormai gestito, con grande abilità va riconosciuto, da suo figlio Pier Silvio.

Peccato che gli stessi che difendono la libertà, di chi è forte e conosce il mercato, di muoversi liberamente siano gli stessi che in altri settori dell’economia invocano l’intervento dello Stato, hanno nostalgia della Cassa del Mezzogiorno e sostengono che il metodo Alitalia, ovvero procrastinare il destino di una compagnia sprecando ancora denaro pubblico, sia un esempio virtuoso nel rapporto fra politica ed economia. Peccato.

E peccato ancora che quella carta prepagata per il digitale terrestre sia stata studiata e messa a punto nei laboratori della Rai, l’operatore del servizio pubblico, il cui consiglio d’amministrazione è territorio di caccia delle forze di governo e di strage intellettuale di molti personaggi, alcuni di spicco e di grande qualità professionale e morale. E pensare che la Rai entrò a suo tempo come socio in Telepiù, facendosi pagare e non poco in cambio di un pacchetto di canali. Con una semplice autorizzazione e ora assiste impotente allo sviluppo di una sua ricerca. Lo ha bene notato sul Sole-24Ore Marco Mele, il quale non ha mancato di sottolineare come sia virtualmente cambiata la natura del digitale terrestre: da piattaforma gratuita e, in qualche modo, alternativa alla televisione generalista, a nuovo terreno di sfida e di conquista perché abbondante di spazi pubblicitari appetiti dall’utenza (grazie al calcio, vero driver dell’espansione televisiva).

Dunque, Publitalia avrà un’offerta aggiuntiva da proporre ai suoi grandi clienti e potrà ulteriormente, come gli consente la legge, allargare la propria quota di mercato.

La Gasparri e la pubblicità

Ma proprio sul mercato pubblicitario sta accadendo qualcosa di assolutamente inedito che dovrebbe preoccupare fortemente gli editori di carta stampata.

Per la prima volta una fase di ripresa degli investimenti pubblicitari, che difficilmente torneranno ai valori dell’anno 2000, vede quotidiani e periodici continuare a soffrire sugli spazi e sulle tariffe.

La televisione, e in particolare le reti del Cavaliere, viaggiano secondo gli ultimi dati, con un tasso di crescita a due cifre, rispetto all’anno scorso, mentre la carta stampata annaspa, nel migliore dei casi registra un progresso fra il due e il quattro per cento. Colpa dei costi contatto? Colpa delle difficoltà in cui versano quotidiani e periodici? Della migliore qualità della programmazione? Forse. Ma è anche vero che le reti generaliste, e in particolare quelle Mediaset, possono ormai espandersi senza limiti. I problemi di affollamento, importanti per misurare l’efficacia della pubblicità, sembrano non esistere più. I palinsesti televisivi sono in overbooking pubblicitario fino a ottobre. Una volta l’estate era un periodo di magra per gli spot. Non è più così. Una volta il medio-piccolo investitore pubblicitario non andava in televisione e riteneva più conveniente per la propria comunicazione apparire sui mezzi tradizionali. Oggi la rete della pubblicità televisiva, in crescita bulimica, prende tutto: pesci grandi e pesci piccoli. E i grandi, i cosiddetti big spender, pensiamo soltanto alle case automobilistiche, preferiscono concentrare i propri investimenti sulla televisione.

È diventata di colpo così efficace? Forse, certo molti imprenditori e amministratori delegati hanno capito che l’investimento pubblicitario può avere anche un dividendo, diciamo così, politico. E non c’è da biasimarli: nell’ottica di massimizzare il rendimento del loro investimento compiono senza dubbio la scelta migliore. La più razionale. E molti di loro redigono un conto economico in cui l’andamento delle tariffe è cruciale. E le tariffe sono fortemente influenzate da fattori politici. Anche questa è una malignità da outsider, ma forse è un sospetto con una qualche fondatezza.

La Gasparri ha mosso il mercato. E questo è positivo.

Dovrebbe anche favorire la privatizzazione della Rai. Ma sul versante dell’operatore pubblico, anche per colpe sue per carità, non si assiste alla stessa effervescenza progettuale che si registra su quello privato. Tutt’altro. E pensare che proprio dopo le dimissioni del ministro dell’Economia, Giulio Tremonti, e l’interim di Berlusconi, palazzo Chigi è diventato direttamente l’azionista di Rai Holding. E noi cittadini che paghiamo il canone saremmo particolarmente felici che, al di là delle riconosciute capacità manageriali del direttore generale di viale Mazzini, l’azienda pubblica ricevesse qualche buon consiglio da parte del suo azionista diretto che il mercato televisivo conosce come le proprie tasche.

Non solo la tv va bene, sotto il profilo pubblicitario, ma anche la radio. Ed ecco muoversi a poche settimane dall’approvazione della Gasparri, la Mondadori, uno dei primi gruppi editoriali del paese che ha manifestato la propria intenzione di entrare nel mercato della radio con un’offerta per acquisire Radio 101. Tutto bene. Naturalmente in questo caso va sottolineato che la mia è un’opinione di parte, lavorando io in Rcs-Mediagroup (1).

Ecco perché sostengo che la Gasparri rappresenti uno straordinario benchmark legislativo. Lo dico senza ironia. Mi sarebbe piaciuto che lo stesso grado di attenzione e di compattezza politica fosse stato riservato anche ad altri temi, all’economia per esempio. E forse non ci saremmo trovati a questo punto. Con il dubbio rovente che i conti pubblici siano stati falsati e che le promesse fatte al paese siano ormai accantonate. Se ai temi che interessano il futuro del paese fosse stato dedicato soltanto un decimo del tempo che hanno richiesto la Gasparri o la Cirami, staremmo tutti meglio. Come paese. Ma quelli forse erano interessi diffusi, pubblici. Gli altri erano interessi un po’ più privati. E dunque meritevoli di maggior riguardo.

Buon compleanno a lavoce.info

Così, buon compleanno a lavoce.info. Non è vero che in questo paese di voci ce ne siano poche. Ce ne sono ancora tante e libere. Ma ce ne vorrebbero molte di più. Il pluralismo esiste ancora. Non viviamo in alcun regime. Ma purtroppo assistiamo a una lenta deriva e a una progressiva assuefazione all’idea che l’informazione debba essere schierata, strumentale, ancillare e direttamente soggetta agli interessi dei proprietari. Non parlo solo del Cavaliere e non mi riferisco solo a questa maggioranza. Le voci libere danno fastidio. Eppure se qualcuno obnubilato dal potere le avesse ascoltate non si troverebbe oggi in fondo al baratro. E anche l’Italia starebbe un po’ meglio.

(1) E la mia è un’opinione strettamente personale.

Va in onda la Gasparri, di Marco Gambaro

Dopo un tormentato, ma accelerato, iter di discussione la legge Gasparri è stata pubblicata in Gazzetta ufficiale nella sua versione definitiva.
Si tratta di una legge che tocca molti punti, con diversi interventi condivisibili.

Dalle tv locali alla privatizzazione della Rai

È condivisibile, ad esempio, l’articolo 8 quando amplia da sei a dodici ore lo spazio di interconnessione nazionale per le emittenti locali e consente loro di raccogliere pubblicità nazionale. Si pongono così le prime basi per il progressivo superamento di una situazione che le rende quasi insignificanti nel panorama televisivo. Anche se, per favorirne la crescita, sarebbe stato meglio consentire il possesso di stazioni in mercati diversi, invece di aumentare fino a tre il numero di emittenti che un soggetto può possedere nello stesso bacino di utenza.
Una parte rilevante della legge è dedicata alle procedure di nomina del consiglio d’amministrazione Rai e alla sua privatizzazione.
Sul primo punto, occorre prendere atto che finora l’influenza politica sulla Rai e sulla scelta dei dirigenti è stata assolutamente indipendente dai criteri di nomina via via adottati.

La privatizzazione ipotizzata dalla legge Gasparri non prevede, però, interventi strutturali che allontanino l’influenza dei partiti dalla televisione pubblica. E l’idea di vendere una minoranza del capitale azionario con quote che non possono superare il 2 per cento, senza modificare la struttura saldamente duopolistica del mercato televisivo, sembra un esempio da manuale di come non cogliere i vantaggi della privatizzazione. Se non quello, meramente finanziario, di scaricare sui piccoli risparmiatori i rischi di un’azienda dalla redditività incerta e in cui le possibilità di controllo degli azionisti sono modeste.

Il caso delle telepromozioni

Aumenta lo spazio per le telepromozioni, soprattutto per Mediaset, con un approccio che allontana l’Italia da diversi altri paesi europei. (1)
Ma la norma non modifica la struttura del mercato né è in grado di sottrarre quote ad altri mezzi.
Le ragioni della limitata raccolta pubblicitaria di quotidiani e periodici vanno cercate nella ridotta diffusione della stampa in Italia più che nel potere di mercato della televisione. Se si effettuano confronti internazionali considerando i ricavi pubblicitari per copia, si scoprono indicatori abbastanza omogenei tra i vari paesi: sembrano mostrare come sia possibile conquistare investimenti pubblicitari, una volta raggiunti i lettori.

Tra Sic e digitale terrestre

Il problema della struttura del mercato – limitazione o riduzione della concentrazione e aumento dei concorrenti e delle voci disponibili – ha implicazioni sia economiche che politiche.
La legge Gasparri lo affronta con la definizione del Sic (sistema integrato delle comunicazioni, di cui nessun operatore può controllare più del 20 per cento) e la promozione accelerata della televisione digitale terrestre.
Il Sic è stato ridotto con la riscrittura della legge, in seguito al rinvio alle Camere da parte del presidente della Repubblica. Sono stati eliminati dal perimetro libri e pubbliche relazioni e corrette alcune vistose ingenuità.
Per esempio, l’avervi compreso all’inizio le agenzie di stampa, le produzioni televisive e le produzioni cinematografiche: tutti mercati intermedi che entrano rispettivamente nel fatturato di giornali, televisioni e sale cinematografiche, e dunque erano banalmente contati due volte.
In questo modo, il Sic raggiunge una dimensione di circa 22 miliardi di euro.
Una quota del 20 per cento corrisponde a 4,5 miliardi di euro: cifra opportunamente al di sopra di quella attuale dei maggiori operatori (Rai 3 miliardi, Mediaset 4 miliardi, Rcs per ora 2,3 miliardi).

Il Sic non è un mercato rilevante nel senso comunemente inteso dall’economia industriale e dalle autorità antitrust. Si tratta piuttosto di un aggregato arbitrario, di una convenzione dove conta solo il prodotto tra perimetro complessivo e quota consentita. E la combinazione scelta non è stringente per nessun operatore presente sul mercato, nonostante in diversi mercati delle comunicazioni si registrino tassi di concentrazione assai elevati: in quello televisivo nazionale, nella televisione a pagamento, nelle directory o in molti mercati locali dei quotidiani.
La televisione digitale terrestre rappresenta un’innovazione di sistema perseguita da molti paesi. Per la sua inevitabilità tecnologica, e perché utilizzando in modo più efficiente lo spettro elettromagnetico, permette alternativamente di aumentare il numero di canali o di destinare parte delle frequenze televisive ad altri utilizzi.
La legge italiana progetta una transizione accelerata soprattutto per ovviare all’obbligo imposto dalla norma precedente e dalla Corte costituzionale di spostare Rete 4 sul satellite e di togliere la pubblicità a Rai 3.
Purtroppo, la concentrazione del mercato televisivo è legata alle economie di scala nei programmi più che alla scarsità di frequenze: appare probabile che i nuovi canali trasmessi sul digitale terrestre si limitino ad aumentare il numero teorico dei canali e non riescano a erodere le quote di mercato degli incumbent. (vedi lavoce.info del 03-07-2003)

Nel segno della continuità

Nell’insieme si tratta di misure che non sembrano in grado di perseguire una riduzione della concentrazione nel mercato televisivo. Vi è cioè un’incoerenza tra finalità dichiarate e strumenti utilizzati.
Va detto però che su questo terreno la Gasparri mantiene una forte continuità con le altre leggi sulla televisione promulgate negli ultimi vent’anni, che si occupano di molte cose per lasciare sostanzialmente invariata la struttura del settore, caratterizzato da un duopolio dove i due operatori controllano circa il 90 per cento del mercato di riferimento. Ha un approccio comune con la legge Mammì del 1990 e la legge Maccanico del 1997, peraltro emanate da Governi diversi.

Nonostante le polemiche, l’Italia è solo parzialmente un’anomalia nel contesto televisivo europeo. In Germania i primi due operatori controllano il 68 per cento degli ascolti, in Gran Bretagna il 60 per cento, in Francia il 71 per cento. Si tratta ovunque di tassi di concentrazione elevati, ma inferiori all’89 per cento italiano. In questi altri paesi vi è spazio normalmente per almeno tre-quattro gruppi televisivi significativi, più gli operatori della pay-tv.
Un accettabile grado di concorrenza nel settore televisivo è rilevante per il buon funzionamento degli altri mercati, attraverso la pubblicità, ma anche per il buon funzionamento del sistema politico perché ormai i cittadini ricevono gran parte delle informazioni proprio dalla televisione.
Dunque, è probabile che la legge Gasparri sia solo una tappa provvisoria nella costruzione di un assetto accettabile del sistema televisivo italiano.
Si continuerà inevitabilmente a parlare di questo tema: sarebbe opportuno farlo con meno ideologia, meno preconcetti ma con più dati oggettivi, più confronti internazionali, con profondità e consapevolezza crescenti.

(1) In Francia le telepromozioni non sono consentite nei programmi e in Germania rientrano nella normativa generale sugli spot.

Par condicio con l’handicap, di Nicola Lacetera e Mario Macis

La legge sulla par condicio regolamenta l’attribuzione degli spazi televisivi ai partiti e ai candidati nelle campagne elettorali, per garantire parità di accesso ai mezzi di informazione.
Il presidente del Consiglio Silvio Berlusconi ha annunciato di voler modificare la legge. Il vicepremier Gianfranco Fini ha affermato che “non è certo una provocazione pensare di attribuire a ciascun partito uno spazio diverso in base alla sua forza elettorale”. Fini e Berlusconi ritengono dunque che spazi maggiori dovrebbero essere attribuiti a partiti con più peso in Parlamento.

L’handicapping applicato alle campagne elettorali

In un paese democratico i cittadini debbono essere messi nelle condizioni di scegliere la forza politica per cui votare in maniera consapevole. Devono quindi essere a conoscenza delle alternative disponibili. Le forze politiche devono essere incentivate a fornire informazioni veritiere e sostanziali sulle proprie posizioni e i propri programmi.
Se accettiamo queste premesse, e più in generale l’esigenza di garanzia del pluralismo nelle competizioni elettorali, l’impostazione di riforma della legge sulla comunicazione elettorale suggerita da Fini e Berlusconi non è necessariamente quella corretta.
Per capire perché consideriamo cosa avviene negli Stati Uniti in diverse competizioni sportive.

Negli incontri di golf non professionistici, ma anche nelle corse di cavalli, nel baseball o nel basket, è molto comune la pratica di assegnare un certo svantaggio ai giocatori più dotati. Per esempio, nelle corse di cavalli i fantini più leggeri sono caricati con del peso extra. Nel golf, i giocatori più bravi partono con alcuni punti di svantaggio. Queste pratiche, cosiddette di handicapping, pongono il giocatore più dotato in condizioni iniziali più simili rispetto a quello meno dotato.
Quando i valori in campo sono in partenza squilibrati in favore di una parte, per cui il risultato dell’incontro è scontato, la competizione perde di interesse per il pubblico, perché tanto il giocatore più dotato quanto quello meno dotato non sono incentivati a giocare al meglio delle loro possibilità: il primo perché è sicuro di vincere, e il secondo perché certo di perdere. Nel rendere la competizione più equa, l’handicapping fornisce più stimoli a tutti i contendenti.

Recentemente, un filone di letteratura economica ha discusso l’utilità delle pratiche di handicapping nelle imprese, per le promozioni dei manager a posizioni gerarchiche superiori.
È possibile trasferire la logica dell’handicapping dal mondo dello sport (e dell’impresa) a quello delle competizioni elettorali, dove si applica forse ancor meglio.
Nelle campagne elettorali, l’utilità per i cittadini di rafforzare posizioni precostituite non è per nulla scontata. Al contrario, nelle democrazie compiute l’esigenza di garantire effettiva parità di condizioni ai partiti e ai candidati dovrebbe essere ben superiore a quella di garantire parità di condizioni in un incontro di golf, dal quale dipendono le emozioni dei tifosi, ma non certo le sorti di un paese.
Ora, dal momento che la maggioranza in Parlamento, proprio per il suo ruolo di governo, gode di una maggiore esposizione mediatica tra una legislatura e l’altra, la logica dell’handicapping attribuirebbe più spazi ai partiti meno rappresentati in Parlamento: l’esatto contrario rispetto a quanto suggerito da Berlusconi e Fini.

In tal modo, non solo la competizione partirebbe da basi più eque, ma sarebbe anche più ricca e vivace.
La maggioranza sarebbe stimolata a impegnarsi di più sulla qualità dei messaggi di propaganda (sostituendo qualità per quantità). L’opposizione, sapendo di avere spazi a sufficienza per presentare le proprie, sarebbe spronata a farlo. Al contrario, laddove si attribuissero gli spazi in base ai risultati delle passate elezioni, sarebbe lo status quo a prevalere, e ci sarebbero meno incentivi a cambiare, con una perdita secca per i cittadini.
Inoltre, con un esito elettorale più incerto, il voto del singolo cittadino diventa più influente, e ciò stimola la partecipazione al voto. È noto che nelle democrazie “bloccate” e laddove il risultato delle elezioni è più scontato, l’assenteismo degli elettori è maggiore.

Uguaglianza di condizioni

La proposta di modifica della legge sulla par condicio nella direzione accennata dal presidente del Consiglio e dal suo vice può essere giustificata con la volontà di creare un disincentivo all’eccessiva proliferazione di sigle politiche. Privilegiare le forze esistenti, in un regime democratico, può anche rappresentare un argine contro l’emergere di forze non democratiche.
Tuttavia, argomenti altrettanto validi spingono esattamente nella direzione opposta. Al punto che potrebbe essere più opportuno offrire maggiori spazi (rispetto alla loro forza elettorale) ai partiti minori e a quelli di opposizione, nonché garantire una qualche visibilità alle nuove formazioni.
Infatti, la realtà socio-politica di un paese (specie se democratico e pluralistico) è intrinsecamente dinamica. Nuovi gruppi ed esigenze emergono continuamente. Importanti eventi e processi storici possono sostanzialmente modificare le posizioni e le attitudini dei cittadini, con profondi effetti sulla competizione politico-elettorale.

Si considerino, ad esempio, la fine dei regimi comunisti, e le inchieste giudiziarie su “Tangentopoli” nei primi anni Novanta: questi eventi hanno cambiato il panorama politico italiano. Tale cambiamento (compresa la nascita del partito “Forza Italia”) sarebbe stato ostacolato da regole della comunicazione elettorale basate sul peso storico delle forze politiche.
Garantire uguali spazi a tutte le forze appare coerente con un criterio intuitivo di uguaglianza delle condizioni di partenza. Dalle considerazioni esposte in precedenza, la par condicio può anche essere considerata come una soluzione di compromesso virtuoso fra argomenti che spingono verso soluzioni opposte per la distribuzione degli spazi televisivi ai partiti in campagna elettorale.
In ogni caso, se le regole sulla par condicio devono essere riviste, la riflessione dovrà essere ben più profonda e complessa della semplice logica proposta da Berlusconi e Fini.

Si tenga conto, infine, che con questi argomenti si è “finto” di parlare di un paese in cui vi sia effettiva separazione tra i poteri economico, mediatico e politico. Se accade, come in Italia, che il partito politico che guida la maggioranza di Governo controlla attraverso il suo leader larga parte dei mezzi di comunicazione televisiva, la situazione è assai più complicata e delicata, e l’handicapping attribuito ai partiti di Governo dovrebbe essere ancora più forte.

Oro nero, anno buio

Sommario a cura di Marzio Galeotti

Il 2004 sarà ricordato come l’anno del petrolio. Il suo prezzo in termini nominali ha raggiunto i massimi di tutti i tempi. L’andamento delle quotazioni ha preoccupato le nazioni sotto il profilo economico e politico,tanto da riportare alla ribalta il quasi dimenticato timore di essere vicini al suo esaurimento. Al di là delle implicazioni contingenti, forte è stato lo stimolo ad interrogarsi su cosa questi eventi in realtà implicano per la nostra civiltà basata sull’uso dell’energia soprattutto di fonte fossile. Con rinnovata attenzione e preoccupazione per gli aspetti ambientali.

Petrolio senza alternative, di Marzio Galeotti

Le turbolenze sul mercato del greggio rendono opportuna qualche pacata riflessione sugli scenari energetici futuri.
La persistente crescita del prezzo del petrolio ripropone infatti la questione della sostenibilità dell’attuale modello di sviluppo, crucialmente basato sul consumo di fonti fossili di energia. Ma mentre la preoccupazione generale è, come sempre, concentrata sugli effetti di breve periodo su crescita e inflazione, resta ancora scarsa l’attenzione dedicata a questioni di fondo come le opzioni energetiche possibili per le prossime decadi.

Tutta questione di prezzo

Gli esperti concordano sul fatto che il petrolio, o più in generale le fonti fossili di energia, saranno in giro ancora per parecchio tempo. Dagli anni Settanta a oggi, la preoccupazione ambientale-climatica si è affermata e ha portato a politiche di regolamentazione. Ma resta ancora vero che il maggiore fattore di risparmio energetico è l’aumento del prezzo del petrolio: è questo l’elemento che induce e ha indotto una riduzione dell’intensità energetica dei processi produttivi, e come tale ha contribuito a contenere le emissioni di gas-serra. Altrettanto vero è che nessuna nuova opzione energetica su larga scala, in particolare nel campo della generazione elettrica, la più energivora delle attività produttive, è stata introdotta negli ultimi trent’anni. Se si eccettua il nucleare. (1)

Quanto alle fonti rinnovabili, Chip Goodyear, amministratore delegato di Bhp Billiton, società globale attiva nel settore delle risorse naturali, ha dichiarato al recente World Energy Congress di Sydney, che le fonti energetiche verdi resteranno relativamente insignificanti almeno per i prossimi venti anni. Le previsioni dicono che i combustibili fossili saranno l’87 per cento delle fonti primarie di energia, un punto percentuale in più di oggi. Sulla scia della corsa del prezzo del petrolio di quest’anno infatti non saranno probabilmente intrapresi investimenti in rinnovabili: i prezzi dell’oro nero dovranno restare alti a lungo perché qualcosa cambi. “L’industria ha bisogno di altre brutte notizie dal prezzo del petrolio perché si sposti sulle fonti rinnovabili”, sostiene Andrew Oswald, professore di Economia all’università di Warwick. Una recente pubblicazione dell’Iea, l’agenzia internazionale dell’energia dell’Ocse, nota che la quota di finanziamento pubblico alla ricerca e sviluppo in campo energetico destinata alle rinnovabili è decrescente, in contraddizione con le asserite intenzioni di molti governanti dei paesi sviluppati. (2)

Le fonti rinnovabili nel mondo

Nel mondo, le rinnovabili coprono solo il 2,1 per cento degli usi energetici. Ciò nonostante molti paesi si stanno muovendo: il ministro dell’Industria spagnolo ha annunciato lo scorso agosto l’obiettivo di accrescere del 12 per cento entro il 2010 la quota delle rinnovabili sul consumo primario di energia, particolarmente energia solare e produzione di biodiesel. Così il governo giapponese ha predisposto un piano per l’incremento dell’uso delle biomasse con obiettivi specifici di aumento della generazione elettrica al 2010. (3) Gli inglesi, sempre entro il 2010, dovrebbero produrre con fonti rinnovabili il 10 per cento dell’elettricità. Questa quota è già pari al 20 per cento in Danimarca, soprattutto energia eolica. (4) L’Energy Information Administration statunitense ha simulato gli effetti della proposta McCain-Lieberman di introdurre un tetto alle emissioni di gas-serra sulla quantità di rinnovabili utilizzate: nel 2025 esse sarebbero il doppio di quanto proiettato nel caso di assenza del tetto. Infine, il nostro paese ha introdotto l’obbligo per i produttori di elettricità di garantire a partire dal 2002 una quota pari al 2 per cento della generazione termoelettrica con nuova elettricità generata da fonti rinnovabili.
Tutto bene, dunque? Non proprio, come mostra il fatto che la Commissione europea ha deciso alcuni mesi fa di abbandonare gli obiettivi di produzione di energia a mezzo di rinnovabili fissati per il 2010 (12 per cento nei paesi Ue-15 e 21 per cento nei paesi Ue-25), in quanto non raggiungibili, e ha rinunciato per il momento a fissarne dei nuovi per il 2020. Una brutta figura addebitata ai responsabili dei paesi membri che non hanno mostrato la capacità e la determinazione di voler raggiungere gli obiettivi prefissati. Se ne riparlerà nel 2007.

Tempi lunghi per l’idrogeno

In sostanza, non pare al momento esservi alternativa che, in termini di tempo, costi e quantitativi, possa sostituire l’oro nero in tempi ragionevoli. Dei nuovi sistemi energetici ipotizzati all’indomani del primo shock petrolifero, dalla fusione e fissione nucleare, dai bio-carburanti alle varie fonti rinnovabili – solare, geotermico, eolico, biomasse – nessuno è emerso come l’alternativa con la “a” maiuscola.
Pensare all’idrogeno, e alle automobili con celle a combustibile, significa adottare un orizzonte che parte dal 2035 in poi. Diceva Scientific American del maggio 2004: “Ci si può aspettare che lo sviluppo di auto con celle a combustibile, al contrario delle cosiddette ibride, proceda secondo gli stessi tempi del volo umano su Marte progettato dalla Nasa e che abbia lo stesso grado di probabilità”.


(1) Queste considerazioni sono contenute, e ampiamente argomentate, in “The Outlook for Energy Three Decades After the Energy Crisis”, lavoro presentato da uno dei massimi esperti mondiali, William D. Nordhaus, all’International Energy Workshop di Parigi dello scorso 22-24 giugno 2004. Il paper è scaricabile dall’indirizzo www.iiasa.ac.at/Research/ECS/IEW2004/docs/2004A_Nordhaus.pdf.

(2) Questo aspetto è messo chiaramente in evidenza in una recente pubblicazione della IEA-AIE, Renewable Energy – Market and Policy Trends in IEA Countries, Parigi: IEA, 2004.

(3) Si veda il recente rapporto dell’Ocse, Biomass and Agriculture: Sustainability, Markets and Policies, Parigi: OECD, 2004.

(4) A parte considerazioni di costo, le varie fonti rinnovabili non presentano solo vantaggi. La produzione di nuova energia idroelettrica ed eolica, per esempio, reca con sé rilevanti problemi di impatto ambientale. Sulla seconda si veda l’interessante articolo “Ill winds”, The Economist del 29 luglio 2004.

L’utile sequetro del carbonio di Raffaella Bordogna

Numerosi progetti nazionali e internazionali stanno attualmente verificando un approccio alternativo alla risoluzione del problema dei cambiamenti climatici: il sequestro geologico di anidride carbonica.

Come avviene il sequestro

Si tratta di una attività di riduzione delle emissioni di gas serra che comporta la cattura da fonti industriali della CO2, un gas inerte e non tossico a basse concentrazioni, e la successiva immissione in formazioni geologiche appropriate, come i giacimenti di petrolio e gas naturale, esauriti oppure ancora in uso, le formazioni geologiche porose sature di acqua salata (i cosiddetti acquiferi salini) e i giacimenti carboniferi profondi. Qualche anno fa, veniva considerata anche la possibilità di immettere CO2 negli oceani a grandi profondità, ma tale alternativa è stata abbandonata per l’incertezza degli effetti di un’aumentata acidità delle acque sugli ecosistemi marini.
Per avere successo la tecnica di sequestro geologico della CO2 deve soddisfare tre requisiti:
– deve essere competitiva in termini di costi rispetto alle attuali alternative per il contenimento dei gas serra, quali le fonti rinnovabili e i miglioramenti di efficienza dei processi di produzione
– deve garantire uno stoccaggio nel sottosuolo stabile e di lungo termine
– deve essere ambientalmente compatibile.

Dal punto di vista economico, vi è ancora molta incertezza sulla determinazione dei costi nelle varie situazioni operative. Le esperienze sinora effettuate e gli scenari studiati lasciano intendere che i costi possono variare anche significativamente da una situazione all’altra, andando da qualche decina di euro per tonnellata fino a 100 euro/tonnellata. Fonti Iea indicano un costo complessivo compreso tra 9 e 49 euro/tonnellata CO2.
Quel che è certo è che l’immissione di CO2 in giacimenti di petrolio o gas naturale per il recupero assistito, rappresenta la migliore opportunità di sequestro a bassi costi se si considerano i ricavi dovuti al recupero di petrolio o gas. Tale attività (la cosiddetta Eor, Enhanced Oil Recovery) ha una duplice funzione: garantisce evidenti vantaggi ambientali, perché riduce le emissioni di gas serra in atmosfera, e aumenta la produzione di idrocarburi in quei giacimenti dove la pressione esistente non ne consente una adeguata fuoriuscita. Gli Stati Uniti sono i leader mondiali nella tecnologia Eor e utilizzano circa 32 milioni di tonnellate anno di CO2 a questo scopo. (1) Tra i vari progetti merita una citazione quello di Weyburn in Canada: grazie al sequestro permanente di circa 20 milioni di tonnellate di CO2 durante l’intero progetto sarà possibile produrre almeno 130 milioni di barili di petrolio incrementale, il che estenderebbe la vita residua del giacimento di circa 25 anni.

I rischi

Molto è stato scritto sugli effetti connessi all’esposizione di esseri viventi alla CO2. A basse concentrazioni (1 per cento in volume), l’anidride carbonica non ha effetti dannosi sugli esseri umani e sugli ecosistemi, anzi è indispensabile per alcuni processi vitali quali la fotosintesi. Per esempio, in alcune serre l’aumento del tasso di CO2 è voluto, per accelerare la crescita delle piante. È invece letale per l’uomo, perché può causare asfissia, una concentrazione di CO2 dell’ordine del 10 per cento in volume.
Nel sequestro geologico le concentrazioni elevate di CO2 in atmosfera possono essere correlate a due ordini di problemi: fuoriuscite di CO2 durante le fasi operative volte alla cattura, trasporto e iniezione nel sottosuolo e rilascio in atmosfera dal sito di stoccaggio.
Sul primo punto si può affermare con certezza che la cattura, il trasporto e l’iniezione di CO2 sono pratiche ben testate nel settore petrolifero e si avvalgono di tecnologie all’avanguardia. Gli incidenti più frequenti sono dovuti a rotture nei tubi o nei pozzi di iniezione, ma la fuoriuscita di CO2 in questi casi è trascurabile per la presenza di opportune valvole di sicurezza che interrompono il flusso di gas al variare della sua pressione. Anche il rischio di corrosione dei tubi che può provocare fuoriuscite incontrollate di CO2 è stato aggirato grazie all’utilizzo di moderni materiali anticorrosivi. Adottando pertanto le opportune pratiche di sicurezza, già ampiamente in uso per il trasporto del gas e del petrolio, i rischi nella fase operativa possono essere decisamente contenuti.
Minore è l’esperienza sul rilascio di CO2 dal sito di stoccaggio. Le uniche considerazioni che possono essere fatte riguardano eventi naturali del passato. In natura, infatti, esistono già migliaia di depositi di CO2 nel sottosuolo e le fuoriuscite più cospicue sono perlopiù correlabili ad attività vulcaniche. Esempi eclatanti sono il monte Kilaua alla Hawaii, che emette circa 1,4 milioni di tonnellate l’anno di CO2, e l’eruzione del 1991 del monte Pinatubo, nelle Filippine, in cui furono emesse 42 milioni di tonnellate di CO2. Entrambi gli eventi non si sono dimostrati letali per gli esseri viventi dal momento che i fattori di dispersione in atmosfera hanno contribuito ad attenuare le concentrazioni di CO2 al suolo.
Si intuisce pertanto che la CO2 può diventare pericolosa solo se il suo rilascio avviene molto rapidamente e in spazi confinati. Ma sono caratteristiche ben lontane da quelle delle attività di stoccaggio nel sottosuolo: il pozzo per l’iniezione di anidride carbonica tende a disperdere la CO2 nella formazione geologica, non a concentrarla, e le eventuali perdite nella riserva sotterranea sono lente e diffuse. Qualsiasi rischio connesso allo stoccaggio può comunque essere minimizzato sviluppando i migliori criteri per la scelta del sito più opportuno.

I vantaggi per l’ambiente

Quanto alla compatibilità ambientale, il sequestro geologico, appare la soluzione che più di altre è in grado di assicurare le consistenti riduzioni delle emissioni e stabilizzare così la concentrazione della CO2 in atmosfera sui livelli giudicati ottimali per non gravare sui meccanismi che presiedono al controllo del clima. Le indagini fino ad ora condotte sull’argomento, hanno evidenziato che vi sono grandi capacità di stoccaggio della CO2 nel sottosuolo. Secondo fonti Ipcc, i volumi disponibili su scala mondiale nei campi a olio e gas depletati consentirebbero lo stoccaggio di 1830 GtCO2eq, un volume pari alla produzione mondiale di CO2 dei prossimi venticinque anni, stimata di 1800 Gt. E ben superiore sembra essere il potenziale di stoccaggio offerto dagli acquiferi salini, stimato maggiore di 3600 GtCO2eq.


(1) Fonte DOE 2003

Un futuro di gas, carbone e nucleare, di Marzio Galeotti

Se eliminare, o quanto meno ridurre, le emissioni nocive a monte, passando a fonti energetiche pulite non è possibile, ecco che l’interesse si sposta a valle, sulla fattibilità di eliminare, o quanto meno ridurre, le emissioni della combustione delle fonti fossili.

Torna il carbone

Si parla molto per esempio dell’opzione della cattura e sequestro del carbonio prodotto dal processo di combustione. In sostanza, si tratta di un processo a due stadi mediante il quale il gas (essenzialmente l’anidride carbonica) viene dapprima estratto dalla macchina che brucia il combustibile fossile (la “cattura”) e successivamente immagazzinato in apposite sedi da cui non può più scappare (il “sequestro”). La prima fase è la più costosa anche perché va prevista fin dalla costruzione dell’impianto di produzione dell’energia, anche se esistono soluzioni che consentono l’adattamento di impianti esistenti. (1)
Interessante è notare che questa opzione di breve termine riporta in gioco anche la più inquinante delle fonti fossili: il carbone, minerale di cui paesi abbondano come la Cina, l’India e il Sud Africa, che non intendono rinunciarvi perché alimenta il loro processo di sviluppo.
Naturalmente, anche i paesi industrializzati si attivano su questo fronte: nel 2003 è partito il Carbon Sequestration Regional Partnership Program patrocinato dal ministero dell’Energia americano. Mette in rete Stati, governo federale e settore privato con il compito di raccomandare nel giro di due anni soluzioni tecnologiche (aspetti tecnici, regolatori e infrastrutturali) da sottoporre a validazione su piccola scala. Non a caso questo programma è parte integrante della politica energetica del presidente Bush. In Europa, il governo britannico ha lanciato una consultazione sulle tecnologie di abbattimento del carbonio che guardi allo sviluppo di metodi di cattura e sequestro, anche dialogando con i norvegesi, in quanto i pozzi esauriti di petrolio e gas del Mare del Nord potrebbero fungere da depositi di carbonio. Infine, va segnalato un piano internazionale per sviluppare e promuovere la cooperazione sul recupero e uso del metano, cui partecipano Australia, Giappone, India, Italia, Messico, Regno Unito, Ucraina e Usa.

Senza dimenticare il nucleare

Da qualche tempo, però, i riflettori si sono riaccesi sull’altra opzione attualmente utilizzata, quella nucleare. La sua quota è aumentata rapidamente fino agli anni Novanta, ma da allora è rimasta attorno al 17 per cento di tutta l’elettricità generata. Perché aumenti in misura significativa deve superare due test, come osserva William Nordhaus dell’Università di Yale, esperto di questioni energetiche e ambientali.
Il primo è convincere le scettiche opinioni pubbliche che il nucleare è sicuro. Sulla necessità del nucleare, scienziati, governanti e dirigenti del settore energetico da qualche tempo mostrano di non avere dubbi. Non ne ha la (ex) commissaria europea all’Energia Loyola de Palacio, che sottolinea invece il problema della sicurezza degli approvvigionamenti energetici. Anche il governo spagnolo, dopo avere chiuso il reattore più vecchio, incrementerà l’output del nucleare esistente. E il Regno Unito mette l’accento sul problema ambientale: per raggiungere il target di emissioni di gas-serra, metà dell’elettricità inglese dovrà provenire dal nucleare, quando oggi ne provvede solo un quinto. Infine l’Italia, dove il ministro Antonio Marzano o l’amministratore delegato di Enel Scaroni non fanno mistero della necessità di rivedere le nostre decisioni in materia di energia nucleare, che non produciamo più, ma che comunque continuiamo a importare, soprattutto dalla Francia.

È però l’altro test che desta attenzione crescente: la sicurezza delle centrali nucleari.
Timori per nuove Chernobyl (quello che fu, non quello che è oggi, che è altra cosa e probema) o Three Mile Island sono oggi, secondo gli esperti, fuori luogo. Con più di 10mila anni-reattore di esperienza al 2004, osserva Nordhaus, le analisi standard di valutazione del rischio dei reattori ad acqua leggera sono risultate largamente accurate.
Ciò che invece genera una crescente preoccupazione è il problema del dirottamento di materiale nucleare verso la produzione di armamenti. Tutti i casi di recente proliferazione di armi atomiche, in Corea del Nord, India, Pakistan per esempio, si sono verificati in paesi che hanno ottenuto il materiale da impianti civili di produzione di energia. E in questo contesto si inserisce il contenzioso in corso tra Iran e l’agenzia internazionale dell’energia atomica. (2)

Le novità possibili

In conclusione, nel prossimo futuro non vi sono alternative alle fonti fossili: è e resta l’opzione preferita, in quanto politicamente accettabile, nella maggior parte delle regioni del mondo. Tanto più che le proiezioni attuali della disponibilità di petrolio e gas non segnalano riduzioni, ma anzi sono state riviste verso l’alto dal 1973 a oggi. Ciò nondimeno, crescono i problemi e le difficoltà connesse al petrolio, riconducibili ai problemi politici di sicurezza dell’approvvigionamento (geograficamente le fonti sono concentrate soprattutto nella regione araba), e ai problemi ambientali, primo fra tutti il riscaldamento globale.
Possiamo aspettarci qualche novità? La prima è appunto il ritorno del carbone, che già alimenta un terzo dell’elettricità inglese, metà di quella tedesca e statunitense, tre quarti di quella cinese e indiana. E la cui estrazione sta tornando a essere un business vantaggioso per la crescente domanda anche di paesi come gli Usa. Inoltre, le tecnologie moderne consentono di ridurre l’impatto ambientale del minerale nero.
L’altra novità che il prossimo futuro probabilmente ci riserva è una significativa sostituzione del petrolio con il gas naturale. I vantaggi importanti sono due: le sue riserve sono meno concentrate geograficamente ed è più pulito. Lo svantaggio è che si tratta di un gas e come tale meno facile da trasportare del petrolio (il sistema dei gasdotti è complesso e perciò non molto ramificato e a lunga gittata). Nonostante lo sforzo finanziario sia ingente, con poche società in grado di sostenerlo, si sta diffondendo la pratica di costruzione di impianti di liquefazione e successiva rigassificazione del Lng (gas naturale liquido). (3)
Spostarsi dal petrolio all’accoppiata carbone-gas certamente avrebbe vantaggi di costo. Secondo la Royal Academy of Engineering (marzo 2004), il costo di generazione di un kilowattora in centesimi di euro è 3,3 nel caso del gas-ciclo combinato con turbina e di 4,2 gas-turbina, di 3,7 nel caso del carbone in polvere e di 6,7 nel caso di carbone in polvere con abbattimento dei fumi. (4)

Forse, non è un caso se il recente decreto governativo che ha autorizzato la costruzione di ventidue nuove centrali elettriche alimentate da combustibili fossili con una capacità complessiva superiore a 11 gigawatts (un terzo in più rispetto all’attuale), prevede che esse bruceranno gas con ciclo combinato, mentre un paio di quelle esistenti saranno riconvertite a carbone o orimulsion, una specie di olio combustibile alquanto inquinante. Naturalmente, c’è da augurarsi che il ritorno nostrano al carbone si accompagni all’adozione delle più moderne tecniche di abbattimento delle emissioni nocive.

(1) Istruttivo è l’articolo “Fired up with ideas”, in The Economist del 6 luglio 2002.

(2) Sul nucleare da segnalare il recente ponderoso studio interdisciplinare del Mit, “The Future of Nuclear Power”, scaricabile all’indirizzo htto://web.mit.edu/nuclearpower/. Sul caso dell’Iran si veda l’esauriente storia “The world of the ideologues” in The Economist del 2 settembre 2004.

(3) Ancora una volta: “The future’s a gas”, The Economist 28 agosto 2004 e “The future is clean”, The Economist 2 settembre 2004.

(4) Traiamo questi numeri da “The cost of generating electricity” rintracciabile all’indirizzo www.raeng.org.uk/news/temp/cost_generation_commentary.pdf.

Il petrolio non brucia la borsa, di Tommaso Monacelli

Quanto è preoccupante per le prospettiva di crescita dell’economia mondiale e per i mercati finanziari l’attuale rialzo del prezzo del petrolio? Il grafico qui sotto mostra l’andamento del prezzo del greggio (prezzo spot del Brent) dal gennaio 1990 a settembre 2004.
Gennaio 1999 sembra segnare una svolta. Mentre prima di questa data il prezzo oscilla costantemente intorno a una media di 20 dollari al barile (con l’eccezione del periodo della guerra del Golfo), successivamente sembra iniziare una transizione verso una media più alta.


Cresce la domanda

Cosa spiega questo possibile mutamento di trend? Come in ogni mercato, anche in quello del petrolio conta l’interazione tra domanda e offerta. Il quadro attuale differisce da quello che causò gli shock petroliferi degli anni Settanta, determinati da restrizioni sul versante dell’offerta.
Il fattore nuovo, che spiega la dinamica dopo gennaio ’99, è la forte accelerazione della domanda proveniente dai paesi asiatici, in primo luogo Cina e India. Questo è un fattore strutturale (non semplicemente ciclico) che ha probabilmente mutato (verso l’alto) il valore medio intorno al quale oscillano le variazioni cicliche del prezzo. Un modo ottimistico di leggere questo dato è che è causato da una forte vivacità dell’economia mondiale, fattore cruciale affinché il gigantesco deficit della bilancia dei pagamenti americana continui a essere finanziato.
In un mercato in cui la domanda preme così tanto sull’offerta, ogni evento che metta a rischio l’espandersi della capacità produttiva provoca una reazione esasperata dei prezzi. Recentemente, gli eventi in Iraq, le turbolenze in Venezuela e Nigeria, l’uragano in Messico hanno avuto precisamente questo ruolo: hanno rallentato la dinamica dell’offerta nel corso del 2004 a fronte dell’impetuosa accelerazione della domanda. A questo sembra aggiungersi una diminuita capacità delle raffinerie americane (attualmente 150 rispetto alle 250 di venticinque anni fa). Ciò impedisce agli Stati Uniti di accogliere l’ultima proposta dell’Arabia Saudita di espandere la produzione (per circa due milioni di barili aggiuntivi al giorno) di una qualità di petrolio considerata inferiore, ma che se correttamente trattata permetterebbe di calmierare un mercato così sensibile a ogni notizia di restrizioni sul versante dell’offerta. Il grafico qui sotto mostra come le scorte mondiali di petrolio abbiano raggiunto un valore storicamente minimo nell’ottobre del 2004, anche se la situazione non è sostanzialmente diversa da quella del minimo raggiunto nel febbraio 2004. (La linea arancione nel grafico mostra il livello mensile delle scorte, mentre la banda azzurra ne mostra la gamma di variazione).

Recessione lontana

Tutto questo deve farci temere effetti recessivi sull’economia mondiale? Un buon modo per misurare le aspettative del mercato riguardo all’andamento futuro del prezzo del petrolio è quello di guardare ai prezzi dei futures sul greggio.



Il grafico mostra l’andamento, da maggio a oggi per il mercato di New York, del prezzo del future di dicembre 2005 (sul Brent). Il trend è in netto rialzo. In sostanza, quello che secondo il mercato sarà il prezzo del greggio nel dicembre 2005 è andato sensibilmente aumentando nel corso di questi ultimi mesi. Si noti però che il prezzo rimane attualmente intorno ai 42 dollari, indicando un probabile rallentamento rispetto al picco attuale di quasi 54 dollari al barile (dato del 12 ottobre 2004) per il prezzo spot.

Riguardo all’impatto macroeconomico dell’andamento del prezzo del greggio, giova poi ricordare tre aspetti. Primo, un indicatore più corretto è quello che converte il prezzo nominale (in dollari) in termini reali (cioè in rapporto all’andamento generale dei prezzi). I valori attuali rimangono lontani dai picchi della fine degli anni Settanta se si introduce questa correzione. Secondo, rispetto agli anni Settanta, la dipendenza dal petrolio delle economie industrializzate si è fortemente ridotta, a favore dell’espansione di una economia di servizi. Terzo, l’accelerazione del prezzo del greggio in quest’ultimo anno rimane sostanzialmente una correzione della forte discesa (sia in termini nominali che reali) degli anni precedenti. È noto da studi empirici che una dinamica di questo genere produce un impatto recessivo molto limitato, rispetto invece ad accelerazioni del prezzo che non intervengono a correggere discese precedenti.

Cosa succede nei mercati finanziari

Una preoccupazione crescente è quella che l’andamento del prezzo del greggio influisca negativamente sulla buona performance dei mercati finanziari. La ragione sembra ovvia. Rialzi del prezzo del petrolio segnalano possibili effetti recessivi futuri oppure potrebbero indurre rialzi dei tassi di interesse da parte delle autorità monetarie per impedire focolai inflazionistici, con conseguenze depressive sui corsi azionari. Ma questa ipotesi non sembra sopravvivere già a una prima superficiale analisi dei dati.

Il grafico qui sotto confronta l’andamento dell’indice S&P 500 con quello del prezzo del greggio dal 1990 a oggi (dati mensili).


È difficile individuare una relazione sistematica, anche se nel periodo 1998-2000 e recentemente la correlazione sembra positiva. In realtà, un modo corretto per confrontare le due serie è quello di guardare alla correlazione tra le rispettive variazioni percentuali.
Il coefficiente di correlazione è un numero compreso tra 0 (correlazione minima) e 1 (massima) che indica la misura in cui le due serie tendono a muoversi in sincronia (pur escludendo ogni relazione di causalità). Nel caso di queste due serie, il coefficiente di correlazione è molto basso, circa 0,011. In sostanza, i numeri ci dicono che tra variazioni dei corsi azionari e variazioni del prezzo del greggio esiste una relazione minima. Buone notizie per chi è pessimista sulla Borsa.


Petrolio le cose non dette, di Marzio Galeotti

(1) Il petrolio è e resta una risorsa scarsa.
Come spiegatoci da Harold Hotelling nel 1931 (Cfr. “The Economics of Exhaustible Resources” in Journal of Political Economy), il prezzo di una risorsa esauribile è destinato ad aumentare costantemente nel tempo in funzione della sua crescente scarsità. Questo fatto non è certo di difficile comprensione. Ovviamente non sappiamo quando esattamente le riserve di petrolio si esauriranno, non sappiamo nemmeno quanto ampie esattamente siano, tra accertate e presunte, e su questo punto il dibattito tra pessimisti e ottimisti s’infiamma in tutte le occasioni come in quella attuale. Il punto che va rilevato, tuttavia, e che a nostro modesto parere non è stato ripetuto abbastanza, è che nel medio-lungo periodo il prezzo del petrolio è destinato ad aumentare. Naturalmente, quanto appena detto non implica che l’oro nero, toccati i 50 dollari a barile, non possa scendere. Ciò è possibile, anzi probabile.

(2) Ciò che conta è il prezzo reale del petrolio,
il suo prezzo rapportato al livello generale dei prezzi del paese che lo consuma. Troppo spesso si fanno comparazioni con le quotazioni in dollari di un barile di greggio a prezzi correnti. I livelli di prezzo raggiunti durante il primo shock petrolifero del 1973-74, fatti i debiti calcoli, equivalgono ad un prezzo oggi di circa 80 dollari, ben lontano dunque dalle quotazioni attuali. Ancora più elevato in termini reali era stato il prezzo del greggio durante la seconda crisi petrolifera, quella della guerra Iran-Iraq del 1979-81. Quindi i prezzi attuali non sono affatto senza precedenti, come scritto da alcuni.


(3) L’impatto degli aumenti del prezzo del petrolio su inflazione e crescita economica,
si potrebbe riassumere nel seguente adagio: l’aumento del prezzo del petrolio fa molto male all’economia, la discesa del prezzo fa bene, ma non molto. Su questo si leggono in questi giorni molti numeri in libertà sull’impatto. Ad esempio, il sottosegretario all’Economia Gianluigi Magri ha parlato di una riduzione del Pil dello 0,3%, mentre il suo collega, Giuseppe Vegas ha posto l’accento, sulla base presumiamo, delle stesse informazioni possedute da Magri, che i pericoli per la crescita sarebbero minimi. Quel che conta rilevare è che sembra esserci un’asimmetria negli effetti che variazioni del prezzo del greggio hanno sul PIL. Diversi studi, nella maggior parte riguardanti gli Stati Uniti, ma anche altri paesi, Italia inclusa, documentano che l’impatto negativo (sul reddito) di un aumento di prezzo del petrolio è quantitativamente più consistente dell’impatto positivo di un’analoga riduzione di prezzo. Questa è una nota non piacevole ma importante per comprendere meglio i meccanismi che legano le grandezze economiche in questione e soprattutto per informare nel miglior modo le politiche a riguardo. Un altro importante caso di (ampiamente) documentata asimmetria è quella che contrappone il prezzo del greggio a quello dei carburanti, a cominciare dalla benzina. Di questo aspetto i giornali si sono regolarmente occupati.

(4) La relazione negativa tra crescita economica e prezzo del petrolio
(basso prezzo del greggio = elevata crescita, prezzo elevato = crescita ridotta) è destinata a perdurare. Ciò avverrà fino a quando le modalità di produzione e consumo saranno basate sull’impiego dei combustibili fossili, petrolio in primis, che li rende beni necessari. L’affrancamento dello sviluppo economico dal petrolio si avrà solo con il risparmio energetico e soprattutto con la diversificazione verso fonti energetiche alternative. Ma quel momento oggi appare ancora molto lontano.

(5) L’ambiente e la crescita del prezzo del greggio.
In termini di minori emissioni di gas serra quali il CO2 il primo shock petrolifero ha fatto più di tutti gli altri provvedimenti e comportamenti “virtuosi” che si sono susseguiti da allora. L’aumento del prezzo del petrolio svolge lo stesso ruolo di una tassa ambientale che ha lo scopo di contenere le emissioni dannose. Allora forse l’altra faccia della medaglia di questi aumenti di prezzo sarà una reazione favorevole all’ambiente: forse è una magra consolazione ma è un aspetto da non dimenticare. Qui confessiamo di avere sentimenti misti di fronte alla notizia che la Cina, così vorace d’energia in questi tempi, diminuirà la sua domanda di greggio: la Cina ha, infatti, deciso di costruire nuove centrali elettriche per una produzione pari a quella dell’intera Gran Bretagna, ma saranno centrali a carbone, che non è petrolio ma è notoriamente il più inquinante delle fonti fossili.

(6) Perché ridurre le imposte?
Allo stesso modo della tassa, pagare di più il petrolio fa sì che chi inquina percepisca il costo della sua attività (ne “internalizzi” il costo). In questa cornice va valutata la proposta di intervenire sulle accise per mantenere il prezzo dell’energia, e dei carburanti in particolare, allo stesso livello antecedente l’aumento. In realtà, nel settore dei trasporti il maggiore prezzo del carburante serve a far pagare l’inquinamento ed il congestionamento del traffico proprio ai responsabili di tali effetti. Ancorché al margine, l’aumento del prezzo di benzina e gasolio dovrebbe contribuire a spostare sul traffico ferroviario parte dello scambio delle merci e ad adottare modalità più efficienti di trasporto delle persone abolendo, ad esempio, i viaggi meno necessari. E ciò con buona pace delle associazioni dei consumatori.

L’alba del giorno prima, di Marzio Galeotti e Alessandro Lanza

Che aria tira sul clima in giro per il mondo?
Negli Stati Uniti, dopo il discusso rapporto preparato dal Pentagono che dipingeva scenari catastrofici causati dai cambiamenti climatici nei prossimi vent’anni, tornano alla carica i senatori Lieberman e McCain, un democratico e un repubblicano “ribelle”, con una proposta di legge, che intende limitare le emissioni americane di gas-serra nel 2010 ai livelli del 2000. (1)

Gli Usa ci ripensano?

Intanto, la politica di George W. Bush prosegue nella sua ambiguità. Harlan Watson, negoziatore capo per gli Usa sui cambiamenti climatici, il 10 maggio scorso in una conferenza a Bruxelles ha dichiarato che il presidente è stato male interpretato sulla questione, ma ha altresì affermato che l’ambiente non figurerà esplicitamente nella sua campagna presidenziale per la rielezione.
Europa e Giappone ripongono le loro speranze in John Kerry, candidato alla presidenza e senatore con il record di votazioni più “verdi”. Parla appassionatamente di effetto serra e ha nel suo programma l’introduzione di una legislazione nazionale ad ampio raggio, incluso un mercato nazionale dei permessi, per combattere il riscaldamento globale. Ma dalle colonne dell’International Herald Tribune, Nigel Purvis ammonisce che ci sbaglieremmo di grosso se sperassimo che Kerry, una volta eletto, spingerebbe per una ratifica del Protocollo di Kyoto. (2)
Tuttavia, anche senza l’elezione di Kerry, è possibile che negli Usa qualcosa accada.
Infatti, in assenza di una politica federale, sono gli Stati a essersi mossi.
Il Massachusetts è stato il primo a regolamentare le emissioni di anidride carbonica generate dalle centrali elettriche. Gli Stati del New England si sono quindi uniti alle province orientali del Canada nell’assunzione ufficiale dell’impegno a ridurre le emissioni di gas-serra del 12 per cento entro la fine di questa decade. Sull’altra costa, Oregon e Washington si stanno organizzando insieme alla California, il primo Stato ad approvare una legge che regolamenta le emissioni delle automobili.
In una sorta di gara virtuosa, il governatore del Massachusetts ha annunciato all’inizio di maggio un piano che in materia di pianificazione e finanziamento di opere pubbliche nel campo dei trasporti condiziona, in parte, le decisioni alle emissioni di gas-serra che tali progetti genererebbero.

Tutti questi fermenti formano un’alternativa credibile a Kyoto, si domanda l’Economist? (3) L’argomentata risposta è negativa. Tuttavia, a questo punto anche la grande industria chiede decisioni. Le società elettriche, che in larga parte impiegano combustibili fossili, hanno avallato la legislazione che obbligatoriamente limiterà le emissioni da esse stesse prodotte. Persino la ExxonMobil (e con essa ChevronTexaco), grande supporter della politica energetica di Bush, comincia a dare segnali di sensibilità al tema ambientale, anche perché si aspetta che molti azionisti la metteranno sotto pressione su questo tema nella prossima assemblea. E non va infine dimenticato che spesso la legislazione statale precede e provoca quella federale.

La Ue ha fede nel protocollo

E in Europa come vanno le cose? Il clima in questa regione del mondo mostra luci e ombre.
Alla fine la perseveranza europea nei confronti della Russia sembra avere pagato. Dopo un lungo tentennare, Vladimir Putin ha annunciato venerdì 21 maggio che il suo paese si “sarebbe mosso rapidamente verso la ratifica”. Per il realista Putin la ratifica del Protocollo sembra infatti ridursi a una mera questione di politica estera. Visto che Kyoto non dovrebbe costare ai russi, anzi potrebbe addirittura generare ricavi per 10 miliardi di sterline, secondo il Financial Times, il presidente russo offrirebbe agli europei la ratifica del Protocollo insieme a un raddoppio del prezzo interno del gas (pari attualmente a un quarto di quello esportato agli europei) in cambio dell’assenso europeo all’ammissione alla Wto, l’organizzazione mondiale del commercio. (4)
La scelta russa lascia peraltro gli americani più soli e dovrebbe incoraggiare ulteriormente il movimento d’opinione favorevole a iniziative sul fronte del clima.
Per loro conto gli europei si apprestano ad affrontare l’appuntamento pre-Kyoto più significativo, il mercato europeo dei permessi di emissione che parte il 1 gennaio 2005.
È un atto di fede nei confronti di un protocollo le cui condizioni vale comunque la pena soddisfare, si sostiene, anche senza che sia entrato in vigore. Nel frattempo, l’Europa impara l’uso di uno strumento che anche gli stati e i territori australiani stanno considerando, così come il Giappone e gli Usa. Negli Stati Uniti il commercio dei permessi ha avuto avvio l’anno scorso attraverso il Chicago Climate Exchange, che ha tra i suoi membri società come Dow Corning, Dupont, Motorola, Ibm e Ford.

Gli Stati membri dell’Ue devono assegnare alle proprie industrie una certa quantità di permessi che saranno poi scambiati sul mercato secondo il piano nazionale di allocazione o Nap, che ciascun paese doveva inoltrare alla Commissione europea entro fine marzo, termine che peraltro nessuno ha rispettato. Secondo le regole, la Commissione ha il diritto di porre il veto a quei piani che ritiene eccessivamente generosi verso l’industria e incoerenti con gli obiettivi di Kyoto. Se poi un paese rifiuta di rivedere il proprio Nap, la Commissione può citarlo in giudizio.
A metà maggio su ventitré paesi membri, otto non avevano ancora pubblicato un piano provvisorio. Tre di questi – Francia, Spagna e Polonia – sono tra i maggiori emittenti in Europa. Gli altri che mancano all’appello sono Belgio, Grecia, Repubblica Ceca, Slovacchia e Ungheria. Un’analisi provvisoria dell’allocazione per settori di attività rivela che l’elettrico conta per oltre il 50 per cento, seguito da petrolio e gas, cemento e vetro, metalli, carta. Queste saranno dunque le industrie verosimilmente più coinvolte dal futuro mercato dei permessi.
I primi verdetti ufficiali della Commissione vanno emessi entro il 30 giugno. Ma indiscrezioni e schermaglie sono già iniziate. Mentre il piano italiano, come racconta Enzo Di Giulio, appare fuori linea, voci riferiscono che quello polacco sarà eccessivamente generoso.

Al punto che il commissario all’Ambiente, Margot Wallström, ha dichiarato che si prepara ad agire contro quei paesi che non hanno ancora sottomesso il Nap. Ma l’elemento più significativo delle sue dichiarazioni è che cruciale sarà la quantità totale di permessi. La prima impressione che emerge dalla lettura dei Nap inoltrati è che l’ammontare relativo appare troppo alto.
Un mercato funziona quando c’è scarsità. E infatti la percepita mancanza di scarsità si riflette sul prezzo di mercato di quei permessi che sono già attualmente scambiati: il prezzo di una tonnellata di CO2 era pari a 13 euro in gennaio mentre a fine aprile è sceso fino a 7 euro.
Ma per capire la posta in gioco basta una notizia che viene dall’Inghilterra, paese tra i più virtuosi in Europa quanto a politiche di riduzione delle emissioni. Ebbene, il ministro dell’Ambiente ha annunciato di avere incaricato una società di consulenza specializzata di valutare i Nap dei paesi membri nel timore che l’industria britannica possa essere danneggiata dalla mancanza di rigore degli altri paesi. E nel fare ciò i britannici esprimono anche dubbi sul fatto che la Commissione europea abbia effettivamente la forza per rigettare i piani di Germania, Francia e Italia.
Non c’è dubbio che la probabile ratifica russa del Protocollo dà ulteriore forza e credibilità all’iniziativa europea sul mercato dei permessi. E finisce per spuntare le armi di chi, come il nostro ministro dell’Industria Antonio Marzano all’ultima assemblea di Confindustria, riecheggiando i dubbi del Governo più volte esplicitati a livello europeo dal ministro dell’Ambiente Altero Matteoli, ha un poco avventatamente dichiarato che l’Italia potrebbe rivedere la sua posizione su Kyoto.

(1) Il rapporto sostiene che il mondo potrebbe finire sull’orlo dell’anarchia con alcuni paesi che utilizzano la minaccia nucleare per assicurarsi adeguate forniture di cibo, acqua ed energia. Gli autori del rapporto affermano che i cambiamenti climatici dovrebbero essere elevati al di sopra del dibattito scientifico a materia di sicurezza nazionale. La proposta Lieberman-McCain introduce limiti alle emissioni generate dalla produzione elettrica, dai trasporti, dall’industria e dal commercio e istituisce un mercato dove le singole imprese possono commerciare diritti d’emissione.

(2) “Europe and Japan misread Kerry on Kyoto” di Nigel Purvis, International Herald Tribune, 5 aprile 2004.

(3) “Bottom-up greenery”, The Economist, 18 marzo 2004.

(4) “Kyoto could be Russia’s ticket to Europe” di Anders Aslund, International Herald Tribune, 5 aprile 2004 e “A change in the climate: will Russia help the Kyoto protocol come into forse?” di Vanessa Houlder, Financial Times, 20 maggio 2004.

Il telefono, la tua bolletta

E’ giusto chiedersi se la liberalizzazione delle telecomunicazioni abbia arrecato effettivi benefici ai consumatori finali. Andrea Gavosto contribuisce alla discussione aperta da Carlo Cambini rilevando che i dati sulle tariffe telefoniche apparsi su lavoce.info non tengono conto dei cosiddetti “pacchetti tariffari”. Nella sua controreplica, l’autore ricorda che l’analisi si proponeva di valutare l’impatto del processo di liberalizzazione e non delle strategie tariffarie dei singoli operatori.

Alitalia: bene così, ma non facciamoci illusioni

Sembra ormai vicina ad una soluzione la crisi Alitalia. Tuttavia, non è ancora tempo per nutrire facili illusioni, come sottolinea Carlo Scarpa  (Alitalia: bene così, ma non facciamoci illusioni).  Ricostruiamo  la dinamica della crisi nel corso degli ultimi mesi con interventi di Francesco Cavalli, Francesco Gazzoletti e Daniele Nepoti  (Come si dice Malpensa in cinese?), Andrea Goldstein (Per Alitalia, guardiamo all’estero), Marco Ponti (Vola solo il deficit e Alitalia: un’Italia senza ali), Carlo Scarpa, (All’Alitalia serve chiarezza), Mario Sebastiani (Perchè Alitalia resta a terra).

Europei oziosi?

Gli europei lavorano meno degli americani? E gli italiani meno degli altri lavoratori europei? Perchè ci sono differenze così grandi fra paesi in termini di ore lavorate? Si tratta di attitudini che rendono i lavoratori di alcuni paesi più “pigri” che in altri stati, oppure di istituzioni che tengono fuori dal mondo del lavoro molte persone?  Mentre in Francia si abbandonano le 35 ore e in Germania si raggiungono accordi aziendali che prevedono un incremento degli orari di lavoro, riproduciamo per i nostri lettori gli interventi di Olivier Blanchard, Tito Boeri, Michael Burda, Jean Pisani-Ferry, Guido Tabellini, Charles Wyplosz e una scheda di Domenico Tabasso.

Pagina 3 di 4

Powered by WordPress & Theme by Anders Norén