Un nostro sondaggio ha confermato che i giovani italiani continuano a essere filo-europei e voterebbero a favore del Trattato costituzionale. Perché hanno poca fiducia nel nostro sistema politico e nelle nostre istituzioni e l’Europa piace perché ci protegge dai nostri stessi errori. Eppure, il nuovo Patto resta troppo indulgente verso alcuni paesi. Affidare il giudizio sul rispetto delle regole all’Ecofin è svantaggioso per noi. Perché senza la garanzia che i deficit eccessivi siano osservati da vicino da un’istituzione indipendente, le agenzie di rating alzeranno lo spread sui titoli italiani. Se poi si vuole rilanciare la crescita economica, va attuato il processo di riforme strutturali di Lisbona.
Categoria: Dossier Pagina 14 di 16
Oggi alla Camera si vota per la riforma costituzionale del Polo. E’ il secondo passaggio. Dopo resta solo l’approvazione definitiva da parte del Senato. Ma non è chiaro se la riforma sarà mai applicata.
Riproponiamo ai lettori una serie di interventi che lavoce.info ha offerto in tema di concorrenza e antitrust.
In vista del tavolo con le parti sociali, riproponiamo ai lettori una serie di interventi che lavoce.info ha dedicato al decreto del Governo in tema di trasferimento del Tfr ai fondi pensione.
In Italia e in Europa le l’idea di incoraggiare la ricerca e l’innovazione è ormai diventata un luogo comune del dibattito politico. MA non c’è identità di vedute su come fare. Proprio in questi giorni (luglio 2005), ad esempio, in Europa si discute di politiche per la brevettabilità del software e, più in generale, della tutela dei diritti di proprietà intellettuale.
Gli articoli in questa monografia trattano di questi temi offrendo punti di vista anche differenziati sulle politiche da adottare e – comunque – tanti spunti per riflettere.
Il software è un’opera dell’ingegno, tutelata dal diritto d’autore. Non serve permetterne la brevettazione, come si chiede ora anche in Europa sull’esempio americano. Intanto, il brevetto è uno strumento sempre meno utile a incentivare l’innovazione. Nel caso del sofware non accelera il processo di diffusione delle conoscenze né ci sono da ripagare ingenti investimenti iniziali. Infatti, vi si affidano soprattutto le imprese più grandi e meno innovative, spesso con l’intento di bloccare le invenzioni altrui, più che di proteggere le proprie.
Perché il software non ha bisogno del brevetto
Raimondello Orsini e Massimo Portolani
Il software è unopera dellingegno, tutelata dal diritto dautore (copyright). Viene inoltre commercializzato con un nome o marchio depositato: oggi quindi unimpresa che sviluppa software è già protetta dal diritto dautore e dalla legge sui marchi industriali. Negli Usa, a partire dalla fine degli anni Ottanta, si è ritenuto di permettere anche la brevettazione del software: proteggere quindi non più solo il programma (la forma nella quale è scritto), ma anche la funzione che assolve. LEuropa si sta interrogando sullopportunità di seguire gli Usa su questa strada. Tra i motivi che inducono a rispondere negativamente si intrecciano sia ragioni generali che rendono il brevetto in sé uno strumento sempre meno utile a incentivare linnovazione, sia ragioni specifiche che rendono il software inadatto al brevetto.
Le ragioni del brevetto
La concessione del brevetto è finalizzata a incentivare linnovazione, che viene remunerata dai profitti monopolistici, e ad accelerare il processo di diffusione delle conoscenze, tramite il disvelamento, o “rivelazione dellinsegnamento inventivo” contestuale al deposito del brevetto.
Entrambe queste motivazioni sociali sembrano mancare nel caso del software. Lequazione “maggiore protezione uguale maggiore incentivo a innovare” solitamente non vale se le innovazioni hanno natura sequenziale (ovvero si appoggiano su innovazioni precedenti, avendo carattere complementare o incrementale): ampliare la protezione può avere un effetto deterrente superiore alleffetto incentivante (si incentiva il primo innovatore, ma si disincentivano i potenziali innovatori successivi). Riguardo al disvelamento, la brevettazione del software così come intesa negli Usa permette allinnovatore di depositare il software senza svelarne il codice sorgente. È quindi scarso il beneficio che la società riceve come corrispettivo alla concessione del monopolio. Il brevetto ricompensa chi ha ottenuto linnovazione impiegando ingenti risorse in un progetto complesso e rischioso, investimenti che necessitano di anni di protezione monopolistica per essere recuperati (per esempio, nel settore farmaceutico). Lo sviluppo di soluzioni software non ha questi requisiti. Risolvere un problema con un algoritmo richiede delle valutazioni astratte e capacità creativa, non investimenti. Anche per questo è stato finora escluso dalla brevettabilità, come gli algoritmi matematici. Inoltre, la complessità delloggetto software è tale da non consentire un facile giudizio sia in sede di deposito del brevetto, sia in caso di contenzioso: difficilissimo accertare i requisiti di novità e non ovvietà, necessari perché il brevetto sia valido. Negli Usa, visto che lUspto si finanzia con le tasse di deposito, il brevetto viene concesso praticamente sempre, e la sua validità viene valutata in tribunale, dove il detentore si ritiene autorizzato a trascinare coloro che considera illegali imitatori. Lesplosione della litigiosità brevettuale – che non riguarda solo il software – costituisce un problema economico rilevante: le risorse spese nel deposito di brevetti inutili e nelle cause legali da questi generate sono spese di rent-seeking che non creano alcun valore per la società. Uno spreco di risorse di cui beneficiano solo gli studi tecnico-legali. (1)
A chi è utile
La natura burocratica e costosa dellattività di brevettazione fa sì che a essa si affidino soprattutto le imprese più grandi e paradossalmente meno innovative, spesso con lintento non di proteggere le proprie invenzioni, ma di bloccare quelle altrui. La possibilità di essere trascinati in costose cause legali è in grado di scoraggiare sia le numerose piccole imprese che operano in ambito proprietario, sia la miriade di operatori che collaborano al circolo virtuoso dei progetti Open Source. Lincertezza, i lunghi tempi dei processi e limpegno finanziario sono unarma nelle mani delle grandi imprese detentrici di brevetti (validi o no), per indurre altre imprese ad accettare accordi extragiudiziali che possono anche implicare restrizioni della concorrenza. La legislazione sul diritto di proprietà intellettuale deve essere chiara e ridurre le incertezze. La concessione di brevetti dalla validità opinabile non va evidentemente in questa direzione.
In Europa ci sono poche grandi case di software che non siano distributrici o sussidiarie di grandi imprese americane. Queste non aspettano altro che l’estensione dei propri brevetti ai paesi europei. A desiderare un esito simile, possono essere solo la potente lobby degli avvocati o i funzionari dellEuropean Patent Office (Epo), i quali hanno pensato bene di organizzare, il 30 marzo 2005, un Information Day presso il Parlamento europeo. http://events.european-patent-office.org/2005/0330/ Tra le motivazioni della “urgenza” della brevettabilità del software ve ne è una davvero singolare: il Parlamento europeo deve legiferare in proposito, perché ormai lEpo ha già concesso più di 30mila brevetti in ambito software (in palese violazione della normativa vigente: “la prassi ha ormai scavalcato i vincoli normativi”). Resta da vedere se il Parlamento è ancora sovrano, o deve limitarsi a recepire le pressioni dei lobbisti avvallandone i comportamenti mediante modifiche legislative che ne sanino gli abusi.
Per saperne di più
Sul ruolo controproducente dei brevetti, si veda J. Bessen- E. Maskin (2000), “Sequential innovation, patents, and imitation”, Working Paper del Mit: http://www.researchoninnovation.org/patent.pdf .
(1) Per rendersi conto direttamente dellesplosione del numero dei brevetti depositati negli Usa senza avere i requisiti di novità e non ovvietà, si può consultare il sito ufficiale Uspto: http://patft.uspto.gov/netahtml/search-adv.htm facendo una ricerca con parole chiave come “computer” o “internet”.
LEuropa potrebbe risolvere la diatriba tra fautori e critici della brevettabilità del software istituzionalizzando la Generalized Public License. E’ il contratto principe dell’open source e impone a chi migliora un programma open di mettere a disposizione il codice sorgente dei nuovi apporti. E’ anche facilmente applicabile ad altri contesti. Questa soluzione stimolerebbe la concorrenza tra i due sistemi: chi inventa potrebbe scegliere tra brevettare o mettere le proprie innovazioni in campo aperto.
Licenza d’innovare
Alfonso Gambardella
Il 7 marzo, il Consiglio sulla competitività della Commissione europea ha rimandato al Parlamento il testo della “direttiva sulla brevettabilità del software“. È latto più recente di una diatriba che va avanti dal 2002, da quando Commissione e Parlamento si rimpallano il documento a suon di emendamenti in cui la prima amplia ciò che può essere brevettato come software e il secondo lo restringe.
Chi brevetta. E chi no
Per entrare nel merito della disputa, possiamo valutare lesperienza degli Stati Uniti, che hanno avviato la brevettazione “forte” sin dai primi anni Ottanta.
I problemi sono la crescita dei brevetti mirati non tanto a proteggere le proprie invenzioni quanto a bloccare quelle degli altri e il grande aumento delle citazioni in giudizio su questioni brevettuali. Daltra parte, brevetti più forti non sembrano aver scoraggiato le piccole-medie imprese high-tech. Sam Kortum e Joshua Lerner mostrano che nella seconda metà degli anni Ottanta, la quota di imprese che non avevano brevettato nel quinquennio precedente è aumentata rispetto alla seconda metà degli anni Settanta. Brownyn Hall e Rosemarie Ziedonis documentano entrambi gli effetti nei semiconduttori. E mostrano che leffetto dellaumento della litigiosità brevettuale e dei “blocking patent” è più marcato degli stimoli alle piccole-medie imprese innovative. Jim Bessen e Robert Hunt ottengono risultati analoghi proprio nel software. Anzitutto, i brevetti delle grandi imprese manifatturiere sono aumentati molto di più di quelli delle imprese di software: secondo i loro dati, le prime impiegano l11 per cento dei programmatori e analisti di software e detengono il 75 per cento dei brevetti, mentre le seconde impiegano il 33 per cento dei programmatori e analisti e posseggono il 13 per cento dei brevetti software. Una differenza così marcata nella produttività brevettuale non può essere spiegata da differenze di efficienza, ma solo da differenze nella propensione a brevettare. Inoltre, Bessen e Hunt mostrano che, a parità di altre condizioni, le imprese con una maggiore propensione a brevettare hanno una intensità più bassa di ricerca & sviluppo (R&S). Un brevetto più forte, che protegge meglio chi brevetta nella difesa delle proprie innovazioni, rende la R&S più remunerativa, e dunque dovrebbe aumentarla e non diminuirla. Il sospetto è perciò che i brevetti non servano a proteggere le proprie innovazioni, ma a qualcosaltro, e probabilmente ad avere più potere contrattuale rispetto ai concorrenti e a bloccarne le innovazioni.
Il modello open source
Insomma, gli Stati Uniti sembrano essersi spinti un po troppo in là. E, in effetti, due rapporti della Federal Trade Commission e della National Academy of Science suggeriscono strade per riequilibrare il sistema. Ora, la posizione della Commissione è più articolata di quanto gli oppositori della direttiva sostengono. La direttiva metterebbe solo ordine in una materia in cui non cè disciplina in Europa e, comunque, lUfficio brevetti europeo sta brevettando software da tempo senza guida da parte del legislatore. Inoltre, come ribadito l8 marzo di fronte al Parlamento dal commissario alla Direzione mercato interno e servizi, Charlie McCreevy, la direttiva non consente di brevettare nulla che non sia già brevettabile oggi, ed è fatta in modo da consentire di brevettare soltanto contributi tecnologici importanti.
Lesperienza Usa ha mostrato però che la corsa alla brevettazione e laumento delle citazioni in giudizio sono stati un fenomeno troppo grande e socialmente costoso per sentirsi rassicurati dalle parole di un Consiglio comunitario, per quanto autorevole. Al tempo stesso, lopen source è un modello nuovo e interessante di produzione del software, sta realizzando progetti e innovazioni utili per la società e andrebbe incoraggiato.
Perché non pensare anche a una direttiva che istituzionalizzi la Generalized Public License (Gpl)? La Gpl è il contratto principe dellopen source che impone a chi contribuisce a un programma open, del quale viene cioè messo a disposizione pubblicamente il codice sorgente, di mettere a disposizione il codice sorgente dei relativi miglioramenti. Il modello potrebbe essere adottato in contesti diversi e difatti si sta diffondendo in altri sistemi tecnologici, come le biotecnologie. La direttiva potrebbe definire il meccanismo e in particolare lestensione del vincolo di pubblicità dei miglioramenti a valle, standardizzare le caratteristiche dei contratti Gpl, articolarne la tipologia e assicurarne il rispetto. Al di fuori del software, la Gpl potrebbe imporre pubblicità e licenze non esclusive sui migliormenti di uninnovazione.
La direttiva stimolerebbe poi la concorrenza tra i due sistemi. Chi inventa può brevettare o mettere le proprie innovazioni in campo aperto. Il meccanismo va studiato e precisato, ma sarebbe una bella innovazione istituzionale europea, una volta tanto in anticipo e non a rimorchio degli Stati Uniti.
Per saperne di più
Bessen, J. e R. Hunt (2004) “An Empirical Look at Software Patents”, Working Paper 03-17, Federal Reserve Bank of Philadelphia.
Gambardella, A. e B.H. Hall (2005) “Proprietary vs Public Domain Licensing in Software and Research Products”, NBER Working Paper 11120, www.nber.org.
Hall, B.H. e R. Ziedonis (2001) “The Patent Paradox Revisited: Determinants of Patenting in the US Semiconductor Industry, 1980-1994”, Rand Journal of Economics 32 (1), 101-128.
Kortum, S. e J. Lerner (1999) “What is Behind the Recent Surge in Patenting”, Research Policy 28, 1-22.
Link ai rapporti Ftc e Nas:
http://www.ftc.gov/opp/intellect/
http://www7.nationalacademies.org/ocga/briefings/Patent_system_21st_Century.asp
Si può trasferire l’esperienza dellopen source in campo informatico ad altri aspetti del progresso tecnologico? A dispetto del problema del free-riding, la ricerca sullo sviluppo di un input comune a più processi produttivi può risultare addirittura maggiore in un contesto di General Public Licence rispetto a un regime di monopolio protetto da brevetto. Accade quando si ha un effetto di accrescimento del profitto totale dell’industria dovuto a un miglioramento tecnologico dell’input comune. Ciò suggerisce una nuova politica della brevettabilità.
Oltre Linux
Philippe Aghion e Salvatore Modica
Il dibattito sull’open source, o più propriamente sulla General Public Licence, è generalmente centrato sul software, dove in termini di miglioramento del prodotto la Gpl ha dato risultati estremamente positivi, in particolare con Linux.
Lavoce.info ha già discusso gli aspetti fondamentali del problema negli articoli di Gambardella e Santarelli-Bono. (LINK) Vorremmo aggiungere qualche commento su unaltra questione: cosa possiamo astrarre dall’esperienza di Linux pensando al progresso tecnologico in generale, non necessariamente “digitale”?
I due problemi dellopen source
Conviene tener distinte le due fasi principali del ciclo di vita di un nuovo prodotto: (i) la nascita, con linvenzione primaria (per il software si pensi alla versione 0.01 di Linux, che Linus Torvalds mise in giro a beneficio di un centinaio di hackers, o al sistema Dos di Microsoft) e (ii) il successivo sviluppo, generato dai miglioramenti apportati da ricerca incrementale (ad opera della collettività degli sviluppatori o del monopolista proprietario del brevetto). Della General Public Licence si dice che permette a ognuno di “dare un mattone per avere in cambio una casa intera”. (1)
Ma lo slogan non racconta proprio tutto: primo, qualcuno deve aver gettato le fondamenta. (2) Secondo, vero è che in fase di sviluppo uno può dare un mattone e avere una casa intera in cambio, ma è altrettanto vero che la casa è sua anche se il mattone non ce lo mette: quindi, perché sprecarlo? In altre parole, ladozione della Gpl presenta due problemi. Il primo, classico, è che lassenza di brevettabilità riduce l’incentivo a inventare – in fase (i). Laltro, che a invenzione avvenuta, miglioramenti incrementali di qualità possono essere frustrati dal free-riding – in fase (ii).
Il primo problema, discusso già da Schumpeter e poi da Nordhaus in un famoso libro del 1969, è ancora più chiaro alla luce della teoria della crescita contemporanea che individua nel processo innovativo il motore principale dello sviluppo economico. (3) La prospettiva di profitti monopolistici garantita dalla brevettabilità rende profittevole lattività di ricerca in quanto consente di recuperare costi iniziali che vendendo al costo marginale andrebbero inevitabilmente perduti. Fortunatamente, i processi innovativi non si arrestano del tutto in assenza di brevettabilità, e Linux ne è esempio eloquente. D’altra parte, è difficile contestare il fatto che tipicamente la brevettabilità costituisce un importante incentivo alla ricerca. (4)
Se linput è comune a più processi produttivi
Il problema di free-riding creato dalla Gpl sugli sviluppi della nuova invenzione, con conseguente livello subottimale dell’investimento, è tipico dei beni pubblici (il risultato della ricerca diventa un bene pubblico con la General Public Licence). Tuttavia, il volume di ricerca su Linux ha di gran lunga superato quello messo in atto da Microsoft su Windows, e da un paio d’anni allo sviluppo di Linux concorre un pool di grosse imprese di telecomunicazioni e di produttori di hardware (in concorrenza fra loro) che finanziano l’Open Source Development Labs, dove non a caso lavora Torvalds a tempo pieno. Cosa sta succedendo? La nostra opinione è che stia accadendo qualcosa che non ha tanto a che fare con la natura digitale di Linux, quanto con la sua funzione di input comune a molteplici processi produttivi (5).
Per ricorrere a un esempio non digitale e non high-tech, si pensi agli impianti frenanti che entrano nella produzione delle automobili, dei camion, degli aeroplani. La nostra idea, confermata nel contesto di un modello biperiodale, è che a dispetto del problema di free-riding, la ricerca sullo sviluppo di un input comune a più processi in un contesto di General Public Licence può risultare addirittura maggiore che in regime di monopolio protetto da brevetto. Accade quando a fronte dell’effetto negativo di bene pubblico, è presente un abbastanza forte effetto di accrescimento del profitto totale dell’industria dovuto alla qualità dell’input comune e alla conseguente crescente produttività dei processi produttivi delle singole imprese. In altre parole, l’impresa investe nell’input/bene comune nonostante così facendo avvantaggi non solo se stessa ma anche i concorrenti, se al contempo accresce abbastanza la dimensione della “torta” da dividere con loro. Questa dei beni intermedi largamente usati sembra dunque la categoria di prodotti su cui concentrarsi, al di là del software, per pensare alla possibilità di adozione della Gpl.
Quale politica dei brevetti
Ristretta in tal modo l’attenzione a un campo di applicazione potenzialmente proficuo, emerge comunque un tradeoff per la politica dei brevetti: orientarsi sulla brevettabilità, favorendo innovazioni primarie che andrebbero incontro a uno sviluppo di prodotto relativamente lento. Oppure imporre una Gpl sulle nuove invenzioni (del tipo in questione) garantendo uno sviluppo sostenuto di qualità, accettando però un rallentamento del loro tasso di natalità. Ci sono vie d’uscita? Alla ricerca di un intervento pubblico che riesca ad aggirare il tradeoff appena descritto, sembrerebbe ragionevole esplorare la possibilità di mantenere sì la brevettabilità, ma poi per quei beni in cui cè più ricerca incrementale con Gpl che sotto regime di monopolio (del tipo da noi individuato), lo Stato acquisti i brevetti, e li rilasci con licenza Gpl.
(1) Sono parole di Ganesh Prasad, un web designer affascinato dalle implicazioni economiche e sociali di Linux, che utilizza dal 1996.
(2) Per Linux è stato Linus Torvalds, un finlandese freddoloso che voleva fare tutto da casa, come ricorda nella sua autobiografia “Rivoluzionario per caso” pubblicata da Garzanti.
(3) Si vedano ad esempio i capitoli disponibili dell’Handbook edito da Philippe Aghion e Steven Durlauf, di prossima pubblicazione.
(4) Il caso della brevettabilità del software piuttosto che la sua protezione con copyright, che tocca anche delicate questioni di brevettabilità delle idee, potrebbe essere un’eccezione, anche a causa degli intricati problemi legali che verrebbero a crearsi. Vedi il sito della Foundation for a Free Information Infrastructure, ffii.org, per il dibattito in Europa.
(5) Aghion, P. e Modica S., “Open Source without Free-Riding”, in preparazione.
La Commissione Europea e i ministri europei reponsabili della Competitività hanno varato una controversa direttiva sulla brevettabilità di “computer-implemented inventions”. Lungi da poter essere considerato concluso, il dibattito dovrebbe ora investire l’intero sistema di tutela della proprietà intellettuale. Se si vuole incoraggiare l’attività innovativa e favorire la circolazione dei suoi risultati, le strategie copyleft sembrano le più adatte a promuovere la ricerca di base. E potrebbero innescare meccanismi per il recupero di competitività e di rilancio verso l’economia basata sulla conoscenza, perno della strategia di Lisbona.
L’Europa tra copyright e copyleft
Giovanni Bono e Enrico Santarelli
In passato, i programmi per elaboratori elettronici (“software”) erano soggetti alla disciplina sul diritto d’autore: le idee contenute nel programma non potevano essere brevettate. Sulla scorta dell’idea che il software contiene invenzioni come ogni altra realizzazione tecnologica, gli Stati Uniti (USA) hanno da tempo rotto con questa tradizione ed il software – come gli algoritmi matematici, i “business methods”, etc. è entrato a pieno titolo fra le materie di brevetto. Nello stesso tempo, il “copyright” sul software è stato messo in crisi da una comunità transnazionale di sviluppatori, detta del “software libero” o “movimento open source”. Questa comunità è cresciuta grazie all’uso di licenze cosiddette “copyleft”, che mettono in comune i risultati invece di negoziarne la circolazione sul mercato. Tale pratica, che ha prodotto esperienze di successo nel settore del software – come GNU, Linux e Apache – e ha contagiato giganti come Netscape, IBM e Sun Microsystem si sta estendendo anche ad altri settori, dalla musica alle biotecnologie.
Commissione europea ed Europarlamento hanno dibattuto a lungo attorno alla possibilità di brevettare software.
La querelle si è aperta con un Green Paper presentato dalla Commissione nel 1997. Il 24 settembre 2003, lEuroparlamento ha approvato un testo fortemente limitativo, la direttiva dell’Unione Europea sulla brevettabilità di “computer-implemented inventions”. A sua volta, la Commissione ha presentato, il 18 maggio 2004, un testo modificato nella direzione opposta. Questultimo, tuttavia, non ha raccolto sufficienti consensi, tanto che il 2 febbraio 2005 l’Europarlamento ha chiesto l’azzeramento dell’intera procedura, invitando la Commissione a soprassedere rispetto alla decisione in tema di brevettabilità del software. Infine, tra il 3 e il 7 marzo 2005, prima la Commissione poi i ministri europei responsabili della Competitività, hanno respinto questo invito e, malgrado lopposizione più o meno ferma di alcuni paesi membri (la Spagna in testa, ma anche Cipro, Danimarca Lettonia, Paesi Bassi, Polonia, Ungheria) e lastensione di altri (Austria, Belgio e Italia), manifestato una preferenza per lorientamento copyright. In attesa di un nuovo pronunciamento dellEuroparlamento, è nostra opinione che la politica comunitaria per l’innovazione dovrebbe invece operare una scelta di campo diversa e decidere di sfruttare a fondo le opportunità di crescita generate dal copyleft.
Fautori e oppositori della brevettabilità
I fautori ritengono la brevettabilità del software un incentivo necessario all’attività innovativa: ne garantirebbe il futuro in Europa proteggendo le invenzioni sia delle piccole che delle grandi imprese. Gli oppositori osservano che, mentre negli altri campi la concessione del brevetto è subordinata alla divulgazione dellinformazione tecnologica su cui esso si basa, nel caso del software tale protezione è accordata anche se il codice sorgente rimane segreto. Di conseguenza, l’estensione del meccanismo brevettuale frenerebbe l’innovazione, mettendo l’industria europea del software saldamente in mano a un cartello di grandi imprese in grado di eliminare i concorrenti più piccoli grazie al pieno controllo che esercitano sui codici sorgente del software più diffuso. In effetti, il dibattito è stato talvolta letto come uno scontro tra gli interessi delle grandi e delle piccole imprese del settore.
La prassi ha tuttavia da tempo scavalcato i vincoli normativi, posti ad esempio dallarticolo 52 della European Patent Convention, e di fatto sono stati concessi numerosissimi brevetti sul software. Il problema, però, è di portata maggiore. Il punto di fondo è infatti se l’Unione europea debba seguire gli Stati Uniti sulla strada di una politica intransigente di tutela della proprietà intellettuale o se vi sia la possibilità di imboccare percorsi diversi. Si tratta, in altre parole, di scegliere con chiarezza il sistema prevalente di accesso alle conoscenze codificate, che rappresentano sia il principale input che il principale output di ogni attività innovativa.
Copyright e copyleft
La regolamentazione privata dell’accesso alle conoscenze codificate prende forme diverse in settori e sistemi giuridici diversi. Questa varietà di forme, pratiche e strategie negoziali può essere ricondotta a due tipologie generali: “copyright” e “copyleft”.
La strategia copyright, che include i brevetti, è tipicamente “chiusa” e comporta un’attribuzione selettiva dei diritti di accesso. La strategia copyleft, adottata dalla comunità degli sviluppatori di software libero, è invece “aperta” e attribuisce i diritti di accesso non selettivamente. Nel primo caso, la conoscenza generata dall’attività innovativa è una collezione di beni privati, accessibili soltanto a seguito di una negoziazione privata. Nel secondo, è un “commons”, cioè una risorsa di proprietà comune la cui riproduzione, circolazione e modifica sono limitate in modo tale da garantire la loro permanenza nel “commons”. Gli esempi di “commons” nella moderna società dellinformazione sono molteplici. Basti pensare, ad esempio, che gli standard tecnologici del world wide web sono in larga parte un “commons” e che l’istituzione che orienta la loro produzione – iniziata al Cern di Ginevra nel 1989 – è una joint venture franco-nippo-statunitense, il World Wide Web Consortium (w3c). E recenti esempi di successo di software copyleft come quelli del sistema operativo Linux e del server http (hyper text transfer protocol) Apache dovrebbero attenuare la diffidenza attorno a questa modalità di accesso alle conoscenze codificate. Tra laltro, il ciclo di vita del software tende a diventare sempre più breve. Tutelarlo con una strategia copyright rigida e protratta nel tempo non sembra avere molto senso, anche in considerazione del fatto che la profittabilità di un prodotto software è di regola alta subito dopo la sua immissione sul mercato, ma rapidamente decrescente nel periodo successivo (Forrest, 2003).
Imparare dagli Usa?
L’esperienza Usa non sembra d’altra parte un modello da imitare. In un recente libro, due tra i massimi studiosi statunitensi di economia dell’innovazione, Adam Jaffe e Josh Lerner, sostengono che il sistema americano di tutela della proprietà intellettuale tramite i brevetti è andato in crisi proprio a partire dalla prima metà degli anni Ottanta.
Le cause sono l’introduzione di una Corte d’Appello centralizzata (Cafc) che ha unificato e potenziato il trattamento giudiziario dei diritti brevettuali, e la trasformazione dell’ufficio brevettuale (Uspto) in agenzia di servizi i cui costi di mantenimento sono pagati attraverso le fees dei “clienti” (i patent applicants, coloro che presentano domanda di concessione di brevetto), anziché dal governo federale. L’orientamento pregiudizialmente favorevole della Cafc nei confronti dei titolari di brevetto (“patent holders”) e la trasformazione dello Uspto in una struttura di servizio dei “patent applicants”, ha determinato una autentica esplosione dell’attività brevettale, cresciuta tra il 1982 e il 2002 al ritmo medio del 5,7 per cento lanno, contro l1 per cento medio annuo del periodo 1930-1982. Accompagnata, però, da una crescita esponenziale nel numero dei contenziosi giudiziari, da una sostanziale perdita di rigore nelle procedure di valutazione delle domande e di attribuzione dei brevetti da parte dello Uspto, nonché da un aumento dei costi di transazione per l’acquisto e la cessione di licenze sui brevetti. Oltre tutto, la proliferazione di brevetti di scarsa o nessuna rilevanza tecnologica e i costi sempre più elevati di difesa dei brevetti in sede giudiziale, non hanno portato all’incremento sperato nella realizzazione di innovazioni di prodotto.
Cosa fare in Europa
Naturalmente, occorre valutare con estrema cautela se una politica tradizionale – di impostazione copyright – sia preferibile all’esplorazione di politiche nuove – di ispirazione copyleft. Oltre a suggerire un ripensamento della normativa sulla brevettabilità del software, il dibattito europeo dovrebbe investire lintero sistema di tutela della proprietà intellettuale. Gli strumenti per la “tutela della proprietà intellettuale” e quelli per la formazione di “commons” di conoscenza servono lo stesso duplice scopo: incentivare l’attività innovativa e favorire la circolazione dei suoi risultati. L’esperienza delle economie industriali induce a considerare i primi come i più adatti a promuovere gli investimenti privati in ricerca & sviluppo, perché consentono una esplorazione sistematica e ordinata delle prospettive aperte da una invenzione primaria. I secondi sembrano invece i più adatti a favorire la ricerca di base, svolta o finanziata da fondazioni ed enti pubblici, le università in testa.
Se lEuropa riuscisse a coniugare il regime di tutela e riconoscimento dell’innovazione nel suo complesso con politiche ispirate a esperienze copyleft, potrebbe gettare le basi per lo sviluppo di un meccanismo incentivante originale e capace di indurre individui e imprese a scegliere strategie di innovazione aperte. Sarebbe uno strumento di recupero di competitività e di rilancio nel cammino verso un’economia basata sulla conoscenza, lobiettivo prioritario individuato dal Consiglio europeo di Lisbona nel marzo 2000.
Per saperne di più
Sulle recenti tendenze negli Usa e in Europa abbiamo citato:
Jaffe, Adam J e Josh Lerner (2004), Innovation and Its Discontents, Princeton e Oxford, Princeton University Press.
Forrest, Heather (2003), “Europe: Open Market … Open Source?”, Duke Law & Technology Review, http://www.law.duke.edu/journals/dltr/articles/2003dltr0028.html
Per quanto riguarda il “copyleft”, rinviamo alle pagine web delle più importanti istituzioni di governo di “knowledge commons”, la Free Software Foundation (http://www.fsf.org/), la Open Source Initiative (http://www.opensource.org/) e il Creative Commons (http://creativecommons.org/).
Un’introduzione tecnica ma accessibile al problema della circolazione delle conoscenze codificate è contenuta in:
Quah, Danny (2004), “Digital Goods and the New Economy”, Centre for Economic Policy Research, Discussion Paper Series No. 3846,
Un’utile risorsa bibliografica per il lettore economista si può trovare al seguente indirizzo:
http://www.dklevine.com/general/intellectual/intellectual.htm
La pubblica amministrazione ha difficoltà a utilizzare le tecnologie con efficienza e efficacia. Lo dimostra la limitata diffusione di software open source. Per non aggravare i ritardi già accumulati servono scelte precise e un sistema di incentivi e disincentivi per realizzarle. E si potrebbe così rivitalizzare lindustria italiana del software.
Perchè la PA diffida di Apache
Lucio Picci
Il 63 per cento nel mondo, ma solo il 38 per cento nell‘amministrazione pubblica italiana: questo il confronto della diffusione di un importante software open source (Os), il server web “Apache“, il programma che permette di far funzionare i siti web (compreso quello de “lavoce.info“). (1) Sono necessarie politiche precise per colmare questa distanza, che è un sintomo della difficoltà dell‘amministrazione italiana a utilizzare le tecnologie con efficacia ed efficienza. Da un punto di vista pratico, e con qualche approssimazione, la differenza tra software “proprietario“ e Os consiste nel fatto che nel primo caso, di solito dopo il pagamento di una licenza d‘uso, l‘utente può “eseguire“ il programma, ma non vede come è stato scritto e non può modificarlo, mentre il software open source può essere modificato e ulteriormente distribuito, ed è gratuito.
Non sempre vince il migliore
La scelta tra software proprietario (come quello prodotto da Microsoft) e Os non è ovvia. È importante considerare la presenza di “effetti di rete“, che si hanno quando il beneficio del possesso di un prodotto dipende positivamente dal numero di consumatori che già ne dispongono. Come telefono o fax, anche il software è tanto più utile quanto più è diffuso. Per questo è difficile contrastare un prodotto che gode di un mercato ampio anche quando si dispone di una tecnologia più vanzata: nelle industrie in cui vi sono effetti di rete, non sempre vince il migliore. Ed è questo il vantaggio di cui godono i prodotti Microsoft nel mercato del software per la “produttività di ufficio“ (videoscrittura e fogli di calcolo, per esempio): abbandonarli significa anche rinunciare all‘estrema comodità con cui si scambiano per e-mail documenti in un formato che è divenuto uno standard de facto, oltre che alla consulenza gratuita dei vicini di scrivania.
Nel mercato “lato server“, come nel caso del server web Apache, la situazione è diversa. Per esempio, Apache è dominante, gratuito, eccellente, ben documentato e utilizza un sistema operativo, Unix, disponibile (anche) a titolo gratuito, secondo molti migliore del concorrente Microsoft. Al di là di una generale avversione per il software che non proviene da un produttore importante, con la relativa deresponsabilizzazione dei tecnici che comporta una tale attitudine, vi sono dunque poche ragioni per non adottarlo: la ridotta diffusione di Apache nell‘amministrazione pubblica indica una scarsa propensione ad avvalersi di soluzioni tecnologiche efficaci ed efficienti.
Dalla commissione le consuete raccomandazioni
Il Governo dovrebbe riflettere. Il ministro dell‘Innovazione, Lucio Stanca, istituì lo scorso novembre una commissione sul software Os che ha da poco terminato i suoi lavori. Senza prendere posizione precisa, e cercando di accontentare un po’ tutti, la commissione propone l‘usuale armamentario: qualche misura concreta, qualche risorsa, ma soprattutto raccomandazioni assortite, il più delle volte senza occuparsi degli incentivi e disincentivi perchè queste non rimangano sulla carta. Invece, trascura completamente il fatto che la scelta di una tecnologia di rete non è analizzabile al livello del singolo utente, ma deve tenere conto degli effetti che abbiamo indicato e del conseguente problema del coordinamento delle scelte individuali. Esiste un‘ampia letteratura scientifica su questo tema, e Stanca avrebbe fatto bene a non affidarsi soltanto, o prevalentemente, a (ingegneri) informatici, le cui competenze sono altre.
È
tempo di decisioniNei fatti se non nelle intenzioni, le commissioni dagli esiti ecumenici, molto spesso servono per non decidere, o per decidere di non fare nulla. Per il software Os, con i ritardi già accumulati e dopo decenni di decadenza dell‘industria italiana del software, sono invece necessarie iniziative, magari di portata ridotta, ma concrete.
Un obiettivo ragionevole consiste nel promuovere il software Os “lato server“, dove gli effetti di rete non sono avversi. Servirebbe un misto di prescrizioni e di incentivi verso quei tecnici e quelle amministrazioni che si comportano virtuosamente, e un servizio di consulenza e di formazione, all‘interno di strutture già presenti, che permetta ai tecnici di adeguarsi e renda ingiustificabili le eventuali resistenze. Si otterrebbero risparmi, si incoraggerebbe l‘utilizzo di tecnologie avanzate, si creerebbe un primo presupposto per un maggiore controllo delle tecnologie e si valorizzerebbero le competenze tecniche migliori dentro l‘amministrazione. Esistono però obiettivi più ambiziosi, che il Governo farebbe bene a considerare con attenzione maggiore di quanto non abbia fatto sino ad ora, e senza timore reverenziale verso Microsoft. L‘amministrazione pubblica spende per il software circa 700 milioni di euro all‘anno. C’è spazio per una politica che promuova l‘insieme della produzione Os, tanto più che uno spostamento della domanda dell‘amministrazione pubblica sarebbe di grande beneficio per l‘industria italiana del software, in un certo senso la reinventerebbe. Ma sarebbero necessari interventi veramente incisivi e una notevole capacità di gestire una strategia coraggiosa e innovativa.
Il primo, più modesto, obiettivo, può essere considerato intermedio rispetto al secondo: l‘analisi dei primi risultati ottenuti potrebbe servire per decidere se allungare il passo.
In ogni caso, però, il Governo dovrebbe dichiarare che cosa vuole fare e con quali strumenti. Tenendo presente che le scelte, o le non scelte, del passato, hanno già danneggiato la diffusione del software Os nell’amministrazione pubblica.
(1) I dati derivano da una rilevazione realizzata presso il corso di laurea in Economia di Internet dell‘Università di Bologna, e si riferiscono a un campione di siti dei soli comuni, province e regioni. Oltre alla diffusione del server web Apache, essi mostrano la diffusione degli analoghi prodotti Microsoft, utilizzati nel 58 per cento dei casi, contro il 27 per cento a livello mondiale (il confronto mondiale è reso possibile dalla rilevazione di Netcraft).
Il rischio di bocciatura dell’Irap da parte della Corte di Giustizia Europea, per quanto immotivato dal punto di vista giuridico ed economico, ha riportato alla ribalta il dibattito su come sostituire la terza imposta del nostro ordinamento.
Fra le opzioni che sono discusse negli articoli che seguono, alcune puntano a preservare le caratteristiche dell’Irap (ipotesi dello “spacchettamento”), altre considerano imposte alternative, sui redditi o sui consumi. Fra queste, assumono particolare interesse quelle che garantiscano autonomia impositiva alle regioni, e sono meno sperequate sul territorio. Su un tema così delicato è comunque fondamentale evitare l’improvvisazione.
E’ stato un anno difficile per i servizi pubblici italiani, e lavoce.info ha cercato di mettere in luce alcuni aspetti critici. Soprattutto la telefonia sembra ancora un mercato ove la concorrenza stenta molto a funzionare, checché ne dica l’impresa dominante… Mentre i trasporti vivono momenti difficili, sia per quanto riguarda il punto di vista deiconsumatori, sia per la crisi pesante di Alitalia, che abbiamo analizzato sotto tanti punti di vista, senza pretendere di “dare una risposta” ma, speriamo, offrendo alcuni elementi di riflessione.
Si parla di impoverimento continuo, di difficoltà delle famiglie ad arrivare alla fine del mese; temi più che rilevanti e preoccupazioni rispettabili. Spesso si incolpa
L’orientamento al mercato
La questione è particolarmente spinosa, poiché da diversi anni a questa parte si è assistito a un processo di graduale liberalizzazione o quanto meno “orientamento al mercato” di molti servizi pubblici. Questa tendenza ha avuto realizzazioni ed effetti diversi nelle diverse utility.
Nella telefonia, ormai siamo di fronte a un mercato dalla parvenze concorrenziali, anche se dominato dal vecchio monopolista. In ogni caso, è un mercato con dinamiche proprie e in forte evoluzione, tanto da meritare un’analisi a parte.
Nel settore idrico, la riforma del 1994 (la “Legge Galli”) ha lentamente portato a superare la frammentazione dei servizi forniti nel territorio, così che quasi in ogni provincia si sta gradualmente giungendo ad avere un unico fornitore di tutti i servizi (acquedotto, fognatura e depurazione).
Liberalizzazione certo non è un’espressione pertinente a descrivere quanto avviene, ma “orientamento al mercato” sì: i sussidi pubblici non sono più accettati, e anzi il prezzo dell’acqua deve salire per coprire il costo dei pesanti investimenti necessari (1) e per incentivare il risparmio idrico a favore delle generazioni future.
Parimenti, nei settori dell’energia, il processo di orientamento al mercato si caratterizza per una maggiore attenzione alla copertura dei costi del servizio attraverso la tariffazione e per una maggiore trasparenza delle tariffe stesse. Qui, tale processo ha toccato soprattutto il segmento all’ingrosso (si pensi ad esempio alla borsa elettrica) ma, comunque, è sempre poca la concorrenza indotta: restano, infatti, posizioni di enorme potere di mercato da parte di Eni ed Enel.
D’altro canto, è anche vero che i conti delle imprese di questi settori, ormai tutte sul mercato azionario, devono rispettare criteri di mercato.
E l’impatto sulle famiglie
Come ha inciso questo processo di riforma sul budget delle famiglie italiane? I cosiddetti “problemi di sostenibilità” nel consumo delle utility di base sono aumentati o diminuiti? Analizzare i dati Istat sui consumi delle famiglie consente di mettere in luce alcuni aspetti di rilievo. (2)
Tra le tre utility “di base” qui considerate, il metano e gli altri combustibili per riscaldamento sono quelle per cui si spende di più: in media circa il 5-6 per cento del reddito delle famiglie italiane. Non gran che, ma tale ammontare varia parecchio da Regione a Regione, in considerazione di vari elementi che determinano effetti contrastanti (tabella 1).
Da un lato, il Nord è più ricco, ma è anche più freddo, e questo richiede maggiori spese per il riscaldamento (non a caso, in Sicilia la spesa per riscaldamento è minima
). Dall’altro, mentre i prezzi dell’elettricità sono uguali su tutto il territorio, quelli del gas e quelli dell’acqua presentano differenze a volte colossali (e non sempre comprensibili). Ad esempio, perché per riscaldarsi una famiglia dell’Emilia Romagna paga il 14 per cento più di una famiglia piemontese? Non certo perché in Piemonte fa più caldo. Si tratta quasi certamente di differenze di prezzo sulle quali occorrerà riflettere meglio.
Anche se si guarda alla percentuale del reddito che si spende per questi servizi, le differenze non riflettono la classica dicotomia Nord-Sud. La Regione ove in media si spende meno (il 4,6 per cento della spesa) è la Sicilia, probabilmente per ragioni climatiche. Quelle ove si spende di più, Basilicata e Calabria (6,6 e 6,9 per cento della spesa): qui il reddito basso non è neppure compensato da condizioni climatiche sempre favorevoli.
Povertà e servizi di base
Tutto questo assume un rilievo particolare quando l’attenzione si concentra sulle fasce più deboli. L’analisi a questo punto si scontra con un limite oggettivo. In Italia non si è mai costruito un indice sulla cui base definire date le condizioni climatiche delle diverse zone del paese quanta energia e quanta acqua dovrebbe consumare una famiglia per condurre una vita, non diciamo agiata, ma almeno sana. Quindi, manca un parametro oggettivo che ci sappia dire cosa significa “povertà” – in senso assoluto – con riferimento al consumo di questi servizi di base (ad esempio, quella che in Gran Bretagna si chiama “fuel poverty”).
A partire dalle informazioni contenute nell’indagine Istat sui consumi delle famiglie è comunque possibile individuare un livello minimo di consumi in utility al di sotto del quale si può parlare di “esclusione sociale”, e valutare che una famiglia incontri problemi di sostenibilità se per assicurarsi questi standard minimi di consumi deve spendere una quota considerata eccessiva del proprio reddito
Seguendo questa logica, si scopre che una quota tra l’11 e il 15 per cento delle famiglie italiane si trova a spendere per il paniere minimo considerato più di questa soglia ovvero ha problemi di sostenibilità della spesa nei servizi di base almeno per una delle tre utility. Questa percentuale è più alta in alcune delle Regioni tradizionalmente povere (Molise, Basilicata, Calabria), ma anche Regioni quali Piemonte o Friuli più ricche, ma anche più fredde mostrano tensioni da non trascurare.
Il processo di liberalizzazione ha acuito il problema? Per questi settori, la risposta per ora sembra essere negativa. La quota di famiglie “sotto stress” non cresce, anzi sembra diminuire. E in realtà se si guarda alla dinamica dei prezzi (figura 1) si vede come gas ed elettricità abbiano una dinamica dei prezzi in linea con l’indice generale dell’inflazione: nonostante l’aumento del petrolio, l’operare dell’Autorità per l’energia almeno fino al 2003 ha saputo proteggere i consumatori.
D’altra parte, i prezzi dell’acqua sono esplosi: +33 per cento dal 1997 al 2003 in termini nominali, circa 15 per cento sopra il tasso di inflazione. E questo è purtroppo solo l’inizio, stanti gli investimenti ingenti che attendono il settore idrico nei prossimi anni. Poiché elettricità e riscaldamento pesano di più nei bilanci familiari, questo significa che in media i consumatori che spendono una quota troppo elevata della loro spesa nelle utility di base sembra diminuire, proprio a partire dal 2001.
Possiamo fare previsioni sul futuro immediato? Sul fronte idrico, le tariffe continueranno a crescere, e su quello energetico presto o tardi le tariffe risentiranno dell’aumento del prezzo del petrolio. E non è certo che le Autorità locali preposte al servizio idrico integrato riusciranno a concordare opportune articolazioni tariffarie con i rispettivi gestori, né che a livello nazionale, per gas ed elettricità – l’attuale Autorità dell’energia sarà in grado di proteggere i consumatori come quella precedente, guidata da Pippo Ranci.
Per ora, in termini di tariffe, le riforme in queste utility sembrano avere funzionato in modo imperfetto, ma almeno ragionevole.
(1) Si stimano pari a 51 miliardi di euro nell’arco di ventisei anni, di cui circa il 45 per cento per acquedotti e il 55 per cento per fognatura e depurazione, (Comitato Risorse Idriche, Relazione al Parlamento sullo Stato dei Servizi Idrici, 2003)
(2) R. Miniaci, C. Scarpa e P. Valbonesi (2004), Restructuring Italian utility markets: household distributional effects.
La liberalizzazione ha trasformato profondamente il settore delle telecomunicazioni, che oggi opera in regime di concorrenza, anche se imperfetta. Un’analisi difficile Effettuare tale analisi è assai arduo. I servizi sono molto differenziati tra loro (chiamate urbane, nazionali e internazionali, le chiamate fisso-mobile, accesso a internet), spesso le tariffe variano con le fascia oraria, e il dedalo delle offerte (con parti fisse o variabili, sconti, offerte speciali e quant’altro), soprattutto nella telefonia mobile, complica ulteriormente la situazione. L’andamento delle tariffe nel fisso
In tabella 1 sono riportati i valori dei canoni mensili dal 1998 al 2003. (1) Un discorso a parte merita il settore della telefonia mobile. Come già detto, i prezzi in questo settore sono particolarmente difficili da analizzare, stante i pochi dati a disposizione. In assenza di un vero e proprio prezzo di riferimento, si può usare come approssimazione il ricavo medio per abbonato (figura 1). Dai dati emerge come esso si sia ridotto nel tempo di circa il 50 per cento, ma anche come dal 2000 a oggi la discesa di questo valore si sia pressoché fermata. Dove sono i benefici per il consumatore Se è vero che non si è qui tenuto conto delle molteplici offerte presenti oggi in Italia, è altresì vero che non si hanno dati certi circa il loro utilizzo nelle famiglie italiane. Quindi, la nostra analisi può considerarsi una proxy del consumatore medio italiano che non necessariamente utilizza offerte speciali. (2) In capo a Telecom Italia vi è l’obbligo di fornire il cosiddetto “servizio universale”, che consiste nell’assicurare l’accesso e l’erogazione di un livello minimo di servizi a tutti gli utenti che ne facciano richiesta, a un prezzo ragionevole e a prescindere dalla loro ubicazione geografica. Storicamente questi costi venivano coperti tramite sussidi incrociati, ossia praticando tariffe superiori ai costi per alcuni servizi (chiamate interurbane e internazionali) e tariffe più basse sui servizi di base. Questo poteva essere sostenibile con un solo operatore, ma con la liberalizzazione alcuni concorrenti sono entrati soprattutto ove i margini di guadagno erano più elevati, e il regolatore è allora dovuto intervenire, attuando il cosiddetto “ribilanciamento” tariffario che ha significato riallineare i prezzi ai costi dei singoli servizi, e anche aumentare il canone. Per maggiori dettagli si rimanda a Cambini, Ravazzi e Valletti, Il mercato delle telecomunicazioni, Il Mulino, 2003.
In attesa che l’Autorità per le garanzie nelle comunicazioni renda pubblica la sua analisi di mercato e quindi ci dica se esistono eventuali problemi a cui porre rimedio, cerchiamo di valutare l’impatto che la liberalizzazione ha avuto dal 1998 a oggi sulle tariffe telefoniche e quindi sul consumatore.
Possiamo però dire qualcosa di più preciso sui servizi voce tradizionali (telefonia fissa) e sui ricavi medi per abbonato nel caso della telefonia mobile. Sono i segmenti più tradizionali, ma forse quelli più delicati per valutare se e quanto i piccoli consumatori abbiano beneficiato dalla liberalizzazione.
Ne emerge che a seguito del ribilanciamento tariffario (2) i canoni medi sono aumentati di circa il 20 per cento in cinque anni, con un aumento in termini nominali del 44,2 per cento per il canone residenziale e del 13,8 per cento per quello affari (per il periodo 2000 2004).
Questo pesa soprattutto per le famiglie, per le quali il canone costituisce oggi in media circa il 40 per cento della spesa complessiva, mentre per l’utenza affari incide solo per circa il 18 per cento.
Il peso sempre più rilevante del canone è bene evidente anche nei ricavi di Telecom Italia: dal 2003 i ricavi fissi da canone (pari a 7.870 milioni di euro) hanno superato quelli da traffico (7.116 milioni di euro).
I costi variabili (per minuto) sono invece calati. I prezzi delle chiamate urbane (tabella 2) sono rimasti costanti in termini nominali e quindi si sono ridotti in termini reali, restando per altro sempre inferiori alla media Ue. Sia per le chiamate a lunga distanza (tabella 3) sia per quelle internazionali (tabella 4), i prezzi hanno avuto una consistente riduzione in termini nominali, pur restando in entrambi i casi ben al di sopra della media europea.
In media, quindi, la riduzione delle tariffe per il traffico voce in Italia è stata circa pari al 50 per cento, non distante peraltro dalla riduzione che hanno avuto le tariffe all’ingrosso (- 45 per cento circa) che gli operatori alternativi devono pagare a Telecom Italia per l’accesso alle sue reti.
E nel mobile
Un tale andamento è legato all’esplosione nell’utilizzo del cellulare sia per le chiamate sia per i servizi dati (sms soprattutto) che ha permesso agli operatori di mantenere stabili i propri ricavi per abbonato. Proprio per il fatto che l’Italia è uno dei primi paesi europei per numero degli sms inviati, gli operatori mobili, invece di abbassare i prezzi unitari delle chiamate o guerreggiare su tariffe al minuto più basse, si sono concentrati sull’offerta di pacchetti di servizi sempre più articolati basati sulla possibilità di inviare centinaia di messaggi gratuiti a fronte di un costo fisso.
Il risultato è di rendere il sistema tariffario ancor meno trasparente di quanto poteva esserlo prima, ma questa è un’altra storia.
Se in prima battuta ci si aspettava che la liberalizzazione avrebbe dato ai consumatori finali ampi benefici, forse è bene ricrederci, almeno in parte. Pur nei limiti dei dati disponibili, possiamo infatti concludere che i prezzi unitari dei servizi di telefonia si sono ridotti, ma l’aumento della spesa per il canone fisso è tale da assorbire buona parte di questi benefici.
Nelle stime effettuate da Eurostat ciò è evidenziato in modo significativo.
Considerando un paniere di spesa dei servizi telefonici in modo aggregato – fisso (canone + chiamate) + mobile, utenza residenziale e business -, si può osservare come dal gennaio 1996 al gennaio 2004 l’indice dei prezzi in Italia si è ridotto solamente di 10 punti percentuali in termini reali (si veda LINK BERARDI), molto meno di quanto si è verificato in Francia e Germania, paesi in cui il processo di liberalizzazione è partito allo stesso momento dell’Italia. E non solo: particolarmente preoccupante è il fatto che tale indice sia rimasto pressoché costante dal 2002 a oggi. Che ciò sia dovuto alla presenza di competitori più efficienti o a una regolazione più rigida di quella italiana è difficile da dire. Senza dubbio, ciò mostra che in Italia molto ancora si può e si deve fare per garantire maggiori benefici ai consumatori finali.
(1) Tutti i dati sono stati ripresi dai “Report on the implementation of the Telecommunications Regulatory Package” della Commissione europea pubblicati tra il 1999 e il 2004.
È difficile compiere una valutazione accurata delle prospettive di Alitalia dopo l’accordo con i sindacati. Molti punti cruciali del piano industriale sono ancora poco noti e pende il giudizio della Commissione europea sul riassetto societario e finanziario complessivo del gruppo, in particolare dopo la recente “segnalazione” da parte di otto compagnie concorrenti, secondo le quali il piano sarebbe sorretto da aiuti di Stato. I vincoli della Commissione La Commissione europea aveva condizionato l’autorizzazione all’erogazione del prestito-ponte di 400 milioni di euro (garantito dallo Stato) al varo di un piano credibile per riportare la compagnia in utile dopo dieci anni di bilanci in rosso. Inoltre, aveva vietato ad Alitalia (se si fosse salvata) di accrescere la sua flotta per qualche anno, in modo che non potesse utilizzare i fondi del prestito ponte per potenziare la sua capacità concorrenziale nei confronti delle altre compagnie europee. Allo stesso tempo, la Commissione aveva vincolato l’autorizzazione alla ricapitalizzazione di Alitalia alla riduzione della quota dello Stato nella compagine azionaria al di sotto del 50 per cento. Gli accordi con i sindacati e la parte del Governo La credibilità a breve termine del piano stava quasi tutta nella capacità della compagnia di ridurre il personale (che nei due anni precedenti era cresciuto, nonostante i risultati sempre più negativi) e il costo del lavoro per unità di prodotto, che era il più alto in Europa. (1) Perciò, nella trattativa coi sindacati, l’azienda aveva posto un obiettivo di 5mila esuberi, ma è riuscita a ottenerne soltanto 3.700. Inoltre, aveva chiesto e ottenuto l’azzeramento dei vecchi contratti di lavoro e l’accordo per contratti meno onerosi, con stipendi legati al lavoro effettivo prestato (ore volate, eccetera). Altro punto fondamentale era, per l’azienda, la separazione dei destini della compagnia di volo (AZ Fly) dalle attività di servizio a terra (manutenzione, handling aeroportuale, servizi di informatica, call center e così via), in cui si annidava una parte consistente delle perdite e che dovevano confluire nell’azienda AZ Service. Riassetto societario o aiuti di Stato? Molti dubbi solleva il riassetto societario previsto dagli accordi. Il controllo azionario di AZ Service da parte di AZ Fly (preteso e ottenuto dai sindacati) può indurre a sospettare che non venga reciso il cordone ombelicale tra le due aziende e che, quindi, AZ Fly continui ad “acquistare” servizi inefficienti e a costi superiori a quelli di mercato da AZ Service o che, invece, AZ Service fornisca i suoi servizi sottocosto, sobbarcandosi passivi ingenti. (2) Gli slot, infatti, non vengono messi all’asta ma sono assegnati in base alla regola dei grandfather rights. Questi diritti hanno dunque un valore di mercato proporzionale ai profitti ottenibili sui voli che possono essere fatti grazie a quegli slot.
Un a volta raggiunto l’accordo con i sindacati, il Governo decideva di accordare ai lavoratori in esubero di Alitalia, così come ai loro eventuali colleghi di altre compagnie aeree, l’accesso alla cassa integrazione guadagni, integrata con un fondo speciale per portare i sussidi erogati all’80 per cento dello stipendio. Tale fondo dovrebbe venir alimentato con una piccola “tassa” (circa 1 euro) sui biglietti aerei.
La riduzione degli esuberi rispetto alle richieste dell’azienda può avere diverse letture. Resta comunque il fatto che i minori esuberi implicano una minor riduzione dei costi rispetto al desiderato e quindi per far tornare i conti – la necessità di un maggior incremento dei ricavi. Cosa quest’ultima che implica una riconquista di quote di mercato non facile da ottenere nel quadro fortemente competitivo che si va affermando sulle rotte europee, grazie soprattutto alla presenza aggressiva delle compagnie low cost. Le prospettate alleanze di AZ Fly con altri vettori italiani, però, potrebbero semplicemente tradursi in un aumento del “grado di monopolio” sulle rotte nazionali, ovviamente a danno dei consumatori.
Quanto al nuovo sistema retributivo concordato con i sindacati, sembra di poter dire che esso rappresenti un effettivo passo in avanti verso un assetto sostenibile tanto sotto il profilo dei costi quanto sotto quello della produttività, anche se non è possibile affermare sulla base delle informazioni disponibili in questo momento – che si tratti di un passo decisivo o anche solo sufficiente.
Per la prima volta si è deciso di offrire ammortizzatori sociali estesi a un intero comparto e non limitati all’azienda in crisi. È una novità importante. Tuttavia, la concessione del fondo integrativo appare un pericoloso precedente, soprattutto in quanto destinato a categorie di lavoratori tradizionalmente alquanto privilegiate. La vicenda, inoltre, ripropone l’esigenza di prevedere non nel mezzo di una crisi aziendale o settoriale – un sistema di ammortizzatori sociali equo e generalizzato a tutti i lavoratori.
Non chiaro appare il ruolo attribuito nel piano a Fintecna, che dovrebbe rilevare una quota rilevante (se non addirittura il 49 per cento) del capitale ordinario di AZ Service (e il 100 per cento del capitale “privilegiato”). Perché dovrebbe farlo? E a quale prezzo per ogni azione? Allo stato degli atti non pare che, per Fintecna, un simile acquisto possa costituire un obiettivo strategico. Qualora Fintecna acquisti le azioni di AZ Service solo perché l’azionista di riferimento di Fintecna stessa (cioè il Tesoro) lo impone, e a un prezzo molto più alto di quello di mercato, l’operazione potrebbe configurarsi come una mascheratura di aiuti di Stato. Che potrebbero configurarsi anche se ad AZ Service venisse attribuita una quota molto grande dei debiti pregressi di Alitalia. Ma qui conviene sospendere il giudizio, in attesa di maggiori informazioni sulla natura dell’operazione e del pronunciamento della Commissione europea.
La segnalazione alla Commissione da parte di otto compagnie europee è un segno inequivocabile dell’interesse con cui la vicenda Alitalia è seguita dai concorrenti. È anche un segnale (positivo) che il grado di collusione nel settore si è ridotto (un atteggiamento simile sarebbe impensabile nel settore ferroviario, per esempio).
D’altra parte, date le regole vigenti, i concorrenti possono sempre sperare che il mancato salvataggio di Alitalia sia seguito dalla cessione dell’azienda per un valore pari a quello degli unici asset realmente interessanti che possiede: gli slot aeroportuali e la “designazione” per le rotte intercontinentali più ricche (cioè soprattutto quelle transatlantiche). (2)
Alitalia non è più da tempo un monopolista in Italia, ma detiene pur sempre il 43 per cento del mercato nazionale (aveva il 66 per cento solo nel 2001) e il 22 per cento circa dei voli tra l’Italia e le altre città europee, ma soprattutto è ancora il duopolista leader sulla rotta Milano-Roma, una delle più ricche del continente.
Chi “ereditasse” Alitalia non sarebbe meno ingombrante della vecchia compagnia di bandiera. D’altra parte, le compagnie denuncianti hanno non a caso fatto riferimento alla presenza di un eccesso di capacità nel mercato del trasporto aereo. Il che significa che la scomparsa di un concorrente potrebbe consentire di ridurre la capacità e alzare i prezzi, con improbabili vantaggi per i consumatori. Purché, naturalmente, il salvataggio di Alitalia non sia esso stesso distorsivo della concorrenza, e che il perdurare di una “compagnia di bandiera” in difficoltà non induca il Governo ad atteggiamenti anticoncorrenziali sia nelle scelte di riassetto interno del comparto sia nei confronti di Bruxelles.
(1) Il valore aggiunto per dipendente è passato da 64mila euro nel 1999 a 47mila nel 2003, a causa di una riduzione del valore aggiunto prodotto e di un aumento dei dipendenti da circa 19100 a oltre 20600.
La crisi Alitalia sembra ormai arrivata vicina ad una soluzione. Era chiaro a tutti che o si sarebbe trovato un accordo sul nuovo assetto della compagnia, o il fallimento sarebbe stata l’unica alternativa. E’ da molti mesi evidente come un’impresa che perde oltre un milione di Euro al giorno (
Sul Sole 24Ore del 18 maggio, Carlo De Benedetti osserva giustamente che la nazionalizzazione non può essere la soluzione dei problemi del trasporto aereo in Italia. Una tattica errata La strategia che De Benedetti indica, però, non convince e rischia di suggerire al Governo una tattica sbagliata nella ricerca delle risorse necessarie per risolvere la crisi di Alitalia. Un business plan che punti a rafforzare i collegamenti point-to-point in Europa e nel Mediterraneo, grosso modo sotto le tre ore, non è né necessario né sufficiente. Due esperienze di successo La strada per Alitalia passa necessariamente per la vendita di una quota significativa del capitale (diciamo il 30/40 per cento) a un operatore straniero, cui sia trasferita la gestione operativa del vettore. Emirates ha acquistato 40 per cento di Air Lanka, ribattezzata Srilankan, mentre Klm ha acquisito il 26 per cento di Kenya Airways. Credibilità da costruire L’esperienza di Kenya Airways e Srilankan contiene due messaggi che vale la pena trasmettere a chi ha a cuore l’avvenire di Alitalia. (1) “Il mercato richiede chiarezza”, Il Sole 24 Ore, 18 maggio
Non c’è bisogno di creare una nuova azienda sulle ceneri di Alitalia per permettere alla business community italiana e ai turisti stranieri di viaggiare. Per questo ci sono già i vettori stranieri e le low-cost, comprese quelle italiane che, come Volareweb, stanno già crescendo rapidamente.
Inoltre, a nessun vettore tradizionale, anche ove liberato degli oneri del servizio pubblico, è riuscita la transizione verso un modello di gestione a costi ridotti. Ma se anche questa strategia funzionasse, rischia di non essere sufficiente.
L’esperienza di compagnie europee e asiatiche (spesso pubbliche, come Air France, Emirates o Singapore Airlines) mostra chiaramente come il salto di qualità nei risultati aziendali richiede una strategia aggressiva di sviluppo a partire di un hub efficiente.
Con esso il Tesoro dovrà firmare un chiaro contratto che indichi gli obiettivi strategici: in altre parole, la visione che il Governo ha per la compagnia di bandiera. Non è ragionevole discutere della cessione di una quota di maggioranza: allo stato la compagnia non è un cespite interessante e, soprattutto, la regolamentazione del trasporto aereo internazionale condiziona la designazione di una compagnia nel quadro degli accordi bilaterali alla proprietà nazionale.
Gli esempi cui guardare non mancano, per una volta bisogna però avere l’umiltà di imparare da paesi ben più poveri dell’Italia.
Nel 1996 e 1997, rispettivamente, i governi del Kenya e dello Sri Lanka decisero che l’unica strada per arrestare l’inesorabile declino delle proprie compagnie aeree passava per un accordo con partner esteri disposti a investire risorse, non solo finanziarie, nella difficile missione di trasformare vettori locali privi di una strategia chiara in aerolinee capaci di crescere e sostenere lo sviluppo dell’industria e del turismo.
In ambedue i casi, l’investimento finanziario è stato relativamente modesto, anche perché gli introiti sono andati al fisco, non alla società.L’elemento cruciale è stato il contratto di gestione che ha chiaramente definito gli obiettivi e le responsabilità del nuovo partner.
Nel caso keniota, l’accordo indica come obiettivi aumentare i servizi tra l’Africa e il resto del mondo, condividere risorse, conseguire economie di scala e integrare Kenya Airways nelle alleanze che Klm sviluppa a livello globale. In cambio, Klm nomina i principali dirigenti, ma non la maggioranza del consiglio d’amministrazione, e ha il potere di veto sulle decisioni più importanti.
Anche in un contesto globale di crisi del trasporto aereo, le due compagnie hanno registrato tassi di crescita importanti conseguiti grazie alla razionalizzazione della flotta, alla massiccia introduzione di strumenti informatici per ottimizzare la struttura tariffaria, a una rete di rotte e frequenze capace di supportare lo sviluppo di Nairobi e Colombo come incipienti hub regionali. Il margine operativo lordo è migliorato, il numero di passeggeri e la quantità di merce trasportati sono moltiplicati e ambedue la compagnie accumulano i riconoscimenti internazionali.
Risultati tanto più sorprendenti se si ricorda che Kenya e Sri Lanka sono stati drammaticamente colpiti dall’instabilità politica attentati di Al Quaida a Nairobi e Mombasa, la guerra civile in Sri Lanka e la distruzione di aerei di Srilankan a opera dei terroristi Tamil. Ma ambedue le compagnie hanno ben letto i segnali del mercato. Ad esempio, dopo la conclusione di un accordo open skies con l’India, Srilankan serve quindici destinazioni in quel paese, con l’obiettivo di fare di Colombo un nuovo hub per collegare un mercato di un miliardo di persone con l’Asia e l’Europa.
Il primo, e più immediato, è che l’apertura a capitali esteri migliora la gestione con benefici reali, tra i quali l’aumento della forza lavoro rispetto all’epoca della proprietà pubblica. Non a caso, in ambedue i paesi le relazioni industriali sono ora significativamente migliori di quanto fossero quando la controparte del sindacato era il Governo.
Il secondo è che, in un settore come il trasporto aereo, per consentire questi risultati è necessario che il Governo sviluppi una strategia chiara e credibile. La credibilità si può costruire anche in contesti difficili come quelli di Kenya e Sri Lanka e non dipende necessariamente dalla continuità politica tant’è che in nessuno di questi paesi il Governo che firmò gli accordi con gli investitori stranieri è ancora al potere.
Ma ciò richiede visione e perseveranza nel non capitolare di fronte alle proteste, per esempio quelle che accompagneranno la necessaria scelta dell’unico hub nazionale. Questa è la politica industriale moderna di cui l’Alitalia e il paese avrebbero bisogno.
Malpensa e Alitalia: un rapporto turbolento
Malpensa è stato pensato e costruito come un grande hub. Uno scalo di questo tipo funziona se ricorrono, tra le altre, almeno tre condizioni:
La prima è che ci sia una compagnia aerea di riferimento. Alitalia è, nelle dichiarazioni, questa compagnia. Installata nell’hub di Fiumicino, la compagnia sostiene da anni di voler rafforzare Malpensa. Tuttavia, il personale Alitalia dislocato presso gli scali milanesi (centro di un bacino che vale circa il 70 per cento della domanda di trasporto aereo nazionale) si mantiene intorno a un irrisorio 6,6per cento (1.400 persone su 21.000) e non c’è traccia di progetto per l’installazione di una base di armamento a Malpensa.
Ora, è noto che nessuna compagnia aerea può puntare simultaneamente su due hub, meno che mai Alitalia. Il problema è che la lotta tra romani e milanesi per l’esclusività di Alitalia danneggia tutti, in primo luogo la compagnia aerea.
Una volta tramontata l’ipotesi di fusione con Klm infatti, che proprio in Malpensa trovò il motivo della progettata alleanza e la causa del suo fallimento, il rapporto speciale tra Alitalia e l’hub varesino è finito per sempre. Ed è interesse di tutte le parti in gioco considerarlo reciso una volta per tutte.
La questione di fondo è che in il trasferimento di Alitalia a Malpensa risulta semplicemente impossibile. A parte i costi in questo momento impensabili che la compagnia dovrebbe sopportare per il “trasloco”, Alitalia non lascerà Fiumicino perché è una società romana, nel bene e nel male legata a Roma e al suo milieu politico-economico.
Malpensa solo contro tutti
Una seconda condizione è che esista una serie di aeroporti serventi (Feeding). Si sa che Malpensa ha un nemico in casa: Linate. Un grande aeroporto riceve benefici dalla vicinanza di scali più piccoli a patto che sul primo si concentrino un’importante quantità di voli intercontinentali e che sia ben collegato, anche via terra, con i secondi.
Sotto il primo aspetto, Alitalia ha poche rotte intercontinentali (per di più spalmate tra Fiumicino e Malpensa) e con prezzi medi elevati. Inoltre, trasferire le rotte di Linate su Malpensa sarebbe possibile solo se il progetto incontrasse il consenso di tutto il paese. Ma questo non avverrà, in quanto il centro Sud (ovvero chi prende l’aereo e non il treno per raggiungere il Nord) preferisce (a ragione) volare su Linate, a soli 7 Km dal centro di Milano. Inoltre, i continui conflitti tra i soggetti politico-istituzionali milanesi e lombardi, con la Regione (esclusa dal capitale di Sea) decisamente propensa ad un depotenziamento di Linate e il Comune e la Provincia di Milano fieramente avversi, indeboliscono ulteriormente tale possibilità. Questi elementi, uniti alla questione infrastrutturale, spiegano il fatto che Linate (come altri aeroporti del Nord) funzioni spesso come vero feeding airport di hub europei diversi da Malpensa.
La terza condizione è poi un adeguato sviluppo delle infrastrutture e delle funzioni complementari di terra. Malpensa è sostanzialmente isolato dal suo territorio a causa della mancata attuazione dei piani esistenti per creare un sistema efficiente di infrastrutture stradali e ferroviarie. A questo si aggiunga il fatto che in prossimità dell’aeroporto non si è pienamente realizzato il necessario complesso di funzioni complementari e di supporto alle attività aeroportuali (accoglienza, logistica, ecc.).
Eppure, Malpensa beneficia di una localizzazione straordinaria per la prossimità al nodo di Milano (incrocio tra Corridoio V e Genova Rotterdam, e tra i bracci della grande “T” dell’Alta Velocità italiana) e al mega polo esterno della Fiera.
Inoltre, dal punto di vista tecnico e di pianificazione, esistono tutti gli elementi perché possa decollare lo sviluppo del territorio circostante l’aeroporto (Piano d’area Malpensa) e perché possano essere gradualmente realizzate tutte le infrastrutture di trasporto necessarie (verso Milano e Orio al Serio, il Gottardo e il Sempione, Torino e Genova).
Quale soluzione?
Appare chiaro che la soluzione di questi tre punti è intimamente legata. Solo scegliendo una compagnia di riferimento si potrà ottenere un coinvolgimento dei privati, capace di affiancare un attore pubblico che difficilmente potrà farsi carico interamente del finanziamento delle opere infrastrutturali sopra richiamate.
Non è nell’interesse di nessuno che Alitalia fallisca. E se la compagnia italiana riuscirà ad uscire dalla crisi attuale, sembra destinata a raggiungere l’alleanza franco-olandese. Tuttavia, tale prospettiva pone a Malpensa un problema. La geografia stessa indica infatti che, al di là delle intenzioni di Alitalia, Malpensa sarebbe fagocitato da Parigi Charles de Gaulle: troppo vicini i due aeroporti, troppo bassa la capacità di contrattazione di Alitalia, troppo sviluppato l’hub parigino. Chi si prende dunque il mercato aereo del Nord Italia?
Sulla base di un quadro di fondo così tratteggiato, è possibile ipotizzare schematicamente uno scenario di questo tipo:
– abbandono da parte di Malpensa del legame con Alitalia, in favore di un vettore non continentale e concorrente rispetto agli aeroporti di riferimento dell’alleanza Skyteam e Star Alliance, meglio se asiatico: Malpensa hub europeo di AirChina?
Inoltre:
– definizione del ruolo degli scali dell’Italia del Nord attraverso l’avvio di uno stretto coordinamento tra la Sea e i gestori aeroportuali favorevoli;
– blocco di ogni prospettiva di sviluppo dell’aeroporto di Montichiari come ulteriore hub intercontinentale del Nord e progressiva riduzione di Linate ad aeroporto regionale.
-privatizzazione di Sea, cautelandosi rispetto a acquisizioni da parte dei concorrenti. In presenza di conflitti endemici tra diversi livelli amministrativi e partitici la privatizzazione della Sea, costituisce l’unica via per impostare una strategia di sviluppo svincolata dagli umori politici del momento.
Nel bloccare il salvataggio di Alitalia se veramente è questa la sua intenzione Giulio Tremonti ha ragione; è un atto di serietà. Ma la storia di Alitalia è complessa, e non abbiamo ancora capito come può andare a finire. E occorre proporre qualche alternativa (anche se il “no” è già un buon punto di partenza). La storia di Alitalia, già raccontata anche su questo sito (vedi Ponti), è fatta di perdite che si cerca di tappare con provvedimenti di breve respiro e che ripetutamente la Commissione europea bolla come aiuti di Stato. E quando la società prova a mettere le mani a rimedi strutturali, montano gli scioperi e si cerca la soluzione politica. Ignorando che non c’è soluzione politica che possa consentire a un’impresa di stare su un mercato avendo costi superiori a quelli dei rivali, cambiando piani industriali ogni tre mesi, e fornendo un servizio di qualità ormai percepita dai consumatori come inferiore a quella degli altri. E Alitalia continua inesorabilmente a scivolare su una china in fondo alla quale non ci sono certo posti di lavoro. Quanto costa il servizio pubblico? Poco tempo fa, Mario Sebastiani su lavoce.info ha sottolineato come la privatizzazione totale di Alitalia sia l’unica strada per fare chiarezza, e la chiarezza è fondamentale se vogliamo riportare l’impresa sulla strada dell’equilibrio economico. Non facciamo previsioni
Anche se ritengo questa la soluzione (nel medio periodo) più sensata, non scommetterei un centesimo sul fatto che sarà quella prescelta. Tempo fa, Guido Rossi definiva il capitalismo italiano un capitalismo “straccione”. È vero. Ma è anche un capitalismo sempre assistito e politicizzato. Purtroppo questo è vero per Parmalat (che per anni ha cercato di tenersi in piedi con appoggi politici), per Retequattro (salvata dal satellite dalla legge Gasparri), per le piccole imprese (leggi allevatori e quote latte, o società di calcio). Ed è vero per l’industria pubblica (leggi Alitalia). Ma l’elenco potrebbe continuare. La chiarezza dei conti sembra essere un optional. E lo stesso Tremonti farà fatica a mantenere alta la guardia. Forse non è un caso che proprio un ministro della Lega (Roberto Maroni) preferisca un piano di salvataggio che mantiene l’attuale commistione tra mercato e servizio pubblico, che evita quindi la chiarezza, ma anche ad esempio di comunicare agli elettori del Nord quanto costa servire le zone meno avanzate del paese.
Da un lato, abbiamo rotte che “stanno in piedi da sole”, che sono redditizie e sulle quali Alitalia non avrebbe bisogno di particolari sussidi. Dall’altro, abbiamo rotte che invece vengono servite soprattutto, se non soltanto, per ragioni di equilibrio territoriale, per non isolare le periferie di questo complesso paese (le isole, ma non solo) dai suoi “centri”.
Se le prime possono essere lasciate al mercato, le seconde costituendo un servizio “sociale” dovrebbero essere invece pagate come gli altri servizi sociali di questo paese. Solo che questo richiede, intanto, di far sapere esplicitamente quanto costano, e poi di porre il problema di chi debba pagare per tale servizio. Potremmo magari scoprire che interessa una parte del territorio, ma non il resto. E in periodi di devolution, questi sono temi scottanti.
Si può lasciare Alitalia al mercato? Se si separa ciò che ha senso dal punto di vista della redditività dell’impresa da quanto invece è servizio pubblico, forse sì. O almeno, una volta effettuata tale separazione, se Alitalia dovesse affondare, le rotte non servite da Alitalia sarebbero comunque coperte da altre compagnie, che avrebbero a loro volta bisogno di lavoratori in più, e quindi non sarebbe un problema enorme. Se questa separazione avvenisse, sarebbe il mercato a dire se Alitalia merita di restare in vita, e il paese e i lavoratori andrebbero avanti comunque.
Se questa separazione non avviene, allora Alitalia resterà con un peso (il servizio pubblico in aree non redditizie) che rischia di affondare anche quanto di buono si annidasse in questo carrozzone. E continuiamo a vivere una contraddizione. Da un lato, mettiamo un’impresa nel mercato azionario; dall’altro continuiamo però a gravarla di obblighi simili al “servizio universale” a cui si assoggettano le imprese che vendono acqua, luce o gas, senza però dire chi dovrebbe pagare per tale obbligo. Peggio ancora, questo avviene in un settore che l’Unione europea (non solo la perfida Commissione) ha da tempo dichiarato aperto alla concorrenza, e ove gli aiuti di Stato non sono tollerati.
Come dicevo prima: occorre fare chiarezza. Occorre distinguere ciò che pertiene alla sfera del mercato, e ciò che invece pertiene alla sfera del servizio pubblico. Però per fare questo bisogna avere il coraggio di dire quanto costa servire le isole; quanto costa servire il Sud del paese, e magari convincere la Lega che probabilmente parte di questo deve essere pagato anche dal “Nord”.
Si fa un gran parlare di Alitalia, come se rappresentasse l’unico motivo di preoccupazione del nostro paese in campo aereo. Lo stesso “tavolo” di settore attivato mesi fa dal Governo, iniziativa lodevole in astratto, in definitiva sembra avere come destinatario vero la sola compagnia di bandiera. Ma tutte le compagnie aeree italiane se la passano molto male, troppo piccole per essere competitive. Lo stesso vale per gli operatori aeroportuali, privi di certezze sul loro status, spesso carenti di cultura imprenditoriale e in deficit di trasparenza verso compagnie aeree o passeggeri. Un paradosso italiano Se le difficoltà del settore oggi hanno dimensione mondiale, in Italia assumono un aspetto paradossale. Le potenzialità di crescita della domanda di trasporto aereo sono considerevolmente più elevate che altrove e, diversamente dagli altri aeroporti europei, quelli italiani hanno capacità in eccesso. Esiste dunque una domanda sommersa da sfruttare e infrastrutture sufficienti a sostenerla, per quanto poco efficienti; ma sembra non esistano compagnie nazionali in grado di cogliere questa opportunità. Ha avuto poco coraggio nel presidiare collegamenti in perdita, sottovalutando l’effetto domino, per cui se si abbandona un collegamento si finisce con il perdere traffico anche su altri. E forse c’è stata una certa mancanza di coraggio sul piano del costo del lavoro/sindacale, anche se questo va soprattutto attribuito ai condizionamenti politici. Le due cose hanno interagito, perché le opposizioni sindacali hanno tratto alimento anche dalla sensazione che gli esuberi fossero dovuti al ritirarsi progressivamente da una serie di mercati. Un caso emblematico E allora, perché cambiare cavallo proprio ora? Il motivo è lo stesso che ha decretato il declino della compagnia e del settore da quando la liberalizzazione ne ha rese evidenti le debolezze. Sotto questo profilo l’Alitalia è un caso emblematico dei molti conflitti di interesse che si annidano nei tanti ruoli che lo Stato si trova a svolgere. A cominciare dalla difficoltà di identificare l’azionista pubblico: teoricamente è il Tesoro che dovrebbe avere come obiettivo quello di massimizzare il valore dell’azienda. In realtà è il Governo, la cui collegialità costituisce la stanza di compensazione dei mille obiettivi che si pretende di assegnare alla compagnia. Fatto questo, le relazioni industriali rientrerebbero nella normale dialettica fra le parti sociali. La privatizzazione necessaria In questo contesto una parziale privatizzazione è inimmaginabile: come può esistere un soggetto privato serio (disposto a investire soldi veri) desideroso di entrare in società con lo Stato? Più fattibile una privatizzazione totale: le difficoltà industriali ed economiche della compagnia sono un rischio valutabile, che ovviamente andrebbe scontato dal prezzo, con conseguente sacrificio per l’azionista uscente. Con la privatizzazione sarebbe possibile attivare le alleanze, complemento essenziale per ogni ipotesi risanamento e di sviluppo. È questa la via da seguire anche sul mercato domestico, dove le altre compagnie sono destinate a scomparire se non si va verso una logica di integrazione. Appartiene dunque alla politica europea e nazionale ricercare un nuovo equilibrio fra istanze che appaiono contrapposte, inclusa l’armonizzazione delle discipline e delle prassi antitrust.
Alitalia rappresenta un problema nel problema: costi unitari più elevati, progressivo ritiro da una serie di collegamenti, perdita di quote di mercato su altri, con un circolo perverso attivato dalla tirannia dei costi fissi. E poi c’è Malpensa, hub senza speranze immediate, ma che obbliga la compagnia a dividere la già insufficiente massa critica di mezzi con Fiumicino.
A mio avviso, il management ha lavorato bene, anche se qualche errore lo ha commesso.
Ora il piano Alitalia sembrava andare nella direzione giusta. Nell’arco di un triennio, prevede di abbattere del 18 per cento i costi per posto offerto e di aumentare del 30 per cento la capacità, in parte consistente su collegamenti di lungo raggio. L’introduzione della cassa integrazione è un provvedimento salutare (lo sarebbe per l’intero settore dei trasporti) che può contribuire a sdrammatizzare nell’immediato le tensioni, anche se non risolve i problemi a lungo andare.
Da dieci anni il mercato su cui opera Alitalia è diventato contendibile, ma la società seguita a essere considerata come concessionaria di pubblico servizio, delegata a svolgere ruoli, come venditore e come acquirente di servizi, in nome e per conto dello Stato, entità che da noi è tradotta in “Governo”. Di qui la missione di massimizzare il consenso sociale e territoriale, in base al noto teorema per il quale una società di proprietà pubblica che genera tensioni sociali fa perdere voti nell’immediato, mentre non li fa guadagnare se è in utile, per lo meno non entro un orizzonte temporale rilevante.
E ci stupiamo se gli alleati europei pretendono che la società sia privatizzata prima di costituire un’alleanza? In generale la privatizzazione non è un toccasana, ma nel caso specifico porterebbe a due risultati essenziali:
· tracciare una chiara demarcazione fra i servizi che vanno svolti in regime di mercato (pagano i passeggeri) e quelli da sussidiare (paga la fiscalità generale). Se un’impresa ritiene non conveniente un servizio deve essere libera di sopprimerlo; se altri non subentrano spontaneamente interviene lo Stato con incentivi non discriminatori;
· attribuire alla politica il ruolo che le spetta: indicare le linee industriali del settore (non della compagnia);
E resterebbero distinte due figure che oggi si confondono: gli shareholders dagli stakeholders, posto che oggi gli italiani tutti si sentono azionisti; peggio, si sentono soci di un’associazione da cui pretendono servizi personalizzati.
Naturalmente questo suscita lo spauracchio della mano straniera, della compagnia di bandiera “non più” di bandiera. Per inciso, questo spauracchio è stato agitato anche per altri settori, e la giusta richiesta di reciprocità verso gli altri Stati non sembra essere stata dettata tanto dall’obiettivo di offrire alle nostre aziende le stesso opportunità all’estero che riconosciamo a quelle straniere, quanto dall’inclinazione ad attivare un processo di reciproca interdizione.
Sappiamo bene che su questa strada si va incontro ai rilievi delle Autorità antitrust, in particolare di quella italiana. Ma se è vero che il diritto della concorrenza deve assicurare il pluralismo, è anche vero che se si disconoscono le logiche industriali pluralismo e competitività verranno comunque meno, e con esse lo sviluppo e la tutela degli utenti.
Bisogna promuovere aggregazioni fra le compagnie (sostituire la concorrenza con la cooperazione) fino ad arrivare a pochi gruppi internazionali, ma al tempo stesso creare le condizioni per una concorrenza vera fra i gruppi.
Alitalia perde 50mila euro all’ora. Ma negli ultimi quindici anni ha visto pochi bilanci in attivo, e a volte solo grazie ad artifici contabili. Questo, anche negli anni in cui era monopolista, con tariffe molto alte. Una fotografia della situazione Quanto è costato agli italiani il monopolio in questi anni? Difficile fare i conti: ma poiché le tariffe “low cost” sono circa un terzo di quelle delle compagnie tradizionali, la stima dell’ordine di grandezza è possibile. E si immagini gli effetti sulla crescita complessiva del settore, e dell’occupazione (la domanda è molto elastica alle tariffe). Il settore rimane caratterizzato inoltre da costi elevati sia per i servizi aeroportuali (non liberalizzati nonostante i richiami della Commissione europea) che per quelli del controllo del traffico aereo, mai regolati in modo efficiente. Da notare che la dominanza della compagnia di bandiera (che detiene più del 50 per cento del mercato) genera “scioperi selvaggi”. Tali scioperi in un mercato concorrenziale farebbero rischiare il fallimento della compagnia che non riuscisse a evitarli. Una scelta di sviluppo Che fare ora, con una situazione così deteriorata? La privatizzazione, sempre annunciata e sempre rimandata, sembra indispensabile, per rimettere nella gestione obiettivi di efficienza, “allontanando” le interferenze politico-clientelari. Ma il problema più di fondo, da molti sollevato, è quale politica complessiva perseguire per il settore. In passato, in questo modo non si è generata né efficienza né capacità di competere. Perché dovrebbe accadere ora?
Con l’avvento di una (modesta e incompleta) liberalizzazione, le tariffe hanno iniziato a scendere, e la crisi, già nota e segnalata dagli studiosi del settore, è diventata “conclamata”.
Le cause più evidenti sono da ricercarsi nella bassa produttività del personale e dei mezzi, una politica tariffaria divenuta dinamica solo da poco, una flotta “arlecchino”, con moltissimi tipi di aereo, e alcune scelte incomprensibili (in particolare il trireattore MD11).
Rimangono, poi, importanti segmenti non liberalizzati: i voli intercontinentali e i diritti di atterraggio (“slots aeroportuali”) più redditizi, proprietà esclusiva della compagnie di bandiera. Senza tali protezioni pubbliche (assimilabili di fatto a sussidi), molte compagnie di bandiera sarebbero già uscite da tempo dal mercato, e non solo in Italia.
Nel caso di un produttore dominante paralizzano il paese, e quindi conferiscono un potere improprio per chi li promuove. È esattamente quanto accade nel trasporto pubblico locale, anch’esso caratterizzato da scioperi selvaggi che fermano le città.
Il monopolio quindi non garantisce la pace sociale, anzi si può affermare il contrario.
Il cambio del management ora sembra immotivato (o peggio, ancora motivato da ragioni di controllo politico). Potrebbe essere giustificato solo se il nuovo vertice fosse scelto in base a un piano industriale più convincente di quello ora sul tavolo, ma non ci sono segnali in questo senso.
Le alternative sono sempre le stesse: o una politica “colbertiana”, di rinnovata tutela del “campione nazionale”, o una politica che punta allo sviluppo di un contesto davvero concorrenziale, proteggendo gli utenti invece che i produttori, e favorendo la crescita complessiva del settore.
La prima strada punta a rafforzare le alleanze internazionali. Il loro scopo primario, si badi, non è il bene dei viaggiatori, ma la capacità di premere su Bruxelles per mantenere posizioni di privilegio nelle condizioni di apertura del mercato in corso di negoziato con gli Usa. Si tratta cioè di costituire “compagnie di bandiera europee” al posto di quelle nazionali. Questa strategia comporterebbe poi il mantenimento allo Stato di una “golden share”, che segnali la posizione di privilegio di Alitalia, e lo spostamento dei voli da Linate a Malpensa, in modo da ridurre la concorrenza sui voli intercontinentali, a danno dei milanesi (e delle città del Sud).
La strada alternativa è quella di accelerare la privatizzazione senza “golden share”, e premere sull’Europa perché si acceleri la reale liberalizzazione del settore (l’Italia ha sempre agito in senso contrario, con i risultati che si vedono). La liberalizzazione dei servizi aeroportuali, e una regolazione efficiente delle concessioni (richiesta anche dall’antitrust) e del controllo del traffico aereo dovrebbe ridurre molti costi impropri.
Il settore è in rapida evoluzione con l’avvento delle compagnie “low cost”, che dovranno anche poter oprare sui servizi extra-Europa. Cosa abbiamo da perdere? Perché non scommettere su una Ryanair italiana tra qualche anno?
C’è solo da rammaricarsi che queste cose si scrivevano già cinque anni fa, in un contesto assai meno compromesso.
Le recenti imbarazzanti vicende dell’Alitalia, ma soprattutto i disagi dei cittadini che devono servirsene, sollecitano qualche riflessione di carattere generale sul settore, senza soffermarsi solo su un episodio di ordinario malcostume. Lo scenario L’11 settembre, la guerra irachena, e infine la Sars hanno accentuato una crisi del comparto aereo in atto da tempo su scala mondiale: la United Airlines prossima al fallimento, la Sabena e la Swissair chiuse, Alitalia con bilanci in rosso da un decennio, e il ricorso di molte compagnie di bandiera europee agli aiuti di Stato (ogni volta l’ultimo, si intende). Ma la crisi è crisi delle “grandi compagnie storiche”, perché nel frattempo le nuove compagnie “low cost” sono cresciute e hanno anche realizzato ingenti profitti. E ciò nonostante l’opposizione, oltre che delle compagnie di bandiera “attaccate”, anche dei Governi. E senza risparmi in fatto di sicurezza perché le compagnie “low cost” attribuiscono a questo fattore una priorità molto elevata per la semplicissima economica ragione che nel loro caso un incidente sarebbe sicuramente attribuito dai “media” a insufficiente manutenzione, con conseguenze devastanti. Caratterizzato da crisi profonde anche nei decenni precedenti (si pensi alla scomparsa delle maggiori compagnie “storiche” statunitensi (Twa, Eastern e Pan American), il settore affronta quindi un cambiamento strutturale, seppure ancora in presenza di elevate protezioni per le compagnie maggiori, sia negli Stati Uniti che, soprattutto, in Europa. Il regime degli “slots” (il diritto di operare servizi in certe ore su certe rotte) non è stato mai liberalizzato, così come sostanzialmente rimangono vincolati alle grandi compagnie i servizi intercontinentali (e infatti le compagnie “low cost” non operano in questo campo). Inoltre, sia negli Usa che in Europa permangono vincoli molto stringenti per i regimi proprietari, che sono negati a soggetti “esterni”. Una debolezza strutturale Di questa debolezza strutturale del settore sono state tentate molte spiegazioni. Vediamone due, tanto recenti e accreditate quanto poco convincenti. La prima (cfr. “The Economist” 3-9 maggio 2003) sostiene che il problema è essenzialmente legato a dimensioni aziendali insufficienti: basterebbe accentuare (e consentire) fusioni e concentrazioni per garantire la prosperità del settore (in analogia con quello automobilistico). Ma qui le “economie di scala” hanno un ruolo molto più incerto, come dimostra il fatto che sono le compagnie di maggiori dimensioni ad avere sofferto di più la crisi in Usa (e in Europa). Anche il fenomeno della crescita delle compagnie “low cost” contribuisce a smentire questa tesi. La seconda spiegazione si fonda sui costi eccessivi del carburante, del lavoro, dei servizi aeroportuali, del controllo del traffico aereo, ecc., (cfr. “Volare” maggio 2003), ma la crescita delle compagnie “low cost” sembra indebolire l’argomentazione. Gli aumenti di costi, se reali, hanno colpito tutto il settore: le “low cost” sono sfuggite in Europa solo all’esosità dei grandi aeroporti, ma non alle altre voci, di fatto preponderanti. E comunque non è chiaro perché tali maggiori costi non possano essere trasferiti all’utenza finale, in forte crescita sul lungo periodo (per confermare tale “non trasferibilità”, si ricorda che il settore ha avuto redditività molto modeste fino dagli anni Settanta, pur con crescita impressionante del traffico servito). Sembrerebbe invece che la fragilità del settore sia determinata dalla combinazione di due fattori: caratterizzato da bassi profitti e con una domanda fluttuante nel breve periodo, il settore si dimostra inoltre a offerta rigida, come se prevalessero i costi fissi. In altre parole, sembra che la crisi sia connessa a esuberi di capacità strutturali, anche se periodici. Questa spiegazione si adatta bene all’Europa: grandi compagnie semipubbliche e inefficienti (da cui i bassi profitti), con offerta rigida per ragioni politiche (iper-tutela del lavoro, “immagine nazionale” da sostenere). Ma forse è possibile riscontrare elementi di rigidità dell’offerta anche nelle grandi compagnie americane. Possono essere legati alla necessità del controllo sui segmenti più redditizi della rete (gli “slots” strategici non liberalizzati richiedono la non interruzione, neppure temporanea, del servizio, pena l’avvento di concorrenti. È la logica che discenda da un regime noto come “grandfathers’right”). A ciò si può aggiungere per estensione la necessità del controllo di interi aeroporti “hub” (cioè nodo della rete dei servizi, e spesso sede amministrativa e tecnica della compagnia dominante), come Atlanta, Denver, Chicago. La posizione dominante in un aeroporto ha anche risvolti politici: garantisce posti di lavoro o servizi alla comunità locale che è generalmente proprietaria dell’aeroporto, e che “ricambia” garantendo proprio la dominanza. Ridurre i voli nei periodi di crisi può incrinare le alleanze costituite, aprendo così le porte ai concorrenti (si pensi ai complessi rapporti tra Sea, Aeroporti di Roma e Alitalia, per un esempio più vicino a noi). Il caso Alitalia Per quanto riguarda il nostro Paese, Alitalia è in sofferenza ormai da più di dieci anni, con bilanci in perdita nonostante le elevate tariffe e la protezione di cui gode (slots, voli intercontinentali). La crisi attuale mette in moto pressioni per ridurre alcuni costi (aeroportuali e di controllo del traffico aereo). Sono costi da monopolio naturale che vanno ridimensionati, e di molto, con una buona regolazione pubblica mirata a incentivare drasticamente l’efficienza delle gestioni. In questi giorni il tentativo di riduzione del costo del lavoro, con la contrazione del personale di bordo, ha dato luogo a forme di protesta inaccettabili, indicative di relazioni industriali improprie e tipiche di aziende abituate a regimi clientelari (per inciso, un contesto più concorrenziale ridurrebbe grandemente l’impatto di tali proteste anomale sugli utenti, grazie a un’offerta di servizi meno concentrata). Ma a livello europeo occorrerebbe “approfittare” dell’attuale crisi per liberalizzare il settore, invece che per rafforzarne le barriere monopolistiche (c’è una proposta all’attenzione della Commissione europea di “congelare” gli slots non usati dalle compagnie maggiori, a danno delle compagnie “low cost” che potrebbero accedere a rotte e aeroporti più appetibili). Si potrebbe pensare a sostegni economici (“una tantum” per davvero, questa volta) concordati a livello europeo anche per bilanciare gli analoghi interventi in Usa. In cambio si dovrebbe avviare una reale privatizzazione e apertura del sistema a nuovi soggetti, che già hanno creato grandi benefici agli utenti europei con la loro efficienza. Tali sostegni economici avrebbero il significato di “viatico”, cioè sarebbero connessi alla sostanziale cessazione della presenza pubblica nel settore (se non a fini regolatori a difesa degli utenti), e potrebbero servire anche a tutelare gli addetti delle compagnie che fossero costrette a drastici ridimensionamenti. Infine, la crescita delle compagnie “low cost” significa occupazione e domanda di nuovi aerei, in altre parole uno sviluppo del settore che i grandi “elefanti bianchi” del passato non sembrano più in grado di garantire. A quando una “Ryan Air” italiana?
C’erano una volta le Ferrovie dello Stato. Funzionavano bene o male, a seconda, ma almeno non cercavano di “gabbare” i passeggeri. Ora tutto è cambiato, e forse anche quest’ultima convinzione dovrebbe essere messa in discussione. Permettetemi di raccontare un paio di storie. L’interregionale dei desideri Cerco di fare un biglietto da Pordenone a Brescia. Mi dicono che all’ora che mi interessa devo cambiare a Mestre (vero) e che posso prendere solo l’Eurostar. Obietto: guardi che mi hanno detto che c’è un Intercity. Il bigliettaio mi guarda un po’ torvo, finge di faticare un po’ al terminale, e mi fa il biglietto Intercity (treno che partiva prima dell’Eurostar, si noti.). Stava cercando di farmi arrivare dopo, facendomi pagare più del necessario? Strano. Cerco poi altri treni alla biglietteria automatica, e noto che sistematicamente, per andare da A a B, ti suggeriscono sempre se possibile l’Eurostar o l’Intercity, nascondendo gli interregionali fin quando possibile, ovvero te li propongono per la tratta minima. A ciascuno la sua Divisione La separazione tra chi gestisce la rete (i binari, eccetera, Rfi) e chi gestisce il “materiale rotabile” (i treni, Trenitalia) è nota da tempo, sulla scorta di una qualche moda politica e intellettuale, secondo la quale si può avere sufficiente concorrenza tra diverse compagnie ferroviarie da più che compensare gli intuibili scompensi, frammentazione di responsabilità e così via, che la separazione comporta. Speriamo sia vero. Ogni divisione ha i suoi treni e i suoi centri di manutenzione. In Lombardia, i due centri di manutenzione ancora aperti sono destinati uno ai treni merci (“Divisione cargo”, che meriterebbe un altro articolo), l’altro agli Intercity e Eurostar (della Divisione passeggeri). I locomotori del trasporto regionale vengono sottoposti a manutenzione un po’ da una parte e un po’ dall’altra, “ospiti” delle altre divisioni. Lo stato dei mezzi alimenta il sospetto – che ambienti sindacali non provano neppure a soffocare – che ciascuna divisione privilegi la manutenzione dei propri mezzi, a scapito di quelli regionali. Secondo esempio? Quello dei biglietti. Poiché il grosso delle biglietterie appartiene alla stessa “Divisione passeggeri” insieme agli Intercity, mentre gli interregionali “stanno da un’altra parte”, può capitare (capita spesso) che, appena ci riesce, una biglietteria vi vende un biglietto per l’Intercity e non per il meno costoso interregionale. Non ho nostalgie per il passato, ma si vorrebbe almeno una qualche tutela per i passeggeri.
Esempio? Per andare da Mestre a Treviglio (che è tra Brescia e Milano) si può andare in Intercity fino a Brescia, e poi prendere l’interregionale (che viene da Verona) per l’ultimo pezzetto; oppure prendere l’Intercity solo fino a Verona, e poi salire sullo stesso interregionale di cui sopra fino a Treviglio. Orari di partenza e di arrivo sono gli stessi. Ma la “macchinetta” ti nasconde la seconda combinazione, proponendo solo la prima, che ha una tratta Intercity più lunga, e quindi costa di più. Ripeto: a parità di orari di partenza e arrivo.
Il dubbio che effettivamente stiano cercando di far pagare al cliente più del necessario si rafforza. Esempi di questo tipo, da pendolare “storico” e cliente “affezionato” delle nostre ferrovie ne potrei fare tanti, ma mi sono chiesto se stavo sviluppando una mia paranoia, o se c’era qualcosa di vero in quanto osservavo. E ho cominciato a chiedere.
La cosa meno nota è che in questa riorganizzazione sono state effettuate ulteriori suddivisioni all’interno di Trenitalia, che è articolata non in vere e proprie società, ma in “divisioni”, che non solo non si coordinano come dovrebbero, ma hanno proprio interessi divergenti.
Per quanto ci riguarda più direttamente, da una parte abbiamo la “Divisione passeggeri”, a cui fanno capo tra l’altro Eurostar, Intercity e la maggior parte delle biglietterie; dall’altra, troviamo la “Divisione trasporto regionale”, ove stanno invece i treni regionali e interregionali. A parte il dubbio gusto nella scelta del nome (sono passeggeri pure le persone che viaggiano sui treni regionali) dove sta il problema? Facciamo un paio di esempi.
Infatti, ogni divisione ha i suoi obiettivi distinti di ricavo, e se una di queste biglietterie vende un biglietto per un interregionale invece di uno per Intercity, una parte del ricavato passerà alla “Divisione trasporto regionale”, ovviamente a scapito degli obiettivi di reddito della “Divisione passeggeri”.
Morale? Abbiamo trasformato un’impresa statale che non pareva avere limiti nella capacità di bruciare denaro pubblico in un’impresa che cerca di perseguire l’utile (siamo realisti, basterebbe una riduzione delle perdite) con successi tra l’altro discutibili.
Perfino quelli dei treni locali, che forse non riguardano la “Divisione passeggeri”, ma non sono ancora bestiame.
A quando un’autorità per i trasporti che controlli quello che si sta facendo in questo settore alle spalle degli utenti? Per ora c’è solo una supervisione “tecnica”, effettuata tra l’altro dalla Rete ferroviaria italiana, anch’essa del gruppo Trenitalia.
Se tutti gli altri settori, una volta orientati al mercato, sono stati assoggettati a un controllo indipendente, cosa stiamo aspettando per i trasporti ferroviari?
Allinizio di luglio, quando ci preparavamo a festeggiare il secondo compleanno de lavoce, ci siamo ritrovati orfani di Tremonti. Raramente una persona ha rappresentato la politica economica di un intero governo, come è avvenuto negli anni in cui Giulio Tremonti è stato il Ministro delleconomia. Come regalo di Natale per i nostri lettori, riproduciamo qui gli articoli in cui abbiamo discusso la sua eredità. Il controllo pubblico dell’economia è rimasto invariato, con il paradosso di imprese in mano pubblica che si comportano come private. Sul lato delle entrate, condono e scudo fiscale hanno tramandato al successore un calo strutturale del gettito. Sul lato della spesa, non c’e’ stato alcuno sforzo di ridurla, ma neanche una completa perdita di controllo come spesso paventato. Gli artifici sul debito hanno ridotto la trasparenza dei nostri conti pubblici.
La politica di bilancio perseguita in Italia negli ultimi anni si presta a una lettura diversa da quella che ne dà Roberto Perotti nel suo articolo su lavoce.info “La macroeconomia di Tremonti”. La mia analisi si differenzia soprattutto per quanto riguarda gli anni Novanta. (1) La pressione fiscale Nel 1992, dopo oltre dieci anni di disordine finanziario, l’Italia era stata colpita dalla più grave crisi valutaria e finanziaria dopo il 1949: i rischi di insolvenza erano reali e il governo Amato presentò una manovra correttiva che diede il via al processo di risanamento del bilancio che fu poi proseguito dal governo Ciampi nel 1993. A fine 1996 la situazione risultava migliorata, grazie alla manovra correttiva subito operata dal governo Prodi nel giugno. Tuttavia (vedi Tavola 1), il disavanzo del settore pubblico continuava a superare il 7 per cento e il surplus primario (4,4 per cento) risultava ancora insufficiente rispetto a quanto richiesto dal processo di convergenza; in compenso continuava una lenta discesa del rapporto debito Pil. Ulteriori informazioni circa le caratteristiche strutturali del risanamento si possono ricavare dalle Tavole 2 e 3 relative alla struttura della spesa pubblica e alla pressione fiscale in Italia negli anni Novanta. Come si può vedere, con l’eccezione del 1992-3 (gli anni della prima grande manovra di risanamento) e del 1997, che presentano picchi nel prelievo tributario, la pressione fiscale si è successivamente stabilizzata ai livelli prevalenti negli anni precedenti, intorno al 42 per cento del Pil.Quindi a livelli coincidenti con la media europea, e inferiori a quelli di non pochi paesi, per esempio della Francia. Non è corretto affermare, come spesso si è fatto, che il risanamento italiano si è basato su un eccesso di tassazione che ha interferito negativamente con l’attività economica. La realtà invece mostra che per gran parte degli anni Settanta e Ottanta il settore pubblico italiano si era illuso di poter finanziare spese crescenti con imposte chiaramente insufficienti (e cioè in disavanzo), per cui fu necessario un recupero di entrate fortemente concentrato in pochi anni su cui ancora si polemizza, ma che comunque si era completato agli inizi degli anni Novanta (vedi Tavole 1 e 3). Il punto di dissenso Sulla entità e adeguatezza della pressione fiscale e della spesa pubblica in Italia il dibattito e le polemiche sono continuate per tutti gli anni Ottanta e continuano tuttora. In proposito il punto rilevante di dissenso (spesso implicito) è il seguente: può l’Italia, paese fragile, caratterizzato da piccole e micro imprese, da una classe imprenditoriale provinciale, dall’assenza di una classe di manager professionali, da un capitalismo familiare e non di mercato, da tensioni sociali storiche, e classi dirigenti periodicamente inaffidabili, permettersi un sistema di welfare europeo, mercati concorrenziali, una corporate governance adeguata, un livello di pressione tributaria e di tax compliance soddisfacente? A ben vedere sono proprio le diverse risposte che si possono dare a queste domande che chiariscono e fanno comprendere le divisioni che si manifestarono allora e ancora si manifestano tra euroscettici e fautori della partecipazione all’Unione monetaria; e anche tra visione e programmi del centrosinistra e quelli della coalizione costruita da Silvio Berlusconi. Per fortuna, dal mio punto di vista, l’ingresso in Europa è avvenuto, e si tratta di un evento ragionevolmente irreversibile. La spesa pubblica Per quanto riguarda le spese, la Tavola 2 mostra che, rispetto al picco del 1993 (57,6 per cento del Pil), la spesa complessiva si è ridotta nel 2000 di 10,3 punti, liberando quindi massicciamente risorse per il settore privato. Tuttavia, ben 6,5 punti di tale riduzione derivano dalla diminuzione dei tassi di interesse, e solo 3,8 da una riduzione di spesa primaria, derivante soprattutto dalla riduzione del personale della pubblica amministrazione. Per quanto la spesa primaria italiana al netto degli interessi sia sempre stata, e sia ancora oggi, inferiore (di circa 3 punti di Pil) alla media europea, è certo che da questo punto di vista si sarebbe potuto fare di più: soprattutto per quanto riguarda la spesa pensionistica che è rimasta costante negli ultimi anni, ma che, nonostante tre o quattro successivi interventi di riforma, è ancora destinata a crescere nei prossimi decenni. In ogni caso, è chiaro qual’è stato l’equilibrio raggiunto dalla finanza pubblica italiana: una pressione fiscale pari alla media europea, e un livello di spesa primaria al netto degli interessi inferiore alla media europea e sufficiente a finanziare l’eccesso di spesa per interessi che, a (quasi) parità di tassi con gli altri paesi, risulta tuttavia doppia (almeno) di quella dei paesi che presentano uno stock di debito coerente col parametro di riferimento (60 per cento). Una fragilità intrinseca Queste considerazioni spiegano da un lato il malessere dei contribuenti che, a fronte di imposte elevate, non ottengono servizi di corrispondente valore. Dall’altro, quali siano le debolezze che permangono per il bilancio e la finanza pubblica italiana: è sufficiente infatti una crescita dei tassi di interesse di mercato per avere ripercussioni negative sul bilancio doppie rispetto agli altri paesi; la rigidità strutturale del bilancio è tale che basta un attimo di disattenzione, o un minimo di lassismo per ritrovarsi con deviazioni sostanziali dai criteri di convergenza. Ciò purtroppo è quanto si è verificato in Italia in questi tre anni di governo di una destra politica sostanzialmente euroscettica e con forti pulsioni populiste. E resta valido quanto già detto nel 2002: la intrinseca fragilità dell’equilibrio della finanza pubblica italiana dovrebbe suggerire la accelerazione dei processi di privatizzazione, il conseguimento di un surplus primario più elevato, il completamento della riforma previdenziale, e vincoli di spesa efficaci per le Regioni e gli enti locali.
* Questo intervento ripropone in sintesi la versione in italiano del testo preparato per il seminario “New Dimensions in Italian Public Policy” European Studies Centre, St Antony’s College, University of Oxford, 18 Oct.-29 Nov. 2002.
Sugli argomenti trattati si veda anche Chiorazzo V. e Spaventa L. Astuzia o virtù? Come accadde che l’Italia fu ammessa all’Unione monetaria, Donzelli (2000) e Onofri P. Un’economia sbloccata, Il Mulino (2001).
Possiamo fare il bilancio delle politiche industriali, privatizzazioni eccetera del “regno” di Giulio Tremonti? Per certi versi, ovviamente no perché il responsabile delle politiche industriali non è il ministro dell’Economia. Per altro, il ministro dell’Economia è colui che gestisce le partecipazioni in imprese ancora sotto il controllo pubblico e “ha il pallino in mano” per una serie di questioni di fondamentale importanza. Il sistema finanziario Sulla ristrutturazione del sistema finanziario, Tremonti ha perduto. Purtroppo. E mi riferisco non tanto alla riforma della protezione del risparmio, per la quale la partita è complessa, ma soprattutto al ruolo delle fondazioni bancarie, che restano al cuore del sistema finanziario italiano, soggetti né propriamente pubblici né veramente privati, residui delle peggiori abitudini della prima repubblica. (vedi Moise) Quanta voglia di Iri
Sulle imprese pubbliche e le privatizzazioni, non è facile dire se Tremonti abbia perso o abbia vinto: se solo se ne conoscesse il vero obiettivo
Capire quale fosse il fine di Tremonti sulla base del suo operare non è facile. Ingerenza e rilancio dell’impresa pubblica o orientamento genuino al privato? A parte questo, abbiamo visto solo cessioni di quote marginali (il 6,6 per cento di Enel un modo come altri di far cassa) o privatizzazioni “all’italiana”, ovvero azioni passate in mano alla Cassa depositi e prestiti, controllata a sua volta dalle fondazioni bancarie. E così resta purtroppo dominante la presenza pubblica in imprese che la propaganda da diversi anni vuole “privatizzate” (Eni, Enel) anche se i loro consigli di amministrazione sono di nomina pubblica. Alitalia Questa ex-impresa merita un capitolo a parte. Su questo, a quanto trapela, Tremonti ha perduto una battaglia. E ci dispiace. Alitalia è un’impresa tecnicamente fallita, e da tempo. (vedi Ponti 26-02-2004) I patetici tentativi di coprire la situazione con piani industriali che sono sempre quelli e sempre più improbabili e con interventi finanziari sempre più lontani dal cuore della questione sono stati approvati nonostante i richiami di Tremonti. Che forse a riguardo può essere accusato di essere stato troppo flessibile, ai limiti della complicità. Avere accettato l’idea del prestito ponte è stato un errore: un ponte ha senso quando sappiamo dove conduce. E un’impresa che perde un milione di euro al giorno non va da nessuna parte. Questo Tremonti lo sa bene: forse sa già che la Commissione boccerà il prestito? Credo comunque che avrebbe dovuto fare e dire di più, ma almeno i veri “cattivi” di questa vicenda senza speranza sono stati altri. Un bilancio? Tremonti non ha fatto peggio di altri, ma merita rispetto. Certo, non abbiamo visto nessuna delle rivoluzioni annunciate. E il problema è proprio che a riguardo è mancata una strategia, e abbiamo anzi avuto troppo immobilismo.
Il Governo Berlusconi era partito come governo liberalizzatore, volto ad alleggerire la presenza pubblica nell’economia e a lasciare spazio agli investimenti privati. (Anche) su questo è difficile mascherare la delusione (acuita da quanto non ha fatto il ministero dell’Industria sulla liberalizzazione delle professioni sull’avvio della Borsa elettrica). Tanti sarebbero i temi, ad esempio la mancata liberalizzazione dei servizi pubblici locali, sulla quale Tremonti sembra avere aderito al partito trasversale degli amministratori locali, molto propensi a difendere le posizioni acquisite, oppure la vicenda delle Autostrade (vedi Ponti 20-01-2004). Ma procediamo con ordine.
Anche se curiosamente proprio le fondazioni sono state protagoniste di una importante operazione, ovvero il passaggio di proprietà del 30 per cento della Cassa depositi e prestiti dal Tesoro alle stesse fondazioni. Una della operazioni pomposamente contrabbandate come privatizzazioni, quasi le fondazioni fossero rappresentanti del rampante capitalismo nazionale
Da un lato, non risulta bisogna darne atto nessuna pesante ingerenza del ministro nell’operato delle grandi imprese rimaste in mano pubblica. Ci piacerebbe poter dire la stessa cosa dei suoi colleghi e alleati, ma questa è un’altra storia.
Tuttavia, anche la non-ingerenza può dar luogo a paradossi. Si pensi al settore energetico, che ora è nell’occhio del ciclone grazie alla offensiva congiunta di Autorità antitrust e Autorità per l’energia. Si accusano Eni ed Enel di tenere prezzi troppo alti ai danni dei consumatori e della competitività del settore privato. Di chi sono Eni ed Enel? I loro amministratori sono nominati dal governo. Non ho certo nostalgie delle ingerenze governative nelle imprese, ma il fatto che siano proprio aziende in mano pubblica a creare (pare) tutti questi problemi all’intero paese, dato il loro orientamento al profitto, sembra un po’ ridicolo.
A fianco di questo, purtroppo si deve invece ricordare la pesante ingerenza nell’attività delle Autorità, la cui indipendenza dà parecchio fastidio. Ma in realtà anche col precedente governo, al momento di fissare le tariffe elettriche gli interessi del proprietario di Enel (il Tesoro) avevano finito per farsi sentire in modo pesante.
Dopo aver detto della gestione delle imprese, passiamo alle privatizzazioni. Quali, diranno i lettori? Bella domanda.
L’unica vera privatizzazione del triennio è la vendita dell’Eti, il monopolio tabacchi; non era proprio una partecipazione strategica, ma almeno su questo il ministero ha operato bene, anche oltre le aspettative, cedendo interamente le sigarette di Stato, per una cifra del tutto ragguardevole (2,3 miliardi di euro), anche se con qualche preoccupazione per la concorrenza in quel mercato sul quale per altro l’Autorità antitrust si è limitata a chiedere alcune correzioni tutto sommato marginali.
Quindi, il controllo pubblico sull’industria resta praticamente invariato rispetto a quello che era all’inizio della legislatura, nonostante un governo sedicente pro-mercato e privatizzatore. Colpa di Tremonti? Da un lato il pessimo periodo del mercato azionario ha costituito talvolta una scusa, ma anche una discreta ragione per rallentare le vendite. Dall’altro, non ricordo di avere sentito molte voci né a destra, né a sinistra favorevoli alla cessione del controllo pubblico delle grandi imprese energetiche. Il consenso politico su questo non sembra proprio esserci, a prescindere dall’identità del ministro di turno. E serpeggia tanta voglia di tornare all’Iri
Tremonti ha oscillato tra Colbert (il padre delle imprese pubbliche francesi) e Margaret Thatcher (la madre delle privatizzazioni inglesi) che è come dire tra il diavolo e l’acqua santa.
Questa contraddizione (vorrei liberalizzare il sistema industriale, ma anche mantenerne il controllo
) ha condannato il governo all’immobilismo per quanto riguarda le quote di proprietà (per non perdere il controllo), ma anche a un curioso non intervento (per non interferire con il processo di mercato). Con il paradosso che abbiamo imprese che restano in mano pubblica, ma si comportano come se fossero private. E allora, ci si chiede, a che serve la proprietà pubblica?
Rimpiangeremo Tremonti? Diciamo che, se è vero che ha vinto il partito delle poltrone nelle imprese pubbliche e degli infiniti buchi di bilancio, il bello viene adesso.
Uno dei pochi punti di consenso tra gli economisti è che il rallentamento economico abbia svolto un ruolo di tutto rilievo nel deterioramento dei conti pubblici dei paesi europei. La più bassa crescita comporta infatti un calo delle entrate e nella maggior parte dei casi (l’Italia, dato lo scarso rilievo degli ammortizzatori sociali, è però un’eccezione al riguardo) anche un aumento delle spese, con effetti negativi sulle finanze pubbliche. La speranza è che la tanto sospirata ripresa economica riesca a riportare un po’ di luce anche sui disastrati conti pubblici italiani tenendoli lontani dalla soglia di Maastricht. Ottimismo fuori luogo Ma sarà proprio così? Purtroppo l’ottimismo, anche in questo caso, rischia di essere fuori luogo. Vediamo perché. Proprio per tenere conto degli effetti del ciclo economico sui conti pubblici, la Commissione europea calcola regolarmente un saldo di bilancio corretto per gli andamenti del ciclo economico e lo utilizza sistematicamente per formulare le proprie raccomandazioni ai paesi membri in termini di politica fiscale. Come viene effettuato il calcolo? Il primo passo è la stima del Pil potenziale, il livello del Pil che si avrebbe se l’economia funzionasse a pieno regime. La differenza fra Pil effettivo e Pil potenziale dà il cosiddetto output gap. Il secondo passo è la stima dell’intensità (l’elasticità, nel gergo degli economisti) con cui entrate e spese primarie (al netto cioè degli interessi) reagiscono a variazioni del Pil. Si calcola infine il saldo di bilancio nell’ipotesi di un output gap pari a zero. Questa misura è nota come disavanzo strutturale, il disavanzo che si avrebbe se il Pil fosse pari al suo potenziale. Nel calcolo, tuttavia, non si tiene conto, presumibilmente per le difficoltà tecniche che ciò comporterebbe, degli effetti del ciclo sulla spesa per interessi. Ma non si tratta di una voce di scarso rilievo, soprattutto per un paese altamente indebitato come l’Italia. In risposta a un aumento dello scarto fra output potenziale e effettivo, la Banca centrale interverrà infatti riducendo i tassi, con un effetto particolarmente favorevole per i paesi altamente indebitati o con un debito sbilanciato verso il breve termine. Se prendiamo per buone le stime disponibili della funzione di reazione della Banca centrale, vediamo che un deterioramento dell’output gap di un punto percentuale induce una riduzione dei tassi perlomeno di 50 punti base (mezzo punto percentuale). A regime, il miglioramento per il disavanzo pubblico di un paese con un rapporto debito/Pil pari al 100 per cento è quindi di circa mezzo punto percentuale: una minore crescita del Pil di un punto dà luogo a un diminuzione del tasso di interesse di mezzo punto che implica una minore spesa per interessi pari ancora a mezzo punto di Pil. Naturalmente l’effetto sulla spesa per interessi non è istantaneo: secondo le stime ufficiali del Tesoro una diminuzione di un punto del tasso di interesse ha un impatto sulla spesa per interessi pari allo 0,23 per cento del Pil dopo un anno, 0,41 per cento del Pil dopo due anni, 0,51 per cento del Pil dopo tre anni. È indubbiamente vero che un peggioramento dell’output gap deprime le entrate e accresce il disavanzo (nel caso dell’Italia la stima è ancora di quasi mezzo punto di Pil per ogni punto di output gap), ma dopo tre anni metà del peggioramento è compensato dal calo della spesa per interessi e dopo circa cinque anni (questo è il tempo necessario perché una variazione dei tassi di interesse si trasferisca interamente sul costo del debito) la compensazione è completa. In conclusione, il metodo di correzione per il ciclo utilizzato dalla Commissione europea e da altre istituzioni internazionali rischia di fornire un quadro eccessivamente ottimista (pessimista) per un paese altamente indebitato come l’Italia durante i periodi di rallentamento (ripresa) dell’economia. Se l’Italia non aggancia la ripresa Ma vi è un altro rischio. Supponiamo che l’Italia manchi, come sembra possibile, l’aggancio con la ripresa europea. Secondo le stime di primavera della Commissione europea la crescita nel 2004 sarà pari all’1,7 per cento per l’area euro ma solo all’1,2 per cento per l’Italia. Anche nel 2005 l’area euro dovrebbe crescere più rapidamente dell’Italia. Le migliorate condizioni economiche nell’area dell’euro, e un’ulteriore stretta’ della Fed, potrebbero indurre la Banca centrale europea ad aumentare i tassi di interesse. Paradossalmente, è del tutto possibile che l’Italia non tragga grande beneficio dalla modesta ripresa a livello nazionale, ma soffra le conseguenze in termini di più alti tassi di interesse della ripresa a livello europeo. Le stime sull’andamento dei conti pubblici dell’Italia rischiano quindi di peccare, nuovamente, di ottimismo. Rimane da sperare che il nuovo Dpef, che dovrebbe essere varato nei prossimi giorni, tenga conto di questi fattori e riesca a fornire un quadro un poco più realista della situazione della nostra finanza pubblica, anche a costo di dovere ammettere che non vi è spazio per gli sgravi fiscali.
Dopo l’equilibrato numero monografico de lavoce.info, consideriamo concluso il momento degli epicedi sul dimissionamento del ministro GiulioTremonti (1) e occupiamoci del futuro. Non di chi gli succederà come autocrate dell’economia e delle finanze; piuttosto dei problemi che il successore, chiunque egli sia, dovrà affrontare. I problemi del successore di Tremonti La premessa è che la questione vera della nostra finanza pubblica non risiede nel numero magico del 3 per cento di disavanzo, ma nella dinamica del rapporto fra debito pubblico e prodotto. Non che esista un obiettivo preciso per questo rapporto. Ma, se il suo livello è e resta particolarmente elevato, i tassi d’interesse sono più alti e i conti pubblici sono più esposti al rischio di una loro variazione; comunque una parte cospicua delle entrate deve essere destinata al pagamento di interessi ai possessori di titoli anziché alla provvista di beni e servizi. Si vorrà riconoscere che il nostro 106 per cento, superiore di 35 punti alla media europea, è molto, troppo alto: con 10 punti in meno, la spesa di interessi si ridurrebbe di mezzo punto di prodotto: di tanto potrebbero essere ridotte le imposte (o, se i cittadini lo preferiscono, di tanto aumentata l’offerta di investimenti e servizi pubblici). Assicurare una continua, anche se graduale, diminuzione del rapporto fra debito e prodotto è dunque un obiettivo importante ed economicamente significativo. Per fissare le idee, e senza troppe ambizioni, chiediamoci a quali condizioni si possa ottenere un calo di due punti all’anno, in modo da avere entro il 2007 un debito non superiore al prodotto nazionale. L’algebra del debito L’algebra elementare del debito ci dice che la dinamica di esso rispetto al prodotto dipende da tre variabili: costo medio del debito, tasso di crescita nominale dell’economia, saldo (primario) fra entrate e spese al netto degli interessi: una differenza positiva fra costo del debito e tasso di crescita fa aumentare il rapporto fra debito e prodotto nazionale; un avanzo primario lo fa diminuire. (2) Ministri e padri di famiglia Come ottenere questo miglioramento? Un aumento della pressione fiscale è improponibile. Occorre dunque intervenire sulla spesa al netto degli interessi, per contenerne la crescita ben al di sotto della crescita dell’economia: compito certo difficile, ma non impossibile nelle dimensioni indicate. Negli ultimi mesi, tuttavia, e da ultimo all’assemblea dell’Abi, il presidente del Consiglio ha ribadito la fermissima intenzione di ridurre la pressione fiscale sui redditi personali, per mantenere le sue promesse elettorali: ha concesso che le aliquote possano essere tre e non due, ma ha anche promesso una qualche riduzione dell’Irap. La ricetta di copertura offerta all’Abi dal presidente-ministro ad interim dell’Economia risiede in un semplice teorema, mutuato, come egli ci ha detto, dalla finanza della famiglia e dell’impresa. Meno soldi entrano, meno si spende: se si tagliano le imposte, ogni buon padre di famiglia e ogni accorto imprenditore dovrà necessariamente tagliare le spese. (1) Due citazioni riassuntive dal Giulio Cesare. Antonio: “Il male che gli uomini fanno sopravvive loro, il bene spesso finisce sotto terra con le loro ossa”. Popolano: “Temo che ve ne sarà uno peggiore al suo posto”. (2) La formuletta, approssimata, è: Dd = (r-g)d a, ove Dd è la variazione del rapporto fra debito e prodotto nazionale, r è il costo medio del debito, g è il tasso di crescita nominale dell’economia, e a è il saldo fra entrate e spese al netto degli interessi, positivo o negativo. Se ad esempio il debito è pari al prodotto e il costo del debito eccede di un punto il tasso di crescita, con un avanzo primario nullo il rapporto cresce di un punto; resta costante con un avanzo primario dell’1 per cento; diminuisce di un punto con un avanzo primario del 2 per cento.
Vi è anche un altro fattore, la differenza fra fabbisogno e indebitamento, che ha contribuito negli ultimi anni ad alimentare, e non di poco, la crescita del debito. Ipotizziamo, a rischio di essere indebitamente ottimisti, che la forbice fra fabbisogno di cassa e indebitamento di competenza si richiuda e ci concentriamo quindi solo sulle prime tre variabili. Supponiamo che l’economia torni a un normale, anche se non esaltante regime di crescita: un’ipotesi del 4 per cento medio annuo (nominale) sembra sensata. Oggi il costo medio del debito è vicino al 5 per cento: a essere benevoli, si può anche supporre che possa abbassarsi sino al 4,5. Dalla formuletta riportata in nota risulta che occorre un avanzo primario stabile dell’ordine del 2,5 per cento del prodotto per ottenere la riduzione di due punti all’anno del rapporto che abbiamo posto come modesto obiettivo (con mezzo punto in meno o in più di avanzo primario per mezzo punto in meno o in più della differenza fra costo del debito e tasso di crescita).
Quale avanzo primario? Poiché stiamo ragionando sul medio periodo, il saldo che ci interessa deve avere natura strutturale: né abbellito da misure una tantum che, per definizione, non possono essere ripetute (anche perché oramai resta ben poco spazio all’inventiva), né ridotto dagli effetti di una congiuntura negativa. Per capire dove ci troviamo ora, usiamo gli utili numeri elaborati da Roberto Perotti nella sua analisi della “macroeconomia di Tremonti”. Nelle plausibili stime di Perotti, l’avanzo primario depurato da misure non ripetibili come i condoni (pari a quasi il 2 per cento del prodotto), ma aggiustato in aumento per tener conto della congiuntura negativa, è stato dell’1,12 per cento nel 2003. Rimarrà probabilmente vicino a quel livello anche nel 2004, sempre che le misure di correzione della recente manovra governativa riescano a compensare il peggioramento in atto (ma secondo il Governatore della Banca d’Italia l’avanzo primario si riduce comunque). Ne segue che, solo per consentire la modesta riduzione del rapporto fra debito e prodotto di cui si è detto, occorre che l’avanzo primario strutturale (depurato da una tantum e da effetti ciclici) migliori nel 2005 e negli anni a venire di ben oltre un punto in termini di prodotto.
Facciamo un po’ di conti. Le promesse del presidente assommano ad almeno un punto e mezzo di prodotto: più o meno tanto quanto sarebbe necessario per ottenere la riduzione del debito di due punti. Per raggiungere entrambi gli obiettivi servirebbero dunque interventi sulla spesa dell’ordine di 35-40 miliardi, pari al 5-6 per cento delle uscite al netto degli interessi. Temo che neppure un ottimo padre di famiglia, quale è il Ragioniere generale dello Stato, Vittorio Grilli, ci riuscirebbe. Il governo si è impegnato a non toccare la spesa previdenziale, e in genere quella sociale; le spese per il pubblico impiego sono obbligatorie; agli investimenti pubblici si assegna priorità; gli acquisti di beni e servizi sono stati drasticamente tagliati con la recente manovra, per evitare un peggioramento (non per ottenere un miglioramento) dell’avanzo primario. Che cosa rimane? La riforma degli incentivi alle imprese potrà rendere al più 10-12 miliardi. E il resto da dove viene? Per saperlo, aspettiamo la pubblicazione del documento di programmazione economica e finanziaria, mai così tardivo. Ma vi sono, temo, pochi dubbi: il resto manca. Se così è, la promessa riduzione della pressione fiscale ordinaria (al netto dei condoni) potrà avvenire solo lasciando dov’era il rapporto fra debito e prodotto o con qualche frazione in meno, se si escogita qualche altro espediente (come la vendita con lease back di immobili pubblici) o si vende qualche gioiello residuo. Dato un limite di fattibilità al contenimento della spesa nel breve periodo, questa è dunque l’alternativa: o una diminuzione del rapporto fra debito e prodotto, che potrà consentire in futuro un calo della pressione fiscale, o una riduzione delle aliquote subito. Forse il padre di famiglia sceglierebbe prudentemente la prima strada, per mettersi al riparo dai rischi di mercato ed evitare le censure internazionali. Ma, a meno di due anni dalle elezioni, conosciamo le preferenze del padrone della famiglia: anche perché, come ha detto nel suo intervento all’Abi, con un debito dell’ordine di 1400 miliardi poco importa averne qualche decina di miliardi in più.
L’articolo, assai pregevole, di Roberto Perotti offre un bilancio dell’operato del ministro Giulio Tremonti. La ricostruzione del passato va però fatta con i dati che erano disponibili in quel momento, non con le informazioni di oggi. Le valutazioni che ne risultano possono essere assai diverse. Il lascito dei governi precedenti Il governo di centrodestra ereditò un processo di aggiustamento fiscale del tutto sbilanciato? È questa la tesi di Perotti secondo cui l’aggiustamento fiscale dei governi precedenti fece uso di misure temporanee, privilegiò l’aumento delle entrate e non incise se non de minimis sulla spesa primaria. Tesi non del tutto convincente se consideriamo che il processo di risanamento fiscale comincia con il governo Amato nel 1992. La Finanziaria di Amato non è però “visibile” negli andamenti effettivi delle uscite in quanto incide sul tendenziale della spesa pensionistica. In assenza di tale correzione, la spesa sociale sarebbe cresciuta, secondo le stime dell’Ocse, di altri 5 punti del Pil. La mera analisi del dato nasconde quindi una correzione radicale dell’andamento dei conti pubblici. E fu proprio il miglioramento del saldo primario indotto dalle misure adottate dai governi precedenti che consentì all’esecutivo guidato da Prodi di intervenire con provvedimenti in gran parte temporanei per accedere all’Unione monetaria e beneficiare di un calo massiccio della spesa per interessi. Semmai la colpa dei governi di centrosinistra è di non avere fatto di più dopo il 1997 per proseguire l’opera di risanamento del bilancio. Furono gli squilibri di bilancio ereditati dal governo precedente (il disavanzo nel 2001, ci ricorda Perotti, si attesta al 2,6 per cento del Pil) che costrinsero il governo di centrodestra a ricorrere massicciamente alle una tantum? Di nuovo si corre il rischio di un errore di prospettiva. Fino a febbraio del 2002 (ben dopo quindi l’attacco alle Torri Gemelle), l’esecutivo di centrodestra era convinto che i conti pubblici fossero sotto controllo, che il disavanzo del 2001 non avrebbe superato l’1,1 per cento e che anche la situazione del 2002 non destasse preoccupazioni (il disavanzo tendenziale per quell’anno veniva stimato all’1,7 per cento dalla Relazione previsionale e programmatica). Ci vorranno più di diciotto mesi di revisioni dell’Istat e di sentenze dell’Eurostat perché il disavanzo del 2001 venga rivisto al 2,6 per cento. Si tratta di un dato quindi che non può avere indotto il governo a orientare la politica fiscale in senso restrittivo né per il 2002 né per il 2003. Semmai è vero il contrario. La sentenza Eurostat di luglio 2002 sulle cartolarizzazioni aggravò il saldo del 2001 per una cifra pari a circa 7 miliardi di euro, ma consentì di contabilizzare tali entrate nel 2002 e nel 2003 riducendo quindi le esigenze di una stretta di bilancio per quegli anni. Rallentamenti dell’economia e tassi d’interesse Le difficoltà di bilancio dopo il 2001 vanno attribuite al rallentamento dell’economia mondiale? Perotti mette in luce come il disavanzo corretto per il ciclo migliori, e di molto, dal 2001 al 2003. Verissimo. Le stime della Commissione pubblicate nell’ultimo rapporto di primavera mettono in luce una riduzione dell’indebitamento strutturale dal 3,2 per cento nel 2001 all’1,9 per cento nel 2003. Ma anche questo dato va considerato con molta cautela, almeno per quattro motivi. In primo luogo, è completamente cambiata la stima dell’output gap, negativo nelle stime formulate a novembre del 2001 (la produzione effettiva era quindi inferiore a quella potenziale e il disavanzo corretto per il ciclo minore di quello effettivo) ma positivo nei dati rivisti successivamente e utilizzati da Perotti. Utilizzando la stima dell’output gap disponibile nel 2001, il disavanzo strutturale di quell’anno scenderebbe di quasi un punto, al 2,3 per cento. In secondo luogo, sul dato del 2001 si concentrano tutta una serie di revisioni, molte delle quali si pensi alla spesa sanitaria andrebbero attribuite ad anni precedenti. Inoltre, tutto il miglioramento del saldo di bilancio strutturale va attribuito al calo della spesa per interessi – 1,2 per cento – a sua volta frutto della riduzione dei tassi di interessi mondiali e non della diminuzione del debito che rimane invece inchiodato su valori ben al di sopra del 100 per cento. Infine, se è vero che l’avanzo primario corretto per il ciclo non peggiora tra il 2001 e il 2003, questo risultato è stato ottenuto con misure tampone, come i condoni, che peseranno, e non poco, sui conti pubblici nei prossimi anni. Il fardello del prossimo ministro In conclusione, sembra difficile sostenere che il governo di centrodestra ereditò da quello precedente una situazione dei conti pubblici fortemente deteriorata o che il rallentamento dell’economia mondiale abbia pesato in maniera determinante sugli andamenti di finanza pubblica dopo il 2001. Se così fosse, tra l’altro, i conti pubblici non registrerebbero un ulteriore e pronunciato deterioramento proprio nel 2004, quando si manifestano i primi segnali di una seppur timida ripresa. L’articolo di Perotti si ferma al 2003 e trascura quindi il periodo in cui i nodi di una politica sbagliata stanno venendo tutti al pettine. Secondo le stime della Commissione, l’avanzo primario corretto per il ciclo si ridurrà infatti nel 2004 di un punto del Pil, circa 13 miliardi di euro. Per il 2005 gli andamenti sarebbero ancora peggiori. Dovremo aspettare il Dpef per avere informazioni al riguardo, anche se è oramai evidente che il nuovo ministro dell’Economia dovrà fare i conti con un disavanzo che, anche in assenza degli sgravi promessi, è ben al di sopra del 4 per cento e di una dinamica del debito palesemente insostenibile.
Come ho cercato di documentare (vedi Perotti) dal lato delle entrate, Tremonti lascia un’immagine di misure improvvisate e di mancanza di trasparenza. Tuttavia, il vero neo della gestione Tremonti sono stati i condoni; per il resto, non è stata molto diversa dalle precedenti. Anche e soprattutto dal lato delle spese la gestione Tremonti non è stata molto diversa dalle precedenti. Non c’è stata alcuna azione decisa per ridurre la spesa, ma questo è vero anche per i governi precedenti. E la spesa non è esplosa, anzi in termini reali essa è aumentata meno che nel periodo precedente, nonostante la situazione ciclica sfavorevole e anche escludendo le entrate una tantum contabilizzate in detrazione di spesa. Perché le una tantum Ma è importante cercare di spiegare perché un editorialista e politico che per anni aveva predicato la semplificazione delle imposte e la chiarezza dei bilanci, una volta diventato ministro abbia fatto ricorso a misure così imbarazzanti quali i condoni. Il motivo immediato è semplice. La riga 14 della tabella 2 (riportata nel mio altro articolo) mostra che l’indebitamento netto sul Pil era nel 2001 pericolosamente vicino alla fatidica soglia del 3 per cento, e in crescita. Per evitare di sforare il Patto di Stabilità e crescita, Tremonti si è trovato nella necessità di ridurre il disavanzo, e in fretta. Ma come? Come abbiamo visto, nessun governo degli ultimi dieci anni in Italia è riuscito a ridurre la spesa primaria, e a maggior ragione in pochi mesi. Ed era irrealistico pensare che un governo che era caduto nel 1994 sulle pensioni avrebbe proposto una riforma delle pensioni seria appena tornato al potere. Era anche difficile pensare che il ministro di un governo eletto in parte su una piattaforma di tagli alle tasse potesse aumentarle. Rimanevano le misure una tantum. E come abbiamo visto, Tremonti non ne ha fatto un uso molto più sfrenato di altri governi che si sono trovati a dover agire in condizioni di crisi o di pressione esterna, come nel 1992-3 o nel 1997. La composizione però è stata diversa, con un’enfasi esagerata sui condoni, per di più male attuati (vedi Guerra). L’alternativa era sforare il Patto in maniera ancora più vistosa. Anche qui Tremonti era tra l’incudine e il martello: se avesse ignorato il Patto, come hanno poi fatto Francia e Germania, probabilmente sarebbe stato accusato di anti-europeismo. Come si è arrivati al 3 percento? La domanda fondamentale è quindi: come si è arrivati a un indebitamento vicino al 3 percento nel 2001? La riga 14 della tabella 2 mostra che, dopo tutto, l’ indebitamento netto era solo il 0,65 per cento nel 2000. Tuttavia, questa cifra è fuorviante, perché risente dei proventi una tantum Umts. Al netto di questi, l’indebitamento netto era già vicino al 2 per cento nel 2000. Al 2,65 per cento del 2001 si è arrivati con il rallentamento della crescita e con misure discrezionali, di cui probabilmente la maggior parte, come abbiamo visto, imputabile al governo precedente. Molti, e la Commissione europea con particolare insistenza, sostengono che i vincoli del Patto non creerebbero problemi se i governi seguissero una semplice regola: diminuire i disavanzi, o addirittura creare degli avanzi di bilancio, in tempi di alta crescita, per permettere ai disavanzi, in tempi di rallentamento ciclico, di crescere senza sorpassare il 3 per cento. Così non è stato: come abbiamo visto, Tremonti ereditò dagli anni buoni un indebitamento netto che era già pericolosamente vicino al 3 per cento. Ancora una volta sarebbe scorretto ignorare il passato. Un’ immagine di improvvisazione Tremonti ha dovuto fronteggiare una doppia emergenza: il rallentamento ciclico, e il Patto che mordeva per la prima volta; tutto questo con veti incrociati degli alleati sulle politiche attuabili. Certo, forse avrebbe potuto gestire meglio l’emergenza. E qui veniamo all’aspetto forse più appariscente della gestione Tremonti. Indubbiamente il ministero ha spesso proiettato, soprattutto all’inizio, un’immagine di impreparazione e di dilettantismo nella gestione della politica economica. L’ esempio più eclatante è probabilmente il primo Dpef del governo Berlusconi del luglio 2001, che, nonostante chiari segnali del rallentamento ciclico, prevedeva un tasso di crescita programmatico del 3,1 percento ogni anno fino al 2006, grazie alle misure di politica economica che il governo avrebbe preso! Questa imbarazzante dimostrazione di incompetenza economica e di cieca credenza in teorie economiche semplicistiche e universalmente screditate potrebbe forse venire classificata benevolmente come una irresponsabile operazione di marketing, se non indicasse che il governo si fece cogliere largamente impreparato dagli eventi seguenti, sprecando mesi preziosi a inseguire fantasmi. Ma a onor del vero Tremonti e i suoi collaboratori erano ancora una volta in buona compagnia, in termini di sostanza se non di forma. Solo pochi mesi prima, alla fine di settembre del 2000, la nota di aggiornamento al Dpef prevedeva un indebitamento netto, grazie alla manovra messa in atto da quel governo, del 0,9 percento del Pil nel 2001 quasi 2 punti percentuali sotto quello realizzato – e addirittura dello 0 per cento nel 2003! Un secondo esempio fra i tanti è la saga senza fine degli incentivi alle imprese e al Sud, sottoposti a una decretazione incontinente, con un alternarsi continuo di messaggi contrastanti e di cambiamenti di direzione, che hanno svilito e complicato ulteriormente degli strumenti già largamente screditati e incomprensibili. Ma anche in questo caso, niente di nuovo sotto il sole; l’approccio al Sud non è cambiato, sono forse cambiati leggermente gli strumenti preferiti – e ugualmente inefficaci. Indubbiamente da Tremonti ci si aspettava di più: misurata contro le aspettative, la gestione Tremonti può essere vista come una delusione. Ma misurata contro molti predecessori, e tenuto conto del ciclo economico, è ben lungi dall’essere stata un disastro.
Che conti pubblici ci lascia Tremonti? Prima di tentare un bilancio, è importante stabilire i fatti. Le entrate: i condoni, e il resto Partiamo dalle entrate. Tremonti rischia di venire ricordato per l’uso massiccio di misure una tantum. La tabella 1 mostra il dettaglio delle misure una tantum durante la gestione Tremonti e nei periodi precedenti. (1) Le anticipazioni di entrate sono una cosa diversa. Consistono soprattutto nelle cartolarizzazioni immobiliari, una misura di qualche rilevanza solo nel 2002 quando valse lo 0,5 per cento del Pil. Con questo meccanismo, le Ap cedono degli immobili a una società veicolo, a fronte di una somma che presumibilmente rappresenta il valore atteso ricavabile dalla vendita di questi immobili a privati in futuro. Da un punto di vista macroeconomico, le anticipazioni di entrate rappresentano essenzialmente un cambiamento del profilo temporale delle entrate nette (più alte oggi, più basse domani), senza necessariamente cambiarne il valore atteso. In questo senso, non hanno necessariamente una grande rilevanza macroeconomica, ma sono ovviamente molto utili per soddisfare i vincoli del Patto. Questo in teoria. In pratica, hanno infatti due tipi di costi, anche se difficilmente quantificabili: riducono la trasparenza dei bilanci, e possono comportare un costo implicito maggiore del tasso di interesse che le Ap oggi pagano sul debito pubblico (vedi Pisauro 06-05-2003). Anche le entrate straordinarie e occasionali (cessioni di immobili, prelievi sostitutivi straordinari, versamenti per le rivalutazioni dei cespiti aziendali) sono state usate in misura limitata (tra lo 0,4 e lo 0,55 del Pil a seconda degli anni), e comparabile a simili occasioni in passato: per esempio, l’Eurotassa del 1997-8 valeva circa l’1 per cento del Pil. Qualunque sia il giudizio che si dà sulla loro trasparenza e opportunità, è importante quindi tenere presente che i risultati discussi qui non dipendono da queste misure. Le spese: alcuni miti, e la realtà Consideriamo ora il lato delle spese della gestione Tremonti. Partiamo dal dato aggregato, la spesa primaria (cioè al netto degli interessi). Qui sorgono due difficoltà. La prima è quale anno prendere come punto di partenza: il 2000 o il 2001? Il secondo risente dell’attività di due governi diversi, che si dividono l’anno quasi a metà. Per i motivi che discuto sotto, il 2001 è probabilmente un migliore punto di riferimento. La seconda difficoltà è che i dati ufficiali sulla spesa primaria possono essere fuorvianti, perché per convenzione le spese in conto capitale sono al netto di alcune entrate una tantum, come le vendite e cartolarizzazioni di immobili e i proventi Umts (vedi tabella 1). (5) Le righe 1 e 2 della tabella 2 presentano l’andamento del rapporto spesa primaria/Pil, sia quello originale sia quello, più significativo, “corretto” escludendo appunto le entrate una tantum portate in detrazione alle spese in conto capitale. La spesa primaria ufficiale del 2003 è più alta di 1,7 punti percentuali del Pil rispetto al 2001 e di 3,4 punti percentuali rispetto al 2000 (che beneficiò dei proventi Umts); per quella corretta, i numeri sono 1,7 e 2,4 punti percentuali. Due voci di bilancio rappresentano quasi l’85 per cento di tutta la spesa primaria: consumi pubblici (cioè consumi intermedi più remunerazione degli impiegati pubblici, o spesa per il personale) e prestazioni sociali alle famiglie. L’andamento di queste due voci è dunque cruciale per comprendere la dinamica delle spese; fortunatamente, inoltre, i dati su queste due voci sono abbastanza incontroversi, ed esenti da interpretazioni alternative e alchimie contabili. La spesa per consumi pubblici nel 2003 è aumentata rispetto al 2001 dello 0,5 percento del Pil. Di questi, solo 0,2 punti percentuali sono dovuti all’ aumento della spesa per personale. Ciò sembra contrastare con l’opinione diffusa che la spesa per consumi intermedi e per il personale stesse aumentando fuori controllo, con aumenti nel 2003 rispettivamente del 19,5 per cento e del 9,3 per cento. Il motivo della apparente contraddizione è semplice: questi ultimi dati si riferiscono al settore statale, e sono di cassa; inoltre, omettono il fatto che nel 2002 la spese per consumi intermedi e per il personale del settore statale diminuirono dell’2,4 e dell’1,3 per cento, rispettivamente. Il primo dato si riferisce alle Ap, ed è di competenza. Come spiegare allora l’aumento considerevole 1 punto percentuale del Pil dei consumi pubblici nel 2003 rispetto al 2000? Metà di questo aumento è avvenuto nel 2001, ed è imputabile in gran parte all’aumento della spesa sanitaria (15,9 per cento) e in particolare di quella farmaceutica (32,8 per cento). È difficile attribuire esattamente la responsabilita’ di questo aumento, ma certamente su esso hanno influito pesantemente le misure prese dal governo precedente nella prima parte dell’ anno, quali l’ abolizione del ticket e l’ ampliamento delle prestazioni garantite dal SSN. La spesa per prestazioni sociali monetarie nel 2003 è aumentata di 0,4 pp rispetto al 2000, e di 0,6 pp rispetto al 2001. L’ aumento è dovuto soprattutto alla spesa pensionistica, in parte a causa delle tendenze demografiche in atto, in parte per misure discrezionali quali l’ aumento delle pensioni minime. È legittimo incolpare Tremonti di parte di questo aumento, ma bisogna allora essere coerenti fino in fondo: molti di coloro che invece accusano questo governo di irresponsabilità fiscale e di tradire il Trattato di Maastricht allo stesso tempo lo accusano di volere attaccare lo stato sociale. Sono davvero aumentate le spese? I dati su entrate e spese in relazione al Pil sono però leggermente fuorvianti. È importante ricordare che il ciclo economico (vedi riga 20 della tabella 2) è stato negativo nel 2002-2003 e positivo (almeno per gli standard italiani) nel 1995-2001. Un peggioramento della congiuntura fa aumentare spese ed entrate in rapporto al Pil semplicemente perché fa diminuire il denominatore. Per avere un’idea dell’effetto denominatore sulle spese, le righe dalla 8 alla 13 della tabella mostrano i tassi di crescita in termini reali (valori nominali divisi per il deflattore del Pil) delle voci di spesa analizzate in precedenza. Nel 2002 e 2003, la crescita della spesa primaria corretta e dei consumi pubblici (inclusa la spesa per personale) è stata più bassa che nel biennio precedente. Peggio del resto d’Europa? Dipende
Sia per le spese, sia soprattutto per le entrate il ciclo economico impatta anche sul numeratore del rapporto. Un modo per tenerne conto è di esprimere entrate e spese al netto dell’effetto del ciclo economico, ottenendo così dati “cyclically adjusted”. (6) L’avanzo primario “cyclically adjusted” corretto per le misure una tantum è sceso di 1,5 punti percentuali fra il 2001 e il 2003 (riga 19). (8)
.E dei suoi predecessori? Probabilmente no In ogni caso, non si può disconoscere che è mancata sotto Tremonti una politica di riduzione della spesa primaria. In questo, tuttavia, Tremonti è in ottima compagnia. Dalle righe 1 e 14 della tabella 2, si può notare che neanche nel periodo di massimo sforzo per entrare nell’unione monetaria, tra il 1995 e il 1999, quando l’indebitamento netto delle AP cadde dal 7.6 all’1,7 e il ciclo economico era in larga parte favorevole, vi fu la pur minima riduzione della spesa primaria: tutto l’aggiustamento fiscale fu fatto dal lato delle entrate, e anche in questo caso con ampio ricorso a misure una tantum. Il debito pubblico: la fantasia al potere Si afferma frequentemente che la discesa del debito pubblico è rallentata sotto la gestione Tremonti. Anche in questo caso la differenza è spiegabile in gran parte con l’effetto denominatore; ma soprattutto in questo caso, gli artifici contabili hanno contribuito a salvare le apparenze. È infatti sul debito che si è scatenata maggiormente la fantasia del ministero dell’Economia. Anche in questo caso bisogna distinguere tra aspetti contabili ed effetti macroeconomici. Per un cittadino, ciò che conta è il debito pubblico totale di tutti gli enti che sono sotto il controllo pubblico: che questi enti siano formalmente società per azioni, o siano invece parte delle Ap, è irrilevante. Allo stesso modo, il fatto che certi proventi siano cartolarizzati e per di più venduti a enti privati solo di nome, ma in realtà controllati integralmente dal ministero non cambia il valore atteso delle tasse che il governo prima o poi chiederà per pagare il debito. L’impatto macroeconomico diretto di questi artifici contabili è dunque probabilmente limitato. Ma il loro costo, in termini di immagine e trasparenza, potrebbe rivelarsi alto; e in questo senso il loro impatto macroeconomico indiretto potrebbe non essere trascurabile. (1) Questi ultimi sono desunti da varie “Relazioni del Governatore della Banca d’Italia”. Fonte: righe 1-16: “Relazione del Governatore della Banca d’ Italia”, varie edizioni
Sono incluse solo le misure che effettivamente contribuiscono a ridurre l’indebitamento netto (2) delle amministrazioni pubbliche (Ap) (3), il dato rilevante sia per i parametri del Patto di stabilità e crescita, sia per gli effetti macroeconomici. In media, le misure una tantum sono valse circa 1,3 punti percentuali del Pil all’anno durante il periodo 2001-2003, contro una media degli anni precedenti di 0,75 punti percentuali.
È importante però distinguere tre tipi di misure una tantum: condoni, anticipazioni di entrate, ed entrate straordinarie e occasionali.
I condoni sono una manifestazione delle famose “tre i”: “immoralità”, “inciviltà”, e “incompetenza”. Hanno svolto egregiamente il compito di fare cassa in fretta; ma il prezzo da pagare (sebbene non quantificabile) è stato altissimo in termini di immagine e di cultura della semi-illegalità (vedi Guerra). La tabella 1 mostra che i condoni sono la vera anomalia della gestione Tremonti: ben l,5 percento del Pil nel 2003: se si escludono i condoni, la gestione Tremonti mostra una media di misure una tantum simile agli anni precedenti.
Vi sono però due osservazioni più generali sulle misure una tantum. Primo, alcune delle operazioni che più hanno fatto notizia, come le cartolarizzazioni immobiliari e dei proventi del Lotto del 2001, lo swap del debito e le cartolarizzazioni dei crediti Inpdap e della Cassa depositi e prestiti del 2002, e le cartolarizzazioni dei crediti Inps del 2002 e 2003, hanno inciso sul fabbisogno di cassa e sul debito e in misura rilevante, circa 2 punti di Pil nel 2002 e 2003; tuttavia, esse non hanno inciso sull’indebitamento netto. (4)
Secondo, la vendita di immobili pubblici può essere un’operazione perfettamente legittima e opportuna. È anche tutto sommato comprensibile che, sotto pressione per soddisfare gli impegni del Patto, un ministro delle Finanze cerchi di anticipare introiti futuri. Il vero problema è che le dismissioni e le cartolarizzazioni immobiliari sono state in gran parte virtuali, cioè hanno coinvolto società solo legalmente al di fuori delle Ap, in realtà controllate dal Tesoro. Come spiegano (Pisauro 01-03-2004 e Bayron 12-12-2002), non è ovvio che queste società riusciranno a vendere a privati nei prezzi impliciti nelle cartolarizzazioni.
La riga 17 della tabella 2 mostra che indebitamento netto “cyclically adjusted” calcolato dalla Commissione è addirittura diminuito tra il 2001 e il 2003.
Si può obiettare che ciò è avvenuto per la provvidenziale discesa dei tassi di interesse e per l’uso di misure una tantum, condoni, e artifici contabili. Come indica la riga 7, tra il 2001 e il 2003 la spesa per interessi è diminuita dell1,1 per cento del Pil. Al netto di questa spesa, rimane vero che l’avanzo primario “cyclically adjusted” è rimasto essenzialmente invariato tra il 2001 e il 2003 (riga 18 della tabella 2). (7)
Anche questa diminuzione è simile a quella avvenuta nel periodo 1997-2000.
In conclusione, includendo le misure una tantum, Tremonti ha fatto meglio della media dell’area euro, in cui l’ avanzo primario “cyclically adjusted” è sceso tra il 2001 e il 2003 di 0,4 punti percentuali secondo i calcoli della Commissione. Al netto delle misure una tantum, l’avanzo primario corretto per il ciclo è invece andato peggio della media dell’area euro. (9)
Il giudizio finale, quindi, verte sulla legittimità delle misure una tantum. Come ho detto prima, non tutte sono necessariamente negative; ma il ruolo dei condoni nel salvare il 2003 è rilevante.
Anche in questo caso si possono distinguere due strategie: anticipare entrate, portando i proventi in riduzione del debito, e modificare lo status legale di alcune entità per farle uscire dalla definizione delle Ap. Riguardo alla prima, mentre come abbiamo visto solo una parte delle cartolarizzazioni ha avuto effetti dell’indebitamento netto, tutte hanno avuto effetti sul debito delle Ap, anche in questo caso il dato rilevante per il Patto. Riguardo alla seconda, la “privatizzazione” della Cassa depositi e prestiti è emblematica. Di per sé, questa ha portato una minima riduzione del debito (0,6 miliardi di euro). Tuttavia, una volta privatizzata la Cassa, il governo ha potuto “venderle” 11 miliardi di euro di partecipazioni azionarie, e portare il ricavato in riduzione del debito.
È interessante notare come, nella motivazione del downgrading del debito pubblico (http://www2.standardandpoors.com/NASApp/cs/ContentServerpagename=sp/Page/HomePg) annunciata mercoledì 7 luglio, Standard & Poor’s menzioni molto raramente il debito, e si concentri prevalentemente sul disavanzo di bilancio: gli artifici contabili sul debito servono a soddisfare formalmente il Patto, ma non ingannano nessuno.
(2) L’ indebitamento netto è all’incirca la differenza fra uscite ed entrate di competenza.
(3) Le amministrazioni pubbliche includono il settore statale (cui si riferisce il bilancio dello Stato) ma anche Regioni, province, comuni, enti di previdenza, ed altri enti. I dati delle amministrazioni pubbliche, incluso l’indebitamento netto, sono per competenza, quelli sul settore statale quasi sempre di cassa. Molti equivoci sarebbero stati evitati se i media fossero consapevoli della enorme differenza fra i dati delle amministrazioni pubbliche e quelli del settore statale, e della diversa copertura dei vari documenti economici prodotti durante l’anno.
(4) Nelle intenzioni, le prime due misure dovevano ridurre anche l’indebitamento, ma non sono state accettate da Eurostat.
(5) La tabella 1 mostra che il totale di queste entrate in detrazione di spesa è stato dell’1,3 per cento nel 2000 e dello 0,9 percento nel 2002, e trascurabile nel 2001 e 2003. È importante ricordare che questo non è un trucco contabile di Tremonti, ma una convenzione adottata da tutti i paesi europei e incorporata in tutti i dati ufficiali, inclusi quelli certificati da Eurostat e usati per il calcolo dei parametri del Patto di stabilità e crescita.
(6) L’aggiustamento ciclico dei dati di bilancio non è una semplice operazione contabile, ma comporta dei giudizi soggettivi. Di conseguenza, diverse organizzazioni (Ocse, Commissione europea, Fondo Monetario, Banca d’Italia) possono fornire stime diverse dell’aggiustamento ciclico nello stesso anno.
(7) L’opinione diffusa secondo cui la discesa dei tassi è stata resa possibile dall’adesione alla unione monetaria è inoltre un poco maliziosa. Secondo i calcoli di Lorenzo Codogno, Carlo Favero, e Alessandro Missale (“EMU and government bond spreads”, Economic Policy, October 2003), l’adesione all’euro, eliminando il rischio di cambio, ha diminuito il differenziale con i tassi a lunga tedeschi di circa 300 punti base (3 punti percentuali) un numero molto alto. Ma dal 2000 in poi, il differenziale con i tassi tedeschi ha sempre fluttuato tra i 20 e i 40 punti base: in altre parole, gli effetti dell’entrata nell’unione monetaria si sono esauriti ben prima della gestione Tremonti. I tassi di mercato italiani ed europei sono in gran parte decisi dalla Fed americana, che tra il maggio 2000 e la fine del 2003 ha ridotto il Federal Fund rate dal 6,5 per cento all’1 per cento.
(8) Questo dato probabilmente sottostima l’effetto negativo dei fattori esterni sull’indebitamento netto. Con la fine del boom di Borsa, tra il 2000 e il 2003 le Ap hanno perso di colpo circa 8 miliardi di euro (circa lo 0,6 percento del Pil del 2001) in imposte legate all’andamento del mercato borsistico. L’aggiustamento ciclico del deficit tiene conto della caduta del tasso di crescita del Pil, ma non della caduta delle quotazioni di Borsa.
(9) In quest’ultimo confronto, non si tiene conto che anche altri paesi europei hanno fatto uso di misure una tantum, seppure in misura minore.
righe 17-20: “Public Finance in EMU”, edizione 2004, Bruxelles, Commissione europea
Per gli anni 1995 e 1996, nelle righe 16 e 19 si è assunto che le misure temporanee fossero pari a 0,5 punti percentuali del Pil, ottenuto dividendo in tre parti uguali il dato aggregato di 1,5 punti percentuali per il triennio 1994-96 citato dalla “Relazione del Governatore per l’ Esercizio 1999”, p. 177.
La riforma fiscale, annunciata in campagna elettorale, per la quale aveva presentato un disegno di legge delega già nel dicembre del 2001: questa doveva essere l’eredità di Giulio Tremonti alla fine del suo mandato. Le sue dimissioni lasciano invece il “progetto” incompiuto. La riforma annunciata Due elementi hanno impedito a Tremonti di procedere nella sua riforma. In primo luogo, si trattava di una riforma costosissima: l’abolizione dell’Irap, 30 miliardi di euro, la riforma dell’Irpef, altri 20 miliardi di euro. Ma non sono solo i vincoli di bilancio che hanno costretto Tremonti a procedere a piccoli passi: un primo modulo di riforma dell’Irpef, la riforma della tassazione dei redditi delle società. L’altra importante ragione è che la legge delega, approvata, pur senza particolari modifiche rispetto al testo originale, dal Parlamento ben sedici mesi dopo la sua presentazione (aprile 2003), con la sola eccezione della parte relativa alla tassazione del reddito di impresa, non è una vera legge delega. È un manifesto di intenti, poco più o poco meno di una piattaforma elettorale. Quando si è trattato di tradurlo in una riforma vera, i nodi sono venuti al pettine. Solo allora gli alleati di governo, che pure l’avevano votata compatti, si sono resi conto degli effetti redistributivi fortemente negativi del passaggio a un’imposta sui redditi a due aliquote, 23 e 33 per cento. Effetti che erano stati ampiamente segnalati dalla letteratura sull’argomento, ma che non erano emersi con chiarezza nell’attuazione del primo modulo, costoso sì, ma abbastanza neutrale sul piano distributivo. La maggioranza ha cominciato ad andare in ordine sparso, quando ha realizzato che la menzione di una generica volontà di tener conto della famiglia non significa niente: occorre decidere se l’unità di riferimento deve o meno rimanere l’individuo, e, soprattutto, occorre affrontare il problema dell’incapienza fiscale. Alzare le deduzioni o le detrazioni per carichi di famiglia, non dà alcun beneficio (o lo dà solo in misura ridotta) agli individui poveri che non hanno sufficiente imponibile o imposte contro cui farle valere. Allo stesso modo, si sono scontrati con l’insostenibilità della promessa di abolire l’Irap, senza procedere alla ben che minima indicazione di un prelievo che possa sostituirla nel finanziamento delle Regioni (e quindi della sanità). Questi ostacoli, oltre a quello della perdita di gettito, che qualcuno ritiene ancora aggirabile, hanno impedito a Tremonti di realizzare la sua riforma. E non lo renderanno facile neppure al suo attuale successore, Silvio Berlusconi. Il taglio delle tasse che si autofinanzia Fra i provvedimenti più significativi che Tremonti ha comunque realizzato nel triennio in cui è stato ministro, merita di essere ricordato il reiterato ricorso alla strategia del taglio delle tasse, finanziato temporaneamente con entrate straordinarie, con l’obiettivo di attivare un circolo virtuoso, taglio delle tasse- sviluppo economico-aumento delle tasse indotto dalla crescita, che nella sua filosofia avrebbero dovuto permettere al taglio stesso di autofinanziarsi. Lo ha fatto da subito, con la manovra dei cento giorni, il cui cardine, la “Tremonti bis“, era stato il cavallo di battaglia della sua campagna elettorale presso gli industriali e i commercianti. Si è trattato di un’agevolazione non selettiva, indifferentemente concessa a qualsiasi tipo di investimenti, nuovi o di rimpiazzo, di tutti gli operatori economici (compresi i lavoratori autonomi, le banche e le assicurazioni), comunque finanziati, e quindi anche con debito, alla condizione che risultassero superiori, nell’esercizio considerato, alla media degli investimenti realizzati nei precedenti cinque periodi di imposta. Lo ha fatto poi con l’introduzione del cosiddetto primo modulo della riforma dell’Irpef: rimodulazione delle aliquote e introduzione di una deduzione di base, denominata no tax area, in sostituzione della preesistente detrazione per lavoro dipendente e autonomo. Doveva essere la parte della riforma dell’Irpef maggiormente concentrata sui redditi medio bassi, a più alta propensione al consumo, ed essere quindi, a un tempo, redistributiva e di stimolo ai consumi. In entrambi i casi, l’atteso sostegno alla domanda non è venuto, anche a causa della congiuntura economica sfavorevole. Non sono però pochi i contribuenti per i quali la Tremonti bis si è tradotta in un contributo a fondo perduto per sostituire l’auto o l’arredamento dell’ufficio. E non sono state le famiglie più povere (e a più alta propensione al consumo) a beneficiare maggiormente dello sgravio Irpef: secondo le stime del Capp (Cfr. Baldini e Bosi), il 63 per cento di tale sgravio è andato alle famiglie comprese nei decili dal sesto al decimo. Le famiglie più povere, quelle del primo decile, non ne hanno goduto in misura rilevante, in larga parte perché incapienti. Mentre la Tremonti bis ha tagliato le imposte solo temporaneamente, il primo modulo dell’Irpef ha comportato un taglio permanente di imposte: 5,5, miliardi che mancheranno ogni anno alle casse dello stato. Un taglio che richiede una copertura anch’essa permanente (riduzione di spese? aumento di tasse?) che non è ancora stata trovata. Questo problema viene tranquillamente ignorato nel dibattito attuale in cui viene menzionato, esclusivamente, il problema della copertura di eventuali ulteriori tagli fiscali. Le entrate straordinarie: scudo fiscale e condoni La copertura dei tagli fiscali è stata ottenuta, inizialmente, con entrate straordinarie. Quelle a cui ha fatto ricorso Tremonti hanno avuto caratteristiche particolari, su alcune delle quali è bene soffermarsi.
Nel settembre 2001, al duplice scopo di stimolare lo sviluppo economico e di acquisire gettito per finanziare la Tremonti bis, veniva sperimentata la prima edizione dello scudo fiscale, un provvedimento finalizzato a incentivare il rientro o, comunque, l’emersione di capitali illecitamente esportati all’estero, coadiuvato dalle nuove norme sul falso in bilancio.
Pagando una piccola tassa, il contribuente si precostituiva una franchigia (lo scudo, appunto) di ammontare pari all’importo dei capitali emersi o rientrati da opporre all’amministrazione finanziaria in caso di eventuali futuri accertamenti fiscali e previdenziali relativi a periodi precedenti. Larga parte dei capitali che hanno beneficiato dello scudo non sono rimpatriati, se non temporaneamente (vedi Cottarelli), e non hanno quindi contribuito a finanziare lo sviluppo. Molti invece sembrano essere stati i casi di frode: promotori finanziari che si sono prestati al riciclaggio di proventi derivanti dall’evasione fiscale e da altre attività illecite, realizzato proprio grazie al meccanismo dello scudo fiscale. Questo rischio era stato paventato da molti esperti al momento dell’ emanazione della legge, ma ignorato dalle autorità.
L’anno dopo, il finanziamento è arrivato da uno strumento vecchio, a cui anche governi passati hanno fatto ricorso: il condono. Non si è trattato però né di un solo condono, né di un condono qualsiasi. In questo campo infatti il ministro Tremonti ha superato di gran lunga la fantasia dei suoi predecessori. Non solo per la varietà di condoni previsti (cfr Giannini), non solo nel lasciare che venissero di fatto annunciati ancora prima della chiusura dei termini per la dichiarazione a cui si riferivano, ma anche introducendo un’importante innovazione mutuata dai provvedimenti per il rientro dei capitali: la possibilità di fare il condono mantenendo l’anonimato.
Le conseguenze di questi provvedimenti sull’attività di accertamento sono state e saranno molto gravi. Quelle del passato sono state svendute a basso prezzo (come nel caso del provvedimento di “rottamazione” dei ruoli che ha concesso la possibilità di estinguere le pretese del fisco pagando soltanto il 25 per cento delle somme complessivamente dovute). L’attività corrente di accertamento è stata inibita dal continuo spostamento dei termini per l’adesione alle diverse sanatorie. Negli anni a venire, infine, l’amministrazione si troverà per molto tempo nella situazione di condurre accertamenti al buio, per poi scoprire che il soggetto su cui sta indagando non è perseguibile perché si è avvalso di sanatorie anonime (scudo fiscale, condono tombale), o può comunque beneficiare delle diverse franchigie concesse nei confronti degli accertamenti futuri. Proprio lo strumento della franchigia si è infine tradotto in legittimazione, ex ante, all’evasione, nel caso del concordato “preventivo” varato con la Finanziaria per il 2004: il contribuente che aderisce al concordato potrà poi dichiarare un reddito inferiore al vero avendo la garanzia che non sarà sottoposto ad accertamento fintantoché il reddito occultato non supera di oltre il 50 per cento quello dichiarato (vedi Guerra).
In questi anni, in definitiva, l’attività di accertamento dell’amministrazione sembra confinata a svolgere un avvilente ruolo di strumento di ricatto, sollecitata come è a inasprire i controlli sui soggetti che non hanno aderito a questo o quel condono, magari perché onesti. In compenso, i contribuenti disonesti si trovano a godere di benefici inattesi: se avevano contabilizzato fatture false, facendo emergere falsi crediti Iva, aderendo al condono vedranno tali crediti trasformarsi in crediti veri, che il fisco pagherà. Lo svilimento del ruolo dell’amministrazione finanziaria, il condono che legittima un atto illecito, il condono che delegittima le imposte quale strumento democratico di finanziamento della cosa pubblica: questa è l’eredità, certamente più pesante di quella dei conti in disordine, che Tremonti lascia ai suoi successori e al paese.
Come Jacques Necker, ministro delle Finanze di Luigi XVI, Giulio Tremonti ha goduto di un grande potere. Come Necker, Tremonti ha finito per essere vittima delle sue stesse creazioni. È stato il ministro delle una tantum. E di una tantum oggi perisce. Ha giocato d’azzardo sperando in una ripresa del ciclo e in un allentamento dei vincoli europei. E ha perso. Ci lascia un eredità pesante. Ma le sue dimissioni rischiano di spianare la strada al peggiore dei cicli politici. Potremo anche rimpiangerlo. Il potere di Tremonti Tremonti è stato il primo ministro dell’Economia della storia repubblicana, il che gli ha permesso di accorpare su di sé le funzioni precedentemente ricoperte dai titolari del ministero del Tesoro e delle Finanze e, se vogliamo risalire indietro nel tempo, dai ministeri delle Partecipazioni Statali e del Bilancio e della Programmazione Economica. È stato ministro di un governo con la più solida maggioranza parlamentare (in entrambi i rami del Parlamento) dopo il sesto Governo De Gasperi. Ha potuto gestire la politica economica del Governo Berlusconi avendo di fronte a sé un’associazione degli industriali molto arrendevole. Ha dovuto fronteggiare un sindacato non disposto a concedere sconti, ma anche fortemente diviso al suo interno. Nonostante dovesse attuare un programma che prevedeva una forte riduzione delle tasse e della spesa pubblica, è riuscito in questi anni solo a espandere la spesa, cresciuta di ben due punti del Pil. La congiuntura non è stata per lui particolarmente favorevole, ma neanche così ostile come spesso paventato. È più facile tagliare le tasse e la spesa pubblica in periodi di crescita economica. Ma sotto il suo regno è continuata la discesa dei tassi di interesse, una manna per chi deve gestire il “terzo debito pubblico del pianeta”. Sarà più difficile il compito del suo successore, adesso che si è interrotta la fase dei tassi calanti. Vittima delle sue creazioni Tremonti è stato di una fantasia rara nell’inventare misure una tantum, un genio nella finanza creativa. Questo ha permesso al nostro paese di rispettare i vincoli presi a livello europeo. Non è stato certo il primo a usare le una tantum (ce ne sono state anche nella passata legislatura), ma senz’altro il più assiduo. Nelle sue intenzioni, sarebbero dovute servire a guadagnare tempo, in attesa di momenti migliori. Ma il rinvio dei problemi agli esercizi futuri e la finanza creativa hanno finito per allentare anche i vincoli di bilancio percepiti all’interno della coalizione, permettendo agli alleati di governo di sottoscrivere accordi per il pubblico impiego che recepivano in pieno la piattaforma sindacale. E quando il quadro preoccupante dei conti pubblici è risultato evidente a tutti, è stato facile per gli alleati incolpare Tremonti di averli truccati. Sotto la sua reggenza dell’Ecofin, si è consumata la rottura del Patto di Stabilità e crescita, con la riunione dei ministri delle Finanze dell’Unione che ha deciso di non applicare le sanzioni a Francia e Germania in cambio di un atteggiamento più morbido nei confronti dell’Italia (quello che oggi ci ha permesso di evitare l’early warning). Il messaggio secondo cui le regole ci sono solo per non essere applicate, il protratto sforamento dei vincoli di Maastricht da parte dei nostri principali partner europei hanno, di fatto, indebolito l’azione di Tremonti sul fronte interno. È stato costretto a dimettersi alla vigilia di una riunione Ecofin decisiva per il nostro paese. Segnale chiaro del fatto che i vincoli europei non sono stati presi troppo sul serio da molti ministri. Un’eredità pesante Abbiamo documentato su questo sito lo stato attuale dei conti pubblici. Il consuntivo degli ultimi tre anni è sintetizzato in un dato: il saldo primario della Pa nel 2003 è stato peggiore di 1,7 punti di Pil rispetto al risultato del 2000. Solo la riduzione della spesa per interessi (1,2 punti di Pil), il dividendo dell’euro, ha consentito di mantenere il disavanzo complessivo al di sotto della soglia del 3 per cento. Di fronte a un prevedibile rialzo dei tassi, bisognerà ridurre la spesa primaria che, invece, ha ripreso a crescere (un punto nel solo 2003), dopo essere rimasta costante tra il 1996 e il 2000. Non tanto per nuove misure, ma perché l’azione di contrasto è stata debole, basata su interventi tampone (vedi taglia-spese), con lenti progressi nella costruzione di un moderno sistema di monitoraggio e controllo (come testimonia la diatriba tra Tesoro e Banca d’Italia sull’emersione di nuovo debito pubblico alla fine dello scorso anno vedi Perotti) e di un compiuto sistema di relazioni finanziarie tra Stato centrale e autonomie territoriali. Anche le entrate sono cresciute (due punti di Pil rispetto al 2000) sotto la reggenza Tremonti, ma è una crescita che contiene i germi di andamenti molto meno favorevoli in futuro. La successione di condoni ha fortemente incrinato il rapporto tra fisco e contribuenti (vedi Bordignon). Segnali evidenti sull’andamento delle entrate “strutturali” (al netto dei condoni) sono presenti già nel 2003. L’aumento dell’evasione, per una sorta di contrappasso, potrebbe divenire la pietra tombale sulle ipotesi di riduzione delle aliquote dell’Irpef. Buona parte delle entrate aggiuntive è venuta dai proventi della vendita del patrimonio pubblico, non destinati a ridurre il debito, ma solo a tenere insieme l’equilibrio dei conti. Anche qui con costi potenziali non trascurabili (vedi Scip2). Negli ultimi mesi il gioco d’azzardo, la politica dell’attesa di tempi migliori è divenuta insostenibile: il disavanzo viaggia verso il 4 per cento del Pil e il tempo per mantenere le promesse elettorali si sta esaurendo. Cosa accadrà ora? Difficile cercare di leggere nella sfera di cristallo, almeno fin quando non si saprà chi sostituirà Tremonti. Ma una cosa è certa: chiunque siederà alla scrivania di Quintino Sella in via XX Settembre, magari in affitto, difficilmente potrà accentrare su di sé lo stesso potere del suo predecessore e vivrà in un clima di assalto alla diligenza. Dietro alla richiesta di collegialità, si legge un tentativo di procedere a uno smembramento delle competenze del ministro dell’Economia, con la ricostruzione di fatto del dualismo fra Finanze e Tesoro e si parla anche di un ministero per il Mezzogiorno. Una collegialità virtuosa può invece venire da una maggiore trasparenza della politica di bilancio che renda il vincolo finanziario chiaramente percepibile a tutti: ministri, gruppi di interesse e opinione pubblica. Per evitare il saccheggio del bilancio pubblico è necessario un sistema di regole rigide e una “casa di vetro”. Varranno poi per il successore di Tremonti le leggi del ciclo politico, che comportano un aumento del deficit pubblico di circa mezzo punto di Pil in occasione di ogni tornata elettorale. Tremonti sembrava in procinto di gestire il ciclo politico riducendo le tasse, anche senza copertura. Nel suo mesto messaggio di congedo, in quel suo “non mi hanno lasciato tagliare le tasse”, si intuisce che il suo successore verrà spinto dai colleghi ad aumentare il disavanzo nel modo più tradizionale: aumentando la spesa, anziché riducendo le tasse. Dato lo stato dei nostri conti pubblici, il ciclo politico, che rischia di essere molto lungo data la minaccia continua di elezioni anticipate, è comunque una sciagura. Non si sa cosa scegliere fra disavanzo con più spesa “per lo sviluppo”, disavanzo con più devolution o disavanzo con meno tasse. Con l’interim di Berlusconi, rischiamo di averle tutte e tre. In questo interim elettorale potremo anche rimpiangere Tremonti.
Il 2004 è stato un anno importante per l’informazione e i media nel mercato italiano. A maggio è stata approvata la nuova legge che regolamenta gli assetti del settore delle comunicazioni, la Legge Gasparri, che introduce profondi cambiamenti rispetto al quadro recedente. Ma mantiene un dato di continuità con le precedenti normative, nel fotografare la situazione esistente senza incidere sul quadro allarmante dell’informazione e del pluralismo in Italia. Il mercato televisivo viene sottoposto a vincoli antitrust, calcolati tuttavia su un mercato di riferimento talmente ampio e eterogeneo da consentire non solo il mantenimento, ma la crescita delle attuali posizioni dominanti. Ma il pluralismo in Italia non è solamente un problema di televisioni. Anche la stampa, settore apparentemente più frammentato, si caratterizza come un insieme di piccoli oligopoli locali, all’interno dei quali pochissime testate vantano quote di mercato molto elevate. In questo quadro di concentrazione persistente e non intaccato dalle nuove norme inizia a profilarsi all’orizzonte una revisione della par condicio, che in un contesto come quello italiano appare uno dei pochi vincoli che garantiscano un bilanciamento delle opportunità tra le diverse posizioni politiche.
Le dinamiche di mercato difficilmente possano portare a una offerta diversificata e ampia di posizioni politiche tra operatori dell’informazione o all’interno di ciascuno di essi, come abbiamo illustrato
L’antitrust non basta
È bene sottolineare subito che le politiche antitrust, per quanto utili a mantenere la concorrenza e i mercati aperti ai nuovi entranti, non possono da sole supplire alle esigenze di pluralismo, e ubbidiscono a obiettivi di efficienza economica che non sempre coincidono con quelli di un libero accesso di tutte le opinioni ai mezzi di comunicazione.
Si rende quindi necessario il disegno di appropriate politiche regolatorie per il pluralismo.
Abbiamo argomentato come in molti mercati dei media esiste una tendenza alla concentrazione, dovuta a dinamiche in parte diverse, che ben difficilmente le politiche pubbliche possono evitare. Esiste tuttavia uno spazio su cui intervenire per evitare che la concentrazione risulti anche maggiore di quanto le dinamiche concorrenziali giustifichino, sottoponendo a un attento controllo la creazione di gruppi multimediali su uno stesso o su più mercati.
In primo luogo la concentrazione, in una prospettiva di pluralismo, dovrebbe essere valutata mercato per mercato, con riferimento alla distribuzione degli ascoltatori e dei lettori, in modo da verificare se qualcuno tra i media presenta problemi di insufficiente pluralismo esterno. Siamo quindi ben lontani da quel singolare coacervo di mercati e di fatturati, il sistema integrato di comunicazione, creato dalla Legge Gasparri per annacquare ogni posizione dominante.
L’impostazione che riteniamo meno intrusiva sulle dinamiche di mercato dovrebbe limitare la concentrazione sul singolo mercato dei media (pur sacrificando in questo eventuali sinergie), qualora questa si realizzi attraverso la proprietà di più mezzi (molti canali televisivi, o numerosi giornali o stazioni radio) attivi sul mercato stesso. Se tuttavia con un singolo mezzo, un operatore fosse in grado di raccogliere un ampio pubblico grazie alla bontà dei suoi contenuti, non riteniamo che le politiche pubbliche dovrebbero intervenire con dei vincoli alle quote di mercato.
Al contempo, tali sinergie dovrebbero essere invece consentite tra diversi segmenti dei media, laddove l’operatore multimediale non raggiunga posizioni dominanti in nessuno dei singoli mercati. In una parola, gruppi multimediali risultano desiderabili se attivi su più mercati, ma dovrebbero essere contrastati se dominanti in un singolo mercato
Gli strumenti da utilizzare
Gli strumenti che in questa prospettiva appaiono più utili risultano le limitazioni al numero di licenze in capo a uno stesso operatore, applicabili in quei mercati (televisione e radio) nei quali una autorizzazione è necessaria per l’uso dello spettro elettromagnetico. Utilizzando questo strumento è possibile quindi limitare la crescita di un operatore che disponga di un portafoglio con più licenze per canali televisivi, laddove la sua quota cumulata di audience superi determinate soglie (in Germania è attualmente posta al 30 per cento), costringendolo a cedere licenze nel caso di superamento dei limiti consentiti. Analogamente, vincoli alla partecipazione su più mercati (giornali, televisioni, radio) dovrebbero intervenire laddove l’operatore raggiunga una posizione dominante in qualcuno di essi, imponendo anche in questo caso la cessione di licenze.
Più difficile intervenire in caso di forte dominanza realizzata da gruppi editoriali attivi solo nella carta stampata con numerose testate, per le quali evidentemente non esistono licenze da ottenere. Solamente in caso di fusioni e acquisizione, ma non di creazione ex-novo di testate, ci sarebbe spazio per intervenire. Quando questi interventi volti a garantire il pluralismo esterno risultano poco efficaci, vanno associate misure per il pluralismo interno.
Il pericolo maggiore per il pluralismo interno nei contenuti dei singoli operatori, ritengo derivi dalle motivazioni lobbistiche dei gruppi proprietari, che inducono a privilegiare la rappresentazione di posizioni politiche specifiche. Questa componente risulta enfatizzata quando la proprietà dei gruppi di comunicazione veda coinvolti investitori attivi in altre industrie regolate (public utilities, banche, trasporti, eccetera). Occorre quindi fissare dei limiti alla partecipazione azionaria di queste categorie di soggetti al settore dei media.
Le motivazioni lobbistiche o partigiane espresse dalla proprietà dei media sono tuttavia in parte ineliminabili. Occorre quindi pensare, in particolare nelle fasi (campagne elettorali) nelle quali distorsioni informative eserciterebbero effetti di lungo periodo, a una regolazione diretta degli spazi, del diritto di replica, dell’accesso, secondo criteri di par condicio. Questa regolamentazione è stata sino a oggi applicata all’informazione televisiva. La situazione di forte concentrazione nei mercati locali della carta stampata pone tuttavia l’esigenza di iniziare a discutere di quello che sinora è considerato un tabù, il diritto di accesso sui giornali. Infine, il mantenimento di un canale pubblico televisivo (ben diverso dalla attuale Rai) sottoposto a un controllo diretto da parte di una autorità di vigilanza indipendente dovrebbe offrire un ulteriore, parziale, tassello, a garanzia di una informazione più articolate e pluralista.
Nel dibattito politico italiano, il tema del pluralismo nei mass media ha un ruolo centrale. L’Osservatorio di Pavia svolge monitoraggi in Italia da più di dieci anni e più di cinquanta sono state le missioni elettorali all’estero. (1) La par condicio in Italia e all’estero È bene sgombrare subito il campo dall’idea che la regolamentazione della comunicazione politica sia una peculiarità italiana. In Italia, la legge 28/2000, detta della par condicio, “promuove e disciplina, al fine di garantire la parità di trattamento e l’imparzialità rispetto a tutti i soggetti politici, l’accesso ai mezzi di informazione per la comunicazione politica”. I monitoraggi La Commissione parlamentare di vigilanza e l’Autorità delle comunicazioni (Agcom), previa consultazione tra loro, e ciascuna nell’ambito della propria competenza, regolano il riparto degli spazi tra i soggetti politici e stilano il regolamento dei messaggi autogestiti. Quest’attività ha il fine di rendere operativi i principi “astratti” sanciti dalla legge 28/2000 e di calarli nel contesto delle diverse campagne elettorali. Contestualmente vengono svolti due monitoraggi (2) che controllano la conformità di quanto trasmesso con le disposizioni regolamentari. Un monitoraggio è a cura dell’Agcom e disponibile continuativamente sul sito
Forse proprio perché ha il polso delle variegate situazioni, ha maturato la convinzione che su questo aspetto del funzionamento del processo democratico sia necessaria una riflessione attenta e pacata, poco legata alla contingenza e alle pressioni dei vari attori.
Un memorandum di intenti di trentadue pagine, che stabiliva minuziosamente tutti i particolari del confronto, ha regolato i tre recenti dibattiti presidenziali BushKerry.
Sempre negli Usa, i tempi di presenza dei canditati sono rigidamente contingentati. Per esempio, durante la campagna per governatore della California, secondo le leggi federali sulla par condicio i film di Arnold Schwarzenegger costituivano spazio televisivo e quindi mandarli in onda non rispettava la parità di accesso. Qualora fossero stati trasmessi film come Terminator o Atto Forza, i rivali di Schwarzenegger avrebbero potuto chiedere e ottenere analoghi spazi televisivi gratis. Libertà certo, ma ben regolamentata.
I principi di tale legge sono relativamente chiari e sinteticamente così riassumibili:
– durante le campagne elettorali la comunicazione politica viene compressa in spazi rigidamente regolamentati e vietata in qualsiasi altro genere televisivo, fatta eccezione per le notizie dei telegiornali (le news).
– Sono vietati gli spot e permessi spazi autogestiti (i messaggi autogestiti), anche questi rigidamenti normati
– Gli spazi concessi ai soggetti partecipanti alla competizione sono un mix tra rappresentanza esistente e candidature ex-novo.
– Infine sono date indicazione di massima sull’uso corretto del mezzo televisivo (“I registi ed i conduttori sono altresì tenuti ad un comportamento corretto ed imparziale nella gestione del programma, così da non esercitare, anche in forma surrettizia, influenza sulle libere scelte degli elettori”).
Punti di forza e limiti
Nelle recenti campagne elettorali la parte relativa alle disposizioni su “Messaggi autogestiti, ripartizione dei tempi dei soggetti nei programmi dedicati alla campagna elettorale e la loro assenza al di fuori di tali programmi” è stata per lo più rispettata.
Punti critici invece, perché di difficile interpretazione, sono risultati:
– gli spazi dei soggetti politici nei telegiornali
– gli spazi dei soggetti politici dedicati alla cronaca al di fuori dei telegiornali
– il comportamento corretto e imparziale nella gestione dei programmi da parte dei conduttori.
Il trade off tra libertà di informazione e regole del pluralismo è forse il punto più delicato della normativa sulle campagne elettorali, poiché va a incidere sul diritto-dovere del giornalista di informare e scegliere le notizie. Come distribuire i tempi tra i partiti in modo equo rispettando l’esigenza del pubblico di essere informato su ciò che accade? Gli esponenti del Governo candidati come devono essere conteggiati? Se un ministro inaugura una strada in campagna elettorale, questo tempo è da attribuire alla competizione elettorale o al diritto-dovere del Governo di informare sulla propria attività? Questa distinzione appare più agevole nelle campagne elettorali per le elezioni politiche, durante le quali l’attività governativa si limita all’ordinaria amministrazione. Più difficile è distinguere tra informazione sull’attività governativa e propaganda per i candidati nel caso di elezioni (europee, regionali) che avvengono mentre il Governo in carica è pienamente operativo.
Problematico risulta poi valutare la qualità della comunicazione soprattutto in relazione al comportamento corretto e imparziale nella gestione dei programmi da parte dei conduttori.
I casi di aperta violazione di questa regola sono rari e quasi sempre riconducibili a pochi conduttori: la delicatezza del tema è evidente perché la partigianeria di un giornalista può essere valutata come comportamento coraggioso e “libero” dalla parte in sintonia con la sua posizione politica. Va tuttavia ricordato che in questi casi, oltre alla prudenza nell’intervenire, occorre che le sanzioni siano tempestive, cosa che non sempre avviene.
L’attuale legge italiana, sicuramente perfettibile, costituisce una buona base per il conseguimento del pluralismo. Lasciare non regolamentato questo campo, come in modo ricorrente viene sostenuto, significa rischiare gravi squilibri soprattutto in situazioni in cui le risorse delle emittenti sono molto concentrate e il controllo indiretto sul trasmesso è quasi inevitabile.
(1) Si veda il sito www.osservatorio.it
(2)
I monitoraggi, che coprono tutto il trasmesso 24 ore su 24 per 365 giorni l’anno, tra l’altro evidenziano:– la presenza di un soggetto politico e la sua anagrafica (nome, cognome, sesso, partito, carica istituzionale, eccetera)
– la durata dell’intervento in secondi
– l’anagrafica della presenza (giorno, ora, minuto, rete e programma,)
– il tema dell’interevento.
Nel dibattito sul pluralismo, il tema della concentrazione nel mercato dei quotidiani è spesso sostanzialmente sottovalutato. Si dà per scontato, almeno in Italia, che il pluralismo esista perché è alto il numero di testate presenti sul piano nazionale. La dimensione locale Una valutazione della concentrazione del mercato dovrebbe tuttavia tenere conto del fatto che i quotidiani competono prevalentemente su scala locale e che negli specifici mercati il grado di concentrazione può essere molto elevato. Nel nostro paese la situazione non è così polarizzata e i singoli mercati non sono così separati, ma la dimensione locale della concorrenza è comunque molto importante. In Italia si pubblicano novantuno testate e le prime due, Corriere della Sera e Repubblica, hanno quote di mercato di poco superiori al 10 per cento della diffusione giornaliera, mentre i gruppi cui fanno capo totalizzano assieme poco più del 40 per cento della diffusione complessiva. (1) Misurare la concentrazione Questi dati a livello nazionale non rappresentano tuttavia l’indicatore più corretto per una valutazione della concentrazione, poiché anche le maggiori testate hanno una diffusione molto disomogenea sul territorio. La Stampa (2) ad esempio vende nelle sue prime tre province di diffusione (Torino, Cuneo e Alessandria) il 50 per cento delle copie totali e nelle prime dieci province il 75per cento delle copie, mentre in ciascuna delle province restanti vende mediamente lo 0,3 per cento della sua diffusione. Il Corriere della Sera vende nelle sue prime tre province (Milano, Roma e Varese) il 45 per cento delle copie e nelle prime dieci il 60 per cento mentre nel resto d’Italia realizza mediamente lo 0,44 per cento delle sue vendite in ogni provincia. Anche la Repubblica, che pure ha una diffusione più omogenea, vende il 54 per cento nelle prime dieci province. Per meglio valutare la concentrazione sui mercati rilevanti si è quindi proceduto a identificare, per ciascun quotidiano, l’insieme delle province nelle quali viene realizzata la maggior parte delle vendite, definibile come mercato di riferimento. Due sono le misure utilizzate, in modo da cogliere sia le realtà di giornali con una distribuzione molto concentrata in poche province (in questo caso sono state considerate le aree che cumulativamente rappresentano il 90 per cento delle vendite della testata), sia quelle di quotidiani con una diffusione relativamente più estesa (prendendo in questo caso tutte le province con una diffusione almeno pari allo 0,5 per cento delle vendite totali del quotidiano, senza necessariamente raggiungere in questo caso il 90 per cento delle vendite). (3) Distinguendo per tipologie di quotidiani e calcolando per ciascuno di essi i valori medi della categoria, quelli nazionali operano in un mercato di riferimento relativamente ampio e poco concentrato, mentre le testate multiregionali, regionali e provinciali, con diffusione e mercati di riferimento via via più ristretti, evidenziano una forte concentrazione dei lettori, come si può notare nella tabella.
Negli Stati Uniti, ad esempio, negli ultimi vent’anni vi è stato un continuo processo di concentrazione che ha portato la quasi totalità delle aree urbane ad avere un’unica testata oppure più testate dello stesso proprietario (in precedenza in circa i due terzi dei mercati operavano più testate ed editori concorrenti). Se si escludono l’unico quotidiano nazionale, Usa Today, e poche grandi città con più quotidiani in concorrenza tra loro (taluni prestigiosi, ma sempre locali), il mercato statunitense è configurato come un insieme di monopoli locali sostanzialmente autonomi dove operano 1.457 testate che vendono circa cinquantacinque milioni di copie giornaliere.
Per ogni testata, sull’insieme di province che costituiscono il suo mercato di riferimento, sono stati calcolati diversi indici di concentrazione. (4) In questo modo è possibile verificare se nella sua area territoriale di diffusione, il quotidiano fronteggia un numero elevato di concorrenti o ha una posizione dominante. I risultati così ottenuti confermano una forte concentrazione nei mercati di riferimento. Delle cinquantaquattro testate di cui sono disponibili i dati Ads (Accertamenti diffusione stampa) delle vendite provinciali, ventiquattro operano in mercati con un indice di Herfindahl-Hirschmann superiore a 0,15 considerato normalmente la soglia di attenzione delle autorità antitrust. Ventisei quotidiani nel loro mercato di riferimento hanno una quota di mercato superiore al 30 per cento e ben quarantadue testate contribuiscono all’indice HH del loro mercato per più del 50 per cento.
Ad esempio, un quotidiano come Il Messaggero ha una quota del mercato nazionale inferiore al 5 per cento, ma nelle province del suo mercato specifico ha una quota del 23 per cento, l’indice di HH del suo mercato è 0,1068 cui contribuisce per circa il 50 per cento. Oppure Il Gazzettino di Venezia ha una quota del 33 per cento del suo mercato specifico che a sua volta ha un indice di HH di 0,1529 cui Il Gazzettino contribuisce per il 73 per cento.
Questo dato conferma indirettamente il fatto che nei mercati locali (corrispondenti ai mercati di riferimento per queste testate) quasi sempre un numero molto limitato di quotidiani si contende il pubblico. Dall’analisi emerge quindi come la concentrazione effettiva nei mercati dei quotidiani sia superiore a quanto comunemente si crede per effetto della forte polarizzazione geografica della diffusione, anche per i quotidiani tradizionalmente considerati nazionali.
(1) La Federazione degli editori indica otto testate nazionali che complessivamente hanno venduto nel 2002 il 36 per cento delle copie giornaliere: Avvenire, Corriere della Sera, Foglio, Il Giornale, Il Giorno, La Repubblica, La Stampa, Libero.
(2) Questi dati e le altre elaborazioni di questo articolo derivano da uno studio da me svolto presso l’Università Statale di Milano e si riferiscono a dati 2000; la situazione relativa alla diffusione non è tuttavia sostanzialmente cambiata.
(3) Si tratta di confini piuttosto ampi se si considera che l’Autorità per le comunicazioni norvegese considera come mercato di riferimento di un quotidiano quelle province dove vende oltre il 10 per cento della sua diffusione.
(4) Si è calcolata nel mercato di riferimento la quota di mercato della testata, il rapporto tra quota della prima e della seconda testata (quota di mercato relativa), l’indice di Herfindahl-Hirschmann (somma delle quote di mercato al quadrato), utilizzato solitamente nelle valutazioni antitrust, e il contributo della prima testata al valore complessivo di questo indicatore
Il pluralismo è un malato grave nel nostro paese. Ma non gode di buona salute in molti altre realtà, nonostante negli ultimi dieci anni i mezzi attraverso cui raggiungere il pubblico si siano moltiplicati, con lo sviluppo della televisione commerciale, il prossimo avvento di quella digitale e il fenomeno di Internet. A fronte di queste maggiori possibilità, i fenomeni di concentrazione sono tutt’oggi molto diffusi, e non rappresentano solamente il retaggio di un passato oramai chiuso, ma appaiono semmai come il risultato delle nuove modalità di concorrenza nei settori della comunicazione. Concentrazione in televisione Quando guardiamo al tema del pluralismo nel settore dei media, ci occupiamo prevalentemente di mercati nei quali operano imprese e gruppi di comunicazione privati, dalle cui scelte e dalle cui dinamiche competitive occorre partire per rispondere alla domanda se il mercato sia in grado di sfruttare le nuove opportunità tecnologiche (digitale, Internet) garantendo un accesso bilanciato e non discriminatorio a tutte le opinioni politiche. Se osserviamo il mercato dei media in una prospettiva di pluralismo esterno, due fenomeni appaiono frenare il raggiungimento di questo obiettivo. La perdurante concentrazione in segmenti come la televisione commerciale finanziata con pubblicità è sostenuta dalla forte concorrenza per i programmi più richiesti, che determina una forte lievitazione dei costi strettamente correlata ai futuri ricavi dai proventi pubblicitari. In questa corsa al rialzo c’è posto per pochi vincitori, come i dati sulla concentrazione televisiva testimoniano in tutti i paesi europei e parzialmente, dopo vent’anni di erosione da parte delle pay-tv, negli stessi Stati Uniti, dove i principali network raccolgono ancora circa la metà della audience nel prime time. E nei giornali Ma la concentrazione non è un fenomeno unicamente televisivo, interessa marcatamente anche la carta stampata.
In questa prospettiva solitamente si distingue tra pluralismo esterno, che considera se nell’offerta complessiva di un particolare mercato dei media (giornali, o televisione o radio, eccetera) tutte le opinioni politiche trovano spazio, e pluralismo interno, che invece guarda a come le diverse opinioni politiche sono rappresentate nell’offerta di un singolo operatore.
Se andiamo al di là dei dati nazionali sulle vendite di quotidiani per studiarne la distribuzione geografica, troviamo una forte segmentazione nella quale in ogni mercato locale, quello in cui ciascuno di noi lettori abita,
Il pluralismo interno
In mercati fortemente concentrati, per loro natura impossibilitati a sostenere una offerta di media ampia e diversificata (pluralismo esterno), rimane la strada del pluralismo interno.
Vorremmo fosse affidato in primo luogo agli incentivi di un operatore o gruppo di comunicazione a coprire più segmenti di mercato (opinioni politiche) con la propria offerta, analogamente a come si coprono molte discipline sportive, vari temi di intrattenimento, molti generi di film. L’ostacolo maggiore in questa prospettiva si ritrova nel forte ruolo che i media esercitano come strumento di lobbying, che li trasforma in un mezzo ideale in quel terreno scivoloso di contrattazione politica tanto prezioso soprattutto per i gruppi economici fortemente regolati.
Analoghe distorsioni possono poi nascere dalla stessa identificazione politica dei gruppi di comunicazione, dove a fronte dei fin troppo ovvi esempi nostrani, non possiamo che registrare con preoccupazione un fenomeno, relativamente nuovo per il mercato americano, quale la spregiudicata propaganda di parte di un grande network come Fox.
La conclusione cui giungiamo, guardando alle possibilità che il mercato trasformi le nuove e grandi opportunità tecnologiche di comunicazione in una offerta ampia e diversificata di contenuti e informazioni politiche, è quindi venata di una forte preoccupazione.
Oggi disponiamo di mezzi sempre più ricchi, sempre più persuasivi ma, apparentemente, sempre più concentrati. E il cittadino difficilmente trova i mezzi per formarsi una opinione informata e libera da distorsioni e condizionamenti.
Di fronte a questo nuovo fallimento del mercato, si richiedono quindi adeguate politiche pubbliche per il pluralismo.
Tutti coloro, e io tra questi, che hanno duramente criticato la legge Gasparri sul riordino (a casa Berlusconi) del sistema delle comunicazioni dovrebbero ammettere che alla fine non è poi male. Anzi, che tutto sommato rappresenta un esempio di efficienza legislativa e di inusuale velocità nella sua applicazione pratica. Mai legge, a dispetto dello scontro istituzionale che ne ha preceduto il varo, è entrata in vigore così rapidamente e ha prodotto effetti così vasti e duraturi. E mai la volontà del legislatore è stata così prontamente accolta dal mercato. Una straordinaria sintonia. Per usare una celebre espressione di Umberto Bossi un “idem sentire” incredibilmente armonico. Come se gli attori del mercato della comunicazione, del sistema televisivo, l’avessero studiata in anticipo quella legge. Con una tale attenzione che potrebbe far sorgere il dubbio, sicuramente infondato, che qualcuno se la sia scritta direttamente. In casa. Malignità degli outsider. È il mercato, bellezza Ma non c’è dubbio che la Gasparri rappresenti una best practice. In pochi mesi Mediaset si è mossa sul mercato del digitale terrestre acquistando i diritti criptati per le dirette casalinghe di Juventus, Milan e Inter, che verranno offerte grazie a una carta prepagata a due euro l’una. “Questo è il mercato, bellezza”, avrebbero esclamato i difensori ministeriali della legge a lungo osteggiata da Carlo Azelio Ciampi. Una risposta a tutti coloro che protestavano per la mossa, sicuramente tempestiva, del gruppo di proprietà del presidente del Consiglio e ormai gestito, con grande abilità va riconosciuto, da suo figlio Pier Silvio. Peccato che gli stessi che difendono la libertà, di chi è forte e conosce il mercato, di muoversi liberamente siano gli stessi che in altri settori dell’economia invocano l’intervento dello Stato, hanno nostalgia della Cassa del Mezzogiorno e sostengono che il metodo Alitalia, ovvero procrastinare il destino di una compagnia sprecando ancora denaro pubblico, sia un esempio virtuoso nel rapporto fra politica ed economia. Peccato. E peccato ancora che quella carta prepagata per il digitale terrestre sia stata studiata e messa a punto nei laboratori della Rai, l’operatore del servizio pubblico, il cui consiglio d’amministrazione è territorio di caccia delle forze di governo e di strage intellettuale di molti personaggi, alcuni di spicco e di grande qualità professionale e morale. E pensare che la Rai entrò a suo tempo come socio in Telepiù, facendosi pagare e non poco in cambio di un pacchetto di canali. Con una semplice autorizzazione e ora assiste impotente allo sviluppo di una sua ricerca. Lo ha bene notato sul Sole-24Ore Marco Mele, il quale non ha mancato di sottolineare come sia virtualmente cambiata la natura del digitale terrestre: da piattaforma gratuita e, in qualche modo, alternativa alla televisione generalista, a nuovo terreno di sfida e di conquista perché abbondante di spazi pubblicitari appetiti dall’utenza (grazie al calcio, vero driver dell’espansione televisiva). Dunque, Publitalia avrà un’offerta aggiuntiva da proporre ai suoi grandi clienti e potrà ulteriormente, come gli consente la legge, allargare la propria quota di mercato. La Gasparri e la pubblicità Ma proprio sul mercato pubblicitario sta accadendo qualcosa di assolutamente inedito che dovrebbe preoccupare fortemente gli editori di carta stampata. Per la prima volta una fase di ripresa degli investimenti pubblicitari, che difficilmente torneranno ai valori dell’anno 2000, vede quotidiani e periodici continuare a soffrire sugli spazi e sulle tariffe. La televisione, e in particolare le reti del Cavaliere, viaggiano secondo gli ultimi dati, con un tasso di crescita a due cifre, rispetto all’anno scorso, mentre la carta stampata annaspa, nel migliore dei casi registra un progresso fra il due e il quattro per cento. Colpa dei costi contatto? Colpa delle difficoltà in cui versano quotidiani e periodici? Della migliore qualità della programmazione? Forse. Ma è anche vero che le reti generaliste, e in particolare quelle Mediaset, possono ormai espandersi senza limiti. I problemi di affollamento, importanti per misurare l’efficacia della pubblicità, sembrano non esistere più. I palinsesti televisivi sono in overbooking pubblicitario fino a ottobre. Una volta l’estate era un periodo di magra per gli spot. Non è più così. Una volta il medio-piccolo investitore pubblicitario non andava in televisione e riteneva più conveniente per la propria comunicazione apparire sui mezzi tradizionali. Oggi la rete della pubblicità televisiva, in crescita bulimica, prende tutto: pesci grandi e pesci piccoli. E i grandi, i cosiddetti big spender, pensiamo soltanto alle case automobilistiche, preferiscono concentrare i propri investimenti sulla televisione. È diventata di colpo così efficace? Forse, certo molti imprenditori e amministratori delegati hanno capito che l’investimento pubblicitario può avere anche un dividendo, diciamo così, politico. E non c’è da biasimarli: nell’ottica di massimizzare il rendimento del loro investimento compiono senza dubbio la scelta migliore. La più razionale. E molti di loro redigono un conto economico in cui l’andamento delle tariffe è cruciale. E le tariffe sono fortemente influenzate da fattori politici. Anche questa è una malignità da outsider, ma forse è un sospetto con una qualche fondatezza. La Gasparri ha mosso il mercato. E questo è positivo. Dovrebbe anche favorire la privatizzazione della Rai. Ma sul versante dell’operatore pubblico, anche per colpe sue per carità, non si assiste alla stessa effervescenza progettuale che si registra su quello privato. Tutt’altro. E pensare che proprio dopo le dimissioni del ministro dell’Economia, Giulio Tremonti, e l’interim di Berlusconi, palazzo Chigi è diventato direttamente l’azionista di Rai Holding. E noi cittadini che paghiamo il canone saremmo particolarmente felici che, al di là delle riconosciute capacità manageriali del direttore generale di viale Mazzini, l’azienda pubblica ricevesse qualche buon consiglio da parte del suo azionista diretto che il mercato televisivo conosce come le proprie tasche. Non solo la tv va bene, sotto il profilo pubblicitario, ma anche la radio. Ed ecco muoversi a poche settimane dall’approvazione della Gasparri, la Mondadori, uno dei primi gruppi editoriali del paese che ha manifestato la propria intenzione di entrare nel mercato della radio con un’offerta per acquisire Radio 101. Tutto bene. Naturalmente in questo caso va sottolineato che la mia è un’opinione di parte, lavorando io in Rcs-Mediagroup (1). Ecco perché sostengo che la Gasparri rappresenti uno straordinario benchmark legislativo. Lo dico senza ironia. Mi sarebbe piaciuto che lo stesso grado di attenzione e di compattezza politica fosse stato riservato anche ad altri temi, all’economia per esempio. E forse non ci saremmo trovati a questo punto. Con il dubbio rovente che i conti pubblici siano stati falsati e che le promesse fatte al paese siano ormai accantonate. Se ai temi che interessano il futuro del paese fosse stato dedicato soltanto un decimo del tempo che hanno richiesto la Gasparri o la Cirami, staremmo tutti meglio. Come paese. Ma quelli forse erano interessi diffusi, pubblici. Gli altri erano interessi un po’ più privati. E dunque meritevoli di maggior riguardo. Buon compleanno a lavoce.info Così, buon compleanno a lavoce.info. Non è vero che in questo paese di voci ce ne siano poche. Ce ne sono ancora tante e libere. Ma ce ne vorrebbero molte di più. Il pluralismo esiste ancora. Non viviamo in alcun regime. Ma purtroppo assistiamo a una lenta deriva e a una progressiva assuefazione all’idea che l’informazione debba essere schierata, strumentale, ancillare e direttamente soggetta agli interessi dei proprietari. Non parlo solo del Cavaliere e non mi riferisco solo a questa maggioranza. Le voci libere danno fastidio. Eppure se qualcuno obnubilato dal potere le avesse ascoltate non si troverebbe oggi in fondo al baratro. E anche l’Italia starebbe un po’ meglio. (1) E la mia è un’opinione strettamente personale.
Dopo un tormentato, ma accelerato, iter di discussione la legge Gasparri è stata pubblicata in Gazzetta ufficiale nella sua versione definitiva. Dalle tv locali alla privatizzazione della Rai È condivisibile, ad esempio, l’articolo 8 quando amplia da sei a dodici ore lo spazio di interconnessione nazionale per le emittenti locali e consente loro di raccogliere pubblicità nazionale. Si pongono così le prime basi per il progressivo superamento di una situazione che le rende quasi insignificanti nel panorama televisivo. Anche se, per favorirne la crescita, sarebbe stato meglio consentire il possesso di stazioni in mercati diversi, invece di aumentare fino a tre il numero di emittenti che un soggetto può possedere nello stesso bacino di utenza. La privatizzazione ipotizzata dalla legge Gasparri non prevede, però, interventi strutturali che allontanino l’influenza dei partiti dalla televisione pubblica. E l’idea di vendere una minoranza del capitale azionario con quote che non possono superare il 2 per cento, senza modificare la struttura saldamente duopolistica del mercato televisivo, sembra un esempio da manuale di come non cogliere i vantaggi della privatizzazione. Se non quello, meramente finanziario, di scaricare sui piccoli risparmiatori i rischi di un’azienda dalla redditività incerta e in cui le possibilità di controllo degli azionisti sono modeste. Il caso delle telepromozioni Aumenta lo spazio per le telepromozioni, soprattutto per Mediaset, con un approccio che allontana l’Italia da diversi altri paesi europei. (1) Tra Sic e digitale terrestre Il problema della struttura del mercato – limitazione o riduzione della concentrazione e aumento dei concorrenti e delle voci disponibili – ha implicazioni sia economiche che politiche. Il Sic non è un mercato rilevante nel senso comunemente inteso dall’economia industriale e dalle autorità antitrust. Si tratta piuttosto di un aggregato arbitrario, di una convenzione dove conta solo il prodotto tra perimetro complessivo e quota consentita. E la combinazione scelta non è stringente per nessun operatore presente sul mercato, nonostante in diversi mercati delle comunicazioni si registrino tassi di concentrazione assai elevati: in quello televisivo nazionale, nella televisione a pagamento, nelle directory o in molti mercati locali dei quotidiani. Nel segno della continuità Nell’insieme si tratta di misure che non sembrano in grado di perseguire una riduzione della concentrazione nel mercato televisivo. Vi è cioè un’incoerenza tra finalità dichiarate e strumenti utilizzati. Nonostante le polemiche, l’Italia è solo parzialmente un’anomalia nel contesto televisivo europeo. In Germania i primi due operatori controllano il 68 per cento degli ascolti, in Gran Bretagna il 60 per cento, in Francia il 71 per cento. Si tratta ovunque di tassi di concentrazione elevati, ma inferiori all’89 per cento italiano. In questi altri paesi vi è spazio normalmente per almeno tre-quattro gruppi televisivi significativi, più gli operatori della pay-tv. (1) In Francia le telepromozioni non sono consentite nei programmi e in Germania rientrano nella normativa generale sugli spot.
Si tratta di una legge che tocca molti punti, con diversi interventi condivisibili.
Una parte rilevante della legge è dedicata alle procedure di nomina del consiglio d’amministrazione Rai e alla sua privatizzazione.
Sul primo punto, occorre prendere atto che finora l’influenza politica sulla Rai e sulla scelta dei dirigenti è stata assolutamente indipendente dai criteri di nomina via via adottati.
Ma la norma non modifica la struttura del mercato né è in grado di sottrarre quote ad altri mezzi.
Le ragioni della limitata raccolta pubblicitaria di quotidiani e periodici vanno cercate nella ridotta diffusione della stampa in Italia più che nel potere di mercato della televisione. Se si effettuano confronti internazionali considerando i ricavi pubblicitari per copia, si scoprono indicatori abbastanza omogenei tra i vari paesi: sembrano mostrare come sia possibile conquistare investimenti pubblicitari, una volta raggiunti i lettori.
La legge Gasparri lo affronta con la definizione del Sic (sistema integrato delle comunicazioni, di cui nessun operatore può controllare più del 20 per cento) e la promozione accelerata della televisione digitale terrestre.
Il Sic è stato ridotto con la riscrittura della legge, in seguito al rinvio alle Camere da parte del presidente della Repubblica. Sono stati eliminati dal perimetro libri e pubbliche relazioni e corrette alcune vistose ingenuità.
Per esempio, l’avervi compreso all’inizio le agenzie di stampa, le produzioni televisive e le produzioni cinematografiche: tutti mercati intermedi che entrano rispettivamente nel fatturato di giornali, televisioni e sale cinematografiche, e dunque erano banalmente contati due volte.
In questo modo, il Sic raggiunge una dimensione di circa 22 miliardi di euro.
Una quota del 20 per cento corrisponde a 4,5 miliardi di euro: cifra opportunamente al di sopra di quella attuale dei maggiori operatori (Rai 3 miliardi, Mediaset 4 miliardi, Rcs per ora 2,3 miliardi).
La televisione digitale terrestre rappresenta un’innovazione di sistema perseguita da molti paesi. Per la sua inevitabilità tecnologica, e perché utilizzando in modo più efficiente lo spettro elettromagnetico, permette alternativamente di aumentare il numero di canali o di destinare parte delle frequenze televisive ad altri utilizzi.
La legge italiana progetta una transizione accelerata soprattutto per ovviare all’obbligo imposto dalla norma precedente e dalla Corte costituzionale di spostare Rete 4 sul satellite e di togliere la pubblicità a Rai 3.
Purtroppo, la concentrazione del mercato televisivo è legata alle economie di scala nei programmi più che alla scarsità di frequenze: appare probabile che i nuovi canali trasmessi sul digitale terrestre si limitino ad aumentare il numero teorico dei canali e non riescano a erodere le quote di mercato degli incumbent. (vedi lavoce.info del 03-07-2003)
Va detto però che su questo terreno la Gasparri mantiene una forte continuità con le altre leggi sulla televisione promulgate negli ultimi vent’anni, che si occupano di molte cose per lasciare sostanzialmente invariata la struttura del settore, caratterizzato da un duopolio dove i due operatori controllano circa il 90 per cento del mercato di riferimento. Ha un approccio comune con la legge Mammì del 1990 e la legge Maccanico del 1997, peraltro emanate da Governi diversi.
Un accettabile grado di concorrenza nel settore televisivo è rilevante per il buon funzionamento degli altri mercati, attraverso la pubblicità, ma anche per il buon funzionamento del sistema politico perché ormai i cittadini ricevono gran parte delle informazioni proprio dalla televisione.
Dunque, è probabile che la legge Gasparri sia solo una tappa provvisoria nella costruzione di un assetto accettabile del sistema televisivo italiano.
Si continuerà inevitabilmente a parlare di questo tema: sarebbe opportuno farlo con meno ideologia, meno preconcetti ma con più dati oggettivi, più confronti internazionali, con profondità e consapevolezza crescenti.
La legge sulla par condicio regolamenta l’attribuzione degli spazi televisivi ai partiti e ai candidati nelle campagne elettorali, per garantire parità di accesso ai mezzi di informazione. L’handicapping applicato alle campagne elettorali In un paese democratico i cittadini debbono essere messi nelle condizioni di scegliere la forza politica per cui votare in maniera consapevole. Devono quindi essere a conoscenza delle alternative disponibili. Le forze politiche devono essere incentivate a fornire informazioni veritiere e sostanziali sulle proprie posizioni e i propri programmi. Negli incontri di golf non professionistici, ma anche nelle corse di cavalli, nel baseball o nel basket, è molto comune la pratica di assegnare un certo svantaggio ai giocatori più dotati. Per esempio, nelle corse di cavalli i fantini più leggeri sono caricati con del peso extra. Nel golf, i giocatori più bravi partono con alcuni punti di svantaggio. Queste pratiche, cosiddette di handicapping, pongono il giocatore più dotato in condizioni iniziali più simili rispetto a quello meno dotato. Recentemente, un filone di letteratura economica ha discusso l’utilità delle pratiche di handicapping nelle imprese, per le promozioni dei manager a posizioni gerarchiche superiori. In tal modo, non solo la competizione partirebbe da basi più eque, ma sarebbe anche più ricca e vivace. Uguaglianza di condizioni La proposta di modifica della legge sulla par condicio nella direzione accennata dal presidente del Consiglio e dal suo vice può essere giustificata con la volontà di creare un disincentivo all’eccessiva proliferazione di sigle politiche. Privilegiare le forze esistenti, in un regime democratico, può anche rappresentare un argine contro l’emergere di forze non democratiche. Si considerino, ad esempio, la fine dei regimi comunisti, e le inchieste giudiziarie su “Tangentopoli” nei primi anni Novanta: questi eventi hanno cambiato il panorama politico italiano. Tale cambiamento (compresa la nascita del partito “Forza Italia”) sarebbe stato ostacolato da regole della comunicazione elettorale basate sul peso storico delle forze politiche. Si tenga conto, infine, che con questi argomenti si è “finto” di parlare di un paese in cui vi sia effettiva separazione tra i poteri economico, mediatico e politico. Se accade, come in Italia, che il partito politico che guida la maggioranza di Governo controlla attraverso il suo leader larga parte dei mezzi di comunicazione televisiva, la situazione è assai più complicata e delicata, e l’handicapping attribuito ai partiti di Governo dovrebbe essere ancora più forte.
Il presidente del Consiglio Silvio Berlusconi ha annunciato di voler modificare la legge. Il vicepremier Gianfranco Fini ha affermato che “non è certo una provocazione pensare di attribuire a ciascun partito uno spazio diverso in base alla sua forza elettorale”. Fini e Berlusconi ritengono dunque che spazi maggiori dovrebbero essere attribuiti a partiti con più peso in Parlamento.
Se accettiamo queste premesse, e più in generale l’esigenza di garanzia del pluralismo nelle competizioni elettorali, l’impostazione di riforma della legge sulla comunicazione elettorale suggerita da Fini e Berlusconi non è necessariamente quella corretta.
Per capire perché consideriamo cosa avviene negli Stati Uniti in diverse competizioni sportive.
Quando i valori in campo sono in partenza squilibrati in favore di una parte, per cui il risultato dell’incontro è scontato, la competizione perde di interesse per il pubblico, perché tanto il giocatore più dotato quanto quello meno dotato non sono incentivati a giocare al meglio delle loro possibilità: il primo perché è sicuro di vincere, e il secondo perché certo di perdere. Nel rendere la competizione più equa, l’handicapping fornisce più stimoli a tutti i contendenti.
È possibile trasferire la logica dell’handicapping dal mondo dello sport (e dell’impresa) a quello delle competizioni elettorali, dove si applica forse ancor meglio.
Nelle campagne elettorali, l’utilità per i cittadini di rafforzare posizioni precostituite non è per nulla scontata. Al contrario, nelle democrazie compiute l’esigenza di garantire effettiva parità di condizioni ai partiti e ai candidati dovrebbe essere ben superiore a quella di garantire parità di condizioni in un incontro di golf, dal quale dipendono le emozioni dei tifosi, ma non certo le sorti di un paese.
Ora, dal momento che la maggioranza in Parlamento, proprio per il suo ruolo di governo, gode di una maggiore esposizione mediatica tra una legislatura e l’altra, la logica dell’handicapping attribuirebbe più spazi ai partiti meno rappresentati in Parlamento: l’esatto contrario rispetto a quanto suggerito da Berlusconi e Fini.
La maggioranza sarebbe stimolata a impegnarsi di più sulla qualità dei messaggi di propaganda (sostituendo qualità per quantità). L’opposizione, sapendo di avere spazi a sufficienza per presentare le proprie, sarebbe spronata a farlo. Al contrario, laddove si attribuissero gli spazi in base ai risultati delle passate elezioni, sarebbe lo status quo a prevalere, e ci sarebbero meno incentivi a cambiare, con una perdita secca per i cittadini.
Inoltre, con un esito elettorale più incerto, il voto del singolo cittadino diventa più influente, e ciò stimola la partecipazione al voto. È noto che nelle democrazie “bloccate” e laddove il risultato delle elezioni è più scontato, l’assenteismo degli elettori è maggiore.
Tuttavia, argomenti altrettanto validi spingono esattamente nella direzione opposta. Al punto che potrebbe essere più opportuno offrire maggiori spazi (rispetto alla loro forza elettorale) ai partiti minori e a quelli di opposizione, nonché garantire una qualche visibilità alle nuove formazioni.
Infatti, la realtà socio-politica di un paese (specie se democratico e pluralistico) è intrinsecamente dinamica. Nuovi gruppi ed esigenze emergono continuamente. Importanti eventi e processi storici possono sostanzialmente modificare le posizioni e le attitudini dei cittadini, con profondi effetti sulla competizione politico-elettorale.
Garantire uguali spazi a tutte le forze appare coerente con un criterio intuitivo di uguaglianza delle condizioni di partenza. Dalle considerazioni esposte in precedenza, la par condicio può anche essere considerata come una soluzione di compromesso virtuoso fra argomenti che spingono verso soluzioni opposte per la distribuzione degli spazi televisivi ai partiti in campagna elettorale.
In ogni caso, se le regole sulla par condicio devono essere riviste, la riflessione dovrà essere ben più profonda e complessa della semplice logica proposta da Berlusconi e Fini.
Il 2004 sarà ricordato come l’anno del petrolio. Il suo prezzo in termini nominali ha raggiunto i massimi di tutti i tempi. L’andamento delle quotazioni ha preoccupato le nazioni sotto il profilo economico e politico,tanto da riportare alla ribalta il quasi dimenticato timore di essere vicini al suo esaurimento. Al di là delle implicazioni contingenti, forte è stato lo stimolo ad interrogarsi su cosa questi eventi in realtà implicano per la nostra civiltà basata sull’uso dell’energia soprattutto di fonte fossile. Con rinnovata attenzione e preoccupazione per gli aspetti ambientali.
Le turbolenze sul mercato del greggio rendono opportuna qualche pacata riflessione sugli scenari energetici futuri.
La persistente crescita del prezzo del petrolio ripropone infatti la questione della sostenibilità dell’attuale modello di sviluppo, crucialmente basato sul consumo di fonti fossili di energia. Ma mentre la preoccupazione generale è, come sempre, concentrata sugli effetti di breve periodo su crescita e inflazione, resta ancora scarsa l’attenzione dedicata a questioni di fondo come le opzioni energetiche possibili per le prossime decadi.
Tutta questione di prezzo
Gli esperti concordano sul fatto che il petrolio, o più in generale le fonti fossili di energia, saranno in giro ancora per parecchio tempo. Dagli anni Settanta a oggi, la preoccupazione ambientale-climatica si è affermata e ha portato a politiche di regolamentazione. Ma resta ancora vero che il maggiore fattore di risparmio energetico è l’aumento del prezzo del petrolio: è questo l’elemento che induce e ha indotto una riduzione dell’intensità energetica dei processi produttivi, e come tale ha contribuito a contenere le emissioni di gas-serra. Altrettanto vero è che nessuna nuova opzione energetica su larga scala, in particolare nel campo della generazione elettrica, la più energivora delle attività produttive, è stata introdotta negli ultimi trent’anni. Se si eccettua il nucleare. (1)
Quanto alle fonti rinnovabili, Chip Goodyear, amministratore delegato di Bhp Billiton, società globale attiva nel settore delle risorse naturali, ha dichiarato al recente World Energy Congress di Sydney, che le fonti energetiche verdi resteranno relativamente insignificanti almeno per i prossimi venti anni. Le previsioni dicono che i combustibili fossili saranno l’87 per cento delle fonti primarie di energia, un punto percentuale in più di oggi. Sulla scia della corsa del prezzo del petrolio di quest’anno infatti non saranno probabilmente intrapresi investimenti in rinnovabili: i prezzi dell’oro nero dovranno restare alti a lungo perché qualcosa cambi. “L’industria ha bisogno di altre brutte notizie dal prezzo del petrolio perché si sposti sulle fonti rinnovabili”, sostiene Andrew Oswald, professore di Economia all’università di Warwick. Una recente pubblicazione dell’Iea, l’agenzia internazionale dell’energia dell’Ocse, nota che la quota di finanziamento pubblico alla ricerca e sviluppo in campo energetico destinata alle rinnovabili è decrescente, in contraddizione con le asserite intenzioni di molti governanti dei paesi sviluppati. (2)
Le fonti rinnovabili nel mondo
Nel mondo, le rinnovabili coprono solo il 2,1 per cento degli usi energetici. Ciò nonostante molti paesi si stanno muovendo: il ministro dell’Industria spagnolo ha annunciato lo scorso agosto l’obiettivo di accrescere del 12 per cento entro il 2010 la quota delle rinnovabili sul consumo primario di energia, particolarmente energia solare e produzione di biodiesel. Così il governo giapponese ha predisposto un piano per l’incremento dell’uso delle biomasse con obiettivi specifici di aumento della generazione elettrica al 2010. (3) Gli inglesi, sempre entro il 2010, dovrebbero produrre con fonti rinnovabili il 10 per cento dell’elettricità. Questa quota è già pari al 20 per cento in Danimarca, soprattutto energia eolica. (4) L’Energy Information Administration statunitense ha simulato gli effetti della proposta McCain-Lieberman di introdurre un tetto alle emissioni di gas-serra sulla quantità di rinnovabili utilizzate: nel 2025 esse sarebbero il doppio di quanto proiettato nel caso di assenza del tetto. Infine, il nostro paese ha introdotto l’obbligo per i produttori di elettricità di garantire a partire dal 2002 una quota pari al 2 per cento della generazione termoelettrica con nuova elettricità generata da fonti rinnovabili.
Tutto bene, dunque? Non proprio, come mostra il fatto che la Commissione europea ha deciso alcuni mesi fa di abbandonare gli obiettivi di produzione di energia a mezzo di rinnovabili fissati per il 2010 (12 per cento nei paesi Ue-15 e 21 per cento nei paesi Ue-25), in quanto non raggiungibili, e ha rinunciato per il momento a fissarne dei nuovi per il 2020. Una brutta figura addebitata ai responsabili dei paesi membri che non hanno mostrato la capacità e la determinazione di voler raggiungere gli obiettivi prefissati. Se ne riparlerà nel 2007.
Tempi lunghi per l’idrogeno
In sostanza, non pare al momento esservi alternativa che, in termini di tempo, costi e quantitativi, possa sostituire l’oro nero in tempi ragionevoli. Dei nuovi sistemi energetici ipotizzati all’indomani del primo shock petrolifero, dalla fusione e fissione nucleare, dai bio-carburanti alle varie fonti rinnovabili solare, geotermico, eolico, biomasse nessuno è emerso come l’alternativa con la “a” maiuscola.
Pensare all’idrogeno, e alle automobili con celle a combustibile, significa adottare un orizzonte che parte dal 2035 in poi. Diceva Scientific American del maggio 2004: “Ci si può aspettare che lo sviluppo di auto con celle a combustibile, al contrario delle cosiddette ibride, proceda secondo gli stessi tempi del volo umano su Marte progettato dalla Nasa e che abbia lo stesso grado di probabilità”.
(1) Queste considerazioni sono contenute, e ampiamente argomentate, in “The Outlook for Energy Three Decades After the Energy Crisis”, lavoro presentato da uno dei massimi esperti mondiali, William D. Nordhaus, all’International Energy Workshop di Parigi dello scorso 22-24 giugno 2004. Il paper è scaricabile dall’indirizzo www.iiasa.ac.at/Research/ECS/IEW2004/docs/2004A_Nordhaus.pdf.
(2) Questo aspetto è messo chiaramente in evidenza in una recente pubblicazione della IEA-AIE, Renewable Energy Market and Policy Trends in IEA Countries, Parigi: IEA, 2004.
(3) Si veda il recente rapporto dell’Ocse, Biomass and Agriculture: Sustainability, Markets and Policies, Parigi: OECD, 2004.
(4) A parte considerazioni di costo, le varie fonti rinnovabili non presentano solo vantaggi. La produzione di nuova energia idroelettrica ed eolica, per esempio, reca con sé rilevanti problemi di impatto ambientale. Sulla seconda si veda l’interessante articolo “Ill winds”, The Economist del 29 luglio 2004.
Numerosi progetti nazionali e internazionali stanno attualmente verificando un approccio alternativo alla risoluzione del problema dei cambiamenti climatici: il sequestro geologico di anidride carbonica.
Come avviene il sequestro
Si tratta di una attività di riduzione delle emissioni di gas serra che comporta la cattura da fonti industriali della CO2, un gas inerte e non tossico a basse concentrazioni, e la successiva immissione in formazioni geologiche appropriate, come i giacimenti di petrolio e gas naturale, esauriti oppure ancora in uso, le formazioni geologiche porose sature di acqua salata (i cosiddetti acquiferi salini) e i giacimenti carboniferi profondi. Qualche anno fa, veniva considerata anche la possibilità di immettere CO2 negli oceani a grandi profondità, ma tale alternativa è stata abbandonata per l’incertezza degli effetti di un’aumentata acidità delle acque sugli ecosistemi marini.
Per avere successo la tecnica di sequestro geologico della CO2 deve soddisfare tre requisiti:
– deve essere competitiva in termini di costi rispetto alle attuali alternative per il contenimento dei gas serra, quali le fonti rinnovabili e i miglioramenti di efficienza dei processi di produzione
– deve garantire uno stoccaggio nel sottosuolo stabile e di lungo termine
– deve essere ambientalmente compatibile.
Dal punto di vista economico, vi è ancora molta incertezza sulla determinazione dei costi nelle varie situazioni operative. Le esperienze sinora effettuate e gli scenari studiati lasciano intendere che i costi possono variare anche significativamente da una situazione all’altra, andando da qualche decina di euro per tonnellata fino a 100 euro/tonnellata. Fonti Iea indicano un costo complessivo compreso tra 9 e 49 euro/tonnellata CO2.
Quel che è certo è che l’immissione di CO2 in giacimenti di petrolio o gas naturale per il recupero assistito, rappresenta la migliore opportunità di sequestro a bassi costi se si considerano i ricavi dovuti al recupero di petrolio o gas. Tale attività (la cosiddetta Eor, Enhanced Oil Recovery) ha una duplice funzione: garantisce evidenti vantaggi ambientali, perché riduce le emissioni di gas serra in atmosfera, e aumenta la produzione di idrocarburi in quei giacimenti dove la pressione esistente non ne consente una adeguata fuoriuscita. Gli Stati Uniti sono i leader mondiali nella tecnologia Eor e utilizzano circa 32 milioni di tonnellate anno di CO2 a questo scopo. (1) Tra i vari progetti merita una citazione quello di Weyburn in Canada: grazie al sequestro permanente di circa 20 milioni di tonnellate di CO2 durante l’intero progetto sarà possibile produrre almeno 130 milioni di barili di petrolio incrementale, il che estenderebbe la vita residua del giacimento di circa 25 anni.
I rischi
Molto è stato scritto sugli effetti connessi all’esposizione di esseri viventi alla CO2. A basse concentrazioni (1 per cento in volume), l’anidride carbonica non ha effetti dannosi sugli esseri umani e sugli ecosistemi, anzi è indispensabile per alcuni processi vitali quali la fotosintesi. Per esempio, in alcune serre l’aumento del tasso di CO2 è voluto, per accelerare la crescita delle piante. È invece letale per l’uomo, perché può causare asfissia, una concentrazione di CO2 dell’ordine del 10 per cento in volume.
Nel sequestro geologico le concentrazioni elevate di CO2 in atmosfera possono essere correlate a due ordini di problemi: fuoriuscite di CO2 durante le fasi operative volte alla cattura, trasporto e iniezione nel sottosuolo e rilascio in atmosfera dal sito di stoccaggio.
Sul primo punto si può affermare con certezza che la cattura, il trasporto e l’iniezione di CO2 sono pratiche ben testate nel settore petrolifero e si avvalgono di tecnologie all’avanguardia. Gli incidenti più frequenti sono dovuti a rotture nei tubi o nei pozzi di iniezione, ma la fuoriuscita di CO2 in questi casi è trascurabile per la presenza di opportune valvole di sicurezza che interrompono il flusso di gas al variare della sua pressione. Anche il rischio di corrosione dei tubi che può provocare fuoriuscite incontrollate di CO2 è stato aggirato grazie all’utilizzo di moderni materiali anticorrosivi. Adottando pertanto le opportune pratiche di sicurezza, già ampiamente in uso per il trasporto del gas e del petrolio, i rischi nella fase operativa possono essere decisamente contenuti.
Minore è l’esperienza sul rilascio di CO2 dal sito di stoccaggio. Le uniche considerazioni che possono essere fatte riguardano eventi naturali del passato. In natura, infatti, esistono già migliaia di depositi di CO2 nel sottosuolo e le fuoriuscite più cospicue sono perlopiù correlabili ad attività vulcaniche. Esempi eclatanti sono il monte Kilaua alla Hawaii, che emette circa 1,4 milioni di tonnellate l’anno di CO2, e l’eruzione del 1991 del monte Pinatubo, nelle Filippine, in cui furono emesse 42 milioni di tonnellate di CO2. Entrambi gli eventi non si sono dimostrati letali per gli esseri viventi dal momento che i fattori di dispersione in atmosfera hanno contribuito ad attenuare le concentrazioni di CO2 al suolo.
Si intuisce pertanto che la CO2 può diventare pericolosa solo se il suo rilascio avviene molto rapidamente e in spazi confinati. Ma sono caratteristiche ben lontane da quelle delle attività di stoccaggio nel sottosuolo: il pozzo per l’iniezione di anidride carbonica tende a disperdere la CO2 nella formazione geologica, non a concentrarla, e le eventuali perdite nella riserva sotterranea sono lente e diffuse. Qualsiasi rischio connesso allo stoccaggio può comunque essere minimizzato sviluppando i migliori criteri per la scelta del sito più opportuno.
I vantaggi per l’ambiente
Quanto alla compatibilità ambientale, il sequestro geologico, appare la soluzione che più di altre è in grado di assicurare le consistenti riduzioni delle emissioni e stabilizzare così la concentrazione della CO2 in atmosfera sui livelli giudicati ottimali per non gravare sui meccanismi che presiedono al controllo del clima. Le indagini fino ad ora condotte sull’argomento, hanno evidenziato che vi sono grandi capacità di stoccaggio della CO2 nel sottosuolo. Secondo fonti Ipcc, i volumi disponibili su scala mondiale nei campi a olio e gas depletati consentirebbero lo stoccaggio di 1830 GtCO2eq, un volume pari alla produzione mondiale di CO2 dei prossimi venticinque anni, stimata di 1800 Gt. E ben superiore sembra essere il potenziale di stoccaggio offerto dagli acquiferi salini, stimato maggiore di 3600 GtCO2eq.
(1) Fonte DOE 2003
Se eliminare, o quanto meno ridurre, le emissioni nocive a monte, passando a fonti energetiche pulite non è possibile, ecco che l’interesse si sposta a valle, sulla fattibilità di eliminare, o quanto meno ridurre, le emissioni della combustione delle fonti fossili.
Torna il carbone
Si parla molto per esempio dell’opzione della cattura e sequestro del carbonio prodotto dal processo di combustione. In sostanza, si tratta di un processo a due stadi mediante il quale il gas (essenzialmente l’anidride carbonica) viene dapprima estratto dalla macchina che brucia il combustibile fossile (la “cattura”) e successivamente immagazzinato in apposite sedi da cui non può più scappare (il “sequestro”). La prima fase è la più costosa anche perché va prevista fin dalla costruzione dell’impianto di produzione dell’energia, anche se esistono soluzioni che consentono l’adattamento di impianti esistenti. (1)
Interessante è notare che questa opzione di breve termine riporta in gioco anche la più inquinante delle fonti fossili: il carbone, minerale di cui paesi abbondano come la Cina, l’India e il Sud Africa, che non intendono rinunciarvi perché alimenta il loro processo di sviluppo.
Naturalmente, anche i paesi industrializzati si attivano su questo fronte: nel 2003 è partito il Carbon Sequestration Regional Partnership Program patrocinato dal ministero dell’Energia americano. Mette in rete Stati, governo federale e settore privato con il compito di raccomandare nel giro di due anni soluzioni tecnologiche (aspetti tecnici, regolatori e infrastrutturali) da sottoporre a validazione su piccola scala. Non a caso questo programma è parte integrante della politica energetica del presidente Bush. In Europa, il governo britannico ha lanciato una consultazione sulle tecnologie di abbattimento del carbonio che guardi allo sviluppo di metodi di cattura e sequestro, anche dialogando con i norvegesi, in quanto i pozzi esauriti di petrolio e gas del Mare del Nord potrebbero fungere da depositi di carbonio. Infine, va segnalato un piano internazionale per sviluppare e promuovere la cooperazione sul recupero e uso del metano, cui partecipano Australia, Giappone, India, Italia, Messico, Regno Unito, Ucraina e Usa.
Senza dimenticare il nucleare
Da qualche tempo, però, i riflettori si sono riaccesi sull’altra opzione attualmente utilizzata, quella nucleare. La sua quota è aumentata rapidamente fino agli anni Novanta, ma da allora è rimasta attorno al 17 per cento di tutta l’elettricità generata. Perché aumenti in misura significativa deve superare due test, come osserva William Nordhaus dell’Università di Yale, esperto di questioni energetiche e ambientali.
Il primo è convincere le scettiche opinioni pubbliche che il nucleare è sicuro. Sulla necessità del nucleare, scienziati, governanti e dirigenti del settore energetico da qualche tempo mostrano di non avere dubbi. Non ne ha la (ex) commissaria europea all’Energia Loyola de Palacio, che sottolinea invece il problema della sicurezza degli approvvigionamenti energetici. Anche il governo spagnolo, dopo avere chiuso il reattore più vecchio, incrementerà l’output del nucleare esistente. E il Regno Unito mette l’accento sul problema ambientale: per raggiungere il target di emissioni di gas-serra, metà dell’elettricità inglese dovrà provenire dal nucleare, quando oggi ne provvede solo un quinto. Infine l’Italia, dove il ministro Antonio Marzano o l’amministratore delegato di Enel Scaroni non fanno mistero della necessità di rivedere le nostre decisioni in materia di energia nucleare, che non produciamo più, ma che comunque continuiamo a importare, soprattutto dalla Francia.
È però l’altro test che desta attenzione crescente: la sicurezza delle centrali nucleari.
Timori per nuove Chernobyl (quello che fu, non quello che è oggi, che è altra cosa e probema) o Three Mile Island sono oggi, secondo gli esperti, fuori luogo. Con più di 10mila anni-reattore di esperienza al 2004, osserva Nordhaus, le analisi standard di valutazione del rischio dei reattori ad acqua leggera sono risultate largamente accurate.
Ciò che invece genera una crescente preoccupazione è il problema del dirottamento di materiale nucleare verso la produzione di armamenti. Tutti i casi di recente proliferazione di armi atomiche, in Corea del Nord, India, Pakistan per esempio, si sono verificati in paesi che hanno ottenuto il materiale da impianti civili di produzione di energia. E in questo contesto si inserisce il contenzioso in corso tra Iran e l’agenzia internazionale dell’energia atomica. (2)
Le novità possibili
In conclusione, nel prossimo futuro non vi sono alternative alle fonti fossili: è e resta l’opzione preferita, in quanto politicamente accettabile, nella maggior parte delle regioni del mondo. Tanto più che le proiezioni attuali della disponibilità di petrolio e gas non segnalano riduzioni, ma anzi sono state riviste verso l’alto dal 1973 a oggi. Ciò nondimeno, crescono i problemi e le difficoltà connesse al petrolio, riconducibili ai problemi politici di sicurezza dell’approvvigionamento (geograficamente le fonti sono concentrate soprattutto nella regione araba), e ai problemi ambientali, primo fra tutti il riscaldamento globale.
Possiamo aspettarci qualche novità? La prima è appunto il ritorno del carbone, che già alimenta un terzo dell’elettricità inglese, metà di quella tedesca e statunitense, tre quarti di quella cinese e indiana. E la cui estrazione sta tornando a essere un business vantaggioso per la crescente domanda anche di paesi come gli Usa. Inoltre, le tecnologie moderne consentono di ridurre l’impatto ambientale del minerale nero.
L’altra novità che il prossimo futuro probabilmente ci riserva è una significativa sostituzione del petrolio con il gas naturale. I vantaggi importanti sono due: le sue riserve sono meno concentrate geograficamente ed è più pulito. Lo svantaggio è che si tratta di un gas e come tale meno facile da trasportare del petrolio (il sistema dei gasdotti è complesso e perciò non molto ramificato e a lunga gittata). Nonostante lo sforzo finanziario sia ingente, con poche società in grado di sostenerlo, si sta diffondendo la pratica di costruzione di impianti di liquefazione e successiva rigassificazione del Lng (gas naturale liquido). (3)
Spostarsi dal petrolio all’accoppiata carbone-gas certamente avrebbe vantaggi di costo. Secondo la Royal Academy of Engineering (marzo 2004), il costo di generazione di un kilowattora in centesimi di euro è 3,3 nel caso del gas-ciclo combinato con turbina e di 4,2 gas-turbina, di 3,7 nel caso del carbone in polvere e di 6,7 nel caso di carbone in polvere con abbattimento dei fumi. (4)
Forse, non è un caso se il recente decreto governativo che ha autorizzato la costruzione di ventidue nuove centrali elettriche alimentate da combustibili fossili con una capacità complessiva superiore a 11 gigawatts (un terzo in più rispetto all’attuale), prevede che esse bruceranno gas con ciclo combinato, mentre un paio di quelle esistenti saranno riconvertite a carbone o orimulsion, una specie di olio combustibile alquanto inquinante. Naturalmente, c’è da augurarsi che il ritorno nostrano al carbone si accompagni all’adozione delle più moderne tecniche di abbattimento delle emissioni nocive.
(1) Istruttivo è l’articolo “Fired up with ideas”, in The Economist del 6 luglio 2002.
(2) Sul nucleare da segnalare il recente ponderoso studio interdisciplinare del Mit, “The Future of Nuclear Power”, scaricabile all’indirizzo htto://web.mit.edu/nuclearpower/. Sul caso dell’Iran si veda l’esauriente storia “The world of the ideologues” in The Economist del 2 settembre 2004.
(3) Ancora una volta: “The future’s a gas”, The Economist 28 agosto 2004 e “The future is clean”, The Economist 2 settembre 2004.
(4) Traiamo questi numeri da “The cost of generating electricity” rintracciabile all’indirizzo www.raeng.org.uk/news/temp/cost_generation_commentary.pdf.
Quanto è preoccupante per le prospettiva di crescita dell’economia mondiale e per i mercati finanziari l’attuale rialzo del prezzo del petrolio? Il grafico qui sotto mostra l’andamento del prezzo del greggio (prezzo spot del Brent) dal gennaio 1990 a settembre 2004.
Gennaio 1999 sembra segnare una svolta. Mentre prima di questa data il prezzo oscilla costantemente intorno a una media di 20 dollari al barile (con l’eccezione del periodo della guerra del Golfo), successivamente sembra iniziare una transizione verso una media più alta.
Cresce la domanda
Cosa spiega questo possibile mutamento di trend? Come in ogni mercato, anche in quello del petrolio conta l’interazione tra domanda e offerta. Il quadro attuale differisce da quello che causò gli shock petroliferi degli anni Settanta, determinati da restrizioni sul versante dell’offerta.
Il fattore nuovo, che spiega la dinamica dopo gennaio ’99, è la forte accelerazione della domanda proveniente dai paesi asiatici, in primo luogo Cina e India. Questo è un fattore strutturale (non semplicemente ciclico) che ha probabilmente mutato (verso l’alto) il valore medio intorno al quale oscillano le variazioni cicliche del prezzo. Un modo ottimistico di leggere questo dato è che è causato da una forte vivacità dell’economia mondiale, fattore cruciale affinché il gigantesco deficit della bilancia dei pagamenti americana continui a essere finanziato.
In un mercato in cui la domanda preme così tanto sull’offerta, ogni evento che metta a rischio l’espandersi della capacità produttiva provoca una reazione esasperata dei prezzi. Recentemente, gli eventi in Iraq, le turbolenze in Venezuela e Nigeria, l’uragano in Messico hanno avuto precisamente questo ruolo: hanno rallentato la dinamica dell’offerta nel corso del 2004 a fronte dell’impetuosa accelerazione della domanda. A questo sembra aggiungersi una diminuita capacità delle raffinerie americane (attualmente 150 rispetto alle 250 di venticinque anni fa). Ciò impedisce agli Stati Uniti di accogliere l’ultima proposta dell’Arabia Saudita di espandere la produzione (per circa due milioni di barili aggiuntivi al giorno) di una qualità di petrolio considerata inferiore, ma che se correttamente trattata permetterebbe di calmierare un mercato così sensibile a ogni notizia di restrizioni sul versante dell’offerta. Il grafico qui sotto mostra come le scorte mondiali di petrolio abbiano raggiunto un valore storicamente minimo nell’ottobre del 2004, anche se la situazione non è sostanzialmente diversa da quella del minimo raggiunto nel febbraio 2004. (La linea arancione nel grafico mostra il livello mensile delle scorte, mentre la banda azzurra ne mostra la gamma di variazione).
Recessione lontana
Tutto questo deve farci temere effetti recessivi sull’economia mondiale? Un buon modo per misurare le aspettative del mercato riguardo all’andamento futuro del prezzo del petrolio è quello di guardare ai prezzi dei futures sul greggio.
Il grafico mostra l’andamento, da maggio a oggi per il mercato di New York, del prezzo del future di dicembre 2005 (sul Brent). Il trend è in netto rialzo. In sostanza, quello che secondo il mercato sarà il prezzo del greggio nel dicembre 2005 è andato sensibilmente aumentando nel corso di questi ultimi mesi. Si noti però che il prezzo rimane attualmente intorno ai 42 dollari, indicando un probabile rallentamento rispetto al picco attuale di quasi 54 dollari al barile (dato del 12 ottobre 2004) per il prezzo spot.
Riguardo all’impatto macroeconomico dell’andamento del prezzo del greggio, giova poi ricordare tre aspetti. Primo, un indicatore più corretto è quello che converte il prezzo nominale (in dollari) in termini reali (cioè in rapporto all’andamento generale dei prezzi). I valori attuali rimangono lontani dai picchi della fine degli anni Settanta se si introduce questa correzione. Secondo, rispetto agli anni Settanta, la dipendenza dal petrolio delle economie industrializzate si è fortemente ridotta, a favore dell’espansione di una economia di servizi. Terzo, l’accelerazione del prezzo del greggio in quest’ultimo anno rimane sostanzialmente una correzione della forte discesa (sia in termini nominali che reali) degli anni precedenti. È noto da studi empirici che una dinamica di questo genere produce un impatto recessivo molto limitato, rispetto invece ad accelerazioni del prezzo che non intervengono a correggere discese precedenti.
Cosa succede nei mercati finanziari
Una preoccupazione crescente è quella che l’andamento del prezzo del greggio influisca negativamente sulla buona performance dei mercati finanziari. La ragione sembra ovvia. Rialzi del prezzo del petrolio segnalano possibili effetti recessivi futuri oppure potrebbero indurre rialzi dei tassi di interesse da parte delle autorità monetarie per impedire focolai inflazionistici, con conseguenze depressive sui corsi azionari. Ma questa ipotesi non sembra sopravvivere già a una prima superficiale analisi dei dati.
Il grafico qui sotto confronta l’andamento dell’indice S&P 500 con quello del prezzo del greggio dal 1990 a oggi (dati mensili).
È difficile individuare una relazione sistematica, anche se nel periodo 1998-2000 e recentemente la correlazione sembra positiva. In realtà, un modo corretto per confrontare le due serie è quello di guardare alla correlazione tra le rispettive variazioni percentuali.
Il coefficiente di correlazione è un numero compreso tra 0 (correlazione minima) e 1 (massima) che indica la misura in cui le due serie tendono a muoversi in sincronia (pur escludendo ogni relazione di causalità). Nel caso di queste due serie, il coefficiente di correlazione è molto basso, circa 0,011. In sostanza, i numeri ci dicono che tra variazioni dei corsi azionari e variazioni del prezzo del greggio esiste una relazione minima. Buone notizie per chi è pessimista sulla Borsa.
(1) Il petrolio è e resta una risorsa scarsa.
Come spiegatoci da Harold Hotelling nel 1931 (Cfr. “The Economics of Exhaustible Resources” in Journal of Political Economy), il prezzo di una risorsa esauribile è destinato ad aumentare costantemente nel tempo in funzione della sua crescente scarsità. Questo fatto non è certo di difficile comprensione. Ovviamente non sappiamo quando esattamente le riserve di petrolio si esauriranno, non sappiamo nemmeno quanto ampie esattamente siano, tra accertate e presunte, e su questo punto il dibattito tra pessimisti e ottimisti s’infiamma in tutte le occasioni come in quella attuale. Il punto che va rilevato, tuttavia, e che a nostro modesto parere non è stato ripetuto abbastanza, è che nel medio-lungo periodo il prezzo del petrolio è destinato ad aumentare. Naturalmente, quanto appena detto non implica che l’oro nero, toccati i 50 dollari a barile, non possa scendere. Ciò è possibile, anzi probabile.
(2) Ciò che conta è il prezzo reale del petrolio,
il suo prezzo rapportato al livello generale dei prezzi del paese che lo consuma. Troppo spesso si fanno comparazioni con le quotazioni in dollari di un barile di greggio a prezzi correnti. I livelli di prezzo raggiunti durante il primo shock petrolifero del 1973-74, fatti i debiti calcoli, equivalgono ad un prezzo oggi di circa 80 dollari, ben lontano dunque dalle quotazioni attuali. Ancora più elevato in termini reali era stato il prezzo del greggio durante la seconda crisi petrolifera, quella della guerra Iran-Iraq del 1979-81. Quindi i prezzi attuali non sono affatto senza precedenti, come scritto da alcuni.
(3) L’impatto degli aumenti del prezzo del petrolio su inflazione e crescita economica,
si potrebbe riassumere nel seguente adagio: l’aumento del prezzo del petrolio fa molto male all’economia, la discesa del prezzo fa bene, ma non molto. Su questo si leggono in questi giorni molti numeri in libertà sull’impatto. Ad esempio, il sottosegretario all’Economia Gianluigi Magri ha parlato di una riduzione del Pil dello 0,3%, mentre il suo collega, Giuseppe Vegas ha posto l’accento, sulla base presumiamo, delle stesse informazioni possedute da Magri, che i pericoli per la crescita sarebbero minimi. Quel che conta rilevare è che sembra esserci un’asimmetria negli effetti che variazioni del prezzo del greggio hanno sul PIL. Diversi studi, nella maggior parte riguardanti gli Stati Uniti, ma anche altri paesi, Italia inclusa, documentano che l’impatto negativo (sul reddito) di un aumento di prezzo del petrolio è quantitativamente più consistente dell’impatto positivo di un’analoga riduzione di prezzo. Questa è una nota non piacevole ma importante per comprendere meglio i meccanismi che legano le grandezze economiche in questione e soprattutto per informare nel miglior modo le politiche a riguardo. Un altro importante caso di (ampiamente) documentata asimmetria è quella che contrappone il prezzo del greggio a quello dei carburanti, a cominciare dalla benzina. Di questo aspetto i giornali si sono regolarmente occupati.
(4) La relazione negativa tra crescita economica e prezzo del petrolio
(basso prezzo del greggio = elevata crescita, prezzo elevato = crescita ridotta) è destinata a perdurare. Ciò avverrà fino a quando le modalità di produzione e consumo saranno basate sull’impiego dei combustibili fossili, petrolio in primis, che li rende beni necessari. L’affrancamento dello sviluppo economico dal petrolio si avrà solo con il risparmio energetico e soprattutto con la diversificazione verso fonti energetiche alternative. Ma quel momento oggi appare ancora molto lontano.
(5) L’ambiente e la crescita del prezzo del greggio.
In termini di minori emissioni di gas serra quali il CO2 il primo shock petrolifero ha fatto più di tutti gli altri provvedimenti e comportamenti “virtuosi” che si sono susseguiti da allora. L’aumento del prezzo del petrolio svolge lo stesso ruolo di una tassa ambientale che ha lo scopo di contenere le emissioni dannose. Allora forse l’altra faccia della medaglia di questi aumenti di prezzo sarà una reazione favorevole all’ambiente: forse è una magra consolazione ma è un aspetto da non dimenticare. Qui confessiamo di avere sentimenti misti di fronte alla notizia che la Cina, così vorace d’energia in questi tempi, diminuirà la sua domanda di greggio: la Cina ha, infatti, deciso di costruire nuove centrali elettriche per una produzione pari a quella dell’intera Gran Bretagna, ma saranno centrali a carbone, che non è petrolio ma è notoriamente il più inquinante delle fonti fossili.
(6) Perché ridurre le imposte?
Allo stesso modo della tassa, pagare di più il petrolio fa sì che chi inquina percepisca il costo della sua attività (ne “internalizzi” il costo). In questa cornice va valutata la proposta di intervenire sulle accise per mantenere il prezzo dell’energia, e dei carburanti in particolare, allo stesso livello antecedente l’aumento. In realtà, nel settore dei trasporti il maggiore prezzo del carburante serve a far pagare l’inquinamento ed il congestionamento del traffico proprio ai responsabili di tali effetti. Ancorché al margine, l’aumento del prezzo di benzina e gasolio dovrebbe contribuire a spostare sul traffico ferroviario parte dello scambio delle merci e ad adottare modalità più efficienti di trasporto delle persone abolendo, ad esempio, i viaggi meno necessari. E ciò con buona pace delle associazioni dei consumatori.
Che aria tira sul clima in giro per il mondo? Gli Usa ci ripensano? Intanto, la politica di George W. Bush prosegue nella sua ambiguità. Harlan Watson, negoziatore capo per gli Usa sui cambiamenti climatici, il 10 maggio scorso in una conferenza a Bruxelles ha dichiarato che il presidente è stato male interpretato sulla questione, ma ha altresì affermato che l’ambiente non figurerà esplicitamente nella sua campagna presidenziale per la rielezione. Tutti questi fermenti formano un’alternativa credibile a Kyoto, si domanda l’Economist? (3) L’argomentata risposta è negativa. Tuttavia, a questo punto anche la grande industria chiede decisioni. Le società elettriche, che in larga parte impiegano combustibili fossili, hanno avallato la legislazione che obbligatoriamente limiterà le emissioni da esse stesse prodotte. Persino la ExxonMobil (e con essa ChevronTexaco), grande supporter della politica energetica di Bush, comincia a dare segnali di sensibilità al tema ambientale, anche perché si aspetta che molti azionisti la metteranno sotto pressione su questo tema nella prossima assemblea. E non va infine dimenticato che spesso la legislazione statale precede e provoca quella federale. La Ue ha fede nel protocollo E in Europa come vanno le cose? Il clima in questa regione del mondo mostra luci e ombre. Gli Stati membri dell’Ue devono assegnare alle proprie industrie una certa quantità di permessi che saranno poi scambiati sul mercato secondo il piano nazionale di allocazione o Nap, che ciascun paese doveva inoltrare alla Commissione europea entro fine marzo, termine che peraltro nessuno ha rispettato. Secondo le regole, la Commissione ha il diritto di porre il veto a quei piani che ritiene eccessivamente generosi verso l’industria e incoerenti con gli obiettivi di Kyoto. Se poi un paese rifiuta di rivedere il proprio Nap, la Commissione può citarlo in giudizio. Al punto che il commissario all’Ambiente, Margot Wallström, ha dichiarato che si prepara ad agire contro quei paesi che non hanno ancora sottomesso il Nap. Ma l’elemento più significativo delle sue dichiarazioni è che cruciale sarà la quantità totale di permessi. La prima impressione che emerge dalla lettura dei Nap inoltrati è che l’ammontare relativo appare troppo alto. (1) Il rapporto sostiene che il mondo potrebbe finire sull’orlo dell’anarchia con alcuni paesi che utilizzano la minaccia nucleare per assicurarsi adeguate forniture di cibo, acqua ed energia. Gli autori del rapporto affermano che i cambiamenti climatici dovrebbero essere elevati al di sopra del dibattito scientifico a materia di sicurezza nazionale. La proposta Lieberman-McCain introduce limiti alle emissioni generate dalla produzione elettrica, dai trasporti, dall’industria e dal commercio e istituisce un mercato dove le singole imprese possono commerciare diritti d’emissione. (2) “Europe and Japan misread Kerry on Kyoto” di Nigel Purvis, International Herald Tribune, 5 aprile 2004. (3) “Bottom-up greenery”, The Economist, 18 marzo 2004. (4) “Kyoto could be Russia’s ticket to Europe” di Anders Aslund, International Herald Tribune, 5 aprile 2004 e “A change in the climate: will Russia help the Kyoto protocol come into forse?” di Vanessa Houlder, Financial Times, 20 maggio 2004.
Negli Stati Uniti, dopo il discusso rapporto preparato dal Pentagono che dipingeva scenari catastrofici causati dai cambiamenti climatici nei prossimi vent’anni, tornano alla carica i senatori Lieberman e McCain, un democratico e un repubblicano “ribelle”, con una proposta di legge, che intende limitare le emissioni americane di gas-serra nel 2010 ai livelli del 2000. (1)
Europa e Giappone ripongono le loro speranze in John Kerry, candidato alla presidenza e senatore con il record di votazioni più “verdi”. Parla appassionatamente di effetto serra e ha nel suo programma l’introduzione di una legislazione nazionale ad ampio raggio, incluso un mercato nazionale dei permessi, per combattere il riscaldamento globale. Ma dalle colonne dell’International Herald Tribune, Nigel Purvis ammonisce che ci sbaglieremmo di grosso se sperassimo che Kerry, una volta eletto, spingerebbe per una ratifica del Protocollo di Kyoto. (2)
Tuttavia, anche senza l’elezione di Kerry, è possibile che negli Usa qualcosa accada.
Infatti, in assenza di una politica federale, sono gli Stati a essersi mossi.
Il Massachusetts è stato il primo a regolamentare le emissioni di anidride carbonica generate dalle centrali elettriche. Gli Stati del New England si sono quindi uniti alle province orientali del Canada nell’assunzione ufficiale dell’impegno a ridurre le emissioni di gas-serra del 12 per cento entro la fine di questa decade. Sull’altra costa, Oregon e Washington si stanno organizzando insieme alla California, il primo Stato ad approvare una legge che regolamenta le emissioni delle automobili.
In una sorta di gara virtuosa, il governatore del Massachusetts ha annunciato all’inizio di maggio un piano che in materia di pianificazione e finanziamento di opere pubbliche nel campo dei trasporti condiziona, in parte, le decisioni alle emissioni di gas-serra che tali progetti genererebbero.
Alla fine la perseveranza europea nei confronti della Russia sembra avere pagato. Dopo un lungo tentennare, Vladimir Putin ha annunciato venerdì 21 maggio che il suo paese si “sarebbe mosso rapidamente verso la ratifica”. Per il realista Putin la ratifica del Protocollo sembra infatti ridursi a una mera questione di politica estera. Visto che Kyoto non dovrebbe costare ai russi, anzi potrebbe addirittura generare ricavi per 10 miliardi di sterline, secondo il Financial Times, il presidente russo offrirebbe agli europei la ratifica del Protocollo insieme a un raddoppio del prezzo interno del gas (pari attualmente a un quarto di quello esportato agli europei) in cambio dell’assenso europeo all’ammissione alla Wto, l’organizzazione mondiale del commercio. (4)
La scelta russa lascia peraltro gli americani più soli e dovrebbe incoraggiare ulteriormente il movimento d’opinione favorevole a iniziative sul fronte del clima.
Per loro conto gli europei si apprestano ad affrontare l’appuntamento pre-Kyoto più significativo, il mercato europeo dei permessi di emissione che parte il 1 gennaio 2005.
È un atto di fede nei confronti di un protocollo le cui condizioni vale comunque la pena soddisfare, si sostiene, anche senza che sia entrato in vigore. Nel frattempo, l’Europa impara l’uso di uno strumento che anche gli stati e i territori australiani stanno considerando, così come il Giappone e gli Usa. Negli Stati Uniti il commercio dei permessi ha avuto avvio l’anno scorso attraverso il Chicago Climate Exchange, che ha tra i suoi membri società come Dow Corning, Dupont, Motorola, Ibm e Ford.
A metà maggio su ventitré paesi membri, otto non avevano ancora pubblicato un piano provvisorio. Tre di questi Francia, Spagna e Polonia sono tra i maggiori emittenti in Europa. Gli altri che mancano all’appello sono Belgio, Grecia, Repubblica Ceca, Slovacchia e Ungheria. Un’analisi provvisoria dell’allocazione per settori di attività rivela che l’elettrico conta per oltre il 50 per cento, seguito da petrolio e gas, cemento e vetro, metalli, carta. Queste saranno dunque le industrie verosimilmente più coinvolte dal futuro mercato dei permessi.
I primi verdetti ufficiali della Commissione vanno emessi entro il 30 giugno. Ma indiscrezioni e schermaglie sono già iniziate. Mentre il piano italiano, come racconta Enzo Di Giulio, appare fuori linea, voci riferiscono che quello polacco sarà eccessivamente generoso.
Un mercato funziona quando c’è scarsità. E infatti la percepita mancanza di scarsità si riflette sul prezzo di mercato di quei permessi che sono già attualmente scambiati: il prezzo di una tonnellata di CO2 era pari a 13 euro in gennaio mentre a fine aprile è sceso fino a 7 euro.
Ma per capire la posta in gioco basta una notizia che viene dall’Inghilterra, paese tra i più virtuosi in Europa quanto a politiche di riduzione delle emissioni. Ebbene, il ministro dell’Ambiente ha annunciato di avere incaricato una società di consulenza specializzata di valutare i Nap dei paesi membri nel timore che l’industria britannica possa essere danneggiata dalla mancanza di rigore degli altri paesi. E nel fare ciò i britannici esprimono anche dubbi sul fatto che la Commissione europea abbia effettivamente la forza per rigettare i piani di Germania, Francia e Italia.
Non c’è dubbio che la probabile ratifica russa del Protocollo dà ulteriore forza e credibilità all’iniziativa europea sul mercato dei permessi. E finisce per spuntare le armi di chi, come il nostro ministro dell’Industria Antonio Marzano all’ultima assemblea di Confindustria, riecheggiando i dubbi del Governo più volte esplicitati a livello europeo dal ministro dell’Ambiente Altero Matteoli, ha un poco avventatamente dichiarato che l’Italia potrebbe rivedere la sua posizione su Kyoto.