Miti economici e realtà economica

E’ da quando il governo Monti, fortemente voluto, per non dire imposto, dal presidente della repubblica Giorgio Napolitao, presentò la manovra economia che avrebbe dovuto “salavare l’Italia”, che è diventato palese il fatto che la teoria economica dominante non è in grado di aiutarci ad uscire dalla crisi. Essa si basa infatti su dei concetti, come quelli di PIL,, occupazione, disoccupazione, flessibilità che non fanno i conti con la complessità dei fenomeni economici reali

Il PIL misura il risultato finale dell’attività produttiva dei residenti di un Paese in un dato periodo. La nozione di ‘prodotto’ è riferita ai beni e servizi che hanno una valorizzazione in un processo di scambio; sono quindi escluse dal PIL le prestazioni a titolo gratuito o l’autoconsumo. Il termine ‘interno’ indica che tale variabile comprende le attività economiche svolte all’interno del Paese; sono dunque esclusi i beni e servizi prodotti dagli operatori nazionali, imprese e lavoratori all’estero, mentre sono inclusi i prodotti realizzati da operatori esteri all’interno del Paese. Escludendo la produzione all’interno del Paese da parte degli operatori esteri, e aggiungendo quella all’estero degli operatori nazionali, si ottiene il PNL (Prodotto Nazionale Lordo). Il termine ‘lordo’ indica che il valore della produzione è al lordo degli ammortamenti, ovvero del deprezzamento dello stock di capitale fisico intervenuto nel periodo; questo comporta che, per non ridurre tale grandezza a disposizione del sistema, parte del prodotto deve essere destinata al suo reintegro. Sottraendo dal PIL gli ammortamenti, si ottiene il PIN (Prodotto Interno Netto).

Gli economisti ortodossi sostengono che l’importanza del PIL non risiede solamente nella sua capacità di sintesi degli andamenti dell’economia, ma anche nel fatto che esso è calcolato mantenendo le coerenze interne del sistema dei conti economici nazionali. Poiché il PIL misura il valore di transazioni fra soggetti, esso può essere misurato sia dal lato degli acquirenti (domanda) sia da quello dei produttori (offerta); inoltre, esso può essere calcolato facendo riferimento ai redditi che esso remunera distribuendo il ricavato della vendita.

La misurazione del PIL dal lato della domanda esplicita le diverse componenti della spesa. Nel conto delle risorse e degli impieghi il PIL si ottiene sommando i consumi, gli investimenti fissi lordi e le esportazioni nette (ovvero le esportazioni meno le importazioni). Gli investimenti sono al lordo degli ammortamenti, ovvero includono la quota necessaria per conservare invariato lo stock di capitale a fine periodo; gli investimenti ‘netti’ sono pari alla variazione dello stock di capitale dell’economia.

Il PIL inoltre, misura soltanto le transazioni ‘finali’, esclude cioè gli scambi di prodotti intermedi, in quanto il valore del prodotto finale già incorpora i costi sostenuti per gli acquisti di prodotti intermedi ai differenti stadi del processo produttivo. La misurazione del PIL dal lato dell’offerta consiste nel sommare l’apporto al PIL del Paese fornito da tutte le imprese. Il PIL è infatti pari alla somma del valore aggiunto delle diverse unità produttive e stima gli scambi ai prezzi di mercato, comprensivi quindi delle imposte sulla produzione e dell’IVA.

Infine, il PIL remunera i fattori della produzione. Può pertanto essere calcolato come somma dei redditi da lavoro dipendente e del risultato lordo di gestione dell’economia, oltre alle imposte sulla produzione e all’IVA e al netto dei contributi alla produzione. Della misura del PIL devono far parte anche quelle parti di prodotto generate dall’economia sommersa. Tale quantità deve essere stimata e aggiunta a quella prodotta nel mercato regolare.

Il valore del PIL è espresso generalmente nella valuta nazionale (PIL a prezzi correnti). La dinamica può essere scomposta nell’andamento dei prezzi dei beni e servizi che esso comprende (deflatore del PIL) e in quello delle rispettive quantità (PIL a prezzi costanti). I dati vengono riferiti solitamente all’anno solare o al trimestre. In questo secondo caso essi sono generalmente corretti per tenere conto del diverso numero di giorni lavorativi e dei fattori stagionali che ne condizionano l’andamento. La crescita del PIL a prezzi costanti è la misura più utilizzata per quantificare l’andamento di un’economia. Solitamente i dati sul PIL sono diffusi in termini di variazioni percentuali e l’andamento del PIL è alla base delle analisi delle oscillazioni dell’attività economica. A seconda di tale andamento, congiuntamente all’evoluzione di altre variabili economiche rilevate, vengono individuate le diverse fasi del ciclo economico. Le fasi di recessione dell’economia si caratterizzano per una riduzione significativa, e di durata di almeno alcuni mesi, del tasso di crescita del PIL. Dal secondo dopoguerra l’economia italiana è stata caratterizzata da 13 cicli economici. In 4 di essi la recessione ha comportato una riduzione significativa del PIL: 1975, 1992-93, 2008-09, 2012. I cicli economici descrivono le fluttuazioni dell’attività rispetto a una tendenza di fondo che può essere diversa a seconda dei Paesi o dei periodi storici: a tale tendenza è associata la nozione di crescita del PIL potenziale.

Il livello del PIl è una misura della dimensione economica di un Paese. Essa non è però immediatamente utilizzabile nei confronti internazionali, essendo espressa nella valuta nazionale. La traduzione del valore del PIL in una valuta comune può essere effettuata attraverso i tassi di cambio del periodo di riferimento. Più frequentemente, però, si utilizzano i tassi di cambio basati sulla parità dei poteri d’acquisto, che consentono di eguagliare il livello dei prezzi nei diversi Paesi, rendendo la misura indifferente rispetto alle oscillazioni dei cambi. Allo scopo di ottenere una rappresentazione del grado di sviluppo relativo di Stati diversi, quest’ultima misura viene divisa per la popolazione; è espressa cioè in termini pro capite.
Indicatori alternativi al PIL. L’utilizzo del PIL come misura di sintesi dell’andamento dell’attività economica di un Paese è oggetto di dibattito. I dubbi riguardano il suo impiego come indicatore del grado di sviluppo in senso ampio e del livello di benessere della popolazione. In particolare, viene sottolineato il fatto che alla nozione di PIL vanno accostati anche indicatori in grado di cogliere elementi relativi alla distribuzione del reddito, oppure alla sostenibilità ambientale della crescita, in considerazione del fatto che l’attività di produzione può in alcuni casi determinare un depauperamento delle risorse naturali di un Paese. Fra i vari tentativi di sviluppare nuovi indicatori sintetici della performance di un’economia si segnalano il FIL (Felicità Interna Lorda, l’Indice di Sviluppo Umano e l’Indice di benessere economico sostenibile.

Consideriamo ora i concetti di occupazione e disoccuppazione. La crisi occupazionale che ha investito i maggiori paesi dell’Europa continentale è il dato di fondo su cui si sono confrontati, negli anni Novanta, i modelli interpretativi, le visioni prospettiche e gli orientamenti di politiche del lavoro. Un’insufficiente capacità di assorbimento occupazionale ha fatto parlare di una ‘sclerosi’ dei mercati europei del lavoro, a cui si è spesso contrapposta la vitalità di altri sistemi, in particolare quello degli Stati Uniti, nell’attivare cospicui flussi addizionali di posti di lavoro. In questo quadro, l’Italia condivide oggi, con i partner comunitari, un dato di fondo negativo rappresentato da un insufficiente contenuto occupazionale della crescita economica (cioè, bassa elasticità dell’occupazione rispetto alla produzione), ma aggiunge a ciò la persistenza, e spesso l’aggravamento, di debolezze strutturali e squilibri territoriali, che appesantiscono ulteriormente il contesto nazionale rispetto a un dato medio europeo, in particolare sul terreno delle carenze occupazionali nelle aree del Mezzogiorno e sul fronte della disoccupazione giovanile.

Qui di seguito, a partire da una presa di visione dei ‘fatti stilizzati’ della fenomenologia attuale della disoccupazione, verranno illustrate linee interpretative sulle determinanti di fondo degli andamenti differenziali dell’occupazione/disoccupazione. Il quadro di riferimento è limitato essenzialmente a un contesto di paesi ‘maturi’ a economia di mercato, con un paragrafo finale dedicato alle specificità del caso italiano. Infatti, la sottoccupazione e povertà persistenti nel Terzo Mondo e la particolare crisi attraversata dalle economie in transizione verso regimi di mercato rinviano a una specifica rassegna nell’ambito di una più ampia problematica dello sviluppo/sottosviluppo.

Il tasso di occupazione indica in pratica il numero di posti di lavoro attivati per ogni 100 persone in età di lavoro (nelle statistiche correnti si considera di norma la fascia di età 15-65), fornendo una semplice stima di un ‘grado di utilizzazione’ del potenziale di lavoro da parte di un sistema economico. Inoltre, tale indicatore non è soggetto a una variabilità spuria legata a una non omogeneità nel tempo e nello spazio delle convenzioni statistiche che definiscono uno stato (e il tasso) di disoccupazione.

Ancora agli inizi degli anni Settanta il tasso di occupazione per il complesso dell’area dell’Unione Europea si situava a un livello molto vicino a quello degli Stati Uniti (intorno al 68%); per gli anni più recenti si constata invece uno scarto di oltre 12 punti percentuali a favore degli USA. A fronte di tassi medi di crescita del prodotto lordo tutto sommato non dissimili nel medio periodo, al di là delle oscillazioni del ciclo, gli Stati Uniti hanno attivato nuovi posti di lavoro in una misura superiore di oltre cinque volte rispetto all’area europea (dal 1960 gli USA hanno creato, al netto, 50 milioni circa di posizioni lavorative, contro i 10 scarsi nell’area dei 15 paesi dell’odierna UE). Il tasso di disoccupazione, ancora, ha oscillato ciclicamente in un intervallo fra il 5 e l’8,5% per gli ultimi vent’anni negli USA, senza mostrare una tendenza sistematica; nella media dell’Unione Europea il tasso è invece salito dal 4,1% del 1975 all’11,2% del 1994. Anche omettendo, per brevità, ulteriori confronti con altre aree con performances occupazionali più favorevoli nel periodo (per es. Est asiatico), si può affermare in conclusione che, a partire dalla fine degli anni Settanta, i paesi europei hanno spesso sofferto di un’apparente incapacità di creazione di posti di lavoro anche nelle fasi favorevoli del ciclo (jobless growth), mentre le perdite occupazionali nelle fasi negative della congiuntura economica sono state significative, soprattutto nei comparti manifatturieri.

Gli orientamenti prevalenti dell’indagine macroeconomica, dagli anni Ottanta in particolare, hanno fatto riferimento a un’analisi parziale del mercato del lavoro aggregato, descritto attraverso i comportamenti degli operatori, gli impatti degli shock dislocativi e i processi di aggiustamento, nell’ambito di una classica interazione domanda/offerta. Questo approccio verrà qui indicato in maniera sintetica come ‘modello delle rigidità/flessibilità’.
L’analisi parziale del mercato del lavoro e la ricerca di cause e fattispecie che impedirebbero la realizzazione di un equilibrio concorrenziale caratterizzato da un valore del salario reale (market clearing) tale da assicurare l’assenza di disoccupazione involontaria rivelano certamente l’ispirazione ‘neoclassica’ di fondo di questa letteratura. Tuttavia, gli sviluppi più aggiornati di tale tipo di analisi non disdegnano di includere categorie o interazioni definite keynesiane allo scopo di introdurre ipotesi specifiche di ‘rigidità’ o di imperfezione del mercato. Ne viene proposto in questa sede un inquadramento essenziale attraverso una sintesi grafica, che sembra richiamare un classico apparato di curve di domanda e di offerta del lavoro come funzione dei salari reali, ma che converrà invece interpretare come luoghi che descrivono livelli desiderati di prezzi e di salari da parte, rispettivamente, di imprese e di lavoratori organizzati dotati di potere oligopolistico-contrattuale (price setters e wage setters) a fronte dei diversi stati della congiuntura economica sinteticamente rappresentati dai livelli più o meno elevati di un tasso di (dis)occupazione.

Sull’asse orizzontale si misurano pertanto valori crescenti del tasso di occupazione della forza lavoro (occupati/popolazione in età di lavoro), fino a un livello di piena occupazione (verticale ad ascissa 1); sull’asse verticale è posto il livello dei salari reali. La curva WS descrive le rivendicazioni salariali, crescenti al crescere del tasso di occupazione, da parte dei wage setters; la curva PS indica invece la ‘regola di fissazione dei prezzi’ da parte di imprese oligopolistiche (price setters) espressi come obiettivo di mark-up sui salari, crescente con il tasso di occupazione.

Nella figura il livello dei salari reali è espresso come differenza logaritmica fra salari monetari e prezzi (indicata in minuscolo come w-p) al fine di trarre inferenze immediate in termini di variazioni differenziali dei salari monetari e dei prezzi.

Il punto di intersezione fra WS e PS individua una nozione di equilibrio per il mercato del lavoro, ove vi è compatibilità fra il salario reale ‘rivendicato’ dai lavoratori e il margine sul salario perseguito dalle imprese: il tasso di disoccupazione u* (1-0*) che vi corrisponde definisce il cosiddetto tasso di disoccupazione a costanza di inflazione (NAIRU, Non – Accelerating – Inflation Rate of Unemployment), che rappresenta una nozione centrale in questa classe di modelli.

Punti a destra del NAIRU implicano un eccesso del salario reale ‘rivendicato’ rispetto al salario reale ‘ammesso’ dalle imprese: una tale condizione innescherebbe una ‘spirale salari-prezzi’ con conseguente accelerazione dell’inflazione (p>0). A sinistra, una congiuntura depressa comporterà una caduta della spinta rivendicativa, con conseguente effetto di disinflazione (p⟨0). La nozione di NAIRU estende quindi, a contesti di mercato non perfettamente concorrenziali, una nozione di equilibrio parziale del mercato del lavoro raggiunto come compatibilità e composizione fra i comportamenti della domanda e dell’offerta, dove sono sempre le variazioni del tasso di (dis)occupazione che fanno ‘gravitare’ il mercato verso l’equilibrio. Tuttavia, diversamente dallo schema classico del mercato concorrenziale, il valore di u* non implica una nozione di tasso naturale di disoccupazione. Quest’ultima nozione si riferisce invece alla disoccupazione residua che si avrebbe anche in condizioni di equilibrio di concorrenza perfetto, per effetto di una mobilità fisiologica (disoccupazione ‘frizionale’) e per scelte di non accettazione di lavoro alle condizioni correnti di remunerazione (disoccupazione ‘volontaria’).

Lo schema incentrato su equilibri NAIRU si presta a una varietà di specificazioni, complicazioni e derivazioni di forme ridotte ai fini di una verifica empirica. Si tratta infatti di specificare (o, meglio ancora, derivare, attraverso la soluzione di modelli basati su un comportamento ‘razionale’ degli agenti), per le schede WS e PS, i parametri – comportamentali, istituzionali, fiscali – che si ritiene possano incidere, nella realtà fattuale, sui comportamenti di imprese e lavoratori. L’elenco che segue non è esaustivo e la razionalizzazione degli argomenti è limitata a cenni intuitivi.

L’altezza della scheda WS nel piano dipenderà dai contributi a una spinta ‘esogena’ dei salari (wage push factors) che, a parità di una configurazione aggregata del mercato del lavoro (livelli di ‘1-u’), rafforzano la posizione dei segmenti della forza lavoro dotati di potere contrattuale. Tra i fattori più spesso richiamati nella letteratura, ricordiamo: a) il diverso grado di percezione della sicurezza del proprio posto di lavoro da parte di una ‘coalizione’ dei lavoratori già occupati (gli insiders), che inciderà sull’effetto deterrente sulla spinta rivendicativa rappresentata dalla concorrenza potenziale dei disoccupati (gli outsiders); b) l’entità e la durata del periodo di fruibilità dei sussidi di disoccupazione (benefit ratios), che incideranno ancora sull’impatto deterrente dello stato di disoccupazione per i lavoratori occupati, e sui comportamenti più o meno selettivi nella ricerca di lavoro da parte dei disoccupati; c) qualsiasi imperfezione (dualismi e segmentazioni, scarti fra composizione della domanda e dell’offerta per caratteristiche qualitative del lavoro ecc.), che diminuisce il grado di mobilità e concorrenzialità fra i lavoratori, contribuirà a sostenere un potere contrattuale degli insiders (ovverosia, leggendo il grafico secondo l’altra direzione di causalità, a far diminuire il tasso di occupazione compatibile per ogni livello della spinta salariale).

Meccanismi comportamentali e istituzionali vengono ulteriormente invocati per i fattori o shock che influiscono sulla posizione della scheda PS che riassume il comportamento delle imprese. Fra le ipotesi ai fini di una dislocazione negativa con conseguente spostamento verso il basso della domanda di lavoro, ricordiamo: a) un incremento degli oneri fiscali e contributivi che farà lievitare, a parità del salario netto, il costo lordo del lavoro per l’impresa; b) le rigidità contrattuali e normative che comportino ostacoli od oneri addizionali per l’impresa che voglia modificare in positivo (assunzioni) o in negativo (licenziamenti) la consistenza della propria manodopera; tali rigidità verranno percepite dall’impresa come aggravi di un costo complessivo ‘scontato’ associato all’assunzione del lavoratore ‘marginale’, ancora con effetto negativo sulla domanda.

Sia pure attraverso questo sommario elenco, risultano intuitive le razionalizzazioni che possono derivare da questi approcci per le dinamiche differenziali dell’occupazione/disoccupazione (per es. nel contesto della comparazione Europa/Stati Uniti). Una maggiore mobilità, e, quindi, un maggior grado di concorrenzialità sui mercati del lavoro regionali; una minore sindacalizzazione con conseguente limitazione del potere contrattuale degli insiders; una minore protezione legislativa e contrattualistica con relativi ostacoli a una flessibilità numerica della manodopera; una minore incidenza dello stato fiscale e degli oneri che appesantiscono un costo lordo del lavoro; queste, e altre, caratteristiche assegnabili a un ‘modello americano’ contribuirebbero a spiegare performances occupazionali favorevoli, rispetto all’effetto delle speculari ‘rigidità’ che si riscontrerebbero nel contesto europeo. Le soluzioni di equilibrio dei modelli NAIRU dipendono infatti da parametri riferibili come indicatori di flessibilità (per es. l’elasticità dei salari rispetto alla disoccupazione), anche se tali schemi ammettono generalmente, per il breve periodo, fenomeni di persistenza (isteresi) o di vischiosità delle situazioni pregresse, in cui è consentito un ruolo residuale per i tradizionali effetti delle politiche monetarie e fiscali.

Anche le analisi più sistematicamente applicate alla ricerca di un orientamento concreto delle politiche del lavoro – per es. l’influente rapporto dell’OCSE (1994) – si sono ampiamente ispirate al modello delle flessibilità, anche se con un caveat sui rischi di una dose eccessiva della ricetta, che si sarebbe manifestata, nella più recente esperienza statunitense, in termini di ineguaglianza crescente dei redditi, con effetti di ‘polarizzazione’ sociale.

Dal punto di vista dell’impostazione teorica ‘keynesiana’, i modelli sopra descritti sinteticamente potrebbero essere criticati per il loro tentativo di spiegare la disoccupazione sulla base di un’analisi tipicamente ‘parziale’ (cioè limitata all’esame del mercato del lavoro), mentre questo fenomeno può essere analizzato e compreso solo considerando la domanda aggregata. Tuttavia, in una situazione di predominio ‘neoclassico’ sul fronte della teoria, le ipotesi controfattuali e le visioni prospettiche su occupazione/disoccupazione sono state piuttosto proposte da parte di economisti applicati, attenti a una fenomenologia attuale sul fronte delle trasformazioni tecnologiche, dei modelli organizzativi d’impresa, e dell’interazione competitiva a livello internazionale. Si accennerà, pertanto, al rinnovato dibattito sugli impatti occupazionali delle nuove tecnologie, in particolare di quelle legate alle applicazioni dell’informatica, e ai rischi di ‘spiazzamento occupazionale’ che deriverebbero da una nuova dimensione globale della concorrenza commerciale e della mobilità dei capitali a livello planetario.
a) Un ‘pessimismo occupazionale’ che pone l’enfasi sugli effetti diretti di sostituzione di lavoro indotti dalle applicazioni tecnologiche è legato, da sempre, alla sfiducia verso una sufficiente intensità dei meccanismi che gli economisti, a partire da D. Ricardo, hanno individuato come possibili fattori di compensazione. Si ricordano, fra questi, l’espansione di una domanda incoraggiata dalla riduzione dei costi di produzione e dei prezzi dei beni e dalla crescita dei redditi, entrambe consentite dagli incrementi della produttività, e lo sviluppo di nuovi comparti produttivi connessi alle applicazioni dei processi innovativi (per rassegne aggiornate del dibattito sulla disoccupazione tecnologica, Pini 1992; Vivarelli 1995). Ci si chiede se le nuove tecnologie dell’informazione e delle comunicazioni possano avere un effetto di spiazzamento del lavoro più ampio e, quel che più conta, più persistente rispetto all’esperienza di precedenti cicli di innovazioni altrettanto ‘pervasive’ (per es. trazione meccanica, elettricità). Per gli economisti di scuola neoclassica, il fatto che non si sia registrata, nel tempo storico, una tendenza sistematica a un’associazione negativa fra crescita dell’occupazione e crescita della produttività sarebbe una prova implicita dell’efficacia dei meccanismi di compensazione nel medio periodo. Rispetto a questo, le posizioni pessimistiche insistono su una potenziale diversità e radicalità delle implicazioni della ‘rivoluzione informatica’, in termini di sostituibilità del lavoro estesa a funzioni gestionali, amministrative e di servizio, e a causa della prevalenza delle applicazioni di ‘processo’, risparmiatrici di lavoro, sulle innovazioni di ‘prodotto’ suscettibili di attivare nuovi impieghi delle risorse e nuovi bisogni di consumo. Dal punto di vista generale dell’analisi macroeconomica, tuttavia, la tendenza a una disoccupazione generata da fattori di natura tecnologica è legata, alla fine, al rapporto nel tempo fra crescita di un potenziale di offerta dell’economia, per effetto degli incrementi della produttività consentiti dal progresso tecnologico, e la sua capacità di generare a fronte di ciò un’adeguata domanda addizionale aggregata. Una posizione neoclassica rinvierebbe, a questo punto, a una petizione di fiducia nei meccanismi compensativi. Un punto di vista keynesiano inviterebbe a dedicare maggiore attenzione alle interazioni fra i parametri rilevanti nella dinamica di una domanda autonoma e indotta da un lato (per es. le propensioni a consumare e a investire, l’incidenza dei fenomeni redistributivi ecc.), e l’intensità del progresso tecnologico dall’altro.
b) L’impatto della globalizzazione commerciale e finanziaria è un secondo punto controverso nell’ambito di un dibattito sulle prospettive occupazionali nel medio periodo. L’entrata nello scenario della competizione internazionale di nuovi paesi produttori con abbondanza di dotazione (e quindi un basso costo relativo) del lavoro comporterebbe, secondo gli schemi classici della teoria del commercio internazionale, una despecializzazione e delocalizzazione delle produzioni ad alta intensità di lavoro per i paesi più ‘maturi’. La tendenza sarà rafforzata dalla riallocazione degli investimenti e della capacità produttiva consentita dalla crescente mobilità internazionale dei capitali, nonché dall’espansione di una dimensione ‘transnazionale’ delle strategie d’impresa. La conseguente caduta di un contenuto medio di lavoro nel prodotto complessivo potrebbe indurre, ove i salari interni fossero flessibili verso il basso, cadute di una remunerazione relativa del lavoro (per es. le riduzioni del reddito reale per i lavoratori ‘manuali’ dell’industria negli Stati Uniti), oppure una crescita della disoccupazione per le stesse categorie di lavoratori, ove prevalgano le rigidità. È necessario tuttavia, anche in questo caso, tener presente una possibile compensazione. La despecializzazione produttiva in alcuni settori ad alto contenuto di lavoro troverebbe, nei modelli di commercio internazionale, una controparte nella specializzazione e crescita in altre produzioni che sono ‘intensive’ di risorse disponibili nei paesi industrialmente maturi e meno immediatamente sostituibili: capitale e conoscenze tecnologiche avanzate, e un lavoro qualificato che opererebbe in cooperazione, e non in concorrenza, con quelle. Lo spiazzamento del lavoro varrebbe, quindi, solo per sue componenti non sufficientemente ‘educate’, o refrattarie a uno sforzo di riqualificazione.

La compensazione della riduzione di una domanda di lavoro non qualificato rinvia, pertanto, al problema generale di un’adattabilità strutturale del sistema produttivo, e dell’offerta di lavoro, rispetto alle evoluzioni dello scenario tecnologico e della divisione internazionale del lavoro. Le ricerche empiriche sull’impatto occupazionale della globalizzazione commerciale non hanno raggiunto, al momento, conclusioni univoche (si veda, per un punto di vista ‘massimalista’, Wood 1994; per una rassegna, OECD 1997, cap. 4). Si sottolinea che gli scambi commerciali con i paesi di nuova industrializzazione rappresentano una quota modesta rispetto al prodotto lordo dei paesi più avanzati; aree potenzialmente ampie di attività di servizio legate al consumo locale rimangono di fatto non esposte a una concorrenza esterna. Tuttavia, in prospettiva, la rilevanza della dimensione internazionale non dovrà essere sottovalutata: solo gli ostacoli a una perfetta mobilità del fattore ‘lavoro’ impediscono, infatti, che una tendenza alla mondializzazione dei mercati si dispieghi in pieno.

Il dibattito recente sulla ‘sclerosi europea’ dei mercati del lavoro ha messo in risalto la scarsa elasticità della dinamica occupazionale rispetto alla crescita del prodotto. Le specificità dell’occupazione/disoccupazione nel caso italiano non possono tuttavia essere ridotte all’aspetto macroeconomico o ciclico-congiunturale, e richiedono un riferimento immediato ai tradizionali squilibri in ambito territoriale e settoriale.

Nessun paese, a comparabile livello di sviluppo economico, presenta infatti caratteristiche così accentuate di dualismo strutturale; negli indicatori del mercato del lavoro, i divari fra le aree regionali assumono un’evidenza assai rilevante, e anche in misura più drammatica rispetto agli indici basati su parametri monetari di reddito. Tali divari riducono inoltre la significatività di confronti internazionali basati su un dato medio nazionale per l’Italia. Il tasso di disoccupazione si situava, nel 1998, al 7,1% nel Nord-Ovest, al 5,3% nel Nord-Est e al 10% nel Centro e risultava ridotto in maniera ulteriore, per le forze di lavoro maschili rispettivamente al 4,5%, al 3,3% e al 7,2%: si tratta di valori inferiori alle medie europee, e vicini a livelli che verrebbero considerati ‘frizionali’ o fisiologici dagli economisti. Il valore corrispondente, per il Mezzogiorno e le Isole, si situava al 22,8% (31,8% per la componente femminile), ai livelli massimi, insieme alla Spagna, nel contesto continentale.

Va ricordato a questo punto un secondo dato che caratterizza in negativo il nostro paese: il valore massimo di un tasso di disoccupazione giovanile fra i paesi sviluppati dell’area OCSE. Contrariamente ad altri paesi, inoltre, le prospettive di un sollecito ingresso nella vita attiva non sembrano migliorare, nel nostro caso, con il livello della qualificazione formale: i tassi specifici per i diplomati risultano infatti superiori a quelli dei possessori di sola licenza d’obbligo. Ancora, nel 1998, su un numero complessivamente rilevato di 2.837.000 persone in cerca di lavoro, il 71% erano classificati come disoccupati a lungo termine, con un periodo continuativo di permanenza nello stato superiore ai dodici mesi.

Una presa di visione adeguata delle ‘carenze occupazionali’ nel contesto italiano non può limitarsi ai dati della disoccupazione rilevata secondo la convenzione statistica corrente; i divari territoriali e i confronti internazionali andrebbero osservati ancora per gli altri indicatori del mercato. Ricordiamo qui soltanto che il tasso di attività del Mezzogiorno, per i maschi, risultava inferiore di circa 4 punti percentuali rispetto al Centro-Nord e di 8 punti rispetto alla media UE; per i tassi femminili gli scarti erano, rispettivamente, di 15 e 25 punti.
Con ‘carenza occupazionale’ vogliamo allora indicare, nel caso del nostro paese, l’incapacità, in senso ampio, del sistema economico di attivare posti di lavoro in numero adeguato rispetto al potenziale di offerta. Tale carenza si manifesta solo in parte sotto forma di disoccupazione dichiarata e rilevata; le cadute dei tassi di partecipazione e di occupazione indicherebbero infatti ritardi e anticipi patologici dell’ingresso/uscita nella e dalla vita attiva, e una frustrazione di fatto dell’aspirazione al lavoro ancora per un’ampia componente della popolazione femminile.

Una disoccupazione (o inoccupazione) prevalentemente meridionale e giovanile sembra
rinviare a fattori strutturali e a fenomeni di lungo periodo dal lato della domanda di lavoro, piuttosto che a un andamento congiunturale dell’attività economica. Su questo punto vogliamo tuttavia ricordare il pesante impatto della più recente fase di recessione (1992-95), che ha eliminato nel complesso circa 1.200.000 posizioni lavorative nell’economia, facendo ritornare il totale dell’occupazione italiana a livelli inferiori a quelli della fine degli anni Sessanta. La successiva ripresa si è tradotta, finora, in incrementi modesti di posti di lavoro, pressoché interamente concentrati nel Nord-Est del paese.

La ricerca corrente sulle specificità dell’occupazione/disoccupazione italiana e le relative proposte di intervento di politica del lavoro rinvierebbero a questo punto a una rassegna specifica. Ci limitiamo, in questa sezione conclusiva, a ricordare alcuni punti controversi del dibattito politico-economico in merito.

a) Rigidità legislative e contrattuali: è stato affermato che normative di legge e prassi contrattuali avrebbero reso il mercato del lavoro italiano uno fra i più ‘vincolati’, rispetto a una flessibilità sia numerica (per es. difficoltà di licenziamenti individuali e collettivi, criteri di chiamata ‘numerica’ e monopolio pubblico per il collocamento del lavoro ecc.) sia salariale (la determinazione, attraverso i contratti collettivi nazionali, di minimi salariali uniformi per l’intero territorio nazionale). Si deve osservare, su questo punto, che l’azione legislativa e la prassi contrattualistica hanno introdotto, a partire già dagli anni Ottanta, istituti che hanno ampliato la flessibilità e le opzioni per i datori di lavoro (per es. contratti di formazione e lavoro con chiamata nominativa per i giovani; possibilità di stipula fra le parti di ‘patti territoriali’ che tengano conto di particolari esigenze dei mercati del lavoro locali). Più recentemente, la l. 24 giugno 1997 nr. 196 ha previsto una più ampia liberalizzazione degli istituti e delle forme contrattuali del mercato del lavoro, consentendo per la prima volta l’iniziativa privata in materia di collocamento e il cosiddetto lavoro interinale.

b) La persistenza di elevati tassi di inoccupazione giovanile, nonostante una ripresa della domanda di lavoro nelle aree di maggiore vocazione all’esportazione e nonostante un’ampia presenza di un’immigrazione dai paesi extracomunitari, rende attuale e controverso il dibattito su una presunta scarsa propensione alla mobilità del lavoro, in particolare per le componenti giovanili, nel Mezzogiorno; comportamenti selettivi dal lato dell’offerta ed elevati costi della mobilità e dell’insediamento abitativo fuori sede sono stati richiamati a questo proposito.

c) Il basso tasso rilevato di partecipazione/occupazione rifletterebbe, almeno in parte, l’ampia diffusione delle attività su mercati ‘informali’ o irregolari del lavoro che sfuggono a norme, standard contrattuali e oneri fiscali-contributivi del mercato ‘regolare’. Non mancano le ricerche sul campo che documentano l’ampia diffusione del lavoro sommerso in contesti locali, ma la quantificazione dell’estensione e incidenza a livello complessivo della fenomenologia presenta tuttavia intuibili difficoltà. Nell’ambito delle stime di Contabilità nazionale, l’Istituto centrale di statistica procede a fornire cifre indicative per il 1995 (per maggiori dettagli, ISTAT 1997, cap. 4; Fondazione Giacomo Brodolini 1997) con una stima per quell’anno di circa 2,5 milioni di posizioni lavorative non regolari, con un’incidenza di circa il 15% sul totale delle ore lavorate complessive del sistema; a questo dato vanno ulteriormente aggiunti gli impieghi dei lavoratori stranieri non regolarizzati, stimati dal Ministero dell’Interno in circa 700.000 unità a fine anno.

d) Altre caratteristiche del mercato del lavoro italiano vanno collegate alle specificità del tessuto produttivo del paese: l’alta incidenza del lavoro autonomo (29% circa dell’occupazione complessiva nel 1995: valore massimo nel gruppo dei paesi OCSE); la prevalenza, anche per i lavoratori dipendenti, di un’occupazione attivata presso unità locali, industriali e di servizi, di dimensione piccola o minima.
In conclusione, all’interno delle performances non brillanti, riferibili a un contesto europeo più ampio, la fenomenologia italiana dell’occupazione/disoccupazione richiede tuttavia analisi, e proposte d’intervento, specifiche e articolate.

Negli anni Novanta la teoria economica, a proposito degli andamenti dell’occupazione, della disoccupazione e dei modi per affrontare quest’ultima, non ha fatto segnare particolari progressi, sebbene alcuni economisti vicini alle problematiche sociologiche e istituzionali (Gorz 1988; Rifkin 1995) abbiano proposto una critica radicale al concetto stesso di lavoro. La realtà, tuttavia, ha mostrato un’evoluzione significativa che ancora richiede una soddisfacente comprensione teorica. I cambiamenti nel mondo delle imprese e la ridotta efficacia delle politiche economiche tradizionali hanno determinato notevoli mutamenti qualitativi e quantitativi per quanto riguarda sia l’occupazione che la disoccupazione.

Fino agli anni Ottanta, infatti, le imprese producevano prevalentemente per il magazzino e quindi il monitoraggio delle scorte consentiva non solo di prevedere in tempo l’inizio di una crisi, ma anche di intervenire – da parte dei poteri pubblici – con iniezioni di spesa che, finendo per sostenere il reddito e la domanda, consentivano il riassorbimento delle scorte eccessive, e il ciclo produttivo ricominciava. Con la segmentazione dei mercati, con la più puntuale attenzione alle esigenze anche ‘personalizzate’ dei consumatori e con le moderne tecnologie introdotte per consentire risposte sofisticate a tale mutamento, gli interventi pubblici tradizionali hanno perso di efficacia: il maggior reddito indotto dallo Stato potrebbe andare a sostenere la domanda di beni e servizi diversi rispetto a quelli offerti dalle imprese in crisi. A ciò si aggiunga la tendenziale riduzione degli interventi pubblici, determinata da scelte di natura politica in termini di ridimensionamento del ruolo dello Stato nell’economia e di ricerca degli equilibri finanziari, prima e a prescindere dai disequilibri sociali, contrariamente a quanto si riteneva di dover fare fino a tutti gli anni Settanta.

I principali effetti sul mercato del lavoro sembrano: a) il passaggio o, meglio, il completamento del passaggio dall’avviamento indifferenziato o numerico della manodopera a un suo prevalente avviamento a chiamata nominativa da parte delle imprese; b) la maggiore selezione del personale, che ha determinato la modificazione delle qualità richieste ai nuovi lavoratori in termini di maggiore attenzione alle esigenze dei clienti e l’incremento di produttività al di là delle stesse potenzialità delle nuove tecnologie.

Per quanto riguarda il primo punto, si deve dunque osservare come il modello dell’avviamento a chiamata numerica, che interessava il 95% dei lavoratori – ancora tra la fine degli anni ’70 e l’inizio degli ’80 -, sia stato quasi completamente sostituito dal modello a chiamata nominativa, che porta le chiamate per mansioni di tipo semplice, ripetitivo e non qualificato al di sotto del 45% delle richieste di collaborazione da parte delle imprese. Non andrebbe, tra l’altro, sottaciuto che, secondo recenti studi, gran parte di questa forza lavoro si trova in condizioni di precarietà e provvisorietà, essendosi fortemente ridotta la dinamica dei contratti a tempo pieno e indeterminato. Tale fenomeno, in parte connesso allo sviluppo del cosiddetto terziario – la cui dinamica è, comunque, un aspetto di tutta la questione -, ha messo fortemente in crisi la funzione amministrativa di regolazione del mercato del lavoro. Il Ministero competente, infatti, non ha saputo prontamente reagire al cambiamento riorganizzando in modo adeguato i propri uffici periferici (regionali, provinciali e circoscrizionali); si sono soltanto tentate improbabili ‘riforme’ ogni volta introducendo organismi nuovi a livello regionale (agenzie, osservatori, commissioni), via via sempre meno dotati di risorse e di collegamento con le realtà territoriali. Tale crisi ha portato a una revisione profonda di tutta la macchina organizzativa statale in due direzioni: a) la privatizzazione dei servizi dell’impiego, anche in base a precise sollecitazioni in tal senso provenienti dall’Unione Europea (o, per lo meno, la previsione di una presenza di agenzie private sia per il cosiddetto lavoro interinale, sia per l’incontro vero e proprio tra domanda e offerta di professioni); b) la regionalizzazione ovvero il decentramento dei servizi stessi, consentendo al ‘centro’, vale a dire al Ministero, di mantenere precise competenze solo in materia di Ispettorato del lavoro e vigilanza sulle cooperative, di previdenza, di statistiche, di rapporti e controversie di lavoro. È prevedibile, tuttavia, che le Regioni attuino tale riforma (cfr. la l. 15 marzo 1997 nr. 59 e il d. legisl. 23 genn. 1997 nr. 469) decentrando ulteriormente i servizi più onerosi e meno dotati di risorse (come il cosiddetto collocamento) per concentrarsi su quelli più promettenti, come la formazione professionale.

Per quanto riguarda il fenomeno della maggiore selezione del personale da parte delle imprese, occorre sottolineare come esso abbia influito insieme positivamente sulla produttività del lavoro e negativamente sui livelli della domanda e quindi, a parità di altre circostanze, sull’occupazione. Soprattutto in Europa, infatti, ma segnatamente in Italia, all’aumento costante di produttività del lavoro non ha corrisposto un pari aumento del reddito dei lavoratori e della domanda. In sostanza, il monte salari si è ridotto, in quanto la perdita di occupati è stata proporzionalmente più consistente degli aumenti salariali per coloro che hanno potuto mantenere il posto. L’aumento della produttività, maggiore di quello dei redditi da lavoro, ha garantito tenuta e aumento dei profitti, ma non dell’occupazione; la maggior selezione della manodopera e la sua crescente produttività hanno ampliato il fenomeno con conseguenze di strutturalizzazione della disoccupazione, la cui durata si è enormemente allungata, provocando la ricerca di soluzioni estranee a quelle offerte dall’economia ufficiale.
Altri aspetti significativi dell’evoluzione del mercato del lavoro sono: il passaggio da una disoccupazione prevalentemente congiunturale (fino a tutti gli anni Settanta) a una disoccupazione che minaccia di non ridursi nel prossimo futuro; il problema della coesistenza di elevata disoccupazione e della difficoltà per le imprese di trovare la manodopera di cui abbisognano; la dinamica degli interventi pubblici volti ad affrontare il tema della disoccupazione e delle nuove politiche per l’occupazione.

I due problemi di un’offerta di lavoro non adeguata alla domanda, pur in presenza di elevati tassi di disoccupazione, e del passaggio da una disoccupazione prevalentemente congiunturale a una di più lunga durata presentano notevoli interconnessioni. Le più selettive esigenze delle imprese, infatti, spingono queste ultime a licenziare o a non assumere i lavoratori meno dotati professionalmente e attitudinalmente, che compongono ormai stabilmente l’insieme dei disoccupati. Ciò spiazza e rende inefficaci gli interventi pubblici diversi da quelli destinati a migliorare la formazione professionale degli aspiranti lavoratori.
Tuttavia, sebbene il 45% della domanda di lavoro da parte delle imprese riguardi ancora livelli professionali di basso profilo e facile fungibilità, una notevole quota di disoccupati in possesso di titoli di studio medi o elevati – ma non di capacità o qualificazioni professionali coerenti con le esigenze delle imprese – non accetta paghe o mansioni inferiori alle proprie aspettative. Da ciò l’esigenza di attrarre e selezionare lavoratori provenienti da aree a minor reddito pro capite disposti ad accettare mansioni e paghe particolarmente modeste. Si tratta, comunque, di un fenomeno non prevalente sul mercato del lavoro e che, probabilmente, potrà modificarsi se le opportunità lavorative non aumenteranno notevolmente nei prossimi anni.

L’età di accesso al lavoro si è notevolmente innalzata, specialmente per i giovani in cerca di prima occupazione e in possesso di un titolo di studio elevato; il che fa supporre – proprio di fronte alle più selettive esigenze delle imprese – che manchi un sistema di collegamento tra istruzione superiore, da una parte, e il mondo del lavoro, dall’altra. In poche realtà europee (come, per es., la Catalogna) si è riscontrato un sistema di formazione professionale che funga da connessione ordinaria tra il mondo della scuola e quello delle imprese, mentre il modello tedesco prevede maggiori opportunità per i giovani e le imprese di trovare occasioni di incontro a costi particolarmente bassi (i cosiddetti contratti di stage che cominciano a essere introdotti, pur con qualche resistenza, anche in Italia).

Anche il fenomeno delle imprese che non trovano le figure professionali di cui necessitano – pur in presenza di elevati livelli di disoccupazione – riguarda non un settore consistente del mercato del lavoro, ma solo alcune decine di migliaia di posizioni lavorative. Tuttavia tali situazioni, non particolarmente estese quantitativamente, hanno contribuito notevolmente a modificare nei paesi maggiormente industrializzati la struttura della disoccupazione, finora ridotta solo grazie alla trasformazione (a volte forzata) di posti di lavoro a tempo pieno in posti di lavoro a tempo parziale.

Gli interventi pubblici (regionali e locali, statali, comunitari) stentano a individuare strategie veramente efficaci – sulla cui esistenza la maggior parte degli operatori, degli osservatori e degli studiosi nutre molte perplessità – per affrontare i problemi dettati sia da un’insufficiente crescita dell’occupazione, sia da un eccessivo aumento della disoccupazione. Strategia apparentemente efficace, ma certamente incompleta, è apparsa infatti quella, praticata particolarmente nei Paesi Bassi, Stati Uniti e Regno Unito, che prevede una massiccia sostituzione di occupati a tempo pieno (in genere più anziani, sindacalizzati e con paghe più alte) con un numero evidentemente maggiore di occupati a tempo parziale (in genere più giovani e con paghe orarie più basse, quindi con un guadagno per le imprese, in termini di produttività del lavoro).

Il modello olandese sembra differire da quello anglosassone in quanto riconosce ai lavoratori e alle lavoratrici a part time taluni benefici in termini di welfare state sanitario ed educativo, di gestione del tempo libero, di parità tra uomini e donne. Nel caso degli Stati Uniti e del Regno Unito, invece, si è fatto riferimento a flessibilizzazione ‘selvaggia’ del mercato del lavoro.
L’Unione Europea nel suo complesso si è mossa, invece, su due direttrici. La prima, più debole, risale al ‘libro bianco’ di J. Delors che individuava nell’economia sociale (composta da cooperative, mutue, associazionismo e volontariato) il settore passibile di maggior sviluppo per l’Europa unita. L’assunto dell’economia sociale consisteva nella valutazione dell’esistenza di una forte e disattesa domanda di servizi di cura delle persone e dell’ambiente, nonché di attività culturali e legate alla fruizione del tempo liberato dalle incombenze lavorative cui non corrispondeva un’adeguata offerta da parte delle imprese: la quantità di lavoro per unità di servizio necessario a predisporre tale offerta potenziale avrebbe infatti portato i costi e i prezzi di tale settore ben al di sopra di ciò che mediamente i consumatori, ovvero il mercato, sarebbero stati disposti a pagare (il cosiddetto paradosso di Baumol).

Di qui l’individuazione di un settore, appunto quello dell’economia sociale, diverso sia dall’area dell’economia di profitto (erroneamente definito mercato in quanto il mercato altro non sarebbe che l’insieme della domanda dei consumatori), sia dall’area dell’intervento pubblico, di cui si preconizza una tendenziale riduzione per ragioni politiche, finanziarie e di efficienza generale.

La finalizzazione non al profitto, ma all’interesse mutualistico (degli associati) ovvero altruistico (dei soli beneficiari); l’organizzazione più flessibile e meno costosa in termini salariali; la possibilità di gestire utilmente intere aree abbandonate, o abbandonabili, da parte dello Stato, dovevano consentire all’economia sociale di fornire al mercato e ai consumatori – variamente individuati – tutti quei servizi di cura, di difesa dell’ambiente, di sviluppo delle attività culturali e ricreative che le imprese con finalità di lucro non sarebbero state, mediamente, in grado di produrre, con conseguenze occupazionali molto rilevanti.

A tale elevata aspirazione dell’Unione Europea hanno corrisposto, dopo la pubblicazione del libro bianco di Delors, scarse realizzazioni e un impegno comunitario e dei singoli paesi – pur con qualche eccezione in Francia, Spagna e nei Paesi Bassi – tutto sommato modesto. La Direzione generale xxiii della Commissione europea, competente per materia, appare tuttora una direzione marginale, con esigui mezzi e risorse, e con poche opportunità di influire sulle grandi scelte dell’UE in campo occupazionale.

La seconda direttrice dell’UE, più forte e attrezzata, ha fatto capo ai cosiddetti fondi strutturali, fondi finalizzati in teoria ad alleviare le conseguenze della deindustrializzazione o delle scelte in materia agricola, ma soprattutto ad agevolare lo sviluppo economico nelle aree in ritardo (vengono così definite le aree con un PIL pro capite inferiore al 75% rispetto a quello dell’insieme dei paesi dell’UE). Attualmente tali aiuti raggiungono il 51% del territorio dell’Unione, ma la Commissione ha recentemente annunciato di volerli rendere più efficaci riducendone il campo di applicazione al solo 35% delle regioni aderenti all’UE stessa; considerando che i prossimi 6 paesi che aderiranno all’UE entro il 2003, nonché altri 5 che potrebbero aderire al 2012 o anche prima, presentano tutti un PIL pro capite molto più basso della media europea e, segnatamente, del 75% di essa, se ne deduce che molte regioni attualmente ammesse a questi fondi – soprattutto quelle del Mezzogiorno italiano – saranno escluse da tali strategie di aiuti.

In pratica, però, questi fondi sono andati a compensare situazioni determinate o codeterminate dalle scelte di politica e di politica economica dell’UE. Durante tutti gli anni Ottanta, infatti, il sistema dei cambi fissi o semifissi (entrato in crisi nel settembre 1992) ha determinato un duplice squilibrio nelle economie dei paesi aderenti allo SME: da una parte i paesi più forti, con economie in grado di registrare esportazioni al netto delle importazioni positive, hanno potuto mantenere bassi o ridurre ulteriormente i propri tassi d’interesse con beneficio per le proprie economie e i livelli dell’occupazione interna; dall’altra i paesi più deboli, per riequilibrare il saldo negativo fra esportazioni e importazioni senza svalutare il proprio cambio, hanno dovuto innalzare i tassi d’interesse – onde attirare capitali in grado di riportare in pareggio la bilancia dei pagamenti – indebolendo così ulteriormente le proprie economie e la consistenza dell’occupazione.

Anche la legislazione nazionale è apparsa, nel complesso, frammentaria e contraddittoria, incapace di affrontare i grandi problemi dell’occupazione e del ritardo economico nelle aree a più elevato tasso di disoccupazione, pur con qualche eccezione (cfr. il d. legisl. 7 ag. 1997 nr. 280, sulle borse di lavoro). Luci e ombre sembrano altresì derivare dalla gestione dei ‘lavori socialmente utili’ (l. 23 luglio 1991 nr. 223 e, per la revisione della disciplina, d. legisl. 1° dic. 1997 nr. 468) rivisitati e allargati con i ‘lavori di pubblica utilità’ (d. legisl. 7 ag. 1997 nr. 280) e, tra molte incertezze, dalle discusse disposizioni sulle 35 ore settimanali di lavoro.
Una caratteristica di alcuni mercati del lavoro è la crescita dell’economia sommersa, particolarmente evidente nei sistemi dotati di una legislazione più rigida e con più alti livelli di disoccupazione. Per quanto riguarda l’Italia, si stima che il peso dell’economia sommersa potrebbe aggirarsi attorno al 15÷20% del PIL ufficiale; considerando la media delle retribuzioni ‘in nero’ non molto al di sotto delle retribuzioni nette contrattuali, e ipotizzando un livello dei profitti non diverso da quello dell’economia ufficiale, si arrivano a considerare impegnate in questo settore – tra lavoratori irregolari a tempo pieno e non – circa 5 milioni di unità lavorative.

Se si considera che, in Italia, le forze di lavoro composte dalla sommatoria degli occupati e dei disoccupati (ufficiali) nel 1998 raggiungevano i 23 milioni e la popolazione in età lavorativa era di circa 40 milioni, ci si rende conto della forte incidenza dell’occupazione marginale.

Comunque, una consistente economia sommersa, che è fenomeno comune agli altri paesi industrializzati – pur in misura diversa rispetto all’Italia -, appare uno degli aspetti più rilevanti per la comprensione dei problemi dell’occupazione e della disoccupazione nei prossimi decenni. Infatti, un’estesa occupazione irregolare sottrae risorse al sistema della previdenza e alle finanze pubbliche in generale, costringendo le autorità a far gravare sempre di più i pesi della contribuzione fiscale e previdenziale sui regolari; situazione che sarebbe la causa principale dell’economia sommersa, da tenere distinta da quella illecita. Secondo recenti indagini, molti disoccupati ufficiali del Sud, in possesso di titoli di studio elevati, rifiuterebbero occupazioni regolari non adeguate alle proprie attese professionali, ma le accetterebbero nell’economia sommersa per provvedersi di un reddito senza intaccare le proprie aspirazioni a mansioni adeguate ai titoli di studio.

Dopo la crisi dello SME (settembre 1992), l’economia sommersa ha dato segni di particolare vitalità contribuendo al rilancio delle esportazioni italiane agevolate dal ridimensionamento del cambio della lira. Attualmente si stima che la stessa economia sommersa, per continuare a reggere le sfide della globalizzazione, dovrebbe poter contare su moderni servizi reali e un sistema creditizio adeguato, condizioni che implicano la sua regolarizzazione.
A tale scopo, e per rendere agevole tale importante passaggio, i fondi stanziati dalla l. 24 giugno 1996 nr. 196 possono venire utilizzati nell’ambito dei cosiddetti contratti di area, con i quali le parti sociali si accordano al fine di promuovere adeguate misure di sviluppo locale. Il patto per il lavoro, siglato dalle parti sociali e dal governo nel settembre 1996, ha sancito che la regolarizzazione dell’economia sommersa rientra nelle politiche volte a far crescere i livelli occupazionali. Il cosiddetto patto di Natale, infine, stipulato il 22 dicembre 1998 fra governo, enti locali, sindacati e organizzazioni imprenditoriali, ha ripreso e ribadito diversi di questi elementi volti a incidere su crescita e occupazione, sottolineando l’importanza di processi decisionali basati sulla concertazione fra le parti.

Il primo impiego, per i giovani che hanno appena terminato gli studi (licenziati, diplomati, laureati), richiede normalmente un’ulteriore fase di istruzione professionale (apprendistato, tirocinio, prova, formazione), propedeutica non solo all’eventualità di trovare un lavoro adeguato alle aspirazioni, ma anche alla probabilità di insuccessi dovuti all’immaturità dei progetti e all’insufficienza dei mezzi e delle opportunità per realizzarli. Il rischio di probabili errori, dovuti all’inesperienza di gestire autonomamente i propri interessi, è aggravato dall’insufficienza della scelta e, paradossalmente, addirittura annullato dalla cronica difficoltà di competere in un mercato che, in contrasto con il costituzionale ‘diritto al lavoro’ (art. 4), è tecnicamente predisposto a saturarsi secondo punti di equilibrio mercantile attinenti a elementi oggettivamente estranei a finalità di profilo antropologico, societario, umanitario, solidaristico.

Così, del resto, è sempre stato, ma oggi non si tratta più del pietismo per l’emarginazione di classi disagiate; il problema è mondiale per aspetti collaterali, se pure attinenti alla condizione di non-occupato tipico. Il problema non è più solo quello economico del profitto legato al mantenimento di un buon livello dei redditi per consentire che il consumo dei beni e servizi alimenti la produzione del profitto stesso; non è più solo quello, politico, che la rigidità garantista degli schemi legali e l’assistenza sociale assicurino al governo tranquillità e consenso; non è più soltanto quello, giuridico, che la forma del contratto conferisca validità ed efficacia ai contenuti che i soggetti sono liberi di dare alla negoziazione (a prescindere da quali siano le persone provviste realmente di potere contrattuale in grado di negoziare liberamente). L’automatismo fatalistico delle teorie classiche, sfociato nell’attuale imperante contrattualismo (che sfrutta, lasciandole al loro destino ‘naturalistico’, le distanze fra inclusi ed esclusi), è da sempre rivolto a uno sviluppo senza qualità, privato di quegli scopi che qualificano positivamente un progredire autenticamente culturale e civile; tale automatismo deve però fare i conti con la realtà di una condizione giovanile che non è solo serbatoio generazionale e non può essere trascurata perché i suoi problemi si sono radicati in gangli vitali della politica e della società.

Alle nuove generazioni che, da sempre prive di potere contrattuale, sono la componente più debole della società, è consegnata la continuità non solo della vita, ma della persistenza delle condizioni che contraddistinguono il tipo di vita dell’uomo. In alternativa a una situazione rispondente a queste esigenze sono apparse occasioni surrettizie all’occupazione (lavoro nero, consumismo di gruppo, droga, prostituzione, associazione a gruppi contestatori) che hanno finito per sostituirsi alle normali funzioni delle formazioni sociali tipiche (famiglie, imprese, sindacati, partiti, circoli religiosi e sportivi) in cui i giovani trovavano – e possono trovare ancora – i valori di guida.

La convinzione che il divario sia dovuto all’importanza essenziale degli inclusi (dedicati a iniziative imprenditoriali, manageriali, bancarie, borsistiche) e all’irrilevanza esistenziale degli esclusi (destinati al lavoro esecutivo caratterizzato dalla fungibilità) è stata messa in dubbio di recente da un fenomeno di globalizzazione che, se pure non ancora esattamente definito, viene in sostanza a segnalare che la soluzione dei grandi problemi (politici, economici, sociali) è legata e condizionata dall’avere in comune quella ragione di scopo che è la libertà: essa orienta gli effetti producibili (lo sviluppo sostenibile e il regime possibile) con un criterio che, in ogni caso, ‘disciplina’ l’esercizio reale delle libertà nel senso del rilievo effettivo e dell’interagire fra i termini che entrano nel teorema del benessere economico, della libertà, della coesione sociale, in modo che nessun termine possa prevalere senza sacrificare l’altro: da qui la ricerca di un autentico equilibrio come ineludibile fattore di giustizia. L’occupazione dei giovani, in questo quadro, supera la preoccupazione dei legislatori di mantenere stabilità al governo, pace fra le parti sociali, sviluppo dell’economia: si comincia a prendere atto che l’inarrestabile corsa verso la produzione di tecnologie sempre più avanzate (che lascia a terra i perdenti designati) non assicura senz’altro ripresa e vigore all’economia, per gli effetti collaterali della non occupazione, della disoccupazione, della sottoccupazione, del lavoro nero e sommerso, che sconvolgono le aspettative dei giovani. Elasticità, flessibilità, temporaneità, mobilità, strutture di formazione professionale, volontariato, borse di lavoro, ‘prestiti d’onore’ acquistano allora un significato culturale e un valore morale che va oltre le strategie dell’adattamento al mercato.

A tale presa di considerazione della realtà sono rivolte talune disposizioni comunitarie in materia di lavoro e, segnatamente, di occupazione giovanile (in partic.: Direttiva CEE 92/51 del Consiglio del 18 giugno 1992; Raccomandazione del Consiglio 30 sett. 1993 nr. 404; Risoluzione del Consiglio 5 dic. 1994) cui corrispondono, in Italia, le norme della l. 24 giugno 1997 nr. 196, in materia di promozione dell’occupazione, particolarmente attente alla situazione dei giovani (il cosiddetto pacchetto Treu) e tendenti anche alla regolarizzazione del lavoro sommerso.

L’aspetto più interessante che vi si riscontra è forse il tentativo di superare l’oggettivismo merceologico del mercato cui è estranea la circostanza di chi sia soggettivamente nella condizione di partecipare, nel senso quanto meno di avere i requisiti di capacità. D’altronde, il problema di fondo sembra accantonato da un già compiuto salto di qualità, là dove si profila un mercato del lavoro in cui rientra lo scopo da perseguire, coordinando le posizioni delle parti interessate, relativamente agli aspetti del fatto occupazionale, mediante la logica di una negatività e di una positività sistematica (per es. gli esuberi, la mobilità, la flessibilità, la regolabilità e, in un certo senso, l’obiettivo stesso della ventilata riduzione dell’orario normale a 35 ore).

L’adozione di misure nelle quali è la domanda, nella sua specificità, a influire sul tipo di offerta (con una sorta di sovvertimento dei ruoli) mostra che si è imboccata la strada del rinnovamento, se pure nelle forme sperimentali del lavoro in affitto (o interinale ), a tempo determinato, part-time, di utilità sociale e di pubblica utilità; forme a cui le imprese sono chiamate a ricorrere, venendo indotte (con incentivi e sgravi fiscali, ovviamente) ad adeguare l’organizzazione interna, non solo del lavoro. Su questa linea si colloca anche la previsione di una detrazione sull’IRPEF, per i figli a carico, senza limiti di età. È anche interessante la disposizione dell’art. 23 del d. legisl. 31 marzo 1998 nr. 80 in materia di organizzazione e di rapporti di lavoro nelle amministrazioni pubbliche, in base alla quale il regolamento sul relativo ordinamento degli enti locali può “prevedere particolari modalità di selezione per l’assunzione del personale a tempo determinato, per esigenze temporanee e stagionali” con esclusione di “ogni forma di discriminazione”.

Il pacchetto Treu sottolinea e ribadisce l’assoluta emergenza sociale del problema dell’occupazione giovanile, specie nelle aree più depresse o svantaggiate del paese.
Vi si prevede un piano che agisce su due leve: la prima è costituita dalle ‘borse di lavoro’ (a favore dei giovani tra i 21 e i 32 anni) con la sovvenzione del lavoro nel mercato, anziché fuori dal mercato (come avviene nel caso del sussidio di disoccupazione); con l’attivazione di tali iniziative rivolta alla vitalità delle imprese di dimensioni medio-piccole (normalmente con non più di 100 dipendenti); con incentivi a procedere, al termine della borsa di lavoro (la cui durata è di regola annuale), all’assunzione a tempo indeterminato. Le borse di lavoro possono avere esecuzione presso imprese manifatturiere, di commercio all’ingrosso e al dettaglio, di riparazione di veicoli, di alberghi e ristoranti, di trasporti, magazzinaggio e comunicazione, di intermediazione monetaria e finanziaria, di attività immobiliari, noleggio, informatica, ricerca e altre attività professionali e imprenditoriali.

La seconda leva consiste nel coinvolgimento della pubblica amministrazione e di altri enti interessati a partecipare con i giovani al compimento di lavori socialmente utili (già previsti dalla l. 28 nov. 1996 nr. 618) e che ricevono qualificazione di ‘pubblica utilità’ dal d. legisl. 1° dic. 1997 nr. 459. La serie si arricchisce di occasioni ‘settoriali’ di lavoro, specificate in: servizi alle persone; cura dell’ambiente in generale e del territorio in particolare, ricupero e qualificazione degli spazi urbani e dei beni culturali, con estensione ai settori agricoli e montani. I progetti dei lavori sono promossi dalle amministrazioni pubbliche, dagli enti pubblici economici, dalle società a totale o prevalente partecipazione pubblica e dalle cooperative sociali (l. 8 nov. 1991 nr. 381) e loro consorzi. Altri eventuali ‘soggetti’ possono essere individuati dai ministeri interessati a questa creazione di nuove occasioni di lavoro che raggiungano la qualificazione di pubblica utilità.

Le Regioni e gli enti locali (a norma della l. 15 marzo 1997 nr. 59, cui ha fatto seguito il d. legisl. 23 dic. 1997 nr. 469) possono peraltro svolgere, fra le altre competenze in materia di mercato del lavoro, funzioni e compiti in ordine alla programmazione e al coordinamento dell’occupazione (con riferimento anche all’occupazione femminile, di tossicodipendenti ed ex detenuti); al reimpiego di lavoratori posti in mobilità e di altre categorie svantaggiate; all’indirizzo, alla programmazione e alla verifica dei tirocini formativi e di orientamento, nonché delle borse di lavoro. Nella prospettiva delle assegnazioni di queste, il d. legisl. 7 ag. 1997 nr. 280 prevede un piano straordinario a favore delle regioni Sardegna, Sicilia, Calabria, Campania, Basilicata, Puglia, Abruzzo, Molise, e delle province di Massa Carrara, Frosinone, Roma, Latina, Viterbo, anche in ambiti interregionali. La l. 27 dic. 1997 nr. 449 elabora i criteri per la concessione alle piccole e medie imprese di incentivi fino al 31 dic. 2000, in vista dell’assunzione di nuovi dipendenti, con particolare riferimento alle aree urbane con un alto tasso di disoccupazione giovanile (art. 4).

L’impegno dei giovani in borse di lavoro e in lavori di pubblica utilità non determina un contratto di lavoro subordinato e non comporta la cancellazione dalle liste di collocamento. I giovani lavoratori vengono comunque assicurati contro gli infortuni e le malattie professionali e vengono informati circa le disposizioni vigenti in materia di tutela e sicurezza dei luoghi di lavoro (come dispone la Direttiva CEE 91/383 del 25 giugno 1991).

Il PIL non tiene conto inoltre dell’economia sommersa, locuzione con cui si indica qualsiasi attività economica avente la caratteristica di sfuggire all’osservazione statistica. Nell’e. s. si intrecciano elementi di diversa natura: da ciò la varietà di termini utilizzati come sinonimi (economia informale, nascosta, sotterranea, parallela, irregolare, nera, duale, crepuscolare, o, dall’ingl. shadow economy “economia ombra”). Considerando i flussi reali e finanziari tra operatori, l’e. s. può essere intesa come un complesso di flussi che risultano paralleli a quelli “ufficiali” e che non vengono introdotti nelle valutazioni contabili nazionali. Gli scambi irregolari tra famiglie e imprese ne costituiscono la parte più studiata: le famiglie possono irregolarmente fornire alle imprese lavoro e capitale o acquistare da esse beni e servizi.

Di scambi irregolari si svolgeno in mercati tipici, come, per il lavoro, i mercati neri del lavoro a tempo pieno (disoccupati, lavoratori in cassa integrazione, pensionati, casalinghe, studenti, ecc.); i mercati del lavoro caratterizzati da quantità scambiate inferiori al minimo contrattuale (secondo o doppio lavoro); lavoro a domicilio (formalmente autonomo ma derivante da un unico committente). Per gli scambi di beni e servizi vi sono invece mercati irregolari o regolari in cui sia diffusa la pratica della sottofatturazione (per es., prestazioni relative a riparazioni domestiche o servizi sanitari, contrabbando). Nelle transazioni fra imprese si possono verificare sommersioni soprattutto per scopi di evasione fiscale (per es., sottovalutazione dell’attività produttiva, imputazione all’attività produttiva di spese che sono in realtà consumi privati). Flussi sommersi si verificano anche con il resto del mondo (lavoro irregolare all’estero o di immigrati in posizione irregolare, capitali impiegati in altri paesi, prestazioni di servizi domestici, ecc.). Altre componenti dell’e. s. sono le seguenti: attività economiche svolte all’interno delle famiglie (lavori di pulizia della casa, cura dei bambini, manutenzione dell’alloggio, attività dilettantistiche, ecc.); attività criminali affini alla produzione da un punto di vista economico, ma svolte in violazione del codice penale. Le operazioni sommerse si verificano per diversi motivi. Per la famiglia vi è la volontà di impiegare in maniera ottimale la risorsa lavoro di cui dispone; i lavoratori, invece, possono ottenere dei vantaggi (evasione fiscale) dalla sommersione, oppure subire l’imperfezione dei mercati che pone barriere per l’accesso regolare al lavoro. La sommersione può dunque dipendere dalla volontà dei soggetti, ma anche da errori sistematici nell’osservazione delle attività che si collocano al di fuori del normale campo statistico-economico. La mancata valutazione dell’e. s. distorce l’osservazione statistica del sistema (occupazione, attività produttiva, ecc.), provocando la sottovalutazione dei dati economici e facendo divergere il tasso di variazione effettivo di ogni dato economico da quello osservato. Ciò dunque può indurre a diagnosi congiunturali e strutturali fallaci e a politiche economiche errate. L’avvio dello studio di tale fenomeno risale agli anni Settanta del Novecento, e ha dato luogo a diversi metodi di stima (per es., risposte volontarie a questionari, difficilmente verificabili, o studi settoriali). La valutazioEconomia E

Né tien conto della economia criminale. Il nesso tra economia e criminalità può essere esaminato da diversi punti di vista: in queste pagine ne scegliamo due. Il primo consiste nell’analizzare quel che ha da dire la teoria economica per spiegare il comportamento criminale. Il secondo è per certi aspetti speculare al primo e consiste nell’analizzare quali sono gli effetti delle attività criminali su un sistema economico, per esempio sull’economia italiana. Per quan-to riguarda questo secondo aspetto, va fatta l’ulteriore distinzione tra attività criminali che hanno, in senso lato, un effetto distributivo, ossia che tolgono ad alcuni per dare ad altri (il furto e l’estorsione, ma anche la corruzione, la concussione ecc.) e attività criminali che consistono nella produzione, distribuzione e vendita di beni e servizi (la prostituzione, il contrabbando, il mercato della droga e così via). Infine, l’argomento degli effetti delle attività criminali può essere indagato, secondo una classica distinzione della teoria economica, tanto in una prospettiva di breve periodo quanto in una di lungo periodo.

Per procedere abbiamo bisogno di precisare il significato dei termini comportamento criminale e attività criminale. Coerentemente con l’approccio della teoria economica, le definizioni di cui faremo uso non hanno alcun connotato filosofico o morale. Semplicemente, l’aggettivo criminale va considerato sinonimo di illegale. Per es., per riprendere una definizione adottata dall’ISTAT (2008, p. 2), «le attività illegali sono sia le attività di produzione di beni e servizi la cui vendita, distribuzione o possesso sono proibite dalla legge, sia quelle attività che, pur essendo legali, sono svolte da operatori non autorizzati (per es., l’aborto eseguito da medici non autorizzati)». Anche l’aggettivo illegale va inteso in senso lato. In esso faremo rientrare comportamenti che il linguaggio comune stenta talvolta a considerare ‘criminali’, come il parcheggio in divieto di sosta, l’evasione fiscale e contributiva o quella vasta e indistinta area dell’attività economica che va sotto il nome di economia sommersa. Per concludere su questo punto, la teoria economica etichetta come criminali tutti i comportamenti e le attività che sono proibiti dalla legge e che perciò, se scoperti, vengono sanzionati.

Quanto appena detto aiuta a comprendere le possibilità e i limiti di una spiegazione dei comportamenti criminali (nel senso appena precisato) basata sugli strumenti della teoria economica (per una trattazione completa dell’argomento, v. Eide, Rubin, Shepherd 2006; per una più sintetica, v. Cooter, Ulen 20085, capp. XI, XII). Uno dei fondamenti della disciplina è l’ipotesi di razionalità delle decisioni, secondo la quale ogni soggetto effettua la scelta preferita (date le proprie preferenze) selezionandola all’interno delle alternative a propria disposizione. Questo approccio può essere applicato a molte scelte criminali per le quali ha senso utilizzare questa definizione di razionalità. Tuttavia è chiaro che procedendo in tal modo se ne mette a fuoco soltanto un aspetto, per quanto rilevante. Nelle scelte di qualunque soggetto, infatti, c’è in genere molto di più, nel senso che possono essere rilevanti elementi e motivazioni che non sono compresi all’interno dell’approccio della razionalità della decisione e che perciò non possono essere trattati dalla teoria economica. Richiamando la famosa distinzione di Albert O. Hirschman tra ‘passioni’ e ‘interessi’ (The passions and the interests. Political arguments for capitalism before its triumph, 1977; trad. it. 1979), si può dire che la teoria economica si occupa soprattutto delle conseguenze sulle scelte dei secondi e non delle prime. La teoria economica ha poco di significativo da dire sugli omicidi passionali, sulla violenza in famiglia, sugli stupri (ma cfr., per es., Walby 2004). Tuttavia, anche limitando il ragionamento alla considerazione dei soli interessi, può andare parecchio lontano per aiutarci a comprendere le azioni criminali.

Per applicare gli strumenti dell’economia allo studio del comportamento criminale, possiamo far ricorso alla teoria della scelta in condizioni di incertezza (rischio). Consideriamo un semplice esempio: la decisione di pagare o meno il biglietto dell’autobus. Non pagare il biglietto rientra nella nostra definizione di comportamento ‘criminale’ (di tipo distributivo). L’alternativa si pone nei termini seguenti. Nel caso che decida di pagare, il soggetto sopporta una spesa certa (il prezzo del biglietto); nel caso che scelga di provare a viaggiare gratis (di comportarsi da free rider), rischia di pagare la multa se passa il controllore. Il risultato della scelta di viaggiare gratis è appunto incerto (dipende dalla frequenza del passaggio del controllore). Se il soggetto è razionale e neutrale rispetto al rischio, la sua scelta dipenderà dal confronto tra le due alternative: se il costo atteso della scelta di viaggiare gratis è minore del costo (certo) dell’alternativa di pagare il biglietto, il nostro soggetto razionale si comporterà da free rider, ossia effettuerà una scelta ‘criminale’. Nel nostro esempio il calcolo è molto semplice, dipendendo da tre numeri: il costo del biglietto (c), l’entità della multa (m) e la probabilità che passi il controllore (p). Il costo della scelta non criminale (pagare il biglietto) è appunto c. Il costo atteso della scelta criminale (lo indichiamo con a) è una media tra zero (se il nostro soggetto riesce a farla franca) e m (se passa il controllore); i pesi della media sono rappresentati dalle due probabilità; precisamente abbiamo a=0×(1−p)+m×p=mp. Questo permette di identificare la condizione in cui è razionale comportarsi da criminale. Essa è appunto mp<c. L’applicazione dell’ipotesi di razionalità suggerisce perciò che il comportamento criminale è tanto più frequente quanto più basso è il livello della sanzione m, quanto più bassa è la probabilità p che il comportamento criminale venga scoperto, e infine quanto più alto è il costo c associato al comportamento non criminale.

L’esempio è semplicissimo, ma contiene gli elementi essenziali della teoria economica del comportamento criminale. Secondo tale teoria, un individuo decide di violare la legge se il beneficio che si attende di ottenere da tale azione supera il beneficio che si attende di ottenere dedicando la stessa quantità di risorse a un’attività alternativa, questa volta legale. Possiamo dire, citando il fondatore della teoria economica del comportamento criminale, il premio Nobel per l’economia Gary S. Becker, che «alcune persone diventano ‘criminali’ non perché le loro motivazioni di fondo differiscono da quelle delle altre persone, ma perché i loro costi e benefici sono diversi» (Crime and punishment: an economic approach, «Journal of political economy», 1968, 76, 2, p. 176). Ovviamente, questo non vale solo nel caso banale della decisione di pagare o meno il prezzo del biglietto. Vale in tutti i casi in cui un soggetto è di fronte all’alternativa di violare o non violare la legge: evadere o pagare le tasse, guidare in stato di ebbrezza, corrompere un funzionario pubblico, impegnarsi in un’attività economica illegale come la produzione e la vendita di stupefacenti o il contrabbando, o ancora effettuare un furto o una rapina, o mettere in piedi un’attività di estorsione nei confronti dei commercianti di un quartiere o di una città. E si possono fare moltissimi altri esempi. Per tutti, la teoria economica sottolinea la rilevanza, per effettuare la scelta, del confronto tra i due benefici attesi.

Un’implicazione importante di questa teoria è che essa suggerisce un criterio guida per la realizzazione delle politiche di contrasto. In altre parole è possibile influenzare le scelte criminali (in particolare, è possibile ridurne la frequenza e la rilevanza) se si riesce a influenzare i costi e i benefici che sono alla base di quelle scelte. Per riprendere l’esempio del (mancato) pagamento del biglietto dell’autobus, è possibile ridurre la frequenza del free riding semplicemente aumentando il valore della sanzione m oppure aumentando la probabilità che il free riding venga scoperto e perciò sanzionato, ovvero accrescendo il valore della probabilità p; quel che importa è che si arrivi a una combinazione di entrambi per cui si abbia mp>c, ossia una situazione in cui conviene pagare il biglietto.

Sappiamo tuttavia che, anche nelle situazioni in cui il beneficio atteso dall’azione criminale è maggiore del beneficio atteso dall’alternativa legale (in cui cioè si ha mp<c), non tutti i soggetti scelgono la prima. Ovvero molto spesso (e per fortuna) i soggetti decidono di non comportarsi da criminali anche quando converrebbe. La teoria economica spiega questo risultato facendo ricorso alla nozione di avversione al rischio. Un soggetto è avverso al rischio se preferisce un risultato certo a una scommessa che gli garantisce lo stesso risultato in media. Per es., preferisce tenersi un euro piuttosto che acquistare per quella cifra un biglietto di una lotteria che gli promette, con una probabilità dell’1%, una vincita di 100 euro. Il valore atteso di quel biglietto è appunto un euro, ma il soggetto preferisce non scommettere (invece, in questa situazione, un soggetto amante del rischio scommetterebbe). L’avversione al rischio non esclude che i soggetti non decidano di impegnarsi in comportamenti rischiosi, ma afferma che lo faranno solo se il premio atteso per la scelta rischiosa è sufficientemente elevato (tanto più elevato quanto più il soggetto è avverso al rischio). Nel nostro esempio, il soggetto potrebbe decidere di scommettere se la vincita fosse di 200 o di 1000 euro e/o se la probabilità di vincere fosse più alta. Ma altri soggetti, ancora più avversi al rischio, potrebbero rifiutare anche queste scommesse.

Vi sono vari motivi per cui le attività illegali sono rischiose (e comunque più rischiose di quelle legali). I principali sono l’assenza della tutela della legge per i risultati di quelle attività (un ladro che viene a sua volta derubato della refurtiva non può rivolgersi alla polizia) e la presenza di sanzioni nel caso che le attività criminali vengano scoperte. Esse, in compenso, garantiscono in caso di successo un rendimento più alto alle risorse investite; tenendo conto dell’efficacia delle politiche di contrasto e delle dimensioni delle sanzioni, anche il rendimento atteso può essere più alto (se così non fosse solo qualche soggetto amante del rischio potrebbe comportarsi da criminale). Le attività criminali rientrano perciò nel caso della scommessa descritta in precedenza. Questo non significa, appunto, che tutti i soggetti scelgano di impegnarsi in tali attività, nonostante esse risultino, in termini attesi, più convenienti. L’avversione al rischio funziona per molti soggetti da deterrente.

La teoria delle decisioni in condizioni di incertezza permette di spiegare un’altra caratteristica osservata del comportamento criminale, ossia il fatto che un soggetto che può scegliere tra due attività, una legale e una illegale, spesso decide di distribuire le sue risorse in entrambe. Un esempio tipico è quello dell’evasione fiscale. Molti contribuenti dichiarano tutto il dovuto e qualcuno non dichiara nulla (si comporta come evasore totale), ma c’è una vasta area grigia di evasori parziali, di soggetti che dichiarano solo una parte dei propri redditi. Questi soggetti si comportano come quegli investitori che distribuiscono il proprio patrimonio in diverse attività, e attraverso questa diversificazione riducono il rischio del proprio portafoglio.

Anch’essi effettuano una scelta razionale, che tiene conto delle sanzioni associate alla scoperta dell’evasione e della probabilità dell’accertamento: si evade tanto di più quanto minore è la sanzione m e quanto minore è la probabilità p di essere scoperti (per una trattazione più ampia dell’analogia tra comportamento criminale e scelta di portafoglio, v. Giacomelli, Rodano 2001, pp. 37 e segg.). Si notino le somiglianze con il caso del pagamento del biglietto d’autobus sul quale ci siamo soffermati in precedenza.

Torniamo così al punto centrale del discorso. La teoria economica tratta il soggetto criminale non come una persona deviante, affetta da tare psichiche o altro, ma come una persona ‘normale’ che sceglie di impegnarsi (in tutto o in parte) in un’attività illegale perché il calcolo razionale delle proprie convenienze gli suggerisce di effettuare quella scelta. In questo senso tutti siamo, almeno potenzialmente, soggetti che potrebbero comportarsi, in qualche occasione, da criminali (e del resto, a tutti noi è capitato qualche volta di non pagare la sosta al parcheggio e, forse, di trascurare di dichiarare qualche voce, magari molto marginale, del proprio reddito).

Come abbiamo visto, il calcolo delle convenienze dipende da alcune grandezze, sintetizzate nei nostri esempi con le variabili m (l’ammontare della sanzione) e p (la probabilità che il comportamento criminale venga scoperto), variabili che dipendono dalle scelte delle autorità impegnate nel contrasto alla criminalità. Se i valori di m e di p fossero tali da far pendere la bilancia dei benefici (tenendo conto delle diverse avversioni degli individui al rischio) dalla parte dei comportamenti e delle attività legali, i comportamenti e le attività criminali non sarebbero più razionali, con conseguenze ovvie sulla rilevanza del fenomeno: la criminalità (per lo meno quella basata sugli ‘interessi’) verrebbe estirpata e cesserebbe di essere un fenomeno di rilevanza sociale.

Sappiamo che così non è. Il che significa che le combinazioni di m e p scelte dalle autorità impegnate nel contrasto non sono sufficienti a impedire la diffusione delle attività e dei comportamenti criminali. Di nuovo possiamo ricorrere alla teoria economica per cercare di comprenderne i motivi. Ne esiste più d’uno. Cominciamo dal primo, ossia dal fatto banale che le attività di contrasto sono costose e perciò competono con altre attività per quanto riguarda l’utilizzo delle risorse (scarse) complessivamente disponibili. Per tornare al nostro primo esempio, se si vuole aumentare la probabilità di cogliere sul fatto i viaggiatori free riders, occorrono più controllori in servizio sugli autobus. Ma i controllori costano.

La teoria economica ci permette di approfondire la comprensione di questo punto facendo ricorso al principio marginale. L’idea è che ogni azione che ha una dimensione quantitativa (la quantità acquistata di un bene da parte di un consumatore, la quantità prodotta del bene da parte di un’impresa ecc.) viene accresciuta se il beneficio in più che si ottiene (il beneficio marginale) supera il costo addizionale che si deve sopportare (il costo marginale); dato che in genere il primo tende a diminuire e il secondo ad aumentare, l’azione raggiunge la sua dimensione ottima quando il beneficio marginale diventa uguale al costo marginale. Questa considerazione può essere applicata anche alle attività di contrasto alla criminalità: ogni euro in più speso per accrescerne le dimensioni (assumere poliziotti o magistrati, spendere per dotarsi di strumenti più efficaci per condurre le indagini, costruire prigioni ecc.) dà sicuramente un beneficio addizionale; ma, appunto, al crescere della spesa il beneficio addizionale tende a diminuire, fino a quando non conviene più accrescerla. Torniamo ancora una volta all’esempio del free rider. Un controllore in ogni autobus (p=1) risolve alla radice il problema ma costa più del beneficio che se ne ricava. Più in generale, il beneficio marginale associato a un incremento dell’azione di contrasto va confrontato con il beneficio marginale sociale associato alla conseguente riduzione delle attività criminali. Se il primo è minore del secondo, il gioco non vale la candela.

Più avanti dovremo occuparci a lungo del tema dei costi sociali associati alle attività criminali (e perciò dei benefici sociali associati alla loro diminuzione). Intanto, però, possiamo anticipare una conclusione. Stando all’approccio della teoria economica, una politica di contrasto razionale può porsi l’obiettivo di ridurre la dimensione della criminalità, non quello di estirparla completamente. Il livello ‘ottimale’ delle politiche di contrasto (e, di conseguenza, il livello ‘ottimale’ di criminalità) è appunto quello identificato dall’uguaglianza tra beneficio marginale sociale e costo marginale sociale di quelle politiche.

Va precisato subito che, in genere, le politiche di contrasto non sono socialmente razionali. Di nuovo, la teoria economica può aiutarci a capire perché. Le politiche di contrasto sono il risultato di decisioni pubbliche e perciò sono il punto di arrivo di una catena decisionale lunga e complessa, in cui interagiscono diversi soggetti: gli elettori, il Parlamento, il governo, gli uffici competenti e, non ultimi, i soggetti che sono chiamati a realizzare e a gestire nella pratica quotidiana le azioni rese possibili da quelle politiche. Ciascuno di questi soggetti persegue propri obiettivi, spesso in contrasto o comunque non compatibili con quelli degli altri soggetti.

C’è un ramo dell’economia (la teoria dei giochi) che è in grado di analizzare situazioni in cui la scelta è il risultato di un’interazione come quella appena descritta. Anche se ciascuno dei soggetti coinvolti nel gioco si comporta in modo razionale (nel senso precisato sopra), questo non garantisce che la decisione cui alla fine si arriva (il risultato del gioco) sia efficiente. L’espressione usata dalla teoria dei giochi per descrivere questo esito è appunto ‘fallimento del coordinamento’.

Nel caso delle politiche di contrasto alla criminalità, il fallimento del coordinamento è un esito molto probabile. Un esempio può rendere l’idea. Assumiamo che gli elettori percepiscano una situazione di grave insicurezza nei confronti delle minacce della criminalità. Assumiamo anche che questo dato percepito sia in contrasto con il dato effettivo risultante dalle statistiche, le quali mostrano invece che tali minacce appaiono sopravvalutate dagli elettori. In questo caso il Parlamento e il governo, in coerenza con i propri obiettivi, cercheranno di venire incontro alle istanze espresse dagli elettori e ‘gonfieranno’ le spese per le attività di contrasto al di là del necessario. Si tratta solo di un esempio, anche se piuttosto realistico. Ma ci sono anche altri meccanismi.

Uno di questi va sotto il nome di ‘teoria economica della burocrazia’ (William A. Niskanen, Bureaucracy and representative government, 1971). Essa afferma in sostanza che nel decidere le dimensioni di una certa politica (e perciò anche di una politica di contrasto alla criminalità) un peso rilevante è costituito dall’interesse dell’ufficio che deve gestire quella politica a massimizzare il proprio ruolo e perciò il proprio budget. In genere l’ufficio dispone di un vantaggio di informazione sulle dimensioni del fenomeno con cui si confronta, ma, per quel che abbiamo appena detto, tende a enfatizzarle. Questo atteggiamento è largamente presente nelle agenzie contro il traffico di droga, nelle forze di polizia, nella magistratura ecc., e influenza positivamente i flussi di risorse che tali soggetti e istituzioni sono chiamati a gestire. I principali motivi per cui le risposte dei soggetti decisionali a monte (i governi, i Parlamenti) sono accomodanti, sono innanzitutto il citato vantaggio di informazione posseduto dagli uffici, e poi le azioni di lobbying esercitate da questi ultimi.

Il tema delle lobby ci conduce a un altro motivo di inefficienza nelle spese e, più in generale, nelle gestioni delle politiche di contrasto. Non sono solo gli uffici a premere sul legislatore, o, meglio, sul soggetto decisionale a monte; si attivano come gruppi di pressione anche le imprese (o i loro rappresentanti) che dovranno fornire le attrezzature e i servizi utilizzati nelle politiche di contrasto. La pressione può essere esercitata direttamente sul legislatore, oppure può assumere una forma indiretta, cercando di influenzare l’opinione pubblica, ossia l’elettore. Tutti questi meccanismi all’opera nei vari snodi del processo decisionale pubblico fanno sì che il confronto tra beneficio marginale sociale e costo marginale sociale (la condizione che, come abbiamo visto, garantisce l’efficienza della decisione) venga sistematicamente trascurato.

Non è infrequente, come sappiamo, che le pressioni sui vari soggetti della catena decisionale pubblica assumano a loro volta la forma di un’attività criminale. Parliamo ovviamente della corruzione, ossia del pagamento del soggetto decisore da parte di un soggetto interessato a influenzare a proprio favore le caratteristiche della decisione, e della sua controparte speculare, la concussione, che si verifica quando è il soggetto decisionale pubblico che prende l’iniziativa della transazione illecita. Sappiamo bene che la corruzione non è limitata solo a questo campo. Essa è molto diffusa anche all’interno delle attività economiche legali. Dovremo riprendere l’argomento quando affronteremo il tema degli effetti economici delle attività criminali. Intanto notiamo come la corruzione del soggetto che deve decidere sulle politiche di contrasto alla criminalità si configuri come un’attività criminale che non avrebbe motivo di esistere se non ci fossero le politiche di contrasto. Il che, naturalmente, non la giustifica (sulla teoria economica della corruzione, v. Shleifer, Vishny 1998, pp. 91-108).
Non si tratta, del resto, dell’unica attività criminale la cui esistenza consegue dalla presenza delle politiche di contrasto. Un esempio ovvio e scontato è costituito dalle attività di ricettazione. Un altro notissimo esempio, che in un certo senso si configura come una forma di ricettazione sui generis, è costituito dal riciclaggio del denaro ‘sporco’ (che risulta, cioè, dal provento di attività economiche criminali), un’industria fiorente con un larghissimo giro d’affari a livello mondiale e che a sua volta viene affrontata con specifiche politiche di contrasto (sugli aspetti economici del riciclaggio e delle politiche antiriciclaggio, v. Masciandaro 1998, 1999 e 2000). La ricettazione e il riciclaggio sono due fattispecie di una categoria più generale di azioni illegali che possiamo etichettare come attività di ‘protezione’ della criminalità. Come abbiamo accennato in precedenza, i risultati delle azioni criminali, a differenza di quelle legali, non sono tutelati dalla legge, che anzi tende a contrastarle. Esse, perciò, hanno bisogno di una duplice protezione: nei confronti degli altri criminali e nei confronti della legge. Lo sviluppo delle grandi organizzazioni della criminalità organizzata è spesso legato alla produzione di servizi di protezione di questo tipo, anche se poi le economie di scala hanno fatto estendere il loro campo d’azione in molte altre direzioni, dal contrabbando al traffico di stupefacenti, dalla prostituzione al gioco d’azzardo, per non parlare che dei più noti.

Una distinzione di cui ci siamo serviti nelle pagine precedenti è quella tra attività criminali di tipo distributivo e attività criminali che prendono la forma di produzione, distribuzione e vendita di beni e servizi. Esempi classici di attività del primo tipo sono il furto, la truffa, l’estorsione. La presenza di questi crimini impone dei costi non solo a chi ne subisce le conseguenze ma all’intera società, ovvero ha degli effetti allocativi: distorce l’uso complessivo delle risorse rispetto a quello che si avrebbe in assenza di criminalità. Innanzitutto abbiamo una vera e propria distruzione di risorse associata all’esercizio delle attività criminali, come, per fare un esempio ‘piccolo’, quella provocata dal ladro che rompe un vetro per entrare a rubare in un appartamento. Le principali distorsioni allocative sono determinate, tuttavia, proprio dalle scelte che i privati e il pubblico effettuano per difendersi dalle azioni criminali.

Cominciamo dalle spese effettuate dai privati per la propria difesa (sbarre alle finestre, sistemi di allarme, armi da difesa, sorveglianti e così via). Esse hanno in genere una finalità di deterrenza. Il soggetto le effettua allo scopo di scoraggiare l’azione criminale nei propri confronti. La teoria economica della criminalità distingue al riguardo tre fattispecie (v. Cooter, Ulen 20085, pp. 470 e sgg.): a) l’effetto di ‘deterrenza privata’, che si verifica quando la scelta riduce la probabilità di essere colpiti dall’azione criminale (le sbarre alle finestre); b) l’effetto di ‘deterrenza pubblica’, che si verifica quando la scelta scoraggia il comportamento criminale anche nei confronti degli altri soggetti (l’illuminazione di una strada); c) l’effetto di ‘redistribuzione del crimine’, che si verifica quando l’azione di deterrenza effettuata dal privato sposta le scelte del criminale verso altri obiettivi (la pubblicizzazione dell’antifurto sull’automobile).

Tali effetti mettono in luce che, nell’effettuare le loro scelte di deterrenza, i privati si basano sui propri obiettivi, trascurando gli effetti (positivi o negativi) che le loro azioni possono avere sugli altri soggetti. Incontriamo così un tema tipico della teoria economica, che è quello delle esternalità, le quali si verificano tutte le volte che c’è una discrepanza tra benefici privati (che sono quelli considerati nelle scelte dei singoli) e benefici sociali, che per essere soddisfatti comporterebbero scelte di deterrenza diverse da quelle spontaneamente effettuate dai singoli. È proprio questa discrepanza che giustifica l’adozione di politiche pubbliche di contrasto e deterrenza, anche se, come abbiamo già visto in precedenza, non ci sono sufficienti garanzie che anche a questo livello si riesca a tener conto in modo adeguato dei costi e dei benefici sociali delle politiche di contrasto.

Quanto detto finora riguarda gli effetti economici di quelle che abbiamo chiamato azioni criminali con finalità distributive. Riportiamo qui le cifre di fonte ISTAT relative al numero di crimini appartenenti ad alcune tipologie di natura distributiva in Italia nel 2005. Si tratta, è bene precisarlo subito, solo dei crimini denunciati all’autorità, sicché le cifre riportate sottostimano largamente il fenomeno. Con questi caveat, ecco le cifre: i furti denunciati sono stati 1.503.712, le rapine 45.935, le estorsioni 5559, i danneggiamenti 305.172, le truffe 90.523, le ricettazioni 30.795, e, infine, le attività di usura 393.

Più complessa e delicata è la valutazione degli effetti economici di altri tipi di azioni criminali. Consideriamo innanzitutto azioni come l’evasione fiscale e contributiva. Anche in questo caso le cifre sono tutt’altro che trascurabili (per es., l’Agenzia delle entrate ha stimato che in Italia, nel 2007, quasi un quinto del PIL è sfuggito al fisco per quanto riguarda il pagamento dell’imposta sul valore aggiunto, il che significa che oltre un terzo del gettito è mancato all’appello). Un sentire comune (anche se erroneo) è che questo tipo di azione criminale avvantaggia chi la effettua e non svantaggia nessuno. Perciò si tratta di azioni che non comportano alcuna forma di deterrenza privata e spesso, anzi, suscitano forti meccanismi collusivi. Tuttavia, l’azione dell’evasore ha l’effetto sociale di far crescere la pressione fiscale sui contribuenti onesti. Da questo punto di vista possiamo concludere che l’evasione fiscale va etichettata tra le attività criminali di tipo distributivo, nel senso che ha l’effetto di danneggiare pro quota tutti quanti i contribuenti. Di conseguenza, è socialmente ottimale contrastare tali comportamenti, ma, per quel che si è detto, il loro contrasto è affidato soltanto all’azione pubblica.

All’inizio abbiamo accennato come una componente significativa delle azioni criminali che hanno rilevanza economica assuma la forma di produzione, distribuzione e vendita di beni e servizi illegali. Queste attività condividono con l’evasione fiscale il fatto di non suscitare alcun incentivo all’adozione di forme di deterrenza da parte dei privati, salvo sporadiche eccezioni. Si pensi all’economia sommersa, che secondo la definizione adottata in queste pagine fa parte a pieno titolo dell’economia illegale. Il fenomeno ha dimensioni rilevanti: in Italia, nel 2006, stando a stime dell’ISTAT (2008), il valore aggiunto prodotto complessivamente dal sommerso oscillava tra il 15,3% del PIL (ipotesi minima) e il 16,9% (ipotesi massima). Anche se le attività del sommerso possono configurare forme di concorrenza sleale nei confronti delle corrispondenti attività legali, le iniziative private contro tali attività sono sporadiche, e si traducono soprattutto in pressioni sulle autorità pubbliche perché queste ultime intervengano.

Pertanto, la diminuzione osservata nel peso dell’economia sommersa (circa tre punti di PIL tra il 2000 e il 2006, stando sempre alla stessa fonte ISTAT) va imputata, oltre che alle normali dinamiche del mercato, alle sole azioni di contrasto esercitate dal pubblico.
Un discorso analogo va fatto per altre attività economiche, alcune borderline, come la prostituzione, altre propriamente illegali, come il contrabbando e il mercato degli stupefacenti. Al riguardo, l’ISTAT non ha ancora prodotto cifre ufficiali, ma le loro dimensioni hanno comunque rilevanza macroeconomica (complessivamente, il loro peso sul PIL italiano può essere stimato attorno al 4-5%).

Sorge allora il problema di valutare gli effetti economici di tali attività. Come si è accennato all’inizio di queste pagine, la questione può essere impostata in un’ottica di breve periodo o in una di lungo periodo. Nella prima le grandezze rilevanti sono il livello di attività e la domanda aggregata. Nella seconda l’accento si sposta su altre variabili: il tasso di crescita dell’economia e le sue determinanti.

Cominciamo dal breve periodo. Il modo più semplice per impostare la questione è considerare il complesso delle attività economiche criminali (produzione, distribuzione e vendita di beni e servizi illegali) come un settore dell’economia che interagisce con quello costituito dal complesso delle attività legali. Per certi versi, la situazione del settore ‘legale’ è equivalente a quella di un sistema che intrattiene relazioni economiche con l’estero, qui rappresentato dal settore ‘illegale’. Visto dal lato dell’economia legale, l’acquisto di beni e servizi illegali da parte dei soggetti i cui redditi provengono dalle attività legali, può essere considerato come spesa per ‘importazioni’; al contempo, l’acquisto di beni e servizi legali da parte dei soggetti i cui redditi provengono dalle attività illegali, assume la natura di ‘esportazioni’. Impostando il problema in questi termini, a esso possono essere applicati i risultati della teoria macroeconomica delle economie aperte agli scambi con l’estero.

Gli effetti di una variazione della spesa autonoma sul livello di attività sono più piccoli in mercato aperto che in mercato chiuso (nel nostro caso, una parte della domanda aggregata esce dal meccanismo moltiplicativo della variazione iniziale della spesa autonoma, andando ad alimentare la spesa per prodotti illegali). Naturalmente c’è anche il rovescio della medaglia: un aumento del livello di attività nel settore illegale si traduce (appunto come farebbero le esportazioni) in un aumento della spesa autonoma che sostiene il livello di attività del settore legale. Si può dimostrare (v. Giacomelli, Rodano 2001, pp. 81 e sgg.) che, a certe condizioni, emerge la presenza di un feedback positivo tra economia criminale ed economia legale, nel senso appunto che la crescita autonoma di un settore si ripercuote, attraverso un noto meccanismo moltiplicativo, sull’altro settore. Tuttavia questo risultato può rovesciarsi nel suo contrario se si assume che i due settori competano per un ammontare dato della spesa autonoma totale. Si tratta di un’ipotesi limite, che però ha un certo realismo, se non altro per quanto riguarda la spesa pubblica, che almeno in parte può essere ‘catturata’ dal settore criminale (si pensi, per es., agli appalti).

La presenza di effetti di retroazione positiva tra l’attività criminale e la domanda aggregata che si rivolge all’economia legale, effetti che possono anche alimentarsi a vicenda, può aiutare a spiegare come mai si osservi, in alcune regioni a forte presenza di attività economiche che fanno capo, direttamente o indirettamente, alla criminalità organizzata, una certa acquiescenza nei confronti di tali attività, quasi si abbia il timore, contrastandole, di danneggiare l’economia legale deprimendone il livello di attività. Ovviamente non c’è solo questo. Anche in questo caso è rilevante il tema, precedentemente citato, della corruzione (Shleifer, Vishny 1998, pp. 91-108).

Va sottolineato che tale atteggiamento accomodante della politica nei confronti di certe attività criminali è pesantemente condizionato da un’ottica schiacciata su un orizzonte temporale di breve periodo. Infatti, gli effetti economici di lungo periodo provocati dalla presenza delle attività criminali sono univocamente negativi: le attività criminali deprimono la crescita aggregata dell’economia. La teoria economica ha messo in luce diversi meccanismi che provocano questo risultato. Qui ne riportiamo, e molto sommariamente, soltanto alcuni. Essi sono collegati, direttamente o indirettamente, a una caratteristica di tutte le attività criminali (anche se non solo di esse) ossia di essere attività rent seeking.

La nozione di rent seeking è stata introdotta nella scienza economica da Gordon Tullock (Rent seeking, in The new Palgrave. A dictionary of economics, 1987, 4° vol., pp. 147-49), che tra l’altro è stato uno dei primi studiosi ad aver affrontato il nesso tra economia e criminalità (The welfare costs of tariffs, monopolies, and theft, «Western economic journal», 1967, 5, 3, pp. 224-32). Il rent seeking descrive le situazioni in cui un individuo, un’organizzazione o un’impresa cercano di ottenere un reddito non attraverso la normale attività di produzione e di scambio ma attraverso la manipolazione del sistema economico e di quello legale. La nozione di rent seeking è stata introdotta originariamente per spiegare le pratiche miranti alla costituzione di monopoli, ma è stata successivamente estesa per descrivere un numero molto ampio e variegato di attività. In sostanza, questa nozione descrive tutti i comportamenti che hanno la finalità di appropriarsi, con pratiche legali ma anche (quel che qui più ci interessa) con pratiche illegali, di quote della ricchezza prodotta da altri.

È chiaro che le attività criminali rientrano a pieno titolo entro questa definizione. La cosa è ovvia per le attività che abbiamo chiamato di tipo ‘distributivo’ (il furto, l’estorsione, la truffa ecc.), ma è vera anche per le attività che abbiamo chiamato di tipo ‘produttivo’ (il contrabbando, il traffico di droga, l’usura). I mercati in cui vengono esercitate le attività produttive criminali sono infatti molto lontani dalla concorrenza. Anche l’organizzazione di queste attività produttive è molto lontana rispetto a quella delle imprese competitive. Per es., è molto rilevante il ricorso alla violenza, sia come strumento di penetrazione nei mercati (o di difesa delle proprie quote di mercato), sia come strumento per disciplinare e regolare la propria organizzazione interna. In merito alle caratteristiche delle imprese criminali risultano ancora oggi molto stimolanti le pagine scritte a cavallo tra gli anni Sessanta e Settanta da un altro premio Nobel per l’economia, Thomas C. Schelling (Economics and the crimi-nal enterprise, «The public interest», 1967, 7, pp. 61-78; What is the business of organized crime?, «Journal of public law», 1971, 20, pp. 71-84).

Per completare il nostro ragionamento, non rimane che mostrare la rilevanza del rent seeking come elemento che deprime il tasso di crescita aggregato dell’economia. Si tratta di un risultato messo in luce all’interno della teoria della crescita endogena, un filone di analisi iniziato nel 1986 con un innovativo lavoro di Paul M. Romer (Increasing returns and the long-run growth, «Journal of political economy», 1986, 94, 5, pp. 1002-37) e che ha dominato la ricerca in tema di crescita nei decenni successivi. Semplificando drasticamente un discorso quanto mai ricco, complesso e carico di technicalities, possiamo dire, seguendo Romer, che il tasso di crescita dell’economia è positivamente correlato con il progresso tecnico, o meglio con il flusso e la diffusione delle innovazioni, che a loro volta dipendono dal numero delle imprese e dal grado di competitività dei mercati.

Dato che le attività rent seeking servono ad allontanare i mercati dalla concorrenza, questo chiarisce il loro nesso negativo con il tasso di crescita aggregato. Ma se si considerano le specifiche forme di rent seek­ing associate alle attività criminali, allora emerge anche un nesso più specifico. L’idea, studiata nei primi anni Novanta da Kevin M. Murphy, Andrei Shleifer e Robert W. Vishny (The allocation of talent. Implications for growth, «Quarterly journal of economics», 1991, 106, 2, pp. 503-30; Why is rent-seeking so costly to growth?, «American economic review», 1993, 83, 2, pp. 409-14), anche se con riferimento al rent seeking in generale, è che il flusso delle innovazioni dipende dal numero dei soggetti dotati di ‘talento’ che scelgono di divenire imprenditori. Ma se per un soggetto con queste caratteristiche le attività rent seeking risultano più attraenti perché promettono una maggiore remunerazione del talento stesso, allora quanto più diffuse sono queste attività tanto minore sarà il flusso di innovazioni e perciò tanto minore il tasso di crescita dell’economia (per un approfondimento, si veda Giacomelli, Rodano 2001, pp. 72 e segg.).

Queste ultime considerazioni suggeriscono che la questione dei costi delle attività economiche criminali, e perciò la connessa valutazione dei benefici sociali delle attività di contrasto, va impostata secondo una logica sistemica, considerando non solo gli effetti delle attività criminali sui soggetti che ne subiscono le conseguenze (ricordiamo, del resto, che molte attività si configurano come ‘crimini senza vittime’), ma anche e soprattutto le conseguenze che tali attività provocano sulla performance dell’intera economia e sulle sue capacità dinamiche.

 

Pubblicato in Uncategorized | Lascia un commento

Il presidente travicello

“Daremo all’Europa tutte le informazioni che vuole”, si legge in un lancio Ansa. Barack Obama – sempre più nell’ occhio del ciclone per il Datagate – replica alle capitali del Vecchio Continente che lo accusano di spiare i Paesi alleati degli Stati Uniti. E lo fa mettendo in chiaro una cosa: tutti i servizi di intelligence, compresi quelli europei, cercano e raccolgono informazioni sugli alleati. “E’ un fatto usuale”, per usare le parole del capo della diplomazia Usa, John Kerry. Intanto da Mosca si rifà vivo Edward Snowden, che in una lettera si dice pronto a nuove rivelazioni, sottolineando come gli Stati Uniti lo stiano perseguitando ingiustamente. E ringraziando l’Ecuador per averlo aiutato ad andare da Hong Kong in Russia.

 

I chiarimenti sul Datagate saranno dati “attraverso i normali canali diplomatici, con contatti sia con l’Unione europea sia con i singoli Paesi”, assicura il Dipartimento di Stato americano. Sarà anche così. Ma da Roma a Parigi, passando per Berlino e Bruxelles, l’ira della Ue per le ultime rivelazioni targate Edward Snowden non si placa, così come la richiesta di spiegazioni. “Gli Usa devono chiarire, servono risposte ufficiali”, afferma l’Unione europea. Mentre il primo ministro francese Francois Hollande avverte: “Gli Usa smettano di spiarci”, o i negoziati per la zona di libero scambio sono a rischio. Il governo della cancelliera Angela Merkel giudica poi “inaccettabile” l’ipotesi di uno spionaggio economico. Nel frattempo il presidente russo Vladimir Putin ribadisce che Mosca non ha intenzione di estradare nessuno. Anche se avverte Snowden: “Se vuole restare in Russia deve smetterla di danneggiare i nostri partner americani”.

 

Così, il presidente Usa è costretto a difendersi dalla bufera dalla Tanzania, ultima tappa del suo viaggio in Africa. Un viaggio che avrebbe voluto fosse ricordato per episodi altamente simbolici, come la visita all’isola degli schiavi o quella al carcere di Mandela. Invece il suo storico tour è inevitabilmente oscurato dal clamore delle notizie diffuse col contagocce dalla ‘talpa’ del Datagate. E l’assenza del presidente da Washington, in queste ore di grande difficoltà per la sua amministrazione, pesa non poco. “Gli europei sono stretti alleati degli Stati Uniti, e Washington lavora con loro su qualunque cosa e in qualunque campo, compreso quello che riguarda l’intelligence”, sottolinea Obama da Daar es Salaam. Quindi – sembra voler dire i presidente Usa – nessuno scandalo. E non ci può essere alcuna sorpresa sul fatto che gli Stati Uniti raccolgano informazioni anche sui loro partner. Del resto – aggiunge il presidente – “tutti i servizi di intelligence, compresi quelli europei, cercano di capire quello che succede nelle varie capitali del mondo attraverso fonti che non siano solo quelle giornalistiche”. U

 

na reazione, quella di Obama, raccolta con una certa freddezza in Europa. Con il primo ministro italiano, Enrico Letta, che parla di “parole confortanti” a cui però dovranno seguire i chiarimenti richiesti. Ma ad agitare i sonni dell’inquilino della Casa Bianca soprattutto il destino ancora incerto di Snowden – bloccato all’aeroporto internazionale di Mosca – e proprio la possibilità che lasci trapelare nuove esplosive rivelazioni. Washington continua a chiederne l’estradizione alle autorità russe, nonostante le parole di Putin. Al caso stanno comunque lavorando insieme l’Fbi e i servizi di Mosca (Fsb).

 

La ‘talpa’ avrebbe chiesto asilo politico a ben quindici Paesi, compresa la Russia. Ma la lista non è stata divulgata. “Una mossa disperata”, l’ha definita un funzionario del ministero degli esteri russo, dopo il ‘no’ dell’Ecuador che in un primo momento sembrava voler accogliere l’ex contractor della NSA. “Non sono un traditore”, ribadisce Snowden nella documentazione in cui chiede asilo: “Le mie azioni sono dettate solo dal desiderio di aprire gli occhi del mondo”.

 

Dopo che già ieri Parigi e Berlino avevano chiesto chiarimenti, anche Belgio e Austria hanno invitato gli ambasciatori Usa a dare spiegazioni. E per quanto riguarda l’Italia, il presidente Napolitano ha parlato di “vicenda spinosa, che dovrà trovare delle risposte soddisfacenti”. Il ministro degli esteri, Emma Bonino, ha dichiarato che gli Usa daranno chiarimenti e che l’Italia è “fiduciosa” che “verranno fornite tutte le informazioni e assicurazioni necessarie”. Intanto da Berlino si chiede cautamente che dalla Ue arrivi “una risposta univoca”.

 

Ma il candidato social-democratico alla cancelleria Peer Steinbrueck incalza la Merkel che finora non è intervenuta in prima persona, e chiede che si fermi il negoziato per il ‘free trade agreement’. Proposta lanciata da Francois Hollande. Washington, dice il presidente francese, deve smettere “immediatamente” le sue attività perché “non possiamo accettare questo tipo di comportamento tra partner e alleati”. Non solo, sposando la linea lanciata ieri dalla vicepresidente della Commissione Viviane Reding, afferma che “non potranno esserci negoziati o transazioni” con gli Stati Uniti “fintanto che non avremo ottenuto da Washington le garanzie” di uno stop allo spionaggio cui sono vittime la Francia e la Ue”.

 

A dare voce all’indignazione europea al di là dei toni più o meno diplomatici delle cancellerie è stato nuovamente il presidente del Parlamento europeo, Martin Schulz, che aprendo la plenaria di Strasburgo si è detto “profondamente scioccato”, avvertendo che le rivelazioni, se verificate, sono “un duro colpo” ai rapporti Ue-Usa.

 

Questi sono i fatti. Qualcuno, in fregoa di riflessioni profonde a carattere storico, ha scritto che è normale che gli stati si spiino. E’ vero. La professione della spia è più antica di quella della prostituta. Ciò non toglie che lo spionaggio telefonico ha assunto proporzioni gigantesche e, soprattutto, inutili. Ascoltare milioni di telefonate non serve a prevenire gli attentati, serve solo a spendere un mucchio di soldi che finiscono nelle casseforti delle agenzie specializzate che poi li usano per finanziare i propri affari. Ricordate il colonnello North e l’Iran Contra Gate? No? Chiedete a quel qualcuno di cosa si trattò. Per dirla in breve, la Compagnia, per usare il nick con il quale la CIA è conosciuta dai suoi dipendenti, usò i proventi del traffico di droga da lei gestito per finanziare l’attività antirivoluzionaria dei contra nicaraguensi.

 

Per tutta la storia del secondo novecento, i servizi segreti americani hanno finanziato i regimi più luridi che siano ma esistiti sulla faccia della Terra; hanno commerciato in droga come nell’affare North; hanno organizzato colpi di stato in tutto il mondo e in particolare in America latina in nome della diffusione della democrazia e della libertà. Qualche maligno mette a loro carico anche gli assassinii di John Kennedy e di Luther King.

 

Io non arrivo tanto lontano, ma il procuratore di New Orleans Jim Garrison arrivò molto vicino alla NSA nel corso della sua inchiesta sull’assassinio di John Kennedy a Dallas per mano di un presunto folle, Lee Oswald, il quale venne poi ucciso da un altro presunto folle, Jack Ruby, negli uffici dello sceriffo di Dallas; mentre nessuno dei responsabili dell’inchiesta sull’assassinio di John Kennedy volle prendere in considerazione il filmato Zapruder che mostrava come il presidente fosse stato ragggiunto da tre colpi di fucile provenienti da tre direzioni diverse, e che perciò, furono altre due armi a sparare quel giorno a Dallas, oltre al fucile Carcamo di Lee Oswald.

Pubblicato in Uncategorized | Lascia un commento

Il compito dell’intellettuale

L’argomento di questo saggio è il compito dell’intellettuale. Non si tratta di un argomento nuovo. Penso al saggio di D’Alembert sui rapporti tra intellettuali e potenti, dove egli notava che non c’era nulla di sorprendente nel fatto che gli intellettuali cercassero di entrare nelle buone grazie dei potenti, considerata l’utilità che poteva essere tratta da questi rapporti.

 

E penso anche alle Tesi su Feuerbach dove Marx nota che i filosofi hanno finora posto a se stessi il problema di interpretare il mondo. Ora, aggiungeva Marx, si tratta di cambiarlo. Nello stesso tempo, Marx sottolineava che l’educatore stesso va educato, perché le nostre conoscenze del mondo cambiano in continuazione e ciò che ieri era per noi vero, non lo è più oggi.

 

Il fatto che non si tratti di un problema nuovo non comporta che esso non sia comunque di grande attualità .Gli intellettuali sono attratti dal potere come le mosche sono attratte dalla merda e il potere è attratto dagli intellettuali per il lustro che essi possono recargli. Si tratta, in altre parole, di un’attrazione reciproca che è fonte di corruzione per entrambi gli attori,

 

Penso all’abuso che vien abitualmente fatto dalla PA di consulenti esterni, laddove potrebbero essere utilizzati gli uffici tecnici esistenti presso la stessa PA. Per non parlare dell’innumerevole schiera di opinionisti che affollano le pagine dei nostri giornali con i loro commenti sui più svariati argomenti. Famoso fra tutti, fu l’editorialista del New York Times, William Safire, noto, come allora si diceva, “per avere un’opinione su tutto”.

 

Per poter discutere seriamente del problema, occorre innanzi tutto fare chiarezza sul genere di intellettuale al quale ci si riferisce. Come notava Gramsci nei Quaderni, esistono, infatti, diversi generi di intellettuali. Inoltre, si chiedeva Gramsci se essi dovessero essere considerati “un gruppo sociale autonomo e indipendente” oppure se ogni gruppo sociale avesse “una sua propria categoria specializzata di intellettuali”.

 

Il problema venne affrontato per quello che riguarda l’organizzazione dello stato da Ralph Miliband in Lo stato nella società capitalistica e da Nicos Poulantzas in Capitalismo e classi sociali oggi. Ugualmente interessante è la trattazione del problema fatta da Louis Althusser nel saggio Gli apparati ideologici di stato e da Michel Foucault in La volontà di sapere. Sul medesimo problema vedi di Poulantzas Potere politco e classi sociali e L’état, le pouvoir, le socialism.

 

Sempre sul tema concernente il ruolo degli intellettuali nella società, penso vada ricordata la teoria delle élite del potere, sia nella versione di Pareto e Mosca che in quella di Wright Mills e di Lash, autore di uno stimolante saggio sul tradimento delle élites in cui l’autore sviluppa argomenti che furoino analizzati a suo tempo da Julien Benda nel suo classico saggio intitolato Il tradimento dei chierici. ll genere di intellettuale al quale mi riferisco è quello dell’intellettuale politico.

 

Ho trascorso infatti la mia vita a scrivere di politica. Le mie fonti di informazione erano i libri. Io devo tutto ai libri. Senza i libri, sarei rimasto un povero ignorante. L’ignoranza è il peggior dei mali di cui soffre la società italiana. Purtroppo, la scuola italiana fa molto poco per estirparla. Qualcosa venne fatto dalla televisione al tempo del maestro Manzi e di Non è mai troppo tardi, un programma che contribuì a estirpare l’anafalbetismo allora molto diffuso.

 

Tullio De Mauro scrisse delle pagine memorabili sul programma del maestro Manzi nella sua Storia linguistica dell’Italia unita. Oggi ci troviamo di fronte ad un analfabetismo di ritorno che colpisce milioni di persone con regolare titolo di studio. Si tratta di persone che si nutrono di televisione, di instacabili fans di programmi come Amici, Il grande fratello, L’isola dei famosi

 

Quand’ero ragazzo, la RAI era controllata dai dorotei, corrente democristiana composta da devoti di santa Dorotea, patrona del convento dove essi fondarono la loro corrente in seno alla Democrazia cristiana. Essi pensavano che la televisione dovesse svolgere una funzione educativa. In tale contesto vanno inseriti i vecchi romanzi sceneggiati. Oggi la televisione è puro spettacolo, spesso di pessima qualità. Il linguaggio usato si è inoltre impoverito lessicalmente e imbarbarito grammaticalmente e sintatticamente.

 

Le cose non vanno meglio nel giornalismo cartaceo. L’annosa questione della separazione delle notizie dai commenti ha creato una situazione paradossale che ha di fatto gettato alle ortiche il lavoro dell’informazione e ci ha portati in pieno relativismo culturale, che è la tomba del lavoro dell’informazione. L’informazione non è, infatti, una merce come le altre, Essa contribuisce alla formazione dell’opinione pubblica. Essa deve basarsi perciò sulla conoscenza. Senza ricerca della verità, infatti, non v’è conoscenza.

 

La cultura contemporanea ha rinunciato a cercare la verità, in nome della debolezza dell’essere. Ora, tutto quello che noi possiamo dire dell’essere è che l’essere è. Questa antica affermazione può provocare in noi un senso di spaesamento (Vattimo);. di fragilità (Prandsteller); e può aggravare quello che Freud chiamò il disagio della civiltà. Come egli infatti scrisse, la civilltà richiede dei sacrifici. Un’osservazione simile venne effettuata da Norbert Elias in Potere e civiltà.

 

Le cause di questo disagio sono oggi variamente imputate ad un mix di fattori:alla crisi della modrnità (Bauman, Beck), cui è legata la crisi della società causata globalizzazione (Touraine)

 

In questo quadro va collocata la concezione comunista dell’intellettuale organico. Tale concezione, di ambigue ascendenze gramsciane, sosteneva che compito dell’intellettuale era quello di servire la causa del Moderno Principe, id del Partito Comunista. Ciò trasformò gli intellettuali aderenti al PCI in meri propagandisti della linea politica dello stesso PCI. Crollato il comunismo, essi sono scomparsi dalla scena politica.

 

Ciò ci porta al punto di partenza. Compito di un intellettuale è, infatti, quello d’essere elemento perenne di contraddizione. Come la fede alimenta il dubbio, così la militanza politica deve spingere alla ricerca della verità. In tal senso, un intellettuale è organico solo alla ricerca della verità.

 

 

 

Pubblicato in Uncategorized | Lascia un commento

Sulla tolleranza

 

 

“E’ civilizzato colui che sa riconoscere l’umanità altrui”

Todorov

 

 

 

Il problema della tolleranza nacque con le guerre di religione. Fondamentale per fare chiarezza sul problema fu la Lettera sulla tolleranza d John Locke. Filosofo (Wrington, Somersetshire, 1632 – Oates, Essex, 1704), uno dei promotori dell’Illuminismo inglese ed europeo, fu il primo teorico del regime politico liberale, l’iniziatore dell’indirizzo critico della gnoseologia moderna. Di famiglia puritana, nel 1652 entrava al Christ Church di Oxford, dove, conseguiti i gradi di baccelliere e maestro di arti, continuò a soggiornare pur avendo rinunciato alla carriera ecclesiastica per darsi agli studî di medicina. Ma non conseguì regolarmente il titolo dottorale, impegnandosi con ardore anche in studî di fisica e di fisiologia. Nel 1668 la Royal Society lo accolse tra i suoi membri. In questo stesso periodo a Oxford conobbe, in qualità di medico, lord Ashley poi conte di Shaftesbury che lo volle suo ospite a Londra e presso il quale poté far pratica in affari di stato, collaborando alla soluzione d’importanti questioni economiche e politiche. Quando il conte di Shaftesbury nel 1682 fuggì dall’Inghilterra, L. si ritirò a Oxford, ma, sentendosi sospettato dai partigiani del re, si rifugiò in Olanda, dove sulla Bibliothèque universelle di J. Le Clerc pubblicò, a 54 anni, i primi scritti e dove entrò in relazione con Guglielmo d’Orange. Nel 1689 ritornò in Inghilterra. La sua autorità divenne allora grandissima: egli era il rappresentante intellettuale e il teorico del nuovo ordinamento liberale inglese. Ancora nel 1689 usciva anonima l’Epistola de tolerantia, poi i Two treatises of government (1690) e il suo capolavoro, Essay concerning human understanding (“Saggio sull’intelletto umano”, 1690). Dal 1691 L. visse quasi sempre nel castello di Oates (Essex), ospite di Sir F. Masham, lavorando, pur malfermo in salute, a saggi sulle più varie questioni e interessandosi ancora ai problemi economici e monetarî del momento fino ad accettare nel 1696 un incarico nel Board of Trade. Come già l’Epistola, The reasonableness of christianity (1695), d’impostazione deistica, lo coinvolse in una lunga polemica resa più acerba dall’apparizione, nel 1696, del Christianity not mysterious di J. Toland. Nel 1693 erano usciti i Some thoughts concerning education; e quattro Letters on toleration apparvero via via dal 1690 al 1706, l’ultima postuma. ▭ Ricollegandosi sia alla filosofia baconiana che alla tradizione empirico-scettica della prima metà del Seicento che aveva trovato in P. Gassendi esemplare espressione, e non senza risentire dell’influenza dei grandi rappresentanti della nuova cultura filosofica e scientifica, come Descartes e Hobbes, la ricerca di L. muove in primo luogo da un esame critico degli strumenti della conoscenza e del loro uso. L’idea della necessità di una “indagine pregiudiziale sui poteri e gli oggetti dell’intelligenza umana” si era presentata a L. già nel 1671 e, svolta, quell’idea diventò l’Essay concerning human understanding, la prima indagine critica della filosofia moderna sulla linea che porta alle Critiche kantiane. L’opera, in quattro libri, presenta una teoria della esperienza considerata unica fonte della conoscenza umana e un inventario sistematico delle idee, esaminate al vaglio dell’esperienza con un procedimento che troverà integrale applicazione da parte di D. Hume. Presupposto dell’indagine è il principio, di derivazione cartesiana, che avere un’idea significa percepirla attualmente, cioè esserne consapevoli, così che per L., essendo alcune idee (per es., quella di Dio) presenti nell’adulto ma non nel bambino, va respinta ogni teoria innatistica. Tesi fondamentale dell’opera è che tutte le idee derivano dall’esperienza, o perché direttamente fornite da essa (idee semplici) nella forma della sensazione o percezione esterna e in quella della riflessione o percezione interna, o perché costruite dall’intelletto (idee complesse) mediante un’attività di riproduzione, confronto e composizione condotta sulle idee semplici provenienti dall’esperienza. Tutti i concetti della metafisica (spazio, tempo, movimento, causa, identità, sostanza, individuo, persona) vengono allora esaminati, quali si presentavano nella cultura filosofica corrente, per accertare in quale significato essi debbano essere definiti quando ne sia riconosciuta l’origine. Il risultato più gravido di conseguenze di questa analisi è l’affermazione che non solo noi non conosciamo la sostanza delle cose, ma l’idea stessa di sostanza si rivela del tutto indeterminata e inutile per ogni conoscenza positiva. Passando all’esame delle varie forme di sapere, di cui le idee, semplici o complesse, costituiscono il materiale, L. conclude che la conoscenza umana può assurgere al valore di vera scienza quando si limiti alla considerazione dei rapporti formali fra le idee precedentemente analizzate e definite: tale è il caso della matematica e dei problemi morali. La scienza naturale fondata sull’esperienza sensibile deve rinunciare alla pretesa di costituirsi con puri ragionamenti, per tenersi all’osservazione dei fatti. Ma poiché l’uomo non può basarsi solo sulle certezze fondate su procedimenti puramente razionali, accanto alle conoscenze assolutamente certe (la certezza dell’esistenza dell’io; quella, per via dimostrativa, dell’esistenza di Dio; quelle riguardanti la conoscenza di rapporti fra le idee) devono trovar posto quelle la cui certezza è più o meno fondata sulla probabilità. Tra queste rientra anche la fede religiosa. ▭ Particolare attenzione dedica L., nel III libro dell’Essay concerning human understanding, al problema del linguaggio, connettendolo strettamente alla propria teoria della conoscenza. Le parole gli appaiono come segni convenzionali, non però riferiti direttamente alle cose, ma alle idee che di esse ci formiamo nella nostra mente. I termini generali, per es., corrispondono a idee generali, ottenute mediante un processo di astrazione. Lo status gnoseologico-ontologico dell’idea generale è peraltro estremamente controverso e rimanda al problema degli universali. L. sostiene che, in sede di definizione, si può far ricorso soltanto alle “essenze nominali”, non alle “essenze reali”, essendo impossibile conoscere le sostanze nella loro vera realtà. Il suo punto di vista è dunque prevalentemente nominalista, nonostante qualche oscillazione verso il concettualismo. Una trattazione dei nomi delle idee semplici e delle relazioni (considerati come sincategorematici) conclude la sua trattazione. La preoccupazione nei confronti delle distorsioni e degli errori cui può dar luogo un uso inadeguato del linguaggio, la preoccupazione cioè di correggere le storture della comunicazione intersoggettiva, s’intreccia in L. problematicamente con l’esigenza di un’analisi estremamente radicale e rigorosamente aderente alle premesse empiristiche di fondo, che comporta peraltro serie difficoltà. La connessione tra problemi linguistici e problemi gnoseologici determina infatti l’insorgere, all’interno del linguaggio, delle stesse difficoltà emerse in sede di teoria della conoscenza; il linguaggio, lungi dall’essere strumento di comunicazione, viene talora a ridursi a linguaggio privato, valido cioè soltanto per il soggetto che se ne serve. I motivi della ricerca lockiana che sembrano aver esercitato maggiore influenza appaiono comunque l’impostazione nominalistica e i contributi a una teoria della definizione, in cui risulta chiara la possibilità d’impiegare anche altri metodi definitorî oltre a quello tradizionale per genus et differentiam. ▭ Nelle sue dottrine politiche, religiose e pedagogiche L. ripete lo stesso atteggiamento da lui tenuto nell’Essay: l’affermazione della libertà individuale nel dominio politico, la difesa della tolleranza in quello religioso, l’ideale educativo che ha di mira la funzione sociale dell’uomo e i compiti che lo attendono nella vita associata, hanno come ultimo comune fondamento il principio che l’uomo deve radicarsi nel mondo storico e naturale e organizzare la sua vita in questi limiti secondo criterî derivabili dall’esperienza. Così il fondamento dell’autorità politica non va cercato in motivi di ordine trascendente, bensì nella volontà degli individui, poiché la società politica o civile nasce quando gli uomini cominciano a essere ognuno per proprio conto gli esecutori della legge di natura e rassegnano questo diritto nelle mani della comunità, essendo per altro inteso che una società civile non possa essere costituita affidandosi a una volontà assoluta, cioè all’arbitrario dominio di un uomo sugli altri individui. E se L. ammette il concetto di una verità rivelata, resta per lui che la rivelazione non può mai essere contro la ragione. Coerente con tale orientamento è la dottrina della tolleranza, che per il filosofo inglese si fonda sull’eterogeneità dell’ambito politico e dell’ambito religioso, essendo quest’ultimo un fatto di ordine strettamente interiore. Il potere politico qui non interviene e non ha interesse a intervenire; può tuttavia intervenire in questioni religiosamente “indifferenti”, cioè esteriori, della vita religiosa, come certi aspetti del culto. E la tolleranza non è illimitata: ne sono esclusi gl’intolleranti, come i papisti, poi quelli che attraverso la religione dipendono da una diversa giurisdizione (come gli stessi papisti che dipendono appunto dal papa), e infine gli atei, che L. considera, in accordo con altri pensatori del suo tempo, degli asociali. ▭ L. ha anche avuto una diretta influenza sullo sviluppo del pensiero economico e, per Some considerations of the consequences of the lowering of interests, and raising the value of money (1691), seguito da Further considerations (1695), può dirsi uno dei più chiaroveggenti scrittori inglesi di questioni monetarie. Si occupò in particolare del problema del valore, distinguendo il valore corrente dal valore normale, attribuendo quest’ultimo al costo di produzione e insistendo sull’importanza del fattore lavoro. ▭ Alla filosofia di L., con cui l’Inghilterra degli inizî del sec. 18°

prese coscienza del suo nuovo destino di moderna società liberale, s’ispirano gli autori della Dichiarazione americana d’indipendenza e quelli della Costituzione degli Stati Uniti. Sul continente europeo, dove l’opera di L. trovò un impareggiabile diffusore in Voltaire, l’Encyclopédie considerò il filosofo inglese tra i propri padri.

 

L’uso del concetto di tolleranza si diffuse, nel corso del 16° e del 17° secolo, all’interno della discussione sul dissenso religioso nell’Europa della Riforma protestante. Il problema della tolleranza, cioè, si pose inizialmente come tolleranza religiosa e solo successivamente divenne il tema della tolleranza o libertà politica.

 

Il mondo antico non conosceva l’idea di tolleranza; tutti i culti erano infatti permessi, si riconosceva però alla religione un ruolo fondamentale nella vita sociale e di conseguenza era condannata l’empietà (l’esempio più celebre è quello di Socrate, condannato per «ateismo»). L’idea di tolleranza nasce quindi in seno al cristianesimo, dopo la Riforma, come risposta alla divisione tra le diverse credenze cristiane e trova il proprio sostegno teorico nella dottrina del primato e della incoercibilità della fede. Il principio della tolleranza si afferma pertanto sullo sfondo della frattura dell’unità religiosa europea determinata dalla Riforma, quando il modello della Respublica christiana si avvia a un definitivo tramonto parallelamente al sorgere degli Stati nazionali. Fino alla Riforma, la rivendicazione del principio della tolleranza religiosa era stata espressa in modo diverso, come ideale irenico e prettamente filosofico: pensatori del Rinascimento, quali G. Pico e Ficino, avevano nutrito l’ideale di una ‘religione filosofica’ capace di risolvere i conflitti tra le diverse religioni. La Riforma pone il problema della tolleranza in termini nuovi: in primo luogo, la dimensione di massa del conflitto è tale da impedire alla Chiesa di Roma una rapida amputazione dei dissidenti, come nei secoli precedenti; in secondo luogo, si tratta di uno scontro intraconfessionale, di una lotta accanita nel contesto di una condivisione di una comune verità cristiana. In tale contesto anche Erasmo lancia un appassionato appello per una riconciliazione religiosa (De amabili Ecclesiae concordia, 1533) da edificare su una base comune, antidogmatica e morale. Molti scontri, infine, avvengono all’interno dello stesso mondo protestante, dove i conflitti non possono essere risolti mediante il ricorso a un’autorità inappellabile e a un magistero superiore, come quello pontificio nella Chiesa cattolica.

 

Le basi teoriche. Di grande rilevanza è il contributo di Lutero (De libertate christiana, 1520), il quale mette al centro del concetto di libertà cristiana l’idea di Agostino che la fede, opera della grazia, non può essere imposta dagli uomini: questa interpretazione diventò l’argomento centrale a favore della necessità della tolleranza religiosa. Altro testo fondamentale fu quello che Sebastiano Castellione scrisse in reazione alla condanna di Michele Serveto (arso vivo nel 1553 per le sue dottrine antitrinitarie), ordinata ed eseguita nella Ginevra di Calvino. Nel De haereticis an sint persequendi (1554, pubbl. con lo pseud. di Martinus Bellius) Castellione sostiene che l’eretico può essere allontanato dalla comunità solo dopo molti tentativi di persuasione, perché la fede è una credenza, da correggere quindi con interventi puramente spirituali, mentre la persecuzione, in quanto violenza, si oppone nettamente al principio della carità e fraternità cristiane. Alla fine del Cinquecento, nella Francia sconvolta dalle lotte tra cattolici e ugonotti, Montaigne dedica uno degli Essais (usciti tra il 1580 e il 1588) alla libertà di coscienza con argomentazioni a sfondo scettico: compito del sapere non è elaborare certezze, bensì indicare un percorso di vita ragionevole; il saggio sospende quindi il giudizio di fronte alle differenze religiose e mantiene libera la mente, adattandosi però esteriormente ai modi e alle forme imposte dalla società, in un conformismo che è garanzia di stabilità sociale. La religione non viene scelta, ma è un fatto casuale: si è circoncisi o battezzati ancor prima di nascere, così come si è perigordini o tedeschi (II, 12). Nel medesimo contesto, Bodin nel Colloquium heptaplomeres (scritto nel 1593, ma non pubblicato) sostiene la necessità di una pace religiosa da ottenere tramite il ritorno a una religione naturale che eliminerebbe tutte le controversie dogmatiche; ma soprattutto nei Six livres de la République (1576) pone l’autorità dello Stato al di sopra delle dispute religiose. Per Bodin e per tutto il partito dei politiques, la tolleranza rappresenta il modo migliore per impedire la dissoluzione politica dello Stato a opera delle fazioni religiose in conflitto. Il tema della tolleranza è anche ben presente nei testi dei sociniani (antitrinitari, fautori di una religione razionale e perseguitati in tutta Europa) e degli arminiani (negatori del dogma calvinista della predestinazione). Tra questi, Grozio (De imperio summarum potestatum circa sacra, 1614, ma pubbl. postumo nel 1647) sostiene che credere è possibile solo con l’aiuto «misterioso» di Dio, pertanto imporre la fede con le armi non è in potere dello Stato. Riguardo allo ius circa sacra Grozio afferma la suprema autorità dello Stato in materia religiosa: spetta allo Stato di esercitare un’azione coercitiva, ma non per imporre una fede, bensì per affermare la pacifica coesistenza di dottrine diverse; suo compito è regolare solo il culto ufficiale e pubblico, e non le credenze private. Anche Pufendorf (De habitu religionis christianae ad vitam civilem, 1686, §§ 49-50) propugna una riunificazione delle varie Chiese cristiane protestanti (escludendo i cattolici), improntata a un principio di tolleranza, adducendo motivazioni essenzialmente giuridiche e politiche. La Riforma, infatti, dando luogo a una proliferazione di confessioni religiose, aveva creato una situazione in cui il problema della tolleranza si poneva essenzialmente come un problema politico: ogni sovrano si trovava a governare nel suo Stato più comunità religiose che gli erano sottoposte politicamente, ma dissentivano da lui in materia di religione. Pufendorf distingue nettamente la sfera del potere spirituale da quella del potere temporale (ogni Chiesa è un «collegium», cioè una libera associazione finalizzata all’educazione morale) e propugna la tolleranza come misura di pace sociale: lo Stato deve garantire la pluralità dei punti di vista in materia religiosa, in quanto in questo campo i cittadini non hanno sottomesso la loro volontà a quella del sovrano, ma deve anche esercitare un controllo sulle dottrine potenzialmente eversive; tale strategia è l’unica che preserva la Civitas dalla dissoluzione politica o dalla «degenerazione in un corpo irregolare e bicipite». Mentre le argomentazioni di Grozio e di Pufendorf sono essenzialmente giuridico-politiche, un’argomentazione più ampia viene da Spinoza (Tractatus theologico-politicus, 1670, cap. 20°), che ribadisce la piena autorità dello Stato sulla Chiesa ma difende la più assoluta libertà di coscienza: il soggetto delle scelte religiose è la coscienza individuale, sulla quale la violenza e l’imposizione sono inutili e illegittime; non si può reprimere la coscienza, mentre si può regolare il culto esterno. Con Locke il problema della libertà religiosa è definitivamente sottratto alle controversie teologiche e affrontato sul piano filosofico-politico. Nell’Epistola sulla tolleranza (1689) egli sostiene che la via della salvezza non è un’azione esteriore obbligata, bensì una scelta spirituale personale e segreta. Gli articoli di fede non possono essere imposti dalla legge perché credere non dipende dalla volontà ma da un moto interiore; le credenze religiose, inoltre, non hanno alcuna relazione con i diritti civili. Egli esamina indipendentemente l’uno dall’altro il concetto di Stato e quello di Chiesa e fa vedere come il principio di tolleranza risulti dal confronto tra i loro rispettivi compiti e interessi. Lo Stato è una società di uomini costituita per conservare e difendere i beni civili (vita, libertà, averi, integrità e benessere del corpo, ecc.); tra i suoi compiti non rientra la cura delle anime e la salvezza eterna perché rispetto a questi compiti il magistrato civile non ha strumenti efficaci, dal momento che l’unico suo strumento è la costrizione che nulla può per la coscienza. D’altro lato, la Chiesa è una società privata, libera e volontaria, costituitasi per onorare Dio nel modo giudicato a Lui più accetto, nella quale – come per tutte le associazioni private – non si può essere obbligati a entrare e dalla quale si deve poter uscire liberamente senza conseguenze di carattere civile. Per Locke, le scelte dottrinali e liturgiche non possono che competere al singolo individuo, oppure appartenere a un ambito di cose indifferenti che lo Stato ha il dovere di riconoscere e rispettare dal momento che il suo principale compito è solo reprimere ogni comportamento che violi le leggi pubbliche e metta in pericolo la convivenza civile. La tolleranza di Locke non è tuttavia completa perché esclude papisti e atei: i primi (i cattolici) riconoscono un’autorità (quella del pontefice romano) superiore a quella dello Stato, i secondi, non avendo religione, non hanno neppure vincoli morali e non riconoscono le leggi naturali che sono a fondamento delle leggi politiche; entrambi non possono quindi essere ammessi in una comunità politica. Nella cultura francese, il principio della tolleranza si afferma soprattutto con Bayle, che si schiera contro il dogmatismo e la pretesa di imporre con la forza convincimenti religiosi rispetto ai quali è impossibile una dimostrazione definitiva e che rimangono impenetrabili alla mente umana. Asserendo la completa indipendenza di religione e virtù, egli allarga per la prima volta la tolleranza anche agli atei (Pensieri sulla cometa, 1682). Nella seconda metà del Settecento la Francia ebbe una grande fioritura di scritti sulla tolleranza, tra cui il Trattato sulla tolleranza (1763) di Voltaire, il quale mette in luce come le divergenze religiose che sono causa di persecuzioni riguardano punti oscuri e controversi della dottrina cristiana, mentre il nocciolo essenziale del cristianesimo è condiviso da tutti; di conseguenza ogni repressione è insensata. In una prospettiva deistica le verità religiose fondamentali sono da lui identificate con il nucleo razionale della religione cristiana, facendo riferimento al quale è possibile vivere una propria esperienza religiosa personale, al di fuori delle Chiese e delle loro divisioni. Con il giusnaturalismo si era venuta affermando l’idea che religione e diritto costituiscono due sfere diverse e autonome per fonte, oggetto e finalità; di conseguenza lo Stato, nel proprio ambito, non può che tollerare una molteplicità di confessioni diverse. A conclusione di un lungo percorso, alla fine del 18° sec., questo principio verrà recepito e solennemente proclamato nelle costituzioni e dichiarazioni di diritti americana e francese.

 

Ciò non ha risolto in America il problema della segregazione razziale. Essa si foda infatti su una visione dell’umanità per la quale la razza bianca è la razza supeiore e parimenti è superiore anche la sua cultura.

 

A questa posizione si contrappone quella sostenuta dal multiculturalismo. Con tale espressione si intende, come ha scritto Alessandro Ferrara,  al riconoscimento della pari dignità delle espressioni culturali di tutti i gruppi e comunità che convivono in una società democratica, nonché al significato, alle giustificazioni e alle conseguenze di tale riconoscimento; fa riferimento, in altri termini, all’idea che ciascun essere umano ha diritto a crescere dentro la propria cultura e non in quella cui una maggioranza intende assimilarlo. In questo orizzonte, diverse sono le possibilità che si aprono e su cui un consenso stabile non è stato ancora acquisito. Di quale riconoscimento si tratti, che cosa voglia dire pari dignità, se all’interno di un quadro liberale siano concepibili diritti sovraindividuali, a quali tipi di gruppi o comunità vadano accordati considerazione, riconoscimento ed eventuali diritti collettivi: sono queste le domande in base alle quali il concetto di m. va gradualmente acquisendo una propria fisionomia.

 

Prima di affrontare tali questioni va rimarcata, notava Alessandro Ferrara, una distinzione essenziale: il problema posto dalla prospettiva multiculturalista non è da confondersi con problemi che a essa vengono spesso assimilati nella pubblicistica e nei media, quali per es. il problema del razzismo e il problema dell’integrazione di una società multietnica suo malgrado. Pur importanti ed egualmente complesse, tali questioni si legano all’idea di una repentina accelerazione dei flussi migratori, che sopravanza le capacità di assorbimento e integrazione sociale della società ospite. Il tema del m., invece, esplode in tutte le società industriali avanzate, non solo in quelle che hanno subito l’impennata immigratoria. Inoltre, nella questione del m., a differenza di quanto accade per la questione dell’integrazione e del razzismo, si intrecciano pluralismo culturale, dimensione comunitaria e questioni di giustizia distributiva.

 

Il formarsi di una mentalità multiculturalista ha a che fare con la convivenza di culture che sono diverse non solo per i loro contenuti morali e di valore, ma anche perché hanno ancoramenti etnici e gradi di riconoscimento (o emarginazione) profondamente differenti (Galeotti 1994). Le ragioni per le quali tale convivenza genera effetti dirompenti e problemi inusitati sembrano legate soprattutto al mutare di certi nostri atteggiamenti di fondo. Nella seconda metà del Novecento sono cambiati alcuni aspetti centrali della nostra cultura, tre dei quali appaiono particolarmente determinanti per il sorgere di una sensibilità multiculturalista. In primo luogo, è profondamente cambiata la concezione filosofica dell’individuo secondo la quale l’identità della persona viene intesa come una sorta di DNA psicologico che spinge l’individuo verso una direzione o verso un’altra. L’identità dell’individuo viene ora vista piuttosto come una rappresentazione che la persona fa di se stessa a partire dalle interazioni con altri con i quali entra in rapporti significativi; si acquista un’identità, da questo punto di vista, quando si impara a vedersi con gli occhi degli altri. Ne consegue che non è possibile proteggere e rispettare veramente l’individualità così concepita se non si proteggono anche quelle condizioni sociali che permettono a tali relazioni significative di esistere, durare nel tempo e riprodursi. Rispettare veramente la dignità dell’individuo vuol dire, da questo punto di vista, rispettare l’individuo preso con tutta la sua zolla, ossia con tutto il contorno di relazioni sociali e presupposti culturali che gli permettono di essere quel dato individuo. In secondo luogo, l’affermarsi di tradizioni etiche che conferiscono valore all’autenticità, alla unicità ovvero alla differenza (oltre che all’autonomia) dell’individuo ha prodotto uno spostamento nella percezione comune di ciò che ha valore all’interno dell’individuo (Comunitarismo e liberalismo, 1992). Questa mutata costellazione etica contribuisce anch’essa a rafforzare il convincimento che rispettare l’individuo vuol dire rispettarlo con tutto ciò che lo fa essere ciò che è – la sua cultura, la sua comunità, la sua storia, la sua lingua – aprendo una nuova fase del nostro modo di intendere la società. Se la società premoderna poteva essere vista come una comunità in grande, se la società moderna è spesso apparsa come una collezione di individui, la società contemporanea appare piuttosto come una unione di comunità, una “unione sociale di unioni sociali” (Rawls 1971). In terzo luogo, nel corso del Novecento è entrata in crisi la fiducia nella possibilità di accedere a fondamenti di carattere universale. Per es., diversamente da quanto accadeva nell’America dei primi decenni del 20° secolo o nella Francia postcoloniale, non sembra più ammissibile rivendicare a una specifica forma di vita lo status di un ‘dover essere’ vincolante per tutti; nelle società industriali avanzate sembra essere venuta meno la credenza collettiva nel fatto che la propria forma di vita etica possa essere proposta tout-court come una morale universale (MacIntyre 1984).

 

Da questo punto di vista il m., lungi dall’essere un adattamento confuso e irriflesso a una realtà in troppo rapida mutazione, è stato preparato e anticipato da lunghi esercizi di ‘decentramento’, di rimessa in questione della centralità di ogni standard. Quando fra i sociolinguisti W. Labov ha contrapposto alla dicotomia discriminatoria, proposta da B. Bernstein, tra ‘codice ristretto’ (proprio delle classi subalterne) e ‘codice elaborato’ (tipico delle classi medio-alte) la logica “egualmente valida” del non-standard English, là è stato posto uno dei primi mattoni del m. (Bernstein 1975; Labov 1972); quando R. Laing ha difeso la schizofrenia come discorso di resistenza e M. Foucault come discorso della follia, quando l’antropologia, dopo J.G. Frazer, ha parlato della razionalità inerente alla cosiddetta mentalità primitiva, là si sono poste le premesse del multiculturalismo.

 

L’idea che lo Stato debba trattare con eguale rispetto non solo il cittadino, ma anche la persona che ciascuno è, equivale a dire che le istituzioni pubbliche debbono valorizzare anche ciò che rende concretamente diversi gli individui. Ciò pone problemi nuovi: l’ideale del rispetto per l’identità di ogni comunità rende più difficile il funzionamento di leggi e istituzioni che debbono valere per tutti, al di là dei confini comunitari. Relativamente a questi problemi sembrano delinearsi diverse prospettive interne alla sensibilità multiculturalista, raggruppabili attorno a tre domande: 1) che cosa si debba intendere per ‘diritti culturali’; 2) quale giustificazione possa essere addotta a sostegno della protezione costituzionale dei diritti culturali; 3) quali siano i rischi del m. e quali rimedi sia possibile ipotizzare.

 

Se in linea di massima si intende per ‘diritti culturali’ la statuizione positiva di attribuire pari dignità, da parte delle istituzioni di uno Stato democratico, alla cultura di appartenenza di ciascun individuo, si pone in primo luogo il problema di identificare il soggetto di tali diritti, in secondo luogo quello di identificare l’oggetto di tali diritti (ovvero che cosa si debba intendere per cultura) e in terzo luogo quello di chiarire i termini in cui la protezione di tali diritti vada intesa, ossia in che cosa consista esattamente il diritto a vedere riconosciuta pari dignità alla propria cultura.

 

Quanto al primo problema, va chiarito il rapporto tra i cosiddetti diritti culturali e il quadro politico liberale. Sull’ammissibilità di rendere un gruppo o una comunità come tale soggetto di diritto e destinatario della protezione costituzionale esiste un acceso dibattito; una delle soluzioni più interessanti afferma che il diritto alla cultura rimane appannaggio dell’individuo, ma può essere legalmente esercitato solo se esiste un numero minimo di individui che richiedono di goderne (Margalit, Halbertal 1994).

 

A proposito del concetto di cultura, si confrontano concezioni più ampie, che definiscono la cultura solo per contrasto con altri sistemi di oggettivazioni di raggio più ristretto, per es. gli stili di vita (Margalit, Halbertal 1994), e concezioni più strette, secondo le quali il termine cultura va riservato solo a quei sistemi di mediazioni simboliche che hanno dimostrato di sapere integrare una società per un certo numero di generazioni (Taylor, in Multiculturalism and ‘the politics of recognition’, 1992). La cultura gay e la cultura femminista potrebbero rientrare sotto la prima definizione, sicuramente non sotto la seconda. Se si definisce la cultura come éthos di un gruppo, non esisterà Stato che non risulti multiculturale, in quanto, come fa notare W. Kymlicka (1995), anche la più etnicamente omogenea delle società, quella islandese, conterrà una diversità di culture legate a gruppi, associazioni, strati sociali e prospettive di valore differenti. Se si definisce la cultura in senso troppo ampio, per es. come civiltà o forma di vita, allora anche una realtà composita e multietnica come la società europea contemporanea risulterà unificata sotto l’egida di un’unica forma di vita: quella di una società industriale avanzata. La proposta di Kymlicka è di utilizzare un concetto di ‘cultura societaria’ (societal culture), intesa come vocabolario descrittivo e valutativo condiviso da uno stesso gruppo per più generazioni. La cultura diventa sinonimo di nazione come “comunità intergenerazionale, più o meno istituzionalmente completa, che occupa un certo territorio o patria, e condivide una lingua e una storia distinte” (Kymlicka 1995, p. 18).

 

Per quanto concerne il terzo problema, relativo a che cosa si deve intendere per ‘eguale dignità’ e che cosa ne discende, dal diritto al riconoscimento della eguale dignità della propria cultura non discende alcun “diritto a godere di una cultura alta” (Margalit, Habertal 1994), né alcun diritto a una presunzione di “eguale valore” (Wolf, in Multiculturalism and ‘the politics of recognition’, 1992) – che è cosa ben diversa dalla eguale dignità – né il diritto a conservare il particolare contenuto tradizionale di una cultura (Kymlicka 1995). In positivo, invece, ne discenderebbero: a) il diritto a condurre senza interferenze uno stile di vita, con la sola limitazione del principio del danno ad altri (Margalit, Halbertal 1994); b) il diritto a eque opportunità di rappresentazione di questo stile di vita sui media (per es., i programmi per gay in TV); c) il diritto a un aiuto da parte dello Stato per attività culturali delle comunità etniche.

 

In questo senso, Kymlicka (1995) distingue tre diverse versioni dei diritti culturali. In alcuni casi (per es. la Catalogna, il Québec), la richiesta di riconoscimento dei diritti culturali equivale alla richiesta che venga riconosciuto il diritto di una minoranza etnico-culturale all’autogoverno – nella forma di un’autonomia giurisdizionale su un territorio in cui il gruppo in questione risulti maggioritario – affinché il gruppo stesso possa adottare tutte le misure necessarie al dispiegarsi ottimale della propria cultura. In altri casi, i diritti culturali prendono la forma di una protezione giuridica della ‘libera espressione’ di tratti culturali tipici e costitutivi dell’identità di una minoranza culturale: per es. le rivendicazioni sull’abbigliamento (il turbante dei Sikh, il chador ecc.), le rivendicazioni riguardo al rispecchiamento dei valori della minoranza nei curricula scolastici e nei media, il finanziamento pubblico di attività espressive delle comunità etniche. Infine, i diritti culturali possono assumere la forma di diritti a una ‘rappresentanza speciale’ in seno a istituzioni legislative, amministrative o educative: per es. il caso delle quote riservate a membri di una minoranza all’interno di liste elettorali, liste di ammissione a programmi di istruzione superiore, collegi giudicanti e giurie ecc.

 

Da un altro punto di vista, è necessario tenere distinti diritti culturali che si esprimono nella forma di restrizioni interne, intracomunitarie, e diritti culturali che prendono la forma di protezioni esterne, da attivarsi nei rapporti con gli altri gruppi e comunità. Fanno parte del primo gruppo quelle norme giuridiche che autorizzano il gruppo etnico o i membri di una certa cultura a esercitare, con o senza l’ausilio di strutture e risorse pubbliche, forme di controllo particolare sui propri correligionari o compartecipanti. Fanno parte della seconda accezione dei diritti culturali, invece, quelle norme e misure volte (attraverso l’autogoverno, la rappresentanza speciale, o altro tipo di implementazione) a evitare che centri decisionali istituzionali o non istituzionali esterni al gruppo o alla comunità vengano a determinarne in modo incontrollato i destini.

 

Una trattazione a parte merita la vasta gamma di argomentazioni che sono state prodotte a sostegno e giustificazione dei diritti culturali. Qui la domanda non è più in che cosa consistano questi diritti ma che cosa ne giustifichi l’introduzione all’interno del quadro normativo delle società democratiche contemporanee. Importante è a questo proposito rimuovere l’equivoco, ampiamente diffuso, secondo cui le motivazioni adducibili sarebbero esterne al quadro liberale e presupporrebbero l’adozione di una non meglio specificata prospettiva ‘comunitarista’. Al contrario, a eccezione dell’argomentazione centrata sui requisiti dell’identità, le più importanti giustificazioni finora addotte a sostegno dei diritti culturali hanno fatto riferimento soprattutto ai valori della libertà e dell’eguaglianza, valori che certamente non possono essere sospettati di ‘esternità’ al paradigma liberale. A questi tre tipi di argomentazioni ne vanno aggiunti due secondari: le giustificazioni storiche dei diritti culturali, basate sulla necessità di onorare antichi trattati bilaterali tra nazioni che convivono all’interno del medesimo Stato; le giustificazioni che legano i diritti culturali al perseguimento del pluralismo e della diversità come bene in sé (Kymlicka 1995).

 

Margalit e Halbertal (1994, p. 505) hanno sostenuto che “il diritto individuale alla cultura deriva dal fatto che ogni persona ha un supremo interesse a sviluppare la propria personalità, cioè a preservare il suo modo di vivere e quei tratti che sono componenti centrali della identità per sé e per gli altri membri del gruppo culturale”. Il valore in base al quale il diritto alla protezione della cultura è giustificato è interno all’orizzonte del membro della cultura: si tratta della capacità di quella cultura di dare significato alla vita del suo partecipante. Il richiamo giurisprudenziale ai requisiti del dispiegamento ottimale di un’identità individuale non è una novità nell’ordinamento giuridico dei paesi liberaldemocratici; basti pensare che gran parte della legislazione che tutela la privacy dell’individuo è basata su presupposti analoghi. Potrebbe sembrare, a prima vista, che il conferire a delle comunità potere di veto su certe decisioni di politica culturale o speciali diritti in fatto di istruzione, o il diritto di limitare la mobilità sul loro territorio, infranga il principio liberale dell’eguaglianza in quanto distribuisce diritti e prerogative sulla base dell’appartenenza etnica. Questa impressione si rivela ingannevole, però, alla luce della considerazione secondo cui questi diritti e prerogative “sono resi necessari dall’idea, difesa da Rawls e Dworkin, che la giustizia richiede che si rimuovano o si riequilibrino con indennizzi tutti quegli svantaggi ‘moralmente arbitrari'”, in particolare se tali svantaggi sono “profondi e pervasivi e presenti fin dalla nascita”; se non fosse per questi diritti speciali, i membri delle minoranze culturali “non godrebbero di quelle stesse possibilità di vivere e lavorare nella loro lingua che i membri delle culture maggioritarie danno per scontate” (Kymlicka 1992, p. 146). Il m. può dunque essere difeso a partire dal valore dell’eguaglianza.

 

Si prendono in considerazione, infine, le giustificazioni dei diritti culturali che fanno perno sul valore della libertà. Secondo alcuni, il diritto alla cultura va visto come parte del più ampio e fondamentale diritto alla libertà, e dunque in perfetto accordo con il quadro teorico liberale. Ogni individuo ha interesse e diritto a scegliere e cambiare i propri fini secondo la visione di ciò che più gli appare in grado di migliorare la sua vita. Questo interesse e diritto alla scelta può essere esercitato effettivamente solo se a) esiste una pluralità di opzioni praticabili e b) l’individuo possiede degli standard per valutare le opzioni. Sia la pluralità di opzioni sia l’esistenza di standard dipendono dal fatto che vi siano più culture societarie, che l’individuo partecipi, faccia propria la prospettiva di almeno una cultura e abbia qualcosa fra cui scegliere. Dunque non c’è libertà senza affiliazione culturale; proteggere il pluralismo delle appartenenze culturali significa proteggere l’autonomia dell’individuo e la libertà di scelta. Questa argomentazione si situa su una linea di maggiore continuità con la tradizione liberale. La libertà si difende difendendo le radici della libertà, ovvero le condizioni che rendono possibile la libertà stessa: in primo luogo l’esistenza di un’autonomia individuale; in secondo luogo la presupposizione di una pluralità di opzioni, di scelte, la quale poggia a sua volta su una pluralità di standard valutativi che, coerentemente con la svolta linguistica e la concezione intersoggettiva dell’individuo, sono concepibili non più come linguaggi privati, bensì come universi di discorso socialmente costruiti (Berger, Luckmann 1966).

 

Ci si potrebbe chiedere a questo punto perché le minoranze etniche di un grande paese non potrebbero trovare soddisfatto il requisito della libertà all’interno di una o due grandi opzioni culturali comuni. J. Waldron ha infatti obiettato che “una rutilante vita cosmopolita, vissuta in un caleidoscopio di culture, è sia possibile sia soddisfacente” (Waldron 1992, p. 762). Un’obiezione del genere mostra, secondo i difensori del m., di non tenere conto della specificità del legame che l’affiliazione culturale ha con l’identità individuale. Prescindendo dall’ampiezza temporale del processo di riconversione culturale, che potrebbe avere costi insostenibili da un punto di vista sociale, il grado di ancoramento esistenziale dell’identità fornito dagli oggetti di identificazione della prima infanzia è difficilmente riproducibile nella socializzazione secondaria. Una società che non offre l’opzione di crescere dentro la propria cultura è una società che discrimina due classi di cittadini: da un lato coloro che, essendo già nati in un contesto culturale cosmopolita, beneficiano di una continuità culturale lungo l’intero arco della loro socializzazione, dall’altro coloro che sono condannati a un processo di riacculturazione che non hanno scelto.

 

Molti sono i rischi segnalati dai critici del multiculturalismo. Già molti anni prima che il termine venisse coniato, R. Sennett (1977) aveva sviluppato una critica degli effetti distruttivi di quella che allora si chiamava identity politics, o, semplicemente, ‘nuovo modo di fare politica’. Caratteristica di questo tipo di politica sarebbe l’intransigenza settaria e moralistica, unita all’inconcludenza che le deriva dalla mancata accentuazione del momento strategico (Maffesoli 1988; Holmes 1994). Al di là di espressioni suggestive come ‘comunità distruttiva’, ‘ritribalizzazione’ e ‘balcanizzazione’, un’approfondita analisi dei rischi inerenti alla istituzionalizzazione di una sensibilità multiculturalista è venuta da G. Kateb (1994, pp. 525-30), il quale ha elencato sei ‘vizi dell’appartenenza’ che più o meno inesorabilmente troverebbero in essa origine e nutrimento.

 

Si tratta in primo luogo del ‘vizio della confusione compiacente’: l’individuo “introietta il gruppo e si sente espandere” e di conseguenza “aliena se stesso a un’astrazione”; in secondo luogo, del ‘vizio del cattivo estetismo’, ossia dell’idea che il mondo sia fatto anzitutto di gruppi e dei loro conflitti, così da risultare più semplice, più assimilabile e più godibile, “come se la bellezza derivasse solo dai contorni pronunciati e dalle differenze spiccate”. Segue poi, in terzo luogo, ‘il vizio dell’amore di sé indiretto e inconsapevole’: “ci si rispecchia negli altri membri del proprio gruppo”, esercitando una forma proiettiva di amore di sé che può addirittura assumere le false sembianze di una virtù. In quarto luogo il ‘vizio della disonestà’, dove disonestà va intesa come “l’inorgoglirsi per un’identità ereditata o per acquisizioni altrui”; e, quinto, il ‘vizio dell’automistificazione’, a causa del quale risultano indebolite tanto la capacità di “immaginarsi il simile, ovvero l’equità, quanto l’immaginarsi il dissimile, ovvero l’empatia”. Infine, chiude la serie dei vizi sollecitati dal m. ‘il vizio del wishful thinking’, il peggiore fra tutti: esso consiste nel “soffocare i propri scrupoli e accettare le proprie menzogne” e rende chi ne è vittima “strumento di mendacità”. A questa lista va aggiunto anche il rischio, menzionato da Ch. Kukathas (1992), che la protezione giuridica della specificità culturale venga utilizzata ex post facto come legittimazione da parte di un gruppo che si è attivato sulla base di un interesse, e ciò sia al fine di escludere altri sia al fine di meglio perseguire tale interesse. Ma in Kukathas si trova menzione implicita di quello che forse è il rischio più grave insito nella prospettiva multiculturalista: il rischio di congelare ogni gruppo ‘protetto’ nella sua configurazione attuale, puramente contingente, inibendo ogni processo di revisione interna della sua cultura. Fa notare Kukathas (1992, p.114): “I gruppi culturali non sono insiemi indifferenziati, ma associazioni di individui con interessi che in varia misura divergono. All’interno di tali minoranze si trovano quindi altre minoranze più piccole. Considerare il gruppo nel suo complesso come soggetto di diritti culturali vuol dire dare per scontate le strutture esistenti e quindi favorire le maggioranze esistenti”.

 

Tra i rimedi che sono stati proposti contro questi rischi del m. se ne segnala uno: il garantire all’individuo sempre e in qualunque caso il ‘diritto di secessione’. Ciò significa, per es., subordinare ogni misura protettiva nei confronti dell’integrità di una cultura al fatto che la comunità in questione lasci i suoi membri liberi di andarsene senza subire vessazioni.

 

Senza disconoscere la portata dei rischi connessi alla prospettiva multi-.culturalista, sembra innegabile che tale prospettiva continuerà a guadagnare terreno all’interno della cultura democratica delle società postindustriali, a causa sia della profondità delle sue radici nella storia della cultura occidentale, sia del perdurare dei motivi che sono alla base del suo sorgere nel tardo Novecento.

 

Il multiculturalismo si basa in buona sostanza su una concezione relativistica della cultura, dei comportamenti, di ciò che è bene e di ciò che è male. In altre parole. per un relativista non esiste alcuna verità. Esistono solo delle opinioni. Dio stesso è un’opinione.

 

Il relativismo culturale, ha scritto Francesco Remotti è una modalità di confronto con la variabilità e la molteplicità di costumi, culture, lingue, società. Di fronte alla molteplicità l’atteggiamento relativistico è incline a riconoscerne le ragioni, ad affermarne non solo l’esistenza, ma anche l’incidenza e la significatività. Un ottimo esempio di atteggiamento relativistico è contenuto nelle Storie di Erodoto (III, 38), là dove egli racconta l’esperimento culturale di Dario, il re dei Persiani. Posti a confronto Greci e indiani Callati, Dario chiede loro a quale prezzo sarebbero disposti a rinunciare ai loro rispettivi costumi funerari (quello di bruciare i cadaveri da parte dei Greci e quello di divorare il corpo dei genitori defunti da parte degli indiani Callati), ricevendone in entrambi i casi una risposta non solo negativa, ma indignata: agli occhi dei Greci è repellente mangiare i cadaveri; ma agli occhi dei Callati è altrettanto obbrobrioso bruciarli. In tema di trattamento dei cadaveri sono molte le soluzioni possibili o i modelli culturali adottati: due di questi vengono messi a confronto da Dario, e altri si possono ovviamente immaginare o constatare. L’atteggiamento relativistico è quello per il quale perde senso la questione di quale sia il costume ‘migliore’ (cremazione o endocannibalismo, nel caso affrontato da Dario): il giudizio su ciò che è ‘migliore’ viene infatti già espresso dagli individui che adottano i costumi della propria cultura; e non è pensabile un’istanza superiore alle singole società. “Il costume (nomos) è sovrano di tutte le cose” – così infatti Erodoto conclude il brano ora citato dell’esperimento comparativo di Dario.

Se il relativismo consiste in un forte riconoscimento della molteplicità culturale, esso si traduce inevitabilmente in un altrettanto forte riconoscimento dell’incidenza dei costumi (o della cultura) nell’organizzazione della vita e della società umana. Alla base del relativismo vi è una profonda diffidenza nei confronti dell’universalità di strutture psichiche o mentali – di ordine naturale – che accomunerebbero tutti gli uomini.

 

Il relativismo nota Remotti, non nega che esistano strutture di tal genere; ritiene tuttavia che esse rappresentino una componente per così dire minoritaria nell’organizzazione umana: più importante appare invece la dimensione culturale, con la sua inevitabile variabilità, per cui ciò che contraddistingue l’uomo nella sua vera essenza sarebbe proprio questa variabilità, anziché l’uniformità di leggi o strutture naturali. “Le leggi della coscienza, che noi diciamo nascere dalla natura – sosteneva Michel de Montaigne nella seconda metà del Cinquecento – nascono dalla consuetudine (coustume)”, aggiungendo che “le idee comuni che vediamo aver credito attorno a noi” assumono ai nostri occhi la sembianza di leggi “generali e naturali” (v. Montaigne, 1580; tr. itolleranza, p. 150). Come si vede, il relativismo di Montaigne non si limita ad asserire la variabilità delle ‘leggi della coscienza’ e neppure ad affermare la loro origine eminentemente culturale; esso comporta anche una teoria che svela il processo di naturalizzazione a cui tali leggi sono sottoposte. Gli uomini aderiscono a norme o leggi ‘culturali’, che ricevono dalle loro tradizioni e che in definitiva essi si fabbricano con la loro cultura (i costumi); ma per dare a esse consistenza e una sorta di indiscutibilità le trasformano ideologicamente in leggi ‘generali e naturali’, come se, anziché provenire dalla cultura, provenissero dalla natura. La forza di una strategia come quella esemplificata da Montaigne – qui assunto come autore paradigmatico per il relativismo delle scienze sociali del Novecento – consiste nel tentativo di rendere conto degli atteggiamenti antirelativistici, di spiegare come possa nascere l’antirelativismo e come questo sia insito in ogni cultura. Negare il relativismo, specialmente se questo minaccia di essere applicato alla propria cultura, dimostrandone appunto la ‘relatività’ dei principî, dei valori, delle scelte, può configurarsi in effetti come una mossa autoprotettiva a cui ogni cultura sarebbe quasi obbligata a ricorrere. Sotto questo profilo, il relativismo si configurerebbe come una strategia intellettuale che agisce ‘contro’ i processi di naturalizzazione, di sacralizzazione o comunque di assolutizzazione, svelando il carattere culturale di ciò che viene fatto passare per ‘naturale’, il carattere umano e costruito di ciò che viene posto su un piano di sacralità, il carattere relativo e storicamente (o etnograficamente) contingente di ciò che viene considerato come assoluto. Il relativismo culturale potrebbe dunque essere interpretato come parte di un programma di demistificazione, come una presa di distanza critica rispetto ai miti coltivati dalle varie società (compresa la civiltà occidentale), avente un indubbio sapore illuministico (nel senso almeno conferito a questo termine da Max Horkheimer e Theodor W. Adorno).

 

Gli autori più sensibili al relativismo coltivano però una teoria piuttosto radicale circa l’incisività dei costumi, la quale non pare trovare accoglienza in programmi di tipo illuministico. È la teoria della carenza di una natura umana solida, rocciosa, costante (René Descartes), quale è stata esposta nel Seicento da Blaise Pascal e nel Settecento da Johann Gottfried Herder, ripresa nell’Ottocento da Friedrich Nietzsche e poi nel Novecento da Arnold Gehlen, da Clifford Geertz e da diversi altri scienziati sociali (v. Cultura e Natura e cultura). Il relativismo che, implicitamente o meno, si fonda su questa teoria accorda un significato particolarmente profondo agli universi culturali che in modi diversificati gli uomini di volta in volta costruiscono per sopperire alle mancanze della natura umana. Questi universi – per quanto strani e persino estranei possano apparire gli uni rispetto agli altri – rispondono tutti all’esigenza di dare forma (una forma culturale) all’umanità: essi non sono semplicemente delle stravaganze (anche se tali possono apparire), bensì costituiscono i modi specifici mediante cui nelle più varie situazioni storiche e geografiche gli uomini hanno costruito la loro umanità. Da ciò il relativismo trae alcune implicazioni piuttosto importanti: a) vi sono molti modi – pressoché indefiniti – mediante cui si può dare forma e senso all’umanità, per cui occorre essere disposti a scorgerne sempre altri oltre a quelli che ci sono più familiari o che finora si è stati in grado di conoscere; b) questi modi, proprio in quanto conferiscono senso, sono internamente organizzati, anche se la conoscenza e l’analisi degli universi culturali rappresentano passi ed opzioni che inevitabilmente travalicano una prospettiva meramente relativistica; c) se gli universi culturali non sono costruzioni cervellotiche e superflue, ma decidono del senso dell’umanità, conferendo ad essa forme inevitabilmente particolari, si comprende più facilmente l’attaccamento ai propri costumi che gli osservatori etnografi (a cominciare quantomeno da Erodoto) hanno da sempre rilevato. È vero che i costumi (o la stessa cultura) hanno alcunché di ‘esterno’; ma l’imprescindibilità di questo rivestimento esterno è tale che l’essere costretti a rinunciarvi suscita negli esseri umani un profondo disagio e reazioni di rifiuto.

I relativisti si dispongono quindi non solo ad ammettere le forme più varie e inedite, ma anche a comprendere ‘dall’interno’ la logica che le sostiene, ovvero i loro principî, i loro valori, le loro categorie. Come si è detto, le maniere mediante cui si decide di addentrarsi negli universi culturali possono essere assai diverse e rispondere a criteri metodologici persino opposti (non è ovviamente la stessa cosa un approccio funzionalistico, teso a cogliere le relazioni funzionali tra i vari elementi, e un approccio di tipo ermeneutico, mirante a interpretare i significati di un determinato contesto); ma in generale il relativismo tenderebbe a fare propria la posizione di un antropologo come Bronislaw Malinowski, allorché affermava, a proposito dell’indigeno delle isole Trobriand, che occorre cogliere “la sua visione del suo mondo” (v. Malinowski, 1922; tr. itolleranza, p. 49, corsivi nostri). L’acquisizione di una visione ‘dall’interno’ – comunque questa venga poi perseguita – rappresenta il punto maggiormente produttivo del relativismo, quello per il quale esso non si riduce soltanto a un atteggiamento di rilevazione della molteplicità e di rispetto della diversità culturale, ma si traduce in uno sforzo conoscitivo portato fino nell’intimo dell’alterità. Può essere allora importante rilevare su questo punto una convergenza significativa tra Malinowski da un lato e Franz Boas dall’altro, allorché quest’ultimo affermava in un articolo di fine Ottocento (1896) sui Limiti del metodo comparativo in antropologia la necessità di indagare “ciascuna cultura individuale” nella sua particolarità storica, ponendo in luce che non si tratta di una mera raccolta di dati estrinseci, ma di un’analisi interna – storica e psicologica – delle “ragioni per cui tali costumi e credenze esistono” (v. Boas, 1966, p. 276). In particolare, le ricerche psicologiche cercano di cogliere “i diversi atteggiamenti e le diverse interpretazioni” che gli individui via via sviluppano, in quanto “forniscono il materiale più importante”, quello attinente al “significato” elaborato all’interno di ogni singola cultura (ibid., p. 296).

 

Questa propensione a valorizzare una visione ‘dall’interno’, elaborata mediante principî e categorie particolari e irripetibili, specifici di una società determinata, salda del resto il relativismo culturale con il relativismo linguistico. Da Boas a Edward Sapir, da questi a Benjamin Lee Whorf, riemerge nella cultura antropologica e linguistica del Novecento una tradizione di pensiero che risale a Herder e soprattutto a Wilhelm von Humboldtolleranza Da un lato il linguaggio è per Humboldt (v., 1836; tr. itolleranza, p. 42) “l’organo formativo del pensiero” e nel contempo dell’umanità. Dall’altro il linguaggio non può che tradursi in una serie indefinita di lingue particolari, ciascuna delle quali esprime “non una diversità di suoni e di segni, ma una diversità di visioni del mondo”: ognuna di esse infatti “incide” e “recide” diversamente il mondo e quanto “lo spirito umano deve coltivare”, ossia la stessa umanità (cfr. Humboldt, citolleranza in Di Cesare, 1991, pp. XLI-XLII). Partendo dal presupposto della “pari dignità di tutte le lingue”, in quanto ciascuna di esse racchiude una visione del mondo che è anche una forma specifica di umanità, Humboldt si era spinto a vagheggiare una sorta di “enciclopedia” globale di tutte le lingue, in cui però la diversità strutturale (di significato, non solo di suono) fosse mantenuta e in cui l’irriducibile molteplicità delle lingue e delle forme fosse salvaguardata come ricchezza dell’intera umanità (v. Di Cesare, 1991, pp. XCIII e XLV). In queste formulazioni, che troviamo poi riecheggiate nelle pagine di Sapir e di Whorf, è possibile rintracciare una combinazione tra due principî: quello della relatività linguistica, esprimibile nella formula “Non esiste limite alla diversità strutturale delle lingue”, e quello del determinismo linguistico (“Il linguaggio determina il pensiero”) (v. Lyons, 1981; tr. itolleranza, p. 312). È il secondo principio che riesce a trasformare il relativismo da una semplice constatazione di diversità strutturali e di molteplicità irriducibili in un atteggiamento di ricerca globale. In fondo, come sostiene Clifford Geertz (v., 1984, p. 276), il relativismo – questa disponibilità a cogliere la diversità e nella diversità significati o “verità” che non siano soltanto quelli “di casa” – coincide con la stessa antropologia, o perlomeno è ad essa connaturato come sua dimensione irrinunciabile.

 

Nonostante i suoi pregi (apertura alla molteplicità e disponibilità a cogliere i significati interni all’alterità), non sempre il relativismo è visto di buon occhio. Si può anzi sostenere che in ogni epoca il dibattito sul relativismo sia stato sempre un argomento piuttosto acceso e animato. Per ridurre la questione all’essenziale potremmo sostenere che il dibattito ha da sempre riguardato il rapporto tra uniformità (U) e differenza (D) nella realtà umana (U/D): un conto è schierarsi tra coloro per i quali la dimensione ‘uniformità’ è prevalente sulla dimensione ‘differenza’ (U > D), per i quali quindi l’uomo è sostanzialmente uniforme, nonostante tutte le differenze di cultura, di luogo e di tempo che pure sono innegabili; un altro conto è schierarsi invece tra coloro per i quali l’uomo è soprattutto diverso, per i quali cioè la dimensione ‘differenza’ prevale sulla dimensione ‘uniformità’ nell’organizzazione degli esseri umani (D > U). Per questo secondo schieramento (quello dei relativisti) l’ammissione della molteplicità e il riconoscimento delle differenze comportano – almeno in linea di principio – un’apertura verso le forme più diverse che l’umanità può assumere, non avvertendo in ciò un pericolo, ma semmai un arricchimento: non ammettere la molteplicità e anzi screditarla appare come una chiusura. Per il primo schieramento (quello degli antirelativisti) la tesi della molteplicità si configura invece come una minaccia portata verso lo stesso senso di unità degli uomini: se gli esseri umani fossero così culturalmente diversi e se la diversità culturale fosse tale da incidere così profondamente negli esseri umani, non sarebbe forse messa in discussione la stessa possibilità di intesa e dialogo tra individui, gruppi, società? Ian C. Jarvie, un filosofo che, formatosi sotto la guida di Karl Popper, si è occupato prevalentemente di filosofia delle scienze sociali e di antropologia, ebbe a scrivere a proposito del relativismo: “Esso ci disarma, ci disumanizza, lasciandoci incapaci di entrare in una interazione comunicativa”; il relativismo toglie qualsiasi capacità di critica interculturale e anzi di critica tout court; per Jarvie, alle spalle del relativismo è possibile intravedere il “nichilismo” (v. Jarvie, 1983, pp. 45-46).

 

Si può comprendere assai bene come a Geertz, uno dei più convinti sostenitori del secondo schieramento (D > U), questa presa di posizione di Jarvie appaia come l’evocazione del tutto infondata di uno “spettro”, come la manifestazione di una “paura” ingiustificata (v. Geertz, 1984, pp. 263 e 265). E tuttavia è innegabile che il relativismo culturale possa assumere aspetti assai inquietanti, a dimostrazione di come il relativismo – alla stregua di un’infinità di altri movimenti o tendenze – non presenti un unico volto, ma possa piegarsi a molteplici usi e interpretazioni. Se è vero che il relativismo può essere identificato con la formula D >U, la quale – come abbiamo argomentato – conferisce programmaticamente spazio alla diversità e alla pluralità culturale, è però altrettanto vero che un ulteriore e decisivo problema è il modo in cui sono concepite le relazioni tra le diversità, tra i mondi culturali in cui l’umanità prende forma.

 

Sotto questo profilo, una delle manifestazioni più significative di relativismo culturale può essere individuata nell’opera di Oswald Spengler Il tramonto dell’Occidente, la quale ha esercitato una qualche influenza sull’antropologia culturale americana della prima metà del Novecento (Alfred Kroeber, Ruth Benedict). Anche qui il relativismo non si presenta affatto come una mera rilevazione di una molteplicità di modi di umanità. Come è noto, Spengler ritiene che vi siano fondamentalmente due livelli di umanità: un’umanità puramente zoologica, anonima e indistinta, e un’umanità che invece assume una vera e propria configurazione storica. È a questo secondo livello che viene fatta valere la prospettiva del relativismo: se sul piano zoologico è dominante il senso dell’uniformità (U > D), sul piano storico invece l’umanità si divide in una molteplicità di “forme elementari”, le quali sono le otto civiltà finora comparse nella storia universale dell’umanità. Ma poiché le civiltà “imprimono ciascuna la propria forma all’umanità, loro materia”, non può darsi l’idea di una umanità: “umanità è o un concetto zoologico o un puro nome” (v. Spengler, 1923; tr. itolleranza, p. 40). Se non è un concetto zoologico, umanità è necessariamente un concetto plurale: e – si badi – non è la biologia, ma la ‘cultura’ (Kultur è infatti il termine con cui Spengler designa le otto civiltà) il fattore che provoca inesorabilmente la ‘differenza’ tra le varie forme di umanità. Ognuna di esse è concepita come un’unità autonoma e autosufficiente, come un organismo che non dipende da altri. Tutto il ‘destino’ e tutto il ‘senso’ dell’umanità si giocano entro il chiuso delle singole forme elementari. Esse costituiscono organismi compatti, universi completi di verità, “ognuno chiuso in se stesso” (ibid.), assolutamente individuale e irripetibile, dotato della propria idea di morale, di natura, di storia, infine di umanità. Contro Kant, il quale sarebbe “il rappresentante più illustre della teoria dell’unità del genere umano” anche per quanto attiene alla dimensione spirituale, Spengler fa valere l’idea che l’uniformità è solo un dato biologico, mentre sul piano culturale e storico gli uomini sono irriducibilmente diversi (v. Conte, 1990, p. 16). Questa diversità, d’altronde, è del massimo rilievo, in quanto non concerne aspetti superficiali, bensì i modi culturali mediante cui l’umanità prende forma. Inoltre, poiché non esiste “alcuna unità superiore come termine di connessione tra le diverse civiltà”, questi modi sono tra loro eterogenei e del tutto incomunicabili (v. Rossi, 1971, pp. 379 e 381). Infine, i caratteri dell’autonomia e della chiusura spiegano perché le civiltà non possano intrattenere tra loro alcuna relazione positiva: essi determinano “un ostacolo insormontabile al rapporto con altre civiltà” (ibid., p. 390).

 

Si può concedere volentieri che Spengler rappresenti una versione esasperata del relativismo culturale, fondata oltretutto su ricostruzioni storiche discutibili e su un’impostazione antropologica del tutto inaccettabile. Pur nella grossolanità della sua visione, il pensiero di Spengler pone tuttavia un problema di non poco conto per qualunque versione del relativismo che intenda conferire alla ‘diversità’ non solo una rilevanza quantitativa, ma anche una pregnanza qualitativa. Se gli esseri umani prendono forme culturalmente diverse e se entro i confini di tali forme si decide di volta in volta il senso della loro umanità, quali possono mai essere le relazioni effettive tra tali forme, tra i differenti ‘tipi’ di umanità? A dimostrazione che questo genere di problema non riguarda soltanto il relativismo esasperato di Spengler, può essere utile ritornare a Humboldt e alla sua indubbia propensione a conferire un significato profondo alla diversità tra le lingue. Anche per Humboldt vale ovviamente la formula D > U; anche per Humboldt pare non esservi “un punto d’osservazione dall’alto del quale si possa cogliere il mondo”; anche per Humboldt uscire dal mondo di una lingua particolare è possibile solo collocandosi nella prospettiva, altrettanto particolare, di un’altra lingua (v. Di Cesare, 1991, pp. XLII e L). Ma se tali sono il predominio e l’incidenza profonda della diversità, “se la diversità giunge sino ai significati, sembra allora aprire l’abisso dell’incomprensione” (ibid., p. XLII). Come avremo modo di vedere, Humboldt pone immediatamente rimedio a questo esito di chiusura solipsistica delle lingue o delle culture su loro stesse. Ma vi è da chiedersi se lo scenario che affiora dalle pagine di Spengler non corrisponda abbastanza bene all’immagine delle società umane che scaturisce dalla stessa antropologia che sposa un relativismo non sufficientemente corretto nelle sue deviazioni etnocentriche. Se l”interno’ delle culture è denso di umanità, nel senso che solo all’interno delle culture prende forma l’umanità, il rischio è che lo spazio tra le culture divenga una sorta di terra di nessuno caratterizzata dall’incomunicabilità, dall’ignoranza e incomprensione reciproca, o peggio dal rifiuto, dal disprezzo, dall’esclusione, dalla sopraffazione, da tentativi di annientamento. Forme di umanità ‘differenti’ vengono avvertite come minacce, e in una situazione siffatta ogni cultura – portatrice di una forma di umanità peculiare, esclusiva – dovrebbe sentirsi giustificata nel suo atteggiamento di autoaffermazione o quantomeno di difesa, pena la sua soppressione, la sua perdita di identità.Il relativismo culturale, inizialmente tanto efficace nel porre in luce la varietà delle forme e delle soluzioni, e quindi nel togliere credibilità ai vari tipi di etnocentrismo (v. Etnocentrismo), rischia fortemente di tramutarsi in una sorta di avallo e di giustificazione di questo stesso atteggiamento. In una prospettiva tipicamente relativistica, nella quale non esistono istanze superiori oltre le varie culture particolari (ovvero le specifiche forme di umanità che in esse si incarnano), i passi che si compiono sembrano essere i seguenti: 1) riconoscimento della pluralità e delle differenze (criterio quantitativo); 2) attribuzione alle singole differenze di un peso specifico di umanità particolare (criterio qualitativo); 3) giustificazione dei sentimenti di lealtà verso i propri costumi e degli atteggiamenti di affermazione, rivendicazione, difesa della ‘propria’ forma di umanità. In questa visione l’etnocentrismo non appare più come una manifestazione condannabile; si configura invece come l’unica, vitale possibilità di affermazione della propria identità. Addirittura, l’etnocentrismo si presenta come la prova più irrefutabile di una verità generale (l’unica verità generale ammessa), quella secondo cui l’essenza dell’uomo coincide con la sua stessa diversità culturale. “Se vogliamo scoprire in che cosa consiste l’uomo – afferma Geertz (v., 1973; tr. itolleranza, p. 94, corsivo nostro) – possiamo trovarlo soltanto in ciò che gli uomini sono: e questi sono soprattutto differenti”. Un’umanità negata come unità sostanziale; al contrario, un’umanità differenziata, spezzettata, pluralizzata nei vari tipi o forme entro cui si realizza: è lo stesso esito cui era pervenuto Spengler. Se dentro a ognuna delle singole forme si concentra in modi diversi e peculiari l’umanità, è logico attendersi quantomeno un’affermazione di identità che è anche un’affermazione della ‘propria’ umanità. Ma se per ognuna di queste culture la ‘propria’ umanità è anche l”autentica’ umanità (realizzando anche qui un passaggio dalla quantità alla qualità), lo spazio esterno, quello delle altre culture, in quale altro modo potrà configurarsi se non come lo spazio della dis/umanità, di forme più o meno tollerabili di dis/umanità? Secondo Geertz, quando i Giavanesi affermano “Essere umani è essere giavanesi”, essi manifestano una consapevolezza che difficilmente è raggiunta dagli stessi antropologi (ibid., p. 95). “Altri campi, altre cavallette”, dicono ancora i Giavanesi, volendo con ciò significare che “essere umani non significa essere un qualsiasi uomo: vuol dire essere un particolare tipo di uomo, e naturalmente gli uomini sono diversi” (p. 96). Dunque anche i Giavanesi, a proposito dell’umanità, fanno coincidere ciò che è ‘proprio’ con ciò che è ‘autentico’, approdando anch’essi inevitabilmente alla definizione di forme di ‘dis/umanità’: all’interno della loro società, i bambini, gli zoticoni, i sempliciotti, i pazzi sono ndurung djava, “non ancora giavanesi”, e fuori della loro cultura il comportamento dei cinesi locali “è tenuto in gran spregio”.

 

Una catena di implicazioni – a partire dalla percezione della molteplicità di forme dell’umanità, fino all’affermazione della ‘propria’ umanità e lo ‘spregio’ o la negazione di quelle altrui – potrebbe descrivere efficacemente i tipi di scenari storici in cui i vari gruppi umani si dibattono tra reciproche tolleranze più o meno convinte e dichiarati atteggiamenti di sopraffazione. Per capire come il relativismo culturale abbia a che fare con tutto ciò, occorre distinguere tra il piano delle analisi e delle riflessioni antropologiche e il piano delle azioni e dei progetti sociali. Il relativismo – così come è stato presentato finora – è una prospettiva che attiene soprattutto al piano delle analisi e delle riflessioni: a essere – o a poter essere – relativisti sono gli antropologi, non le società che essi studiano. Le società non possono non essere etnocentriche; gli antropologi non possono che essere relativisti. E se sono relativisti che hanno compiuto i passi analizzati prima (dalla rilevazione delle differenze all’attribuzione a esse di un significato antropologico), gli antropologi o assumono un atteggiamento quasi di tipo moralistico-esortativo, affinché le società moderino il loro inevitabile etnocentrismo, oppure privilegiano un punto di vista più realistico, rischiando però di avallare con il loro stesso relativismo qualsiasi atteggiamento di separazione, di incomprensione e di esclusione, ovvero un atteggiamento che contrasta con l’accettazione e la valorizzazione della molteplicità che sembrano essere alla base del relativismo. In questo modo il relativismo rischia di coltivare nel suo oggetto la sua stessa negazione: le società e i loro comportamenti sono una costante e pesante smentita del relativismo e della sua aspirazione al riconoscimento e alla valorizzazione della molteplicità.

 

È mai possibile comprendere questa specie di controfinalità? Riteniamo che, quando dalla rilevazione della molteplicità si passa all’attribuzione di significati interni ai singoli universi culturali, ciò che prevale nettamente nei relativisti è una concezione ‘chiusa’ delle culture o delle società, come se davvero le società o le culture fossero universi in cui si decide tutto, in cui si elaborano tutte le risposte (ancorché particolari) di cui gli uomini hanno bisogno. Sarà una versione ‘volgare’ del pensiero di Ludwig Wittgenstein quella secondo cui ci si immagina “un’umanità divisa in isole culturali chiuse e incomunicanti, dotate ognuna dei propri criteri di razionalità non criticabili dall’esterno” (v. Dei e Simonicca, 1990, p. 35); ma è indubbio che la nozione wittgensteiniana di ‘forme di vita’ – così ampiamente utilizzata da Peter Winch e che secondo lo stesso Wittgenstein dobbiamo accettare come “il dato” (v. Wittgenstein, 1953; tr. itolleranza, p. 295) – spinge a immaginare mondi chiusi e in qualche modo autosufficienti e autoesplicativi. Che il carattere ‘chiuso’ dei mondi culturali sia un tratto che ritorna con preoccupante insistenza si può osservare proprio quando i pensatori maggiormente interessati a difendere il relativismo passano dalla considerazione di società tradizionali o premoderne alla considerazione della società moderna e, soprattutto, della scienza o delle comunità scientifiche. Agevolati in ciò dalle riflessioni di Thomas Kuhn sull’importanza decisiva dei ‘paradigmi’ e dalla possibilità di avvicinare la nozione di ‘paradigma’ a quelle di ‘modelli’ o tradizioni culturali (v. Barnes, 1969), confortati inoltre dall’invito rivolto da Paul Feyerabend a studiare le comunità scientifiche allo stesso modo con cui gli antropologi indagano una qualsiasi tribù primitiva, questo tipo di relativisti ha osato affermare che “le più valide comunità accademiche non sono più grandi della maggior parte dei villaggi di contadini e pressappoco altrettanto chiuse” (v. Geertz, 1983; tr. itolleranza, p. 199, corsivo nostro). Con questa specie di ‘primitivizzazione’ della società moderna si ottiene l’effetto di estendere anche all’area della modernità il modello della ‘chiusura’, smentendo l’ideologia dell”apertura’ con cui il pensiero della modernità, specialmente in campo scientifico, si è da sempre presentato. Ma la questione più importante non riguarda tanto, o soltanto, l’estensione alla modernità di caratteri tradizionalmente attribuiti alla premodernità, bensì – e prima di tutto – la liceità di una visione ‘chiusa’ delle società umane (premoderne o moderne che siano).

 

È indubbio che il nocciolo dell’acceso dibattito sul relativismo – quale si è sviluppato negli ultimi decenni – coincide con la posizione della scienza moderna: da una parte i relativisti (reclutati tra antropologi, sociologi e filosofi della scienza) disposti a trascinare la scienza moderna in un novero di saperi locali e plurali, alternativi e difficilmente comunicabili; dall’altra coloro che invece scorgono in questa avventura un’abdicazione irrazionalistica. Karl Popper, ispiratore di questo secondo schieramento, non ha esitazioni ad appaiare relativismo e irrazionalismo come “deviazioni intellettuali” (v. Popper, 1969; tr. itolleranza, p. 636). Sono soprattutto i popperiani a scorgere nel relativismo un pericoloso “fantasma che ossessiona il pensiero umano” (v. Gellner, 1982, p. 181), schierandosi a difesa della scienza moderna. Con mossa indubbiamente astuta Gellner concede molto volentieri ai relativisti il principio della “diversità, della non universalità dell’uomo” (ibid.), in quanto da questo principio fa dipendere l’idea dell”unicità del mondo’, anzi di ‘questo’ mondo, quello dominato dalla scienza moderna, dalla sua specifica ‘tradizione epistemologica’ e dal suo “miracoloso successo”, un mondo creato abbattendo “tutti i sistemi di credenze circolari e autoconvalidantesi”, sostituendoli invece con un “sapere cumulativo e comunicabile” (p. 189). Questo è anche il mondo tecnologico ed economico in cui coabitano diverse culture, le quali pur in competizione tra loro non trovano particolari difficoltà a comunicare. Ma questo “Unico Mondo” e questa “Unica Verità” non comportano affatto un’uniformità antropologica, un “Unico Uomo”, perché questo mondo è stato prodotto da “una tradizione tra molte”, una tradizione che è prevalsa sulle altre e che ha fornito una prospettiva mediante cui indagare tutte le altre tradizioni, le altre visioni del mondo (p. 191). In questo modo – sostiene Gellner – “noi abbiamo sconfitto il relativismo”, il quale dunque appare come una prospettiva reale sì, ma storicamente superata, adatta a quel lungo periodo della storia dell’umanità in cui prevalevano i sistemi di ‘credenze’ autoconvalidantisi (mitologia, cosmologia, metafisica), mediante cui più facilmente si può sbrigliare la fantasia degli uomini: in quel periodo gli uomini si differenziavano culturalmente grazie alle loro ‘credenze’ e ai loro ‘miti’ (le credenze o i miti dividono; la verità al contrario unifica). C’è quindi “una radicale discontinuità nella storia”, in quanto “la visione o lo stile cognitivo corretto appare soltanto in un punto definito nel tempo”, e questo non è frutto di un’umanità generica e uniforme, ma soltanto di “un particolare stile di pensiero, che non è affatto universale tra gli uomini, ma culturalmente specifico”, avente “specifiche radici socio-storiche” (pp. 191 e 200). Il fatto che questo mondo unificato sia disponibile e accessibile a tutti gli uomini, non toglie che esso sia stato costruito da “un tipo [particolare] di uomo”, culturalmente e storicamente determinato.

 

Se per il primo schieramento – quello dei relativisti – tutti i mondi culturali (compresa la scienza moderna) sono chiusi e il relativismo appare dunque una prospettiva che ingloba anche la modernità, per il secondo schieramento – quello dei difensori della scienza e della modernità – la molteplicità di mondi chiusi, sostanzialmente incomunicabili, e il connesso relativismo appartengono a un passato ormai superato, sconfitti dall’unica ‘società aperta’, quella della scienza moderna. L’alternativa entro cui dovremmo scegliere sarebbe dunque tra un relativismo invincibile e onnipervadente e un relativismo che invece arretra di fronte all’apertura progressiva della modernità; tra una visione in cui tutti i mondi, compresa la modernità, sono chiusi e una visione per la quale tutti i mondi tradizionali sono chiusi, eccetto la modernità. Le due alternative hanno questo in comune: di considerare la chiusura come un fatto normale e tradizionale per le società; si distinguono invece per il fatto che la prima estende a tutte il carattere della chiusura, mentre la seconda ritiene che l’apertura sia caratteristica di una sola società.È però proprio vero che le società sono normalmente e tradizionalmente chiuse? Che nel chiuso di ogni singola cultura si decide il senso e la forma dell’umanità, addebitando agli ‘altri’ i vari gradi e forme di dis/umanità? Non può essere che l’antropologia, insieme alle altre scienze sociali, sia rimasta vittima di questa impostazione e non si sia attrezzata in maniera sufficiente per cogliere i fenomeni di apertura che potrebbero caratterizzare tanto le società moderne, quanto le società definite tradizionali? Abbiamo visto come in Humboldt l’approfondimento della diversità (una diversità non di segni e di suoni, ma di significati) comportasse il rischio dell”ncomprensione’ reciproca tra le lingue; ma l’antropologia humboldtiana apporta correttivi assai importanti. Tra questi la relatività del concetto di diversità, in base alla quale ci si chiede dove possano essere tracciati confini sicuri e indiscutibili di differenziazione linguistica entro i due estremi della lingua del singolo individuo e quella del genere umano (v. Di Cesare, 1991, p. XLIII). Tutto ciò corrisponde alle riflessioni critiche che di recente impegnano l’antropologia sul carattere ‘relativo’ (sempre un po’ arbitrario, costruito, imposto) dei confini di società e culture. In fondo, il vecchio relativismo culturale ha avuto il torto di accettare il carattere ‘assoluto’ (non relativo) dei confini, trattando le società come se fossero entità naturali (v. Leach, 1989). Su questo punto, occorre spingere più avanti il relativismo, ponendo in luce come i confini di differenziazione siano funzione non soltanto del punto di vista del ricercatore (v. Lévi-Strauss, 1958; tr. it. Tolleranza, pp. 328-329), ma anche delle scelte degli attori sociali, i quali creano e ricreano ‘noi’ più o meno inclusivi. I confini, relativi alle scelte, si spostano, e le società corrispondentemente si ampliano o si restringono. Inoltre, entro i confini variabili e relativi di un qualsiasi ‘noi’, esistono “nessi aperti”, la cui organizzazione “né chiusa né definitiva” può essere sempre modificata: come afferma Humboldt a proposito della lingua, abbiamo qui a che fare con un’attività che è sempre di “trasformazione” (v. Di Cesare, 1991, pp. LI e LXI).

 

Questa costante trasformazione, unitamente all’idea dei confini relativi, induce a pensare lingue, società e culture non come entità date, ma come processi in cui da subito è coinvolta, in vario modo e misura, l’alterità. E così l’idea che nelle singole culture prende forma l’umanità non viene affatto abbandonata; ma si aggiunge che, anziché avere luogo nel ‘chiuso’ di una cultura, questo processo si verifica preferibilmente nel ‘dialogo’ (non importa quanto ampio o ristretto, e quanto pacifico o conflittuale) ‘tra’ culture differenti. Sono le stesse società molto sovente a esigere il contatto con gli ‘altri’ per questioni di vitale importanza, a provocare quindi l”apertura’ verso l’alterità e lo scambio interculturale: i confini, proprio perché sono posti, sono fatti anche per essere travalicati. Per riprodursi le società praticano spesso un’esogamia che le porta a cercare donne presso i loro ‘nemici’ (i Mae Enga della Nuova Guinea); per generare socialmente individui che riproducano la forma di umanità di una società particolare (i Konjo dell’Uganda) ci si rivolge a ritualisti stranieri (Amba); per garantire la continuità nel tempo della discendenza si cerca la morte tra gli altri, finendo grazie al cannibalismo nel loro ventre (Tupinamba del Brasile); per togliere il male, ovvero la ‘stregoneria’ che pure nasce ‘all’interno’ del ‘noi’ (i Lese dello Zaire), si fa ricorso addirittura a una forma diversa e ‘inferiore’ di umanità (i pigmei Efe). È normale per molte società (per esempio in Africa) relativizzare i propri spiriti e le proprie divinità, assumendo nei loro confronti un atteggiamento critico e ponendovi accanto divinità e tradizioni che provengono da un altrove anche molto lontano (cristianesimo, islamismo) come, del resto, è avvenuto nei numerosi casi di sincretismo religioso tipici del politeismo romano, nel quale vennero accolte in modo consapevole divinità di provenienza greca, iranica, semitica, etrusca, ecc. Risulta fondamentale infine per la definizione del nostro ‘noi’, per l’identità stessa della nostra civiltà, addentrarsi con l’antropologia nella molteplicità e apprezzare la diversità culturale.Il fatto è che per una sorta di diffuso errore antropologico abbiamo immaginato che nel ‘chiuso’ delle culture fossero contenute le ‘risposte’ a tutti i ‘bisogni’, primari e secondari (Malinowski), che contraddistinguono l’esistenza umana. Non ci si è accorti in tal modo che le culture non sono soltanto portatrici di risposte: anche con le loro risposte esse suscitano dubbi e perplessità, formulano domande, pongono problemi, per affrontare i quali non solo le società moderne, ma un po’ tutte le società umane sono costrette a ‘relativizzare’ se stesse, i loro principî, i loro presupposti, barcamenandosi in tal modo tra un atteggiamento di antirelativismo (v. cap. 1), corrispondente a un’esigenza di definizione del ‘noi’, di identità, di ‘chiusura’, e un atteggiamento opposto, che si potrebbe ricondurre alle ragioni del relativismo, corrispondente all’esigenza della ricerca, dell’esplorazione delle possibilità in un qualche altrove, dell”apertura’ verso l’alterità. È in definitiva questa attribuzione di relativismo alle stesse società umane ciò che consente di scorgere aperture e connessioni (non soltanto chiusure ed etnocentrismi) tanto nel mondo moderno quanto più in generale nel mondo umano e, nello stesso tempo, di superare le aporie di un relativismo come prospettiva riservata agli intellettuali occidentali, programmaticamente ‘aperta’ alla molteplicità e tuttavia troppo a lungo convinta del carattere ‘chiuso’ e ‘incomunicabile’ delle altre culture umane.

 

Pubblicato in Uncategorized | Lascia un commento

La questione morale

C’è un grave equivoco che gira per l’aria. Esso consiste nella credenza che la questione morale verta fatti gravi e dannosi per l’erario pubblico. Penso ai grandi evasori, all’esportazione illecita di capitali, a certi abusi edilizi deturpanti il paesaggio…. Niente di più sbagliato. La questione morale comincia dalle piccole cose, dai piccoli abusi edilizi, dai pagamenti tardivi, come quelli che hanno “incastrato” il ministro delle pari opportunità Josepha Idem.

 

Il ministro per le pari opportunità Josepha Idem, nella conferenza stampa a Palazzo Chigi, si è scusata per le irregolarità fiscali, ma non ha fatto cenno ad eventuali dimissioni dall’incarico di governo. Ho dato poi la parola al suo legale per i chiarimenti sulla vicenda che la riguarda.

 

“Le parole a volte sono pietre e sono state scagliate contro di me con inaudità brutalità e violenza” ha detto il ministro Idem. “Ho delegato tutte le mie questioni fiscali ed edili. Vi sono state irregolarità e ritardi: me ne scuso pubblicamente, me ne assumo le responsabilità e sanerò ciò che sarà da sanare. Non sono infallibile. Ho delegato tutte le funzioni amministrative e edili a professionisti, dando un’indicazione chiara: voglio che tutto sia fatto nel rispetto delle regole. In Germania – ha detto il ministro – nessuno si sarebbe dimesso per una cosa simile. Intendo continuare per non tradire la fiducia delle persone che contano sul mio contributo”: lo ha detto il ministro per le Pari opportunità Josefa Idem durante la conferenza stampa a Palazzo Chigi. Il ministro ha ammesso che ci sono tante persone che hanno chiesto le sue dimissioni, ma tantissime altre, ha fatto notare, le hanno chiesto di rimanere

 

Il ministro ha dato poi la parola al suo legale per i chiarimenti sulla vicenda che la riguarda. “Non è vero – ha detto l’avvocato – che il ministro Idem non ha pagato Ici e Imu”. Per le questioni relative a presunti abusi edilizi “non c’é alcun reato” ha assicurato l’avvocato del ministro, Luca Di Raimondo. “La contestazione è stata mossa il 17 giugno e il ministro ha pagato la sanzione il giorno successivo” ha spiegato aggiungendo che, comunque, si trattava solo di “irregolarità” di carattere amministrativo. Quanto alla questione relativa a Ici e Imu, “non è vero che non sono state pagate”. ” Non è vero che è stata fatta una dichiarazione falsa: il 4 febbraio, entro il termine di legge del 28 febbraio valido per qualsiasi contribuente, è stata dichiarata quale fosse la dimora familiare. Il pagamento con ravvedimento operoso è previsto dalla legge, ma è stato letto come un’iniziativa volta a correre ai ripari in maniera tardiva”.

 

Il fatto grave è che il ministro delle pari opportunità, come dimostrano le sue parole, non sembra rendersi conto di questo e ribatte ai suoi critici dicendo che è una persona onesta. Così facendo ella dimostra di non differire dalla massa degli italiani che sono ben rappresentati dal ministro delle pari opportunità e che si indignano di fronte alle laute prebende dei nostri politici, ma che glissano di fronte ai regalini che normalmente si fanno per ungere qualche maniglia che serve per aprire delle porte che altrimenti non si aprirebbero.

 

 

Etica, in senso ampio, è quel ramo della filosofia che si occupa di qualsiasi forma di comportamento (gr. ἦθος) umano, politico, giuridico o morale; in senso stretto, invece, l’e. va distinta sia dalla politica sia dal diritto, in quanto ramo della filosofia che si occupa più specificamente della sfera delle azioni buone o cattive e non già di quelle giuridicamente permesse o proibite o di quelle politicamente più adeguate.

 

 

I filosofi nelle loro dottrine etiche hanno avuto di mira due differenti obiettivi, spesso ricercati congiuntamente. Da una parte si sono proposti di raccomandare nella forma più articolata e argomentata l’insieme di valori ritenuti più adeguati al comportamento morale dell’uomo; dall’altra hanno mirato a una conoscenza puramente speculativa del comportamento morale dell’uomo, badando non tanto a prescrivere fini, quanto a ricostruire i moventi, gli usi linguistici, i ragionamenti che sono rintracciabili nel comportamento etico. Nel 20° sec. è invalso l’uso di distinguere nettamente tra questi due indirizzi nella riflessione sulla morale, caratterizzando come e. una filosofia prevalentemente pratica, impegnata in difesa di determinati valori, e come metaetica una filosofia con pretese esclusivamente teoretiche e conoscitive, rivolta a ricostruire la logica e il significato delle nozioni in uso nella morale.

 

Alle origini dell’etica greca troviamo nei poemi omerici l’affermazione della superiorità di virtù, quali il coraggio e la pietà verso gli dei, adeguate alla vita del guerriero. In risposta alle esigenze di una società contadina troviamo invece, nelle opere di Esiodo, la prevalenza di virtù come l’operosità e la frugalità. Ai sette savi si fanno poi risalire una serie di massime in cui il bene morale viene legato alla ricerca personale di saggezza. Particolarmente vivace fu nella cultura ateniese del 5° sec. a.C. il dibattito sui fini della condotta umana. I sofisti sottolinearono l’origine umana e non divina dei valori, riconducibili all’imposizione o dello Stato o di gruppi di cittadini più forti, e, in contrasto con l’opinione più diffusa, sostennero la tesi dell’insegnabilità della virtù, impegnandosi a elaborare particolari tecniche retoriche volte a ottenere la persuasione a proposito della superiorità di determinati valori.

 

La ricerca sulla nozione di bene va considerata al centro dell’attività filosofica di Socrate, al quale si fa risalire il primo tentativo di definire la natura propria della virtù, mettendone in luce la non riducibilità alle mutevoli nozioni del bene: l’universale è essenzialmente l’universale etico, e cioè propriamente i concetti con cui si regolano e giudicano le azioni. Tra i socratici, chi meglio capì l’insegnamento del maestro fu Platone, per il quale il problema morale restò al centro della filosofia. Ma il concetto socratico trapassò nell’‘idea’, divenendo forma non più soltanto del mondo umano ma anche di quello naturale; e così l’unità del teorico e del pratico si ruppe. La frattura assunse forma sistematica nella concezione psicologica che contrapponeva, nell’anima, la parte razionale, sede della conoscenza, a quella irrazionale, sede degli affetti. Dall’accentuazione di uno dei termini dell’antitesi nacque il ripiegamento platonico sull’antica escatologia orfico-pitagorica, negatrice della vita presente per una vita oltremondana; la vita divenne distacco progressivo dal corpo dell’esule anima immortale, che nell’iperuranio aveva già contemplato le idee e ora, ricordandosene, aspirava a ritornarvi.

 

L’ampia trattazione etica di Aristotele (al quale si deve l’introduzione del termine e.) fu rivolta a fondare il bene non tanto su un’idea di perfezione assoluta, quanto piuttosto su una definizione della natura essenziale dell’uomo. Fine supremo della condotta umana è la felicità (eudemonismo ), che potrà essere raggiunta adeguando il comportamento alle esigenze proprie della natura umana. Una volta colto il carattere essenzialmente razionale dell’uomo, la felicità è fatta consistere nella vita secondo ragione. È solo con il prevalere delle facoltà razionali e con la realizzazione delle virtù dianoetiche (sapienza, scienza, intelligenza, arte, saggezza) che l’uomo può essere felice. Anche laddove sono gli impulsi sensibili a determinare le scelte è però possibile indicare una forma di comportamento virtuoso: avremo le diverse virtù etiche (coraggio, temperanza, liberalità, mansuetudine) che consistono nel dominare gli impulsi sensibili secondo un criterio del ‘giusto mezzo’ che esclude gli estremi viziosi.

 

Anche nell’etica post-aristotelica resta ferma la tendenza a identificare il bene supremo nel raggiungimento della felicità. L’edonismo di Epicuro fu anzitutto esigenza di liberazione dell’uomo dal timore di superiori fini, o volontà, che dominassero il mondo: l’uomo restava pienamente libero, slegato dalle cose, e il piacere consisteva in una tranquilla calma dell’animo, pago di sé e non indotto a uscire da sé per occuparsi del mondo. Questo ascetismo edonistico degli epicurei finiva così per coincidere, nel suo ideale di ‘atarassia’, con l’ideale di ‘apatia’ e di ‘indifferenza’ proprio dell’ascetismo rigoristico dei cinici, che nelle sue premesse teoriche e storiche gli era invece antitetico. Il cinismo assicurava all’uomo la più completa libertà che mai esso avesse potuto desiderare, ma insieme, affrancandolo da ogni motivo d’azione, gliela rendeva perfettamente inutile. Alla concezione cinica dell’io reagì lo stoicismo, pur nell’accettazione dell’ideale dell’autarchia e dell’indifferenza, in quanto vide nel mondo stesso il divino e nell’accadere il realizzarsi di un fato razionale, che nulla poteva alterare e di fronte a cui non restava se non la virtù dell’accettazione. Col neoplatonismo si ebbe una ripresa di motivi tipici dell’e. platonica ma con un’accentuata impronta mistica, che trasfigurava la dottrina delle virtù in funzione dell’ascesi e della ricongiunzione con Dio.

 

Su una concezione religiosa totalmente nuova si fonda l’e. cristiana: essa è dominata dall’idea, predicata da Gesù di Nazaret, dell’ineffabile paternità di Dio innanzi al quale gli uomini sono tutti uguali e tutti fratelli. La regola di condotta evangelica, proprio perché esemplata sulla perfezione divina, si traduce in comandamento d’amore per gli altri; cade ogni distinzione etnica e sociale e l’incondizionato amore per il fratello, anche se nemico e peccatore, è il sommo comandamento. L’e. cristiana è un operoso donare sé stessi, senza nulla chiedere in cambio, solo in vista dell’attuazione del Regno che è sì dono di Dio, ma insieme meta cui l’uomo deve tendere. Inserita in un messaggio di universale riscatto, l’e. cristiana scopre una nuova dignità dell’uomo, chiama gli umili, gli incolti, i peccatori al più grande ideale di perfezione morale, rivela il senso del dolore e dell’amore, e pone a fondamento della nuova e. l’esempio del Cristo, il Figlio di Dio fatto uomo che, incarnandosi e morendo in croce, riscattò gli uomini donando loro «il potere di diventare figli di Dio» (Giov. 1, 12).

 

Inserendosi nella tradizione e nella civiltà del mondo mediterraneo, il cristianesimo doveva necessariamente misurarsi con la cultura greca e, mentre rivendicava la propria assoluta originalità, ne veniva assorbendo motivi essenziali per trasformarli e adeguarli alla nuova concezione della vita e del mondo. Così nei Padri greci e in Agostino il richiamo all’interiorità e alla trascendenza, pur esprimendosi nei termini del linguaggio platonico, assume un significato nuovo: nell’‘uomo interiore’ il cristianesimo scopre non il ricordo di una forma immutabile, ma l’immagine stessa di Dio, presente a ciascuno con la luce dell’intelletto e della grazia.

 

Nell’Umanesimo e nel Rinascimento l’accentuarsi degli interessi ‘civili’, la polemica contro aspetti della spiritualità medievale (l’ascetismo in particolare), la rivendicazione di un fare politico autonomo rispetto alla legge morale, il ritorno ai filosofi antichi, riportano al centro delle discussioni sull’uomo e sul suo comportamento temi dell’e. classica. Si ricordi l’esaltazione della virtus come attività puramente umana e civile, che accetta i limiti terreni e si distacca da ogni preoccupazione metafisica: l’affermazione di questa virtus è alla base di ogni celebrazione umanistica della dignitas hominis, e trova il suo massimo riconoscimento in N. Machiavelli; e si ricordi ancora la fortuna dell’edonismo epicureo, da L. Valla ai libertini del Cinquecento e Seicento.

 

La ricerca del piacere e della propria conservazione torna in T. Hobbes, che ne fa l’impulso più forte nella natura umana: gli obblighi morali non riconducibili alla tendenza individuale al piacere sono il risultato delle imposizioni della forza statuale che mira, attraverso queste norme, alla conservazione della pace sociale. Contro la dottrina hobbesiana reagirono gli esponenti della scuola neoplatonica di Cambridge e R. Cumberland, il quale poneva al fondo della vita etica una ricerca del bene comune suffragata da sanzioni divine. La tendenza alla propria conservazione veniva posta al centro dell’e. anche da B. Spinoza, per il quale le valutazioni umane che non riconoscono e accettano l’ordine razionale necessario del mondo sono insignificanti e l’uomo virtuoso deve proporsi di dominare le passioni e seguire la ragione.

 

Nella filosofia inglese del 18° sec. a porsi in primo piano è piuttosto la questione dell’identificazione del criterio o facoltà che permette agli uomini di distinguere tra vizio e virtù. Già in A. Shaftesbury il recupero dell’e. stoica e l’affermazione, in contrasto con l’e. ‘egoistica’ di Hobbes, della presenza nella natura umana di un ‘senso morale’ si congiungono con il riconoscimento che il comportamento virtuoso deriva da una benevolenza universale. La tesi di una radice sentimentale delle distinzioni morali verrà ripresa da F. Hutcheson, D. Hume e A. Smith, i quali riterranno di potere provare la presenza nella natura umana di un’inclinazione alla benevolenza. Su questa base il comportamento virtuoso risulta quello che ha di mira non tanto la felicità individuale quanto una più intensa felicità del maggiore numero di persone cointeressate.

 

Un fondamento razionale alle distinzioni etiche daranno invece autori come S. Clarke e W. Wollanston. Non diversamente procederà J. Butler che recupererà, per denominare la facoltà in gioco nel comportamento morale, il termine di coscienza. Più interessati all’identificazione dei valori etici saranno gli esponenti dell’Illuminismo francese, che contro qualsiasi e. spiritualistica faranno valere una ricerca attiva del piacere e un comportamento che adatti l’individuo alla vita sociale. Un analogo rifiuto della morale tradizionale si trova in J.-J. Rousseau, che contro l’e. razionale dell’amor proprio auspica una morale liberatoria fondata sui sentimenti naturali e sulla compassione.

 

In polemica con l’e. utilitaristica, per I. Kant realtà morale può esserci solo quando la volontà sia determinata da un imperativo categorico, e cioè voluto assolutamente e di per sé, senza alcun riguardo ad altri fini. Questa autonomia e assolutezza della legge morale è, per Kant, il segno della sua universalità, del suo carattere a priori. Dall’apriorismo e dal rigorismo, che veniva a porre l’uomo in perenne conflitto con le passioni, nascono le più gravi difficoltà dell’e. kantiana, che Kant stesso cercò di superare postulando l’esistenza di un’altra vita e di Dio come principio del sommo bene, nel quale virtù e felicità, in terra perennemente dissociate, venissero a coincidere. La filosofia post-kantiana approfondisce questi problemi, ora accentuando il concetto di autonomia della morale, ora tornando a un’idea oggettivistica dell’e.: così nell’idealismo etico di J.G. Fichte trova pieno sviluppo il concetto kantiano di libertà, ponendo come suprema norma etica l’obbedienza alla pura convinzione razionale della propria coscienza, mentre G.W.F. Hegel vede il superamento della moralità individuale nell’eticità (Sittlichkeit) che lo Stato incarna e alla quale il soggetto deve sottostare se vuole elevarsi sopra la sua singolarità. L’eticità in Hegel designa dunque quel complesso di istituzioni umane (famiglia, società civile, Stato) in cui la libertà si realizza oggettivandosi, ossia passa gradualmente dalla sua astratta espressione individualistica alla universalità concreta.

 

In polemica contro alcune tesi centrali dell’e. idealistica, S. Kierkegaard sostiene l’irriducibile individualità della scelta etica, contrapponendo poi la sfera della vita morale, caratterizzata dalla continuità e dall’impegno per l’universalità, alla vita estetica, dominata dal caso, e alla vita religiosa, come ‘scandalo’ e superamento della dimensione della società. In senso anti-hegeliano A. Schopenhauer presenta una morale in netta antitesi con la storia e la società: fine della condotta etica non è l’integrazione nella tradizione, ma piuttosto la negazione completa dei bisogni naturali fino all’annullamento di ogni desiderio e al più completo ascetismo. In F. Nietzsche contro i valori, accettati dall’e. cristiana e socialista dell’altruismo, del livellamento, della sottomissione, si propone una scelta ‘immoralistica’ in nome della volontà di potenza, dell’autoaffermazione e della completa liberazione degli istinti.

 

Di natura completamente diversa è lo sviluppo della riflessione sull’e. nella cultura inglese, in cui prevale l’accettazione del principio utilitaristico che vede la condotta morale nella realizzazione della maggiore felicità per il maggiore numero di persone. All’interno dell’e. utilitaristica del 19° sec. si tenterà principalmente di determinare con maggiore precisione il calcolo dei piaceri richiesto dall’applicazione del principio dell’utilitarismo. Così, mentre con J. Bentham aveva prevalso una concezione puramente quantitativa, con J.S. Mill i piaceri vengono distinti non solo per la loro intensità ed estensione, ma anche per la loro qualità.

 

Alla seconda metà del 19° sec. risale il tentativo di H. Spencer di utilizzare il modello evoluzionistico per rendere conto della condotta morale degli uomini. L’insieme dei valori etici è visto come uno strumento adottato dagli uomini nel tentativo di adattarsi sempre meglio alle condizioni vitali e la stessa coscienza del dovere morale non è altro che il residuo nell’individuo dell’esperienza acquisita dalla specie in questo processo. Nella cultura francese, l’approccio positivistico allo studio delle scienze morali portò A. Comte a concludere che la condotta morale è quella che tende all’utilità pubblica, che il sentimento dell’eticità è quello della solidarietà e che lo strumento per un’educazione morale è la sociologia.

 

Nella riflessione filosofica del 20° sec. l’obiettivo di proporre una ben precisa tavola di valori passa in secondo piano, rispetto al tentativo di caratterizzare le condizioni proprie dell’esperienza morale. L’eredità di Comte fu al centro dell’opera di E. Durkheim, in cui l’e. si presenta come ‘scienza dei costumi’, mentre l’inservibilità dei metodi delle scienze fisico-matematiche nello studio dei fenomeni morali fu affermata da W. Windelband, H. Rickert e M. Weber. H. Bergson distingue tra due diverse forme di morale, quella chiusa, volta al mantenimento delle abitudini che permettono la conservazione della società, e quella aperta caratterizzata dall’entusiasmo creativo dei grandi innovatori quali i profeti e i santi. Nell’opera di M. Scheler si ha una rigorosa applicazione del metodo fenomenologico all’ambito della morale con l’affermazione dell’esistenza di un’intuizione emotiva a fondamento di ogni scelta etica. Anche per N. Hartmann nella vita etica è in gioco un peculiare tipo di sentimento assiologico che permette di cogliere direttamente gli ideali morali.

 

A ricostruire la genesi psicologica della morale sono rivolte alcune analisi di S. Freud: i valori morali sono visti come l’interiorizzazione da parte dell’individuo di regole repressive degli istinti e delle pulsioni; d’altro canto, il processo di sublimazione da cui nasce la condotta morale individuale rappresenta un elemento essenziale per la genesi della ‘civiltà’. Uno stretto collegamento tra vita etica e scelta viene affermato dagli esponenti dell’esistenzialismo; una scelta aperta verso il recupero dei valori cristiani in alcuni esponenti dell’esistenzialismo religioso, come G. Marcel, o verso un concreto impegno etico-politico in esponenti dell’esistenzialismo ateo, come J.-P. Sartre. Alla presentazione di una teoria naturalistica dell’e. si sono indirizzati gli esponenti del pragmatismo americano. In particolare, secondo J. Dewey, l’e. è caratterizzata da una serie di progetti in vista di una più armonica integrazione dell’uomo nella natura.

 

In ambito anglosassone, il discorso etico di G.E. Moore, basato sull’intuitività e l’oggettività dei giudizi morali, è stato messo in discussione dalla critica neopositivistica, rappresentata soprattutto da A.J. Ayer. Secondo Ayer il linguaggio etico non è riducibile in schemi logici, in quanto non si rintracciano in esso né proposizioni puramente logiche né proposizioni fattuali: esso è dunque linguaggio che convoglia emozioni puramente soggettive. Di fronte all’impossibilità di ricomprendere nell’ambito della filosofia neopositivistica qualsiasi discorso di tipo non strettamente scientifico, quello etico in particolare, si è tentato, soprattutto in Inghilterra, nel periodo immediatamente seguente alla Seconda guerra mondiale, il recupero del linguaggio etico alla dimensione del linguaggio significante, mettendo a punto una serie di tecniche analitiche che assumono come base di partenza il linguaggio comune. Così, C. Stevenson interpreta il discorso etico secondo un duplice aspetto: da un lato come discorso apprezzativo-persuasorio, e dall’altro come discorso riducibile all’indicativo, cioè informativo-dichiarativo. S.E. Toulmin, considerando invece il linguaggio morale riferito al contesto sociale, come espressione di bisogni e di soddisfazioni, propone una logica autonoma e particolare del discorso etico. R.M. Hare giunge a proporre la nozione di linguaggio prescrittivo universalizzabile al cui interno, accanto alle stesse regole formali che garantiscono in altri tipi di discorso la non contraddittorietà, operano anche regole empiriche per un controllo fattuale di certi giudizi. In armonia con l’impostazione generale della filosofia oxoniense, questo tipo di ricerche risulta applicazione al discorso etico di una concezione del linguaggio che, abbandonate le posizioni neopositivistiche, si riallaccia strettamente alle concezioni di L.J. Wittgenstein nel suo ultimo periodo.

 

Dopo la lunga stagione in cui si è ritenuto che la riflessione filosofica di tipo etico dovesse limitarsi all’analisi del linguaggio morale, l’ultimo trentennio del 20º sec. ha visto una svolta radicale verso concezioni di tipo normativo, che intendono cioè affermare la natura prescrittiva e oggettiva delle richieste della morale. Il nucleo comune di questo orientamento sta nel concepire l’e. come una teoria che risponde a questioni pubbliche, legate alla tematica della giustizia o dell’accettabilità delle istituzioni politiche da un punto di vista morale. L’opera che ha inaugurato questa fase è A theory of justice (1971) dove J. Rawls propone una particolare forma di neocontrattualismo che ha egemonizzato la discussione teorica degli anni 1970 e 1980. La svolta teorica di Rawls consiste nel mettere da parte l’insieme di questioni che avevano caratterizzato la fase metaetica. La vita morale in quanto tale va caratterizzata per Rawls secondo una prospettiva deontologica, che ha a che fare con l’esposizione di alcuni principi in grado di suggerire una soluzione adeguata alle principali questioni di giustizia che si devono affrontare nella sfera pubblica. Due sono i principi al centro della teoria della giustizia: il principio di salvaguardia della libertà e dell’autonomia di ciascun individuo e il principio di ‘differenza’ o equità, secondo cui oneri, premi e limitazioni possono essere accettati sul piano sociale solo se rivolti a migliorare le condizioni dei più svantaggiati, e dunque a rendere più eque le istituzioni che governano la vita associata. Ulteriori e successive aggiunte di Rawls specificavano: l’indicazione di un ordine ‘lessicale’ tra i principi di giustizia, ossia un ordine che vincola e subordina il principio di differenza al principio di libertà; l’enunciazione della regola del maximin, ossia il criterio per cui in situazioni di incertezza bisognerà sempre privilegiare l’esito meno negativo per coloro che si trovano nelle condizioni peggiori; la tesi della completa neutralità delle istituzioni politiche e delle loro regole ispiratrici rispetto alle diverse concezioni della vita buona.

 

Numerosi sono stati i tentativi di elaborare concezioni alternative a quella di Rawls. R. Nozick ha proposto una teoria etica delle istituzioni pubbliche che ritiene necessario evitare qualsiasi ingerenza statale nella sfera dell’autonomia individuale. Una serie di pensatori contesta poi le premesse individualistiche e per così dire liberali della teoria morale di Rawls. Questa contestazione si spinge più o meno in profondità, dando talvolta luogo a prospettive alternative, come nel caso, per es., della cosiddetta e. comunitaria . Influenti esponenti del comunitarismo, quali A. C. MacIntyre e C. Taylor, hanno contrapposto a Rawls una prospettiva che mette al centro dell’e. non tanto la giustizia quanto l’idea di bene. Altri pensatori si sono impegnati in una riformulazione dell’e. utilitaristica. J.C. Harsányi ha conciliato utilitarismo e teoria della scelta razionale, mettendo al centro del calcolo non più stati d’animo come il piacere o il dolore, ma le preferenze personali. J.J.C. Smart ha cercato di riproporre un utilitarismo edonistico e dell’atto, rivisitandone criticamente i fondamenti. Ancor più marcato è lo sforzo con cui R. M. Hare si è impegnato a rielaborare l’utilitarismo in una forma di moralità maggiormente in grado di soddisfare il requisito di autonomia dell’e. e la sua natura logica in quanto insieme di prescrizioni universalizzabili. Infine, R. B. Brandt ha sviluppato la dottrina utilitaristica in una prospettiva volta a caratterizzare la moralità come qualcosa che verrebbe accettato da uno spettatore ideale pienamente informato, suggerendo che l’utilitarismo è l’unico criterio etico in grado di individuare quell’insieme di norme che accetteremmo di porre alla base di una sorta di società ideale.

 

Le concezioni utilitaristiche sono state però ampiamente criticate. R.M. Dworkin, per es., ha denunciato l’incapacità dell’utilitarismo di rendere conto del tratto etico più caratteristico della nostra epoca, ovvero la piena salvaguardia del diritto di ciascun individuo a non essere discriminato o limitato nella propria autonomia. Le critiche all’utilitarismo in nome dei diritti documentano già il mutamento di prospettiva verificatosi negli anni 1980 in seno all’etica teorica verso la dimensione della cosiddetta e. applicata. Tale mutamento va di pari passo con il passaggio dalle questioni della giustizia distributiva a un insieme di temi che coinvolgono più da vicino il riconoscimento di diritti individuali di libertà e la sfera privata delle vite degli agenti morali.

 

L’esigenza di sviluppare una teoria etica in grado di fondare i diritti morali individuali viene soddisfatta nelle più diverse maniere anche nelle culture filosofiche dell’Europa continentale. Così, la filosofia di lingua tedesca, in particolare attraverso gli strumenti dell’ermeneutica, ha cercato di realizzare una fondazione universalistica dei diritti e più radicalmente delle regole e delle norme morali. K.O. Apel si è particolarmente impegnato a connettere la sua analisi pragmatica del discorso alla nozione morale di responsabilità. L’etica di Apel si basa sulla tesi che tanto la comunità universale della comunicazione quanto le condizioni intersoggettive dell’argomentazione razionale presuppongono l’osservanza di una ben precisa norma morale, da intendersi come un dovere specifico che esige il riconoscimento degli stessi diritti a tutti i membri della comunicazione. Sulla stessa linea procede J. Habermas, il quale insiste sulla natura ideale propria della norma, che per essere moralmente adeguata deve risultare universalizzabile, ovvero tale da poter realizzare su di essa un accordo di tutti. Anche nella cultura filosofica francese larga parte della riflessione morale ruota intorno al problema di una fondazione universalistica dell’e. e molte risposte in senso positivo sono state elaborate riprendendo la tradizione esistenzialistica dell’individuazione di situazioni tipiche della vita morale.

 

Verso la fine del 20° sec. si afferma l’esigenza che la riflessione etica offra suggerimenti utili per risolvere i nuovi problemi morali suscitati dalle grandi trasformazioni che gli sviluppi della ricerca scientifica e della tecnologia hanno prodotto nelle società occidentali. Per la prima volta si pongono alla condotta umana alcune drammatiche alternative morali riguardanti la cura delle malattie, i modi di nascere e di morire. All’interno del nuovo orientamento di e. pratica o applicata vanno così consolidandosi vari settori di analisi, come l’etica medica , dalla millenaria tradizione ippocratica, edificata sul rispetto del principio bonum faciendum, malum vitandum, posto a fondamento della relazione medico-paziente. Tuttavia, pur occupandosi da sempre degli aspetti morali connessi all’esercizio della pratica medica, alla luce dei nuovi complessi scenari in cui il medico può essere chiamato a valutare implicazioni e conseguenze di scelte nell’ambito di delicati settori, come la sperimentazione sull’uomo, la gestione delle situazioni di fine vita, il consenso informato, l’e. medica si ridefinisce (➔ bioetica).

 

Si vanno consolidando anche altri ambiti di ricerca su nuove questioni etiche. Le conseguenze più o meno negative dello sviluppo tecnologico sulle relazioni tra l’uomo e l’ambiente naturale hanno dato corso a un’estesissima letteratura concentrata sulle questioni della cosiddetta e. ambientale . Le diverse concezioni sviluppatesi in quest’area possono essere distinte a seconda che giungano a individuare le regole che devono presiedere al rispetto della natura sulla base di una considerazione prevalentemente antropocentrica della moralità, o si spingano invece a radicare tale rispetto in una forma più o meno profonda di ecologismo, che considera la natura stessa fornita di diritti e dotata dunque di un intrinseco valore morale. Non meno ampia è stata l’elaborazione di teorie volte a porre un limite a una condotta irresponsabile nei confronti delle risorse limitate a disposizione sulla Terra, facendo appello alle responsabilità delle generazioni attuali nei confronti di quelle future.

 

Anche le questioni etiche relative al trattamento degli animali sono state ampiamente affrontate con un’attenzione del tutto nuova. Il diffuso interesse per le questioni etiche riguardanti il modo di rapportarsi agli animali può essere visto come una presa d’atto delle inutili crudeltà a essi inflitte in conseguenza dell’uso di nuove tecniche, nell’ambito della produzione industriale del cibo e nella sperimentazione a fini farmaceutici o per il perfezionamento di beni di consumo. In quest’area di riflessione molto influente è stata la forma di e. utilitaristica di P. Singer, che ha denunciato come un pregiudizio ‘specistico’ l’impostazione morale che discrimina tra le sofferenze degli esseri umani e quelle degli animali. La tesi di una rilevanza morale delle azioni rivolte agli animali è stata difesa in modo più radicale da parte di teorici che, come T. Regan, hanno basato i diritti morali degli animali sul valore intrinseco delle loro vite.

 

Come sviluppo e specializzazione della lunga riflessione degli ultimi secoli sugli intrecci tra moralità e decisioni economiche va poi vista quell’area dell’e. applicata comunemente designata e. degli affari . Obiettivo di quest’ambito di ricerca è di rendere esplicita la portata delle relazioni più propriamente morali nell’ambito dell’organizzazione delle imprese impegnate nelle attività produttive. Viene così sistematicamente approfondito il ruolo dei rapporti fiduciari, della reputazione e dei riconoscimenti di autorità di tipo morale per il buon funzionamento della vita delle aziende.

 

Il dibattito teorico sull’etica è stato ulteriormente arricchito dalle proposte emerse dal cosiddetto pensiero delle donne. Le questioni discusse in quest’area vengono elaborate su un piano più o meno alternativo, giungendo nelle correnti più radicali sino a contestare nei suoi stessi fondamenti la concezione morale tradizionale. Da una parte vi è chi, come L. Irigaray, contesta complessivamente la moralità come forma culturale che, attraverso le nozioni di obbligatorietà e dovere, cerca di assicurare l’egemonia e il dominio maschile nella società; dall’altra vi sono pensatrici, come C. Gilligan, che non rifiutano in blocco la possibilità di una moralità, ma ritengono che questa non possa non tener conto della diversità di genere e che dunque un’etica femminile debba distinguersi marcatamente dall’etica maschile : in particolare debbono essere contestati l’astrattezza dei valori maschili, il loro preteso universalismo e la loro attenzione esclusiva per le esigenze pubbliche della giustizia. Secondo altre pensatrici, come E.H. Wolgast, V. Held e A.C. Baier, la riflessione femminile può avere invece una funzione più universalistica, nel senso di aiutare a correggere alcune limitazioni della tavola dei valori affermata dalle e. maschili tradizionali, integrandole con valori, quali quelli della cura o della fiducia, che le donne ritrovano come più ampiamente presenti nelle loro esperienze di vita.

 

Difendendosi dalle accuse nel modo in cui s’è difesa, il ministro delle pari opportunità Josepha Idem ha dimostrato come siano ancora molte le donne, ancorché in posizione di potere, che seguono quella che le femministe del buon tempo antico chiamavano etica al maschile e che condividono le critiche che vengono mosse a coloro che si ostinano a parlare di virtù.

 

Per i Greci più antichi il termine ἀρετή designava la «capacità», l’«attitudine», la «valentia» e, in primo luogo, quella del combattente; e così anche in latino la virtus, derivata da vir, indica la dote propria dell’uomo, la forza, soprattutto d’animo, in quanto disprezzo della morte e del dolore, e quindi anche il valore militare.

 

La virtù diviene oggetto di indagine filosofica con Socrate, che si interroga su «che cosa è» la virtù, reperendola nell’identità tra virtù e conoscenza, a cui le varie virtù particolari si riducono. Sviluppando l’impostazione socratica, Platone concepisce la virtù come capacità di attendere a una funzione determinata e individua tante virtù quante sono le funzioni fondamentali dell’anima (la temperanza, la fortezza, la prudenza e la giustizia come armonia delle precedenti, denominate poi nel mondo cristiano virtù cardinali ), ponendole alla base dell’organismo statale. Con Aristotele la virtù diventa un abito, una stabile qualità dell’anima che l’uomo non possiede per natura ma che acquisisce con l’operare e con il compiere gli atti corrispondenti a ciascuna virtù. Aristotele distingue altresì tra e virtù etiche , considerando le prime come legate al prevalere della parte razionale dell’anima e le seconde al dominio dell’impulso sensibile secondo il criterio del «giusto mezzo» fra gli estremi. Significative le concezioni stoica ed epicurea che attribuiscono centralità alla virtù della saggezza o prudenza, intesa dai primi come contrapposta alla forza irrazionale e incontrollabile delle passioni in una prospettiva ascetica; e dai secondi come calcolo razionale dei piaceri in vista di una condizione di atarassia.

 

Il Cristianesimo introduce il concetto delle o abiti infusi nell’uomo da Dio al fine di una sua partecipazione alla vita divina. Nel Rinascimento la concezione machiavellica intende la virtù come capacità dell’individuo di tradurre in atto il proprio volere, indipendentemente dalla valenza morale e religiosa degli scopi che esso si propone. Nell’epoca moderna la riflessione sul concetto di virtù confluisce nella problematica dell’etica. Per i Romani, la virtù (Virtus) era una divinità, personificante il valore militare. Le era dedicato un tempio fuori della Porta Capena.

 

La teologia cattolica distingue le virtù in e virtù morali : le prime perfezionano l’intelletto, le seconde orientano la volontà al bene; distingue inoltre virtù naturali (o acquisite), cioè acquistate con l’esercizio di atti buoni, e virtù infuse , che sono effetto dell’operazione di Dio nell’uomo. Nelle virtù infuse rientrano (secondo l’opinione della maggior parte dei teologi) sia le virtù teologali, che hanno Dio per oggetto formale, sia le virtù morali (distinte dalle virtù morali sopra ricordate), che hanno per oggetto formale qualcosa di distinto da Dio; le sono tre: fede, speranza, carità; tra le virtù morali le principali sono le virtù cardinali .

 

Al plurale, le virtù nella scala gerarchica discendente degli ordini angelici, secondo la distinzione dello Pseudo-Dionigi, sono gli angeli che costituiscono il secondo coro della seconda gerarchia, dopo le Dominazioni e prima delle Potestà.

 

Dal Medioevo le sette virtù sono personificate da figure femminili che, soprattutto con il rinascere dell’interesse per l’allegoria con l’arte carolingia (Bibbia di Carlo il Calvo, 9° sec., Roma, S. Paolo fuori le mura) compaiono sempre più frequentemente, in vari contesti, contraddistinte da specifici attributi: la Fede con il calice, la croce o a volte con simboli trinitari; la Speranza è rivolta al cielo, spesso è alata o ha un’ancora; la Carità ha un cuore ardente, simbolo di amore, o è raffigurata mentre nutre infanti o fa elemosina; la Prudenza può avere due teste, o più spesso ha uno specchio e un serpente; la Giustizia ha la bilancia e la spada; la Fortezza è armata, ha una colonna spezzata, una spada o una clava, un globo; la Temperanza ha due vasi o brocche, e travasa (‘tempera’) da uno all’altro.

 

Spesso sono allegorizzate attraverso ‘tipi’ tratti dall’Antico Testamento o dal mito (la Fortezza come Sansone che uccide il leone nella tomba di Clemente II, Bamberga, duomo, o come Ercole nel pulpito del battistero di Pisa di N. Pisano). Le virtù compaiono anche in relazione con altre rappresentazioni allegoriche come le Arti Liberali (A. Pisano, rilievi del campanile del duomo di Firenze); possono essere affiancate da altre virtù accessorie (come Umiltà, Castità, Obbedienza, Pazienza) in figurazioni dal complesso significato teologico (A. Orcagna, Firenze, tabernacolo di Orsanmichele), o entrare a far parte, con altre virtù attive dell’uomo (Saggezza, Concordia), di raffigurazioni encomiastiche o celebrative, di santi o di personaggi storici, e sono frequentemente utilizzate in monumenti sepolcrali (G. di Balduccio, arca di S. Pietro Martire, Milano, S. Eustorgio; A. Pollaiolo, monumento di Sisto IV, Roma, S. Pietro in Vaticano).

 

La Psychomachia di Prudenzio, in cui è narrata la lotta tra le Virtù e i Vizi, è la fonte da cui sono tratte le rappresentazioni di tale soggetto, in cui le virtù sono raffigurate armate, come nei  rilievi del portale della cattedrale di Aulnay, 12° sec., e di Notre-Dame a Parigi, 13° secolo..

 

 

Note

R. De Monticelli La questione morale, Cortina

J. Habermas Teoria della morale, Laterza

J. Rawls Una teoria della giustizia, Fetrinelli

M. Walzer Sgere di giustizia, Laterza

A. McIntrye Dopo la virtù, Feltrinelli

R. Dahl Politica e virtà, Laterza

M. Hare Morale politica, Il saggiatore

B. Williams L’etica e i limiti della filosofia, Fetrinelli

R. Dworkin Questioni mortali, Il saggiatore

M. Harsanyi Utilitarismo, Il saggiatore

Pubblicato in Uncategorized | Lascia un commento

Quando l’emergenza diventa la regola

“Stiamo lavorando su questo. Quello che è importante è che mettiamo insieme una serie di strumenti che non siano solo orientati ai giovani ma anche a chi ha perso il lavoro, a chi è inattivo oppure a coloro che usufruiscono di ammortizzatori che costano moltissimo alla collettività”. Così il ministro del Lavoro Enrico Giovannini.

“Il governo conta di non usare solo fondi europei, ma anche ulteriori fondi” per finanziare le misure per il piano per i giovani. Lo ha detto il ministro del Lavoro Enrico Giovannini a margine della mostra “La rinascita. Storie dell’Italia che ce l’ha fatta”. “E’ questo il dibattito che stanno affrontando i nostri tecnici perché il lavoro, come ha detto il premier, è la nostra priorità assoluta”, ha aggiunto.

Sono 520mila lavoratori in cassa integrazione a zero ore da inizio anno, con 460 milioni di ore nei primi cinque mesi, ed una perdita secca in busta paga per i dipendenti coinvolti di 1,7 miliardi, pari a una riduzione del salario di circa 3.300 euro al netto delle tasse. Lo rileva la Cgil: “numeri spaventosi, segno della crisi profondissima”.

“Noi abbiamo la sensazione che i dossier si moltiplichino e che non si decida sui singoli capitoli”, ha detto il segretario generale della Cgil Susanna Camusso parlando dell’azione del Governo a ‘Nove in punto’ su Radio24. “Penso che ci sia un motivo, e cioé che il Governo precedente ha lanciato un infinito numero di compiti”, ha aggiunto Camusso, evidenziando che il dibattito Imu-Iva dimostra che si “continua a stare dentro gli echi della campagna elettorale più che tirar fuori il Paese”.

“In un Paese in cui il tema più rilevante è la mancanza dei consumi e il reddito, l’Iva diventa anche psicologicamente una cosa importante. Ciò che non va bene é l’idea che siccome devi intervenire sull’Iva devi anche abolire la tassa sulla casa. La Camera approva la fiducia al governo con 383 voti a favore, 154 no. Quella sul decreto emergenze è la prima questione di fiducia posta dall’esecutivo Letta.

Tra i primi a dire il proprio sì all’esecutivo, è il premier Enrico Letta, che sfila davanti ai banchi della presidenza della Camera, poi esce dall’Aula. La fiducia è stata posta sul decreto emergenze. Il premier Enrico Letta compare nell’Aula della Camera solo per il tempo necessario a votare la fiducia al suo governo, tra i primi a rispondere alla chiama. Subito dopo vota anche il vicepremier Angelino Alfano, che come Letta scorre davanti al banco della presidenza, poi esce dall’emiciclo.

“Immagino sia rimasto deluso ma le sue parole pubbliche sono state senz’altro corrette e collaborative”. Così il premier Enrico Letta risponde ai cronisti che, dopo aver votato la fiducia, gli chiedono come giudicasse la reazione di Berlusconi alla sentenza della Consulta.

Quella di ieri sul dl emergenze è, di fatto, la prima fiducia per il governo Letta dopo quella chiesta dal presidente del Consiglio alle Camere subito dopo aver ricevuto l’incarico dal Quirinale e formato il governo. In quel caso alla Camera i sì furono 453 (i no 153 e 17 gli astenuti) ma i presenti erano 623, quasi tutti i deputati. Questa volta i sì sono stati 383 e 154 i no ma con 537 presenti, quasi 100 deputati in meno del totale. Assenze, per la verità, grossomodo, distribuite tra tutti i gruppi parlamentari. Il partito della maggioranza più assente risulta, tabulati di voto alla mano, il Pdl con il 20,62% dei parlamentari che non hanno partecipato al voto (20 su 97), seguito da Scelta Civica con il 19,15% (9 su 47). Pd tutto sommato a ranghi serrati con l’8,87% di assenti (26 su 293). Presente in massa il Movimento Cinque stelle (6 assenti su 107) con il 5,6% di non partecipanti al voto; la stessa percentuale di Sel (5,56%) con 2 assenti su 36. Per la Lega erano assenti 3 deputati su 20, 5 assenti in Fratelli d’Italia su un totale di 9 componenti e 2 deputati assenti del gruppo Misto su 20 componenti. I deputati in missione erano 19 (tra gli altri la ex capogruppo dei grillini, Roberta Lombardi, i ministri Beatrice Lorenzin, Gianpiero D’Alia e Nunzia De Girolamo e il segretario del Pd Guglielmo Epifani ieri in Sicilia per la campagna elettorale per i ballottaggi).

Questi sono i fatti. Essi lasciano poco spazio a eventuali commentti. E’ evdente infatti che siamo in presenza di una classe politica che non è all’altezza della situazione. Occorrebbe un governo nel pieno dei suoi poteri. Abbiamo un governo a termine. Occorrerebbe che alla guida del governo ci fosse uno statista. Abbiamo un bravo ragazzo cui è stato affidata la presidenza del consiglio proprio perché privo di personalità politica. Abbiamo un ministro dello sviluppo economico che dimostra ogni giorno di più di essere assolutamente inadatto al ruolo.

Infine, abbiamo una sooluta mancanza diu idee. Eppure, basterebbe leggere Keynes e Kalecki per comprendere il da farsi. Basterebbe avere l’umiltà delle persone ntelligenti che sono sempre pronte ad ascoltare i buoni consigli che vengono loro dati. Agli esami di maturità hanno dato da commentare ai ragazzi una frase dell’economista di Chicago, Luigi Zingales. Lugi Zingales è un ragazzzo intelligente, che è però affetto da una evidente deviazione ideologica neoliberista.

Ora. la causa della crisi è proprio il neoliberismo. E’ la presunzione circa il perfetto funzionamento dei mercati. La crisi che continua a mettere a dura prova l’economia mondiale dimostra il palese errore che è alla base della teoria delle “aspettative razionli”. La cisi ha dimostrato che il cattivo fuzionamento del mercato non deriva da scarsa trasparenza, oppure, dall’eesistenza d’una dissimetria a livello di informazione crca le condizioni dello stesso mercato.

La crisi dimostra che non esiste alcuna mano invisibile che guida i destini umani nel campo dell’economia e che a guidare l’economia sono, come hanno brillantemente scritto Ackelrof e Shiller, i keynesiani animal spirists; in altre parole, la crisi ha dimosrato quello che Mrx aveva sempre sostenuto e cioè che ha non funzionare è la ricerca del massimo profitto – quella ricerca del massimo profitto che ha spinto le banche a metere sul mercato de troli spazzatura e che ha indotto altri a comperararli.

Note

R. Dore Finanza pigliatuttto, Il mulino

M. Onado I nodi al pettine, Laterza

N. Roubini Non è finita, Il saggiatore

J. Stiglitz Bancarotta, Einaudi

L. Gallino Finanzkapitalismo, Einaudi

L: Zingales Manifesto capitalista, Rizzoli

J. Cassidy Perché crollano  mercati, Einaudi

R. Rajan Terremoti finanziari, Einaudi

Pubblicato in Uncategorized | Lascia un commento

Il lato oscuro della forza

Un tempo, quando imperversava la guerra civile europea, tutto era semplice e chiaro. Come in Guerre stellari, c’era l’impero del bene e l’impero del male. A dominare la loro azione era il “lato oscuro della forza” Oggi, caduto l’impero del male, tutto è diventato complesso e di difficile comprensione. Chiarito ciò, vediamo di capirci qualcosa e per farlo dovremo cominciare con alcune definizioni.

 

 

Lo studio delle relazioni (o dei rapporti, termine però meno usato) internazionali ha come oggetto sia l’interazione tra Stati o gruppi di Stati (per la quale si parla di politica internazionale), sia l’operato di attori non governativi e transnazionali. La rete delle relazioni internazionali costituisce il sistema internazionale. Mentre in passato esistevano contemporaneamente in varie parti del mondo molteplici sistemi internazionali tra i quali non c’era comunicazione, oggi l’elevato grado di interdipendenza internazionale – che forma l’oggetto di questo articolo – ha dato origine a un sistema internazionale globale.

 

Gli attori principali di tale sistema sono tre. In primo luogo abbiamo gli Stati, che hanno un ruolo predominante in quanto detentori dei maggiori attributi della sovranità, quali il controllo del territorio, l’uso legittimo della forza armata e l’autorità di battere moneta; in secondo luogo vi sono le organizzazioni internazionali, siano esse globali (ad esempio l’Organizzazione delle Nazioni Unite, ONU) o regionali (ad esempio l’Organizzazione per la Sicurezza e la Cooperazione in Europa, OSCE). La seconda metà del secolo ha visto anche la nascita di svariate organizzazioni di carattere politico-militare, imperniate sulla rivalità tra Stati Uniti e URSS: tra quelle guidate dai primi si ricorda la NATO (North Atlantic Treaty Organization) in Europa occidentale e le omologhe CENTO (Central Treaty Organization) e SEATO (South East Asia Treaty Organization) in Asia sudoccidentale e sudorientale, oggi entrambe disciolte; l’URSS, a sua volta, aveva risposto al riarmo della Germania Federale e alla sua integrazione nella NATO con la creazione del Patto di Varsavia nell’Europa centro-orientale, poi sciolto a seguito delle rivoluzioni del 1989. Tra le organizzazioni internazionali si annoverano anche associazioni settoriali tra Stati che condividono particolari interessi economici o di mercato: l’Organizzazione dei Paesi Esportatori di Petrolio (OPEC) è la più nota tra queste. In terzo luogo, infine, abbiamo le entità sovranazionali (ad esempio l’Unione Europea, cui gli Stati membri hanno devoluto alcuni attributi della propria sovranità) e le grandi aziende transnazionali.

 

Il sistema internazionale è definibile soprattutto in base alla sua polarità – unipolare, bipolare o multipolare – anche se a volte taluni sistemi non sono facilmente classificabili in tale schema, poiché risultano caratterizzati da polarità diverse a seconda dell’ambito in cui li si consideri (politico, economico, militare, culturale). Si ha un sistema unipolare quando un solo attore – spesso uno Stato a carattere imperiale, o comunque una superpotenza o un’alleanza globale – ha la capacità di influenzare decisivamente lo sviluppo del sistema stesso; ne deriva, di solito, un’egemonia economica, politica e culturale. In un sistema bipolare, invece, due superpotenze, e i loro alleati, bilanciano reciprocamente le rispettive influenze, mantenendo comunque una situazione imperiale, o egemonica, all’interno delle proprie ‛sfere di influenza’, le quali sono largamente autosufficienti e insieme alle superpotenze occupano, in modo diretto o indiretto, più o meno tutta l’area geografica del sistema internazionale. Nel XX secolo, il sistema bipolare ha prevalso, anche se sotto forme sempre meno totalizzanti, dalla fine della seconda guerra mondiale al 1989, anno che ha visto la disgregazione della sfera di influenza sovietica. In un sistema multipolare, infine, le maggiori potenze manovrano, in genere alternando forme di collaborazione e di competizione, per aumentare la propria influenza a discapito di quella delle altre.

 

Con la fine della ‛guerra fredda’, il sistema internazionale non è più definibile in termini univoci: da una parte esso è caratterizzato da una crescente interdipendenza, che attenua l’influenza delle grandi potenze; dall’altra la sua polarità non è ancora caratterizzabile, dato l’emergere di nuove grandi potenze e attori sovranazionali in ambiti diversi – economico (Unione Europea, Giappone), politico (Germania) e militare (Cina) – mentre gli Stati Uniti restano l’unica potenza globale e la Russia stenta a trovare una collocazione proporzionata alla sua dimensione geopolitica e militare.

 

Hedley Bull (v., 1977) ha definito la contemporanea come ‟società anarchica”: i moderni Stati nazionali (o plurinazionali) formano infatti una società perché accettano alcune regole di coesistenza, che risultano in una certa misura di ordine internazionale; tale società è anarchica, perché formata da unità sovrane sia internamente (hanno cioè supremazia su tutte le altre forme di autorità sul proprio territorio) sia esternamente (cioè non riconoscono alcun’altra autorità al di sopra della propria nell’ambito della società internazionale). Entro questi parametri, negli ultimi decenni si è assistito a un cambiamento nel significato della sovranità nazionale degli Stati, i quali, da simbolo di indipendenza per antonomasia, sono diventati in modo sempre più consistente unità di riferimento per misurare l’interdipendenza internazionale.

 

Lo studio delle relazioni internazionali come disciplina scientifica indipendente ha avuto inizio nel periodo tra le due guerre mondiali; fino a quel momento, infatti, esso era stato limitato agli aspetti concernenti il diritto internazionale e la storia diplomatica. Tale innovazione disciplinare fu, in buona misura, il frutto della diffusa convinzione secondo la quale, per evitare il ripetersi degli orrori senza precedenti verificatisi in Europa nella prima guerra mondiale, si doveva comprendere meglio l’interazione politica tra gli Stati non solo sul piano meramente storico e diplomatico, o giuridico, ma sul piano politico nel suo senso più lato, e cioè anche economico, militare, culturale, religioso e demografico.

 

La nuova disciplina vide subito il fiorire di scuole di pensiero diverse: già in questo periodo si cominciava infatti a delineare la divisione tra ‛realisti’, che sottolineavano l’ineluttabile importanza del potere come fattore decisivo di risoluzione dei conflitti, e ‛idealisti’, che auspicavano, non potendolo riscontrare nella realtà, un maggiore ruolo per gli ideali di giustizia e per quello che veniva chiamato il ‛giudizio dell’opinione pubblica internazionale’; seppure in forme diverse, questa contrapposizione sarebbe continuata fino ai nostri giorni.

 

I realisti cercavano di spiegare i rapporti internazionali come interazione fra Stati i cui governi lottano per aumentare il proprio potere, allo scopo di influenzare gli avvenimenti internazionali a proprio vantaggio. I loro critici sottolineavano però come le scelte dei capi di Stato e di governo potessero anche essere guidate da altri scopi, i quali andavano ben al di là dell’interesse nazionale definito in termini di potere (per esempio, essi erano sicuramente motivati dal desiderio di mantenere il proprio potere personale). L’approccio realistico alle relazioni internazionali poneva inoltre ulteriori problemi. In primo luogo, il concetto di potere politico è di difficile e controversa definizione, e quindi ogni teoria che si basi sul potere come principale variabile è inevitabilmente imprecisa; basti ricordare che il potere può essere considerato tanto fine, quanto mezzo della politica. Inoltre, il potere di un attore del sistema internazionale può essere molto diverso dalla sua capacità di influenzarne gli avvenimenti, e spesso è solo approssimativamente correlato alla sua forza militare. In secondo luogo, è anche difficile definire l’interesse nazionale, per perseguire il quale, secondo la teoria realista, gli Stati esercitano il proprio potere. L’interesse nazionale è qualcosa di oggettivo o di soggettivo? La democrazia, che la storia ha finora provato essere il sistema più efficiente ed efficace di governo, porta a sostenere che sia soggettivo, e quindi difficile da usare come metro per misurare il potere di uno Stato.

 

Sulla scia degli studi intrapresi tra le due guerre, e sotto la spinta emotiva dei rinnovati orrori bellici, verso la fine degli anni quaranta nelle università del mondo occidentale (e soprattutto in quelle dei paesi anglosassoni, grazie alla maggiore sensibilità dei loro governi) si moltiplicarono gli insegnamenti e gli studi politologici dedicati alle relazioni internazionali. Diversa la situazione in Unione Sovietica e negli altri paesi socialisti, dove questo non accadde a causa dell’ostinazione ideologica a voler spiegare le relazioni internazionali esclusivamente come una manifestazione della lotta di classe; solo intorno alla metà degli anni sessanta, e comunque sotto l’egida fortemente limitativa dei partiti comunisti al potere, sarebbe stata accordata un’attenzione specifica alla nuova disciplina anche in questi paesi.

 

Iniziava quindi nel secondo dopoguerra una nuova era per lo studio della politica internazionale, che si distaccava decisamente dalla storia diplomatica per diventare una disciplina a sé, volta alla ricerca delle generalizzazioni e delle spiegazioni in grado di far comprendere i comportamenti ricorrenti degli attori delle relazioni internazionali in base alle loro motivazioni e ai risultanti schemi di interazione.

 

Il Novecento è stato un secolo violento: si stima che abbiano perso la vita direttamente in eventi bellici, o indirettamente per cause da collegare a questi, più persone durante questo secolo che in tutti quelli precedenti. Questo è da ascrivere al grande numero di conflitti che si sono registrati nel mondo, alle nuove tecnologie distruttive impiegate in guerra, e al carattere globale delle guerre del 1914-1918 e del 1939-1945 (quest’ultima è stata la prima guerra assieme mondiale e totale). Si è inoltre registrato un numero enorme di vittime di conflitti civili, l’entità del quale è difficilmente calcolabile, ma che, secondo alcune stime, sarebbe ancora maggiore di quello delle vittime dei conflitti inter-statali.

 

I due conflitti mondiali hanno stravolto tutti i precedenti equilibri geopolitici del sistema internazionale. Una concomitanza di fattori ha fatto sì che come conseguenza di quei conflitti cambiasse nella sua sostanza il modo stesso di interagire degli attori del sistema internazionale, a cominciare dagli Stati. Il principale elemento di continuità con il sistema internazionale precedente rimaneva lo Stato-nazione, che si confermava l’attore fondamentale delle relazioni internazionali: gli imperi coloniali divenivano infatti insostenibilmente onerosi per le potenze europee prostrate dalla guerra, e inoltre le alleanze belliche si erano disgregate rapidamente dopo ciascuno dei conflitti mondiali, senza portare ad aggregazioni durature tra i vincitori. Ma accanto al riaffermarsi dello Stato-nazione si registrarono – sia negli anni venti, dopo la prima guerra mondiale, sia negli anni quaranta, dopo la seconda – nuove spinte aggregative, che si sarebbero via via rafforzate nel corso dei decenni. Nel primo dopoguerra si assistette al rapido quanto effimero diffondersi di una coscienza internazionalistica che aspirava, spesso ingenuamente, a creare un nuovo sistema internazionale che potesse evitare il ripetersi degli orrori del 1914-1918. La Società delle Nazioni rappresentò questo primo, timido tentativo – in seguito rivelatosi inefficace – di porre un limite alla sovranità assoluta degli Stati. L’idea che ispirava il progetto era quella che se agli Stati si fosse imposta una qualche forma di autorità superiore, con capacità sanzionatoria nei loro confronti, essi avrebbero avuto minori possibilità di minacciare o mettere in atto aggressioni, così come era tradizionalmente accaduto in passato. Tale tentativo si sarebbe tuttavia rivelato impraticabile, in quanto gli Stati stessi impedirono che si operasse un effettivo trasferimento di sovranità alla Società delle Nazioni, che quindi non fu mai posta nelle condizioni di agire con la necessaria incisività.

 

Questo stato di cose sarebbe notevolmente cambiato nella seconda metà del secolo. In Occidente (inteso in senso geopolitico come Europa occidentale, Nordamerica e Giappone) tre fattori contribuivano a consolidare una nuova e formidabile spinta internazionalistica e, conseguentemente, ad avviare processi integrativi senza precedenti: in primo luogo, la presenza di una comune minaccia ideologica e militare, rappresentata dall’Unione Sovietica; in secondo luogo, la raggiunta consapevolezza, prima di tutto in Francia e in Germania, tanto più sorprendente in quanto acquisita solo pochi anni dopo la fine della prima guerra totale tra quei due paesi, che le divisioni nazionalistiche erano state tra le principali cause di guerra in passato; e, infine, il consolidarsi della presenza americana in Europa, conseguenza del fatto che – contrariamente a quanto era accaduto dopo la prima guerra mondiale – gli Stati Uniti avevano ritenuto necessario un coinvolgimento diretto, anche in tempo di pace, negli affari geopolitici del continente (come anche in quelli dell’Estremo Oriente).

 

In Europa orientale, l’unico fattore integrativo era invece l’egemonia, e l’occupazione militare, da parte dell’Unione Sovietica. Nel nome della ‛solidarietà socialista internazionale’ con i regimi installati dall’Armata Rossa, Mosca imponeva ai paesi della regione da una parte collegamenti economici e militari, sia con l’URSS che orizzontalmente tra di loro, e dall’altra un rigido isolazionismo politico, economico e culturale nei confronti di tutti i paesi terzi. Non sorprende quindi che, all’inizio degli anni novanta, dopo quarantacinque anni di questa forzata pseudo-alleanza, appena è venuta meno la potenza egemonica sovietica, sia risorto in alcune parti dell’Europa orientale un nazionalismo dai toni spiccatamente prebellici, tendente, cioè, a vedere l’interdipendenza internazionale come una forma di subordinazione a potenze straniere, contraria, quindi, agli interessi nazionali. È altresì indicativo che, esauritosi l’entusiasmo iniziale per la riacquistata indipendenza, questi paesi cerchino nuovi collegamenti integrativi, sia in campo politico-economico (con l’Unione Europea) che strategico-militare (con la NATO).

 

Le maggiori spinte aggregative della seconda metà del secolo si sono dunque sviluppate soprattutto nel cosiddetto ‛Nord industrializzato del mondo’, costituito dal ‛Primo Mondo’ occidentale e dal cosiddetto ‛Secondo Mondo’ del socialismo reale. Il nazionalismo, e spesso il tribalismo, è rimasto invece predominante nella maggior parte dei paesi del ‛Sud del mondo’ (espressione essenzialmente sinonima di ‛Terzo Mondo’, con cui ci si riferisce ai paesi in via di sviluppo) e specialmente in quelli di nuova indipendenza, nati dalle ceneri degli imperi che gli Europei (sia vincitori che sconfitti nelle due guerre mondiali) avevano dovuto abbandonare per l’impossibilità di sostenerli. L’influenza egemonica di Stati Uniti, URSS e Stati ex imperiali europei, non ha prodotto in questi paesi alcun processo integrativo, ma si è limitata per lo più a creare un rapporto di dipendenza bilaterale che, a seconda dei casi, si è rivelato più o meno stabile e duraturo: praticamente nullo il contatto rimasto dopo la decolonizzazione tra la Germania e le sue ex colonie, più forte quello dell’Italia, ancora maggiore quello del Regno Unito, anche tramite il Commonwealth (associazione di paesi anglofoni dai contenuti soprattutto culturali); molto forti, infine, i legami che la Francia ha continuato a rinsaldare con le proprie.

 

A fronte dell’elemento di continuità rappresentato dagli Stati-nazione, più o meno integrati tra di loro, nella politica internazionale postbellica è cambiato quasi tutto il resto. Si possono individuare sette principali elementi di cambiamento, che verranno analizzati qui di seguito. Tale modello non ha la pretesa di essere esaustivo né oggettivo, giacché in questo tipo di analisi un intrinseco elemento di arbitrarietà è inevitabile; tuttavia, si auspica che esso possa fornire un’adeguata chiave di lettura delle relazioni internazionali nel loro complesso.

 

La più importante novità della politica internazionale del secolo è stata la fine dell’eurocentrismo politico, economico e militare che aveva fino a quel momento caratterizzato la storia contemporanea. Le prime avvisaglie che si stava erodendo l’incontrastata supremazia geopolitica europea si ebbero dapprima con la vittoria giapponese sulla Russia zarista nella guerra del 1905 e, soprattutto, con il decisivo intervento degli Stati Uniti sul finire della prima guerra mondiale. Successivamente, però, sia Stati Uniti che Giappone si limitarono a consolidare la loro influenza a livello regionale; nel continente americano e in parte nel Pacifico i primi, in Asia orientale il secondo. In conseguenza di ciò, nel periodo fra le due guerre l’Europa riacquistava una completa centralità nelle relazioni internazionali.

 

Alla fine della seconda guerra mondiale, invece, tutte le tradizionali grandi potenze europee erano economicamente e militarmente stremate, e costrette quindi a una graduale ma inarrestabile e generale ritirata dalle loro zone di influenza al di fuori e all’interno del continente. L’Italia lasciava le proprie colonie, perse durante la guerra nel 1945; la Germania lo aveva già fatto nel 1918; il Regno Unito, nel 1947, iniziava una ritirata relativamente pacifica dall’India e da quasi tutti gli altri possedimenti imperiali in Asia, Africa e America Centrale, dando avvio a un processo che si è quasi definitivamente chiuso nel 1997, con la restituzione di Hong Kong alla Cina. Più cruenta è stata la ritirata della Francia, che ha cercato invano per circa quindici anni di resistere militarmente alle pressioni indipendentistiche in Asia sudorientale e in Africa settentrionale; alla metà degli anni settanta anche Spagna e Portogallo avevano ormai lasciato le loro ultime colonie africane.

 

Alla decolonizzazione corrispondeva una drastica diminuzione del potere e dell’influenza degli Stati europei nelle relazioni internazionali, che – nel caso dei paesi sconfitti e dei paesi coloniali minori, tra cui l’Italia – furono per molti anni pressoché nulli. Rimaneva invece un margine di influenza per Francia e Regno Unito, peraltro subordinata all’emergere delle due nuove superpotenze globali, Stati Uniti e Unione Sovietica.

 

Corollario della fine dell’eurocentrismo è stata la nascita del bipolarismo. Sulle rovine del sistema internazionale multipolare che si era via via sviluppato a partire dal Congresso di Vienna del 1815, nasceva dopo il 1945 un sistema internazionale bipolare, con due nuove superpotenze che erano politicamente, economicamente e militarmente capaci di influenzare fortemente le scelte di tutti gli altri Stati e attori internazionali. La supremazia degli Stati Uniti – sia militare, in quanto unici possessori dell’arma nucleare, sia economica, in quanto unico paese le cui città e industrie erano rimaste indenni da danni bellici – diventava una realtà permanente delle relazioni internazionali. Agli Stati Uniti si contrapponeva l’Unione Sovietica, economicamente prostrata, ma militarmente forte del fatto di aver occupato metà Europa nel corso dell’offensiva finale contro il Terzo Reich. Al precedente sistema di equilibrio di potere multipolare tra le maggiori potenze europee, subentra quindi nel 1945 il duopolio di Stati Uniti e URSS. L’Europa rimane il baricentro geopolitico del pianeta, ma gli Europei hanno un ruolo di secondo piano rispetto alle decisioni prese dalle due superpotenze, ciascuna egemone nella propria sfera di influenza, ciascuna con un atteggiamento così chiuso da giustificare l’universale adozione del termine ‛blocco’ per designarle. La divisione in blocchi prescinde anche dalle unità statali: la Germania viene divisa, prima (nel 1945) in quattro settori di occupazione, e poi (nel 1949) in due Stati, uno occupato dalle potenze vincitrici dell’Occidente e uno annesso al blocco sovietico. Quella tedesca non sarebbe stata peraltro una situazione unica: anche il Vietnam (fino al 1975) e la Corea (ancora oggi) saranno analogamente divisi. L’Europa rimaneva l’area più densamente armata del mondo, ma per la stragrande maggioranza le armi ivi dislocate erano americane e sovietiche; essa era un’espressione geografica, sulle cui rovine si combatteva quella che l’americano Walter Lippman chiamò la ‟guerra fredda”, la cui linea del fronte era demarcata da quella ‛cortina di ferro’ che – secondo Churchill – tagliava il continente a metà, dall’Adriatico al Baltico.

 

Nata in Europa, la divisione del mondo in due blocchi assunse presto i contorni più preoccupanti in Asia, dove, con la vittoria dei rivoluzionari comunisti nella guerra civile cinese, nasceva nel 1949 una portentosa alleanza tra Mosca e Pechino, che per un decennio avrebbe fatto pensare alla possibilità che si sviluppasse un’unione di tipo nuovo, basata non su una pragmatica coincidenza di interessi nazionali ma su un comune progetto ideologico di rivoluzione mondiale. Con lo scisma tra i due giganti comunisti, consumatosi tra il 1959 e il 1960 – anche se non subito percepito come tale in Occidente – questi timori si rivelarono infondati, e le relazioni tra essi ritornarono sui tradizionali binari ‛realisti’ della politica internazionale, sia in ambito geografico (soprattutto in Asia meridionale e sudorientale, ma anche in Africa e in America Latina) sia nel nuovo, e allora importantissimo, ambito ideologico (all’interno del movimento comunista internazionale).

 

L’ideologia aveva già avuto un ruolo nei conflitti internazionali, in forme diverse, almeno dalla Rivoluzione francese in poi; ma è soltanto nel Novecento che essa acquisisce un’importanza centrale nelle relazioni internazionali. Infatti spesso alle alleanze militari corrispondono divisioni di ordinamento politico, economico e sociale di Stati allineati su posizioni contrapposte e, specialmente dopo il 1945, ideologicamente incompatibili. Questo ruolo dell’ideologia cominciò a emergere già nel conflitto del 1914-1918, che vide gli imperi centrali autocratici contrapposti alle democrazie occidentali (peraltro alleate alla Russia zarista); l’attrito ideologico si sarebbe fortemente accentuato nel periodo tra le due guerre, con la contrapposizione triangolare tra democrazie occidentali, regimi fascisti e Unione Sovietica comunista.

 

Nel secondo dopoguerra, contestualmente al nascere dell’ordine bipolare, l’ideologia diveniva un fattore primario delle relazioni internazionali. Questo accadeva prima di tutto in Europa, dove l’ideologia diveniva l’arma politica più potente della guerra fredda; ed è proprio durante questo periodo che la contrapposizione ideologica assumeva per la prima volta un carattere al tempo stesso centrale e globale. All’inizio era l’Unione Sovietica che si serviva meglio dell’arma ideologica, facendo presa su grandi masse dell’Europa occidentale con il proprio modello di società di cui si esageravano i pregi, si minimizzavano i difetti e si nascondevano gli orrori; per lungo tempo, non poté fare altrettanto l’Occidente, incapace di far giungere il proprio messaggio pluralista alle popolazioni d’oltre cortina e comunque timoroso di rischiare un conflitto con l’URSS per difendere quei diritti umani che erano il nocciolo del proprio modello ideologico. Successivamente, nel corso degli anni settanta e ottanta, il gioco delle parti si invertì: i Sovietici divenivano sempre meno credibili nel proporre un modello economico evidentemente fallimentare e un modello sociale solo apparentemente egualitario e sempre più palesemente utopistico; viceversa, il modello occidentale di democrazia liberale, chiaramente superiore sul piano economico, diveniva, col tempo, anche più conosciuto e apprezzato, sia nella sfera d’influenza sovietica, sia nel Terzo Mondo.

 

In questa contesa, accanto al ruolo degli Stati, si sviluppava quello di alcuni importanti attori dal carattere transnazionale, quali ad esempio i partiti politici. In particolare, per un certo periodo, e pur se con notevoli differenze da caso a caso, i partiti comunisti hanno svolto un importante ruolo di ‛quinta colonna’ sovietica in Occidente; in altri casi (soprattutto, ma non solo, in Europa e nelle Americhe), la Chiesa cattolica ha giocato anch’essa un importante ruolo politico di tipo ideologico; più recentemente, e soprattutto dopo la rivoluzione iraniana del 1979, anche i movimenti islamici hanno acquisito una funzione di primo piano in alcune regioni del mondo. Tuttavia, raramente queste spinte ideologiche sono riuscite a prevalere per periodi prolungati su quelle nazionali, all’interno di un certo movimento o attore politico del sistema internazionale: sia i partiti comunisti che le chiese locali hanno, prima o poi, trovato ragioni nazionali di rottura rispettivamente con Mosca e con il Vaticano.

Il conflitto ideologico tra Est e Ovest non si è limitato alla sola Europa; di riflesso, esso si è esteso prima in Asia e quindi in Africa e America Latina. I governi di molti Stati di nuova indipendenza hanno cercato in numerose varianti della teoria marxista dell’economia pianificata un loro autonomo modello di sviluppo che fosse il più rapido possibile, che permettesse di mantenere un controllo centralizzato delle risorse e che li svincolasse dal legame di dipendenza con l’Occidente capitalista ed ex colonialista. L’Unione Sovietica si adoperava attivamente, con una intensa attività di propaganda accompagnata da assistenza tecnica, economica e soprattutto militare, per cercare di esportare il proprio modello ed espandere in tal modo la propria sfera di influenza sul piano globale. Gli Stati Uniti, dal canto loro, usavano gli stessi mezzi allo scopo di contenere l’espansione ideologica del comunismo, sia per limitare l’influenza dell’avversario sovietico nel mondo, sia per favorire i propri interessi economici, spesso protetti da governi autoritari o militari di matrice conservatrice ma danneggiati da quelli, altrettanto autoritari, di matrice socialista. Questi spazi di manovra si erano aperti come conseguenza della decolonizzazione.

 

Si è accennato alla decolonizzazione come fenomeno della fine dell’eurocentrismo. Con la decolonizzazione aumentava il numero di Stati indipendenti, così come crescevano, in base a qualsivoglia unità di misura si intenda adottare, le disparità politiche ed economiche tra di loro. Dopo il 1945, il bipolarismo, sia europeo che globale, non portò infatti a un consolidamento del sistema politico internazionale. Il numero degli Stati all’esterno dei due blocchi cresceva enormemente e confusamente, soprattutto come conseguenza del ritiro europeo dai possedimenti coloniali (principalmente in Asia e Africa), spesso abbandonati a fragili governi locali, con molte etnie divise da confini artificiosi che ricalcavano i confini delle conquiste europee più che le realtà locali. Alla crescita del numero degli attori corrispose anche un’amplificazione del divario tra i più grandi e i più piccoli.

 

Prima del 1945 gli Stati-nazione erano relativamente pochi e comparabili tra di loro, nel senso che, con rare eccezioni, essi appartenevano allo stesso ordine di grandezza per popolazione, reddito nazionale (lordo o pro capite), dimensione geografica, potenza militare, ecc. Quando il ritiro degli Europei dai propri imperi fu concluso, il numero degli Stati era salito a più di 150, anche se la maggior parte di essi rimase pressoché irrilevante nella politica internazionale. Alla fine del colonialismo non è corrisposto infatti il ritiro politico o economico delle potenze ex coloniali: decenni, o secoli, di sudditanza avevano creato una dipendenza strutturale di queste economie dai paesi che le avevano occupate e sviluppate ai fini che meglio si confacevano ai propri interessi.

 

Agli eserciti coloniali subentravano quindi altri attori transnazionali, quali, ad esempio, le multinazionali delle materie prime, spesso chiamate dai governi neoindipendenti per valorizzare le risorse naturali. Ciò dava vita a quello che sarebbe stato chiamato ‛neocolonialismo’; in alcuni casi, come quello della Francia e delle proprie ex colonie in Africa centrale, i nuovi governi richiedevano, e ottenevano, addirittura la permanenza delle forze armate ex coloniali, al duplice scopo di garantire la propria sicurezza interna e di proteggersi da aggressioni esterne contro le quali erano ovviamente impreparati a difendersi.

 

Nel corso del XX secolo le organizzazioni internazionali sono cresciute di numero e hanno acquisito sempre maggiori competenze. Fino alla seconda guerra mondiale, le alleanze militari erano state strutturalmente piuttosto labili, essendo caratterizzate da una coordinazione poco pianificata e soggetta ad ampi margini di manovra nazionale in momenti di crisi. Dopo l’infelice esperienza della Società delle Nazioni nel periodo tra le due guerre mondiali, l’alleanza bellica contro l’Asse si era trasformata – a guerra conclusa – nell’Organizzazione delle Nazioni Unite: quest’ultima aveva il compito di riprendere, su scala globale, il tentativo di instaurare un ordine internazionale basato sul rispetto del diritto sia nell’ambito delle relazioni tra gli Stati, sia – e questa era una novità, rispetto alla Società delle Nazioni – al loro interno, almeno per alcune materie, come ad esempio i diritti umani. All’ONU non veniva comunque attribuito alcun potere sovranazionale e, di conseguenza, nei decenni successivi il suo ruolo nella politica internazionale sarebbe stato quasi sempre secondario; a ciò si aggiunga che la competizione bipolare paralizzava il lavoro del Consiglio di sicurezza, organismo esecutivo in cui il diritto di veto era riservato alle potenze vincitrici della seconda guerra mondiale (che erano anche gli unici membri permanenti) e dal quale dipendevano le decisioni operative per dare attuazione alle risoluzioni di principio dell’Assemblea generale. Fino a che il mondo è stato diviso dal bipolarismo, ogni disputa vedeva immancabilmente le due superpotenze schierate, all’interno del Consiglio, su posizioni contrapposte: il diritto di veto di ciascuna bloccava quindi inevitabilmente il raggiungimento del necessario mandato. Più utili, in quanto meno politicizzate, sono state le organizzazioni specializzate dell’ONU, create per rispondere all’esigenza di relazioni internazionali che diventavano sempre più articolate (nei campi dell’economia, della tecnologia, della cultura). Tra le principali, si ricordano l’Organizzazione per l’Agricoltura e l’Alimentazione (FAO, Food and Agriculture Organization) con sede a Roma, quella per l’Istruzione, la Scienza e la Cultura (UNESCO, United Nations Educational, Scientifical and Cultural Organization) con sede a Parigi, e l’Agenzia Internazionale per l’Energia Atomica (IAEA, International Atomic Energy Agency) con sede a Vienna.

 

In alcuni casi, ancora più incisive sono risultate le iniziative volte a creare organizzazioni internazionali a livello regionale. Come si è già accennato, la principale novità in questo campo è stata la formazione di alleanze politico-militari regolate da trattati multilaterali. Sul piano strategico-militare, gli europei occidentali, insieme agli Stati Uniti e al Canada, nel 1949 davano vita alla NATO, nella quale tutti gli Stati membri sottoscrivevano l’impegno a considerare automaticamente un attacco contro uno di essi come un attacco contro tutti; la struttura militare della NATO prevedeva inoltre meccanismi di consultazione permanente, sia politica che militare, comandi unificati sovranazionali e forze armate militarmente più integrate di quanto non fossero mai state in alleanze precedenti. Con la fine della guerra fredda, all’inizio degli anni novanta, per la NATO si è aperta una fase di ridefinizione del proprio ruolo nella politica internazionale. Nel dicembre del 1991, gli ex membri del Patto di Varsavia (v. cap. 3) sono stati invitati ad aderire al Consiglio di Cooperazione del Nord Atlantico (nel 1997 divenuto Consiglio per il partenariato euro-atlantico), un organismo consultivo creato per favorire un vasto programma di collaborazione – a carattere interdisciplinare – in materia di sicurezza, intesa quest’ultima in senso lato. Alcuni di questi Stati hanno successivamente chiesto di aderire alla NATO a pieno titolo. Nel luglio 1997, Repubblica Ceca, Polonia e Ungheria sono state formalmente invitate ad accedere alla NATO. Poche settimane prima era stato già concluso – e sottoscritto in un apposito vertice dei Capi di Stato e di governo – un accordo di cooperazione e consultazione politico-militare con la Russia postsovietica.

 

All’integrazione della Germania Occidentale nella struttura militare della NATO, avvenuta nel 1954, i Sovietici risposero con la creazione dell’Organizzazione del Patto di Varsavia: questo, come la NATO, prevedeva un’integrazione militare, consultazioni politiche e un impegno alla difesa reciproca tra URSS, Polonia, Cecoslovacchia, Germania Orientale, Romania, Bulgaria, Ungheria e Albania (che però ne uscì di fatto nel 1961, e formalmente nel 1968). A differenza di quanto avveniva nella NATO, i Sovietici imponevano una quasi totale standardizzazione degli equipaggiamenti, della dottrina e delle strategie e procedure militari sul loro modello, anche attraverso accordi di sicurezza bilaterali tra l’URSS e ciascuno dei paesi che per questo venivano detti ‛satelliti’. Il Patto in quanto tale serviva sempre più solo come copertura politica, per dare una parvenza di pariteticità e collettività decisionale tra gli Stati membri, nelle prese di posizione verso la NATO o verso gli stessi membri; ad esempio, nel 1968 fu il Patto di Varsavia, nominalmente, a invadere la Cecoslovacchia al fine di ‟aiutare un paese fratello”. Con l’impossibilità da parte dei Sovietici di mantenere l’egemonia sul blocco orientale, il Patto si poteva già considerare militarmente irrilevante nel 1990, quando ne uscì la Repubblica Democratica Tedesca, che ne era stata il bastione militare verso occidente e che si sarebbe dissolta di lì a poco. Dopo pochi mesi l’URSS accettava di evacuare le proprie truppe da tutti gli altri paesi membri entro il 1994, e il 1° aprile del 1991 il Patto di Varsavia veniva formalmente sciolto.

 

Anche sul piano politico ed economico si registra, a partire dalla metà del secolo, un’iniziativa di aggregazione internazionale senza precedenti storici. Alcuni stati europei occidentali (Italia, Francia, Germania Federale, Belgio, Paesi Bassi e Lussemburgo), avevano concordato, già dal 1951, l’istituzione di una Comunità Europea del Carbone e dell’Acciaio (CECA), con la quale – per la prima volta – gli Stati membri di un’organizzazione internazionale delegavano a questa stessa organizzazione (che in questo caso si può cominciare a definire sovranazionale) poteri di interferenza nelle proprie scelte di politica economica interna (nella fattispecie per quanto concerneva quelle due fondamentali materie prime). Dopo il fallimento, a causa della mancata ratifica del Parlamento francese, del progetto di Comunità Europea di Difesa (CED) nel 1954, alla CECA seguirono, con fini analoghi, la Comunità Economica Europea (CEE) e la Comunità Europea per l’Energia Atomica (EURATOM), create con i Trattati di Roma del 1957. Ai sei Stati originari si aggiungevano intanto, in ordine cronologico, Regno Unito, Irlanda, Danimarca (nel 1973), Grecia (nel 1981), Spagna e Portogallo (nel 1986), Austria, Svezia e Finlandia (nel 1995). Successivamente, si iniziavano a prendere in considerazione le candidature delle nuove democrazie dell’Europa centrale e orientale, nonché di alcuni paesi mediterranei, quali Malta e Cipro, mentre anche la Turchia portava avanti con decisione la propria.

 

Il processo continuava con fasi alterne fino all’adozione, nel 1986, dell’Atto Unico, premessa giuridica e politica sia per la completa eliminazione delle frontiere economiche nel corso degli anni novanta, sia per l’avviamento dell’unione politica – nell’Atto era prevista anche la creazione di un organismo competente per la politica estera comune, la Cooperazione Politica Europea o CPE – che aveva sempre rappresentato il fine ultimo della Comunità, anche se per molti anni era stata considerata poco più che un’utopia. Al processo integrativo veniva impressa un’ulteriore accelerazione con il Trattato di Maastricht, firmato il 7 febbraio del 1992 ed entrato in vigore il 1° novembre 1993, che istituisce l’Unione Europea. Il trattato impegna gli Stati membri a coordinare le proprie politiche al fine di giungere a una politica estera e di sicurezza comune (inclusa, nel più lungo termine, una difesa comune), a coordinare il lavoro delle proprie forze di polizia, ad armonizzare la legislazione in una vasta gamma di materie (compresa quella riguardante l’immigrazione) e infine, entro la fine del secolo, a creare una moneta unica.

 

L’Unione Sovietica, nella propria sfera di influenza, aveva provveduto già dal 1949 a creare il Consiglio di mutua assistenza economica (COMECON), comprendente, oltre all’URSS, l’Albania (che però ne usciva nel 1961), la Polonia, la Cecoslovacchia, la Bulgaria, l’Ungheria, la Romania e la Germania Orientale, cui poi si sarebbero aggiunti anche Mongolia, Cuba e Vietnam. Per quanto costituisse anch’esso un’organizzazione relativamente integrata se paragonata a qualsiasi esperienza prebellica, il COMECON differiva dalla Comunità Europea in molti essenziali aspetti: in primo luogo, si poneva fini esclusivamente economici, non avendo neanche come obiettivo di lungo termine l’unione politica; inoltre, doveva provvedere a regolare gli scambi tra i paesi socialisti su basi non tanto di apertura commerciale e vantaggi comparati, ma di quello che veniva chiamato ‛aiuto fraterno’, il che significava una pianificazione centralizzata – in parte a livello bilaterale e in parte dall’URSS – di tutti gli scambi. All’inizio questo voleva dire che Mosca poteva decidere arbitrariamente lo spostamento e l’allocazione di risorse all’interno del blocco, allo scopo di sviluppare le economie pianificate di tipo stalinista nella regione; poi divenne un metodo per proteggere (e così sostenere politicamente) le economie più inefficienti con le risorse di quelle più forti. Questa distorsione commerciale degli scambi venne anche usata dall’URSS come strumento per aiutare le economie più deboli con esportazioni agevolate di materie prime e con importazioni, a prezzi artificialmente alti, di beni di qualità scadente, che non avrebbero potuto essere piazzati sul mercato internazionale. L’URSS sovvenzionava così i paesi del blocco per mantenere coesione, stabilità sociale e legittimità politica nei regimi che l’Armata Rossa aveva installato con la forza.

 

Queste differenze hanno fatto del COMECON un’organizzazione di tipo essenzialmente amministrativo per la gestione imperiale da parte dell’URSS, senza che gli altri Stati membri ne condividessero mai pienamente né gli scopi, né i metodi. Il suo fine è stato politico: contribuire a controllare la sovietizzazione delle economie dei paesi membri. Sul finire degli anni ottanta, tutti i membri, compresa l’URSS, erano d’accordo sul fatto che il modus operandi tradizionale del COMECON non fosse più né utile economicamente, né accettabile politicamente, e ne chiesero pertanto la riforma; nel 1991 l’adozione dell’economia di mercato comportò però il definitivo abbandono del COMECON – per evidente incompatibilità -, l’apertura delle economie ex centralizzate al mercato internazionale e il loro orientamento verso più stretti legami con l’Unione Europea.

 

A livello paneuropeo, l’iniziativa che più ha contraddistinto l’evoluzione della politica internazionale nel secondo dopoguerra è stata la Conferenza per la Sicurezza e la Cooperazione in Europa (CSCE), foro di dibattito politico permanente tra tutti i paesi europei (autoesclusasi per lungo tempo la sola Albania, che vi ebbe accesso solo nel 1991), ai quali si aggiungevano Stati Uniti e Canada; il cosiddetto ‛processo di Helsinki’, dal nome della capitale dove ebbero luogo i primi negoziati, si aprì all’inizio degli anni settanta. Un primo risultato fu rappresentato dalla firma (1975) dell’Atto finale della Conferenza dei capi di Stato e di governo, nel quale venivano stabiliti i capisaldi della distensione tra Est e Ovest in materia di sicurezza, economia e diritti umani (i cosiddetti tre ‛cesti’ su cui si era imperniata la trattativa). Scopo dei Sovietici, che per primi avevano promosso la CSCE alla fine degli anni sessanta, era quello di veder indirettamente riconosciuta la loro posizione egemonica in Europa orientale, con l’impegno degli occidentali a intavolare trattative – senza pregiudiziali politiche – sul controllo degli armamenti e sulla cooperazione economica. Gli scopi dell’Occidente erano molto diversi: in primo luogo, consolidare la presenza politica e militare degli Stati Uniti in Europa; in secondo luogo, mettere sul tavolo la questione dei diritti umani nel blocco sovietico (in particolare, gli Stati Uniti usavano la CSCE per stabilire un legame politico tra il progresso sovietico nel campo dei diritti umani e la cooperazione economica e tecnologica).

 

Dopo la firma dell’Atto finale si sono tenute periodiche conferenze di rassegna, durante le quali si riproponeva invariabilmente il dissidio tra i due blocchi, con l’Occidente che contestava all’Est la mancata applicazione dei diritti umani (terzo ‛cesto’) e l’Est che protestava, in particolare contro gli Stati Uniti, per la mancata applicazione dell’accordo di collaborazione economica e tecnologica (secondo ‛cesto’). In materia di sicurezza (primo ‛cesto’), il progresso verso la riduzione degli armamenti era ostacolato da una parte dalla rigidità negoziale e dall’ossessiva segretezza dell’Est, che non permetteva neanche di sapere quali e quanti fossero gli spiegamenti di forze sovietiche in Europa; dall’altra, dalla mancanza, a Ovest, della volontà politica intesa a ottenere quelle riduzioni degli armamenti che avrebbero portato una minore presenza militare americana in Europa, che i paesi europei membri della NATO volevano invece mantenere.

 

Questo stallo negoziale si sarebbe sbloccato a partire dal 1990, quando l’Est in via di democratizzazione non poteva più essere accusato (se non in alcuni casi residui) delle plateali violazioni dei diritti umani di cui era stata responsabile l’URSS; e quando, in Occidente, non solo non si dibatteva più sull’opportunità di aprire commerci ed esportazioni di tecnologie civili all’Est, ma si considerava addirittura la possibilità di far giungere aiuti concreti a quei paesi al fine di favorire il recupero delle collassate economie pianificate, che si aprivano ora al mercato e all’iniziativa privata. Inoltre, pressanti problemi demografici e di bilancio spingevano un po’ tutte le parti a ridurre le forze e le spese militari; infine, una sostanziale riduzione della presenza militare americana nell’Europa occidentale era ormai inevitabile alla luce dell’imminente totale ritiro sovietico da quella orientale. Se a ciò si aggiunge che la nuova politica della glasnost′ (trasparenza) permetteva per la prima volta di avere una chiara cognizione delle forze militari in campo, non sorprende che le due alleanze abbiano potuto trovare un accordo per iniziare il processo di riduzione degli armamenti. Già nel 1987 Stati Uniti e Unione Sovietica potevano accordarsi sul totale ritiro dei missili nucleari a media gittata dall’Europa. Il vertice dei capi di Stato e di governo di Parigi, nel novembre 1990, suggellava il nuovo assetto europeo con la firma del trattato CFE (Conventional Forces in Europe) – che prevedeva una riduzione sostanziale degli armamenti convenzionali in Europa – e di una più ampia ‛carta’ di mutua assistenza e cooperazione tra tutti i paesi partecipanti. La rilevanza della CSCE era confermata al vertice dei capi di Stato e di governo di Budapest del dicembre 1994, che creava l’Organizzazione per la Sicurezza e la Cooperazione in Europa (OSCE), con un proprio segretariato (a Vienna) e una serie di agenzie specializzate.

 

Nel corso del XX secolo lo sviluppo tecnologico, sia civile che militare, ha assunto un peso assolutamente primario nelle relazioni internazionali. Basti pensare, in campo militare, alla meccanizzazione delle forze di terra, all’enorme incremento della capacità di generare volume di fuoco delle armi automatiche, alla diffusione dei sommergibili e allo sviluppo dell’aeronautica militare: si tratta soltanto di alcune delle innovazioni che hanno trasformato radicalmente il modo di combattere. Nella seconda metà del secolo, poi, lo sviluppo dell’arma nucleare ha stravolto tutte le preesistenti concezioni sull’uso della forza rendendo inoltre impossibile una misura coerente delle forze militari degli Stati; tale sviluppo – specialmente dopo che negli anni cinquanta furono messe a punto le testate dei missili balistici intercontinentali – rappresentò, almeno per le maggiori potenze, la fine della ‛guerra clausewitziana’. Come Clausewitz aveva teorizzato nel XIX secolo, la guerra era stata sempre uno strumento da utilizzare a fini politici, al pari della diplomazia e dell’influenza economica; ma con l’avvento di quella che Bernard Brodie (v., 1946) ha appropriatamente definito l’‟arma assoluta”, in grado non tanto di vincere sul campo ma di annientare intere città, la guerra ha perso questa funzione, almeno per quanto concerne le grandi potenze che dispongono di tale arma.

 

Diviene invece fondamentale nel lessico strategico la deterrenza, per cui le armi nucleari servono a scoraggiare il loro stesso uso da parte dell’avversario, mentre se sono usate da una delle parti hanno fallito lo scopo che avevano per entrambe. Da questa situazione deriva l’essenzialità della ‟stabilità strategica” che tali armi devono essere in grado di fornire, la quale diviene più importante della loro potenza distruttiva, dell’affidabilità tecnica e della quantità disponibile. In questo nuovo contesto tecnologico, la stabilità strategica è definita come l’eliminazione dei vantaggi che ciascuna parte potrebbe ottenere nel colpire per prima: diventa quindi essenziale che le potenze nucleari siano in condizione non tanto di usare per prime o più efficacemente le proprie armi nucleari, quanto di poter replicare a un eventuale primo uso da parte del nemico in ogni possibile circostanza. In altre parole, i vertici decisionali delle due – o più – parti contrapposte devono convincersi di non avere alcun interesse a dare inizio a un’escalation nucleare, anche se ciò dovesse significare assorbire il primo colpo della parte avversa; ciascuna parte, cioè, dovrebbe essere consapevole dell’inutilità di lanciare le proprie armi nucleari per prima, in quanto questo non potrebbe comunque evitare una risposta della parte attaccata. La ricerca di questo tipo di stabilità, all’interno di quello che Albert Wohlstetter definì ‟l’equilibrio del terrore” (ma che, più propriamente, Thomas Schelling chiamò ‟l’equilibrio della prudenza”), ha costituito la sfida principale degli strateghi del dopoguerra.

 

In campo civile, va sottolineata l’influenza della tecnologia e dell’informazione sulle relazioni internazionali. La diffusione dei transistor prima, e di fotocopiatrici ed elaboratori elettronici personali dopo, ha reso enormemente più difficile, per i regimi che avessero interesse a farlo, nascondere o distorcere la realtà allo scopo di controllare meglio la società. Tutto ciò è, grosso modo, il contrario di quello che aveva previsto George Orwell quando, verso la metà del secolo, scriveva del pericolo che lo sviluppo e la diffusione della tecnologia dell’informazione avrebbero costituito per la democrazia. Questa tecnologia, ipotizzava Orwell (v., 1949), avrebbe messo i regimi totalitari in condizione di controllare la società così capillarmente da non tralasciare neanche le sfere più intime della vita privata: ciò avrebbe consentito a quei regimi di prevalere sulle democrazie, le quali – non essendo organizzate in modo analogo – sarebbero state meno efficienti nell’incanalare le energie nazionali verso i fini di politica di potenza stabiliti dal potere politico.

 

Lo sviluppo e la diffusione della tecnologia dell’informazione sono avvenuti in termini sorprendentemente simili a quelli paventati da Orwell. Ma, contrariamente ai suoi timori, sono state le democrazie ad avvantaggiarsene. È vero che i regimi autoritari per decenni hanno potuto utilizzare meglio – sia sul piano interno sia su quello internazionale – le tecnologie informatiche a fini di propaganda, ad esempio facendo appello diretto alle popolazioni degli Stati democratici e impedendo al contempo che le informazioni provenienti da questi filtrassero al loro interno; ma tale vantaggio si è rivelato effimero quando alla diffusione capillare della tecnologia dell’informazione si è accompagnata quella della comunicazione orizzontale, per cui non solo i governi e i regimi autoritari, ma anche organizzazioni e altre entità di dimensioni più ridotte e persino singole persone hanno potuto accedervi in modo facile ed economico. Lo sviluppo delle cosiddette ‛reti’ informatiche ha insomma reso possibile e agevole l’accesso da parte di tutti a ogni tipo di informazione, rendendo via via sempre più difficile il controllo dell’informazione stessa a fini politici.

 

Nella seconda metà del secolo, lo sviluppo delle tecnologie civili e militari appena descritte – assieme all’aumento del numero di attori statali e al consolidamento delle organizzazioni internazionali – hanno contribuito a produrre una crescente interdipendenza nelle relazioni internazionali, prima di tutto tra paesi alleati, con valori e sistemi sociali comuni, e in seguito anche tra paesi avversari. Questa interdipendenza si è rivelata da una parte inevitabile, dall’altra molto utile. Si è infatti affermata una nuova concezione delle relazioni internazionali, non più vista come gioco a ‛somma zero’ – in cui i vantaggi acquisiti da uno degli attori equivalgono, per definizione, a quelli persi da uno o più degli altri – o addirittura a ‛somma negativa’ – dove i vantaggi di una parte sono inferiori agli svantaggi procurati alle altre – ma come gioco a ‛somma positiva’, in cui i benefici di una parte non solo non sono incompatibili con quelli delle altre, ma anzi possono essere favoriti da appropriate sinergie. Nel periodo in esame si è diffusa infatti, seppure in modo non uniforme e non lineare, la convinzione che le problematiche internazionali richiedevano ormai un’azione congiunta per ottenere gli indispensabili effetti sinergici.

 

In campo militare, l’interdipendenza nella sicurezza internazionale è diventata inevitabile con l’introduzione negli arsenali delle armi nucleari. Fino al 1945 ciascuno Stato o alleanza poteva pensare di provvedere alle proprie esigenze militari unilateralmente, sia a scopi offensivi che difensivi; l’unico requisito era quello di dotarsi di una forza armata adeguata agli scopi che ci si prefiggeva di raggiungere. Con l’avvento dell’arma nucleare, invece, si è presto verificata da una parte l’impossibilità pressoché assoluta di proteggere città e industrie da un attacco nemico; dall’altra, come conseguenza, l’inutilità di tali armi per usi militari tradizionali, come conquistare o difendere un territorio. Quindi, come si è detto in relazione al concetto di stabilità strategica, la sicurezza si può acquisire non più impedendo, ma solamente scoraggiando un eventuale attacco. Tale obiettivo è raggiungibile dimostrando credibilmente di poter rispondere con una forza parimenti devastante a un’eventuale offesa. Di qui l’importanza di avere un arsenale che, dopo un primo colpo nucleare nemico, per quanto efficace, consenta alla parte attaccata di rispondere con forze tali da infliggere danni inaccettabili all’attaccante, così da creare la condizione strategica di ‟mutua distruzione assicurata” (MAD), come la chiamò il ministro della Difesa americano McNamara negli anni sessanta.

 

Questo criterio di interdipendenza non è universalmente accettato. Esso viene messo in questione sia da chi sostiene la necessità di ricercare la superiorità militare anche in campo nucleare, così come si era sempre fatto con le armi convenzionali prima dell’avvento delle armi nucleari; sia da chi ritiene invece auspicabile lo sviluppo di una capacità difensiva contro di esse. In particolare, la scelta di abbandonare, in quanto futile e destabilizzante, il perseguimento della difesa antinucleare ha incontrato, sia negli Stati Uniti che in Unione Sovietica, fortissime resistenze a livello politico, intellettuale e militare, prima di essere ufficialmente accettata alla fine degli anni sessanta e accolta nelle dottrine militari delle due superpotenze. Anche in seguito si sono verificati rigurgiti di velleità unilateralistiche e difensivistiche che hanno cercato di eludere l’interdipendenza determinata dalla mutua vulnerabilità nucleare, inducendo a perseguire il miraggio della difesa assoluta: lo ‛scudo spaziale’ (SDI, Strategic Defense Initiative) americano degli anni ottanta è stata l’ultima manifestazione di questa tendenza. Più in generale, espressione di queste resistenze è stata la cosiddetta ‛corsa’ agli armamenti nucleari con cui le due superpotenze hanno cercato, invano, di acquisire un vantaggio significativo sull’altra.

 

Nonostante tali resistenze, la progressiva comprensione dell’interdipendenza in materia di sicurezza si è riflessa nell’andamento dei negoziati sul controllo e sulla riduzione degli armamenti. Per la prima volta nella storia molti Stati hanno riconosciuto che i propri interessi di sicurezza avrebbero potuto essere serviti meglio rinunciando a massimizzare il potenziale bellico, offensivo e difensivo, dei propri arsenali: era il riconoscimento politico della differenza, fino ad allora rimasta solo teorica, tra potere e influenza. Dopo alcuni tentativi falliti agli albori dell’era nucleare e volti al bando totale di questo tipo di armi (ad esempio il piano Baruch presentato nel 1946), una delle principali tappe di questo processo è stata segnata dal Trattato di non proliferazione nucleare, negoziato negli anni sessanta ed entrato in vigore nel 1970, con cui quasi tutti gli Stati del mondo, all’infuori dei membri permanenti del Consiglio di sicurezza dell’ONU, rinunciavano al possesso dell’arma nucleare e accettavano controlli sul proprio territorio per verificare che tutti i materiali nucleari ivi presenti fossero utilizzati solo a fini civili. È abbastanza sorprendente che – a quasi trent’anni dall’entrata in vigore di tale Trattato – non ci siano nuovi Stati con comprovati arsenali nucleari (anche se Israele probabilmente lo possiede e India e Pakistan lo hanno recentemente acquisito), che nessun paese firmatario si sia ritirato dal Trattato e, infine, che quest’ultimo – alla sua scadenza, nel 1995 – sia stato rinnovato sine die. Altra tappa importante è stata costituita dal Trattato ABM (Antiballistic Missile) negli anni settanta, con il quale Stati Uniti e Unione Sovietica (e poi Russia) hanno rinunciato a dotarsi di difese contro i missili balistici intercontinentali, accettando così il principio di perseguire il mantenimento della pace tramite una reciproca vulnerabilità. Da ultimo, va ricordato il Trattato INF (Intermediate-Range Nuclear Forces Treaty) del 1987, seguito dai trattati START (Strategic Arms Reduction Treaty) I e II (firmati, rispettivamente, nel 1991 e 1993), grazie ai quali Stati Uniti e Unione Sovietica (e poi Russia) hanno compiuto notevoli progressi verso la riduzione dei propri arsenali offensivi, riconosciuti come largamente in esubero rispetto a qualsivoglia esigenza di deterrenza o di strategia di ‛mutua distruzione assicurata’.

 

In campo convenzionale, l’interdipendenza militare ha contorni meno definiti, e si manifesta soprattutto nella misura in cui questa categoria di armamenti assorbe enormi risorse economiche che devono essere sottratte al settore civile. Solo nel 1990 si sarebbe raggiunto, in occasione del vertice della CSCE di Parigi di cui si è detto sopra, un primo accordo per sostanziali riduzioni convenzionali in Europa: il Trattato CFE (Conventional Forces in Europe) sulle forze convenzionali ha imposto per la prima volta ampi tagli alle forze blindate, corazzate e aeree, nonché alle artiglierie dei paesi della NATO e del Patto di Varsavia. Con lo scioglimento di quest’ultimo, nel 1991, è caduta la logica portante dell’accordo, che si basava su un equilibrio quantitativo tra le due alleanze contrapposte; il Trattato è comunque rimasto in vigore, ma è stato opportunamente modificato nel 1992 per ridistribuire la quota di armamenti originariamente permessa all’URSS tra i paesi nati dalla sua dissoluzione. La Russia ha richiesto e ottenuto nel 1997 ulteriori modifiche al Trattato che tenessero conto delle proprie esigenze militari nel sud del paese, in parte per motivi di insurrezioni interne, specialmente in Cecenia. Inoltre, si sono avviati nello stesso anno ulteriori negoziati per adattare il Trattato al fatto che non esistono più i due blocchi contrapposti, e che molti ex alleati dell’URSS avevano nel frattempo chiesto di entrare a far parte della NATO (nella quale avrebbero portato con sé le quote di armamenti prima assegnate al Patto di Varsavia).

 

In campo economico, l’interdipendenza internazionale ha assunto nel XX secolo dimensioni ancora più evidenti. Tra i paesi più sviluppati, essa è stata la conseguenza necessaria della crescente sofisticazione delle economie e della conseguente necessità di specializzazione per lo sfruttamento delle economie di scala e dei rispettivi vantaggi comparati. Dato che questa interdipendenza toccava importanti interessi costituiti, la resistenza è stata strenua e palese: infatti, il progressivo sviluppo dell’interdipendenza economica andava a toccare non tanto concetti astratti come la stabilità strategica, ma, più tangibilmente, i profitti delle industrie, il tasso di occupazione e il tenore di vita generale delle popolazioni. Per questo motivo, il protezionismo è rimasto forte. Solo sul finire del secolo si è assistito a un parziale abbattimento delle barriere commerciali e dei sussidi alle imprese non competitive, sia a livello regionale (per esempio in ambito comunitario), sia sul piano globale nell’ambito del GATT (General Agreement on Tariffs and Trade), dal 1994 divenuta WTO (World Trade Organization). In quest’ultimo caso, solo nel dicembre 1993, dopo oltre sette anni di trattative, si è raggiunto un accordo per una parziale liberalizzazione dei commerci e per una riduzione dei sussidi.

 

In Europa, negli anni cinquanta, c’è stata una forte opposizione delle industrie alla creazione della CEE. Gli industriali più deboli (tra cui molti italiani) avevano timore di perdere fette del mercato nazionale, che era stato fino ad allora protetto dall’agguerrita concorrenza europea; ma infine prevalse la volontà politica di affrontare la sfida, ben sapendo che avrebbe comportato sacrifici nel breve termine. L’obiettivo, poi raggiunto, era quello di obbligare le imprese a una maggiore efficienza economica, che avrebbe consentito un aumento del tenore di vita generale a medio e lungo termine. L’apertura al commercio e agli investimenti internazionali si è rivelata non solo la migliore, ma l’unica via per mantenere uno sviluppo organico in un’economia internazionale sempre più complessa e specializzata, dove ogni forma di autarchia è fatalmente penalizzata. Corollario di ciò è stato il prevalere, quantitativo ma soprattutto qualitativo, delle economie di mercato su quelle pianificate, incapaci di adattarsi ai rapidi ritmi imposti dall’accelerazione dell’innovazione tecnologica.

 

Tra i paesi industrializzati e quelli meno sviluppati l’interdipendenza economica si è manifestata soprattutto nella necessità di creare, per i primi, mercati stabili e forniture affidabili di materie prime, e per i secondi di ricevere assistenza manageriale, tecnologica e finanziaria. Il forte squilibrio della leva negoziale tra Nord e Sud portava a una relazione che da molti veniva definita, più che di interdipendenza, di dipendenza del Sud dal Nord o di ‛neocolonialismo’; un fenomeno che, come si è accennato sopra, perpetuava non solo la subordinazione dei paesi di nuova indipendenza a quelli ex coloniali, ma anche la crescita del divario del tasso di sviluppo tra i primi e i secondi. Di qui è nata la necessità per il Nord – anche nel proprio interesse, per mantenere cioè l’efficienza di economie naturalmente complementari – di fornire un sostegno allo sviluppo del Sud: si è così gradualmente diffuso, a partire dagli anni sessanta, soprattutto nei paesi più ricchi, un largo consenso sulla opportunità di fornire ingenti ‛aiuti allo sviluppo’. Il problema più grave in questo contesto è stato e continua a essere quello di trovare il modo di rendere efficaci tali aiuti, in quanto frequentemente accade che ingenti risorse vadano sprecate, sia a causa della mancanza delle strutture e delle capacità di utilizzarle da parte dei paesi ricettori, sia perché le condizioni imposte dai paesi donatori spesso hanno favorito le imprese appaltatrici degli stessi più che le economie dei paesi destinatari.

 

L’erosione del sistema bipolare è iniziata quasi subito, per certi aspetti ancora prima che questo si fosse completamente formato. Ha cominciato a sgretolarsi prima di tutto l’egemonia americana nel polo occidentale, e solo successivamente, ma più rapidamente e radicalmente, quella sovietica nel polo orientale. L’erosione dell’egemonia americana ha avuto inizio in campo strategico verso la fine degli anni cinquanta, e in quello economico dalla metà degli anni sessanta. In conseguenza di ciò, nell’ambito della NATO è sorto il problema della credibilità della ‛deterrenza estesa’, cioè della volontà americana di estendere la capacità deterrente del proprio arsenale nucleare anche agli alleati europei. Quasi al di sopra di ogni sospetto nell’immediato dopoguerra, tale credibilità è stata gradualmente ma gravemente minata dalla crescita degli arsenali strategici sovietici, simbolizzata dal lancio del primo missile nello spazio nel 1957. Dal momento che i Sovietici erano ormai in grado di colpire gli Stati Uniti con i loro vettori intercontinentali, non era più accettabile per Washington minacciare di rispondere a un attacco sovietico contro l’Europa con una rappresaglia americana contro l’URSS, dato che questa avrebbe portato a una controrisposta sovietica contro gli stessi Stati Uniti.

 

A fronte di ciò, Francia e Regno Unito decisero di dotarsi di un deterrente nucleare nazionale. Gli altri paesi della NATO, non volendo o potendo fare altrettanto, dovettero continuare a fare affidamento sull’ombrello nucleare americano. A partire dagli anni sessanta gli Americani proposero la strategia della ‛risposta flessibile’, per cui a un attacco sovietico contro l’Europa gli Stati Uniti avrebbero reagito non già contro l’URSS, ma contro le sole truppe sovietiche in Europa, cercando cioè non tanto di rispondere all’attacco iniziale, ma di neutralizzarlo e restaurare una condizione di deterrenza. Gli Europei in genere si opponevano a questo cambiamento, sia per l’impossibilità tecnica di realizzare tale strategia senza danni collaterali inaccettabili per le popolazioni civili, sia perché la risposta ‛flessibile’ faceva dell’Europa il campo di quella che qualcuno paventava potesse divenire una ‛guerra nucleare limitata’. Gli Europei non potevano peraltro proporre alternative migliori, e dovevano, loro malgrado, accettare questa impostazione strategica come il danno minore rispetto alla eventualità di rinunciare del tutto alla copertura nucleare americana. Il cambiamento denotava comunque la fine del predominio strategico assoluto degli Stati Uniti, il cui territorio per la prima volta diventava vulnerabile ad attacchi esterni. La fine dell’egemonia strategica americana fu ulteriormente accelerata da fattori esogeni quali la vittoria delle forze comuniste in Vietnam, le crisi petrolifere degli anni settanta e il terrorismo, tutte minacce contro cui la preponderante potenza militare americana appariva impotente.

 

La fine dell’egemonia americana nel campo occidentale era confermata anche a livello economico, con la debolezza del dollaro che nel 1971 veniva dichiarato non più convertibile in oro, portando così alla fine del regime dei cambi fissi di Bretton Woods. Successivamente, il consolidarsi della nuova superpotenza economica giapponese, da una parte, e la formazione di un polo economico in Europa occidentale dall’altra, creavano una nuova condizione tripolare in cui gli Stati Uniti rimanevano la maggiore economia del pianeta ma dovevano confrontarsi su un piano paritetico con gli alleati europei e asiatici.

 

Le grandi potenze coloniali avevano visto finire il ruolo globale che avevano acquisito a seguito delle loro ‛vittorie’ nelle due guerre mondiali; gli Stati Uniti vedevano ridimensionarsi il loro nel momento in cui si celebrava il successo della rinascita economica e politica dei paesi alleati, alla quale gli stessi Stati Uniti avevano contribuito in modo determinante con gli aiuti forniti all’Europa nell’immediato dopoguerra tramite il cosiddetto ‛Piano Marshall’ (dal nome del segretario di Stato americano che lo concepì). A differenza di quanto è accaduto alle ex potenze coloniali, sul finire del secolo il ruolo globale degli Stati Uniti non è venuto meno. Ciò, in primo luogo, in virtù del vuoto geopolitico creato dal ritiro sovietico, concomitante al crollo dell’ideologia marxista; in secondo luogo, a causa del mancato emergere di nuove superpotenze militari; e infine per la preponderanza statunitense nel campo dei modelli culturali che – negli ambiti più diversi, e non senza controversie – si sono diffusi in modo capillare e globale.

 

L’erosione dell’egemonia sovietica nel blocco orientale è stata di natura completamente diversa ed è cominciata molto tempo dopo quella degli Stati Uniti in Occidente, sia perché si fondava su un sistema più coercitivo e perciò più resistente, sia perché le carenze del sistema sociale ed economico dell’URSS sono emerse in modo significativo solo più tardi. Una volta palesatesi, però, queste carenze si sono rivelate, oltre che assolutamente incurabili, anche causa di rapida decadenza e hanno quindi portato a un crollo precipitoso e completo del sistema egemonico che si fondava su quell’assetto socio-economico.

 

La prima manifestazione dell’insostenibilità dell’egemonia sovietica fu la rottura, ideologica e politica, con la Cina comunista di Mao Zedong. Quest’ultima, già pochi anni dopo la Rivoluzione del 1949, mirava a una propria autonoma politica nazionale, che mal si conciliava con la pretesa di Mosca di continuare a dirigere il blocco geopolitico comunista, così come aveva potuto fare Stalin con i partiti del movimento comunista internazionale. I primi attriti si manifestarono quando Pechino richiese l’assistenza sovietica nella produzione della bomba nucleare cinese, cui Mosca oppose un rifiuto. Inoltre, l’URSS, alla ricerca di quella che Chruščëv chiamò la ‟coesistenza pacifica”, rifiutava di assecondare l’avventurismo cinese contro l’Occidente, e in particolare contro gli Stati Uniti. La rottura sarebbe divenuta definitiva nel 1960, anche se gli attriti si sarebbero prolungati per circa vent’anni, ossia fino a quando le parti si sarebbero invertite, con i Cinesi del postmaoismo alla ricerca di migliori rapporti con l’Occidente – delle cui tecnologie e investimenti avevano bisogno – e i Sovietici del periodo tardo brežneviano impegnati in vari tentativi di ulteriore espansione geopolitica, soprattutto in Africa, in America Latina e in Afghanistan.

 

Più o meno contemporaneamente alla rottura con Pechino, le prime riforme economiche e politiche nell’Europa orientale comunista (soprattutto in Polonia, Ungheria e Cecoslovacchia) diedero inizio alla destalinizzazione, introducendo cambiamenti che minavano in vario modo la natura marxista-leninista dei paesi satelliti. L’egemonia sovietica si dimostrava quindi da una parte meno schiacciante di prima (di pari passo alla trasformazione del sistema sovietico dal totalitarismo staliniano all’autoritarismo dei suoi successori), ma dall’altra più sclerotizzata e refrattaria all’innovazione.

 

Accanto ai fattori di erosione delle egemonie americana e sovietica appena descritti – che si potrebbero classificare come ‛endogeni’ ai due blocchi – si deve considerare anche l’emergere di un nuovo importante gruppo di attori sullo scenario internazionale. Almeno quattro di essi meritano un’analisi più specifica. Il più importante è senza dubbio quello dei paesi arabi, emerso con la cosiddetta ‛prima crisi petrolifera’ degli anni settanta: alla quadruplicazione del prezzo del petrolio da parte dell’OPEC era seguito un rapido aumento del potere finanziario e, di riflesso, anche politico dei paesi arabi che costituivano l’ossatura di quella organizzazione. Le economie occidentali erano impreparate a un tale evento e ne soffrirono quindi gravemente, mentre i Sovietici, primi produttori di idrocarburi del mondo, ne trassero un inaspettato beneficio finanziario. A tale proposito, vale la pena di ricordare che secondo autorevoli economisti ex sovietici l’enorme introito di valuta pregiata negli anni successivi alla crisi petrolifera avrebbe permesso alla dirigenza sovietica di rinviare riforme economiche altrimenti inevitabili sin da allora, ossia molto tempo prima di Gorbačëv. Nel 1979 la rivoluzione iraniana portò a un ulteriore raddoppio del prezzo del petrolio: la ‛seconda crisi petrolifera’ che ne derivò ebbe tuttavia effetti molto più attenuati sulle economie occidentali, che negli anni successivi al 1973 avevano adottato, anche se in modo non uniforme, misure per la riduzione dei consumi, per lo sviluppo di fonti primarie alternative di energia (prima fra tutte quella nucleare), per l’accumulazione di scorte strategiche e per la diversificazione della gamma dei fornitori. Per questi motivi, il prezzo del petrolio, e il suo potere politico, sarebbero notevolmente diminuiti durante gli ultimi due decenni del secolo. Tuttavia, il gruppo dei paesi esportatori di petrolio – e soprattutto quelli arabi all’interno dell’OPEC – sarebbe stabilmente rimasto un attore fondamentale della politica, del commercio e della finanza internazionali.

 

Un altro dei nuovi attori che hanno contribuito all’erosione del bipolarismo è stato il Giappone, nuova superpotenza economica, seconda solo agli Stati Uniti, e maggiore creditore mondiale. La memoria storica del disastro della seconda guerra mondiale ha però reso Tokyo riluttante ad assumersi responsabilità politiche – e meno che mai militari – commisurate alla sua statura economica; questa ‛timidezza politica’ sta tuttavia svanendo sul finire del secolo. Dalla metà degli anni ottanta le forze armate giapponesi sono diventate le più potenti del mondo dopo quelle delle cinque potenze nucleari, e nel 1992 il Giappone, per la prima volta dal 1945, ha inviato forze militari all’estero (seppure non in ruoli di combattimento) nell’ambito di missioni internazionali di pace con mandato ONU.

 

In terzo luogo, il bipolarismo è stato eroso dal crescente peso politico del cosiddetto ‛movimento dei paesi non allineati’, fondato a Bandung, in Indonesia, nel 1955; esso si proponeva di favorire la cooperazione politica tra paesi, soprattutto del Terzo Mondo, che non volevano accettare la logica bipolare dei blocchi. Spiccavano, nel movimento, il ruolo dell’India e quello della Iugoslavia, paesi che più di tutti contribuirono a consolidarne la statura e a svilupparne l’iniziativa politica internazionale, conquistando anche il rispetto delle superpotenze e degli Stati appartenenti ai due blocchi. Fallirono invece i ripetuti tentativi, soprattutto da parte di Cuba, di avvicinare il movimento alle posizioni dell’URSS, che L’Avana voleva far considerare un ‛alleato naturale’ dei non allineati contro l’imperialismo americano.

 

Ultimo fattore di erosione del bipolarismo è stata la crescita del peso politico ed economico della Comunità (poi Unione) Europea, soprattutto dalla seconda metà degli anni ottanta. Pur deludendo le aspettative dei federalisti più convinti, la Comunità è venuta gradualmente rafforzandosi, contribuendo a emancipare gli europei occidentali dall’egemonia economica e politica americana. Allo stesso tempo, l’emancipazione dell’Europa centro-orientale dalla tutela sovietica, grazie all’opera di Gorbačëv, ha fatto sì che la Comunità Europea divenisse un polo d’attrazione per gli Stati di quell’area (e perfino per alcuni di quelli neoindipendenti succeduti all’URSS), i quali sperano di riallacciarsi all’Occidente.

 

Il fatto forse più notevole del processo di erosione del bipolarismo – e che rende tale processo unico nella storia del sistema internazionale – è che esso sia stato in buona parte non solo non ostacolato, ma anzi auspicato da tutte e due le superpotenze. Queste, a differenza delle potenze egemoni di passati ordinamenti internazionali, e se pur in modo molto diverso, hanno generalmente incoraggiato gli Stati che erano sotto la loro tutela egemonica ad assumersi maggiori responsabilità, sia sotto il profilo economico che sotto quello militare; esse hanno allo stesso tempo cercato, senza successo, di mantenere un’influenza politica, che però diveniva via via sempre meno compatibile con la fine dell’egemonia economica e militare. Per comprendere questi comportamenti delle due superpotenze si possono individuare due ordini di motivazioni: in primo luogo, Stati Uniti e Unione Sovietica erano diventate sempre più incapaci di sopportare il peso economico della propria egemonia. In Occidente ne è stato un sintomo il prolungato dibattito, in seno alla NATO, sulla ripartizione degli oneri della difesa, con gli Stati Uniti costantemente alla ricerca di argomenti per far aumentare i bilanci militari dei recalcitranti alleati. Questo ha fatto sì che gli alleati europei della NATO abbiano acquisito, nel tempo, anche una maggiore responsabilità nella gestione dell’Alleanza. Nel blocco sovietico, invece, il problema era rappresentato soprattutto dall’onere delle sovvenzioni al commercio con gli alleati del COMECON.

In secondo luogo, la fine del bipolarismo è stata auspicata dalle due superpotenze anche in seguito all’emergere di nuovi interessi comuni. Tra questi, si possono individuare la cosiddetta ‛minaccia’ – sia pure non immediata – proveniente dal Sud del mondo, spesso identificata nell’accresciuta potenzialità di molti paesi poveri ma militarmente sempre più evoluti grazie alla proliferazione delle tecnologie militari e all’esportazione non abbastanza discriminante da parte dei paesi del Nord. Questa percezione di minaccia è stata acuita negli anni ottanta dal diffondersi del fondamentalismo islamico in seguito alla rivoluzione iraniana. Inoltre, sono cresciute le minacce non militari: in primo luogo, la pressione demografica dei paesi del Sud è divenuta sempre meno contenibile per il Nord e sempre più concorrenziale per l’Est, che ha bisogno degli stessi aiuti che il Nord tradizionalmente assegnava al Sud; inoltre, il degrado dell’ambiente, contro il quale ogni egemonia è inutile, è stato sempre più ampiamente riconosciuto come un nuovo, grave pericolo per l’umanità del XXI secolo, per affrontare il quale è indispensabile anche la cooperazione dei paesi in via di industrializzazione. Corollario di questa nuova comunanza di interessi è quindi il sorgere della necessità – per le potenze ex egemoni, e più in generale per i due ex blocchi del Nord – anzitutto di cooperare tra loro e quindi di usare persuasione, incentivazione e pressioni politiche al fine di ottenere la cooperazione anche degli altri Stati.

 

Si è detto che la fine del bipolarismo nell’assetto geopolitico mondiale non è stata simmetrica. L’URSS è sparita, ma già dagli ultimi anni ottanta aveva rinunciato al ruolo egemone che aveva avuto in Europa orientale a partire dalla fine della seconda guerra mondiale, e non sosteneva più né l’opportunità politica né la possibilità pratica di esportare il proprio modello ideologico ed economico nel Terzo Mondo. Dopo la liberalizzazione interna iniziata da Michail Gorbačëv, l’egemonia sovietica in Europa orientale, già economicamente gravosa, era diventata per Mosca insostenibile anche politicamente. Al contrario, gli Stati Uniti potevano constatare una crescente accettazione in tutto il mondo industrializzato, pur con notevoli variazioni, delle premesse fondamentali del modello di democrazia liberale capitalistica. Tuttavia, anche per gli Americani si è posto il problema di quella che Paul Kennedy (v., 1987) ha chiamato la ‟sovradistensione imperiale”, dovuta all’eccesso di impegni politici e militari nel mondo in rapporto alle capacità dell’economia per sostenerle. Conseguentemente, gli Stati Uniti appaiono alla fine del secolo come l’unica superpotenza con interessi globali, la cui egemonia, tuttavia, che dura ormai da venti anni, continua a subire una lenta erosione.

 

Per l’Occidente, la conseguenza più rilevante del declino sovietico è stata che il dominio dell’URSS sull’Europa orientale, da fattore geopoliticamente stabilizzante, è diventato fonte di instabilità. L’Unione Sovietica ha accettato il ridimensionamento del proprio potere internazionale, e quindi anche la propria dissoluzione, con una rapidità e una tranquillità sorprendenti, senza paragone nella storia recente. A seguito di ciò, il mantenimento della stabilità internazionale ha significato per l’Occidente non più la difesa dello status quo (inevitabile, quando cercare di modificarlo avrebbe rischiato di provocare una guerra mondiale), ma un’accorta gestione del cambiamento geopolitico, soprattutto in Europa, reso oggi inevitabile dal vuoto di potere creato dal declino sovietico. Nel lungo termine, se le riforme economiche in Russia avranno successo, e se nel frattempo il paese non si sarà disintegrato così come successo all’URSS, esiste la possibilità di un futuro risorgere di opportunità espansionistiche e anche egemoniche per Mosca. Questo timore è il motivo per cui nei primi anni della perestrojka si discuteva se aiutare il Cremlino a rifondare un’Unione Sovietica più efficiente, ricca e tecnologicamente avanzata, fosse effettivamente nell’interesse dell’Occidente. Tuttavia, dopo il 1989, con l’inizio del ritiro sovietico dall’Europa orientale, i paesi occidentali si sono trovati d’accordo nel ritenere che il problema più urgente era aiutare Mosca a gestire il proprio declino geopolitico, minimizzando i pur necessari scossoni economici e sociali che avrebbero potuto pericolosamente ripercuotersi anche al di fuori di quel paese. Alla fine del secolo, questa rimane la questione più critica all’interno di quelli che finora si erano chiamati i ‛rapporti Est-Ovest’.

 

Con il crollo dell’egemonia sovietica si è quindi superata, almeno per il momento, la divisione militare dell’Europa. Ciò ha creato alcune condizioni necessarie, anche se non ancora sufficienti, per un ulteriore superamento delle rimanenti barriere politiche, economiche e culturali. Alle opportunità che si schiudono corrispondono però altrettanti rischi, che non sono meno gravi di quelli a suo tempo creati dalla contrapposizione dei blocchi.

 

Il pericolo più imminente è che il superamento della divisione geopolitica dell’Europa venga salutato come l’occasione per una generalizzata restaurazione, acritica e nostalgica, dei valori politici e culturali antecedenti a quella divisione. Questi erano i valori degli Stati-nazione, pienamente sovrani e impegnati a massimizzare la propria influenza sugli altri Stati. Se così fosse, alla divisione in due blocchi potrebbe subentrare non l’unità, ma la frammentazione del continente, che sarebbe foriera di ulteriore instabilità, potenzialmente meno apocalittica di quella nucleare ma anche assai meno prevedibile. In Europa, parallelamente alla graduale erosione dell’influenza delle superpotenze, si assiste già a una ‛rinazionalizzazione’ della politica internazionale. Il risorgere del nazionalismo è già divenuto altamente conflittuale, soprattutto in alcune parti dell’Europa orientale e nei Balcani. Quello che avrebbe potuto essere il caso più preoccupante a questo riguardo, e cioè il revanscismo tedesco nei confronti dei territori persi dopo la seconda guerra mondiale, è stato risolto in modo prevedibilmente definitivo con l’unificazione tedesca e la conseguente firma di trattati tra la Germania, la Polonia e l’Unione Sovietica.

Meno prevedibili gli sviluppi in Europa orientale. Qui, a causa del prolungato asservimento forzato all’URSS, ogni forma di integrazione internazionale viene vista in sé e per sé come asservimento al potere straniero, e quindi un certo neonazionalismo è stato percepito come sinonimo di indipendenza nazionale. Antichi contenziosi irrisolti rendono possibile il pericoloso riaprirsi di questioni di frontiera e di minoranze etniche, di cui è disseminata la regione. Tuttavia, si è detto che in questi paesi è via via maturata una nuova coscienza internazionalistica, che si è tradotta in sempre più pressanti richieste di adesione alle strutture internazionali (prime fra tutte Unione Europea e NATO).

 

Il caso più grave di conflitto ‛post-bipolare’ è dovuto, più che alla restaurazione dei valori nazionali, addirittura alla loro esasperazione nel tribalismo: dal 1991 in poi si è assistito all’implosione della Iugoslavia, causata dalla crisi economica interna e successivamente favorita dall’incoraggiamento che le maggiori potenze estere hanno dato alle diverse forze secessioniste. La guerra iugoslava, che è appropriato definire guerra civile, ha brutalmente ricordato agli Europei che la fine della guerra fredda non ha prodotto, come forse alcuni avevano ingenuamente pensato, un sistema internazionale più sicuro, e neanche più facile da gestire.

 

La stabilità della politica internazionale del mondo industrializzato è stata determinata per quattro decenni dalla sinergia tra bipolarismo politico, effetto deterrente delle armi nucleari e crescente ruolo delle istituzioni internazionali, che hanno favorito il consolidarsi di una sempre maggiore interdipendenza. Sul finire del secolo, il primo dei tre fattori ha esaurito la propria funzione, e quella del secondo è molto ridimensionata; nel prossimo decennio, la stabilità dovrà dunque essere ricercata soprattutto in una maggiore interdipendenza e in un ruolo delle istituzioni internazionali a essa adeguato.

 

Qualcuno ha parlato del tempo presente come dell’era post-americana. Altri hanno definito il XXI secolo, il secolo della Cina. In realtà, esso potrebbe essere definito altrettanto bene come il secolo della rivincita di quei paesi che, sfruttati lungamente dall’imperialismo occidentale, sembrano aver oggi rimosso ogni timore reverenziale e sfidano in campo aperto i padroni di ieri.

 

Se noi guardiamo, però, le cose con più attenzione, vediamo che i veri signori del mondo, oggi sono i mandarini del capitale globale, i signori degli hedge funds. i gestori dei fondi pensione: in una parola, i veri padroni del mondo oggi sono i discendenti di quelli che un tempo venivano chiamati gli “gnomi di Zurigo”. Dicendo questo, non intendo evocare l’esistenza di una sorta di patto segreto stretto da questi signori per il dominio del mondo. Essi non hanno bisogno di alcunché del genere. A tenere insieme il mondo è la logica che regola il funzionamento del finanzkapital. E’ tale logica che oggi costituisce il “lato oscuro della forza”.

 

 

Pubblicato in Uncategorized | Lascia un commento

La questione della giustizia

Prefazione. La questione della giustizia è antica come la filosofia. Già Platone, in Repubblica, dedicava il primo libro a una discussione che vedeva contrapporsi le differenti opinioni che circolavano a quel tempo tra i cittadini e gli ‛intellettuali’, i sofisti. La discussione è ancora in corso, a dimostrazione della sua “radicalità”. La questione della giustizia è sempre stata infatti una “questione di frontiera”.

 

Parte prima.

Teorie della giustizia.

 

a) La giustizia come retaggio dell’umanità. Il relativismo etico-giuridico pone in dubbio la possibilità di una fondazione della giustizia non condizionata storicamente e culturalmente. Questa posizione, diffusa soprattutto tra sociologi e giuristi (ad esempio, R. V. Jhering e M. Weber), è stata sostenuta in modo eminente da Hans Kelsen (v., 19602), successivamente dal teorico della giustizia Chaim Perelman (v., 1945) e di recente dal filosofo morale Alasdair MacIntyre. Come è suggerito da una delle domande che compongono il titolo di una sua opera – Whose justice? -, MacIntyre (v., 1988) non riconosce alla giustizia alcun principio universale e arriva addirittura a contestare la validità metastorica dei diritti umani (v. MacIntyre, 19852; sulla stessa linea v. anche Rorty, 1989, mentre su posizioni contrapposte, pur dopo un primo approccio, anch’esso, di tipo scettico, v. Lyotard, 1983). In una prospettiva neocomunitaria (v. neocomunitarismo, vol. XI), MacIntyre difende gli stili di vita e le consuetudini, prodottisi nel tempo, di una data comunità (community). Altri neocomunitari (v. Sandel, 1982; v. Taylor, 1991) parlano di shared values o shared convictions, ossia di valori e convinzioni condivisi.

Secondo Höffe (v., ‟Sed auctoritas…, 1996) i sostenitori del neocomunitarismo compiono un errore di prospettiva: nella misura in cui essi non distinguono in modo sufficientemente chiaro le rappresentazioni della giustizia – che vengono tramandate, così come i diversi principî distributivi – da un nucleo (non controverso), sfugge loro la possibilità di partecipare della giustizia, partecipazione che viene condivisa da tutte le culture a noi conosciute. Anche M. Walzer in Spheres of justice (v., 1983) presta troppo poca attenzione al fatto che ci siano oltre a principî di giustizia specifici a seconda delle sfere (che egli giustamente prende in considerazione, anche se non per primo: v., in proposito, Tönnies, 1887), anche principî validi indipendentemente da tali sfere. Essi sono un retaggio dell’umanità intera, una ‟shared justice”, una giustizia che già empiricamente è valida, non solo in un territorio e in un’epoca determinati. Questa giustizia che travalica culture ed epoche – e che in questo senso può essere definita universale – permette di parlare dell’umanità intera come di una comunità morale, meglio ancora come di una comunità di giustizia. I fondamenti della comunanza sono antropologici. Da un lato, cioè dal lato della sfida (challenge), essi sono costituiti dalla limitatezza del territorio e dalla scarsità dei beni disponibili, i quali, insieme alla libertà d’azione degli uomini, portano alla concorrenza e al conflitto; dall’altro lato, cioè dal lato della risposta (response), essi sono costituiti dalle comuni capacità linguistiche e razionali.

La nostra epoca, in particolare, proprio perché è l’epoca della globalizzazione, richiede un discorso interculturale sulla giustizia e una giustizia condivisibile dall’umanità intera, ovvero universale. Quest’ultima prende le mosse dall’imperativo dell’uguaglianza (‛casi uguali devono essere trattati in modo uguale’), che viene formulato anche come divieto di arbitrio e imperativo di imparzialità e al quale sono d’ausilio i principî della giustizia procedurale (v. cap. 4). Per evidenziarne l’imparzialità, l’arte figurativa (v. Kissel, 1984) rappresenta la giustizia con gli occhi bendati e con una bilancia. Sono riconosciute universalmente anche l’idea di reciprocità, come viene espressa nella regola aurea, e l’esigenza di equità nel prendere e nel dare (giustizia commutativa), la cui applicazione non si limita certamente ai rapporti economici (v. cap. 5).

Alla giustizia universale appartiene inoltre il riconoscimento di beni giuridici come il corpo e la vita, la proprietà e il buon nome (l’onore), riconoscimento che si avvicina all’idea dei diritti umani, specialmente dei diritti di libertà, e che trova testimonianza già nel diritto penale dell’antico Oriente. Al retaggio comune dell’umanità appartiene anche quell’idea di giustizia correttiva – sviluppata nella trattazione aristotelica della giustizia, contenuta nel V libro dell’Etica Nicomachea (v. Bien, 1995) – che esige una compensazione per il torto subito (v. cap. 6). Tale compensazione non va intesa nel senso letterale di uno ius talionis (‛occhio per occhio, dente per dente’), bensì nel senso che un torto maggiore esige una compensazione maggiore e un torto minore una minore. In età arcaica l’umanità si aspettava che in generale convenisse fare il bene e costasse caro fare il male, in parte già nella vita terrena (si pensi alla vicenda biblica di Giobbe; v. anche Platone, Repubblica, IX, 576b ss.), in parte per il prolungamento delle conseguenze delle proprie azioni nella vita ultraterrena. E questa aspettativa non riguardava solo l’ambito religioso (per il periodo pregiudaico, per l’Egitto e la sua idea di Ma′at, di giustizia connettiva, v. Assmann, 19952), ma anche quello filosofico (Repubblica, X, 608c ss.).

 

b) La giustizia formale. Un precedente nella definizione del retaggio della giustizia comune all’umanità è rappresentato dalla giustizia formale o astratta di Perelman. In De la justice Perelman (v., 1945) cerca il nucleo comune ai diversi e contrastanti principî distributivi e lo rintraccia nell’imperativo dell’uguaglianza: ciascuno deve essere trattato secondo lo stesso criterio. L’imperativo viene soddisfatto dall’applicazione imparziale delle regole. Perelman, tuttavia, non tenta di completare tale imparzialità di primo livello – relativa all’applicazione delle regole – con un’imparzialità di secondo livello, concernente la determinazione stessa delle regole, in virtù della quale il criterio che guida la distribuzione dei beni e degli oneri sarebbe definibile senza prendere in considerazione la persona specifica: non ci si deve aspettare un’unica regola per tutti gli ambiti dell’esistenza. Nei diritti umani e fondamentali conta l’uguaglianza (‛a ciascuno secondo il proprio valore esclusivamente in quanto uomo’), per la sicurezza primaria dell’esistenza si impone invece l’aspetto della necessità (‛a ciascuno secondo i propri bisogni’); infine, nel mondo del lavoro e degli affari conta il principio del profitto, così come nella procedura penale è decisiva la gravità della lesione del diritto, connessa alla capacità di intendere e di volere.

 

c) La semantica della giustizia. Nonostante la svolta generale verso approcci di tipo filosofico-linguistico (linguistic turn) le ricerche semantiche attorno al concetto di giustizia sono sorprendentemente rare. Alcuni accenni possono essere rinvenuti in Hayek (v., 1976) e in Lucas (v., 1980) e, più dettagliatamente, in Höffe (v., 1987). La domanda di giustizia – nella sua originaria semplicità – sorge dalla constatazione che la prassi umana può essere così, ma anche altrimenti, e che essa, nel suo configurarsi di volta in volta in modo diverso, dipende da soggetti capaci di intendere e di volere. Più specificamente si tratta della prassi sociale e, al suo interno, delle situazioni conflittuali che emergono nelle relazioni personali, nei rapporti d’affari, nelle istituzioni sociali – in modo particolare nel diritto e nello Stato -, nelle relazioni tra gli Stati, e non da ultimo nei rapporti tra i contemporanei e le future generazioni. Nella sfera dei giudizi od obblighi sociali, la giustizia non fa parte di quelli che vigono concretamente, ossia di quelli meramente positivi, bensì di quelli puramente normativi e sovrapositivi. Questi si possono disporre secondo tre livelli gerarchicamente ordinati, ai quali corrispondono altrettanti significati di ‛buono’. La giustizia si colloca al terzo e supremo livello, quello morale in senso stretto.

Al primo livello di giudizio (o di obbligo), mezzi, vie e procedure vengono valutati a partire da un qualunque fine o scopo, che di volta in volta si sia presupposto. Gli obblighi corrispondenti – strumentali, funzionali, tecnici o strategici – significano ‛buono per qualcosa (qualsiasi cosa)’. Al secondo livello i fini o gli scopi, che al primo livello non vengono tematizzati in senso normativo, sono giudicati in base all’interesse o al benessere di coloro che sono coinvolti; ‛buono’ significa qui ‛buono per qualcuno’. A causa dell’orientamento al benessere che lo caratterizza, questo livello è stato definito ‛pragmatico’ a partire da Kant (Kritik der reinen Vernunft, A 800/B 828). Se si tratta del bene di un singolo si ha un giudizio pragmatico individuale, mentre se si tratta del bene di un gruppo si ha un giudizio pragmatico sociale, che, essendo conforme a un criterio utilitaristico, vincola ogni agire al benessere degli individui coinvolti. Secondo una concezione collettiva del bene comune (di tutti), il diritto, lo Stato e la politica vengono orientati in base a fini quali la stabilità, la sicurezza e il benessere generale.

Chi ritiene di avere già raggiunto in tal modo il livello più alto, non prende in considerazione la possibilità di giudizi del tipo ‛astuto, ma ingiusto’ o ‛forse sciocco, ma onesto’ o, con riferimento a una prospettiva utilitaristica, ‛favorevole al bene comune, ma ingiusto’. Il secondo livello è infatti indifferente rispetto alla distribuzione del bene comune. Il terzo livello, puramente morale, va oltre tale indifferenza. Il bene comune viene inteso in senso distributivo e, secondo un presupposto più stringente, ‛buono’ non significa solamente ‛buono per un gruppo’, bensì ‛buono per ciascuno singolarmente’. Interviene così un obbligo che non si lascia annullare da altri obblighi e rispetto al quale non si può negoziare; in quanto esigenza morale, la giustizia è valida incondizionatamente (categoricamente). La giustizia, tuttavia, non esaurisce l’intero ambito della morale. Non solo non vengono ricompresi, al suo interno, eventuali doveri umani, ma anche nell’ambito della morale sociale la giustizia riguarda soltanto una piccola parte. Mentre di fronte alla mancanza di compassione, di carità e di generosità – e forse anche di gratitudine e di disponibilità al perdono – si prova delusione, di fronte alla mancanza di giustizia si alza l’indignazione e la protesta (v. Honneth, 1990; v. Shklar, 1990; per indagini storiche v., ad esempio, Moore, 1978). Nel primo caso ci troviamo di fronte a obblighi il cui riconoscimento è meritorio – la tradizione filosofica parla di doveri della virtù (Tugendpflichten); nel secondo caso, invece, intervengono, in materia di giustizia, i cosiddetti ‛doveri del diritto’ (Rechtpflichten), la cui caratteristica è quella di essere reciproci. La giustizia si distingue anche dalle forme secolarizzate di amore per il prossimo, di fratellanza o solidarietà: un agire solidale possiamo chiederlo agli altri o sperarlo; la giustizia invece possiamo pretenderla. A un’analisi più ravvicinata, ciò che sembra un dovere di solidarietà può tuttavia rivelarsi istanza di giustizia: aiutare qualcuno in una situazione di emergenza per la quale non si hanno responsabilità, testimonia compassione o solidarietà; ma se abbiamo contribuito a determinare quell’emergenza, allora offrire aiuto è compito della giustizia.

 

d) La giustizia personale e politica. Secondo i due aspetti della prassi sociale vi sono, da un punto di vista tematico, due concetti di giustizia. Il concetto istituzionale (‛oggettivo’) riguarda le istituzioni e i sistemi sociali, come il matrimonio e la famiglia, l’economia, le scuole, le università e – in quanto giustizia politica – lo Stato, il diritto e la politica. Il concetto personale (‛soggettivo’) intende, al contrario, la giustizia come caratteristica delle persone, e tale giustizia tradizionalmente viene annoverata – accanto alla prudenza, alla temperanza e al coraggio – tra le quattro virtù cardinali.

Mentre l’antichità discute entrambi gli aspetti, il Medioevo (cristiano) si interessa soprattutto della giustizia personale. Nel corso dell’età moderna quest’ultima perde di rilevanza rispetto alla giustizia istituzionale, e in particolare politica, perché le esigenze dell’etica personale vengono ritenute sempre meno conformi ai problemi delle società moderne. Il diffuso assunto, secondo il quale la giustizia personale avrebbe dunque perso di significato, è tuttavia falso. Da un lato, essa è presente là dove, per dirla con Nietzsche (v., 1887; tr. it., p. 273), ‟l’alta, chiara, tanto profonda quanto mite di sguardo, obiettività di un occhio imparziale, di un occhio giudicante non si turba”. Dall’altro lato, la giustizia personale fa parte delle condizioni funzionali della società moderna. Anche se non proprio integralmente, essa rientra, in una certa misura – dal lato dei cittadini e dei funzionari -, tra i principî morali, senza i quali lo Stato democratico di diritto e costituzionale non sopravviverebbe. La giustizia personale (Rechtschaffenheit, ‛onestà’) soddisfa le esigenze della giustizia istituzionale in modo volontario e per di più costante – in modo, per così dire, abituale -, non solo, quindi, occasionalmente e per timore delle sanzioni; essa rappresenta, pertanto, un baluardo contro l’incremento del potere statale, che altrimenti assumerebbe dimensioni preoccupanti. Essa contribuisce, inoltre, ad affermare la giustizia anche là dove le norme vigenti risultino insufficienti o di incerta applicazione. Della giustizia personale hanno bisogno anche i funzionari, ad esempio, i membri degli organi legislativi e costituzionali. Solo chi dispone di giustizia personale in misura adeguata si impegna, anche contro il proprio interesse, per una maggiore giustizia nei rapporti economici, sociali e politici. Dove manca una siffatta giustizia civile, la legislazione e le leggi costituzionali seguono solo gli interessi della maggioranza del momento, e pertanto la democrazia rischia di trasformarsi in ciò che avevano preconizzato tanto Platone (Repubblica, VIII, 555b ss.), quanto Aristotele (Politica, IV, 4, 1290b1 s.): una tirannia dei molti. Non da ultimo, la giustizia personale costituisce un’importante barriera contro la possibilità che i cittadini facciano scivolare il loro ordinamento giuridico in uno ‛Stato non di diritto’ (Unrechtsstaat). E nel caso di alcune professioni (cosa che Luhmann ha mancato di rilevare), come per i giudici, i politici, e forse anche per gli operatori dei media, essa fa parte delle condizioni senza le quali il relativo sistema – quello giudiziario, quello della politica e quello dei media, il cosiddetto ‛quarto potere’ – non funzionerebbe.

Tre elementi della semantica meritano particolare attenzione: la giustizia – intesa come massimo traguardo della vita umana e come fondamento ultimo della legittimazione di una collettività – esprime un obbligo di tipo morale (categorico); più nello specifico, essa fa parte degli obblighi che non si basano sulla libera inclinazione, né vanno al di là di ciò che è dovuto; suo criterio è un vantaggio distributivo (‛vantaggioso per ciascuno singolarmente’). Rawls (v., 1971; tr. it., p. 21) ritiene, a ragione, che la giustizia sia ‟il primo requisito delle istituzioni sociali così come la verità lo è dei sistemi di pensiero”.

 

L’esito scettico delle moderne teorie della giustizia. Ciascuno dei tre elementi suddetti può condurre allo scetticismo: l’obbligo generale, ad esempio, conduce a un tale esito nel relativismo comunitarista (v. cap. 2, § a) e nella teoria dei sistemi, il momento del dovere nel giuspositivismo e il vantaggio distributivo nell’utilitarismo. In questo ambito l’efficace teoria della giustizia di Rawls si confronta con l’utilitarismo, mentre l’analisi di Höffe (v., 1987) affronta anche il giuspositivismo e la teoria dei sistemi di Luhmann (a tal proposito, v. anche Höffe, 1990).

 

a) Il giuspositivismo. Il giuspositivismo non è una teoria omogenea, bensì una famiglia assai ramificata di posizioni teoriche – con pretese ora maggiori, ora minori – sul diritto e sullo Stato. In quanto teoria di una scienza giuridica autonoma – da Of laws in general di Bentham, fino al Concept of law di H. L. A. Hart, attraverso The province of jurisprudence determined e la Reine Rechtslehre di H. Kelsen -, esso può essere definito come una scienza libera il più possibile da elementi tanto politici (‛ideologici’), quanto morali. In tal senso il giuspositivismo sostiene la tesi, spesso male interpretata, della separazione tra diritto e morale; la quale – se intesa rettamente – vuole semplicemente affermare che il diritto positivo vigente è concettualmente diverso dal diritto moralmente desiderabile o giusto. Anche se secondo Kelsen (v., 19602; tr. it., p. 8) ‟il problema della giustizia in quanto problema collegato a valori sta al di fuori di una teoria giuridica che si limiti a un’analisi del diritto positivo, inteso come realtà del diritto”, il giuspositivismo non nega che la giustizia sia di importanza capitale per la politica del diritto; esso afferma piuttosto che la differenza essenziale tra dottrina del diritto naturale e giuspositivismo risiede nella ‟indipendenza della validità del diritto positivo rispetto a una norma della giustizia” (ibid., p. 360).

Più radicale è quel positivismo giuridico che vuole definire il diritto positivo – complessivamente e in modo esaustivo – senza ricorrere a elementi di giustizia. L’ambito di discussione è individuato dalla nota frase di Hobbes (Leviatano, cap. 26): ‟non veritas, sed auctoritas facit legem” (v. Höffe, ‟Sed auctoritas…, 1996). Secondo la teoria imperativistica in essa implicata – sostenuta anche da Bentham e da Austin – e caratterizzabile come ‛positivismo ingenuo’, il diritto risulta essere un ordinamento di potere privo di autorizzazioni. Secondo il ‛positivismo riflessivo’ di Kelsen, invece, il diritto necessita di autorizzazione, tanto da apparire come una gerarchia di autorizzazioni che poi, secondo il ‛giuspositivismo’ di Hart, dipenderebbe da un riconoscimento di natura empirica da parte dei soggetti coinvolti. In tutte e tre le posizioni non si può ancora distinguere sufficientemente il diritto dal potere criminale. Fa parte, dunque, di un concetto selettivo (v. Höffe, 1987) la giustizia che si pone come fonte di definizione del diritto. Tale tipo di giustizia trova il proprio riscontro nel fatto che la coercizione sociale – detta, appunto, ‛diritto’ – torna a vantaggio non di altri (ad es., dei ‛capimafia’), bensì degli stessi soggetti coinvolti. L’insieme dei soggetti che soggiacciono alla coercizione coincide con quello dei soggetti avvantaggiati dalla coercizione stessa. A ciò si aggiunge la giustizia procedurale dei procedimenti giudiziari, momento fondamentale della giustizia, senza il quale l’ordinamento giuridico e l’ordinamento statale sarebbero del tutto indistinguibili dalle regole e dall’organizzazione delle associazioni malavitose.

 

b) La teoria dei sistemi. Il sociologo e teorico dei sistemi Niklas Luhmann contesta il concetto di giustizia con tre diversi argomenti.

1. In Legitimation durch Verfahren (v. Luhmann, 1969) egli sviluppa una teoria sociale del moderno in cui viene sostenuto un giuspositivismo di impronta storico-sociale, ovvero proprio di una teoria della modernità. Secondo Luhmann, il diritto nell’età moderna si è reso normativamente autonomo, acquisendo in tal modo una capacità di mutamento in precedenza sconosciuta. Luhmann (v., 1990) si inserisce, così, nella tradizione segnata dalla tesi della progressiva neutralizzazione sostenuta da Carl Schmitt (v., 1940), secondo la quale le società moderne sarebbero diventate ‛neutrali’ innanzitutto nei confronti della metafisica, poi della religione e infine della morale (e con essa anche della giustizia). In questo senso Luhmann (v., 1981; tr. it., p. 136) afferma che nell’età moderna si è giunti alla ‟istituzionalizzazione della piena discrezionalità delle trasformazioni del diritto”. Si tratta tuttavia di un errore di prospettiva: Luhmann trascura, infatti, il concetto di giustizia come fonte di definizione del diritto, concetto vero in generale, anche nell’età moderna, e che egli stesso riconosce nel momento in cui lega la validità del diritto al consenso, e quindi, almeno indirettamente, a un vantaggio distributivo. Inoltre, in contrapposizione al mero esercizio del potere, egli ritiene legittima la soluzione pacifica dei conflitti. A ciò si aggiunga la circostanza che proprio lo sviluppo del diritto, nell’età moderna, è caratterizzato dal crescente riconoscimento dei principî di giustizia, come la democrazia, i diritti di libertà, la dimensione sociale dello Stato e la difesa dell’ambiente. La capacità di trasformazione, riconosciuta al diritto – in termini che non hanno precedenti -, non è assoluta, ma va a collocarsi entro l’ambito circoscritto dai suddetti principî di giustizia.

2. Alcuni anni più tardi Luhmann ha riconosciuto che nei sistemi giuridici della società moderna esiste uno spazio per la giustizia. Nella sua monografia Ausdifferenzierung des Rechts (1981) se, da un lato, egli congeda il concetto tradizionale di giustizia, dall’altro, però, lo sostituisce con una concezione teorico-sistemica. Di fronte all’estrema complessità della società moderna, il sistema giuridico, per essere ancora efficiente, dovrebbe aumentare anche la propria complessità, ad esempio la sua articolazione interna e la capacità di elaborare informazioni; l’aumento della complessità troverebbe, tuttavia, il proprio limite nelle esigenze di funzionalità interne al diritto. Luhmann definisce la giustizia come quella ‟complessità adeguata” che riflette dal suo interno la complessità della società e dell’ambiente, fino al punto in cui ciò sia compatibile con le condizioni di funzionalità proprie del diritto. Nei confronti di tale definizione sorgono, tuttavia, due obiezioni: la prima è che essa non tiene conto né delle peculiarità di un sistema giuridico, né della semantica della giustizia, quale risulta da ‟una teoria della giustizia senza giustizia” (v. Höffe, 1987; tr. it., p. 90); la seconda obiezione, analoga alla prima, riguarda la teoria dei diritti soggettivi (dei diritti fondamentali e umani) di Luhmann, la quale, interpretando questi ultimi come tecniche giuridiche, aventi il compito di ridurre i rischi insiti nell’elevata capacità di mutamento del diritto moderno, non ne riconosce la funzione specifica. Luhmann capovolge qui causa ed effetto. I diritti fondamentali e umani non possono essere introdotti come un meccanismo difensivo nei confronti dei rischi derivanti dalla positività del diritto moderno, in quanto sono proprio tali diritti, grazie al loro significato sovrapositivo, ad avere posto, sin dall’inizio, un limite alla positivizzazione del diritto (che a sua volta va positivizzato), e questo limite è necessariamente indipendente dalla capacità di mutamento del sistema giuridico. Anche sistemi giuridici con inferiori capacità di mutamento sono infatti sottoposti all’esigenza di giustizia rispetto ai diritti fondamentali e umani.

3. L’argomento di Luhmann contro la morale, contenuto in Paradigm Lost (1990), appare sostenibile in relazione alla concezione della giustizia. La morale, caratterizzata da una normatività funzionalmente non specifica, perderebbe di validità poiché la società moderna – nei suoi sistemi relativamente indipendenti, come l’economia, la scienza e il diritto – è sottoposta a una normatività che è di volta in volta particolare e funzionalmente specifica. Incapace di integrare la società nelle sue parti o nella sua totalità, la morale sarebbe, pertanto, diventata inutile. Al contrario Höffe (v., 1990) sostiene una posizione più complessa: alla normatività funzionalmente non specifica della morale viene richiesta specificità funzionale e insieme un livello logico superiore. Nel caso del diritto, la morale competente – ossia la giustizia – è la condizione affinché la normatività di primo livello possa funzionare. In un processo penale, ad esempio, la collaborazione tra accusatori, difensori e giudici serve a trovare una sentenza oggettivamente giusta, soltanto se le parti coinvolte sono a questo riguardo soggettivamente giuste, ossia se non sono corrotte e non si lasciano coinvolgere in un ‛complotto’, come avviene in alcune dittature. La legislazione, poi, serve unicamente al bene generale, se i parlamentari agiscono davvero ancora come rappresentanti del popolo e non solamente come portatori dei loro interessi clientelari.

 

c) L’utilitarismo. Fin dai suoi esordi l’utilitarismo, con la sua etica della massimizzazione del bene collettivo, si pone in un difficile rapporto con l’idea della giustizia. Secondo la tesi della differenza, a) l’utilitarismo entra in conflitto, almeno parzialmente, con la concezione della giustizia (il bene collettivo può, infatti, essere in contrasto con le legittime pretese dei singoli, così come con i loro diritti fondamentali e umani); secondo la tesi della priorità, b) in caso di conflitto la giustizia ha tuttavia il primato. Anche se Mill (v., 18673) ha cercato di conciliare l’utilitarismo con la giustizia, il tentativo può considerarsi fallito (v. Höffe, 1990). Da un lato, il filosofo inglese non prova a limitare gli eventuali conflitti; egli preferisce, invece, distinguere tre livelli – quello dei criteri di giustizia ‛primari’, che si differenzia da quello delle regole dell’azione e da quello dei casi particolari – cercando poi di sottoporre solo il livello più alto, il primo, al principio utilitaristico e gli altri due livelli a criteri di giustizia secondari – le regole dell’azione sono soggette all’uguaglianza e i casi particolari all’imparzialità – che, a loro volta, non vengono identificati come utilitaristici. Dall’altro lato, quando si arriva al momento decisivo rappresentato dal senso di giustizia, quando si tratta cioè di stabilire il grado di punibilità di un reato, egli dimostra come il criterio debba scaturire dal bene comune (‛prevenzione generale’) e non dal fatto che la persona coinvolta meriti una sanzione (‛risarcimento generico’), o la meriti in misura particolare (‛risarcimento specifico’). In questo modo, però, viene trascurato il lato più prettamente giuridico della punibilità. Anche la formulazione più articolata dell’utilitarismo classico, contenuta nell’opera Methods of ethics di Henry Sidgwick (v., 19077), sottovaluta le difficoltà – in relazione all’idea della giustizia – insite in tale posizione. A causa di tali difficoltà l’utilitarismo venne criticato a ragione già da W. D. Ross (v., 1930). Successivamente sarà Rawls (v., 1971) a vedere nell’utilitarismo una posizione certamente molto evoluta e capace di risolvere questioni concrete, ma caratterizzata dal grave limite di essere indifferente al problema della distribuzione del bene ai singoli, ragion per cui essa potrebbe anche permettere la costituzione di una società di schiavi o di caste, se questa si rivelasse l’unica capace di conseguire il massimo bene collettivo. Rispondendo alle controargomentazioni utilitaristiche, Fogel (v., 1989) dimostra che solo in condizioni empiricamente assai improbabili la schiavitù nordamericana avrebbe potuto rivelarsi vantaggiosa dal punto di vista del bene collettivo e, al tempo stesso, dal punto di vista degli schiavi. L’utilitarismo presupporrebbe, inoltre, una quantità di altruismo troppo elevata, addirittura un altruismo totale, che si annullerebbe da solo. Esso considera solo ‛persone minime’, ossia persone senza fini ultimi, senza un carattere definito. Non da ultimo, l’utilitarismo classico – poiché si adopera per il massimo utile comune – sosterrebbe l’incremento della popolazione. L’errore fondamentale dell’utilitarismo risiederebbe nello scambiare l’imparzialità con l’impersonalità, ovvero nella mancata separazione tra filantropia e senso di giustizia. Di recente anche alcuni utilitaristi si sono cimentati con una teoria della giustizia (v., ad esempio, Trapp, 1988): la differenza resta tuttavia nell’assunto di fondo, che vede ancora una volta il vantaggio collettivo separato da quello distributivo e sovraordinato a esso.

 

Giustizia naturale e giustizia procedurale. Le procedure sono un elemento necessario per la formazione delle decisioni vincolanti. Per esse non sono primari né il contenuto né il risultato, bensì competenze, percorsi e forme. Esse non hanno alcuno scopo proprio, ma si pongono a servizio dei contenuti e dei risultati. A differenza di quanto affermato nel programma luhmanniano di Legitimation durch Verfahren, le procedure sono irrinunciabili per ogni agire sociale, giuridico e politico. Esse attuano – ma solo se sono aperte, e dunque capaci di apprendimento, nei confronti dei bisogni e degli interessi dei soggetti coinvolti, e se soddisfano i principî della giustizia procedurale – una disponibilità generalizzata ‟ad accettare, entro certi limiti di tolleranza, decisioni contenutisticamente ancora indeterminate” (v. Luhmann, 1969). Esse non producono però – per due dei tre tipi possibili di giustizia procedurale – nessuna legittimazione originaria, bensì solo una legittimazione di tipo sussidiario.

Nella giustizia procedurale perfetta esiste un criterio indipendente per definire un risultato giusto e una procedura che conduce con certezza a tale risultato. La ripartizione di una torta, ad esempio, è giusta di regola se ognuno ottiene la stessa porzione, e ciò si attua secondo il principio: l’uno divide, l’altro sceglie. Nella giustizia procedurale imperfetta, come quella di un processo penale, per via del criterio indipendente (è giusto punire i colpevoli soltanto in proporzione alla loro colpa), non vi è alcuna procedura certa che sia in grado di escludere errori giudiziari. L’idea guida di tutte le giustizie procedurali, l’imparzialità, se non può essere garantita, può tuttavia essere favorita attraverso principî sintetizzabili nel concetto di ‛giustizia naturale’. Si tratta di imperativi non controversi come audiatur et altera pars: in casi di contesa si deve prestare ascolto anche alla controparte, e nemo est iudex in causa sui, ossia nessuno può essere giudice in una controversia in cui sia coinvolto come parte. Inoltre l’equità nei rapporti tra gli interessati e nei provvedimenti obbliga a dare il massimo valore a tutti i punti di vista significativi per la sentenza; dal momento che nulla più del pregiudizio e dell’unilateralità contrasta con la giustizia procedurale. Solo nel terzo tipo – là dove non si conosce con certezza alcun criterio indipendente per giungere a un risultato giusto, bensì esclusivamente una procedura equa che porti a un risultato altrettanto equo -, ovvero nella giustizia procedurale pura, le procedure producono qualcosa di superiore a una semplice legittimazione sussidiaria. In un gioco d’azzardo si tratterebbe del ruolo svolto dal dado, il cui esito è ‛originariamente legittimo’. Se si presuppone, a differenza di quanto fa Luhmann, che si dia una struttura sociale giusta – comprendente una costituzione giusta, nonché istituzioni sociali ed economiche giuste -, allora si può abbandonare, insieme a Rawls, la distribuzione di vantaggi e benessere, propria di una giustizia procedurale pura (del resto, attraverso siffatte classificazioni della giustizia procedurale la concezione democratica proceduralistica di Habermas – v., 1992 – avrebbe guadagnato in capacità persuasiva).

 

Giustizia politica e teorie contrattualistiche. a) L’idea fondamentale. Lo Stato è un’istituzione di ‛second’ordine’ la quale può essere definita come un’associazione trans-generazionale di individui che si compone di istituzioni sociali di ‛prim’ordine’, quali, ad esempio, le famiglie – costituite a loro volta di individui – e le comunità rurali o urbane. Nello svolgere la sua funzione di regolamentazione del comportamento, lo Stato si serve di vincoli coercitivi – la cui essenza è da rintracciare nel diritto – per i quali viene richiesta piena autorizzazione. Sulla base delle adeguate autorizzazioni, ossia dei poteri pubblici – l’amministrazione della giustizia, la determinazione e l’applicazione del diritto -, lo Stato si costituisce come un ordinamento sovrano il cui criterio morale è la giustizia politica. La giustizia corrente, dalla quale scaturisce il sistema normativo dello Stato, definisce le condizioni e i principî in base ai quali lo Stato può dirsi legittimo, anche se la vera legittimazione inizia in una fase precedente, nella quale la giustizia esercita una funzione puramente legittimante. In contrapposizione all’idea di libertà dall’autorità che ispira l’anarchismo filosofico, si può dimostrare che il potere di alcuni uomini sopra altri uomini è del tutto legittimo.

In conformità al principio giuridico volenti non fit iniuria si definisce legittima una coercizione accettata volontariamente. Poiché il modello di un’autobbligazione volontaria è il contratto, le corrispondenti teorie della legittimazione si dicono teorie contrattualiste. I prodromi risalgono ai dialoghi di Platone Critone (50a-52d) e Leggi (III, 684a-b, X, 889d-890a). Ma solo nella filosofia del XVII e XVIII secolo – rappresentata soprattutto da Althusius, Hobbes, Spinoza, Pufendorf, Locke, Wolff, Rousseau e Kant – l’idea viene sviluppata fino in fondo. Una volta allontanate le critiche mosse a tali teorie da Hume, Adam Smith, Burke, Schlegel e Hegel, e poi da Bentham, Austin e dai darwinisti sociali, il contrattualismo venne rivalutato alla fine del XIX secolo da Otto von Gierke (v., 1880), il quale si richiamava esplicitamente ad Althusius. Rielaborata a partire dagli anni settanta del XX secolo da importanti economisti (v. Buchanan, 1975 e 1977; v. Buchanan e Tullock, 1962) e filosofi (v. Rawls, 1971; v. Nozick, 1974; v. Höffe,1987), la teoria contrattualista gode da allora di una attenzione crescente (per la sua storia, v. Kersting, 1994).

Il contratto sociale – nella sua corretta accezione – non coincide con un particolare contratto storico o, in generale, con un accordo, sia esso tacito o esplicito; esso rappresenta piuttosto un esperimento concettuale che si prefigge un fine di legittimazione. Quattro aspetti della metafora ‛contratto’ si rivelano essenziali: 1) gli interessati sono liberi di stipulare il contratto; per questo motivo le teorie contrattualiste partono tutte dallo stato di natura, ossia da una condizione di assoluta libertà d’azione e dal potere. Poiché è necessario che tutti sottoscrivano il contratto, 2) l’abbandono di tale stato viene giustificato con l’acquisizione di un vantaggio distributivo, ossia valido per ciascuno, e ciò permette di raggiungere il piano della giustizia. Hanno luogo, quindi, 3) un trasferimento reciproco di diritti e doveri e una reciproca rinuncia e assicurazione di libertà; 4) i principî di giustizia, che sorgono dal trasferimento reciproco, sono coercitivamente vincolanti, proprio perché in base al contratto si è legati giuridicamente.

 

La giustizia come equità: J. Rawls. La teoria della giustizia al momento più ampiamente dibattuta è quella di John Rawls (v., 1971, e Political liberalism, 1993; al riguardo v. Höffe, John Rawls…, 1997). Contro l’utilitarismo un tempo dominante in ambito angloamericano, essa afferma che a ogni uomo viene conferita dalla giustizia una inviolabilità tale che non può essere messa in discussione neanche in nome del bene dell’intera società. Per dimostrare questo assunto, Rawls tenta una generalizzazione delle teorie classiche di Locke, di Rousseau e, in particolare, di Kant, per sintetizzarle poi – con l’apporto delle più recenti acquisizioni della scienza economica – in una teoria che si presenta capillarmente strutturata. Egli formula, dapprima, due principî di giustizia e sviluppa per la loro attuazione una sequenza a quattro stadi; abbozza poi una teoria della disobbedienza civile e traccia lo sviluppo in tre fasi di un senso di giustizia e, infine, si occupa del bene della giustizia (‟the good of justice”). Tale teoria, che ha suscitato un ampio dibattito interdisciplinare, pretende di avvicinarsi il più possibile ai nostri giudizi di giustizia ponderati, e dunque di esprimere i migliori fondamenti morali per una società democratica.

Rawls parte da un’ipotetica posizione originaria (‟original position”), nella quale persone libere e razionali si riuniscono per scegliere un sistema di principî che regoli in modo definitivo la distribuzione dei vantaggi e degli svantaggi di una data società. A dover essere distribuiti sono i beni sociali principali (‟social primary goods”), beni dei quali si ha bisogno per ogni progetto di vita, ossia beni che si rivelano necessari per ogni tipo di cooperazione all’interno di una società e dei quali presumibilmente ciascuno vuole disporre nella misura più ampia possibile. Si tratta di diritti e di libertà, di opportunità e di potere, di guadagni e di benessere, nonché del rispetto di sé. In questa fase iniziale un velo d’ignoranza (‟veil of ignorance”) fa sì che nessuno venga avvantaggiato o svantaggiato dalle contingenze naturali o dalle circostanze sociali. Attraverso questo artificio è possibile dedurre i principî di giustizia con la logica di una scelta razionale prudenziale e, contemporaneamente, con gli strumenti propri della teoria della decisione e dei giochi. Poiché tali principî contengono il presupposto che tutti debbano ricevere parità di trattamento, Rawls parla di giustizia come equità. I due principî sono:

1) ‟Ogni persona ha un eguale diritto al più ampio sistema totale di eguali libertà fondamentali compatibilmente con un simile sistema di libertà per tutti.”

2) ‟Le ineguaglianze economiche e sociali devono essere: a) per il più grande beneficio dei meno avvantaggiati, compatibilmente con il principio del giusto risparmio, e b) collegate a cariche e posizioni aperte a tutti in condizioni di equa eguaglianza di opportunità” (v. Rawls, 1971; tr. it., p. 255). Entrambi i principî giustificano uno Stato di diritto liberale e sociale e, allo stesso tempo, una democrazia costituzionale legata a un’economia competitiva.

Mentre i principî 1) e 2b) non sono controversi, il principio 2a), il cosiddetto ‛principio di indifferenza’, può essere contestato, sia a partire dalle stesse premesse di Rawls, sia da un punto di vista politico. Più precisamente, la critica può essere rivolta non tanto al principio del risparmio, che investe il problema della giustizia nei confronti delle generazioni future – da integrare però con la dimensione ecologica -, quanto all’assunto che le ineguaglianze economiche debbano tornare a beneficio dei meno avvantaggiati. Problematico è anche l’assunto secondo cui i diritti e le libertà sarebbero uno dei temi della distribuzione. Infine, manca la dimensione della giustizia internazionale.

 

La teoria del titolo valido: R. Nozick. Mentre Rawls dà valore alla dimensione sociale dello Stato, Nozick, richiamandosi a Locke, difende il liberalismo classico. La sua teoria della legittimazione politica, contenuta nell’opera Anarchy, State, and utopia (1974) ritiene illegittima ogni dimensione sociale dello Stato che non rappresenti un risarcimento per coloro che sono ingiustamente svantaggiati. La sua teoria del titolo valido, enunciata in modo più assertorio che argomentativo, afferma: ‟la materia della giustizia nella proprietà [giustizia distributiva] consiste in tre argomenti principali. Il primo è l’acquisizione iniziale della proprietà, l’appropriazione di cose non ancora possedute […]. Si farà riferimento alla complicata verità concernente questo argomento, che non verrà formulata qui, come al principio di giustizia nell’acquisizione. Il secondo argomento riguarda il trasferimento della proprietà da una persona all’altra […]. La complicata verità su questo argomento […] verrà chiamata principio di giustizia nel trasferimento […]. Se il mondo fosse del tutto giusto, la seguente definizione induttiva abbraccerebbe esaurientemente l’argomento della giustizia nella proprietà.

1. La persona che acquisisce una proprietà secondo il principio di giustizia nell’acquisizione ha diritto a quella proprietà.

2. La persona che acquisisce una proprietà secondo il principio della giustizia nel trasferimento, da qualcun altro avente diritto a quella proprietà, ha diritto a quella proprietà.

3. Nessuno ha diritto a una proprietà se non con applicazioni (ripetute) di 1 e di 2″ (v. Nozick, 1974; tr. it., pp. 160 ss.).

Höffe obietta che chi interpreta l’acquisizione iniziale della proprietà come appropriazione di cose non ancora possedute, presuppone tacitamente che la natura intatta sia un bene non ancora posseduto, un bene che, con la sua acquisizione e trasformazione, diviene proprietà umana. È altrettanto plausibile tuttavia vedere nella natura una proprietà originaria dell’umanità intera e conferire a ogni acquisizione e trasformazione solo il rango di appropriazione secondaria e non primaria. Secondo questa concezione, all’umanità come totalità comprendente le future generazioni spetta una prerogativa (Vor-recht) collettiva nel possesso della terra, da cui segue per tutti gli individui e per tutti i gruppi un diritto a partecipare del possesso della terra e dei suoi frutti.

 

La giustizia come scambio: O. Höffe. Diversamente da Rawls, Höffe (v., 1987, 1990, 1991 e Vernunft und…, 1996; v. Kersting, 1997) si confronta sia con quel giuspositivismo radicale che esclude dalla sfera del diritto e dello Stato la concezione della giustizia, sia con l’anarchismo filosofico che – contro l’esigenza di un’autorità giusta – sostiene il principio della libertà dall’autorità. Solo superando le sfide rappresentate da queste due posizioni una teoria della giustizia può andare oltre un’ermeneutica della democrazia e tentare una fondazione universale del diritto e dello Stato.

Al paradigma finora dominante della giustizia distributiva Höffe sostituisce quello della reciprocità o – pars pro toto – dello scambio, che a sua volta trova nella giustizia correttiva un necessario completamento. Tale paradigma presenta un immediato vantaggio argomentativo: mentre i principî distributivi possono essere considerati controversi (v. Miller, 1976), il principio della giustizia come scambio – proprio perché implica l’equivalenza del prendere e del dare – non può essere contestato in alcun modo. Non si può, tuttavia, prendere in considerazione un concetto di scambio troppo ristretto, limitato, cioè, soltanto all’aspetto economico, e neppure uno troppo approssimativo, che non tenga conto, ad esempio, dell’avvicendarsi delle generazioni. Inteso come un concetto sufficientemente ampio, lo scambio si rivela come una forma di cooperazione di tipo fraterno – non certo, quindi, di tipo matriarcale o paternalistico – e quindi anche democratico. Höffe ricostruisce lo stato pregiuridico e prestatuale, lo stato di natura, come uno stato di inevitabili conflitti tra le libertà; egli – a differenza di quanto sostiene Hobbes – rinuncia totalmente a un concetto oggettivo di felicità e – diversamente da Rawls – dimostra come, dalla prospettiva di una teoria della giustizia, la cooperazione in condizioni di scarsità sia secondaria. Il superamento di questo stato, che si rivela controproducente per ognuno, avviene solo attraverso uno scambio tanto negativo quanto trascendentale. Esso è negativo, perché si scambia la rinuncia all’esercizio della forza, e trascendentale, perché ha luogo a un livello irrinunciabile per tutti gli uomini; analogamente, essendo distributivamente vantaggioso, esso soddisfa il criterio elementare di giustizia. La rinuncia reciproca è, infatti, la ‟condition of agency”, la condizione perché si realizzi la libertà d’azione. Questo argomento legittima i diritti umani (tanto i diritti di libertà, quanto una dimensione sociale dello Stato funzionale alla libertà) in quanto diritti che le persone giuridiche si concedono reciprocamente. A causa dei deficit di realtà che si determinano in tale contesto (‟dilemma del riconoscimento”) Höffe, in un secondo momento, legittima lo Stato come ‟spada della giustizia”, come fulcro dei poteri pubblici sussidiari per la giustizia. Una siffatta legittimazione dello Stato si oppone a una procura in bianco e si dichiara fin dall’inizio a favore di una limitazione. Le strategie della giustizia politica rappresentano la conclusione teorica legittimante, dove la collaborazione tra scienza e politica anticipa l’idea di un diritto riflessivo (v. Teubner, 1982). Alle strategie spettano compiti di positivizzazione che si possono approntare sistematicamente tramite discorsi etico-politici.

 

La giustizia politica internazionale. Poiché i singoli Stati si comportano sotto certi aspetti come individui – anche se non rappresentano unità organiche, possono tuttavia essere considerati soggetti collettivi capaci di decisione e di azione, ovvero persone giuridiche -, gli stessi argomenti che parlano a favore di una relazione giuridica tra gli individui e il loro realizzarsi nello Stato sono validi anche per le relazioni tra i singoli Stati. Anche qui il diritto deve sostituirsi all’arbitrio privato: è necessario, cioè, un adeguato sistema di diritto internazionale e i poteri pubblici devono provvedere alla sua determinazione e alla sua applicazione. In altri termini, il diritto deve acquisire una sua statalità anche a livello mondiale. Secondo la prospettiva dei globalisti (ad esempio, v. Beitz, 1979) dovrebbe crearsi addirittura un unico Stato mondiale globale che, quale impero omogeneo, assorbirebbe in sé tutti i singoli Stati. Dal punto di vista dei neocomunitari, però, ciò comprometterebbe l’integrità sociale e culturale delle comunità esistenti le quali, al fine di ‟fare le società giuste” andrebbero difese con ‟buoni steccati” (v. Walzer, 1983). Contro uno Stato mondiale omogeneo militano anche altre ragioni, come la sua lontananza dai cittadini, il pericolo della iperburocratizzazione e della ingovernabilità (così già Kant, Rechtslehre, § 61), nonché quello, ancora più grave, di un ‟dispotismo senz’anima” (Kant, Per la pace perpetua, I suppl.; su Kant, v. Höffe, 1995). Non da ultimo, il controllo dell’opinione pubblica sulla vita politica – essenziale per il funzionamento di una società democratica – verrebbe a mancare.

Rawls (v., The law of…, 1993) sviluppa i principî della giustizia politica internazionale all’interno del ‛diritto internazionale’ (law of peoples). Interessato a individuare un comune denominatore (l’‟overlapping consensus”) che raccolga società liberali e non liberali – anche se, comunque, gerarchicamente bene ordinate – egli applica ai rapporti di convivenza che si creano tra tali società la teoria della posizione originaria e del ‛velo d’ignoranza’. Per questa via, secondo Rawls, si perviene a quegli stessi principî di giustizia che determinano la convivenza di Stati liberi e democratici, ossia gli Stati sono liberi e indipendenti e, in quanto tali, debbono riconoscersi reciprocamente: essi hanno diritto all’autodifesa, ma non alla guerra; non possono intervenire e debbono rispettare i trattati e i diritti umani. Rawls – richiamandosi allo scritto di Kant Per la pace perpetua – rigetta un regime politico omogeneo (‟unified political regime”); egli si pronuncia, inoltre, a favore di svariate organizzazioni internazionali e conferisce ad alcune di esse, come le Nazioni Unite, il diritto di comminare sanzioni economiche, e persino di intervenire militarmente. Egli non considera, tuttavia, il concetto di Stato mondiale e prevede che lo Stato in generale eserciti soltanto funzioni minime. Contro Rawls si può obiettare che egli non si occupa della distinzione – importante per il diritto internazionale – tra ‛società’, ‛popolo’ e ‛Stato’; inoltre, la sua costruzione teorica assume a priori che le società non liberali condividano i valori liberali contenuti nell’atto del riconoscimento delle altre società come libere ed eguali; infine, nella sua scelta in favore delle organizzazioni internazionali sembra non accorgersi di una contraddizione di fondo, vale a dire che gli organismi internazionali, se devono mantenersi entro i limiti delle funzioni esercitate da uno Stato minimo, dispongono di mezzi troppo deboli per realizzare la giustizia politica internazionale; viceversa, se a essi vengono attribuiti i poteri legislativo, esecutivo e giudiziario non possono non assumere il carattere di Stato mondiale.

Tramite un principio di economia politica articolato in due punti, si può superare il conflitto tra globalisti, da una parte, e neocomunitari e Rawls, dall’altra (v. Höffe, Vernunft und…, 1996): secondo il primo punto non deve essere creata alcuna unità politica che non sia strettamente finalizzata alla realizzazione dello Stato mondiale; senza il quale non si può, infatti, attuare una riforma giuridica sul piano della coesistenza internazionale. In base al secondo punto, nuove unità politiche, se si dimostrano necessarie, non devono ottenere più competenze del necessario. Così, lo Stato globale viene meno; esso infatti condurrebbe a un eccesso di statalità mondiale. Necessaria per la giustizia è al contrario una repubblica mondiale ‛secondaria’ e con una statalità minima. Come Stato ‛secondario’, tale repubblica non si porrebbe al posto dei singoli Stati (che rimarrebbero ‛primari’ dal punto di vista della legittimità), ma regolerebbe soltanto la loro coesistenza. Come Stato minimo, essa svolgerebbe essenzialmente due compiti – riassumibili sotto la categoria dei ‛diritti umani degli Stati’: la difesa della libertà, dell’autodeterminazione politica e culturale degli Stati e la difesa della loro proprietà, cioè della loro integrità territoriale, compresa quella ecologica; vanno infatti prese in considerazione non soltanto le aggressioni militari, ma anche i danni all’ambiente.

Sotto un aspetto importante, però, gli Stati non si comportano come individui: essi sono formati da individui. Poiché l’uccisione di uno straniero infrange la giustizia, non può essere imposto alla repubblica mondiale di tollerare ogni massacro interno a uno Stato. Perlomeno contro i genocidi sussiste un diritto d’intervento; e si impone, quindi, una rigorosa parità di trattamento. Fanno parte dei compiti di una repubblica mondiale anche problemi di carattere puramente internazionale come la lotta al contrabbando di droga, al terrorismo e come la realizzazione del disarmo, in particolare delle armi atomiche, biologiche e chimiche.

 

Giustizia sociale e intergenerazionale. a) La giustizia sociale e correttiva. L’espressione ‛giustizia sociale’, così ricorrente nei dibattiti politici, appare in filosofia molto tardi e, per di più, così di sfuggita che la sua prima comparsa può essere difficilmente individuata. Presumibilmente essa viene impiegata per la prima volta nell’etica sociale cristiana; W. Frankena (v., 1962) fa riferimento al teologo Emil Brunner. La prima grande opera filosofica dedicata a questo tema, dall’eloquente titolo The mirage of social justice, proviene dall’economista Friedrich von Hayek (v., 1976); sia pure in un contesto assai diverso da quello di Nozick (v., 1974), anche Hayek rigetta l’eccessiva dimensione sociale dello Stato e ritiene legittimo solo uno Stato minimo che svolga, per così dire, il ruolo di ‛guardiano notturno’.

La giustizia sociale – ritenuta da alcuni addirittura la regola più naturale dell’agire politico in democrazia – assume oggi due significati. In un senso non specifico, ‛sociale’ è inteso in modo esclusivamente esplicativo, così che la giustizia sociale risponde all’interrogativo generale: ‟Che cos’è una società giusta?” (v. Rawls, 1971; v. Barry, 1989). In un senso specifico, invece, la giustizia sociale si occupa della ‛questione sociale’ e, quindi, di fenomeni come la disoccupazione, la mancanza di assistenza in caso di malattia e anzianità, la formazione o l’educazione carente, la fame e la povertà. Se si reagisce a siffatti fenomeni non per amore della pace sociale o in virtù dell’amore cristiano per il prossimo – sia pure nelle sue forme secolarizzate di fraternità e solidarietà -, bensì in nome della giustizia, allora si tratta di obblighi dei soggetti interessati. Tali obblighi si possono, in gran parte, giustificare nella prospettiva della teoria dello scambio, a condizione però che si tenga conto anche dell’avvicendarsi delle generazioni. A partire dal dato di fatto antropologico che l’uomo è bisognoso di aiuto tanto all’inizio, quanto alla fine della sua vita, si possono ‛risarcire’ le prestazioni d’aiuto, che si ricevono dopo la nascita e durante la crescita, più tardi nella forma di un aiuto prestato ai più anziani. Da un punto di vista storico-evolutivo questo scambio ha luogo innanzitutto all’interno della famiglia patriarcale, o della stirpe. Esso corrisponde al (tacito) contratto tra genitori e figli, che viene stipulato sulla base di un aiuto differito e reciproco.

Höffe (v., Vernunft und…, 1996) integra questa forma di legittimazione con l’idea della giustizia correttiva: poiché l’istituzione di second’ordine, lo Stato, non solo coordina le istituzioni primarie, ma delimita anche il loro proprio diritto, e si arricchisce, inoltre, attraverso le imposte sui loro costi, esso deve loro un risarcimento. Una gran parte dei compiti dello Stato sociale, che Forsthoff sintetizza con il concetto di ‛previdenza per l’esistenza’, possono quindi essere intesi come doveri e responsabilità di compensazione. Ulteriori compiti di risarcimento emergono da ingiusti rapporti di scambio avvenuti nel passato. Si pensi ai torti nei confronti degli indigeni (Eschimesi, Indiani d’America, Indios, ecc.), degli schiavi e dei servi della gleba, come anche nei confronti dei popoli colonizzati. Che possa essere imposto un privilegio positivo come compenso, viene discusso volentieri come affirmative action and justice. Altre prestazioni si possono intendere come risarcimenti per rischi particolari. Ad esempio nel corso dell’industrializzazione, per ottenere il vantaggio collettivo di una produzione di beni a basso costo, i lavoratori assumono su di sé lo svantaggio particolare di essere, per mancanza di proprietà fondiaria o di capitali, estremamente indifesi in caso di disoccupazione.

Nella prospettiva della giustizia si può criticare l’esplosione della popolazione osservabile in alcuni paesi. Primo, le condizioni di vita dei figli e dei figli dei figli sono destinate a peggiorare; secondo, si crea una pressione, perlomeno latente, verso l’espansione, che nuoce certamente agli interessi degli altri paesi.

 

La giustizia internazionale. Per quanto riguarda la questione sociale di maggiore attualità in questi anni, la difesa dell’ambiente naturale, Birnbacher (v., 1988) e Wolf (v., 1993) sostengono una posizione utilitaristica. L’idea di fondo, la critica a una pura preferenza di tempo, è già stata formulata da Sidgwick (v., 19077). Essere nati in un momento successivo non è un motivo razionale per rispettare di meno il bene dei soggetti interessati.

La giustizia correttiva presta invece attenzione a un dato empirico, e cioè alla circostanza antropologica secondo cui l’uomo non viene al mondo da solo, bensì attraverso i genitori che, d’altro canto, sanno di mettere al mondo esseri bisognosi di aiuto. Così, essi creano uno stato di necessità e per motivi di giustizia sono responsabili della sua risoluzione. Il principio di giustizia corrispondente recita: ‟Chi mette al mondo dei bambini, assume su di sé ipso facto la responsabilità che crescano in condizioni degne di essere vissute”. A ciò si aggiunge il suddetto diritto collettivo di partecipazione. In base a questo diritto, la terra con i suoi frutti è una proprietà comune che riguarda tutte le generazioni: dei suoi interessi può vivere ogni generazione, senza intaccare il capitale. Ad esempio, la giustizia permette certo di sfruttare fonti di energia fossile, ma solo nella misura in cui vengano messe a disposizione fonti di energia artificiale equivalenti, i cui pericoli siano poi controllabili.

La giustizia intergenerazionale non concerne solo problemi ecologici, ma anche politico-sociali e politico-finanziarii. Nella quota della giustizia sociale complessiva (Stato sociale e struttura sanitaria), essa pretende di non dimenticare una quota d’investimento in senso ampio: ad esempio, la formazione come investimento sulle future generazioni o la pianificazione urbanistica e la tutela del paesaggio.

 

 

Parte seconda.

Giustizia ed economia

 

Il concetto di giustizia nell’utilitarismo. L’utilitarismo, filosofia razionalista e individualista che affonda le sue radici nella filosofia greca (Epicuro) ma trova la sua sistematizzazione a opera di J. Bentham, J.S. Mill e H. Sidgwick, si basa sul principio edonista in ragione del quale è giusta quella società che realizza la ‘maggiore felicità per il maggior numero’, il che si può tradurre nella formula della ‘massimizzazione dell’utilità’ o del ‘benessere sociale’.

 

Un primo punto critico è quello del contenuto da dare all’utilità. In alcuni casi essa viene interpretata in modo ‘oggettivo’, le viene cioè attribuita natura cardinale, per cui è misurabile e suscettibile di confronto interpersonale. È questa la versione alla base della ‘vecchia’ economia del benessere fondata da A.C. Pigou, che ha fornito le giustificazioni scientifiche per interventi di politica economica quali la struttura progressiva dell’imposta sul reddito. Per l’interpretazione soggettiva, l’utilità è, al contrario, non misurabile e non confrontabile tra soggetti. Questa versione è alla base della ‘nuova’ economia del benessere che ha come padre fondatore V. Pareto e conduce all’idea per cui l’utilità che i soggetti traggono dal consumo dei beni è derivabile solo in via induttiva, osservando le scelte dei soggetti economici (teoria delle preferenze rivelate). La non misurabilità e la non confrontabilità delle utilità tra soggetti diversi riduce l’ambito di possibile giustificazione scientifica dell’azione pubblica e la realizzazione del benessere individuale avviene principalmente attraverso soluzioni volontarie; al centro del sistema si trova lo scambio di mercato.

 

Il secondo aspetto critico concerne il problema del coordinamento delle preferenze individuali e della composizione delle stesse in un ordinamento coerente, problema posto in evidenza per primo da K.J. Arrow e dalla susseguente teoria delle scelte sociali. Con il teorema dell’impossibilità, Arrow dimostra l’inesistenza di regole generali capaci di tradurre le preferenze individuali in un coerente ordine sociale.

 

Il concetto di giustizia nel contrattualismo. La teoria del contratto sociale è riconducibile al pensiero di T. Hobbes, J. Locke, J.-J. Rousseau e I. Kant. Il contrattualismo parte dall’idea che la legittimità delle regole morali e dell’autorità politica, quindi della g., si fondino sull’accordo e che ciò sia in linea con l’assunto di comportamento autointeressato degli individui per i quali è razionale aderire a un contratto da cui traggono benefici. J. Rawls, artefice della rinascita del contrattualismo negli anni 1970, sostiene che un soggetto razionale sceglie una società giusta in quanto equa, cioè una società nella quale i beni primari sociali (come le libertà fondamentali e le possibilità di accesso alle diverse posizioni sociali) siano egualmente distribuiti; in tale società sono comunque possibili differenze di ricchezza, purché in linea con il principio del maximin (➔ ottimizzazione p), cioè con un criterio distributivo per cui le diseguaglianze sono ammesse purché vadano a favore dei più svantaggiati. D. Gauthier assume che gli individui siano pienamente informati e agiscano sotto un vincolo morale per il quale il miglioramento della posizione individuale non può andare a scapito di quella altrui. J. Buchanan ipotizza che i contraenti ritengano giusti gli assetti di mercato, ma all’interno di un sistema rafforzato dalla presenza di una rete di sicurezza di natura assicurativa, che garantisca a tutti un minimo di opportunità e di tutela contro le avversità. Infine, B. Ackerman, uno dei principali esponenti dell’approccio dialogico al contratto sociale, sostiene che il dialogo è l’elemento cruciale di una società liberale. Secondo Ackerman, la società giusta è quella che consente la maggior parte dei possibili differenti stili di vita, purché sulla base di argomentazioni espresse pubblicamente.

 

Il concetto di giustizia nel liberalismo. Il terzo filone è quello che comprende i liberali classici e i libertari di diversa tendenza, accomunati dall’ascendenza filosofica di Locke non nella sua formulazione di tipo contratto sociale ma nella componente giusnaturalista. Secondo le teorie liberali, l’individuo ha un diritto naturale sulla propria persona e di conseguenza sui frutti della propria attività. Da qui l’idea dello Stato giusto come Stato minimo (o ‘guardiano notturno’), funzionale alla tutela della persona e della proprietà. Tali diritti sono inevitabilmente associati a quello della libera circolazione dei beni attraverso transazioni volontarie. Il principio per cui una risorsa appartiene inizialmente al primo che se ne appropria subisce qualche variazione in diversi autori libertari come R. Nozick o i left libertarians (H. Steiner; P. van Parijs). Per il primo, l’appropriazione originaria non deve peggiorare la condizione di coloro che ne restano esclusi rispetto a quella che hanno nello stato di natura; per i secondi, invece, di orientamento egalitario, l’appropriazione di una risorsa deve avvenire in cambio del pagamento di una tassa che finanzia un reddito minimo di base che ‘risarcisce’ la collettività dalla sottrazione della risorsa all’uso comune.

 

Il concetto di giustizia nella teoria marxista. Per questo filone teorico, rivitalizzato dagli studi di J. Roemer sullo sfruttamento e lo sviluppo, la condizione di sfruttato, cui va posto rimedio tramite la g., è quella migliorabile con una redistribuzione dei mezzi di produzione.

 

Il concetto di giustizia nella dottrina sociale della Chiesa. Tale dottrina parte dalla centralità della persona umana, il cui sviluppo avviene tramite l’attività individuale all’interno di formazioni sociali differenti, tra cui lo Stato, e si articola sui principi di sussidiarietà e solidarietà. Il primo principio limita l’azione dei poteri pubblici solo a ciò che gli individui non possono fare da soli, mentre il secondo impone allo Stato la creazione delle condizioni di base per lo sviluppo dei singoli, condizioni riassunte nel concetto di bene comune.

 

 

Parte terza.

Giustizia fiscale

 

Il criterio della progressività dell’imposizione fiscale, scrive Anni Bruni su Micromega,  costituisce un effettivo meccanismo di redistribuzione della ricchezza che, dall’Istituzione dell’Irpef nel 1974 ad oggi, accanto alla perdita di potere d’acquisto delle retribuzioni inversamente proporzionale alla crescita dei redditi medio-alti, è stato completamente sovvertito. Anche le politiche dei governi di centro-sinistra ne portano la responsabilità, insieme alla progressiva limitazione del conflitto sociale dovuta alla scelta della concertazione da parte dei sindacati confederali, avviata negli anni ’80, che ha permesso la perdita di tante conquiste di maggiore giustizia sociale.

 

“Tutti sono tenuti a concorrere alle spese pubbliche in ragione della loro capacità contributiva. Il sistema tributario è informato a criteri di progressività” – Art. 53 della Costituzione italiana

 

Dal dopoguerra la prima radicale riforma fiscale, che istituisce l’Irpef (Imposta sul reddito delle persone fisiche), e il cui impianto rispettava il carattere costituzionale della progressività, avviene nel 1974. La progressività consiste in un meccanismo matematico con il quale non solo aumenta l’importo delle tasse da pagare con l’aumentare del reddito (aumento proporzionale), ma soprattutto l’aumento cresce perché aumenta la percentuale (aliquota) delle imposte da pagare.

 

Per fare degli esempi, attualizzando la situazione dell’Irpef nel 1974, si otterrebbero i seguenti dati:

– un reddito di 42 milioni di lire pagherebbe un’imposta di lire 4.957.665, pari al 11.8% del reddito

– per i redditi di 1,2 miliardi l’imposta sarebbe del 42.3%

– per i redditi da 6 miliardi di lire l’imposta sarebbe del 58.7%

che conferma come la progressività faccia effettivamente pagare una quota maggiore a chi guadagna di più.

 

Da allora, 1974, ad oggi è stato un percorso continuo per aggirare e deformare il dettato costituzionale e per attenuare in tutti i modi il carattere progressivo della tassazione diretta. Il carattere progressivo di un sistema fiscale è dato prima di tutto e soprattutto dal rapporto delle aliquote (percentuali) con le classi di importo dei redditi. Le eventuali deduzioni-detrazioni sono dei correttivi, spesso indispensabili, ma essi non caratterizzano il sistema.

 

Come si evince dalla prima riga della tabella, le aliquote e quindi le classi di importo dei redditi sono passate da 32, nell’anno del varo della legge, fino alle attuali 5. Ma non sembra sia finita qui, perché il disegno del governo attuale, con il plauso di Confindustria, è stato da subito quello di ridurre ad una sola aliquota l’intero sistema, cancellando totalmente la progressività, ma poiché questo impegnerebbe in una modifica della Costituzione, la proposta che Berlusconi, salvo frenate dell’ultim’ora, è tornato a rilanciare con l’inizio del nuovo anno è mascherata: le aliquote sarebbero due, 23 e 33%.

 

La prima è per i redditi fino a 100 milioni, cioè per il 96% degli italiani, la seconda del 33% per il restante 4% degli italiani, un bel passo in avanti verso l’aliquota unica, ed un ulteriore grandissimo risparmio reale solo per i redditi medi ed alti.

 

La seconda riga documenta come i ricchi abbiano goduto dal 1983 in poi di una costante decrescita delle tasse, l’aliquota massima per i più ricchi passa dal 72% al 43% realizzando il dimezzamento, senza contare che chi ha goduto di redditi più elevati in assoluto ha goduto anche del maggior abbassamento delle tasse: ben 29 punti percentuali in meno.

 

La terza riga conferma per paradosso il criterio che stiamo denunciando, perché evidenzia la progressività del privilegio con l’aumentare del reddito, che l’ultimo dato riferito all’anno 2007 mostra chiaramente: si è quasi dimezzata l’aliquota e si è abbassato il reddito massimo a 75 mila euro, ovvero si è allargata la platea, ma redditi esponenzialmente superiori oggi pagano lo stesso 43%.

 

La tabella 2 mostra come il ridursi del numero delle aliquote evidenziato nella prima riga (stesso parametro della tab 1) testimonia come in questi ultimi 26 anni lavoratori dipendenti e pensionati abbiano pagato proporzionalmente più dei ricchi: riducendosi il numero delle aliquote e aumentando l’aliquota minima (dal 10 al 23% del 2007, seconda riga) in proporzione al reddito basso mostrato dalla terza riga, i lavoratori hanno sostenuto l’80% degli introiti di tutta la tassazione diretta. Un dato che rimane tale nonostante negli anni siano stati introdotti sistemi di deduzioni e detrazioni (vedi note 1 e 2), che hanno reso il meccanismo poco trasparente senza cambiare la sostanza: la crescita delle aliquote colpisce sempre più le fasce più basse di reddito e il sistema delle detrazioni serve ormai soprattutto a coprire i redditi degli “incapienti”, ossia di quei lavoratori e pensionati al disotto della soglia della povertà assoluta.

 

Tasse sempre più pesanti, salario sempre più leggero. “Il lavoratore ha diritto ad una retribuzione proporzionata alla quantità e qualità del suo lavoro e in ogni caso sufficiente ad assicurare a sé e alla famiglia un’esistenza libera e dignitosa (…)”.  – Art. 36 della Costituzione italiana

 

Per chiarire quanto sia insostenibile il progressivo aumento delle tasse per lavoratori e pensionati, accostiamo ai dati precedenti quelli sui salari. Secondo uno studio dell’Ilo, (Organizzazione Internazionale del Lavoro) a novembre 2009, nell’arco di vent’anni, il valore degli stipendi degli italiani rispetto al prodotto interno lordo è diminuito di quasi il 13%, contro una media dell’8% dei 19 Paesi più avanzati. Stando all’agenzia dell’Onu i salari reali, a parità di potere d’acquisto, sono crollati nel nostro paese di quasi il 16% tra il 1988 ed il 2006, mentre il rapporto della Banca regolamenti internazionali già nel 2008 metteva in evidenza come dagli anni ’80 ad oggi (anno del rapporto) i profitti abbiano incassato 8 punti di Pil in più, passando dal 23,2% al 31,3%. In cifre, 120 miliardi in più ai profitti, 7mila euro di meno in ciascuna busta paga. E neanche a dire che ciò ha significato investimenti produttivi.

 

Questo è il risultato della ristrutturazione industriale avviata dalla Fiat con la marcia dei 40.000 proprio nel 1980, a cui non solo Cisl e Uil, ma anche la Cgil di Lama ha prestato il fianco. In un’intervista al quotidiano «La Repubblica», che precede di poco il congresso della “svolta”, tenutosi all’Eur il 13 e 14 febbraio successivi, Lama dichiara che “la politica salariale nei prossimi anni dovrà essere molto contenuta (…)”. E non solo, perché aggiunge che “noi non possiamo più obbligare le aziende a trattenere alle loro dipendenze un numero di lavoratori che esorbita dalle loro possibilità produttive, né possiamo continuare a pretendere che la cassa integrazione assista in via permanente i lavoratori eccedenti.” (I sacrifici che chiediamo agli operai, «La Repubblica», 24.1.1978). E’ l’avvio della concertazione, che nel 1984 sigla il taglio di 4 punti di scala mobile ad opera del governo Craxi, che viene poi eliminata definitivamente nel ’92, dal governo Amato. Un anno dopo, nel ’93, l’accordo Confindustria-sindacati fissa un tetto ai salari. La politica del governo Ciampi ha come stella polare i parametri di Maastricht, che indicano i paletti del contenimento salariale nell’inflazione programmata: i punti persi, dice l’accordo, saranno recuperati con la contrattazione articolata, ma la cosa non è mai avvenuta.

 

L’ “operazione” Euro, in circolazione commerciale il 1 gennaio 2002, è il colpo di grazia: non si interviene direttamente sui salari, ma il risultato in busta paga è letale: invariate nel cambio lira/euro, le retribuzioni affrontano costi dei beni primari raddoppiati. L’esito è il crollo del potere d’acquisto: l’Italia si colloca al 23esimo posto, l’ultimo tra i paesi sviluppati (fonte Ires su dati Ocse).

 

L’andamento del conflitto in quegli stessi anni

 

Gli anni ‘80 sono gli anni della ristrutturazione industriale, sancita dalla concertazione e avviata, come abbiamo visto, dalla marcia dei 40mila. E sono gli anni, come dimostra la tab. 4, in cui il conflitto, in particolare dovuto ai rapporti di lavoro, crolla in modo vertiginoso, dopo due decenni in cui ha conosciuto i picchi più alti, e le cui conseguenze sono state le conquiste economiche, civili e sociali più importanti che questo paese abbia conosciuto, e in cui più si è andati vicini alla realizzazione del dettato Costituzionale. Infatti la più importante riforma fiscale del dopoguerra, che attuava appunto il dettato costituzionale della progressività, viene concepita e varata nel corso di un ventennio di lotte formidabili, con una iniziativa operaia al culmine e in un contesto politico generale fortemente caratterizzato anche sul piano sociale dal 1968 e dalla sua onda lunga che si è protratta, nel nostro paese, per un decennio.

 

In quello successivo invece, 1981-90, si assiste al crollo della conflittualità, con una media annuale delle ore di sciopero di 41 milioni, un terzo dei due decenni precedenti in cui la media delle ore scioperate in media ogni anno era stata di 121 milioni, con il picco del 1969: 302 milioni di ore scioperate.

 

Nel decennio 1991-2000 vi è un ulteriore crollo: la media delle ore di sciopero annue si riducono a meno di 8 milioni, un quinto del decennio precedente. Dal 2001 al 2008 le ore non lavorate diminuiscono ancora, meno di 6 milioni l’anno, con una media di 5,8 milioni. Il numero degli scioperanti crolla anch’esso nel decennio 1981-90 dimezzandosi rispetto al decennio precedente, e dal 1991 al 2000 si riduce ad un quinto del decennio precedente, e a circa un decimo del decennio 1971-80, con una media di 780 mila scioperanti l’anno.

 

Il fondo si tocca nell’anno 2006 con 3,9 milioni di ore di sciopero e 466mila scioperanti. Pertanto il picco delle ore non lavorate si è raggiunto nel decennio 1971-80 con 122 milioni di ore di sciopero in media l’anno. Nel decennio precedente, 1961-70, la media di ore non lavorate era stato di poco inferiore:121 milioni di ore di sciopero, ma in questo stesso decennio si è verificato il picco annuale delle ore non lavorate con 302 milioni di ore sciopero nel 1969.

 

La partecipazione dei lavoratori agli scioperi è stata di 3,5 milioni in media l’anno nel decennio 1961-70. Nel decennio successivo, 1971-80 il numero dei lavoratori partecipanti è quasi raddoppiato rispetto al decennio precedente con 6,9 milioni in media l’anno. Sempre in questo decennio si sono verificati i due picchi, con oltre 10 milioni di scioperanti l’anno, nel 1975 e nel 1979.

 

I dati Istat relativi alle “ore non lavorate per conflitti estranei al rapporto di lavoro”, che comprendono soprattutto le ore dovute agli scioperi generali (scioperi contro provvedimenti di politica economica, istanze di riforme sociali, eventi nazionali e internazionali, ecc) sono molto discontinui ma documentano comunque un fenomeno assai importante, e cioè che negli anni in cui è più elevato il numero di scioperi originati dal rapporto di lavoro è anche più elevato il numero di ore perdute per conflitti estranei al rapporto di lavoro.

 

Nel 1990, 1995, 1996, l’Annuario Statistico Italiano dell’Istat non registra alcun “Conflitto estraneo al rapporto di lavoro” e sono gli anni in cui si assiste ad un calo vertiginoso degli scioperi dovuti ai conflitti originati dal rapporto di lavoro, al contrario negli anni 1976, 1978, 1980 mentre crescevano i conflitti dovuti al rapporto di lavoro crescevano anche quelli estranei al rapporto di lavoro. Ciò sta a significare che la conflittualità, la sua intensità e durata, è un fenomeno unitario che si esprime in forme diverse ma è riconducibile all’esercizio della democrazia da parte dei lavoratori, e come tale viene esercitato sia nei conflitti legati al rapporto di lavoro, sia per questioni più generali.

 

La tabella 5 mostra il risultato di quanto detto sinora: negli anni della ristrutturazione selvaggia e della concertazione, i redditi da lavoro e le pensioni sono arrivati a costituire oltre l’84,8% delle entrate delle imposte dirette, sostenendo l’incremento più elevato, +7,0%, mentre l’incremento di quelli da impresa ha fatto il percorso inverso, con il più forte livello di abbassamento nel trentennio: -7,3%, passando da un iniziale 11,9% nel 1975 ad un ridottissimo 4,6% nel 2005. Tutte le manovre di questi ultimi due anni, dalla riduzione del cuneo fiscale fino allo scudo fiscale, avranno come esito l’ennesima diminuzione del prelievo sui redditi da imprese, fino al condono per chi evade completamente il fisco.

 

Considerazioni finali

Il sistema di tassazione e fiscale generale dovrebbe costituire un potente meccanismo di redistribuzione dei redditi e della ricchezza, mentre assistiamo al contrario, come dimostrano le tabelle, ad una politica che permette l’accumulazione per pochi a scapito di una espropriazione generalizzata a danno dei lavoratori e dei pensionati.

 

La proposta delle due aliquote di cui abbiamo fatto cenno all’inizio ha in questo senso raggiunto il colmo, preceduta dalla Legge finanziaria per il 2010, su cui è stata posta l’ennesima fiducia dal governo Berlusconi, che non contiene che briciole per il rinnovo dei contratti del pubblico impiego. Così è stato chiuso un anno che si è aperto con la riforma del modello contrattuale, che prevede la triennalizzazione dei contratti (ovvero aumenti spalmati su tre anni anziché su due) accompagnata dalla Legge 15 sulla riforma della pubblica amministrazione (la cosiddetta ‘Riforma Brunetta’), che imbriglia definitivamente la conflittualità, congelando per il triennio le nuove elezioni delle Rsu. E lo stesso vale per il settore privato con l’accordo del 22 gennaio 2009, dove la triennalità da una parte e la “tregua sindacale” di 7 mesi durante il rinnovo contrattuale dall’altra sono il sistema di contrappesi con il quale Confindustria detta le nuove regole nei rapporti di lavoro, garantendosi il congelamento della conflittualità. Le due riforme, lo ricordiamo, sono state sottoscritte da Cisl e Uil ma non dalla Cgil, che sta però ‘delegando’ la scelta sui rinnovi alle singole categorie, quando ci si sarebbe aspettati, in coerenza con la bocciatura dell’accordo e con questa politica, la convocazione dello sciopero generale durante la discussione sulla Finanziaria. Un atto che avrebbe unito tutti i lavoratori. Invece mentre Fp e Fiom non firmano i rinnovi e la Fiom in particolare ha opposto aumenti per il biennio aprendo una battaglia in tutti i posti di lavoro perché siano i lavoratori a decidere sul loro contratto, le altre categorie, dagli alimentaristi ai chimici, sottoscrivono rinnovi contrattuali completamente improntati alla filosofia del nuovo modello. Questo modo di procedere è il culmine del sistema di concertazione sostenuto negli anni dai sindacati confederali, che ha segnato la svendita delle conquiste di anni di lotte, e che ha disarmato concettualmente e organizzativamente i lavoratori dipendenti.

 

In questo contesto appare del tutto irrilevante la richiesta di “defiscalizzazione” del salario aggiuntivo, premiale, o di secondo livello o la detassazione delle tredicesime: sono operazioni che questo governo si guarda bene dal realizzare, e se pure questa detassazione dovesse essere presa in considerazione dal governo essa costituirebbe una iattura per i lavoratori dipendenti. La prima conseguenza sarebbe una diminuzione secca delle entrate fiscali che darebbe luogo ad una crescita esponenziale del debito pubblico. Come è avvenuto negli ultimi 20 anni ciò comporterebbe un ulteriore taglio alla spesa pubblica sociale già prosciugata: sanità, istruzione, ricerca, pensioni, assistenza che oggi si caratterizzano anche per la forma di salario sociale disponibile per i lavoratori dipendenti.

 

Tanto meno il governo realizzerà la tassazione del capital gains o la tassazione europea delle rendite sia finanziarie che di altra natura, rivendicazioni che sarebbero scontate se ci fosse un conflitto serio in atto su pensioni, salario, giustizia sociale, che non si limitasse a una battaglia sulle percentuali, ma tornasse ad avere come orizzonte “un’esistenza libera e dignitosa” dei lavoratori. Come negli anni ’60 e ’70, dove il clima sociale creato dal conflitto ha imposto un sistema di tassazione più giusto e più aderente allo spirito e al dettato costituzionale equilibrando il livello retributivo. Eppure sono stati gli anni del boom economico e del tasso di occupazione più elevato, della scolarizzazione di massa e delle conquiste sociali più avanzate.

 

 

Il miraggio della giustizia sociale. von Hayek non aveva dubbi. la giustizia sociale era un miraggio. Ciò a cui dovevamo tendere era una società nella quale l’intervento dello stato doveva essere azzerato. A dominare la scena dovevano essere gli individui che mostravano d’essere i più capaci. Nulla ci veniva detto sul motivo per il quale la maggioranza degli individui fosse composta da incapaci. Ciò faceva nascere il sospetto che nella teoria di von Hayek ci fosse qualcosa che non funzionava.  Questo qualcosa creava una situazione che penalizzava paradossalmente lo sviluppo della società che è costituito non solo dal riconoscimento di diritti a favore degli individui, ma anche dalla possibilità oro conferita di farli valere.

 

Amartya Sen parla a questo proposito di entitlements e di capacities dimostrando che non si tratta solo di un problema morale, ma anche d’un problema economico perché, scrive Sen, sviluppo è libertà: libertà di far valere le proprie capacità. Compito dello stato è garantire che ciò avvenga nel rispetto dei diritti di tutti i cittadini.

 

 

Bibliografia

 

Ackermann, B., Social justice in the liberal State, New Haven, Conn., 1980 (tr. it.: La giustizia sociale nello Stato liberale, Bologna 1984).

Assmann, J., Ma′at. Gerechtigkeit und Unsterblichkeit im alten Ägypten, München 19952.

Austin, J., The province of jurisprudence determined (1832), a cura di H. L. A. Hart, London 1954 (tr. it.: Delimitazione del campo della giurisprudenza, a cura di M. Barberis, Bologna 1995).

Barry, B., Political argument, London 1965.

Barry, B., The liberal theory of justice, Oxford 1973 (tr. it.: La teoria liberale della giustizia, Milano 1994).

Barry, B., A treatise on social justice, vol. I, Theories of justice, Berkeley, Cal., 1989 (tr. it.: Teorie della giustizia, Milano 1996).

Beitz, C.-R., Political theory and international relations, Princeton, N. J., 1979.

Bentham, J., Of laws in general, a cura di H. L. A. Hart, London 1970.

Bien, G., Gerechtigkeit bei Aristoteles, in Aristoteles. Die Nikomachische Ethik (a cura di O. Höffe), Berlin 1995, pp. 135-164.

Birnbacher, D., Verantwortung für zukünftige Generationen, Stuttgart 1988.

Bobbio, N., L’età dei diritti, Torino 1990.

Buchanan, J., The limits of liberty, Chicago 1975 (tr. it.: I limiti della libertà, Torino 1978).

Buchanan, J., Freedom in constitutional contract. Perspectives of a political economist, College Station, Tex., 1977 (tr. it.: Libertà nel contratto costituzionale. Prospettive di una politica economica, Milano 1990).

Buchanan, J., Tullock, G., The calculus of consent, logical foundations of constitutional democracy, Ann Arbor, Mich., 1962.

Demmerling, C., Rentisch, T. (a cura di), Die Gegenwart der Gerechtigkeit, Berlin 1995.

Dworkin, R., Taking rights seriously, Cambridge, Mass., 1977 (tr. it.: I diritti presi sul serio, Bologna 1982).

Ferry, L., Philosophie politique, 2 voll., Paris 1986-1987.

Fogel, R. W., Without consent or contract. The rise and fall of American slavery, New York-London 1989.

Forsthoff, E. (a cura di), Die Verwaltung als Leistungsträger, Stuttgart-Berlin 1938.

Forsthoff, E., Der Staat der Industriegesellschaft. Dargestellt am Beispiel der Bundesrepublik Deutschland, München 1971.

Frankena, W., The concept of social justice, in Social justice (a cura di R. B. Brandt), Englewood Cliffs, N. J., 1962.

Gierke, O. von, Johannes Althusius und die Entwicklung der naturrechtlichen Staatstheorien; zugleich ein Beitrag zur Geschichte der Rechtssystematik, Breslau 1880 (tr. it.: Giovanni Althusius e lo sviluppo storico delle teorie politiche giusnaturalistiche, Torino 1943).

Habermas, J., Faktizität und Geltung. Beiträge zur Diskurstheorie des Rechts und des demokratischen Rechtsstaats, Frankfurt a. M. 1992 (tr. it.: Fatti e norme. Contributi a una teoria discorsiva del diritto e della democrazia, Milano 1996).

Hart, H. L. A., The concept of law, New York-London 1961 (tr. it.: Il concetto del diritto, Torino 1995).

Hayek, F. A. von, Law, legislation, and liberty. A new statement of the liberal principles of justice and political economy, vol. II, The mirage of social justice, Chicago-London 1976 (tr. it.: Legge, legislazione e libertà, Milano 1986).

Hobbes, T., Leviathan or the matter, form and power of a commonwealth ecclesiastical and civil (1651), a cura di M. Oakeshott, Oxford 1946 (tr. it.: Leviatano, a cura di T. Magri, Roma 1982).

Höffe, O., Politische Gerechtigkeit. Grundlegung einer kritischen Philosophie von Recht und Staat, Frankfurt a. M. 1987 (tr. it.: Giustizia politica. Fondamenti di una filosofia critica del diritto e dello Stato, Bologna 1995).

Höffe, O., Kategorische Rechtprinzipien. Ein Kontrapunkt der Moderne, Frankfurt a. M. 1990.

Höffe, O., Gerechtigkeit als Tausch? Zum politischen Projekt der Moderne, Baden-Baden 1991.

Höffe, O., Eine Weltrepublik als Minimalstaat?, in ‟Zeitschrift für Kulturaustausch”, 1993, XLIII, pp. 39-44.

Höffe, O., Moral als Preis der Moderne. Ein Versuch über Wissenschaft, Technik und Umwelt, Frankfurt a. M. 1993.

Höffe, O., Die vereinten Nationen im Lichte Kants, in Immanuel Kant. Zum ewigen Frieden (a cura di O. Höffe), Berlin 1995, pp. 245-272.

Höffe, O., ‟Sed auctoritas, non veritas, facit legem”, in Thomas Hobbes. Leviathan (a cura di W. Kersting), Berlin 1996, pp. 235-257.

Höffe, O., Vernunft und Recht. Bausteine zu einem interkulturellen Rechtsdiskurs, Frankfurt a. M. 1996.

Höffe, O. (a cura di), John Rawls. Eine Theorie der Gerechtigkeit, Berlin 1997.

Höffe, O. (a cura di), Platon, Politeia, Berlin 1997.

Honneth, A., Integrität und Missachtung. Grundmotive einer Moral der Anerkennung, in ‟Merkur”, 1990, XLIV, 12, pp. 1043-1054.

Kant, I., Zum ewigen Frieden, Königsberg 1795 (tr. it.: Per la pace perpetua, a cura di N. Merker, Roma 1985).

Kant, I., Metaphysische Anfangsgründe der Rechtslehre, Königsberg 1797 (tr. it. in La metafisica dei costumi, a cura di G. Vidari, Torino 19232, vol. I, La dottrina del diritto).

Kelsen, H., Reine Rechtslehre, Wien 19602 (tr. it.: Dottrina pura del diritto, Torino 1968).

Kelsen, H., Was ist Gerechtigkeit?, Wien 1975.

Kersting, W., Die politische Philosophie des Gesellschaftsvertrags, Darmstadt 1994.

Kersting, W. (a cura di), Gerechtigkeit als Tausch? Auseinandersetzungen mit der politischen Philosophie Otfried Höffes, Frankfurt a. M. 1997.

Kissel, O. R., Die Justitia. Reflexionen über ein Symbol und seine Darstellung in der bildenden Kunst, München 1984.

Kymlicka, W. (a cura di), Justice in political philosophy, 2 voll., Cambridge 1992.

Lucas, R., On justice, Oxford 1980.

Luce, R. D., Raiffa, H., Games and decisions. Introduction and critical survey, New York 1957.

Luhmann, N., Legitimation durch Verfahren, Frankfurt a. M. 1969.

Luhmann, N., Ausdifferenzierung des Rechts. Beiträge zur Rechtssoziologie und Rechtstheorie, Frankfurt a. M. 1981 (tr. it.: La differenziazione del diritto, Bologna 1990).

Luhmann, N., Die soziologische Beobachtung des Rechts, Frankfurt a. M. 1986.

Luhmann, N., Rechtssoziologie, Opladen 19873 (tr. it.: Sociologia del diritto, Roma-Bari 1977).

Luhmann, N., Paradigm Lost. Über die ethische Reflexion der Moral, Frankfurt a. M. 1990.

Luhmann, N., Das Recht der Gesellschaft, Frankfurt a. M. 1993.

Lyotard, J.-F., Le différent, Paris 1983 (tr. it.: Il dissidio, Milano 1985).

MacIntyre, A., After virtue: a study in moral theory, Notre Dame, Ind.-London 1981, 19852 (tr. it.: Dopo la virtù. Saggio di teoria morale, Milano 1987).

MacIntyre, A., Whose justice? Which rationality?, London 1988.

Maffettone, S., Utilitarismo e teoria della giustizia, Napoli 1983.

Maydell, B. von, Kannengiesser, W. (a cura di), Handbuch Sozialpolitik, Pfullingen 1988.

Merle, J. C., Justice et progrès, Paris 1997.

Mill, J. S., Utilitarianism (1861), London 18673 (tr. it.: L’utilitarismo, a cura di E. Musacchio, Bologna 1981).

Miller, D., Social justice, Oxford 1976.

Moore, B., Injustice. The social basis of obedience and revolt, New York 1978 (tr. it.: Ingiustizia. Le basi sociali dell’obbedienza e della rivolta, Milano 1983).

Nagel, T., Equality and partiality, Oxford 1991.

Nietzsche, F., Zur Genealogie der Moral. Eine Streitschrift (1887), Berlin 1980 (tr. it.: Genealogia della morale. Uno scritto polemico, Milano 19763).

Nozick, R., Anarchy, State, and utopia, Oxford 1974 (tr. it.: Anarchia, Stato e utopia, Firenze 1981).

O’Neill, O., Faces of hunger. An essay on poverty, justice, and development, London 1986.

O’Neill, O., Towards justice and virtue. A constructive account of practical reasoning, Cambridge 1996.

Ott, W., Der Rechtspositivismus. Kritische Würdigung auf der Grundlage eines juristischen Pragmatismus, Berlin 1976.

Perelman, C., De la justice, Bruxelles 1945 (tr. it.: La giustizia, Torino 1959).

Pettit, P., Judging justice, London-New York 1980.

Pieper, J., Über die Gerechtigkeit, München 19654 (tr. it.: Sulla giustizia, Brescia 19622).

Raphael, D. D., Justice and liberty, London 1980.

Rawls, J., A theory of justice, Cambridge, Mass., 1971 (tr. it.: Una teoria della giustizia, Milano 1982).

Rawls, J., Political liberalism, New York 1993 (tr. it.: Liberalismo politico, Milano 1994).

Rawls, J., The law of peoples, in On human rights (a cura di S. Shute e S. Hurley), New York 1993, pp. 41-82.

Renaut, A., Sosoe, L., Philosophie du droit, Paris 1991.

Rorty, R., Contingency, irony, and solidarity, Cambridge-New York 1989.

Ross, W. D., The right and the good, Oxford 1930.

Sandel, M., Liberalism and the limits of justice, Cambridge 1982 (tr. it.: Il liberalismo e i limiti della giustizia, Milano 1994).

Schmitt, C., Positionen und Begriffe, Hamburg 1940.

Shklar, J., Faces of injustice, New Haven, Conn., 1990.

Sidgwick, H., The methods of ethics, London 19077 (tr. it.: I metodi dell’etica, a cura di M. Mori, Milano 1995).

Taylor, C., Shared and divergent values, in Options for a new Canada (a cura di R. L. Watts e D. M. Brown), Toronto 1991.

Teubner, G., Reflexives Recht, in ‟Archiv für Rechts- und Sozialphilosophie”, 1982, LXVIII, pp. 13-59.

Tönnies, F., Gemeinschaft und Gesellschaft. Grundbegriffe der reinen Soziologie, Berlin 1887, 19358 (tr. it.: Comunità e società, Milano 1979).

Trapp, R. W., Nicht-klassischer Utilitarismus. Eine Theorie der Gerechtigkeit, Frankfurt a. M. 1988.

Van Parijs, P., Qu’est-ce qu’une société juste?, Paris 1992 (tr. it.: Che cos’è una società giusta?, Firenze 1995).

Villey, M., Philosophie du droit, Paris 1984.

Walzer, M., Spheres of justice. A defense of pluralism and equality, New York 1983 (tr. it.: Sfere di giustizia, Milano 1987).

Walzer, M., Nation and universe, in ‟The Tanner lectures on human values”, 1990, XI, pp. 507-556.

Wolf, J.-C., Utilitarismus, Pragmatismus und kollektive Verantwortung, Freiburg in der Schweiz 1993.

Pubblicato in Uncategorized | Lascia un commento

Lo sviluppo locale

Prefazione. Lo sviluppo di un paese può passare attraverso risorse economiche, umane, culturali e ambientali che risiedono a livello locale? E con quali politiche e quali mezzi finanziari? Quali meccanismi possono garantire che le azioni locali siano coordinate a livello regionale e nazionale per evitare la trappola del localismo? Come conciliare lo sviluppo locale e le sfide della globalizzazione?Spesso in Italia lo sviluppo locale è assimilato all’esperienza dei distretti industriali, ma oggi la sfida va oltre questi confini e riguarda anche le capacità collettive di città e territori – in termini di coordinamento tra istituzioni, imprese e cittadini – di rispondere alle pressioni economiche, sociali ed ambientali del mondo globalizzato, specialmente nel post-crisi globale.

 

Distretto industriale. Sistema produttivo costituito da un insieme di imprese, prevalentemente di piccole e medie dimensioni, caratterizzate da una tendenza all’integrazione orizzontale e verticale e alla specializzazione produttiva, in genere concentrate in un determinato territorio e legate da una comune esperienza storica, sociale, economica e culturale.

 

Il primo autore a studiare questa specifica forma di organizzazione della produzione fu A. Marshall, che in Principles of economics (1890) ne delinea le principali caratteristiche. Uno degli elementi fondamentali è il concetto di ‘atmosfera industriale’: quando in un territorio circoscritto lavora un numero molto elevato di soggetti che svolgono mestieri simili, «i misteri dell’industria non sono più tali. È come se stessero nell’aria, e i fanciulli ne apprendono molti inconsapevolmente». È come se l’esperienza necessaria per svolgere un determinato lavoro (non necessariamente solo manuale) si sviluppasse in maniera innata, quasi «respirandola nell’aria».

 

Secondo G. Becattini (Il mercato e le forze locali: il distretto industriale, 1987), uno dei maggiori studiosi italiani di d. i., ciò che unisce fortemente tra loro le imprese che vi appartengono «è una rete complessa e inestricabile di economie e diseconomie esterne, di congiunzioni e connessioni di costo, di retaggi storico-culturali che avvolge sia le relazioni interaziendali che quelle più squisitamente personali». I rapporti professionali si intrecciano con relazioni sociali di carattere informale, che facilitano la diffusione della conoscenza tra gli attori.

 

Le imprese del d. i., pur essendo nella maggior parte dei casi di dimensioni limitate, mostrano spesso una capacità tecnologica e innovativa medio-alta, soprattutto grazie all’elevato livello di specializzazione, che consente a ognuno di concentrarsi su un numero ristretto di fasi produttive e di adottare sistemi produttivi avanzati, che permettono una diminuzione dei costi di transazione rispetto a quelli di coordinamento. La realtà distrettuale è contraddistinta da una elevata densità imprenditoriale. Anche se la numerosità dei soggetti può favorire un aumento del livello di competitività tra le imprese e il verificarsi di comportamenti opportunistici, nel caso dei d. i. ciò non si verifica, o meglio, si verifica secondo modalità ‘non distruttive’. I rapporti fra soggetti sono il risultato della combinazione di concorrenza sui mercati di riferimento e di contemporanea consuetudine alla cooperazione reciproca.

 

È il corretto bilanciamento tra le due opposte tensioni verso la collaborazione e la competizione che crea lo stimolo a un continuo rinnovamento e permette lo sviluppo di nuove opportunità. Si incentiva l’investimento in macchinari innovativi, grazie alla parziale copertura del rischio garantita dalla rete di rapporti interpersonali; la specializzazione permette al singolo di limitare il numero di macchinari necessario; è favorita l’iniziativa imprenditoriale e così via (G. Dei Ottati, Distretto industriale, problemi delle transazioni e mercato comunitario: prime considerazioni, «Economia e Politica Industriale», 51, 1986). Un ruolo fondamentale nel successo dei d. i. marshalliani è giocato dalle economie esterne (esternalità), ossia vantaggi non interni alla singola impresa e come tali esclusivi per quest’ultima, bensì esterni a essa e propri del d. i. nel suo complesso, quindi fruibili indistintamente da tutti i soggetti che ne fanno parte. Ne sono esempio la presenza di un ampio e stabile bacino di manodopera qualificata, bassi costi di accesso a servizi alla produzione, possibilità di utilizzare in maniera immediata e agevole macchinari sofisticati e metodi organizzativi comuni e, in generale, citando ancora Marshall, tutte le economie che sono «dipendenti dallo sviluppo generale dell’industria».

 

I distretti industriali in Italia. La realtà distrettuale in Italia si caratterizza per un forte radicamento territoriale in una specifica area socioeconomica, per una elevata specializzazione produttiva e per una notevole densità di piccole e medie imprese specializzate in fasi diverse del ciclo produttivo. Esempi noti di d. i. sono quelli della ceramica (Sassuolo e Faenza), calzaturieri (Barletta, Fermo, Montebelluna), tessili (Prato, Oleggio e Carpi), degli elettrodomestici (Fabriano), dell’ottica (Belluno) e quello del settore biomedicale (Mirandola). In Italia il d. i. è stato proposto come strumento di politica industriale distinto rispetto alle singole imprese e ai settori di produzione, nell’ambito della l. 317/1991, sugli interventi per l’innovazione e lo sviluppo delle piccole imprese. Gli indirizzi e i parametri per l’individuazione delle relative aree sono stati stabiliti successivamente con d.m. 1993 (che ha affidato alle Regioni il compito di individuare i d. i. sulla base di stringenti criteri metodologico-statistici, successivamente ridefiniti in senso meno restrittivo dalla l. 140/1999), sulla base del quale le Regioni hanno definito le aggregazioni territoriali idonee. A tal fine, con delibera CIPE 3 maggio 2001, sono stati presi a riferimento i ‘sistemi locali del lavoro’, individuati dall’ISTAT su scala nazionale nel 1981 in base ai movimenti giornalieri di popolazione per motivi di lavoro.

 

Un ruolo fondamentale è giocato dalle economie esterne (esternalità), ossia vantaggi non interni alla singola impresa e come tali esclusivi per quest’ultima, bensì esterni a essa e propri del d. i. nel suo complesso, quindi fruibili indistintamente da tutti i soggetti che ne fanno parte. Ne sono esempio la presenza di un ampio e stabile bacino di manodopera qualificata, bassi costi di accesso a servizi alla produzione, possibilità di utilizzare in maniera immediata e agevole macchinari sofisticati e metodi organizzativi comuni e, in generale, citando ancora Marshall, tutte le economie che sono «dipendenti dallo sviluppo generale dell’industria».

 

La realtà distrettuale in Italia si caratterizza per un forte radicamento territoriale in una specifica area socioeconomica, per una elevata specializzazione produttiva e per una notevole densità di piccole e medie imprese specializzate in fasi diverse del ciclo produttivo. Esempi noti di d. i. sono quelli della ceramica (Sassuolo e Faenza), calzaturieri (Barletta, Fermo, Montebelluna), tessili (Prato, Oleggio e Carpi), degli elettrodomestici (Fabriano), dell’ottica (Belluno) e quello del settore biomedicale (Mirandola). In Italia il d. i. è stato proposto come strumento di politica industriale distinto rispetto alle singole imprese e ai settori di produzione, nell’ambito della l. 317/1991, sugli interventi per l’innovazione e lo sviluppo delle piccole imprese. Gli indirizzi e i parametri per l’individuazione delle relative aree sono stati stabiliti successivamente con d.m. 1993 (che ha affidato alle Regioni il compito di individuare i d. i. sulla base di stringenti criteri metodologico-statistici, successivamente ridefiniti in senso meno restrittivo dalla l. 140/1999), sulla base del quale le Regioni hanno definito le aggregazioni territoriali idonee. A tal fine, con delibera CIPE 3 maggio 2001, sono stati presi a riferimento i ‘sistemi locali del lavoro’, individuati dall’ISTAT su scala nazionale nel 1981 in base ai movimenti giornalieri di popolazione per motivi di lavoro.

 

Programmazione economica territoriale. La programmazione economica territoriale riguarda, ha scritto Valeria Sodano, tutti gli interventi attuati da uno o più attori istituzionali, generalmente pubblici ma anche privati, al fine di favorire lo sviluppo di un particolare territorio/regione. Obiettivi della programmazione territoriale possono essere: la crescita economica, la correzione di eventuali distorsioni nell’uso delle risorse, la diminuzione dei differenziali territoriali di crescita tra regioni, il re-orientamento dello sviluppo verso obiettivi di sostenibilità ambientale e sociale.

 

Nei paesi a economia capitalistica avanzata, annotava Valeria Sodano, la programmazione economica territoriale come campo di intervento pubblico a livello nazionale assume particolare rilevanza durante gli anni cinquanta, sessanta e settanta, in accordo con l’allora diffuso orientamento verso un ruolo forte dello stato nell’economia, sia come soggetto “regolatore” che come attore economico diretto. A partire dalla fine degli anni settanta, con l’avvento del neoliberismo e dei processi di globalizzazione si ha da un lato una diminuzione degli interventi di programmazione e da un lato si ha un cambiamento di “paradigma” per quel che riguarda i contenuti e le modalità dell’intervento. Gli obiettivi di sostenibilità e coesione divengono di gran lunga predominanti su quelli di sviluppo e riequilibrio, mentre la forma dell’intervento pubblico muta dalla forma diretta alla forma indiretta, vale a dire di indirizzo e di incentivo per la promozione di forme di governance del territorio che vedano la compartecipazione degli attori privati e delle istituzioni locali, più che dell’amministrazione pubblica centrale.

 

Secondo Blakely (1994), la PET è : “Un processo nel quale i governi locali o le diverse istituzioni (organizzazioni) di una comunità locale sono impegnati al fine di stimolare o mantenere un certo livello di attività economica e di occupazione. Il principale obiettivo dello sviluppo economico a livello locale è di promuovere le opportunità di occupazione in quei settori che possano portare beneficio all’intera comunità, utilizzando le risorse umane, naturali e istituzionali esistenti a livello territoriale.” Tale concetto di sviluppo economico regionale introduce ad alcuni elementi chiave che definiscono le peculiarità del concetto di sviluppo quando questo venga declinato a livello territoriale, vale a dire tenendo conto della dimensione spaziale dell’economia.

 

Oggi tende a prevalere una concezione dello sviluppo che non si riferisce alla sola crescita economica (quantitativa, aumento del PIL di un territorio, vale a dire del valore dei beni prodotti) complessiva, ma anche della crescita qualitativa (non solo quanti ma anche quali beni e servizi a disposizione della comunità che possano aumentarne il benessere, definito quest’ultimo in termini generali di “qualità della vita”), e della distribuzione della ricchezza e del benessere tra i diversi membri della comunità (attenzione al problema re-distributivo in base ad una valutazione di giustizia economica come fondamento del benessere della collettività).

 

Il neoliberismo ha portato oltre che ad una riduzione progressiva degli investimenti pubblici per lo sviluppo regionale, ad un nuovo approccio relativamente alle “leve dello sviluppo”, identificate non più con la dotazione originaria di risorse, gli investimenti infrastrutturali e lo sviluppo del capitale umano, ma con i vantaggi competitivi, siano essi di costo o di differenziazione, ottenuti da un settore privato sempre più aggressivo e dotato di potere monopolistico.

 

L’accresciuta fragilità ambientale, con l’insorgenza di problemi ambientali globali ad alto rischio di catastrofi, come il riscaldamento globale, ha portato, anche in tempi neoliberisti, ad una cresciuta sensibilità ambientale ed allo sviluppo di analisi e modelli di politica economica per uno sviluppo sostenibile. Tali modelli hanno spesso sottolineato l’importanza della dimensione locale, per l’efficienza e l’efficacia dell’intervento, offrendo alle politiche territoriali un nuovo terreno di intervento e rinnovate possibilità di finanziamento pubblico. Ad esempio lo spostamento dello sforzo finanziario dalla politica dei prezzi e dei mercati alle politiche strutturali e per lo sviluppo territoriale nell’ambito della politica agricola dell’Unione Europea ha abbracciato appunto l’idea che l’intervento pubblico deve essere “condizionato” al conseguimento di obiettivi di sostenibilità ambientale.

 

I patti territoriali rappresentano, nel rispetto delle competenze dei diversi livelli istituzionali, lo

strumento per l’individuazione di un complesso coordinato di interventi di tipo produttivo e

promozionale, nonché di quelli infrastrutturali ad essi funzionali, ai quali concorra il finanziamento pubblico. L’elemento caratterizzante di un patto territoriale è costituito dalla concertazione tra i diversi attori sociali ( rappresentanti delle forze sociali., degli enti locali e singoli operatori economici ) finalizzata all’elaborazione di progetti concreti di sviluppo locale. Si presenta, dunque, come uno strumento selettivo che si basa su elementi qualitativi in ordine ai tempi, agli impegni assunti dai soggetti sottoscrittori e alla selezione degli obiettivi.

Il patto territoriale costituisce il punto di arrivo di un processo di concertazione “dal basso” tra gli attori sociali nel quale viene evidenziato il ruolo del partenariato sociale, alla base del quale vi è essenzialmente la presenza di un’idea forza di sviluppo del territorio. Si tratta di un punto di riferimento fondamentale sia per potere delimitare l’area oggetto del patto, sia per riuscire a fare una selezione e a stabilire delle priorità tra i vari interessi presenti a livello locale.

Il patto deve essere costituito da un insieme di progetti che si rafforzano reciprocamente avendo

come obiettivo il raggiungimento di una dimensione di sviluppo integrato. Per questo motivo risulta importante che il patto preveda attività economiche caratterizzate da una rapida eseguibilità e si riferisca ad una dimensione territoriale complessiva abbastanza contenuta.

I patti territoriali sono finalizzati allo sviluppo integrato di aree territoriali delimitate a livello

subregionale, costituendo fondamentale espressione del principio di “partenariato sociale”.

L’idea che sta alla base del patto territoriale è quella di rivolgersi in primo luogo agli attori “forti” delle aree in deficit di sviluppo, cercando in questo modo di mobilitare tutto il sistema

dell’imprenditoria locale.

 

I requisiti per l’attivazione di un patto territoriale sono:

esistenza della concertazione fra le parti sociali, da certificare tramite specifico protocollo

d’intesa;

disponibilità di progetti di investimento coerenti con gli obiettivi del patto. L’elaborazione del progetto di attivazione di un Patto Territoriale deve contenere le seguenti parti:

premessa di intenti, che si riferisce alle ragioni che sono alla base del ricorso al patto

territoriale e al contenuto operativo del patto stesso;

il territorio e le sue caratteristiche, vale a dire la descrizione “geografica” dell’area oggetto

del patto, con le sue potenzialità e gli ostacoli che si frappongono invece allo sviluppo

la gerarchia degli interessi e gli obiettivi. Questi ultimi devono riferirsi allo sviluppo

integrato del territorio, alla valorizzazione delle risorse locali, alla valorizzazione e alla

promozione del fattore umano; nel perseguire tali fini il patto deve essere in grado di fare

una selezione degli interessi in una visione di sviluppo integrato, deve quindi, prevedere il

concorso degli attori locali, degli enti locali e delle parti sociali secondo una logica di

composizione degli interessi particolari, entro un disegno di pubblica utilità; i progetti del patto e gli interventi necessari. Ci si riferisce al complesso degli investimenti e

degli interventi, con i tempi di completamento, l’evoluzione dell’occupazione, la redditività e

le fonti di tipo finanziario. La capacità progettuale deve, pertanto, tradursi in interventi ben

definiti, rispondenti a logiche di mercato. A questo proposito è opportuno che siano

coinvolti nel progetto di patto i soggetti che nell’area individuata sono in grado di svolgere

una funzione di arricchimento culturale e di sviluppare capacità di fare innovazione

scientifica. Un patto territoriale coinvolge una molteplicità di soggetti sia pubblici che privati, sia promotori che sottoscrittori.

 

I soggetti promotori possono essere:

enti locali

altri soggetti pubblici che operano a livello locale

rappresentanze locali delle categorie imprenditoriali e dei lavoratori

soggetti privati

I soggetti sottoscrittori sono:

rappresentanze locali delle categorie imprenditoriali e dei lavoratori interessate

regione o provincia autonoma nel cui territorio ricadono gli interventi previsti

istituti bancari e finanziarie regionali

consorzi di garanzia collettiva fidi

consorzi di sviluppo industriale operanti nel territorio oggetto del patto

Un ruolo significativo nella promozione e nella realizzazione dei patti territoriali è svolto dal

CNEL la cui funzione è decisiva nella fase di concertazione.

Il patto territoriale si caratterizza per la sua natura di vero contratto sottoscritto tra le parti, e

per questo motivo deve anche espressamente prevedere e indicare quali sono le assunzioni

di responsabilità dei singoli contraenti:

associazioni sindacali dei lavoratori – avviamento professionale, flessibilità del mercato del

lavoro, ottimizzazione della produttività, ecc.

imprese e associazioni di imprese – nuove iniziative imprenditoriali, creazione di consorzi,

sostegno all’occupazione, riqualificazione professionale, ecc.

provincia – costituzione di condizioni ambientali favorevoli allo sviluppo degli investimenti

e al potenziamento del tessuto economico locale, creazione di un adeguato sistema di

trasporti, formazione professionale, ecc.

comune – accelerazione delle procedure di autorizzazione per l’allocazione degli

insediamenti produttivi e, più in generale, snellimento degli iter burocratici relativi, ecc.

camera di commercio – potenziamento del ruolo di servizio alle imprese, creazione di

organismi consortili per la gestione dei progetti a corredo dei patti territoriali, ecc.

comunità montane – adeguamento dei piani zonali e dei piani annuali di sviluppo alle finalità

del patto, incentivi alle iniziative di natura economica che si insedieranno nel comprensorio

della comunità, opere di bonifica, realizzazione delle infrastrutture e dei servizi necessari per

l’attuazione del patto, ecc.

 

Dal distretto industriale allo sviluppo locale. Mentre noi sappiamo bene che cos’è il distretto industriale, ha affermato Fabio Sforzi dell’università di Parma agli Incontri pratesi sullo sviluppo locale organizzati dall’IRIS, il 12 settembre 2005, non sappiamo

altrettanto bene che cos’è lo sviluppo locale. Il distretto industriale è un concetto nato nel campo dell’economia politica, che successivamente si è diffuso in altri campi disciplinari, con le varianti interpretative alle quali ho fatto allusione in precedenza. Lo sviluppo locale, invece, non è nato nel campo dell’economia dello sviluppo. Se sfogliamo un manuale di Economia dello sviluppo troviamo la definizione di sviluppo economico e di sviluppo umano.

 

Lo sviluppo locale è nato come un progetto interdisciplinare, nel campo della ricerca economico-sociale. Ciò significa che non appartiene a nessuna disciplina. Qui sta la sua

forza (potenziale) e la sua debolezza (manifesta). Forza, perché non deve soggiacere ad alcun particolare vincolo disciplinare: è al di là dei confini disciplinari. Perciò, lo sviluppo locale può essere definito in modo eclettico rispetto all’attuale divisione del sapere scientifico e, con il tempo, portare a una nuova disciplina. Debolezza, perché non possiede uno statuto teorico riconosciuto: è alla mercé di chi lo usa. Perciò, ogni utilizzatore può imprimergli la propria curvatura disciplinare, se è un accademico, o la propria curvatura politica, se è un operatore. Di questi tempi, mi sembra che la debolezza prevalga sulla forza. L’ancoraggio disciplinare allontana la prospettiva di una concettualizzazione dello sviluppo locale al di fuori dei tradizionali campi disciplinari. L’ancoraggio politico non ha interesse a una fondazione teorica dello sviluppo locale, che invece porterebbe a una teoria e a una pratica coerenti. Gli operatori

sono interessati alle buone pratiche tout-court. In un certo senso, sotto il profilo teorico lo sviluppo locale resta un concetto incompiuto.

 

Se dobbiamo dare credito alla maggior parte delle definizioni di sviluppo locale che circolano in Italia e nel mondo, lo sviluppo locale è una strategia di politica territoriale. L’asimmetria concettuale esistente fra il distretto industriale e lo sviluppo locale rende ambiguo il loro nesso teorico. Per restare in Italia, si passa da un estremo all’altro: da una sostanziale identificazione fra lo sviluppo locale e i distretti industriali all’affermazione che i distretti industriali sono solo una delle possibili forme di sviluppo locale. In questo modo il contributo teorico del distretto industriale alla concettualizzazione dello sviluppo locale resta in penombra: non si va oltre il richiamo alle economie esterne. Tutto questo è accaduto perché, a differenza del distretto industriale, lo sviluppo locale:

non è stato sottoposto a uno scavo teorico che ne facesse emergere, con

la necessaria chiarezza, le somiglianze e le differenze con lo sviluppo

economico;

è diventato una strategia politica prima ancora che fosse definita la sua

natura concettuale.

 

E allora, che fare? Io penso che per prima cosa si debba cercare di capire che cos’è lo sviluppo locale senza osservarlo dall’angolo di visuale del distretto industriale. Successivamente, dimostrare in che modo il distretto industriale (marshalliano) porti alla concettualizzazione dello sviluppo locale.

 

Lo sviluppo locale, spiegava Sforzi, è un argomento di ricerca accademica e di interesse

politico ormai diffuso nella maggior parte dei paesi del mondo. Questo, grazie all’azione dei governi nazionali e all’iniziativa di organizzazioni internazionali quali la Banca Mondiale, il Fondo Monetario Internazionale, l’Organizzazione Internazionale del Lavoro (l’agenzia specializzata delle Nazioni Unite che persegue la promozione della giustizia sociale e il riconoscimento universale dei diritti umani nel lavoro) e l’Organizzazione delle Nazioni Unite per la Sviluppo Industriale (UNIDO). L’iniziativa di queste organizzazioni è rivolta ai paesi in transizione e in via di sviluppo, dove è tutto un fiorire di iniziative di sviluppo

locale facilmente documentabili. Infatti, oltre a una manualistica per la redazione di progetti a sostegno dei programmi di sviluppo locale si dispone anche di una ricca letteratura

sulle esperienze fin qui realizzate. In Francia lo sviluppo locale è stato promosso su iniziativa del governo nazionale, attraverso l’azione della DATAR (la Delegazione alla

Pianificazione Territoriale e all’Azione Regionale), per assecondare le rivendicazioni autonomistiche delle piccole comunità rurali. In Brasile è stato il governo federale, nel 1999, a lanciare un programma di sviluppo locale come nuova strategia per la riduzione della

povertà.

 

In campo accademico si producono ricerche e si organizzano conferenze, colloqui e incontri sullo sviluppo locale con una certa regolarità sia in Europa che nelle Americhe. Lo sviluppo

locale è materia di studio nelle università e, non diversamente da quanto accade in Italia, vi sono master universitari che formano “agenti di sviluppo locale”. Nelle iniziative scientifiche e nelle pubblicazioni accademiche si affrontano gli aspetti teorici dello sviluppo locale, ma soprattutto si confrontano le esperienze e si effettuano analisi comparative di quelle più significative. L’attenzione è rivolta alle politiche di sviluppo locale piuttosto che alla ricerca di una teoria.

 

Tuttavia, sia nella produzione accademica che nella manualistica vi sono definizioni di sviluppo locale. Perciò, è possibile metterle a confronto. Il risultato del confronto tra le varie definizioni è che tutte pongono l’accento su un carattere essenziale senza il quale non si può parlare di sviluppo locale: la partecipazione della società civile alle prese di decisioni attraverso le quali si definiscono gli obiettivi, gli strumenti, i mezzi e gli impegni dei soggetti coinvolti nel promovimento dello sviluppo di un territorio.

I suoi scopi variano dal “soddisfacimento dei bisogni fondamentali” al “miglioramento del futuro economico e della qualità della vita” per la popolazione locale; le cause fondamentali sono individuate nella “valorizzazione delle risorse locali” o nella “creazione di un ambiente favorevole per le attività economiche”.

 

Ne deriva che lo sviluppo locale è una via di mezzo tra un indirizzo di politica territoriale e un sistema di gestione del potere locale orientato allo sviluppo del territorio. Nella definizione dello sviluppo locale, il locale è identificato con il territorio, i suoi confini non sono dati, ma sono il risultato del “sistema di attori che realizzano la strategia di sviluppo in relazione gli uni con gli altri”. Si tratta di un concetto familiare alla vecchia economia regionale: è il luogo come spazio di pianificazione (Richardson, 1971).

 

Infine, lo sviluppo locale si accompagna a iniziative di decentramento (di competenze, e di risorse finanziarie necessarie al loro esercizio) a favore dei governi locali. È un processo che hanno attuato sia paesi sviluppati sia paesi in via di sviluppo, anche se con modalità differenti, in ragione delle loro tradizioni storico-politiche.

 

Le riflessioni sulle teorie attinenti allo sviluppo locale sono una prerogativa degli ambienti e degli studi accademici. Il campo disciplinare nel quale si sono maggiormente approfondite le

basi teoriche dello sviluppo locale è quello dell’economia regionale. Come già si è visto per le definizioni di sviluppo locale, anche in questo caso si registra una certa convergenza nell’individuazione del retroterra teorico dello sviluppo locale. La critica che viene mossa al concetto di sviluppo economico, sia come teoria che come pratica, è di trascurare, addirittura di negare, l’importanza del territorio nei processi di sviluppo. Di essere uno sviluppo “dall’alto”, cioè guidato dalle politiche statali, e indifferente al territorio, poiché considera l’economia nazionale come un tutto unico.

 

La ricerca di un ruolo attivo del territorio nei processi di sviluppo economico porta alla definizione di una teoria dello sviluppo “dal basso”, centrata sulle comunità locali e sulle loro capacità di sviluppo autonomo; o, come si dice, autocentrato. Lo sviluppo “dal basso” è concepito in funzione del “soddisfacimento dei bisogni fondamentali” della popolazione locale, si realizza “a piccola scala” ed è imperniato sulla valorizzazione delle risorse immobili (il patrimonio naturale, le tradizioni, la cultura e i saperi locali). Lo sviluppo “dal basso” – si afferma – è endogeno, nel senso che le priorità che costituiscono l’agenda di sviluppo sono determinate localmente. Ed è per questa ragione che la partecipazione della società locale

ai processi decisionali assume un ruolo fondativo. Sotto questo aspetto, lo

sviluppo “dal basso” è anche una filosofia dell’azione pratica.

 

Questa concettualizzazione dello sviluppo “dal basso” condivide i caratteri essenziali della precedente definizione di sviluppo locale. C’è da chiedersi, allora, se l’espressione sviluppo locale, per molti che la usano, non significhi, in effetti, sviluppo “dal basso”. Vi sono numerosi riscontri testuali sull’identificazione tra sviluppo “dal basso” e sviluppo endogeno. Così come vi sono rassegne sui concetti dell’economia regionale e saggi di autori italiani e stranieri che individuano in questi approcci territoriali allo sviluppo la base teorica dello sviluppo locale. Si arriva ad affermare che lo sviluppo endogeno meglio conosciuto con il nome di sviluppo locale, è il solo approccio che mette l’accento sull’ambiente locale come fattore di sviluppo, contrapponendo una pianificazione ascendente (“dal basso”) alle strategie abituali di tipo

discendente (“dall’alto”). Secondo questa prospettiva teorica non vi sarebbe, dunque, alcuna differenza fra sviluppo “dal basso”/sviluppo endogeno e sviluppo locale.

 

Un’altra matrice teorica dello sviluppo locale è l’approccio dei distretti industriali. Il distretto industriale ha subito svariate curvature disciplinari. Si può affermare che ogni disciplina dia una propria lettura del distretto industriale, sebbene nel comune richiamo al concetto formulato da Giacomo Becattini. È un’opinione largamente diffusa, non solo in Italia, che l’approccio dei

distretti industriali rappresenti un’espressione riassuntiva di quella intensa stagione di ricerche sullo sviluppo economico italiano che si colloca tra i primi anni ’70 e primi anni ’80.

 

Al cuore del distretto industriale c’è il problema dell’unità d’indagine che corrisponde al luogo di vita. Un luogo di vita non è un semplice ambiente produttivo, ma è una parte determinata e circoscritta di territorio dove un gruppo umano vive e dove si trovano le attività economiche con cui si guadagna da vivere; e si stabiliscono la maggior parte delle relazioni sociali quotidiane. Accettare o respingere l’approccio distrettuale passa attraverso l’accettazione o il rifiuto del problema dell’unità d’indagine. Qualunque siano i caratteri essenziali che si riconoscano tali per definire il distretto.

 

Le capacità umane sono costituite da tutto quell’insieme di attitudini necessarie allo svolgimento di un’attività produttiva: dalla competenza professionale all’abilità negli affari. Esse contribuiscono all’efficienza produttiva delle persone. Alcune di queste capacità 10

sono di ordine generale, cioè sono comuni in tutte le occupazioni, e quindi

appartengono a tutte le attività produttive. Altre, invece, sono specializzate, cioè sono caratteristiche di un’occupazione specifica, e quindi appartengono a una specifica industria.

Le capacità umane “sono un mezzo di produzione altrettanto importante quanto ogni altra specie di capitale”, come scrisse Marshall. Il loro sviluppo è determinante per lo sviluppo economico. Questa affermazione consegue dal ruolo che Marshall assegna alle conoscenze nell’ambito dei fattori della produzione, e dal rapporto che egli stabilisce tra conoscenze

e organizzazione, quando dichiara che l’organizzazione aiuta le conoscenze. Un aiuto che varia in relazione alle diverse forme che l’organizzazione della produzione assume nei luoghi di

vita.

 

L’economia come scienza del cambiamento umano. Il collegamento fra lo sviluppo delle capacità umane e lo sviluppo economico si concretizza nella concezione marshalliana dell’economia che identifica nello studio del cambiamento umano lo scopo più importante. Uno studio del cambiamento umano, cioè dell’evoluzione delle capacità umane, che va condotto considerando l’uomo come parte di un organismo sociale localizzato in un dato tempo e in un dato luogo. Questa unità di tempo e di luogo ricorre nei Principi ogni qual volta l’argomento è quello dello sviluppo delle capacità umane, si tratti della disponibilità di

beni personali o della quota individuale di beni collettivi (in rapporto alla ricchezza), oppure delle capacità produttive specializzate (in rapporto alla concentrazione territoriale dell’industria). Attraverso lo sviluppo delle capacità umane, l’individuo cambia il suo

luogo di vita e, insieme, cambia se stesso. Nel contempo, il luogo di vita reca vantaggi all’individuo. Tra questi vantaggi Marshall comprende, in particolare, lo sviluppo delle capacità

specializzate: “sono grandi i vantaggi che le persone addette allo stesso mestiere specializzato traggono dalla vicinanza reciproca” (Marshall). Alcuni di questi vantaggi, com’è noto, riguardano la circolazione delle conoscenze per cui “i segreti dell’industria non sono

più tali, ma è come se fossero presenti nell’aria” diventando un bene collettivo del luogo. Questi effetti reciproci sono il risultato consapevole della compenetrazione fra l’organizzazione della produzione e l’azione delle istituzioni sociali e politiche. 11. Questa concezione marshalliana dell’economia come scienza del cambiamento umano, cioè delle capacità umane che si formano e sviluppano nei luoghi di vita, già riconosciuta nel campo degli studi sul

pensiero economico, è trattata diffusamente nel IV libro dei Principi, che per alcuni, i c.d. quarto-libristi, rappresenta la principale originalità del pensiero marshalliano. Nel quadro degli approcci territoriali allo sviluppo economico, questa originalità regge ancora oggi il confronto con l’intera tradizione dell’economia regionale, sia di matrice Isardiana che Hooveriana, sia con la più recente NEG (la c.d. “New” Economic Geography: Fujita, Krugman e Venables, 1999).

 

Si comprende bene, infatti, come la proposta teorica marshalliana non riguardi il problema,

invero banale, di come introdurre il territorio nell’analisi economica, tanto meno lo spazio. Essa propone un vero e proprio rovesciamento del modo di ragionare, nella misura in cui lo sviluppo economico è affrontato in termini di organizzazione ed evoluzione industriale della società sostenuta dallo sviluppo delle capacità umane, avendone individuata l’unità

d’indagine nel luogo di vita. È lecito chiedersi com’è che questa impostazione dell’analisi economica non abbia avuto uno sbocco disciplinare autonomo. Ai fini dell’argomento di questa lezione, da quanto si è fin qui detto deriva un’interpretazione dello sviluppo locale come un processo di cambiamento economico che si forma nei luoghi di vita attraverso lo sviluppo delle capacità umane.

 

La natura dello sviluppo locale. Le conseguenze di questa impostazione teorica si manifestano nel carattere essenziale, cioè quello su cui si fonda lo sviluppo locale: le capacità

umane attraverso il cui sviluppo una società locale si specializza in una determinata industria.

Questa concettualizzazione dello sviluppo locale è diversa da quelle che ho brevemente richiamato all’inizio di questa lezione.

 

È diversa anche da quella che propone la sociologia economica italiana: «l’elemento essenziale che contraddistingue [lo sviluppo locale] è costituito dalla capacità dei soggetti di collaborare per produrre beni collettivi che arricchiscono le economie esterne, ma anche per valorizzare

beni comuni, come il patrimonio ambientale e storico-artistico» (Trigilia). E ancora: «Lo sviluppo locale si fonda sulle capacità di cooperazione e di strategia dei soggetti locali per gestire i vincoli posti dalla globalizzazione, e per coglierne le opportunità» (Trigilia). La concettualizzazione dello sviluppo locale che vi propongo è diversa anche da quella dello sviluppo economico, che si fonda sul progresso tecnologico, e non assegna alcun ruolo alla società (locale). Quindi, ci troviamo di fronte a modi diversi di concettualizzare lo sviluppo locale.

 

A qualcuno potrebbe sorgere il dubbio che così come lo sviluppo umano è un concetto diverso, e più ampio, del concetto di sviluppo economico, anche lo sviluppo locale che io ho in mente sia un concetto altrettanto diverso. Per chiarire questo dubbio debbo aggiungere che sviluppo locale e sviluppo economico sono entrambe interpretazioni del cambiamento economico poiché ne condividono i due caratteri essenziali: l’aumento continuo del reddito pro capite della popolazione e la diversificazione dei beni economici che compongono il reddito. Differiscono nell’individuazione della causa fondamentale: che per lo sviluppo locale è l’accrescimento e la

specializzazione delle capacità umane, mentre per lo sviluppo economico è l’accumulazione e il progresso tecnico.

 

Infine, la mia concettualizzazione di sviluppo locale si differenzia dalle altre due, qui in discorso, per via dell’unità d’indagine: il luogo di vita come sede della formazione e dello sviluppo delle capacità umane. Le capacità umane rappresentano, per me, la natura profonda del messaggio teorico del distretto industriale che lo liberano dalla contingenza storico geografica, cioè dal fatto che in un determinato tempo (la fine dell’800 piuttosto la metà del 900) e in un determinato contesto territoriale (l’Inghilterra piuttosto che l’Italia) esistano forme di sviluppo locale che possiamo chiamare distretti industriali.

 

Lo sviluppo delle capacità umane avviene attraverso processi interni/esterni al luogo di vita che riguardano l’interazione dinamica tra:

l’industria (nascente) e i mercati di sbocco dei suoi prodotti che, influenzando in modo determinante l’organizzazione della produzione, favorisce (se richiede un lavoro innovativo) oppure ostacola (se richiede un lavoro ripetitivo) l’acquisizione di capacità specializzate di tipo

professionale (tecniche, commerciali, organizzative) o relative alla conduzione degli affari (capacità imprenditoriale, abitudine alla cooperazione, conoscenza dei mercati);

le istituzioni locali ed extra-locali che, attraverso azioni politiche, favorisce (se condivise) oppure ostacola (se contrastate) la produzione di beni pubblici specifici (relativi all’istruzione tecnico-scientifica, alla ricerca di base e alla relativa sperimentazione industriale) che accrescono le capacità specializzate.

 

L’industria locale, cioè tipica di un determinato luogo in un determinato tempo, è caratterizzata dal sistema di produzione che adotta, dal tipo di tecnologia che utilizza, dalla varietà dei beni che produce, dai particolari grappoli di bisogni che soddisfa, dalla natura dei mercati sui quali

opera (ad esempio, mercati stabili e relativamente omogenei o mercati variabili e differenziati).

La specializzazione in una determinata industria porta alla formazione di una cultura industriale “originale” che pervade l’intera società locale. Una cultura industriale (sistema di valori, consuetudini di reciproca fiducia ecc.) che diventa tipica del luogo, e che segna profondamente i comportamenti della popolazione, delle imprese e delle istituzioni.

5.1 L’importanza dell’azione istituzionale

La relazione tra capacità umane e industria non è necessariamente

virtuosa, nel senso che l’evoluzione dell’industria non implica automaticamente lo sviluppo delle capacità umane. Se è vero che l’uomo è capace di apprendere e di innovare, tuttavia

non sempre sono date le condizioni favorevoli per tradurre in pratica questa capacità se il luogo di vita (in particolare l’ambiente di lavoro) scoraggia l’innovazione creativa e la capacità di iniziativa o non le valorizza.

 

Quando l’organizzazione industriale è tale che richiede l’utilizzo continuativo delle energie mentali in operazioni di routine asservite alle esigenze della produzione (Raffaelli, 1998), per il lavoratore-dipendente o per il lavoratore-imprenditore non vi sono grandi opportunità di sviluppare nuove capacità specializzate. Si tratta di uno scenario che descrive una situazione in cui l’evoluzione industriale si affida più al progresso tecnologico che alle capacità umane. Con il passare del tempo, il lavoro ripetitivo causa la perdita della plasticità mentale. Così, quando il cambiamento industriale richiederebbe lo sviluppo di nuove capacità specializzate, perché il progresso tecnologico da solo non è sufficiente a favorire l’innovatività, non è più possibile riacquistare la plasticità mentale necessaria per svilupparle.

Analisi economiche e definizione di strategie di sviluppo locale. L’analisi economico-sociale del territorio ha le seguenti finalità: cogliere le tendenze economico-sociali di fondo e le principali vocazioni territoriali; identificare le ragioni di natura economica di quel particolare trend storico; identificare e misurare i gap infrastrutturali del territorio; identificare le vocazioni territoriali.

 

L’analisi integrata spaziale e temporale degli indicatori economici inclusi in classi omogenee consente di definire la situazione economica locale, fotografando i punti di forza e di debolezza del territorio di riferimento e definendo: le opportunità di sviluppo di medio e lungo termine, che potranno essere colte attraverso l’implementazione di interventi mirati di sviluppo;

le minacce da evitare attraverso l’ideazione di interventi puntuali e di sistema. Solo con una chiara identificazione delle peculiarità territoriali sarà possibile attivare un circolo virtuoso territoriale, definendo un percorso di sviluppo di breve, medio e lungo termine.

 

La promozione dello sviluppo locale è ormai diventato uno degli assi portanti della politica regionale nell’ottica di coniugare congiuntamente da un lato la valorizzazione delle risorse umane, dell’ambiente, delle imprese e dall’altro la formazione e l’attrazione di risorse ed attività dall’esterno. Tale azione è certamente meno efficace se non vi è l’integrazione, il coinvolgimento di tutti gli interessi e le risorse ritenute essenziali da parte dei diversi attori locali sia pubblici che privati. Ogni territorio a dimensione sub-regionale ha una sua specificità che deve essere assecondata e valorizzata; la forza dello sviluppo locale consiste nel creare un ambiente favorevole all’esaltazione dei fattori locali. Il territorio è visto come fattore capace di offrire risorse ambientali e sociali differenziate e sedimentate nel tempo, valorizzabili nei processi di sviluppo. Nell’epoca della competitività globale i vantaggi di una impostazione territoriale, che punta sulla qualità e l’integrazione dell’offerta di prodotti e di servizi, risultano sempre più evidenti.

 

In termini di sviluppo locale durevole i maggiori successi si sono riscontrati laddove esiste una capacità di utilizzo coordinato di risorse differenti per creare una coerenza di sistema agli sforzi dei singoli e dei gruppi. In questo contesto il Patto Territoriale costituisce uno strumento privilegiato per promuovere lo sviluppo locale in quanto, attraverso la concertazione tra le Amministrazioni locali e gli attori economico-sociali, porta alla definizione di un piano integrato di sviluppo in grado di innescare processi di rilancio dell’economia dell’area oggetto dell’intervento. In questo quadro la concertazione rappresenta un fattore decisivo per promuovere un impiego più razionale delle risorse e delle competenze presenti sul territorio. Ed è a questa convinzione che si è ispirata l’azione politica e programmatoria della Provincia di Torino che ha individuato nei Patti e, soprattutto, nella concertazione, gli strumenti più idonei a migliorare le condizioni economiche e occupazionali del territorio, attraverso una inedita e fruttuosa alleanza fra sistema pubblico e sistema privato.

 

In termini economici lo sviluppo locale può essere definito come un processo di cambiamento e di arricchimento delle strutture economiche di un’area che è caratterizzata da una omogeneità culturale, sociale ed economica. Ciò presuppone l’utilizzo di tutte quelle risorse che, se si agisse dall’esterno con interventi definiti in sede diversa da quella locale, non verrebbero facilmente identificate.

 

In termini dimensionali l’area interessata da un’iniziativa di sviluppo locale deve avere una dimensione e una popolazione tale da raggiungere una massa critica. L’area dovrebbe includere un centro urbano e il suo hinterland, in modo tale da poter assicurare il coinvolgimento di una varietà di risorse, materiali e immateriali, che possano porre le basi per la creazione di una società più sviluppata.

 

In termini sociali lo sviluppo locale è caratterizzato dal ruolo primario svolto dagli attori socio-economici locali. Il controllo locale del processo di sviluppo è il fattore che trasforma un semplice investimento, qualunque sia la sua provenienza, in un’azione di sviluppo locale: questo è il fattore chiave. In termini di obiettivo finale lo sviluppo locale deve cercare di migliorare lo standard e la qualità della vita della popolazione locale.

 

I fattori dello sviluppo locale. L’indagine svolta dal Comitato Economico e Sociale delle Comunità Europee ha sottolineato come uno dei fattori basilari che ha contribuito allo sviluppo locale spontaneo in alcune aree è l’esistenza di una diffusa cultura imprenditoriale spesso caratterizzata dalla presenza di artigiani, o da attività produttive di piccole e medie dimensioni.

 

Tradizionalmente, il ruolo delle Pubbliche Autorità è sempre stato quello di creare le condizioni atte a generare lo sviluppo piuttosto che fornire assistenza diretta, e in questo quadro, le decisioni del settore pubblico hanno perlopiù assecondato lo sviluppo spontaneo, piuttosto che determinarlo. Secondo il Comitato Economico e Sociale delle Comunità Europee, tra le forme di assistenza più comuni che le Autorità locali possono promuovere a sostegno dello sviluppo locale, si possono citare:

 

la promozione di iniziative finanziarie locali;

la creazione di consorzi pubblico-privati;

la pianificazione di infrastrutture locali;

il supporto per attività artigianali,rurali,manifatturiere in genere.

 

Il ruolo delle Autorità locali non può limitarsi al campo dell’assistenza economica, ma è necessario che si esprima anche in altre sfere: il sistema dei trasporti, il sistema educativo, il sistema sanitario e socio-assistenziale. La presenza di una rete efficiente di servizi e di un sistema di welfare ben strutturato favoriscono uno sviluppo più bilanciato e consentono la riduzione di alcuni costi. Il supporto istituzionale aiuta così la modernizzazione, incoraggiando anche l’integrazione sociale attraverso la riduzione delle differenze, degli svantaggi e delle possibili fonti di conflitto. È difficile oggi credere all’efficacia di azioni durevoli atte a favorire lo sviluppo locale se queste prescindono da un obiettivo d’innovazione sociale, ovvero di integrazione tra economie in grado di favorire il soddisfacimento dei bisogni attraverso un’efficiente rete dei servizi, ma soprattutto attraverso la promozione di una rete di interscambio di competenze e di solidarietà di cui ogni territorio è ricco se capace di valorizzare le proprie risorse.

 

Un altro fattore importante per lo sviluppo locale è la presenza di risorse immateriali. Le caratteristiche e la cultura locali hanno arricchito il patrimonio delle risorse umane (sia imprenditoriali, sia lavorative) ed hanno anche favorito lo svilupparsi di specializzazioni del sapere locale.

 

Un ruolo significativo viene inoltre svolto dai processi di innovazione tecnologica che non sono più patrimonio esclusivo delle grandi imprese, ma anche delle piccole e medie imprese, localizzate sul territorio. Per poter sfruttare i vantaggi derivanti dall’innovazione tecnologica è necessario disporre di risorse umane opportunamente formate. Lo sviluppo delle competenze e del know-how richiede interventi attivi da parte delle Autorità pubbliche e delle agenzie formative che individueranno un percorso formativo ad hoc.

 

La presenza di efficaci canali di comunicazione e di informazione all’interno di un territorio e verso l’esterno costituisce un ulteriore fattore decisivo per lo sviluppo locale. Questa tematica è collocabile nell’ambito di un filone di grande e recente interesse, ovvero quello della “Società dell’Informazione” così come viene definita nel “Rapporto Bangemann”, che si traduce, oggi, nella priorità indicata dalla DG Regio per promuovere lo sviluppo locale.

 

Nel processo di globalizzazione dei mercati, l’Europa mostra uno svantaggio competitivo, dovuto ad una diffusa difficoltà nel “saper trasformare il potenziale scientifico e tecnologico in innovazioni redditizie”.

 

L’avvio della Società dell’Informazione costituisce, dunque, un’occasione rilevante:

 

per potenziare la capacità di innovazione dell’Unione Europea;

per migliorare la qualità della vita e l’efficacia dell’organizzazione sociale ed economica;

per rafforzando la coesione sociale.

per creare nuove professioni e nuovi prodotti (dalla fornitura di servizi a distanza allo sviluppo di nuovi programmi ed applicazioni) in ogni settore economico, valorizzando in modo particolare le risorse locali di quelle aree che saranno in grado di anticipare questi processi, riducendo i tempi di attuazione della Società dell’Informazione medesima;

Per concorrere allo sviluppo della Società dell’Informazione la Commissione Europea ha fissato i seguenti obiettivi che devono essere raggiunti rapidamente con una serie di iniziative dimostrative:

 

potenziare la competitività industriale e promuovere la creazione di nuovi posti di lavoro;

promuovere nuove forme di organizzazione del lavoro;

migliorare la qualità della vita e la qualità dell’ambiente;

rispondere alle esigenze sociali ed aumentare l’efficienza e l’efficacia, rispetto ai costi, nei servizi pubblici.

 

I principali attori delle iniziative di sviluppo locale sono:

 

Enti Locali

Associazioni di Categoria

Organizzazioni Sindacali

Camere di Commercio

Istituti di credito e finanziarie regionali

Enti di formazione

Imprese

Istituti di ricerca

Settore no-profit

Servizi per l’impiego

Istituzioni di parità

Una stretta partnership tra le Autorità Pubbliche e i gruppi socio-economici è vitale e lo strumento “Patto Territoriale” ha fatto proprio questo principio.

 

Il ruolo delle Autorità Locali viene spesso sottostimato, mentre risulta essenziale per:

 

promuovere le attività di sviluppo vincenti;

ridurre i costi di produzione attraverso la riduzione del peso della pubblica amministrazione (semplificazione amministrativa);

favorire la coesione necessaria per assicurare uno sviluppo nel lungo periodo;

promuovere azioni efficaci di marketing territoriale.

Interpretando correttamente le aspirazioni economiche e culturali delle loro comunità, le Autorità Pubbliche possono promuovere la cooperazione e la coesione sociale, entrambi fattori vitali per lo sviluppo locale.

 

La partecipazione delle Parti Sociali è altrettanto rilevante, poiché esse assolvono ad alcune fondamentali funzioni:

 

possono mediare tra tutti gli interessi rilevanti per produrre una sintesi delle aspirazioni sociali di una determinata comunità, imprimendo una direzione concreta allo sviluppo;

possono garantire un bilanciamento ottimale tra i bisogni dei gruppi più vulnerabili e quelli più forti;

contribuiscono alla stesura e alla selezione dei progetti;

Il ruolo delle istituzioni economiche, quali le Camere di Commercio, assume un significato rilevante per l’attività di promozione e di consulenza che esse svolgono e per i contatti che riescono a definire con i mercati locali e internazionali.

 

La presenza delle istituzioni culturali, pubbliche o private, come le scuole, gli istituti di ricerca, i centri di formazione professionale, le biblioteche e i musei può essere particolarmente importante per l’azione di sostegno offerta alle iniziative di sviluppo e per la possibilità di individuare in questo settore nuove opportunità economiche ed occupazionali.

 

Il coinvolgimento dei cittadini è vitale non solo in qualità di co-attori, ma anche come beneficiari di uno sviluppo che avrà caratteri economici, culturali e sociali in senso lato.

 

In altri termini possiamo affermare che il partenariato rappresenta una delle risorse essenziali perché una iniziativa di sviluppo locale possa decollare.

 

Da ciò discende un altro importante aspetto. Lo sviluppo locale così progettato, oltre a porre le premesse per un miglioramento qualitativo e duraturo del grado di coesione sociale di un’area, diviene elemento discriminante capace di rendere più “appetibile” ai flussi di risorse il territorio, favorendone, di conseguenza, un nuovo posizionamento sul mercato globale.

 

In tal senso il territorio, arricchito di questi nuovi fattori di competitività e di un rinnovato capitale strutturale e collettivo, acquisisce una inedita dimensione strategica sulla quale innestare ulteriori politiche di sviluppo e di marketing territoriale.

 

 

Competitività basata sulla abilità di “fare sistema”, e ancor prima, sulla capacità di costruire “l’identità” del sistema, cioè sulla volontà di dar vita ad un tessuto relazionale a vari livelli, quello della struttura produttiva, della Pubblica Amministrazione, dei servizi e delle relazioni fiduciarie interpersonali che in ogni comunità locale consente la ricerca del “bene comune”.

 

Solo da tali premesse possono essere avviate attività coerenti di sviluppo locale che, costruite su pratiche concertative, divengono da una parte fattore determinante di qualità dell’agire interno al territorio e, dall’altra, elemento funzionale di competitività verso l’esterno.

 

Dar spazio all’iniziativa fondata sulla libera collaborazione interistituzionale, allargata alle forze sociali ed economiche, oggi è divenuta una delle principali metodologie di intervento applicate al territorio. Ciò consente di stabilire, al livello adeguato, la scala della definizione strategica, della pianificazione, dell’implementazione e della gestione dei problemi dello sviluppo.

 

Il coagularsi di un “livello intermedio” capace di aggregare interessi frammentati – capace di ricreare un luogo dove è possibile organizzare appropriati “tavoli di discussione” e “gruppi di lavoro” attorno a cui si stabilizzano rapporti tra attori che, di fatto, già normalmente interagiscono all’interno di aggregazioni finalizzate alla discussione dei problemi socio-economici di un’area – apre nuove prospettive e nuove soluzioni.

 

Attraverso queste forme di “meta-management” del proprio sistema produttivo, promotori di sviluppo divengono quei soggetti che, nei differenti contesti, hanno la capacità di intervenire nel processo decisionale facilitando il successo dell’iniziativa locale.

 

Questa volontà di lavorare ad un progetto comune di sviluppo locale, mette in moto la competitività del sistema e costituisce il prerequisito indispensabile per qualsiasi azione di marketing territoriale.

 

L’approccio bottom-up. La metodologia utilizzata per implementare progetti di sviluppo locale di tipo bottom-up è direttamente legata alla fine della tradizionale idea di sviluppo dall’alto (top-dowm).

 

L’idea più tradizionale riguardante lo sviluppo top-down (dall’alto) è quella dell’intervento statale sull’economia. In questa prospettiva lo sviluppo è visto “sostanzialmente come un gioco con due protagonisti: la grande impresa e lo stato” (Trigilia 1992, 23) ; se la presenza della grande impresa garantisce una crescita economica l’intervento dello stato può favorirne il radicamento nel territorio. Compito dello stato è agevolare, quando non addirittura costruire, condizioni propizie all’impiantarsi e alla crescita della grande impresa. Le modalità di intervento dello stato sono le più variegate: dagli incentivi alle industrie sotto varie forme (contributi, sgravi fiscali ecc.), alle politiche keynesiane finalizzate ad alimentare la domanda. In ogni caso è compito dell’amministrazione centrale mettere in atto politiche in grado di stimolare la crescita nelle aree in ritardo di sviluppo o a declino industriale e/o rurale ed è a questa logica che ha corrisposto per decenni l’intervento straordinario nel mezzogiorno.

 

Questo modello di industrializzazione dall’alto rispondeva ad un modello di sviluppo in cui, appunto, la grande impresa era il traino dell’intera economia. Ma nel momento in cui la grande impresa entra in crisi sorprendentemente gli effetti della crisi non si dispiegano su tutto il territorio. Negli anni ‘70 e ‘80 infatti l’economia italiana, in maniera certamente inaspettata, ha conosciuto un notevole sviluppo nelle regioni che adesso vengono chiamate della ‘Terza Italia’ (Umbria, Toscana, Emilia, Veneto, Friuli). Gli studi di Bagnasco (1977) hanno mostrato come il sistema venisse retto da un alto numero di piccole e medie imprese, organizzate tra loro in distretti industriali: è possibile vedere nel Patto Territoriale la continuità naturale di questo processo.

 

La ‘scoperta’ di comunità, in grado non solo di reggere i gravi momenti di crisi attraversati dal Paese, ma addirittura di crescere ulteriormente, ha naturalmente spostato l’attenzione sui meccanismi che regolavano il mercato in queste zone (Bagnasco, 1988). Le particolari caratteristiche dei distretti, in cui sembrava che “l’impulso politico [fosse] relativamente scarso” e che “in generale, l’intervento politico [avesse] seguito ed assecondato la crescita spontanea ed i suoi meccanismi, piuttosto che averla orientata e regolata” ha rinforzato l’impressione che si dovesse procedere in modo ‘diverso’ (Bagnasco, 1988) dal passato: non più politiche imposte dall’alto, ma la ricerca di soggetti imprenditoriali e politici già operanti sul territorio per creare, dal basso, circuiti virtuosi di sviluppo.

 

Una volta evidenziati gli effetti perversi dell’intervento centrale, la difficoltà di implementare le politiche e il successo delle reti di piccole e medie imprese, rimaneva da ridefinire il tema dell’intervento nelle aree depresse. In seguito a questa ridefinizione, il problema, diventava quello di “suscitare e utilizzare risorse e capacità nascoste, disperse o malamente utilizzate” (Hirschmann 1969).

 

L’idea del patto territoriale è stata molto influenzata, nella sua formazione, dal successo ottenuto dal modello di sviluppo denominato bottom-up. In realtà anche il successo del bottom-up è di carattere ‘residuale’. Se non si fossero analizzate le disfunzioni provocate dall’intervento dall’alto forse non sarebbero bastate le straordinarie performance dei distretti industriali per lanciare la corsa verso lo sviluppo dal basso.

 

Di questa ipotesi di lavoro si è fatto sostenitore negli ultimi anni il Consiglio Nazionale dell’Economia e del Lavoro. E’ stato il CNEL ad ispirare e guidare in Italia la nuova fase delle politiche di sviluppo nel mezzogiorno e nelle aree di declino industriale e rurale incentrate per l’appunto nello strumento del patto territoriale.

 

I distretti territoriali avevano dimostrato una notevole capacità di innescare dinamiche di sviluppo e di reggere anche nei momenti di crisi grazie anche ai comportamenti cooperativi dei soggetti: perché non provarsi a replicare tale esperienza anche al di fuori della Terza Italia? L’ipotesi è tanto suggestiva quanto rischiosa, tenuto conto che la Terza Italia si caratterizzava per condizioni storico-culturali del tutto particolari a cui comunemente si attribuisce il successo dei distretti. Ebbene, l’idea che sorregge i patti territoriali è quella di provare a surrogare tali condizioni utilizzando incentivi, economici soprattutto, ma anche organizzativi, atti a stimolare forme di cooperazione. Una volta inventariate le risorse e le capacità presenti sul territorio, spesso nascoste, obiettivo dei patti è quello di valorizzarle tessendo reti di rapporti tra i molteplici attori: amministrazioni, associazioni di categoria, sindacati, istituti di credito, imprenditori, artigiani ecc. Questi soggetti comunicano e collaborano scarsamente tra loro e finiscono col rimanere isolati all’interno del loro stesso territorio per via di una carenza di fiducia che eleva i costi di transazione (Bonomi, 1997). Al contrario, il patto territoriale si propone di ‘costringere’ gli attori a fidarsi l’uno dell’altro cercando di innescare circuiti virtuosi di cooperazione. In quest’ottica, il compito dell’amministrazione centrale è unicamente quello di co-finanziare (parzialmente) i progetti di sviluppo negoziati tra gli attori, i quali sono invitati a sottoporre al Ministero del Bilancio una ‘proposta di patto’ contenente, insieme ai progetti che intendono realizzare congiuntamente, un’idea forza che li sorregga e ne mostri le connessioni.

 

Lo sviluppo locale e la costruzione di reti transnazionali. Il concetto di sviluppo locale implica la necessità di riconoscere la molteplicità e l’eterogeneità delle forme di sviluppo, in ragione dell’idea che solo l’unicità e l’irripetibilità della natura e delle forme di ciascun “locale” possano determinarne il percorso di sviluppo. Si rifugge in pratica l’idea

che il problema dello sviluppo possa essere ricondotto all’adozione di un unico modello risolutivo, da considerarsi valido universalmente e quindi applicabile nei più diversi contesti territoriali.

 

Ciò che ha sollecitato la riflessione sullo sviluppo locale è stato un pronunciato sforzo di superare l’idea di uno sviluppo esogeno, “dall’alto”, banalizzante delle specifiche soggettività territoriali, per promuovere invece l’idea di uno sviluppo endogeno ed autocentrato: si tratta in sostanza di riconoscere l’importanza delle caratteristiche e delle risorse che ogni territorio possiede per incentrare su di esse il percorso (ancora una volta necessariamente irriproducibile) di sviluppo locale. Inoltre parlare di sviluppo endogeno implica anche l’esigenza di attivare il massimo coinvolgimento possibile, nel complessivo iter di definizione e attuazione delle linee di sviluppo locale, delle più diverse soggettività, istituzionali e non, che “abitano” il territorio. Tali soggetti infatti non solo sono i diretti destinatari degli interventi ma sono anche i depositari di quell’identità e di quelle risorse che pervadono il territorio e su cui si intende incentrare la strategia di sviluppo.

 

Devono quindi essere i massimi protagonisti in tutte le fasi di qualsiasi progetto “locale”.

Le modalità di coinvolgimento dei vari attori del territorio sempre più si richiamano ad una logica concertativa, consensuale e di partenariato, che riconosce le specificità locali come risorsa e affida all’articolazione delle identità e degli interessi in campo sia la possibilità “strategica” di cooperare alla complessiva costruzione dei progetti, sia la responsabilità delle misure politiche attuative.

 

Ovviamente, per un realistico funzionamento di questi strumenti, occorre fare attenzione che la

concertazione non si riduca ad un esercizio di facciata, magari ispirato unicamente da una

promessa finanziaria”. Un altro rischio inoltre è che le rappresentanze non siano effettivamente esponenziali di bisogni, interessi e aspirazione autentici della società locale. Infine una reale concertazione deve essere in grado di prestare ascolto anche ai cosiddetti soggetti deboli.

 

Lo spazio sociale, economico, culturale e territoriale in cui lo sviluppo locale si concretizza è la

dimensione del cosiddetto sistema locale territoriale. Come ha osservato Dematteis il sistema locale territoriale indica, prima che un’entità territoriale definita e delimitata, un aggregato di soggetti in interazione reciproca i quali, in funzione degli specifici rapporti che intrattengono con un certo ambiente, o milieu locale, si comportano, in certe circostanze, come un soggetto collettivo”.

 

Il Sistema Locale territoriale può quindi essere definito come una “unità di analisi adeguata per

portare allo scoperto la costituzione di sistemi locali di creazione del valore, in cui acquista una

funzione chiave l’intreccio di funzioni mercantili ma soprattutto non mercantili che attraversano tutti i campi della vita sociale, economica e politica del sistema locale: relazioni di fornitura, rapporti produttore-utilizzatore, formazione della forza-lovoro, rapporti con le istituzioni, continuità con la tradizione manifatturiera, ruolo delle conoscenze personali. La varietà delle scale territoriali in cui i sistemi di creazione del valore si costituiscono (dalla dimensione metropolitana a quella più o meno ampia di comuni) mette in discussione la pertinenza delle partizioni territoriali tradizionalmente associate alle unità amministrative, ponendo in modo ineludibile il problema di una regionalizzazione adeguata; questa particolare accezione di SLoT è stata esplorata anche attraverso metodologie di indagine di carattere quantitativo, come ad esempio i Sistemi Locali del Lavoro” (Salone 2001 p.63).

 

Il sistema locale territoriale è pervaso da reti relazionali interne, che ne determinano l’identità

organizzazionale, ed esterne, che attivano il “dialogo” con altri sistemi. L’immagine della rete è

impiegata efficacemente come metafora delle relazioni fisiche e sociali, di tipo materiale ed

immateriale, che si instaurano sul territorio, essa è per definizione un concetto di tipo relazionale.

 

Il Milieu può essere definito come “quell’insieme di condizioni fisiche e socio-culturali che si sono sedimentate in un territorio come risultato di processi di lunga durata (a partire dal rapporto coevolutivo originari con l’ecosistema naturale) e che vengono messe in valore da progetti locali condivisi” (Dematteis 20001). La rete si caratterizza come uno strumento metateorico, grazie al quale si possono descrivere tutte le relazioni che hanno luogo all’interno del sistema locale territoriale e non solamente quelle mercantili e gerarchiche.

 

Nella riflessione sistemica la rete diviene allora “una rappresentazione non deterministica che dà ragione dell’identità del sistema quale premessa ed insieme quale risultato dell’organizzazione stessa” (Conti, 1996, p.228). Inoltre la rete assume un altro importante significato che spiega e rende comprensibile la dialogica locale/globale, quale relazione inscindibile a cui il sistema è sottoposto.

 

L’identità del sistema territoriale dipende, infatti, dalla strutturazione di relazioni locali ovvero

relazioni radicate nel territorio, tali da caratterizzarne l’identità, e da relazioni sovralocali, che

permettono al sistema di evolvere attraverso la selezione degli stimoli provenienti dall’esterno. Le relazioni sovralocali o globali definiscono il campo delle possibili interazioni del sistema con l’esterno ovvero la sua capacità di dialogo con la dimensione sovraregionale. La rete locale risulta, quindi, costituita da un sistema di relazioni fra soggetti diversi, autocontenute in un sistema territoriale; la rete globale è fonte degli stimoli esterni ed è caratterizzata dalla connessione tra più nodi che rappresentano i sistemi locali (Dematteis 1995,pp.101-102).

 

La connessione tra queste due dimensioni dell’agire locale è possibile proprio grazie al concetto di rete, o meglio attraverso una rete di rete (Dematteis, 1999). Lo sviluppo di un sistema dipende proprio dalla sua capacità autopoietica di saper costruire reti globali, sovralocali, che apportano all’insieme fattori di competitività e di circolazione e acquisizione di conoscenze. L’ipotesi del nostro progetto a livello teorico è formulata sulla necessità di un passaggio dalla dimensione locale alla dimensione globale quale condizione imprescindibile di un reale sviluppo del sistema territoriale inteso quale sistema complesso.


Ciò che rende la rete locale un elemento fondamentale per la costruzione di sistemi locali territoriali è la differenza che passa tra l’idea di valorizzazione territoriale e quella di sviluppo locale. La valorizzazione è un processo che può sicuramente attivare fattori che permettono un rilancio economico, attraverso la promozione del territorio e l’impiego delle sue principali rappresentazioni storico-culturali; tuttavia tale percorso non è detto che incida significativamente sul territorio, dato che può realizzarsi come un intervento promosso dall’esterno e per tanto poco duraturo.

 

Al contrario lo sviluppo, inteso come processo non sequenziale e quantitativo ma come aumento di complessità (Conti, 1996, p.222), si genera a partire da spinte endogene provenienti dal territorio, pertanto tale processo ha un’incidenza molto profonda e radicata nel tessuto urbano, nella storia dei luoghi. Tale attecchimento al contesto territoriale produce una consapevolezza diffusa delle possibilità di sviluppo endogeno, nonché una maggiore circolazione di know-how, facilitata dalla prossimità delle relazioni sociali. Questi elementi consentono sentieri di sviluppo più duraturi e sostenibili, perché compatibili con le esigenze espresse dalla collettività e dai suoi interessi, consentono una maggiore redistribuzione della ricchezza, un maggiore coinvolgimento dei soggetti nella tutela degli interessi interni alla comunità locale.

 

Prendendo in riferimento la rete globale, quest’ultima è indispensabile per lo sviluppo locale in

quanto rende i sistemi locali territoriali competitivi, dove per competitività si intende un perfetto equilibrio tra la valorizzazione del locale nella competizione globale ed il rafforzamento delle società locali (modello glocaleb ). Ciò è vero in quanto considera l’insieme dei soggetti locali come un attore collettivo, che opera attraverso la costruzione di reti sociali ben strutturare sul territorio.

 

Le reti sociali funzionano, quindi, da interfaccia tra le risorse potenziali proprie di un milieu urbano e le reti globali. Da questa capacità auto-organizzativa locale derivano appunto i vantaggi competitivi di cui giova il sistema territoriale.

 

La rete sovranazionale permette di catalizzare i fattori esterni per trasformarli in potenzialità del territorio, di promuove meccanismi di trasmissione di best practies per la realizzazione di cammini di sviluppo comuni a più contesti territoriali.

 

La rete locale si costruisce attraverso la partecipazione allargata della comunità al processo

decisionale, per mezzo, quindi, di pratiche di tipo bottom up. La rete globale invece si caratterizza per la costruzione non gerarchica tra i diversi nodi che la compongono. Ciò significa che la strategicità dei luoghi non dipende da una struttura reticolare di tipo funzionalista, ma dal grado di connessione per affinità ed interessi comuni di tipo materiale ed

immateriale tra diversi contesti territoriali. Questa caratteristica fa sì che, spesso, si intrecciano

realtà locali nel circuito globale che non sempre corrispondono alle partizioni istituzionali di Stato-nazione, o regione amministrativa.

.

Siamo in presenza di una rete locale qualora si riscontra:

L’esistenza di soggetti portatori di interesse, sia organizzati che non; in riferimento a questi

ultimi consideriamo la possibilità che soggetti non associati possano aggregarsi, fare

coesione sulla scorta di un progetto comune. Questo elemento rappresenta un’importante precondizione per testare il grado di maturità del territorio in relazione alla sua capacità di auto-organizzarsi, di creare strumenti attivi di connessione e coordinamento tra le strutture sociali e comunitarie.

Elementi di connessione tra la comunità locale ed il sistema istituzionale. Questo è l’aspetto più rilevante che consente di reperire le reti corte all’interno del territorio di riferimento.

Lo strumento al quale facciamo riferimento in via privilegiata e che meglio di altri sintetizza questo dato è costituito dalla programmazione negoziata. Infatti le caratteristiche della nuova

programmazione ed i principi di concertazione e partenariato istituzionale ai quali si ispira

rappresentano l’opportunità di mettere insieme attorno ad un progetto territoriale comuni interessi e visioni riguardo modalità di sviluppo partecipato.

Le possibilità di rintracciare una rete lunga all’interno del sistema locale risiedono, invece, nella presenza di fattori e vocazioni che possono creare fenomeni di internazionalizzazione economica, sociale, culturale ed istituzionale. All’interno di quest’area si distingue il settore della cooperazione decentrata come particolare approccio allo sviluppo, nuova metodologia che intende stabilire nuove forme di relazioni tra gli attori sociali e istituzionali. Nell’ottica presa in considerazione, questa nuova logica cooperativa può rappresentare un canale “innovativo” di comunicazione tra amministrazione e territorio, soprattutto in particolari contesti di debolezza istituzionale come quello del Mezzogiorno e nello specifico della Campania.

 

La costruzione di reti lunghe, come strumento per lo sviluppo dei sistemi locali, si realizza

attraverso il “contatto” del territorio di riferimento con il mondo esterno, tramite il processo di

internazionalizzazione”. ” Il processo di “internazionalizzazione” non è […] per le Regioni che il risultato e, al contempo, uno strumento del programma politico, sociale ed economico delineato dall’ UE. Non si tratta di potenziare un semplice progetto di export regionale, ma di apportare sostanziali elementi di arricchimento culturale, oltre che economico, nelle politiche locali attraverso una forte interazione tra le “agende” regionali e le dinamiche economiche e culturali del resto del pianeta”.

 

Pubblicato in Uncategorized | Lascia un commento

Economia della globalizzazione

PREFAZIONE. La crescente integrazione economica internazionale, o globalizzazione, come viene comunemente chiamata, offre molte opportunità, afferma un documento della Commissione europea. Le aziende dell’UE possono accedere più facilmente a nuovi mercati in espansione e alle fonti di finanziamento e tecnologia. I consumatori dell’UE hanno a disposizione una più ampia varietà di prodotti a prezzi inferiori. Ciò offre potenziali vantaggi significativi per l’Unione, in termini di maggiori livelli di produttività e aumento dei salari reali. La Commissione europea calcola che circa un quinto del miglioramento del tenore di vita nell’UE-15 negli ultimi 50 anni è attribuibile alla globalizzazione. Per questa ragione, continua la Commissione europea, l’UE ha assunto un atteggiamento decisamente favorevole ad una maggiore apertura economica. La sua politica commerciale si è rivelata un importante strumento per guidare la liberalizzazione degli scambi a livello mondiale.

L’opinione pubblica, tuttavia, nota la Commissione europea, associa spesso la globalizzazione alla perdita di posti di lavoro, alla diminuzione dei salari e al peggioramento delle condizioni di lavoro. Questo atteggiamento negativo si fonda sul timore che la maggiore concorrenzialità dei paesi con bassi costi salariali eserciti un’eccessiva pressione sui produttori e sui lavoratori locali, con la conseguente chiusura, totale o parziale, di stabilimenti produttivi nel proprio paese e la loro delocalizzazione all’estero. Sebbene non si tratti di preoccupazioni nuove, esse sono state esacerbate dall’irrompere di Cina e India sulla scena del commercio mondiale. In particolare, il diffuso ricorso alle tecnologie dell’informazione rende sempre più sfumato il confine tra ciò che può o meno essere oggetto di scambio.

Il tentativo di trovare una risposta adeguata alla globalizzazione può essere considerato un aspetto della sfida politica generale cui devono far fronte le economie dinamiche, cioè quella di gestire con successo i mutamenti strutturali dell’economia. Per raccogliere i frutti della globalizzazione è necessario passare attraverso un processo di adeguamento, poiché i fattori di produzione – come, ad esempio, il capitale d’investimento – si spostano dalle attività e dalle aziende che non sono in grado di far fronte alle maggiori pressioni concorrenziali verso quelle che invece ne escono vincenti. Tuttavia, sebbene sia dimostrato che la globalizzazione non è stata accompagnata da una generale perdita netta di posti di lavoro, l’adeguamento delle strutture economiche genera dei costi a causa del trasferimento di risorse tra aziende e attività. Maggiore è la rigidità dei mercati del lavoro, dei capitali e dei prodotti, maggiori sono i costi di questo aggiustamento strutturale di cui risentiranno fortemente, almeno nel breve periodo, determinati settori e le regioni in cui essi si concentrano.

La sfida politica consiste nel trasformare i potenziali benefici della globalizzazione in vantaggi concreti, minimizzando al contempo i costi sociali. L’adozione di misure volte a migliorare il funzionamento dei mercati dell’UE e ad incentivare l’innovazione contribuirà ad abbreviare il processo di aggiustamento, mentre con misure mirate, come il Fondo europeo di adeguamento alla globalizzazione, si potranno aiutare i lavoratori che subiscono le conseguenze di tale fenomeno. Oltre alle questioni interne, l’UE deve fronteggiare anche problemi esterni che richiedono adeguate risposte politiche, tra cui:

– sviluppo del commercio mondiale e mantenimento della posizione dell’Europa quale primo blocco commerciale a livello mondiale
– gestione dei flussi migratori quale fonte di forza lavoro, rimedio all’invecchiamento demografico e fattore di sviluppo
– mantenimento della posizione dell’UE quale luogo di provenienza e destinazione di investimenti esteri diretti (IED) e gestione degli squilibri nell’economia mondiale in collaborazione con i paesi partner.

La Commissione svolge un ruolo importante, conclude la stessa Commissione europea, nella definizione di una strategia politica coerente volta ad affrontare le sfide della globalizzazione. Essa segue con attenzione l’evoluzione delle principali tendenze nel commercio mondiale e dei flussi di IED, oltre che della posizione dell’UE sotto tali profili. Valuta inoltre periodicamente l’impatto della globalizzazione sull’andamento economico dell’UE e formula suggerimenti alla luce delle sue analisi.

Ora, le cose così semplici e coinvolgono problemi pratici e teorici di non facile soluzione a cominciare da aquello della definizione di benessere.

QUALE BENESSERE. Un acceso dibattito si è sviluppato negli ultimi anni per pervenire a una definizione degli indicatori dei livelli di b. − fra gruppi sociali presenti all’interno delle singole economie e fra paesi diversi − più congrua di quanto non potesse derivare utilizzando i sistemi di misurazione aggregata di tipo economicistico. Tradizionalmente gli economisti hanno infatti espresso il b. sociale con alcuni indicatori quantitativi, quali gli indici di produzione e di consumo di beni e di servizi, il livello di reddito, il tasso di disoccupazione e di crescita industriale. Nel dopoguerra inoltre, con la definitiva affermazione dell’economia keynesiana, si è imposta una forma di misurazione aggregata − come il Prodotto Interno Lordo − quale unica variabile per la misurazione del b. economico. Si tratta tuttavia di una definizione insufficiente, sia perché il PIL esclude in realtà tutti quei prodotti e servizi che sfuggono a una valutazione di mercato, sia perché non considera i costi sociali (di tipo ambientale, psicologico-sociale, ecc.) che incidono sulla reale struttura di un’economia.
Assumere la crescita del PIL come indicatore dell’aumentato b., infatti, fa sì che virtualmente tutti i beni e servizi, compresi i costi sociali, siano soggetti a una determinazione monetaria e siano inclusi nel sistema degli scambi di mercato. In secondo luogo, si presuppone la condizione irrealistica, nelle moderne società industriali, della ‘sovranità’ del consumatore nella determinazione del valore dei beni. In tal modo si assume che le quantità fisiche di beni prodotte da un individuo, il b. e il valore d’uso dei beni da questo consumati siano tra loro legati da un rapporto diretto.

A partire dalla seconda metà degli anni Sessanta, il movimento degli indicatori sociali (T. Scitovski, E. Gross, A. Shonfield e S. Shaw) ha prodotto − soprattutto nei paesi maggiormente industrializzati (Stati Uniti, Gran Bretagna, Giappone, Francia) − una copiosa letteratura avente per oggetto la determinazione del b. reale, unitamente alla definizione di numerosi strumenti tesi a schiudere la natura e il funzionamento del sistema sociale in modo più completo di quanto non potesse derivare dai tradizionali misuratori economici aggregati, che oscuravano i caratteri non egualitari della crescita delle moderne società industriali.

Assumendo il concetto di b. in termini essenzialmente qualitativi, un indicatore sociale rappresenterebbe una misurazione indiretta e composita della qualità della vita e della soddisfazione che non sempre sono funzione diretta e lineare dei livelli di ricchezza e di consumo. Le variabili da analizzare avranno quindi per oggetto, accanto alle funzioni economiche, fattori come l’istruzione, le condizioni di salute della popolazione, l’ambiente di vita, l’organizzazione e l’alienazione sociale (J. Drewnowski e W. Scott). In assenza di una teoria sociale compiuta che fornisca gli strumenti di misurazione diretta dei sistemi economici contemporanei, un indicatore sociale non sarà quindi inteso in termini di input di un sistema sociale (cioè quantificabile mediante variabili definite a priori), bensì in termini di output, ovvero quale rappresentazione indiretta dei livelli di soddisfazione dei bisogni primari espressi da ogni gruppo statalmente o regionalmente organizzato.

L’assunzione di un concetto ampio e di difficile definizione, come quello di b., solleva a sua volta dei problemi che non possono trovare una soluzione unitaria. I criteri di definizione del b. variano infatti considerevolmente per ogni sistema sociale, sia in ragione dei giudizi di valore, sia per la loro inseparabilità rispetto a un altro fondamentale concetto − quello di giustizia sociale − anch’esso relativo e subordinato a determinazioni che variano nel tempo oltre che fra i diversi gruppi sociali. Ogni confronto internazionale delle condizioni di b. può quindi ingenerare rilevanti errori d’interpretazione: così, se un livello adeguato di nutrizione, salute, vestiario, possono considerarsi quali condizioni di b. minimo presente in ogni sistema sociale − e come tali definite come bisogni essenziali per la sopravvivenza − ogni società esprimerà bisogni altamente differenziati di tipo culturale, relativi alla sicurezza e al tempo libero, che sono parte integrante nella definizione di un adeguato livello di qualità della vita. Gli stessi indicatori comunemente utilizzati dalle Nazioni Unite in ambito internazionale sono anch’essi frutto di convenzioni fra gli studiosi di scienze sociali: a questo riguardo, le componenti di base del b. sociale ritenute valide per tutti i paesi del mondo sono il livello di nutrizione, la protezione personale, la salute, l’educazione, il tempo libero, la sicurezza, la stabilità sociale, la protezione ambientale, il surplus di reddito.

Negli anni recenti si è definitivamente accettato che anche all’interno di una data area territoriale (una regione, una città) le variazioni nei livelli di vita siano tali da richiedere una disaggregazione spaziale delle condizioni sociali. Questa acquista un’indiscussa importanza non soltanto a scopi analitici (cioè per la comprensione dei fondamentali processi e meccanismi inerenti ogni società), ma soprattutto nella definizione delle politiche di pianificazione, tese all’allocazione spaziale di quegli elementi potenzialmente capaci di riequilibrare i sistemi sociali contemporanei.

In questo quadro, di fronte all’impossibilità di fornire concretezza analitica a concetti essenzialmente astratti, la definizione della qualità della vita e la determinazione dei bisogni in termini di privazione relativa (W. G. Runciman, D. Harvey) apportano un criterio maggiormente coerente. Sotto questa luce, un individuo − o un gruppo d’individui − sarebbe relativamente privato (e quindi esprimerebbe un bisogno) se desidera beni e servizi che solo altri possiedono, ma dei quali non può attualmente disporre. Egli esprime quindi una privazione nel momento in cui percepisce che non sono alla sua portata alcuni beni e servizi la cui disponibilità consentirebbe di accrescere il suo livello di benessere. Ora, la correlazione b.-soddisfazione dei bisogni non esiste se non all’interno di una data società, in un periodo storico preciso, in un’area territoriale data, dove le condizioni di b. di un individuo o di un gruppo diventano automaticamente relative rispetto ad altre classi sociali e ad altre delimitazioni territoriali.

È quindi soprattutto in termini di geografia del b. che la problematica ha acquistato piena coerenza, sebbene aggiungendo la dimensione spaziale dei fenomeni economico-sociali si accrescano le difficoltà analitiche. La trasformazione degli indicatori sociali in indicatori socio-territoriali (A. Shonfield, S. Shaw, N. E. Terlecki, D. Smith) è un processo relativamente elementare che consiste nel riferire le componenti del b. prima ricordate a specifiche porzioni di territorio (urbano, regionale, nazionale) e nell’aggiungere altre componenti specifiche in rapporto alle diverse condizioni esaminate. Tuttavia è sul piano operativo e concettuale che, attraverso la spazializzazione della funzione del b. sociale, si affacciano le ipotesi più significative.

Dal punto di vista delle strategie di pianificazione i livelli locali di b. possono essere determinati in rapporto alle esternalità prodotte da specifici interventi (come investimenti infrastrutturali, industriali, ecc.) di cui devono essere colti gli effetti di utilità e/o disutilità, i quali possiedono una connotazione intrinsecamente spaziale, sovente indicata come effetto di vicinato.

Verificandosi un’esternalità, si realizza un processo di travaso dei benefici (come, per es., le occasioni di occupazioni indotte dalla localizzazione di un nuovo stabilimento industriale) e/o dei costi (come gli effetti d’inquinamento prodotti dallo stesso) che assumono varie configurazioni alternative: a) il mantenimento di entrambi all’interno dell’area in questione; b) il confinamento dei benefici e la diffusione alle aree adiacenti dei costi relativi; c) infine la condizione opposta, ovvero il confinamento dei benefici accompagnato al trasferimento dei costi. Su questo piano, la definizione dell’area di esternalità e l’applicazione dell’analisi costi-benefici gioca un ruolo determinante concorrendo alla ridefinizione degli strumenti della politica di pianificazione territoriale.

QUALE GLOBALIZZAZIONE. Col termine g. si intende, il fenomeno di unificazione dei mercati a livello mondiale, consentito dalla diffusione delle innovazioni tecnologiche, specie nel campo della telematica, che hanno spinto verso modelli di consumo e di produzione più uniformi e convergenti. Da un lato, si assiste, infatti, a una progressiva e irreversibile omogeneità nei bisogni e a una conseguente scomparsa delle tradizionali differenze tra i gusti dei consumatori a livello nazionale o regionale; dall’altro, le imprese sono maggiormente in grado di sfruttare rilevanti economie di scala nella produzione, distribuzione e marketing dei prodotti, specie dei beni di consumo standardizzati, e di praticare politiche di bassi prezzi per penetrare in tutti i mercati. L’impresa che opera in un mercato globale, pertanto, vende lo stesso bene in tutto il mondo e adotta strategie uniformi, a differenza dell’impresa multinazionale, il cui obiettivo è invece quello di assecondare la varietà delle condizioni presenti nei paesi in cui opera.

Il termine g. è spesso usato, come sinonimo di liberalizzazione, per indicare la progressiva riduzione, da parte di molti paesi, degli ostacoli alla libera circolazione delle merci e dei capitali. Questo, tuttavia, è solo un aspetto dei fenomeni di g., che comprendono, in particolare, una tendenza al predominio sull’economia mondiale da parte di grandi imprese multinazionali, operanti secondo prospettive sempre più autonome dai singoli Stati, e una crescente influenza di tali imprese, oltre che delle istituzioni finanziarie internazionali, sulle scelte di politica economica dei governi, in un quadro caratterizzato dall’aumento progressivo dell’integrazione economica tra i diversi paesi, ma anche dalla persistenza (o addirittura dall’aggravamento) degli squilibri fra questi. Tali fenomeni scaturiscono dai processi di integrazione internazionale sviluppatisi nel 19° sec., interrotti nella prima metà del Novecento dalle guerre mondiali e dalla Grande depressione, e ripresi nella seconda metà (soprattutto dopo il 1960) con rinnovato vigore. Tra gli ultimi decenni del 20° e gli inizi del 21° sec. il progresso tecnologico, divenuto sempre più veloce, ha ridimensionato le barriere naturali agli scambi e alle comunicazioni, contribuendo alla forte crescita registrata dal commercio internazionale e dagli investimenti diretti all’estero. In particolare, la diffusione delle tecnologie informatiche ha favorito i processi di delocalizzazione delle imprese e lo sviluppo di reti di produzione e di scambio sempre meno condizionate dalle distanze geografiche, alimentando la crescita dei gruppi multinazionali e i fenomeni di concentrazione su scala mondiale; ha favorito inoltre un’espan­sione enorme della finanza internazionale, tanto che il valore delle transazioni giornaliere sui mercati valutari è divenuto ormai superiore allo stock delle riserve valutarie esistenti. Contemporaneamente, la tendenza alla riduzione degli ostacoli, di ordine tariffario, fiscale o normativo, alla libera circolazione delle merci e dei capitali si è approfondita ed estesa, coinvolgendo anche molti paesi, ex socialisti o in via di sviluppo, che in passato avevano adottato politiche assai più restrittive.

I fenomeni sopra ricordati hanno suscitato un ampio dibattito. Secondo alcuni studiosi, la g. può esercitare effetti positivi sull’economia mondiale sotto il profilo sia dell’efficienza sia dello sviluppo: in particolare, la liberalizzazione e la crescita degli scambi commerciali e finanziari potrebbero stimolare un afflusso degli investimenti verso le aree meno dotate di capitali e favorire una tendenziale riduzione del divario economico fra i paesi sviluppati e quelli in via di sviluppo. Altri sostengono, invece, che, dati gli squilibri e le forti differenze (economiche, tecnologiche, culturali, politiche) esistenti tra i diversi paesi, nonché la presenza di condizioni di mercato assai lontane da quelle di concorrenza perfetta postulate dai modelli tradizionali, gli eventuali effetti positivi dei processi di g. non si distribuiscono in modo uniforme: in particolare, per i paesi in via di sviluppo tali processi possono comportare conseguenze anche molto sfavorevoli, mentre negli stessi paesi sviluppati si verifica un contrasto tra i settori sociali che traggono vantaggio dai processi di g. e quelli che invece ne sono danneggiati (per es., i lavoratori impegnati in attività produttive che vengono trasferite all’estero). Va inoltre tenuto presente che, in un quadro caratterizzato da una crescente integrazione internazionale e dalla stabilizzazione dei tassi di cambio tra le monete di diversi paesi, l’adozione, a fronte di squilibri e tensioni interne, di provvedimenti di carattere sociale o anticiclico viene resa più difficile dalla riduzione dell’autonomia dei singoli governi nella gestione della politica economica.
La g. riguarda non soltanto la produzione di merci ma anche delle idee. Le figure professionali ad alta qualificazione, in particolare ingegneri informatici, ma a basso salario presenti in alcuni paesi in via di sviluppo, soprattutto in India, hanno spinto molti colossi della produzione hi-tech a delocalizzare in questi paesi i laboratori di ricerca e sviluppo. Paesi come gli Stati Uniti, che tradizionalmente attraevano cervelli da ogni parte del pianeta, oggi vedono messo in crisi tale meccanismo dalla concorrenza di alcuni paesi in via di sviluppo.

L’indice più comunemente usato per valutare il grado d’integrazione dell’economia mondiale è il rapporto fra esportazioni e PIL nei diversi paesi. Questo rapporto, che aveva raggiunto un minimo storico dopo la Seconda guerra mondiale, è nuovamente cresciuto, nella maggior parte dei paesi, durante la seconda metà del 20° secolo. Per quanto riguarda la partecipazione al commercio internazionale, i paesi sviluppati hanno mantenuto un peso preponderante, anche se dal finire del secolo si è manifestata una tendenza alla crescita del ruolo dei paesi in via di sviluppo. A partire dagli anni 1980 si è assistito all’espansione di aree di integrazione regionale, come l’UE o il NAFTA, che, se da un lato accentuano i processi di liberalizzazione degli scambi tra i paesi membri, dall’altro possono favorire il mantenimento di barriere commerciali nei confronti degli altri Stati. I processi di integrazione commerciale hanno in ogni caso continuato a estendersi, sia per l’adesione, comunque diffusa, alle politiche di liberalizzazione degli scambi con l’estero, sia per la riduzione dei costi delle telecomunicazioni e dei trasporti indotta dall’incremento tecnologico, sia per gli investimenti da parte di imprese dei paesi industrializzati nei paesi in via di sviluppo.

La libertà di movimento dei capitali raggiunta verso la fine del 20° secolo è paragonabile a quella degli anni precedenti la Prima guerra mondiale, quando si era realizzato un alto grado di integrazione dei mercati finanziari (nel 1913 i rapporti tra i flussi totali di capitali e il commercio o la produzione mondiale erano superiori a quelli degli anni 1970). Dopo le restrizioni del periodo fra le due guerre, la seconda metà del secolo ha visto una graduale liberalizzazione, mentre rilevanti modifiche si verificavano per quanto riguarda l’origine e la composizione dei flussi di capitali. Tra la Seconda guerra mondiale e gli anni 1960 ampi flussi di investimenti esteri diretti, per lo più indirizzati verso l’industria manifatturiera e il settore petrolifero, provenivano dagli Stati Uniti, divenuti in quel periodo il maggiore esportatore netto di capitali. Nel corso degli anni 1970 il Giappone assunse un ruolo di rilievo, fino a diventare nel decennio successivo una delle principali fonti mondiali sia di capitali speculativi a breve termine sia di investimenti diretti. A partire dagli anni 1980 gli Stati Uniti sono stati caratterizzati da forti deficit della bilancia commerciale e da cospicue importazioni nette di capitali (con l’accumulo quindi di un ingente debito estero). A partire dagli anni 1980, inoltre, grazie anche allo sviluppo delle tecnologie informatiche e delle telecomunicazioni e alle politiche di liberalizzazione dei mercati finanziari, si è verificato un enorme aumento dei flussi speculativi a breve termine, che ha coinvolto gli stessi paesi in via di sviluppo, influendo pesantemente sull’andamento delle loro economie.

La crescita del debito e del rapporto debito/PIL nei paesi in via di sviluppo, spesso alimentata da processi cumulativi perversi (nuovo indebitamento per fare fronte ai debiti pregressi), ha inciso pesantemente sulla loro situazione economica, sociale e politica; in particolare, essi sono stati costretti a comprimere quanto più possibile la domanda interna (con gravi conseguenze sulle condizioni di vita della popolazione) nel tentativo di realizzare, malgrado l’andamento poco favorevole delle ragioni di scambio, onerosi attivi della bilancia commerciale e finanziare così il servizio del debito estero. All’inizio del nuovo millennio il problema del debito estero dei paesi in via di sviluppo rappresenta uno dei principali squilibri del processo di g. in corso.

Per quanto riguarda, infine, la Comunità Europea, a partire dal 1992 sono stati rimossi tutti i vincoli ai movimenti di capitali e si è verificata una progressiva perdita di autonomia dei governi nazionali nei campi della politica monetaria e dell’allocazione dei capitali all’interno dei paesi membri.

Aumenti della disuguaglianza tra paesi e all’interno dei paesi indotti dal progresso di integrazione vengono spiegati anche attraverso i mutamenti del mercato del lavoro, che hanno comportato un allargamento dei differenziali retributivi nei paesi industrializzati (wage gap). Il progresso tecnico avrebbe infatti ridotto marcatamente la domanda di lavoro a bassa qualifica (unskilled) a favore di quello a più alto contenuto di conoscenza (skilled). Data l’inerzia dell’offerta ad adeguarsi a questa maggiore domanda, questo ha di fatto creato un eccesso di domanda di lavoro a più alto contenuto di conoscenza che si è concretizzato in un incremento salariale di questi lavoratori. Il wage gap indotto dal progresso tecnico skill biased è visto come uno dei principali responsabili degli incrementi di disuguaglianza tra paesi ricchi e poveri ma anche all’interno dei paesi maggiormente industrializzati. Tuttavia questo meccanismo ha avuto impatti diversi nei paesi con differenti istituzioni a protezione dei lavoratori. Non è un caso che gli USA registrino un forte incremento di disuguaglianza indotto dal wage gap, date le scarse protezioni sociali e sindacali dei lavoratori a bassa qualifica. Nei paesi europei maggiormente sindacalizzati, questi effetti sono stati in parte mitigati dalla rigidità salariale.

POPOLAZIONE MONDIALE. Entro il 2100 la popolazione mondiale potrebbe raggiungere 11 miliardi di persone, ossia circa 800.000 in piu’ rispetto alle previsioni fatte nel 2011. Secondo lo studio prodotto da un gruppo di ricercatori dell’Universita’ di Washington per le Nazioni Unite, a spingere l’aumento demografico sara’ soprattutto l’Africa. In controtendenza l’Italia, che nei prossimi decenni proseguira’ sulla strada della ‘crescita zero’: entro il 2100 – secondo il rapporto Onu – si perderanno ben 6 milioni di abitanti. Ed entro il 2050 un cittadino italiano su due sara’ un ultrasessantenne, con l’ aspettativa di vita in costante aumento, salendo a 82,3 anni nel 2015 e ancora a 93,3 anni a fine secolo. ”La crescita della popolazione ha subito un rallentamento se considerata in maniera complessiva – ha spiegato il sottosegretario generale Onu per gli Affari Economici e Sociali Wu Hongbo – questo rapporto ci ricorda che alcuni Paesi in via di sviluppo, soprattutto in Africa stanno crescendo rapidamente”. ”In alcuni casi, l’effettivo livello della fertilita’ sembra essere aumentato negli ultimi anni, in altri casi, la stima precedente era troppo bassa”, ha aggiunto John Wilmoth, direttore della divisione popolazione del Dipartimento per gli Affari Economici e Sociali, il quale ha presentato il rapporto al Palazzo di Vetro di New York. ”Le piccole differenze nella traiettoria della fertilita’ nei prossimi decenni – ha aggiunto – potrebbero avere importanti conseguenze per quanto riguarda le dimensioni, la struttura e la distribuzione della popolazione nel lungo periodo”.

Secondo lo studio, entro fine secolo la popolazione mondiale superera’ dell’8% quelle che erano le previsioni fatte appena due anni fa. Per i ricercatori statunitensi, l’errore – ossia la sottostima – andrebbe ricercato in particolare nel mancato calo della fertilita’, previsto al ribasso, nel continente africano.

Le ultime stime, risalenti al 2011, relative alla crescita della popolazione mondiale avevano indicato che il pianeta avrebbe raggiunto entro la fine del secolo un numero di abitanti di circa 10,1 miliardi. I nuovi dati emersi in questi 2 anni hanno ora obbligato a rivedere la crescita entro il 2100 fino a 10,9 miliardi con la sola Africa che passera’ degli attuali 1,1 ai 4,2 miliardi di persone, un aumento di quattro volte la popolazione attuale.

”Questi nuovi dati – ha spiegato Adrian Raftery, uno dei responsabili dello studio – mostrano che c’e’ la necessita’ di rinnovare le politiche sociali nelle regioni africane, come ad esempio una migliore istruzioni per le ragazze e aumentare l’accesso alla pianificazione familiare”.

Nelle altre parti del mondo non si prevedono invece sostanziali cambiamenti rispetto a quanto stimato finora. L’Europa continuera’ a vivere un graduale declino a causa del basso numero di nascite, e le altre regioni assisteranno a modesti aumenti provocati dall’allungamento della vita media. Il maggiore exploit e’ previsto in Nigeria la cui popolazione aumentera’ di circa 5 volte, da 184 milioni a 914, seguita dall’India, unico paese non africano tra i primi 10, mentre il maggior calo interessera’ invece la Cina che passera’ da 1,4 miliardi a 1,1 nel 2100. Nonostante la sempre maggior raffinatezza degli strumenti previsionali, le stime elaborate hanno comunque importanti margini di errore, la stima di circa 11 miliardi e’ infatti all’interno di un intervallo molto attendibile che potrebbe oscillare tra i 9 e i 13 miliardi di persone nel 2100.

Dal punto di vista demografico, ha scritto il demografo Antonio Golini, il 20° secolo. e, in particolare, i suoi ultimi cinquant’anni, hanno visto una grande esplosione – questo è il termine comunemente usato – della popolazione mondiale, e una sua non minore trasformazione. Alla base di questi fenomeni vi sono, com’è noto, due grandi vittorie, che l’uomo ha da sempre ricercato ma che ha ottenuto appieno (peraltro non dappertutto) soltanto da pochi decenni: la vittoria contro la morte precoce che, percorrendo una lunga strada, prende le mosse dai vaccini di Edward Jenner alla fine del Settecento, e che ha comportato un crollo della mortalità; la vittoria contro le nascite indesiderate, che prende le mosse dalla ‘pillola’ di Gregory G. Pincus alla metà del secolo scorso, cioè 150 anni dopo Jenner, e che ha comportato un crollo della fecondità.

L’ampia differenza temporale esistente fra l’inizio dell’abbassamento della mortalità e l’inizio di quello della fecondità ha portato alla straordinaria crescita della popolazione prima citata. Questa è stata favorita dalla sempre maggiore disponibilità di energia e di cibo, che a partire dalla Rivoluzione industriale ha evitato il ritorno dei quattro cavalieri dell’Apocalisse – la fame, l’epidemia, la guerra, la morte – i quali non hanno più esercitato sulla crescita della popolazione un’azione devastante, com’era invece successo per millenni (Golini 20032; Livi Bacci 1989, nuova ed. 2005).

Nella storia contemporanea della popolazione mondiale, le migrazioni hanno giocato un ruolo di gran lunga meno importante. Questo è stato rilevante soltanto in alcuni e limitati casi e periodi, in particolare nel popolamento dei nuovi mondi e, di conseguenza, nell’allentare decisamente la pressione demografica, prima nei vecchi mondi, specialmente nell’Europa, poi anche nell’America Latina.

I guadagni nella durata media della vita sono stati davvero straordinari: nel mondo intero, fra il 1950-1955 e il 2000-2005 questa è passata da 47 a 65 anni, crescendo di 18 anni, cioè di 4,3 mesi per ognuno dei cinquant’anni di calendario. Tutto ha giocato a favore di una crescita tanto strabiliante: il miglioramento dell’igiene e dell’alimentazione; le case più protette dagli eccessi del caldo e del freddo; la medicina curativa e anche quella preventiva; l’ambiente di lavoro più sano e meno stressante per ritmi e orari; il poter contare su diritti individuali in tutte le sfere della vita, assicurandoli in particolare alla donna (con consistenti miglioramenti della sua salute e di quella dei suoi piccoli); l’aumento dell’istruzione e della cultura. Del tutto eccezionale il caso della Cina, dove negli stessi cinquant’anni la durata media della vita è passata da 41 a 72 anni, mostrando cioè un aumento di 7,5 mesi per ogni anno di calendario.

Gli strumenti facili, efficaci, diffusi ed economici per controllare le nascite indesiderate sono arrivati, come si accennava, molto dopo che si era cominciato a controllare la morte precoce, anche se questi strumenti sono condizione necessaria ma non sufficiente perché il controllo si attui. Infatti, le sovrastrutture culturali – quelle macro, consolidate nei secoli, e quelle micro, introiettate nel profondo delle coscienze – hanno fortemente e a lungo inciso sui tempi di conoscenza, accettazione, diffusione e uso della pillola e degli altri contraccettivi. Gli strumenti per il controllo delle nascite hanno peraltro contribuito (e vanno contribuendo) in misura decisiva, insieme con l’istruzione e il lavoro, a una diversa condizione della donna e, all’interno e all’esterno della casa, a una sua diversa socializzazione e interazione con tutti gli altri componenti della famiglia. È intuitivo come, a parità di altre condizioni, sia 2 (per l’esattezza 2,06) il numero di figli che assicura la crescita zero della popolazione, dal momento che 2 figli garantiscono nel ciclo delle generazioni la pura sostituzione dei genitori. Ebbene, nel 1950 nel mondo nascevano in media 5 figli per donna; dopo soli cinquant’anni si sono ridotti a circa la metà (2,6). Il contributo maggiore alla diminuzione della fecondità del mondo è venuto dalla Cina, dove il numero medio di figli per donna è sceso fra il 1950-1955 e il 2005-2010, in soli cinquantacinque anni, da 6,2 a 1,7, mentre il numero medio annuo dei nuovi nati è diminuito da 25,5 milioni (che vivevano in media 41 anni) a 17,5 milioni (che però si aspettano di vivere 73 anni). Ormai quasi la metà della popolazione mondiale ha una fecondità inferiore a 2 figli per donna, ed è quindi in una fase di declino virtuale, che diventerà reale mano a mano che usciranno dal gioco riproduttivo le generazioni assai affollate del passato. In varie aree del mondo, però, il tasso di fecondità è sceso da tempo molto al di sotto di 2, con grave pregiudizio della possibilità (demografica, economica e sociale) di una piena e completa sopravvivenza da parte della popolazione interessata, a meno di immigrazioni molto consistenti. Questo è il caso della popolazione dell’Europa, che ha ormai una fecondità pari a 1,4 figli per donna, o, più specificamente, dell’Italia o del Giappone, che da tempo ne hanno una pari a 1,3, con prospettiva di declino, perché più è bassa la fecondità più, a parità di altre condizioni, è forte il declino della popolazione e la velocità del suo invecchiamento. E infatti l’Italia e il Giappone – che godono entrambi anche di una forte longevità – sono i Paesi più vecchi del mondo. In casi come questi si pone il problema del se e per quanto tempo ancora sia possibile sopportare una così prolungata e bassissima fecondità.

Come detto, il ruolo delle migrazioni internazionali nello sviluppo delle popolazioni contemporanee è ridotto, o finanche ridottissimo, nonostante il clamore e le polemiche che così frequentemente suscitano le migrazioni nell’opinione pubblica e nelle formazioni politiche. A questo proposito, bisogna ricordare che l’immigrazione straniera costituisce in ogni caso un ‘trapianto’ di persone, non necessariamente compatibili e qualche volta decisamente in contrasto con il corpo sociale del Paese di arrivo, costituito da una popolazione consolidata e dotata di caratteristiche sue proprie. Quando l’afflusso avviene con velocità e intensità tali che permettono alle persone che arrivano e rimangono di essere gradualmente integrate, allora non si hanno fenomeni di rigetto, o se si hanno sono del tutto marginali. Tali fenomeni, in ogni caso, presentano tratti completamente diversi a seconda che l’immigrazione arrivi in un continente di ridotto o ridottissimo popolamento – com’erano i nuovi mondi un secolo fa – o in un continente di vecchio e intenso popolamento – com’è l’Europa – dove il tessuto sociale ha una sua strutturazione, in primo luogo culturale, consolidatasi e perpetuatasi nei secoli. Dal punto di vista statistico, c’è da considerare che i migranti e i loro discendenti sono difficilissimi da conteggiare, anche a causa delle diversità internazionali nelle normative, la più importante delle quali riguarda le modalità e i tempi di acquisizione della cittadinanza del Paese di arrivo; una volta che questa sia acquisita, infatti, i migranti e i loro discendenti ‘scompaiono’ dalle statistiche delle migrazioni. Questa è la ragione per la quale le Nazioni Unite contano nel mondo al 2005 ‘soltanto’ 191 milioni di migranti, peraltro cresciuti dal 1990 di 36 milioni, cioè di 2,4 milioni all’anno.

L’imprevedibile, ulteriore declino della mortalità che si sta avendo nelle età molto avanzate, il perdurare di una fecondità bassa o bassissima e i cambiamenti sociali legati alla nuova condizione della donna e alle mutate condizioni della formazione e della sopravvivenza della famiglia, sono fra gli elementi che si ritrovano alla base di una nuova transizione demografica, la quale sta conducendo il mondo (e in particolare i Paesi demograficamente ed economicamente più avanzati) verso nuove dinamiche e strutture della popolazione e della sua organizzazione sociale (Van de Kaa 1987; Lesthaeghe 1995). Nel lungo periodo, le maggiori conseguenze sono, quindi, un più o meno intenso e rapido declino della popolazione totale e un intensissimo e ‘sconvolgente’ mutamento nella struttura per età di tale popolazione, che si manifesta attraverso un suo progressivo, rapido, irrefrenabile, ma silenzioso, invecchiamento. In verità, quest’ultima conseguenza coinvolgerà anche le popolazioni dei Paesi in via di sviluppo, tutte o quasi caratterizzate da declino della fecondità: infatti, per effetto di un’inderogabile legge demografica, quanto più forte è la discesa della fecondità tanto più forte risulta essere, a parità di altre condizioni, l’invecchiamento della popolazione. Le tendenze al declino della fecondità e della mortalità, le intense migrazioni rurali-urbane – legate soprattutto alla modernizzazione dell’agricoltura, alla crescente industrializzazione, all’enorme crescita urbana, oltre che al grande sviluppo e diffusione dei servizi – così come le migrazioni internazionali, hanno largamente contribuito alla generalizzata, decrescente importanza della famiglia estesa. Per di più, i raggiunti maggiori livelli di istruzione, in particolare delle donne, hanno favorito, da un lato, la discesa della fecondità e della mortalità, dall’altro la crescente proporzione di famiglie nucleari. Il matrimonio ritardato, che ha conosciuto una straordinaria diffusione negli ultimi trent’anni, e un notevole aumento dei divorzi e della vita da single vanno influenzando dappertutto dimensione, durata e struttura delle famiglie. Alla luce delle considerazioni appena svolte, diventa davvero difficile e problematico prevedere sul lungo periodo tutte le variabili dinamiche che sono alla base dello sviluppo delle popolazioni (la mortalità e la durata della vita, il numero medio di figli per donna, il numero di migranti) e, di conseguenza, determinare il futuro dell’ammontare e della distribuzione territoriale di tali popolazioni.

Numerose risultano le speculazioni e le ‘esercitazioni’ di tipo biologico, medico, attuariale e statistico-demografico che sono state (e vengono) fatte per stimare la durata massima dell’aspettativa di vita, e che via via la spostano sempre più in là. Attualmente le organizzazioni e gli studiosi più accreditati che si occupano di questo tipo di problemi sono propensi a ritenere che la massima durata media di vita per un’intera popolazione possa essere individuata in 88-90 anni. Biologi e genetisti ipotizzano però che, con i progressi della genetica, della diagnostica, della farmacologia e della terapia individuale, questa possa arrivare anche a 120 anni. Per i Paesi economicamente progrediti il raggiungimento di tale traguardo è tutt’altro che scontato (e per gli altri sarebbe in ogni caso molto lontano), dal momento che durante il percorso si potranno incontrare fattori che, ove agiscano, avrebbero effetti positivi – fra i quali si considerano: successi sostanziali nella ricerca di base, e conseguenti cure efficaci, semplici ed economiche legate alle cellule staminali, all’ingegneria genetica e alle nanotecnologie; strumenti diagnostici ancora più efficaci e affidabili; scoperta e produzione di medicine specifiche per anziani e vecchi; attività fisica lungo l’intera vita; maggior cura nella nutrizione e negli stili di vita – e altri fattori che, al contrario, avrebbero effetti negativi – inquinamento dell’aria, dell’acqua, del cibo; comparsa di nuove e inattese epidemie; accresciuta diffusione (soprattutto fra le giovani generazioni) di droghe, doping e obesità; mutamenti climatici su larga scala; insostenibilità del sistema di welfare, legata all’invecchiamento della popolazione e/o a crisi economiche. Il saldo complessivo dei fattori positivi e di quelli negativi è ovviamente imprevedibile, a causa delle incertezze riguardo alla cadenza temporale, all’intensità e all’interazione dei vari fattori. Negli ultimi decenni, soprattutto per i Paesi economicamente più sviluppati, il saldo è stato molto positivo, ma non sono mancate, in alcuni periodi o in alcune aree del mondo, pesanti crisi di mortalità, che hanno penalizzato soprattutto i Paesi in via di sviluppo. Mettendo insieme tutti questi elementi, le Nazioni Unite ipotizzano che nella prima metà del 21° sec. la durata media della vita continuerà a crescere in tutte le aree del mondo, e che la distanza fra durata massima e minima si potrà ridurre dai 33 ai 23 anni, rimanendo, quindi, comunque molto pesante.

Tutto lascia credere che nel prossimo futuro la fecondità continuerà a declinare: quasi tutti i Paesi dove questa permane a livelli medio-alti (cioè sopra il livello di sostituzione, 2,06 figli per donna, che, lo si ricorda, assicura la crescita zero della popolazione) adottano politiche che spingono a una sua ulteriore discesa. Nel 2005-2010, fra i 150 Paesi in via di sviluppo la fecondità rimane molto alta – sopra i 5 figli per donna – solo in 27, che contano per il 9% della popolazione mondiale. Al contrario, la fecondità è scesa al di sotto di 2,06, oltre che in tutti i Paesi economicamente sviluppati, anche in 28 Paesi in via di sviluppo, fra cui la Cina (1,73 figli per donna), che contano per il 25% della popolazione mondiale.

Mentre nei Paesi ad alta fecondità è ormai scontata l’accettazione del principio di favorire una sua discesa e la messa in atto di politiche per attuarla, nei Paesi a bassissima fecondità di lungo periodo, soprattutto in quelli economicamente sviluppati, le tendenze e le politiche mirate a un suo modesto recupero sono molto più complesse, difficili e incerte. Esse comunque vanno pensate e decise alla luce di questi elementi: a) il problema della sostenibilità sul lungo periodo di una fecondità bassissima, pari o inferiore a 1,3 figli per donna, che provoca, a parità di altre condizioni, un intenso declino della popolazione e un suo fortissimo invecchiamento; b) l’alterazione del rapporto fra nascite e morti, che potrebbe arrivare fino a 3-5 morti per 1 nascita (e oltre), e quindi trasformare il concetto stesso di vita e di morte, oltre che gli atteggiamenti e comportamenti nei confronti del bambino, ‘bene’ raro e quindi assai prezioso, e del vecchio, persona dalla presenza ormai assai diffusa e quindi largamente ‘svalutata’; c) il fatto che ridurre un’alta fecondità della donna e della coppia (e quindi dell’intera collettività) corrisponde assai spesso sia all’interesse della coppia stessa sia a quello dell’intero Paese, mentre tentare di rialzare una fecondità bassissima corrisponde certo all’interesse del Paese, ma non necessariamente all’interesse delle coppie e delle donne (e l’esperienza storica dimostra che quando si verifica una coincidenza di interessi tra l’individuo e la collettività nell’abbassare la fecondità, allora le politiche che mirano a diminuirla funzionano; se invece gli interessi nel rialzarla sono contrastanti, normalmente – almeno nelle democrazie occidentali – sono gli interessi degli individui, e quindi i loro comportamenti, a prevalere sugli interessi della collettività); d) l’inesperienza e l’incapacità finora manifestate nel trovare strumenti e politiche per favorire una ripresa, anche modesta, della fecondità.

C’è poi da considerare la straordinaria difficoltà di individuare e di ‘centrare’ gli obiettivi quantitativi di queste politiche, dovuta al fatto che la grande crescita della popolazione che si è avuta nell’ultimo mezzo secolo e la conseguente non minore alterazione nella struttura per età, rendono eccezionalmente complicato e stretto il sentiero lungo il quale camminare per rendere la fecondità futura ‘ottimale’, o anche solo sostenibile. Al riguardo, prendendo come riferimento l’esempio della Cina (dove vive quasi un quarto dell’intera umanità), si trova che, se l’attuale fecondità di 1,70 figli per donna scendesse a 1,35, fra il 2005 e il 2050 si avrebbe una diminuzione di 230 milioni degli individui con meno di 80 anni, il che renderebbe difficilmente fronteggiabile il contemporaneo, forte incremento di ultraottantenni (circa 86 milioni). Né d’altra parte la Cina può permettere che, per meglio gestire l’atteso invecchiamento, la fecondità risalga fino a 2,35 figli per donna, dal momento che questa fecondità porterebbe a un non auspicabile incremento di 245 milioni per la popolazione con meno di 80 anni (che andrebbero a sommarsi all’incremento di 86 milioni di vecchi, con un incremento totale quindi di 331 mi-lioni di persone). Davvero un puzzle di estrema difficoltà per i politici e i cittadini cinesi. Situazioni non meno complesse e difficili si hanno anche per molti altri Paesi, compresa l’Italia.

Al punto in cui è arrivata l’evoluzione demografica, un obiettivo per una fecondità sostenibile potrebbe essere quello di assicurare la crescita zero della popolazione, e quindi il valore di 2,06 figli per donna, o (essendo un obiettivo assai arduo da conseguire con precisione) un valore all’interno di una fascia che va all’incirca da 1,85 a 2,27 figli per donna (cioè il 10% in più o in meno intorno a 2,06). Naturalmente poi, per raggiungere un ottimo dinamico di popolazione – in relazione a fattori ambientali, economici, sociali, culturali – all’interno del Paese dovrebbe essere possibile un’assoluta, libera mobilità della popolazione, altrimenti si dovrebbe cercare di perseguire l’impossibile obiettivo di una crescita zero a tutti i livelli territoriali, il che comporterebbe fra l’altro una straordinaria e insostenibile rigidità della popolazione e della società in senso lato. La tendenza del numero medio di figli per donna nelle varie popolazioni del mondo all’incirca verso il valore 2 è condivisa da molti governi nazionali, oltre che da numerosi studiosi, ed è di conseguenza anche l’obiettivo che compare nelle ultime proiezioni delle Nazioni Unite (tab. 2). Cosicché, mentre al 2000-2005 si osserva uno scarto di 3,7 figli per donna fra il valore massimo di 5,0 raggiunto in Africa e 1,3 registrato in Giappone, per il 2045-2050 si immagina (o forse si auspica) uno scarto ridotto a soli 0,7, come differenza fra il valore massimo di 2,5 per l’Africa e 1,8 per varie parti del mondo. Il che significa, quindi, che tale convergenza implica un’ulteriore riduzione della fecondità laddove è molto alta (e in particolare una riduzione del 50% in Africa) e una difficilissima ripresa laddove è molto bassa (e in particolare un aumento del 46% in Giappone).

Gli squilibri demografici, economici e sociali a livello macro, attuali e prospettivi, non sono mai stati così forti fra il Nord del mondo, economicamente progredito e demograficamente depresso, e il Sud, demograficamente vitale ed economicamente depresso, per cui ci si potrebbero aspettare migrazioni assai massicce. Ma poi a livello micro, per prendere la decisione di partire conta il bilancio che una singola persona e la sua famiglia fanno fra la situazione attuale (o quella sperata) nel luogo di origine e la situazione sperata nel luogo di destinazione, compresi tutti i costi da affrontare per arrivarci. Per tentare di valutare il futuro delle migrazioni internazionali, bisogna tener conto del fatto che entrano in gioco numerosi attori e non soltanto i due più importanti, i quali per l’appunto sono da un lato il migrante – che vuole avere il diritto di lasciare il proprio Paese, per necessità e/o desiderio – e dall’altro il Paese di destinazione – che vuole avere il diritto di lasciare entrare soltanto un certo numero di immigrati, per salvaguardare una propria armoniosa capacità di sviluppo economico e sociale, oltre che la propria identità etnico-culturale. Vanno infatti prese in considerazione anche le politiche e le azioni operative svolte da altri attori, quali i Paesi di transito, che non riescono e/o non vogliono trattenere gli irregolari sul proprio territorio, adoperato sempre più spesso come trampolino per tentare di arrivare nell’‘eldorado’ (si considerino, per es., il caso Messico-Stati Uniti e quello Libia-Italia), e i trafficanti di manodopera, che sullo stato di bisogno dei migranti lucrano ignobilmente.

Nella partita delle migrazioni internazionali, però, da sempre sono in gioco anche: a) il Paese d’origine del migrante, che può volere allentare la pressione sul proprio mercato del lavoro e acquisire fondamentali rimesse finanziarie; b) la famiglia di origine del migrante, che sotto il profilo psicologico e affettivo, ma in primo luogo sotto quello delle risorse finanziarie, può comportare o no la spinta a partire; c) la comunità di connazionali già insediata nel Paese di destinazione, che, formando la ben nota ‘catena migratoria’, è spesso elemento determinante per prendere la decisione di partire; d) i datori di lavoro nei Paesi di arrivo, che, nel caso ci sia carenza, per quantità e/o qualità, di manodopera sul mercato interno, causano l’afflusso di immigrati, anche irregolari; e) gli altri Paesi di immigrazione, specie se contigui, le cui politiche migratorie hanno un’influenza indiretta su un singolo Paese, nel senso che le loro aperture o chiusure rispetto ai flussi di immigrazione – anche soltanto mediante i visti – possono modificare intensità, cadenza e direzione dei flussi verso quel singolo Paese.

Come elementi strumentali, che interagiscono intensamente con molti dei soggetti, vanno considerati sia le facili ed economiche comunicazioni telefoniche e informatiche, che consentono a chi è già immigrato di comunicare e avvertire in tempo reale le comunità rimaste a casa delle opportunità e degli ostacoli esistenti nel Paese di origine e del modo di sfruttarle e superarle, sia, ancor di più, l’enorme quantità di mezzi di trasporto che con grande frequenza, rapidità ed economicità collegano ogni Paese con tutto il resto del mondo. In particolare poi nell’Unione Europea, va considerato il Trattato di Schengen (dal 21 dicembre 2007 allargato a 25 Paesi), che, annullando le frontiere dei singoli Stati-nazione e spostandole ai bordi di un’enorme area di libera circolazione delle persone, fa sì che la politica migratoria dei singoli Paesi europei si stia trasformando sempre di più da unidimensionale e bilaterale a multidimensionale e multilaterale. Il massimo contributo (relativo e assoluto) delle migrazioni internazionali in relazione all’incremento naturale di alcuni Paesi si prevede si avrà nel quinquennio 2005-2010, quando le migrazioni nette tenderanno a più che raddoppiare il contributo dell’incremento naturale (nascite meno morti) alla crescita della popolazione. In sostanza si può affermare che mentre l’immigrazione può risolvere la crisi demografica dei Paesi a bassissima fecondità e a forte economia, con particolare riferimento a quelli europei, la parallela emigrazione, per quanto consistente, non può risolvere l’eccesso di crescita demografica dei Paesi a economie deboli, né può risolvere le miserie del mondo, dal momento che l’uno e le altre sono relative a miliardi di persone.

Di fronte a cifre così imponenti per i flussi migratori, e che certo non potranno diminuire in futuro, in sede internazionale ci si è posto il problema di trovare formule che massimizzino i vantaggi e minimizzino gli svantaggi per i tre protagonisti principali del processo migratorio: i Paesi di destinazione, i Paesi di origine e i migranti. Per meglio valutare il problema vanno analizzate le politiche migratorie dei vari Paesi, compresi quelli di transito, i cui obiettivi principali sono di seguito indicati.

Per i Paesi di destinazione: a) sostenere o promuovere, attraverso l’immigrazione, un forte sviluppo economico, possibilmente anche nei Paesi di origine e in quelli di transito; b) favorire l’incontro fra domanda e offerta di lavoro, o alleggerire gli squilibri quantitativi e/o qualitativi esistenti nel mercato del lavoro; c) favorire la modernizzazione e lo sviluppo (o la ripresa) di uno specifico settore della produzione e dell’intera economia; d) favorire la ripresa dello sviluppo demografico, soprattutto nei Paesi caratterizzati da un forte e prolungato eccesso di bassa fecondità; e) favorire il pacifico inserimento della comunità immigrata nel Paese di destinazione, garantendole una fruttuosa convivenza e la possibilità di promozione sociale e professionale, in specie per le seconde generazioni; f) avere un flusso e uno stock di migranti di intensità ‘sostenibile’ rispetto alla capacità di accoglienza della società e di una sua positiva interazione con la comunità immigrata, basata anche sulla salvaguardia della identità dei popoli e dei luoghi di accoglienza (specie in società e città storicamente stratificate com’è in Europa).

Per i Paesi di origine: a) sostenere e promuovere, attraverso l’emigrazione, un consistente sviluppo economico, riducendo nel mercato del lavoro la fortissima offerta, che sia di origine demografica o socioeconomica; b) offrire ai propri cittadini, e alle loro famiglie, un’opportunità di sopravvivenza e di promozione sociale; c) acquisire rimesse finanziarie essenziali per la bilancia dei pagamenti e per gli investimenti produttivi, e poi acquisire anche, specie nel lungo termine, rimesse sociali; d) favorire in generale lo sviluppo e la modernizzazione della società e dell’economia; e) non subire un eccessivo dispendio di capitale umano, onerosamente formato e necessario per lo sviluppo; f) stringere con i Paesi di destinazione relazioni economiche e socioculturali, con lo scopo anche di favorire le proprie esportazioni e acquisire investimenti diretti stranieri.

Per i Paesi di transito: a) agevolare un rapido e indolore smaltimento dei migranti di transito che via via si accumulano nel proprio territorio; b) annullare o ridurre la tensione politico-diplomatica che si viene a creare tanto con i Paesi di origine dei migranti di transito, quanto con quelli di destinazione.

Per il migrante (in linea di massima): a) favorire il pieno inserimento suo e della sua famiglia nel Paese di destinazione, una volta che si vogliano e si riescano a superare gli ostacoli legati al lavoro, all’abitazione, alla lingua, alla scuola dei figli, alla pacifica e fruttuosa convivenza con la comunità autoctona; o, alternativamente, b) restare un periodo più o meno limitato di tempo nel Paese di destinazione per mettere da parte una somma che consenta poi una piena sopravvivenza nel Paese di origine, anche attraverso l’inizio di una propria attività.

Nei primi anni di questo secolo hanno preso avvio alle Nazioni Unite un’approfondita analisi e un’iniziativa politica che mirano a valorizzare le migrazioni temporanee e rotatorie, in modo da poter minimizzare gli inconvenienti delle migrazioni permanenti o di lungo periodo. Infatti: a) per il Paese di destinazione, diminuiscono i problemi dell’integrazione – economica, logistica, psicologico-culturale – soprattutto quando le esigenze dell’economia richiedono per molti anni o decenni flussi di immigrazione così intensi da mettere in difficoltà la capacità d’integrazione, o quando vi siano fluttuazioni del ciclo economico che richiedono un numero variabile di migranti; b) per il Paese di origine, diminuisce la perdita di capitale umano, si prolunga nel tempo l’acquisizione delle rimesse finanziarie (contribuendo in misura spesso decisiva allo sviluppo del Paese), si ottiene al rientro il guadagno di capitale sociale costituito dalle caratteristiche sociali e professionali acquisite all’estero dal migrante; c) per il Paese di transito, si annulla o si allenta decisamente la pressione sul proprio territorio, essendo molto maggiore il numero di coloro che possono regolarmente emigrare nel Paese desiderato.

A pagare il prezzo maggiore di questo tipo di migrazione è spesso il migrante, con la separazione dalla famiglia durante il periodo di migrazione e con l’obbligo di far rientro nel luogo di origine, non sempre abbastanza attraente per lui e/o per il futuro dei suoi figli. E pur tuttavia questo tipo di migrazione, per il quale si possono immaginare strumenti e meccanismi adeguati per ridurre al minimo i danni del migrante, sembra essere una delle poche forme in grado di assicurare la circolazione di una grande quantità di migranti e una riduzione degli inconvenienti legati a una migrazione massiccia e crescente.

Se ci si è soffermati così a lungo sulle migrazioni è perché si ritiene che per i decenni a venire esse saranno sempre più importanti nel determinare le tendenze della popolazione. Al di là infatti delle considerazioni sulla pressione migratoria, che saranno svolte nel paragrafo successivo, le migrazioni restano l’elemento più flessibile per regolare lo sviluppo della popolazione in relazione allo sviluppo economico. La mortalità, infatti, è ormai straordinariamente ridotta e unidirezionale (nel senso che tutto viene fatto perché si abbassi ulteriormente), mentre la fecondità non è unidirezionale, ma è sempre più difficile da regolare per indirizzarla su un percorso che, come si è visto, è comunque molto stretto.

La popolazione mondiale presenterà una crescita fortissima anche nella prima metà del 21° sec.: ci si aspetta (nell’ipotesi ‘centrale’, cioè di fecondità media) un incremento di circa 2,5 miliardi di persone nei 43 anni che vanno dal 2007 al 2050, e quindi in media 59 milioni in più all’anno (tab. 4). Il gioco delle variabili demografiche fa sì che la popolazione mondiale, stimata al 1° luglio 2007 in quasi 6,7 miliardi di persone (dei quali 5,4 vivono nei Paesi in via di sviluppo e 1,2 in quelli economicamente sviluppati), possa arrivare nel 2050 a 9,2 miliardi (dei quali rispettivamente 8,0 e 1,2). E questo come effetto della prevista discesa della fecondità (da 2,55 a 2,02 figli per donna), dell’allungamento della vita media (da 67,2 a 75,4 anni), delle migrazioni internazionali (2,9-2,3 milioni all’anno dal Sud al Nord) e delle caratteristiche della struttura per età (che ha accumulato nei decenni passati un forte potenziale di crescita).

Le differenze territoriali nello sviluppo delle popolazioni saranno straordinarie per effetto della diversa velocità, intensità e cadenza delle variabili demografiche in gioco (Angeli, Salvini 2007).

Differenze straordinarie si potranno registrare anche in relazione ai percorsi di fecondità seguiti dalle diverse aree territoriali. Si prenda il caso del possibile sviluppo della popolazione dell’Africa in confronto a quello dell’Europa (tab. 4): se il percorso della fecondità fosse per entrambi i continenti quello medio, allora la loro differenza di popolazione, che attualmente è di 234 milioni, salirebbe nel 2050 a 1334 milioni; con una fecondità bassa per l’Africa e alta per l’Europa (percorsi con ridotta probabilità di verificarsi), allora la differenza salirebbe a 941 milioni; con una fecondità alta per l’Africa e bassa per l’Europa (percorsi che hanno ridotta probabilità di verificarsi, ma comunque maggiore di quella del caso precedente), allora la differenza salirebbe a 1736 milioni.

Ci si può aspettare circa 1 miliardo di differenza fra popolazione africana ed europea, a fronte dei 234 milioni attuali. Con 3 africani per ogni europeo, necessariamente cambierà tutta la geopolitica dell’area euroafricana. La recentissima Unione per il Mediterraneo, che mette insieme i 27 Paesi dell’Unione Europea e i Paesi rivieraschi del Sud del Mediterraneo (Libia esclusa), dal punto di vista demografico non può che essere valutata positivamente, soprattutto come premessa di una più larga Unione che in futuro includa anche i Paesi dell’Africa subsahariana. È destinata a cambiare, per fare un altro esempio, la geopolitica in un’area particolarmente delicata anche dal punto di vista delle tensioni militari: nel 1950 la Russia (considerata nei confini attuali) aveva una popolazione (103 milioni) che era circa tre volte quella del Pakistan (37 milioni); nel 2050 il Pakistan potrebbe avere una popolazione pari a tre volte quella della Russia (292 contro 108).

Nell’ambito dei Paesi in via di sviluppo, la crescita demografica sta avendo e avrà un impatto molto forte in primo luogo sulla domanda di acqua, cibo ed energia, in particolare da parte dei 4,6 miliardi di persone che abitano nei Paesi emergenti, e che ci si aspetta diventino 6,2 miliardi nel 2050. Si tratta di Paesi con vaste popolazioni e con una assai forte crescita economica – a partire da Cina e India – in cui la formazione di una classe media fa aumentare la domanda di beni che siano al di là della pura sopravvivenza. Da qui la richiesta di cibo, ma poi anche di abitazioni più confortevoli, di automobili, e quindi di energia e di acciaio. Una domanda sostenuta dalla spinta a superare l’arretratezza di questi Paesi – in campi fondamentali come il tenore di vita, oltre alla soluzione di problemi come la povertà, la salute e l’istruzione – e che va mettendo in crisi il sistema di produzione, scambi e prezzi di merci e servizi delle società occidentali; domanda che per di più si accentuerà in futuro, proprio in relazione al fortissimo aumento della popolazione e alla sua attesa e auspicabile crescita in termini socioeconomici.

Al di là dei grandi mutamenti nella geopolitica e nelle relazioni internazionali e agli imponenti cambiamenti legati alla domanda dei beni e servizi per effetto della crescita demografica e di quella economica, immense sfide vengono poste ai singoli Paesi e alla comunità internazionale dalle ‘sconvolgenti’ variazioni nella struttura per età delle popolazioni legate al calo della fecondità e della mortalità (tab. 5) e alle forme di insediamento della popolazione sul territorio.

Si prevede che tra il 2005 e il 2050 cali nel mondo intero di 15 milioni, in conseguenza della già consistente discesa della fecondità e di quella dei prossimi decenni. Ci si aspetta che cali di poco nei Paesi economicamente sviluppati, dove già costituisce una frazione molto ridotta della popolazione, e molto nei Paesi emergenti (di 176 milioni, il 13,3% in meno), dove il problema maggiore sarà, una volta assicurato a tutti i minori un adeguato livello di istruzione, quello di far diminuire in parallelo e dolcemente tutto il settore relativo all’istruzione, che altrimenti si troverebbe a essere sovradimensionato. Nei Paesi a sviluppo minimo, l’incremento invece sarà massiccio – di 173 milioni, il 54% in più – e la sfida sarà quella di riuscire a far crescere adeguatamente il settore dell’istruzione, considerando anche la sua grande arretratezza in molti di questi Paesi.

Ma per questo segmento di popolazione, riguardo i Paesi a sviluppo minimo due ulteriori sfide aspettano i governi e la comunità internazionale: a) assicurare un forte incremento delle condizioni di salute, dal momento che in alcuni Paesi, per es. in Mali o in Etiopia, la mortalità infantile supera ancora il valore di 100 bambini morti nel primo anno di vita per ogni 1000 nati vivi; b) salvaguardare i bambini dal lavoro e proteggere i minori nel lavoro, dal momento che è difficile immaginare che si possa ridurre o annullare il lavoro minorile, tenendo conto che quasi la metà della popolazione (il 42%) ha meno di 15 anni (una proporzione che tenderà a ridursi, ma lentamente, per arrivare al 28,2% nel 2050).

Si prevede che fra il 2005 e il 2050 la popolazione in età lavorativa aumenterà nel mondo intero di 1,677 miliardi, con fortissime differenze territoriali: −92 milioni nei Paesi economicamente sviluppati; +708 nei Paesi a sviluppo minimo; +1067 nei Paesi emergenti. Il che comporta (tenendo conto del fatto che in questa fascia di età il tasso normale di attività si aggira intorno al 70%) la necessità di creare nei Paesi in via di sviluppo circa 1,250 miliardi di nuovi posti di lavoro, per fronteggiare l’offerta che deriva dalla sola dinamica demografica. L’immensità della sfida si può valutare tenendo conto che l’intero ricco Nord del mondo occupa attualmente 550-600 milioni di persone. Ma alla componente demografica bisogna aggiungere un’offerta addizionale di lavoro che deriva: dall’espulsione di addetti all’agricoltura, quando questa, com’è in specie nei Paesi a sviluppo minimo, è arretrata e ammodernandosi espelle decine di milioni di lavoratori; dal miglioramento della condizione femminile, che immette sul mercato grandi quantità di lavoratrici, non infrequentemente più istruite degli uomini; dall’aumento dell’istruzione, che contribuisce a immettere sul mercato del lavoro frazioni di persone che altrimenti resterebbero emarginate o scoraggiate. Si tratta, per di più, di creare posti di lavori che siano, secondo la definizione dell’International labour organization (ILO), ‘decenti’, in grado quindi di assicurare un reddito adeguato.

Dall’altra parte, i Paesi economicamente sviluppati, per la prevista diminuzione della popolazione in età lavorativa, avranno bisogno di immigrati, che, si è visto, le Nazioni Unite prevedono nella misura di 2-3 milioni l’anno. La pressione migratoria Sud-Nord sarà quindi fortissima e incontenibile, ma, come si diceva, mentre le migrazioni sarebbero in grado di risolvere i problemi demografici del Nord del mondo (compreso quello di ridurre in misura modesta l’invecchiamento, sempre che i flussi di immigrazione abbiano continuità nel tempo), non saranno certo in grado di risolvere i problemi demografici ed economici che interessano invece il Sud.

La possibilità e la capacità di creare abbastanza lavoro, e lavoro decente, per fronteggiare un’offerta che nei prossimi decenni supererà largamente 1,5 miliardi di persone, costituisce una delle sfide principali per l’umanità prossima ventura, sfida verso la quale però si presta molta meno attenzione rispetto a quelle relative a problemi, peraltro non meno rilevanti, come il cibo, l’energia, l’inquinamento.

Questo segmento di popolazione costituisce l’altra ‘bomba demografica’ del 21° secolo. Ci si aspetta nel mondo un incremento di 1,013 miliardi di ultrasessantacinquenni fra il 2005 e il 2050, di cui 139 milioni nel mondo economicamente sviluppato (dove raggiungeranno la quota del 26,1% sul totale della popolazione) e 877 nei Paesi in via di sviluppo, dove, con un incremento di oltre il 300%, raggiungeranno la quota del 14,7%. I Paesi del Nord del mondo si ritroveranno con una quota elevatissima di anziani e vecchi, che metterà a dura prova la sicurezza sociale, il sistema pensionistico e la loro competitività internazionale. I Paesi del Sud si ritroveranno con una quota minore, ma in vertiginosa crescita; e questo in Paesi dove i sistemi di sicurezza sociale e pensionistici sono ancora approssimativi se non del tutto assenti, i redditi ancora bassi e la crisi della famiglia già largamente presente.

Le sfide di cui si è detto nel paragrafo precedente saranno particolarmente forti per i Paesi a più intenso e rapido invecchiamento della popolazione, per i Paesi quindi con prolungata bassissima fecondità e con recente intensissima immigrazione, elementi che alterano profondamente tendenze e livelli dello sviluppo della popolazione, della sua struttura per età e del suo insediamento sul territorio.
Proiezioni demografiche elaborate nel 2008 dall’Istituto nazionale di statistica (ISTAT) mostrano chiaramente come rilevantissimi siano i mutamenti che ci si possono ragionevolmente attendere nello sviluppo della popolazione italiana (tab. 6). Prendendo come base la proiezione cosiddetta centrale (che allo stato sembra avere la maggiore probabilità di verificarsi), nel giro di 44 anni, dal 2007 al 2051, i mutamenti potrebbero essere quelli esposti di seguito.

La popolazione italiana continuerà, sia pure debolmente, a crescere, ma grazie al solo effetto dell’immigrazione straniera. Infatti, l’intera popolazione residente sul territorio crescerà di 2,5 milioni, da 59,1 a 61,6 milioni, con la popolazione di origine italiana che scenderà da 56,2 a 50,9 milioni, e quella di origine straniera che salirà da 2,9 a 10,7 milioni. Delle persone che risiedono nel Paese, nel 2007 è straniera circa 1 su 20; nel 2051 invece sarà 1 su 6. Una vera e propria rivoluzione, che richiede politiche rivolte agli stranieri molto più attive delle attuali in tema di integrazione, con particolare riferimento al lavoro, alla casa, alla salute, alla scuola e alla mobilità sociale, elementi essenziali per una corretta e appropriata crescita delle seconde generazioni di immigrati e quindi per una duratura e proficua pace sociale. In una parola, l’immigrazione straniera diventa elemento strutturale e centrale della popolazione italiana e non più elemento marginale e marginalizzato, com’è stato considerato e collocato finora.

Verrà scompaginata la distribuzione della popolazione italiana sul territorio, come conseguenza del fatto che l’immigrazione straniera si stabilirà molto di più nelle più ricche regioni del Centro-Nord che non in quelle meno floride del Mezzogiorno, da dove, per di più, ripartiranno consistenti migrazioni interne. La conseguenza è che la popolazione del Mezzogiorno scenderà da 20,8 milioni nel 2007 a 18,1 nel 2051. Quella del Centro-Nord salirà invece da 38,4 a 43,5 milioni (senza immigrazione scenderebbe da 35,8 a 33,6 milioni), cioè dal 65 al 71% del totale dell’Italia.

L’invecchiamento della popolazione italiana proseguirà intensissimo, appena lievemente intaccato dall’apporto positivo dell’immigrazione: saliranno al 33% gli ultrasessantacinquenni (contro l’attuale 19,9), e scenderanno al 12,8% le persone con meno di 15 anni (contro l’attuale 14,1). Ma l’aspetto più sconvolgente dal punto di vista demografico e socioeconomico è dato dalla circostanza che il Centro-Nord, la ripartizione italiana attualmente più vecchia, diventerà la più giovane, e il contrario succederà per il Mezzogiorno.

Queste tendenze demografiche pongono grandi sfide all’attuazione di un pieno federalismo fiscale: ci si aspetta che le regioni attualmente ricche del Centro-Nord siano caratterizzate da una crescita della popolazione totale del 10-20%, mentre le regioni meridionali da una diminuzione del 12-14%; le prime, finora le più vecchie d’Italia, diverrebbero, come detto, le meno vecchie, e viceversa per le regioni meridionali; la popolazione in età lavorativa diminuirebbe, nonostante l’immigrazione straniera, di circa 1,1 milioni di persone nel Centro-Nord e di 4,5 nel Mezzogiorno. Il prodotto interno lordo di un determinato territorio, cioè la ricchezza prodotta, non è soltanto il frutto del sistema economico e della sua struttura e organizzazione, ma anche della quantità di persone che sono sul mercato del lavoro – il capitale umano, dal punto di vista quantitativo e qualitativo – e più in generale degli abitanti che in quel territorio consumano beni e servizi. Ebbene, al di là delle capacità degli amministratori locali, con le tendenze in atto si alimenterebbe nelle regioni del Centro-Nord un circolo virtuoso fra economia e demografia, e invece uno vizioso in quelle del Mezzogiorno.

Le straordinarie modificazioni demografiche, e alcune altre a esse strettamente legate, della popolazione mondiale nella prima metà del 21° sec. possono essere così sintetizzate (Trends and problems of the world population in the XXI century, 2005, in partic. J. Chamie, Scenarious for the development of world population, pp. 69-90): una popolazione mondiale ancora crescente e quindi molto più numerosa; una sua assai maggiore concentrazione nei Paesi in via di sviluppo; un suo declino in molti Paesi sviluppati (mitigato in alcuni casi da consistenti flussi di immigrazione); una fecondità in discesa e, in un numero crescente di casi, durevolmente bassa; una mortalità in discesa anche nelle età molto avanzate, con conseguente aumento e diffusione della ‘grande longevità’; un fortissimo aumento della popolazione in età lavorativa nei Paesi economicamente meno progrediti; popolazioni assai più vecchie (in particolare, ma non solo, nei Paesi sviluppati), con drastico aumento di anziani e vecchi e drastica riduzione di bambini e ragazzi; più frequente e prolungata coesistenza di 3-4 generazioni nelle famiglie e nelle popolazioni; profonde alterazioni (demografiche, economiche, sociali, culturali, psicologiche) derivanti, fra l’altro, dagli squilibri numerici nei rapporti fra le generazioni, in particolare fra nonni e nipoti; una popolazione assai più urbanizzata, accentrata in smisurate megalopoli (soprattutto nel Sud del mondo) o in nebulose urbane diffuse su territori assai vasti (soprattutto nel Nord); incremento delle migrazioni internazionali e assai forte aumento delle diversità etniche nelle popolazioni di arrivo; continui e consistenti progressi delle donne nelle pari opportunità e nell’equità; mutamenti nella composizione e nella struttura della famiglia, che peraltro diventa sempre più fragile e vulnerabile.

Se si guardano le possibili conseguenze attuali e prospettive della rivoluzione demografica in atto e di quella prossima ventura, si possono ritrovare da un lato effetti negativi, peraltro già evocati, derivanti da: carenza di lavoro ‘decente’ e diffusione di larghe sacche di povertà; crisi economiche e/o di welfare; contrapposizioni fra popoli sino all’eventuale insorgenza di guerre, regionali o meno; carenza di acqua e/o di energia, e forse di cibo; diffusione di vecchie e nuove malattie infettive; disastri ambientali.

Ma, dall’altro lato, si possono ritrovare effetti positivi, alcuni dei quali già ricordati nelle pagine precedenti: presa di coscienza del destino comune, con concreto e fruttuoso approccio ai problemi dell’umanità; importanti innovazioni scientifiche e tecnologiche (fra cui, per es., farmaci personalizzati per allungare la vita e migliorarne la qualità, anche attraverso l’utilizzo di robot umanoidi e non); stazionarietà o declino della popolazione mondiale, a partire dalla metà del 21° sec., o forse anche un po’ prima.

Tirando le somme, sono immense le sfide legate alle tendenze demografiche. Nei Paesi economicamente sviluppati va ricercata la capacità di far sopravvivere il sistema produttivo, reggendo all’impatto del proprio ciclo demografico, visto anche in combinazione con quello dei Paesi in via di sviluppo, tenere vivo il sistema di sicurezza sociale, di fronte all’intensissimo invecchiamento della popolazione, e trovare un diverso sistema di assistenza e cura, poiché non sembra più sostenibile in futuro quello basato sulla famiglia, per motivi di alterazione del rapporto fra le generazioni, di modificazioni del quadro nosologico, di durata del periodo di assistenza, della sempre più frequente rottura e ricomposizione delle famiglie, della frequente inadeguatezza, per i grandi vecchi, delle abitazioni nelle quali sono vissuti.

Nei Paesi in via di sviluppo va ricercata la capacità di mantenere e anzi migliorare il sistema produttivo, riuscendo a creare in circa quarant’anni oltre un miliardo di posti di lavoro decente (cioè retribuiti con più di due dollari al giorno), e reggendo quindi all’impatto demografico e ai problemi di competitività che si creeranno fra gli stessi Paesi in via di sviluppo e fra questi e il mondo economicamente sviluppato. Occorre inoltre far nascere dovunque un sistema generalizzato di sicurezza sociale per poter affrontare la straordinaria velocità di invecchiamento delle popolazioni e le difficoltà di crescita economica.

Ma se proprio si volesse sintetizzare al massimo il complesso di queste grandi e difficili stime, si può far riferimento a quattro sole cifre che riguardano la demografia di un futuro compreso fra il 2007 e il 2050 (v. tab. 4). L’incremento atteso della popolazione complessiva – pari a +22 milioni nel Nord del mondo (compresa un’immigrazione di 2-3 milioni di persone l’anno) e a +2498 milioni nel Sud (compresa un’emigrazione di 2-3 milioni di persone l’anno) – è tale da far comprendere che nulla potrà rimanere com’è adesso nei rapporti fra i popoli. E ancora (v. tab. 5): la variazione attesa della popolazione in età lavorativa fra i 15 e i 64 anni (sempre includendo i movimenti migratori), pari a −92 milioni nel Nord del mondo e a +1767 milioni nel Sud, lascia intendere, anche in questo caso, che nulla potrà rimanere com’è adesso nella struttura dei sistemi produttivi e dei flussi migratori. Bastano queste sole quattro cifre a dare la misura della necessità e dell’urgenza di una nuova visione e di un nuovo governo del mondo.

Le sfide appena enunciate portano per l’appunto a porsi la domanda forse più importante, cioè quale governance si possa e si debba avere, ai vari livelli territoriali, per gestire un futuro così complesso e dinamico. Domanda di grande difficoltà, cui uno studioso dei problemi della popolazione può tentare di dare una risposta partendo in primo luogo dalla necessità di definizione e attuazione di politiche demografiche, che sono incerte e di lunghissimo periodo e quindi quasi sempre non attuabili da governi che durano pochi anni, e in secondo luogo dalle straordinarie differenze territoriali nella crescita demografica, che dovrebbero portare a pressioni migratorie enormi e incontenibili e a mutamenti profondi nelle relazioni fra i popoli.

Guardando alle esperienze passate si può immaginare una strategia di governance articolata su più livelli temporali, di breve, medio e lungo periodo. Un primo livello di breve periodo potrebbe essere quello di riprendere la pratica delle grandi conferenze intergovernative-multilaterali delle Nazioni Unite, una volta che l’organizzazione riacquisti maggiore efficienza e la consapevolezza dell’importanza del suo ruolo. Conferenze certo costose – anche difficili e complesse, per la sempre più radicale contrapposizione fra Paesi ricchi, poco disposti a cedere sulle proprie posizioni di privilegio, Paesi emergenti, che vogliono tentare di raggiungere gli standard di vita dei Paesi ricchi, e Paesi poveri, che inutilmente o quasi tentano di uscire dalla propria condizione di povertà – ma in ogni caso molto utili, sia perché ‘costringono’ i governi a gettare lo sguardo ai problemi di lungo periodo spesso ignorati o trascurati (nel campo della popolazione, ma anche in quello dell’energia e dell’ambiente), sia perché forniscono alle opposizioni e alle opinioni pubbliche dei vari Paesi strumenti di stimolo e di controllo sull’operato dei governi.

Un secondo livello temporale, che può correre in parallelo con il primo, potrebbe consistere nel favorire la creazione e/o il potenziamento di unioni o confederazioni di Stati, possibilmente a dimensione regionale. Si potrebbero, per es., prendere in considerazione delimitazioni territoriali quali sono quelle delle organizzazioni regionali delle Nazioni Unite, e ciò al fine di creare raggruppamenti di popoli che, basandosi su una grande dimensione sia territoriale, sia economica e demografica, siano in grado di non soccombere, nel processo di globalizzazione e nella sua gestione, ai colossi nazionali (attualmente Stati Uniti, Russia, Cina, India) e alle multinazionali giganti che adesso la governano. La costituzione di tali unioni politiche regionali incoraggerebbe al loro interno lo sviluppo economico e sociale di tutte le aree attraverso un’azione politica coordinata e la libera circolazione dei capitali, delle merci e delle persone. La libera circolazione delle persone sarebbe assai positiva in presenza delle pressioni migratorie attuali e di quelle immense che ci si aspetta; e nel contempo la libera circolazione dei capitali potrebbe frenare, in mancanza di un forte principio di solidarietà internazionale, la spinta di alcuni Stati deboli a nazionalizzare i profitti e/o gli investimenti di società e di Stati forti, attuati soprattutto attraverso fondi sovrani.

Sulla strada di costituire unioni politiche a dimensione regionale si ritrovano al momento segnali contrastanti, ma globalmente deboli e non sempre incoraggianti. In America Latina si sta tentando di superare una crisi non irrilevante del MERCOSUR (Mercado Común del Sur), che deriva dall’essere troppo diversi i modelli di sviluppo e di governo dei singoli Paesi; nell’America Settentrionale e Centrale, il NAFTA (North Amer­ican Free Trade Agreement) è in forte crisi, sia perché non ha favorito abbastanza gli investimenti in Messico, sia perché non ha bloccato l’‘eccesso’ di emigrazione dal Messico; nell’Unione Europea si hanno solo timidi e incerti segnali di ripresa, fra cui positivi sono quelli di una volontà (si spera generalizzata) di collaborazione con il Sud del Mediterraneo; nell’ASEAN (Association of South East-Asian Nations) si segnala una forte crescita degli elementi di collaborazione necessari per fronteggiare Cina e India; nell’Unione africana (UA) la crescita è assai modesta.

Può darsi che una spinta convinta e sicura alla costituzione politica di unioni regionali, anche più vaste di quelle attualmente in costruzione, venga da una lucida, progressiva considerazione e presa d’atto di alcune paure, quali possono essere quelle dell’invasione migratoria, del collasso ecologico, della crisi energetica, della crisi alimentare, di crisi politico-militari regionali; di soccombere, nell’arena della globalizzazione, di fronte alle grandi potenze nazionali e multinazionali, di altre possibili e devastanti forze, anche di natura epidemiologica.

Le tendenze economiche, demografiche, sociali e culturali in atto – che si manifestano nell’aumento degli scambi commerciali, dei flussi finanziari, dei flussi migratori e delle comunicazioni, a partire dalla televisione e poi, anche più pervasivamente, da Internet e dai nuovi cellulari – alimentano un continuo incrociarsi e mescolarsi di culture e religioni, oltre che di popoli, di atteggiamenti e di comportamenti, e cancellano quindi o attenuano, magari con scontri, frontiere millenarie. Per contrastare positivamente la globalizzazione, questa dell’enorme dilatazione e della fortissima riduzione del numero delle entità politico-territoriali sembra essere una delle poche vie di uscita per ‘assorbire’ pressioni demografiche incontenibili e devastanti, perché relative a miliardi di persone, per rimanere appieno dentro l’economia globale e più in generale per stabilire, proprio grazie a queste tendenze, nuove relazioni internazionali al fine di ridurre le iniquità e le grandi disuguaglianze esistenti nel mondo e assicurare un futuro di pace, o forse solo limitare i rischi di tensioni e guerre.

È oggi, o quasi, che per i macrofenomeni si decide che cosa sarà il mondo del 2050, e si prepara quello che sarà nel 2100. È più che mai necessario tentare di prevedere alcuni possibili percorsi delle basilari variabili che influenzeranno i prossimi decenni, analizzare le leggi che regolano tali percorsi e valutarne auspicabilità e compatibilità.

La prima variabile è costituita dalla grande crescita demografica, che permane e che entro il 2050 porterebbe la Terra a popolarsi di ulteriori 2,5 miliardi di persone, con straordinarie differenze territoriali. Il peso demografico dei Paesi al presente ricchi potrebbe scendere dall’attuale 18,3 al futuro 13,5%, i Paesi emergenti scenderebbero dal 69,6 al 67,5% (corrispondente in cifra assoluta a oltre 1,5 miliardi di persone), e infine la quota dei Paesi poveri salirebbe dal 12,1 al 19,0% (in cifra assoluta circa 1 miliardo). Ma tale crescita demografica si attua anche con il fortissimo aumento della popolazione urbana, che fra il 2005 e il 2030, secondo le proiezioni dell’ONU, dovrebbe crescere di 1,763 miliardi (da 3,150 a 4,913) – di cui 113 milioni nei Paesi sviluppati, 1,327 miliardi nei Paesi emergenti e 321 milioni nei Paesi più poveri – mentre la popolazione rurale dovrebbe scendere da 3,314 a 3,287 miliardi. Una trasformazione demografica-economica-ambientale davvero immensa e straordinaria.

La seconda è la futura, limitata disponibilità, se non vera e propria scarsità, di alcune risorse, a partire dall’acqua e a seguire forse con cibo ed energia. Ma anche, con ogni probabilità, con la scarsità della ‘risorsa tempo’, considerando che l’accelerata trasformazione della popolazione, dell’economia, della società e della tecnologia non concede abbastanza tempo alla politica per ricercare le soluzioni tecnico-politiche e il consenso per attuarle e recuperare lo svantaggio accumulato.

La terza variabile è la tecnologia, i cui progressi e le cui innovazioni, impressionanti per intensità, persistenza e rapidità, creano discontinuità temporali e territoriali, contribuendo con ciò ad aumentare la distanza fra ricchi, dotati di capitali finanziari e umani per sfruttare appieno i progressi, e poveri, affannati in una difficile e debole rincorsa.

In quarto luogo c’è la variabile ambiente, nei cui percorsi vanno accuratamente esaminati i legami fra popolazione e mutamenti climatici a varia scala – globale, regionale, nazionale, locale, delle singole famiglie.

In quinto luogo, variabile fondamentale che lega tutto, e di cui si è detto prima, è la forma di governo, a livello globale e regionale, alla ricerca di nuovi efficienti equilibri fra capacità di governo ed equità e fra democrazia e mercato, equilibri che valgano anche per il livello attualmente nazionale, cioè per una singola collettività e per i singoli individui.

Messo nei termini più essenziali possibili, il problema è se la prosecuzione dello sviluppo economico possa essere sostenibile o no. Se sia peggio la sovrappopolazione o l’eccesso di consumi. Nel caso in cui la risposta al problema fosse la prima, si potrebbe avere una grande tragedia per l’umanità, perché si tratterebbe di estendere a tutti i popoli che si trovano ancora a medio-alta fecondità una politica che li costringa – come, per es., da tempo succede in Cina – a non avere figli o ad averne uno solo, di modo che la fecondità scenda ancora più rapidamente di quanto stia avvenendo; oppure si tratterebbe di avere un arresto alla discesa della mortalità, e magari di rialzarla riducendo per tutti la durata della vita nelle età più avanzate. Parrebbe più conveniente e appropriato ridurre i consumi, impresa straordinariamente difficile e complessa, ma comunque di medio periodo, in attesa che dopo la metà del 21° sec. la popolazione mondiale cominci – com’è del tutto probabile – a declinare grazie all’azione di sue forze endogene. Un declino peraltro che potrebbe forse creare più problemi di quanti ne possa risolvere, se non si saranno costituite le unioni politiche, di cui si è detto, all’interno delle quali compensare le grandi diversità territoriali nell’insorgenza, nella velocità e nell’intensità del declino demografico.

POVERTA’. In economia il termine p. esprime una molteplicità di significati. La p. rappresenta difatti un fenomeno legato allo sviluppo della società ed è, dunque, un fenomeno complesso analizzabile sotto diversi aspetti. La p. in senso assoluto può essere definita come la carenza dei mezzi indispensabili alla mera sussistenza dell’individuo. Ma tale definizione non è sufficiente a rendere il concetto univoco. Infatti la stessa sussistenza è definita in maniera diversa dalle varie teorie economiche. Inoltre la carenza dei mezzi è legata alle condizioni storiche di sviluppo della società (la p. di una società primitiva è diversa dalla p. di un’economia industrializzata) e varia in base al territorio in cui essa si manifesta. Queste connotazioni di relatività del concetto di p. possono essere ulteriormente ampliate in riferimento alla struttura sociale considerata. Difatti, dati il luogo e un’epoca storica, la p. non esprime soltanto la condizione di coloro che possiedono una quantità di beni materiali insufficienti alla sopravvivenza, ma anche di coloro che ne possiedono in quantità minore rispetto ad altri individui. In tal senso il concetto di p. è relativo anche alla distribuzione dei beni che si realizza nell’ambito di una medesima struttura sociale.

Peraltro, nelle società attuali, il problema della p. assume aspetti completamente diversi a seconda che si considerino paesi industrialmente avanzati o paesi arretrati. Nei primi, il livello complessivo del prodotto nazionale è abbastanza alto da consentire un alleviamento della p. attraverso una redistribuzione; tuttavia in essi si riscontra il fenomeno delle cosiddette isole di p. , cioè di regioni sottosviluppate rispetto al resto del paese cui appartengono, o anche di zone urbane in cui si concentra un gran numero di individui poveri e in genere socialmente emarginati. Nei paesi meno sviluppati il prodotto pro capiteè invece così basso che una ripartizione di reddito fra ricchi e poveri non sortirebbe l’effetto di accrescere i beni materiali dei poveri. Mentre nei paesi sviluppati la possibilità di risolvere il problema della p. è dunque data dalle politiche redistributive, nei paesi arretrati i programmi di riduzione della p. si identificano sia con quelli rivolti a favorire la crescita economica, sia con i trasferimenti di reddito dai paesi ricchi a quelli poveri orientati verso la promozione dello sviluppo economico. È possibile peraltro parlare di p. nell’ambito di una società soltanto individuando un certo livello di riferimento (linea della p. ).

Attraverso la costruzione di un paniere si definisce lo standard di p. assoluta e relativa. Per la misura della p. assoluta si utilizza un paniere di beni e servizi essenziali in grado di assicurare alle famiglie uno standard di vita che eviti forme di esclusione sociale. Il valore monetario di tale paniere costituisce la soglia di p. assoluta per l’anno in cui è stato definito; viene aggiornato nel tempo per tenere conto delle variazioni dei prezzi di beni e servizi. Ovviamente questo modo di misurare la p. assoluta è arbitrariamente condizionato dall’identificazione del paniere; i paesi che operano tali misurazioni aderiscono a standard internazionali che stabiliscono quali beni e servizi sono considerati essenziali. La linea di p. relativa viene invece costruita attraverso indicatori statistici della distribuzione del reddito in una nazione. La p. relativa implica quindi un concetto di ‘distanza’ del reddito tra gruppi sociali ed è più vicina al concetto di disuguaglianza. Accanto a queste due macro-misure di p., l’EUROSTAT (istituto di statistica europeo) stabilisce altri standard di misurazione della p., come il rischio di p. , definito come la percentuale di individui al di sotto del 60% del reddito mediano disponibile nel paese. Tale rischio di p. viene definito persistente se gli individui stazionano in tale zona per due anni consecutivi negli ultimi tre di registrazione statistica. Queste misure vengono calcolate sia al lordo sia al netto dei trasferimenti sociali.

Lo stato di p. può anche essere visto però come l’esclusione di un individuo o di un gruppo dalla partecipazione alla vita economica e politica e dall’integrazione sociale nella comunità a cui appartiene; tale esclusione può essere originata sia da fattori soggettivi, come l’età o le condizioni di salute, sia da fattori connessi con l’organizzazione sociale nel suo complesso, come il livello di accesso ai servizi sociali, il grado di istruzione, le opportunità occupazionali, il godimento o meno di alcuni diritti di cittadinanza. Anche a livello delle istituzioni internazionali si è, perciò, considerato opportuno misurare la p. non solo in termini di reddito o di spesa per consumi ricorrendo agli indici di diffusione (o di incidenza) della p. e agli indici di intensità della p. , ma anche attraverso indici costruiti facendo riferimento alla combinazione delle diverse cause da cui la p. può dipendere. Dal 1997 l’UNDP (organismo delle Nazioni Unite finalizzato alla promozione dello sviluppo) ha studiato l’andamento della p. nei paesi industrializzati e nei paesi in via di sviluppo utilizzando l’indice di p. umana (IPU), che tiene conto non solo del reddito pro capite, ma anche delle opportunità degli individui di vivere un’esistenza accettabile. In particolare, l’IPU raggruppa in un unico indice composito quattro dimensioni di base dell’esistenza umana: la durata della vita e le condizioni di salute; l’accesso alle conoscenze; la disponibilità economica; il grado di partecipazione sociale. Questi indicatori sono stati presi in considerazione per il calcolo dell’indice di p. umana relativo sia ai paesi industrializzati sia a quelli in ritardo economico. Tuttavia, in considerazione della forte diversità esistente tra paesi avanzati e paesi in via di sviluppo, gli indicatori utilizzati per misurare le dimensioni della deprivazione in essi sono diversi. Nella costruzione dell’indice per i paesi in via di sviluppo (IPU-1) la deprivazione relativa alla longevità è rappresentata dalla percentuale di individui che hanno una speranza di vita inferiore a 40 anni, la deprivazione nelle conoscenze è espressa dalla percentuale di adulti analfabeti, la deprivazione relativa allo standard di vita è espressa in termini di percentuale di popolazione priva di accesso all’acqua potabile e ai servizi sanitari e di percentuale di bambini di età inferiore ai 5 anni gravemente o moderatamente sottopeso; nell’indice non è inclusa una misura del grado di partecipazione sociale data la difficoltà di reperire dati affidabili, sotto questo profilo, relativi a tali paesi. Nella costruzione dell’indice di p. per i paesi industrializzati (IPU-2) la deprivazione relativa alla longevità è rappresentata dalla percentuale di individui che hanno una speranza di vita inferiore a 60 anni, la deprivazione relativa alle conoscenze è data dalla percentuale di persone adulte funzionalmente analfabete, la deprivazione nello standard di vita è rappresentata dalla percentuale di popolazione che vive al di sotto della linea della p. relativa (50% del reddito pro capite) e, infine, la mancata partecipazione sociale è misurata dal tasso di disoccupazione di lungo periodo (12 mesi o più) della forza lavoro.

Quando non si opera all’interno della logica multidimensionale, per analizzare la p. e la sua evoluzione nei paesi industrializzati e in quelli in via di sviluppo, come pure per effettuare comparazioni tra i diversi paesi, vengono adottate metodologie diverse. Nelle rilevazioni ufficiali dei paesi industrializzati si fa riferimento all’ISPL (international standard of poverty line), che consente di misurare la p. in termini relativi rispetto al tenore di vita medio della popolazione. Così, si definisce povera una famiglia di due componenti che ha una spesa per consumi inferiore o uguale alla spesa media pro capite nel paese e, per famiglie di diversa ampiezza, si ricorre a coefficienti correttivi in modo da tenere conto delle economie di scala realizzabili all’aumentare della dimensione del nucleo familiare. Infine, organismi internazionali come la Banca Mondiale, per effettuare comparazioni tra paesi diversi, adottano una ‘soglia di povertà per i confronti internazionali’.

Gli ultimi decenni del Novecento hanno visto un certo incremento del tenore di vita della popolazione dei paesi in via di sviluppo. La crescita dei consumi è stata accompagnata da miglioramenti sostanziali degli indicatori sociali. Nonostante ciò, i risultati non sono stati conseguiti da tutti i paesi e lo stato di p. continua a essere un fenomeno ancora molto diffuso. Nel corso degli anni 1990 la percentuale della popolazione mondiale che viveva in condizioni di p. è andata lentamente riducendosi, ma l’andamento è stato assai differenziato tra le diverse aree del mondo. Dal 2000 le Nazioni Unite hanno lanciato il Millennium Development Goals che fissa una serie di obiettivi per la riduzione della p. nel mondo entro il 2015. Secondo il rapporto 2007, gli effetti di tali politiche iniziano a farsi consistenti. La percentuale di individui nella soglia di p. assoluta è passata da un terzo a un quinto nel periodo 1990-2004. Nelle zone più povere del mondo, l’Africa subsahariana, il tasso di p. si è ridotto di sei punti percentuali, benché l’emergenza umanitaria resti ancora molto alta. La riduzione di p. è andata di pari passo con la maggiore istruzione; il tasso di iscrizione alla scuola primaria è passato dall’80% all’88% tra il 1999 e il 2005, così come si è ridotta la mortalità infantile.

La Banca mondiale definisce p. estrema lo stato relativo a individui che vivono con meno di 1,25 dollari al giorno (in parità del potere di acquisto) e p. moderata con 2 dollari giornalieri. Nel periodo 1990-2005 la percentuale di p. estrema è passata dal 41,7% al 25,2%, ma il quadro è molto complesso se si guarda ai singoli paesi. Molta di questa riduzione è da ascriversi ai migliori standard di vita e reddito dei paesi asiatici. (v. tab.)

Il fenomeno della p. riguarda, anche se con ovvie differenze in termini assoluti, sia i paesi industrializzati sia i paesi in via di sviluppo. La p. in Italia, come in Europa, si presenta direttamente correlata con le trasformazioni della struttura produttiva e del sistema sociale che hanno caratterizzato gli anni 1990 e i primi anni del 2000. È emersa una realtà complessa del disagio individuale e di gruppo: le disuguaglianze dei redditi e dei consumi; l’articolazione delle situazioni di emarginazione nel territorio, nelle grandi città e nelle campagne; l’aggravarsi della mancata soddisfazione di taluni bisogni fondamentali come la casa, la salute, l’occupazione, l’istruzione; le disparità intergenerazionali; le nuove forme di p. in rapporto alla cultura e all’accesso alle nuove tecnologie. Per il 2007-08 l’UNDP ha calcolato con riferimento ai paesi industrializzati l’indice di p. umana. Sulla base dei valori ottenuti per l’IPU-2 la Svezia è il paese con p. umana più bassa (6,3%), seguita da Norvegia (6,8%) e Paesi Bassi (8,1%). Stati Uniti e Regno Unito registrano invece una p. umana più elevata, pari rispettivamente al 15,4% e al 14,8%. Per l’Italia è stato calcolato sempre nello stesso periodo un IPU-2 pari al 29,8%.

A causa delle difficoltà insite nei concetti non direttamente economici usati per stabilire il livello di p., le indagini ufficiali sulla p. in Italia postulano una sostanziale identità tra benessere e livello di reddito o capacità di spesa delle famiglie. La metodologia ufficialmente adottata in Italia è basata sull’ISPL. Per misurare la p. in termini relativi si utilizzano i dati sulle spese per consumi desunti dall’ISTAT sui consumi delle famiglie italiane. Secondo l’ISTAT, nel 2008 le famiglie in condizione di p. relativa in Italia erano 2.737.000, pari all’11,3% delle famiglie residenti. Si trattava complessivamente di 8.078.000 individui, il 13,6% dell’intera popolazione. La spesa media mensile per persona rappresentava la soglia di p. per una famiglia di due componenti e corrispondeva, nel 2008, a 996,67 euro al mese (+1,4% rispetto alla linea del 2007). Le famiglie composte da due persone con una spesa media mensile pari o inferiore a tale valore vengono quindi classificate come povere. La diminuzione dell’incidenza della p. relativa nel 2008 rispetto al 2004 non risulta statisticamente significativa e mostra quindi come la p. sia sostanzialmente stabile. Il fenomeno continua a essere maggiormente diffuso nel Mezzogiorno (23,8%), dove l’incidenza di p. relativa è quasi 5 volte superiore a quella osservata nel resto del paese (4,9% nel Nord e 6,7% nel Centro), e tra le famiglie più ampie. Si tratta per lo più di coppie con tre o più figli e di famiglie con membri aggregati (l’incidenza è rispettivamente del 25,2% e del 19,6% ). La situazione è più grave se i figli hanno meno di 18 anni: l’incidenza di p. tra le famiglie con tre o più figli minori sale, infatti, in media, al 27,2% e, nel Mezzogiorno, addirittura al 38,8%. Il fenomeno è inoltre più diffuso tra le famiglie con anziani, nonostante il miglioramento osservato negli ultimi anni: se l’anziano in famiglia è uno solo l’incidenza è prossima alla media nazionale (11,4%), se ve ne sono almeno due sale al 14,7%. La p. è inoltre associata a bassi livelli di istruzione della persona di riferimento (l’incidenza è del 17,9% quando è a capo della famiglia una persona con al più la licenza elementare), a bassi profili professionali (tra le famiglie con componenti occupati è povero il 14,5% delle famiglie con a capo un operaio o assimilato) e, soprattutto, all’esclusione dal mercato del lavoro: l’incidenza di p. tra le famiglie con persona di riferimento in cerca di occupazione è pari al 33,9% e sale al 44,3% se in questa stessa situazione si trovano almeno due componenti (contro il 9,6% delle famiglie in cui nessun componente è alla ricerca di lavoro).

Osservando il fenomeno con un maggior dettaglio territoriale, l’Emilia-Romagna appare la regione con la più bassa incidenza di p. (pari al 3,9%), seguita dalla Lombardia e dal Veneto, con valori inferiori al 5%. La situazione più grave è, invece, quella delle famiglie residenti in Sicilia, dove il valore osservato, pari al 28,8%, è significativamente superiore rispetto alla media.

Le politiche economiche utilizzate per affrontare il problema della p. si possono dividere in tre gruppi principali: le misure intese ad assicurare il soddisfacimento dei bisogni di base; le politiche di sviluppo economico; le politiche di redistribuzione del reddito.

Quanto ai bisogni di base, sono oggetto d’intervento pubblico soprattutto l’alimentazione e le cure mediche. Il soddisfacimento dei bisogni nutrizionali di sussistenza è l’obiettivo principale delle politiche di distribuzione alimentare che sono particolarmente importanti nei paesi in via di sviluppo, ma hanno un notevole peso anche in alcuni paesi industrializzati. Allo stesso modo le cure mediche gratuite per i meno abbienti, benché facciano parte dei meccanismi di Welfare State diffusi in tutto il mondo civilizzato, assumono particolare importanza nei paesi in via di sviluppo, in combinazione con le misure di igiene, la fornitura di acqua potabile e l’educazione sanitaria.

Le politiche di sviluppo economico costituiscono l’opzione più efficace per affrontare il problema della p. perché si propongono di eliminarne le cause, instaurando meccanismi autonomi di produzione del reddito nei gruppi dei poveri. Le istituzioni economiche internazionali (UNDP, OCSE, Banca Mondiale, FMI) hanno sottolineato più volte la centralità del problema della p. tra gli obiettivi della loro azione. Nel 2001 la Banca Mondiale ha proposto una strategia da seguire per la riduzione della p. basata su tre obiettivi fondamentali: promozione delle opportunità, facilitazione dell’empowerment (acquisizione di strumenti di conoscenza e di possibilità di partecipazione sociale e politica), accrescimento della sicurezza. Le istituzioni internazionali, oltre che contribuire al raggiungimento degli obiettivi indicati, hanno il compito di intervenire per consentire ai paesi in via di sviluppo di dedicare risorse al superamento dello stato di p. in cui versano. In questa direzione è orientata l’iniziativa per la riduzione del debito adottata dal FMI e dalla Banca Mondiale, tendente a ridurre a livelli sostenibili il peso del debito estero dei paesi fortemente indebitati. Allo stesso obiettivo tende una forma di facilitazione creditizia introdotta dal FMI nel 1999, la Poverty Reduction and Growth Facility (PRGF), che mira a mettere fondi a disposizione dei programmi a favore dei poveri che siano definiti dagli stessi paesi in via di sviluppo (i 77 paesi a basso reddito) nell’ambito della loro strategia orientata allo sviluppo e alla lotta contro la povertà.

RICCHEZZA. Quantità di risorse economiche accumulate da un individuo o da un intero Paese fino a una certa data. Per questa ragione, ha scritto Angelo Baglioni, la r. è definita come una grandezza ‘stock’, da non confondere con un’altra grandezza ‘flusso‘ molto importante: il reddito, che designa l’insieme dei beni e servizi prodotti in un Paese in un determinato periodo di tempo, per es. un trimestre (reddito nazionale); oppure le entrate conseguite da un individuo in un certo periodo, per es. un anno (reddito individuale).

Ricchezza finanziaria e ricchezza reale. La r. può essere detenuta in diverse forme e indica l’insieme di attività finanziarie possedute da un individuo o da una collettività. Gli strumenti che compongono la r. finanziaria possono differire tra loro per il rendimento atteso, per il rischio e per la liquidità. La scelta della composizione della r. finanziaria è oggetto della teoria di portafoglio che illustra come un operatore razionale cerchi di combinare al meglio i mezzi finanziari in cui investe, tenendo conto delle sue preferenze e degli strumenti disponibili sul mercato. La r. reale è invece l’insieme delle attività reali detenute da un individuo o da una collettività, a partire da immobili e terreni. Rispetto a quella finanziaria, questa forma di r. si caratterizza per la scarsa liquidità: la vendita di una casa è un processo assai più lungo e costoso rispetto a quella di un titolo (azione, obbligazione) scambiato sui mercati finanziari. D’altra parte, la r. reale presenta il vantaggio che il suo valore non viene intaccato da un eventuale processo inflazionistico, mentre quella finanziaria subisce l’erosione dovuta all’inflazione. Con riferimento a un Paese, la r. reale comprende le sue strutture produttive (impianti industriali) e le infrastrutture: strade, ferrovie, reti informatiche. Queste risorse sono frutto degli investimenti passati: il loro livello e la loro qualità condizionano in modo cruciale le possibilità di generare redditi futuri e crescita economica. Anche per un individuo, la r. accumulata dipende dai risparmi e dagli investimenti effettuati in passato.

Sia la r. finanziaria sia quella reale sono soggette a oscillazioni di valore nel tempo. In particolare, alcune forme di investimento finanziario, come le azioni e i titoli di debito quotati in borsa, possono andare incontro a variazioni molto repentine, e dare luogo al cosiddetto effetto ricchezza. Ciò avviene quando le oscillazioni del valore della r. si riflettono sul livello dei consumi, per es. allorché il valore delle azioni si riduce, e coloro che hanno investito una quota rilevante della loro r. in azioni sono indotti a diminuire i loro consumi per compensare il fatto di essere diventati più poveri. Tale comportamento può peraltro avere effetti pro-ciclici se, per es., mentre la borsa scende, scontando una fase negativa del ciclo economico, il suddetto decremento dei consumi aggrava la fase congiunturale già debole.
Ricchezza umana. Un’importante forma di r. è quella umana. Per un individuo, il ‘capitale umano’ consiste nella qualità dell’istruzione ricevuta e nelle esperienze lavorative maturate nel corso del tempo, oltre che, naturalmente, nelle sue doti naturali (per es. la salute) e le capacità personali (per es. l’intelligenza, ma anche le conoscenze e le competenze ricevute in famiglia). Lo stesso vale a livello aggregato, cioè con riferiomento a un intero Paese. Anche la r. umana, al pari di quella reale e finanziaria, dipende dagli investimenti fatti in passato. Per accrescere il proprio capitale umano, una persona deve fare esperienze professionali, frequentare la scuola e l’università e così via, rinunciando per un certo periodo di tempo al reddito che potrebbe ottenere lavorando. Analogamente, una nazione può migliorare la qualità del suo capitale umano investendo risorse nell’istruzione e nei programmi di formazione all’interno dei luoghi di lavoro e altrove.

 

FAME. L’avvento della globalizzazione non ha sconftto la fame nel mondo. Denunciando gli enormi costi sociali ed economici della malnutrizione, il Direttore Generale della FAO, José Graziano da Silva, ha sollecitato un impegno più risoluto per sradicare fame e malnutrizione nel mondo. Nel suo intervento per il lancio della pubblicazione annuale della FAO The State of Food and Agriculture – SOFA 2013 (“Lo Stato dell’alimentazione e dell’agricoltura”) Graziano da Silva ha dichiarato che anche se qualche progresso è stato fatto, “è ancora lunga strada da percorrere “.

“Il messaggio della FAO è che occorre lottare fino a quando fame e malnutrizione non saranno del tutto sradicate”, ha dichiarato.

Nel rapporto Food systems for better nutrition (“Sistemi alimentari per una migliore nutrizione”) si fa notare che se è vero che sono circa 870 milioni le persone che nel 2010-2012 soffrivano la fame, questa cifra rappresenta solo una piccola percentuale dei miliardi di persone la cui salute, il cui benessere e la cui vita sono messi a repentaglio dalla malnutrizione.

Secondo il rapporto SOFA 2013, sono circa due miliardi le persone che soffrono di una o più carenze di micronutrienti, mentre 1,4 miliardi sono in sovrappeso, di cui 500 milioni obesi. Il 26% dei bambini al di sotto dei cinque anni sono rachitici e presentano disturbi della crescita e il 31% di essi soffre di carenza di vitamina A.

Il costo della malnutrizione per l’economia globale, in termini di perdita di produttività e di costi sanitari sono “alti in modo inaccettabile” e in alcuni casi rappresentano fino al 5% del prodotto interno lordo globale – 3.500 miliardi dollari, vale a dire 500 dollari a persona. Questa cifra è quasi l’intero PIL annuo della Germania, la più grande economia d’Europa.

Sul piano sociale, la malnutrizione infantile e materna continua a minare la qualità e l’aspettativa di vita di milioni di persone, mentre i problemi di salute correlati all’obesità, ad esempio le malattie cardiache e il diabete, colpiscono altri milioni di persone.

Per combattere la malnutrizione, il SOFA sostiene che una dieta sana ha inizio dalla qualità degli alimenti e da corretti sistemi agricoli. Il rapporto evidenzia che il modo in cui coltiviamo, raccogliamo, trasformiamo, trasportiamo e distribuiamo i prodotti alimentari influisce in modo determinante su ciò che mangiamo, e che migliori sistemi alimentari possono rendere il cibo più accessibile, più vario e più nutriente.

Tra le raccomandazioni specifiche contenute nel rapporto:

• Impiegare politiche agricole, investimenti e ricerca appropriati, per incrementare la produttività non solo di cereali di base come il mais, il riso e il grano, ma anche dei legumi, della carne, del latte, della frutta e verdura, tutti alimenti ricchi di sostanze nutritive.

• Tagliare le perdite e gli sprechi, che si calcola oggi ammontino a circa un terzo del cibo prodotto annualmente per il consumo umano. Questo potrebbe contribuire a rendere il cibo più accessibile e abbordabile, oltre a ridurre la pressione sul suolo e sulle altre risorse.

• Migliorare la qualità nutrizionale della filiera alimentare, aumentando la disponibilità e l’accessibilità a una grande varietà di alimenti. Sistemi alimentari organizzati correttamente sono fondamentali per avere diete più sane e diversificate.

• Aiutare i consumatori a fare delle buone scelte alimentari fornendo maggiori informazioni ed educazione sul cibo.

• Migliorare la qualità nutrizionale degli alimenti in modo da eliminarne gli elementi nocivi.

• Rendere i sistemi alimentari più rispondenti alle esigenze delle madri e dei bambini. La malnutrizione durante i critici “primi 1000 giorni” dal concepimento può causare danni permanenti alla salute delle donne, e nei bambini, disabilità fisica e cognitiva.

Il ruolo delle donne

Secondo il rapporto conferendo alle donne un maggiore controllo sulle risorse e sul reddito, si otterrebbero benefici immediati per la loro salute e per quella dei loro figli. Politiche, interventi e investimenti in tecnologie agricole di risparmio di manodopera e nelle infrastrutture rurali, oltre a sistemi di protezione sociale e servizi, possono anche dare un contributo importante alla salute e alla nutrizione delle donne, dei neonati e dei bambini.

Alcuni progetti sono riusciti a far aumentare i livelli di nutrizione, tra questi alcuni che hanno favorito l’incremento della produzione, della commercializzazione e del consumo di verdure e legumi locali in Africa orientale, altri che hanno promosso la creazione di orti domestici in Africa occidentale e di sistemi agricoli che uniscono la coltivazione di verdure con l’allevamento del bestiame, insieme ad attività generatrici di reddito, in alcuni paesi asiatici; altri ancora che hanno incoraggiato l’allevamento di colture di base, come le patate dolci, per aumentare il contenuto di micronutrienti, e le partnership pubblico-privato per arricchire prodotti come lo yogurt o l’olio da cucina con sostanze nutritive.

Secondo il rapporto far sì che i sistemi alimentari migliorino la nutrizione è un compito complesso, che richiede un forte impegno politico e una capacità di leadership ai livelli più alti, oltre a partenariati di ampio respiro e azioni coordinate con altri settori importanti come la sanità e l’istruzione.

“Un gran numero di attori e istituzioni devono lavorare insieme, in tutti i settori, per riuscire a ridurre in modo più efficace la sotto-nutrizione, la carenza di micronutrienti, ed anche il sovrappeso e l’obesità”, si legge nel rapporto.

“E’ dunque un’assoluta priorità istituire una governance dei sistemi alimentari che fornisca leadership, che coordini in modo efficace e che promuova la collaborazione tra i tanti soggetti coinvolti”.

CLIMA. Altrettanto preoccupante è la situazione ambientale. A l’occasion de la Journée mondiale des océans, le 8 juin, le Secrétaire général de l’ONU a rappelé dans un message que les océans, du commerce à l’alimentation en passant par la régulation du climat, faisaient partie intégrante de l’humanité tout entière. « Cela est d’autant plus vrai pour les populations côtières dont les revenus et la culture sont irrévocablement liés à la mer », poursuit M. Ban, qui a ajouté que si « nous voulons tirer pleinement parti des océans, nous devons inverser la tendance et enrayer la dégradation du milieu marin causée par la pollution, la surpêche et l’acidification. » « J’invite toutes les nations à œuvrer à cette fin, notamment en adhérant à la Convention des Nations Unies sur le droit de la mer et en la mettant en application », affirme le Secrétaire général.« Unissons nos efforts en vue de trouver de nouveaux modes d’action afin d’assurer la pérennité des océans, pour l’humanité et la planète », conclut Ban Ki-moon.

IL RUOLO DELLO STATO. Il ruolo dello Stato nelle economie capitalistiche è sempre stato definito dalla teoria economica sulla base di tre elementi: a) le modalità di funzionamento del sistema economico, considerato nella sua capacità di autoregolazione sotto il duplice aspetto della piena utilizzazione delle risorse produttive e della promozione dello sviluppo; b) le valutazioni di ordine equitativo riguardanti gli effetti che i meccanismi di mercato producono sulla distribuzione del reddito e della ricchezza e, quindi, sulla coesione sociale in senso lato; c) l’idoneità dei processi decisionali concretamente ipotizzabili a favorire scelte e comportamenti coerenti con un’ordinata evoluzione della vita economica.

Con riferimento al primo punto, la teoria neoclassica ha dimostrato che un sistema concorrenziale, verificate alcune condizioni, per una certa distribuzione delle risorse e in assenza di vincoli non riconducibili alla tecnologia e alla dotazione di fattori produttivi, è in grado di produrre risultati ottimali, nel senso dato al termine da Vilfredo Pareto (è impossibile raggiungere una configurazione di prezzi e quantità che comporti il miglioramento del livello di utilità di un individuo senza che a esso sia associata la diminuzione dell’utilità di almeno un altro individuo). Le condizioni che devono essere verificate perché sia possibile associare un sistema di concorrenza perfetta e l’ottimalità, nel senso inteso da Pareto, sono stringenti, in quanto riguardano l’informazione completa e simmetrica per tutti gli operatori economici, la completezza dei mercati, l’assenza di rendimenti crescenti di scala, oltre che l’inesistenza di esternalità e di beni pubblici. Dalla realistica ipotesi che alcune o tutte queste condizioni non siano in concreto verificate emerge un ruolo necessariamente di competenza dello Stato, complementare al (oppure sostitutivo del) funzionamento del sistema capitalistico.

Per quanto riguarda il secondo punto, la definizione in base a meccanismi di mercato delle remunerazioni dei titolari dei fattori produttivi e dell’allocazione dei diritti di proprietà, anche se coerente con principi di razionalità economica, può determinare processi di concentrazione del reddito o delle ricchezze incompatibili con il mantenimento di un equilibrio sociale riconducibile allo stesso concetto di democrazia politica. Da questa considerazione emerge un ruolo dell’autorità pubblica con finalità redistributive o di controllo della distribuzione del reddito, che trova concreta realizzazione con il sistema tributario e con la spesa pubblica a finalità sociale.

Infine, la stessa dinamica della vita politica in tutte le epoche storiche ha dimostrato che l’intervento pubblico nella sfera economica e sociale deve trovare un adeguato inquadramento in norme che regolino l’attività di governi e Parlamenti. Gli effetti disincentivanti prodotti da una pressione fiscale eccessiva o i fenomeni inflazionistici associabili a inappropriate forme di finanziamento dell’attività pubblica rappresentano, nella sostanza, manifestazioni di mancato rispetto di norme fondamentali.

L’individuazione del ruolo dello Stato all’inizio di questo secolo deve necessariamente partire da un esame delle aree problematiche prima indicate. Le conclusioni non possono tuttavia essere univoche, dipendendo essenzialmente dalla più generale impostazione ideologica dell’osservatore, oltre che dalle specifiche circostanze di carattere economico e sociale del Paese o dell’area politica oggetto di analisi. Un giudizio di rilevanza concreta, e di superabilità con appropriati interventi di politica economica, dei fattori di allontanamento dai presupposti analitici del modello concorrenziale, porta a conclusioni, in termini di estensione dell’intervento pubblico, più radicali di quanto non si verifichi quando si valuti fondamentalmente realistico il modello concorrenziale (o comunque in concreto non migliorabile). Analogamente, il diverso peso attribuibile agli effetti disincentivanti o alle considerazioni equitative porta a soluzioni non univoche per i problemi redistributivi. Infine, le stesse regole di governo della finanza pubblica trovano necessariamente fondamento e giustificazione nella lettura che viene data delle specifiche situazioni politiche ed economiche.

Le opzioni di fondo in tema di definizione del ruolo economico dello Stato possono essere colte, secondo il nostro giudizio, organizzando la materia in quattro nuclei: a) interventi nella sfera sociale, rientranti nell’ambito del welfare state; b) regolazione dei processi produttivi; c) sistema tributario; d) regole decisionali in materia di bilancio.

WELFARE STATE. E’ l’insieme delle istituzioni, pubbliche e private, che svolgono due funzioni essenziali: a) garantire a tutti i cittadini le risorse necessarie per un’esistenza dignitosa (cosiddetta funzione assistenziale); b) fornire copertura contro i grandi rischi dell’esistenza (ignoranza, malattia, vecchiaia e disoccupazione), a fronte dei quali le capacità individuali e le funzionalità di mercato sono limitate (funzione assicurativa).

In termini di teoria economica, sulla base dei sintetici riferimenti precedentemente fatti, nell’articolazione dello Stato sociale si possono individuare sia finalità di coesione sociale (quando si assicura a tutti i cittadini un minimo di risorse), sia, e più significativamente, finalità assicurative, giustificate dal venir meno di alcune delle condizioni che determinano l’ottimalità del meccanismo concorrenziale (Barr 2001). È su questa seconda funzione, a nostro giudizio predominante sia sul piano quantitativo sia sul piano dei principi ispiratori nella costituzione dello Stato sociale, che ci concentriamo in modo particolare. Con riferimento alle ipotesi sull’informazione, certamente si può affermare che l’individuo vive in condizione di informazione limitata in relazione all’accesso ad alcuni servizi (si pensi alla sanità); è inoltre tendenzialmente miope, ossia non in grado di prevedere adeguatamente il futuro, e si giustificano quindi forme sostitutive delle scelte individuali (si pensi all’istruzione obbligatoria o a meccanismi previdenziali non volontari). Con riferimento alla completezza dei mercati, nella realtà alcuni di quelli in cui gli individui potrebbero acquistare determinati beni o servizi da loro desiderati non esistono: la copertura assicurativa sanitaria privata è preclusa agli individui ad alto rischio, quali sono, per es., gli individui in età avanzata. Inoltre, le imprese private non sono tipicamente in grado di coprire i rischi sociali, quale l’inflazione, riuscendo pertanto fortemente limitata la possibilità di ottenere adeguate forme di garanzia contro la caduta del reddito reale nella vecchiaia.

Come sintetizza Kenneth J. Arrow (Uncertainty and the welfare economics of medical care, «The Amer-ican economic review», 1963, 53, 5, pp. 941-73), quando il mercato non è in grado di condurre a uno stato ottimale (come accade in un contesto di asimmetria informativa o d’incompletezza dei mercati), la società prenderà, almeno parzialmente, coscienza del problema e istituzioni sociali sorgeranno con il fine di migliorare gli esiti di mercato.

Le precedenti considerazioni spiegano per quale motivo in tutti i Paesi, e in particolare in quelli sviluppati, sia presente un sistema di protezione sociale strutturato. Ma la diversa lettura dei fallimenti di mercato, o dell’allontanamento dalle condizioni ottimali, spiega perché le concrete articolazioni siano anche molto differenziate.

In questo quadro è utile fare riferimento alla tradizionale classificazione dei modelli di welfare state: welfare pubblico, welfare aziendale e welfare fiscale. Nel welfare pubblico la copertura è tendenzialmente universale, anche se le prestazioni, in particolare quelle di natura previdenziale, sono differenziate, dipendendo dalla storia contributiva o retributiva individuale; il finanziamento deriva dai contributi sociali o dalla fiscalità generale. Nel welfare aziendale il diritto alla prestazione deriva da un contratto di lavoro con uno specifico datore, i cui effetti si possono estendere anche a un periodo successivo alla cessazione del rapporto. Le prestazioni sono finanziate da contributi a carico del datore di lavoro o del lavoratore. Il welfare fiscale si risolve invece nella concessione di agevolazioni sotto forma di deduzioni o di detrazioni d’imposta subordinate alla stipulazione di assicurazioni individuali o sanitarie o previdenziali; sono comunque previste forme di tutela destinate alle fasce più povere della popolazione.

I tre modelli nella realtà di ogni Paese si sovrappongono, non essendo possibile individuare un modello puro. È tuttavia possibile distinguere l’ispirazione fondamentale, e le linee di tendenza, nelle principali aree geografiche. È certo che il modello pubblico caratterizza i Paesi europei, con l’unica eccezione rilevante costituita dal sistema pensionistico del Regno Unito, che ha una forte componente non pubblica. Il modello aziendale è invece tipico degli Stati Uniti, sia per la sanità sia per la previdenza, anche se l’intervento diretto pubblico è molto importante in entrambi questi comparti del sistema di protezione sociale: per gli Stati Uniti è ragionevole parlare di sistema misto. Infine, il welfare fiscale, pur essendo riconoscibile in varia forma in tutti i Paesi, non ha avuto finora uno sviluppo organico: merita di essere tuttavia richiamato in questa sede, perché le proposte di riforma del welfare portate avanti negli Stati Uniti negli ultimi anni sembrano tendere a un rafforzamento della componente individuale previdenziale e alla progressiva introduzione di conti sanitari individuali, superando il modello di assicurazione fondato sul rapporto di lavoro. Sulla stessa linea di sviluppo delle componenti individuali si collocano inoltre le proposte di introduzione di vouchers scolastici, al fine di garantire la possibilità di scelta delle famiglie in un quadro di neutralità da parte dello Stato nel finanziamento delle scuole pubbliche e di quelle private.

La valutazione delle implicazioni dei diversi modelli di Stato sociale è essenziale in ogni analisi del ruolo dell’operatore pubblico, sia perché gli interventi per la protezione sociale costituiscono la componente più rilevante dell’azione delle amministrazioni pubbliche (sia direttamente attraverso la spesa, sia indirettamente attraverso le agevolazioni fiscali), sia perché le erogazioni assegnate alla protezione sociale sembrano destinate ad aumentare in futuro, se non altro per ragioni di carattere demografico. Gli effetti del welfare state saranno di seguito considerati sotto diverse angolature: universalismo, collocazione del rischio e sostenibilità macroeconomica.

Al di là di specifiche articolazioni, il welfare pubblico è tendenzialmente universalistico. L’assistenza sanitaria è riconosciuta a tutti i cittadini senza che, in teoria, sia ammessa alcuna discriminazione sulla base del reddito individuale, configurando il diritto alla salute come un diritto di cittadinanza. Il diritto alla pensione è esteso a tutta la popolazione, o perché deriva da un precedente rapporto di lavoro o perché manifestazione di una componente strettamente assistenziale, sotto forma di assegno o pensione sociale. In tutti i Paesi, in forme più o meno strutturate o con vincoli all’accesso più o meno stringenti, la comunità si fa carico delle situazioni di indigenza.
All’ispirazione universalistica non corrisponde tuttavia omogeneità delle prestazioni per alcuni importanti comparti. Escludendo la sanità, le pensioni pubbliche sono nei Paesi europei differenziate in ragione della storia contributiva o retributiva individuale. Quando si fa riferimento alla storia reddituale, le prestazioni tendono a garantire, in condizioni di massima durata del rapporto di lavoro, il mantenimento del tenore di vita nel periodo di pensionamento. Quando si fa riferimento alla storia contributiva, si garantisce un’uguaglianza di rendimento dei contributi versati. Per quanto riguarda invece l’istruzione, al di là della scuola dell’obbligo, l’accesso ai gradi superiori viene nella maggior parte dei casi a dipendere dal merito individuale in un contesto di finanziamento fondato sulla fiscalità generale.

Con riferimento a sanità e previdenza, le conseguenze del welfare aziendale sono diverse in termini di accesso rispetto a quello pubblico. Negli Stati Uniti il sistema pensionistico privato copre la totalità dei dipendenti pubblici e circa il 50% di quelli privati. Nel settore privato la partecipazione non è peraltro distribuita in modo omogeneo, aumentando al crescere del reddito, oltre a essere più elevata nelle grandi imprese, nei settori sindacalizzati e fra i lavoratori a tempo pieno. Una distribuzione analoga vale per le assicurazioni sanitarie private promosse dai datori di lavoro (Artoni, Casarico 2008).

L’accesso relativamente circoscritto al welfare aziendale spiega la presenza di significative componenti pubbliche negli Stati Uniti. La Social security eroga prestazioni decrescenti al crescere del reddito alla generalità dei lavoratori, per importi comunque relativamente bassi: solo i lavoratori che godono della doppia protezione pubblica e privata raggiungono prestazioni assimilabili a quelle europee. Per quanto riguarda l’assistenza sanitaria, due importanti programmi pubblici (Medicaid e Medicare) sono destinati a poveri e anziani, rimanendo comunque non assicurato circa il 17% della popolazione.

Non è possibile in questa sede interrogarsi sulle cause che hanno portato negli Stati Uniti a un modello sostanzialmente discriminante fra i diversi segmenti della popolazione. Qui è possibile solo accennare al fatto che la presenza di forti minoranze etniche, rinnovatesi nel tempo, ha reso possibile limitare il pieno accesso al sistema della protezione sociale. Si può ancora ricordare che il sindacato americano è stato tradizionalmente più corporativo e legato a specifiche realtà aziendali. Questo ha portato a ricercare benefici legati all’appartenenza a grandi imprese, o al settore pubblico, senza che analoga attenzione fosse rivolta alla generalità della popolazione.

In estrema sintesi, si può affermare che il welfare aziendale e quello pubblico si distinguono fortemente per l’elemento universalistico, presente soltanto nel secondo. Rimane il fatto che anche in modelli caratterizzati dal welfare aziendale la presenza pubblica è comunque consistente (negli Stati Uniti la spesa pubblica per welfare raggiunge circa il 12%, un livello analogo a quella privata).

Nelle forme che va assumendo, il welfare fiscale si può ritenere un’evoluzione di quello aziendale: si riduce fortemente il ruolo del datore di lavoro che, in linea generale, viene sostituito da agevolazioni fiscali finalizzate a ridurre il costo dell’accesso, in particolare, ad assicurazioni sanitarie e previdenziali. In questo caso emerge il problema della capacità di larghe fasce della popolazione di far fronte agli oneri corrispondenti; si può ragionevolmente ritenere che i problemi di copertura universalistica, di garanzia di prestazioni adeguate sul piano quantitativo e qualitativo, si accentueranno ulteriormente nel welfare fiscale rispetto a quello aziendale.

Nei modelli pubblici, che si articolano e si fondano per il loro finanziamento sul potere impositivo dell’autorità pubblica, il rischio di inadeguatezza o di annullamento delle prestazioni è a carico della collettività che, in linea di principio, è in grado di rispondere a shock di segno negativo.

Nel welfare aziendale il rischio è posto a carico dell’impresa. Storicamente il welfare aziendale, nelle forme assunte negli Stati Uniti, è stato associato alla crescita delle grandi imprese manifatturiere, in grado di garantire ai loro dipendenti rilevanti benefici sotto forma di piani sanitari e di piani pensionistici; nelle forme previdenziali era caratteristica la commisurazione della prestazione al salario raggiunto nella fase finale della vita lavorativa. In questi piani, a beneficio definito, il rischio in caso di evoluzione negativa per mancata costituzione delle riserve oppure per cattivo andamento dei mercati finanziari era interamente a carico delle imprese, così come a loro carico era il rischio connesso all’allungamento della vita media dei lavoratori in pensione o all’aumento delle spese mediche, quando l’assistenza sanitaria si estendeva al periodo del pensionamento.

Le modifiche nella struttura economica mondiale, con l’indebolimento relativo dei settori manifatturieri nei Paesi di originaria industrializzazione, spiegano perché in molte imprese sia diventato arduo il mantenimento delle prestazioni ai livelli previsti dai piani originari. Dal punto di vista istituzionale, è stato avviato un processo di trasformazione dei piani pensionistici che progressivamente hanno abbandonato il beneficio definito per spostarsi alla contribuzione definita (in cui la prestazione dipende dall’andamento dei mercati finanziari), con la conseguente attribuzione del rischio al singolo lavoratore. In sintesi, le modifiche intervenute negli ultimi anni sono state caratterizzate dallo spostamento del rischio dalle imprese ai lavoratori, avviando la formazione, in alcuni casi, o il rafforzamento, in altri, di un welfare fondato su contratti individuali.

Come abbiamo già osservato, in molti Paesi le linee di riforma, attuate o annunciate, si muovono in questo senso. Nell’individuazione del ruolo dello Stato, ci si deve chiedere fino a che punto l’individuo è in grado di accollarsi rischi, sia pure attraverso la mediazione assicurativa, che investono la sua esistenza in un contesto di radicale incertezza sugli andamenti economici e demografici o per eventi che investono la generalità della popolazione. Si pongono in altri termini due problemi: la capacità individuale di sostenere gli oneri assicurativi e la capacità dei meccanismi assicurativi privati di fronteggiare i rischi sociali.

Nella gestione di un sistema di protezione sociale, compito fondamentale dello Stato è il mantenimento di condizioni di sostenibilità macroeconomica. Nei Paesi sviluppati, le prestazioni sociali, comprensive delle componenti private e al netto delle imposte gravanti sulle stesse prestazioni, si sono collocate negli ultimi anni fra il 25% del prodotto interno lordo (PIL) in Italia e negli Stati Uniti e il 30% in Germania, Francia e Paesi scandinavi.

Le prospettive per i due comparti fondamentali della previdenza e della sanità sono determinate essenzialmente dall’evoluzione demografica: si prevedono, infatti, un rilevante allungamento della vita media, con il conseguente aumento della popolazione anziana, e tassi di natalità a livelli contenuti in molti Paesi. Conseguentemente, le previsioni economiche, per quanto di lunghissimo periodo, indicano un cospicuo aumento, assoluto e relativo, delle spese sociali. La Social security americana, in assenza di qualsiasi intervento normativo, dovrebbe esaurire le sue riserve finanziarie nel 2052 (anche se pochi anni fa il limite era posto al 2030). Gli interventi specifici su un sistema pubblico, se preservato nelle sue caratteristiche essenziali, devono riguardare il controllo della dinamica delle prestazioni. Nel settore pensionistico sono già stati attuati numerosi interventi finalizzati al contenimento della spesa attraverso lo spostamento in avanti nell’età di pensionamento o la riduzione delle prestazioni potenzialmente ottenibili. Risulta tuttavia evidente che la riduzione delle prestazioni non deve compromettere radicalmente l’obiettivo del mantenimento di un ragionevole tenore di vita dopo la cessazione dell’attività lavorativa. Nonostante la spesa cresca in termini di prodotto interno, l’aumento della quota di popolazione anziana comporterà infatti un allargamento del divario tra il reddito medio pro capite di quella attiva e le pensioni.

Nel settore sanitario i sistemi pubblici, attraverso la definizione centralizzata del livello delle remunerazioni e di altre voci di spesa, hanno sempre garantito una dinamica moderata degli esborsi. Anche in questo caso un eccesso di contenimento della spesa, oppure remunerazioni inadeguate, provocano lo svuotamento del servizio pubblico e la conseguente ricerca di modalità di cura alternative.

La delimitazione sostanziale del livello delle prestazioni o della loro accessibilità comporterebbe, di fatto, lo spostamento della responsabilità nella fornitura dei servizi dalla collettività ad altri, siano essi imprese o individui. L’esperienza di alcuni Paesi dimostra che in presenza di domanda rigida, come accade per la sanità, esiste un’ineliminabile tendenza all’aumento del prezzo della prestazione. Qui basti ricordare che negli Stati Uniti i premi assicurativi pagati dalle imprese sono cresciuti negli ultimi anni a un tasso del 10% contro un tasso d’inflazione media del 3%. Sotto questo aspetto si dà un’ulteriore ragione dell’esistenza nei sistemi sanitari a orientamento privato di importanti componenti pubbliche.

Si può concludere questo punto osservando che non esistono soluzioni semplici per il problema del contenimento della spesa sociale. La riduzione della spesa può essere in alcuni casi giustificata come necessaria per la compatibilità con l’evoluzione demografica. Occorre però tenere in dovuta considerazione che la conseguente limitazione delle prestazioni può compromettere obiettivi essenziali di copertura da rischi fondamentali, sovvertendo alcune priorità che dovrebbero essere osservate nella vita collettiva. Nel caso in cui poi la dinamica dei costi degli operatori privati non sia facilmente controllabile, il contenimento della spesa attraverso lo spostamento delle competenze dal settore pubblico a quello privato è molto spesso soltanto apparente.

La sostenibilità non solo economica, ma anche sociale, di un compiuto sistema di protezione dipenderà in generale dai tassi di crescita che si riusciranno a realizzare: tassi di crescita medi annui del prodotto reale dell’ordine del 2% si ritiene renderanno relativamente agevole la soluzione dei problemi di sostenibilità che si manifesteranno.

L’ottimalità di un meccanismo di mercato concorrenziale richiede la presenza di una pluralità di operatori, oppure un tendenziale equilibrio nel potere contrattuale quando si confrontino due parti con interessi contrapposti: le configurazioni di mercato non devono in altri termini portare alla formazione di rendite di monopolio, comunque originate.

Considerando la prima ipotesi, una pluralità di imprese non può mantenersi nel tempo in presenza di rendimenti crescenti di scala (che si hanno quando il costo medio diminuisce all’aumentare dei livelli produttivi); è economicamente efficiente la concentrazione della produzione presso un numero estremamente ridotto d’imprese e, al limite, presso una. Questa situazione, definita monopolio naturale, è tipica delle imprese di pubblica utilità (per es., produzione e distribuzione dell’energia elettrica e del gas, telecomunicazioni e trasporti). Considerando la seconda ipotesi, le asimmetrie di potere contrattuale sono invece tipiche del mercato del lavoro.

Gli interventi nel settore delle pubbliche utilità e le misure volte a regolare il mercato del lavoro sono manifestazioni del ruolo economico dello Stato, secondo modalità che si sono modificate radicalmente nel corso degli ultimi decenni.

In tutta l’Europa occidentale è stata tradizionalmente dominante la proprietà pubblica, centrale o locale, nei settori dei trasporti, dell’energia e delle telecomunicazioni. Alla base di questa scelta stavano, in primo luogo, motivazioni di ordine tecnologico cui abbiamo già accennato: in presenza di rendimenti crescenti di scala è giustificata la presenza di una sola impresa. Il comportamento di tale impresa, se la proprietà fosse privata, dovrebbe essere disciplinato dall’autorità pubblica. D’altro canto la tariffazione efficiente, che richiede un prezzo uguale al costo marginale, avrebbe comportato un prezzo inferiore al costo medio di produzione e quindi profitti negativi per l’impresa. L’autorità pubblica, ove avesse assunto come obiettivo l’efficienza economica, avrebbe dovuto erogare sussidi di non facile definizione e comunque portatori di contaminazione fra interessi privati e decisioni pubbliche.

Oltre a considerazioni di efficienza microeconomica statica, la scelta della proprietà pubblica è stata anche ricondotta al riconoscimento che le imprese di pubblica utilità erano e sono produttrici di forti esternalità: in Paesi che non avevano ancora raggiunto il pieno sviluppo economico, il potenziamento di questi settori era giudicato una precondizione per accelerarne il processo di crescita. Questa considerazione ha motivato, in molti casi, la scelta della nazionalizzazione di settori di pubblica utilità nei decenni successivi alla Seconda guerra mondiale. La nazionalizzazione ha poi comportato processi di concentrazione e razionalizzazione produttiva, oltre che stimolato l’accumulazione attraverso una forte spinta agli investimenti. Si noti che, in questo processo, le imprese di pubblica utilità si sono molto spesso verticalmente integrate, coprendo tutti gli stadi della produzione e della distribuzione. Non si dubitava inoltre che ci fosse coincidenza fra comportamento delle imprese e interessi generali, non ritenendosi rilevanti i fenomeni di cattiva gestione o di collusione con il potere politico.

Sulla base di importanti elaborazioni analitiche, l’atteggiamento di favore, teorico e pratico, nei confronti delle imprese pubbliche è rapidamente cambiato: a partire dagli anni Ottanta, in tutti i Paesi sviluppati e in via di sviluppo, è stato quindi avviato un importante processo di privatizzazione che ha fortemente ridotto l’area di proprietà pubblica. Si è in primo luogo sostenuto che la situazione di monopolio naturale era relativamente circoscritta e certamente non riconoscibile nell’intera filiera produttiva: in particolare nel settore elettrico la produzione e la vendita all’ingrosso si potevano svolgere in un quadro concorrenziale, mentre il monopolio poteva essere riconosciuto nella fase della trasmissione ed eventualmente in quella della distribuzione. Da qui sono derivati i numerosi interventi finalizzati alla liberalizzazione dei settori potenzialmente competitivi e alla disintegrazione verticale della filiera produttiva, fino a quel momento facente capo a una sola impresa.

È stato inoltre affermato che la proprietà pubblica era, in quanto tale, tendenzialmente inefficiente o comunque meno efficiente di quella privata. Alla luce di queste considerazioni si è dato avvio a importanti processi di modificazione degli assetti proprietari, con il passaggio di quote azionarie, anche se non sempre del controllo, a operatori privati. Il permanere di fasi di monopolio naturale, per es. nella fase di trasmissione o per ‘l’ultimo miglio’, e il riconoscimento che l’attivazione di un meccanismo di mercato effettivamente concorrenziale avrebbe richiesto del tempo, sempre se realizzabile, hanno tuttavia portato all’introduzione universale di autorità di controllo e di regolazione del comportamento degli operatori ormai svincolati dal riferimento pubblico. Le autorità fissano in particolare l’evoluzione dei prezzi, utilizzando opportuni meccanismi d’incentivazione all’efficienza. È stato infine sostenuto che solo nei meccanismi di mercato le imprese avrebbero trovato la spinta a sviluppare la capacità produttiva sulla base di corretti criteri di razionalità economica, evitando le suggestioni programmatorie proprie delle imprese pubbliche controllate dal potere politico.

Il processo di riorganizzazione produttiva e di ridefinizione degli assetti proprietari delle imprese di pubblica utilità è ancora in corso, con la conseguenza che non è facile fornirne una valutazione compiuta.

Per alcuni settori, come le telecomunicazioni, l’evoluzione tecnologica ha portato al superamento di molte delle barriere preesistenti con la creazione di contesti ragionevolmente concorrenziali. In altri settori (per es., elettricità e gas) la formazione di strutture concorrenziali è ancora relativamente circoscritta, essendosi anzi manifestati fenomeni di concentrazioni trans-nazionali (a forte carattere monopolistico), giustificati forse in presenza di un’efficiente autorità di controllo sovranazionale, quale potrà essere l’Unione Europea, ma in altri casi potenzialmente pericolosi per gli interessi strategici dei singoli Paesi. Tutto ciò ha rallentato in molti casi il completamento dei processi di privatizzazione e i tentativi di liberalizzazione.

In ogni caso, non sono sorti rapidamente quei mercati concorrenziali che all’inizio del processo di privatizzazione si ritenevano realizzabili in tempi brevi. Il ruolo delle autorità di regolazione (di emanazione politica) continua a ricoprire un ruolo essenziale e sembra destinato a protrarsi nel tempo, con tutti gli aspetti problematici riconducibili ai problemi di acquisizione e di elaborazione delle informazioni da parte di queste autorità. Sia pure in forma diversa rispetto al passato, il ruolo dello Stato continua a essere importante, e lo sarà ancora di più in futuro se si dimostrerà che imprese private operanti in settori a carattere fortemente monopolistico non hanno adeguati incentivi allo sviluppo della loro capacità produttiva e all’innovazione (Guthrie 2006).

Attraverso un processo secolare si è formato in tutti i Paesi un insieme di norme che regolano il mercato del lavoro. Si possono distinguere norme finalizzate alla salvaguardia dell’integrità fisica del lavoratore da norme che proteggono il prestatore di lavoro da comportamenti arbitrari del datore di lavoro, impedendo in particolare il licenziamento immotivato. Infine, per garantire un tendenziale equilibrio di potere contrattuale fra le parti sociali, è stata affermata la centralità della contrattazione collettiva.

Alla base di questa complessa costruzione si possono riconoscere importanti ispirazioni teoriche. In primo luogo, vale un principio di democrazia sostanziale, per il quale il lavoratore non è semplicemente una merce, ma piuttosto un cittadino. Nelle parole di Karl Polanyi, «la presunta merce ‘forza-lavoro’ non può infatti essere fatta circolare, usata indiscriminatamente e neanche lasciata priva di impiego, senza influire anche sull’individuo umano che risulta essere il portatore di questa merce particolare» (The great transformation, 1944; trad. it. 1974, p. 94).

Nelle impostazioni keynesiane, che valutano in termini problematici le capacità di autoregolazione dei sistemi capitalistici, è stata sempre sottolineata l’importanza di politiche economiche capaci di garantire un’equilibrata distribuzione del reddito fra le parti sociali, vista come presupposto per il mantenimento della domanda aggregata a livelli appropriati. I processi di contrattazione collettiva costituiscono un elemento essenziale delle cosiddette politiche dei redditi, a cui si è fatto ampio riferimento nei decenni successivi alla Seconda guerra mondiale per garantire una crescita elevata in un contesto non inflazionistico.

I sistemi di regolazione del mercato del lavoro appena descritti sono stati radicalmente posti in discussione a partire dagli anni Ottanta su linee analoghe a quelle che hanno portato alla privatizzazione delle pubbliche utilità. I regimi di protezione del lavoro, opportunamente classificati, sono stati considerati causa di inefficienza economica, poiché allontanano i sistemi dalla piena occupazione o favoriscono la formazione di rendite a favore di coloro che erano già occupati. Il potere dei sindacati doveva essere circoscritto, in quanto nella generalità dei casi le associazioni dei lavoratori si sono rivelate fattori di distorsione e non di equilibrio dei rapporti contrattuali (salvo il caso di un loro coinvolgimento istituzionale nelle politiche di contenimento della dinamica salariale). Più in generale, le politiche economiche in molti Paesi hanno promosso mercati del lavoro flessibili, con un evidente e immediato richiamo alle più elementari formulazioni del modello concorrenziale (Artoni, D’Antoni, Del Conte, Liebman 2006).

Il tutto trova una sintesi nelle posizioni delle organizzazioni internazionali, in particolare l’OECD (Organisation for Economic Co-operation and Development), che sostengono che le performances economiche mi-gliori sono associate positivamente alla liberalizzazione del mercato del lavoro: quanto più rigido è il mercato del lavoro, tanto peggiori sono i tassi di crescita o i tassi di occupazione. Questa valutazione dev’essere accolta con cautela. L’evidenza empirica non è univocamente interpretabile, dovendosi comunque sviluppare ricerche più articolate: è stato infatti osservato che la liberalizzazione del mercato del lavoro ha portato alla coesistenza di due modalità contrattuali, a tempo determinato e tempo indeterminato. È dubbio, nell’opinione di Olivier J. Blanchard (2005, p. 32), che tutto ciò abbia portato alla diminuzione della disoccupazione; è peraltro certo che è stato creato un mercato del lavoro duale con lavoratori protetti, da un lato, e lavoratori marginali e scarsamente tutelati, dall’altro.

È evidente che l’accettazione della visione liberista del funzionamento del mercato del lavoro porta a definire un ruolo dello Stato molto circoscritto, di fatto quasi assistenziale, per i lavoratori che si trovano disoccupati come conseguenza di frizioni nel processo di riallocazione della forza lavoro. Recentemente sono tuttavia emerse, o riemerse, visioni differenti da quelle dominanti negli ultimi vent’anni. Sembra ormai acquisito che il processo di liberalizzazione del mercato del lavoro, con l’associato indebolimento delle rappresentanze sindacali, abbia prodotto un forte spostamento nella distribuzione funzionale del reddito. Gli effetti negativi sulla dinamica della domanda aggregata in certi Paesi, come l’Italia, sono evidenti e si traducono in tassi di crescita complessivi molto ridotti.

In altri Paesi la modifica della distribuzione dei redditi è stata compensata, come già osservato, da un forte indebitamento delle famiglie, che ha per alcuni anni sostenuto la domanda di consumi privati e quindi la crescita del prodotto interno: questa compensazione, come dimostrano in modo evidente gli eventi del 2007-08, non può tuttavia essere protratta oltre un certo limite. In altri termini, la forte crescita relativa delle economie dei Paesi anglosassoni nell’ultimo decennio, più che alle conseguenze della flessibilizzazione del mercato del lavoro, sembra essere il frutto, appunto, dell’indebitamento e della caduta della propensione al risparmio delle famiglie.

Stanno poi emergendo le preoccupazioni sugli effetti sociali della precarizzazione dei rapporti di lavoro, che coinvolge anche le classi medie, in un quadro interpretativo prefigurato dalla precedente citazione di Polanyi. In questo contesto, il ruolo regolatore dello Stato torna a essere necessariamente più pregnante di quanto non si pensasse solo alcuni anni fa.

Adottando una rappresentazione schematica, possiamo affermare che i sistemi tributari si fondano su un’imposta personale progressiva più o meno strettamente integrata con l’imposta societaria; una o più imposte sul patrimonio, sia ricorrenti sulla proprietà immobiliare, sia saltuarie sui trasferimenti di ricchezza per donazione e successione; un’imposta generale sulle vendite applicata ai consumi, oltre ad accise su particolari beni e servizi. Il prelievo obbligatorio è poi completato dai contributi sociali (oppure da imposte introdotte in loro sostituzione) destinati al finanziamento delle prestazioni sociali.

Ovviamente, anche all’interno di una struttura sostanzialmente omogenea, le possibili articolazioni dei singoli istituti possono portare a risultati molto diversi in termini di livello del gettito o di distribu-zione del carico tributario. In questa sede, per la sua rilevanza, conviene soffermarsi sulle principali caratteristiche dell’imposizione personale, così come si è configurata negli ultimi anni, sia per autonoma determinazione dei singoli Paesi, sia come conseguenza ne-cessaria della comune evoluzione economica.

L’imposta personale sul reddito si caratterizza, in primo luogo, per i criteri di determinazione della base imponibile. La letteratura economica distingue tre possibili basi imponibili. Quando si adotta il concetto di reddito prodotto, sono oggetto di tassazione solo le remunerazioni dei fattori produttivi (salari, rendite, profitti o interessi). In una seconda accezione, la base imponibile è costituita da tutte le entrate afferenti al contribuente, incluse anche le plusvalenze patrimoniali. Infine, oggetto di tassazione personale può essere la spesa per consumo effettuata nel periodo d’imposta, venendosi pertanto a escludere dalla tassazione il risparmio, oltre che le plusvalenze non destinate al finanziamento del consumo.

Se la tassazione personale sulla base del reddito prodotto costituisce la forma più antica, la tassazione che si richiama al reddito entrata è invece tipica dei Paesi con mercati finanziari evoluti. La tassazione fondata sul reddito consumo ha trovato solo parziale applicazione, anche se rappresenta il modello cui, in qualche modo, tendono molti sistemi tributari.

Il riferimento a modelli compiuti, se utile a fini classificatori, può spesso allontanare da una corretta lettura della realtà. Anche in Paesi come l’Italia, l’applicazione del criterio del reddito prodotto ha trovato sempre fortissime attenuazioni nel momento della tassazione dei redditi di capitale, che sono sempre stati in larga misura sottratti all’applicazione dell’imposta personale e fatti oggetto di tassazione con aliquote ridotte (oggi in Italia l’aliquota tipica è pari al 12,5%). È ragionevole definire un’imposta così configurata, più che un’imposta sul reddito complessivo, un’imposta sui redditi di lavoro dipendente.

Anche i Paesi anglosassoni, che sulla base del reddito entrata avrebbero dovuto tassare in sede d’imposta personale, oltre che i redditi di capitale, anche le plusvalenze, si sono fortemente avvicinati a un’imposta personale progressiva applicata essenzialmente ai redditi di lavoro; sono state infatti introdotte tali e tante eccezioni alla tassazione onnicomprensiva che, anche per questi Paesi, si può ragionevolmente parlare di una wage tax associata a una tassazione molto contenuta, non lontana da quella italiana, dei redditi di capitale afferenti alle persone fisiche. L’omogeneità tra i due modelli di sistema tributario descritti può essere intuita dal fatto che il gettito dell’imposizione diretta è nell’area euro pari al 12,2% del prodotto interno, contro il 12,8% degli Stati Uniti; l’Italia si segnala per un gettito relativamente più elevato, pari al 14,5%, dato il livello relativamente elevato delle aliquote effettive sugli scaglioni di reddito più bassi.

La tassazione personale del consumo, se è stata finora quasi esclusivamente applicata attraverso l’esenzione dall’imposta degli accantonamenti previdenziali, ha trovato un forte sostegno teorico in quanto è l’unico sistema d’imposizione personale in grado di evitare la doppia tassazione del risparmio (prima, nel momento della formazione del reddito, poi, nella percezione dei frutti). Da questo punto di vista la tassazione sulla base del ‘reddito consumo’ è compatibile con politiche favorevoli all’accumulazione di capitale e quindi con la crescita economica.

Risulta evidente che la capacità redistributiva di un’imposta, che tassi in misura molto contenuta i redditi di capitale o le plusvalenze, in particolare quelle mobiliari, e che esenti per importi consistenti alcune forme d’impiego del risparmio, è molto limitata. La redistribuzione avviene solo all’interno dei redditi di lavoro e il grado di redistribuzione desiderata dalla collettività è raggiunto solo a condizione che, a monte, non operino meccanismi di definizione dei differenziali salariali tra diversi individui che anticipino e scontino la progressività dell’imposizione.

Il grado di progressività dell’imposta personale, sia pure circoscritta ai redditi di lavoro, è stato ulteriormente attenuato dalla riduzione delle aliquote marginali applicate agli scaglioni più elevati, scesi dal 70% riscontrabile in molti Paesi negli anni Ottanta a circa il 40% attualmente predominante. Considerazioni di equità (l’imposta si applica solo su poche tipologie di reddito) e di incentivo, riconducibili alle analisi empiriche, peraltro non concordanti, sull’elasticità dell’offerta di lavoro alle variazioni della remunerazione netta, spiegano il processo quasi universale di riduzione delle aliquote marginali.

In concorso con la complessiva evoluzione economica, l’erosione della base imponibile e la riduzione delle aliquote marginali più alte dell’imposta personale – la componente più redistributiva di tutti i sistemi tributari – hanno contribuito in molti Paesi ad aumentare l’indice di Gini (che misura la concentrazione nella distribuzione del reddito). Su questa evoluzione ha peraltro influito, o forse ne è stata all’origine, la piena liberalizzazione dei movimenti di capitale, senza che parallelamente si sviluppassero efficaci forme di cooperazione internazionale per il reperimento di materia imponibile. La difficoltà di tassazione delle basi imponibili mobili, quali sono tipicamente i redditi di capitale, associata all’esigenza di salvaguardare gli equilibri dei bilanci pubblici, ha determinato l’inasprimento del peso relativo delle imposte gravanti sui redditi di lavoro. Oggi il capitale sconta un prelievo medio effettivo del 24% e il lavoro è gravato da un’aliquota media effettiva pari a quasi il 38%.

Si deve infine osservare che le imposte patrimoniali (in particolare sotto forma di imposte sulle successioni e donazioni), cui i riformatori di tutti i tempi avevano attribuito un ruolo potenzialmente importante per colpire le fortune immeritate a vantaggio di quelle meritate e per contrastare la concentrazione delle ricchezze, si sono rivelate ovunque assolutamente inefficaci, al punto di essere abolite in molti Paesi.

Il ruolo dello Stato in materia tributaria all’inizio del 21° sec. non può quindi prescindere dai due elementi che abbiamo cercato di evidenziare: erosione tecnica della capacità redistributiva del sistema tributario e limitazione della sovranità nazionale, sotto forma di impossibilità di controllare la localizzazione delle basi imponibili mobili. Questa situazione permarrà fino a quando non si formerà una struttura sovranazionale dotata di poteri adeguati. Le scelte effettivamente aperte ai singoli Stati sono strettamente collegate alla configurazione del sistema di protezione sociale, essendo ineludibile il collegamento fra il livello del gettito tributario, di cui le imposte personali costituiscono una componente essenziale, e l’estensione della spesa pubblica, di cui le spese per la protezione sociale costituiscono la componente più importante. In tutti i Paesi in cui imposte e spese sono elevate, si realizza uno scambio fra la disponibilità di servizi sociali qualificati e il pagamento attraverso la fiscalità generale di questi servizi: data la concentrazione non solo del carico fiscale ma anche delle prestazioni sulle classi medie, gli effetti redistributivi, nell’arco di vita di una persona, sono relativamente limitati. Quando invece la pressione fiscale è bassa e la spesa sociale di diretta competenza delle pubbliche amministrazioni è contenuta, l’accesso ai servizi sociali fondamentali (sanità, previdenza, istruzione) deve trovare un riferimento nel rapporto di lavoro o nei contratti individuali e un sostegno in agevolazioni fiscali, in alcuni casi particolarmente generose. In altra parte di questo saggio abbiamo già visto gli effetti in termini di universalismo e di realizzazione dei diritti di cittadinanza delle diverse tipologie di welfare state. Qui possiamo sottolineare come questa seconda modalità di garanzia dei servizi sociali sia con tutta probabilità più regressiva della precedente (Lindert 2004).

Il processo decisionale in materia di bilancio rappresenta la sede di discussione e individuazione delle priorità di politica economica e di successiva deliberazione delle modalità di intervento nelle varie aree precedentemente discusse. La legge di bilancio e i documenti a essa associati incarnano e definiscono, infatti, gli indirizzi che l’operatore pubblico intende imprimere alla sua azione.

Con l’espandersi del ruolo dello Stato nell’economia che si è verificato, anche se con diversa intensità, in tutti i Paesi industrializzati, si è posta la questione della compatibilità tra i meccanismi di scelta e di decisione delle politiche pubbliche e la crescita controllata ed equilibrata di spese ed entrate, nel rispetto di compatibilità macroeconomiche. Una pressione fiscale eccessiva potrebbe porre problemi di incentivo all’offerta di lavoro e al risparmio. Livelli elevati di spesa pubblica possono spiazzare la spesa privata e, se non accompagnati da un adeguato aumento delle entrate, comportano squilibri di bilancio che impongono emissione di debito. La crescita del debito genera questioni di equità, sia intragenerazionale, sia intergenerazionale: un debito crescente si associa in genere a tassi di interesse crescenti, che ridistribuiscono risorse tra chi presta e chi prende a prestito e trasferisce sulle generazioni future il carico legato a eventuali manovre di risanamento. Un debito elevato può inoltre essere fonte di instabilità finanziaria nel momento in cui si verifichino crisi di fiducia sulla capacità da parte dello Stato di ricondurre le grandezze di bilancio su un sentiero equilibrato.

Il contesto in cui vengono prese le decisioni, ossia gli aspetti procedurali che caratterizzano e in cui si inseriscono le scelte di bilancio, sono visti come un primo e imprescindibile elemento a garanzia di una gestione ordinata della finanza pubblica. Tutte le normative nazionali prevedono regole per la definizione degli obiettivi e per l’implementazione delle politiche di bilancio, distribuendo a documenti o leggi differenti il compito di delineare e attuare le manovre sugli aggregati di finanza pubblica. A partire dalla fine degli anni Ottanta, gli squilibri di finanza pubblica, che cominciavano a manifestarsi in alcuni Paesi, e il processo di costituzione di una unione monetaria in Europa hanno portato al centro del dibattito sulle procedure di bilancio il tema del rafforzamento della disciplina fiscale e dell’individuazione degli strumenti appropriati con i quali conseguirla. L’introduzione di regole costituzionali in materia di finanza pubblica, l’applicazione di procedure automatiche per il controllo dei disavanzi e l’individuazione di obiettivi sui saldi di bilancio e sul debito a livello sovranazionale costituiscono i principali strumenti discussi o implementati come fattori di garanzia di scelte responsabili in materia di finanza pubblica. Norme costituzionali e procedure automatiche (quali quelle contemplate a metà degli anni Ottanta negli Stati Uniti dalla legge Gramm-Rudman-Hollings, che prevedeva un percorso di rientro dagli squilibri di finanza pubblica caratterizzato da progressive riduzioni del deficit federale, fino a un suo azzeramento su un orizzonte temporale definito) vengono considerate come forme di limitazione della discrezionalità politica che potrebbe generare risultati non desiderabili per l’economia nel suo complesso. L’avversione nei confronti della discrezionalità e la preferenza per le regole trovano il loro fondamento teorico nella letteratura sull’incoerenza temporale delle politiche ottimali. L’individuazione di vincoli sovranazionali all’autonomia nazionale in materia fiscale è riconducibile alle esternalità negative generate da politiche di bilancio scarsamente disciplinate nei Paesi membri di una Unione che condivide una politica monetaria unica.

Senza entrare nella discussione teorica su come qualificare il grado di disciplina di una determinata politica di bilancio, nel Trattato di Maastricht approvato nel 1992 il concetto di finanze pubbliche sane è stato incarnato dall’individuazione di un limite massimo al disavanzo complessivo (3% del PIL) e al debito pubblico (60% del PIL). L’obiettivo è stato reso ancora più ambizioso con il Patto di stabilità e crescita, che nel 1997 ha da un lato individuato la procedura con cui imporre una correzione ai Paesi che siano incorsi in disavanzi eccessivi, dall’altro ha richiesto che il bilancio sia in pareggio o in surplus nel medio periodo. Il mancato adeguamento da parte di Francia e Germania alla procedura formale prevista dal Patto in caso di disavanzi eccessivi ha portato a una revisione ulteriore del Patto stesso nel 2005, nella direzione di una maggiore flessibilità e considerazione delle condizioni delle economie locali.

L’esperienza di controllo delle finanze pubbliche nazionali, evidenziata dalle vicende che hanno caratterizzato l’introduzione del Trattato di Maastricht e la sua implementazione tramite il Patto di stabilità e crescita, sottolinea l’importanza della reciproca influenza tra andamento dell’economia e risultati di bilancio. I saldi di bilancio sono grandezze endogene il cui valore dipende strettamente dal quadro macroeconomico. Questo rappresenta il condizionamento principale e ineliminabile cui è subordinato il ricorso a regole rigide quale strumento di controllo degli aggregati di finanza pubblica. In quest’ottica possiamo leggere la difficoltà di individuazione di regole costituzionali come strumento di disciplina delle politiche di bilancio. La nostra Costituzione è forse l’unica che prescriva, all’art. 81, un obbligo di copertura che, se rigidamente interpretato, vieta l’indebitamento per le spese di parte corrente. Più che imporre un limite quantitativo prestabilito, la Costituzione suggerisce una metodologia decisionale che dovrebbe garantire un’assunzione di responsabilità da parte del decisore in materia di politica di bilancio.

La semplicità dell’individuazione di un limite numerico a un saldo di bilancio si è accompagnata, nei fatti, all’individuazione di condizioni cui subordinare il rispetto del vincolo. Queste condizioni riguardano sia il contesto economico in cui l’obiettivo deve essere raggiunto, sia le voci di entrata e spesa su cui è maggiormente opportuno operare, sia le componenti di spesa che dovrebbero sfuggire alle limitazioni, quali, per es., le spese in conto capitale. Il pareggio di bilancio sarebbe richiesto per le spese in conto corrente, mentre l’indebitamento sarebbe ammesso per le spese per investimento (la golden rule come adottata nel Regno Unito). Più in generale, non è corretto considerare la politica di bilancio come un fatto puramente finanziario interamente governabile con la selezione di obiettivi numerici: è piuttosto l’espressione di scelte sull’assetto istituzionale che si vuole dare all’intervento dello Stato nell’economia.

Questa considerazione diventa ancora più stringente quando, invece di considerare vincoli sui saldi di bilancio, si considerino vincoli alternativamente sulla spesa pubblica o sulla pressione fiscale. Un limite sul livello della spesa pubblica (o della sua crescita, come sperimentato nel Regno Unito e, con qualche tentativo di emulazione, nel nostro Paese) genera distorsioni nella sua composizione, secondo il diverso grado di comprimibilità o rigidità delle diverse voci. Le spese che hanno destinazione individuale diretta (le pensioni, gli ammortizzatori sociali) o la spesa per interessi dipendono dall’acquisizione di un diritto soggettivo. Anche escludendo, necessariamente, queste componenti dal vincolo alla crescita, un limite così strutturato, soprattutto se omogeneo tra varie categorie di spesa, impone una rinuncia a definire le priorità tra i diversi interventi.

Dalla esposizione risulta evidente che ogni tentativo di definizione del ruolo dello Stato nel contesto attuale presenta ineliminabili elementi d’indeterminatezza. La lettura del funzionamento del sistema economico, visto nella sua capacità autonoma di produrre risultati ottimali, predetermina in buona misura le indicazioni istituzionali e le proposte di politica economica.

Estraendo alcuni spunti interpretativi dalla nostra analisi, possono tuttavia essere colti alcuni dubbi o alcune incertezze, frutto dell’esperienza dell’ultimo decennio, che rendono meno assertive le tesi liberiste progressivamente accumulatesi nel corso dell’ultimo quarto del secolo scorso.

Il funzionamento dei meccanismi assicurativi privati, visti come sostitutivi dei sistemi pubblici di protezione sociale, lasciano aperti importanti problemi di accesso e di garanzia contro rischi individualmente incontrollabili, non solo per i ceti più poveri, ma anche per le classi medie. Sotto questo aspetto il ruolo dello Stato non sembra essere significativamente circoscrivibile: lo testimoniano il dibattito negli Stati Uniti sull’introduzione di un sistema sanitario obbligatorio e la mancata realizzazione di progetti di delimitazione del sistema pensionistico pubblico. Nella sfera sociale, il ruolo dello Stato richiede un controllo finanziario ed economico della dinamica delle prestazioni alla luce delle prevedibili tendenze demografiche, ma in un contesto di salvaguardia sostanziale dei principi ispiratori dello Stato sociale.

Le tesi concorrenziali a sostegno delle politiche di privatizzazione hanno portato molto spesso alla formazione di monopoli privati, con la creazione, in alcuni casi, di imprese operanti su scala sovranazionale. Oggi, in settori cruciali dell’attività economica, il ruolo dello Stato è certamente diverso rispetto al passato, ma non per questo meno pregnante. È ragionevole affermare che si è alla ricerca di nuovi equilibri.

Analogamente, la flessibilizzazione delle regole del mercato del lavoro, con l’implicita assimilazione del lavoro a una normale merce, lungi dal produrre assetti armoniosi, ha concorso a innescare importanti processi di concentrazione nella distribuzione del reddito. Conseguentemente, stanno emergendo importanti problemi di coesione sociale, con l’effetto di rendere meno accettabili nell’opinione comune i processi di integrazione economica su scala internazionale, che sono stati una caratteristica importante e positiva della storia economica degli ultimi decenni. Anche in questo caso non sembra che il ruolo dello Stato, nella sua funzione regolatoria, possa essere marginalizzato nei termini previsti solo alcuni anni fa.

Infine, un fattore potentemente innovatore, all’interno dei singoli Stati e nei rapporti internazionali, è costituito dal ridimensionamento della sovranità nazionale in materia tributaria e in materia di individuazione degli obiettivi generali delle politiche di bilancio. Anche se qualcuno considera la perdita della potestà impositiva nazionale sui redditi di capitale un intelligente strumento per indurre la riduzione della spesa pubblica, è certo che un processo così oscuro o così poco trasparente corre il rischio di compromettere gli equilibri sociali fin qui accettati. Allo stesso modo, la fissazione di saldi obiettivo a livello comunitario se, in linea di principio, contribuisce a definire una gestione più disciplinata delle politiche fiscali, si accompagna in realtà con problemi di applicazione effettiva delle norme che dovrebbero regolare la buona gestione della finanza pubblica in tutti i casi in cui l’evoluzione macroeconomica non risultasse favorevole. La storia della nostra finanza pubblica negli anni Settanta per molti versi insegna. Anche in questo caso si può, o si deve, individuare un ruolo dello Stato innovativo rispetto al passato, in quanto necessariamente collocato in un contesto sovranazionale.

Nelle società sviluppate, ha scritto Ada Zanardo, i sistemi fiscali, cioè l’insieme dei prelievi obbligatori imposti dai diversi livelli di governo ai propri cittadini-contribuenti, perseguono una molteplicità di obiettivi. La principale (e, sino a qualche tempo fa, unica) funzione delle imposte è quella di assicurare ai governi le risorse necessarie per finanziare le spese pubbliche, quale alternativa preferibile ad altri strumenti socialmente ed economicamente più costosi, come l’alienazione dei cespiti patrimoniali, l’indebitamento, l’emissione di moneta. Inoltre, i sistemi fiscali affiancano i programmi di spesa pubblica (v. stato sociale) e gli interventi di regolamentazione (v. privatizzazione e regolamentazione) per perseguire direttamente gli obiettivi delle politiche pubbliche in ambito economico, che, secondo la tradizionale classificazione musgraviana, possono essere ricondotti a tre aree fondamentali: stabilizzazione, allocazione e ridistribuzione. In questo senso, il livello complessivo delle imposte, la loro composizione, nonché il disegno dei singoli strumenti fiscali, possono essere innanzitutto determinati dall’obiettivo di stabilizzare il livello dell’occupazione, dei prezzi o della bilancia dei pagamenti di un paese. Mediante le imposte, i governi cercano poi di modificare la distribuzione originaria del reddito e della ricchezza tra individui/famiglie o tra fattori produttivi quando sia ritenuta non coerente con i principî equitativi prevalenti (v. reddito, distribuzione del). Infine, il disegno dei sistemi fiscali dipende dagli effetti allocativi delle imposte: in generale, quasi tutte hanno un qualche effetto sull’allocazione delle risorse e producono un costo economico per la collettività. Ne consegue che un obiettivo della tassazione è quello di ridurre al minimo questi costi, ma talvolta anche quello di favorire certi comportamenti ritenuti desiderabili da parte dei soggetti economici (come la formazione del risparmio o l’attivazione di investimenti a sostegno della crescita), o di disincentivarne altri (quali la produzione di esternalità negative, come l’inquinamento, o consumi negativamente valutati dalla collettività, come l’alcolismo).

La molteplicità degli obiettivi di cui un sistema fiscale viene caricato e il suo essere al centro di processi decisionali complessi, in cui considerazioni economiche si confrontano con valori politici ed esigenze sociali, rende relativamente difficile evidenziare quali dovrebbero essere, nella prospettiva di un economista, i requisiti di una struttura fiscale desiderabile. Richard A. Musgrave così li sintetizza: “la distribuzione del carico fiscale dovrebbe essere equa […]; le imposte dovrebbero essere scelte in modo da minimizzare le interferenze con le decisioni economiche in mercati che, in assenza di tassazione, sarebbero efficienti […]; dove si ricorre alla politica tributaria per perseguire altri obiettivi, per esempio garantire adeguati incentivi agli investimenti, ciò dovrebbe essere fatto in modo tale da minimizzare le interferenze con le finalità equitative; la struttura delle imposte dovrebbe facilitare l’utilizzo della politica fiscale per gli obiettivi di stabilizzazione e crescita economica; il sistema fiscale dovrebbe consentire una gestione delle imposte imparziale, obiettiva e comprensibile per il contribuente; i costi di amministrazione e di adempimento dovrebbero essere il più possibile contenuti compatibilmente con gli altri obiettivi” (v. Musgrave e Musgrave, 19844, p. 225). Tuttavia, chi si accinga a utilizzare questi (e altri) criteri per valutare l’ottimalità di un sistema fiscale si troverà spesso di fronte a obiettivi tra loro almeno parzialmente confliggenti, con la conseguente necessità di ripiegare su soluzioni di compromesso. Così l’equità può richiedere complessità amministrativa e può interferire con la neutralità allocativa, oppure un uso della tassazione quale incentivo per comportamenti desiderabili può indebolire le finalità ridistributive.

Il rilievo attribuito ai diversi obiettivi di politica fiscale – e conseguentemente la loro priorità nella ricerca delle soluzioni ottimali per i sistemi fiscali – si è evoluto nel tempo con lo sviluppo della riflessione teorica sulle modalità dell’intervento pubblico e con il mutare delle caratteristiche strutturali dei sistemi economici su cui la fiscalità interviene. A partire da queste considerazioni, ripercorreremo l’evoluzione dei sistemi fiscali nei maggiori paesi industrializzati dagli anni ottanta al presente, evidenziando le tendenze fondamentali seguite nei processi di riforma, le sottostanti ispirazioni derivanti dalla letteratura economica in tema di tassazione, nonché le maggiori questioni aperte per il futuro.

Una valutazione di sintesi delle recenti tendenze registrate dai sistemi fiscali può essere ricavata osservando innanzitutto l’andamento della pressione fiscale, cioè il rapporto tra il totale dei prelievi fiscali (imposte, tasse e contributi sociali) e il PIL (Prodotto Interno Lordo). Pur trattandosi di un indicatore assai approssimativo – il cui valore dipende tra l’altro da specificità istituzionali quali, ad esempio, la previsione o meno di sottoporre a tassazione i trasferimenti pubblici a favore delle famiglie, o la combinazione tra agevolazioni fiscali e sussidi diretti scelta dal governo per attuare la propria politica ridistributiva (v. OECD, Tax burdens…, 2000) – la pressione fiscale offre alcune indicazioni fondamentali circa la dimensione del carico fiscale complessivo sull’economia.

A partire dall’inizio degli anni ottanta, l’insieme dei paesi dell’area OCSE (Organizzazione per la Cooperazione e lo Sviluppo Economico, od OECD, Organisation for Economic Co-operation and Development) ha registrato un consistente e sostanzialmente ininterrotto incremento della pressione fiscale (circa 5 punti percentuali). Questa evoluzione è stata ancor più marcata nell’aggregato dell’Europa dei 15 che, oltretutto, già all’inizio degli anni ottanta segnava una pressione fiscale di quasi 5 punti percentuali superiore a quella dell’area OCSE. Certamente la crescita del prelievo fiscale ha avuto come causa fondamentale l’ampliamento, in termini di copertura e di generosità delle prestazioni, dei sistemi di welfare nazionali (già a partire dalla metà degli anni sessanta) e le conseguenti necessità di finanziamento soddisfatte soprattutto mediante prelievi sul lavoro (imposta sul reddito personale e contributi sociali). Gli sforzi di consolidamento fiscale richiesti dal percorso verso la moneta unica hanno poi esercitato, limitatamente ai paesi dell’Unione Europea (UE) e a partire dagli anni novanta, ulteriori pressioni verso l’alto sul prelievo fiscale. La spinta prevalente nella crescita del livello della tassazione, tuttavia, nell’ultimo decennio è stata assicurata non più dalle imposte sul reddito personale e dai contributi sociali, ma dalle imposte sulle società e, in misura minore, dalle imposte indirette.

Il periodo più recente mostra qualche debole segno di inversione di tendenza. Già a partire dalla seconda metà degli anni novanta molti paesi hanno adottato politiche di riduzione delle aliquote fiscali delle imposte sui redditi personali e sui profitti societari, politiche che tuttavia non si sono tradotte in una significativa decelerazione nella crescita del prelievo a causa della sostenuta crescita economica. Solo la recente congiuntura negativa ha frenato la corsa del prelievo fiscale, che ha registrato tra il 2000 e il 2001 una contrazione in gran parte dei paesi dell’OCSE.

Questi andamenti generali sottendono tuttavia situazioni fortemente differenziate a livello nazionale, che riflettono i diversi atteggiamenti riguardo all’ampiezza dell’intervento pubblico, le diverse caratteristiche strutturali delle economie e le specificità delle politiche tributarie condotte nei vari paesi. Negli Stati Uniti il prelievo complessivo si è mantenuto pressoché invariato ai livelli assai bassi di 20 anni fa (25% contro 32% della media OCSE), con qualche segno di crescita più marcata soltanto nell’ultimo scorcio degli anni novanta. In Giappone la pressione fiscale è cresciuta negli anni ottanta a partire da livelli ancor più bassi di quelli statunitensi, per poi contrarsi nuovamente nel decennio successivo in conseguenza delle politiche di detassazione adottate dal governo per sostenere il rilancio dell’economia nazionale. L’Italia, infine, tra i paesi dell’OCSE (insieme al gruppo dei paesi mediterranei, Grecia, Turchia, Spagna e Portogallo) è quello che ha sperimentato nel corso del ventennio 1980-2000 la più rapida crescita della pressione fiscale (quasi 12 punti percentuali), determinata soprattutto dalle esigenze di consolidamento fiscale imposte dalla scelta dell’integrazione europea.

Anche la composizione del prelievo complessivo per grandi tipologie di imposte è in qualche misura mutata nel corso del periodo. Nell’area OCSE, la quota delle imposte personali sul reddito, dopo essere cresciuta fortemente fino a metà degli anni settanta, è andata via via contraendosi, mentre è aumentato il peso relativo delle imposte sulle imprese e dei contributi sociali. Stabile è rimasta invece la quota attribuibile alle imposte sui consumi. L’Europa dei 15 registra analoghi andamenti, ma la forte dipendenza dai contributi sociali ha condotto a una riduzione del loro peso negli anni più recenti.

Le (poche) tendenze comuni evidenziate dai sistemi fiscali nazionali negli ultimi vent’anni non comportano necessariamente una convergenza di tali sistemi verso una comune struttura fiscale in termini di livello e composizione del prelievo. Ciò che infatti rileva per la convergenza tra paesi non è soltanto l’emergere di trends comuni, ma anche i differenti punti di partenza e le diverse velocità di evoluzione delle singole forme di prelievo. In questo senso, la crescente globalizzazione dei mercati e le pressioni della Commissione Europea per l’armonizzazione dei sistemi fiscali quale requisito essenziale per il rafforzamento del mercato unico (in particolare per il libero movimento di persone, merci e capitali) hanno effettivamente portato, a partire dagli anni ottanta, a una riduzione della dispersione dei livelli di pressione fiscale complessiva che caratterizzano i paesi europei (v. Messere, 2000). Pur in un quadro di generale aumento della pressione fiscale, questa tendenza alla convergenza trova in gran parte spiegazione nella vistosa crescita del carico fiscale registrata in questi anni dai paesi europei dell’area mediterranea (Italia, Spagna, Grecia), che ha fortemente avvicinato questi sistemi fiscali ai modelli a elevata tassazione prevalenti nell’Europa settentrionale.

A questa tendenza alla convergenza tra i vari paesi non corrisponde tuttavia un’analoga evoluzione della composizione del prelievo per tipologie di imposte. Tra i paesi dell’OCSE la dispersione delle quote delle imposte sui redditi personali sul totale del gettito sembra essere leggermente aumentata (ma diminuita tra i paesi dell’UE), così come non vi sono chiare evidenze di una riduzione delle distan-ze tra paesi nel peso relativo della tassazione dei consumi e dei contributi sociali. Al contrario, sotto la spinta della crescente mobilità internazionale delle società, che impone ai sistemi nazionali di uniformare i livelli di prelievo, dalla seconda metà degli anni ottanta si è assistito a una progressiva convergenza tra Stati Uniti (a partire da valori più elevati) e paesi europei (tra i quali anche l’Italia, a partire da valori più bassi), nella quota relativa della tassazione societaria sul prelievo complessivo, verso valori attorno al 9%.

Nel complesso, i sistemi fiscali nazionali presentano ancor oggi una grande varietà di configurazioni per livello e soprattutto per composizione del prelievo. Molti paesi dell’UE (Francia, Germania, Italia) si affidano maggiormente, rispetto alla media OCSE, ai contributi sociali e meno alle imposte personali sul reddito e alle imposte sui consumi. Al contrario, gli Stati Uniti fanno ricorso più alle imposte personali sul reddito e alle imposte patrimoniali che ai contributi sociali e alle imposte sui consumi. Il Giappone segue l’esempio statunitense per quanto riguarda le basse imposte sui consumi, ma si distingue anche per imposte personali sul reddito poco gravose, compensando i gettiti richiesti con contributi sociali e imposte sulle imprese relativamente più onerose rispetto alla media OCSE.

Va da sé che anche nell’ambito dei paesi dell’UE la pressione della concorrenza fiscale e gli sforzi di armonizzazione delle strutture di prelievo esercitati dalla Commissione Europea non sono stati finora in grado di realizzare le fondamenta di un ‘sistema fiscale europeo’ coerente con il funzionamento efficiente del mercato unico. In particolare, tra i sistemi fiscali europei sono ancor oggi chiaramente identificabili quattro gruppi distinti già evidenziati all’inizio degli anni ottanta (v. Bernardi, 2003): i paesi nordici, dove la pressione fiscale è elevata e sostenuta soprattutto dalle imposte sui redditi; i paesi dell’area renana (Francia e Germania), caratterizzati da un elevato prelievo fiscale che ricorre in misura peculiare ai contributi sociali; i paesi anglosassoni, dove il carico fiscale complessivo è al di sotto della media europea e particolarmente limitato è il ricorso ai contributi sociali; infine, il gruppo dei paesi mediterranei, che dopo la rilevantissima crescita della pressione fiscale sperimentata negli ultimi trent’anni già sopra richiamata, si sono avvicinati al modello renano, pur mantenendo un peso dei contributi sociali e della tassazione indiretta relativamente più contenuto.

I sistemi fiscali nazionali differiscono profondamente anche nella loro articolazione tra i diversi livelli di governo. Anche sotto questo profilo non sembra vada affermandosi un modello comune di decentramento fiscale né tra gli Stati federali né tra quelli unitari. Da un lato, a dispetto delle pressioni politiche per un maggiore decentramento, nel corso degli ultimi due decenni non si è assistito nella generalità dei paesi dell’OCSE a una significativa riattribuzione di risorse fiscali dal centro a favore dei governi subnazionali (un’eccezione rilevante è rappresentata, a partire dall’inizio dagli anni novanta, proprio dall’Italia). Dall’altro, le differenze tra paesi erano e permangono estremamente ampie, anche se in quelli a costituzione federale la quota di entrate fiscali attribuite ai governi subnazionali è in generale maggiore di quella che si registra tra i paesi unitari. Non mancano peraltro casi esattamente opposti, come il basso grado di decentramento dei poteri impositivi in Australia (Stato federale) rispetto a quello realizzato nei paesi scandinavi (Stati unitari).

Le statistiche consentono tuttavia di cogliere soltanto gli aspetti più generali dei processi di devoluzione fiscale in atto: non misurano l’effettivo grado di autonomia fiscale a livello decentrato, che dipende dal reale potere di determinazione e di amministrazione delle imposte attribuito ai governi locali (v. OECD, Taxing powers…, 1999). In molti paesi un’elevata quota di entrate fiscali assegnate ai governi subnazionali è infatti assicurata da compartecipazioni a tributi erariali su cui sono gli Stati centrali a esercitare pieno controllo.

Gli indicatori sintetici esaminati nel capitolo precedente permettono di cogliere solo parzialmente la complessità dell’evoluzione recente dei sistemi fiscali. Al di sotto delle tendenze quantitative, nei due ultimi decenni i sistemi fiscali dei maggiori paesi sono stati investiti da processi di riforma talvolta radicali e innovativi, in altri casi di mero aggiustamento rispetto ai mutamenti della struttura economica. Le scelte di politica tributaria che hanno ispirato queste riforme e gli elementi strutturali esterni che ne hanno sollecitato l’adozione e condizionato i risultati sono stati molteplici e spesso tra loro confliggenti. Possiamo identificare almeno due fondamentali fattori di cambiamento. Innanzitutto i processi di globalizzazione, di integrazione internazionale dei mercati e di liberalizzazione valutaria, che hanno favorito una maggiore mobilità dei fattori produttivi e delle merci con connessi guadagni in termini di allocazione efficiente delle risorse. Nello stesso tempo, tuttavia, tali processi hanno incentivato i singoli paesi a utilizzare in modo strategico e non coordinato le proprie variabili fiscali attraverso la continua e generalizzata riduzione delle aliquote sui redditi dotati di elevata mobilità internazionale, attivando in tal modo forme di concorrenza fiscale dannosa tra paesi (v. Keen, 1999; v. Wilson, 1999) che hanno effetti negativi sul benessere della collettività nel suo complesso e impongono adeguate forme di coordinamento a livello internazionale.

Un secondo fattore di cambiamento è stata, a partire dalla metà degli anni settanta, la priorità attribuita nel dibattito politico e teorico agli obiettivi di efficienza, neutralità e semplificazione dei sistemi tributari rispetto a quelli di equità e ridistribuzione dei redditi fino a quel momento prevalenti. Questo ribaltamento di priorità è collegato innanzitutto al rafforzamento, nell’ambito del dibattito accademico, delle posizioni della nuova macroeconomia classica (in particolare di Robert E. Lucas e Thomas J. Sargent) con l’accento posto sul ruolo dell’offerta aggregata, e alla contemporanea difficoltà delle tradizionali politiche di controllo della domanda aggregata di ispirazione keynesiana nel risollevare le economie dalla stagflazione (inflazione accoppiata a depressione nei tassi di crescita economica) prevalente tra la fine degli anni settanta e l’inizio del decennio successivo. La necessità di disegnare una struttura fiscale più favorevole alla crescita economica si è poi riproposta con forza in tempi più recenti, con riferimento soprattutto ai sistemi di tassazione europei: l’insoddisfacente performance delle economie europee negli anni novanta rispetto a quella registrata negli Stati Uniti è stata in parte ricondotta ai modi di operare dei sistemi fiscali europei e, nello specifico, alla crescita del carico fiscale complessivo insieme con le forti interferenze prodotte sulla formazione del risparmio, sulle decisioni di investimento e sull’offerta di lavoro (v. Leibfritz e altri, 1997). L’esigenza di una maggiore neutralità nel sistema tributario è stata tuttavia interpretata anche nel senso di costruire strutture fiscali più robuste per contrastare i fenomeni di elusione fiscale, soprattutto nell’ambito della tassazione delle attività finanziarie e dei redditi di impresa. Imprese e investitori professionali pongono in essere operazioni di arbitraggio per sfruttare i trattamenti fiscali differenziati previsti per attività o redditi di natura analoga, con conseguenti costi per l’erario in termini di mancato gettito e per la collettività più in generale in termini di effetti ridistributivi indesiderati e alterazioni delle condizioni di concorrenza. Da qui l’esigenza di disegnare sistemi fiscali più generali e omogenei al fine di contrastare le pratiche elusive sempre più diffuse a causa della sofisticazione dei mercati dei capitali e della crescente integrazione internazionale dei mercati.

Globalizzazione dei mercati e richieste di maggiore neutralità della tassazione si sono poi combinate nell’esperienza recente dei sistemi tributari europei con due ulteriori fattori, in parte contrastanti con quelli precedenti. Da un lato, il percorso di consolidamento fiscale imposto per l’adesione alla moneta unica prima dal Trattato di Maastricht e poi dal Patto di stabilità e crescita hanno richiesto e continueranno a richiedere nel futuro un’elevata pressione fiscale, stante la restrittività delle regole fiscali europee e le difficoltà strutturali di soddisfarle mediante il contenimento della spesa sociale. Dall’altro lato, le spinte verso il federalismo fiscale hanno imposto – e ancor più imporranno nel futuro – un ridisegno dei sistemi fiscali coerente con le nuove esigenze di finanziamento dei diversi livelli di governo. E ciò in relazione sia alle riforme già attuate in molti paesi negli anni novanta, volte a rafforzare le competenze dei governi locali, sia alle riflessioni in atto a livello istituzionale e teorico sull’opportunità di una più generale riattribuzione delle funzioni pubbliche tra Comunità Europea, Stati-nazione e governi locali sotto l’influsso congiunto della crescente integrazione internazionale e della valorizzazione delle preferenze locali (v. European Commission, 1993; v. Bertola e altri, 2000; v. Tabellini, 2002).

L’impatto di questi fattori generali di cambiamento sulle singole tipologie di prelievo è stato tuttavia assai differenziato in termini di portata degli effetti esercitati e di ampiezza delle riforme adottate. I paragrafi successivi saranno dedicati all’analisi delle maggiori macrocategorie di imposte.

a) L’imposta personale sul reddito
Fino alla metà degli anni settanta sia tra policy makers (si veda il noto rapporto della Canadian Royal Commission on Taxation del 1966), sia tra gli osservatori accademici (ad esempio Richard Goode, Joseph Pechman e il già citato Musgrave) era prevalente l’opinione che la modalità più equa di tassazione consistesse nell’affidarsi a un’imposta progressiva sul reddito personale su base onnicomprensiva, cioè definita in termini di incremento delle potenzialità di spesa del contribuente nel periodo di riferimento secondo la tradizionale definizione di Robert M. Haig e Henry Simons. Il fatto che un’unica imposta progressiva sia applicata alla somma di tutti i redditi prodotti, qualunque sia la loro fonte, comporta tra l’altro, per quanto riguarda la disponibilità di redditi prodotti all’estero, l’applicazione del principio della residenza, cioè della riconduzione di tali redditi, qualunque sia il paese in cui siano stati prodotti, al sistema fiscale del paese di residenza del loro percettore (tassazione secondo il worldwide system; v. sotto, § c).
A partire da quegli anni, tuttavia, intorno al modello della tassazione progressiva sul reddito onnicomprensivo cominciavano ad addensarsi insoddisfazioni e critiche (v. Cnossen e Bird, 1990). Sul piano empirico, le difficoltà applicative del concetto di reddito onnicomprensivo avevano a che fare con distorsioni economiche, complessità amministrative, iniquità orizzontali (ad esempio, in relazione alla proliferazione dei regimi speciali e alla tassazione delle plusvalenze realizzate al posto di quelle maturate), insieme con l’accentuata progressività che, in tempi di forte stagflazione, erodeva pesantemente i redditi reali. Sul piano teorico, gli esponenti della supply side economics sottolineavano come la progressività dell’imposta personale indebolisse gli incentivi economici all’offerta dei fattori produttivi, con gravi effetti negativi sulla crescita economica. In aggiunta, molti osservatori, riprendendo un filone di pensiero che si rifaceva a Nicholas Kaldor e ancor prima a Thomas Hobbes, evidenziavano i meriti della tassazione sul reddito-consumo (o reddito-spesa) rispetto a quella sul reddito onnicomprensivo, in quanto la prima, esentando il risparmio, avrebbe consentito di evitare la ‘doppia tassazione del risparmio’ o quanto meno avrebbe ridotto le esistenti distorsioni fiscali tra differenti forme di risparmio, alcune fiscalmente agevolate e altre no.
La conclusione di questo dibattito fu segnata nel 1986 dall’adozione negli Stati Uniti della riforma promossa da Ronald Reagan. Al centro della riforma si poneva una radicale revisione della struttura degli scaglioni e delle corrispondenti aliquote marginali. La nuova imposta personale sui redditi prevedeva infatti una riduzione del numero degli scaglioni, una flessione generalizzata delle aliquote marginali accompagnata da un appiattimento della curva di progressività realizzato mediante un taglio deciso all’aliquota marginale sullo scaglione più elevato (ben 22 punti percentuali). Sotto il profilo dell’equità, la compressione delle aliquote marginali veniva almeno parzialmente compensata da un innalzamento dei limiti di reddito esente da tassazione, mentre, per evitare cadute di gettito, la riforma affiancava alla diminuzione delle aliquote misure di allargamento della base imponibile realizzate attraverso la cancellazione di esenzioni e regimi speciali (veniva, ad esempio, fortemente aggravato il prelievo sulle plusvalenze realizzate).
Pur nell’ambito di valutazioni non sempre univoche, gli effetti della riforma Reagan sembrano essere stati relativamente modesti. In particolare, sul piano dell’efficienza, la risposta in termini di incremento dell’offerta complessiva di lavoro e risparmio è stata limitata, anche se è incerto se tale risultato sia il riflesso di una bassa elasticità di sostituzione rispetto al livello assoluto del prelievo (come evidenziato, per esempio, da Leibfritz e altri, 1997) o piuttosto del fatto che la riforma non è stata in grado di indurre una riduzione sufficientemente ampia dei prezzi relativi rilevanti (v. Auerbach e Slemrod, 1997).

La riforma americana del 1986, e gli interventi che in molti paesi (Australia, Austria, Canada, Italia, Olanda) negli anni immediatamente successivi si ispirarono alla formula ‘riduzione delle aliquote più elevate-allargamento della base imponibile-semplificazione degli scaglioni’, hanno certamente rappresentato un momento di indebolimento del modello della tassazione progressiva sul reddito onnicomprensivo (v. Slemrod, 1990). Una rottura ben più radicale con quel paradigma è stata invece segnata dalle riforme che portarono in alcuni paesi scandinavi (in ordine di tempo, Danimarca, Svezia, Norvegia, Finlandia) tra il 1987 e il 1993 all’introduzione di forme di Dual Income Taxation (DIT: v. Sørensen, 1994; v. Cnossen, 1999). Pur nella diversità delle applicazioni concrete, il modello della DIT prevede l’applicazione di un’imposta proporzionale uniforme (flat rate tax) su tutte le forme di redditi da capitali (interessi, dividendi, plusvalenze), mentre i redditi derivanti da altre fonti (essenzialmente redditi da lavoro) rimangono assoggettati all’imposta progressiva. In generale, l’aliquota unica di prelievo sui redditi da capitale è posta pari all’aliquota base della tassazione progressiva.

La motivazione fondamentale dell’adozione di forme di tassazione duale del reddito sta nel fatto che si tenta in tal modo di conservare una qualche forma di prelievo sui redditi da capitale, pur in un quadro di elevata e crescente mobilità internazionale dei capitali stessi, e insieme di raggiungere l’obiettivo di assicurare una maggiore neutralità nel trattamento fiscale dei redditi da capitale in generale, contrastando così anche diffuse pratiche di elusione fiscale rese possibili dai trattamenti differenziati delle varie attività finanziarie. Su un piano più teorico, la DIT sarebbe giustificata sia da una maggiore equità, in quanto detassando i rendimenti dei redditi da capitale ci si avvicina al concetto di reddito-consumo e quindi si evita la doppia tassazione del risparmio, sia da una maggiore efficienza, perché tassa maggiormente il lavoro che è caratterizzato da una offerta più rigida rispetto al proprio prezzo di quanto non sia quella del capitale, in coerenza con quanto prescritto dalla teoria della tassazione ottimale. D’altra parte, la DIT comporta problemi di iniquità orizzontale in quanto, abbandonando il riferimento al criterio della capacità contributiva e costruendo di fatto un insieme di imposte reali con aliquote differenziate, riserva trattamenti fiscali differenziati a contribuenti con eguale reddito complessivo ma con differente composizione delle fonti tra lavoro e capitale. Inoltre, incoraggia operazioni di elusione fiscale, in particolare da parte delle piccole imprese e dei lavoratori autonomi, per i quali la distinzione tra redditi da lavoro e da capitale non è sempre immediata da tracciare (v. Strand, 1999; v. Van den Noord, 2000).

Pur non adottando un sistema puro di tassazione duale, molti paesi dell’area UE (per esempio Austria, Francia, Germania, Grecia, Italia e Spagna) hanno approvato negli anni recenti riforme fiscali che prevedono per interessi e plusvalenze forme di tassazione cedolare ad aliquote uniformi (pur non estendendo questo trattamento agevolato a tutti i redditi da capitale, come nel caso della DIT nordica), generalmente inferiori alle aliquote marginali che gravano sui redditi da lavoro nell’ambito dell’imposta personale e progressiva. L’orientamento verso imposte basse e proporzionali sui redditi da capitale (anche se non estese necessariamente a tutte le forme di rendimento del capitale, come invece è il caso della DIT nordica) riflette le preoccupazioni dei sistemi nazionali tanto di tutelare la propria competitività su un mercato dei capitali internazionale sempre più integrato, anche in relazione all’avvento della moneta unica, quanto di ridurre le possibilità di manovre elusive che traggono alimento proprio dalla differenziazione dei trattamenti fiscali.

Queste riforme, e le pressioni a esse sottostanti, concorrono a spiegare una delle linee evolutive che più chiaramente emerge dall’esperienza recente dei sistemi fiscali europei: la forte crescita della tassazione sul lavoro rispetto a quella su fattori più mobili, come il capitale. Nei paesi dell’UE, tra il 1970 e il 1999, l’aliquota media effettiva (ex post) sul lavoro è aumentata del 47% (circa 12 punti di aliquota), mentre quella corrispondente sul capitale soltanto del 24% (meno di 5 punti d’aliquota). Il risultato è che oggi, nella media UE, mentre il capitale sconta un prelievo medio effettivo del 24%, il lavoro è gravato da un’aliquota media effettiva pari a quasi il 38%, di circa 15 punti d’aliquota superiore a quella di Stati Uniti e Giappone (v. EUROSTAT, 2000; v. Cnossen, 2002; per i profili metodologici, v. Mendoza e altri, 1994; v. Martinez-Mongay, 2000). Anche se il calcolo delle aliquote effettive non è privo di problemi metodologici, non c’è dubbio che un livello di tassazione così elevato si rifletta sul funzionamento dei mercati del lavoro: nella misura in cui il prelievo sul lavoro viene traslato sul costo del lavoro a carico delle imprese, si generano incentivi alla sostituzione del lavoro (soprattutto quello a bassa specializzazione) con altri fattori produttivi o alla delocalizzazione delle produzioni in paesi a più basso costo del lavoro; nella misura in cui rimane a carico del salario, si scoraggia la ricerca di occupazione e lo sforzo lavorativo. Ciò ha indotto le organizzazioni internazionali (v., ad esempio, OECD, Implementing…, 1999) a raccomandare, e singoli paesi ad adottare a partire dalla seconda metà degli anni novanta, misure di taglio dei contributi sociali per incentivare la domanda di lavoro soprattutto nelle fasce di occupazione a più bassa specializzazione, interventi di traslazione del peso fiscale dal lavoro agli altri fattori produttivi (è il caso della sostituzione, in Italia, dei contributi sanitari con un’imposta ad ampia base imponibile denominata IRAP, Imposta Regionale sulle Attività Produttive) o alle attività fortemente inquinanti (il cosiddetto double dividend approach), crediti di imposta per rendere più attraente la partecipazione al lavoro delle donne e dei lavoratori poco specializzati.

b) La tassazione delle imprese
Integrazione dei mercati e richieste di maggiore neutralità nel prelievo fiscale hanno segnato l’evoluzione recente anche dei sistemi di tassazione delle imprese. La strategia ‘riduzione delle aliquote-allargamento della base imponibile’, già discussa a proposito dell’imposta personale sui redditi, è stata il segno distintivo anche delle riforme attuate a partire dalla metà degli anni ottanta in quasi tutti i paesi dell’OCSE sulla scia del Tax reform act statunitense. Sotto la pressione della competizione fiscale internazionale (v. OECD, 1991; v. Bretschger e Hettich, 2002; v. Devereux e altri, 2002), le aliquote legali (nazionali e locali) sui redditi societari sono state quasi ovunque nettamente ridotte (ma con l’Italia in controtendenza fino alla riforma del 1998), in molti paesi anche di più di 15 punti di aliquota (ad esempio, Francia, Germania, Olanda, Portogallo, Regno Unito); nella media dell’UE la caduta è stata dal 47% al 32% tra il 1980 e il 2003 (aliquota prevista sulla base della legislazione vigente: v. Gorter e de Mooij, 2001; v. Giannini, 2002). Benché le aliquote legali risultino ancor oggi in qualche misura differenziate tra i paesi dell’UE, l’evoluzione recente indica una tendenza alla convergenza verso una media europea attorno al 32%. Parallelamente, per evitare insostenibili cadute di gettito, le basi imponibili sono state ampliate mediante una grande varietà di interventi, tra cui innanzitutto la cancellazione di agevolazioni speciali, la previsione di regole di ammortamento e di valutazione delle scorte meno favorevoli, la riduzione di sgravi fiscali sugli investimenti.

Gli anni ottanta e novanta sono stati anche segnati dal dibattito, in ambito sia accademico che governativo, sulla non neutralità del modello tradizionale di tassazione societaria e sulle riforme, rimaste in parte solo allo stadio di proposta, volte a ridurre le distorsioni fiscali rispetto alle scelte delle imprese. In termini generali, in un approccio marginalista che pone esclusiva attenzione agli effetti che il sistema tributario esercita sui nuovi investimenti e non al livello di prelievo complessivo realizzato in capo all’impresa, due differenti modalità di tassazione neutrale sono concepibili. Da un lato, la cash flow tax che tassa i flussi di cassa senza deducibilità dei costi finanziari dell’investimento (qualunque sia la fonte), ma con immediata deducibilità dei costi sostenuti per l’acquisto dei beni strumentali (v. Meade Committee, 1978; v. Sinn, 1987); dall’altro lato, la tassazione dei profitti di impresa con deducibilità del costo del finanziamento (qualunque sia la fonte), ma con deducibilità delle spese di investimento limitata al solo vero ammortamento economico.

Pur essendo stata ampiamente dibattuta anche in termini operativi (Regno Unito, Irlanda, Svezia, Stati Uniti), la cash flow tax non ha mai trovato effettiva realizzazione. Al contrario, nei sistemi fiscali concreti la tassazione del reddito di impresa si applica generalmente secondo modalità che la rendono non neutrale rispetto alle scelte di finanziamento delle imprese. La deducibilità nella determinazione della base imponibile degli interessi passivi corrispondenti al finanziamento mediante capitale di debito (emissioni di obbligazioni o credito bancario), ma non del costo sostenuto in caso di finanziamento mediante capitale di rischio (emissioni azionarie o profitti ritenuti), genera un forte incentivo a favore del finanziamento con debito. E questa discriminazione si rafforza quando si consideri, accanto alla tassazione di impresa, anche la tassazione dei capitali a livello personale, che in generale riserva un trattamento fiscale più gravoso ai dividendi percepiti dal socio rispetto agli interessi attivi ricevuti dal prestatore di capitale di debito. Questa distorsione fiscale può spingere le imprese a sottocapitalizzarsi (il che le espone maggiormente al rischio dell’insolvenza, discrimina le nuove imprese che hanno maggiori difficoltà di accesso al credito, e può esacerbare, a livello macroeconomico, le fluttuazioni del ciclo) e incentiva pratiche elusive quali la thin capitalization (trasformazione degli utili di impresa in interessi passivi, in quanto tali deducibili ai fini della tassazione societaria, mediante l’emissione di obbligazioni sottoscritte dai soci stessi; il differenziale tra l’aliquota dell’imposta societaria sugli utili e quella dell’imposta personale sugli interessi attivi percepiti dai soci misura la convenienza dell’operazione elusiva).

Accanto alla discussione sulla concreta applicabilità della cash flow tax, il dibattito sulle possibili configurazioni di un’imposta societaria neutrale rispetto alle scelte di finanziamento delle imprese ha portato a una varietà di proposte (per una discussione, v. Cnossen, 1996). Qui se ne ricordano due. Da un lato, la tassazione secondo il sistema CBIT (Comprehensive Business Income Tax) proposto dal Tesoro americano (v. US Department of the Treasury, 1992), che consiste nel tassare l’intero flusso di reddito generato dall’investimento prima del pagamento di interessi passivi e/o di dividendi. Non è inoltre prevista alcuna tassazione di tali interessi o dividendi a livello personale per i soci o per i sottoscrittori del debito. Dall’altro, il modello di tassazione ACE (Allowance for Corporate Equity; v. IFS, 1991), che prevede la separazione, all’interno dei profitti di impresa, di due componenti: la prima rappresentata dalla remunerazione ordinaria del capitale proprio investito, che viene interamente dedotta e quindi totalmente esclusa dalla tassazione; la seconda, residuale rispetto al totale dei profitti, che invece assume natura di extra profitto o di rendita e che è assoggetta alla normale aliquota dell’imposta societaria. Benché il modello ACE nella sua configurazione pura non abbia trovato concreta attuazione, ha certamente influenzato l’adozione di forme di tassazione duale dei redditi di impresa in Italia tra il 1997 e il 2000 e in Austria a partire dal 2000.

Come detto, la discriminazione ai danni del finanziamento mediante ricorso a capitale proprio e a favore dell’indebitamento può derivare sia dalla tassazione degli utili in capo alla società, sia dall’esistenza di un trattamento differenziato dei profitti distribuiti e non distribuiti e degli interessi in sede di imposta personale. Perciò la neutralità delle scelte finanziarie e di investimento delle imprese richiede anche un sistema di prelievo omogeneo dei redditi finanziari ottenuti dagli individui che finanziano l’impresa. In particolare, per essere neutrale, un sistema fiscale che a livello di impresa ammetta la piena deducibilità dei soli interessi passivi, come è nel modello tradizionale, deve da un lato garantire che le imposte versate dalla società sugli utili distribuiti (dividendi) e non (plusvalenze) siano rimborsati al socio (cioè vi sia integrazione tra tassazione societaria e tassazione personale) e, dall’altro, assoggettare a un prelievo omogeneo a livello personale dividendi, plusvalenze e interessi.

Queste considerazioni richiamano uno degli aspetti più controversi nella discussione sui sistemi di imposizione societaria: quello della tassazione dei dividendi. Il punto centrale riguarda la questione se sia opportuno integrare e, in caso di risposta affermativa, secondo quali modalità, la tassazione societaria degli utili di impresa (che tassa indistintamente tutti i profitti) e la tassazione personale dei dividendi che colpisce nuovamente in capo al socio gli utili, al netto della tassazione societaria, che vengono distribuiti. L’idea che la società di capitali sia un soggetto distinto dai propri soci conduce a escludere l’opportunità di una qualche forma di integrazione tra i due livelli di tassazione: è il caso della doppia tassazione dei dividendi o classical system. Se si ritiene invece opportuno evitare il doppio prelievo sui dividendi, l’integrazione tra tassazione societaria e tassazione personale può essere realizzata riducendo o cancellando l’imposta personale sui dividendi ricevuti dal socio, oppure l’imposta societaria sui profitti distribuiti. La prima possibilità di integrazione può assumere modalità diverse. Da un lato si possono prevedere sgravi fiscali di vario tipo sulle imposte personali del socio (quali anche l’assoggettamento ad aliquote proporzionali e relativamente basse), il cui ammontare non è tuttavia direttamente connesso con l’importo dell’imposta societaria pagata a monte sui profitti distribuiti (shareholder dividend relief schemes). L’altra possibilità è quella di rendere il credito fiscale riconosciuto al socio sulla propria tassazione personale funzione diretta dell’imposta pagata dalla società sugli utili distribuiti (imputation system, proposto originariamente dalla Commissione Carter). In particolare, si parla di full imputation quando il credito a favore del socio rispecchia interamente quanto pagato dalla società. Anche la seconda possibilità di integrazione, quella che riequilibra il trattamento fiscale complessivo tra utili distribuiti e ritenuti intervenendo a livello societario, può assumere dal punto di vista operativo forme differenti: si può applicare ai soli utili distribuiti un’aliquota societaria agevolata (split-rate system) o addirittura un’aliquota nulla (zero rate method); oppure si può dedurre una quota dei profitti distribuiti dalla base imponibile della tassazione societaria (dividend deduction system).

Il panorama delle modalità di tassazione dei dividendi applicate nei paesi dell’OCSE (a favore dei residenti) è quanto mai vario (a titolo di esempio, classical system negli Stati Uniti e in Olanda, full imputation in Australia e Francia, partial imputation nel Regno Unito, shareholder dividend relief in Giappone, Svezia e Belgio), e per di più nel corso degli ultimi due decenni alcuni paesi hanno introdotto riforme che modificano il regime precedentemente adottato. Se qualche elemento di convergenza nelle riforme più recenti può essere riconosciuto, questo sta nel ripensamento in corso in vari paesi sull’ottimalità dell’imputation system e nella tendenza a un ritorno al classical system. In un quadro di crescente integrazione internazionale dei capitali, infatti, l’imputation system da un lato appare sempre meno efficace nel correggere la distorsione dei sistemi fiscali nazionali a danno del capitale proprio nel finanziamento delle imprese e, dall’altro, discrimina gli investimenti stranieri. Se le imprese possono finanziare i loro investimenti sul mercato internazionale dei capitali e il capitale è in grado di spostarsi liberamente, interventi unilaterali di riforma della tassazione personale dei dividendi decisi a livello nazionale influenzeranno solo marginalmente le loro scelte finanziarie. Inoltre, in assenza di una rete adeguata di trattati fiscali bilaterali, l’imputation system può discriminare le imprese e gli azionisti stranieri. Infatti, gli imputation systems nazionali non riconoscono generalmente alcuna agevolazione a favore dei propri residenti che siano soci di società costituite all’estero sulle imposte societarie pagate in altri paesi (outward investments); così come, specularmente, non estendono a soci non residenti il credito fiscale sulle imposte societarie pagate in sede nazionale (inward investments). Ne deriva un doppio incentivo, da un lato per i risparmiatori a sottoscrivere azioni nazionali, dall’altro per le società a generare i propri profitti in ambito nazionale piuttosto che su base internazionale, cioè a scoraggiare tanto gli outward investments quanto gli inward investments. Le difficoltà evidenziate dall’imputation system, insieme con gli spazi offerti a pratiche elusive, hanno spinto molti paesi, come accennato, a riconsiderare le soluzioni adottate per il trattamento fiscale dei dividendi. Ad esempio, la Germania nel 2002 ha abbandonato il full imputation system per passare a un sistema di integrazione parziale in cui solo metà dei dividendi ricevuti da investimenti sia interni che stranieri è assoggettata all’imposta personale progressiva (per una visione critica, v. Keen, 2002). L’Italia ha previsto nel 1997 la scelta tra full imputation e un sistema di shareholder dividend relief in relazione a specifici casi, mentre con la riforma fiscale di prossima attuazione verrà adottato un sistema simile a quello tedesco.

L’interrogativo se la maggiore mobilità dei capitali abbia effettivamente portato a una riduzione del carico fiscale complessivo sulle imprese richiede la considerazione congiunta di queste due linee di riforma (il taglio delle aliquote da un lato e l’allargamento della base imponibile dall’altro).

Gli effetti che gli interventi di riforma descritti in questo paragrafo hanno avuto sul carico fiscale complessivo sulle imprese, e in particolare sugli incentivi/disincentivi determinati dai sistemi fiscali sulle scelte di investimento e finanziarie delle imprese, possono essere valutati facendo ricorso a un indicatore ampiamente utilizzato in questo tipo di valutazioni, ossia le aliquote effettive marginali di imposta (di tipo forward-looking, cioè calcolate sulla base della normativa fiscale: v. King e Fuellerton, 1984; v. European Commission, 1992 e 2002). In particolare, le aliquote effettive marginali di imposta misurano la differenza in termini percentuali tra i tassi di rendimento pre- e post-imposta richiesti dal risparmiatore sui progetti marginali di investimento, sintetizzando in un unico indice tutti gli elementi costitutivi della tassazione societaria e di quella personale (in termini sia di aliquota che di base imponibile) che hanno effetto sulle decisioni di investimento. Al di là della restrittività delle assunzioni sottostanti alla loro determinazione (scelte di investimento ottimizzanti, competizione perfetta, rendimenti di scala decrescenti del capitale impiegato, investimenti infinitamente divisibili, ecc.), le aliquote effettive marginali, sebbene differiscano in misura consistente tra paesi, sembrano mostrare nel corso degli anni novanta una sostanziale stabilità. Il medesimo risultato si ritrova considerando altri indicatori proposti per la misura delle aliquote effettive: le aliquote medie effettive forward-looking, sviluppate da Michael Devereux e Rachel Griffith (v., 1998) e da Otto H. Jacobs e Christoph Spengel (v., 1999), le aliquote effettive backward-looking basate su dati micro a livello di impresa (v. Nicodème, 2001). Benché vadano accolte con cautela, queste indicazioni evidenziano dunque una discordanza tra riduzione delle aliquote legali e sostanziale invarianza delle aliquote effettive che può trovare spiegazione nel contemporaneo ampliamento della base imponibile della tassazione societaria (v. Gorter e de Mooij, 2001). Nel contempo, tuttavia, in molti paesi si sono in qualche misura ridotte le differenze di aliquote effettive tra investimenti finanziati con debito e investimenti finanziati con nuove azioni o profitti reinvestiti. A questa minore convenienza al ricorso al capitale di debito hanno contribuito sia il venir meno della forte inflazione degli anni ottanta (che è uno degli incentivi fondamentali al finanziamento con debito), sia ancora la contrazione delle aliquote legali sulle società. In conclusione, le riforme della tassazione societaria degli anni novanta sembrano non aver prodotto una riduzione significativa del peso fiscale effettivo sulle imprese, non fornendo per questa via adeguati incentivi agli investimenti, ma nel contempo sembrano aver segnato qualche progresso in termini di maggiore neutralità nelle scelte finanziarie delle imprese.

c) La tassazione del capitale finanziario
Negli anni novanta anche la tassazione del capitale finanziario ha registrato nei paesi europei una netta riduzione delle aliquote legali applicate a livello personale, sia sugli interessi (dal 46% al 37%) che sulle plusvalenze (dal 39% al 27%; v. Gorter e de Mooij, 2001). Questa caduta del prelievo sulle rendite finanziarie si è realizzata in alcuni paesi attraverso riforme che hanno sottratto le rendite finanziarie alla tassazione personale e progressiva e le hanno assoggettate a forme di imposizione separata di tipo proporzionale, generalmente ad aliquota contenuta, spesso tendenzialmente omogenee per tutte le forme di rendite finanziarie (questa tendenza all’omogeneità nei trattamenti finanziari si è manifestata anche in Italia con la riforma del 1997, pur partendo già da un sistema generalizzato di imposte sostitutive ma fortemente differenziate). Come discusso ampiamente nel cap. 3, § a, la crescente cedolarizzazione dei redditi da capitale ha trovato la sua realizzazione più compiuta nelle forme di Dual Income Taxation adottate in alcuni paesi scandinavi tra la fine degli anni ottanta e l’inizio degli anni novanta. Attualmente, più in generale, nell’area UE ben 8 paesi tassano gli interessi (sulle obbligazioni) percepiti da non residenti con forme di ritenuta definitiva (in taluni casi per opzione), peraltro adottando aliquote relativamente diversificate.

L’orientamento verso questo assetto fiscale nella tassazione dei capitali è riconducibile a due elementi già più volte richiamati. Da un lato, l’integrazione dei mercati dei capitali a livello internazionale – a seguito della liberalizzazione valutaria avviata in Europa a partire dalla direttiva comunitaria del 1988 e della diffusione degli strumenti informatici a supporto alle transazioni finanziarie – rende difficile accertare da parte delle autorità fiscali nazionali i redditi da capitale realizzati all’estero dai propri residenti e, al contempo, spinge ad attrarre i capitali degli investitori non residenti. Dall’altro lato, si rafforza l’esigenza di omogeneizzare all’interno dei sistemi fiscali nazionali i trattamenti previsti per le varie attività finanziarie, allo scopo di ridurre gli spazi per operazioni di arbitraggio fiscale e prevenire possibili comportamenti di natura elusiva, anche a seguito degli ampi processi di innovazione finanziaria in atto e, in particolare, della crescente diffusione dei cosiddetti contratti derivati (swap, futures, options). Va evidenziato, infatti, come mediante i nuovi strumenti finanziari sia possibile replicare le caratteristiche sostanziali degli strumenti finanziari tradizionali senza per questo ricadere nelle categorie formali previste dalla normativa fiscale, con conseguente difficoltà per le autorità a ricondurre questi proventi a tassazione (v. Alworth, 1998).

L’ovvia controindicazione a questa tendenza alla tassazione del capitale finanziario secondo aliquote proporzionali e relativamente contenute sta nell’indebolimento della portata ridistributiva del sistema fiscale nel suo complesso, tenuto conto che i redditi da capitale assumono un peso relativo maggiore nei livelli più elevati di reddito. Inoltre rimangono ancora, seppur indebolite secondo quanto discusso nel precedente paragrafo, le discriminazioni fiscali tra investimenti finanziati con debito e investimenti finanziati con nuove azioni o profitti reinvestiti.

Queste considerazioni generali vanno tuttavia meglio specificate, soprattutto con riferimento ai profili internazionali della tassazione delle rendite finanziarie. In un mondo in cui le autorità fiscali nazionali disponessero di una perfetta informazione circa i redditi prodotti all’estero dai propri residenti e in cui la mobilità internazionale dei capitali fosse limitata (prescindendo dall’elasticità nell’offerta del risparmio), ciascun paese avrebbe convenienza a imporre aliquote elevate sia sui redditi da capitale percepiti all’estero dai propri residenti, sia su quelli prodotti nel paese considerato dai non residenti.

Tuttavia, mancando questi due presupposti, ciascun paese avrà un incentivo a ridurre entrambe le aliquote in questione. Da un lato, se con la liberalizzazione valutaria le autorità fiscali non disporranno di adeguate informazioni sui redditi prodotti all’estero da parte dei propri residenti, tenderanno a frenare le fughe di capitali nazionali verso l’estero sottoponendo i residenti ad aliquote basse. Dall’altro lato, se la mobilità dei capitali è elevata, gli investitori stranieri localizzeranno i propri capitali nei paesi che sottopongono i rendimenti corrispondenti ad aliquote relativamente basse. Si avvia perciò un processo di competizione fiscale tra paesi che, in assenza di un loro coordinamento, porta a un’esenzione completa del fattore mobile (il capitale), ponendo tutto l’onere delle imposte sul fattore immobile (il lavoro; v. Razin e Sadka, 1991). Questo è ciò che in qualche misura è accaduto nei paesi europei: a seguito della liberalizzazione valutaria si sono diffusi, come sopra richiamato, regimi sostitutivi e agevolati sui redditi da capitale percepiti dai residenti e sono state progressivamente introdotte misure di esenzione totale o parziale dei redditi da capitale corrisposti a cittadini non residenti, con il conseguente aprirsi di una forbice sempre più ampia tra tassazione sul lavoro e tassazione sul capitale (v. sopra, cap. 3, § a).

La strategia per evitare la progressiva scomparsa di ogni tassazione sui redditi da capitale in ambito internazionale è ovviamente quella del coordinamento fiscale tra paesi. Nell’ambito del dibattito sulla materia in corso da tempo nell’UE sono state proposte due differenti modalità di coordinamento. La prima consiste nel promuovere uno scambio automatico di informazioni tra paesi sui redditi percepiti da non residenti (in termini di identità dell’investitore e ammontare dell’investimento). In questo modo sarebbe possibile superare il problema della non perfetta controllabilità da parte delle autorità nazionali e realizzare per tale via una tassazione dei redditi finanziari secondo il cosiddetto principio della residenza, cioè tassare il reddito da capitale esclusivamente nel paese di residenza dell’investitore (anche con aliquote differenziate tra paesi), esentandolo completamente nel paese dove è prodotto, o gravandolo di una ritenuta a solo titolo di acconto da scontare poi nel paese di residenza (principio della residenza mista). In alternativa, le diverse autorità nazionali possono concordare l’introduzione di una tassazione alla fonte minima e uniforme sui rendimenti da capitale percepiti dai non residenti. Questa seconda modalità realizzerebbe una tassazione coerente con il cosiddetto principio della fonte (cioè prelievo esclusivamente nel paese dove il reddito è prodotto, con esenzione nel paese di residenza dell’investitore) nel caso in cui la ritenuta alla fonte fosse considerata definitiva, con l’impegno dei paesi di residenza a non sottoporre i redditi a ulteriori tassazioni. La scelta dell’una o dell’altra modalità di coordinamento consente peraltro di evitare la doppia tassazione dei redditi percepiti da non residenti, una prima volta nel paese-fonte e successivamente nel paese di residenza dell’investitore. Una doppia tassazione determinerebbe, infatti, un disincentivo alla mobilità internazionale dei capitali, da un lato favorendo nella tassazione dei redditi prodotti in un dato paese gli investitori residenti rispetto ai non residenti, e dall’altro disincentivando i residenti dall’investire al di fuori del proprio paese di residenza.

La scelta tra tassazione secondo il principio della residenza o secondo il principio della fonte (e quindi la scelta tra le due modalità di coordinamento) può essere valutata con riferimento a una molteplicità di criteri: l’efficienza allocativa, la ripartizione del gettito tra paesi, l’effettiva implementabilità. Sul piano dell’efficienza vi è consenso tra gli economisti nel riconoscere la superiorità del principio della residenza (che comporta la cosiddetta capital export neutrality) sul principio della fonte (che invece implica la capital import neutrality: per una discussione, v. Keen, 1993; v. Sørensen, 1993). Tra le molte considerazioni possibili, va infatti rilevato che l’evidenza empirica mostra come le distorsioni dell’allocazione del capitale tra paesi (che sarebbero evitate dall’applicazione del principio della residenza) comporterebbero un costo in termini di benessere collettivo più elevato rispetto alle distorsioni del risparmio nel tempo (che sarebbero invece minimizzate dal principio della fonte). Quanto poi alla ripartizione del gettito, il principio della residenza nella sua forma mista consente accettabili attribuzioni del gettito complessivo tra i paesi coinvolti nell’operazione di investimento, mentre con il principio della fonte l’intero gettito viene necessariamente attribuito al solo paese in cui il reddito di capitale è prodotto. Sul piano teorico emerge dunque un vantaggio della residenza rispetto alla fonte; l’implementazione concreta del primo principio di tassazione richiede, come sopra discusso, maggiori costi in termini amministrativi e di accordo politico, comportando, diversamente dalla tassazione secondo la ritenuta alla fonte, la rinuncia all’anonimato nel prelievo.

Sul piano istituzionale, dopo quindici anni di sterili tentativi, nel gennaio del 2003 i ministri finanziari dei paesi dell’UE hanno raggiunto un accordo politico per la tassazione degli interessi percepiti da cittadini non residenti che configura una soluzione mista rispetto alle due modalità di coordinamento sopra discusse. L’accordo prevede infatti che 12 paesi dell’UE attivino a partire dal 2004 un sistema di scambio automatico di informazioni circa l’identità del percettore di interessi e l’ammontare degli stessi. Lussemburgo, Austria e Belgio si riservano invece di applicare il modello della ritenuta alla fonte (del 15% nei primi 3 anni e poi via via crescente negli anni successivi), corretto tuttavia per assicurare una ripartizione accettabile del gettito tra paese-fonte e paese di residenza (25% al primo, 75% al secondo). Tale ritenuta può essere considerata dal paese di residenza a titolo definitivo (comportando quindi, per questo ristretto nucleo di paesi, l’applicazione del principio della fonte), oppure a titolo di acconto (con realizzazione quindi del principio della residenza, ma con le evidenziate difficoltà applicative derivanti dalle carenze informative di cui soffrirebbe il paese di residenza). La compresenza dei due sistemi nell’ambito dei paesi dell’UE verrà poi meno se e quando troverà soluzione la questione critica dell’accordo con i paesi extracomunitari allo scopo di evitare fughe di capitali europei verso paesi terzi che garantiscono anonimato e bassa tassazione. È infatti evidente che i benefici finanziari dello scambio di informazioni, e quindi gli incentivi a implementarlo effettivamente, dipendono dalle informazioni ricevute dagli altri paesi e dalla conseguente possibilità di ridurre anche su questo fronte l’evasione fiscale. In particolare, tutti i paesi dell’UE passeranno al sistema dello scambio automatico di informazioni solo condizionatamente al raggiungimento di un accordo con un nucleo limitato di centri finanziari extra-UE (tra cui Svizzera e Stati Uniti, oltre a vari paradisi fiscali), in virtù del quale tali paesi siano disposti a uno scambio di informazioni su richiesta e a introdurre livelli di tassazione alla fonte simili a quelli applicati in Lussemburgo, Austria e Belgio. Va rilevato che la disciplina descritta riguarda soltanto il trattamento fiscale degli interessi. Questioni ancor più complesse si pongono quando si considerino i profili internazionali delle imposte sulle plusvalenze e sui dividendi, in quanto questi richiedono di considerare congiuntamente sia il livello della tassazione personale dei redditi da capitale, sia quello della tassazione dei profitti societari.

d) La tassazione indiretta
Pur presentando generalmente un elevato grado di eterogeneità nella sua articolazione interna, il comparto delle imposte indirette è dominato in tutti i paesi dell’OCSE da una Imposta sul Valore Aggiunto (IVA) che da sola garantisce più del 60% del gettito complessivo (fanno eccezione soltanto gli Stati Uniti, dove non esiste, a livello di governo federale, un’imposta generale sui consumi). Diversamente da quanto registrato nell’ambito della tassazione delle rendite finanziarie e dei profitti societari, nella media dei paesi appartenenti all’UE l’aliquota legale normale dell’IVA ha segnato nell’ultimo decennio una crescita, seppure contenuta (da 17,5% a 19,4%; v. Joumard, 2001).

Questa tendenza all’aumento delle aliquote normali si è tuttavia solo in parte tradotta in una riduzione della dispersione dei livelli di tassazione tra i paesi europei. Le pressioni verso la convergenza, che si sono concentrate sul finire degli anni ottanta ma sembrano essersi successivamente indebolite, riflettono le alterne fortune degli sforzi comunitari verso l’armonizzazione delle aliquote dell’IVA. I paesi membri hanno adeguato le proprie imposte sul valore aggiunto a un regime comune che prevede vincoli relativamente poco stringenti (fissazione di un’aliquota normale pari o superiore al 15%; possibilità di adozione di una o due aliquote ridotte comprese tra il 5% e il 15%; mantenimento di un’aliquota inferiore al 5%, purché già esistente). Molti paesi dell’UE hanno di conseguenza mantenuto aliquote ridotte, esenzioni o regimi speciali, spesso giustificati da considerazioni di natura distributiva, di politica industriale o da obiettivi di semplificazione, che fanno sì che i divari nel livello effettivo di prelievo tra sistemi nazionali europei siano attualmente ancora molto rilevanti (le aliquote normali variano da un minimo del 15% in Lussemburgo a un massimo del 25% in Svezia e Danimarca).

Le differenziazioni tra paesi rispetto all’IVA, anche se non sembrano distorcere più di tanto le scelte di consumo in generale, hanno effetti marcati sugli acquisti transfrontalieri nelle aree di confine e su specifiche tipologie di consumi (ad esempio i servizi turistici), aumentano la complessità del sistema di prelievo ed erodono fortemente la base imponibile. L’effetto complessivo di queste forme agevolative può essere misurato per ciascun paese dall’aliquota effettiva, calcolata come rapporto tra il gettito dell’IVA e la sua base potenziale. Con riferimento al 1998, nella media dei paesi dell’UE l’aliquota effettiva risultava inferiore all’aliquota normale di ben 10 punti (10,5% contro 19,4%, con divari particolarmente rilevanti nel caso di Italia, Belgio, Spagna e Svezia: v. Joumard, 2001; v. Van den Noord e Heady, 2001; v. Cnossen, 2002). Viene quindi confermata sia l’esistenza di spazi per un generale incremento della tassazione sul consumo, sia l’opportunità di ridurre le attuali non neutralità del prelievo. Una tassazione più pesante e neutrale del consumo potrebbe del resto offrire i margini di gettito per rendere effettivamente attuabile, nell’ambito dei vincoli stringenti imposti dalla disciplina fiscale europea, la riduzione del carico fiscale sui redditi da lavoro (v. sopra, cap. 3, § a) da molte parti invocata (v. Tanzi, 2003).

Anche nella tassazione del consumo, come nelle imposte sui redditi da capitale finanziario e sui profitti societari, sono i profili internazionali a rappresentare gli elementi di innovazione più significativi. Due fenomeni hanno in particolare posto in discussione le modalità tradizionali di tassazione degli scambi di merci e costretto a ricercare nuove soluzioni: da un lato, la costituzione nel gennaio 1993 del Mercato Unico Europeo, che ha reso possibile la libera circolazione delle merci nell’area comunitaria; dall’altro, la sempre maggiore diffusione del commercio elettronico attraverso Internet.

La creazione del Mercato Unico Europeo ha comportato, quale requisito essenziale per garantire la libera circolazione delle merci, l’abolizione delle barriere doganali tra paesi comunitari. Questa innovazione ha generato un lungo e ampio dibattito tra studiosi e policy-makers su quali siano le modalità più opportune di tassazione degli scambi di merci all’interno di un mercato unico. Analogamente a quanto discusso nel caso della tassazione dei capitali, è possibile evitare la doppia tassazione delle merci oggetto di scambi internazionali – e i disincentivi ai commerci internazionali a essa connessi – applicando il prelievo esclusivamente nel paese dove si svolge il consumo (il cosiddetto principio di destinazione), oppure nel paese dove si realizza la produzione (principio di origine). Il principio di destinazione è generalmente preferito sia sul piano della neutralità (rispetto alla situazione in assenza di imposte non distorce i prezzi relativi di due beni omogenei scambiati su uno stesso mercato ma provenienti da paesi differenti, pur in presenza di aliquote nazionali differenti), sia su quello della ripartizione del gettito tra paesi (attribuisce il gettito dell’IVA al paese in cui effettivamente si svolge il consumo). L’applicazione della tassazione secondo il principio di destinazione richiede tuttavia, in generale, l’esistenza delle barriere doganali, cioè di un luogo fisico dove accertare l’effettiva destinazione delle merci all’esportazione. In assenza di tali possibilità di accertamento, emergerebbe un incentivo per i produttori nazionali a dichiarare come destinate all’esportazione anche merci da commercializzare sul mercato interno, in quanto esse sarebbero in tal modo sgravate dall’IVA.

Queste considerazioni avevano indotto i paesi europei ad adottare, prima dell’avvio del Mercato Unico, il principio di destinazione quale criterio di tassazione dei commerci intracomunitari, e nel contempo ad avviare, in vista dell’abolizione delle barriere doganali, la riflessione sul passaggio dal principio di destinazione a quello di origine per gli scambi intracomunitari (Libro Bianco del 1985, Rapporto Cockfield del 1987). Tuttavia, come sopra discusso, la tassazione secondo il principio di origine avrebbe comportato esiti non desiderabili se, come auspicato nei documenti comunitari, non si fossero attivate opportune misure di correzione in termini sia di armonizzazione delle aliquote (per impedire distorsioni nei prezzi relativi), sia di ridistribuzione del gettito tra paesi (per evitare la completa attribuzione del prelievo ai soli paesi di origine con conseguente vantaggio per i paesi esportatori netti). Ma le resistenze politiche all’attuazione di questi interventi (come dimostrano, da un lato, le timidezze nel perseguire la strada dell’armonizzazione delle aliquote e, dall’altro, le difficoltà, anche di natura tecnica, a istituire una camera di compensazione per riattribuire i gettiti raccolti dai paesi di origine ai paesi di destinazione) hanno per ora consigliato un percorso meno ambizioso di riforma (il cosiddetto regime transitorio): il definitivo passaggio dal principio di destinazione a quello di origine, fissato originariamente per il 1996, è stato rimandato dapprima al 2000 e poi ulteriormente posticipato. Il mantenimento della tassazione secondo il principio di destinazione, nonostante l’abolizione delle barriere doganali, pone tuttavia rilevanti problemi di accertamento. La soluzione adottata nel regime transitorio si fonda essenzialmente sugli scambi di informazioni tra soggetti coinvolti: il fornitore comunica alla propria amministrazione finanziaria gli estremi dell’operazione di esportazione così come fa specularmente l’acquirente, e le due amministrazioni fiscali dovrebbero poter incrociare queste informazioni allo scopo di individuare casi di evasione. Questo regime ha tuttavia comportato difficoltà di applicazione pratica, accompagnate da un probabile aumento dell’evasione dell’imposta sugli acquisti intracomunitari, con il risultato di spingere la Commissione Europea a valutare possibili strategie di intervento (v. European Commission, 2000).

La rapida diffusione del commercio elettronico pone ulteriori problemi alla tassazione degli scambi internazionali di beni e servizi in termini di adattamento dei principî fondamentali, di effettività della tassazione e infine di eguale trattamento fiscale rispetto al commercio tradizionale (v. OECD, E-commerce…, 2000). Le difficoltà maggiori riguardano le cosiddette forme di commercio diretto, quelle cioè in cui l’oggetto della transazione elettronica è esso stesso un prodotto digitalizzato che può essere fornito direttamente via rete (ad esempio, software, informazioni, ecc.). Quando l’acquirente è un consumatore finale (non soggetto a IVA) la regola generale adottata in sede comunitaria per il commercio elettronico diretto, cioè la tassazione dello scambio secondo la normativa propria del paese dove avviene il consumo del servizio, risulta di dubbia applicazione e di difficile accertamento (il consumatore finale, che comunque non ha alcun interesse a denunciare l’operazione ai fini della tassazione, potrebbe risiedere nel paese A, inviare l’ordine di acquisto attraverso un sito ubicato nel paese B, chiedendo che il servizio gli venga recapitato presso un sito localizzato nel paese C). La soluzione delineata da una recente proposta di direttiva prevede che i fornitori non appartenenti a paesi dell’UE siano in questo caso obbligati a registrarsi presso un paese dell’UE, e che tassino le proprie operazione di commercio elettronico secondo le regole relative all’IVA di tale paese. Va tuttavia sottolineato che, in assenza di un adeguato coordinamento tra autorità fiscali nazionali, a oggi l’effettività della tassazione sulle transazioni elettroniche fa fondamentalmente affidamento sull’obbedienza volontaria dei fornitori non appartenenti all’UE che, quando non abbiano alcuna presenza fisica sul territorio europeo, sono come tali difficilmente accertabili.

ECONOMIA PUBBLICA. Storicamente, la scienza economica moderna nasce nel Settecento con l’affermarsi del principio della “mano invisibile” di A. Smith, per il quale l’azione egoistica di ciascun individuo conduce a una allocazione delle risorse efficiente, tale che non è possibile migliorare la condizione di un individuo senza peggiorare quella di almeno un altro. Conseguentemente, per lungo tempo gli economisti hanno valutato negativamente l’intervento pubblico nell’economia, sopportandolo soltanto come una interferenza necessaria in quei settori in cui non è possibile l’attività privata, senza auspicarne l’espansione. Dalla seconda metà dell’Ottocento, tuttavia, il desiderio sociale di una maggiore equità nella distribuzione del reddito e della ricchezza, l’approfondimento dello studio delle condizioni necessarie per il buon funzionamento del libero mercato e la crescente fiducia nella capacità dello stato di contribuire a determinare il livello del reddito di una nazione hanno provocato una imponente crescita del settore pubblico nelle economie occidentali. Nel Novecento, con una ben diversa consapevolezza rispetto al passato, la dottrina prevalente ha finito per individuare, negli anni Cinquanta, tre funzioni che debbono essere svolte dal settore pubblico: quella allocativa, quella redistributiva e quella di stabilizzazione.

Tra i principali strumenti di cui lo stato dispone per svolgere le sue funzioni vi sono: la politica di spesa, quella di prelievo dei tributi (imposte e tasse) e di riscossione degli introiti delle imprese pubbliche, l’esercizio di controlli diretti, la regolamentazione dei livelli o delle modalità di produzione e di consumo di certi beni e servizi, la determinazione dei loro prezzi. Tradizionalmente l’e. p. approfondisce soprattutto gli aspetti positivi e quelli normativi relativi ai primi due strumenti, che maggiormente concorrono alla determinazione del bilancio del settore pubblico.

Pubblicato in Uncategorized | Lascia un commento