La povertà dei Nobel per l’economia

Marta FanaLuca Giangregorio jacobinitalia.it 16.10.19

Il riconoscimento dell’Accademia svedese a Banerjee, Duflo e Kremer premia un approccio che non si interroga sui motivi della povertà ma sulle microsoluzioni che possono aiutare un individuo a uscirne. Come se si potessero affrontare i bisogni ignorando i rapporti sociali

L’assegnazione del premio Nobel per l’economia di quest’anno appare come un tassello da cortocircuito nel dibattito sulla scienza economica come disciplina accademica. Il titolo è stato attribuito a tre economisti che si occupano di sviluppo (development economics): Abhijit BanerjeeEster Duflo e Michael Kremer. Premiati per il loro «approccio sperimentale che ha trasformato l’economia dello sviluppo, un campo di ricerca sulle cause della povertà globale e i modi migliori per combatterla». 

Secondo i meno attenti, finalmente l’accento è stato posto sui soggetti più colpiti e svantaggiati dal sistema capitalistico in linea con gli Obiettivi di Sviluppo del Millennio delle Nazioni Unite. Tuttavia, spostando l’attenzione dal dito alla luna, la scelta dell’Accademia Reale Svedese non fa che blindare le proprie scelte dentro un ben definito perimetro teorico, attraverso il riconoscimento del premio a economisti che affrontano il tema della povertà su solide basi empiriche, sui fatti e su come misurarli, e non invece per mezzo di mezzi fallimentari dettati da «ignoranza, ideologia e inerzia» .

I tre, infatti, sono tra i principali esponenti dell’approccio sperimentale come metodo di studio e di analisi nelle scienze sociali che consiste in un’analisi micro-econometrica del comportamento degli individui sottoposti a programmi. Il fulcro di quest’approccio risiede nel tentativo di riprodurre un esperimento da laboratorio in grado di isolare la discrezionalità dello «scienziato-economista» dalle vere cause di un fenomeno o come in realtà è in molti dei casi, l’efficacia o meno di alcuni programmi di intervento.

Significa mettere un bollino verde su microinterventi che possono aiutare singoli o famiglie a sottrarsi alla morsa della povertà. Questa è la lotta alla povertà globale per cui viene attribuito il premio Nobel. Ma partiamo dai fatti sulla povertà globale.

Usando come linea di povertà $7,40 dollari al giorno, cioè il minimo per garantire un livello nutrizionale dignitoso e una speranza di vita «normale», secondo i dati della Banca Mondiale, nel 2015 la povertà morde la carne viva del 56% della popolazione mondiale, 4,115 miliardi di individui. Erano 3,183 miliardi nel 1991 (il 70%) della popolazione mondiale. Il numero di poveri è aumentato non diminuito, sebbene sia aumentato meno rispetto a quanto sia cresciuta la popolazione mondiale. Ma dov’è che è diminuita la povertà? Principalmente nel Sud Est Asiatico e nello specifico in Cina dove l’incidenza della povertà – misurata sui 7,4 dollari al giorno – passa dal 99% del 1981 al 43% del 2015: escono da questa condizione circa un miliardo di individui. In che modo i fatti, quelli grandi che muovono la storia e il progresso sociale possono essere spiegati con microesperimenti che nella migliore delle ipotesi si basano su appena qualche migliaio di individui? Nessuno. La storia recente della Cina mette in luce come non sia il mercato, le politiche neoliberiste o il progresso tecnico lasciato a sé stesso a smuovere le condizioni materiali di centinaia di milioni di cittadini: ma un’idea ben precisa, dei programmi pubblici su scala enorme, un’economia fortemente regolata e sovrana, nonché una politica economica fondata su una politica industriale di medio-lungo periodo.

I randomisti 

Sono questi i fatti che vanno comparati all’approccio dei neo premi Nobel per l’economia e il loro metodo empirico: gli esperimenti aleatori controllati. Per capire meglio di cosa si tratti è possibile immaginare un semplice esempio di come funziona un esperimento aleatorio controllato. Un preside pensa che utilizzare maggiori strumenti interattivi possa facilitare l’apprendimento e il rendimento scolastico dei suoi alunni e per testare questa ipotesi decide di spendere parte del budget scolastico in questi strumenti da destinare ad alcune classi pilota. Queste classi sono scelte in maniera completamente aleatoria così da escludere la possibilità che gli studenti possano scegliere di partecipare al progetto creando un effetto selezione che comprometta la valutazione causale dell’intervento. Da questa randomizzazione si generano due gruppi: gli assegnati alle classi sperimentali (i «trattati») e chi segue un metodo d’insegnamento tradizionale (i «controlli»). Dalla comparazione dei risultati medi delle due differenti classi si ricaverà un giudizio sull’efficacia dell’intervento del preside e, quindi, una valutazione sulla necessità o meno di questo investimento. 

La critica metodologica

Tuttavia, questo approccio presenta alcune criticità che sono illustrate tra gli altri da economisti ed econometrici come James Heckman. Tra le principali vi è il problema di generalizzazione (o validità esterna, in gergo tecnico). Facendo riferimento all’esempio riportato, è lecito aspettarsi che l’effetto ottenuto con queste classi-pilota, sia diverso in intensità o addirittura opposto utilizzando scuole diverse o addirittura classi diverse, figuriamoci se applicato a una società con istituzioni scolastiche diverse. Per evitare questo problema, appunto, sono necessari ripetuti esperimenti dello stesso tipo per verificare la consistenza dei risultati. Ma non ci sarà mai un esperimento identico a un altro, soprattutto in contesti differenti

È altrettanto possibile che non tutti gli alunni di quella classe seguano completamente il programma: periodi di assenza, scarsa attenzione, inutilizzo dei nuovi strumenti, ecc. Problema questo che accentua anche la già presente eterogeneità degli alunni oggetto di studio e che rappresenta un’ulteriore minaccia alla stima causale dell’efficacia del programma scolastico. 

Inoltre, si possono generare anche delle esternalità positive che alterano l’effetto reale del nuovo metodo didattico in questione: è possibile immaginare che tra le varie classi, soggette e non all’esperimento, ci si scambino informazioni, appunti, materiali, che possono far sì che anche gli alunni all’interno delle classi tradizionali beneficino del nuovo programma. 

Ulteriore problema è quello noto come effetto Hawthorne ed effetto John Henry. Il primo, nell’esempio riportato, consiste nel fatto che gli alunni cambino atteggiamento in classe e attitudine allo studio come risposta al fatto di essere parte di un esperimento. Sapendo di essere «sotto osservazione» possono automaticamente porre maggior impegno. L’effetto Henry è simile, ma dal lato di chi non fa parte dell’esperimento: sentendosi esclusi e/o penalizzati, gli altri alunni possono aumentare il proprio impegno per imitare e raggiungere gli stessi risultati delle classi pilota. 

Martin Ravallion nella critica all’approccio sperimentale aggiunge un altro elemento rilevante: l’etica. Se da sempre l’uomo si deve confrontare con il concetto di bene e male, allora è lecito ritenere che in economia, e soprattutto nel welfarismo/utilitarismo, il giudizio etico sui mezzi non siano rilevanti, ciò che conta è il fine. Insomma, se gli strumenti possono essere non-etici non è fonte di preoccupazione a condizione che questi siano utili ad aggiungere nuova conoscenza. È eticamente giusto sottrarre persone ugualmente povere da un progetto di aiuto e lotta alla povertà solo per il gusto di un esperimento? No, quando la lotta concreta alla povertà prescinde dall’utilizzo di un approccio micro-econometrico. 

Se quelli evidenziati da Heckman e altri solo i limiti tecnici ed etici più evidenti, essi non sono né gli unici ma neppure i più profondi.

La critica teorica: una questione di egemonia

Innanzitutto, l’approccio randomista interviene direttamente sul senso della disciplina economica non più considerata scienza sociale, ma scienza dura, capace di affermare il legame diretto, deterministico e incontrovertibile tra fatti economici misurati con un determinato approccio e tra individui. Un risultato diventa allora scientificamente valido se e solo se esso è frutto di un esperimento aleatorio o qualcosa di molto simile in grado di misurare tali relazioni attraverso identificazioni precise (nel loro modo di intenderle) tra causa ed effetto. Il neo-premio Nobel, Esther Duflo, sostiene che il loro obiettivo è stato quello di sviluppare una metodologia affinché «la lotta alla povertà fosse basata su basi scientifiche». Rincara la dose Michael Kremer il quale, raggiunto al telefono per un’intervista nel giorno dell’acclamazione, dichiara che il loro lavoro mette insieme l’indagine di questioni «pratiche, come la povertà, e il rigore intellettuale». Niente più che arroganza, la stessa che negli ultimi decenni ha egemonizzato larga parte dei dipartimenti di economia. Sempre più di frequente per pubblicare sulle riviste che contano bisogna essere in grado di mostrare la solidità della propria identificazione empirica, poco importa quale sia la domanda di fondo a cui si prova a dare risposta. Ancora più grave, è l’aver ridotto la ricerca economica a una disciplina che si interroga su minuzie piuttosto che assumere come oggetto dell’analisi i fenomeni nella loro ampiezza e complessità. Questioni come il potere, la distribuzione del reddito e della ricchezza, i cambiamenti strutturali cioè le dinamiche del sistema economico-politico sono ignorate, soprattutto dalle riviste «che contano» in quella paralisi del pensiero determinata dal mantra «publish or perish» – «pubblica o muori».

Quando non ignorate vengono derise e addirittura accusate di «negazionismo scientifico», soprattutto se confutano i risultati di ricerche condotte attraverso il metodo sperimentale. Così come avvenuto in Francia, dove gli economisti Pierre Cahuc e André Zylberberg nel libro Negazionismo economico e come sbarazzarsene(Flammarion, 2016) attaccano i colleghi non allineati – i cosiddetti eterodossi – al pensiero dominante in campo di politica economica e di cui disfarsi niente poco di meno che grazie al rigore del metodo sperimentale. Goccia che fece traboccare il vaso e aprire uno dei dibattiti più violenti degli ultimi anni fu la discussione sugli effetti della riduzione della giornata lavorativa a 35 ore sull’occupazione. Studi empirici ma approcci differenti, basati su esperimenti naturali, come quello di cui abbiamo già discusso in merito agli effetti del salario minimo. Ma il nocciolo della questione rimaneva essenzialmente il diritto al pluralismo in economia, teorico e metodologico, contro cui Jean Tirole, altro premio Nobel, si scagliò in una lettera niente poco di meno che all’allora Minsitro dell’Università e della Ricerca, additando il pluralismo come relativismo e «anticamera dell’oscurantismo». Il dibattito investì la Francia intera, quotidiani, associazioni di economisti, Ministero dell’Università e della Ricerca e diede vita a un contro pamphlet – Misère du scientisme en économie (Edition du Croquant, 2017) – in cui il gruppo degli Economistes Atterrées e l’Associazione Francese di Economia Politica smentirono capoverso dopo capoverso le tesi di Cahuc e Zylberberg. Ci si potrebbe fermare qui e osservare la vivacità francese, cosciente quantomeno che è proprio sulla battaglia delle idee che si produce conoscenza, ricchezza culturale, ma soprattutto che questo terreno di battaglia esiste e bisogna contenderselo; cosa che invece non avviene più in Italia, salvo rare eccezioni. 

Di fronte all’intransigenza contro approcci altrettanto validi ma alternativi, l’apparente semplicità e agilità dello strumento metodologico degli esperimenti in quanto libero da teorie ingombranti squarcia il velo di una continuità teorica inderogabile. Il pensiero dominante non ammette alternative e non a caso contro queste si scaglia agitando tutte le proprie leve di potere. Se da un lato è vero quanto sostiene un altro premio Nobel, Angus Deaton, insieme a Nancy Catwright e cioè che l’idea che la ricerca economica possa essere ridotta a una valutazione empirica in assenza di teoria o basi concettuali solide è un espediente azzardato che non può ricomporre né fornire strumenti utili allo sviluppo del pensiero e quindi della ricerca scientifica stessa. Dall’altro bisogna non essere ingenui e riconoscere che c’è sempre una teoria sottostante da cui muovere i passi. 

La continuità teorica 

Gli esperimenti aleatori sono svolti all’interno di un unico contesto teorico, quello per cui l’economia non è che la risposta comportamentale degli individui (imprese, lavoratori, consumatori, banche) che agiscono razionalmente di fronte alla scarsità di risorse, e i cui comportamenti mutano al cambiare degli incentivi individuali. Nessun rapporto sociale, nessun rapporto di potere, nessuna storia. Niente di più coerente con la teoria marginalista.  

Non ci si interroga sul perché esiste la povertà come fenomeno storico-sociale, ma come l’individuo X può uscire da questa condizione grazie a interventi mirati su di lui o la sua famiglia. Le implicazioni teoriche e politiche sono evidenti. Infatti, focalizzarsi su micro campioni della popolazione astraendo dai contesti socio-economici in cui questi avvengono pare perfettamente in linea con la scuola austriaca e l’idea robinsoniana dell’economia, cioè lo studio dei comportamenti individuali intesi come relazione tra il fine (massimizzazione dell’utilità, dei profitti) e i mezzi scarsi a disposizione, rafforzata dalla più moderna teoria degli incentivi (o mechanism design) – per la quale furono assegnati i nobel nel 2007 a Eric Maskin, Roger Myerson, Leonid Hurwicz – che lo stesso Banerjee rivendica essere «l’area di ricerca economica che negli ultimi decenni ha avuto maggior successo». Di nuovo gli individui al centro del mondo: poiché il mercato fallisce, la mano invisibile non funziona nella realtà, è opportuno indirizzare le scelte ottimali dei singoli attraverso meccanismi incentivanti. I rapporti sociali, le conformazioni delle classi e delle istituzioni, il grado di democratizzazione dell’economia nonché il tipo di politiche economiche attuate non sono neutrali allo studio della povertà. In questo senso, la critica del welfarismo/utilitarismo del più datato premio Nobel (1998) Amartya Sen, pare cogliere parte di questi aspetti. Secondo Sen focalizzarsi sulle funzioni di utilità dell’individuo genera continuamente delle misure che penalizzano proprio gli individui che si cerca di studiare per proporre programmi efficaci perché l’attenzione al reddito individuale esclude le altre fonti di eterogeneità. Per questo egli propone che qualsiasi giudizio di povertà e standard di vita «non debbano essere basati su beni, caratteristiche o utilità, ma su qualcosa che può essere chiamata abilità delle persone». Sen per spiegare il concetto utilizza l’esempio della bicicletta: «è chiaramente un bene materiale, ma concentrandoci sulla sua funzionalità, questa garantisce lo spostamento di una persona. La bicicletta, quindi, fornisce alla persona un’abilità di spostamento che altrimenti non avrebbe». Tuttavia, gli individui non hanno libero accesso allo stesso insieme di possibili abilità per motivi di differenze sociali ed economiche. Seguendo l’esempio della bicicletta, non tutti gli individui possono avere accesso al bene materiale che incorpora la funzione di mezzo di trasporto e, di conseguenza, non tutti gli individui possono acquisire l’abilità di spostamento. In questo senso, le condizioni storiche, politiche e sociali possono rientrare nella definizione di Sen, a differenza dell’approccio micro-econometrico dei neo-premi Nobel. 

Questo significa che la pretesa di razionalizzare le decisioni individuali del soggetto povero fallisce dinanzi l’esclusione di fattori sociali e istituzionali per natura dinamici e basati sui rapporti sociali, in cui la presunta libertà individuale garantita dal mercato nei fatti non esiste. L’approccio randomista, semplicemente, dà ragione a Margaret Thatcherquando stigmatizzava proprio i più poveri affermando che «non esiste una società, esistono individui, uomini, donne e famiglie. Per questo i governi non devono intervenire sennonché tramite gli individui stessi e le persone devono prima guardare sé stesse”. 

Del resto, focalizzarsi sullo studio della povertà in questi termini e analizzando specifici programmi a livello locale e individuale, significa dar credito alla teoria neoliberale del Welfare: targetizzare gli interventi dello Stato esclusivamente ai più bisognosi, così da ridurre l’ingerenza dello Stato e della spesa pubblica. 

Teoria criticata da Walter Korpi e Joakim Palme con il paradosso della redistribuzione: più uno Stato cerca di targetizzare il suo intervento con trasferimenti ai più poveri e meno efficace è la spinta egualitaria e l’eradicazione della povertà. L’approccio metodologico di Abhijit Banerjee, Esther Duflo e Michael Kremer sembra proprio generare e alimentare questo paradosso aiutando la valutazione e formazione di politiche pubbliche sempre più micro-fondate e escludenti.

Povertà è scelta politica 

Jason Hickel afferma che la povertà è una scelta politica e Alberto Cimadamore Gabriele Koehler e Thomas Pogge lo seguono affermando che uno dei principali motivi per il quale il primo dei Millenium Development Goals, – eliminare fame e povertà – è fallito, è il rifiuto da parte delle Nazioni Unite e dei governi nazionali di contrastare ed eliminare quelle politiche economiche che di fatto la povertà la creano. Hickel aggiunge che la struttura dell’attuale economia globale è intrinsecamente iniqua e preclude la possibilità concreta di eradicare la povertà. L’idea di Hickel per cui la povertà è una scelta politica si basa su quella che Marx chiamava «legge di centralizzazione del capitale». In un mercato globale dove i Paesi poco sviluppati e con capitali individuali atomizzati e irrilevanti in rapporto ai capitali dei Paesi avanzati, sono assorbiti e appunto centralizzati dai capitali maggiori. Non è una questione di complementarità tra le capacità dei lavoratori, come invece sostiene la teoria O-Ring sviluppata proprio da Michael Kremer nel 1993 per cui i Paesi occidentali sono più produttivi perché producono beni più complessi (lo si vada a dire a tutti i lavoratori asiatici che producono per Apple, Haway e simili); è una questione di come funziona il capitalismo come sistema economico. Non sorprende, dunque, che il processo di accumulazione nelle zone più povere del mondo sia estremamente lento e il divario non si restringe, anzi aumenta. Ingenuamente potremmo chiederci come mai i neo-nobel non si siano mai posti la semplice domanda di studiare l’effetto sulla povertà delle delocalizzazioni produttive, della frammentazione dei processi produttivi, delle lunghe catene del valore globale.

In un approccio che esclude la critica del sistema economico in essere e che anzi ne legittima le fondamenta teoriche confermando l’idea di una società individualizzata e atomistica, il «radicale ripensamento su come combattere la povertà globale» resta disatteso.  

Lasciando ai Nobel il tempo di comprendere la questione, sarebbe meglio che al di qua del pensiero dominante iniziassimo a pensare seriamente al tema delle disuguaglianze: l’obiettivo politico non può essere quello di ridurre la deprivazione materiale, bensì sradicare i meccanismi per cui tale deprivazione rimane dietro l’angolo e al contempo restituire giustizia sociale in tutte le sue dimensioni, dalla libertà al potere riducendo il suo accumularsi in poche mani a discapito della maggioranza della società.

*Marta Fana, PhD in Economics, si occupa di mercato del lavoro. È autrice di Non è lavoro è sfruttamento (Laterza). Luca Giangregorio PhD student in Social Sciences presso l’Università Pompeu Fabra di Barcellona.