trilogy ha scritto:Tutta colpa di excel
No, pare di no. La cosa è piu' complessa e trattandosi di cose da "dottorato" non mi meraviglio che sia cosi'.
Poco digeribile da un pubblico facile (keynesiano o liberista che sia) questo articolo - potenzialmente noioso a detta dello stasso autore - tenta di spigare quello che va spiegato.
http://noisefromamerika.org/articolo/qu ... piace-cosiSul caso Reinhart&Rogoff si è scritto di tutto. C'è speranza di dire qualcosa di originale? Provo a farlo con un post pieno di dettagli noiosi.
Breve cronistoria degli eventi.
Ricerca 1 (anno 2010):
Il nostro risultato principale è che [...] i tassi mediani di crescita per Paesi con debito pubblico superiore all’incirca al 90% del PIL sono inferiori di circa l’1% [Più precisamente, la Figura 2 mostra come storicamente la crescita mediana del PIL sia di poco superiore al 3% se il rapporto deficit/PIL è al di sotto del 90%, mentre sia di poco superiore al 2% se il rapporto è al di sopra del 90%, ndr]
Ricerca 2 (anno 2012):
La crescita media annua del PIL è del 3,5 per cento per l’intero periodo in cui il debito/PIL è meno del 90%. Il rispettivo valore medio per periodi di debito eccessivo (sopra al 90% del PIL, ndr) è 2,3 per cento (cioè 1,2 per cento più basso che in periodi con debito inferiore) [...]
Ricerca 3 (anno 2013):
Il gap effettivo (in termini di crescita del PIL, ndr) tra la categoria più alta (quella sopra il 90%, ndr), e la seconda categoria più alta del rapporto debito/PIL è dell’1 per cento (cioè 3,2% meno 2,2%).Tre distinti lavori di ricerca, tre metodologie diverse, pubblicati in tre anni diversi. I tre riferimenti citati indicano tutti la medesima conclusione sostanziale, e cioè che la correlazione fra crescita e indebitamento pubblico è negativa per soglie di indebitamente debito sufficientemente alte. In particolare, ad un indebitamento superiore al 90% del PIL è statisticamente associata una riduzione nel tasso di crescita dell’economia di circa l’1%. Val la pena qui di notare che una correlazione negativa fra elevati indebitamenti pubblici da un lato, e crescita del PIL dall’altro, non è ottenuta solo dai tre studi sopra riportati. Piuttosto, si tratta di un generale risultato nella letteratura empirica.
Abbiamo dunque il seguente Risultato empirico, cui più volte, in questo post farò riferimento,
Risultato: molti studi concordano sul fatto che per diversi Paesi, con diverse caratteristiche economiche, e in periodi anche molto distanti nel tempo, a un elevato indebitamento pubblico si associa una più bassa crescita economica.
Tutto apposto? Non proprio. Ricerca 1 altro non è che il lavoro del 2010 di Reinhart&Rogoff (R&R2010). Ricerca 3 è invece l’ormai celebre (nei media) lavoro in cui Herndon&Ash&Pollin (H&A&P) trovano degli errori veri, più una serie di errori presunti, in R&R2010. Errori che comunque da qualche tempo non erano più rintracciabili in Ricerca 2, che a sua volta è un altro lavoro di Reinhart&Rogoff (R&R2012), successivo quindi a R&R2010 ma antecedente a H&A&P2013.
A questo punto, spero siate giustamente confusi. Il primo motivo di confusione è che avete letto da qualche parte che H&A&P mandano gambe all’aria tutti i risultati di R&R. Invece io sono qui a mostrarvi come R&R2010, R&R2012 e H&A&P siano sostanzialmente in accordo fra loro nel replicare il Risultato. Il secondo motivo di confusione è che forse non vi capacitate di come sia possibile che ci sia accordo sui risultati quando proprio H&A&P hanno scoperto degli errori in R&R2010. Scusatemi, ma per rispondere a questa questione devo accennare a degli aspetti un po’ noiosi. Il lavoro di ricerca è in gran parte questo: un sacco di sudore nel curare dettagli noiosi, il tutto spessissimo per non raggiungere alcun risultato importante che possa essere dato in pasto alla stampa, ai blog, agli uomini potenti. La ricerca di qualità è fatta di noiosa lentezza, di pedanti dettagli, e di frequentissima assenza di risultati mirabolanti. Tutto l’opposto del quick, dirty, extreme che però piace tanto a un certo tipo di pubblico, e che quindi attrae come una sirena chi il lavoro di ricerca lo sa fare. Se siete curiosi e volete dunque avere risposte all’apparente confusione che vi ho creato, vi suggerisco di leggere i prossimi paragrafi, in cui ho fatto del mio meglio (spero sia sufficiente) per riassumere e spiegare la questione. Se invece non siete interessati ai noiosi dettagli, potete saltare l'intera prossima sezione.
I dettagli noiosiCi sono tre aspetti che H&A&P2013 contestano a R&R2010: (i) gli errori di calcolo nel foglio di Excel, (ii) l’esclusione di alcuni Paesi dal campione utilizzato per il calcolo, e (iii) l’utilizzo nel calcolo di un metodo di “pesatura” dei diversi Paesi che a H&A&P non piace.
(i) Gli errori di calcolo consistono nell’aver fatto una media fra le celle che vanno dalla riga 30 alla riga 44, invece che dalla riga 30 alla riga 49. Questi errori di calcolo sono stati prontamente riconosciuti da R&R (che R&R abbiano fornito volontariamente ad altri ricercatori il proprio foglio di lavoro Excel mi pare provare in modo rassicurante che R&R non abbiano volontariamente truccato i propri risultati. Si tratta piuttosto di un errore materiale). Ad ogni modo, gli errori di R&R provano una grave disattenzione degli autori, ma non cambiano in alcun modo sostanziale i risultati del loro lavoro, che su questo tema tra l’altro si compone non di uno ma, come visto, di vari articoli scientifici.
(ii) L’esclusione di alcuni Paesi, e solo in alcuni periodi storici, dal campione utilizzato per il calcolo. H&A&P mostrano in particolare come l’esclusione della Nuova Zelanda per gli anni 1946-1949 porti, quando in aggiunta si utilizzi (iii) il metodo di “pesatura” da loro suggerito, ad una sostanziale revisione verso l’alto nella stima della crescita media dei Paesi altamente indebitati, cioè quelli con rapporto debito/Pil superiore al 90%. Non è vero, dicono dunque H&A&P, che l’alto debito faccia così male alla crescita...
Fermiamoci un attimo. All’inizio del post vi ho riportato due citazioni in cui sembra che sia R&R2010 che H&A&P trovino esattamente lo stesso risultato: la crescita annua dei Paesi con debito sotto del 90% del PIL è di poco più del 3%, mentre la crescita annua dei Paesi con debito sopra al 90% è di poco più del 2%. Ma com’è possibile che sia R&R2010 sia H&A&P trovino, per i Paesi al di sopra del 90%, la medesima crescita (poco più del 2%) quando invece nel paragrafo appena sopra vi ho detto che H&A&P fanno una sostanziale revisione al numero dato da R&R2010? Insomma, R&R2010 e H&A&P trovano circa lo stesso numero o ne trovano due sostanzialmente diversi?
E qui non mi resta che tediarvi nuovamente con dei noiosi dettagli. Il punto è che R&R2010 riportano due misure di crescita annua per i Paesi sopra la soglia del 90% di debito. Una misura è la crescita mediana, che è la misura contenuta nel passaggio citato all’inizio del post. L’altra è la crescita media, che risulta, nei conti di R&R, essere sostanzialmente più bassa della mediana (mentre la mediana è poco più del 2%, la media è appena sotto allo 0%). È bene notare che, nel lavoro originale del 2010, R&R non pongono alcun particolare accento nè sulla mediana né sulla media: li calcolano tutti e due, vedono che sono entrambi più bassi quando il debito supera la soglia del 90% del PIL, e concludono che i dati mostrano che Paesi altamente indebitati crescono sostanzialmente di meno degli altri. Il lavoro di H&A&P, invece, tralascia completamente di ri-calcolare la mediana riportata da R&R2010, e si focalizza solo sulla media. In sostanza, il contributo di H&A&P è molto semplice: H&A&P mostrano come, una volta corretti alcuni errori materiali relativamente di poca importanza quantitativa, e una volta utilizzati sia un campione diverso di Paesi, sia una diversa metodologia di pesatura, la media di crescita nel database di R&R coincide sostanzialmente (anche se non totalmente) con la mediana riportata dagli stessi R&R2010, che a sua volta coincide con la media calcolata in R&R2012, che a sua volta è confermata da altri e vari studi...H&A&P di fatto validano ulteriormente la robustezza dei risultati del 2012 degli stessi R&R, e mostrano che nel R&R hanno fatto benissimo a seguire nel 2010 la buona prassi di riportare, come test di robustezza dei risultati, sia la media che la mediana. Così facendo, infatti, R&R2010 si sono “assicurati” che il loro risultato principale fosse meno dipendente da eventuali errori materiali (che ci sono stati) su singoli Paesi, da eventuali esclusioni/re-inclusioni di singoli Paesi, e da eventuale diversa “pesatura” dei singolo Paesi.
In fondo, non stupisce che le revisioni di H&A&P, unite alla loro diversi criteri di inclusione dei Paesi e di “pesatura”, portino ad ottenere valori che sostanzialmente confermano sia la mediana di R&R2010 che la media in R&R2012. Infatti, come detto sopra e come più volte rimarcato da H&A&P, la revisione alla media riportata da R&R2010 è in gran parte dovuta all’effetto congiunto dell’inclusione nel campione, e alla sua particolare metodologia di pesatura, delle osservazioni relative alla Nuova Zelanda nel periodo 1946-1949. Il lavoro di H&A&P in concreto non fa altro che mostrare che la media di R&R2010 è molto sensibile ai valori “estremi” osservati per un singolo Paese in un periodo abbastanza ridotto. La mediana, invece, è molto meno sensibile a questi valori “estremi” (e potenzialmente fuorvianti). Surprise, surprise? Non proprio, infatti l’insensibilità’ della mediana ai valori estremi è proprio il motivo per cui, a mò di test di robustezza, è consigliabile inserirne il calcolo accanto a quello della media. L’unica sorpresa vera sembra piuttosto essere che R&R2010 non abbiano perso tempo a chiedersi quale fosse il probabile outlier che faceva così tanto divergere la loro media dalla loro mediana. Magari se l’avessero fatto si sarebbe pure accorti del loro errore in Excel. Ma porsi certe questioni di “dettaglio” implica il voler prendersi il tempo di non fare le cose quick and dirty...Diamo però atto che il peccato dell’aver scelto la via quick and dirty è stato almeno compensato dal naturale instinto (questo sì del buon ricercatore) di affiancare al quick and dirty un minimale test di robustezza dei risultati, cioè il calcolo della mediana. Sembra proprio che il test, questo sì, abbia tenuto.
Da notare che H&A&P usano per la loro critica a R&R2012 dei dati che sono sbagliati. Quali? Ma ovviamente quelli sulla Nuova Zelanda, il nostro outlier! Fatto sta che R&R hanno costruito il proprio database usando, per quegli anni, i famosi dati di Maddison. Tuttavia i dati di Maddison, per gli anni a cavallo del 1950 in Nuova Zelanda, sono sbagliati, come indicato dall’istituto statistico neozelandese. Cose che capitano (la ricostruzione dei dati “storici” di contabilità nazionale è un lavoro problematico, e soggetto a vari potenziali errori). I risultati di R&R2010 sono meno soggetti a questo errore di quanto non siano i risultati di H&A&P proprio in quanto R&R hanno finito per escludere dai propri conti la maggior parte degli anni dove i valori di Maddison erano errati. Accortisi successivamente dell’errore nei dati della Nuova Zelanda, R&R hanno provveduto a comunicarli al Maddison Project (Il lavoro di R&R del 2012 non soffre invece di problemi sui dati della Nuova Zelanda, in quanto R&R avevano per quel lavoro gi utilizzato i dati corretti). D’altro canto, va dato atto a H&A&P di aver giustamente messo in rilievo che R&R2010 non si sono nemmeno presi la cura di spiegare perché alcuni Paesi siano stati esclusi dal campione...quick, dirty.
La morale della favolaSpero, a questo punto, che la noia sia calata come un macigno sulle spalle dei lettori che si sono sorbiti le spiegazioni dettagliate contenute nel riquadro qui sopra. Se così è, avrò raggiunto il mio obiettivo, che è il convincervi di due cose. La prima, che la critica di H&A&P non sposta sostanzialmente nulla di ciò che sappiamo, anche grazie ai lavori di R&R, riguardo alla correlazione empirica fra debito e crescita. Al massimo, H&A&P non fanno altro che confermare il Risultato principale di R&R2010, quello di R&R2012 e quelli di altri lavori in questo tipo di letteratura. La seconda è che il vero peccato di R&R non è dunque stato quello di “ingannare il mondo”, nemmeno a livello involontario (il dolo invece, come detto, è da ecludersi), tramite le celle di Excel mal selezionate. Il loro primo peccato, piuttosto, è stato quello di cedere al quick and dirty. Hanno pubblicato, senza tanta cura e con la sola attenuante dell’aver inserito la mediana come test di robustezza, un lavoro che (a differenza di R&R2012) non ha nemmeno seguito un processo di peer-review. Sì, perché quando dei ricercatori della (meritatissima) fama di R&R scrivono qualcosa, quel “qualcosa” può finir per essere pubblicato alla cieca nei Proceedings di una qualche conferenza. Da questo punto di vista, quindi, la reprimenda che R&R hanno subito mi pare giustissima. Giustissimo e confortante è poi il fatto che dei ricercatori poco noti come H&A&P si siano presi il tempo, e abbiano ottenuto da R&R stessi i dati, per cercare di replicare i risultati di R&R2010.
Se la reprimenda per il quick and dirty di R&R è corretta, montare però un caso imperniato sull’idea che H&A&P abbiano svelato che il Risultato, a cui tra gli altri R&R hanno contribuito, sia un inganno è, come spiegato sopra, assolutamente ridicolo. Non c’è nessun inganno: il Risultato è sempre quello, confermato e ri-confermato, anche dagli autori stessi (R&R2012). H&A&P non fanno altro, di fatto, che portare una ulteriore prova che la correlazione predicata dal Risultato effettivamente esiste. H&A&P non svelano alcun inganno perché l’”inganno vero”, se così lo vogliamo chiamare, non sta nei fogli di Excel di R&R. Piuttosto, l’aspetto più importante è che anche H&A&P non fanno altro che aggiungere se stessi alla lunga lista di coloro che nell’”inganno vero” continuano a cascarci come sacchi di patate. Ma quale sarebbe questo “inganno vero”?
L’inganno non è nel calcolo della correlazione secondo cui quando i debiti pubblici sono alti la crescita media e mediana scendono. L’inganno non sta nel risultato. L’inganno sta nel voler far credere che quel Risultato statistico sia qualcosa di importante, qualcosa da cui voler magari tirar fuori una qualche ricetta prescrittivo.
Quel risultato statistico è necessariamente ottenuto buttando in un unico calderone Paesi diversi, in periodi storici diversi, in regimi monetari diversi, dove i debiti pubblici si sono creati per motivi diversi (guerre, crisi finanziarie...va dato un qualche credito a R&R di aver più volte sottolineato questo fatto, cercando di catalogare, per esempio in R&R2012, ma anche nel famoso libro del 2009, le origini dell’indebitamento), dove la stessa definizione di cosa sia debito pubblico è altamente variabile (le pensioni future sono, per esempio, una forma di indebitamento presente dello Stato, ma non sono incluse nella definizione di “debito” utilizzato nei suddetti lavori). R&R, come molti altri ricercatori, conoscono benissimo il problema del “calderone”. Il problema è che affrontarlo in modo soddisfacente è statisticamente impossibile, perché abbiamo troppi pochi dati per “controllare” statisticamente tutti gli elementi nel calderone. Legata a questa questione, in particolare, c’è il fatto che in questo caso è probabilmente impossibile mettere in piedi una batteria di test statistici che ci dica, in modo molto convincente, quanto la correlazione negativa fra crescita economica e debito pubblico sia dovuta ad una causazione che va dal debito alla crescita, piuttosto che dalla crescita al debito. L’inganno vero non sta dunque nel fatto che R&R abbiano taroccato il Risultato. L’inganno vero è credere che dobbiamo dare troppa importanza al Risultato. La teoria economica stessa ci dice, infatti, che dobbiamo ben guardarci dal dare peso a risultati che ci dicano che sopra una soglia predeterminata del X% di indebitamento pubblico il debito abbia un effetto particolarmente negativo sulla crescita. Proprio a causa del calderone, infatti, è altamente improbabile, se non impossibile, che la soglia X%, ammesso che esista, sia la stessa (per esempo X%=90%) per tutti i Paesi, in tutte le circostanze. Una soglia fissa del X%, quindi, non dovrebbe nemmeno esistere!
Il vero problema è che il Risultato, che davvero esiste, è stato utilizzato da molti in modo ingannevole. In particolare, il Risultato è stato abbondantemente riportato dalla stampa e dai blog come una prova a favore delle misure di contenimento dei deficit pubblici attualmente in atto in varie parti del mondo. Il Risultato è così entrato a far parte dei papponi inutili e dannosi di cui si legge continuamente, e di cui si nutrono ragionamenti, posizioni, e scontri che non trovo altro modo di definire se non col termine raccapriccianti (un ulteriore esempio di pappone raccapricciante è quello sui moltiplicatori fiscali, altra questione importante ma empiricamente non ancora risolta e, purtroppo, difficilmente risolvibile. Una questione quindi che suggerisce di prendere con le pinze i vari studi che si susseguono, studi che invece vengono usati nel pubblico dibattito come una clava). La situazione è talmente raccapricciante che non solo il lavoro H&A&P è stato falsamente venduto al pubblico come un modo per smentire il Risultato. Non solo H&A&P non fanno altro che perpetuare essi stessi il “vero inganno” sulla presunta rilevanza pratica del Risultato (H&A&P concludono dicendo “Il fatto che i risultati di R&R sono sbagliati dovrebbero perciò portarci ad una rivisitazione dell’agenda di austerity sia in Europa che negli USA”). Ma, cigliegina sulla torta, il polverone alzato dal lavoro di H&A&P ha portato ad una serie di articoli sul New York Times in cui R&R e H&A&P si confrontano a distanza sulle metodologie e sui risultati (il tutto, ovviamente, senza neanche poter inserire tabelle esplicative dei dati. In fondo, cosa ci si può aspettare da un dibattito scientifico su un quotidiano?).
Ora chiediamoci, ma di che raccapricciante livello di dibattito pubblico stiamo parlando? Esiste anche solo una persona seria, all’interno della professione, che crede che lo spostamento di qualche decimo di punto (sia in un verso che nell’altro!) nelle medie o mediane delle stime di R&R debba avere un seppur vago effetto sull’ “agenda di austerity sia in Europa che negli USA”?
La risposta all’ultima domanda credo non possa che essere negativa. Non ho alcun dubbio che la quasi totalità degli economisti professionisti, siano essi in accademia o nelle varie istituzioni pubbliche, sappiano benissimo quando profondi sono i limiti delle analisi empiriche del tipo sopra citato (di nuovo, lo stesso vale per la miriade di lavori empirici sui “moltiplicatori fiscali”). Non c’è nulla di male nel fatto che certe analisi abbiano dei limiti: non si tratta di dire che gli autori sono degli incapaci, non si tratta nemmeno di dire che certe analisi non vadano neanche fatte (io sono tra quelli che credono che anche analisi parziali possano servire a imparare qualcosa, o a tracciare almeno l’inizio di una strada fruttuosa). Si tratta piuttosto di riconoscere che i dati a disposizione sono quello che sono. Le scelte da fare in Europa, come altrove, non possono basarsi (nè, mi sento di rassicurarvi, si basano nella realtà) su un foglio di Excel di R&R.
Ma allora, perché tanta pubblicità sui media per questioni che, in buona parte, andrebbero affrontate con toni pubblici molto più bassi, per esempio limitando le discussioni, magari accese, sui noiosi e dettagliati metodi di “pesatura” delle osservazioni ad un consesso scientifico, invece che sul New York Times?
Lascio a voi la risposta, che secondo me ha a che fare con le mode,con la visibilità pubblica (che si ottiene più facilmente con l’extreme), con la voglia di contare davvero, con il buio assoluto in cui spesso brancolano i policy-makers che, a differenza degli accademici, non hanno il lusso di poter aspettare tempi o dati migliori prima di prendere le decisioni (anche il non-decidere-ora è già una decisione, con possibili ripercussioni immediate. Spesso il quick and dirty appare quindi come meglio del niente). Nel girone infernale delle diatribe raccapriccianti sono cascati, questa volta, anche R&R. In fondo, in queste diatribe raccapriccianti ci sono volontariamente scesi, e da queste diatribe raccapriccianti hanno tratto una certa visibilità. Insomma, ci hanno un po’ marciato sopra. Ed ora, il quick, dirty and extreme torna indietro loro come un boomerang. La giusta pena del contrappasso è che, invece di spiegare il perché ed il per come dei propri numeri di fronte ad un consesso di colleghi economisti, si trovano a spiegarli e giustificarsi dalle pagine di un quotidiano.
Ancora due considerazioni, prima di terminare. La prima, più che una considerazione, è un esercizio che propongo come metodo per selezionare la qualità dei blog o dei giornalisti che leggete. Blogs e giornalisti sono parte integrante del meccanismo mediatico del quick, dirty, extreme. Personalmente credo che la qualità di un giornalista o di un blogger possa intuirsi anche dal modo in cui ha trattato la vicenda R&R. Se in passato il blogger in questione vi ha detto che i lavori di R&R sono una importante prova a favore dell’austerity in Europa, allora cambiate blogger. Allo stesso tempo, se in questi giorni il blogger vi ha raccontato che il lavoro di H&A&P conferma che l’austerity in Europa è un errore allora, esattamente come detto sopra, cambiate letture. In entrambi i casi, vi trovare di fronte ad un commentatore che non cerca altro che vendervi un’idea preconfezionata. Uno che non ha le competenze, il tempo, o la voglia per leggere i lavori che va sbandierando in giro. Uno che replica luoghi comuni, anche se magari questi luoghi comuni sono presi dalla newsletter di una banca d’investimento o dall’abstract di un lavoro accademico. Ho fatto il seguente esercizio. Ho cercato su Google il nome dei blogger che vanno per la maggiore, seguiti dalle parole chiave quali Reinhart Rogoff. I più attivi di recente sono stati, ovviamente, gli esultanti blogger “anti-austerity”. Tra di loro, il commento di alcuni è stato del tipo “l’ho sempre detto/ve l’avevo detto io/finalmente ci sono arrivati anche loro...”. Beh, evitateli, apparentemente sapevano che c’erano errori anche senza aver mai visto il foglio di Excel di R&R. Evitate quei blogger che vi dicono che H&A&P hanno finalmente smentito il Risultato, che invece è ancora lì. Ma, cosa ancora più importante, evitate quei blogger che perpetuano, non importa se per incapacità o per fini di auto-promozione, l’inganno vero di farvi credere che la verità o meno del Risultato abbia una certa importanza per decidere se l’“austerity” in Europa sia stata o no una scelta corretta.
Sono stato fin qui abbastanza critico di alcuni tratti dell’atteggiamento di R&R, ma anche di quello di H&A&P. Concludo, però, respingendo al mittente le accuse secondo cui l’affaire R&R dimostra come gli economisti siano ancora distanti dai criteri etico-scientifici vigenti, secondo costoro, in altre discipline (un refrain che ogni tanto alcuni intonano...vabbè ognuno c’ha le proprie fisse e i propri irrisolti). Piuttosto, l’affaire R&R mostra, a mio avviso, quali siano le trappole in cui gli scienziati, di qualsiasi disciplina, possono cadere quando si trovano attirati dalle sirene e dalla pubblicit del quick, dirty extreme. Sono sirene che cantano forte ogni qualvolta lo scienziato, di qualsiasi disciplina, si trovi a lavorare su temi caldi, dove gli interessi economici e quindi l’attenzione del pubblico sono sostanziali, e dove magari i fenomeni empirici sono particolarmente complessi da misurare con certezza (i Risultati andrebbero perciò presi con le dovute pinze). Esempi di questa situazione sono il tema scottante del cambiamento climatico (se n’è parlato anche qui), o la questione dell’effetto sull’uomo e sull’ambiente dell’utilizzo di organismi geneticamente modificati. È bene poi ricordare, infine, che nessuno ha accusato R&R di aver volontariamente truccato i dati. Né il lavoro di R&R è stato pubblicato su prestigiose riviste che utilizzano processi di peer-review (anche se non mi stupirei se un eventuale processo di peer-review non avesse scoperto l’errore materiale). Niente a che fare, insomma, con quanto accaduto in alcuni casi infinitamente più gravi, ma che di certo non giustificano un attacco ad altezza uomo contro l’intera comunità scientifica di riferimento.
“Il segreto della FELICITÀ è la LIBERTÀ. E il segreto della Libertà è il CORAGGIO” (Tucidide, V secolo a.C. )
“Freedom must be armed better than tyranny” (Zelenskyy)