testata ADUC
Scomparso il grande Markowitz, è il momento di archiviare la “Moderna” Teoria di Portafoglio?
Scarica e stampa il PDF
Articolo di Alessandro Pedone
4 luglio 2023 10:22
 
Il 22 Giugno 2023 è morto un grande personaggio del mondo della finanza: Harry Markowitz, considerato uno dei padri della cosiddetta “Moderna” Teoria di Portafoglio (in inglese la sigla è MPT, useremo questa sigla spesso nel resto dell’articolo al posto della versione estesa). Uso le virgolette per l’aggettivo “Moderna” perché i primi scritti di Markowitz in merito risalgono al 1952 (1).
È diventato un'icona del mondo finanziario nel 1990 quando, insieme a Merton Miller e William Sharpe, gli conferirono quello che i giornalisti frettolosamente chiamano “premio Nobel per l'economia” (2)  «per i contributi pionieristici nell'ambito dell'economia finanziaria».
Ricordo bene il clima degli anni ‘90 in merito alla MPT perché io ne fui completamente affascinato e ho iniziato a comprenderne appieno tutti i limiti solo dopo la grande crisi finanziaria del 2008. Lo shock che subii a seguito di quegli eventi mi portò ad approfondire un modo completamente diverso di vedere la statistica in generale (attraverso il pensiero del gigante intellettuale Bruno de Finetti) ma anche una diversa teoria dei mercati finanziari (in particolare la Adaptive Market Hypothesis di Andrew Lo) e della finanza comportamentale di seconda generazione (attraverso autori come Gerd Gigerenzer e Meir Statman). 
Avevo già compreso molti dei limiti della MPT con lo scoppio della bolla dot.com nel 2000. All’epoca scrivevo per una piccola, ma storica e molto seria rivista trimestrale di finanza ancora esistente, dal titolo “Investimenti Finanziari”. L’allora responsabile tecnico della redazione, che vagliava gli articoli dal punto di vista scientifico, aveva scritto un libro nel quale esaltava (come allora tutti facevano) la MPT (3). Io proposi un vasto articolo che criticava fortemente questa teoria attraverso le argomentazioni che oggi tutti danno per scontate(4), ma il pezzo fu pubblicato falcidiato (divenne un box all’interno di una pagina) e ammorbidito fino a renderlo insulso, così decisi di terminare la collaborazione con la rivista.
Dopo il 2008, però, attraverso gli autori che ho sopra citato, le mie critiche alla MPT sono diventate radicali, molto più profonde. Solo negli ultimi 10 anni le argomentazioni a cui accennerò in questo articolo sono diventate accademicamente accettate, ma al più ampio pubblico degli operatori finanziari sono argomentazioni che ancora sfuggono. Nel 2020 è stato pubblicato un libro divulgativo che ripropone queste stesse tesi (purtroppo non tradotto in italiano): si intitola “Radical Uncertainty: decision-making beyond the numbers”, scritto a quattro mani da Mervyn King e John Kay, due “pezzi da 90” del pensiero economico inglese. 
John Anderson Kay è stato primo decano all’Oxford’s Said Business School e ha avuto la cattedra alla London Business School, l’University of Oxford, e la London School of Economics. 
Mervyn Allister King è entrato nella Banca d’Inghilterra come capo economista nel 1991 e ha guidato l’istituzione dal 2003 al 2013.
In una fascia sempre più ampia del mondo accademico, l’idea di base che proporrò in questo articolo è data ormai per scontata. Nel mondo dei professionisti della finanza, invece, c’è una profonda resistenza ad abbandonare strumenti operativi che forniscono l’illusione di poter trasformare l’incertezza, per sua natura non calcolabile, in rischio che invece si può calcolare. 

Harry Markowitz e Bruno de Finetti
Se si vuole approfondire le ragioni per le quali la MPT andrebbe completamente archiviata è importante conoscerne le origini. Purtroppo, negli ultimi anni, ho verificato in numerose occasioni che anche persone preparatissime continuano a ignorare le reali origini del concetto che sta alla base della MPT: l’ottimizzazione media-varianza. 
Senza entrare troppo nei particolari tecnici, e guardandomi bene dall’entrare negli aspetti matematici, il concetto di base dell’ottimizzazione media-varianza è quello di sfruttare le covarianze per ridurre, a parità di rendimento, il rischio (5) atteso del complesso del portafoglio, oppure aumentare il rendimento atteso a parità di rischio. In parole più semplici: ipotizzando che le obbligazioni tendenzialmente salgono (o almeno non scendono) quando le azioni scendono e viceversa, l’idea è che con una combinazione di azioni e obbligazioni si otterrà sempre un rapporto rischio/rendimento atteso migliore rispetto ad avere solo obbligazioni o solo azioni, intendendo per rischio le oscillazioni delle variazioni del complesso del portafoglio. 
Naturalmente questa è una brutale semplificazione, ma il concetto base - per quanto si possa complicare - rimane quello. 
Il contributo attribuito a Markowitz è quello di aver proposto nel 1952 uno strumento matematico-statistico che indica le esatte percentuali di ciascuna asset class (tipologia di investimento) da inserire in portafoglio affinché lo stesso sia, ex-ante, il più efficiente fra tutte le combinazioni possibili, cioè abbia il miglior rapporto media/varianza atteso. Qui la parolina a cui prestare attenzione è “atteso”. Perché la realtà è che non c’è mai stato nessun caso pratico per il quale i portafogli così costruiti siano risultati migliori fra quelli possibili alla fine del reale periodo di investimento. 
Solo nel 2006 (6) è diventato noto, nel ristretto ambito degli accademici che leggono le pubblicazioni scientifiche in materia, il fatto che il concetto di media-varianza era stato pubblicato nel 1940 (7) da Bruno de Finetti. Il fatto è diventato noto grazie a un articolo pubblicato dallo stesso Harry Markowitz (il quale era una persona mite, umile e onesta intellettualmente, anche se non geniale come de Finetti) dal titolo “De Finetti Scoops Markowitz”.
Mi ricordo il mio stupore quando ne venni a conoscenza tre anni dopo, nel 2009. 
Personalmente conoscevo Bruno de Finetti più come polemista che come statistico perché da adolescente ascoltavo quasi ossessivamente Radio Radicale e qualche volta sentivo questo de Finetti fare le sue dotte invettive contro il sistema economico, politico e sociale dell’epoca. 
Scoprire l’enorme spessore intellettuale del personaggio ha profondamente trasformato il modo in cui oggi vedo non solo i mercati finanziari, ma più in generale l’approccio a qualsiasi scelta. 
Ci sono tutta una serie di questioni squisitamente matematiche relative alla differenza fra la formula proposta da Bruno de Finetti e quella proposta da Harry Markowitz. Tali argomenti non sono proponibili in un articolo divulgativo come il presente, per questo rimando gli eventuali lettori interessati al paper del prof. Flavio Pressacco (8) in nota. 
Al di là degli aspetti tecnici c’è una questione fondamentale da comprendere, che si può capire solo conoscendo la storia di Bruno de Finetti e perché i due lavori, sebbene dal punto di vista strettamente matematico affrontino lo stesso problema, in realtà sono completamente diversi. 
Ci tengo a precisare che non sto ponendo una questione di paternità della teoria relativa alla media-varianza. È documentato che Bruno de Finetti, nel 1950 fece un viaggio negli Stati Uniti e tenne una serie di conferenze in una delle quali sicuramente partecipò anche Markowitz. 
Come si può leggere nel breve paper (9) di Mark Rubinstein (in nota anche una versione tradotta in italiano), all’epoca titolare della cattedra di Applied Investment Analysis, istituita presso la University of California at Berkeley, de Finetti è stato un precursore in tantissimi campi estremamente rilevanti non solo in finanza, ma anche più in generale in economia. Ad esempio nel 1952, anticipando di oltre un decennio Kenneth Arrow (altro premio “Nobel”, nel 1972) e John Pratt, de Finetti ha sviluppato il concetto di “avversione assoluta per il rischio” e l’ha utilizzata in connessione con il concetto di premio per il rischio (10). Ha anticipato diversi lavori sulle martingale, il metodo ottimale di distribuzione dei dividendi e il modello di Samuelson sui tassi d’interesse in presenza dell’alternativa tra consumo e investimento. 
Di tutte queste cose, non ha mai rivendicato la paternità. Come ha ricordato la figlia Fulvia: “non era interessato a  rivendicare meriti per se stesso, ma piuttosto a lottare per il trionfo delle idee giuste sui falsi paradigmi”.    
Non si tratta, quindi, di una disputa di paternità di una teoria. Si farebbe in primo luogo un torto alla memoria di De Finetti e sarebbe anche di pessimo gusto tirare fuori questioni così irrilevanti in prossimità della scomparsa di Markowitz, il quale era uno scienziato umile, molto preparato, disponibile e onesto intellettualmente. È irrilevante se Markowitz abbia tratto spunto per la sua formula sull’ottimizzazione di media/varianza da quella, di oltre 10 anni prima, di de Finetti o se vi sia giunto da solo. 
La questione che voglio proporre va alla sostanza del problema. 
Per farlo è utile capire il contesto nel quale i due modelli sono nati. 
Dal 1931 al 1946 Bruno de Finetti lavorò presso le Assicurazioni Generali di Trieste: fu prima membro dell'ufficio attuariale, poi fu addetto allo studio e alla riforma dei sistemi organizzativi, amministrativi e contabili connessi all'introduzione del sistema I.B.M. a schede perforate e, infine, fu nominato responsabile del servizio meccanografico e dell'ufficio razionalizzazione.
In pratica portò il suo genio matematico-statistico al servizio di quella che divenne, anche (se non prevalentemente) grazie a lui, la più grande compagnia di assicurazioni in Italia. 
La sua formula di ottimizzazione media/varianza, pubblicata proprio in questi anni, non riguarda la finanza, ma i rischi assicurativi. Il punto sta tutto qui! Usare la statistica quando si tratta di calcolare i rischi tipici del mondo assicurativo (furti, incendi, incidenti, malattie, ecc.) è perfettamente sensato, perché questi fenomeni non sono determinati dalla psicologia della folla e non si influenzano reciprocamente come accade per le variazioni dei prezzi delle attività finanziarie. Con la formula di Markowitz, come vedremo nel prossimo paragrafo, le cose stanno diversamente. 

Perché la media/varianza non è logicamente applicabile in finanza
Harry Markowitz, diversamente da de Finetti, ha applicato il concetto di ottimizzazione media-varianza in un campo decisamente sbagliato!  
Il suo lavoro ha dato lo spunto a molti altri lavori per applicare la statistica in finanza in un modo raccapricciante e logicamente infondato. Mi rendo conto che queste parole sono molto forti, ma non sono semplicemente opinioni personali del sottoscritto, come vedremo in questo paragrafo. 
Nel libro “Bruno de Finetti. Un matematico tra Utopia e Riformismo”, Ediesse edizioni, a pagina 97 si legge di uno scambio di opinioni con il grande economista italiano Federico Caffé (maestro, fra gli altri, di Mario Draghi). De Finetti si trovava in accordo con Caffé nel criticare pesantemente la deriva finanziaria che aveva preso l’economia e del ruolo che in questo aveva avuto un “uso sconcertante della matematica” (parole di de Finetti)

A proposito del ruolo assunto dalla matematica finanziaria è utile ricordare il caso del fondo Long-Term Capital Management (LTCM) che fu un campanello di allarme, inascoltato, per quello che poi accadde nel 2008, con la grande crisi finanziaria. 
Il LTCM è stato un hedge fund fondato nel 1994 da un gruppo di accademici e trader, tra cui due premi “Nobel”, Myron Scholes e Robert C. Merton. Il primo, in particolare, insieme a Fischer Black, è autore della nota (in finanza) equazione conosciuta come “formula di Black&Scholes” per determinare il valore dei derivati che a tutt’oggi è (scelleratamente) uno dei pilastri della finanza moderna, questa formula ha fatto molti più danni rispetto a quella di media-varianza di Markowitz, ma fondamentalmente per lo stesso motivo strutturale che illustrerò al termine di questo paragrafo. 
Il fondo aveva l'obiettivo di sfruttare le inefficienze dei mercati finanziari attraverso strategie di arbitraggio e trading quantitativo (11).
Nel 1998 LTCM ha attraversato una grave crisi finanziaria. Il fondo aveva accumulato una posizione molto grande e con una enorme leva finanziaria in strumenti derivati (125 miliardi di dollari di prestiti, su 2,2 di capitale!), in particolare in obbligazioni governative e spread sui tassi di interesse. Quando i mercati finanziari hanno subito un'improvvisa volatilità non prevista dai modelli, le posizioni di LTCM sono andate incontro a perdite devastanti fino alla chiusura. 
A causa delle dimensioni e dell'interconnessione del fondo con le principali istituzioni finanziarie, il rischio di contagio era molto elevato. Per evitare un possibile crollo sistemico, la Federal Reserve ha coordinato un intervento di salvataggio, coinvolgendo numerose banche e istituzioni finanziarie (comprese la Banca d’Italia).

La lezione del LTCM non è minimamente stata appresa e l’uso di assurdi strumenti statistici in finanza per costruire nuovi strumenti finanziari (basati su queste formule statistico-matematiche prive di senso) è continuato fino alla crisi del 2008 con l’uso dei CDO (12), Collateralized Debt Obligations, e dei CDS (13), Credit Default Swap. Purtroppo, tale uso scellerato continua ancora oggi! 

Un “mostro sacro” nel campo della gestione del rischio come Paul Embrecht (14), parlando dell’uso dei CDO,  durante la grande crisi finanziaria ha speso parole di fuoco come le seguenti: “È chiaro che … la gestione del rischio di credito ha raggiunto un livello di perversione che … mette in imbarazzo l’intera professione del quant” (originale: “It is clear that… credit risk management did reach a level of perversity which …  puts to shame the whole quant profession” (15).
Non è un caso che Paul Embrecht sia considerato un mostro sacro più da coloro che si occupano di assicurazioni che non quelli che fanno i “risk manager” in finanza. 
Qual è l’errore logico di fondo, radicale, che fanno tutti i professionisti che applicano complesse formule di matematica statistica al mondo della finanza? 
Quella di scambiare l’effetto per il fenomeno. Mi spiego meglio. 
Markowitz, Scholes, Black, Merton e tutti quelli che usano formule statistiche per tentare di prendere scelte finanziarie usano come collettivo statistico l’insieme delle variazioni di prezzo di una o più classi d’investimento o  strumento finanziario. 
Il problema è che la variazione di prezzo non è un fenomeno in sé, è la manifestazione di una serie di fenomeni sempre diversi. Per altro, maledettamente interconnessi da una intricata rete di retroazioni! Quindi non è corretto farne una popolazione statistica che deve essere necessariamente omogenea.
Si tratta di un principio base della statistica. La popolazione statistica deve essere omogenea, deve cioè avere almeno una caratteristica comune. La variazione di prezzo non ha i requisiti sufficienti per essere un elemento sul quale poter basare questa caratteristica comune che permetta di costruire l’insieme.
Nel mondo assicurativo, se accade un incidente, questo può essere considerato un fenomeno a sé che può essere messo nell’insieme di tutti gli altri incidenti. 
Anche l’incidente, ovviamente, è l’espressione (nel senso di essere causato da) di una serie di altri fenomeni che l’hanno determinato, ma la differenza sostanziale è che le dinamiche strutturali che portano a quel fenomeno fisico sono sempre le stesse e - soprattutto - non sono interconnesse (il determinarsi di un incidente a Milano non modifica in nessun modo le probabilità che si verifichi un incidente a Firenze). 
Le cause strutturali che determinano una variazione di prezzo di un titolo sono diverse perché gli stessi mercati finanziari si modificano, sono fenomeni sociali, non fenomeni appartenenti al mondo della fisica tradizionale. Si modificano anche dal punto di vista del loro funzionamento tecnico (si pensi, ad esempio, all’impatto che ha avuto e sta avendo sempre di più l’introduzione dei calcolatori, poi delle telecomunicazioni e oggi dei nuovi tipi di software che prendono il fuorviante nome di intelligenza artificiale). 
Non ha alcun senso logico mettere nello stesso insieme la variazione di prezzo avvenuta nel 2008 - quando scorreva il terrore fra gli operatori finanziari - con quella avvenuta anni prima in un clima di relativa serenità. Le variazioni di prezzo in un contesto nel quale le banche centrali, di fatto, determinano i prezzi delle obbligazioni non sono lo stesso fenomeno di un contesto nel quale questo non accade. Matematicamente lo si può trattare nello stesso identico modo, ma è insensato perché si tratta di fenomeni sostanzialmente diversi. Il fatto che siano rappresentabili esattamente nella stessa maniera non significa che siano della stessa natura e - soprattutto - non significa che sia corretto farlo! 
Sarebbe come se un’assicurazione utilizzasse solo il costo che un qualunque sinistro implica, e ignorasse completamente il tipo di sinistro, per calcolare le tabelle attuariali che determinano il costo del premio! È evidente che sarebbe un’assurdità. Ma è quello che facciamo comunemente in finanza quando usiamo la variazione di prezzo (e le sue derivate statistiche come media, varianza e covarianza) per prendere scelte d’investimento.  
Mettere tutte le variazioni di prezzo in un unico calderone e considerarla una popolazione statistica valida è l’errore radicale che comunemente si fa in finanza.
È la causa strutturale sia del fallimento del fondo LTCM che della crisi del 2008.
Ci sono tutta una serie di obiezioni più tecniche che comunemente si fanno alla MPT e alla CAPM e sono sicuramente sensate. Nell’articolo, già citato sopra, che avevo scritto per “Investimenti Finanziari”,  risalente ai primi del 2000, le avevo descritte minuziosamente, ma sono tutte questioni secondarie rispetto a ciò che sto cercando di mostrare qui. A distanza di circa vent’anni, questo tipo di obiezioni sono comunemente accettate anche dai professionisti che lavorano nella finanza con un approccio quantitativo. Buona parte del lavoro di queste persone è riuscire ad aggirare questi problemi con formule sempre più complicate. Prendiamo, ad esempio il famoso problema delle “code grasse” (16) della funzione di distribuzione delle probabilità delle variazioni dei prezzi. Invece di essere preso per quello che è: la dimostrazione che la popolazione statistica non è correttamente selezionata, viene affrontato applicando formule sempre più complesse che tengono in conto la forma “non normale” della distribuzione. Queste formule, sempre più complesse, mi ricordano molto l’uso che veniva fatto degli epicicli dal sistema tolemaico per tenere in piedi la visione geocentrica dell’universo (17) . 
Quando finalmente accetteremo la realtà, ovvero che le variazioni di prezzo non sono un fenomeno che ha senso raggruppare in una popolazione statistica al fine di trarne informazioni sufficientemente valide per le variazioni di prezzo future, allora entreremo definitivamente in un nuovo paradigma in finanza. Sarà come passare dal sistema geocentrico al sistema eliocentrico. Accetteremo, come nuovo paradigma, il fatto che i mercati finanziari sono per loro natura incerti, non rischiosi, e che per costruire portafogli finanziari sensati, ben costruiti, non è necessario fare predizioni sulla volatilità, correlazione, rendimento medio atteso, ecc. È una bella rivoluzione, molto difficile da accettare per tutti coloro che, da una vita, professionalmente macinano numeri derivanti da queste teorie ormai obsolete, e magari con questa attività mettono la pagnotta in tavola. La realtà, però, è più testarda degli di tutte le convinzioni degli esseri umani. Prima o poi, anche in finanza, dovremo accettare è la “terrà a ruotare attorno al sole e non viceversa”. 

Meglio un controllo illusorio o una incertezza consapevole? 
Il problema più grande di questi modelli è che per la maggior parte del tempo sembrano funzionare. Forniscono cioè l’illusione di avere dei sofisticati strumenti ai quali affidarsi per fare scelte migliori rispetto a quelle che faremmo applicando semplicemente il buonsenso. Lo stesso accadeva al sistema tolemaico. Quel complesso meccanismo matematico prediceva il movimento dei pianeti con una stupefacente precisione… fino a quando però non si faceva una scoperta astronomica che metteva in crisi un complesso formule matematica fondate su una falsità di fondo.
Mark Twain diceva che “la banca è un posto dove ti prestano l'ombrello quando c'è bel tempo e te lo chiedono indietro quando inizia a piovere”. 
I modelli finanziari di finanza quantitativa funzionano quando meno servono, cioè quando sui mercati finanziari c’è la normalità, ma  quando accadono cose strane (ovvero le variazioni di prezzo diventano fenomeni che non a senso inserire nella stessa popolazione statistica) allora questi modelli non servono più a niente oppure fanno fare scelte dannose.  
Come dimostrano i casi clamorosi del fondo LTCM e della crisi finanziaria del 2008, avere l’illusione di poter calcolare ciò che non è calcolabile è potenzialmente disastroso. 
È molto più utile avere la consapevolezza che i mercati finanziari sono incerti, cioè non calcolabili. 
L’incertezza è una condizione generalmente percepita come scomoda, ma solo perché solitamente non si è preparati ad affrontarla. L’incertezza non è solo negativa, può riservare anche sorprese molto positive. Si tratta solo di abbandonare la volontà di controllare ciò che non è controllabile e aprirci alla possibilità che vi siano sorprese (positive e negative) preparandosi adeguatamente. 
Un piano finanziario adattativo serve proprio a questo. 
Costruire portafogli con l’approccio media/varianza, alla Markowitz, è il tipico approccio previsionale: analizzo le variazioni dei prezzi passate dal punto di vista statistico e calcolo la combinazione che prevedo sia la migliore in base a questi dati (i quali, come abbiamo visto, sono logicamente insensati perché mettono insieme cose che non possono stare nella stessa popolazione statistica).
Realizzare un piano d’investimento di tipo adattativo significa comporre il portafoglio sapendo che in futuro ci saranno anche eventi eccezionali. Inserendo asset class (come la liquidità, o le obbligazioni a breve termine) che mi permettano di approfittare di momenti esageratamente negativi o prendere beneficio da momenti esageratamente euforici. 
In sintesi, non serve avere dei modelli matematici che nei momenti più importanti diventano inutili o pericolosi. È possibile fare scelte finanziarie applicando semplicemente il buon senso, euristiche semplici, ma efficaci. 
All’inganno del falso controllo, che queste formule matematiche basate su una fallacia logica propongono, è di gran lunga preferibile la consapevolezza che i mercati finanziari sono strutturalmente incerti. 



NOTE
1 - Harry M. Markowitz, “Portfolio Selection,” Journal of Finance 7, No. 1 (March 1952), pp. 77-91;
2 - Pochi sanno che quello che i giornalisti chiamano “Premio Nobel per l’Economia” non è uno dei premi istituiti da Alfred Nobel con il suo testamento e assegnati fin dal 1901. I Premi Nobel reali sono solo cinque: Fisica, Chimica, Medicina, Letteratura e Pace. Il premio che i giornalisti chiamano “Premio Nobel per l’Economia” si chiama realmente “Premio della Banca di Svezia per le scienze economiche in memoria di Alfred Nobel”, sebbene Alfred Nobel abbia detto di non avere "alcuna formazione in economia” e di averla in odio “dal profondo del suo cuore". Il premio viene assegnato solo dal 1969. L'idea venne a Per Åsbrink, governatore della Banca di Svezia, come parte dei preparativi per il tricentenario della Banca.
3 - La Teoria di Portafoglio - Massimo Intropido - Editore: Investimenti Finanziari Luca Angelucci Editore
4 - Essenzialmente il fatto che a piccole variazioni dei dati di input del modello (media, varianza e correlazioni delle asset class) corrispondono output completamente diversi e poiché vi è una forte instabilità nel tempo di questi dati, i portafogli in teoria “efficienti” che propone quasi certamente non risulteranno nel periodo di investimento. Quindi, il modello è sostanzialmente inutile. 
5 - Per “rischio” qui si intende l’oscillazione delle variazioni del valore del portafoglio. Uno dei grandi danni della MPT è proprio quello di aver ridotto il concetto molto articolato di rischio con una variabile statistica. Rendendo il termine estremamente fuorviante per tutti gli investitori. 
6 - Harry M. Markowitz, “De Finetti Scoops Markowitz,” Journal of Investment Management, “Special Issue: A Literature Postscript”, Vol. 4, No. 3, pp. 3-18, 2006
7 - De Finetti, B.: Il problema dei pieni. Giornale Istituto Italiano Attuari (1) (1940) 1-88
8 - PRESSACCO, Flavio “De Finetti, Markowitz e la congettura dell'ultimo segmento”, RENDICONTI PER GLI STUDI ECONOMICI QUANTITATIVI anno 2005, p. 61-72.
9 - Mark Rubinstein, “Bruno de Finetti and Mean-Variance Portfolio Selection”, Journal of Investment Management, “Special Issue: A Literature Postscript”, Vol. 4, No. 3, pp. 1-2, 2006. Per una traduzione in italiano a cura di Luca Barone si può consultare questo link. Qualora in futuro non fosse attivo, si può chiedere all’autore, insieme a molta altra documentazione in proposito. 
10 - Bruno de Finetti, “Sulla preferibilità”, Giornale degli Economisti e Annali di Economia 11, (1952), pp. 685-709
11 - In finanza, il termine "quant" o "quantitativo" si riferisce a un approccio basato sull'utilizzo di modelli matematici per prendere decisioni di investimento e gestire il rischio. I professionisti che usano questo approccio, noti anche come "quants", utilizzano algoritmi e modelli statistici complessi,  basati sulla raccolta e l'analisi di grandi quantità di dati storici per identificare pattern, tendenze e relazioni tra variabili finanziarie  al fine di identificare opportunità di trading, valutare gli asset finanziari e gestire i portafogli. L'approccio quantitativo è particolarmente diffuso nelle istituzioni finanziarie come banche d'investimento, hedge fund e società di gestione degli investimenti. I quants sono spesso esperti in matematica, statistica, informatica e finanza, e lavorano a stretto contatto con gli analisti finanziari e i gestori di portafoglio per sviluppare strategie di investimento basate sui modelli quantitativi.
12- I Collateralized Debt Obligations (CDO) sono strumenti finanziari complessi che raggruppano un insieme di obbligazioni e altri tipi di debito, come mutui ipotecari o prestiti bancari, e li suddividono in diverse tranches. Ogni tranche ha un diverso livello di rischio e rendimento, a seconda della priorità di rimborso e dell'esposizione al rischio di credito. Le CDO sono state popolari prima della crisi finanziaria del 2008, ma sono state ampiamente criticate per il loro ruolo nella crisi stessa. La complessità delle CDO ha reso difficile valutare il rischio sottostante e ciò ha portato a perdite significative per gli investitori. 
13 - Il credit default swap (CDS) è un contratto con il quale il detentore di un credito  si impegna a pagare una somma fissa periodica, in genere espressa in basis point rispetto a un capitale nozionale, a favore della controparte che, di converso, si assume il rischio di credito gravante su quella attività nel caso in cui si verifichi un evento di default futuro e  incerto (credit event)
14 - Paul Embrechts è professore emerito di matematica all'ETH di Zurigo. Agisce come Risk Center Ambassador di ETH. La sua ricerca è stata pubblicata nelle principali riviste accademiche di tutto il mondo ed è relatore regolare a conferenze internazionali sulla gestione quantitativa del rischio rivolte sia ad accademici che a professionisti del settore. Fa parte dei comitati editoriali di numerose riviste internazionali ed è membro di numerosi comitati consultivi internazionali. Per capire lo spessore accademico del personaggio si può dare un’occhiata al suo cv a questo link. 
15 - Donnelly, C., Embrechts, P.: The devil is in the tails: actuarial mathematics and the subprime mortgage crisis. ASTIN Bulletin 40(1), 2010
16 - La funzione normale di distribuzione della probabilità, quando rappresentata su un grafico ha una forma “a campana" detta anche gaussiana. La "coda" si riferisce alla parte estrema della distribuzione, dove si verificano gli eventi più rari o estremi. Una coda grassa indica che la probabilità di osservare eventi estremi è più elevata rispetto a una distribuzione normale o gaussiana, che ha una coda più sottile.
17 - Claudio Tolomeo, che visse  tra il 90 e  il 170 dopo Cristo ad Alessandria d’Egitto, elaborò un modello dell’universo che venne ritenuto valido fino alla rivoluzione copernicana (oltre quattordici secoli dopo). Partendo dai modelli matematici degli epicicli e degli ex-centri produsse una procedura matematica predittiva delle posizioni di ciascun pianeta. Nel sistema tolemaico il deferente è però eccentrico rispetto alla Terra e il moto del centro dell’epiciclo lungo il deferente è uniforme rispetto ad un punto (equante) simmetrico della Terra rispetto al centro del deferente stesso. Insomma un’ulteriore complicazione pur di descrivere al meglio i fenomeni osservati. Quando venivano fatte nuove osservazioni che non si conciliavano con le previsioni del modello, si aggiungevano nuovi epicicli e tutto tornava nuovamente a predire perfettamente i movimenti futuri. Fino alla scoperta di nuovi fenomeni… 
 
CHI PAGA ADUC
l’associazione non percepisce ed è contraria ai finanziamenti pubblici (anche il 5 per mille)
La sua forza economica sono iscrizioni e contributi donati da chi la ritiene utile

DONA ORA
 
 
ARTICOLI IN EVIDENZA
 
ADUC - Associazione Utenti e Consumatori APS