Cigni neri, code grasse e orecchie da mercante: come misurare il rischio nei mercati finanziari

28 ottobre 2007 enzo michelangeli

Alcuni giorni fa, il Financial Times ha pubblicato un articolo di Nassim Nicholas Taleb in cui l'autore attacca violentemente la matematica finanziaria come "pseudoscienza", accusandola di essere incapace di trattare le statistiche che in pratica si incontrano nei mercati. In realtà, in ambito accademico è stata fatta una discreta quantità di lavoro in questa direzione, e se i suoi risultati non sono utilizzati le responsabilità vanno cercate altrove.

Taleb è un personaggio pittoresco, che tende a dare di sé un'immagine di "trader turned philosopher" che si è fatto le ossa sul campo di battaglia dei mercati, e ama condire i suoi scritti con citazioni erudite e abbondanza di "names dropping". Negli ultimi anni ha pubblicato un paio di libri divulgativi su temi finanziari, "Fooled by Randomness" e, quest'anno, "The Black Swan", in cui sostiene più o meno quanto segue: l'ammontare di casualità presente nei mercati non ne consente un trattamento matematico; il framework corrente, basato sul concetto di volatilità, è provatamente incapace di far previsioni sensate su eventi rari, di cui sistematicamente sottovaluta la probabilità; chi sostiene diversamente è un impostore in malafede. Forse ha seguito il consiglio dato da Paul Krugman a chi vuole far l'editorialista ed avere successo di pubblico: "Adopt the stance of rebel: There is nothing that plays worse in our culture than seeming to be the stodgy defender of old ideas, no matter how true those ideas may be". A giudicare dal devoto seguito che tanto l'uno quanto l'altro si sono costruiti tra bloggers, recensori su riviste e compratori di bestsellers, la tattica funziona; quanto a coglierci nel segno, è un altro discorso.

L'articolo citato (disponibile dal sito di FT solo a pagamento, ma riportato integralmente da vari siti o blogs, per esempio qui) è un buon sommario delle sue tesi e del suo stile; e chi abbia seguito sui giornali le varie crisi finanziarie degli ultimi decenni (non ultimo il sussulto di metà agosto scorso) sa che eventi che dovrebbero accadere "ogni 10,000 anni" o che sono supposti giacere a una distanza di "25 volte la deviazione standard" dal valore atteso, hanno, in effetti, il vizio di ripresentarsi ogni decennio circa. Però, contrariamente a quel che dice Taleb, il problema è stato identificato già nella prima metà del XX secolo, e gli strumenti matematici per trattarlo ci sarebbero. Vediamone i dettagli più da vicino.

Quantili e momenti

Nelle applicazioni pratiche di teoria della probabilità e statistica, tanto nelle scienze naturali quanto nelle economiche, si è in genere interessati a far previsioni sulla base di dati sperimentali e ragionevoli modelli matematici; in particolare, si è interessati ai valori assunti dalla funzione di distribuzione cumulativa (o CDF) di una variabile aleatoria per certi valori della variabile stessa; o, reciprocamente, ci si chiede quali siano i valori di tale variabile (detti quantili) in relazione ai quali la sua CDF assume particolari valori. Ad esempio, il quantile 0.5, detto mediana, dà una misura della posizione "centrale" della densita' di probabilita' (PDF, la derivata della CDF), e lo scarto inter-quartile, cioè la differenza tra primo e terzo quartile (quantili 0.25 e 0.75), dà una misura della "larghezza" della PDF. In matematica finanziaria, il molto discusso Value-at-Risk (VaR) è definito in termini di quantili sulla distribuzione dei cambiamenti di valore di un portafoglio di titoli (in particolare, è il massimo stimato della perdita che si può verificare entro un certo periodo di tempo con un dato livello di confidenza, tipicamente il 95% o 99%).

Lavorare con i quantili o con i valori delle probabilità cumulative, però, richiede la conoscenza della forma matematica della funzione di distribuzione. Quello che in genere si fa è definire un modello, che comporta la scelta di una certa funzione di distribuzione; stimare i parametri di quest'ultima sulla base dei dati storici; e da lì passare al calcolo dei quantili.   La stima dei parametri spesso è derivata da quella dei momenti di ordine N della distribuzione, che sono i valori attesi delle N-sime potenze della variabile aleatoria. La stima dei momenti è relativamente facile, dato che consiste nel calcolo di medie delle N-sime potenze dei valori storici (anche se la ricerca del metodo migliore per calcolare queste medie ha generato una sterminata letteratura, fino ai sofisticati modelli derivati di quell'ARCH che nel 2003 portò il Nobel per l'Economia a Robert Engle).   Se si assume, come spesso si fa, che la forma matematica della PDF è gaussiana, i suoi parametri sono direttamente deducibili dai momenti di ordine 1 e 2, che consentono di ricavare il valore atteso e la varianza. Nel caso gaussiano, il valore atteso coincide con la mediana (il quantile 0.5), mentre la radice quadrata della varianza, detta deviazione standard, è circa uguale a 0.74 volte lo scarto interquartile.   Gaussiane: perché e quando.   La ragione dietro la popolarità della distribuzione gaussiana è dovuta essenzialmente al Teorema del Limite Centrale (CLT), dimostrato nella sua forma più generale nel 1922, che asserisce che la somma di un certo numero di variabili aleatorie indipendenti ed equidistribuite tende alla distribuzione gaussiana al crescere del numero di tali variabili. Questa situazione si verifica spesso in natura, e anche in finanza: per esempio, i rendimenti giornalieri su merci o titoli (cioè i rapporti tra il prezzo di chiusura e il prezzo di chiusura del giorno precedente) sono il prodotto dei rendimenti individuali per ogni ora (o minuto, etc.) nel periodo in cui la merce o titolo è trattata in borsa. Pertanto, il logaritmo dei rendimenti giornalieri è la somma di tanti logaritmi di rendimenti elementari (supposti essere ugualmente distribuiti) e sarà perciò distribuito in forma approssimativamente gaussiana. I rendimenti avranno quindi una distribuzione log-normale.   Per la validità del CLT esiste però una precondizione importante, che sinora ho sottaciuto: la varianza delle variabili aleatorie componenti la somma deve avere un valore finito. Parlando più sopra della stima dei momenti, avevo glissato su un dettaglio: se da un lato le medie delle potenze N-sime dei valori sperimentali esistono sempre, dall'altro esse possono non tendere alle stime dei momenti della distribuzione, perché questi ultimi possono non esistere affatto. Questo succede quando l'integrale del prodotto tra PDF e potenza N-esima di una variabile X non converge a un valore finito, perché la PDF non tende a zero abbastanza rapidamente al tendere di X a più o a meno infinito. Più precisamente: se le code delle distribuzioni elementari tendono a zero più lentamente di |X|-(N+1), i momenti di ordine superiore a N non esisteranno. E se N < 2, addio CLT e addio gaussianità della somma! Distribuzioni stabili   Nei primi decenni del XX secolo ci si chiese se esistesse una versione più generale del CLT applicabile a situazioni in cui le variabili componenti hanno varianza infinita. Una risposta fu trovata nel 1955 da Gnedenko e Kolmogorov, il cui Teorema Generalizzato del Limite Centrale (GCLT) dice che se N è compreso tra 0 e 2, la distribuzione della somma di variabili aleatorie equidistribuite con code che tendono a zero come |X|-(N+1) tende alla forma di una "Distribuzione (alfa-)stabile di Lévy" (simmetrica). Questa famiglia di distribuzioni era stata studiata da Paul Lévy gia' negli anni '20, ed è caratterizzata da quattro parametri:   - Il primo, α, è compreso tra 0 e 2 e determina la rapidità di caduta delle code; in particolare, se α < 2 le code tendono a zero come |X|-(α+1), e la distribuzione è detta "stabile paretiana"; ma se α = 2 la caduta bruscamente diviene molto più rapida, dell'ordine di exp(-x2) come nel caso gaussiano; in effetti, in questo caso la distribuzione si riduce a una gaussiana. - Il secondo, β, e' compreso tra -1 e +1 e determina l'asimmetria (skew) della PDF. Se β = 0 la PDF e' simmetrica, e se in aggiunta α = 1 la distribuzione si riduce a una Lorenziana.   - Il terzo, γ, è legato alla "larghezza" della curva. Se α = 2, γ rappresenta la deviazione standard; se α = 1, γ rappresenta il parametro dello stesso nome nella Lorenziana, e coincide con la metà dello scarto interquartile.   - Il quarto, δ, è legato alla posizione del picco (moda, che in questa famiglia di distribuzioni è sempre unica).   L'aggettivo "stabile" nel nome dipende dalla più importante proprietà della famiglia: se due variabili aleatorie seguono distribuzioni stabili di Lévy con il medesimo α, la loro somma seguirà anch'essa una distribuzione stabile di Lévy con lo stesso valore di α.   Un'altra interessante proprietà è la seguente: così come per le gaussiane la somma di due variabili indipendenti ha un γ il cui quadrato è la somma dei quadrati degli y delle due componenti (perché nella gaussiana γ rappresenta la varianza, che per variabili indipendenti è additiva), così per la somma di due variabili indipendenti stabili di Lévy vale la relazione generalizzata:   γα = γ1α + γ2α   Questa proprieta' formale, assieme alla relazione allo scarto interquartile relativamente simile nei casi di α = 2 e α = 1, porta a considerare γ un buon candidato per rimpiazzare la deviazione standard quando la varianza semplicemente non esiste. Nel caso di covarianze di più variabili, dovrebbe essere possibile fare lo stesso con i parametri di distribuzioni stabili multivariate.   Infine, una breve nota su un caso diverso ma correlato. Talora, per esempio nel campo assicurativo, non interessano variabili che siano la somma (o la combinazione lineare a coefficienti costanti) di più variabili elementari, ma altre che siano il massimo (o il minimo) di tali variabili elementari. Per questo, sono state studiate distribuzioni che godono della proprietà di stabilità rispetto alle operazioni di massimo e di minimo, anziché di somma: sono quelle appartenenti alla famiglia di "distribuzioni di valore estremo generalizzate" (GEV), sviluppate nell'ambito della teoria del valore estremo (EVT).   Non sparate sul pianista   Il problema di fondo di molta matematica finanziaria in uso corrente quando si tratta di far previsioni su eventi rari (la cui probabilità è sistematicamente sottovalutata) è che una delle sue pietre angolari è il concetto di "volatilità", e questo è definito in termini di deviazione standard. In particolare, questo è vero in tre importanti aree:   - Teoria Moderna del Portafoglio, che fornisce metodi per calcolare un portafoglio con minima volatilità una volta fissato il rendimento, o di massimo rendimento una volta fissata la volatilità;   - Teoria del pricing delle opzioni (formula di Black-Scholes e adattamenti successivi);   - Teoria del Valore a Rischio (VaR), sviluppata dal gruppo RiskMetrics di JP Morgan e adottata (spesso incautamente) un po' da tutti, inclusi i regolatori del Comitato di Basilea sulla Supervisione Bancaria per gli accordi Basilea II.   Peraltro, è da parecchi anni che è stato notato che le distribuzioni dei logaritmi dei rendimenti sui mercati sono tutt'altro che gaussiane. In genere si cita il lavoro svolto da Mandelbrot nei primi anni '60, quando studiando l'andamento dei prezzi del cotone arrivò alla conclusione che essi seguivano una statistica alfa-stabile di Levi con α uguale a circa 1.7 (e quindi piuttosto lontano dal valore 2 che renderebbe la distribuzione gaussiana); ma già nel 1915 l'economista di Columbia University Wesley Clair Mitchell aveva notato che le frequenze dei rendimenti sui titoli azionari fittavano una curva più leptokurtica di una gaussiana, cioè con un picco più affilato e code che scendono meno rapidamente.   La cosa è restata per decenni un "panno sporco da lavare in famiglia", più per responsabilità degli operatori di mercato e della stampa finanziaria che dei ricercatori accademici. Invece, proprio su questo punto la posizione di Nassim Taleb è totalmente negativa: spara a zero su tutti (tranne il suo amico personale Benoît Mandelbrot) e nega si possa fare alcunché di razionale. Ad esempio, nella sua recensione al libro di Mandelbrot "The (Mis)Behavior of Markets" scrive:   Now the question: what if we can't insulate ourselves from such distributions? The answer is “do something else”, all the way to finding another profession. Risk managers frequently ask me what to do if the commonly accepted version of Value-at-Risk does not work. They still need to give their boss some number. My answer is: clip the tails if you can; get another job if you can't. “Otherwise you are defining yourself as a slave”. If your boss is foolish enough to want you to guess a number (patently random), go work for a shop that eliminates the exposure to its tails and does not get into portfolios first then look for measurement after.   Contrariamente a quanto Taleb asserisce, qualcosa si sta facendo per dare strumenti a chi li vuole usare. È in corso da tempo lavoro di ricerca per adattare la matematica finanziaria a casi non-gaussiani: ad esempio, si veda questa collezione di papers e riferimenti bibliografici. Ovviamente le stime del rischio sarebbero più preoccupanti di quelle attuali, spaventando gli investitori e inducendo i regolatori a imporre alle banche capital requirements più elevati: probabilmente, questa è la ragione per cui l'industria finanziaria preferisce far finta di nulla e nascondere la testa sotto la sabbia (salvo poi chiedere salvataggi governativi quando le crisi si verificano).   Forse i ricercatori dovrebbero davvero riservare un po' del loro tempo ad attrarre attenzione sulle loro fatiche, magari scrivendo anch'essi qualche bestseller ribellistico-anticonspiratorio...

34 commenti (espandi tutti)

un libro non anticospiratore, ma che tratta il problema delle "fat tails" in modo intelligente e senza catastrofismi c'è già: http://www.amazon.com/Iceberg-Risk-Adventure-Portfolio-Theory/dp/1587990687

è una specie di "math-novel" (definizione di Paul Wilmott)  ambientato in una banca d'affari immaginaria. Un "approccio" che si presenta nel testo è quello delle "misture" di normali/binomiali, che è valido per ottenere distribuzioni fat tailed.

Nel link che hai citato, c'è anche Sergio Ortobelli: tutto il dip. di matematica applicata (Bertocchi, Giacometti) di Bergamo si occupa di queste cose. Sono molto in gamba...è anche da un loro articolo che ho maturato l'idea che spero diventi la mia tesi di laurea. Eppure sono un'eccezione: sono davvero poche le facoltà di economia in italia che abbiano un buon dipartimento di matematica applicata alla finanza...oltre a Bergamo, Padova (dove c'è il prof. Azzalini che se ne occupa se non sbaglio). Speriamo che il dibattito su questi temi guadagni centralità senza cacce alle streghe. Intanto complimenti per l'articolo divulgativo.

ah, a proposito di come misurare il rischio:  ottimizzazione del C-var per qualsiasi distribuzione (http://www.ise.ufl.edu/uryasev/kro_CVaR.pdf). Il C-var è una misura coerente di rischio http://en.wikipedia.org/wiki/Coherent_risk_measure

Oltre a Bergamo e Padova, in termini di output accademico direi soprattutto l'IMQ Bocconi e Bologna. E pure Pavia...

Un "approccio" che si presenta nel testo è quello delle "misture" di
normali/binomiali, che è valido per ottenere distribuzioni fat tailed.

Non ho letto il libro, ma nota che misture di distribuzioni non sono generalmente stabili sotto self-convoluzione. Ad esempio, la distribuzione di Voigt , che e' un misto di gaussiana e lorentziana, non e' stabile (sono indebitato per avermi fatto capire questo punto col mio amico ed ex-collega di corso Valerio Parisi). La stabilita' e' importante perche' fornisce una ragione teorica per la forma matematica della distribuzione; da li', analizzando i dati , si puo' poi passare alla stima dei parametri, che peraltro non e' facile guardando quando α e' vicino a 2 (perche' gli eventi rari sono, d'oh, rari :-) ).

Un'altra caratteristica interessante delle distribuzioni alfa-stabili, che e' probabilmente collegata alla stabilita', e' quella di Massima Entropia secondo Jaynes. La cosa generalizza una proprieta' nota della gaussiana per casi in cui la varianza e' finita, anche se la derivazione non e' immediata (vedi p.es. qui e qui).

Ti faccio due domande:


1) La mistura di due distribuzioni normali (una pesata p e l'altra 1-p) con media idetica ma diversa varianza, non dovrebbe essere in teoria stabile, visto che si tratta di una combinazione lineare tra due cose stabili?


2) L'utilizzo di espansioni come quella di Edgeworth/Gram Charlier mina la stabilità? http://en.wikipedia.org/wiki/Edgeworth_series


Te lo chiedo perché c'è una mistura che è stata elaborata da due ricercatori coreani che mixa due normali del tipo che ho detto sopra (linearmente) e, per ottenere livelli flessibili di skewness, si serve dell'espansione di Charlier. Mi sembrava un approccio molto più semplice, a livello analitico, di quello delle alfa stabili, ma comunque efficace.


Grazie anche per i link: sono utilissimi per uno studente di economia in italia, dove la matematica è considerata tutto sommato inutile dall'80% dei docenti.

1) La mistura di due distribuzioni normali (una pesata p e l'altra
1-p) con media idetica ma diversa varianza, non dovrebbe essere in
teoria stabile, visto che si tratta di una combinazione lineare tra due
cose stabili?

La stabilita' e' definita solo per combinazione (per somma, in questo caso) di due variabili casuali identicamente distribuite. Nel caso che citi, la distribuzione e' anch'essa gaussiana, ma se, p.es., sommi due variabili alfa-stabili di Levy che hanno due valori diversi di α, il risultato in genere non e' nemmeno alfa-stabile di Levy. P.es., come dicevo nel commento precedente, la somma tra una variabile gaussiana e una lorenziana (entrambe, individualmente, appartenenti alla famiglia delle alfa-stabili di Levy) ha una distribuzione di Voigt, che a tale famiglia non appartiene.

2) L'utilizzo di espansioni come quella di Edgeworth/Gram Charlier mina la stabilità? http://en.wikipedia.org/wiki/Edgeworth_series

A quanto capisco, queste espansioni richiedono l'esistenza di una varianza finita. Ma c'e' una questione preliminare da chiarire, e cioe'...

Te lo chiedo perché c'è una mistura che è stata elaborata da due
ricercatori coreani che mixa due normali del tipo che ho detto sopra
(linearmente) e, per ottenere livelli flessibili di skewness, si serve
dell'espansione di Charlier. Mi sembrava un approccio molto più
semplice, a livello analitico, di quello delle alfa stabili, ma
comunque efficace.

...parliamo qui di combinazioni lineari di variabili casuali, o di combinazioni lineari di distribuzioni? La cosa e' ben diversa, perche' la densita' di distribuzione della somma di due variabili e' la convoluzione delle distribuzioni, non la loro somma. In particolare, sommando due variabili gaussiane la risultante e' ancora gaussiana, quindi con skewness zero...

 

Scusami, la mia purtroppo scarsissima padronanza (e conoscenza) dell'argomento, aimè, si vede eccome. Mi riferivo a combinazioni lineari di distribuzioni, e pensavo che la linearità delle trasformazioni per ottenere la densità della nuova "variabile casuale", bastasse per conservarne la stabilità. Ma temo di aver sommato le mele con le pere, in un certo senso. 


A proposito, come faccio a testare la stabilità di una variabile casuale con quel genere di denistà? Devo per forza passare dalla sua funzione caratteristica? Certo che, avendo varianza finita, in teoria non dovrebbe essere stabile...no? Scusa il bombardamento di domande.


Filippo

l'idiozia ha preso il sopravvento in me: combinazione lineare di densità di normali con diversa varianza.


Sorry

A proposito, come faccio a testare la stabilità di una variabile
casuale con quel genere di denistà? Devo per forza passare dalla sua
funzione caratteristica? Certo che, avendo varianza finita, in teoria
non dovrebbe essere stabile...no? Scusa il bombardamento di domande.

Se ha varianza finita la distribuzione e' stabile in quanto gaussiana, che e' un caso limite delle alfa-stabili per α = 2. Ma come fai a sapere che la varianza e' finita? Ovviamente ogni stima che puoi escogitare della varianza di una distribuzione che tu pensi essere a varianza finita (ma e' in realta' alfa-stabile con α < 2) e' finita: ma con l'andar del tempo ogni tanto ti trovi eventi che sotto ipotesi gaussiana sono "fuori statistica" (i classici "outliers"). A questo punto, puoi o scartarli come "anomali" (e/o lamentare il destino cinico e baro per l'inopinato verificarsi di eventi "a 25 σ"...) o usarli per rivedere ogni volta verso l'alto, senza alcun limite, la stima della varianza. In entrambi i casi, otterrai un modello che consente predizioni piu' o meno corrette per la maggior parte delle volte, ma con catastrofici errori di valutazione in rari casi.

Se la varianza e' finita o no va definito in sede di scelta del modello, in base sia a considerazioni teoriche che ai dati sperimentali (p.es. segni di leptocurtosi), ma in entrambi i casi che la distribuzione sia stabile e' suggerito dalla natura della variabile: se essa e' la somma di molte variabili indipendenti equidistribuite, l'ipotesi di stabilita' si puo' giustificare invocando nel primo caso il Teorema del Limite Centrale classico, e nel secondo quello Generalizzato (di Gnedenko-Kolmogorov). O magari, in entrambi i casi il gia' citato principio di Massima Entropia di Jaynes (la laurea in fisica mi ha lasciato un debole verso i formalismi derivati da principi variazionali, che sembrano catturare la struttura del mondo in modo particolarmente profondo e universale).

Comunque, la pagina di John Nolan contiene link ad alcuni suoi papers sulla stima dei parametri della distribuzione una volta che assumi che e' alfa-stabile: col metodo della massima verosimiglianza (che pero' mi convince poco, dato che il teorema di Gauss-Markov garantisce l'ottimalita' di tecniche ai minimi quadrati solo per variabili gaussiane), o studiandone le code, o attraverso le sue proprieta' spettrali etc. Come introduzione ti consiglio di cominciare con una lettura del primo capitolo del suo libro, che purtroppo ancora non e' disponibile in forma completa in libreria.

Ti ringrazio moltissimo, alla luce di quanto scrivi, ho l'impressione di aver sempre guardato in modo sbagliato al "problema". Ma non è mai troppo tardi per imparare (spero). Grazie ancora.

Buonasera Michelangeli, volevo chiarire alcuni punti qualitativi che a parer mio sono preliminari a questa discussione. Lo faccio con qualche cognizione di causa essendo,ahime',uno dei pochissimi CQF italiani (Certificate in Quant.FInance,corso di Willmott in cui insegna lo stesso Taleb, il quale e' sicuramente uno dei principali "ispiratori" del corso).


I miei punti:


1. Taleb non e' un ciarlatano. Oltre essere un multimillionaire trader (vorra' pur dire qualcosa), ha scritto uno dei piu' bei libri di finanza quantitativa, Dynamic Hedging, degli ultimi anni. I libri che lei cita, che io non ho letto, potranno anche essere filosofico-divulgativi o semplicemente commerciali (il Nostro e' senz'altro sensibile al fascino del denaro), ma quando lo si critica anche personalmente come scienziato e' Dynamic Hedging che bisogna criticare. Ed il libro e' magnifico;


2/ l'articolo di Taleb su FT non e' contro la matematica finanziaria, tutt'altro. E' contro la teoria economica, gli economisti e l'attribuzione dei Nobel a tanta pseudoscienza che a chi come Willmott, Taleb (e il sottoscritto) ha una formazione quantitativa fa molto sorridere. Gli esempi citati da Taleb, CAPM e Black&Scholes pricing theory sono un bell'esempio.


3/ il dibattito scientifico che lei imposta (la ricerca della migliore distribuzione che riesca a fittare i dati empirici) non esiste come tale in alcuna accademia. La ragione per cui la distribuzione normale e sue convoluzioni sono state usate non e' l'ignoranza dei practicioners o dei quants delle banche quanto piuttosto perche' i momenti successivi al primo della distribuzione normale e le derivate rispetto alle variabili di rischio nelle formule di pricing derivate dalla assunzione di log-normalita' sono facili e soprattutto VELOCI da calcolare. La velocita' e' fondamentale quando si parla di mkt. finanziari. Un valore atteso ultrapreciso sulla base di una distribuzione i cui momenti successivi al primo siano troppo complicati e' inservibile;


4/ per questa ragione (cosa che Taleb non dice sull'FT, ma che insegna ai corsi) la ricerca si e' totalmente focalizzata negli ultimi dieci anni sulle martingale e sulle simulazioni visto che grazie alle potenze di calcolo dei computers attuali si riesce a simulare ormai molto velocemente;


5/ infine, fatte queste precisazioni essenziali, il dibattito sugli strumenti di pricing che ne puo' scaturire e' interessantissimo ma, La prego, non lo metta in relazione con la crisi dei subprime. Gli strumenti in questione (mortgage-backed assets, CDOs in particolare) sono strumenti altamente illiquidi per cui qualunque modello di pricing risulta inadeguato. Se vuole possiamo approfondire, ma di crisi di liquidita' si tratta, non di pricing errati.


Scusi la lunghezza.


 

l'articolo di Taleb su FT non e' contro la matematica finanziaria,
tutt'altro. E' contro la teoria economica, gli economisti e
l'attribuzione dei Nobel a tanta pseudoscienza che a chi come Willmott,
Taleb (e il sottoscritto) ha una formazione quantitativa fa molto
sorridere. Gli esempi citati da Taleb, CAPM e Black&Scholes pricing
theory sono un bell'esempio.

Tutta la matematica dei derivati è partita dal modello di Black e Scholes. Non ho letto il libro di Taleb, ma una ricerca su Amazon mostra che l'autore usa la derivazione di Black-Scholes-Merton. Edward Thorp, che secondo l'articolo di Taleb sarebbe il vero inventore dell'equazione di BS e avrebbe avuto un approccio "più realistico", non è neanche menzionato nel suo libro.

infine, fatte queste precisazioni essenziali, il dibattito sugli strumenti di pricing che ne puo' scaturire e' interessantissimo ma, La prego, non lo metta in relazione con la crisi dei subprime.

Veramente era Taleb, non Enzo, che nel suo articolo parlava della crisi subprime.

Tutta la matematica dei derivati è partita dal modello di Black e
Scholes. Non ho letto il libro di Taleb, ma una ricerca su Amazon
mostra che l'autore usa la derivazione di Black-Scholes-Merton. Edward
Thorp, che secondo l'articolo di Taleb sarebbe il vero inventore
dell'equazione di BS e avrebbe avuto un approccio "più realistico", non
è neanche menzionato nel suo libro.

In realta' tutta la matematica dei derivati e' partita dal modello della tesi di
Bachelier
del 1900, che fu riscoperto da Samuelson negli anni
cinquanta grazie a Savage e che da' prezzi incredibilmente vicini se non coincidenti a quelli BSM
considerando che usa un modello diffusivo lineare e c'e' un piccolo errore, fatto notare da Levy, nella tesi. Thorp, pur capendone piu' matematica di Black e Scholes era piu' interessato agli argomenti pratici che quelli teorici, e l'ha raccontato anche in seguito.

In realta' tutta la matematica dei derivati e' partita dal modello della tesi di
Bachelier
del 1900, che fu riscoperto da Samuelson negli anni
cinquanta grazie a Savage e che da' prezzi incredibilmente vicini se non coincidenti a quelli BSM
considerando che usa un modello diffusivo lineare e c'e' un piccolo
errore, fatto notare da Levy, nella tesi.

Questo è vero. Quello che volevo dire è che se si rigetta come "pseudoscienza" BS, lo stesso si dovrebbe fare per tutta la matematica moderna dei derivati.

Thorp, pur capendone piu' matematica di Black e Scholes era piu'
interessato agli argomenti pratici che quelli teorici, e l'ha
raccontato anche in seguito.

Infatti credo sia stato il primo a inventare l'idea del delta hedging.

Ciao juventinopervicace,

ho letto che hai il CQF. Ti ringrazierei se potessi scrivermi a southheaven@libero.it.

vorrei farti qualche domanda sul corso.

grazie mille!

ciao

Caro JP,

Non mi interessa particolarmente criticare "Taleb anche personalmente come scienziato", ma solo le sue affermazioni palesemente false: tipo quella secondo cui un risk manager a cui e' chiesto come valutare il rischio sotto ipotesi realistiche (cioe' di "fat tails") abbia come unica scelta dare le dimissioni e guadagnarsi da vivere in altro modo (magari scrivendo pulp fiction travestita da divulgazione finanziaria).

Mi pare di aver documentato che la non-gaussianita' di certe serie finanziarie era nota sin dai tempi della prima guerra mondiale, e che gli strumenti teorici di base per affrontarla esistono da almeno mezzo secolo. Contrariamente a quanto Taleb insinua, il lavoro di Mandelbrot era ben noto anche negli ambienti che lavoravano a MPT e CAPM: vedi p.es. questo paper di Eugene Fama (che riassume la sua tesi di dottorato).

Sulla questione della velocita' di calcolo: stimare i parametri di funzioni alfa-stabili non e' particolarmente piu' lento dello stimare la varianza. La lentezza semmai compare quando non e' possibile usare formule chiuse, e bisogna ricorrere a procedure di simulazione: per il VaR, storica o Montecarlo; e per l'ottimizzazione dei portafogli in MPT, spesso "simulated annealing" (che e' un algoritmo preso a prestito dalla termodinamica). Questo accade per due ragioni: una, ineliminabile, di presenza nei portafogli di prodotti i cui ritorni non sono lineari (p.es., opzioni); e l'altra causata dalla rinuncia a trattare analiticamente distribuzioni diverse dalla gaussiana: su questo, usare i risultati della teoria delle distribuzioni alfa-stabili o dell'EVT puo' solo giovare. E in effetti, lavoro accademico che va in questa direzione esiste: vedi p.es. questo paper sul VaR e questo sul pricing delle opzioni. Se viene ignorato dai risk managers delle istituzioni finanziarie, la colpa non e' dell'accademia: e' dei risk managers e del top management che li assume. Sul perche' esso sia ignorato, io azzardo un'ipotesi: sottovalutare il rischio consente di effettuare profitti maggiori quando le cose vanno lisce; tanto poi, quando vanno male, si puo' sempre andare a piangere dal governo e farsi salvare coi soldi dei contribuenti.

Finalmente, io non postulo affatto un legame causale tra pricing e crisi subprime: ho solo detto che pricing delle opzioni, teoria del portafoglio e teoria del Value-at-Risk cosi' come sono adesso si basano tutti sull'ipotesi di finitezza della varianza, che e' inconsistente con l'esperienza in tutti e tre i casi.

Su Taleb: se l'intenzione era quella che mi dice, allora c'e' un po' troppo di personale e di poco informato nel suo testo iniziale. Il suo sembra molto piu' il tentativo maldestro di fare cio' di cui Lei stessa accusa Taleb (osare mettersi contro l'establishment, ovverosia FT, le banche etc.), solo che lui lo fa probabilmente per danaro, Lei mi pare per farsi gloria su un blog tra l'altro frequentato da lettori, direi, piuttosto digiuni di teoria economico-finanziaria (politica, socciologgia, ekonomics, quelle abbondano, ma matematica finanziaria, quella, ahime', pochina).


Sulla non-gaussianita' delle serie storiche finanziarie: il punto e' talmente ovvio che per pensare che qualcuno non lo riconosca nelle banche bisogna assumere una pressoche', inverosimile, imbarazzante inadeguatezza dei Risk Managers (e dei traders) delle banche di investimento. Basta plottare la serie dei rendimenti dell'S&P500 dai '60 a oggi (basta aprire Yahoo) per rendersi conto della forzatura della ipotesi di lognormalita'. Cio', peraltro, non significa che non se ne tenga conto gia' a livello di pratica di mercato (si vada a vedere dove gira in media il livello della volatilita' implicita/skeweness implicita calcolate semplicemente con B-S rispetto alla storica, per vedere come il mercato gia' prezzi in qualche modo un mark up molto forte rispetto all'ipotesi di normalita'). A livello teorico l'approccio che lei segnala (ricerca di distribuzioni alternative alla normale) non mi risulta affatto (anzi posso tranquillamente affermare "non e'") quello maggioritario (cio' non significa che alla University of London, a Bonn o magari a Parma ci sia qualche ricercatore che scriva di distribuzioni altre). GLi approcci sono volatilita' stocastica, GARCH (fino a dieci anni fa, GARCH peraltro, come dice Taleb su FT, e' stato solo un modo di assegnare l'ennesimo Nobel-bufala alla supposta scienza economica) e piu' recentemente differenze finite, martingale e conseguentemente montecarlo simulations.


TUTTO CIO', pero', NON RIGUARDA i SUBPRIME: su assets class totalmente illiquide e dal pay-off cosi' fortemente convesso, non esiste un approccio statistico sensato. Di qui l'insensatezza delle sue riflessioni al riguardo.

Sulla non-gaussianita' delle serie storiche finanziarie: il punto e'
talmente ovvio che per pensare che qualcuno non lo riconosca nelle
banche bisogna assumere una pressoche', inverosimile,
imbarazzante inadeguatezza dei Risk Managers (e dei traders) delle
banche di investimento.

Infatti secondo me non si tratta di ignoranza, ma di riluttanza ad affrontare un punto che porterebbe a ridurre sostanzialmente l'esposizione e percio' la profittabilita'. Anche lasciando stare gli hedge funds, che interpretano "macho risk-taking attitude" come "facciamo i soldi rischiando i soldi degli altri", consideriamo quel che succede con istituzioni piu' sedate, e soggette a regulation, come le banche commerciali e quelle d'investimento. Lo spirito di Basel II e' l'adeguamento dei requisiti sulla robustezza finanziaria (Tier 1 capital etc.) all'esposizione al rischio (che Basel II permette di misurare in vari modi, ma dando grande importanza al VaR). Se diventasse accettato che esso e' assai piu' elevato di quanto correntemente stimato (in particolare per eventi rari ma catastrofici) le banche si troverebbero a dover sostanzialmente ridurre i loro assets per rientrare nei margini, e percio' soffrirebbero un deterioramento del ritorno sul capitale. E a quale consiglio d'amministrazione andrebbe di passare alla storia come quello che ha presieduto su tale operazione?

TUTTO CIO', pero', NON RIGUARDA i SUBPRIME: su assets class totalmente
illiquide e dal pay-off cosi' fortemente convesso, non esiste un
approccio statistico sensato. Di qui l'insensatezza delle sue
riflessioni al riguardo.

Su ogni asset class e' possibile un approccio sensato, o almeno questo e' cio' che le istituzioni finanziarie lasciano credere agli investitori quando pagano Moody's e S&P (vabbe', ultimamente un po' meno, chissa' perche'...) per fare elargire ai loro prodotti tante belle lettere "A". Che poi l'approccio sensato non sia quello correntemente seguito mi pare fuor di dubbio, e qui sto cercando di discutere cosa si potrebbe fare a riguardo (se si volesse).

non vorrei inserirmi a sproposito come mi capita spesso di fare, ma corro il rischio: per la valutazione di derivati, gli approcci che ha elencato sono quelli che si insegnano credo in tutte le università ed è senz'altro quello maggioritario. Però, nella letteratura accademica, sta tornando (almeno a quanto mi dicono) di moda anche l'asset management quantitativo, che ha avuto scarsa fortuna e applicazioni in passato (i perché sono noti). Distribuzioni dei rendimenti diverse dalla normale, in questo ambito, hanno senso; poi secondo me ce l'hanno anche per il RM di una banca, e per tante altre cose, ma vabè.

Come si spiega il fatto che dopo un grande interesse per l'applicazione delle distribuzioni Levy-stabili alla finanza alla fine degli anni sessanta inizio settanta, non se ne e' quasi piu parlato nella letteratura accademica? (Prima dei paper recenti che tu citi). Non sara certo perche i cattivi banchieri fanno opposizione.

Come hai fatto notare Eugene Fama si era interessato alla questione e aveva scritto sull'argomento nel 71. Poi piu niente. Questo Eugene Fama che era il padreterno della finanza durante gli anni 70 e 80 e poteva non solo publicare quello che voleva ma (come reviewer) incoraggiare o bloccare papers a suo piacimento.

Sembra che il mondo accademico economico/finananziario abbia piu o meno scartato l'ipotesi che i movimenti dei prezzi degli attivi finanziari abbiano una varianza infinita (i matematici continuano a interessarsi a questa ipotesi). Secondo te, perche ?

I miei dieci centesimi di esperienza personale. Anche se non son per niente quello che si dice un "financial economist", ho molti cari amici che lo sono e, anche a causa loro, mi sono occupato di finanza per un po' di tempo negli anni '90. Ora la ignoro quasi completamente, a meno che non debba andare a cena con alcuni di loro ...

Conosco pero' una quantita' enorme di gente che fa finanza accademica e si occupa di modelli finanziari basati su distribuzioni differenti dalla normale e, in particolare, su distribuzioni a varianza infinita, code "grasse", code con atomi, misture di normali e binomiali, o di normali e poisson, e svariate altre amenita' del genere. Ovviamente conosco anche una grande quantita' di gente che fa finanza e si occupa dei problemi pratici qui sollevati ma ritiene che la soluzione sia altrove, ossia che occorra usare metodi diversi dalle distribuzioni a varianza infinita per modellare i mercati. Altri pensano, addirittura, che il problema non sia puramente statistico o "computeristico" (cosa si riesce e cosa non si riesce a simulare in tempo ragionevole) ma piu' profondo, ossia analitico: i modelli di pricing son da buttare, alcuni arditi sostengono ... Alcuni, strana gente, credono che il problema non sia risolvibile analiticamente in nessun caso, perche' manca la stazionarieta' in senso stretto, perche' gli eventi che generano queste crisi sono "non predicibili" (mai avvenuti prima, fuori dal supporto, sunspots, ...). Altri ancora ritengono che tali fenomeni siano inevitabili, ma allo stesso tempo non predicibili per ragioni di complessita' computazionale dovuta alla natura caotica del sistema sottostante. Insomma, l'impressione mia e' che gli accademici si occupino appassionatamente di questi temi ma che, non avendo la verita' in tasca, non siano unanimamente convinti che il loro compito sia dedicarsi all'applicazione delle Pareto-Levy alla finanza ... ma questo e' un discorso piu' complicato, che non ho tempo per affrontare. Ritorno ai dieci centesimi di esperienze personali.

Per vari anni, Jose Scheinkman, Andreu Mas Colell ed il sottoscritto hanno diretto una scuola di matematica economica per "scienziati natural' (fisici e matematici soprattutto) all'ICTP di Trieste. Almeno meta' delle lezioni e dei dibattiti erano dedicati a questo tipo di modelli. In un certo senso quelle scuole hanno svolto un certo ruolo positivo nella creazione di un'intera area della fisica, che va sotto il nome di "econo-physics", che praticamente non fa altro che occuparsi di questi temi. Per un'introduzione a questa area di studi, vedasi: Introduction to Econophysics, by Rosario N. Mantegna and H. Eugene
Stanley, pp. 158. ISBN 0521620082. Cambridge, UK: Cambridge University
Press, November 1999. Negli anni seguenti il numero di studi e' altamente aumentato.

Come qualcuno ha notato, l'interesse dell'accademia per questo tipo di problemi risale, comunque, a ben prima e non si e' certo spento dopo gli anni '60. Basta cercare in Google Scholar, anche solo sotto il nome di Mandelbrot, per trovare decine di articoli. Io ho finito il PhD nel 1987, quindi non saprei dare una testimonianza personale prima di quella data. Dal 1986-87 sino al 1992 partecipai - assieme ad altri fra cui di nuovo Jose Scheinkman, John Geanakoplos, Ken Arrow, Larry Summers, Tom Sargent, Buz Brock - alla costruzione del programma economico del Santa Fe Institute. Durante quegli anni uno dei temi costantemente presenti era quello della insufficienza del modello di asset pricing tradizionale, basato su normalita' o lognormalita', varie approssimazioni lineari, eccetera. Doyne Farmer, Norman Packard ed altri ne hanno fatto il loro tema di ricerca da allora, ma molti altri hanno contribuito. Uno sguardo ai working papers ed alle pubblicazioni di SFI dovrebbe confermarlo.

Aldila' delle esperienze personali - che sono forse marginali anche perche' (ripeto) mi occupavo di finanza solo a tempo perso e non lo faccio da circa 8/9 anni - credo sufficiente usare astutamente Google Scholar per trovare centinaia di lavori. Ho fatto un po' di esperimenti. Le parole "pareto distribution finance" danno 21400 risultati. Ovviamente non tutti sono relativi al tema, moltissimo non lo sono, ma uno sguardo qui mostra che per decine di pagine gli articoli listati sono tutti piu' o meno cogenti. Le parole "extreme value finance" danno 104000 risultati, e potete verificare qui che un gran numero dei titoli che appaiono nelle prime pagine sono rilevanti. Le parole "infinite variance asset" danno 14400 risultati e, di nuovo, gia' dal terzo cominciamo a trovare titoli rilevanti. La combinazione "finance levy" da' 53700 risultati, qui bisogna fare un po' di attenzione perche' i primi titoli sono dominati dai lavori di Moshe ed Haim Levy, che con il nostro tema non c'entrano nulla, ma poi arrivano subito decine di lavori rilevanti. Potrei continuare con le decine di altre parole chiave che possono permettere un accesso rapido alla letteratura, ma non credo serva. Da dove e' uscita l'idea che la ricerca accademica non abbia studiato il problema? Mah ...

Visto che ci sono, un anedotto personale. Un po' piu' di dieci anni fa - avevo appena lasciato Kellogg GSM per andare alla CIII di Madrid - mi venne chiesto un lavoro di consulenza da una delle principali banche italiane di allora (e' grande anche adesso ...). Si trattava di mettere in piedi il loro sistema di controllo del rischio, sia quello relativo al trading (che gia' allora avveniva quasi tutto a Londra), sia, in prospettiva, quello creditizio. Quanto avevano era alquanto primitivo, ricordo che usavano spread sheets e duration ... Mi diedi da fare, cercando anche di coinvolgere un paio di colleghi che sapevo essere piu' bravi di me e piu' esperti del tema. Dopo tre mesi tutto venne abbandonato, per due ragioni. La costituency interna, ossia i bravi ed allegri traders londinesi ed i loro "quants", non capendo nulla di quanto si cercava di spiegargli e non avendo tempo/voglia di fare lo sforzo necessario per impararlo, non facevano che creare ostacoli di tutti i tipi. Avendo loro acquisito in azienda la reputazione di essere "draghi matematico-quantitativi", l'idea che tre o quattro morti di fame in arrivo da Chicago potessero mettere in ombra questo loro status li infastidiva alquanto. Rassicurarli sulle nostre intenzioni - d'andare a lavorare in banca non avevo proprio voglia, e se la voglia l'avessi avuta qualcuno che mi prendeva a G&S credo ci fosse ... gli altri due per G&S c'erano gia' passati - non servi' a nulla, erano troppo insicuri per ascoltare, let alone capire. La dirigenza centrale, tutta, non capiva proprio il problema che aveva di fronte. Soprattutto non riusciva a capire perche' noi si insistesse nel fare delle cose diverse, non lineari, proprie, fatte in casa, anche artigianali se volete, ma controllabili direttamente da noi, invece di adattare rapidamente alle esigenze pratiche della banca quella meraviglia che JP Morgan andava mettendo in giro al tempo ... Idem sul rischio di credito. Su quest'ultimo, infatti c'e' un'altra esperienza milanese, qualche anno dopo, con un'altra grande banca italiana ed anche qui ... transeat. Sia chiaro, tutto questo magari dipende dal fatto che io non ci capisco nulla, ma non mi risulta si siano poi rivolti ad altri piu' esperti di me per farsi fare il lavoro. In Spagna ho avuto piu' fortuna ...

Infine, ritorno brevemente alle osservazioni iniziali per poter tirare la pietra nello stagno del dibattito: cosa fa ritenere a quelli che si occupano di questi temi che la soluzione del problema consista nel trovare e stimare la distribuzione (parametrica) giusta? Come la troviamo? E, una volta trovata, con quali dati e con quali metodi la stimiamo?

 

Conosco ... una quantita' enorme di gente che fa finanza accademica e
si occupa di modelli finanziari basati su distribuzioni differenti
dalla normale e, in particolare, su distribuzioni a varianza infinita,
code "grasse", code con atomi, misture di normali e binomiali, o di
normali e poisson, e svariate altre amenita' del genere.

Quello che volevo sottolineare e' che "l'aut ... aut" implicito nel post di michelangeli, o si usa la distribuzione normale (come fanno gli ingenui) o allora si deve usare la distribuzione a varianza infinita di Pareto-Levy, non mi convince. Vi sono altre alternative, come appunto le misture di binomiali e normali che mi sembrano molto piu pratiche nell'applicazione. E la ricerca e aperta, possono essere trovate altre possibilita.

Secondo me l'interesse per Pareto-Levy in finanza (nel senso di Journal of Financial Economics, Review of Financial Studies, Journal of Finance) e' diminuito rispetto alle altre alternative. Le Pareto-Levy o i processi multi frattali di Mandelbrot sono difficile da utilizzare, i risultati classici della statistica, dell'econometria non si applicano; si tratta di inventare nuova matematica per utilizzarli ... campa cavallo. Molto interessanti per i matematici, hanno deluso coloro che vogliono trovare modelli direttamente applicabili.

Considero la Financial Economics, l'Econophysics e la Matematica tre campi diversi. (Il tuo amico Scheinkman fa tutte e tre le cose alla stessa volta, vabbeh ... caso particolare). In FinlEcon si riconosce che le distribuzioni giornaliere non sono normali, ma non si considera la varianza infinita come "la soluzione". Io personalmente trovo che la conclusione di Blattberg and Gonedes (1974) che la distribuzione giormaliera sia una Student-t con pochi gradi di liberta (quattro o cinque) abbastanza convincente. Da quell'articolo in poi (secondo me) l'interesse per Pareto-Levy scende nella letteratrura FE. L'Econophysics e' un'altra cosa, il suo merito e' che con molta gente venuta dalla fisica, dalla matematica, tirano fuori idee matematiche nuove, sperimentano nuovi approcci (anche matematicamente molto difficili) ai problemi della finanza; in econophysics c'e di nuovo un grande interesse per la varianza infinita. (Io dico: vediamo quanto durera.)

Conosco anche una grande quantita' di gente che fa finanza e si occupa
dei problemi pratici qui sollevati ma ritiene che la soluzione sia
altrove, ossia che occorra usare metodi diversi dalle distribuzioni a
varianza infinita per modellare i mercati.

Questa e' appunto la mia opinione. Per questioni pratiche evitare la varianza infinita e puntare su altre alternative.

Quello che volevo sottolineare e' che "l'aut ... aut" implicito nel
post di michelangeli, o si usa la distribuzione normale (come fanno gli
ingenui) o allora si deve usare la distribuzione a varianza infinita di
Pareto-Levy, non mi convince. Vi sono altre alternative, come appunto
le misture di binomiali e normali che mi sembrano molto piu pratiche
nell'applicazione. E la ricerca e aperta, possono essere trovate altre
possibilita.

Il punto e' che per le distribuzioni alfa-stabili (che includono le gaussiane come caso particolare) c'e' una giustificazione teorica: esse sono tutte e sole quelle stabili sotto auto-convoluzione. Quindi, tutte le volte che interessano somme (o combinazioni lineari a coefficienti costanti) di variabili aleatorie equidistribuite, esse spuntano fuori grazie al Teorema Generalizzato del Limite Centrale, esattamente come le gaussiane spuntano fuori grazie al Teorema del Limite Centrale classico se sussiste la condizione aggiuntiva della finitezza della varianza. Se poi ci si interessa a composizione di variabili con operazioni di massimo o minimo, invece che di somma, la regola di stabilita' ci porta all'EVT. Vorrei sottolineare un punto importante del metodo scientifico: la scelta di un modello tra vari possibili non e' mai unicamente basata sul fit dei dati, ma su ragionamenti di natura teorica. Il fitting (attraverso tecniche di regressione) serve unicamente a determinare i parametri del modello (ed eventualmente a scartarlo se il fit e' particolarmente cattivo, vedi test del χ2 etc.).

Quanto alla difficolta' di lavorare con distribuzioni alfa-stabili: molta gente si lascia spaventare dall'assenza di una formula chiusa per le densita' (a parte tre casi particolari). In realta' la cosa non e' cosi' drammatica o inusuale: non esiste una formula chiusa neppure per la CDF della gaussiana... Le proprieta' formali delle distribuzioni alfa-stabili sono piuttosto ben studiate, ed esistono efficienti algoritmi numerici per molte applicazioni.

Finalmente, riguardo all'"Econophysics": io personalmente trovo assai poco convincente applicare a casaccio idee tratte dalla fisica all'economia, ma credo che molti metodi matematici possano essere utilmente applicati a campi diversi da quelli in cui hanno raggiunto la popolarita'. Le stesse scienze fisiche hanno tratto beneficio da questo fatto: la matematica degli spazi di Hilbert o quella del calcolo tensoriale furono sviluppate decenni prima di meccanica quantistica o relativita' generale, in cui rispettivamente trovarono le applicazioni piu' conosciute.

"Infine, ritorno brevemente alle osservazioni iniziali per poter tirare la pietra nello stagno del dibattito: cosa fa ritenere a quelli che si occupano di questi temi che la soluzione del problema consista nel trovare e stimare la distribuzione (parametrica) giusta? Come la troviamo? E, una volta trovata, con quali dati e con quali metodi la stimiamo? "

I soldi credo. I soldi spesi per creare l'illusoria percezione che il futuro sia in qualche modo gestibile e sfruttabile. Gli stessi soldi che spingono Taleb a scrivere libri sulla maggior frequenza dell'imponderabile e nel contempo agire sul mercato ipotizzando una distribuzione in qualche modo stimabile di detto imponderabile. Il punto è, cari Signori, che la Matematica tradotta mal si presta a prevedere. Descrive elegantemente, dimostra inequivocabimente, ma "suppone" spesso miseramente. Difficilmente si discosta da una media irreale.

Taleb è un simpatico scommettitore probabilistico ne più e ne meno dei presunti antagonisti che tanto avversa. Solo più furbo, commercialmente parlando.

Saluti e complimenti,

"...cosa fa ritenere a quelli che si occupano di questi temi che la soluzione del problema consista nel trovare e stimare la distribuzione (parametrica) giusta? ... "

Io farei un passo indietro. Leggendo il classico "Probability, statistsics and tuth" in cui Richard von Mises codifico' i fondamenti mi ha colpito questo passo "It is possible to speak about probabilities only in reference to a properly defined collective" (pag 28). Gli eventi di cui si discute sono unici nel loro genere, causati da eventi e intenzioni in genere irripetibili, storicamente definiti e che quindi comunque li definiamo sappiamo che non sono omogenei. E' sempre possibile parlare di probabilità e distribuzioni in questi casi? Forse è il caso di rivalutare Knight: la "true uncertainty" è cosa diversa dal rischio.

Esattamente! Il guaio è che il "defined collective" si intravede con una buona dose di fantasia e coraggio in quella campana gaussiana che subdolamente approssima l'eternità, consentendo a tutti di avere ragione prima o poi; si può prevedere il rischio? Certo, soprattutto quando non è necessario e tutto si muove in una ragionevole deviazione standard..per un tempo che non è dato stimare. E' impossibile prevedere il rischio? Assolutamente vero, altrimenti dovremmo iniziare a preoccuparci.

Eventi >6 sigma sui mercati hanno meno probabilità di verificarsi di quante ne abbia l'asteroide 1999RQ36 di centrare la Terra nel 2182. Ma qualcuno,negli ultimi anni, deve essersi dimenticato di ricordarglielo. Quindi i casi sono due: o utlizziamo una distribuzione sbagliata (ma quale mai sarà quella giusta?) per i mercati o iniziamo a spingere per spostare la Terra..:)

Sembra che il mondo accademico economico/finananziario abbia piu o meno
scartato l'ipotesi che i movimenti dei prezzi degli attivi finanziari
abbiano una varianza infinita (i matematici continuano a interessarsi a
questa ipotesi).

Non e' un'ipotesi astratta: e' una tesi che puo' essere messa alla prova sulla base dei dati sperimentali. Tu come la spieghi la persistente ricorrenza di eventi che modelli basati su distribuzioni gaussiane stimavano avere probabilita' trascurabile?

Secondo te, perche ?

Be', la mia opinione l'ho espressa: l'industria finanziaria non ha alcun incentivo ad esplorare strade che conducono a stime del rischio molto maggiori di quelle attuali. Semmai, mi sorprende che non se ne interessino le banche centrali e/o i ministeri del Tesoro, che sono i "lenders of last resort".

Tu come la spieghi la persistente ricorrenza di eventi che modelli
basati su distribuzioni gaussiane stimavano avere probabilita'
trascurabile?

Perche la distribuzione non e' gaussiana.

Ma questo non significa che sia Pareto-Levy e abbia varianza infinita.

Tra l'altro, basta che la distribuzione giornaliera sia gaussiana ma con una varianza che varia di giorno in giorno perche la distribuzione risultante non sia gaussiana e abbia code pesanti. Questo fenomeno (GARCH) spiega in parte (ma lo ammetto: solo in parte) le code pesanti che si vedono in realta.

Sarebbe molto bello se vi fosse un'unica distribuzione che si applicasse ai ritorni infra-giornalieri, giornalieri, settimanali, mensili, annuali. Tale distribuzione sarebbe stabile sotto convoluzione. Percio se vogliamo trovarla dobbiamo fare l'ipotesi che sia stabile; e allora arriviamo alle distribuzioni stabili di Levy. Ma se le distribuzioni fossero diverse (e a me pare ovvio che la distribuzione infra-giornaliera sia molto diversa dalle altre) non sarebbe cosi. Insomma l'ipotesi di stabilita e meno importante di quanto sembri.

La soluzione che preferisco: modelli non gaussiani ma senza varianza infinita (sono troppo difficili).

Comunque mi leggero i link dell'universita di Karlsruhe che hai dato nel tuo articolo.

esprimono la significatività statistica della teoria economica sottostante. Il VaR della J.P.MORGAN è teoricamente fallito quando è fallita la teoria neoliberista sul libero mercato. Tuttavia, non scomparendo gli attori di questo fallimento, non è scomparso il VaR.

Sono, per foruna, aumentati nel corso degli anni  dubbi ma, il sottostante una qualsiasi misura di rischio generica sraà sempre una Teoria Economica Generica. Se il modello della seconda è robusto, non avremo shocks traumatici (che contagiano la misura di rischio trasferendosi in essa), e Taleb si dedcherebbe a scrivere romanzi rosa. Difficile accada per più motivi.

Il principale è, imho, la lentezza di adeguamento dei modelli rispetto l'evouzione del sistema..

Esempio terra terra: posso entrare nel business del petrolio in due modi; metto su un'impresa che lo cerca, lo estrae, lo raffina e l vende (una o tutte queste cose insieme) investendo e indebitandomi  o posso scommettere sulle imprese petrolifere già esistenti passando per strumenti finanziari idonei che mi consentono, sempre investendo e indebitandomi (leva finanziaria).di partecipare alla festa.

Nel caso A) assumo, compro trivelle, costruisco piattaforme,impianti di raffinazione  e stoccaggio etc..etc..etc..

Nel caso B) compr(o vendo) strumenti derivati finanziari.

Problema: non abbiamo una teoria economica efficiente che comprenda quanto il sistema sia oggi sbilanciato su B) ...B) che tuttavia non può esistere senza A) e che muove molti...molti....molti....molti più soldi di A)

Non avendo una teoria economica efficiente abbiamo, per traslazione (scegli il signifcato che più ti piace...vanno più  meno bene tutti) una misura di rischio deficiente.

Concludendo...il problema non è ipotizzare una distribuzione asimmetrica con code grasse come fa il buon Rachev (e poreste fare voi in 5 minuti ed un pizzico di matematica) ma, riformare a monte "economicamente" anticipando un modello (e rifuggendo da una pratica meramente descrttiva ex post) robusto.Questo vorremmo dagli economistii.

La misura di rischio futura non deve essere un parto quantitativo ma qualitativo.

Saluti,

note a margine:

cosa fa S.Rachev: ipotizza che i rendimenti della serie storica seguano una disribuzione diversa dalla gaussiana, più lunga a sinistra (asimmetria negativa= probabilià di generare shocks negativi) e più appuntita(probabilità di generare eventi estremi(curtosi), esercizio che ha visto avvicendarsi, dal fallimento di Lehaman in poi,  più o meno tutta l'accademia.

Qualcosa del genere ma con il parametro β negativo(-1) di modo da allungare la coda sx ed il parametro α>1 .

 Questa distribuzone ipotetica cambia forma di volta(studio) in volta quasi fosse un barbapapà(sono esperto in materia grazie a mio figlio) e il motivo incompreso(forse) è che la funzione di probabilità caratteristica è la risultanza delle varie forme assunte dalla totalità delle variabili economche  che concorrono, insieme, a generare la distribuzione della serie risultante.

Qundi, partorire una stima di rischio sul prodotto finale è esercizio povero e forse inutile. Meglio sarebbe stimare il rischio a monte senza lasciarsi corrompere dalla comodità (matematica e intellettuale) di, semplcemente, adottare "distribuzioni brutte" o comunque più brutte della gaussiana per restituire probabilità severe. In finanza le probabilità sono soldi e nessuno mai coprirà il rischio di un portafoglo di assets con più soldi di quanto valga, mark to market, il portafoglio stesso (cosa che potrebbe accadere frequentemente se ipotizziamo un' α stabile sottostante). E...detto tra noi, non sarà mai brutta abbastanza.

E' compito dei politici e degli Economisti disegnare(o tentare seriamente di) le distribuzioni assunte dalle variabili economiche e, fondamentale, limitarne in qualche modo la dipendenza implicita(chiamiamola rozzamente correlazione incrociata); delegare alla matematica la stima del rischio risultante dalla composizone delle stesse è profondamente sbagliato. Si da spazio ad esercizi di fantasia eleganti quanto inutili.

Qui il VaR(e CVaR) di Rachev per gl amanti dell'esoterismo  econometrico.

Vedo Michele arrabbiato, sento aria di epurazione e qundi questo è il mio ultimo scritto in questo blog che continuerò,comunque, a leggere con piacere.

 

La mia osservazione l'avevo appesa al commento di AlexCT, ma non voleva essere diretta a lui in particolare. Volevo solo evitare che si continuasse a discutere di una cosa che non esiste, ossia che gli accademici non si preoccupano dei limiti del modello standard, mentre quelli del business son tutti li' che cercano di far miracoli. L'evidenza dimostra il contrario, se dimostra qualcosa. Quindi la domanda che pone Enzo alla fine del suo post rimane valida e rilevante. Perche' le "banche" (ossia, industria finanziaria in generale) tendono a prestare poca attenzione a questo tipo di ricerca, mentre vi sono centinaia di accademici che la fanno? In particolare, aggiungo io, perche' Basel continua ad esser scritta in quella maniera assurda e sulla base di concetti primitivi e deresponsabilizzanti, come se l'intero circo non servisse altro che per far adottare gli strumenti prodotti da JPM ed imitatori?

Non volevo neanche fare pubblicita' all'econo-physics o a quel che sia; ognuno degli approcci che ho elencato, e mezza dozzina di altri, ha meriti e difetti. Nessuno ha fornito una soluzione, that's for sure. Per parte mia ho giocato per anni con modelli caotici e poi con modelli d'origine termodinamica, tipo interacting particles o self-organization, ma ho l'impressione che anche quelli siano vicoli molto molto oscuri e senza uscita.

Non son certo che la ragione suggerita da Enzo sia il 100% della risposta, ma non mi sembra da buttar via come punto di partenza. Le resistenze culturali e di potere interne alle "banche" mi sembrano un altro fattore rilevante: l'arrivo degli "esterni" da' fastidio a tutti, specialmente a chi gode di una rendita - e che rendita! - di posizione. Per questo ho raccontato la mia esperienza, sarei curioso di conoscerne altre, analoghe od opposte. Come ho detto, in Spagna l'esperienza e' stata diversa da quella italiana, ma la diffidenza verso gli accademici rimaneva. E qui aggiungo un terzo fattore: la pazienza/capacita' di "capire". Il banchiere con cui si interagisce vuole soluzioni rapide che lui riesca a capire. Non si rende conto che, da un lato, le cose "pratiche" che usa sono il prodotto di ricerche durate decenni ed ora maturate e, dall'altro, quelle cose "pratiche" le capisce perche' gliele hanno spiegate. Con un po' di pazienza e di sforzo forse capisce anche quelle nuove e, forse, prova a sperimentare e vedere se funzionano. L'accademico, dal lato opposto, non e' sempre il massimo della chiarezza e/o praticita', ed anche questo non aiuta.

Infine, rinnovo il quesito che mi interessa. Siete davvero convinti che la soluzione consista nel trovare modelli statistici "migliori" e piu' sofisticati? Per quale ragione le osservazioni del passato dovrebbero dirci qual'e' la "frequenza attesa" di un altro ottobre 1987 o di un altra crisi asiatica? Non vi sembra rivelante che, se guardiamo anche solo agli ultimi vent'anni non c'e' stato un fattore di crisi uguale all'altro? Provate a far l'elenco: ottobre 1987, junk bonds fine 80 ed inizio 90, svalutazione messicana del 95, bolla immobiliare giapponese e nikkei, crisi asiatica, crisi russa e ltcm, argentina, dot-com bubble, sub-prime mortgages ... di certo me ne sono scordato qualcuna, ma il punto non cambia: dov'e' la stazionarieta' del 'data generating mechanism' sottostante? Aggiungo di piu': in un mondo di innovazione costante e di creazione continua di nuovi mercati, fattori di rischio, strumenti e strategie di assicurazione e/o assunzione di rischio, perche' mai dovremmo credere che la distribuzione di probabilita' degli eventi "estremi" rimanga invariata?

Infine, rinnovo il quesito che mi interessa. Siete davvero convinti che
la soluzione consista nel trovare modelli statistici "migliori" e piu'
sofisticati? Per quale ragione le osservazioni del passato dovrebbero
dirci qual'e' la "frequenza attesa" di un altro ottobre 1987 o di un
altra crisi asiatica? Non vi sembra rivelante che, se guardiamo anche
solo agli ultimi vent'anni non c'e' stato un fattore di crisi uguale
all'altro? Provate a far l'elenco: ottobre 1987, junk bonds fine 80 ed
inizio 90, svalutazione messicana del 95, bolla immobiliare giapponese
e nikkei, crisi asiatica, crisi russa e ltcm, argentina, dot-com
bubble, sub-prime mortgages ... di certo me ne sono scordato qualcuna,
ma il punto non cambia: dov'e' la stazionarieta' del 'data generating
mechanism' sottostante? Aggiungo di piu': in un mondo di innovazione
costante e di creazione continua di nuovi mercati, fattori di rischio,
strumenti e strategie di assicurazione e/o assunzione di rischio,
perche' mai dovremmo credere che la distribuzione di probabilita' degli
eventi "estremi" rimanga invariata?

Questo e' vero, ma aggiustare tutte le volte il modello con modifiche ad hoc non consente di fare alcuna predizione: al massimo permette di "spiegare" il passato, il che puo' essere consolatorio ma non evita disastri futuri. Ed e' forse per questo che soluzioni svincolate dal particulare risultano anche esteticamente piu' seducenti, specialmente se derivano da principi di natura generale (come il MaxEnt che menzionavo in un precedente commento). Poi ovviamente alla fine della giornata the proof of the pudding is in the eating, come per tutte le teorie.

Forse ha
seguito il consiglio dato da Paul Krugman a chi vuole
far l'editorialista ed avere successo di pubblico: "Adopt the stance of
rebel: There is nothing that plays worse in our culture than seeming to be
the stodgy defender of old ideas, no matter how true those ideas may be". A
giudicare dal devoto seguito che tanto l'uno quanto l'altro si sono costruiti tra bloggers, recensori su
riviste e compratori di bestsellers, la tattica funziona; quanto a coglierci nel
segno, è un altro discorso.

Infatti Taleb è in malafede, perché sa benissimo che quello che scrive non è vero. Ad esempio quando scrive

"Dynamic hedging assumes no jumps – it fails miserably in all markets
and did so catastrophically in 1987 (failures textbooks do not like to
mention)"

A
parte il fatto che il crash del 1987 è menzionato in un bel po' di
libri di matematica finanziaria (basta fare una ricerca su Amazon), ma
ci sono modelli finanziari che tengono conto della possibilità di
"salti", come appunto il crash dell'87 (jump diffusion models). E
questo Taleb lo sa bene. Uno dei libri che sto usando in questo periodo
(The Volatility Surface
di Jim Gatheral), ha una sezione sui modelli di jump diffusion (JD) e
una prefazione entusiasta dello stesso Taleb, che dichiara di aver
seguito tutto il corso del suo collega, sui cui appunti è basato il
libro. Forse Taleb preferisce ignorarlo perché l'idea del primo modello
di JD venne a Robert Merton, una delle sue bestie nere, nel 1975.

I modelli di JD associano al solito processo lognormale di Black e Scholes (BS) un processo di Poisson associato con salti discontinui. Il processo che risulta è un processo di Lévy.
Questi processi hanno una proprietà interessante: le distribuzioni di
probabilità degli incrementi sono "infinitamente divisibili". Questo
significa che per ogni intero positivo n la distribuzione può essere
rappresentata come quella della somma di n variabili indipendenti e
identicamente distribuite. Vedi qui,
oppure l'articolo citato nella pagina di Wikipedia. Si può dimostrare
che le distribuzioni stabili sono un sottoinsieme di quelle
infinitamente divisibili. I modelli di JD risultano in distribuzioni
dei rendimenti dalle code più spesse, come si può vedere da questi grafici sul libro di Gatheral.

Questi
modelli però non sono molto popolari e sono quasi sconosciuti tra chi
si occupa di risk management. Io stesso non sapevo quasi nulla delle
distribuzioni stabili finché ne sentii parlare da te, e fino a poco fa
ne ignoravo le connessioni coi processi di JD. Per quanto riguarda il
front office, ci sono diversi problemi nell'applicazione pratica di
questi modelli. Uno è l'assenza di un prezzo arbitrage-free, come nel
modello di BS. Mentre in quest'ultimo il drift (che è legato alle risk
preferences degli investitori) è irrilevante, nei modelli con "salti"
la martingale measure usata per calcolare il prezzo non è unica. Nel
mondo di BS, se il sottostante S si evolve con un processo stocastico
con misura P, esiste un'unica misura equivalente Q che fa evolvere S
come un martingale.
Nei modelli di JD esiste un'infinità di misure Q di questo tipo, e
quindi un'infinità di prezzi rischio-neutri. La scelta della misura
adatta dipende dalle preferenze di rischio, e non c'è nessuna garanzia
che resti costante nel tempo. Altri problemi sono legati all'evoluzione
del volatility smile.

Un'altra categoria di modelli è quella
della volatilità stocastica (SV), in cui la volatilità segue un
processo di diffusione simile a quello del rendimento, spesso con
reversione alla media (in alcuni modelli si aggiunge la possibilità che
la volatilità possa saltare, o si combina con un modello di JD). Uno
dei più usati credo sia il SABR, che però non è mean reverting e quindi funziona meglio per le maturità vicine.

Una buona fonte per i modelli di JD dovrebbe essere il libro di Rebonato, Volatility and Correlation, che non ho ancora avuto occasione di leggere.

 

 Bell'articolo di Martin Wolf sul sistema bancario. Ricco di dati (banali per gli esperti, temo, ma pieno di spunti...)

 

http://www.ft.com/cms/s/0/3da550e8-9d0e-11dc-af03-0000779fd2ac.html?nclick_check=1

Bell'articolo di Martin Wolf sul sistema bancario. Ricco di dati (banali per gli esperti, temo, ma pieno di spunti...)

Disponibile con accesso gratuito p.es. qui e, completo di grafici, qui (thank you, Google! :-) )

Inizia una nuova discussione

Login o registrati per inviare commenti