In memoria di Lionel Wilfred McKenzie

12 ottobre 2010 michele boldrin

È morto oggi, a Rochester, Lionel Wilfred McKenzie. Aveva compiuto 91 anni in gennaio.

Diciamo che ce lo si aspettava da tempo, vista l'età e il cuore che si andava lentamente indebolendo. Lui, lucido come sempre, razionale, attento e preciso lo sapeva e quasi lo controllava quotidianamente. L'ho visto per l'ultima volta a fine aprile del 2009 ed ebbe la tranquillità di descrivermi la situazione a cena. Son certo che la morte non l'ha preso in contropiede, era attesa.

Blanche, sua moglie, e ben due dei suo tre figli se n'erano andati negli anni passati. I figli tragicamente, Blanche (una donna stupenda ed una delle prime donne con un Master in Economics negli USA, come amava ricordare) pure per il cedimento del suo cuore, più di dieci anni fa.

Lionel era il mio advisor ed era, negli anni, diventato anche un vecchio amico per cui provavo grande affetto. La sua morte mi coglie nel momento peggiore per poter scrivere qui qualcosa di decente su di lui e, soprattutto, sulla sua produzione intellettuale. Sono in viaggio da 6 giorni, sono appena giunto all'hotel e sono anche molto stanco. Poche parole, dunque, con la promessa di completare questo obituario dopodomani, dato che domani ho la giornata presa da un seminario qui a Zurigo.

Lascio a margine i ricordi personali, che ora rischiano di commuovermi e di rendermi più melenso di quanto il vecchio avrebbe gradito, e m'attengo strettamente all'accademico, con qualche aneddoto.

 

 

Lionel era nato in Georgia, da famiglia del profondo Sud. Il nonno era un proprietario terriero che aveva "posseduto" degli schiavi, cosa di cui lui non andava particolarmente fiero ma che, con la sua usuale obiettività e per farti capire da dove gli veniva quello snobismo quasi anglo che lo caratterizzava, ti raccontava appena entravi in confidenza. Negli anni trenta era andato ad Oxford, intenzionato a fare il D.Phil con John Hicks. Quest'ultimo, altro tipo difficile e che accettava pochissimi studenti, si trovò a dover scegliere fra Lionel e Ian Little. Una scelta molto difficile per Hicks: vinse Ian Little. Lionel e Little rimasero amici tutta la vita, ma Lionel se ne tornò negli USA visto che, a suo parere, ad Oxford l'unico con cui valesse la pena studiare era Hicks.

Andò a Princeton, dove conobbe e venne influenzato in maniera permanente da John von Neumann e lavorò, soprattutto, con Frank Graham prima e Oskar Morgenstern poi. Quest'ultimo fu il suo advisor, anche se il PhD vero e proprio Lionel lo completò solo nel 1956, quando aveva già 37 anni, aveva pubblicato contributi fondamentali ed era da tempo professore. Nonostante la vicinanza a Morgenstern e von Neumann a Lionel la teoria dei giochi non appassionò mai. Il suo più grande limite intellettuale che, ammetto, ho ereditato come molti dei suoi studenti (Jose Scheinkman, Jerry Green, Kazuo Nishimura ...)

La carriera accademica di Lionel è sia interessante che piena di aneddoti, che il tempo mi impedisce ora di raccontare. Ha scritto molto, ma credo che almeno due contributi fondamentali vadano sottolineati.

Il primo riguarda il suo contributo alla teoria dell'equilibrio economico generale (EEG). Lionel fornì la miglior prova e il modello più coerente di equilibrio economico generale con produzione. La prima dimostrazione di esistenza dell'equilibrio, contemporanea a quella di Arrow e Debreu, è del 1954. La seconda, un autentico capolavoro di eleganza e semplicità oltre che di intuizione economica, è del 1959 ed è, a detta credo di tutti incluso Ken Arrow per quanto ne so, la prova definitiva. Anche solo per questo Lionel avrebbe meritato il premio con Debreu nel 1983, che invece non ricevette. Un errore grave, forse il più grave fra quelli di omissione compiuti dal comitato svedese, come tutti coloro che hanno fatto o fanno EEG riconoscono. Hanno avuto 27 anni di tempo, sino a ieri, per riparare e non l'hanno fatto. Transeat ...

La seconda area a cui ha contribuito enormemente è quella della teoria della crescita e dei modelli di accumulazione multisettoriale, in particolare alla "Turnpike Theory", nota in italiano come "Teorema dell'autostrada". Ha inoltre mostrato come i modelli di accumulazione ottimale fossero interpretabili come modelli di EEG dinamico con produzione e come le due teorie fossero perfettamente integrabili. Questo lavoro teorico, a cui Lionel aveva aperto la strada indicando come andava fatto, è stato poi completato e sistematizzato da Makoto Yano (che fu studente di Lionel e di Ronald Jones) e Truman Bewley all'inizio degli anni '80.

La moderna macroeconomia, nel senso più ampio, si fonda essenzialmente su questo apparato teorico. Per questo, negli ultimi anni, si era alimentata la speranza che a Lionel (ed altri, come David Cass, che abbiamo salutato due anni e qualcosa fa, e William Brock, che invece è sano ed attivo come un grillo) venisse riconosciuto almeno tale merito, ma non è arrivato. Transeat un'altra volta.

Visto che il tempo manca e le palpebre mi si chiudono, faccio cut and paste da un testo in inglese in cui cerco di sintetizzare la rilevanza del lavoro di McKenzie per quest'area dell'economia contemporanea.

During the last fifty years, the synthesis between the neoclassical model of economic growth, and the dynamic general equilibrium model of production and exchange, has created the work-horse for most research in the areas of macroeconomics, asset pricing, public finance, growth and development, with applications extending also to the fields of international trade, labor economics and industrial organization. No single analytical apparatus has turned out to be more useful, more widespread and more adaptable to applied and theoretical economic research than the “inter-temporal competitive equilibrium model”, as such synthesis is often labeled.

The two building blocks of the integrated model go back, respectively, to Leon Walras in the XIX century and to James Ramsey and John Von Neumann in the first half of the XX century. Nevertheless, it is not until the work of McKenzie on the existence of competitive equilibrium in a production economy with constant returns to scale (Econometrica, 1959) and his following work on the dynamic stability of growth models with constant returns (Econometrica 1963), that their inner structures were fully understood and their deep connections revealed. In neither instance McKenzie was the sole person behind either development; in the first, Nobel Laureates Kenneth Arrow and Gerard Debreu played an equally prominent role, as also Nobel Laureates Tjalling Koopmans, Paul Samuelson and Robert Solow played in the second. He nevertheless played a special and unique role in becoming, over the span of about 30 years, the intellectual bridge between these two areas of research and in pushing relentlessly for their unification.

The prominent role subsequently played by William Brock in pushing this line of investigation further forward and, more importantly, making it usable by applied economists, should also be stressed. David Cass, who passed away less than a year ago, would be the other name to mention in this context. In my opinion, the contributions of these authors were more relevant than those of all other authors working in these areas, and their lasting influence on subsequent research stands out in a unique way, at least in retrospect.

The fundamental proof of existence of equilibrium for competitive economies was provided, simultaneously and independently, by Kenneth Arrow and Gerard Debreu, and by Lionel McKenzie in two papers published in Econometrica in 1954. For these results, among other, both Arrow and Debreu have already been awarded, in different occasions, the Nobel Prize in economics. In those earlier results, and in that by Arrow and Debreu especially, the crucial role that constant return to scale technologies play in determining the equilibrium prices of competitive economies was only partially understood, if at all. This became clear only after McKenzie published his 1959 paper in Econometrica, where the role of that assumption was underlined and its logical implications drawn. In particular, it is with his two Econometrica papers (1959 and 1963) and with the 1968 paper in the Festschrifts for John Hicks, that the role played by constant returns to scale in holding together competitive equilibrium and optimal growth models, became completely clear. Truman Bewley “An integration of equilibrium theory and turnpike theory”, in Journal of Mathematical Economics 10 (1982), 233-267, contains a clear technical discussion of this fact and of the way in which the connection can be made operational via the second welfare theorem. The latter has now become the routine approach of applied economists using dynamic general equilibrium models for applied and policy research.

The theory of optimal growth or, as it is often known, “turnpike theory”, was developed mostly between the late 1950s and the early 1970s by many other people beside McKenzie, and Brock. Among them one should mention at least H. Uzawa, M. Morishima, R. Radner, David Gale, E. Malinvaud, K. Shell and J. Scheinkman. Nevertheless, I believe the contributions of Lionel McKenzie and William Brock (together with those of David Cass) were of particularly fundamental importance.

A long sequence of papers written during the first half of the 1960s by McKenzie, and other researchers, made substantial advances toward understanding the dynamic stability, or lack of it thereof, of neoclassical models of production and accumulation. In his 1965 paper, David Cass fully characterized how the aggregative model of optimal economic growth works in the presence of general preferences and general neoclassical technologies. A similar result was obtained, at roughly the same time, by T. Koopmans, but Cass provided a stronger result in a more general framework, which became the basic tool for most following aggregative analysis. The latter, in turn, would have not been possible if William Brock had not shown - starting with the 1972 paper written in cooperation with Leonard Mirman, and with a long sequences of other contributions in which the case of many sectors was solved– how the neoclassical model of production and growth functions in the presence of uncertainty. Brock’s handling of uncertainty has proved fundamental to make this model usable in applied work, where technological, demand and policy shocks are of tantamount importance. During the same period of time, McKenzie and his students extended the stability results of Cass to much more general cases, thereby bringing the research program to its theoretical completion. Bewley’s 1982 paper mentioned earlier and Makoto Yano’s “The turnpike of dynamic general equilibrium paths and its insensitivity to initial conditions”, Journal of Mathematical Economics 13 (1984),  235-254, summarize and systematize these results.

The 1975 paper by William Brock is also a particularly important step in the process of adoption of the intertemporal competitive equilibrium model, in the field of macro first and then in many other. Again, he builds on an earlier exercise by M. Sidrauski to produce a model of money in the utility function that can be used to discuss issues monetary theorists are interested in, such as the presence of inflationary equilibria, bubbles and the characterization of an intertemporal demand for real balances in a dynamic setting.

In this sense, while McKenzie was the most important player in the development of the general dynamic theory bridging general equilibrium and economic growth models, Brock (and Cass) created the applied tools and made them usable. It is not by chance that it is only in the late 1970s - after the work of these authors had completely clarified how the theory works with many sectors and goods, with and without uncertainty, with and without consumption-based utility, and so on - that the intertemporal competitive equilibrium model was adopted, in macroeconomics and asset pricing first, and in almost every applied field of economics subsequently. It should be stressed that many among  the economists who played an important role in bringing these tools to fruition in various areas of applied research (e.g. Robert Lucas, Edward Prescott, Finn Kydland and Edmund Phelps) have already been awarded the Economics Prize.

In summary, while other people have also contributed to the endeavor of making the intertemporal competitive equilibrium model the basic tool for applied economic analysis,  the original and fundamental contributions of Lionel McKenzie and the most original developments and applications of William Brock have played a special role, which stands out in the history of modern economic research and should be properly recognized by this Committee before, as in the case of David Cass, it is too late to do so.

Selected References

Brock, W.A and L.J. Mirman, “Optimal Economic Growth and Uncertainty: The Discounted Case”, Journal of Economic Theory, 4, 1972, 479-513.

Brock, W.A. “A Simple Perfect Foresight Monetary Model”, Journal of Monetary Economics, 1, 1975, 133-150.

Cass, D.Optimum Growth in an Aggregative Model of Capital Accumulation.Review of Economic Studies 37, 1965, 233-240.

Cass, D. “On Capital Overaccumulation in the Aggregative, Neoclassical Model of Economic Growth: a Complete Characterization”, Journal of Economic Theory, 4, 1972, 200-203.

McKenzie, L.W. “On the Existence of General Equilibrium for a Competitive Economy”, Econometrica, 27, 1959, 54-71.

McKenzie, L.W. “Turnpike Theorems for a Generalized Leontief Model”, Econometrica, 31, 1963, 165-180.

McKenzie, L.W. “Accumulation Programs of Maximum Utility and the von Neumann Facet”, in J.N. Wolfe, editor, Value, Capital and Growth, Edinburgh University Press, 1968,

McKenzie, L.W. “Turnpike Theory, Discounted Utility, and the von Neumann Facet”, Journal of Economic Theory, 30, 1983, 330-352.

Solo chi li conosceva bene lo sapeva, ma David Cass e Lionel McKenzie andavano molto d'accordo, si ammiravano reciprocamente ed avevano molte più cose in comune di quanto l'apparenza esterna ed i loro stili di vita suggerissero, molte più cose. Se da qualche parte dell'universo gli spiriti degli intellettuali morti s'incontrano, i due saranno a farsi compagnia, uno fumando e con in mano un bicchiere di vino, l'altro con una cupoftea.

38 commenti (espandi tutti)

Ho purtroppo avuto modo di parlare a McKenzie solo tre o quattro volte. La prima pero' mi e' sempre rimasta in mente. Lo incontrai a Yale una decina di anni fa. Io avevo appena dato un seminario e lui mi accompagno' a cena assieme altri. Mi chiese chi fosse il mio advisor e quando seppe che era Jose' Scheinkman (suo studente, come Michele a Rochester) mi disse: 

The students of my students are my grand-students.

Con grande dolcezza, timidezza, eleganza e, mi e' parso, anche con un po' di fierezza. 

Non ho mai dimenticato quel momento. Il rapporto tra un advisor e uno studente e' spesso fortissimo, tanto da passare attraverso generazioni. Immagino cosa possa provare Michele. 

Purtroppo non ebbi il piacere di sedere nella classe di McKenzie. L'ultimo anno in cui McKenzie insegno' la sua classe opzionale di Equilibrio Economico Generale coincise con il mio primo anno di dottorato a Rochester.

Il mio ricordo si limita all'immagine di un signore molto distinto e sorridente che veniva in dipartimento quasi ogni giorno, nonostante avesse passato i 75. Lo vedevamo spesso, perche' la porta del suo ufficio era di fronte a quella della stanza 208, dove adesso come allora si tengono tutte le classi e i seminari.

McKenzie aveva fondato il programma di dottorato nel 1957. Anni addietro, decise di destinare le sue ricchezze personali alla costituzione di borse di studio per gli studenti nel programma stesso.

Il teorema e' Arrow-Debreu-McKenzie, no?

I Nobel passano, i teoremi restano.

Transeat?

Nicola Giocoli 13/10/2010 - 11:31

Che dire? Era un grande - uno degli ultimi veri giganti della sua generazione - e francamente, caro Michele, non riesco ad accettare il tuo "transeat". Il suo mancato premio è una di quelle vergogne (stile Cabibbo) che il Comitato Nobel si porterà appiccicata per sempre. E pensare che stavano per fare lo stesso scempio con Hurwicz!

Prendendo spunto da quanto scrive Aldo, sarebbe bello che la Turnpike Theory venisse da tutti chiamata McKenzie-Brock-Cass (MBC) Theory. Non sarebbe storiograficamente corretto al 100%? Io dico: chi se ne frega (anche perché il Nobel Committee di fedeltà storiografica ne ha dimostrata pochina, a cominciare proprio dal Nobel 1983).

Per me, matematico di formazione ormai immerso fino al collo nel mondo finanziario, leggere il libro di McKenzie su EEG e' stata un'illuminazione. Continuo a faticare con la profondita' dei concetti economici sottostanti, non lo nego, ma godo nel trovare un linguaggio che non e' banale aritmetica. McKenzie usa matematica vera, profonda, come fanno i fisici, per intenderci: ad ogni frase devo fermarmi a pensare, e la soddisfazione non e' poca. Mi viene da paragonarlo a Cesare Rubini, che come McKenzie ha saputo essere tra i migliori in piu' di un campo.

Io  non me ne intendo, ma il  combinato disposto (come dicono i legali) di

that the role played by constant returns to scale in holding together competitive equilibrium and optimal growth models, became completely clear.

e

The latter has now become the routine approach of applied economists using dynamic general equilibrium models for applied and policy research.

implica forse che i suggerimenti di policy si basano su una ipotesi, i rendimenti constanti di scala, diciamo (per essere gentili) da verificare?

NB non mi riferisco alla teoria pura - quella può avere tutte le semplificazioni che si vuole. Mi riferisco ai suggerimenti concreti dati ai decision-makers

 

C'e' un numero elevatissimo di papers che cercano di stimare i rendimenti di scala. I risultati dipendono, tra l'altro, dal livello di aggregazione (esempio: singola impresa, settore, intera economia). A livello dell'economia intera, che e' quello rilevante in questa discussione, l'ipotesi di rendimenti costanti non rigetta statisticamente.

Ci sono dei problemi spaventosamente enormi nell'"aggregazione" dalle funzioni di produzione al "representative agent". Forse sono un po' pericolosi quando implicano prescrizioni normative 

Alcuni ipotizzano che gli oggetti stessi della macroeconomia non esistono e non mi sembra nemmeno un azzardo

Alcuni ipotizzano che gli oggetti stessi della macroeconomia non esistono

Chi sono costoro? Se sono italiani possono vederli qui questi oggetti, ad esempio.

Eh ma come hanno fatto ad aggregarli??? Come hanno fatto? E' impossibile!!!

Hanno persino osato misurare il capitale! E poi l'hanno anche aggregato! E poi ne hanno anche calcolato il deprezzamento! Un'impossibilita' dopo l'altra, dove finiremo di questo passo?

Quelli che avete in mente non mi sembra neghino l'esistenza di aggregati. In ogni caso non sono italiani. Forse pero' bisognerbbe anche riflettere su come è calcolato il PIL quale ipotesi è sottostante all'utilizzo dei prezzi di mercato nel suo calcolo, su cosa voglia dire valuatre un macchinario,

Ma a parte questo piuttosto che credere acriticmente su cose come una funzione di produzione aggregata o sul "representative agent" forse è meglio rimandare al solito "in economia le premesse noncontano". Che a sua volta forse dovrebbe far nascere qualche dubbio

piuttosto che credere acriticmente su cose come una funzione di produzione aggregata o sul "representative agent"

guarda, io neppure in dio credo acriticamente, figurati se lo farei mai per cose altrettanto metafisiche ma mondane come la funzione di produzione o la rappresentativita' del consumatore rappresentativo.

Il p

Giovanni, permettimi.

La tua reazione è comune, ma è erronea.

I rendimenti costanti non sono un'ipotesi da verificare o una predizione da testare. Sono una tautologia definitoria.

Quando un'attività è definità appropriatamente, attraverso i vettori di inputs ed outputs completi, essa gode di rendimenti di scala costanti per definizione. Se i rendimenti sono, da un certo livello di utilizzo dell'attività in poi, decrescenti perché uno dei fattori è "finito", questo è un rilievo empirico importante ma che non cambia la natura della tecnologia. Anzi. I rendimenti decrescenti di scala sono quasi sempre, a tecnologia data, il frutto di qualche fattore scarso/limitato.

Il punto chiave è capire cosa sia una tecnologia. A causa di 90 anni di macroeconomia "postkeynesiana" nel senso stretto (include Prescott, per capirsi) la maggioranza si è scordata cosa sia una tecnologia. Basta dare un'occhiata alle Lecture Notes di Lionel (MIT Press) per ri-scoprirlo.

Vedete gente che qualche volta Michele va d'accordo anche con Sraffa ;-)

Grazie Michele,

questo è uno dei contributi sostanziali di McKenzie.

Incidentalmente, David (Cass) è sempre stato un sostenitore di McKenzie. Per quanto mi ricordo, amava riferrsi al modello AD come ADMC. E insegnava a lezione il contributo di MC (intendo non-decomposability e fino a metà annni '80).  Alas....

io ricordo Lucas invece che citava questo come un contributo fondamentale.  ricordo anche me stesso che dopo la classe dicevo a Danilo (Guaitoli) - non ho mica capito sta cosa dei rendimenti costanti se tutti fattori sono accounted for; mi pare una puttanata infinita... little that I knew. 

Due altre cose:

1. Ciao Tito!

2. La vogliamo piantare di andare dietro a Phileas e alle sue apodittiche - quelle si - puttanate?

 

Se non l'ha capita Alberto, io non ho speranze. Però "tautologia definitoria" suona bene

 

No, Giovanni, non disperare :-) che e' facilissimo.

Facciamo un esempio, prendiamo la tua produzione di ricerca.  Quando hai prodotto nel 2010?  Diciamo 1 libro, 2 working papers, e 3 ex-Kathedra. Vuoi raddoppiare la tua produzione nel 2011: 2 libri, 4 working papers, e 6 ex-Kathedra (please!). Rendimenti costanti vuol dire che puoi fare questo raddoppiando gli inputs nella funzione di produzione della tua ricerca.

Raddoppi allora il tempo che stai in ufficio a studiare e scrivere (rinunciando, naturalmente, a qualche weekend, qualche ora di sonno, e andando meno spesso durante la pausa pranzo a quella trattoria la' dietro dove ti fanno una fiorentina con patate fritte coi fiocchi ma che ti porta via due ore).

Fai questo e ti accorgi che alla fine del 2011 il tuo output non e' raddoppiato. ad esempio hai prodotto solo 2 libri, 3 working papers, e 4 ex-Kathedra. Concludi che i tuoi rendimenti sono decrescenti. Sbagliato: sono decrescenti i rendimenti del tempo che stai in ufficio a studiare e scrivere.

La tua funzione di produzione infatti dipende anche da altra roba: la tua attenzione e freschezza mentale, le interazioni coi colleghi e coi redattori di nFA, le vitamine che sono dentro quella spremuta di arance rosse, eccetera.  Raddoppia tutto questo.  Se il tuo output ancora non raddoppia vuol dire che ti sei dimenticato qualcosa.  C'e' anche la velocita' di trovare, trascrivere o scaricare dati. C'e' anche quella serie di seminari all'EUI. Eccetera. Devi raddoppiare anche tutto questo.

Se raddoppi tutto cioe' che e' rilevante alla fine il tuo output raddoppiera', ossia ti accorgerai che la tua tecnologia ha rendimenti costanti. In questo senso questi ultimi sono tautologia definitoria.

Il fatto che in pratica i tuoi rendimenti siano decrescenti e', appunto, osservazione empirica che deriva dall'esistenza di fattori fissi che limitano il raddoppio di tutti gli input. Ad esempio durante il giorno esiste solo una fascia oraria 9-11 in cui la tua attenzione e freschezza mentale sono massime. Non possiamo raddoppiare queste facia oraria. Ma se lo potessimo fare, per questo e per tutti gli altri input, i rendimenti sarebbero costanti.

Questo e', per lo meno, il modo in cui io capisco questo punto.

E come lo capiva, prima ancora del grande LMK, John von Neumann. Direi che tu sia in buona compagnia.

Mi stai dicendo che in teoria i rendimenti sono sempre costanti, ma in pratica sembrano decrescenti, perchè ci sono fattori scarsi non misurabili (tipo la velocità dei miei neuroni). OK - non dubito che in teoria funzioni. Ma ripeto la mia domanda.  X fa un modello DSGE, non per pubblicare su AER e prendersi la tenure (come fanno i fisici teorici), ma per dire a Sacconi che deve fare la riforma delle pensioni. Ci dobbiamo fidare? E se poi in pratica i rendimenti sono decrescenti (o crescenti) e la riforma non funziona?  

Ue', adesso non esageriamo. Io non l'avevo capita per  20 minuti dopo la lezione - ma poi quando me l'ha spiegata Danilo l'ho capita subito, eh... :)

PS mi pare pero' che giovanni abbia ragione. chiedersi se i rendimenti sono decrescenti (nei dati) o chiedersi quanto conta (e qual e') il fattore fisso e' la stessa cosa

Domanda forse stupida. Nel mondo piu' generale possibile, dove i rendimenti costanti sono una tautologia definitoria, esistono fattori che non sono scarsi?

Sono due cose indipendenti. La tecnologia semplicemente è una relazione che trasforma input vectors in output vectors. Gli input vector possono o meno appartenere a bounded sets, ma la cosa è irrilevante dal punto di vista della definizione di cosa è una tecnologia. Ovviamente conta molto in pratica, dato che tutti gli input sono presenti in quantità limitata. 

E' sempre possibile scrivere una tecnologia che da insieme arbitrario di input sputa output, vero. Pero' l'affermazione che i rendimenti costanti sono una tautologia riguarda la caratterizzazione della tecnologia. Per come la capisco, l'affermazione significa che, se la tecnologia è definita su un insieme unbounded, e se questo insieme contiene tutte le risorse possibili ed immaginabili, allora deve necessariamente essere a rendimenti costanti.  La mia domanda è questa: esiste un mondo economicamente significativo dove  l'insieme degli input è unbounded?

luigi, per come capisco io la situazione, stai confondendo tra unbounded set of inputs e unbounded input. Prendi gli input come un vettore x di R^n. Puoi sempre prendere n largo a piacimento da metterci dentro tutti gli input necessari. Tuttavia ogni singolo input x_i puo' essere bounded, eliminando la possibilita', se x_i e' al limite superiore, che x_i possa essere aumentato, per cui di avere ritorni di scala costanti.

esiste un mondo economicamente significativo dove  l'insieme degli input è unbounded?

Io risponderei cosi' (ma correggetemi se sbaglio dato che non ho studiato con McKenzie). Devi avere un attimo di pazienza - se la spiegazione non ti interessa salta direttamente al terzo paragrafo. Il modo piu' semplice di vedere una tecnologia non e' come relazione fra input e output, ma semplicemente come un insieme tecnologico Y di liste di n numeri, del tipo y=(y1,y2,...,yn). Se yi e' negativo e' un input, se e' positivo e' un output. Y e' l'insieme tecnologicamente possibile di tutti queste liste. Se Y={(-3,1,0),(-3,0,1)}, ad esempio, e i numeri rappresentano rispettivamente mesi di lavoro, papers prodotti in un trimestre, e corsi insegnati in trimestre, vuol dire che con tre mesi di lavoro io posso o produrre o un paper o insegnare un corso.

Ora, ogni Y che ha rendimenti di scala decrescenti puo' sempre essere visto come una 'sottotecnologia' di una tecnologia completa X a rendimenti costanti da cui e' stato omesso un solo fattore di produzione (chiamiamolo 'talento', o 'fattore t'), che viene tenuto fisso. [Piu' precisamente, se Y ha rendimenti di scala non crescenti, esiste un altro insieme X con n+1 fattori di produzione (gli stessi di Y piu' il fattore t), tali per cui una lista y e' in Y se e solo se la lista (y,-1) e' in X]. In parole: se raddoppiando l'input di tempo non produci due papers ma solo uno piu' un abbozzo di un altro, puoi sempre vedere questo come il risultato del fatto che hai tenuto fisso il fattore t. Tutto quello che ho detto in questo paragrafo e' un 'teorema' (dimostrabile in una riga con la notazione giusta, vedi sotto per una dimostrazione chatty), cioe' e' necessariamente vero.

E ora viene la risposta alla tua domanda (o meglio all'implicazione della tua domanda): per assumere in maniera logicamente coerente che la tecnologia abbia rendimenti costanti, non c'e' bisogno di assumere che 'l'insieme degli input è unbounded'. Basta raggruppare tutti i fattori che sono stati omessi nella descrizione della tecnologia (vitamine, efficienza del lavoro, ecc.) un un solo 'fattore t'  aggiuntivo. Avere 'tutte le risorse possibili ed immaginabili', come dici tu, non vuol dire avere quantita' illimitate di fattori. L'affermazione di Michele rimane vera anche con un solo fattore in piu'. La cosa diventa ancora piu' bella quando studi i mercati, perche' sotto certe condizioni i profitti remunerano appunto il fattore t: anche se lavoriamo uguale, abbiamo la stessa istruzione eccetera, Michele e' pagato molto piu' di me perche' ha piu' fattore t. Mannaggia.

Domanda per gli storici del pensiero. Dato tutto il credito dovuto a McKenzie, l'idea originale non era pero' gia' in Marshall?

PS: dimostrazione. Prendiamo come liste in X tutte quelle che hanno la forma k(y,-1), dove y e' in Y e k e' un numero maggiore o uguale a zero. Chiaramente X ha rendimenti costanti di scala: se dimezzi, raddoppi, triplichi eccetera una lista in X, rimani sempre dentro X, che e' la definizione di rendimenti di scala costanti. E per costruzione y e' in Y se e solo se (y,-1) e' in X.

Stavo rispondendo anche a marcello mentre scrivevi, quindi fondo le due risposte. Fissiamo n input e m output. La proposizione è questa: se n include tutti i fattori possibili (incluso il tuo fattore t), Y è un cono. (Spero si dica così in italiano.) Ora, se teniamo costante uno dei fattori (il tuo fattore t) possiamo ottenere rendimenti decrescenti, chiaro. Ma quello è banale. La mia osservazione è diversa. La definizione di Y come cono implica che possiamo sempre prendere ay, con a>=0. E ay appartiene a Y.  Se gli input sono disponibili in quantità illimitate, non ho problemi a fare questo (input sono unbounded). Ma se gli input sono disponibili in quantità limitata, c'è una differenza tra passare da a=1 a a=10000, se questo ci fa avvicinare al limite superiore di qualche input. Nel caso in cui siamo sulla frontiera di qualche input, drammaticamente, nun se pppo' ffa'. Sei (siete) daccordo su questo? Ora viene la domanda, che non riguarda la coerenza logica del modello (e ci mancherebbe). Il mondo in cui gli input sono unbounded è semplicemente uno strumento "finto" per capire il modello, e quindi capire che rendimenti decrescenti derivano necessariamente dalla scarsità di qualche fattore, oppure esiste una qualche interpretazione per cui quel mondo è effettivamente una rappresentazione della realtà?

Luigi, a me sembra che l'interpretazione sia che i rendimenti decrescenti derivano necessariamente dalla scarsità di qualche fattore. Ma non sono un esperto in materia, quindi il mio parere conta poco. Lascio il commento a chi sa più di me.

l mondo in cui gli input sono unbounded è semplicemente uno strumento "finto" per capire il modello, e quindi capire che rendimenti decrescenti derivano necessariamente dalla scarsità di qualche fattore, oppure esiste una qualche interpretazione per cui quel mondo è effettivamente una rappresentazione della realtà?

La prima.

È una maniera, per esempio, per capire cosa sono le "competitive rents".

O per capire perché i tassi di crescita son bounded: perché sono limitati superiormente dal tasso di crescita del più lento a crescere fra gli inputs insostituibili, a data tecnologia.

Per capire, quindi, che se non c'è cambio tecnologico (addizione di inputs ed outputs agli n ed m del tuo esempio, con associati dei vettori nuovi di "dentro-fuori") la crescita finisce, sempre.

Due chiacchere con Truman, sull'argomento,  ti è mai capitato di farle? Io me le farei, prima di lasciare New Haven ...

Dato tutto il credito dovuto a McKenzie, l'idea originale non era però già in Marshall?

Certo, ed infatti Lionel non si è mai attribuito alcuna paternità, l'ha semplicemente usata insieme a JvN, Koopmans, Radner, etcetera.

Quelli che han fatto su un gran casino, che ancora perdura, sono stati Arrow e Debreu inventandosi le imprese in general equilibrium (senza avere una teoria di cosa fossero, che le imprese sono tutto fuorché un dato primitivo di un'economia) con i consumatori che nascono possedendone delle "quote" e via facendo casino ... abbiamo dovuto aspettare Bewley 1982 perché venisse detta pubblicamente una parola chiara. Ma la confusione, fra i più, non andrà mai via, temo.

Lionel era ben cosciente che non esisteva (non esiste tutt'ora) una teoria della formazione di un'impresa in GE, perché non esiste né una teoria dei contratti che funzioni bene in GE né dei mercati finanziari (Alberto ha lavorato su entrambe le questioni ed anche Aldo). Detto altrimenti: non esiste ancora un modello EEG che dia una buona e definitiva risposta alla domanda di Coase: perché usiamo il "comando" e non il "mercato" per regolare certi rapporti economici e non altri?

Questo per quanto riguarda l'aspetto, diciamo così, teorico più astratto che però ha conseguenze.

Pensa solo a questo: se i macro-economisti avessero capito cos'è una tecnologia in EEG ed avessero tenuto in mente che, alla fine, si tratta di usare activity analysis, le mostruose baggianate su rendimenti crescenti necessari per la crescita e tutto il dibattito su progresso tecnologico alla "Romer&Co." ce lo saremmo evitato. Perché il cambio tecnologico è, banalmente, la produzione di beni che ancora non esistono usando una tecnologia che già esiste. Tale produzione, del nuovo bene usando la tecnologia esistente e quindi inputs esistenti, avviene quando i prezzi relativi sono tali da renderlo conveniente. Se il nuovo bene permette di attivare una tecnologia mai usata prima, abbiamo l'introduzione di un nuovo processo produttivo. Se il nuovo bene si consuma e basta abbiamo la creazione di un nuovo bene di consumo. E tutto avviene, tranquillamente e rilassatamente, under constant returns to scale.

Questo approccio esclude per definizione le tecnologie con rendimenti crescenti?

Neanche per sogno, gli insiemi di produzione altri dai coni convessi e con rendimenti crescenti ci sono, eccome. Sono, come avevano capito quelli che lavoravano in EEG già negli anni '50 e '60, gli insiemi generati da quelle tecnologie che sono caratterizzate da "minimum size restrictions" o "costi fissi", se volete. La fonte di rendimenti crescenti è sempre e comunque, se uno fa attenzione, una dimensione minima a cui una certa tecnologia può essere usata. La cosa interessante è che quella dimensione minima può essere il frutto d'una scelta economica, ossia non puramente tecnologica. Ma questo è un altro discorso.

 

molto interessante, Michele

Michele, in che senso concordi con la tesi che "l'idea originale era in Marshall"?

La formalizzazione del processo produttivo come vettore di input ed output è, come ben sai, un'idea di von Neumann 1932 (tr.ingl. 1946, RES). Se ti riferisci solo all'analisi marshalliana dei diversi casi di rendimenti, ok, ma allora il vero precursore non sarebbe piuttosto il sempre sottovalutato Cournot 1838?

PS: ho scoperto che con l'iPad ci si può loggare a NfA, ma non scrivere commenti (non appare la tastiera). Immagino sia perché iPad non riconosce la "pagina" dove sto scrivendo in questo momento come uno spazio per inserimento testi. Sono io che sono capra, è un bug di Apple oppure è qualcosa che potere risolvere voi? 

bug di apple. Non e' una cosa risolvibile da noi in breve periodo

Lo sospettavo. Grazie Andrea per la risposta. Speriamo che nfA diventi così famoso da obbligare Apple a provvedere!

Apodissi :-)

phileas 14/10/2010 - 09:42

L'apodissi è una conoscenza certa, sillogistica quindi per definizione non è una "puttanata"

Io sollevavo qualche dubbio su una conoscenza come quella del "representative agent" o dell'assunzione che se la matematica dimostra l'esistenza di una data funzione, variabile, vettore, etc allora dice necessariamente qualcosa circa la realtà economica. I casi in questione non sono certo pochi e parlarne non dovrebbe essere taboo

Ho conosciuto Lionel quando sono arrivato a Rochester come Assistant Professor nel 2000. Come tutti noi che l'abbiamo conosciuto, sono rimasto fortemente colpito dal suo carisma, dalle sue capacita' scientifiche e dalle sue qualita' umane. E' stato davvero un gigante, e un esempio per noi tutti.

Oltre ai suoi meriti scientifici, ha di fatto costruito il Dipartimento di Economia di Rochester. Un dipartimento al quale sono molto legato, perche' devo la mia carriera professionale in larga parte alle collaborazioni e agli insegnamenti dei colleghi che ho conosciuto a Rochester. Per questo motivo, vorrei esprimere un ringraziamento molto personale all'opera di Lionel Wilfred McKenzie.

Ho capito questa cosa della tautologia definitoria (grazie mille Giulio per l'esempio), ma ho ancora qualche dubbio:

1) Vale anche per i rendimenti di scala crescenti? Ossia, se ci sono costi fissi, o sunk, o external economies of scale? Si puo' ancora riscrivere la funzione di produzione come se avesse rendimenti costanti?

2) In via del tutto ipotetica, supponiamo che uno dei fattori sia finito e che quello sia il caso "empirically relevant". Oppure, viceversa, supponiamo che ci siano costi fissi, o sunk, o external economies e che questo sia empirically relevant. In questi casi, il modello con rendimenti costanti non darebbe risultati "fuorvianti"? I miei dubbi nascono dal fatto che le implicazioni dei modelli con rendimenti, ad esempio, crescenti sono spesso molto diverse da quelle dei modelli con rendimenti costanti.

Per Giovanni: giusto per tranquillizzarti (forse) comunque la maggior parte dei modelli DSGE assume almeno monopolistic competition e, spesso, fixed costs.

Inizia una nuova discussione

Login o registrati per inviare commenti