Ca Plane Pour Moi

13 Sep, 2013 at 16:37 | Posted in Varia | 3 Comments


Old love never rusts …

This was my finest hour

13 Sep, 2013 at 15:53 | Posted in Economics | 1 Comment

Ten years ago, in September 2003, the Swedish political elite asked its citizens if they wanted to join the eurozone. Of the more than 80 % of registered voters participating in the referendum close to 57 % said NO.

I’m proud I participated in the fight against the euro and the political-economic establishment in Sweden.

New figures from Eurostat shows that the unemployment rate in the eurozone is still in double digits. This is of course totally and utterly unacceptable. Unemployment is not only an immense economic waste. It is also a cause of poverty. In a civilised society, everyone should have the right to work. The kind of austerity policies that the euro now forces many countries to pursue, counteracts the goal of a full-employment society.

The celebrated optimism of traditional economic theory, which has led to economists being looked upon as Candides, who, having left this world for the cultivation of their gardens, teach that all is for the best in the best of all possible worlds provided we will let it well alone, is also to be traced, I think, to their having neglected to take account of the drag on prosperity which can be exercised by an insufficiency of effective demand.

John Maynard Keynes

Looking around in euro-land today one has to ask oneself: How much whipping can democracy take? How many more are going to get seriously hurt and ruined before we end this madness and put the euro where it belongs – in the dustbin of history!

Deductivism leading economists astray

13 Sep, 2013 at 09:47 | Posted in Economics, Theory of Science & Methodology | 5 Comments

In his article Excessive Ambitions , Jon Elster argues that

large bodies of social science are permeated by explanatory hubris. Economists and political scientists, in particular, rely on deductive models and statistical tools that are vastly less robust and reliable than their practitioners claim.

I can’t but concur. So let me just give you a couple of examples to validate this opinion.

In a recent interview Robert Lucas says he now believes that

the evidence on postwar recessions … overwhelmingly supports the dominant importance of real shocks.

Hmm …

So, according to Lucas, changes in tastes and technologies should be able to explain the main fluctuations in e.g. the unemployment that we have seen during the last six or seven decades. Let’s look at the facts and see if there is any strong evidence for this allegation. Just to take an example, here’s the situation in the eurozone:


What shocks to tastes and technologies drove the unemployment rate up and down like this in these countries? Not even a Nobel laureate could in his wildest imagination come up with any warranted and justified explanation solely based on changes in tastes and technologies.

Lucas is simply so wrong, so wrong, but how do we protect ourselves from this kind of scientific madness? Larry Summers has a suggestion well worth considering:

Modern scientific macroeconomics sees a (the?) crucial role of theory as the development of pseudo worlds or in Lucas’s (1980b) phrase the “provision of fully articulated, artificial economic systems that can serve as laboratories in which policies that would be prohibitively expensive to experiment with in actual economies can be tested out at much lower cost” and explicitly rejects the view that “theory is a collection of assertions about the actual economy” …miracle-at-blackboard

A great deal of the theoretical macroeconomics done by those professing to strive for rigor and generality, neither starts from empirical observation nor concludes with empirically verifiable prediction …

The typical approach is to write down a set of assumptions that seem in some sense reasonable, but are not subject to empirical test … and then derive their implications and report them as a conclusion. Since it is usually admitted that many considerations are omitted, the conclusion is rarely treated as a prediction …

However, an infinity of models can be created to justify any particular set of empirical predictions … What then do these exercises teach us about the world? … If empirical testing is ruled out, and persuasion is not attempted, in the end I am not sure these theoretical exercises teach us anything at all about the world we live in …

Reliance on deductive reasoning rather than theory based on empirical evidence is particularly pernicious when economists insist that the only meaningful questions are the ones their most recent models are designed to address. Serious economists who respond to questions about how today’s policies will affect tomorrow’s economy by taking refuge in technobabble about how the question is meaningless in a dynamic games context abdicate the field to those who are less timid. No small part of our current economic difficulties can be traced to ignorant zealots who gained influence by providing answers to questions that others labeled as meaningless or difficult. Sound theory based on evidence is surely our best protection against such quackery.

On the subject of deductivism, mentioned by both Elster and Summers, John Kay has a very interesting article showing how it has led economists to go astray in their – as my mentor Erik Dahmén used to say – “tool sheds”:

grand-theft-autoConsistency and rigour are features of a deductive approach, which draws conclusions from a group of axioms – and whose empirical relevance depends entirely on the universal validity of the axioms. The only descriptions that fully meet the requirements of consistency and rigour are completely artificial worlds, such as the “plug-and-play” environments of DSGE – or the Grand Theft Auto computer game.

For many people, deductive reasoning is the mark of science: induction – in which the argument is derived from the subject matter – is the characteristic method of history or literary criticism. But this is an artificial, exaggerated distinction. Scientific progress – not just in applied subjects such as engineering and medicine but also in more theoretical subjects including physics – is frequently the result of observation that something does work, which runs far ahead of any understanding of why it works.

Not within the economics profession. There, deductive reasoning based on logical inference from a specific set of a priori deductions is “exactly the right way to do things”. What is absurd is not the use of the deductive method but the claim to exclusivity made for it. This debate is not simply about mathematics versus poetry. Deductive reasoning necessarily draws on mathematics and formal logic: inductive reasoning, based on experience and above all careful observation, will often make use of statistics and mathematics.

Economics is not a technique in search of problems but a set of problems in need of solution. Such problems are varied and the solutions will inevitably be eclectic. Such pragmatic thinking requires not just deductive logic but an understanding of the processes of belief formation, of anthropology, psychology and organisational behaviour, and meticulous observation of what people, businesses and governments do.

The belief that models are not just useful tools but are capable of yielding comprehensive and universal descriptions of the world blinded proponents to realities that had been staring them in the face. That blindness made a big contribution to our present crisis, and conditions our confused responses to it. Economists – in government agencies as well as universities – were obsessively playing Grand Theft Auto while the world around them was falling apart.

The article is essential reading for all those who want to understand why mainstream – neoclassical – economists actively have contributed to causing todays’s economic crisis rather than to solving it.

Perhaps this becomes less perplexing to grasp when considering what one of its main proponents today – Robert Lucas – maintained already in 2003:

My thesis in this lecture is that macroeconomics in this original sense has succeeded: its central problem of depression-prevention has been solved, for all practical purposes, and has in fact been solved for many decades.

And this comes from an economist who has built his whole career on the assumption that people are hyper rational “robot imitations” with rational expectations and next to perfect ability to process information. Mirabile dictu!

So, yes, I can’t but concur with Elster — the deductivist modeling endeavour is leading economics astray.

Van den Budenmayer

12 Sep, 2013 at 16:38 | Posted in Varia | Comments Off on Van den Budenmayer


Kieslowski’s masterpiece La double vie de Véronique — it breaks my heart every time.

Tim Hawkins — just another unbelievable libertarian moron

12 Sep, 2013 at 13:47 | Posted in Politics & Society | 1 Comment

I don’t know why, but this guy makes me think of an Oscar Wilde quip …

I think that God, in creating man, somewhat overestimated his ability.

Vad beror nationalekonomernas urusla prognoser på?

12 Sep, 2013 at 12:22 | Posted in Economics | Comments Off on Vad beror nationalekonomernas urusla prognoser på?

Nationalekonomer hävdar ofta – vanligtvis med hänvisning till Milton Friedman och hans metodologiska individualism – att det inte gör så mycket om de antaganden som deras modeller bygger på är realistiska eller ej. Vad som betyder något är om de prediktioner/förutsägelser/prognoser som modellerna resulterar i visar sig vara riktiga eller ej.

Om det verkligen är så, är den enda slutsats vi kan dra att dessa modeller och prognoser hör hemma i papperskorgen. För oj vad fel de har haft!

Riksbanken började 2006 att jobba med en ny modell  — RAMSES — som underlag för de så kallade räntebanor som man sedan 2007 använt sig av som prognosmedel. Genomslaget har blivit stort – trots att det är lätt att konstatera att prognoserna genomgående slagit rejält fel. Som de flesta andra prognosmakare missade Riksbanken både finanskrisen och dess allvarliga effekter. Men också under de senaste åren tre-fyra åren har Riksbankens ränteprognoser visat sig vara usla:

SvD Näringsliv har gått igenom alla 36 publicerade räntebanor. Nästan alla följer samma mönster. I slutet av prognostiden stiger räntan. De tidiga räntebanorna slutade med en ränta på över 4 procent. Den senaste på cirka 2,5 procent. Ingen av räntebanorna har ännu så länge visat rätt på tre års sikt. Sommaren 2010 spåddes det att räntan i dag skulle vara runt 3,75 procent, verkligheten är en ränta på 1 procent …

Irma Rosenberg satt i Riksbankens direktion mellan 2003 och 2008 och var beredningsansvarig för penningpolitiken när räntebanan infördes.

– Räntebanan gör att Riksbanken kan resonera mer om framtiden. Vad som kan hända och hur räntan påverkas.

Hur påverkas Riksbankens trovärdighet av att räntebanorna slår fel?

– Gör man en prognos så riskerar man alltid att få fel. Det enda vi vet är att vi någon gång kommer att komma tillbaka till ett mer normalt läge. Då kommer räntorna att vara högre än nu.


I våras bjöd yours truly in fondförvaltare Alf Riple — med bakgrund som chefsanalytiker på Nordea och rådgivare på norska Finansdepartementet — att föreläsa på min kurs Finanskriser – orsaker, förlopp och konsekvenser. Enligt Alf finns det ingen anledning att vara speciellt förvånad över Riksbankens usla prognoser:

ripleVad är värst, en dålig prognos eller ingen prognos? Svaret är enkelt. Så fort du exponeras för en prognos är du i en sämre position än du var innan …

Expertprognoser gör med all sannolikhet mer skada än nytta. Det är därför det lönar sig att snabbt bläddra förbi tidningsartiklar med rubriker som ‘Så kommer börsen gå i år’ …

Tänk dig att du har som jobb att sköta ditt företags valutaväxlingar … Du måste bestämma att antingen säkra växelkursen redan nu, eller vänta tills beloppet anländer och växla till den kurs som gäller då … Som tur är har du analytikernas dollarprognoser till hjälp. De gör det inte ett dugg lättare att förutspå dollarkursen. Men de kan hjälpa dig ändå.

Om du lyckas göra rätt spelar inte analyserna någon större roll. Men om dollarn faller som en sten och du har valt att inte säkra växelkursen, kommer företagsledningen att vilja veta varför du har sumpat bort företagets pengar … Du kan dra en lång historia om historiska valutatrender, ekonomisk tillväxt, betalningbalans och ränteskillnader. Till slut kommer alla att hålla med om att du agerade rätt mot bakgrund av den information du hade på förhand.

Analyserna gör att du kommer undan. Särskilt de som hade mest fel … Prognoserna har inget ekonomiskt värde, vare sig för företaget eller samhället. Värdet är att de räddar ditt skinn …

Är det inte denna världsbild man jobbar inifrån när man skapar ekonomiska modeller med otaliga ekvationer och variabler? Som om allt som ska hända kan beräknas matematiskt? …

Varför ser inte ekonomerna fjärilseffekterna i sina modeller, likt meteorologerna? … Meteorologerna försöker förutspå framtiden för ett oförutsägbart system. De bygger modeller där förutsägbarheten utkristalliseras och slår fast att långsiktiga prognoser är omöjliga. Ekonomerna försöker likaledes förutspå ett oförutsägbart system. Men de bygger modeller som sopar oförutsägbarheten under mattan.

Med andra ord – dessa arrogant självsäkra ekonomer med sina “rigorösa” och “precisa” matematisk-statistiska-ekonometriska modeller har genomgående fel. Och det är alla vi andra som får betala för det!

A fool-proof way to get fooled by randomness — technical analysis

12 Sep, 2013 at 10:29 | Posted in Economics | Comments Off on A fool-proof way to get fooled by randomness — technical analysis

This paper provides evidence that “illusory correlations,” a well-documented source of cognitive bias, leads some agents to be imperfectly rational noise traders. We identify illusory correlations by focusing on the head-and-shoulders chart pattern. Though this is considered one of the most reliable technical trading signals, our evidence indicates that the signal does not profitably predict directional movements as claimed. We connect this illusory correlation to noise trading by showing that the pattern is associated with a significant rise in trading volume and a substantial reduction in bid-ask spreads.

71DnOTJ-UEL._SL1427_Psychologists long ago documented a human tendency to create “illusory correlations,” or equivalently, to believe in relationships that don’t truly exist among real-world variables … This tendency has many apt illustrations from human history, including ancient beliefs in pantheons of gods and medieval medical treatments now known to be counterproductive. More recently, brain scientists have noted a strong physiological predilection to discover patterns in series that are consciously known to be random and have identified where subconscious pattern recognition occurs in the brain (Huettel et al., 2002). We hypothesize that the human predilection to discover patterns, augmented by a strong desire to make money, leads some investors to believe in connections between price patterns and future price movements that do not truly exist.

If we are correct, such traders would be, in effect, noise traders. Noise traders have been a key component of financial models since their introduction by Kyle (1985) and Glosten and Milgrom (1985) because they help markets avoid no-trade equilibria (Milgrom and Stokey, 1982, Morris, 1994), Bloomfield, et al. (2005) asserts that “noise traders play a ubiquitous role in the finance literature” …

This paper provides evidence that a common, active form of speculation amounts to imperfectly rational noise trading. We examine one of the market’s most familiar and trusted chart patterns, the “head-and-shoulders” pattern. This involves a series of three price peaks, the highest of which is in the middle. Technical analysts claim that a head-and-shoulders pattern
predicts a downtrend and that the inverse pattern predicts and uptrend. Our focus on technical trading is suggested by economists’ historically dismissive attitude towards this form of speculation …

To support the hypothesis that this illusory correlation generates noise trading, we first provide evidence that the pattern is associated with substantial trading. Trading volume is over 60 percent higher than normal when traders would normally enter positions based on head-and- shoulders patterns. We next show that spreads narrow contemporaneously with this excess trading. The narrowing amounts to nine percent of average spreads, which could represent over half of the adverse-selection component of spreads.

The connection between imperfectly rational trading and bid-ask spreads suggests that imperfect rationality could be a relevant topic of market microstructure research. As noted by Barberis and Thaler (2003), behavioral finance has primarily focused on other aspects of finance, most notably “the aggregate stock market, the cross-section of average returns, individual trading behavior, and corporate finance.” In future research it would be appropriate to investigate more closely the possible influence of imperfect rationality on market microstructure.

Jennifer Bender, C. L. Osler, David Simon

Keynes visar vägen

12 Sep, 2013 at 09:04 | Posted in Economics | Comments Off on Keynes visar vägen

Egentligen är det märkligt att den ortodoxa (neoklassiska) nationalekonomiska teorins företrädare inget verkar vilja lära av historien och åter under de senaste fem åren stått handfallna inför finanskrisens härjningar runtom i världen. Speciellt erfarenheterna av den stora depressionen under mellankrigstiden borde annars vara lärorika.

Att den neoklassiska ekonomiska teori stod handfallen när denna bröt ut i slutet på 1920-talet var kanske inte så konstigt när man ser på hur den etablerade teorin vid tiden såg ut. Det centrala antagandet var att utbudet skapade sin egen efterfrågan. Var investeringarna för stora i förhållande till efterfrågan, höjde man räntan och folk efterfrågade lånemedel mindre och sparade mer. Räntan var ett känsligt instrument med vars hjälp man kunde uppnå jämvikt mellan investeringar och sparande.

Som inte minst utvecklingen under 1920-talet skulle visa kan produktionen i en modern ekonomi inte betraktas som given. När priserna började sjunka sjönk också sysselsättningen och produktionen. Detta tolkade de ortodoxa ekonomerna som en följd av att lönerna var trögrörliga. Kunde man bara öka löneflexibiliteten skulle arbetslösheten försvinna och produktionen öka. Utifrån en rent mikroekonomisk analys av individers rationella valhandlingar kom man fram till att ofrivillig arbetslöshet inte var möjlig om lönerna bara föll snabbt nog.

När depressionen drabbade 1920-talets industrivärld visade sig den ortodoxa teorin inte vara till någon större hjälp att komma ur situationen. Den engelske nationalekonomen John Maynard Keynes såg behovet av att utveckla en ny teori som på bröt mot den etablerade sanningen. I The General Theory of Employment, Interest and Money (1936) presenterade han sitt alternativ.

Keynes angrepp på den ortodoxa teorin kom att främst inrikta sig på dess penningteoretiska fundament. Enligt Keynes höll sig människor med likvida medel både för att de hade ett motiv att hålla sig med en viss betalningsberedskap och för att de delvis kunde ha motiv att spekulera. Om räntan befann sig på en låg nivå och förväntades stiga i framtiden fanns det oftast goda ekonomiska skäl att ha hög likviditetspreferens och ”spara i madrassen”.

För Keynes är framtidens ovisshet och kunskapens ofullständighet oeftergivliga förutsättningar för verkliga valhandlingar och tidens betydelse. Och det är också här pengars avgörande betydelse kommer in. Om vi inte vet vad framtiden bär med sig försöker vi på olika sätt att gardera oss och kanske skjuta upp beslut. Om vi är osäkra på avkastningen på en tänkt investering väljer vi kanske att ha kvar våra medel i likvid form – pengar – och skjuta upp investeringsbeslutet på framtiden då osäkerheten kanske minskat. Att välja att hålla sina tillgångar i penningform är detsamma som att skjuta upp beslut som man upplever som idag för osäkra till en förhoppningsvis mindre osäker framtid. I stället för att göra en felinvestering idag hoppas man göra en vinstgivande investering i morgon. Och under mellantiden håller vi på våra pengar eller förräntar dem på banken. Detta skapar en ökad frihet åt individen, men ökar tyvärr också de ekonomiska riskerna på främst samhällsnivå.

Osäkerheten inverkar dubbelt på investeringarna. Direkt genom att göra investeraren mindre benägen att satsa på ett osäkert projekt och indirekt genom att höja räntorna och därigenom minska investeringarna. För Keynes är de fall då osäkerheten är stor mest intressanta eftersom denna ovisshet i normalfallet reducerar investeringsverksamheten och därigenom bidrar till sysselsättningsproblemets förvärrande. I sådana situationer väljer investerare ofta att hålla sina tillgångar i form av pengar. Vår benägenhet att hålla pengar fungerar på så vis som ett slags mätare på hur stor tillit vi har till våra framtidsförväntningar. Ju osäkrare vi känner oss, desto högre premium kräver vi för att skilja oss från våra pengar. Räntan är ett mått på hur stort detta premium är. Den likviditetspreferens individer oftast har beror i grunden på ovissheten i den framtida ränteutvecklingen och måste på något sätt kompenseras om vi ska avstå från den.

Investeringsbeslut beror till stor del på relationen mellan kapitalets marginalproduktivitet och låneräntan. Är låneräntan högre än den förväntade framtida avkastningen på investerat kapital avstår man från att investera. Problemet med investeringarna är att de är känsliga för affärsvärldens förväntningar och framtidsbedömningar och att förändringar i dessa mycket snabbt kan leda till att effekterna av eventuella ränteförändringar neutraliseras. Det är därför inte säkert att en expansion av penningmängden med påföljande räntesänkning leder till ökade investeringar. Staten måste därför ta en mer aktiv del i skapandet av en större effektiv efterfrågan som kan skapa arbete och välstånd.

Keynes analys visar med eftertryck att de ortodoxa ekonomernas penningpolitik är ett alldeles för trubbigt instrument för att åtgärda ekonomins mer fundamentala systembrister och konjunkturella problem. Vad värre är – när likviditetsfällan slår igen under lågkonjunkturen hjälper inga räntesänkningar. Även om penningpolitiken skulle resultera i sänkt ränta skulle affärsvärldens pessimistiska framtidsförväntningar mycket väl kunna neutralisera dess effekter. Skall man ta sig ur lågkonjunkturer och ekonomiska depressioner krävs vassare och effektivare instrument. En aktiv finanspolitik behövs om inte massarbetslösheten ska riskera att leda till en helt okontrollerbar utveckling.

Ser vi på den kris världsekonomin befinner sig i sedan år 2008 så ser vi att det genomgående mönstret är detsamma i denna som i andra kriser. Av någon anledning uppstår en förskjutning (krig, innovationer, nya spelregler m m) i det ekonomiska kretsloppet som leder till förändringar i bankers och företags vinstmöjligheter. Efterfrågan och priser stiger och drar med sig allt fler delar av en ekonomi som hamnar i ett slags eufori. Fler och fler dras med och snart är spekulationsmanin – vare sig det gäller tulpanlökar, fastigheter eller bolån – ett faktum. Förr eller senare säljer någon för att ta ut sina vinster och en rusning efter likviditet sätter in. Det har blivit dags att hoppa av karusellen och lösa in sina värdepapper och andra tillgångar i reda pengar. Ett finansiellt nödläge uppstår och breder ut sig. Priserna börjar sjunka, konkurserna ökar och krisen påskyndas och går över i panik. För att hindra den slutliga kraschen dras krediten åt och man börjar ropa på en långivare som i sista hand kan garantera tillgången på de efterfrågade kontanta medlen och återupprätta förtroendet. Lyckas inte detta är kraschen ett faktum.

Vår tids kanske främste finanskristeoretiker – Hyman Minsky – hade som bärande idé i sina arbeten att kriserna är endogena (systeminterna) företeelser där stabilitet skapar instabilitet och minskade säkerhetsmarginaler för finansiella transaktioner med allt för höga hävstångseffekter. Under finansbubblornas uppgångsfas minskar säkerhetsmarginalerna och även den minsta motgång kan leda till att förväntningar inte infrias och tvinga företag och investerare att revidera sina planer för att överhuvud kunna klara av sina ”cash-flow commitments”. Följden kan bli att man måste sälja av tillgångar, vilket bidrar till en skulddeflationsprocess med ständigt större reala skuldbördor och problem att lösa likviditetsproblem genom avyttring av tillgångar.

Enligt Minsky var detta oundvikliga processer. ”Stability creates instability” även utan euforier och överdriven optimism Under uppgångsfasen bekräftas bankernas lånepraxis och validerar även de mer riskfyllda projekten. I enlighet med informationskaskadtanken får vi en logik där det som från början framstått som riskabelt i slutändan upplevs som helt riskfritt. Bankerna blir mer och mer självsäkra.

Värdepapperiseringen har inneburit att traditionell kreditvärdering ersatts av kreditvärdering som utförs ratingföretag utan förstahandskunskaper om låntagarna. Detta bygger på ett slags stokastiserande av bedömningarna där man i stället för att utgå från varje enskild låntagares kredithistorik försöker betrakta låntagarna som slumpmässiga realisationer av en ”representativ” låntagare med risker som följer en normalfördelningskurva med givet medelvärde och variation. Men om verklighetens låntagare inte uppvisar den grad av homogenitet som ett sådant statistiskt förfarande bygger på bli modellkonstruktionens brister uppenbara. När risken visar sig vara ”fat tail” förbyts uppsåtet att minska och fördela riskerna i sin motsats. Kruxet är bara att detta inte syns riktigt förrän krisen är i full blom och det ”representativa” låntagaren hänger på repen. Tillgångar som bankerna försökt flytta utanför balansräkningen med hjälp av värdepapperisering dyker upp igen när de institut man skapat utanför balansräkningen tvingas be om hjälp för att lösa akuta likviditetsproblem.

Krisen visar hur systematiskt otillräckliga kreditvärderingar är i dagens finanssystem. En av de grundläggande orsakerna är att de som tar riskerna inte längre är ansvariga för att värdera låntagarnas förmåga att bära sina kostnader. De instrument som av finansmarknadens egna representanter brukar sägas vara skapade för att fördela risken på ett optimalt sätt mellan olika aktörer klarar inte av att fylla sin uppgift när det inte finns något trovärdig mekanism för att bedöma riskerna. Inte ens på kapitalismens flaggskepp, de finansiella marknaderna, lyckas man reducera ekonomins genuina osäkerhet till hanterbara stokastiska risker (stokastiska processer är typ dem vi har när vi singlar slant och vi vet att utfallen med säkerhet är antingen krona eller klave och där slumpmässigheten gör att vi vid upprepade slantsinglingar har lika stor chans att få krona som klave). Om värdepapper och andra tillgångar prissätts utifrån de risker som skattas med antaganden som gäller för stokastiska normalfördelningsmodeller kan dessa priser aldrig bli bättre än de modellantaganden de bygger på. I normala tider kan de kanske ge hyfsade approximationer, men när bubblor växer och framtiden definitivt inte ser ut som historien (ekonomier är i statistisk mening inga ergodiska system, där processer är oföränderligt desamma över tiden) stavas resultatet kris.

Krisen bottnar delvis i ett finansiellt system som systematiskt undervärderar risker och övervärderar kreditvärdighet. Den finansiella instabilitet som Minsky menade genomsyra finansmarknaderna kan vi inte eliminera helt. Men vi kan se till att införa regelverk och institutioner som minimerar skadeverkningarna.

Det är uppenbarligen svårt för konventionell neoklassisk teori att förklara finansiella kriser. Oftast blir förklaringen att det beror på dumdristig spekulation av irrationella ”noise traders”. I själva verket är orsaken att vi inte har perfekt information om hur framtiden ser ut och att det är just framtidsförväntningar som styr finansmarknaden. Spekulation handlar om att försöka föregripa hur dessa framtidsförväntningar på marknaden kommer att gestalta sig. Detta är svårt att göra – marknadspsykologi är svårt att få grepp om – och leder ofta till att snabba svängningar på marknaden och lämmeltågsliknande beteende där förväntningar om vad andra spekulanter har för förväntningar spelar större roll än ekonomins fundamenta. Kriserna är i grund och botten endogena och inte exogena (informationsmisslyckanden, irrationalitet m m). Finanskriserna är inga anomalier, utan i högsta grad möjliga och förväntade inslag i en genuint osäker ekonomisk värld.

Den främsta lärdom finanskristeorin och den historiska erfarenheten ger oss är att återkommande finansiella kriser är en del av vårt ekonomiska systems väsen. De beror inte bara på en rad tillfälligheter och missbedömningar. De är en följd av de djupare liggande och långsiktiga instabiliteter som kännetecknar själva det finansiella systemet och utgör en källa till ekonomins instabilitet och kriser.

Vad kan man då göra för att minimera risken för framtida kriser och att ekonomin fullständigt kör fast? Vad som behövs nu är upplyst handling grundad på relevant och realistisk ekonomisk teori av det slag som Keynes och Minsky står för.

Den överhängande faran är att vi inte får fart på konsumtion och kreditgivning. Förtroende och effektiv efterfrågan måste återupprättas Och jag tror att vi måste inse att vi inte både kan ha tårtan och äta den. Så länge vi har en ekonomi med oreglerade finansiella marknader kommer vi också att få dras med periodiskt återkommande kriser. Det innebär inte att vi bara ska sitta med armarna i kors och vänta på att ovädret drar vidare. En Keynesskatt på finansmarknaden, skärpta regleringar och ökad transparens kan aktivt bidra till att på sikt minska riskerna för kostsamma finansiella systemkriser. Om vi däremot reflexmässigt vägrar se vidden av problemen kommer vi åter att stå handfallna när nästa kris tornar upp.

Ett av de grundläggande feltänken i dagens diskussion om de ständigt återkommande räddningspaketen för euron och USA:s kreditvärdighet och budgetunderskott är att man inte skiljer på skuld och skuld. Även om det på makroplanet av nödvändighet är så att skulder och tillgångar balanserar varandra, så är det inte oväsentligt vem som har tillgångarna och vem som har skulderna.

I den ortodoxa teorin framställs krislösningen oftast som att en penningpolitisk förändring – sänkt ränta t ex  – skulle vara tillräcklig. Som Johanna Möllerström skriver:

Så när finanspolitiken slog till var det det penningpolitiska vapnet man grep efter och centralbanker världen över, med amerikanska Federal Reserve i spetsen, började sänka räntan kraftigt. Men det visade sig snart att det inte verkade räcka, trots att räntan sänktes till rekordlåga nivåer (i USA ända till noll ). Så många nationalekonomer dammade av sin upplaga av Keynes ”The general theory of employment, interest and money” och bestämde sig för att rekommendera aktiv finanspolitik trots allt.

I dag är man minst sagt motvillig att öka de offentliga skulderna eftersom den ekonomiska krisen i mångt och mycket uppfattas som förorsakad av för mycket skulder. Men det är här fördelningen av skulder kommer in. Om staten i ett läge med risk för skulddeflation och likviditetsfällor ”lånar” pengar för att bygga ut järnvägar, skola och hälsovård, så är ju de samhälleliga kostnaderna för detta minimala eftersom resurserna annars legat oanvända. När hjulen väl börjar snurra kan förhoppningsvis både de offentliga och de privata skulderna betalas av. Och även om detta inte skulle uppnås fullt ut så förbättras det ekonomiska läget därför att låntagare med dåliga balansräkningar ersätts med de som har bättre.

Wynne Godley — modeling economic crises

11 Sep, 2013 at 23:12 | Posted in Economics | Comments Off on Wynne Godley — modeling economic crises

With the 2008 financial crisis and Great Recession still a raw and painful memory, many economists are asking themselves whether they need the kind of fundamental shift in thinking that occurred during and after the Depression of the 1930s. “We have entered a brave new world,” Olivier Blanchard, the International Monetary Fund’s chief economist, said at a conference in 2011. “The economic crisis has put into question many of our beliefs. We have to accept the intellectual challenge.”

GODLEY-articleLargeIf the economics profession takes on the challenge of reworking the mainstream models that famously failed to predict the crisis, it might well turn to one of the few economists who saw it coming, Wynne Godley of the Levy Economics Institute. Mr. Godley, unfortunately, died at 83 in 2010, perhaps too soon to bask in the credit many feel he deserves.

But his influence has begun to spread. Martin Wolf, the eminent columnist for The Financial Times, and Jan Hatzius, chief economist of global investment research at Goldman Sachs, borrow from his approach. Several groups of economists in North America and Europe — some supported by the Institute for New Economic Thinking established by the financier and philanthropist George Soros after the crisis — are building on his models …

Mainstream models assume that, as individuals maximize their self-interest, markets move the economy to equilibrium. Booms and busts come from outside forces, like erratic government spending or technological dynamism or stagnation. Banks are at best an afterthought.

The Godley models, by contrast, see banks as central, promoting growth but also posing threats. Households and firms take out loans to build homes or invest in production. But their expectations can go awry, they wind up with excessive debt, and they cut back. Markets themselves drive booms and busts …

In mainstream economic models, individuals are supposed to optimize the trade-off between consuming today versus saving for the future, among other things. To do so, they must live in a remarkably predictable world.

Mr. Godley did not see how such optimization is conceivable. There are simply too many unknowns, he theorized.

Instead, Mr. Godley built his economic model around the idea that sectors — households, production firms, banks, the government — largely follow rules of thumb …

So what do the Godley models predict now? A recent Levy Institute analysis expresses concern not about serious financial imbalances, at least in the United States, but weak global demand. “The main difficulty,” they wrote, “has been in convincing economic leaders of the nature of the main problem: insufficient aggregate demand.” So far, they are not having much success.

Jonathan Schlefer

(h/t Jan Milch)

Uncorrelated error terms and the Gauss-Markov theorem (student stuff)

11 Sep, 2013 at 18:55 | Posted in Statistics & Econometrics | Comments Off on Uncorrelated error terms and the Gauss-Markov theorem (student stuff)


How randomness rules our lives

11 Sep, 2013 at 18:27 | Posted in Statistics & Econometrics | Comments Off on How randomness rules our lives


Objections to Bayesian statistics

11 Sep, 2013 at 09:46 | Posted in Statistics & Econometrics | 6 Comments

The fundamental objections to Bayesian methods are twofold: on one hand, Bayesian methods are presented as an automatic inference engine, and this raises suspicion in anyone with applied experience, who realizes that di erent methods work well in different settings … Bayesians promote the idea that a multiplicity of parameters can be handled via hierarchical, typically exchangeable, models, but it seems implausible that this could really work automatically. In contrast, much of the work in modern non-Bayesian statistics is focused on developing methods that give reasonable answers using minimal assumptions.

gelmanThe second objection to Bayes comes from the opposite direction and addresses the subjective strand of Bayesian inference: the idea that prior and posterior distributions represent subjective states of knowledge. Here the concern from outsiders is, first, that as scientists we should be concerned with objective knowledge rather than subjective belief, and second, that it’s not clear how to assess subjective knowledge in any case.

Beyond these objections is a general impression of the shoddiness of some Bayesian analyses, combined with a feeling that Bayesian methods are being oversold as an allpurpose statistical solution to genuinely hard problems. Compared to classical inference, which focuses on how to extract the information available in data, Bayesian methods seem to quickly move to elaborate computation. It does not seem like a good thing for a generation of statistics to be ignorant of experimental design and analysis of variance, instead becoming experts on the convergence of the Gibbs sampler. In the short-term this represents a dead end, and in the long term it represents a withdrawal of statisticians from the deeper questions of inference and an invitation for econometricians, computer scientists, and others to move in and fill in the gap.

Bayesian inference is a coherent mathematical theory but I don’t trust it in scientific applications. Subjective prior distributions don’t transfer well from person to person, and there’s no good objective principle for choosing a noninformative prior (even if that concept were mathematically defined, which it’s not). Where do prior distributions come from, anyway? I don’t trust them and I see no reason to recommend that other people do, just so that I can have the warm feeling of philosophical coherence …

As Brad Efron wrote in 1986, Bayesian theory requires a great deal of thought about the given situation to apply sensibly, and recommending that scientists use Bayes’ theorem is like giving the neighborhood kids the key to your F-16 …

The mathematics of Bayesian decision theory lead inexorably to the idea that random sampling and random treatment allocation are inecient, that the best designs are deterministic. I have no quarrel with the mathematics here|the mistake lies deeper in the philosophical foundations, the idea that the goal of statistics is to make an optimal decision. A Bayes estimator is a statistical estimator that minimizes the average risk, but when we do statistics, we’re not trying to “minimize the average risk,” we’re trying to do estimation and hypothesis testing. If the Bayesian philosophy of axiomatic reasoning implies that we shouldn’t be doing random sampling, then that’s a strike against the theory right there. Bayesians also believe in the irrelevance of stopping times|that, if you stop an experiment based on the data, it doesn’t change your inference. Unfortunately for the Bayesian theory, the p-value does change when you alter the stopping rule, and no amount of philosophical reasoning will get you around that point.

Andrew Gelman

Bayesian inference in a “large world”

11 Sep, 2013 at 07:33 | Posted in Theory of Science & Methodology | 1 Comment

The view that Bayesian decision theory is only genuinely valid in a small world was asserted very firmly by Leonard Savage when laying down the principles of the theory in his path-breaking Foundations of Statistics. He makes the distinction between small and large worlds in a folksy way by quoting the proverbs ”Look before you leap” and ”Cross that bridge when you come to it”. You are in a small world if it is feasible always to look before you leap. You are in a large world if there are some bridges that you cannot cross before you come to them.


As Savage comments, when proverbs conflict, it is pro-verbially true that there is some truth in both—that they apply in different contexts. He then argues that some decision situations are best modeled in terms of a small world, but others are not. He explicitly rejects the idea that all worlds can be treated as small as both ”ridiculous” and ”preposterous” … Frank Knight draws a similar distinction between making decision under risk or uncertainty …

Bayesianism is understood [here] to be the philosophical principle that Bayesian methods are always appropriate in all decision problems, regardless of whether the relevant set of states in the relevant world is large or small. For example, the world in which financial economics is set is obviously large in Savage’s sense, but the suggestion that there might be something questionable about the standard use of Bayesian updating in financial models is commonly greeted with incredulity or laughter.

Someone who acts as if Bayesianism were correct will be said to be a Bayesianite. It is important to distinguish a Bayesian like myself—someone convinced by Savage’s arguments that Bayesian decision theory makes sense in small worlds—from a Bayesianite. In particular, a Bayesian need not join the more extreme Bayesianites in proceeding as though:

• All worlds are small.
• Rationality endows agents with prior probabilities.
• Rational learning consists simply in using Bayes’ rule to convert a set of prior
probabilities into posterior probabilities after registering some new data.

Bayesianites are often understandably reluctant to make an explicit commitment to these principles when they are stated so baldly, because it then becomes evident that they are implicitly claiming that David Hume was wrong to argue that the principle of scientific induction cannot be justified by rational argument …

Bayesianites believe that the subjective probabilities of Bayesian decision theory can be reinterpreted as logical probabilities without any hassle. Its adherents therefore hold that Bayes’ rule is the solution to the problem of scientific induction. No support for such a view is to be found in Savage’s theory—nor in the earlier theories of Ramsey, de Finetti, or von Neumann and Morgenstern. Savage’s theory is entirely and exclusively a consistency theory. It says nothing about how decision-makers come to have the beliefs ascribed to them; it asserts only that, if the decisions taken are consistent (in a sense made precise by a list of axioms), then they act as though maximizing expected utility relative to a subjective probability distribution …

A reasonable decision-maker will presumably wish to avoid inconsistencies. A Bayesianite therefore assumes that it is enough to assign prior beliefs to as decisionmaker, and then forget the problem of where beliefs come from. Consistency then forces any new data that may appear to be incorporated into the system via Bayesian updating. That is, a posterior distribution is obtained from the prior distribution using Bayes’ rule.

The naiveté of this approach doesn’t consist in using Bayes’ rule, whose validity as a piece of algebra isn’t in question. It lies in supposing that the problem of where the priors came from can be quietly shelved.

Savage did argue that his descriptive theory of rational decision-making could be of practical assistance in helping decision-makers form their beliefs, but he didn’t argue that the decision-maker’s problem was simply that of selecting a prior from a limited stock of standard distributions with little or nothing in the way of soulsearching. His position was rather that one comes to a decision problem with a whole set of subjective beliefs derived from one’s previous experience that may or may not be consistent …

But why should we wish to adjust our gut-feelings using Savage’s methodology? In particular, why should a rational decision-maker wish to be consistent? After all, scientists aren’t consistent, on the grounds that it isn’t clever to be consistently wrong. When surprised by data that shows current theories to be in error, they seek new theories that are inconsistent with the old theories. Consistency, from this point of view, is only a virtue if the possibility of being surprised can somehow be eliminated. This is the reason for distinguishing between large and small worlds. Only in the latter is consistency an unqualified virtue.

Ken Binmore

Lamentate — fragile e conciliante

10 Sep, 2013 at 08:18 | Posted in Varia | Comments Off on Lamentate — fragile e conciliante


Today I’m attending the funeral of a dear friend and neighbour.
No blogging today.


Why I am not a Bayesian

9 Sep, 2013 at 19:52 | Posted in Theory of Science & Methodology | 3 Comments

What I do not believe is that the relation that matters is simply the entailment relation between the theory, on the one hand, and the evidence on the other. The reasons that the relation cannot be simply that of entailment are exactly the reasons why the hypothetico-deductive account … is inaccurate; but the suggestion is at least correct in sensing that our judgment of the relevance of evidence to theory depends on the perception of a structural connection between the two, and that degree of belief is, at best, epiphenomenal. In the determination of the bearing of evidence on theory there seem to be mechanisms and strategems that have no apparent connection with degrees of belief, which are shared alike by people advocating different theories. Save for the most radical innovations, scientists seem to be in close agreement regarding what would or would not be evidence relevant to a novel theory; claims as to the relevance to some hypothesis of some observation or experiment are frequently buttressed by detailed calculations and arguments.e905b578f6All of these features of the determination of evidential relevance suggest that that relation depends somehow on structural, objective features connecting statements of evidence and statements of theory. But if that is correct, what is really important and really interesting is what these structural features may be. The condition of positive relevance, even if it were correct, would simply be the least interesting part of what makes evidence relevant to theory.

None of these arguments is decisive against the Bayesian scheme of things … But taken together, I think they do at least strongly suggest that there must be relations between evidence and hypotheses that are important to scientific argument and to confirmation but to which the Bayesian scheme has not yet penetrated.

Clark Glymour

« Previous PageNext Page »

Blog at
Entries and comments feeds.