Carl B. Hamilton och andra euro-pellejönsar har haft fel — från början till slut

31 August, 2013 at 17:27 | Posted in Economics, Politics & Society | 8 Comments

För tio år sedan fick yours truly utstå inte så lite spott och spe från ekonomkollegor runt om i landet därför att han — i likhet med personer som Nils Lundgren och Sören Wibe — vägrade att blunda för fakta och inte sätta sin tillit till alla fina modellbaserade framtidsprognoser som etablissemangsekonomer och tyckmyckentrutade tankekedjefundamentalister spottade ur sig i parti och minut och som alla visade hur fördelaktigt det skulle bli för Sverige om vi bara röstade för EMU och anammade euron.

CarlBHamiltonMen fakta sparkar. Alla fakta visar med eftertryck att Syll, Lundgren, Wibe et consortes hade rätt och pellejönsarna fel.

Enligt ny statistik från EU är nu arbetslösheten i eurozonen rekordhög — 12 procent och en ungdomsarbetslöshet på 24 procent.

Det här är tyvärr inget nytt. Månad för månad har vi under de fyra senaste åren via medierna kunnat se hur konflikterna och problemen med EMU tydliggörs. I land efter land utspelas nu tragedier inför våra ögon därför att EMU-tvångströjan bara kommer i en storlek och uppenbarligen inte passar alla. Nationer och deras ekonomier är i nästintill fritt fall. Precis som i flera andra euroländer klarar man inte – med de handlingsrestriktioner som den monetära gemenskapen sätter – att på ett adekvat sätt ta sig ur den sociala och ekonomiska kris man hamnat i.

Förvisso är deras problem inte bara – eller huvudsakligen – en effekt av EMU-medlemskapet. Självklart har dessa EMU-länder många självförvållade problem. Kritiken handlar om att dessa problem delvis emanerar ur – och förvärras av – EMU-medlemskapets autonomibegränsningar. Ett medlemskap som inte underlättar problemlösandet, eftersom deflationspolitik och frånvaro av möjlighet att bedriva egen valuta- och penningpolitik gör det näst intill omöjligt att få fart på efterfråga och export.

Istället för att fundera över om inte nödhjälp och massdemonstrationer borde vara en tankeställare, hänger sig en del politiker och ekonomer åt en makaber uppvisning i konsten att vara både blinda och döva för det stålbadsliknande test som EMU genomgår.

Hela argumentationen visar med eftertryck att EMU inte bara är ett ekonomiskt projekt, utan i minst lika stor utsträckning ett politiskt. Det som nyliberalismen inte klarade av på 1980-och 1990-talen ska nu EMU åstadkomma. Men vill vi verkligen avhända oss ekonomisk-politisk autonomi och tvingas sänka löner och sociala skyddsnät så fort det börjar knaka i ekonomins fogar? Är ökade löneklyftor och en federal överstat verkligen det stoff våra drömmar är gjorda av?

I stället för äreräddning av EMU med hänvisning till ekonomiska modeller – som till stor del bygger på diskutabla vetenskapsteoretiska och metodologiska antaganden – borde man se sig om i verklighetens euroland.

Som sagt – fakta sparkar. De senaste årens ekonomiska utveckling visar att valutaunionen knappast leder till någon ekonomisk nettofördel. Om vi jämför Sverige och euroländerna kan Sverige uppvisa bättre siffror på nästan alla centrala ekonomiska områden. Om vi tittar på tillväxt, inflation och sysselsättning utgör euron helt enkelt inget argument för att ge upp vår ekonomisk-politiska självständighet. Vår rätt att själva bestämma över hur vi på bästa sätt skall kunna möta en oviss framtid och kunna föra en ekonomisk politik som motsvarar våra behov – finns det ingen anledning att sälja ut för en gemensam valuta som så tydligt visat sig vara ett i grunden feltänkt och gigantiskt misslyckande.

don-quijoteDen mycket prekära utveckling som vi idag ser i euroland efter euroland visar på den hämsko som EMU utgör när kristyngda ekonomier ska försöka hitta en väg ut ur krisen. Förmågan att ta sig ur finanskrisens efterdyningar blir nästintill obefintlig. Att inte fullt ut ha möjlighet att bedriva en egen ekonomisk politik skapar ett hårt tryck på statsbudgeten och bäddar för de missnöjesyttringar som vi ser rada upp sig i land efter land.

Historien borde förskräcka. Den här sortens förkeynesiansk deflationspolitik provades under 1920- och 1930-talen och var antagligen den främsta enskilda orsaken till depressionen. Ekonomierna tog sig inte ur moraset förrän dåtidens dårskap – guldmyntfoten – kastades på historiens gravhög.

Så nu väntar vi bara på att vår egen Don Quijote – folkpartiets ekonomiske talesman Carl Bastiat Hamilton – och andra euro-pellejönsar med osviklig tajming åter igen ska föra fram krav på att Sverige omedelbart går med i EMU …

Advertisements

On the difficulty of generalizing from sample to population (wonkish)

31 August, 2013 at 10:24 | Posted in Statistics & Econometrics, Theory of Science & Methodology | Comments Off on On the difficulty of generalizing from sample to population (wonkish)

Last week statistician Andrew Gelman had an interesting blogpost up on what inference in science really means:

gelmanI like Don Rubin’s take on this, which is that if you want to go from association to causation, state very clearly what the assumptions are for this step to work. The clear statement of these assumptions can be helpful in moving forward …

Another way to say this is that all inference is about generalizing from sample to population, to predicting the outcomes of hypothetical interventions on new cases. You can’t escape the leap of generalization. Even a perfectly clean randomized experiment is typically of interest only to the extent that it generalizes to new people not included in the original study.

I agree — but that’s also why we so often fail (even when having the best intentions) when it comes to making generalizations in social sciences.

What strikes me again and again when taking part of the results of randomized experiments is that they really are very similar to theoretical models. They all have the same basic problem — they are built on rather artificial conditions and have difficulties with the “trade-off” between internal and external validity. The more artificial conditions, the more internal validity, but also less external validity. The more we rig experiments/models to avoid the “confounding factors”, the less the conditions are reminiscent of the real “target system”. The nodal issue is basically about how scientists using different isolation strategies in different “nomological machines” attempt to learn about causal relationships. I doubt the generalizability of the (randomized or not) experiment strategy because the probability is high that causal mechanisms are different in different contexts and that lack of homogeneity/stability/invariance don’t give us warranted export licenses to the “real” societies.

If we see experiments as theory tests or models that ultimately aspire to say something about the real “target system”, then the problem of external validity is central.

Assume that you have examined how the work performance of Chinese workers A is affected by B (“treatment”). How can we extrapolate/generalize to new samples outside the original population (e.g. to the US)? How do we know that any replication attempt “succeeds”? How do we know when these replicated experimental results can be said to justify inferences made in samples from the original population? If, for example, P(A|B) is the conditional density function for the original sample, and we are interested in doing a extrapolative prediction of E [P(A|B)], how can we know that the new sample’s density function is identical with the original? Unless we can give some really good argument for this being the case, inferences built on P(A|B) is not really saying anything on that of the target system’s P'(A|B).

As I see it this is the heart of the matter. External validity/extrapolation/generalization is founded on the assumption that we could make inferences based on P(A|B) that is exportable to other populations for which P'(A|B) applies. Sure, if one can convincingly show that P and P’are similar enough, the problems are perhaps surmountable. But arbitrarily just introducing functional specification restrictions of the type invariance/stability /homogeneity, is, at least for a scientific realist far from satisfactory. And often it is — unfortunately — exactly this that I see when I take part of experiments in social sciences.

By this I do not mean to say that empirical methods per se are so problematic that they can never be used. On the contrary, I am basically – though not without reservations – in favour of the increased use of experiments within e. g. economics. Not least as an alternative to completely barren “bridge-less” axiomatic-deductive theory models. My criticism is more about aspiration levels and what we believe that we can achieve with our mediational epistemological tools and methods in the social sciences.

Many ‘experimentalists’ claim that it is easy to replicate experiments under different conditions and therefore a fortiori easy to test the robustness of experimental results. But is it really that easy? If in the example given above, we run a test and find that our predictions were not correct – what can we conclude? The B “works” in China but not in the US? Or that B “works” in a backward agrarian society, but not in a post-modern service society? That B “worked” in the field study conducted in year 2008 but not in year 2012? Population selection is almost never simple. Had the problem of external validity only been about inference from sample to population, this would be no critical problem. But the really interesting inferences are those we try to make from specific labs/experiments/fields to specific real world situations/institutions/structures that we are interested in understanding or (causally) to explain. And then the population problem is more difficult to tackle.

Evidence-based theories and policies are highly valued nowadays. Randomization is supposed to best control for bias from unknown confounders. The received opinion — including Rubin and Gelman — is that evidence based on randomized experiments therefore is the best.

More and more economists have also lately come to advocate randomization as the principal method for ensuring being able to make valid causal inferences. Especially when it comes to questions of causality, randomization is nowadays considered some kind of “gold standard”. Everything has to be evidence-based, and the evidence has to come from randomized experiments.

But just as econometrics, randomization is basically a deductive method. Given  the assumptions (such as manipulability, transitivity, Reichenbach probability principles, separability, additivity, linearity etc)  these methods deliver deductive inferences. The problem, of course, is that we will never completely know when the assumptions are right. [And although randomization may contribute to controlling for confounding, it does not guarantee it, since genuine ramdomness presupposes infinite experimentation and we know all real experimentation is finite. And even if randomization may help to establish average causal effects, it says nothing of individual effects unless homogeneity is added to the list of assumptions.] Real target systems are seldom epistemically isomorphic to our axiomatic-deductive models/systems, and even if they were, we still have to argue for the external validity of  the conclusions reached from within these epistemically convenient models/systems. Causal evidence generated by randomization procedures may be valid in “closed” models, but what we usually are interested in, is causal evidence in the real target system we happen to live in.

When does a conclusion established in population X hold for target population Y? Only under  very restrictive conditions!

Ideally controlled experiments (still the benchmark even for natural and quasi experiments) tell us with certainty what causes what effects — but only given the right “closures”. Making appropriate extrapolations from (ideal, accidental, natural or quasi) experiments to different settings, populations or target systems, is not easy. “It works there” is no evidence for “it will work here”. Causes deduced in an experimental setting still have to show that they come with an export-warrant to the target population/system. The causal background assumptions made have to be justified, and without licenses to export, the value of  “rigorous” and “precise” methods is despairingly small.

Many advocates of randomization want  to have deductively automated answers to  fundamental causal questions. But to apply “thin” methods we have to have “thick” background knowledge of  what’s going on in the real world, and not in (ideally controlled) experiments. Conclusions  can only be as certain as their premises — and that also goes for methods based on randomized experiments.

So I agree with Gelman that “all inference is about generalizing from sample to population.” But I don’t think randomized experiments — ideal or not — take us very far on that road. Randomized experiments in social sciences are far from being the “gold standard” they often are depicted as.

Bemused logic

30 August, 2013 at 19:35 | Posted in Varia | Comments Off on Bemused logic

tumblr_mo6xfn0p7v1qzsnxyo1_1280

Snillen spekulerar

30 August, 2013 at 16:08 | Posted in Economics | Comments Off on Snillen spekulerar

snillen350
Robert Nyberg — som så ofta — mitt i prick!   [h/t Jan Milch]

Coaseteoremet

30 August, 2013 at 11:16 | Posted in Economics | 1 Comment

coase2

I den etablerade ekonomiska teorin tog man länge institutioner för givna. I takt med att de institutionella antagandenas långtgående konsekvenser blivit allt svårare att blunda för har ekonomer på senare tid i ökad utsträckning försökt inkorporera institutionerna i sina modeller. Detta förnyade intresse att bredda den ekonomiska teorin till att också omfatta ekonomiska och politiska institutioner har kommit att centreras kring analysen av äganderätter och transaktionskostnader. Ronald Coases arbeten har här spelat en helt avgörande roll och hans forskning har givit viktiga impulser till inte bara välfärdsekonomi, utan också områden som rättsvetenskap, rättsekonomi och finansiell ekonomi. Den alternativa lösning på de externa effekternas problematik som det s k coaseteoremet utgör kommer att beskrivas nedan. Därefter diskuteras teoretiska och praktiska problem med dess tillämpning vid analys av offentlig verksamhet.

I sin nu klassiska artikel “The problem of social cost”  (Journal of Law and Economics, 1960) ville Coase visa att ekonomiska modeller för att bli relevanta måste inkorporera positiva transaktionskostnader. Men i stället har diskussionerna nästan helt kommit att centreras kring det så kallade Coaseteoremet, vilket beskriver en värld utan transaktionskostnader.

Låt oss följa Coases exempel och föreställa oss att det föreligger en enkel situation där två ekonomiska aktörer är engagerade i två olika ekonomiska verksamheter, där den ene åsamkar den andre icke-kompenserade kostnader genom skadliga effekter på dennes produktion, negativa externa effekter. Antag till exempel att bonden Adam och boskapsuppfödaren Beda bedriver sina verksamheter på ägor som ligger intill varandra. Eftersom det inte finns något stängsel mellan ägorna, kan Bedas lösgående boskap förstöra Adams gröda. Ju större boskapshjorden är, desto större blir de totala skadorna på grödan.

Denna situation tolkas ofta som ett exempel på marknadssammanbrott, kännetecknat av att det föreligger en skillnad mellan privata och samhälleliga kostnader/intäkter.

Det traditionella sättet att lösa de problem som uppstår på grund av denna divergens är att låta den förfördelande parten betala (via en skatt) den förfördelade en summa som motsvarar de kostnader denne utsatts för. Eller så försöker man uppnå en optimal produktionsnivå genom att låta båda verksamheterna fortgå men organiserar om produktionen så att den äger rum inom ett företag som reglerar kostnaderna internt. Man brukar följaktligen tala om att de externa kostnaderna internaliseras.

Ett annat sätt att lösa problemen är att låta parterna förhandla om hur kostnaderna ska bäras. Detta är Coases lösning. Coase hävdar – förutsatt att prissystemet arbetar utan några kostnader – att fördelningen av rättigheter mellan Adam och Beda är utan betydelse för resursallokeringen.

Om Beda är skadeansvarig kommer hon i sina kostnadsberäkningar att inbegripa skadeersättningen och endast utöka sin hjord om det ökade produktionsvärdet överstiger de ytterligare kostnader som ökningen medför. Kanske sätter Beda upp ett stängsel. Eller så låter hon djuren gå fritt och betalar för den förstörda grödan. Vilket det blir beror på vad som blir billigast.

Det kan kanske tyckas som om Bedas skadeansvar skulle kunna utgöra ett incitament för Adam att odla mer på de intilliggande ägorna (för att skaffa sig en bättre förhandlingssituation), men enligt Coase är effekten på lång sikt snarare att Adam, genom att sluta ett avtal med Beda om att inte odla marken, odlar mindre. Hur detta avtal kommer att se ut beror självklart på vilken skicklighet och vilka förutsättningar att förhandla de båda aktörerna besitter. Oavsett detta sägs avtalet dock inte ha någon effekt på resursallokeringen.

Om i stället Adam är skadeansvarig, måste han försöka förmå Beda att inte utöka sin hjord och därigenom öka de skadliga effekterna. Även om Beda i samband med förhandlingar och slutande av avtal skulle ha ett incitament att utöka sin hjord för att få Adam att betala mer, skulle manövrer av det slaget inte påverka det långsiktiga jämviktsläget, som är ”detsamma oavsett om boskapsuppfödaren är ansvarig eller inte ansvarig för gröda som skadats av boskapen.” [Coase, Företaget, marknaden och lagarna, Ratio 1992 s 114]

Enligt Coase visar detta att det slutliga resultatet som maximerar produktionsvärdet ”är oberoende av rättighetstilldelningen, om prissystemet förutsätts fungera utan kostnader.” [A a s. 115]

Kärnan i marknadssammanbrottsproblem av den typ som Coase diskuterar ligger i den rättighetsstruktur som föreligger. De rättigheter som Coase laborerar med är dock i några avseenden av rätt märkligt slag. Att Adam skulle vara skadeståndsansvarig gentemot Beda är ju ekvivalent med att Adam också skulle behöva betala Beda för att hon inte ska parkera sin bil i hans garage. Denna typ av rättigheter ser vi dock sällan. Att Coase överhuvud taget laborerar med dem beror på att han är ointresserad av vem det är som orsakar externaliteten. Ett ointresse som långt ifrån delas av domstolarna. Man måste vidare vara uppmärksam på att Coase bara behandlar externa effekter i relationer mellan producenter. Om Adam får sina inkomster från majsförsäljning eller skadestånd – och om Beda får sina inkomster från boskapsförsäljning och/eller skadestånd – kan ju göra detsamma. Men om man i stället behandlar externa effekter i relationer mellan producenter och konsumenter blir situationen helt annorlunda p.g.a. förekomsten av inkomst- och förmögenhetseffekter. Anledningen är det faktum att preferensstrukturernas utseende antas vara olika för företag och individer på ett sätt som gör att antagandet om att rättighetsfördelningen är irrelevant för produktionsutfallet inte är giltigt. Ett exempel får illustrera denna centrala invändning mot Coases teorem.
Read more …

“Deficits” are economic necessities

29 August, 2013 at 09:47 | Posted in Economics | 4 Comments

wvickreyWe are not going to get out of the economic doldrums as long as we continue to be obsessed with the unreasoned ideological goal of reducing the so-called deficit. The “deficit” is not an economic sin but an economic necessity. […]

The administration is trying to bring the Titanic into harbor with a canoe paddle, while Congress is arguing over whether to use an oar or a paddle, and the Perot’s and budget balancers seem eager to lash the helm hard-a-starboard towards the iceberg. Some of the argument seems to be over which foot is the better one to shoot ourselves in. We have the resources in terms of idle manpower and idle plants to do so much, while the preachers of austerity, most of whom are in little danger of themselves suffering any serious consequences, keep telling us to tighten our belts and refrain from using the resources that lay idle all around us.

Alexander Hamilton once wrote “A national debt, if it be not excessive, would be for us a national treasure.” William Jennings Bryan used to declaim, “You shall not crucify mankind upon a cross of gold.” Today’s cross is not made of gold, but is concocted of a web of obfuscatory financial rectitude from which human values have been expunged.

William Vickrey

Fölster och Reforminstitutet har fel om friskolorna

28 August, 2013 at 14:08 | Posted in Education & School | Comments Off on Fölster och Reforminstitutet har fel om friskolorna

jbStefan Fölster och Reforminstitutet — huvudsakligen finansierat av Stiftelsen fritt näringsliv — har i en undersökning där man jämfört resultatutvecklingen i årskurs 9 i de kommuner som har respektive inte har friskolor, kommit fram till att skolmarknadskonkurrens förbättrar skolresultaten. Kommuner där friskolor inte förekommer har haft en sämre resultatutveckling än kommuner med friskolor.

Stämmer detta verkligen? Pontus Bäckström har berättigade dubier:

Den uppmärksamme läsaren av rapporten (och debattartikeln) reagerar nog över dessa resultat. Kan de stämma? Har det inte skett en väldigt olikartad utveckling i övriga förutsättningar mellan icke-friskolekommunerna och de andra?

För att skingra dessa tvivel beskrivs i rapporten vissa av de kontroller som har gjorts. Man beskriver till exempel hur man har tittat på förändringen i föräldrarnas utbildningsnivå och andelen elever med utländsk bakgrund och konstaterar att utvecklingen varit snarlik i icke-friskolekommunerna och friskolekommunerna.

Denna övning måste dock betraktas som ett spel för galleriet. Att kontrollera om förändringarna i medelvärden mellan åren varit desamma är inte samma sak som att införa kontrollvariabler i en statistisk analys. Ett exempel: Tittar man på betygsmedelvärdena i grundskolan ser man att betygssnittet i årskurs 9 i kommungruppen ”förortskommuner till storstäder” var högre läsåret 2011/12 (217p) än vad det var i kommungruppen ”glesbygdskommuner” (203p). Samtidigt visar Fölsters undersökning att föräldrarnas utbildningsnivå (som har högst förklaringsvärde) ökat likartat för de båda kommungrupperna. Fölsters slutsats är alltså att detta innebär att eleverna i förortskommunerna presterar bättre än de i glesbygdskommunerna och – enligt hans idé om det kausala sambandet – detta för att de har fler friskolor. Fölster tycks alltså mena att föräldrarnas utbildningsnivå kan bortses från i denna jämförelse.

Det Fölster dock missar är ju att föräldrarnas utbildningsnivå fortsatt är mycket högre i dessa förortskommuner (2,28) än i glesbygdskommunerna (2,13) (enligt SALSA-datat var dessa uppgifter är hämtade ifrån). Om föräldrarnas utbildningsnivå lades till som en kontrollvariabel i analysen skulle sannolikt friskoleeffekten minska alternativt försvinna helt.

Med detta sagt, vad borde Fölster och Reforminstitutet alltså ha gjort för att prestera en mer korrekt analys?

Ett sätt att angripa frågan är bedriva klassisk hypotesprövning …

Analysen visar att variablerna dels tillför mycket litet förklaringskraft till modellen, dels att de med nöd och näppe är signifikanta. Enskolevariabeln (dvs att kommunen bara har kommunal skola eller ej) förklarar endast 0,95 % av variationen och andel friskoleelever i kommunen förklarar endast 0,88 %, att jämföra med föräldrarnas utbildningsnivå som förklarar 20,6 %.

Vad som yttermera är intressant att notera utifrån analysen av dessa data är att effekten är negativ (!). Den skattade effekten enligt modellen, för en kommun som går från att endast ha kommunal skola till att ha friskolor (allt annat lika), är alltså en försämring om 1,7 procent. Även effekten av andelen friskoleelever av kommunens elever är negativ …

Den viktigaste slutsatsen är dock att Fölsters undersökning bör tas med några rejäla nypor salt; de kommuner som år 2012 endast hade kommunala grundskolor tycks inte alls ha presterat sämre än friskolekommunerna. Den positiva kausala effekten av konkurrens som Fölster uttalar sig om tycks inte finnas, åtminstone kan den inte beläggas i det data han använt. Om en effekt finns tycks den snarare vara något negativ

Fölsters och Reforminstitutets undersökning är ett uttryck för ett expanderande forskningsområde där forskare, utbildningsanordnare, politiker m.fl. försöka skaffa sig kunskaper om vilka konsekvenser friskolereformen haft.

Nu är det självklart inte helt lätt att göra en sådan bedömning med tanke på hur mångfacetterade och vittomfattande de mål är som satts upp för skolverksamheten i Sverige.

Ett vanligt mål som man fokuserat på är elevernas prestationer i form av uppnående av olika kunskapsnivåer. När man genomförde friskolereformen var ett av de ofta framförda argumenten att friskolorna skulle höja elevernas kunskapsnivåer, både i friskolorna (”den direkta effekten”) och – via konkurrenstrycket – i de kommunala skolorna (”den indirekta effekten”). De kvantitativa mått man använt för att göra dessa värderingar är genomgående betyg och/eller resultat på nationella prov.

Vid en första anblick kan det kanske förefalla trivialt att göra sådana undersökningar. Det är väl bara att – kan det tyckas – plocka fram data och genomföra nödiga statistiska tester och regressioner. Riktigt så enkelt är det nu inte. I själva verket är det väldigt svårt att få fram entydiga kausala svar på den här typen av frågor.

Ska man entydigt kunna visa att det föreligger effekter och att dessa är ett resultat av just friskolornas införande – och inget annat – måste man identifiera och därefter kontrollera för påverkan från alla ”störande bakgrundsvariabler” av typen föräldrars utbildning, socioekonomisk status, etnicitet, geografisk hemhörighet, religion m.m. – så att vi kan vara säkra på att det inte är skillnader i dessa variabler som är de i fundamental mening verkliga kausalt bakomliggande förklaringarna till eventuella genomsnittliga effektskillnader.

Det i särklass vanligaste undersökningsförfarandet är att man genomför en traditionell multipel regressionsanalys baserad på så kallade minstakvadrat (OLS) eller maximum likelihood (ML) skattningar av observationsdata, där man försöker ”konstanthålla” ett antal specificerade bakgrundsvariabler för att om möjligt kunna tolka regressionskoefficienterna i kausala termer. Vi vet att det föreligger risk för ett ”selektionsproblem” eftersom de elever som går på friskolor ofta skiljer sig från de som går på kommunala skolor vad avser flera viktiga bakgrundsvariabler, kan vi inte bara rakt av jämföra de två skolformerna kunskapsnivåer för att därur dra några säkra kausala slutsatser. Risken är överhängande att de eventuella skillnader vi finner och tror kan förklaras av skolformen, i själva verket helt eller delvis beror på skillnader i de bakomliggande variablerna (t.ex. bostadsområde, etnicitet, föräldrars utbildning, m.m.)

Ska man försöka sig på att sammanfatta de regressionsanalyser som genomförts är resultatet att de kausala effekter på elevers prestationer man tyckt sig kunna identifiera av friskolor genomgående är små (och ofta inte ens statistiskt signifikanta på gängse signifikansnivåer). Till detta kommer också att osäkerhet råder om man verkligen kunnat konstanthålla alla relevanta bakgrundsvariabler och att därför de skattningar som gjorts ofta i praktiken är behäftade med otestade antaganden och en icke-försumbar osäkerhet och ”bias” som gör det svårt att ge en någorlunda entydig värdering av forskningsresultatens vikt och relevans. Enkelt uttryckt skulle man kunna säga att många – kanske de flesta – av de effektstudier av detta slag som genomförts, inte lyckats skapa tillräckligt jämföra grupper, och att – eftersom detta strikt sett är absolut nödvändigt för att de statistiska analyser man de facto genomför ska kunna tolkas på det sätt man gör – värdet av analyserna därför är svårt att fastställa. Det innebär också – och här ska man även väga in möjligheten av att det kan föreligga bättre alternativa modellspecifikationer (speciellt vad gäller ”gruppkonstruktionerna” i de använda urvalen) – att de ”känslighetsanalyser” forskare på området regelmässigt genomför, inte heller ger någon säker vägledning om hur pass ”robusta” de gjorda regressionsskattningarna egentligen är. Vidare är det stor risk för att de latenta, bakomliggande, ej specificerade variabler som representerar karakteristika som ej är uppmätta (intelligens, attityd, motivation m.m.) är korrelerade med de oberoende variabler som ingår i regressionsekvationerna och därigenom leder till ett problem med endogenitet.

Den av Fölster och Reforminstitutet nu presenterade undersökningen ändrar inte på det faktum att det sammantaget sett verkar som om forskningen inte generellt kunnat belägga att införandet av friskolor lett till några större effektivitetsvinster eller påtagligt ökade kunskapsnivåer hos eleverna i stort. De uppmätta effekterna är små och beror till stor del på hur de använda modellerna specificeras och hur de ingående variablerna mäts och vilka av dem som ”konstanthålls”. Det går således inte heller att säkerställa att de effekter man tyckt sig kunna detektera vad gäller resultatförbättringar i friskolor skulle bero på friskolorna som sådana. Metodologiskt har det visat sig vara svårt att konstruera robusta och bra kvalitetsmått och mätinstrument som möjliggör en adekvat hantering av alla de olika faktorer – observerbara och icke-observerbara – som påverkar konkurrensen mellan skolformerna och ger upphov till eventuella skillnader i elevprestationer mellan skolformerna. Följden blir att de små effekter man (i vissa undersökningar) kunnat konstatera föreligga sällan är behäftade med någon högre grad av evidentiell ”warrant”. Mycket av forskningsresultaten baseras på både otestade och i grunden otestbara modellantaganden (t.ex. vad avser linearitet, homogenitet, additivitet, icke-förekomst av interaktionsrelationer, oberoende, bakgrundskontextuell neutralitet m.m.) Resultaten är genomgående av en tentativ karaktär och de slutsatser forskare, politiker och opinionsbildare kan dra av dem bör därför — vilket Fölster och Reforminstitutet uppenbarligen “glömt” — återspegla denna osäkerhet.

Why economics is not a science

28 August, 2013 at 11:25 | Posted in Economics | 4 Comments

It would be a real tragedy if the takeaway from recent events becomes that you should listen to impressive-looking guys with good tailors who stroke their chins and sound wise, and ignore the nerds; the nerds have been mostly right, while the Very Serious People have been wrong every step of the way.

images-16Yet obviously something is deeply wrong with economics. While economists using textbook macro models got things mostly and impressively right, many famous economists refused to use those models — in fact, they made it clear in discussion that they didn’t understand points that had been worked out generations ago. Moreover, it’s hard to find any economists who changed their minds when their predictions, say of sharply higher inflation, turned out wrong.

Nor is this a new thing. My take on the history of macro is that the notion of equilibrium business cycles had, by the standards of any normal science, definitively failed by any normal scientific standard by 1990 at the latest. The original idea that money had real effects because people were surprised by monetary shocks fell apart in the face of evidence of business cycle persistence; the real business cycle view that nominal shocks didn’t actually matter after all was refuted by decisive evidence … Yet there was no backing off on this approach. On the contrary, it actually increased its hold on the profession.

So, let’s grant that economics as practiced doesn’t look like a science. But that’s not because the subject is inherently unsuited to the scientific method. Sure, it’s highly imperfect — it’s a complex area, and our understanding is in its early stages. And sure, the economy itself changes over time, so that what was true 75 years ago may not be true today — although what really impresses you if you study macro, in particular, is the continuity, so that Bagehot and Wicksell and Irving Fisher and, of course, Keynes remain quite relevant today.

No, the problem lies not in the inherent unsuitability of economics for scientific thinking as in the sociology of the economics profession — a profession that somehow, at least in macro, has ceased rewarding research that produces successful predictions and rewards research that fits preconceptions and uses hard math instead.

Paul Krugman

In economics bad theory has driven out good

27 August, 2013 at 19:20 | Posted in Economics | Comments Off on In economics bad theory has driven out good

 

Theo Angelopoulos

27 August, 2013 at 17:57 | Posted in Varia | Comments Off on Theo Angelopoulos

From Theo Angelopoulos’s breathtakingly beautiful masterpiece The Weeping Meadow.
It breaks my heart every time I watch it.

The dream is alive

27 August, 2013 at 08:09 | Posted in Politics & Society | Comments Off on The dream is alive

On August 28, 1963, Martin Luther King held one of history’s greatest speeches, addressing the crowd of 250,000 that filled the National Mall for the March on Washington for Jobs and Freedom:

There are those who are asking the devotees of civil rights, “When will you be satisfied?” We can never be satisfied as long as the Negro is the victim of the unspeakable horrors of police brutality. We can never be satisfied as long as our bodies, heavy with the fatigue of travel, cannot gain lodging in the motels of the highways and the hotels of the cities. We cannot be satisfied as long as the negro’s basic mobility is from a smaller ghetto to a larger one. We can never be satisfied as long as our children are stripped of their self-hood and robbed of their dignity by signs stating: “For Whites Only.” We cannot be satisfied as long as a Negro in Mississippi cannot vote and a Negro in New York believes he has nothing for which to vote. No, no, we are not satisfied, and we will not be satisfied until “justice rolls down like waters, and righteousness like a mighty stream.”

Crash course i nationalekonomi …

26 August, 2013 at 15:27 | Posted in Varia | Comments Off on Crash course i nationalekonomi …

uppoch ner
[h/t Urban Nilsson]

Lördagmorgon i P2 – en lisa för själen

26 August, 2013 at 15:09 | Posted in Varia | Comments Off on Lördagmorgon i P2 – en lisa för själen

radioI dessa tider – när ljudrummet dränks i den kommersiella radions tyckmyckentrutade ordbajseri och fullständigt intetsägande melodifestivalskval – har man ju nästan gett upp.

Men det finns ljus i mörkret! I radions P2 går varje lördagmorgon ett vederkvickelsens och den seriösa musikens Lördagmorgon i P2.

Så passa på och börja dagen med en musikalisk örontvätt och rensa hörselgångarna från kvarvarande musikslagg. Här kan man till exempel lyssna på musik av Vassilis Tsabropoulos, Max Richter, Gustav Mahler och Emerson String Quartet. Att i tre timmar få lyssna till sådan musik ger sinnet ro och får hoppet att återvända. Tack public-service-radio!

Och tack Erik Schüldt. Att i tre timmar få lyssna till underbar musik och en programledare som har något att säga och inte bara låter foderluckan glappa hela tiden – vilken lisa för själen!

Socialdemokratiska valsänken

26 August, 2013 at 08:29 | Posted in Politics & Society | 1 Comment

Sedan Sträng lämnade har (S) förtvivlat letat efter … någon som när valrörelsen startar gör att alla känner att här gäller det att köra hårt om man ska kunna matcha högerns propagandamiljoner. Men man har än så länge inte lyckats.

OLYMPUS DIGITAL CAMERANu verkar (S) i stället satsa på motsatsen, låt mig kalla dem valsänken. För en stor del av väljarkåren lär Magdalena Andersson räknas hit, efter denna i bästa fall ogenomtänkta lilla programförklaring i högerns flaggskepp SvD. Följande har redan citerats flitigt annorstädes, men jag kan ändå inte låta bli:

“Vår vision är tydlig: Varenda ung kvinna eller man ska få känna känslan av en klocka som ringer vid 6-tiden när det fortfarande är becksvart ute. De ska hälla i sig en kopp kaffe och traska iväg mot en arbetsplats eller ett lärosäte som väntar på dem. Det kan kännas beskt – men vårt budskap till Sveriges ungdomar är enkelt: Vi står för en jobbigare morgon – men ett bättre liv.”

Haha! En sosse som inte fattat ett barr, utan köper högerns mantra om ”utanförskapet” med hull och hår. Arbetslägret Sverige i högerns version skiljer sig allt mindre från Ivan Denisovitjs vardag. Hur har nu Andersson hamnat i den här galna tunnan? Man misstänker genast medelklassbakgrund och fingret i luften för att göra politisk karriär, och tydligen blåste vinden in henne i vad som fordom var ett arbetarparti? …

Var hittar (S) dessa ”ekonomer”? Det slår mig jag hört något på radio, det var ett fruntimmer som spelade musik och pratade om sin ungdom i Uppsala… Hmm… Justdetja! Det var när jag körde bil på väg till sjukgymnasten, mödosamt letande i det gamla minnet och på nätet ger vid handen att det faktiskt var det av mig på annan plats i bloggen dissade ”Sommar” i P1. Alltså, Katrine Kielos, fredag 16 augusti. Ungefär 52 minuter in i programmet säger hon:

“Laboremus heter den anrika studentklubben vid Uppsala universitet som har fostrat allt från Kjell-Olof Feldt till Tomas Östros och Magdalena Andersson. Vid närmare eftertanke är kanske språnget mellan dessa tre gestalter inte gigantiskt, men ni förstår vad jag menar?”

Jag förstår. Tror jag. Laboremus är en gökunge som producerar högerekonomer rakt in i sossevärmen, vilka sedan mumlar obegripligheter om politisk ekonomi, mumlandet uppfattas som verklighetsfrånvänt av alla arbetare, vilka i stället röstar på högern för att få lägre skatt.

Dessvärre kommer borgarna att vinna valet 2014 … för att det gamla (S) inte har fattat att man inte kan vinna arbetarväljare med borgerlig ekonomisk retorik. Ett utmärkt sätt att på lång sikt råda bot på det senare missförhållandet verkar vara att lägga ner den uppenbarligen misslyckade ”plantskolan” Laboremus. Jag menar, vem önskar flera Feldt, Östros och Andersson? VILL sossarna INTE vinna val?

Vid genomläsning av ovanstående stycke inser jag att jag har ett problem när jag skriver ”gamla (S)”? Det finns numera några högermän som kallar sig ”Nya Moderaterna”, obegripligt vad förnyelsen består i annat än möjligen skickligare propaganda. Således är det dags för en omdöpning av (S), jag föreslår ”Nya Socialdemokraterna”. Därmed är det inte det gamla (S) som inte fattar, utan det nya (S). Ni vet, de där som inte vinner några val …

barnilsson

Post-keynesianskt seminarium i Stockholm

25 August, 2013 at 21:11 | Posted in Economics | Comments Off on Post-keynesianskt seminarium i Stockholm

Yours truly hade för en vecka sedan äran vara inbjuden att medverka vid ett post-keynesianskt seminarium i kungliga huvudstaden.

Mikael Feldbaum rapporterar i Dagens arena om den synnerligen lyckade begivenheten:

keynessthlmNär man som ledarskribent blir bjuden på ”post-keynesianskt seminarium” känns det rätt befriande. Det låter som att evenemanget kan bjuda på aningen mer radikala tongångar än de man hör i riksdagen.

Där driver Anders Borg oppositionen framför sig med ”ansvarslinjen” och ytterligare jobbskatteavdrag. Att avvika från arbetslinjen tycks vara att häda: Det är de arbetslösa som är problemet, inte efterfrågan.

Här borde man kunna möta rejält motstånd från någon som lutar sig mot John Maynard Keynes. ”Post-keynesian” låter dessutom som en ytterligt smal underetikett i det svenska ekonomskrået. Den bilden bekräftas av deltagarnas egen självbild: Några utspridda ”heterodoxa” forskare och doktorander på svenska och finska universitet som trotsar svenska ekonomers fokus på utbudspolitiken …

Den kritik mot Europas åtstramningspolitik som seminariedeltagarna på den fackliga tankesmedjan Katalys seminarium luftar är ändå otroligt mainstream i den internationella ekonomiska debatten. Den delas hela vägen från vänster till Financial Times-kolumner.

Men post-keynesianerna vill också lägga till ett perspektivskifte från utbudspolitik till efterfrågepolitik. De vill gå från ”naturlig” arbetslöshet, till full sysselsättning genom att staten skjuter till pengar till konsumtion och investeringar …

Dagens mainstream-nationalekonomi har beskrivits som en teori för vackert väder. Eftersom människor har rationella förväntningar om framtiden så strävar ekonomin efter långsiktiga jämvikter. Kriser och bubblor kan egentligen inte förklaras annat än som resultat av chocker som kommer utifrån och hotar det harmoniska systemet.

Men efter kriser som euro- och finanskrisen blir Keynes ofta på nytt aktuell. Post-keynesianismen kan beskrivas som en teori för dåligt väder. Grundpelaren är att människors agerande inte är helt rationellt, att ekonomin därmed inte nödvändigtvis har några långsiktiga harmoniska jämvikter och att staten därför har en roll i att korrigera ekonomins vågor.

Finans- och eurokrisen har definitivt gjort oss mer mottagliga för en sådan tolkning av samhällsekonomin.

“By their fruits shall ye know them”

25 August, 2013 at 19:48 | Posted in Economics, Politics & Society | Comments Off on “By their fruits shall ye know them”

austerity2

St. Augustine economy

25 August, 2013 at 10:25 | Posted in Economics | Comments Off on St. Augustine economy

In general, trying to do policy-relevant macroeconomics these past 5 years has felt like the curse of Sisyphus: you labor mightily to get some simple but essential point across, you think that maybe, finally, you’re getting through. Then along comes some famous economist or report from an influential agency that rolls the level of the discussion right back down to the bottom.

The central fact of macro policy in these times isn’t subtle:
 
082413krugman2-blog480
 
In normal times, the central bank can offset fiscal contraction by cutting interest rates. Since late 2008, however, the interest rates the Fed can control have been limited by the zero lower bound. This means that there is no offset to the negative effects of fiscal consolidation — which means that this is not the time to be doing such consolidation, which should wait until we emerge from this condition. We’re in a St. Augustine economy: Grant me chastity and continence, but not yet.

This isn’t complicated, and it isn’t new — it’s what we’ve been saying for almost 5 years. There are arguments one can make on the other side, although the two main ones — expansionary austerity and the supposed existence of a red line on debt at 90 percent of GDP — have imploded.

Paul Krugman

S beska budskap till ungdomen

24 August, 2013 at 22:28 | Posted in Politics & Society | Comments Off on S beska budskap till ungdomen

7733899552_564228b3f6_z”Vi socialdemokrater lovar att göra dina morgnar till ett helvete. I alla fall om du är ung och arbetslös.” Vallöftet formulerades i förrgår av partiets ekonomisk-politiska talesperson Magdalena Andersson i en debattartikel i Svenska Dagbladet. Om det nu inte bara var en presskommuniké från Pyongyang som faxats fel. ”Vår vision är tydlig: Varenda ung kvinna eller man ska få känna känslan av en klocka som ringer vid 6-tiden när det fortfarande är becksvart ute. De ska hälla i sig en kopp kaffe och traska iväg mot en arbetsplats eller ett lärosäte som väntar på dem. Det kan kännas beskt – men vårt budskap till Sveriges ungdomar är enkelt: Vi står för en jobbigare morgon – men ett bättre liv.” Det är möjligt att hon inte menar precis så. Men allt övrigt i artikeln förbleknar och glöms inför dessa pregnanta rader. Plussa på en pissig lön och en otrygg anställning så har vi den nya blandekonomin i ett nötskal. En auktoritär stat och en fri marknad. Det sämsta av två system. Gå upp i ottan för att stapla kartonger på Ica eller bli inringd i hemtjänsten för en spottstyver. Det är livet det. Denna vision ställer Andersson mot borgerlighetens skattesänkningar. Här går ”den tydliga skiljelinjen inför valet 2014”. Vad månde ungdomen välja?

Petter Larsson


Svar från Roland Paulsen – Uppsala Universitet:

Hej! Mitt namn är Magdalena Andersson. Jag tycker om att åka längdskidor, långfärdsskridskor och att paddla kanot. Båda mina föräldrar vara akademiker och jag är gift med en professor i nationalekonomi. Jag tjänar 99000 i månaden och det har jag förtjänat. Jag gick direkt från gymnasiet till Handels. Det var jättetufft. Undervisning började redan tio på morgonen. Det var till och med tänkt att jag skulle doktorera där, men jag orkade inte skriva klart den där avhandlingen. Så jag åkte en vårtermin till Harvard istället. Här är min politik: “Varenda ung kvinna eller man ska få känna [ångest-] känslan av en klocka som ringer vid 6-tiden när det fortfarande är becksvart ute. De ska hälla i sig en kopp kaffe [ta sin cipralex] och traska iväg mot en arbetsplats eller ett lärosäte [eller ett plusjobb] som väntar på dem. Det kan kännas beskt – men vårt budskap till Sveriges ungdomar är enkelt: Vi står för en jobbigare morgon – men ett bättre liv.”

(h/t Jan Milch)

Paul Krugman — at last — admits IS-LM is deficient !!!

24 August, 2013 at 11:14 | Posted in Economics | 4 Comments

In a new post on his blog Paul Krugman now admits that there has been misunderstandings on his defense of IS-LM, and that

much of the blame probably rests with yours truly: I probably haven’t been explicit enough about what I’m doing and why …

images-15But in this more complex world, where even the definition of the money supply becomes highly dubious, why even talk about an LM curve? Well, before 2008 most macroeconomists didn’t! They talked instead about interest rate targets, Taylor rules, and all that. Mike Woodford, who is probably our leading macroeconomist’s macroeconomist, has even made one of his signature modeling tricks the building of models in which there is (almost) no outside money. Sensible macroeconomists have known for a long time that quantity-theory type models, if they were ever useful, aren’t much use in the modern economy.

So why am I bringing IS-LM into the discussion? First of all, I should have been much clearer than I have been that the LM curve I’ve been drawing is for a given monetary base, not a given M1, M2, or whatever. I guess I haven’t said that clearly …

But still, why use any kind of “quantity-centric” approach at all? The answer is, to refute the bad guys! … So, if and when we finally emerge from this trap and reenter the world of significantly positive short-term interest rates, will I still be talking in terms of IS-LM? In normal times central bank monetary policy is conducted in terms of, and best thought of in terms of, the target interest rate … So the LM curve will go back into the drawer. But I will keep it there in case I need it again; it has come in very useful these past five years.

That’s good. At last Paul Krugman admits that IS-LM — if not from a tactical point of view, at least from a theoretical one — belongs in “the drawer”!

That’s really good because — simpliciter — there is no such thing as a Keynes-Hicks macroeconomic theory!

Nothing in the post-General Theory writings of Keynes suggests him considering Hicks’s IS-LM anywhere near a faithful rendering of his thought. In Keynes’s canonical statement of the essence of his theory in the 1937 QJE-article there is nothing to even suggest that Keynes would have thought the existence of a Keynes-Hicks-IS-LM-theory anything but pure nonsense. So of course there can’t be any “vindication for the whole enterprise of Keynes/Hicks macroeconomic theory” – because “Keynes/Hicks” never existed.

John Hicks, the man who invented IS-LM in his 1937 Econometrica review of Keynes’ General TheoryMr. Keynes and the ‘Classics’. A Suggested Interpretation – returned to it in an article in 1980 – IS-LM: an explanation – in Journal of Post Keynesian Economics. Self-critically he wrote that “the only way in which IS-LM analysis usefully survives — as anything more than a classroom gadget, to be superseded, later on, by something better – is in application to a particular kind of causal analysis, where the use of equilibrium methods, even a drastic use of equilibrium methods, is not inappropriate.” What Hicks acknowledges in 1980 is basically that his original review totally ignored the very core of Keynes’ theory – uncertainty (and doing this he actually turned the train of macroeconomics on the wrong tracks for decades).

Now that Krugman seems to be on the right track, I would suggest he goes on reading another economist who had a profound understanding of what Keynes really was up to:

The determination of investment is a four-stage process in The General Theory. Money and debts determine an “interest rate”; long-term expectations determine the yield – or expected cash flows – from capital assets and current investment (i.e., the capital stock); the yield and the interest rate enter into the determination of the price of capital assets; and investment is carried to the point where the supply price of investment output equals the capitalized value of the yield. The simple IS-LM framework violates the complexity of the investment-determning process as envisaged by Keynes …

minskys keynesbokThe Hicks-Hansen model, by making explicit the interdependence of the commodity and money markets in Keynes’s thought, is a more accurate representation of his views than the simple consumption-function models. Nevertheless, because it did not explicitly consider the significance of uncertainty in both portfolio decisions and investment behavior, and becasue it was an equilibrium rather than a process interpretation of the model, it was an unfair and naïve representation of Keynes’s subtle and sophisticated views …

The journey through various standard models that embody elements derived from The General Theory has led us to the position that such Keynesian models are either trivial (the consumption-function models), incomplete (the IS-LM models without a labor market), inconsistent (the IS-LM models with a labor market but no real-balance effect), or indistinguishable in their results from those of older quantity-theory models (the neoclassical synthesis).

It’s about time that neoclassical economists follow Krugman and now start to set the record straight and stop promoting something that the creator himself admits was a total failure. Why not study the real thing itself – General Theory – in full and without looking the other way when it comes to non-ergodicity and uncertainty?

Keynes for kids

23 August, 2013 at 13:36 | Posted in Economics | Comments Off on Keynes for kids

economix_p124_detail_700wide

At last something worth watching for our youngsters on the web – a website on Keynes for kids!   (h/t Naked Keynesianism)

On mathematics and economics

22 August, 2013 at 10:57 | Posted in Economics, Theory of Science & Methodology | 6 Comments

Neoclassical economic theory today is in the story-telling business whereby economic theorists create mathematical make-believe analogue models of the target system – usually conceived as the real economic system. This mathematical modeling activity is considered useful and essential. Since fully-fledged experiments on a societal scale as a rule are prohibitively expensive, ethically indefensible or unmanageable, economic theorists have to substitute experimenting with something else. To understand and explain relations between different entities in the real economy the predominant strategy is to build mathematical models and make things happen in these “analogue-economy models” rather than engineering things happening in real economies.

Formalistic deductive “Glasperlenspiel” can be very impressive and seductive. But in the realm of science it ought to be considered of little or no value to simply make claims about the model and lose sight of reality.

With his profound knowledge of mathematics, Keynes realized the limits of its applicability to the real world — and that it was certainly not enough for a relevant social science to prove things about thought up worlds:

But I am unfamiliar with the methods involved and it may be that my impression that nothing emerges at the end which has not been introduced expressly or tacitly at the beginning is quite wrong … It seems to me essential in an article of this sort to put in the fullest and most explicit manner at the beginning the assumptions which are made and the methods by which the price indexes are derived; and then to state at the end what substantially novel conclusions has been arrived at … I cannot persuade myself that this sort of treatment of economic theory has anything significant to contribute. I suspect it of being nothing better than a contraption proceeding from premises which are not stated with precision to conclusions which have no clear application … [This creates] a mass of symbolism which covers up all kinds of unstated special assumptions.

Keynes to Frisch 28 November 1935

Neoclassical economists often hold the view that criticisms of its one-sided, almost religious, insistence on mathematical-axiomatic-deductivist modeling as the only scientific activity worthy of pursuing in economics, are the conclusions of sadly misinformed and misguided people who dislike and do not understand much of it. This is really a gross misapprehension. To be careful and cautious is not the same as to dislike. And as any perusal of the works of people like for example John Maynard Keynes or Tony Lawson shows, the critique is put forward by respected authorities. I would argue, against “common knowledge”, that they do not misunderstand the crucial issues at stake. Quite the contrary. They know them all too well – and are not satisfied with the validity and philosophical underpinning of the assumptions made for applying its methods:

The fundamental problem of modern economics is that methods are repeatedly applied in conditions for which they are not appropriate … Specifically, modern academic economics is dominated by a mainstream tradition whose defining characteristic is an insistence that certain methods of mathematical modelling be more or less always employed in the analysis of economic phenomena, and are so in conditions for which they are not suitable.

tony-lawsonFundamental to my argument is an assessment that the application of mathematics involves more than merely the introduction of a formal language. Of relevance here is recognition that mathematical methods and techniques are essentially tools. And as with any other tools (pencils, hammers, drills, scissors), so the sorts of mathematical methods which economists wield (functional relations, forms of calculus, etc.) are useful under some sets of conditions and not others.

The specific conditions required for the sorts of mathematical methods that economists continually wield to be generally applicable, I have shown, are a ubiquity of (deterministic or stochastic) closed systems. A closed system is simply one in which an event regularity occurs. Notice that these closures are as much presupposed or required by the ‘newer’ approaches to mathematical economics, those often referred to as non-linear modelling, complexity modelling, agent-based modelling, model simulations, and so on (including those developed under the head of behavioural or neuro- economics), as they are by the more traditional forms of micro, macro and econometric modelling.

The most obvious scenario in which a prevalence of such closures would be expected is a world 1) populated by sets of atomistic individuals or entities (an atom here being an entity that exercises its own separate, independent, and invariable effect, whatever the context); where 2) the atoms of interest exist in relative isolation (so allowing the effects of the atoms of interest to be deducible/predictable by barring the effects of potentially interfering factors). Not surprisingly the latter two (ontological) presuppositions are easily shown to be implicit in almost all contemporary economic modelling contributions …

However, explicit, systemic and sustained (ontological) analysis of the nature of social reality reveals the social domain not to be everywhere composed of closed systems of sets of isolated atoms. Rather social reality is found to be an open, structured realm of emergent phenomena that, amongst other things, are processual (being constantly reproduced and transformed through the human practices on which they depend), highly internally related (meaning constituted though [and not merely linked by] their relations with each other – e.g., employer/employee or teacher/ student relations), value-laden and meaningful, amongst much else …

Clearly if social phenomena are highly internally related they do not each exist in isolation. And if they are processual in nature, being continually transformed through practice, they are not atomistic. So the emphasis on the sorts of mathematical modelling methods that economists employ necessarily entails the construction of economic narratives – including the sorts of axioms and assumptions made and hypotheses entertained – that, at best, are always but highly distorted accounts of the complex phenomena of the real open social system … It is thus not at all surprising that mainstream contributions are found continually to be so unrealistic and explanatorily limited.

Employing the term deductivism to denote the thesis that closed systems are essential to social scientific explanation (whether the event regularities, correlations, uniformities, laws, etc., are either a prior constructions or a posterior observations), I conclude that the fundamental source of the discipline’s numerous, widespread and long lived problems and failings is precisely the emphasis placed upon forms of mathematical deductivist reasoning.

Tony Lawson

Krugman vs. Galbraith on math and models

21 August, 2013 at 18:06 | Posted in Economics, Theory of Science & Methodology | 10 Comments

James K. Galbraith

Krugman’s main point is that he represents the “nerds” of economics, whereas I and the distinguished writer Robert Kuttner are “literati,” who would like the profession to be less mathematical than it is. Leaving Kuttner to speak for himself, this view also totally misrepresents not only my position but also Paul Krugman’s own professional one.

This may come as a surprise to outsiders, but Krugman is not a mathematical theorist (and I have heard him admit this, to a knowing audience). Krugman’s mathematics are not deep, and he has no interest in complicated manipulations of data. He owes his fame, instead, to an exceptional grace and lucidity of formal presentation. With these gifts, Paul has expanded the range of neoclassical economics in several notable directions, especially international trade theory. Krugman’s professional work is mathematically literate, of course. The point is that it is also literate, and, for many economists, that is its appeal.

My own work is mathematical when it needs to be …

So if the issues between Krugman and myself are neither hermeneutic nor mathematic, what are they? The actual issues are philosophical and theoretical.

Paul’s worldview rests on the belief that useful implications for important questions of public policy can be derived, essentially from first principles, with the help of a well-structured logic. Well-structured deduction from metaphysical first principles is the Krugman forte.

cartoon
I don’t accept that much of use can be learned about policy in this way. When the world deviates from the principles, as it usually does, the simple lessons go astray. This is not a complaint against math. It is a complaint against indiscriminate application of the deductive method, sometimes called the Ricardian vice, to problems of human action. Mine is an old gripe against much of what professional economists do; not against science but against scientism, against the pretense of science. To combat it, I spend my research time wrestling with real-world data, and I spend much of my writing time warring against the policy ideas of aggressive, ahistorical deductivists …

In the final analysis, Krugman’s argument is that there is a simple distinction between the “serious” economists–who agree with him–and the “critics,” who are, by definition, not serious. It is true, of course, that economic-policy discussions are magnets for cranks. But from this it does not follow, and is not in fact true, that all “serious” economists hold to some single position. It is even more absurd to suppose that one gains access to this wisdom by passing an exam in algebra. In this respect, Krugman’s argument is so shallow, so actually illogical (a fallacy of induction, in this case), that it is evidently aimed at rubes. I hope not many will be taken in.

Paul Krugman


images-14Economics is at least partly about quantities and their relationships; so you can’t make sense of it unless you are willing to do some arithmetic and even some algebra to make sure that the stories you tell hang together–and that they are consistent with the evidence. This doesn’t sound like much, but experience shows that there are many influential intellectuals who are prepared to make sweeping pronouncements on economics without doing the arithmetic …

Galbraith, like many critics of economics, seems to believe in the following syllogism:

1) Economists disagree about some important issues, and some economists with impeccable credentials say silly things.

2) Therefore, there is no need for a smart individual to brush up on economics–say by reading an undergraduate textbook–before making pronouncements on the subject.

Although Galbraith systematically exaggerates and misrepresents the actual disagreements, 1) is obviously true about economics–and about medicine, and physics, and law, and any other discipline you choose to name. Did you know that astronomers cannot agree on the age of the universe, and that the current best estimates suggest that the oldest stars are older than the universe in which they shine? So maybe Copernicus was wrong!

The point is that in each of these disciplines, we all understand that while there are major disagreements about some questions, there is also a large area on which the experts do agree, and in which their expertise is real …

Because of this attitude, most of the criticism economists face is not over issues where there is legitimate disagreement. Instead, the heavy majority of the challenges are simply wrong on the arithmetic. That is, the doctrines asserted either do not add up, can be shown to be flatly untrue using readily available data, or can be shown by simple calculations to involve effects much too small to bear the weight being placed on them …

Now we all make mistakes. But the peculiar thing here is that in each of these cases, the proponents imagine themselves to have achieved a higher level of understanding, to have transcended the narrowness of conventional economics. Somebody needs to point out to them and to their audiences that, on the contrary, they are simply misunderstanding basic arithmetic.

Post Keynesian Archive

(h/t Jan Milch)

Added (GMT 20:20): And, coincidentally, Krugman has a post on – yes, math – on his blog today, now — 17 years later — writing:

What is true is that all too many economists have lost sight of this purpose; they treat their models as The Truth, and/or judge each others’ work by how hard the math is. It sounds as if Smith was taught macro by people like that. And there are a lot of people in macro, some of them fairly prominent, who are what my old teacher Rudi Dornbusch used to call “fearful plumbers” — people who can push equations around, but have no sense of what they mean, and as a result say quite remarkably stupid things when confronted with real-world economic issues.

With age comes humility and wisdom …

Popular myths about inflation

20 August, 2013 at 20:53 | Posted in Economics | 1 Comment

We’re told that inflation is a necessary cost of improving the economy. And in fact, that’s exactly what monetarist macroeconomists (think of Mike Woodford, Miles Kimball, etc.) tell us that it is. We must accept higher inflation, they tell us, in order to also get better GDP growth. But given our ‘druthers, they tell us, we’d rather have very low inflation. No one wants to become like Zimbabwe, or the Weimar Republic, right??

I’m not so sure this is true, and I’ll explain why later. But first, let me dispel a couple of popular myths about inflation.

no-mythsPopular Inflation Myth 1: “Inflation means I can’t buy as much stuff.”

Wrong. Remember, inflation is an increase in the overall price level. But when the price of everything goes up, your wage should rise as well. Why? Because on average, we are all sellers of something. If you work in a tea shop and the price of tea goes up, your wage can be expected to go up as well, and so forth. Remember, every dollar that one person spends becomes the income of another person!

So when prices go up, wages should go up as well. Read this paper. The authors find that “higher prices lead to higher wage growth”.

Of course, wages are affected by other things besides inflation – for example, labor’s share of total income. So “price inflation” and “wage inflation” aren’t exactly the same. But they tend to be similar …

Economists have a term for how much you can buy with your wages. It’s called the “real wage”. Real wages are wages AFTER accounting for inflation. So to look at how much you can buy, don’t look at inflation, look at your real wage. Your real wage tells you your real cost of living; inflation does not.

To see that inflation doesn’t reduce your real wage, just think about Weimar Germany. Prices went up by a factor of one trillion. But people did not starve en masse as a result. Remember that guy with the wheelbarrow full of cash, going to buy bread? HOW DO YOU THINK HE GOT HIS HANDS ON A WHEELBARROW OF CASH IN THE FIRST PLACE? The answer: That was not his life’s savings. He did not sell the family farm. He had a wheelbarrow full of cash because as prices skyrocketed, wages skyrocketed too!

“But don’t employers take advantage of inflation to screw over workers and make them take wage cuts?”

Maybe. People don’t pay close attention to inflation when it’s low, and so a small amount of inflation can allow employers to cut real wages without people noticing. (Actually, some economists who want “wage flexibility” like a small amount of inflation for exactly this reason.)

But for larger amounts of inflation, no. When inflation gets big, people start noticing, and demanding higher wages …

Anyway, once more: Inflation does not make your real wage fall.

Noah Smith

Post-structuralist support hotline

20 August, 2013 at 20:29 | Posted in Varia | Comments Off on Post-structuralist support hotline

poststruc
 
[Tongue-in-cheek and h/t Jan Milch]

Keynes and Knight on uncertainty — what’s the difference?

19 August, 2013 at 14:04 | Posted in Economics | 2 Comments

davidsonA couple of months ago yours truly had an interesting discussion – on the Real-World Economics Review Blog – with Paul Davidson, founder and editor of the Journal of Post Keynesian Economics, on uncertainty and ergodicity. It all started with me commenting on Davidson’s article Is economics a science? Should economics be rigorous? :
 
LPS:

Davidson’s article is a nice piece – but ergodicity is a difficult concept that many students of economics have problems with understanding. To understand real world ”non-routine” decisions and unforeseeable changes in behaviour, ergodic probability distributions are of no avail. In a world full of genuine uncertainty – where real historical time rules the roost – the probabilities that ruled the past are not those that will rule the future.

Time is what prevents everything from happening at once. To simply assume that economic processes are ergodic and concentrate on ensemble averages – and a fortiori in any relevant sense timeless – is not a sensible way for dealing with the kind of genuine uncertainty that permeates open systems such as economies.

When you assume the economic processes to be ergodic, ensemble and time averages are identical. Let me give an example: Assume we have a market with an asset priced at 100 €. Then imagine the price first goes up by 50% and then later falls by 50%. The ensemble average for this asset would be 100 €- because we here envision two parallel universes (markets) where the asset-price falls in one universe (market) with 50% to 50 €, and in another universe (market) it goes up with 50% to 150 €, giving an average of 100 € ((150+50)/2). The time average for this asset would be 75 € – because we here envision one universe (market) where the asset-price first rises by 50% to 150 €, and then falls by 50% to 75 € (0.5*150).

From the ensemble perspective nothing really, on average, happens. From the time perspective lots of things really, on average, happen.

Assuming ergodicity there would have been no difference at all.

Just in case you think this is just an academic quibble without repercussion to our real lives, let me quote from an article of physicist and mathematician Ole Peters in the Santa Fe Institute Bulletin from 2009 – “On Time and Risk” – that makes it perfectly clear that the flaw in thinking about uncertainty in terms of “rational expectations” and ensemble averages has had real repercussions on the functioning of the financial system:

“In an investment context, the difference between ensemble averages and time averages is often small. It becomes important, however, when risks increase, when correlation hinders diversification, when leverage pumps up fluctuations, when money is made cheap, when capital requirements are relaxed. If reward structures—such as bonuses that reward gains but don’t punish losses, and also certain commission schemes—provide incentives for excessive risk, problems arise. This is especially true if the only limits to risk-taking derive from utility functions that express risk preference, instead of the objective argument of time irreversibility. In other words, using the ensemble average without sufficiently restrictive utility functions will lead to excessive risk-taking and eventual collapse. Sound familiar?”

PD:

Lars, if the stochastic process is ergodic, then for for an infinite realizations, the time and space (ensemble) averages will coincide. An ensemble a is samples drawn at a fixed point of time drawn from a universe of realizations For finite realizations, the time and space statistical averages tend to converge (with a probability of one) the more data one has.

Even in physics there are some processes that physicists recognize are governed by nonergodic stochastic processes. [ see A. M. Yaglom, An Introduction to Stationary Random Functions [1962, Prentice Hall]]

I do object to Ole Peters exposition quote where he talks about “when risks increase”. Nonergodic systems are not about increasing or decreasing risk in the sense of the probability distribution variances differing. It is about indicating that any probability distribution based on past data cannot be reliably used to indicate the probability distribution governing any future outcome. In other words even if (we could know) that the future probability distribution will have a smaller variance (“lower risks”) than the past calculated probability distribution, then the past distribution is not is not a reliable guide to future statistical means and other moments around the means.

LPS:

Paul, re nonergodic processes in physics I would even say that most processes definitely are nonergodic. Re Ole Peters I totally agree that what is important with the fact that real social and economic processes are nonergodic is the fact that uncertainty – not risk – rules the roost. That was something both Keynes and Knight basically said in their 1921 books. But I still think that Peters’ discussion is a good example of how thinking about uncertainty in terms of “rational expectations” and “ensemble averages” has had seriously bad repercussions on the financial system.

PD:

Lars, there is a difference between the uncertainty concept developed by Keynes and the one developed by Knight.

As I have pointed out, Keynes’s concept of uncertainty involves a nonergodic stochastic process . On the other hand, Knight’s uncertainty — like Taleb’s black swan — assumes an ergodic process. The difference is the for Knight (and Taleb) the uncertain outcome lies so far out in the tail of the unchanging (over time) probability distribution that it appears empirically to be [in Knight’s terminology] “unique”. In other words, like Taleb’s black swan, the uncertain outcome already exists in the probability distribution but is so rarely observed that it may take several lifetimes for one observation — making that observation “unique”.

In the latest edition of Taleb’s book , he was forced to concede that philosophically there is a difference between a nonergodic system and a black swan ergodic system –but then waves away the problem with the claim that the difference is irrelevent.

LPS:

Paul, on the whole, I think you’re absolutely right on this. Knight’s uncertainty concept has an epistemological founding and Keynes’s definitely an ontological founding. Of course this also has repercussions on the issue of ergodicity in a strict methodological and mathematical-statistical sense. I think Keynes’s view is the most warranted of the two.

BUT – from a “practical” point of view I have to agree with Taleb. Because if there is no reliable information on the future, whether you talk of epistemological or ontological uncertainty, you can’t calculate probabilities.

The most interesting and far-reaching difference between the epistemological and the ontological view is that if you subscribe to the former, knightian view – as Taleb and “black swan” theorists basically do – you open up for the mistaken belief that with better information and greater computer-power we somehow should always be able to calculate probabilities and describe the world as an ergodic universe. As both you and Keynes convincingly have argued, that is ontologically just not possible.

PD:

Lars, your last sentence says it all. If you believe it is an ergodic system and epistemology is the only problem, then you should urge more transparency , better data collection, hiring more “quants” on Wall Street to generate “better” risk management computer problems, etc — and above all keep the government out of regulating financial markets — since all the government can do is foul up the outcome that the ergodic process is ready to deliver.

Long live Stiglitz and the call for transparency to end asymmetric information — and permit all to know the epistemological solution for the ergodic process controlling the economy.

Or as Milton Friedman would say, those who make decisions “as if” they knew the ergodic stochastic process create an optimum market solution — while those who make mistakes in trying to figure out the ergodic process are like the dinosaurs, doomed to fail and die off — leaving only the survival of the fittest for a free market economy to prosper on. The proof is why all those 1% far cats CEO managers in the banking business receive such large salaries for their “correct” decisions involving financial assets.

Alternatively, if the financial and economic system is non ergodic then there is a positive role for government to regulate what decision makers can do so as to prevent them from mass destruction of themselves and other innocent bystanders — and also for government to take positive action when the herd behavior of decision makers are causing the economy to run off the cliff.

So this distinction between ergodic and nonergodic is essential if we are to build institutional structures that make running off the cliff almost impossible. — and for the government to be ready to take action when some innovative fool(s) discovers a way to get around institutional barriers and starts to run the economy off the cliff.

To Keynes the source of uncertainty was in the nature of the real – nonergodic – world. It had to do, not only – or primarily – with the epistemological fact of us not knowing the things that today are unknown, but rather with the much deeper and far-reaching ontological fact that there often is no firm basis on which we can form quantifiable probabilites and expectations.

Why we are better at forecasting drizzle than financial crises

18 August, 2013 at 16:08 | Posted in Economics, Statistics & Econometrics | 3 Comments

The analysis of probability originates in games of chance, in which the rules are sufficiently simple and well-defined that the game can be repeated in more or less identical form over and over again. If you toss a fair coin repeatedly, it will come up heads about 50 per cent of the time. If you can be bothered, you can verify that fact empirically. Perhaps more strikingly, the theory of probability tells you that if you repeatedly toss that coin 50 times you will get 23 or more heads about 67 per cent of the time, and you can verify that prediction empirically too.

It is a stretch, but perhaps not a very long stretch, to extend this analysis of frequency to single events, and to say that the probability that England will win the toss in the fifth Ashes cricket test against Australia is 50 per cent. And that the probability the home side will win the toss at least 23 times in a decade of five-test match series is 67 per cent. Tosses to start sporting contests are repeated at similar events, and theory and experience validate the probabilistic approach.

rain_1422245c

Perhaps one could stretch the approach further and apply it to the probability of rain. The Met Office might form a view of tomorrow’s weather. Records might show that it rains on 10 per cent of similar days. The difficulty is defining exactly what is meant by “a similar day”. “A typical April day in England” is a rather loose concept.

However, this is not, in fact, what weather forecasters do. Their analysis is based on elaborate computer models and they tweak the assumptions of these models to generate many different predictions. What they mean when they say the probability of rain is 10 per cent is that rain occurs in 10 per cent of these simulations. The validity of that prediction depends on two rather implausible assumptions; that the model correctly describes the physical world, and that the range of assumptions made by the modellers properly reflects the full range of possible assumptions.

Despite these difficulties – and popular derision comparable to that experienced by economic forecasters – weather forecasters do rather well …

In contrast, severe recessions, property bubbles and bank failures are relatively infrequent, and calibration by economists has come to mean tweaking models to better explain the past rather than revising them to better predict the future – a particularly dangerous methodology when there are many reasons to think that the underlying structure of the economy is in a state of constant flux.

The further one moves from mechanisms that are well understood and events that are frequently repeated, the less appropriate is the use of probabilistic language. What does it mean to say: “I am 90 per cent certain that the extinction of the dinosaurs was caused by an object hitting the earth at Yucatán?” Not, I think, that on 90 per cent of occasions on which the dinosaurs were wiped out, the cause was an asteroid landing in what is now Mexico. There is a difference – often elided – between a probability and a degree of confidence in a forecast. It is one reason why we are better at avoiding drizzle than financial crises.

John Kay

To me this wonderful little article shows how important it is in social sciences — and economics in particular — to incorporate Keynes’s far-reaching and incisive analysis of induction and evidential weight in his seminal A Treatise on Probability (1921).

treatprobAccording to Keynes we live in a world permeated by unmeasurable uncertainty – not quantifiable stochastic risk – which often forces us to make decisions based on anything but “rational expectations.” Keynes rather thinks that we base our expectations on the confidence or “weight” we put on different events and alternatives. To Keynes expectations are a question of weighing probabilities by “degrees of belief,” beliefs that often have preciously little to do with the kind of stochastic probabilistic calculations made by the rational agents as modeled by “modern” social sciences. And often we “simply do not know.”

How strange that social scientists and mainstream economists as a rule do not even touch upon these aspects of scientific methodology that seems to be so fundamental and important for anyone trying to understand how we learn and orient ourselves in an uncertain world. An educated guess on why this is a fact would be that Keynes concepts are not possible to squeeze into a single calculable numerical “probability.” In the quest for measurable quantities one puts a blind eye to qualities and looks the other way.

Ekonomi och matematik

18 August, 2013 at 10:36 | Posted in Economics | Comments Off on Ekonomi och matematik

Neoklassisk nationalekonomi har under de senaste femtio åren kommit att i allt högre grad innebära ett granskande av världen genom “matematikens järngaller”. Precis som Bertrand Russell har många ekonomer hoppats på att med tiden konstruera “en matematik för mänskligt beteende som är lika exakt som matematiken för maskiner” . För ekonomerna har detta ofta kommit att innebära att om ett fenomen inte låter sig passas in i gallret så avvisas det som falskt. Och tyvärr har trivialitet och irrelevans ofta blivit det pris de fått betala för formalism och deduktivism.

Fotolia_44095455_XSDe regler som gäller för manipulerandet av matematiska storheter behöver inte motsvaras av de regler och lagar som styr det verkliga systemet. Detta är säkert också en av orsakerna till att så många matematiska ekonomiska teorier varit utan framgång. Istället för att okritiskt anamma en matematisk representationsform borde man fråga sig vilka förutsättningar som de reala processerna och objekten måste uppfylla för att matematiska representationer av dem ska vara adekvata.

Att ekonomisk vetenskap är mer kvantitativ än andra samhällsvetenskaper beror till en viss del på att dess studieobjekt naturligt till stor del är kvantitativa (pengar, räkenskaper, löner, vinster, m m). Detta kan dock inte utgöra ett försvar för att driva matematiseringen in absurdum eller för att avstå från att fråga sig vad de matematiska modellerna och kvantitativa måtten är modeller för och mått av.

Att så mycket av dagens ekonomiska vetenskap — fortfarande — struntar i att söka orsaksrelationer och istället nöjer sig med att fastslå korrelationer och ömsesidiga samband beror till del på det matematiska språk man använder sig av. Matematik kan användas för att kalkylera och för logisk härledning. Men axiom och teorem förklarar per se inte ett fenomen i termer av orsak. Det matematiska språket räcker ofta inte till för våra förklaringsaspirationer.

En av de främsta orsakerna till att många ekonomiska fenomen aldrig fått någon förklaring kan vara att många i sig intressanta egenskaper hos ekonomin (processer, strukturer, etc) bara beaktas i den mån de låter sig reduceras till regelbundna händelser och matematiskt identifierbara mönster.

Matematik kan inte representera interna relationer och strukturer. De som utvecklar de ekonomiska matematiska modellerna har därför en tendens att avstå från förklaringar av vad det ekonomiska handlandet beror på och nöjer sig i stället med att kalkylera och beräkna effekterna av handlandet. Detta gör att de matematiska ekonomerna ofta förblir påfallande omedvetna om de samhälleliga relationer och strukturer som styr de variabler man laborerar med i sina modeller. Komplext handlande reduceras till en kombination av enkla handlingar, som i sin tur reduceras till responser på stimuli – som om stimuli och respons var oberoende av det kontextuella sammanhanget. Kunskap om kvalitativa förhållanden kastas bort för att man i stället ska kunna koncentrera sig på tillvarons kvantifierbara dimensioner. Resultatet blir allt för ofta att modeller och matematik får bli ett substitut för tänkande. Den franske 1800-talsdiplomaten Charles Talleyrand hävdade att människor fått talets gåva för att dölja sina tankar. Ibland kan man tyvärr få intrycket att ekonomernas matematiska modeller fyller samma funktion.

Matematiseringsvågen har gjort ekonomerna alltför fixerade vid sina formella, matematiska modeller. Ställda inför kritiken att de inte löser verkliga problem reagerar många av dagens matematiska ekonomer likt Saint-Exupérys Store Geograf som på den Lille Prinsens frågor svarar att han är för upptagen med sitt vetenskapliga arbete för att kunna säga något om verkligheten. Ställd inför den ekonomiska teorins uppenbart dåliga verklighetsförankring retirerar man till modellernas underbara värld. Istället för att konstruera teorier utifrån empiriska fakta överger man den verkliga världen och bevisar saker om tänkta världar. Istället för att acceptera att en lägre grad av säkerhet är oundviklig ägnar man sig åt axiomatiska och rationalistiska modellkonstruktioner som möjliggör säker kunskap. Om målet är kunskap om den verkliga världen, är värdet av dessa dock minst sagt oklart.

Hade nationalekonomerna varit lika exakta och matematiska när de väl använder sina modeller på verkligheten som när de bygger modellerna, hade det kanske inte varit så farligt. Men i stället är det oftast så att de är extremt oansvariga när de etablerar sambandet mellan teori och verklighet. De samband de menar sig kunna bevisa i sina ”tänkta” ekonomier används kritiklöst för att hävda saker om verkliga ekonomier. Problemet är alltså att ekonomerna sällan etablerar ett samband mellan sina teorier och verkligheten, och när de väl gör det sker det på ett felaktigt sätt.

De antaganden som nationalekonomerna utgår från i form av jämvikt, rationalitet och kalkylerbara risker är som jag visat i dålig överensstämmelse med verkligheten, där ojämvikt, irrationalitet och genuin osäkerhet är legio. Detta väljer dock många nationalekonomer att blunda för med hänvisning till Milton Friedmans tes att antagandenas realism är betydelselös så länge teorins förutsägelser är korrekta. Den ekonomiska teorins bristande överensstämmelse med verkligheten förnekas inte. En nobelpristagare i ekonomi – Robert Lucas – medger till exempel att teorin beskriver en “patenterat artificiell värld” med “robotimitationer av människor”. Andra förespråkare har framhållit att den självklart är overklig och till och med att detta skulle vara meningen med den.

Men när förutsägelserna sällan eller aldrig slår in, vad gör man då? Det naturliga vore kanske att se sig om efter andra, bättre teorier. Bygga nytt. Men nationalekonomerna drar i stället oftast åt skyddsbältet ännu hårdare om teorins kärna och reparerar. Man går in i redskapsboden – och stannar där inne. Där hänger man sig i världsfrånvändhet åt avancerade teknisk-matematiska analyser som inte tillför någon substantiellt ny kunskap om verklighetens ekonomi. Medan de ekonomiska problemen ute i verkligheten växer, leker man glatt vidare med den matematiska verktygslådans senaste inneprylar.

Matematiseringen skapar också en ny obegriplighet. Den snäva inriktningen på att bygga abstrakta matematiska modeller och teorier, där precision, elegans och förfining får gå före relevans, leder till att man saknar överblick och att nationalekonomin idag mer bidrar till den tillämpade matematikens utveckling än till samhällsvetenskapernas. I stället för att göra matematiken till ett självändamål hävdar kritiker att de som tvingas leva i den av de möjliga världar som kallas den verkliga nog hade varit mer betjänta av att man försökt bidra till lösandet av verkliga problem. Kanske var det detta den amerikanske ekonomen Kenneth Boulding avsåg när han kallade den moderna nationalekonomin för “en icke-existerande världs himmelska mekanik”.

En outsiders väg

18 August, 2013 at 10:15 | Posted in Varia | Comments Off on En outsiders väg

 

QE doesn’t work at ZLB – Koo explains why

16 August, 2013 at 20:31 | Posted in Economics | 1 Comment

 

Latvia and Sweden — the ultimate Keynes killers?

16 August, 2013 at 09:46 | Posted in Economics | 1 Comment

Some people seem to consider the case of Latvia the ultimate Keynes killer, showing that austerity policies suffice to get you out of deep recessions and not having to fall back on Keynesian stimulus.

Hmm …

What are the facts? Latvia today has a real GDP that still is far below its pre-crisis peak. Its unemployment rate is close to 15 %. Indeed an impressive success …

Still not convinced of the futility of austerity measures as enhancers of growth and prosperity? Perhaps Paul Krugman may be of assistance:

It really is kind of pathetic to see European leaders claiming vindication after one whole quarter of positive growth, at the thrilling annual rate of 1.2 percent. Just to say the obvious: when you’ve suffered a huge hit to output and employment, you’re supposed to have a long period of fast growth to make up the lost ground. Otherwise you’re making the definition of success way too easy.

To illustrate my point, here’s a comparison I’ve been looking at. It’s between Latvia — which is the closest thing we have to an actual austerity success story, since it has been growing fast, even if it’s still far below pre-crisis levels — and another country, which isn’t Latvia. Here’s the chart:

081513krugman1-blog480

Two big success stories, right? But who is Not Latvia?

Well, it’s the United States from 1929 to 1935 …

But how about Sweden then? Haven’t we over and over again been told that it successfully applied fiscal austerity measures in the mid-1990s, measures that led to a strong economic recovery? According to Swedish economist Lennart Erixon the facts are really quite different:

There was indeed a recovery of investment and consumption in the mid-90s. Nevertheless, Sweden’ s recovery was not investment- or consumption-led (in comparison with other OECD countries, Sweden’ s consumption and investment was modest), and the recovery in investment did not primarily reflect the reductions in real interest rates. Instead, the recovery was due to ICT -induced investments and export-induced investment which increased because of high external demand and profits as well as the depreciation of the SEK.

Erixon explained that there were several short-run effects of Sweden’s tight fiscal measures in the mid-90s. On the one hand, the restrictive fiscal policy caused the disappearance of the public budget deficit by 1998, within four years. On the other hand, the restrictive fiscal and monetary policy did have contractionary effects and caused a delay in recovery. Sweden experienced lower GDP growth on average than other OECD countries in 1996-7 and unemployment continued to increase until late 1997, reaching 10% – despite favourable circumstances such as the depreciation of the SEK, a large increase in productivity, an international recovery and a high Solowian growth after the crisis.

However, the determinants of long-term GDP growth between the years of 1994 and 2007 were not a result of the fiscal restraint in the mid-90s. Sweden’s recovery and growth was export-led and aided by the depreciations of the SEK in 1993 and again in 1996-2001. The aforementioned technology-led ICT boom was the reason for high Swedish GDP growth from 1995-2000 and contributed to the “productivity miracle” experienced between 1995-2007, during which period Sweden placed third among OECD countries in terms of productivity growth. China’s increased share in Swedish exports led to an increase in the prices of Swedish products and contributed to the recovery of traditional Swedish industries, such as raw materials and investment goods, particularly in the 2000s.

Erixon concluded that the real effects of restrictive fiscal policy were contractionary in the short run (1994-1998) and that fiscal austerity was not a major factor behind high Swedish GDP growth in the long run (1994-2007) but instead that export- led growth played a key role.


Conclusion — austerity policies is total horseshit.

Next Page »

Blog at WordPress.com.
Entries and comments feeds.