Snart kommer änglarna att landa

20 Dec, 2019 at 00:34 | Posted in Varia | Comments Off on Snart kommer änglarna att landa

 

O Holy Night

19 Dec, 2019 at 23:00 | Posted in Varia | Comments Off on O Holy Night

 

This live performance remains unequalled to this day.
Jussi Björling — the greatest of them all.

Neoliberalism

19 Dec, 2019 at 18:24 | Posted in Economics | 1 Comment

 

RBC models — willfully silly obscurantism

19 Dec, 2019 at 11:14 | Posted in Economics | 3 Comments

ECm4uwXU0AA9wr1 As a result of the three waves of new classical economics, the field of macroeconomics became increasingly rigorous and increasingly tied to the tools of microeconomics. The real business cycle models were specific, dynamic examples of Arrow–Debreu general equilibrium theory. Indeed, this was one of their main selling points. Over time, proponents of this work have backed away from the assumption that the business cycle is driven by real as opposed to monetary forces, and they have begun to stress the methodological contributions of this work. Today, many macroeconomists coming from the new classical tradition are happy to concede to the Keynesian assumption of sticky prices, as long as this assumption is imbedded in a suitably rigorous model in which economic actors are rational and forward-looking.

Greg Mankiw

Well, rigour may be fine, but how about reality?

Real business cycle theory — RBC — is one of the theories that has put macroeconomics on a path of intellectual regress for three decades now. And although there are many kinds of useless ‘post-real’ economics held in high regard within mainstream economics establishment today, few — if any — are less deserved than real business cycle theory.

The future is not reducible to a known set of prospects. It is not like sitting at the roulette table and calculating what the future outcomes of spinning the wheel will be. So instead of — as RBC economists do — assuming calibration and rational expectations to be right, one ought to confront the hypothesis with the available evidence. It is not enough to construct models. Anyone can construct models. To be seriously interesting, models have to come with an aim. They have to have an intended use. If the intention of calibration and rational expectations is to help us explain real economies, it has to be evaluated from that perspective. A model or hypothesis without specific applicability is not really deserving of our interest.

Without strong evidence, all kinds of absurd claims and nonsense may pretend to be science. We have to demand more of a justification than rather watered-down versions of ‘anything goes’ when it comes to rationality postulates. If one proposes rational expectations one also has to support its underlying assumptions. None is given by RBC economists, which makes it rather puzzling how rational expectations has become the standard modelling assumption made in much of modern macroeconomics. Perhaps the reason is that economists often mistake mathematical beauty for truth.

In the hands of Lucas, Prescott and Sargent, rational expectations have been transformed from an – in-principle – testable hypothesis to an irrefutable proposition. Believing in a set of irrefutable propositions may be comfortable – like religious convictions or ideological dogmas – but it is not science.

So where does this all lead us? What is the trouble ahead for economics? Putting a sticky-price DSGE lipstick on the RBC pig sure won’t do. Neither will — as Paul Romer noticed  — just looking the other way and pretend it’s raining:

The trouble is not so much that macroeconomists say things that are inconsistent with the facts. The real trouble is that other economists do not care that the macroeconomists do not care about the facts. An indifferent tolerance of obvious error is even more corrosive to science than committed advocacy of error.

May It Be

18 Dec, 2019 at 17:24 | Posted in Varia | 1 Comment

 

The sickening market-driven society

18 Dec, 2019 at 12:52 | Posted in Economics | 13 Comments

The market was meant to emancipate us, offering autonomy and freedom. Instead it has delivered atomisation and loneliness.

neoliThe workplace has been overwhelmed by a mad, Kafkaesque infrastructure of assessments, monitoring, measuring, surveillance and audits, centrally directed and rigidly planned, whose purpose is to reward the winners and punish the losers. It destroys autonomy, enterprise, innovation and loyalty, and breeds frustration, envy and fear …

We find ourselves technically free but powerless. Whether in work or out of work, we must live by the same rules or perish. All the major political parties promote them, so we have no political power either. In the name of autonomy and freedom we have ended up controlled by a grinding, faceless bureaucracy …

The infantilising diktats of the workplace destroy our self-respect. Those who end up at the bottom of the pile are assailed by guilt and shame. The self-attribution fallacy cuts both ways: just as we congratulate ourselves for our success, we blame ourselves for our failure, even if we have little to do with it.

So, if you don’t fit in, if you feel at odds with the world, if your identity is troubled and frayed, if you feel lost and ashamed – it could be because you have retained the human values you were supposed to have discarded. You are a deviant. Be proud.

George Monbiot

Nobelpriset i ekonomi är nykolonialt!

17 Dec, 2019 at 21:57 | Posted in Economics | 1 Comment

Unknown4I år har priset tilldelats tre forskare verksamma vid universitet i USA, Esther Duflo, Abhijit Banerjee och Michael Kremer som har fått priset för sin forskningsmetod som kallas ”randomiserade kontrollförsök” …

Men i det internationella vetenskapssamhället har det lagts fram en hel del kritik mot denna metod och årets pristagare. Exempelvis har man pekat på de etiska aspekterna när man experimenterar med människor, metodens tillförlitlighet och ifall det alls går att faktiskt genomföra de resultat som metoden kommer fram till på nationell nivå. För egen del instämmer jag med det mesta i denna kritik, men vill lägga till ett problem som inte uppmärksammats i den svenska rapporteringen om priset. Det handlar om att det finns en stark nykolonial tendens i forskningen …

Forskarna inom detta område beskriver ofta fattigdomsproblemet inte som en effekt av bristande politisk jämlikhet utan som orsakat av att fattiga människor inte förmår inse sitt eget bästa och agera rationellt. De fattiga är för kortsiktiga och faller för allehanda irrationella frestelser vad gäller sina konsumtionsval. Ett problem i denna forskning är att de som lottas att tillhöra ”behandlingsgruppen” i experimentet erhåller någon förmån eller subsidie som de som tillhör kontrollgruppen blir utan. I vissa fall kan det handla om livsviktiga saker som medicin, vaccinationer eller tillgång till rent vatten. Vad gäller synen på om detta är etiskt försvarbart eller rättvist anför två av pristagarna att fattiga människor i u-länder ”ofta är vana vid sådan godtycklighet” att de inte tycker det är problem att bli bortlottade. Det vill säga, man är så van att bli orättvist behandlad att man accepterar sin otur med lottningen i dessa experiment.

En kan tyckas något patroniserande, för att inte säga nykolonial, inställning till de människor man forskar om.

Bo Rothstein / GP

Som yours truly själv har påpekat vid flera tillfällen — se t ex här — finns det även stora vetenskapliga brister i den forskning som bedrivs av randomseringsförespråkare inom modern samhällsvetenskap.

En sådan påtaglig brist i kontrafaktiska randomiseringsdesigner är att de bara ger oss svar på hur ‘behandlingsgrupper’ i genomsnitt skiljer sig från ‘kontrollgrupper’. Låt mig ge ett exempel för att belysa hur begränsande detta faktum kan vara:

Ibland hävdas det bland skoldebattörer och politiker att friskolor skulle vara bättre än kommunala skolor. De sägs leda till bättre resultat. För att ta reda på om det verkligen förhåller sig så väljs slumpmässigt ett antal högstadieelever ut som får skriva ett prov. Resultatet skulle då kunna bli: Provresultat = 20 + 5*T, där T=1 om eleven går i friskola, och T=0 om eleven går i kommunal skola. Detta skulle innebära att man får bekräftat antagandet — friskoleelever har i genomsnitt 5 poäng högre resultat än elever på kommunala skolor. Nu är ju politiker (förhoppningsvis) inte dummare än att de är medvetna om att detta statistiska resultat inte kan tolkas i kausala termer eftersom elever som går på friskolor typiskt inte har samma bakgrund (socio-ekonomiskt, utbildningsmässigt, kulturellt etc) som de som går på kommunala skolor (relationen skolform-resultat är ‘confounded’ via ‘selection bias’). För att om möjligt få ett bättre mått på skolformens kausala effekter väljer politiker föreslå att man via lottning — ett klassikt exempel på randomiseringsdesign vid ‘naturliga experiment’ — gör det möjligt för 1000 högstadieelever att bli antagna till en friskola. ‘Vinstchansen’ är 10%, så 100 elever får denna möjlighet. Av dessa antar 20 erbjudandet att gå i friskola. Av de 900 lotterideltagare som inte ‘vinner’ väljer 100 att gå i friskola. Lotteriet uppfattas ofta av skolforskare som en ’instrumentalvariabel’ och när man så genomför analysen visar sig resultatet bli: Provresultat = 20 + 2*T. Detta tolkas standardmässigt som att man nu har fått ett kausalt mått på hur mycket bättre provresultat högstadieelever i genomsnitt skulle få om de istället för att gå på kommunala skolor skulle välja att gå på friskolor. Men stämmer det? Nej! Om inte alla skolelever har exakt samma provresultat (vilket väl får anses vara ett väl långsökt ‘homogenitetsantagande’) så gäller den angivna genomsnittliga kausala effekten bara de elever som väljer att gå på friskola om de ’vinner’ i lotteriet, men som annars inte skulle välja att gå på en friskola (på statistikjargong kallar vi dessa ’compliers’). Att denna grupp elever skulle vara speciellt intressant i det här exemplet är svårt att se med tanke på att den genomsnittliga kausala effekten skattad med hjälp av instrumentalvariabeln inte säger någonting alls om effekten för majoriteten (de 100 av 120 som väljer en friskola utan att ha ‘vunnit’ i lotteriet) av de som väljer att gå på en friskola.

Slutsats: forskare måste vara mycket mer försiktiga med att tolka ‘genomsnittsskattningar’ som kausala. Verkligheten uppvisar en hög grad av heterogenitet. Och då säger oss ‘genomsnittsparametrar’ i regel nästintill inget alls!

Att randomisera betyder idealt att vi uppnår ortogonalitet (oberoende) i våra modeller. Men det innebär inte att vi i verkliga experiment när vi randomiserar uppnår detta ideal. Den ‘balans’ som randomiseringen idealt ska resultera i går inte att ta för given när idealet omsättas i verklighet. Här måste man argumentera och kontrollera att ’tilldelningsmekanismen’ verkligen är stokastisk och att ‘balans’ verkligen uppnåtts!

Även om vi accepterar begränsningen i att bara kunna säga något om genomsnittliga kausala effekter (‘average treatment effects’) föreligger ett annat teoretiskt problem. Ett idealt randomiserat experiment förutsätter att man först väljer (‘selection’) ett antal personer från en slumpmässigt vald population och sedan delar in (‘assignment’) dessa personer slumpmässigt i en ‘behandlingsgrupp’ respektive ‘kontrollgrupp’. Givet att man lyckas genomföra både ‘selection’ och ‘assignment’ slumpmässigt kan man visa att förväntningsvärdet av utfallsskillnaderna mellan de båda grupperna är den genomsnittliga kausala effekten i populationen. Kruxet är bara att de experiment som genomförs nästan aldrig bygger på att deltagare i experiment är valda ur en slumpmässig population! I de flesta fall startas experiment för att det i en given population (exempelvis skolelever eller arbetssökande i landet X) föreligger ett problem av något slag som man vill åtgärda. Ett idealt randomiserat experiment förutsätter att både ‘selection’ och ‘ assignment’ är randomiserade — vilket innebär att i princip inga av de empiriska resultat som randomiseringsföreträdare idag  så ivrigt prisar håller i strikt matematisk-statistisk mening. Att det bara talas om randomisering i ‘assignment’fasen är knappast någon tillfällighet. När det gäller ‘som om’ randomisering i ‘naturliga experiment’ tillkommer dessutom det trista — men ofrånkomliga — faktum att det alltid kan föreligga beroende mellan de undersökta variablerna och icke-observerbara faktorer i feltermen, något som aldrig går att testa!

Ett annat påtagligt och stort problem är att forskare som använder sig av de här på randomisering grundade forskningsstrategierna genomgående för att nå ‘exakta’ och ‘precisa’ resultat ställer upp problemformuleringar som inte alls är de vi verkligen skulle vilja få svar på. Designen blir huvudsaken och bara man får mer eller mindre snillrika experiment på plats tror man sig kunna dra långtgående slutsatser om både kausalitet och att kunna generalisera experimentutfallen till större populationer. Tyvärr innebär detta oftast att den här typen av forskning får en negativ förskjutning bort från intressanta och viktiga problem till att istället prioritera metodval. Design och forskningsplanering är viktigt, men forskningens trovärdighet handlar ändå i grund och botten om kunna ge svar på relevanta frågor vi som både medborgare och forskare vill få svar på.

Peace on earth

17 Dec, 2019 at 21:14 | Posted in Varia | 1 Comment

 

Still, after more than 40 years, the greatest Christmas duet ever recorded.

Oíche Chiúin

17 Dec, 2019 at 17:18 | Posted in Varia | 2 Comments

 

Microfoundations and economic policy choices

17 Dec, 2019 at 14:08 | Posted in Economics | Comments Off on Microfoundations and economic policy choices

41I1CkwyXjLSince there will generally be many micro foundations consistent with some given aggregate pattern, empirical support for an aggregate hypothesis does not constitute empirical support for any particular micro foundation … Lucas himself points out that short-term macroeconomic forecasting models work perfectly well without choice-theoretic foundations: “But if one wants to know how behaviour is likely to change under some change in policy, it is necessary to model the way people make choices” (Snowdon and Vane 2005, interview with Robert Lucas). The question, of course, is why on earth would one insist on deriving policy implications from foundations that deliberately misrepresent actual behavior?

Yes, indeed, why would one?

Defenders of microfoundations and its rational expectations equipped representative agent’s intertemporal optimization often argue as if sticking with simple representative agent macroeconomic models doesn’t impart a bias to the analysis. Yours truly unequivocally reject that unsubstantiated view.

These defenders often also maintain that there are no methodologically coherent alternatives to microfoundations modelling. That allegation is, of course, difficult to evaluate, substantially hinging on how coherence is defined. But one thing I do know, is that the kind of microfoundationalist macroeconomics that New Classical economists and ‘New Keynesian’ economists are pursuing are not methodologically coherent according to the standard coherence definition (see e. g. here). And that ought to be rather embarrassing for those ilks of macroeconomists to whom axiomatics and deductivity is the hallmark of science tout court.

The fact that Lucas introduced rational expectations as a consistency axiom is not really an argument to why we should accept it as an acceptable assumption in a theory or model purporting to explain real macroeconomic processes (see e. g. here). And although virtually any macroeconomic empirical claim is contestable, so is any claim in micro (see e. g. here).

Using formal mathematical modelling, mainstream economists sure can guarantee that the conclusions hold given the assumptions. However, the validity we get in abstract model-worlds does not warrantly transfer to real-world economies. Validity may be good, but it isn’t enough. From a realist perspective, both relevance and soundness are sine qua non.

broken-linkIn their search for validity, rigour and precision, mainstream macro modellers of various ilks construct microfounded DSGE models that standardly assume rational expectations, Walrasian market clearing, unique equilibria, time invariance, linear separability and homogeneity of both inputs/outputs and technology, infinitely lived intertemporally optimizing representative household/ consumer/producer agents with homothetic and identical preferences, etc., etc. At the same time, the models standardly ignore complexity, diversity, uncertainty, coordination problems, non-market clearing prices, real aggregation problems, emergence, expectations formation, etc., etc.

The predominant strategy in mainstream macroeconomics today is to build models and make things happen in these ‘analogue-economy models.’ But although macro-econometrics may have supplied economists with rigorous replicas of real economies, if the goal of theory is to be able to make accurate forecasts or explain what happens in real economies, this ability to — ad nauseam — construct toy models, does not give much leverage.

‘Rigorous’ and ‘precise’ New Classical models — and that goes for the ‘New Keynesian’ variety too — cannot be considered anything else than unsubstantiated conjectures as long as they aren’t supported by evidence from outside the theory or model. To my knowledge no in any way decisive empirical evidence has been presented.

And — applying a ‘Lucas critique’ on New Classical and ‘New Keynesian’ models, it is obvious that they too fail.

Changing ‘policy rules’ cannot just be presumed not to influence investment and consumption behaviour and a fortiori technology, thereby contradicting the invariance assumption. Technology and tastes cannot live up to the status of an economy’s deep and structurally stable Holy Grail. They too are part and parcel of an ever-changing and open economy. Lucas hope of being able to model the economy as ‘a FORTRAN program’ and ‘gain some confidence that the component parts of the program are in some sense reliable prior to running it’ therefore seems – from an ontological point of view – totally misdirected. The failure in the attempt to anchor the analysis in the alleged stable deep parameters ‘tastes’ and ‘technology’ shows that if you neglect ontological considerations pertaining to the target system, ultimately reality gets its revenge when at last questions of bridging and exportation of model exercises are laid on the table.

keynes-right-and-wrong

Mainstream economists are proud of having an ever-growing smorgasbord of models to cherry-pick from (as long as, of course, the models do not question the standard modelling strategy) when performing their analyses. The ‘rigorous’ and ‘precise’ deductions made in these closed models, however, are not in any way matched by a similar stringency or precision when it comes to what ought to be the most important stage of any research — making statements and explaining things in real economies. Although almost every mainstream economist holds the view that thought-experimental modelling has to be followed by confronting the models with reality — which is what they indirectly want to predict/explain/understand using their models — they all of a sudden become exceedingly vague and imprecise. It is as if all the intellectual force has been invested in the modelling stage and nothing is left for what really matters — what exactly do these models teach us about real economies.

No matter how precise and rigorous the analysis, and no matter how hard one tries to cast the argument in modern mathematical form, they do not push economic science forwards one single millimetre if they do not stand the acid test of relevance to the target. No matter how clear, precise, rigorous or certain the inferences delivered inside these models are, they do not per se say anything about real-world economies.

Proving things ‘rigorously’ in mathematical models is at most a starting point for doing an interesting and relevant economic analysis. Forgetting to supply export warrants to the real world makes the analysis an empty exercise in formalism without real scientific value.

Friskoleeländet — socialdemokratins största svek någonsin

15 Dec, 2019 at 17:17 | Posted in Education & School | 1 Comment

skolstartAtt vi har skolor som Vetenskapsskolan och att skolor som Thorén Innovation School kan fortsätta sin verksamhet trots massiv kritik från Skolinspektionen är inte att förundras över. Det är ett resultat av att det ses som en rättighet snarare än ett privilegium att driva skolor och att beröva någon en rättighet är ingen enkel juridisk process. Eftersom detta synsätt förefaller djupt förankrat så lär den politiska indignationen över olämpliga huvudmän fortsätta att tävla med den politiska oviljan att göra något åt problemet.

Jonas Vlachos

I Sverige år 2019 låter vi friskolekoncerner med undermålig verksamhet få plocka ut skyhöga vinster — vinster som den svenska staten gladeligen låter dessa koncerner ta av vår skattefinansierade skolpeng. Dessa smarta välfärdsplundrare har överlag en högre lönsamhet än näringslivet i sin helhet, men när man väl plundrat färdigt lämnar man över problemen och eleverna till den förkättrade offentliga sektorn.

Många är med rätta upprörda och de som är kritiska till privatisering av vård och skola har haft gyllene tillfällen att tydligt och klart tala om att man nu vill se till att undanröja möjligheterna för vinstdrivande bolag att verka inom vård, omsorg och skola.

Men så har inte skett.

Istället har det kommit en jämn ström av krav på ökad kontroll, tuffare granskning och inspektioner. När nu privatiseringsvåtdrömmen visar sig vara en mardröm så tror man att just det som man ville bli av med — regelverk och ‘byråkratisk’ tillsyn och kontroll — skulle vara lösningen.

skolpengEtt flertal undersökningar har på senare år  visat att det system vi har i Sverige med vinstdrivande skolor leder till att våra skolor blir allt mindre likvärdiga — och att detta i sin tur bidrar till allt sämre resultat. Ska vi råda bot på detta måste vi ha ett skolsystem som inte bygger på ett marknadsmässigt konkurrenstänk där skolor istället för att utbilda främst ägnar sig åt att ragga elever och skolpeng, utan drivs som icke-vinstdrivna verksamheter med kvalitet och ett klart och tydligt samhällsuppdrag och elevernas bästa för ögonen.

Vi vet idag att friskolor driver på olika former av etnisk och social segregation, påfallande ofta har låg lärartäthet och i grund och botten sviker resurssvaga elever. Att dessa verksamheter ska premieras med att få plocka ut vinster på våra skattepengar är djupt stötande.

I ett samhälle präglat av jämlikhet, solidaritet och demokrati borde det vara självklart att skattefinansierade skolor inte ska få drivas med vinst, segregation eller religiös indoktrinering som främsta affärsidé!

Många som är verksamma inom skolvärlden eller vårdsektorn har haft svårt att förstå socialdemokratins inställning till privatiseringar och vinstuttag i välfärdssektorn. Av någon outgrundlig anledning har ledande socialdemokrater under många år pläderat för att vinster ska vara tillåtna i skolor och vårdföretag. Ofta har argumentet varit att driftsformen inte har någon betydelse. Så är inte fallet. Driftsform och att tillåta vinst i välfärden har visst betydelse. Och den är negativ.

Historiens dom ska falla hård på ansvariga politiker — och inte minst på socialdemokratins Göran Persson, Kjell-Olof Feldt och alla andra som i deras fotspår glatt traskat patrull — som hänsynslöst och med berått mod låtit offra den en gång så stolta svenska traditionen av att försöka bygga en jämlik skola för alla!

Till skillnad från i alla andra länder i världen har den svenska socialdemokratins ledning gjort det möjligt för privata företag att göra vinst på offentligt finansierad undervisning. Och när borgerliga regeringar ytterligare stimulerat privatiseringsvågen har socialdemokraterna bara tigit och varit passiva. Och detta trots att det hela tiden funnits ett starkt folkligt motstånd  mot att släppa in vinstsyftande privata företag i välfärdssektorn.

Socialdemokratin har idag har historiskt låga väljarsiffror. Mot den här bakgrunden får detta föga att förvånas över. När man för en politik som främst slår mot den grupp av människor man påstår sig värna om, är det inte så konstigt att väljarna flyr.

Att socialdemokratin fortsätter bidra till skolans urholkning med sitt stöd för friskolor och deras vinstuttag är så klart inte den enda anledningen. Men säkert en av de viktigare. Ett tydligare självmål inom politiken är svårt att hitta. Att Löfvenregeringen i början på året lovade att man inte ska verka för vinstbegränsning inom skola och omvård fullbordar bara detta det största sveket någonsin mot de egna väljarna.

Zürich — das große Schweigen

15 Dec, 2019 at 11:50 | Posted in Varia | Comments Off on Zürich — das große Schweigen

zurichSelbst sprachlich steht man in Zürich auf slim fit. Das Vokabular ist reduziert und höchstens mit ein paar Anglizismen gestreckt. Geschichten wird man keine hören. Weil sie niemand erzählen kann. Es wird zwar geredet, aber ohne Pointe, ohne doppelten Boden, ohne Dramaturgie: nüchterner Informationsaustausch. Alles andere ist für die Zürcher nur dekadenter Firlefanz, manchmal sogar das Sprechen selbst. Also wird gern und häufig einfach geschwiegen. Man begreift schnell, dass dieses Schweigen nichts mit Reflexion oder gar Selbstzweifeln zu tun hat. Es ist vielmehr die Hauptkommunikationsform. Mehr noch: Es ist die Grundlage für das Funktionieren der perfekten Attrappe, der Kitt, der alles zusammenhält. Die Freundschaften, den Staat, die Unternehmen.

Solmaz Khorsand / Die Zeit

Wie du immer Recht behältst …

15 Dec, 2019 at 10:36 | Posted in Varia | Comments Off on Wie du immer Recht behältst …

 

The question no one dares to ask …

14 Dec, 2019 at 16:24 | Posted in Economics | Comments Off on The question no one dares to ask …


[h/t Danne Mikula]

Can governments ever run out of money?

14 Dec, 2019 at 15:26 | Posted in Economics | 57 Comments

Whether it’s more nurses, frozen tax promises, free broadband internet or more social housing in the UK; or tax cuts and green energy investments in America, public spending is set to surge. This sudden abandonment of fiscal rectitude comes amid the rise in prominence of a way of thinking about money, spending and the economy – Modern Monetary Theory (MMT).

MMT_twitter

According to its key architect, US businessman Warren Mosler, it is based on a simple idea – that countries that issue their own currencies can never run out of money in the same way a business or person can. This is important to understand because it means when someone says the government can’t do something for want of money, that’s simply not applicable, says Mr Mosler. A government can no more run out of money than a football stadium can run out of goals scored …

MMTers say they do believe in being fiscally responsible, and that critics misunderstand. The story starts with any government’s desire to fund public services, which it does through taxation. Citizens need money to pay that tax, and they work to get it, Mr Mosler says …

The tax-and-spend orthodoxy embraced by most governments should be rethought. What’s actually going on is tax liabilities come first, then spending, and then payment of taxes, which paints guiding economic principles such as the debt and deficit in entirely different lights.

Howard Mustoe / BBC

In modern times legal currencies are based on fiat. Currencies no longer have intrinsic value (as gold and silver). What gives them value is basically the simple fact that you have to pay your taxes with them. That also enables governments to run a kind of monopoly business where it never can run out of money. A fortiori, spending becomes the prime mover and taxing and borrowing is degraded to following acts. If we have a depression, the solution, then, is not austerity. It is spending. Budget deficits are not a major problem since fiat money means that governments can always make more of them.​

In the mainstream economist’s world, we don’t need fiscal policy other than when interest rates hit their lower bound (ZLB). In normal times monetary policy suffices. The central banks simply adjust the interest rate to achieve full employment without inflation. If governments in that situation take on larger budget deficits, these tend to crowd out private spending and the interest rates get higher.

What mainstream economists have in mind when they argue this way, is nothing but a version of Say’s law, basically saying that savings have to equal investments and that if the state increases investments, then private investments have to come down (‘crowding out’). As an accounting identity, there is, of course, nothing to say about the law, but as such, it is also totally uninteresting from an economic point of view. What happens when ex-ante savings and investments differ, is that we basically get output adjustments. GDP changes and so makes saving and investments equal ex-post. And this, nota bene, says nothing at all about the success or failure of fiscal policies!

It is true that MMT rejects the traditional Phillips curve inflation-unemployment trade-off and has a less positive evaluation of traditional policy measures to reach full employment. Instead of a general increase in aggregate demand, it usually prefers more ‘structural’ and directed demand measures with less risk of producing increased inflation. At full employment deficit spendings will often be inflationary, but that is not what should decide the fiscal position of the government. The size of public debt and deficits is not — as already Abba Lerner argued with his ‘functional finance’ theory in the 1940s — a policy objective. The size of public debt and deficits are what they are when we try to fulfil our basic economic objectives — full employment and price stability.

That governments can spend whatever amount of money they want is a fact. That does not mean that MMT says they ought to — that’s something our politicians have to decide. No MMTer denies that too much of government spendings can be inflationary. What is questioned is that government deficits necessarily is inflationary.

« Previous PageNext Page »

Blog at WordPress.com.
Entries and Comments feeds.