Carl B. Hamilton och andra euro-pellejönsar har haft fel — från början till slut

31 August, 2013 at 17:27 | Posted in Economics, Politics & Society | 8 Comments

För tio år sedan fick yours truly utstå inte så lite spott och spe från ekonomkollegor runt om i landet därför att han — i likhet med personer som Nils Lundgren och Sören Wibe — vägrade att blunda för fakta och inte sätta sin tillit till alla fina modellbaserade framtidsprognoser som etablissemangsekonomer och tyckmyckentrutade tankekedjefundamentalister spottade ur sig i parti och minut och som alla visade hur fördelaktigt det skulle bli för Sverige om vi bara röstade för EMU och anammade euron.

CarlBHamiltonMen fakta sparkar. Alla fakta visar med eftertryck att Syll, Lundgren, Wibe et consortes hade rätt och pellejönsarna fel.

Enligt ny statistik från EU är nu arbetslösheten i eurozonen rekordhög — 12 procent och en ungdomsarbetslöshet på 24 procent.

Det här är tyvärr inget nytt. Månad för månad har vi under de fyra senaste åren via medierna kunnat se hur konflikterna och problemen med EMU tydliggörs. I land efter land utspelas nu tragedier inför våra ögon därför att EMU-tvångströjan bara kommer i en storlek och uppenbarligen inte passar alla. Nationer och deras ekonomier är i nästintill fritt fall. Precis som i flera andra euroländer klarar man inte – med de handlingsrestriktioner som den monetära gemenskapen sätter – att på ett adekvat sätt ta sig ur den sociala och ekonomiska kris man hamnat i.

Förvisso är deras problem inte bara – eller huvudsakligen – en effekt av EMU-medlemskapet. Självklart har dessa EMU-länder många självförvållade problem. Kritiken handlar om att dessa problem delvis emanerar ur – och förvärras av – EMU-medlemskapets autonomibegränsningar. Ett medlemskap som inte underlättar problemlösandet, eftersom deflationspolitik och frånvaro av möjlighet att bedriva egen valuta- och penningpolitik gör det näst intill omöjligt att få fart på efterfråga och export.

Istället för att fundera över om inte nödhjälp och massdemonstrationer borde vara en tankeställare, hänger sig en del politiker och ekonomer åt en makaber uppvisning i konsten att vara både blinda och döva för det stålbadsliknande test som EMU genomgår.

Hela argumentationen visar med eftertryck att EMU inte bara är ett ekonomiskt projekt, utan i minst lika stor utsträckning ett politiskt. Det som nyliberalismen inte klarade av på 1980-och 1990-talen ska nu EMU åstadkomma. Men vill vi verkligen avhända oss ekonomisk-politisk autonomi och tvingas sänka löner och sociala skyddsnät så fort det börjar knaka i ekonomins fogar? Är ökade löneklyftor och en federal överstat verkligen det stoff våra drömmar är gjorda av?

I stället för äreräddning av EMU med hänvisning till ekonomiska modeller – som till stor del bygger på diskutabla vetenskapsteoretiska och metodologiska antaganden – borde man se sig om i verklighetens euroland.

Som sagt – fakta sparkar. De senaste årens ekonomiska utveckling visar att valutaunionen knappast leder till någon ekonomisk nettofördel. Om vi jämför Sverige och euroländerna kan Sverige uppvisa bättre siffror på nästan alla centrala ekonomiska områden. Om vi tittar på tillväxt, inflation och sysselsättning utgör euron helt enkelt inget argument för att ge upp vår ekonomisk-politiska självständighet. Vår rätt att själva bestämma över hur vi på bästa sätt skall kunna möta en oviss framtid och kunna föra en ekonomisk politik som motsvarar våra behov – finns det ingen anledning att sälja ut för en gemensam valuta som så tydligt visat sig vara ett i grunden feltänkt och gigantiskt misslyckande.

don-quijoteDen mycket prekära utveckling som vi idag ser i euroland efter euroland visar på den hämsko som EMU utgör när kristyngda ekonomier ska försöka hitta en väg ut ur krisen. Förmågan att ta sig ur finanskrisens efterdyningar blir nästintill obefintlig. Att inte fullt ut ha möjlighet att bedriva en egen ekonomisk politik skapar ett hårt tryck på statsbudgeten och bäddar för de missnöjesyttringar som vi ser rada upp sig i land efter land.

Historien borde förskräcka. Den här sortens förkeynesiansk deflationspolitik provades under 1920- och 1930-talen och var antagligen den främsta enskilda orsaken till depressionen. Ekonomierna tog sig inte ur moraset förrän dåtidens dårskap – guldmyntfoten – kastades på historiens gravhög.

Så nu väntar vi bara på att vår egen Don Quijote – folkpartiets ekonomiske talesman Carl Bastiat Hamilton – och andra euro-pellejönsar med osviklig tajming åter igen ska föra fram krav på att Sverige omedelbart går med i EMU …

Advertisements

On the difficulty of generalizing from sample to population (wonkish)

31 August, 2013 at 10:24 | Posted in Statistics & Econometrics, Theory of Science & Methodology | Comments Off on On the difficulty of generalizing from sample to population (wonkish)

Last week statistician Andrew Gelman had an interesting blogpost up on what inference in science really means:

gelmanI like Don Rubin’s take on this, which is that if you want to go from association to causation, state very clearly what the assumptions are for this step to work. The clear statement of these assumptions can be helpful in moving forward …

Another way to say this is that all inference is about generalizing from sample to population, to predicting the outcomes of hypothetical interventions on new cases. You can’t escape the leap of generalization. Even a perfectly clean randomized experiment is typically of interest only to the extent that it generalizes to new people not included in the original study.

I agree — but that’s also why we so often fail (even when having the best intentions) when it comes to making generalizations in social sciences.

What strikes me again and again when taking part of the results of randomized experiments is that they really are very similar to theoretical models. They all have the same basic problem — they are built on rather artificial conditions and have difficulties with the “trade-off” between internal and external validity. The more artificial conditions, the more internal validity, but also less external validity. The more we rig experiments/models to avoid the “confounding factors”, the less the conditions are reminiscent of the real “target system”. The nodal issue is basically about how scientists using different isolation strategies in different “nomological machines” attempt to learn about causal relationships. I doubt the generalizability of the (randomized or not) experiment strategy because the probability is high that causal mechanisms are different in different contexts and that lack of homogeneity/stability/invariance don’t give us warranted export licenses to the “real” societies.

If we see experiments as theory tests or models that ultimately aspire to say something about the real “target system”, then the problem of external validity is central.

Assume that you have examined how the work performance of Chinese workers A is affected by B (“treatment”). How can we extrapolate/generalize to new samples outside the original population (e.g. to the US)? How do we know that any replication attempt “succeeds”? How do we know when these replicated experimental results can be said to justify inferences made in samples from the original population? If, for example, P(A|B) is the conditional density function for the original sample, and we are interested in doing a extrapolative prediction of E [P(A|B)], how can we know that the new sample’s density function is identical with the original? Unless we can give some really good argument for this being the case, inferences built on P(A|B) is not really saying anything on that of the target system’s P'(A|B).

As I see it this is the heart of the matter. External validity/extrapolation/generalization is founded on the assumption that we could make inferences based on P(A|B) that is exportable to other populations for which P'(A|B) applies. Sure, if one can convincingly show that P and P’are similar enough, the problems are perhaps surmountable. But arbitrarily just introducing functional specification restrictions of the type invariance/stability /homogeneity, is, at least for a scientific realist far from satisfactory. And often it is — unfortunately — exactly this that I see when I take part of experiments in social sciences.

By this I do not mean to say that empirical methods per se are so problematic that they can never be used. On the contrary, I am basically – though not without reservations – in favour of the increased use of experiments within e. g. economics. Not least as an alternative to completely barren “bridge-less” axiomatic-deductive theory models. My criticism is more about aspiration levels and what we believe that we can achieve with our mediational epistemological tools and methods in the social sciences.

Many ‘experimentalists’ claim that it is easy to replicate experiments under different conditions and therefore a fortiori easy to test the robustness of experimental results. But is it really that easy? If in the example given above, we run a test and find that our predictions were not correct – what can we conclude? The B “works” in China but not in the US? Or that B “works” in a backward agrarian society, but not in a post-modern service society? That B “worked” in the field study conducted in year 2008 but not in year 2012? Population selection is almost never simple. Had the problem of external validity only been about inference from sample to population, this would be no critical problem. But the really interesting inferences are those we try to make from specific labs/experiments/fields to specific real world situations/institutions/structures that we are interested in understanding or (causally) to explain. And then the population problem is more difficult to tackle.

Evidence-based theories and policies are highly valued nowadays. Randomization is supposed to best control for bias from unknown confounders. The received opinion — including Rubin and Gelman — is that evidence based on randomized experiments therefore is the best.

More and more economists have also lately come to advocate randomization as the principal method for ensuring being able to make valid causal inferences. Especially when it comes to questions of causality, randomization is nowadays considered some kind of “gold standard”. Everything has to be evidence-based, and the evidence has to come from randomized experiments.

But just as econometrics, randomization is basically a deductive method. Given  the assumptions (such as manipulability, transitivity, Reichenbach probability principles, separability, additivity, linearity etc)  these methods deliver deductive inferences. The problem, of course, is that we will never completely know when the assumptions are right. [And although randomization may contribute to controlling for confounding, it does not guarantee it, since genuine ramdomness presupposes infinite experimentation and we know all real experimentation is finite. And even if randomization may help to establish average causal effects, it says nothing of individual effects unless homogeneity is added to the list of assumptions.] Real target systems are seldom epistemically isomorphic to our axiomatic-deductive models/systems, and even if they were, we still have to argue for the external validity of  the conclusions reached from within these epistemically convenient models/systems. Causal evidence generated by randomization procedures may be valid in “closed” models, but what we usually are interested in, is causal evidence in the real target system we happen to live in.

When does a conclusion established in population X hold for target population Y? Only under  very restrictive conditions!

Ideally controlled experiments (still the benchmark even for natural and quasi experiments) tell us with certainty what causes what effects — but only given the right “closures”. Making appropriate extrapolations from (ideal, accidental, natural or quasi) experiments to different settings, populations or target systems, is not easy. “It works there” is no evidence for “it will work here”. Causes deduced in an experimental setting still have to show that they come with an export-warrant to the target population/system. The causal background assumptions made have to be justified, and without licenses to export, the value of  “rigorous” and “precise” methods is despairingly small.

Many advocates of randomization want  to have deductively automated answers to  fundamental causal questions. But to apply “thin” methods we have to have “thick” background knowledge of  what’s going on in the real world, and not in (ideally controlled) experiments. Conclusions  can only be as certain as their premises — and that also goes for methods based on randomized experiments.

So I agree with Gelman that “all inference is about generalizing from sample to population.” But I don’t think randomized experiments — ideal or not — take us very far on that road. Randomized experiments in social sciences are far from being the “gold standard” they often are depicted as.

Bemused logic

30 August, 2013 at 19:35 | Posted in Varia | Comments Off on Bemused logic

tumblr_mo6xfn0p7v1qzsnxyo1_1280

Snillen spekulerar

30 August, 2013 at 16:08 | Posted in Economics | Comments Off on Snillen spekulerar

snillen350
Robert Nyberg — som så ofta — mitt i prick!   [h/t Jan Milch]

Coaseteoremet

30 August, 2013 at 11:16 | Posted in Economics | 1 Comment

coase2

I den etablerade ekonomiska teorin tog man länge institutioner för givna. I takt med att de institutionella antagandenas långtgående konsekvenser blivit allt svårare att blunda för har ekonomer på senare tid i ökad utsträckning försökt inkorporera institutionerna i sina modeller. Detta förnyade intresse att bredda den ekonomiska teorin till att också omfatta ekonomiska och politiska institutioner har kommit att centreras kring analysen av äganderätter och transaktionskostnader. Ronald Coases arbeten har här spelat en helt avgörande roll och hans forskning har givit viktiga impulser till inte bara välfärdsekonomi, utan också områden som rättsvetenskap, rättsekonomi och finansiell ekonomi. Den alternativa lösning på de externa effekternas problematik som det s k coaseteoremet utgör kommer att beskrivas nedan. Därefter diskuteras teoretiska och praktiska problem med dess tillämpning vid analys av offentlig verksamhet.

I sin nu klassiska artikel “The problem of social cost”  (Journal of Law and Economics, 1960) ville Coase visa att ekonomiska modeller för att bli relevanta måste inkorporera positiva transaktionskostnader. Men i stället har diskussionerna nästan helt kommit att centreras kring det så kallade Coaseteoremet, vilket beskriver en värld utan transaktionskostnader.

Låt oss följa Coases exempel och föreställa oss att det föreligger en enkel situation där två ekonomiska aktörer är engagerade i två olika ekonomiska verksamheter, där den ene åsamkar den andre icke-kompenserade kostnader genom skadliga effekter på dennes produktion, negativa externa effekter. Antag till exempel att bonden Adam och boskapsuppfödaren Beda bedriver sina verksamheter på ägor som ligger intill varandra. Eftersom det inte finns något stängsel mellan ägorna, kan Bedas lösgående boskap förstöra Adams gröda. Ju större boskapshjorden är, desto större blir de totala skadorna på grödan.

Denna situation tolkas ofta som ett exempel på marknadssammanbrott, kännetecknat av att det föreligger en skillnad mellan privata och samhälleliga kostnader/intäkter.

Det traditionella sättet att lösa de problem som uppstår på grund av denna divergens är att låta den förfördelande parten betala (via en skatt) den förfördelade en summa som motsvarar de kostnader denne utsatts för. Eller så försöker man uppnå en optimal produktionsnivå genom att låta båda verksamheterna fortgå men organiserar om produktionen så att den äger rum inom ett företag som reglerar kostnaderna internt. Man brukar följaktligen tala om att de externa kostnaderna internaliseras.

Ett annat sätt att lösa problemen är att låta parterna förhandla om hur kostnaderna ska bäras. Detta är Coases lösning. Coase hävdar – förutsatt att prissystemet arbetar utan några kostnader – att fördelningen av rättigheter mellan Adam och Beda är utan betydelse för resursallokeringen.

Om Beda är skadeansvarig kommer hon i sina kostnadsberäkningar att inbegripa skadeersättningen och endast utöka sin hjord om det ökade produktionsvärdet överstiger de ytterligare kostnader som ökningen medför. Kanske sätter Beda upp ett stängsel. Eller så låter hon djuren gå fritt och betalar för den förstörda grödan. Vilket det blir beror på vad som blir billigast.

Det kan kanske tyckas som om Bedas skadeansvar skulle kunna utgöra ett incitament för Adam att odla mer på de intilliggande ägorna (för att skaffa sig en bättre förhandlingssituation), men enligt Coase är effekten på lång sikt snarare att Adam, genom att sluta ett avtal med Beda om att inte odla marken, odlar mindre. Hur detta avtal kommer att se ut beror självklart på vilken skicklighet och vilka förutsättningar att förhandla de båda aktörerna besitter. Oavsett detta sägs avtalet dock inte ha någon effekt på resursallokeringen.

Om i stället Adam är skadeansvarig, måste han försöka förmå Beda att inte utöka sin hjord och därigenom öka de skadliga effekterna. Även om Beda i samband med förhandlingar och slutande av avtal skulle ha ett incitament att utöka sin hjord för att få Adam att betala mer, skulle manövrer av det slaget inte påverka det långsiktiga jämviktsläget, som är ”detsamma oavsett om boskapsuppfödaren är ansvarig eller inte ansvarig för gröda som skadats av boskapen.” [Coase, Företaget, marknaden och lagarna, Ratio 1992 s 114]

Enligt Coase visar detta att det slutliga resultatet som maximerar produktionsvärdet ”är oberoende av rättighetstilldelningen, om prissystemet förutsätts fungera utan kostnader.” [A a s. 115]

Kärnan i marknadssammanbrottsproblem av den typ som Coase diskuterar ligger i den rättighetsstruktur som föreligger. De rättigheter som Coase laborerar med är dock i några avseenden av rätt märkligt slag. Att Adam skulle vara skadeståndsansvarig gentemot Beda är ju ekvivalent med att Adam också skulle behöva betala Beda för att hon inte ska parkera sin bil i hans garage. Denna typ av rättigheter ser vi dock sällan. Att Coase överhuvud taget laborerar med dem beror på att han är ointresserad av vem det är som orsakar externaliteten. Ett ointresse som långt ifrån delas av domstolarna. Man måste vidare vara uppmärksam på att Coase bara behandlar externa effekter i relationer mellan producenter. Om Adam får sina inkomster från majsförsäljning eller skadestånd – och om Beda får sina inkomster från boskapsförsäljning och/eller skadestånd – kan ju göra detsamma. Men om man i stället behandlar externa effekter i relationer mellan producenter och konsumenter blir situationen helt annorlunda p.g.a. förekomsten av inkomst- och förmögenhetseffekter. Anledningen är det faktum att preferensstrukturernas utseende antas vara olika för företag och individer på ett sätt som gör att antagandet om att rättighetsfördelningen är irrelevant för produktionsutfallet inte är giltigt. Ett exempel får illustrera denna centrala invändning mot Coases teorem.
Read more …

“Deficits” are economic necessities

29 August, 2013 at 09:47 | Posted in Economics | 4 Comments

wvickreyWe are not going to get out of the economic doldrums as long as we continue to be obsessed with the unreasoned ideological goal of reducing the so-called deficit. The “deficit” is not an economic sin but an economic necessity. […]

The administration is trying to bring the Titanic into harbor with a canoe paddle, while Congress is arguing over whether to use an oar or a paddle, and the Perot’s and budget balancers seem eager to lash the helm hard-a-starboard towards the iceberg. Some of the argument seems to be over which foot is the better one to shoot ourselves in. We have the resources in terms of idle manpower and idle plants to do so much, while the preachers of austerity, most of whom are in little danger of themselves suffering any serious consequences, keep telling us to tighten our belts and refrain from using the resources that lay idle all around us.

Alexander Hamilton once wrote “A national debt, if it be not excessive, would be for us a national treasure.” William Jennings Bryan used to declaim, “You shall not crucify mankind upon a cross of gold.” Today’s cross is not made of gold, but is concocted of a web of obfuscatory financial rectitude from which human values have been expunged.

William Vickrey

Fölster och Reforminstitutet har fel om friskolorna

28 August, 2013 at 14:08 | Posted in Education & School | Comments Off on Fölster och Reforminstitutet har fel om friskolorna

jbStefan Fölster och Reforminstitutet — huvudsakligen finansierat av Stiftelsen fritt näringsliv — har i en undersökning där man jämfört resultatutvecklingen i årskurs 9 i de kommuner som har respektive inte har friskolor, kommit fram till att skolmarknadskonkurrens förbättrar skolresultaten. Kommuner där friskolor inte förekommer har haft en sämre resultatutveckling än kommuner med friskolor.

Stämmer detta verkligen? Pontus Bäckström har berättigade dubier:

Den uppmärksamme läsaren av rapporten (och debattartikeln) reagerar nog över dessa resultat. Kan de stämma? Har det inte skett en väldigt olikartad utveckling i övriga förutsättningar mellan icke-friskolekommunerna och de andra?

För att skingra dessa tvivel beskrivs i rapporten vissa av de kontroller som har gjorts. Man beskriver till exempel hur man har tittat på förändringen i föräldrarnas utbildningsnivå och andelen elever med utländsk bakgrund och konstaterar att utvecklingen varit snarlik i icke-friskolekommunerna och friskolekommunerna.

Denna övning måste dock betraktas som ett spel för galleriet. Att kontrollera om förändringarna i medelvärden mellan åren varit desamma är inte samma sak som att införa kontrollvariabler i en statistisk analys. Ett exempel: Tittar man på betygsmedelvärdena i grundskolan ser man att betygssnittet i årskurs 9 i kommungruppen ”förortskommuner till storstäder” var högre läsåret 2011/12 (217p) än vad det var i kommungruppen ”glesbygdskommuner” (203p). Samtidigt visar Fölsters undersökning att föräldrarnas utbildningsnivå (som har högst förklaringsvärde) ökat likartat för de båda kommungrupperna. Fölsters slutsats är alltså att detta innebär att eleverna i förortskommunerna presterar bättre än de i glesbygdskommunerna och – enligt hans idé om det kausala sambandet – detta för att de har fler friskolor. Fölster tycks alltså mena att föräldrarnas utbildningsnivå kan bortses från i denna jämförelse.

Det Fölster dock missar är ju att föräldrarnas utbildningsnivå fortsatt är mycket högre i dessa förortskommuner (2,28) än i glesbygdskommunerna (2,13) (enligt SALSA-datat var dessa uppgifter är hämtade ifrån). Om föräldrarnas utbildningsnivå lades till som en kontrollvariabel i analysen skulle sannolikt friskoleeffekten minska alternativt försvinna helt.

Med detta sagt, vad borde Fölster och Reforminstitutet alltså ha gjort för att prestera en mer korrekt analys?

Ett sätt att angripa frågan är bedriva klassisk hypotesprövning …

Analysen visar att variablerna dels tillför mycket litet förklaringskraft till modellen, dels att de med nöd och näppe är signifikanta. Enskolevariabeln (dvs att kommunen bara har kommunal skola eller ej) förklarar endast 0,95 % av variationen och andel friskoleelever i kommunen förklarar endast 0,88 %, att jämföra med föräldrarnas utbildningsnivå som förklarar 20,6 %.

Vad som yttermera är intressant att notera utifrån analysen av dessa data är att effekten är negativ (!). Den skattade effekten enligt modellen, för en kommun som går från att endast ha kommunal skola till att ha friskolor (allt annat lika), är alltså en försämring om 1,7 procent. Även effekten av andelen friskoleelever av kommunens elever är negativ …

Den viktigaste slutsatsen är dock att Fölsters undersökning bör tas med några rejäla nypor salt; de kommuner som år 2012 endast hade kommunala grundskolor tycks inte alls ha presterat sämre än friskolekommunerna. Den positiva kausala effekten av konkurrens som Fölster uttalar sig om tycks inte finnas, åtminstone kan den inte beläggas i det data han använt. Om en effekt finns tycks den snarare vara något negativ

Fölsters och Reforminstitutets undersökning är ett uttryck för ett expanderande forskningsområde där forskare, utbildningsanordnare, politiker m.fl. försöka skaffa sig kunskaper om vilka konsekvenser friskolereformen haft.

Nu är det självklart inte helt lätt att göra en sådan bedömning med tanke på hur mångfacetterade och vittomfattande de mål är som satts upp för skolverksamheten i Sverige.

Ett vanligt mål som man fokuserat på är elevernas prestationer i form av uppnående av olika kunskapsnivåer. När man genomförde friskolereformen var ett av de ofta framförda argumenten att friskolorna skulle höja elevernas kunskapsnivåer, både i friskolorna (”den direkta effekten”) och – via konkurrenstrycket – i de kommunala skolorna (”den indirekta effekten”). De kvantitativa mått man använt för att göra dessa värderingar är genomgående betyg och/eller resultat på nationella prov.

Vid en första anblick kan det kanske förefalla trivialt att göra sådana undersökningar. Det är väl bara att – kan det tyckas – plocka fram data och genomföra nödiga statistiska tester och regressioner. Riktigt så enkelt är det nu inte. I själva verket är det väldigt svårt att få fram entydiga kausala svar på den här typen av frågor.

Ska man entydigt kunna visa att det föreligger effekter och att dessa är ett resultat av just friskolornas införande – och inget annat – måste man identifiera och därefter kontrollera för påverkan från alla ”störande bakgrundsvariabler” av typen föräldrars utbildning, socioekonomisk status, etnicitet, geografisk hemhörighet, religion m.m. – så att vi kan vara säkra på att det inte är skillnader i dessa variabler som är de i fundamental mening verkliga kausalt bakomliggande förklaringarna till eventuella genomsnittliga effektskillnader.

Det i särklass vanligaste undersökningsförfarandet är att man genomför en traditionell multipel regressionsanalys baserad på så kallade minstakvadrat (OLS) eller maximum likelihood (ML) skattningar av observationsdata, där man försöker ”konstanthålla” ett antal specificerade bakgrundsvariabler för att om möjligt kunna tolka regressionskoefficienterna i kausala termer. Vi vet att det föreligger risk för ett ”selektionsproblem” eftersom de elever som går på friskolor ofta skiljer sig från de som går på kommunala skolor vad avser flera viktiga bakgrundsvariabler, kan vi inte bara rakt av jämföra de två skolformerna kunskapsnivåer för att därur dra några säkra kausala slutsatser. Risken är överhängande att de eventuella skillnader vi finner och tror kan förklaras av skolformen, i själva verket helt eller delvis beror på skillnader i de bakomliggande variablerna (t.ex. bostadsområde, etnicitet, föräldrars utbildning, m.m.)

Ska man försöka sig på att sammanfatta de regressionsanalyser som genomförts är resultatet att de kausala effekter på elevers prestationer man tyckt sig kunna identifiera av friskolor genomgående är små (och ofta inte ens statistiskt signifikanta på gängse signifikansnivåer). Till detta kommer också att osäkerhet råder om man verkligen kunnat konstanthålla alla relevanta bakgrundsvariabler och att därför de skattningar som gjorts ofta i praktiken är behäftade med otestade antaganden och en icke-försumbar osäkerhet och ”bias” som gör det svårt att ge en någorlunda entydig värdering av forskningsresultatens vikt och relevans. Enkelt uttryckt skulle man kunna säga att många – kanske de flesta – av de effektstudier av detta slag som genomförts, inte lyckats skapa tillräckligt jämföra grupper, och att – eftersom detta strikt sett är absolut nödvändigt för att de statistiska analyser man de facto genomför ska kunna tolkas på det sätt man gör – värdet av analyserna därför är svårt att fastställa. Det innebär också – och här ska man även väga in möjligheten av att det kan föreligga bättre alternativa modellspecifikationer (speciellt vad gäller ”gruppkonstruktionerna” i de använda urvalen) – att de ”känslighetsanalyser” forskare på området regelmässigt genomför, inte heller ger någon säker vägledning om hur pass ”robusta” de gjorda regressionsskattningarna egentligen är. Vidare är det stor risk för att de latenta, bakomliggande, ej specificerade variabler som representerar karakteristika som ej är uppmätta (intelligens, attityd, motivation m.m.) är korrelerade med de oberoende variabler som ingår i regressionsekvationerna och därigenom leder till ett problem med endogenitet.

Den av Fölster och Reforminstitutet nu presenterade undersökningen ändrar inte på det faktum att det sammantaget sett verkar som om forskningen inte generellt kunnat belägga att införandet av friskolor lett till några större effektivitetsvinster eller påtagligt ökade kunskapsnivåer hos eleverna i stort. De uppmätta effekterna är små och beror till stor del på hur de använda modellerna specificeras och hur de ingående variablerna mäts och vilka av dem som ”konstanthålls”. Det går således inte heller att säkerställa att de effekter man tyckt sig kunna detektera vad gäller resultatförbättringar i friskolor skulle bero på friskolorna som sådana. Metodologiskt har det visat sig vara svårt att konstruera robusta och bra kvalitetsmått och mätinstrument som möjliggör en adekvat hantering av alla de olika faktorer – observerbara och icke-observerbara – som påverkar konkurrensen mellan skolformerna och ger upphov till eventuella skillnader i elevprestationer mellan skolformerna. Följden blir att de små effekter man (i vissa undersökningar) kunnat konstatera föreligga sällan är behäftade med någon högre grad av evidentiell ”warrant”. Mycket av forskningsresultaten baseras på både otestade och i grunden otestbara modellantaganden (t.ex. vad avser linearitet, homogenitet, additivitet, icke-förekomst av interaktionsrelationer, oberoende, bakgrundskontextuell neutralitet m.m.) Resultaten är genomgående av en tentativ karaktär och de slutsatser forskare, politiker och opinionsbildare kan dra av dem bör därför — vilket Fölster och Reforminstitutet uppenbarligen “glömt” — återspegla denna osäkerhet.

Why economics is not a science

28 August, 2013 at 11:25 | Posted in Economics | 4 Comments

It would be a real tragedy if the takeaway from recent events becomes that you should listen to impressive-looking guys with good tailors who stroke their chins and sound wise, and ignore the nerds; the nerds have been mostly right, while the Very Serious People have been wrong every step of the way.

images-16Yet obviously something is deeply wrong with economics. While economists using textbook macro models got things mostly and impressively right, many famous economists refused to use those models — in fact, they made it clear in discussion that they didn’t understand points that had been worked out generations ago. Moreover, it’s hard to find any economists who changed their minds when their predictions, say of sharply higher inflation, turned out wrong.

Nor is this a new thing. My take on the history of macro is that the notion of equilibrium business cycles had, by the standards of any normal science, definitively failed by any normal scientific standard by 1990 at the latest. The original idea that money had real effects because people were surprised by monetary shocks fell apart in the face of evidence of business cycle persistence; the real business cycle view that nominal shocks didn’t actually matter after all was refuted by decisive evidence … Yet there was no backing off on this approach. On the contrary, it actually increased its hold on the profession.

So, let’s grant that economics as practiced doesn’t look like a science. But that’s not because the subject is inherently unsuited to the scientific method. Sure, it’s highly imperfect — it’s a complex area, and our understanding is in its early stages. And sure, the economy itself changes over time, so that what was true 75 years ago may not be true today — although what really impresses you if you study macro, in particular, is the continuity, so that Bagehot and Wicksell and Irving Fisher and, of course, Keynes remain quite relevant today.

No, the problem lies not in the inherent unsuitability of economics for scientific thinking as in the sociology of the economics profession — a profession that somehow, at least in macro, has ceased rewarding research that produces successful predictions and rewards research that fits preconceptions and uses hard math instead.

Paul Krugman

In economics bad theory has driven out good

27 August, 2013 at 19:20 | Posted in Economics | Comments Off on In economics bad theory has driven out good

 

Theo Angelopoulos

27 August, 2013 at 17:57 | Posted in Varia | Comments Off on Theo Angelopoulos

From Theo Angelopoulos’s breathtakingly beautiful masterpiece The Weeping Meadow.
It breaks my heart every time I watch it.

Next Page »

Blog at WordPress.com.
Entries and comments feeds.