Berlingske vildledte om vuggestueundersøgelse

Den seneste uges debat om forholdene i de danske vuggestuer har handlet om fordrejede tal og spørgsmålstegn ved forskerens (Ole Henrik Hansen) undersøgelse. Uden at nogen dog tilsyneladende har set selve undersøgelsen. Debatten er med andre ord kørt af sporet.

I går bragte Berlingske så en rettelse: De beklager, at de kom til at skrive, at der i undersøgelsen var sendt spørgeskemaer ud til 40.000 pædagoger, når der nu rettelig kun var sendt skemaer ud til 38.487 potentielle respondenter. 40.000 er ikke det helt korrekte tal, og det beklager de.

Men hør nu lige her: Det er slet ikke pointen. Om tallet hedder 40.000 eller 38.500 er bedøvende ligegyldigt.

Det egentlige problem er, at Berlingske fandt det fornuftigt i første omgang at nævne det gigantiske antal mulige svarpersoner i stedet for at forholde sig til, hvor mange der faktisk havde svaret (1274). Og den lave svarprocent (3,3 procent samlet set).

Hvis Berlingske faktisk har troet, at der var tale om 40.000 svar fra relevante fagpersoner, så skal der nye batterier i bullshit-detektoren. Man må da som minimum bede forskeren bekræfte dette helt usandsynlige tal.

Hvis de derimod fra starten har været klar over, at der måtte være tale om en meget mindre svargruppe og en muligvis ringe svarprocent… Ja, så har de vildledt læserne med fuldstændig uvedkommende information, der uvilkårligt giver indtryk af meget større pondus og troværdighed, end tilfældet faktisk er.

Er det for store krav at stille til en avis som Berlingske? Kom nu med en seriøs beklagelse, som går på substansen. Det andet er noget pjat, som almindeligt begavede læsere alligevel gennemskuer.

 

Mistro til medierne?

I morgen åbner Nordiske Mediedager i Bergen – en 3-dages mediefestival, hvor branchen samles og vender blikket indad.

Et af festivalens omdrejningspunkter bliver en unik skandinavisk medieundersøgelse lavet til lejligheden. Sådan set ikke uinteressant – i hvert fald ikke for branchen selv. Flere af undersøgelsens resultater er allerede “lækket” til pressen. En af hovedkonklusionerne lader til at være, at Skandinavisk publikum uttrykker mistro til mediene. Baggrunden er dette spørgsmål:

Smag lige på formuleringen en gang: I hvilken grad har du tiltro til medierne generelt? Hvad ville du svare på det spørgsmål?

Medierne er en utrolig sammensat størrelse; det behøver man næppe være ekspert eller medieforsker for at være enig i.

Hvordan kan man meningsfuldt angive sin tiltro til medierne – generelt? Hvis man nu fx i almindelighed har tillid til nyhedsudsendelserne og de landsdækkende dagblade og måske også til sin lokalavis; ikke sådan ubetinget, blind tillid, men heller ikke stor og generel mistillid. Men til gengæld har lav tiltro til formiddagspressen? For nu blot at skitsere én stereotyp medieforbruger. Skal man så svare nogen tiltro? Eller mindre tiltro? Nej, det er ikke nemt at finde ét svar, som yder den samlede mediestand retfærdighed.

Når man ser på undersøgelsens resultat, er der markant forskel i befolkningens tiltro til medierne på tværs af de nordiske lande. De svenske tal ser skræmmende ud. Så langt, så skidt. Men hvad skal man egentlig mene om de 24 procent af danskerne (+/- 3 procentpoints usikkerhed), som udtrykker mindre eller ingen tiltro? Det er faktisk et godt spørgsmål, som man bør grave sig godt og grundigt ned i, før man drager forhastede dommedagskonklusioner.

En lignende undersøgelse viste i februar måned et tilsvarende billede: Hver fjerde dansker udtrykte her lille eller meget lille tillid til danske medier – sådan generelt. Men denne undersøgelse gjorde sig også den ulejlighed at undersøge tilliden til det enkelte medie (landsdækkende medier). Undersøgelsen tegnede her et klart billede: Mistilliden til tabloidpressen var massiv. Gratisaviserne stod også for skud, mens flertallet af de øvrige danske medier blot fik prædikatet lille eller meget lille tillid af 6-15 procent af danskerne.

Er det så et fair billede? Og er det godt nok? Det kan man fint diskutere, men lad os få nuanceret billedet, før vi skyder medierne ned fra hoften.

Note (tilføjet 11. maj):
Eurobarometer udkom i marts måned med den survey-baserede rapport Media Use in the European Union. Her måler man blandt andet trust in the media i samtlige EU-lande plus nogle få øvrige lande. Media operationaliseres her som henholdsvis Radio, Television, The Press og The Internet. Svenskernes mistrust – som også kommer til udtryk i denne rapport – er klart og tydeligt rettet mod den skrevne presse (54% tend not to trust) og internettet (54% tend not to trust), mens de udtrykker tillid til radio (18% tend not to trust) og tv (25% tend not to trust). Danskerne har nogenlunde samme mønster som svenskerne bortset fra internettet, som vi udtrykker stor tillid til. Dyk selv ned i tallene.
Pointen er, at man er nødt til at nedbryde (operationalisere) overbegrebet medier, hvis man vil vide, hvad der er på spil, når folk udtrykker tillid eller mistillid. Og det vil man vel – når man gør sig den ulejlighed at spørge..?

Ledende spørgsmål hos Sex & Samfund

P1s Detektor havde forleden generalsekretær for Sex & Samfund, Bjarne B. Christensen, i studiet og svare på kritik af en undersøgelse, foreningen havde lavet i forbindelse med Uge Sex 2012-kampagnen.

Sex & Samfund havde spurgt 605 folkeskolelærere, om de oplever faste kønsrollemønstre blandt deres elever, og konkluderede på baggrund af svarene, at næsten hver anden af dem (47,8 procent) har oplevet meget fastlåste opfattelser blandt deres elever af, hvad drenge og piger kan og bør.

Undersøgelsen og formidlingen af samme er et fint (negativt) studie i kunsten at formulere gode spørgsmål og vinkle sobert på svarene. Her følger en gennemgang.

Man formulerede hovedspørgsmålet på denne måde:

Oplever du – eller har du oplevet – meget faste opfattelser blandt dine elever af, hvad man kan og bør som henholdsvis dreng og pige? (for eksempel hvordan man skal opføre sig, hvilke fritidsaktiviteter man kan gå til, hvilket tøj man kan/skal have på, hvor mange man må kysse etc.)

 Spørgsmålet rummer adskillige spørgetekniske problemer, som til sammen gør svarene ubrugelige at konkludere på.

1) Oplever du – eller har du oplevet: Med formuleringen eller har du oplevet ved man ikke, om lærerne svarer ud fra deres aktuelle oplevelser eller noget, de engang har oplevet. Det bliver dermed umuligt at konkludere noget aktuelt ud fra svarene. Der mangler en tidsafgrænsning på spørgsmålet.

2) Blandt dine elever: Der mangler en styrkemarkør. Hvad betyder blandt dine elever? Ganske få elever? Halvdelen af eleverne? Flertallet af eleverne?

3) Som henholdsvis dreng og pige: Man slår kønnene sammen, hvor man med fordel kunne have bedt lærerne svare for henholdsvis drenge og piger. Hvem ved på forhånd, om de samme mønstre gør sig gældende på tværs af køn?

4) (for eksempel hvordan man skal opføre sig, hvilke fritidsaktiviteter man kan gå til, hvilket tøj man kan/skal have på, hvor mange man må kysse etc.): Man forsøger med disse eksempler at give lærerne en fælles referenceramme, når de skal svare. I praksis virker det mod hensigten. Hvis man blot oplever problemer på ét af de nævnte områder, skal man i princippet svare ja, men i så fald svarer folk ja på baggrund af vidt forskellige oplevelser.

Som spørgsmålet er stillet, er det voldsomt ledende i retning af at få lærerne til at svare, at de oplever faste mønstre. Man skal blot på et eller andet tidspunkt i et eller andet omfang have oplevet meget faste opfattelser på ét af de nævnte områder… og hvem har ikke det? Set i det lys, er det faktisk overraskende, at blot 48 procent af lærerne svarer ja. Det ligger lige for at vinkle på, at så lav en andel tilsyneladende oplever faste holdninger. I stedet gør Sex & Samfund det modsatte. Vinkler på, at næsten hver anden lærer har oplevet faste holdninger blandt eleverne. Den vinkel havde vist skrevet sig selv på forhånd.

Men hvordan skulle man have stillet spørgsmålet? Svaret er, at man skal lade være med at stille den slags komprimerede, sammenfattende spørgsmål, hvor det hele skal med på én gang. Fremgangsmåden er grundlæggende forkert. I stedet skal man – som Sex & Samfund også er på sporet af – stille åbne, enkle og konkrete spørgsmål a la:

Tag stilling til hvert af de nævnte eksempler på “faste opfattelser” og angiv, om du oplever dem blandt dine elever i din dagligdag som lærer:

  • Drenge går til fodbold
  • Piger går ikke til fodbold
  • Drenge leger med biler, krig og lignende
  • Piger har langt hår
  • osv.

Læreren skal altså tage stilling til en række konkrete eksempler på (stereotype) opfattelser. I tilfælde af, at læreren svarer ja, kan man efterfølgende bede læreren vurdere styrken/udbredelsen af den pågældende opfattelse og vurdere, om opfattelsen er kønsspecifik. Man kan eventuelt også bede læreren tage stilling til, om han/hun oplever opfattelserne som et problem for eleverne.

På baggrund af svarene på disse enkle og konkrete spørgsmål, kan man lave sin sammenfatning og – med belæg – konkludere

  1. om lærerne oplever meget faste opfattelser blandt eleverne i deres dagligdag som lærere
  2. om opfattelserne er udbredte blandt eleverne
  3. om opfattelserne er kønsspecifikke
  4. om lærerne oplever det som et problem for eleverne

Det ville ikke bare være mere retvisende, men også langt mere interessant.

Karakterer til ministrene

Ministerholdet er – som det efterhånden er sædvane op til jul – blevet bedømt af den danske befolkning i to offentliggjorte meningsmålinger; den ene for Jyllands-Posten; den anden for Ugebrevet A4.

Repræsentative udsnit af befolkningen har givet ministrene karakterer på forskellige skalaer, og de to undersøgelser kommer frem til nogenlunde enslydende resultater: Margrethe Vestager er topscorer fulgt af Mette Frederiksen og Bjarne Corydon; Carsten Hansen og Ole Sohn som bundskraberne.

Men hvad med den statistiske usikkerhed? Den forbigås i tavshed i mediernes hovedartikler, men betyder den egentlig noget for konklusionerne, og hvordan beregner man den overhovedet?

Lad os starte med metoden. Da der er tale om karaktergennemsnit (i modsætning til andele af vælgertilslutning ved de allestedsnærværende politiske meningsmålinger), kan man IKKE bruge de to beregningsmodeller, som er tilgængelige på denne blog. Grunden er denne: Når man beregner statistisk usikkerhed (konfidensintervaller) for gennemsnitsmål, skal man tage højde for det, der i fagterminologien hedder standardafvigelsen. Til hver enkelt ministers beregnede karaktergennemsnit knytter der sig en standardafvigelse. Populært sagt er standardafvigelsen et tal, der udtrykker, hvor tæt de afgivne karakterer til en minister ligger på vedkommendes gennemsnit. Det kan variere meget. Et gennemsnit på 5 kan fremkomme ved, at alle faktisk giver karakteren 5. Men det kan også fremkomme ved, at halvdelen giver karakteren 1, og resten giver karakteren 9. Jo tættere de enkelte karakterer ligger på gennemsnittet, jo mindre er standardafvigelsen, og jo mindre er også den statistiske usikkerhed, når man generaliserer målingen til hele befolkningen.

Vil du se medierne efter i kortene og beregne usikkerheden, kræver det altså, at det enkelte medie udleverer en oversigt over standardafvigelser, antal svarpersoner og de målte karaktergennemsnit – for hver minister. Herefter skal det hele blot plottes ind i et regneark. En simpel formel (=KONFIDENSINTERVAL) gør resten af arbejdet for dig.

Jeg kontaktede Jyllands-Posten, og de sendte mig uden videre tallene. Her er resultatet:

 

N er antal svar for hver enkelt minister. Øvre og Nedre er konfidensintervallernes grænseværdier. Der er i formlen anvendt et 95 procents sikkerhedsniveau.

Men er folk ikke flintrende ligeglade med standardafvigelser og konfidensintervaller? Sikkert, men kan man som medie eller journalist være ligeglad med, om vinklingen og konklusionerne holder?

Heldigvis lader hverken Jyllands-Posten eller Ugebrevet A4 til at være ligeglade. Jyllands-Posten var, trods den manglende formidling af usikkerheden, i stand til at sende mig overbevisende dokumentation. Og den statistiske usikkerhed rokker ikke ved, at Margrethe Vestager faktisk ER den aktuelle vinder, og at Carsten Hansen og Ole Sohn får den ringeste bedømmelse i befolkningen. Så formidlingen af resultaterne er også i orden. Tjek selv tallene.

 Note: Jeg har kun kontaktet Jyllands-Posten, da formålet med indlægget primært er at demonstrere metoden. Ugebrevet A4s tilsvarende undersøgelse er nævnt for fuldstændighedens skyld. Berlingske har gennemført en tilsvarende undersøgelse, men de tager betaling for adgang til resultaterne, som derfor ikke er umiddelbart tilgængelige.

Undersøgelse forvrænger ældres tilfredshed

Altinget kritiserer i denne uge den netop offentliggjorte tilfredshedsundersøgelse blandt ældre, der modtager praktisk hjælp eller personlig pleje.

Undersøgelsen viser, at

  • 87 procent af de ældre er tilfredse eller meget tilfredse med den praktiske hjælp
  • 91 procent er tilfredse eller meget tilfredse med den personlige pleje

Undersøgelsen er gennemført af Epinion for KL og Social- og Integrationsministeriet. Den bygger på svar fra i alt 1401 modtagere af praktisk hjælp og/eller personlig pleje.

Blandt kritikerne af undersøgelsen er direktør i Danske Patienter, Morten Freil, medieforsker Preben Sepstrup og undertegnede.

Der peges på tre grundlæggende problemer ved undersøgelsen:

1) Ældre har en tendens til at svare i sympati med personalet. Det er jo ikke “deres skyld”.

2) Der svares udelukkende via tilfredshedsskalaer (meget utilfreds – meget tilfreds). Når man udelukkende anvender skalasvar og ikke i tillæg giver mulighed for, at man kan uddybe og adressere sin kritik via åbne svar, afholder det nogle fra at udtrykke kritik.

3) Kategorierne “tilfreds “og “meget tilfreds” lægges sammen i fortolkningen og formidlingen af undersøgelsens resultater. Dermed forsvinder den moderate kritik, der kan ligge i at svare “tilfreds”.

Alle tre problemstillinger er dokumenteret gennem forskning i tilfredshedsundersøgelser, bl.a. i forskningsartiklen Er otte ud af ti patienter tilfredse? (Nordisk Sygeplejeforskning, 2011).

Problemerne betyder ikke, at undersøgelsen er uden værdi. Men det betyder, at man skal være meget forsigtig med at konkludere, at næsten alle er tilfredse med den hjælp, de får. Og hvis undersøgelsen skal bruges til at ændre og eventuelt forbedre hjemmehjælpen, er der behov for at supplere med kvalitative undersøgelser.

Piloter falder i søvn i cockpittet

Hvis man ikke led af flyveskræk i forvejen, så fik man en fin anledning forleden, hvor Ritzau kom ud med historien om, at hver anden pilot er faldet i søvn under flyvning.

Det er en god historie – og den har noget på sig. Historien bygger på en undersøgelse gennemført i sensommeren 2011 af analysefirmaet Axand Konsult blandt medlemmer af Svensk Pilotförening. 625 piloter har deltaget i undersøgelsen. I alt 1063 piloter er blevet spurgt, dvs. en svarprocent på 59.

Hvis nogen synes, historien vækker genklang, så er der en god grund. I april måned kørte der en lignende historie om danske piloters arbejdsvilkår og problemer med at holde sig vågne. Denne historie byggede på en undersøgelse foretaget af Sammenslutningen af danske Erhvervspiloter i samarbejde med Politiken. I denne undersøgelse svarede 575 af 1013 adspurgte piloter.

Selvfølgelig er der tale om partsindlæg med en klar dagsorden. Piloterne og deres organisationer bruger undersøgelserne som løftestang til at sikre sig bedre arbejdsvilkår. Men undersøgelserne skal bedømmes på deres troværdighed – ikke på, om de har en bagvedliggende dagsorden.

Axand Konsult allierede sig med Stressforskningsinstituttet ved Stockholms Universitet for at sikre sig spørgsmålenes videnskabelige relevans. Og det er der kommet noget godt ud af. Det gode er, at de kombinerer spørgsmål om piloternes vurderinger af sikkerhed og arbejdsmiljø med meget konkrete spørgsmål om piloternes faktiske arbejdstider, oplevelser med at falde i søvn og fejl begået pga. træthed. Styrken er de konkrete spørgsmål om piloternes egen adfærd. Det giver meget højere troværdighed end de alt for hyppigt forekommende hypotetiske og uforpligtende spørgsmål.

Men kan man stole på, at piloterne ikke overdriver problemerne? Sikker kan man ikke være, men ved at bede piloterne beskrive, hvilke fejl de måtte have begået som følge af træthed, gør man svarene mere forpligtende – og får i tilgift en værdifuld viden.

Hvad så med de piloter, der ikke har svaret? Er undersøgelserne overhovedet repræsentative for danske og svenske piloter? Nej, det er der ikke belæg for at sige. Men der er svar fra et stort antal piloter og en pæn andel af samtlige organiserede piloter. Derfor giver undersøgelserne vigtig viden om piloters arbejdsvilkår – også selv om det ikke nødvendigvis er hver anden pilot, som er faldet i søvn under flyvning.

Så må vi andre leve med flyskrækken. Og med, at Ritzau igen generaliserer for hårdt på en undersøgelse.

Ledende spørgsmål og bondefup med Galluptal

Som man spørger, får man svar. Det er en gammel kendt sandhed, som også gælder spørgeskemaundersøgelser.

Forleden blev jeg præsenteret for en undersøgelse, som Gallup havde lavet for JKL Group på vegne af foreningen Bæredygtigt Landbrug.

Undersøgelsen var et studie i ledende spørgsmåls- og svarformuleringer. Et lille udpluk:

Skal politikerne, når de lovgiver, lægge vægt på

At minimere administrativt bøvl?

At miljøet beskyttes uanset hvad det koster?

Er du enig eller uenig i følgende udsagn:

Der er en grænse for, hvor langt de danske politikere kan gå i forhold til at lægge særregler og afgifter over på dansk landbrug?

 Hvem er ikke imod bøvl, hvem vil beskytte miljøet uanset prisen, og hvem mener, at man kan pålægge noget erhverv i dette land ubegrænsede særregler og afgifter?

Hvis formålet med undersøgelsen er at blive klogere på danskernes holdning til landbruget, så er spørgsmålene forkert stillet.

Journalist Kjeld Hansen stiller skarpt på undersøgelsen og dens kontekst i en dugfrisk artikel: Bondefup med Gallup-tal publiceret på Åbenhedstingets hjemmeside. Læs selv og vurder undersøgelsens troværdighed.

Når svarpersoner pynter på virkeligheden

Forleden kunne man i Politiken læse en større undersøgelse af danskernes kulturforbrug. Megafon havde spurgt 1.026 danskere om følgende:

Har du inden for det seneste år gjort én eller flere af nedenstående ting? (Her er et udpluk af de svarmuligheder, man kunne krydse af)

  • Besøgt et kunstgalleri
  • Været til klassisk koncert
  • Været til koncert med rytmisk musik
  • Købt billedkunst
  • Været til opera
  • Hørt radioteater

Det viste sig, at blandt de universitetsuddannede svarpersoner havde halvdelen været i teatret, hver tredje købt billedkunst, hver fjerde været til opera og knap hver tredje været til klassisk koncert. Inden for det seneste år. Hvis man altså tager svarpersonerne på ordet.

Men kan man faktisk stole på den slags svar? Eller har folk en tilbøjelighed til at pynte lidt på virkeligheden? Ja, det har mange mennesker faktisk. Effekten kaldes i fagsproget social desirability bias – en betegnelse, som henviser til, at undersøgelser i almindelighed viser forkert, når de spørger folk om emner, der er socialt følsomme. Socialt følsomme emner kan fx være seksualitet, generøsitet, intolerance, intellektuel formåen og adfærd, som er forbundet med høj eller lav status. Fænomenet (socially desirable responding) er særlig udtalt, når man spørger folk direkte om deres egen adfærd/egne holdninger. Det er ikke nødvendigvis, fordi svarpersonerne lyver. Ofte husker de forkert og tror selv på det, de svarer. Men det hjælper lige lidt.

Hvordan skal man så undersøge folks kulturvaner – og alle mulige andre vaner – og få valide svar? Èn mulighed er at lade være med at spørge! I stedet kan man via Danmarks Statistik og kulturinstitutionerne undersøge, hvor mange billetter, der faktisk er solgt over en 1-årig periode. Men det besvarer jo ikke spørgsmål om køb af billedkunst m.v.

En anden mulighed er at gøre svarene mere forpligtende. Man kan fx bede svarpersonerne konkretisere, hvor og hvornår de har været i operaen, og eventuelt fortælle, hvad de har set. Det kan man problem- og omkostningsfrit gøre i en webbaseret undersøgelse, og det vil gøre det noget vanskeligere for svarpersonerne at pynte på virkeligheden. Det vil provokere svarpersonen til faktisk at tænke efter. Måske ligger operaturen og kunstkøbet et par år tilbage, når det kommer til stykket?

En anden problemstilling ved undersøgelsen er Megafons nedbrydning af stikprøven på 6 undergrupper (længste gennemførte uddannelse). Det er legitimt at gøre, men giver stor statistisk usikkerhed på de konkrete tal, når den samlede stikprøve ikke er større end 1.026 danskere. Denne betydelige usikkerhed forbigås i rungende tavshed.

Alt i alt er der god grund til at tage undersøgelsens resultater med et stort gran salt. Desværre bliver ingen af disse oplagte fejlkilder og forbehold nævnt i artiklen. Tværtimod. Undersøgelsens resultater tages for pålydende:

“Mens for eksempel 26 procent af kandidaterne fra universiteterne har været til opera inden for det seneste år, så gælder det 6 procent af håndværkerne og 9 procent af de ufaglærte.”

Det er for skråsikkert. For ukritisk. Og formentlig forkert. Og det havde faktisk ikke krævet meget at gøre det bedre.

Målingerne ramte skævt

Gårsdagens valgresultat vækker næppe professionel begejstring hos landets meningsmålingsinstitutter. Ved valget i 2007 ramte institutterne således noget tættere på resultatet, end tilfældet har været i år.

Her er overblikket over institutternes fejlprocenter*. I tabellen kan du også se fejlprocenter for Berlingske Barometer, Altingets gennemsnit og det uvægtede gennemsnit, som dagligt er blevet præsenteret her på siden.

Gallup kom i år tættest på med en fejlprocent på 2,4. Til sammenligning havde Megafon og Catinét i 2007 fejlprocenter på blot 1,2 og 1,8. Ingen af gennemsnitsmålene kom for alvor tæt på, men de blev dog kun slået af Gallup. Det uvægtede gennemsnit af de seneste 5 målinger viste sig at være mindst lige så retvisende, som Berlingske Barometer og Altingets mere avancerede modeller.

Hvad gik galt? Venstre og SF snød institutterne. Henholdsvis positivt og negativt. Omvendt lykkedes det i år at estimere tilslutningen til Dansk Folkeparti – noget som voldte enkelte institutter store problemer i 2007.

Tidsfaktoren spiller naturligvis en rolle: Der kan ske noget politisk på selve valgdagen, som målingerne ikke når at registrere. Men det er svært at pege på noget konkret ved årets valg. Måske er svaret helt enkelt, at institutterne ikke fik estimeret tvivlerne godt nok.

Hør indslag i Detektor på P1, hvor jeg udtaler mig om, hvordan målingerne ramte.

*Fejlprocent betyder, hvor mange procentpoint, der skal flyttes i en måling for at ramme valgresultatet. fejlprocenten er beregnet som summen (numerisk) af forskellene mellem de enkelte partiers valgresultatet og den enkelte målings estimat af samme. Summen er herefter divideret med to. Summen divideres med to, for at fejl ikke kommer til at tælle dobbelt (hvis et parti estimeres for højt, vil et andet parti jo nødvendigvis estimeres for lavt, når summen skal give 100%). Modellen er udarbejdet af Søren Risbjerg Thomsen, professor og valgekspert, Aarhus Universitet.

Drop enkeltmålingerne

Opdateret 15. september kl. 9:00 (5 målinger fra Gallup, Epinion, Megafon, Voxmeter og Rambøll)

Drop nu enkeltmålingerne og se på nogle gennemsnitsmål over tid i stedet. Nogenlunde sådan har jeg – og mange andre – sagt og skrevet den seneste uge. For hvad skal man stille op med 6 nye daglige meningsmålinger, som stritter indbyrdes?

Berlingske Barometer formidler sådan et dagligt gennemsnit, og dem ville jeg egentlig gerne anbefale. Men jeg ved ikke, hvordan de gør! “En avanceret model ligger til grund for beregningen” – sådan skriver de, på deres hjemmeside. Nogenlunde som ethvert andet analysefirma ville skrive det. Nå nej, Berlingske er jo ikke et analysefirma. Eller er de? Deres fremgangsmåde er under alle omstændigheder en forretningshemmelighed. Læseren må derfor bare stole på, at journalisterne og researchafdelingen er kloge og har ret. Hmm…

Jeg har derfor sat mig for hver dag at formidle et simpelt gennemsnit baseret på de seneste målinger fra 5-6 institutter* med svar indsamlet de seneste 3 dage** (tabellen opdateres dagligt – klik på den for fuld størrelse):


Nu er det simple gennemsnit jo hverken avanceret eller hemmeligt. Men baseret på de første 3 sammenligninger (4.-6.  5.-7.  og 6.-8. september) så rammer det en anelse anderledes end Berlingskes gennemsnit. Hvad kan det skyldes? Formentlig, at Berlingske medtager flere ældre målinger i deres vægtede gennemsnit. Det simple gennemsnit her på siden er i så fald mere følsomt over for dag-til-dag udviklinger.

Men er gennemsnittet så til at stole på? Ja, det lever i hvert fald op til kravene om aktualitet kombineret med mange svar, og det er givetvis bedre end alle de daglige enkeltmålinger. Med en stikprøve på ca. 6000 repræsentativt udvalgte svarpersoner bør gennemsnittet tegne et temmelig retvisende billede. Den matematiske usikkerhed er reduceret til maksimalt 1,3 procentpoint (plus/minus). Tjek selv med beregneren på denne hjemmeside (beregn usikkerhed 1 andel).

Vær opmærksom på, at der dagligt “kun” udskiftes ca. 2000 svarpersoner i de valgte målinger. Det betyder, at dag-til-dag udviklinger mellem blokkene baserer sig på disse 2000 nye svar – og ikke 6000 nye svar.

*Gennemsnittet er baseret på daglige målinger fra typisk Gallup, Epinion, Megafon, Voxmeter, Rambøll og Norstat.

**Svarene er indsamlet over tre dage. Institutterne anvender rullende målinger.