IPCC - et uvidenskabeligt, klima-politisk organ

25. August, 2025
IPCC - et uvidenskabeligt, klima-politisk organ
IPPC er for størstedelen af alle medier, og for befolkningen generelt, ophøjet til garant for korrekt videnskab og klimapolitik. Hvis IPCCs rapporter siger hop, så hopper det meste af verden - og alle der ikke hopper, stigmatiseres som inferiøre, der ikke har formået at lave deres hjemmearbejde og skal tilbage og tjekke sine kilder.

For det moderne klimaregime hviler totalitært på IPCC’s vurderingsrapporter. Men IPCC er ikke en forskningsinstitution; det er et politisk sammensat assessment-organ, der udvælger, sammenstiller og redigerer andres studier til én autoriseret fortælling. Summen sælges som "konsensus", men konsensus er hverken et eksperiment eller en metode - det er en social tilstand. Når denne tilstand ovenikøbet godkendes linje-for-linje af regeringsdelegationer, er det ikke længere rent videnskab; det er politik i videnskabelig form (se også "FN's klimapanel skal undersøges").

Hele bevisgrundlaget er kraftigt bearbejdet. Målinger af overfladetemperatur bliver først renset og justeret for kendte skævheder (fx flyttede stationer og byvarme) og derefter fordelt på et fastmasket net af felter, der dækker hele kloden, så man kan beregne globale gennemsnit. Satellitmålinger får løbende korrektioner og nye beregningsmetoder for at håndtere ændringer i satellitbaner og sensorernes aldring. Reanalysedatasæt kombinerer spredte observationer med en fysisk vejrmodel for at udfylde huller, hvor der mangler data. Klimamodeller justeres ("tunes") til at ramme fortidens udvikling - ofte ved at lade høj klimafølsomhed opvejes af stærke antagelser om afkølende aerosoler (partikler i luften) - og de samme modeller bruges siden til at tolke de datasæt, de blev justeret efter. Når både "observationer”"og "modelresultater" i vid udstrækning er et produkt af metodevalg, risikerer vi en cirkulær pasform - det ser ensartet og overbevisende ud, men ensartetheden er være skabt af metoden snarere end virkeligheden.

Over dette lægges en institutionel praksis, hvor vurderinger bygger på tidligere vurderinger, hvor "konsistens med sidste rapport" vægtes højere end reelle brud med paradigmet, og hvor "grå litteratur" kan glide med ind, når den støtter linjen. Resultatet er en selvforstærkende kreds: IPCC definerer, hvad der tæller som "robust" evidens, og den litteratur der passer ind, citerer IPCC. Næste IPCC-runde peger tilbage på den samme litteratur som bevis på robusthed.

Det er ikke enkeltstående fejl, men et systemisk design. Politisk godkendte konklusioner; metodisk afhængighed mellem data og modeller; en udvælgelsesproces, der bestemmer både hvem der skriver rapporterne, og hvilke studier der får lov at tælle med; og en konsensuslogik, der måler enighed, ikke sandhed. Når uenighed reduceres til "benægtelse", og kritikere ekskluderes som illegitime, byttes falsifikation ud med loyalitet mod narrativet. Det er ikke bare dårlig metode, men det undergraver selve videnskabens sunde grundprincipper.

Hvad IPCC er - og ikke er

IPCC bedriver ikke egen forskning. Det er et vurderingsorgan, der syntetiserer publiceret litteratur - også "grå litteratur" - fagligt indhold, der ikke er publiceret i peer-reviewede videnskabelige tidsskrifter. Det er eksplicit i IPCC’s egne beskrivelser1.

Forfattere udvælges efter indstilling fra regeringer og observatørorganisationer, hvorefter IPCC-bureauet sammensætter holdene. Det øger koordineringen - men favoriserer også bestemte forskningsmiljøer og dagsordener2.

Summary for Policymakers (SPM) godkendes linje-for-linje af regeringsdelegationer i plenum. Det er en bevidst politisk-videnskabelig co-produktion, som både kan sikre præcision - og introducere incitamenter for "formuleringer, der kan vedtages"3.

Når et vurderingsorgan både sætter rammen for, hvad der tæller som "relevant litteratur", godkender opsummeringen politisk og genbruger egne konklusioner i næste runde, får man let et lukket kredsløb af autoritet der holder sig inde for en forudindtaget narrativ.

Modeller kalibreres - og det betyder noget!

Klimamodeller tunes (kalibreres) eksplicit. Parametre og komponenter justeres, så modellen gengiver udvalgte observationer (strålingsbalance, skyer, historiske trends m.m.). Det er normal praksis, men påvirker resultater som f.eks. klimafølsomhed4.

Flere 1900-tals modelresultater ligner hinanden, fordi høj klimafølsomhed ofte kompenseres af stærkere (mere kølende) aerosol-antagelser - man kan nå "rigtigt svar" af forskellige grunde (Kiehl-kompensation)5. Kort fortalt kan flere klimamodeller få 1900-tallets temperaturkurve til at ligne virkeligheden, selv om de bygger på meget forskellige antagelser. Det sker, fordi to nøglefaktorer kan "spille hinanden gode". Hvor følsomt klimaet antages at være over for mere CO2 (klimafølsomhed), og hvor meget afkøling man regner med fra partikler i luften (aerosoler), som reflekterer sollys og påvirker skydannelse.

Hvis en model antager, at klimaet er meget følsomt, vil den i udgangspunktet varme mere, end vi faktisk har set. Det kan "rettes" ved samtidig at antage en stærkere afkølende effekt fra aerosoler - så ender kurven alligevel tæt på de historiske temperaturer. Tilsvarende kan en model med lavere følsomhed passe data ved at antage en svagere aerosol-afkøling. Begge modeller rammer nogenlunde samme udvikling, men de gør det af forskellige grunde.

Et tænkt eksempel viser mekanikken: Forestil dig, at drivhusgasser i en periode ville trække temperaturen op med cirka +1,2 °C, mens de observerede data viser +0,8 °C. For at få regnestykket til at gå op må man indføre omkring -0,4 °C afkøling fra aerosoler. Hvis modellen i stedet antager endnu højere følsomhed (og siger +1,5 °C), må aerosol-afkølingen gøres stærkere (f.eks. -0,7 °C) for at lande på de samme +0,8 °C. Pasformen ser pæn ud i begge tilfælde, men forklaringen er ikke den samme.

Det mønster bliver ofte kaldt "Kiehl-kompensation". Pointen er, at en flot gengivelse af fortiden ikke i sig selv beviser, at modellens følsomhed er rigtig - man kan have "skruet" på aerosol-antagelserne (nedkølingen) for at få det til at passe. På den måde kan usikkerheden blive skjult i balancen mellem antagelser, og det, der ligner sandhed, kan i høj grad være konsistens skabt af metoden.

Senere studier viser det samme mønster: antager man, at skyerne forstærker opvarmningen mere, antager man ofte også en større kølende effekt fra partiklernes påvirkning af skyer, så den samlede temperaturkurve stadig passer til historien6.

Når modeller først finindstilles til at passe fortidens data og siden bruges til at forklare de samme data, de er indstillet efter, ender man i en rundkørsel. Modellen bekræfter det, den selv er skruet til. Sagt på en anden måde: Justerer man en model, så den rammer historiske målinger, og bagefter bruger den til at tolke netop de målinger, bliver resultatet selvbekræftende. Det bliver umuligt at skelne mellem viden om verden og viden om modellens indstillinger. Det svarer til at rette en prøve med et facit, man selv har skrevet ud fra elevens besvarelse - det ser korrekt ud, men "rigtigheden" kommer af metoden, ikke nødvendigvis af virkeligheden.

"Observationer" er forarbejdede produkter - ikke rå tal

Globale overfladetemperaturserier (som GHCN/USHCN og HadCRUT) er ikke rå målinger, men bearbejdede skøn. Først renses og justeres målingerne for kendte skævheder - f.eks. hvis en vejrstation er flyttet, udstyret er skiftet, eller byen omkring stationen er vokset. Derefter fordeles tallene på et fast net af felter over kloden, så man kan beregne område- og globalgennemsnit. Hvor der mangler målinger, udfyldes hullerne ved beregning ud fra naboområder og kendt fysik (interpolation)7.

Myndigheder som NOAA bruger f.eks. en standardmetode, der sammenligner nærliggende stationer for at opdage og rette "hop" i data, og HadCRUT beskriver tilsvarende trin i deres metode. Det giver et mere sammenhængende datasæt - men betyder også, at resultaterne afhænger af de valgte justeringer og antagelser, ikke kun af de oprindelige målinger.

Satellitterne har ikke termometre, der måler luftens temperatur direkte. De "ser" i stedet den svage mikrobølgestråling fra iltmolekyler i atmosfæren omkring bestemte frekvenser. Den stråling omsættes til en såkaldt "lysstemperatur", og med matematiske metoder forsøger man at udlede, hvad middeltemperaturen må have været i et bredt luflag (typisk den nedre troposfære). For at få et tal for netop dette lag blander man signaler fra flere kanaler og betragtningsvinkler og prøver samtidig at fjerne påvirkningen fra overliggende lag som stratosfæren. Det er altså et beregnet produkt, ikke en simpel aflæsning.

Derfor betyder ændringer i satellit og metode meget. Over tid ændrer satellitternes baner sig en smule, så de passerer det samme sted på Jorden på andre tidspunkter af døgnet. Måler man mere om morgenen end om eftermiddagen, får man et systematisk andet indtryk af temperaturen. Sensorerne ældes også, og forskellige satellitter i samme serie har lidt forskellige egenskaber, som skal "stemmes af" mod hinanden. Alt dette korrigeres i efterbehandlingen med nye algoritmer, og når forskergrupperne opdaterer deres metode, kan hele den historiske kurve flytte sig. Det er grunden til, at RSS' version 4 viser en stærkere opvarmning end deres tidligere version, og at UAHs version 6 gav en anden (lavere) trend end deres version 5.6. Samme rå radiosignaler kan altså - helt legitimt - give forskellige langtidstendenser, afhængigt af hvordan man korrigerer for bane, tid på dagen, sensordrift og lagblanding. Det er også derfor, at satellitserierne løbende revideres, og at der kan være faglig uenighed om, hvilken version der bedst afspejler den faktiske udvikling8.

Når både data og model er produkter af metodevalg, og man derefter bruger deres indbyrdes overensstemmelse som kvalitetsstempel, forstærker man sin egen narrativ. Man finindstiller modellen, så den følger den historiske temperaturkurve. Samtidig er den kurve selv blevet til ved en række bearbejdninger og antagelser. Når man så i en rapport "afstemmer" modellens resultater mod det bearbejdede datasæt (eller vælger den version af data, der passer bedst), ser det hele konsistent ud. Men konsistensen skyldes, at begge sider er tilpasset hinanden, ikke at man har ramt sandheden. Det gør det sværere for alternative datasæt og andre modelantagelser at få fodfæste - ikke fordi de er forkerte, men fordi systemet allerede er justeret, så en bestemt løsning fremstår mest "robust" - eller konsekvent. På den måde kan man låse en bestemt fortælling fast.

Fra gennemgang til overgennemgang: sådan forstærkes fortællingen

IPCC laver ikke primær forskning; de samler og vurderer. Først skriver arbejdsgrupperne hver deres store sammenfatning af udvalgt litteratur. Derefter laver IPCC en synteserapport, som igen bygger på de tre arbejdsgrupperapporter - og de rapporter er i forvejen skrevet med blikket rettet mod tidligere IPCC-konklusioner. Det er et flerleddet system af sammenfatninger af sammenfatninger, hvor hver runde læner sig op ad den forrige. Det giver en pæn indre konsistens, men kan også gøre det svært at bryde ud af en allerede etableret fortælling.

En nyere Nature Communications Earth & Environment-kommentar beskriver, at man i tilknyttede "ScienceBrief-reviews" afstemmer nøglefund mod de seneste IPCC-rapporter for at sikre konsistens - et eksempel på kultur der prioriterer overensstemmelse med de seneste IPCC-konklusioner frem for aktivt at afsøge og afprøve uenige resultater, der kunne udfordre dem9.

Bibliometriske analyser (og IPCCs egne factsheets) illustrerer det institutionelle: forfattere udvælges, udkast revideres i flere runder, og Summary for Policymakers (SPM) godkendes politisk. Proceduren er gennemsigtig - men har indbyggede filtre, der kan favorisere dominerende synspunkter2 10.

"Bibliometriske analyser" er studier af, hvem der skriver hvad, hvem der citerer hvem, og hvordan netværk af forfattere og institutioner hænger sammen. Sådanne analyser (sammen med IPCCs egne beskrivelser af processen) peger på, at IPCC ikke er et åbent "fri‐for‐alle", men et ret tæt organiseret system. Forfattere foreslås typisk af regeringer og godkendes af IPCC’s ledelse; kapitelledere sammensætter hold og vælger, hvilke studier der skal vægtes; udkast går igennem flere runder af ekspert- og regeringshøringer; og til sidst gennemgår landenes delegationer Summary for Policymakers linje for linje og godkender formuleringerne politisk.

Det er rigtigt, at alt dette foregår efter klare, dokumenterede regler - så på overfladen er processen gennemsigtig. Men hvert led fungerer også som et filter. Udvælgelsen af forfattere favoriserer let dem, der allerede er centrale i feltet. Litteraturudvalget trækker naturligt mod de store, etablerede tidsskrifter og miljøer. Kommentarprocessen kan nedtone "udstikkere", fordi man søger formuleringer, som mange kan tilslutte sig. Og i den politiske godkendelse af SPM tæller det, hvad regeringsrepræsentanter kan blive enige om, hvilket skubber sproget i retning af det allerede accepterede. Summen er, at selv en åben og veldokumenteret procedure kan favorisere de dominerende synspunkter, ganske enkelt fordi adgang, tid, plads og enighed fungerer som praktiske snubletråde for alternative læsninger af data.

Når man sammenligner den nye vurdering med den tidligere for at sikre, at de er ens, vil man ofte nå frem til samme resultat igen og igen. Det kan føles trygt, men det gørt det sværere at få øje på andre forklaringer eller løsninger.

"Konsensus" som argument og som metode

Når man henviser til Oreskes (2004) og Cook et al. (2013), taler man om studier, der kortlægger enighed i den publicerede litteratur. De spørger: hvor mange artikler/abstracts siger, at mennesker påvirker klimaet? - ikke: hvor gode er data, metoder og modeller?

Oreskes (2004)11 gennemgik et par hundrede abstracts med søgeord som "global climate change" fra 1990'erne og fandt ingen, der eksplicit afviste, at mennesker påvirker klimaet. Det er altså en optælling af holdningstilkendegivelser i abstracts, ikke en vurdering af kvaliteten af de enkelte studier, deres datagrundlag eller modelantagelser. Valget af søgeord og at fokusere på abstracts (og ikke hele artikler) gør resultatet følsomt over for, hvordan forskere formulerer sig kortfattet i resuméer.

Cook et al. (2013)12 gik meget bredt til værks og klassificerede tusindvis af abstracts i kategorier fra "afviser" over "neutral/ingen position" til forskellige grader af "tilslutter sig". Den berømte 97% konsensus påstand (se også "Videnskabens globale nedkøling") kommer af at se på den delmængde af abstracts, der udtrykker en position, og tælle hvor stor en andel af disse, der på en eller anden måde tilslutter sig menneskelig påvirkning. Men "tilslutning" spænder fra svage formuleringer som "mennesket bidrager" til stærke formuleringer som "mennesket er hovedårsagen". Desuden tager en stor del af abstracts slet ikke stilling. Hvordan man håndterer dem i regnestykket, påvirker procentsatsen. Studiet måler altså mønstre i udsagn, ikke om modellerne har forudsigelsesevne, eller om antagelserne om f.eks. aerosoler og skyer er metodisk solide.

Det centrale skel er derfor dette: Konsensus-studier måler, hvad der bliver sagt hvor ofte - ikke om det er rigtigt, eller hvor stærkt beviset er. De kan bruges som et temperaturtjek på feltets enighed, men de siger meget lidt om kvaliteten af data, justeringer, parametriseringen i modellerne, eller robustheden af de underliggende antagelser. Derfor kan de give legitimitet til en vurdering, men de kan ikke erstatte en kritisk metode- og data-gennemgang.

Richard Tol peger også på udvælgelsen - hvilke søgeord henter man klimarelaterede artikler med, hvor repræsentative er de for hele feltet, og er nogle artikler i virkeligheden irrelevante i forhold til det spørgsmål, man vil besvare? Små forskelle i søgning og filtrering kan ændre sammensætningen - og dermed konsenstallet. Derfor kalder han data- og metodegrundlaget "følsomt" og til tider "inkonsistent"13.

Konsensusmålinger kan blive metodisk selvrefererende: Litteraturen afspejler de dominerende metoder og vurderinger – og vurderingerne henviser til litteraturens enighed.

Afslutning og opsummering

IPCC optræder som dommer, men spiller i praksis også med på banen. De producerer ikke ny forskning, men samler og redigerer andres - og deres politisk godkendte "Summary for Policymakers" låser fortællingen tidligt. De globale datasæt, der bruges som facit, er kraftigt bearbejdede produkter. Modellerne finindstilles til at ramme netop disse produkter, og efterfølgende vurderinger afstemmer model og datasæt mod tidligere konklusioner. Resultatet er en pæn indre konsistens, som let kan forveksles med sandhed, men som i høj grad er skabt af metodevalg, institutionelle filtre og et system, der belønner overensstemmelse frem for afprøvning. Når "konsensus" derefter bruges som argument, måler man i praksis enighed i litteraturen - ikke styrken af de antagelser, datajusteringer og modelparametre, den bygger på.

Det handler i bund og grund om tre ting, der forstærker hinanden. For det første en rolleforveksling: politik blandes ind i den videnskabelige opsummering, når "Summary for Policymakers" skal godkendes af regeringer. For det andet en metodisk rundkørsel: de globale datasæt er bearbejdede produkter, modellerne finindstilles til at passe dem, og de efterfølgende vurderinger bruger netop den pasform som bevis på rigtighed. For det tredje en selektion: udvælgelsen af forfattere og kilder afgør, hvem og hvad der overhovedet tæller med. Tilsammen skaber det en fortælling, der lyder autoritativ, men som er skrøbelig, fordi den bygger på indbyrdes tilpasning og valg, mere end på uafhængige prøver af sandheden. Det betyder med andre ord, at forskning der ikke taler med i narrativen, sorteres fra - eller sagt uden filter - censureres.

Ganske enkelt: IPCC leverer en politisk udvangt og godkendt sammenfatning af bearbejdede data og tunede modeller; det er konsistent - men konsistens er ikke det samme som uafhængig sandhed.

Referencer1 "About the IPCC", IPCC,
2 "IPCC FACTSHEET - How does the IPCC select its authors?", IPCC, juli, 2021
3 "Preparing Reports", IPCC
4 "The art and science of climate model tuning", American meteorological society, marts, 2017, "The art and science of climate model tuning", American meteorological society, 2016
5 "Twentieth century climate model response and climate sensitivity", Geophysical research letters, Vol. 34, L22710, doi:10.1029/2007GL031383, 2007
6 "Compensation Between Cloud Feedback and Aerosol-Cloud Interaction in CMIP6 Models
", American Geophysical Union, 25-01-2021

7 "Homogenization of Temperature Series via Pairwise Comparisons", Journal of Climate, Volume 2, 02-10-2007, "The Global Historical Climatology Network Monthly Temperature Dataset, Version 4", Journal of Climate, Volume 31, 28-02-2018
8 "Sensitivity of Satellite-Derived Tropospheric Temperature Trends to the Diurnal Cycle Adjustment", American meteorological society, 15-05-2016, "UAH Version 6 global satellite temperature products: Methodology and results", Springer NAture Link, 26-02-2016
9 "Broadening scientific engagement and inclusivity in IPCC reports through collaborative technology platforms", Nature, d. 13-01-2023
10 "IPCC FACTSHEET - How does the IPCC review process work?", PICC, juli, 2023
11 "The Scientific Consensus on Climate Change", Science, 03-24-2004
12 "Quantifying the consensus on anthropogenic global warming in the scientific literature", Environmental Research, 2013
13 "Quantifying the consensus on anthropogenic global warming in the literature: A re-analysis", IDEAS, 2014


Debat: IPCC - et uvidenskabeligt, klima-politisk organ

Skriv kommentar

Navn*
E-mail* (vises ikke)
Kommentar*

Relaterede nyhedsblogs

Flere nyhedsblogs fra 2025