Før covid ville jeg ha beskrevet meg selv som en teknologisk optimist. Nye teknologier dukker nesten alltid opp midt i overdrevne frykter. Jernbaner skulle forårsake mentale sammenbrudd, sykler skulle gjøre kvinner infertile eller sinnssyke, og tidlig elektrisitet ble beskyldt for alt fra moralsk forfall til fysisk kollaps. Over tid forsvant disse bekymringene, samfunn tilpasset seg og levestandarden steg. Mønsteret var kjent nok til at kunstig intelligens så ut til å følge det: forstyrrende, noen ganger misbrukt, men til slutt håndterbar.
Covid-årene rystet den tilliten – ikke fordi teknologien sviktet, men fordi institusjonene gjorde det.
Over store deler av verden reagerte myndigheter og ekspertorganer på usikkerhet med enestående sosiale og biomedisinske intervensjoner, begrunnet med verst tenkelige modeller og håndhevet med bemerkelsesverdig sikkerhet. Konkurrerende hypoteser ble marginalisert snarere enn debattert. Nødtiltak ble hardnet til langsiktig politikk. Når bevisene endret seg, var innrømmelser av feil sjeldne, og ansvarlighet enda sjeldnere. Erfaringen avdekket et dypere problem enn noen enkelt politisk feil: moderne institusjoner ser ut til å være dårlig rustet til å håndtere usikkerhet uten å overanstrenge seg.
Den lærdommen veier nå tungt i debattene om kunstig intelligens.
Risikoskillet mellom kunstig intelligens
Generelt sett faller bekymringen rundt avansert AI i to leire. Én gruppe – assosiert med tenkere som Eliezer Yudkowsky og Nate Soares – argumenterer for at tilstrekkelig avansert AI er katastrofalt farlig som standard. I sin bevisst strenge formulering, Hvis noen bygger det, dør alle, problemet er ikke dårlige intensjoner, men insentiver: konkurranse sikrer at noen tar snarveier, og når et system unnslipper meningsfull kontroll, spiller ikke intensjoner lenger noen rolle.
En annen leir, inkludert personer som Stuart Russell, Nick Bostrom og Max Tegmark, tar også AI-risiko på alvor, men er mer optimistiske med tanke på at tilpasning, nøye styring og gradvis utrulling kan holde systemene under menneskelig kontroll.
Til tross for uenighetene er begge leirene enige om én konklusjon: ubegrenset AI-utvikling er farlig, og en form for tilsyn, koordinering eller begrensning er nødvendig. Der de divergerer er gjennomførbarhet og hvor raskt det haster. Det som imidlertid sjelden undersøkes, er om institusjonene som forventes å sørge for denne begrensningen, selv er egnet for rollen.
Covid antyder grunn til tvil.
Covid var ikke bare en folkehelsekrise; det var et levende eksperiment i ekspertdrevet styring under usikkerhet. Stilt overfor ufullstendige data valgte myndighetene gjentatte ganger maksimale tiltak begrunnet med spekulative skadevirkninger. Dissens ble ofte behandlet som en moralsk svikt snarere enn en vitenskapelig nødvendighet. Politikk ble forsvart ikke gjennom transparente kost-nytte-analyser, men gjennom appeller til autoriteter og frykt for hypotetiske fremtider.
Dette mønsteret er viktig fordi det avslører hvordan moderne institusjoner oppfører seg når innsatser blir innrammet som eksistensielle. Insentiver skifter mot besluttsomhet, narrativ kontroll og moralsk sikkerhet. Feilretting blir kostbart for omdømmet. Forholdsregler slutter å være et verktøy og blir en doktrine.
Lærdommen er ikke at eksperter har unike feil. Den er at institusjoner belønner overdreven selvtillit langt mer pålitelig enn ydmykhet, spesielt når politikk, finansiering og offentlig frykt går hånd i hånd. Når ekstraordinære fullmakter først er gjort krav på i sikkerhetshensyn, blir de sjelden gitt fra seg frivillig.
Dette er nettopp dynamikken som nå er synlig i diskusjoner om AI-tilsyn.
«Hva om»-maskinen
En tilbakevendende begrunnelse for omfattende statlig inngripen er den hypotetiske dårlige aktøren: Hva om en terrorist bygger dette? Hva om en skurkstat gjør det? Fra denne forutsetningen følger argumentet om at myndighetene må handle forebyggende, i stor skala og ofte i hemmelighet for å forhindre katastrofe.
Under covid-19 rettferdiggjorde lignende logikk omfattende biomedisinske forskningsagendaer, nødautorisasjoner og sosiale kontroller. Resonnementet var sirkulært: fordi noe farlig kunne Hvis dette skjer, må staten iverksette ekstraordinære tiltak nå – tiltak som i seg selv medførte betydelige, dårlig forståtte risikoer.
KI-styring blir i økende grad innrammet på samme måte. Faren er ikke bare at KI-systemer kan oppføre seg uforutsigbart, men at frykten for denne muligheten vil legitimere permanent nødstyring – sentralisert kontroll over beregning, forskning og informasjonsflyt – med den begrunnelse at det ikke finnes noe alternativ.
Privat risiko, offentlig risiko
Et undervurdert skille i disse debattene er mellom risikoer generert av private aktører og risikoer generert av statlige myndigheter. Private firmaer er begrenset – ufullkomment, men meningsfullt – av ansvar, konkurranse, omdømme og markedsdisiplin. Disse begrensningene eliminerer ikke skade, men de skaper tilbakekoblingsløkker.
Myndigheter opererer annerledes. Når stater handler i katastrofeforebyggingens navn, svekkes tilbakemeldingene. Feil kan omklassifiseres som nødvendigheter. Kostnader kan eksternaliseres. Hemmelighold kan rettferdiggjøres med sikkerhet. Hypotetiske fremtidige skader blir politiske påvirkningsmekanismer i nåtiden.
Flere KI-tenkere erkjenner implisitt dette. Bostrom har advart om «innelåsingseffekter» – ikke bare fra KI-systemer, men også fra styringsstrukturer som skapes i panikkøyeblikk. Anthony Aguirres oppfordring til global tilbakeholdenhet er logisk sammenhengende, men er avhengig av internasjonale koordineringsorganer hvis nylige resultater innen ydmykhet og feilretting er dårlige. Enda mer moderate forslag forutsetter regulatorer som er i stand til å motstå politisering og «mission creep».
Covid gir oss liten grunn til å være trygge på den antagelsen.
Tilsynsparadokset
Dette fører til et urovekkende paradoks i kjernen av AI-debatten. Hvis man virkelig tror at avansert AI må begrenses, bremses eller stoppes, er det myndigheter og transnasjonale institusjoner som mest sannsynlig har makten til å gjøre det. Likevel er det nettopp disse aktørene hvis nylige oppførsel gir minst tillit til en tilbakeholden, reversibel bruk av denne makten.
Kriserammeverk er vanskelige å håndtere. Myndigheter som erverves for å håndtere hypotetiske risikoer, har en tendens til å vedvare og utvide seg. Institusjoner nedgraderer sjelden sin egen betydning. I AI-sammenheng reiser dette muligheten for at responsen på AI-risiko forankrer sprø, politiserte kontrollsystemer som er vanskeligere å avvikle enn noen individuell teknologi.
Faren er med andre ord ikke bare at AI unnslipper menneskelig kontroll, men at frykten for AI akselererer konsentrasjonen av autoritet i institusjoner som allerede har vist seg å være sene til å innrømme feil og fiendtlige til dissens.
Å tenke nytt om den reelle risikoen
Dette er ikke et argument for selvtilfredshet med hensyn til AI, og heller ikke en fornektelse av at kraftige teknologier kan gjøre reell skade. Det er et argument for å utvide rammen. Institusjonell svikt er i seg selv en eksistensiell variabel. Et system som forutsetter velvillig, selvkorrigerende styring er ikke tryggere enn et som forutsetter velvillig, samordnet superintelligens.
Før covid var det rimelig å tilskrive mesteparten av teknologisk pessimisme til menneskelig negativitetsbias – tendensen til å tro at vår generasjons utfordringer er unikt uhåndterlige. Etter covid ser skepsis mindre ut som bias og mer som erfaring.
Det sentrale spørsmålet i AI-debatten er derfor ikke bare om maskiner kan samkjøres med menneskelige verdier, men om moderne institusjoner kan stoles på til å håndtere usikkerhet uten å forsterke den. Hvis den tilliten har svekket seg – og Covid antyder at den har gjort det – fortjener krav om omfattende AI-tilsyn minst like mye gransking som påstander om teknologisk uunngåelighet.
Den største risikoen er kanskje ikke at AI blir for mektig, men at frykten for den muligheten rettferdiggjør former for kontroll vi senere oppdager er langt vanskeligere å leve med – eller unnslippe.
-
Roger Bate er Brownstone Fellow, seniorfellow ved International Center for Law and Economics (januar 2023–nå), styremedlem i Africa Fighting Malaria (september 2000–nå) og fellow ved Institute of Economic Affairs (januar 2000–nå).
Vis alle innlegg