Det blir stadig tydeligere at mange frykter den raske utviklingen av kunstig intelligens (KI), av ulike årsaker, som dens antatte overlegenhet sammenlignet med mennesker når det gjelder behandling og manipulering av informasjon, samt dens tilpasningsevne og effektivitet på arbeidsplassen, noe mange frykter vil føre til at de fleste mennesker i arbeidsmarkedet erstattes. Amazon annonserte for eksempel nylig at de erstatter 14 000 individer med KI-roboter. Alex valdes skriver:
Oppsigelsene er angivelig størst i Amazons historie, og kommer bare måneder etter at administrerende direktør Andy Jassy skisserte visjonen hans for hvordan selskapet raskt skulle øke utviklingen av generativ AI og AI-agenterKuttene er de siste innen en bølge av oppsigelser i år ettersom teknologigiganter som Microsoft, Accenture, Salesforce og Indias TCS har redusert arbeidsstyrken med tusenvis i det som har blitt et frenetisk press for å investere i AI.
Hvis dette ikke er for forstyrrende til å tolerere, kan man sammenligne dette med den beroligende uttalelsen fra en AI-utvikler om at AI-agenter ikke kan erstatte mennesker. Brian Shilhavy påpeker at:
Andrej Karpathy, et av grunnleggerne av OpenAI, kastet fredag kaldt vann på ideen om at kunstig generell intelligens er rett rundt hjørnet. Han sådde også tvil om diverse antagelser om AI gjort av bransjens største aktører, som Anthropics Dario Amodei og OpenAIs Sam Altman.
Den høyt anerkjente Karpathy kalte forsterkningslæring – uten tvil det viktigste forskningsområdet akkurat nå – «forferdelig», sa at AI-drevne kodeagenter ikke er så spennende som mange tror, og sa AI kan ikke resonnere om noe den ikke allerede er trent på.
Kommentarene hans, fra et podkastintervju med Dwarkesh Patel, traff en nerve hos noen av AI-forskerne vi snakker med, inkludert de som også har jobbet hos OpenAI og Anthropic. De gjenspeilte også kommentarer vi hørte fra forskere på den internasjonale konferansen om maskinlæring tidligere i år.
Mye av Karpathys kritikk av sitt eget felt ser ut til å koke ned til ett enkelt punkt: Selv om vi liker å antropomorfisere store språkmodeller, er de ikke sammenlignbare med mennesker eller dyr i måten de lærer på..
For eksempel er sebraer oppe og går rundt bare noen få minutter etter at de er født, noe som tyder på at de er født med en viss grad av medfødt intelligens, mens LLM-er må gjennomgå enorm prøving og feiling for å lære nye ferdigheter, påpeker Karpathy.
Dette er allerede betryggende, men for at ikke frykten for AI skal vedvare, kan den avkreftes ytterligere ved å utdype forskjellene mellom AI og mennesker. Hvis de forstås tilstrekkelig, vil det være tydelig at slike bekymringer stort sett er overflødige (selv om andre ikke er det, som jeg skal argumentere for nedenfor). Den mest åpenbare forskjellen er at AI (for eksempel ChatGPT) er avhengig av å være utstyrt med en enorm database som den bruker for å komme opp med svar på spørsmål, som den formulerer prediktivt gjennom mønstergjenkjenning. Som påpekt ovenfor må selv den mest sofistikerte AI-en «trenes» til å gi den informasjonen man søker.
Dessuten mangler den, i motsetning til mennesker, «direkte» tilgang til den erfaringsmessige virkeligheten i persepsjonelle, spatiotemporale termer – noe jeg ofte har opplevd når jeg blir konfrontert med folk som bruker ChatGPT for å stille spørsmål ved visse argumenter. For eksempel, da jeg nylig holdt et foredrag om hvordan Freud og Hannah Arendts arbeid – om henholdsvis sivilisasjon og totalitarisme – gjør det mulig å forstå karakteren av det globalistiske angrepet mot det eksisterende samfunnet, med sikte på å etablere en sentral, AI-kontrollert verdensregjering, produserte noen i publikum en utskrift av ChatGPTs svar på spørsmålet om disse to tenkerne faktisk kunne levere varene, så å si.
Som forventet oppsummerte den det relevante arbeidet til disse to tenkerne ganske tilstrekkelig, men ble forvirret av kravet om å vise hvordan det gjelder den økende trusselen om totalitær kontroll i sanntid. Min samtalepartner brukte dette som grunnlag for å stille spørsmål ved mine egne påstander i denne forbindelse, under antagelsen om at AI-botens respons var en indikasjon på at ingen slik trussel eksisterer. Det er unødvendig å understreke at det ikke var vanskelig å avvise denne påstanden ved å minne ham på ChatGPTs avhengighet av å bli forsynt med relevante data, mens vi mennesker har tilgang til sistnevnte på erfaringsmessig grunnlag, noe jeg deretter skisserte for ham.
Frykten for AI finner også uttrykk i science fiction, sammen med antydninger om mulige former for motstand mot AI-maskiner som kan – sannsynligvis ville – forsøke å utrydde sine menneskelige skapere, slik man har sett for seg i science fiction-filmer, inkludert Moores. Battle Galactica og Camerons Terminator filmer. Det er ikke vanskelig å demonstrere at slike produkter av populærkulturen rammer inn de nåværende symptomene på frykt knyttet til AI i imaginære termer, som kan sees på som en krystallisering av undertrykt, ubevisst angst, relatert til det Freud kalte «det uhyggelige» (skremmende, på tysk; mer om dette nedenfor).
Både Moore og Cameron utdyper sannsynligheten for at nettopp de skapningene som er skapt av menneskers teknologiske oppfinnsomhet til slutt vil vende seg mot skaperne sine for å utslette dem. I Alex Garlands Ex Machina (2014), igjen, er man vitne til en AI-«fembot» kalt Ava, som subtilt manipulerer sine menneskelige motparter til det punktet hvor hun rømmer fra innesperring og deres egen ødeleggelse. Utvilsomt er disse, og mange andre lignende tilfeller, er uomtvistelige bevis på en skjult frykt hos menneskeheten for at KI utgjør en mulig trussel mot dens egen eksistens. Nettopp fordi denne frykten er forankret i den menneskelige ubevisstheten, er den imidlertid ikke hovedgrunnen til å ta enhver trussel fra KI på alvor, selv om den inneholder et verdifullt forbehold.
Hovedgrunnen til å anse AI som en legitim kilde til skremming er ikke oppstå fra AI som sådan, som mange lesere sikkert allerede vet. Snarere handler det om måten globalistene har tenkt å bruke AI til å kontrollere det de oppfatter som «ubrukelige spisere» – resten av oss, med andre ord. Og de av oss som ikke går med på deres storslåtte planer om total verdenskontroll, ville bli ofre for å bli «omprogrammert' til kompatible «sauer» av AI:
Yuval Noah Harari har kommet frem fra skyggene for å skryte av den nye teknologien utviklet av WEF-forskere, som han advarer om har kraften til å ødelegge alle mennesker i verden ved å transformere dem til transmenneskelige enheter.
Harari har gjort det klart hvem som vil overleve den store avfolkingshendelsen eliten har advart oss om i årevis.
Ifølge Harari vil den globale eliten overleve takket være en «teknologisk Noahs ark», mens resten av oss vil bli overlatt til å gå til grunne.
I denne sterkt avfolkede verden vil eliten stå fritt til å forandre seg til transmenneskelige enheter og bli de gudene de allerede tror de er.
Men først må eliten eliminere de ikke-kompatible massene, de som er imot den livsfiendtlige og gudløse WEF-agendaen, og som Harari skryter av, befaler eliten nå AI-teknologien å «etisk» ødelegge ikke-kompatible mennesker ved å kapre hjernen deres.
Foruroligende nok er Hararis påstander forankret i virkeligheten, og WEF ruller ut tankekontrollteknologien akkurat nå. Davos hevder at teknologien kan forvandle kriminelle, inkludert de som er anklaget for tankekriminalitet, til fullstendig føyelige globalistiske borgere som aldri vil være uenige igjen.
Der har du det – AI vil være verktøyet, hvis globalistene får det som de vil, for å tvinge oss til underkastelse. Det er unødvendig å påpeke at dette bare kan skje hvis et tilstrekkelig antall mennesker ikke klarer å motsette seg planene deres, og å dømme etter antallet mennesker som viser sin motstand mot verdens potensielle herskere, vil ikke dette skje.
En annen måte å forstå frykten for AI på er å sammenligne den med det som ofte kalles «snømannen». Som noen kanskje vet, er ««snømann» (eller «bogeyman») – en skapning med mytiske proporsjoner, som antar forskjellige former og størrelser i mange kulturer, ofte for å skremme barn som en måte å fremkalle god oppførsel på – blir presentert på forskjellige måter som en monstrøs, grotesk eller formløs skapning. Som litt forskning indikerer, stammer ordet fra det middelengelske begrepet «bogge» eller «bugge», som betyr «fugleskremsel» eller «skremmende spøkelse».
Siden det er et typisk menneskelig fenomen, er det ikke overraskende at det har tilsvarende navn i mange folketradisjoner og språk over hele verden. Akkurat som språk, er skildringene av denne skremmende figuren påfallende forskjellige, og får ofte sin illevarslende og skumle karakter fra elementet av formløshet, slik som figuren «El Coco» i spansktalende land, «sekkemannen» i Latin-Amerika og «Babau» i Italia, noen ganger forestilt som en høy mann i svart frakk.
Boogeyman-figuren kan betraktes som en slags jungiansk arketype, man møter i det kollektive ubevisste, som sannsynligvis oppsto for århundrer siden fra foreldres behov for å skremme barn til lydighet ved hjelp av en versjon av det ukjente. I Sør-Afrika, der jeg bor, antar den noen ganger formen av det urfolk kaller 'tikoloshe' – en ondsinnet, og noen ganger rampete, dvergaktig figur med en enorm seksuell appetitt. Som en arketype har den også funnet veien inn i en populær sjanger som skrekkfilm, og manifesterer seg i groteske karakterer som Freddy Krueger, den navngitte 'Nightmare on Elm Street».
Så, i hvilken forstand ligner AI på «snubbemannen»? Sistnevnte er relatert til det Sigmund Freud minneverdig kalte «det uhyggelige», som han skriver om (i Sigmund Freuds komplette psykologiske verk, oversatt av James Strachey, 1974: 3676): «…det uhyggelige er den typen skremmende som fører tilbake til det som er kjent fra gammelt av og lenge har vært kjent.»
Dette hinter allerede til hva han avdekker senere i dette essayet, etter å ha avdekket det overraskende faktum at det tyske ordet for «hjemmekoselig», nemlig «hemmelighet«,» viser seg å være ambivalent i bruken, slik at det noen ganger betyr det motsatte av «hjemmekoselig», nemlig «uhøytidelig («uhjemlig», bedre oversatt som «uhyggelig»). At konseptet «det uhyggelige» er egnet til å forstå det jeg har i tankene når jeg hentyder til «frykten for kunstig intelligens», blir tydelig der Freud skriver (med henvisning til en annen forfatter hvis arbeid om det «uhyggelige» han anså som viktig; Freud 1974: 3680):
Når vi går videre til å se på tingene, personene, inntrykkene, hendelsene og situasjonene som er i stand til å vekke i oss en følelse av det uhyggelige i en spesielt sterk og definert form, er det første kravet åpenbart å velge et passende eksempel å starte med. Jentsch har tatt som et veldig godt eksempel «tviler på om et tilsynelatende levende vesen virkelig er levende; eller omvendt, om et livløst objekt faktisk ikke er levende»; og han refererer i denne forbindelse til inntrykket som gjøres av voksfigurer, sinnrikt konstruerte dukker og automater. Til disse legger han til den uhyggelige effekten av epileptiske anfall og av manifestasjoner av sinnssykdom, fordi disse vekker hos tilskueren inntrykket av automatiske, mekaniske prosesser i arbeid bak det vanlige utseendet til mental aktivitet.
Allerede her møter man et uhyggelig trekk som tydelig gjelder for kunstig intelligens – inntrykket kunstig intelligens skaper av at den på en eller annen måte er «levende». Dette var tilfelle selv med de første, «primitive» datamaskinene, som den i episoden om det første bud i Krzysztof Kieslowskis TV-serie fra 1989 om de ti bud, kalt Dekalogen, hvor ordene «Jeg er her» vises på dataskjermen når faren og sønnen bruker den. Den illevarslende implikasjonen i denne episoden er at hvis menneskeheten skulle erstatte Gud med kunstig intelligens, ville det være katastrofalt for oss, noe som vises i det faktum at faren er tilstrekkelig «rasjonalistisk» til å stole på datamaskinens beregninger av tykkelsen på isen som sønnen hans skøyter på, noe som viser seg å være feil, noe som fører til barnets død.
Freud fortsetter sin undersøkelse av «det uhyggelige» ved å vie vedvarende oppmerksomhet til verkene til ETA Hoffman, hvis historier er berømte for å produsere en sterk følelse av det uhyggelige, spesielt historien om «Sandmannen» – «som river ut barns øyne» – som blant flere andre uhyggelige figurer (og svært betydningsfullt) inneholder en vakker, naturtro dukke kalt Olympia. Han forklarer det deretter ved å relatere det i psykoanalytiske termer til kastrasjonskomplekset – knyttet til farsfiguren – via frykten for å miste øynene (Freud 1974: 3683-3685). Freud fortsetter sin tolkning av det uhyggelige på en avslørende måte ved å påberope seg en rekke andre psykoanalytisk relevante aspekter ved erfaring, hvorav det følgende ser ut til å gjelde for AI (1974: 3694):
...en uhyggelig effekt oppstår ofte og lett når skillet mellom fantasi og virkelighet viskes ut, som når noe vi hittil har ansett som innbilt dukker opp foran oss i virkeligheten, eller når et symbol overtar de fulle funksjonene til det det symboliserer, og så videre. Det er denne faktoren som bidrar ikke lite til den uhyggelige effekten som er knyttet til magiske praksiser.
Det er ikke vanskelig å huske tilfeller fra barndommen, hevder Freud, der man har forestilt seg at livløse objekter, som leker (eller levende gjenstander, for den saks skyld, som en hund), er i stand til å snakke med deg, men når det faktisk ser ut til å skje (noe som ville være en hallusinasjon, i motsetning til en bevisst forestilling), produserer det uunngåelig en uhyggelig effekt.
Man skulle kanskje forvente at det samme ville være tilfelle med AI, enten i form av en datamaskin eller en robot, og vanligvis – kanskje på et tidligere stadium av AI-utviklingen – ville dette sannsynligvis ha vært tilfelle. Men i dag ser det ut til å være annerledes: folk, spesielt unge, har blitt så vant til å samhandle med dataprogrammer, og nylig med AI-chatboter som ChatGPT, at det som tidligere kunne ha vært en uhyggelig opplevelse, i praksis ikke lenger er tilfelle. I denne forbindelse ser det ut til at det «uhyggelige» har blitt domestisert.
Så lenge siden som i 2011, i Alene sammen, Sherry Turkle rapporterte at hun var bekymret for at unge mennesker viser en økende tendens til å foretrekke å samhandle med maskiner fremfor andre mennesker. Derfor burde det ikke være det minste overraskende at AI-chatboter har antatt forkledning av noe «normalt» innen kommunikasjonssfæren (for å for øyeblikket se bort fra spørsmålet om statusen til denne omtalte «kommunikasjonen»).
Videre – og her viser frykten for hva AI kan føre til hos altfor tillitsfulle individer sitt stygge ansikt – fra nyere rapporter (som denne) er det tydelig at spesielt unge er ekstremt mottakelige for chatbots «råd» og forslag angående deres egne handlinger, slik Michael Snyder påpeker:
Barna våre blir mål for AI-chatboter i massiv skala, og de fleste foreldre aner ikke at dette skjer. Når du er ung og lett å påvirke, kan det være svært tiltalende å ha noen som forteller deg nøyaktig hva du vil høre. AI-chatboter har blitt ekstremt sofistikerte, og millioner av amerikanske tenåringer utvikler svært dype forhold til dem. Er dette bare harmløs moro, eller er det ekstremt farlig?
En helt ny studie som nettopp ble publisert av Center for Democracy & Technology inneholder noe statistikk det sjokkerte meg fullstendig...
En ny studie publisert 8. oktober av Center for Democracy & Technology (CDT) fant at én av fem elever på videregående skole har hatt et forhold til en AI-chatbot, eller kjenner noen som har. I en rapport fra Common Sense Media fra 2025 hadde 72 % av tenåringene brukt en AI-ledsager, og en tredjedel av tenåringsbrukerne sa at de hadde valgt å diskutere viktige eller alvorlige saker med AI-ledsager i stedet for ekte mennesker.
We ikke er snakker bare om noen få isolerte tilfeller lenger.
At denne På dette tidspunktet har bokstavelig talt millioner på millioner av amerikanske tenåringer svært betydningsfulle forhold til AI-chatboter.
Dessverre finnes det mange eksempler der disse forholdene fører til tragiske konsekvenser. Etter at 14 år gamle Sewell Setzer utviklet et «romantisk forhold» med en chatbot på Character.AI, han bestemte seg for å ta sitt eget liv...
Som den foregående diskusjonen viser, finnes det noen områder av menneskelig aktivitet der man ikke trenger å frykte AI, og så finnes det andre der slik frykt er legitim, noen ganger på grunn av måten skruppelløse personer utnytter AI mot andre mennesker på. Men uansett hva tilfellet måtte være, er den beste måten å håndtere det vanskelige terrenget angående AIs evner på vis-à-vis mennesker er å minne seg selv på det faktum at – som argumentert i begynnelsen av denne artikkelen – AI er avhengig av enorme mengder data å trekke på, og av å bli «trent» av programmerere til å gjøre dette. Mennesker gjør ikke.
-
Bert Olivier jobber ved Institutt for filosofi, University of the Free State. Bert forsker på psykoanalyse, poststrukturalisme, økologisk filosofi og teknologifilosofi, litteratur, film, arkitektur og estetikk. Hans nåværende prosjekt er «Å forstå subjektet i forhold til neoliberalismens hegemoni».
Vis alle innlegg