Jeg føler meg redd. Veldig skremt.
Internett-omfattende overvåking og sensur, aktivert av den ufattelig store beregningskraften til kunstig intelligens (AI), er her.
Dette er ikke en futuristisk dystopi. Det skjer nå.
Offentlige etater samarbeider med universiteter og ideelle organisasjoner for å bruke AI-verktøy for å overvåke og sensurere innhold på Internett.
Dette er ikke politisk eller partipolitisk. Dette handler ikke om noen spesiell mening eller idé.
Det som skjer er at et verktøy som er kraftig nok til å overvåke alt som er sagt og gjort på Internett (eller store deler av det) blir tilgjengelig for myndighetene for å overvåke oss alle, hele tiden. Og, basert på denne overvåkingen, kan myndighetene – og enhver organisasjon eller selskap myndighetene samarbeider med – bruke det samme verktøyet til å undertrykke, tie og stenge den tale den ikke liker.
Men det er ikke alt. Ved å bruke det samme verktøyet kan regjeringen og dens offentlig-private, "ikke-statlige" partnere (tenk for eksempel: Verdens helseorganisasjon eller Monsanto) også stenge enhver aktivitet som er knyttet til Internett. Banking, kjøp, salg, undervisning, læring, underholding, kontakt med hverandre – hvis den myndighetskontrollerte AI ikke liker det du (eller barna dine!) sier i en tweet eller en e-post, kan den stenge alt dette for du.
Ja, vi har sett dette i en veldig lokal og politisert målestokk med f.eks. de kanadiske lastebilistene.
Men hvis vi trodde at denne typen aktivitet ikke kunne, eller ikke ville, skje på nasjonal (eller enda skumlere – global) skala, må vi våkne opp akkurat nå og innse at det skjer, og at det kanskje ikke kan stoppes.
Nye dokumenter viser statlig finansiert kunstig intelligens beregnet på nettsensur
US House Select Subcommittee for Weaponization of the Federal Government ble dannet i januar 2023 "for å undersøke saker knyttet til innsamling, analyse, spredning og bruk av informasjon om amerikanske statsborgere av utøvende organer, inkludert om slik innsats er ulovlig, grunnlovsstridig eller på annen måte uetisk."
Dessverre blir arbeidet til komiteen sett på, selv av dets egne medlemmer, som i stor grad politisk: Konservative lovgivere undersøker det de oppfatter å være tystingen av konservative stemmer fra liberale offentlige etater.
Ikke desto mindre har denne komiteen i sine undersøkelser avdekket noen forbløffende dokumenter knyttet til regjeringens forsøk på å sensurere talen til amerikanske borgere.
Disse dokumentene har avgjørende og skremmende konsekvenser for hele samfunnet.
I underutvalgets delrapport, datert 5. februar 2024, viser dokumenter at akademiske og ideelle organisasjoner presenterer et offentlig organ på en plan om å bruke AI "feilinformasjonstjenester" for å sensurere innhold på internettplattformer.
Nærmere bestemt forklarer University of Michigan til National Science Foundation (NSF) at de AI-drevne verktøyene finansiert av NSF kan brukes til å hjelpe sosiale medieplattformer med å utføre sensuraktiviteter uten å faktisk ta avgjørelser om hva som skal sensureres.
Slik visualiseres forholdet i underutvalgets rapport:

Her er et spesifikt sitat presentert i underutvalgets rapport. Det kommer fra "Speaker's notes fra University of Michigans første pitch til National Science Foundation (NSF) om det NSF-finansierte, AI-drevne WiseDex-verktøyet." Notatene ligger hos komiteen.
Vår feilinformasjonstjeneste hjelper beslutningstakere på plattformer som ønsker å ... skyve ansvar for vanskelige vurderinger til noen utenfor selskapet ... ved å eksternalisere det vanskelige ansvaret med sensur.
Dette er en ekstraordinær uttalelse på så mange nivåer:
- Det sidestiller eksplisitt "feilinformasjonstjeneste" med sensur.
Dette er en avgjørende ligning, fordi regjeringer over hele verden later til å bekjempe skadelig feilinformasjon når de faktisk er vedta massive sensurregninger. De WEF erklært "feilinformasjon og desinformasjon" de "alvorligste globale risikoene" i løpet av de neste to årene, noe som antagelig betyr at deres største innsats vil gå mot sensur.
Når en offentlig entreprenør eksplisitt sier at den selger en "feilinformasjonstjeneste" som hjelper nettplattformer med å "eksternalisere sensur" - erkjennes de to begrepene som utskiftbare.
- Det omtaler sensur som et "ansvar".
Det forutsetter med andre ord at en del av det plattformene bør gjøre er sensur. Å ikke beskytte barn mot sex-rovdyr eller uskyldige borgere mot feilinformasjon – bare ren og enkel, uforfalsket sensur.
- Den sier at rollen til AI er å "eksternalisere" ansvaret for sensur.
Tech-plattformene ønsker ikke å ta sensuravgjørelser. Regjeringen ønsker å ta disse beslutningene, men ønsker ikke å bli sett på som sensurerende. AI-verktøyene gjør det mulig for plattformene å "eksternalisere" sensurvedtakene og regjeringen kan skjule sine sensuraktiviteter.
Alt dette bør gjøre slutt på illusjonen om at det regjeringer rundt om i verden kaller "motvirke feilinformasjon og hatefulle ytringer" ikke er direkte sensur.
Hva skjer når AI-sensur er fullt implementert?
Når vi vet at regjeringen allerede betaler for AI-sensurverktøy, må vi vikle tankene våre rundt hva dette innebærer.
Ingen bemanningsgrenser: Som underkomitérapporten påpeker, har grensene for offentlig sensur på nett til nå involvert det store antallet mennesker som kreves for å gå gjennom endeløse filer og ta sensurbeslutninger. Med AI trenger knapt noen mennesker å være involvert, og mengden data som kan overvåkes kan være like stor som alt noen sier på en bestemt plattform. Den mengden data er uforståelig for en enkelt menneskelig hjerne.
Ingen er ansvarlig: En av de mest skremmende aspektene ved AI-sensur er at når AI gjør det, er det ikke noe menneske eller organisasjon – det være seg regjeringen, plattformene eller universitetet/nonprofits – som faktisk er ansvarlig for sensuren. Til å begynne med mater mennesker AI-verktøyet instruksjoner for hvilke kategorier eller typer språk som skal sensureres, men så går maskinen videre og tar avgjørelser fra sak til sak helt av seg selv.
Ingen regress for klager: Når AI er sluppet løs med et sett med sensurinstruksjoner, vil den feie opp gazillioner av online datapunkter og bruke sensurhandlinger. Hvis du vil bestride en AI-sensurhandling, må du snakke med maskinen. Kanskje vil plattformene ansette mennesker for å svare på appeller. Men hvorfor skulle de gjøre det når de har AI som kan automatisere disse svarene?
Ingen beskyttelse for ungdom: En av påstandene fra myndighetenes sensurer er at vi må beskytte barna våre mot skadelig informasjon på nettet, som innhold som gjør dem anorektiske, oppmuntrer dem til å begå selvmord, gjør dem til ISIS-terrorister, og så videre. Også fra seksuell utnyttelse. Dette er alle alvorlige saker som fortjener oppmerksomhet. Men de er ikke på langt nær så farlige for et stort antall unge mennesker som AI-sensur er.
Faren ved AI-sensur gjelder alle unge mennesker som bruker mye tid på nettet, fordi det betyr at deres nettaktiviteter og språk kan overvåkes og brukes mot dem – kanskje ikke nå, men når myndighetene bestemmer seg for å gå etter en bestemt type av språk eller atferd. Dette er en mye større fare for et mye større antall barn enn faren som utgjøres av noe spesifikt innhold, fordi det omfatter all aktivitet de utfører på nettet, og berører nesten alle aspekter av livet deres.
Her er et eksempel for å illustrere denne faren: La oss si at tenåringen din spiller mange interaktive videospill på nettet. La oss si at han tilfeldigvis favoriserer spill designet av kinesiske selskaper. Kanskje han også ser på andre spille disse spillene, og deltar i chatter og diskusjonsgrupper om disse spillene, der mange kinesiske statsborgere også deltar.
Regjeringen kan bestemme neste måned, eller neste år, at alle som er sterkt engasjert i kinesisk-designede videospill er en fare for demokratiet. Dette kan føre til at du stenger sønnens kontoer på sosiale medier eller nekter ham tilgang til økonomiske verktøy, som høyskolelån. Det kan også innebære å flagge ham på arbeids- eller datingnettsteder som farlig eller uønsket. Det kan bety at han blir nektet pass eller satt på en overvåkningsliste.
Livet til tenåringen din ble mye vanskeligere. Mye vanskeligere enn om han ble utsatt for en ISIS rekrutteringsvideo eller selvmordsforherligende TikTok-innlegg. Og dette ville skje i mye større skala enn seksuell utnyttelse sensurene bruker som en trojansk hest for å normalisere ideen om offentlig sensur på nett.
Sensurtjenester som kan tjene penger på: Et AI-verktøy som eies av myndighetene kan teoretisk sett brukes av en ikke-statlig enhet med myndighetens tillatelse, og med velsignelse fra plattformene som ønsker å "eksternalisere" "ansvaret" for sensur. Så mens regjeringen kanskje bruker kunstig intelligens til å overvåke og undertrykke, la oss som et eksempel si anti-krigsfølelse – et selskap kan bruke det til å overvåke og undertrykke, la oss si som et eksempel, anti-hurtigmat-sentiment. Regjeringen kan tjene mye penger på å selge tjenestene til AI-verktøyene til tredjeparter. Plattformene kunne også tenkes å be om et kutt. Dermed kan AI-sensurverktøy potensielt være til fordel for regjeringen, teknologiske plattformer og private selskaper. Incentivene er så kraftige at det er nesten umulig å forestille seg at de ikke vil bli utnyttet.
Kan vi snu kursen?
Jeg vet ikke hvor mange offentlige etater og hvor mange plattformer som bruker AI-sensurverktøy. Jeg vet ikke hvor raskt de kan skalere opp.
Jeg vet ikke hvilke verktøy vi har til rådighet – annet enn å øke bevisstheten og prøve å lobbye politikere og reise søksmål for å forhindre sensur fra myndighetene og regulere bruken av AI-verktøy på internett.
Hvis noen har andre ideer, er det på tide å implementere dem nå.
Debbie Lerman, Brownstone Fellow i 2023, har en grad i engelsk fra Harvard. Hun er en pensjonert vitenskapsskribent og praktiserende kunstner i Philadelphia, Pennsylvania.
Vis alle innlegg