Min erfaring innen medisin lar meg skille mellom ekte innovasjon og subtil omklassifisering som fundamentalt endrer praksis, samtidig som den fremstår uendret. Kunstig intelligens har nylig fått betydelig oppmerksomhet, inkludert den mye sirkulerte påstanden om at KI har blitt «lovlig autorisert til å praktisere medisin» i USA. Tolket bokstavelig er denne påstanden unøyaktig. Ingen medisinske styre har lisensiert en maskin. Ingen algoritme har sverget en ed, akseptert tillitsplikt eller påtatt seg personlig ansvar for pasientskade. Ingen robotlege åpner en klinikk, fakturerer forsikringsselskaper eller står foran en jury for feilbehandling.
Men å stoppe opp ved denne observasjonen overser det bredere problemet. Juridiske ansvarsbegreper blir for tiden omdefinert, ofte uten offentlighetens bevissthet.
En betydelig transformasjon er i gang, som rettferdiggjør mer enn enten refleksiv avvisning eller ukritisk teknologisk entusiasme. Den nåværende utviklingen er ikke lisensiering av kunstig intelligens som lege, men snarere den gradvise erosjonen av medisinens kjernegrense: den iboende koblingen mellom klinisk dømmekraft og menneskelig ansvarlighet. Klinisk dømmekraft innebærer å ta informerte beslutninger skreddersydd til hver pasients unike behov og omstendigheter, noe som krever empati, intuisjon og en dyp forståelse av medisinsk etikk.
Menneskelig ansvarlighet refererer til ansvaret helsepersonell tar for disse beslutningene og resultatene av dem. Denne erosjonen er ikke et resultat av dramatisk lovgivning eller offentlig debatt, men skjer i det stille gjennom pilotprogrammer, regulatoriske omtolkninger og språkbruk som bevisst tilslører ansvar. Når denne grensen oppløses, forvandles medisinen på måter som er vanskelige å reversere.
Hovedbekymringen er ikke om AI kan etterfylle resepter eller oppdage unormale laboratorieresultater. Medisinen har lenge brukt verktøy, og helsepersonell setter generelt pris på hjelp som reduserer administrative oppgaver eller forbedrer mønstergjenkjenning. Det virkelige spørsmålet er om medisinsk dømmekraft – å bestemme seg for de riktige handlingene, pasientene og risikoene – kan sees på som et datagenerert resultat atskilt fra moralsk ansvar. Historisk sett har forsøk på å koble dømmekraft fra ansvarlighet ofte forårsaket skade uten å ta eierskap.
Nyere utviklinger avklarer årsaken til den nåværende forvirringen. I flere stater tillater nå begrensede pilotprogrammer at AI-drevne systemer kan bistå med reseptfornyelser for stabile kroniske tilstander under snevert definerte protokoller. På føderalt nivå har lovforslag vurdert om kunstig intelligens kan kvalifisere som en «utøver» for spesifikke lovbestemte formål, forutsatt at den er passende regulert. Disse initiativene presenteres vanligvis som pragmatiske svar på legemangel, forsinkelser i tilgang og administrativ ineffektivitet. Selv om ingen eksplisitt betegner AI som en lege, normaliserer de samlet sett den mer bekymringsfulle forutsetningen om at medisinske handlinger kan utføres uten en tydelig identifiserbar menneskelig beslutningstaker.
I praksis er dette skillet grunnleggende. Medisin defineres ikke av mekanisk utførelse av oppgaver, men av ansvarsfordeling når resultatene er ugunstige. Å skrive en resept er enkelt; å akseptere ansvar for konsekvensene – spesielt når man vurderer komorbiditeter, sosial kontekst, pasientverdier eller ufullstendig informasjon – er langt mer komplekst. Gjennom hele min karriere har dette ansvaret kontinuerlig ligget hos et menneske som kunne bli stilt spørsmål ved, utfordret, korrigert og holdt ansvarlig. Når Dr. Smith gjør en feil, vet familien hvem de skal kontakte, noe som sikrer en direkte linje til menneskelig ansvarlighet. Ingen algoritme, uavhengig av sofistikasjon, kan fylle denne rollen.
Den primære risikoen er ikke teknologisk, men regulatorisk og filosofisk. Denne overgangen representerer et skifte fra dydsetikk til proseduralisme. Når lovgivere og institusjoner omdefinerer medisinsk beslutningstaking som en funksjon av systemer snarere enn personlige handlinger, endres medisinens moralske rammeverk. Ansvarlighet blir diffus, skade er vanskeligere å tilskrive, og ansvaret flyttes fra klinikere til prosesser, fra vurdering til protokolloverholdelse. Når feil uunngåelig oppstår, blir den rådende forklaringen at «systemet fulgte etablerte retningslinjer». Å anerkjenne denne overgangen tydeliggjør skiftet fra individualisert etisk beslutningstaking til mekanisert prosedyreoverholdelse.
Denne bekymringen er ikke teoretisk. Moderne helsevesen står allerede overfor utfordringer knyttet til utvannet ansvarlighet. Jeg har observert pasienter som har blitt skadet av algoritmedrevne beslutninger, bli fortapt blant administratorer, leverandører og ugjennomsiktige modeller, uten et klart svar på det grunnleggende spørsmålet: Hvem tok denne beslutningen? Kunstig intelligens akselererer dette problemet betydelig. En algoritme kan ikke gi moralske forklaringer, utvise tilbakeholdenhet basert på samvittighet, nekte handlinger på grunn av etiske bekymringer eller innrømme feil overfor en pasient eller familie.
Tilhengere av økt AI-autonomi nevner ofte effektivitet som begrunnelse. Klinikker er overbelastet, leger opplever utbrenthet, og pasienter venter ofte i måneder på behandling som egentlig bare skulle ta minutter. Disse bekymringene er legitime, og enhver ærlig kliniker erkjenner dem. Effektivitet alene rettferdiggjør imidlertid ikke endring av det etiske grunnlaget for medisin. Systemer som er optimalisert for hastighet og skala, ofrer ofte nyanser, skjønn og individuell verdighet. Historisk sett har medisin motstått denne tendensen ved å understreke at behandling fundamentalt sett er en relasjon snarere enn en transaksjon.
Kunstig intelligens risikerer å snu dette forholdet på hodet. Når systemer, snarere enn individer, leverer behandling, er ikke pasienten lenger engasjert i en avtale med en kliniker, men blir en del av en arbeidsflyt. Legen påtar seg rollen som maskinleder eller, enda mer bekymringsfullt, fungerer som en juridisk buffer som absorberer ansvar for beslutninger som ikke tas personlig. Over tid viker klinisk vurdering for protokolloverholdelse, og moralsk handlefrihet avtar gradvis.
AI introduserer også et mer subtilt og farlig problem: maskering av usikkerhet. Medisinen lever i tvetydighet. Bevis er sannsynlighetsbasert. Retningslinjer er foreløpige. Pasienter presenteres sjelden som rene datasett. Klinikere er trent ikke bare til å handle, men til å nøle – til å gjenkjenne når informasjonen er utilstrekkelig, når intervensjon kan forårsake mer skade enn nytte, eller når det riktige er å vente. Se for deg et scenario der AI-en anbefaler utskrivelse, men pasientens ektefelle virker redd, noe som fremhever spenningen mellom algoritmisk beslutningstaking og menneskelig intuisjon. Slik friksjon i den virkelige verden understreker hvor viktig tvetydighet er.
AI-systemer opplever ikke usikkerhet; de genererer resultater. Når de er feil, gjør de det ofte med uberettiget tillit. Denne egenskapen er ikke en programmeringsfeil, men et iboende trekk ved statistisk modellering. I motsetning til erfarne klinikere som åpent uttrykker tvil, kan ikke store språkmodeller og maskinlæringssystemer gjenkjenne sine egne begrensninger. De produserer plausible svar selv når dataene er utilstrekkelige. Innen medisin kan plausibilitet uten dokumentasjon være farlig.
Etter hvert som disse systemene integreres tidligere i kliniske arbeidsflyter, påvirker resultatene i økende grad senere beslutninger. Over tid kan klinikere begynne å stole på anbefalinger, ikke på grunn av deres gyldighet, men fordi de har blitt normalisert. Vurderingen skifter gradvis fra aktiv resonnering til passiv aksept. Under slike omstendigheter fungerer «menneskelig informasjon» som lite mer enn en symbolsk beskyttelse.
Forkjempere hevder ofte at AI bare vil «forsterke» klinikere snarere enn å erstatte dem. Denne forsikringen er imidlertid svak. Når AI viser effektivitetsgevinster, har økonomisk og institusjonelt press en tendens til å føre til økt autonomi. Hvis et system trygt kan etterfylle resepter, kan det snart bli tillatt å sette dem i gang. Hvis det nøyaktig kan diagnostisere vanlige tilstander, stilles det spørsmål ved behovet for legevurdering. Hvis den overgår mennesker i kontrollerte benchmarks, reduseres toleransen for menneskelig variasjon.
Gitt disse trendene er det viktig å implementere spesifikke sikkerhetstiltak. For eksempel kan obligatoriske avviksrevisjoner på 5 % av AI-drevne beslutninger tjene som en konkret kontroll som sikrer samsvar mellom AI-anbefalinger og menneskelig klinisk vurdering, samtidig som det gir regulatorer og sykehusstyrer handlingsrettede målinger for å overvåke AI-integrasjon.
Disse spørsmålene er ikke stilt med onde hensikter; de dukker opp naturlig i systemer som fokuserer på kostnadskontroll og skalerbarhet. De indikerer imidlertid en fremtid der menneskelig vurdering blir unntaket snarere enn normen. I et slikt scenario vil individer med ressurser fortsette å motta menneskelig behandling, mens andre styres gjennom automatiserte prosesser. Todelt medisin vil ikke være et resultat av ideologi, men av optimalisering.
Det som gjør dette øyeblikket spesielt prekært er mangelen på klare ansvarslinjer. Når en AI-drevet beslutning skader en pasient, hvem er ansvarlig? Er det klinikeren som nominelt fører tilsyn med systemet? Institusjonen som implementerte det? Leverandøren som trente modellen? Regulatoren som godkjente bruken av den? Uten eksplisitte svar fordamper ansvaret. Og når ansvaret fordamper, følger snart tilliten.
Medisin er fundamentalt avhengig av tillit. Pasienter legger kroppene sine, frykten sin og ofte livene sine i hendene på klinikere. Denne tilliten kan ikke overføres til en algoritme, uansett hvor sofistikert den er. Den er basert på forsikringen om at et menneske er til stede – noen som er i stand til å lytte, tilpasse seg og være ansvarlig for sine handlinger.
Det er unødvendig å avvise kunstig intelligens fullstendig. Når den brukes klokt, kan kunstig intelligens redusere administrative byrder, identifisere mønstre som kan unngå menneskelig oppdagelse og støtte klinisk beslutningstaking. Det kan gjøre det mulig for leger å bruke mer tid på pasientbehandling i stedet for administrative oppgaver. Å realisere denne fremtiden krever imidlertid en klar forpliktelse til å opprettholde menneskelig ansvar i kjernen av medisinsk praksis.
«Human-in-the-loop» må bety mer enn symbolsk tilsyn. Det bør kreve at en bestemt person er ansvarlig for hver medisinske avgjørelse, forstår dens begrunnelse og beholder både myndigheten og forpliktelsen til å overstyre algoritmiske anbefalinger. Det må også innebære åpenhet, forklarbarhet og informert pasientsamtykke, samt en forpliktelse til å investere i menneskelige klinikere i stedet for å erstatte dem med kunstig intelligens.
Den primære risikoen er ikke den overdrevne kraften til kunstig intelligens, men snarere institusjonenes vilje til å gi fra seg ansvar. I jakten på effektivitet og innovasjon er det en fare for at medisin blir et teknisk avansert, administrativt strømlinjeformet felt, men uten moralsk substans.
Når vi tenker på fremtiden, er det viktig å spørre: Hva slags helbreder ser vi for oss ved sykehjemmets seng i 2035? Dette spørsmålet krever kollektiv moralsk fantasi, og oppmuntrer oss til å forme en fremtid der menneskelig ansvar og medfølende omsorg forblir kjernen i medisinsk praksis. Å mobilisere kollektiv handlekraft vil være avgjørende for å sikre at fremskritt innen kunstig intelligens forsterker, snarere enn å undergrave, disse grunnleggende verdiene.
Kunstig intelligens har ikke fått lisens til å praktisere medisin. Men medisin blir i stillhet omkonstruert rundt systemer som ikke bærer moralsk vekt. Hvis denne prosessen fortsetter ukontrollert, kan vi en dag oppdage at legen ikke har blitt erstattet av en maskin, men av en protokoll – og at når skade oppstår, er det ingen igjen til å svare for den.
Det ville ikke være fremskritt. Det ville være en abdikasjon.
-
Joseph Varon, lege, er intensivlege, professor og president i Independent Medical Alliance. Han har skrevet over 980 fagfellevurderte publikasjoner og er sjefredaktør for Journal of Independent Medicine.
Vis alle innlegg