Den skjulte risikoen: KI kan gjøre deg skråsikker og feil
Påsken er kanskje ikke tiden man aller mest har lyst til å tenke på KI. Men når mange mennesker samles, dukker det gjerne opp små diskusjoner om ord, formuleringer og fakta. Da er det fort gjort å ta opp telefonen og spørre KI, som om man henter inn en slags fasit.
Jeg hadde en slik situasjon selv. Spørsmålet handlet om formuleringen: "Denne personen alene kan avgjøre hva som skal gjøres." Jeg og KI leste det som at bare denne personen hadde myndighet til å bestemme. En annen mente at det like gjerne kunne bety at personen kunne gjøre det på egen hånd, uten hjelp fra andre. Det viste seg at jeg tok feil. KI hadde ikke ryddet opp i uklarheten. Den hadde bare gitt meg mer selvtillit i en tolkning som ikke holdt.
Det er verdt å legge til en nyanse: KI-modeller er ikke helt like. Med modell mener jeg den konkrete varianten av KI-verktøyet du bruker. Modellen jeg brukte var først og fremst laget for kode. Den kan virke generelt kapabel, men den var ikke et spesielt godt valg for et norsk tolkningsspørsmål med juridisk preg. En større, mer allmenn modell ville trolig fått tvetydigheten tydeligere frem. Men modellvalg var ikke hele problemet. Det egentlige problemet var at oppgaven krevde tolkning og kontekst, ikke bare et glatt svar.
Det er her en viktig del av KI-risikoen ligger. Feilene kommer ofte i en form som gjør dem lette å tro på. Språket er ryddig, tonen er trygg, og svaret ser gjennomarbeidet ut. Da blir det fort vanskeligere å oppdage at selve vurderingen er svak.
På denne siden
- Hva det betyr i praksis
- Hvor KI faktisk er sterk
- Hvor den egentlige risikoen begynner
- Hvorfor dette er ekstra risikabelt i jobb
- Hvorfor vi så lett lar oss lure
- KI bør brukes som verktøy
- En enkel tommelfingerregel
- Kan jeg ikke bare spørre en annen KI også?
- En praktisk måte å faktasjekke på
- Det viktigste bedrifter bør ta med seg
- Kort sagt
Hvis du vil forstå ord som modell, verifisering, menneskelig gjennomgang og arbeidsflyt, finner du dem forklart i KI-ord og begreper forklart.
Jeg har også laget prosessguiden Faktasjekk og kvalitetssikring av KI-svar som et praktisk supplement til denne artikkelen. Den går mer konkret til verks med arbeidsflyt, prompts, eksempler og sjekklister for tryggere bruk.
Hva det betyr i praksis
Når vi sier at KI kan "hallusinere", høres det lett ut som et teknisk problem som er enkelt å få øye på. Det er bare en del av bildet. Noen ganger finner modellen faktisk på noe. Like ofte gjør den noe mer subtilt: Den tar et åpent spørsmål, glatter over tvetydigheten, velger én plausibel tolkning, og presenterer den med mer sikkerhet enn situasjonen egentlig gir grunnlag for.
Hvis et svar er rotete eller merkelig, blir vi skeptiske med en gang. Når svaret derimot ser ut som et godt notat, en ryddig vurdering eller en anbefaling som kunne kommet fra en ganske oppegående kollega, glir det lettere inn. Språket dekker over svakhetene i tenkningen. Det er ofte der problemet begynner.
Hvor KI faktisk er sterk
Det er en feil å snakke om KI som om alle bruksområder var like risikable. I praksis går et viktig skille mellom oppgaver der modellen hovedsakelig jobber med materiale du faktisk har gitt den, og oppgaver der den må fylle inn manglende kontekst selv.
KI er ofte genuint nyttig når oppgaven er ganske selvstendig og avgrenset, for eksempel:
- oppsummere et dokument du faktisk legger ved
- hente ut nøkkelpunkter, datoer eller forskjeller fra kildemateriale
- sammenligne to versjoner av en tekst
- rydde ustrukturerte notater til et bedre utkast
- vise hva et dokument eksplisitt sier, og hva det ikke sier
Det betyr ikke at modellen er feilfri. Den kan fortsatt miste forbehold, lese en setning feil eller gjøre en oppsummering penere enn materialet fortjener. Men oppgaven er i det minste bundet til noe konkret. Det gjør det lettere å kontrollere svaret mot originalen.
Hvor den egentlige risikoen begynner
Risikoen øker når oppgaven glir over i noe annet. Det er én ting å spørre: "Hva står det i dette dokumentet?" Det er noe annet å spørre: "Hva betyr dette egentlig her, i praksis, for oss, nå?"
Dette skillet betyr mye fordi mange arbeidsoppgaver bare delvis handler om teksten selv. De handler også om lokal kontekst, normer, ansvar, timing og faglig skjønn.
Oppsummeringer
Oppsummering er en av de tingene KI ofte gjør godt. Samtidig er det en klassisk felle. Hvis utgangspunktet er komplekst eller tvetydig, lager modellen gjerne en renere og mer sammenhengende versjon enn materialet egentlig gir dekning for. Da forsvinner ikke bare detaljer. Forbehold, motsetninger og usikkerhet blir også borte.
Tolkning av dokumenter
Her er nyansen særlig viktig. KI kan ofte være nyttig i dokumentarbeid når oppgaven er selvstendig: trekke ut klausuler, sammenligne ordlyd, identifisere definerte begreper eller vise alternative lesninger av et avsnitt.
Men det er ikke det samme som å avgjøre hva dokumentet betyr i praksis. Kontrakter, retningslinjer, prosedyrer og interne notater avhenger ofte av kontekst utenfor teksten: hvordan begreper brukes i et fagmiljø, hvordan en regel praktiseres internt, hva den omkringliggende situasjonen er, og hvilke konsekvenser én tolkning får i stedet for en annen. Det er der skråsikre svar blir risikable.
Anbefalinger
Ber du KI foreslå hva du bør gjøre, får du ofte et svar som virker handlingsrettet og gjennomtenkt. Det kan være nyttig som utgangspunkt. Men det kan også være et ganske pent formulert sidespor. Problemet er ikke bare om svaret er faktuelt riktig. Problemet er om grunnlaget i det hele tatt er komplett nok til å gi et råd.
Intern beslutningsstøtte
Her blir risikoen særlig tydelig. Hvis KI brukes som beslutningsstøtte til å sortere alternativer, foreslå prioriteringer eller formulere vurderinger, kan språket skape en følelse av at noe allerede er analysert godt nok. Det er fort gjort å behandle et pent oppsett som et tegn på at tenkningen også er solid.
Hvorfor dette er ekstra risikabelt i jobb
I jobbsammenheng er dette mer alvorlig enn ved påskebordet. Der handler det stort sett om litt tapt stolthet. I en virksomhet kan samme mekanisme føre til at feil blir sendt videre, brukt i vurderinger eller pakket inn i profesjonell kommunikasjon til kunder og kolleger.
Det er derfor tilsynelatende enkle oppgaver fortsatt kan være risikable. En e-post kan høres profesjonell ut og samtidig love noe feil. En oppsummering kan være lett å lese og samtidig skjule uenighet. En dokumentgjennomgang kan se presis ut, men i praksis ha glidd fra uthenting til tolkning. En anbefaling kan virke ansvarlig, men bygge på antakelser ingen egentlig har kontrollert.
Hvorfor vi så lett lar oss lure
Dette handler ikke bare om kildekritikk. Det handler også om hvordan vi mennesker vurderer kvalitet i praksis. Ryddig språk, rolig tone og logisk oppbygning gir inntrykk av kontroll og troverdighet.
I en travel arbeidsdag er det derfor lett å godta noe som allerede ser 90 prosent ferdig ut. Når KI produserer denne typen tekst på sekunder, blir fristelsen sterk. Svaret ser ferdig ut lenge før det faktisk er kontrollert.
Det er derfor flyt så lett blir forvekslet med pålitelighet. Modellen kan høres godt kalibrert ut selv når sikkerheten ikke egentlig er dekket av situasjonen.
KI bør brukes som verktøy, ikke som autoritet
Poenget er ikke å slutte å bruke KI. Poenget er å bruke den til det den faktisk er god på. Generativ KI fungerer ofte svært godt til førsteutkast, strukturering, omskriving, uthenting og oppsummering når arbeidet er knyttet til kildemateriale. Den fungerer langt dårligere som fasit i tvetydige spørsmål, som erstatning for ekspertise eller som beslutningsgrunnlag uten kontroll.
Det betyr likevel ikke at KI bare er nyttig som utkastsmotor. På enkle, avgrensede og kontrollerbare spørsmål, særlig ting som kan testes mot et dokument, en navngitt kilde eller oppdaterte søkeresultater, kan den også fungere godt som første stopp. Forskjellen handler ikke bare om spørsmålet høres faktabasert ut. Forskjellen handler om svaret faktisk er forankret i et konkret grunnlag godt nok til å kunne kontrolleres.
Dette skillet er viktig. Brukes KI som et raskt verktøy på avgrenset materiale, kan man spare tid uten å gi fra seg ansvar. Brukes den som autoritet, øker sjansen for at svake vurderinger blir både raskere produsert og lettere å tro på.
En enkel tommelfingerregel for bedrifter
Hvis en påstand er viktig nok til å bli sendt, delt, brukt i en beslutning eller brukt overfor en kunde, er den viktig nok til å bli kontrollert av et menneske.
Det høres enkelt ut, og det er også litt av poenget. En tryggere arbeidsflyt er å behandle KI-output som foreslått tekst eller foreslått analyse. Da må man kontrollere mening, ikke bare språk, og den som sender teksten må faktisk stå inne for det som blir sendt.
Hvis navnet ditt står under e-posten, bør innholdet også være ditt ansvar.
"Kan jeg ikke bare spørre en annen KI også?"
Jo, det kan være nyttig. En annen modell kan fungere som en motstemme, avdekke alternative tolkninger og gjøre det lettere å se svakhetene i første svar. Det er likevel ikke det samme som verifisering.
Hvis to modeller er enige, betyr det fortsatt ikke at de har rett. Det kan bare bety at begge er gode til å lage den samme plausible historien, eller at de deler noen av de samme blindsonene. Flere modeller kan derfor være et nyttig mellomsteg, men ikke det siste kontrollpunktet.
En praktisk måte å faktasjekke noe konkret på
Når man spør KI om noe som krever presisjon eller nyanser, er det ofte smartere å be den teste en tolkning enn å be om et glatt svar. Da øker sjansen for at modellen peker på usikkerhet, alternative forståelser og behov for verifisering.
Hvis spørsmålet derimot er et avgrenset faktaspørsmål som kan sjekkes direkte mot en kilde, kan KI også være et nyttig første stopp. Men jo mer svaret ligner vurdering, tolkning eller råd, desto mindre holder det at det bare høres riktig ut.
Be KI svare i denne strukturen:
- oppgavetype
- best støttede konklusjon
- alternative lesninger bare hvis saken faktisk er tvetydig
- eksakt ordlyd i materialet som støtter konklusjonen
- hva som avhenger av kontekst utenfra
- beste neste kontroller før bruk
Hvis du ikke har gitt kildetekst, bør modellen si det eksplisitt i stedet for å late som den har sitert belegg.
Det gjør det vanskeligere for modellen å gi pen flyt uten faktisk analyse.
Det er ofte nok til å gjøre et glatt svar mer ærlig og mer nyttig. Hvis du vil ha en fullere arbeidsflyt og ferdige prompts, går prosessguiden mer konkret til verks.
Det viktigste bedrifter bør ta med seg
Mange virksomheter tenker på KI-risiko som noe stort og dramatisk: personvernbrudd, juridiske feil eller automatisering uten kontroll. Det er reelle problemstillinger. Samtidig oppstår mange av de mest sannsynlige feilene på et langt mer hverdagslig nivå.
Noen får et overbevisende svar.
Noen stoler litt for mye på det.
Noen sender det videre.
Slik blir små feil til profesjonelle feil.
Derfor bør trygg KI-bruk også handle om arbeidsform: Hvilke oppgaver er i stor grad kildebundet? Hvilke avhenger av kontekst og skjønn? Når hjelper KI bare med et utkast, og når begynner den i praksis å forme en beslutningsstøtte-prosess? Hvem tar siste vurdering?
Virksomheter som lykkes med KI har ofte tydeligere grenser, bedre kontrollpunkter og bedre grenser og kontrollmekanismer.
Kort sagt
KI kan være feil på en ganske overbevisende måte. Det er denne kombinasjonen som gjør teknologien krevende i praksis: høy fart, god formulering og varierende treffsikkerhet.
Brukt riktig er den svært nyttig til utkast, uthenting, struktur og oppsummering når arbeidet er bundet til kildemateriale. Brukt ukritisk kan den gjøre svake vurderinger lettere å sende videre.
Vil man bruke KI trygt i en virksomhet, trenger man en arbeidsmåte for kontroll, ansvar og menneskelig gjennomgang. Det er ofte der kvaliteten faktisk skapes.
Hvis du vil jobbe mer systematisk med dette i praksis, er prosessguiden laget nettopp for det.