Kvalitet og risiko
Dette er ordene som ofte brukes når man snakker om hvorvidt KI-output kan stoles på, kontrolleres eller brukes trygt. De er viktige fordi glatt språk lett kan få svakt innhold til å virke sterkere enn det er.
På denne siden
Tvetydighet
Kort forklart: Tvetydighet betyr at noe med rimelighet kan forstås på mer enn én måte.
Hvorfor det betyr noe: KI glatter ofte over tvetydighet i stedet for å håndtere den forsiktig. Det er risikabelt fordi et ryddig svar kan skjule at den opprinnelige formuleringen eller situasjonen faktisk åpnet for flere tolkninger.
Eksempel: Setningen "denne personen alene kan avgjøre dette" kan handle om myndighet, eller bare om at personen kan gjøre det uten hjelp.
Grounding
Kort forklart: Grounding betyr at KI-svaret er tett knyttet til en bestemt kilde, et datasett, et dokument eller et konkret faktagrunnlag.
Hvorfor det betyr noe: Bedre grounding kan redusere drift og gjetting, men det fjerner ikke behovet for vurdering. En modell kan fortsatt misforstå en kilde, overdrive en konklusjon eller overse viktig kontekst.
Eksempel: Hvis du limer inn en kontrakt og ber KI svare ut fra akkurat den teksten, er svaret mer grounded enn hvis den bare gjetter ut fra generell trening.
Verifisering
Kort forklart: Verifisering betyr å kontrollere om svaret faktisk er pålitelig nok for det formålet det skal brukes til.
Hvorfor det betyr noe: Verifisering er mer enn å spørre en annen KI. Det handler vanligvis om å kontrollere fakta, mening, kilder, antakelser og konsekvenser før output blir sendt, delt eller brukt i en beslutning.
Eksempel: Hvis KI foreslår en lovhenvisning eller et tall, betyr verifisering at du faktisk sjekker det mot en kilde før du bruker det videre.
Sikkerhet i svaret
Kort forklart: Her betyr sikkerhet hvor stor grad av trygghet eller skråsikkerhet svaret ser ut til å uttrykke.
Hvorfor det betyr noe: I bruk av KI er slik sikkerhet ofte et stiltrekk, ikke et bevis. Rolig tone og klar struktur kan få et svar til å virke troverdig selv når grunnlaget er svakt.
Eksempel: Et svar som sier "Dette er klart og entydig" kan virke sikkert, selv om spørsmålet egentlig er åpent for tolkning.
Menneskelig gjennomgang
Kort forklart: Menneskelig gjennomgang betyr at et menneske vurderer output før det blir brukt videre.
Hvorfor det betyr noe: Reell gjennomgang handler ikke bare om å rette språk. Den handler om å kontrollere mening, egnethet, kontekst, risiko og om personen som bruker innholdet faktisk kan stå inne for det.
Eksempel: Å rette en skrivefeil er ikke nok hvis selve anbefalingen eller tolkningen fortsatt er feil.
Guardrails
Kort forklart: Guardrails er grenser, regler eller kontrollpunkter som skal holde KI-bruk innenfor akseptable rammer.
Hvorfor det betyr noe: Gode guardrails handler ikke bare om å stoppe dårlig bruk. De gjør det også tydelig når KI er nyttig, når ekstra kontroll trengs, og når en oppgave ikke bør delegeres til KI i det hele tatt.
Eksempel: En enkel guardrail kan være at kundekommunikasjon og juridiske vurderinger alltid må leses av et menneske før de sendes.