Kunstig intelligens: fri rettshjelp – uten ansvar
Kunstig intelligens (KI) har på kort tid blitt en naturlig del av hverdagen, også for studenter. Den skriver for oss, tenker for oss og gir i økende grad juridiske råd, men hva skjer når maskinen tar feil?
Dette er et innsendt innlegg. Innlegget gir uttrykk for forfatterens egne meninger.
Lovdata lanserte i fjor sitt eget KI-verktøy, og flere advokatfirmaer utvikler nå lignende løsninger. Om få år, om ikke allerede, vil mesteparten av juridisk rådgivning komme fra KI.
Dette gir enklere tilgang til juridisk argumentasjon. Samtidig reiser det spørsmål om kvalitet, ansvar og rettssikkerhet.
For mange, særlig studenter og unge, er juridisk rådgivning for dyrt. KI fremstår da som et tilgjengelig, raskt og billig alternativ, og kanskje viktigst: Den svarer med autoritet og selvsikkerhet.
Maskiner er imidlertid ikke advokater. De gir overbevisende, men ikke nødvendigvis riktige, svar. Høyesterettsjustitiarius Øie fortalte i Advokatbladet om at Høyesterett i fjor mottok et prosesskriv med oppdiktede rettskilder, kopiert direkte fra KI uten kontroll. Dette er sannsynligvis bare ett av mange tilfeller, og noe vi må forvente mer av.
At KI gjør feil, er ikke et problem i seg selv. Det gjør mennesker også. Forskjellen er at ingen står ansvarlig når feilen kommer fra en maskin.
Får du uriktig rådgivning fra en advokat, finnes ansvarslinjer, tilsyn, og regler. Får du uriktig rådgivning fra ChatGPT, finnes ingen av delene. I jussen kan konsekvensene være store.
Lovdata understreker at deres KI kun er veiledende og må kontrolleres. Samtidig er løsningen utviklet for juridiske formål og bygger på faktiske rettskilder. Den ligger imidlertid bak betalingsmur. De uten tilgang sitter igjen med åpne KI-verktøy som ikke er laget for juss og mangler faglig presisjon.
Det er selvfølgelig ikke slik at brukerne selv står uten ansvar ved bruken av KI. De fleste vet at KI gjøre feil. Det er likevel naivt å tro at alle har forutsetninger for å vurdere innholdets kvalitet, spesielt i møte med autoritet. Det blir vanskelig å skille det som faktisk er riktig fra det som bare høres riktig ut. Når mange ikke har råd til annen juridisk hjelp, må vi stille krav til kvaliteten på det alternativet som faktisk er tilgjengelig, og som stadig flere bruker.
EU vedtok nylig regler som stiller strengere krav til KI-systemer som brukes av bedrifter og statlige aktører. Norge er i ferd med å innføre de samme reglene gjennom en egen KI-lov, som trolig vil tre i kraft i 2026.
For privatpersoner som bruker åpne KI-verktøy som ChatGPT, gjelder likevel ikke disse kravene. Her stilles bare generelle krav til åpenhet. Ingen står ansvarlig ved uriktig rådgivning.
KI har et enormt potensial. Den kan gjøre rettshjelp billigere, raskere, bedre og mer tilgjengelig, men bare dersom den brukes ansvarlig. Det bør vurderes krav om sertifisering eller merking av KI-baserte rettshjelpstjenester som er åpne for allmennheten. Brukerne må vite hva de får, og hva de ikke får. Myndighetene bør også vurdere om det trengs minstekrav til kvalitet for slike KI-verktøy.
Uavhengig må det bli mer oppmerksomhet rundt problematikken. KI vil gi juridisk rådgivning uansett. Det må da skje på en ansvarlig måte.
Har du noe på hjertet?
Ønsker du å ytre din mening? Vi i Studvest vil gjerne høre fra deg!
Send ditt innlegg på e-post til ansvarligredaktor@studvest.no.
Tips for innlegget ditt:
Lengde: helst 1800–2500 tegn (inkludert mellomrom), men lengre bidrag kan vurderes.
Husk å gi innlegget både tittel og ingress.
Legg ved et portrettbilde av deg selv vi kan bruke, og oppgi fotografens navn dersom bildet skal krediteres.
Oppgi også hvilken tittel du ønsker å stå med.
Vi forbeholder oss retten til å redigere innlegget ved eventuell publisering.
Gi beskjed dersom innlegget allerede er sendt til andre medier.