Stadig flere bruker kunstig intelligens som ChatGPT, Grok og Gemini til å kommunisere, skrive kravbrev og svar, og til å gjøre juridiske vurderinger for seg. Vi er kommet så langt nå at vi daglig møter både gode spørsmål og påståelige «svar» som vi tydelig kan se er generert av annet enn gammeldags organisk intellekt. I enkelte tilfeller er det en fordel -- f.eks. hvis den som strever med struktur og formulering får hjelp til å fremstille det som skal fortelles. I andre tilfeller er det verre -- de som «sverger til» sin utvalgte kunstige intelligens, er ofte forbløffende lite mottakelige for korreksjoner.
Ki er ikke intelligens
Det er viktig å forstå at KI ikke er intelligens – i hvert fall ikke i ordets opprinnelige forstand. Det handler om høyt utviklete matematiske modeller. Ut fra sin egen maskinlæring, tilgjengelig kildemateriale og det spørsmål som stilles, «regner KI ut» hva som er den mest sannsynlige kombinasjonen av ord og vendinger å gi som riktig svar. Selv om eksempelvis ChatGPT sier «tenker...» mens den lager et svar, er det ikke tenkning som foregår, men matematikk på meget høyt plan. Et viktig moment er at KI søker å gi et svar som spørsmålsstilleren trolig blir fornøyd med. Det er ikke et godt utgangspunkt.
Fem fallgruber i tvist
Vi kan medgi at KI kan være god på å strukturere informasjon, oppsummere større mengder tekst, og andre slike enkle oppgaver. Men når det blir tatt i bruk som et verktøy i en tvist, er det lett for at det bærer helt galt av sted. Den som lar seg bistå av KI i stedet for en advokat eller annen jurist, lever litt farlig og tar større risiko enn gevinsten tilsier. Risikoen handler særlig om fem ting: Rettskilder, fakta, frister, kommunikasjon og personvern.

Rettskilder -- feil lov og oppdiktete svar
KI er ikke trent opp til å forstå norske rettsregler, hverken skreven eller uskreven rett. Den har heller ikke tilgang til faglitteratur og annet kildemateriale. Dermed er risikoen for feil svært høy. KI kan forstå helt alminnelige rettsprinsipper og regler, men kan lett bomme på hvilken lov som gjelder og misforstå hva loven faktisk sier. En klassiker er forskjellen mellom kjøpsloven og forbrukerkjøpsloven (som rett nok mange med organisk intelligens også bommer på). Risikoen vil alltid være til stede for at KI dikter opp både regler og henvisninger til rettspraksis. Og den kan formulere seg mer skråsikkert enn grunnlaget tilsier.
Fakta -- detaljene avgjør
Bruk av KI vil også lett lede til en mangelfull vurdering av fakta og nyanser. Det kreves svært mye for å skrive en prompt som gir KI gode nok instruksjoner til å fange opp relevante momenter, og vurdere dem riktig. I kjøpstvister avgjør detaljene; f.eks. hva som faktisk er avtalt eller opplyst, hva som er sagt/skriftlig dokumentert, reklamasjonstidspunkt, kjøpers forundersøkelse, «som den er»-forbehold, rett til avhjelp/omlevering osv. KI kan lett overse «nøkkelfakta» og gi råd som ikke passer for situasjonen. I tillegg kan KI foreslå «ryddige» oppsummeringer som i realiteten endrer ordlyd eller tidslinje—noe som kan svekke din troverdighet hvis saken havner i forliksrådet eller tingretten.
Frister og kommunikasjon
En særlig risikofaktor er frister – og hvordan de avbrytes. Man kan fort tape rettigheter ved å gjøre feil i reklamasjon, meddelelse av heving mv., eller ved å feilaktig tro at man har tid til å vente. Små feil i rekkefølge baller på seg, og feil formuleringer (om hva man krever) eller feil med eller i dokumentasjon kan svekke saken betydelig. En særlig risiko med KI-bruk til kommunikasjon, er at KI-genererte kravbrev kan bli for bastante, juridisk feil, eller de kan inneholde utilsiktede innrømmelser («jeg visste om feilen», eller «jeg godtok dette» o.l.). Slike feil kan i det minste låse forhandlingsrommet, det er risiko for å provosere motparten, og KI kan dermed gjøre en minnelig og effektiv løsning vanskeligere å oppnå.
Personvern
Til sist en litt annen dimensjon på KI-bruken: Personvern. Når du mater KI med kontrakter, meldinger, bilder, private opplysninger eller annen sensitiv eller viktig informasjon, kan du miste kontrollen over dataene. Og det vil ikke være bare dine egne data -- oftest vil det like mye være motpartens. Kan du spre disse opplysningene fritt? Personopplysningsloven og personvernreglene er verd et studium -- uten KI -- før man bruker det på en slik måte.
Hovedregelen -- språk og struktur ja, juss nei
På dette tidspunkt i utviklingen er hovedregelen enkel: Bruk KI som et hjelpemiddel til språk og struktur – ikke til å forstå eller til å argumentere omkring juss, frister eller bevis. Det er advokatarbeid, og advokater svarer for sine eventuelle mistak. Det gjør ikke KI.
Husk at alle medlemmer og medlemsforeninger i KNBF får en hel fullverdig gratis time advokatbistand som medlemsfordel -- som helst bør brukes før man går seg vill i KI-svar på gode eller dårlige spørsmål. Kontakt oss via post@baatadvokaten.no for å få ditt problem vurdert av ekte intelligens.




