Professor Jansens dilemma: Maskinbasert saksbehandling kan være uforenlig med rettsstaten

Møtet mellom rettsstat og kunstig intelligens byr på utfordringer. Professor og ekspert på forvaltningsinformatikk Arild Jansen sier at automatisert saksbehandling kan true grunnleggende norske verdier og være uforenlig med innarbeidede og lovfestede prinsipper for saksbehandling.

Ooops!

Drømmer du om at selvlærende algoritmer skal overta saksbehandling i offentlig sektor? Det er noen humper i veien. I møtet mellom rettsstaten og dynamiske algoritmer trenger minst en av dem å endre «strategi».

Uforenlig med rettsstaten

Professor emeritus Arild Jansen har jobbet med forvaltningsinformatikk og digitalisering av offentlig sektor i mer enn 40 år.

Nå advarer han de som drømmer om den helautomatiske, selvlærende digitale saksbehandleren.

—  Å la algoritmer drive saksbehandling i offentlig sektor kan være uforenlig med den norske rettsstaten og grunnleggende verdier og prinsipper for hvordan saksbehandling skal gjøres i offentlig sektor, sier han.

Han understreker at det er det at de er selvlærende, og dermed selv-modifiserende algoritmene, som skaper utfordringer.

Tre prinsipper

—  Det er spesielt tre prinsipper for hvordan saksbehandling skal gjøres i offentlig sektor som utfordres, sier den pensjonerte professoren.

— Det er at saksbehandlingen skal være åpen og transparent, at den skal være forutsigbar, og at like saker skal behandles likt.

Transparens handler om rett til innsyn i prosessen som gikk forut for en beslutning. En slik sporing er ingen umulighet med maskinlæring og kunstig intelligens, men det må hensyntas ved utviklingen av systemer.

Forutsigbarhet innebærer at man skal kunne forutsi et utfall av en sak gitt kjennskapet til de rettsregler som vanligvis brukes på saksbehandlingen. En algoritme kan lett tenkes å  anvende presedensskapende avgjørelser basert på feilaktige antakelser, for eks. feil tolkning saksgrunnlaget, og derved gi et overraskende og feilaktig utfall.

Likebehandling

Overraskelser er ikke særlig populært når store, viktige avgjørelser som påvirker menneskers livsforhold skal tas.

Likebehandling handler om at like saker får likt utfall. Det fordrer at verden er noenlunde stabil. Det skal ikke stå i veien for endring, men endringer må skje i ordnede former, over tid, ikke i løpet av nanosekunder i det en maskinlærende algoritme gulper i seg data og kontinuerlig justerer seg selv, ikke nødvendigvis i tråd med gjeldende lovregler.

—  Algoritmene kan rett og slett bli for smarte?

—  Problemet oppstår når koden modifiserer seg selv uten mulighet til kontroll, sier Arild Jansen.

Kan stimulere forenkling

—  Så er det du sier at maskinlæring ikke kan brukes i offentlig sektor?

Nei, på ingen måte. Det er mange gode anvendelser av maskinlæring og kunstig intelligens i offentlig sektor allerede i dag, og flere vil komme. Men man skal være meget forsiktig med å la algoritmene ta de endelige beslutningene.

—  Og, legger han til, — det kan også hende at disse problemstillingene bidrar til å belyse et komplekst lovverk. Det kan gi ny innsikt og åpne for viktig og nødvendige revisjoner, og gjennom det skape bedre saksbehandling.

—  Men slik det er i dag, med gjeldende lovverk og forskrifter, kan ikke fullstendig autonome ML-systemer oppfylle kravene, avslutter han.

«… slik det er i dag, med gjeldende lovverk og forskrifter, kan ikke fullstendig autonome ML-systemer oppfylle kravene»

Arild Jansen

Arild Jansen på AI-konferansen

Arild Jansen, portrett. Foto: UiO
Arild Jansen (foto: UiO)

Arild Jansen går dypere inn i dilemmaene rundt maskinlæring og kunstig intelligens i forvaltningen på AI-konferansen til Dataforeningen. Der skal han snakke om roboter og lærende algoritmer i offentlig sektor, og juridiske og etiske problemstillinger ved automatisering av saksbehandling.

Arild Jansen er professor emeritus i forvaltningsinformatikk og har arbeidet med digitalisering av offentlig sektor i mer enn 40 år. Han var også sterk engasjert i innføring av Internett i Norge på 80-tallet.

Publisert 12. september 2019, og sist oppdatert 12. september 2019.