Hvor farlig er AI?
- AI må være trygg og etisk «by design». Det mener Josefin Rosén, som har en doktorgrad fra Uppsala og er i dag global spesialist innen Ansvarlig AI i SAS Institute. Hun skal holde ett av foredragene på «Make Data Smart»-seminaret 12. oktober. Vi stilte henne noen spørsmål i forkant av konferansen.
Den raske fremveksten av kunstig intelligens forsterker behovet for ansvarlig utvikling og distribusjon. Uten riktig styring kan AI resultere i utilsiktede, etiske utfordringer som raskt kan komme ut av kontroll. EU-kommisjonen har under utarbeidelse en AI-lov som blir et viktig skritt på veien til å fremme ansvarlig og pålitelig AI i større skala.
På «Make Data Smart»-konferansen på SAS Radisson i Oslo den 12. oktober, vil svenske Josefin Rosén holde en presentasjon med anbefalinger for å fremme ansvarlig, bærekraftig AI-drevet innovasjon. Hun har 20 års erfaring innen AI og Advanced Analytics og en doktorgrad fra fakultetet Farmasi ved Uppsala universitet. I sin nåværende rolle som global spesialist innen Ansvarlig AI i SAS Institute Data Ethics Practice, leder hun et team med erfarne AI-eksperter som blant annet leverer strategisk veiledning til organisasjoner på tvers av bransjer.
Vi stilte henne noen viktige spørsmål om fremveksten av AI med bakgrunn i hennes rolle som etisk rådgiver.
Hvorfor er det så viktig med ansvarlig og etisk AI, som du forfekter?
– Som vi alle vet, er AI en usedvanlig kraftig teknologi med betydelig innvirkning på både samfunnet som helhet og på individnivå. Det har blitt en stadig mer vanlig del av beslutningsprosessen i praktisk talt alle bransjer og sektorer i samfunnet. Selv i områder som kan anses som mer sensitive, hvor beslutninger har potensial til å ha en dyp innvirkning på enkeltpersoners liv (som finans, sikkerhet og helse), blir AI stadig mer til stede. Derfor er det ekstremt viktig at vi sørger for at det er riktig og rettferdig og at vi unngår at noen blir skadet eller forfordelt.
I introteksten til seminaret heter det at uetisk AI fort kan komme ut av kontroll? Hvorfor og hvordan kan det skje?
– De fleste AI-applikasjoner i dag er basert på maskinlæring. Per definisjon lærer maskinlæringsmodeller av dataene de er trent på. Det kan for eksempel være data fra en tidligere manuell prosess hvor menneskelige beslutninger blir tatt. Når vi så lar modellene lære av disse dataene, vil de naturligvis også lære våre mulige fordommer, skjevheter og unøyaktigheter som finnes i datamaterialet. Det er én ting når en person tar en dårlig eller urettferdig avgjørelse. Men når vi skalerer opp og bruker AI til automatisk å ta beslutninger, kan potensielt tusenvis av avgjørelser tas hvert minutt. Her blir AI en utrolig kraftig forsterker.
Uavhengig av sektor og næring: Bør alle bedrifter ansette en AI-ansvarlig? Og hva vil de viktigste oppgavene i en slik stilling være?
– Ja og nei. Jeg har ofte blitt spurt om hvem som skal være ansvarlig og eie AI-problematikken i en organisasjon. Mitt svar er alltid at det ikke er et enmannsshow. Det trengs et team. Et team som representerer så mange dimensjoner som mulig av mangfold – kjønn, erfaring, alder, bakgrunn, kultur, kunnskap osv. Jo flere dimensjoner du kan komme opp med, jo bedre og jo mindre risiko er det for at vi reflekterer individuelle skjevheter i søknadene. Etter min mening er den viktigste oppgaven for AI-ledere å sørge for at man har et fungerende, robust og godt rammeverk for AI-kontroll.
Hvordan kan vi sørge for at utviklingen av AI kan holdes under kontroll, og ikke skape frykt i den generelle befolkningen om at maskiner tar over styringen av kritiske funksjoner i samfunnet?
– Arbeidet som for tiden pågår over hele verden med prinsipper, lover og regler for AI, er en viktig brikke i puslespillet.
AI må være trygg og etisk «by design». Et robust styringsrammeverk er vesentlig i dette arbeidet, og det samme er å ha teknologi og funksjonalitet i plattformen din som muliggjør utvikling og implementering av AI på en ansvarlig måte. Man bør også ha en intern policy og prinsipper som reflekterer selskapets verdier og legger vekt på at de faktisk gjenspeiles i AI-utvikling. Ikke bare spør «kan vi?» men også «skal vi?». Så har selvfølgelig media en viktig rolle. Vi trenger en mer nyansert debatt og en ansvarlig retorikk som ikke skremmer folk unødvendig, men heller fremmer tillit. AI har et enormt potensial til å gjøre godt i samfunnet. Faktisk tror jeg at sjansene for at AI hjelper oss med å overvinne store problemer og trusler langt oppveier risikoen for å forårsake dem, sier hun.
EU utarbeider og fremmer i disse dager et regelverk som skal gjøre det både trygt og enkelt å bruke og utvikle kunstig intelligens i Europa. Lovene rangerer produkter med kunstig intelligens ettersom hvor stor risiko de utgjør for folks trygghet og rettigheter i det sivile samfunn.
Nasjonalt skal lovverket styres av et eget organ, som skal få innsyn i bruk, kildekode og data de er trent på. Tilsynet kan kreve at produkter trekkes fra markedet, og lovbrudd straffes med bøter på inntil 30 millioner euro eller seks prosent av omsetningen.
Hva tenker du er de viktigste områdene å regulere?
– Jeg lar være å kommentere hva som bør reguleres fordi det er en utrolig kompetent gruppe som jobber med det. Men krav til åpenhet og styring er selvsagt superviktig. Og jeg synes den risikobaserte tilnærmingen EU har valgt er klok. Å forby AI som er klassifisert som uakseptabel risiko og å fokusere på AI som er klassifisert som høy risiko. Og samtidig ha fokus på å fremme innovasjon.
Hvordan kan vi sørge for at AI implementeres inkluderende, og ikke ekskluderende (som en del av den tidligere digitaliseringen har vært kritisert for, spesielt overfor eldre målgrupper)?
– Det er mange faktorer som spiller inn her. Noen eksempler: Mangfold er viktig, i team og i data. Et mangfoldig team hjelper til med å identifisere og forstå ulike perspektiver og behov. Dataene skal være representative for målgruppen. Som jeg nevnte tidligere, lærer maskinlæringsmodeller av dataene de er trent på. Hvis vi lar dem trene på data relatert kun til middelaldrende hvite menn, vil de prestere bedre for dem, men ikke så bra for andre. Da er det selvfølgelig viktig å ha åpenhet og forklarbarhet gjennom hele AI-livssyklusen, det å kunne for eksempel identifisere skjevheter og unøyaktigheter og også eliminere disse og kunne forklare AI-drevne beslutninger når det er et ‘must’.
Et tilbakemeldingssystem er også viktig, slik at AI-systemene kan omskoleres og unøyaktigheter/urettferdigheter kan rettes om nødvendig. Modeller er litt som melk….de har en ‘best før’-dato. De må ta beslutninger i den virkeligheten som er akkurat nå. Den virkeligheten er i stadig endring, og modellene må tilpasse seg den. Kunnskap og utdanning må spres i hele organisasjonen, i hele samfunnet, slik at alle forstår hvordan man kan dra nytte av teknologi og hvordan man bruker den klokt, avslutter hun.
Her kan du lese mer om Make Data Smart den 12. oktober 2023
Her kan du melde deg på konferansen, som avholdes på SAS Radisson i Oslo
Faggruppen BI & Analytics
Faggruppen er et ledende nettverk for utveksling av erfaring, kunnskap og trender innen Business Intelligence og Analytics. Vi arrangerer konferansen Make Data Smart og Innsiktsprisen årlig, i tillegg til seminarer og jevnlige nettverksmøter med tidsaktuelle temaer. Målet vårt er å skape en felles og positiv utvikling innen fagfeltet ved et fokus på mangfoldet i både løsninger og aktuelle teknologier i bransjen.