Krevende landskap av lover og regler

Kunstig intelligens kan bidra til å forbedre og effektivisere mange prosesser i virksomheten. Utføring av driftsoppgaver, behandling av data, støtte til ledelsen og rekrutteringsprosesser er et par eksempler. Men samtidig som AI kommer med utallige fordeler må vi være bevisst på hvilke farer og regulatoriske risikoer som følger med.

En sentral risiko som bør adresseres og overvåkes er hvordan og i hvilken grad utvikling og bruk av AI kan bidra til diskriminering som står i strid til likestillings- og diskrimineringsloven, Grunnloven, Den europeiske menneskerettskonvensjonen (EMK) og kommende «AI Act».

Vi befinner oss midt oppe i et krevende og dynamisk regulatorisk landskap, og det er viktig å ha god nok kontroll over hvilke regler som gjelder. Heldigvis finnes det gode råd for hvordan vi kan kartlegge og håndtere risikoer rundt AI og diskriminering. Likestillings- og diskrimineringsombudet (LDO) har kommet med en ny veileder de kaller «Innebygd diskrimineringsvern», som retter seg mot alle som enten utvikler, anskaffer eller benytter seg av AI. Denne skal hjelpe deg med å sørge for at utvikling, anskaffelse og bruk av AI gjøres i tråd med diskrimineringsregelverket.

Diskriminering og AI – Hva handler det om?

Etter norsk lov defineres diskriminering som ulovlig forskjellsbehandling knyttet til ett eller flere diskrimineringsgrunnlag. I veilederen finner du konkrete eksempler på ulike typer diskriminering i blant annet ansettelsesprosesser. Den tar for seg diskriminering rundt etnisk opprinnelse, legning, kjønn, funksjonsnedsettelser, alder m.m.

AI-systemer kan knyttes til både direkte og indirekte former for diskriminering. Den direkte diskrimineringen forskjellsbehandler på bakgrunn av eksplisitte faktorer som kjønn, etnisitet, funksjonsnedsettelse eller andre nevnt i loven. Den indirekte diskrimineringen kan være noe mer utfordrende å oppdage, og det kan for eksempel handle om at et AI-system forutser eller anbefaler en person, et produkt eller en konsekvens basert på diskriminerende faktorer.

Hensikten kan være en annen, men fordi kunstig intelligens baserer seg på etablerte mønstre og adopsjon, kan resultatet allikevel være diskriminerende. Et eksempel på indirekte diskriminering er når AI i en ansettelsesprosess velger ut kandidater basert på hvilke profiler som har blitt ansatt i bedriften tidligere, fremfor å kun forholde seg til kvalifikasjoner. 

Diskriminering og forskjellsbehandling er ikke alltid det samme

Lovverket er teknologinøytralt, som betyr at diskrimineringsforbudet gjelder uavhengig om det er et menneske eller et AI-system som diskriminerer. 

Det er viktig å understreke at noen former for forskjellsbehandling kan være både saklig og nødvendig – for eksempel der noe tilpasses fordi mennesker har ulike forutsetninger. Diskriminering, derimot, er verken saklig eller nødvendig. 

I følge veilederen er det tre punkter du bør ta en avsjekk rundt for å vurdere om et AI-system diskriminerer:

  1. Fører bruken av systemet til at noen stilles dårligere enn andre?
  2. Gjøres forskjellsbehandling på grunn av forhold som kan knyttes til et diskrimineringsgrunnlag (direkte eller indirekte)?
  3. Er forskjellsbehandlingen usaklig, unødvendig eller uproporsjonal? 

Fem trinn for å håndtere risiko

Veilederen gir råd til hvordan virksomheter kan etablere et innebygget diskrimineringsvern. Den anbefaler fem trinn for å systematisk forebygge og måle diskriminering over tid:

  1. Planlegging: Definer formål og planlagt bruk av AI-systemet. Konteksten systemet skal operere i er avgjørende for hvilken betydning det kan ha for enkeltpersoner og samfunnet.
  2. Treningsdata: Datagrunnlaget modellen er trent på må være representativt ut fra modellens formål og historiske skjevheter må kartlegges og korrigeres.
  3. Modellutvikling: Hva systemet skal brukes til må være i tråd med formålet for utviklingen og bruken av den. Du må kunne bevise saklig formål, nødvendighet og at det tjener formålet for utvikling og bruk i arbeidsprosessene.
  4. Testing: Sjekk at systemet fungerer like godt for alle grupper og brukere. Selv om personopplysninger fjernes kan systemet finne mønstre i dataene, og gjennom det vektlegge opplysninger som faller inn under diskrimineringsparaplyen.
  5. Implementering og tilsyn: Finn ut av om skjevheter i systemet kan jevnes ut ved å få på plass kompenserende tiltak. Du må sikre menneskelig kontroll av systemet, og alle som skal bruke eller kan bli berørt av det må kjenne til hvordan det fungerer, hvorfor og til hva. På den måten sørger du for at alle berørte kan ivareta sine rettigheter. 

Kommer ikke unna gode styringsmekanismer

Skal du bruke kunstig intelligens på en god og forsvarlig måte, må du ha gode styringsmekanismer på plass. Det innebærer å styre og kontrollere bruken av AI på en helhetlig og systematisk måte. Rettferdig bruk av AI, som verken direkte eller indirekte diskriminerer er en sentral del av god styring. Ansvarlige for «Aktivitets- og redegjørelsesplikten» (ARP) i virksomheten bør være oppdatert på risikoer rundt AI og diskriminering og virksomheten bør ha utviklet tiltak for å motvirke dette.

Virksomheter som har etablerte systemer og prosesser som løpende sikrer kartlegging og kontroll av risiko vil i stor grad unngå et lappeteppe av «ad hoc»-tiltak. Den nye veilederen kan være et hjelpsomt verktøy i arbeidet med å bygge opp god virksomhetsstyring.

Hvordan sikre seg mot diskriminering?

Vi anbefaler at virksomheter sikrer seg mot diskriminering gjennom å identifisere og kartlegg hvilke potensial som finnes for diskriminering, og ved å fastsette hva som kjennetegner rettferdig behandling for ulike personer og grupper. Loven bestemmer hva enhver virksomhet må forholde seg til, men selskapets verdier kan tilsi at du kanskje bør strekke deg enda lengre.

Ikke minst bør det utarbeides klare prinsipper for hva AI-modellene ikke skal kunne bidra til, som for eksempel øke kundenes betalingsvillighet. Skjevheter i data og resultater fra AI-modellene må overvåkes gjennom hele livssyklusen, og brukerne må ha god nok kompetanse om disse. Slike skjevheter kan også komme av manglende data fra ansatte eller interessenter, og det må brukerne være klar over.

Våre eksperter kan hjelpe deg og din virksomhet med å integrere en helhetlig «AI Governance» i tråd med vårt Trusted AI-rammeverk



Mer om AI fra våre eksperter