Algoritmene vi ikke forstår

Algoritmer styrer store deler av livene våre uten at vi enser det. De bestemmer hvem som får lån, forsikring, jobb, bokettersyn, og hva vi leser og ser av innhold på nett. De tilrettelegger hvilke valg vi står overfor og hvilke valg vi tar.

IT & Media

Co-direktør i Big Insight Anders Løland skrev en kronikk i DN 13. desember om algoritmer som diskriminerer blant menn og kvinner i USA. Men hva med algoritmer som diskriminerer i Norge? Og algoritmer som ikke begrenser seg til kjønn. Hvorfor oppstår de? Hvorfor blir de ikke fjernet?

 

En av begrunnelsene for hvorfor disse algoritmene går under radaren er nok at Datatilsynet gjennomfører få kontroller av it-systemer når de er på tilsyn. Datatilsynet har likevel uttalt at det forventer at behovet for å kontrollere it-systemer vil øke i årene fremover i takt med økt bruk av automatiserte avgjørelser i alle sektorer. Undertegnede er enig i at behovet vil øke – men tror også at det er på høy tid å adressere problemet allerede i dag. Automatiserte avgjørelser brukes allerede innenfor en rekke sektorer og bransjer, og treffer millioner av avgjørelser daglig. Hovedansvaret for å føre tilsyn med disse systemene hviler imidlertid på virksomhetene selv, og ikke Datatilsynet. Det kan stilles spørsmål ved hvor seriøst virksomheter tar dette ansvaret, når ingen fører tilsyn?

 

Personvernforordningen gir den norske kunde rett til en forklaring av hvordan beslutninger blir tatt dersom bestemte vilkår er oppfylt. Enkelte av disse beslutningene kan imidlertid være vanskelig å forklare, både for virksomheten som bruker algoritmen og skaperen selv.

 

«Vanlige» algoritmer er relativt enkle å forholde seg til. De utfører spesifikke handlinger. Et forenklet eksempel er dersom du holder en hastighet over x og fartsgrensen er y, gir systemet deg fartsbot. Vanskelighetene oppstår når man står overfor algoritmer basert på for eksempel dyp læring og maskinlæring. Ved maskinlæring vil algoritmen utvikle seg ved å lære fra empiriske data, slik at den kan treffe mer intelligente beslutninger. Et eksempel er bankers systemer for låneinnvilgelse. Enkelte av disse utvikler seg på egen hånd, ved at systemet lærer hvilke beslutninger som innebærer en høy grad av risiko for banken og til hvilket beløp.

 

Banken vil i enkelte tilfeller ha vanskeligheter med å forklare systemets beslutninger som følge av at systemet er komplekst og lite gjennomsiktig. Det kan vise seg utfordrende for banken å forklare systemet – den svarte boksen – da systemet har utviklet seg etter å ha blitt matet med enorme mengder data. Uten tilsyn med et slik system vil det kunne utvikle seg brudd på regelverk, økte sosiale forskjeller, utilsiktet diskriminering og ulovlig gjenbruk av data.

 

Løland peker på at det er lite praksis knyttet til hvordan og hvor detaljert en algoritmeforklaring bør være. Et større problem er fraværet av diskusjon, bevissthet og tilsyn bekymringsverdig. Det er åpenbart gode grunner for å bruke algoritmer og automatiserte systemer, det er enda bedre grunner for å forstå hvordan de treffer avgjørelser. Merkelig er det derfor at vi er mer opptatt av å bruke algoritmer, enn å forstå avgjørelsene de treffer.

Les artikkelen på DN.no.

 

Bildet er tatt av Free-Photos fra Pixabay

Forfatter

Hermon Melles

  • advokatfullmektig