I 1942 formulerte
science-fiction forfatteren Isac Asimov det han kalte «Three Laws of Robotics».
Nå vil EU lovregulere kunstig intelligens. Noen anvendelser vil bli forbudt på
grunn av risiko for misbruk.
EU vil lovregulere kunstig
intelligens. Allerede i 1942 formulerte science-fiction
forfatteren Isac Asimov det han kalte «Three Laws of Robotics» i novellen «Runaround».
Denne hadde tre paragrafer der den første var: «En robot må ikke skade et
menneske, eller gjennom passivitet, tillate at et menneske blir skadet». Denne
gir fortsatt mening i forhold til forsøk på å regulere kunstig intelligens. Men
når EU nå har satt seg fore å lage lovregler for å styre utvikling og bruk av
kunstig intelligens vil regelverket bli klart mer omfattende og kanskje langt
på veg allmengyldige. De fleste lover er nasjonale, men på IT-området er det
annerledes. Når EU arbeider frem sine lovregler for kunstig intelligens kan de
raskt bli regler som gjelder world wide. De store globale selskapene vil tilpasse
seg i håp om å slippe å forholde seg til nasjonale regimer med ulike krav. Lovmakere
i andre land vil hente regler fra EU-lovgivningen helt eller delvis.
EU har allerede etiske
retningslinjer for utvikling og bruk av AI, eller
kunstig intelligens. Disse ble lagt frem i 2019 etter et omfattende forarbeid. Her
er kunstig intelligens forklart som (min oversettelse): «Et system utviklet av mennesker som, gitt et
sammensatt mål, agerer i den fysiske og digitale verden for å oppfatte
omgivelsene. Det tolker tilgjengelige strukturerte og ustrukturerte data. Det
resonnerer ut fra den kunnskap som det avleder fra disse og beslutter hva som
er best å gjøre for å nå de mål som er satt. Kunstig intelligens er basert på
mange tilnærminger, maskinlæring, maskinresonnement, robotikk m.v.» Som i Azimovs
novelle inneholder også disse retningslinjene krav om å legge til grunn som et
etiske prinsipp om «å vise respekt for det autonome menneske».
Lovarbeidet konsentreres
om det mest risikable. Noen
anvendelser vil bli forbudt. Dette gjelder for eksempel tjenester som bruker
såkalte sublimale teknikker innrettet mot å manipulere mennesker. Andre
teknikker slik som ansiktsgjenkjenning og tildeling av sosiale eller politiske «kredittscore»
av ulike typer, slik man f.eks. gjør i Kina, er ansett som høy-risiko-anvendelser.
Disse vil bli strengt regulert med hensyn til innsyn og datakvalitet og tungt
bøtlagt ved overskridelser slik det i dag skjer ved overskridelser av GDPR. For
ikke å hindre at regelverket hemmer utvikling av AI-løsninger som har stor positiv
nytteverdi oppfordres EU-landene til å etablere «sandkasser» der virksomheter kan
få prøvet ut sine nye tjenester uten å risikere bøter. Mange interessenter har
meldt seg på prosessen med innspill til det som nå foreligger som konsekvensanalyse, lovforslag og omfattende vedleggsdokumenter. Det kan ta tid før dette regelverket er på
plass.
Ingen kommentarer:
Legg inn en kommentar