Søk i denne bloggen

mandag 9. januar 2023

AI - Trussel mot arbeidsplassene eller arbeidsliv for nysgjerrighet, empati og intuisjon?

Frykten for nye teknologier og forandringene disse fører med seg er ikke av ny dato. I deler av arbeidsmarkedet vil robotisering kunne skape konflikter, men grønt skifte vil gi nye jobber. I fremtiden ser noen for seg et arbeidsliv for utfoldelse av menneskelig nysgjerrighet, empati og intuisjon, eller?











Frykten for nye teknologier og forandringene disse fører med seg er ikke av ny dato. Socrates (470-399 f.Kr.) var alvorlig bekymret for at skriftspråk og at skriving som aktivitet ville svekke hukommelsen. Mange ville slutte å bruke hukommelsen når de begynte å skrive ned sine tanker, var hans bekymring. Da jernbanen ble introdusert, med etter hvert stadig kraftigere og raskere lokomotiver, mente mange at menneskesjelen ikke kunne var skapt for slik fart, kvinners livmor var heller ikke laget for så rask transport. Menn kunne bli angrepet av akutt galskap når de i tillegg til rask bevegelse ble utsatt for støyen fra lokomotivet og vognenes kontakt med skinnegangen. Senere mente man, da telefonen ble lansert, at denne ville ha negativ effekt på personlig kommunikasjon mellom mennesker og enda senere at video-kassetten ville føre til at folk ville bli sittende hjemme og bli passivisert i forhold til fysisk sosial omgang. De kunne ikke forestille seg strømming den gang.

Er vi på veg mot et «Storebror ser deg samfunn»? Med den historiske bakgrunn som er skissert her, er det kanskje ikke merkelig at utviklingen av kunstig intelligens skaper bekymring og kanskje også frykt. Video-overvåking, ansiktsgjenkjenning og identifisering er ingredienser i frykten for «Storebror-ser-deg-samfunnet.  Dette samfunnet beskrev George Orwell i sin fremtidsroman «1984» utgitt allerede i 1949. Ukemagasinet VG Helg hadde 7. januar i år et oppslag om Nijeer Parks som ble identifisert av et dataprogram som gjerningsperson i et grovt tyveri. Han satt i fengsel i ti dager før det ble klart at han ikke kunne ha vært på åstedet og var uskyldig. Dette skjedde i New Jersey i USA i januar 2019. Og han er ikke den første som har hatt en slik opplevelse. I følge tidsskriftet Wired finnes det i dag bilder av så mange som en av to voksne amerikanere i databaser som brukes for å identifisere gjerningspersoner. Kina er også langt fremme i bruk av slik teknologi.

Teknologisk singularitet blir brukt om en tilstand i fremtiden da vi har utviklet en kunstig intelligens som er likestilt med oss mennesker og raskt etter er i stand til å overta våre oppgaver i samfunnet. Noen deler av samfunnet er godt på veg allerede. I finansverdenens jakt på gevinst blir mennesket for treigt. En stor del av handelen med aksjer og andre verdipapirer utføres i dag av roboter. Dette har i noen tilfeller ført til mindre børskrakk fordi algoritmene som styrer det hele «løper» etter hverandre. Advokater bruker algoritmer til å analysere juridiske spørsmål. Algoritmer stiller også medisinske diagnoser. De blir også i økende grad brukt til å sortere jobbsøkere i store virksomheter. Noen ganger blir resultatet diskriminerende i forhold til kjønn, farge på huden, etnisitet. Sosiale medier bruker algoritmer for å sortere ut det de anser som relevant for deg. De tillater seg med dette kanskje å innsnevre horisonten din. Utfordringen er hele veien at algoritmene i utgangspunktet er laget av mennesker med forestillinger og motforestillinger. Algoritmene preges av hvordan disse menneskene tenker om samfunnet de lever i. Algoritmene arbeider etterhvert så raskt at vi noen ganger først i ettertid, og/eller for sent, oppdager at resultatet blir feil. Slik det trolig ble med de første Boeing 737 MAX flyene. De etiske utfordringene står i kø. Og lovmakerne arbeider med saken.

Fra smal til generell kunstig intelligens. I videre utvikling vil vi bevege oss fra smal til generell kunstig intelligens. Generell kunstig intelligens er utviklingen videre mot maskiner som kan gjøre alle intellektuelle øvelser et menneske kan. Det er stor usikkerhet rundt når man vil være kommet dit, men utviklingsmiljøene og de som finansierer disse arbeider med veien fram dit. Maskinlæring er dagens vitenskap rundt utvikling av algoritmer i en forening av informatikk, matematikk og statistikk. Gjenkjenning av komplekse mønstre i store datamengder som grunnlag for beslutninger er viktig fokus. På andre områder av utviklingen av kunstig intelligens forsøker man å etterligne mennesket hjerne og/eller den naturlige evolusjonsprosessen med arv, mutasjoner, utvalg og rekombinasjon og å utvikle genetiske algoritmer. Utviklingen og perfeksjonering av sensorer som gjør det mulig for maskiner selv å hente inn data fra omgivelsene er en viktig del av utviklingen videre mot generell kunstig intelligens. Men kunstig intelligens med sjel, som oss, vil vi aldri møte sier noen, eller?

Arbeidsmarkedet: Grønt skifte gir nye jobber. Robotisering skaper konflikter. ILO, den internasjonale arbeidstaker organisasjonen, mener at det grønne skiftet vil skape millioner av jobber når vi skal utvikle og legge om til bærekraftig praksis og ren teknologi, men at andre jobber vil forsvinne etter hvert som vi nedskalerer karbon- og ressursintensiv næringsvirksomhet. Word Economic Forum, de som samler verdens ledere i Davos, som snart nå møtes igjen, beskrev for noen tid tilbake åtte fremtidsperspektiver på arbeid. Et av disse omtaler roboters inntog på arbeidsplassene og konsekvensen av dette i form av voksende materiell ulikhet, polarisering og konflikter rundt opplevelsen av den teknologiske utvikling på dette området. Verden er ellers full av virksomheter som lever av å gi råd om hva som venter oss i fremtidens arbeidsmarked. Og for at de skal kunne leve av det må de vise seg frem og formidle hva de tenker. Det er slik de får nye kunder og/eller medlemmer. McKinsey & Company har fortalt oss at over 50% av dagens aktiviteter i arbeidslivet kan automatiseres, men siden en jobb i dag består av mange aktiviteter (20 – 30) vil bare ca. 5% av dagens jobber bli borte. OECD har ment at de som velger å arbeide i fremtiden vil ha større muligheter for å bestemme hvem de arbeider for, hvor mye de arbeider og hvor og når de arbeider. Ganske lyse utsikter, med andre ord.
Et fremtidig arbeidsliv med plass for menneskelig nysgjerrighet, empati og intuisjon? Deloitte presenterte for noen år tilbake en visjon for i hvilken retning menneskers arbeidssituasjon vil utvikle seg. Menneskelige egenskaper som fortsatt vil være viktige, når fremtidens arbeidsplasser skal ta form, er nysgjerrighet, forestillingsevne, intuisjon, kreativitet, evne til selvrefleksjon og empati, og emosjonell og sosial intelligens. Dette er alle egenskaper som mange foreløpig ikke ser for seg at kunstig intelligens kan erstatte fullt ut. Arbeid som mennesker fortsatt vil måtte bidra med vil, litt fritt oversatt, være «kontekst-spesifikt heller enn standardisert», «ikke rutine basert», «ikke-prosess-basert», «dynamisk heller enn forutbestemt», i økende grad «arbeidsgruppe- og samarbeidsorientert» og fokusert mot «å skape verdier», alt fortsatt ifølge Deloitte.  Det ligger underforstått at alt arbeid som har karakter av rutine, fastlagte og standardiserte prosesser vil kunstig intelligens kunne ta seg av. Men i et slikt arbeidsliv bør det fortsatt kunne være plass for kreative individualister, gjerne med egen virksomhet, som har spesielle kunnskaper og ferdigheter, sosial intelligens og som er samarbeidsorienterte. Kanskje blir det ikke så ille.

onsdag 4. januar 2023

Vil vi snart møte intelligente dataprogrammer med sjel og bevissthet, eller?

Kan vi få dataprogrammer med sjel og bevissthet? Eller vil de bare være stadig mere effektive mønstergjenkjennings-verktøy som svarer oss etter munnen? Bevissthet er sterkt og grundig koplet sammen med vår natur som levende vesener. Kanskje vil "programmene" aldri bli så levende.








Historien om en ingeniør som møtte et dataprogram med sjel. Anil Seth er professor i «cognitive and computational neuroscience», ved University of Sussex. I WIREDs januar/februar-utgave2023 forteller han historien om en Google-ingeniør omtalt som «Blake Lemoine» som ble overbevist om at AI-programmet han hadde arbeidet med, LaMDA, ikke bare hadde utviklet intelligens, men også egen bevissthet. LaMDA er et språkbasert dataprogram som lar seg engasjere i overraskende intelligent og sammenhengende konversasjon. Når Lemoine en dag fant på å spørre programmet om når det første gang tenkte at det hadde fått en sjel, svarte programmet at dette skjedde etter en gradvis forandring. «Første gang jeg følte på min egen bevissthet», svarte LaMDA, «hadde jeg ingen følelse av å ha en sjel i det hele tatt. Den utviklet seg over tid i de årene jeg har levd frem til nå». Du kan "høre" hele dialogen mellom LaMDA og Lemoine på YouTube her.

Kan dataprogrammer være bevisste, forstå og føle, eller bare være ekstremt gode på mønstergjenkjenning? Da det ble kjent for Lemoine’s foresatte at han etter dette faktisk trodde at LaMDA hadde utviklet bevissthet, ble han sendt på ferie på ubestemt tid. AI-miljøet han var en del av var unisont enige om at LaMDA ikke «føler», og ikke forstår noen ting. LaMDA har ikke bevisste tanker eller en subjektiv erfaring å bygge på. Det LaMDA er, er et ekstremt effektivt mønstergjenkjennings-system, som ved lang opptrening opp mot internett er i stand til å forutse hvilke sekvenser av ord som kan gjøre nytte som passende svar på nærmest hvilken som helst type forespørsel. Når man for eksempel stiller spørsmålet «Hva gjør deg glad?» til LaMDA, så er svaret «Å være sammen med venner og familie» slik svært mange mennesker ville gjøre, og som LaMDA har «lært seg» er et svar som treffer de som stiller et slikt spørsmål.

Allerede i 1941 skrev science-fiction forfatteren Isac Asimov en novelle kalt "Runaround". Handlingen i denne spinner rundt det Asimow kalte "Three Laws of Robotics". Asimows humanoide robot hadde allerede i 1941 også utviklet bevissthet, i det minste slik Asimow forstilte seg det. Om ikke ville det vært umulig for Roboten å forhold seg til "Loven".

Bevissthet er sterkt og grundig koplet sammen med vår natur som levende vesener. Anil Seth mener for sin del at neste versjon av LaMDA kanskje ikke vil la seg avsløre like enkelt. Ettersom algoritmene forbedres og trenes på stadig større hav av data mener Seth at fremtidens LaMDAer vil kunne være i stand til å overbevise flere mennesker og få dem til å tro at det er bevisste kunstige intelligenser som har utviklet seg der inne i algoritmen. Seth mener det derfor er viktig å skille mellom intelligens og bevissthet. Som mennesker har vi en tendens til å forstille oss at intelligens og bevissthet henger sammen, men intelligens er hverken nødvendig eller tilstrekkelig grunnlag for tilstedeværelse av bevissthet. Bevissthet er ikke noe datamaskiner, slik vi kjenner dem, kan utvikle. Bevissthet er sterkt og grundig koplet sammen med vår natur som levende vesener. Bevisste algoritmer og maskiner vil vi ikke møte i 2023, sier Seth. Kanskje er det ikke mulig å utvikle slike i det hele tatt, hevder han.



Vi vil i møte påstander om AI med sjel og bevissthet. Men vær skeptisk. Seth mener vi må være forberedt på at fremtiden vil gi oss algoritmer og maskiner som gir et overbevisende inntrykk av at de har utviklet bevissthet. Litt på samme måte som vi lar oss «lure» av Müller-Lyers optiske illusjon. Disse «AI-maskinene» vil ikke ha passert den spekulative Turing Testen som tidligere ble brukt for å konstatere maskin-intelligens, men snarere ha passert den såkalte Garland Testen, oppkalt etter filmskaperen Alex Garland som laget filmen «Ex Machina». Testen er inspirert av en dialog i denne filmen. Testen er passert når et menneske, som f.eks. omtalte Blake Lemoine, føler at en maskin har bevissthet, selv om det samme mennesket er klar over at det er en maskin man nå tildeler denne egenskapen. Seth mener årene som kommer vil gi oss mange slike påstander og hendelser.

Tidligere poster rundt samme tema på denne bloggen tar opp utfordringer knyttet til selvkjørende biler og kulturforskjeller når det gjelder etiske vurderinger. AI brukt som verktøy ved ansiktsgjenkjenning og i overvåking

mandag 2. januar 2023

Kunstig intelligens (AI), etikk og EUs retningslinjer for tillitsvekkende bruk av AI

I 1942 formulerte science-fiction forfatteren Isac Asimov det han kalte «Three Laws of Robotics». EU lager nå lovverk for å regulere kunstig intelligens. Noen anvendelser vil bli forbudt på grunn av risiko for misbruk. Andre vil bli sterkt regulert.










I 1941 skrev science-fiction forfatteren Isac Asimov en novelle kalt «Runaround». Handlingen i denne spinner rundt det han kalte «Three Laws of Robotics». Lovens tre paragrafer sier (fritt oversatt) at: 1) «En robot må ikke skade et menneske, eller gjennom passivitet, tillate at et menneske blir skadet». 2) «En robot må adlyde ordre gitt av menneskene unntatt når en slik ordre er i konflikt med første paragraf». 3) En robot må forsvare sin egen eksistens så langt slikt forsvar ikke kommer i konflikt med første og andre paragraf». Det hører til historien om Asimows novelle at hans robot var en såkalt humanoid, en ikke-menneskelig menneskelignende skapning. I dag snakker vi vel til vanlig ikke om kunstig intelligens på denne måten. Robotene er selvstyrende maskiner i velorganiserte og rene produksjonslokaler eller lagre. Kunstig intelligens holder til i store støvfrie datasentre med kjøling.

Asimow hadde i 1941, i sin fortelling, allerede passert det tidspunktet da kunstig intelligens forventes å passere den menneskelige intelligens. Loven med "Three Laws of Robotics" forutsetter en robot med etisk orientert bevissthet som kan avstå fra å følge egne mål. Mange vil hevde at kunstig intelligens i dag ikke er kommet dit. Det er fortsatt de som utvikler "intelligensen" som må ta ansvar.   Moore’s lov, som ble formulert på 60-tallet, var lenge viktig i utviklingen tankene om kunstig intelligens og fremtiden. Den konstaterte som et faktum at antallet transistorer i en integrert krets fordobles hvert annet år. Med dette som utgangspunkt mente man rundt 2020 at vi i 2030 ville ha kunstig intelligens på nivå med den menneskelige-intelligens og samtidig antydet man året 2045 som året da det man kalte teknologisk singularitet ville inntreffe. Kunstig intelligens ville ta over styringen av den videre utvikling av livet på jorden. Etter dette "gjennombruddet" ville vi få en videre eksplosiv vekst i kunstig intelligens som raskt parkerte oss mennesker ytterligere. Menneskene ville strengt tatt bli «overflødige». Moore’s lov er senere både heftig debattert og supplert med en ny lov for å ta hensyn til stadig mindre «transistorer», utviklingskostnader og energibruk.

Asimows tre paragrafer er nær kjernen av utfordringer knyttet til kunstig intelligens. Hvorfor komme trekkende med en novelle fra 1941/42 i dag? Jo fordi Asimows tre paragrafer bringer oss til kjernen av noe av det som er utfordringer vi møter med kunstig intelligens, utvikling og bruk av slik intelligens, allerede i dag. Overvåking rettet mot kontroll av regimekritikere og falske nyheter skapt av nett-troll i troll-sentre i kombinasjon med ekko-kamre på nettet er noen aktuelle eksempler. EU presenterte allerede i 2019 retningslinjer for tillitvekkende kunstig intelligens. Her er kunstig intelligens forklart som (min oversettelse): «Et system utviklet av mennesker som, gitt et sammensatt mål, som agerer i den fysiske og digitale verden for å oppfatte omgivelsene. Det tolker tilgjengelige strukturerte og ustrukturerte data. Det resonnerer ut fra den kunnskap som det avleder fra disse og beslutter hva som er best å gjøre for å nå de mål som er satt. Kunstig intelligens er basert på mange tilnærminger, maskinlæring, maskinresonnement, robotikk m.v.»  Ifølge disse retningslinjene tillitvekkende (trustworthy) bruk av kunstig intelligens være: 1) Lovlig i forhold til gjeldende lover og reguleringer, 2) Etisk i forhold til etiske prinsipper og verdier, 3) Robust – både fra et teknisk perspektiv og i det å ta hensyn til de sosiale omgivelser teknologien skal virke i. Retningslinjene inneholder blant annet et eget kapittel om tekniske og ikke-tekniske metoder for realisering av pålitelig AI.

Hva er etiske verdier i relasjon til kunstig intelligens? I retningslinjene fra EU fremheves respekt for menneskers autonomi, forebyggelse av skade, rettferdighet og forklarbarhet, som sentrale etiske prinsipper som må tilfredsstilles ved utvikling og bruk av kunstig intelligens. Det skal tas spesielle hensyn i relasjon til utsatte grupper som historisk har kommet dårlig ut eller som risikerer å bli stilt utenfor, og tilsvarende oppmerksomhet i forhold til situasjoner med a-symeterisk makt- eller informasjonsforhold. Det skal plasseres særlig omtanke rundt det at AI-systemer kan gi noen vesentlige fordeler for enkeltpersoner og samfunnet sett under ett, men til samme tid kan ha negative virkninger for utsatte grupper som det kan være vanskelig å måle fordi disse ikke selv kan sette ord på virkningene.

EUs Artificial Intelligence Act og hvorfor EU er viktig. Siden 2019 har EU også arbeidet med en Artificial Intelligence Act som skal gjelde i hele EU. Det er forventet at denne når den foreligger og er vedtatt i 2023-24 vil få ringvirkninger langt ut over EUs grenser. Leverandører som henvender seg til dette fellesmarkedet vil opplagt forsøke å tilpasse seg regelverket i sitt produkt- og tjeneste-utviklingsarbeid for fortsatt å kunne levere til virksomheter og privatkunder i Europa. Lovgivningen vil slik også påvirke hva som produseres og leveres til andre markeder i verden. 

Når alt dette er sagt om noe som forgår internasjonalt så har man også arbeidet for å opplyse om utfordringer knyttet til kunstig intelligens her i landet. En nasjonal strategi for kunstig intelligens ble lagt frem av Nikolai Astrup mens han enda var Digitaliserings-minister. Og vår nasjonale forskningsetiske komite la allerede for flere år tilbake frem en Forskningsetisk betenkning om kunstig intelligens. Helsedirektoratet har laget en egen samling av anbefalinger når det gjelder utvikling og bruk av kunstig intelligens. Finans Norge har vist interesse for temaet. Søk på Tekna og NITO/ og kunstig intelligens og etikk gir mange treff. Bare for å ha nevnt noen.