På AI-turne i Europa med Sam Altman og OpenAI og Den store AI debatten. Noen har et mer pessimistisk syn på fremtiden med AI enn andre. Og hva med krigen i Gaza?
På AI-turne i Europa med Sam Altman og OpenAI. Magasinet Wired kunne sent i fjor rapportere fra en turne rundt om i verden der Sam Altman, som i sin tid startet OpenAi sammen med Elon Musk, og medarbeidere besøkte 25 byer på seks kontinenter i løpet av en måned og blant flere møtte statsledere, som Emmanuel Macron og Rishi Sunak etter invitasjoner. Tema var grovt sagt AI og fremtiden for arbeid, arbeidslivet og menneskeheten. Deler av budskapet var at OpenAI er et innovativt selskap bygget på ideen om at innovasjon er vegen frem til en fremtid som er god for alle. Målet er ubeskjedent nok å utvikle en superintelligens som kan adressere menneskehetens problemer bedre enn menneskene alene kan klare det.
Den store AI debatten – AI-pionerer er uenige om hva vi kan
vente oss. Demis Hassabis, som er CEO i Google DeepMind mener han ikke
tilhører den den mest pessimistiske leiren når det gjelde en fremtid med
kunstig intelligens, men han skrev under på en uttalelse som inneholdt en
advarsel om at kunstig intelligens representerte en samfunnsmessig risiko sammenlignbar
med pandemier og kjernefysiske våpen. Samtidig slo han fast overfor The
GuardianTheGuardian at han heller ikke tilhører den leiren av entusiaster som sier at der
ikke er noe å bekymre seg for. Han mener dette kan gå bra og være til vår
fordel, men vi må være aktivt med for å sørge for at det blir slik. Selskapet Hassabis
leder står bak programmet AlphaFold som kan avdekke 3D-formen på proteiner i
menneskekroppen og lage kataloger over proteiner i menneskekroppen og nesten alle
andre så langt kjente proteiner. Dette gir oss innsikter som kan føre til
utvikling av nye medisiner fordi vi etter hvert vil få oversikt over de
biologiske byggeklossene som gjør liv mulig. Et nytt AI-program, AlphaMissense
bruker sammen teknologi for å avdekke proteiner som fører til sykdommer. Men,
sier ogå Hammis, AI vil også skape forstyrrelser i arbeidsmarkedet. Profesjoner
innenfor lov og rett, medisin og finans er utsatte. I følge OECD vil så mye som
27% av arbeidsstokken i OECDs medlemsland bli berørt. Men den totale virkningen
vil bli positiv etter hvert som økonomien og menneskene tilpasser seg den nye
virkeligheten, mener Hassabis.
Noen har et mer pessimistisk syn på fremtiden med AI. Britiske
Geoffrey Hinton, blir ofte omtalt som en av gudfedrene til moderne AI. Han sa
opp sin jobb i Google i år for å kunne fremstå mer fritt med sine advarsler rundt
AI-teknologien. Hans engstelse er knyttet til mulighetene enkelte AI-selskaper kan
søke i retning av å utvikle intelligens uten å ta hensyn til menneskeheten. Etter
hans oppfatning er biologisk intelligens og digitalintelligens svært
forskjellig og digital intelligens er trolig glupest på flere områder. Stuart Russel,
en annen britisk AI-forsker har advart mot et scenario der FN ber et AI-system til
å utvikle en selv-multipliserende katalysator som kan rense verdens-havene gitt
begrensningene at resultatet skal være avgiftning med den begrensning at at sjødyr
ikke skal bli skadelidende. Dette kan være mulig, men kan fører med seg forbruk
av oksygen tilsvarende 25% av det som i dag finnes i atmosfæren, og som fører
med seg at menneskeheten dør ut. Nevnte Hassabis peker for sin del på tre
kategorier av risiko som man bør arbeide mot og med parallelt. For det første
deepfakes og bias rettet mot å påvirke valg av politikere og styresett noe vil
allerede i dag møter i betydelig grad. For det andre er aktører som ved hjelp
av AI skaffer seg kontroll over private og offentlige datasystemer for så å
kreve løsepenger for ikke å skade eller ødelegge disse. For det tredje peker
Hassabis på AGI (Artificial General Intelligence) som kanskje fortsatt er noen
år frem i tid, men som kommer og der man bør sikre kontroll med utviklingen
allerede fra i dag. Vi snakker om systemer som er utviklet til et nivå der de
kan kopiere seg selv og slik vi ikke lenger har kontroll.
AI og krigen i Israel og Gaza og utfordringer nå. I Klassekampen16. april i år kan vi lese at FN er bekymret over Israels bruk av AI i sin
krigføring på Gaza. Klassekampen viser igjen til den israelske nettavisen +972
Magazine. Fire eksperter fra FN påstår at Israel bruker kunstig intelligens for
å identifisere mål i form av boliger og infrastruktur for sivile tjenester. Slik
har Israel identifisert titusener av innbyggere på Gazastripen som mulige
drapsmål. Et system kalt Habsora, som støttes av kunstig intelligens, blir
brukt for å identifisere boliger der det angivelig bor Hamas-medlemmer. Angrepene
skjer vanligvis om natten når folk sover i sine hjem, og med lite hensyn til
«sivile» som da oppholder seg i eller rundt hjemmene sine. De nevnte ekspertene
peker også på bombingen av «kraftmål», store og høye bygninger med boliger
eller offentlige funksjoner som bombes med den hensikt å sjokkere befolkningen
og øke presset på Hamas.
Mer om AI på denne bloggen. Det finnes allerede flere poster på denne bloggen som tar opp muligheter og problemstillinger rundt bruk av AI og eller Kunstig intelligens. De kan avdekkes ved søk på bloggen, men her er adressene til noen av de mest relevante KI og AI og dystopiske fremtidsutsikter, eller? Vil vi snart møte intelligente dataprogrammer med sjel og bevissthet, eller? Kunstig intelligens (AI), etikk og EUs retningslinjer for tillitsvekkende bruk av AI.
Ingen kommentarer:
Legg inn en kommentar