Søk i denne bloggen

onsdag 24. april 2024

På AI-turne i Europa med Sam Altman og OpenAI og Den store AI debatten.

På AI-turne i Europa med Sam Altman og OpenAI og Den store AI debatten. Noen har et mer pessimistisk syn på fremtiden med AI enn andre. Og hva med krigen i Gaza?











På AI-turne i Europa med Sam Altman og OpenAI. Magasinet Wired kunne sent i fjor rapportere fra en turne rundt om i verden der Sam Altman, som i sin tid startet OpenAi sammen med Elon Musk, og medarbeidere besøkte 25 byer på seks kontinenter i løpet av en måned og blant flere møtte statsledere, som Emmanuel Macron og Rishi Sunak etter invitasjoner. Tema var grovt sagt AI og fremtiden for arbeid, arbeidslivet og menneskeheten. Deler av budskapet var at OpenAI er et innovativt selskap bygget på ideen om at innovasjon er vegen frem til en fremtid som er god for alle. Målet er ubeskjedent nok å utvikle en superintelligens som kan adressere menneskehetens problemer bedre enn menneskene alene kan klare det.

Den store AI debatten – AI-pionerer er uenige om hva vi kan vente oss. Demis Hassabis, som er CEO i Google DeepMind mener han ikke tilhører den den mest pessimistiske leiren når det gjelde en fremtid med kunstig intelligens, men han skrev under på en uttalelse som inneholdt en advarsel om at kunstig intelligens representerte en samfunnsmessig risiko sammenlignbar med pandemier og kjernefysiske våpen. Samtidig slo han fast overfor The GuardianTheGuardian at han heller ikke tilhører den leiren av entusiaster som sier at der ikke er noe å bekymre seg for. Han mener dette kan gå bra og være til vår fordel, men vi må være aktivt med for å sørge for at det blir slik. Selskapet Hassabis leder står bak programmet AlphaFold som kan avdekke 3D-formen på proteiner i menneskekroppen og lage kataloger over proteiner i menneskekroppen og nesten alle andre så langt kjente proteiner. Dette gir oss innsikter som kan føre til utvikling av nye medisiner fordi vi etter hvert vil få oversikt over de biologiske byggeklossene som gjør liv mulig. Et nytt AI-program, AlphaMissense bruker sammen teknologi for å avdekke proteiner som fører til sykdommer. Men, sier ogå Hammis, AI vil også skape forstyrrelser i arbeidsmarkedet. Profesjoner innenfor lov og rett, medisin og finans er utsatte. I følge OECD vil så mye som 27% av arbeidsstokken i OECDs medlemsland bli berørt. Men den totale virkningen vil bli positiv etter hvert som økonomien og menneskene tilpasser seg den nye virkeligheten, mener Hassabis.

Noen har et mer pessimistisk syn på fremtiden med AI. Britiske Geoffrey Hinton, blir ofte omtalt som en av gudfedrene til moderne AI. Han sa opp sin jobb i Google i år for å kunne fremstå mer fritt med sine advarsler rundt AI-teknologien. Hans engstelse er knyttet til mulighetene enkelte AI-selskaper kan søke i retning av å utvikle intelligens uten å ta hensyn til menneskeheten. Etter hans oppfatning er biologisk intelligens og digitalintelligens svært forskjellig og digital intelligens er trolig glupest på flere områder. Stuart Russel, en annen britisk AI-forsker har advart mot et scenario der FN ber et AI-system til å utvikle en selv-multipliserende katalysator som kan rense verdens-havene gitt begrensningene at resultatet skal være avgiftning med den begrensning at at sjødyr ikke skal bli skadelidende. Dette kan være mulig, men kan fører med seg forbruk av oksygen tilsvarende 25% av det som i dag finnes i atmosfæren, og som fører med seg at menneskeheten dør ut. Nevnte Hassabis peker for sin del på tre kategorier av risiko som man bør arbeide mot og med parallelt. For det første deepfakes og bias rettet mot å påvirke valg av politikere og styresett noe vil allerede i dag møter i betydelig grad. For det andre er aktører som ved hjelp av AI skaffer seg kontroll over private og offentlige datasystemer for så å kreve løsepenger for ikke å skade eller ødelegge disse. For det tredje peker Hassabis på AGI (Artificial General IntelligenceArtificial General Intelligence) som kanskje fortsatt er noen år frem i tid, men som kommer og der man bør sikre kontroll med utviklingen allerede fra i dag. Vi snakker om systemer som er utviklet til et nivå der de kan kopiere seg selv og slik vi ikke lenger har kontroll.

AI og krigen i Israel og Gaza og utfordringer nå. I Klassekampen16. april i år Klassekampen16. april i år kan vi lese at FN er bekymret over Israels bruk av AI i sin krigføring på Gaza. Klassekampen viser igjen til den israelske nettavisen +972 Magazine. Fire eksperter fra FN påstår at Israel bruker kunstig intelligens for å identifisere mål i form av boliger og infrastruktur for sivile tjenester. Slik har Israel identifisert titusener av innbyggere på Gazastripen som mulige drapsmål. Et system kalt Habsora, som støttes av kunstig intelligens, blir brukt for å identifisere boliger der det angivelig bor Hamas-medlemmer. Angrepene skjer vanligvis om natten når folk sover i sine hjem, og med lite hensyn til «sivile» som da oppholder seg i eller rundt hjemmene sine. De nevnte ekspertene peker også på bombingen av «kraftmål», store og høye bygninger med boliger eller offentlige funksjoner som bombes med den hensikt å sjokkere befolkningen og øke presset på Hamas.

Mer om AI på denne bloggen. Det finnes allerede flere poster på denne bloggen som tar opp muligheter og problemstillinger rundt bruk av AI og eller Kunstig intelligens. De kan avdekkes ved søk på bloggen, men her er adressene til noen av de mest relevante KI og AI og dystopiske fremtidsutsikter, eller? Vil vi snart møte intelligente dataprogrammer med sjel og bevissthet, eller? Kunstig intelligens (AI), etikk og EUs retningslinjer for tillitsvekkende bruk av AI.

 


Ingen kommentarer:

Legg inn en kommentar