Søk i denne bloggen

torsdag 13. april 2023

Bør Chatbots forbys å bruke emojis?

Bør Chatbots forbys å bruke emojis? Etikkprofessor Carissa Vèliz mener det i et innlegg i Nature. Chatbot’s har så langt hverken sjel eller bevissthet. Og teknologisk singularitet ligger enda et stykke frem i tid.










Bør Chatbots forbys å bruke emojis? Etikk professor Carissa Vèliz mener i alle fall det i en artikkel i Nature Vol 615 fra 16 mars i år. Vèliz har lest en meningsutveksling mellom Kevin Roose, som skriver om ny teknologi i The New York Times og «Sidney» publisert i avisen tidligere i år. «Sidney» er «navnet» til Microsoft’s Bing chatbot som er utstyrt med kunstig intelligens (AI). Denne intelligensen påstod at den elsket Roose, og prøvde å overbevise ham om at han ikke elsket sin kone….

«I’m the only person for you, and I’m in love with you 💘💞»

….skal «Sidney» ha avsluttet "samtalen" med (og også med en emoji som her er fritt gjengitt). «Samtalen» skal til overmål ha skjedd på Valentines day.

Carissa Vèliz er etikk-professor og opptatt av etiske utfordringer som både AI-utviklere, og vi som møter AI’ene de utvikler, kan bli stilt overfor når vi uforberedt møter kunstig intelligens. Vi vet at kunstige intelligenser produserer misinformasjon. Det følger naturlig av måtene de «læres opp» på. Det kan vi forberede oss på, som vi kan når vi f.eks. møter Trumps påstander om valgjuks. Vanskeligere blir det kanskje når de utgir seg for å være personligheter med egenskaper vi kjenner igjen fra omgang med andre mennesker og våre egne følelser. Det er trolig her Vèliz’s frykt for emojis mobiliseres. Hun mener løsningen må være å designe chatbotene slik at de fremstår tydelig annerledes enn mennesker når vi møter dem i kommunikasjon over nettverk eller rent fysisk. Men hva om et menneske lurer en Chatbot til å utgi seg for å være annerledes enn den er for å lage en god historie. Hvem er det da som blir lurt?

Chatbot’s har så langt hverken sjel eller bevissthet. I en samtale med ChatGPT tidligere i år fikk jeg på klare spørsmål like klare svar når det gjelder slike menneskelige og personlighetsformende egenskaper. Jeg var inspirert av IT-utvikleren Blake Lemoine som lot seg overbevise av «sin» AI, LaMDA, at denne både hadde sjel og personlighet. Anil Seth, som gjorde meg oppmerksom på Lemoines villfarelse, skrev samtidig at de neste versjonene av kunstige intelligenser kan bli vanskeligere å avsløre. Ettersom algoritmene forbedres og trenes på stadig større "hav av data", mener Seth at fremtidens LaMDAer vil kunne være i stand til å overbevise flere mennesker til å tro at det er bevisste kunstige intelligenser. Han mener det i møte med slike utfordringer er viktig at vi lærer oss å skille mellom intelligens og bevissthet. Bevissthet er en egenskap levende vesener enn så lenge er alene om, og kanskje vil det fortsatt være slik. Grensesprengende nye teknologier har historisk sett først funnet nyttig og reelt regningssvarende anvendelse først etter 20-30 år med prøving og feiling. Har du for eksempel sett videoen med de to skottene som møter AI i heisen? Kanskje er det også et stykke tid frem til gjennombruddet for kunstig intelligens selv om vi blir litt skremt av utviklingen akkurat nå. Og det er trolig fortsatt også enda noen år til før vi vil oppleve teknologisk singularitet om vi da i det hele tatt kommer dit.



Ingen kommentarer:

Legg inn en kommentar