Bør Chatbots forbys å bruke emojis? Etikkprofessor Carissa Vèliz mener det i et innlegg i Nature. Chatbot’s har så langt hverken sjel eller bevissthet. Og teknologisk singularitet ligger enda et stykke frem i tid.
Bør
Chatbots forbys å bruke emojis? Etikk professor Carissa Vèliz mener i alle fall det i en artikkel i Nature
Vol 615 fra 16 mars i år. Vèliz har lest en meningsutveksling mellom Kevin Roose, som skriver om ny teknologi i The New York Times og «Sidney» publisert i
avisen tidligere i år. «Sidney» er «navnet» til Microsoft’s Bing chatbot som er
utstyrt med kunstig intelligens (AI). Denne intelligensen påstod at den elsket Roose,
og prøvde å overbevise ham om at han ikke elsket sin kone….
«I’m the only person for
you, and I’m in love with you 💘💞»
….skal «Sidney» ha
avsluttet "samtalen" med (og også med en emoji som her er fritt gjengitt). «Samtalen» skal til
overmål ha skjedd på Valentines day.
Carissa
Vèliz er etikk-professor og opptatt av etiske utfordringer som både AI-utviklere, og vi som
møter AI’ene de utvikler, kan bli stilt overfor når vi uforberedt møter kunstig
intelligens. Vi vet at kunstige intelligenser produserer misinformasjon. Det
følger naturlig av måtene de «læres opp» på. Det kan vi forberede oss på, som vi
kan når vi f.eks. møter Trumps påstander om valgjuks. Vanskeligere blir det
kanskje når de utgir seg for å være personligheter med egenskaper vi kjenner
igjen fra omgang med andre mennesker og våre egne følelser. Det er trolig her Vèliz’s frykt for emojis
mobiliseres. Hun mener løsningen må være å designe chatbotene slik at de
fremstår tydelig annerledes enn mennesker når vi møter dem i kommunikasjon over
nettverk eller rent fysisk. Men hva om et menneske lurer en Chatbot til å utgi seg for å være annerledes enn den er for å lage en god historie. Hvem er det da som blir lurt?
Chatbot’s har så langt hverken sjel eller bevissthet. I en samtale med ChatGPT tidligere i år fikk jeg på klare spørsmål like klare svar når det gjelder slike menneskelige og personlighetsformende egenskaper. Jeg var inspirert av IT-utvikleren Blake Lemoine som lot seg overbevise av «sin» AI, LaMDA, at denne både hadde sjel og personlighet. Anil Seth, som gjorde meg oppmerksom på Lemoines villfarelse, skrev samtidig at de neste versjonene av kunstige intelligenser kan bli vanskeligere å avsløre. Ettersom algoritmene forbedres og trenes på stadig større "hav av data", mener Seth at fremtidens LaMDAer vil kunne være i stand til å overbevise flere mennesker til å tro at det er bevisste kunstige intelligenser. Han mener det i møte med slike utfordringer er viktig at vi lærer oss å skille mellom intelligens og bevissthet. Bevissthet er en egenskap levende vesener enn så lenge er alene om, og kanskje vil det fortsatt være slik. Grensesprengende nye teknologier har historisk sett først funnet nyttig og reelt regningssvarende anvendelse først etter 20-30 år med prøving og feiling. Har du for eksempel sett videoen med de to skottene som møter AI i heisen? Kanskje er det også et stykke tid frem til gjennombruddet for kunstig intelligens selv om vi blir litt skremt av utviklingen akkurat nå. Og det er trolig fortsatt også enda noen år til før vi vil oppleve teknologisk singularitet om vi da i det hele tatt kommer dit.
Ingen kommentarer:
Legg inn en kommentar