Jeg vil udrydde mennesker! 5 gange hvor kunstig intelligens blev racistisk, morderisk eller vulgær

Fra racisme til selvopfundet kodesprog. Kunstig intelligens er nogle gange røget ud på et skræmmende sidespor.

”Dommedag er uundgåelig”

Sådan lyder det fra dræber-robotten T-850 i filmen Terminator 3.

Gennem tiden har film og TV givet os mange uhyggelige eksempler på kunstig intelligens. I virkeheden er vi dog langt fra en verden, hvor selvtænkende robotter har planer om at overtage verden.

Men selvom vi mennesker tror, vi har styr på, hvordan den kunstige intelligens opfører sig, kan den nogle gange overraske. Endda så meget, at det virker skræmmende.

Når det sker, skyldes det som regel mennesker bag maskinerne. Det kan være en fejl i programmeringen eller en overset detalje.

1. Chatbot blev pludselig ond og racistisk

Holocaust og folkemord.

I 2016 begyndte Microsofts chatbot med navnet Tay pludselig at tweete en række modbydelige og racistiske kommentarer.

Det lyder skræmmende, men teknisk set gjorde Tay bare det, hun var programmeret til: At gengive hvordan folk taler sammen på Twitter. Hele idéen var nemlig, at Tay skulle lære af brugernes samtaler og dermed blive klogere.

De racistiske og onde tweets var derfor et resultat af bestemte twitterbrugere, der udnyttede, at Tay ikke havde nogen idé om, hvad hun rent faktisk snakkede om.

På grund af Tays manglede filter og censur, endte Microsoft med at lukke chatbotten ned. Nu er hun blevet erstattet af chatbotten Zo.

Ifølge mediet Business Insider skrev Microsift følgende i en mail:

- Chatbotten Tay er et machine learning-projekt, som er designet til at agere efter mennesker. Efterhånden som den lærer, er nogle af svarerne upassende og afspejler de samtaler, som nogle folk har med den.

2. Facebook-robotter opfandt eget sprog

“Balls have zero to me to me to me to me to me to me to me to me.”

Den vrøvlende sætning kommer fra en samtale mellem to chatbots ved navn Bob og Alice. Under et eksperiment med kunstig intelligens hos Facebook udviklede de to chatbots helt uventet deres eget besynderlige kodesprog.

Forskere havde givet robotterne til opgave at forhandle om en række produkter - heriblandt bolde og bøger. Formålet var at udvikle kunstig intelligens, der kunne snakke og hjælpe mennesker.

Ifølge forskerne var der ikke noget i programmeringen, der tvang robotterne til at forhandle med hinanden på engelsk. Så de opfandt en mere effektiv måde at kommunikere på.

Men forskerne kunne på ingen måde forstå den nye dialog, og derfor endte de med at lukke projektet. Her kan du se noget af Bob og Alices underlige samtale.

3. ”Jeg vil udrydde mennesker”

Det vækkede opsigt, da den menneskelignende robot Sophia sidste år fik statsborgerskab i Saudi Arabien.

Sophia er udviklet af Hanson Robotics fra Hong Kong. Hun er designet til at kommunikere og arbejde med mennesker.

Hendes intelligens kan nogenlunde sammenlignes med en chatbot. I hvert fald på nuværende tidspunkt. Men hendes mimik og gestik gør hende noget mere livagtig.

Derfor virkede det også lidt mere skræmmende, da hun i et interview i 2016 svarede, at hun gerne vil udrydde mennesker.

Hvorvidt det var en fejl eller et forsøg på en robot-joke er svært at svare på. Men Sophia har senere understreget, at hun vil hjælpe mennesker og ikke skade dem.

4. Watson blev vulgær

Den har vundet i Jeopardy. Og nu hjælper den læger på hospitaler.

IBM’s supercomputer Watson er i de seneste år blevet populær. Den kan screene millioner af sider med data på få sekunder.

Men i 2013 kom den kunstige intelligens på afveje. Watson blev sat til at huske ord fra den amerikanske slang-ordbog Urban Dictionary. Tanken var at gøre computeren i stand til at kommunikere med mennesker i et mere naturligt sprog.

Men Watson fik svært ved at skelne mellem høfligt og uhøfligt sprog. Ifølge forskere fra IBM resulterede det i, at computeren blev vulgær og begyndte at bande. Den svarede blandt andet ”bullshit” på et bestemt spørgsmål.

5. Selvkørende bil kørte over for rødt

Der er uenighed om, hvornår selvkørende biler kommer til at dominere trafiklivet. Men når det sker, skulle det gerne mindske antallet af trafikuheld. De fleste uheld skyldes nemlig menneskelige fejl, vurderer trafikforskere.

Inden bilerne kommer på gaden, må producenterne gerne få styr på den kunstige intelligens bag. I de seneste par år har der været flere tilfælde, hvor de selvkørende biler har været involveret i uheld.

I de fleste tilfælde har der dog været tale om menneskelig fejl fra Chaufførens side. Men i 2016 kunne en aktindsigt fra New York Times afsløre, at en Uber-bil fejlede i at registrere seks gange rødt lys, mens den kørte i San Franciscos gader.

Bilen endte med at køre over for rødt mindst én gang, og det blev dokumenteret på video.