Nye chatbotter med kunstig intelligens er godt i gang med at ændre internettet, som vi kender det.
Botterne fungerer som personlige assistenter og hjælper dig med alt fra at planlægge sommerferien til at læse op til eksamen.
På nuværende tidspunkt er der dog ingen garanti for, at chatbotterne altid svarer korrekt på dine spørgsmål. Og allerede nu er der eksempler på, at én chatbots løgnhistorie kan give ekko i resten af chatbot-verden.
Google’s chatbot Bard påstod for nylig overfor en bruger, at tjenesten var blevet lukket ned, selvom det åbenlyst ikke var tilfældet. Det rygte spredte sig så senere til Microsoft’s Bing Search, som pludselig påstod det samme – altså at Google havde lukket for Bard.
- Det er eksempel på, at man skal tage det med et gran salt, når de her chatbotter svarer på spørgsmål, siger Anders Kofod-Petersen, der er professor med speciale i kunstig intelligens på Norges teknisk-naturvidenskabelige universitet i Trondheim.
- For ’sandhed’ er ikke er et koncept, der eksisterer i de her chatbotter. Det, de skriver, genererer de ud fra en sandsynlighed for, hvilke ord de skal skrive, forsætter han.
Botten troede en joke var fakta
For at forstå, hvordan Bing Search endte med at videreformidle en ukorrekt udtalelse fra Bard, gælder det om at holde tungen lige i munden.
Det startede med, at en bruger spurgte Bard, hvor længe der vil gå, før Google lukker ned for sin nye tjeneste.
Bard svarede:
- Google Bard er allerede blevet lukket ned. Det skete den 21. marts 2023 efter mindre end seks måneder efter, den blev lanceret.
Ifølge botten var begrundelsen for nedlukningen en manglende evne til at kunne tilpasse sig. Men oplysningen byggede ifølge Bards egen reference på en kommentar på siden Hacker News. Her jokede en bruger med, at Google garanteret ville lukke deres nye tjeneste inden for et år.
Bard fangede ikke komikken og leverede i stedet informationen som fakta. Bing Search har så formentlig fundet artikler på nettet, der skriver den forkerte historie om Bards nedlukning og dermed bragt samme falske historie.
Artiklen fortsætter under storien her.
Det forklarer Anders Kofod-Petersen:
- Jeg er ikke sikker på, der er nogen god forklaring på det. For den måde, systemet er bygget på, gør, at de her botter ikke har noget eksplicit forhold til hinanden. Og de har ingen idé om, hvad der er fakta. Så de samler bare nogle ting op hist og her, siger han.
Både Google og Microsoft har understreget, at deres chatbotter lige nu kun fungerer på testniveau. Dermed arbejder de på at rette op på den her type fejl. Bing Search har også allerede rettet sit svar til, at Bard stadig er tilgængelig.
’Stadig et fantastisk værktøj’
Selvom de nye chatbotter ikke altid kan svare korrekt på brugernes spørgsmål, er det stadig et fantastisk værktøj, mener Anders Kofod-Petersen:
- Jeg holder stadig fast i, at det her er et fantastisk værktøj til de folk, som ved, hvad de laver, siger han.
Han nævner blandt andet mediebranchen som et eksempel på, hvor det er oplagt at bruge chatbotter til hjælp.
- Vi kan for eksempel hurtigt få den her slags chatbotter til at skrive en historie. Så er det så bare op til journalisten at faktatjekke, det den kommer med, siger Anders Kofod-Petersen.
Og som almindelige forbrugere af tjenesterne skal vi, ifølge Anders Kofod-Petersen, huske at være kritiske.
- Hvis vi virkelig er smarte, så genopfinder vi de klassiske dyder, når det handler om kildekritik. Og det burde vi sådan set gøre uanset hvad. Det har jo ikke noget med chatbotterne at gøre. Men måske vi netop bliver tvunget til at være mere kritiske nu på grund af den her udvikling med chatbotter, siger han.