Dræber-droner, fupnumre og fake news: Her er 3 udfordringer ved kunstig intelligens

Kunstig intelligens overtager ikke verden lige foreløbig. Men den "tænkende" teknologi har en bagside.

Kommer selvtænkende robotter til at overtage verden, eller er det blot en dystopisk sci-fi-forestilling?

Sortseere som Tesla-stifteren Elon Musk og den nu afdøde fysiker Stephen Hawking har flere gange advaret verden om konsekvenserne af at skabe kunstig intelligens.

Men eksperter maner til besindighed. For kunstig intelligens er langt fra udviklet nok til at kunne måle sig med os selvtænkende mennesker, der tager alle mulige komplekse beslutninger.

Derimod er den kunstige intelligens mester i at løse specifikke opgaver. Det forbedrer vores samfund på mange måder - men det har også en bagside.

1. Våben bliver farligere

Forskere fra flere store udenlandske universiteter, heriblandt Oxford University, har opremset en række områder, hvor fremtidens kunstige intelligens potentielt kan blive misbrugt.

For det første vil våben muligvis blive langt farligere, end de er nu. Intelligente droner kan for eksempel bruges som autonome soldater i krig.

- Ved hjælp af ansigtsgenkendelse kan dronerne flyve efter bestemte mennesker. Og droner bliver bedre og bedre til at finde vej og undgå forhindringer, siger Ole Winther, der er professor ved DTU Compute.

Han er enig med de amerikanske forskere i at, at udviklingen af våben er noget, vi bør bekymre os om i fremtiden.

- Her er der faktisk en reel fare ved kunstig intelligens. I yderste konsekvens kan det betyde, at personer som Donald Trump må leve i en bunker, fortsætter Ole Winther:

Intelligente våben er ikke kun et problem, fordi de potentielt kan ende i de forkerte hænder. Teknologien kan i sig selv være farlig, forklarer Thomas Bolander, der er lektor ved DTU Compute og ekspert i kunstig intelligens:

- Hvis det danske forsvar bruger den kunstige intelligens i våbenudviklingen, så regner vi jo med, at det bliver brugt til gode formål.

Men derfor kan vi jo godt blive for naive og stole for blindt på, at den kunstige intelligens er på et højt nok niveau til at afkode situationer på den rigtige måde, siger Thomas Bolander og fortsætter:

- Så skræmmescenariet er, at det går helt galt, og krigsrobotterne dræber de forkerte – ikke fordi de er ondsindede, men fordi vi mennesker simpelthen ikke har styr nok på teknikken.

2. Sværere at skelne mellem sandt og falskt

Fake news er allerede blevet en stor del af det digitale mediebillede. Men i fremtiden bliver det med al sandsynlighed endnu sværere at skelne mellem, hvad der er sandt, og hvad der er falskt.

Det skyldes især udviklingen af falske videoklip, hvor kunstig intelligens bruges til at efterligne lyd og billeder. Her kan du se, hvordan det blandt andet kan gøres:

https://www.youtube.com/watch?v=9Yq67CjDqvw

På den måde kan ledere, politikere og andre ende med at sige noget, de aldrig har sagt. Og det kan blandt andet påvirke politiske valg.

Derfor har de udenlandske forskere tilføjet fake news på deres liste over potentielle farer ved kunstig intelligens.

- Man kan producere utroligt virkelighedslignende film og lyd, som lyder som fra en bestemt person. Så jeg tror, at vi kommer til at være ligeså kritisk overfor video og lyd, som vi ellers er over for eksempelvis avisartiklers kilder, siger Aske Mottelson, der er ph.d.-studerende i datalogi på Københavns Universitet.

Professor ved DTU Compute, Ole Winther, er enig i, at vi vil blive mere skeptiske overfor informationer i fremtiden.

- Men man finder måske veje, der kan løse problemet. Måske kan man lave en slags vandmærke i film, som ikke vil dukke op, hvis filmen var manipuleret, siger han.

3. Fupmagere får det nemmere

De fleste har prøvet at modtage snyde-emails, hvor afsenderen på en eller anden måde prøver at lokke penge ud af modtageren.

De udenlandske forskere nævner i deres rapport et scenarie, hvor denne type svindelnumre bliver meget værre takket være kunstig intelligens.

Ved hjælp af data fra ofrenes sociale medier vil snyde-emails – også kaldt phishing scams - blive mere personlige. Og de kriminelle kan bruge chatbots til at kommunikere med ofrene, så et fupnummer fremstår mere troværdigt.

- Hvis man kan lave en bot, der virker overbevisende at skrive med, så øger det nok succesraten for, at flere hopper på fupnummeret. Det er jo sådan, det virker med phishing scams. De virker kun fordi, at de sender rigtig mange mails ud, og så er der måske en ud af tusinder, der klikker, siger Ole Winther.

Lektor ved DTU Compute Thomas Bolander understreger, at der i takt med, at problemet bliver værre, også kommer bedre løsninger:

- Kunstig intelligens kan selvfølgelig intensivere problemet. Men på den anden side kan vi måske også bruge kunstig intelligens til at løse problemet. På nuværende tidspunkt bruger vi for eksempel spamfiltre til at spotte snyde-emails. Og den virker ikke hver gang, men den sorterer alligevel ret mange mails fra.

- Så det er hele tiden en konkurrence mellem de ”gode” og de ”onde”, som begge gerne vil udnytte teknologien, fortsætter Thomas Bolander.