Racistiske computere bliver snart "klogere"

Kunstig intelligens kan "arve" fordomme fra deres skabere. Det skal ny forskning forhindre.

Algoritmer og kunstig intelligens hjælper os hver dag med at tage beslutninger om alt fra valg af partnere til om vi må få et lån i banken. Men algoritmer kan arve vores menneskelige fordomme. (© Solvej Gregersen)

Kunstig intelligens er en af de kommende teknologier, som vækker mest begejstring på verdensplan. Og det er der en god grund til. Allerede i dag hjælper kunstig intelligens mennesker verden over med at analysere data og tage bedre beslutninger.

Vi mennesker er uperfekte og ofte irrationelle, så måske kan computere klare at tage nogle beslutninger bedre end os. Der er dog et stykke vej endnu, for computere kan nogle gange være lige så fordomsfulde som os mennesker.

Computere er gode til at overskue store mængder information og finde mønstre i dem, og det udnyttede man i et amerikansk projekt med navnet Compas.

Her brugte man en kunstig intelligens til at vurdere dømte kriminelles risiko for at begå yderligere kriminalitet.

Fordomme i algoritmerne

Systemet er dog blevet kritiseret for konsekvent at vurdere, at sorte amerikanere har en højere risiko for at begå yderligere kriminalitet end hvide.

Det er et eksempel på, at en kunstig intelligens, der ellers bliver præsenteret som objektiv, måske har arvet en forudindtaget holdning fra os mennesker.

Systemet gentog højst sandsynligt et mønster, den havde opdaget hos de menneskelige dommere, men på grund af den måde teknologien virker, kan vi ikke få et svar på, hvorfor maskinen dømmer som den gør.

Racisme er børnesygdomme

Men den slags programmerede fordomme er en børnesygdom i kunstig intelligens, og der arbejdes hårdt på at fjerne dem, forklarer Anders Quitzau, Innovationschef ved IBM Danmark.

Hos IBM arbejder man sammen med universitetet MIT på en kunstig intelligens, der netop kan fjerne skævhederne i andre kunstige intelligenser.

- Der er to angrebsvinkler - vi kan enten vurdere skævhederne i data, og se om de er repræsentative. Og vi kan fjerne skævhederne. Hvis vi ikke kan få adgang til data, kan vi teste systemets svar for skævheder, siger han til Digitalt på P1.

Og det kan måske virke lidt skørt at sætte en kunstig intelligens til at kurere skævheder i en anden kunstig intelligens. Men IBMs mål er at lægge al deres data og programmering åbent frem, så alle kan tjekke deres systemer for at være fordomsfulde.

- Så vidt muligt prøver vi at få så meget input som muligt, så vi ved at det fungerer, som det skal, siger Anders Quitzau

Mennesker skal samarbejde med maskiner

Hvis metoderne til at fjerne vores menneskelige irrationelle holdninger fra de kunstige intelligenser kommer til at virke, kan det give basis for et bedre samarbejde mellem mennesker og maskiner, mener Anders Kofod-Petersen.

Han er professor i kunstig intelligens ved Norges Teknisk-Naturvidenskabelige Universitet i Trondheim og vicedirektør på Alexandra Instituttet.

- Jeg er optimist omkring den her teknologi, men jeg mener også, at vi skal bruge maskiner til det de er gode til, og mennesker til det de er gode til. Og tilsammen er de to altid bedre end kun en maskine eller kun et menneske, siger han til Digitalt på P1.

Vi skal dog passe på med at overlade for mange beslutninger til maskinerne. Det er vigtigt, at vi finder den rette grænse for hvad vi outsourcer, mener Anders Kofod-Petersen:

- Tænk på selvkørende biler. De fleste er enige om at det er en god idé, da de ikke kan kede sig, og ikke kan blive trætte. Derfor kan de køre længere og mere sikkert end mennesker, siger han.

- Men sætter man en kanon ovenpå, har vi lavet en autonom kampvogn, og det er måske den dårligste idé nogensinde.

Du kan høre meget mere om, hvad der kan ske, hvis vi overlader beslutningerne til maskinerne i denne uges udgave af Digitalt på P1.