Forestil dig et øjeblik, at du er ansat af Facebook til at vurdere, om et uploadet billede er stødende eller ej. Om det nøgne menneske eller den blottede del af et menneske er kunst, et stykke historie eller bare ren og skær pornografi.
I den tid, det har taget dig at læse artiklen indtil videre, lad os sige du har brugt 10 sekunder, er der kommet 20.000 nye fotos ind i din indbakke. Og hvis du en dag er syg ligger der 300 millioner ekstra dilemmaer at tage stilling til.
Ærlig begrundelse fra Facebook
Naturligvis er det ikke alle billederne, der forestiller nøgne mennesker i en eller anden forstand og naturligvis er du ikke den eneste om opgaven, men tallet er alligevel med til at forklare, hvorfor Facebook i den forgangne uge handlede som de gjorde.
Først havde virksomheden fjernet det historisk berømte billede af den ni år gamle vietnamesiske pige Kim Phuc, der i 1972 løber grædende væk fra brændende napalm. Begrundelsen: En computer har registreret, at hun er et nøgent barn, nøgne børn kan virke stødende, og hvordan skulle vi kunne skelne historisk nøgenhed fra almindelig nøgenhed?
Efter massivt pres fra politikere og brugere gav Facebook så efter og tillod Kim Phuc-fotografiet. Virksomheden lod en sjældent ærlig begrundelse følge med beslutningen.
Facebook skrev:
- Vi anerkender, at det er et ikonisk foto. Men det er vanskeligt at skelne mellem at tillade et billede af et nøgent barn i én situation og ikke i andre. Vi prøver at finde den rigtige balance, der tillader folk at udtrykke sig selv, samtidig med at vi bevarer en sikker og respektfuld oplevelse af vores medie. Vores løsninger er ikke altid perfekte, men vi vil fortsat forbedre vores politik, og måden vi implementerer den.
Hjælp dem med at træne computeren
De fleste har efterfølgende anlagt en dyster fortolkning af det udsagn. Informations klummeskribent Lasse Jensen taler om censur og skriver, at “det foruroligende er en stigende erkendelse af, at Facebook ikke bare er en neutral teknologisk platform.”
Det er Facebook bestemt heller ikke, men det er netop derfor, at vi skal hjælpe den med at blive bedre til at træffe de rigtige valg.
For hvem vil egentlig, når alt kommer til alt, ønske sig sådan en ‘neutral’ teknologisk platform?
Hvad i alverden er det også i dag?
Er det et sted, hvor man kan poste og finde hvadsomhelst uden indblanding fra ejerne? Og når det handler om nøgenfotos, er det så virkelig censur at forsøge at sætte en grænse for, hvad man må vise og hvad man ikke må?
Selvom pornografien er frigivet, så tror jeg hverken Lasse Jensen eller størstedelen af Facebooks brugere ville ønske sig, at porno dukkede op i deres newsfeed.
Hvilket gammelt medie med respekt for sig selv udøver ikke den slags moralske til- og fravalg af de billeder, som hver dag tilflyder redaktionen?
Det er jo det filter, medierne lever af at lægge ned over verden, og det er det samme filter, som Facebook lægger ned over de millioner af fotos og opdateringer, som vi hver dag deler med virksomheden. Og som betyder, at det newsfeed, som halvanden milliard mennekser ser på Facebook, på en eller anden måde opleves som relevant for lige netop dem.
Ingen mennesker til stede
Men det er én stor forskel på Facebook og medierne: Facebooks redaktør er i overvejende grad ikke et menneske, men en computer, og en computer har kun et filter at støtte sig til, når den skal tage beslutninger: sin algoritme. Det lyder tørt og matematisk, men det er ekstremt afgørende for, hvordan historien her ender med at falde ud.
En algoritmen er en slags opskrift, der fortæller computeren, hvordan den skal sortere i de billeder, kommer ind. Hvordan den virker helt præcist er en vild historie, som du kan læse om her.
Hiv lige sætningerne frem igen: “vi prøver at finde den rigtige balance” og “vi vil fortsat forbedre vores politik”.
“Den rigtige balance” har mennesket søgt efter i flere århundreder, for så vidt det gælder evnen til at skelne mellem kunst og pornografi - at afgøre, om et stykke hud er æstetik eller forførelse.
Det har altid optaget og delt os, og selvom vi sikkert ikke er enige endnu, skal vi i disse år til at give arven videre til computerne. Ganske enkelt fordi vi med en samlet billedmasse på Facebook på flere milliarder ikke kan følge med længere med det menneskelige øje.
Og i den forstand er en “forbedret politik” naturligvis en mere intelligent algoritme, som kan sortere meningsfuldt og moralsk forsvarligt i billederne.
Tre dilemmaer
Det er sundt at skulle forklare moral til en computer. Men det er også ufatteligt svært og en del af en diskussion, som vi alle burde gå konstruktivt til.
Jeg har opsat tre moralske udfordringer herunder, tre eksempler, der måske kan få os til at lade være med at skælde ud på Facebook og i stedet bidrage til at finde ud af, hvordan en skelnen mellem relevante fotografier kunne se ud. Også selvom Facebook ikke selv beder om hjælp.
1.)
Lad os, som Facebook også gør, tillade fotografiet af pigen. Hun er ikonisk, et stykke historie, hun har ikke noget med porno at gøre.
Det kan Facebooks computer bringes til at forstå ved enten at huske lige netop det her billede i fremtiden, eller ved at lære, at når der står ord som napalm og krig i mange af de tekster, der ledsager billedet, så er det nok ikke porno.
Vi kigger altså på den kontekst, som billedet optræder i. Men hvad nu, hvis der var zoomet ind på hendes skridt i en redigeret version af billedet? Ville hun så også være tilladt? Og hvis ja, hvor tæt må man zoome ind, før det bliver forbudt? Hvad skal Facebooks folk fortælle algoritmen?
2.)
I denne uge var der åbent hus i arkitekten Poul Henningsens gamle bolig i Nordsjælland. På badeværelset og i entreen hænger der et tapet, som er udsmykket med tegnede nøgne kvinder. Her er et billede af det, et nærbillede. (www.phshus.dk) Er det porno? Nej, det er det vel ikke, siger vi til os selv, for PH var en respekteret arkitekt.
Vi lærer computeren, at afsenderen er vigtig. Men er alt fra hans hus så ok at vise? Og ville det have været anderledes, hvis billederne havde været trykt i et magasin med andre nøgne kvinder?
3.)
Fotografen Matilde Grafström fotograferer nøgne kvinder i naturen. Her er et. Det fik hun meget kritik for til at begynde med, men hun endte faktisk med at få kulturminister Bertel Haarder til at åbne sin udstilling.
Hvad er det præcis ved Grafströms billeder, som gør at de ikke er pornografiske? Er det, at der ikke er en ophidset mand til stede?
Husk, at det skal forklares til en computer: algoritmer kan godt lide geometri, former, for det kan de genkende. Så vi kunne fx sige, at hvis der ikke er en geometrisk form, der ligner en erigeret penis, så er det kunst.
Hvis der er en, så er det porno. Men må kunstnere så ikke portrættere mandlige kønsdele? Vi kan også sætte algoritmen til at lede i billedets kontekst igen - får det ros, bliver det omtalt, er der noget, der tyder på, at folk betaler penge for det? Men igen, hvor mange penge skal der så til, før at noget er kunst?
Alle skal opdrage algoritmen
Jeg tror, at det vil tjene os godt at vende os væk fra automatreaktionen: Facebook udøver censur, den er kysk, den tåler ingenting, og det skader vores demokrati.
Facebook er en privat virksomhed som gerne vil tjene penge. De ting, den foretager sig kan som regel føres tilbage hertil, og det kan ønsket om at ‘finde balancen’ også, for det giver formentlig det største antal tilfredse brugere.
Men den har brug for hjælp. Hvadenten Facebook vil tage imod det eller ej skal vi finde løsninger og forslag i fællesskab, for perspektivet er skræmmende, hvis vi bare fortsætter med blindt at kritisere ethvert af Facebooks fravalg.
Så vil det meste af vores vindue til omverdenen (og sådan er der jo alligevel en del, der bruger Facebook) redigeres af en computer, som ingen andre end Facebook har været med til at opdrage.
Og ja, selvfølgelig kan mennesker så overtrumfe computerens beslutning, men det sker jo kun, hvis det kommer i medierne og bad publicity blotlægges.
Der må være mange tilfælde, som aldrig ser dagens lys, når vi i dag fodrer Facebook med 2.000 fotos i sekundet.
