Hvad skal vi med Facebook?

Whistlebloweren Frances Haugen har aflagt vidnesbyrd, og det ser ikke godt ud for Facebook. Men hvad skal der ske nu – og hvorfor er algoritmerne et svært sted at starte?

Foto: Thought Catalog / Pexels


Af Lars K Jensen

Digital chef hos Willmore og udgiver af Digital Ugerevy

Kontakt:
lars@willmore.dkTwitter | LinkedIn
.

Artiklen udkom med Digital Ugerevy-nyhedsbrevet

Tilmeld dig, hvis du ikke vil gå glip af den næste:

Du kan altid afmelde dig igen ved at bruge linket i bunden af hvert nyhedsbrev

💌

“Hvad skal vi med Facebook, de vil altid bare slås

Hvad skal vi med Facebook, de vil kun bedrage os

Hvad skal vi med Facebook, de er altid til besvær

Hvad skal vi med Facebook, de vil altid kun ha’ mer’

Sådan lyder en – lettere – omskrivning af en sang af Preben Kaas og Jørgen Ryg fra 1963.

Indtil videre har Facebooks jagt på mere skaffet dem en dominerende position i vores liv – og en serie af problemer og tragedier. Sådan fortsatte det i denne uge, der var den måske værste i Facebooks historie.

Ugens helt store historie er naturligvis fortsættelsen af historierne om Facebook og om, hvor meget de vidste, og hvor lidt de gjorde.

Seneste kapitel startede forrige søndag, den 3. oktober. Her stod den whistleblower, der har delt en række dokumenter med den amerikanske kongres og ikke mindst The Wall Street Journal frem.

Under et interview med ’60 Minutes’ fandt vi ud af, at det er en tidligere product manager ved navn Frances Haugen, der havde leveret ammunitionen til The Wall Street Journals ‘Facebook Files’-afløringer, som jeg skrev om for en uge siden.

Tirsdag morgen, amerikansk tid, aflagde hun sit vidnesbyrd foran den samme kongreskomité, der tidligere har grillet Facebooks sikkerhedschef, Antigone Davis.

Umiddelbart inden var Facebook ramt af et enormt nedbrud, der sendte alle deres tjenester i sort i 6 timer. Nedbruddet skyldtes en ellers rutinemæssig teknisk øvelse, hvilket du kan læse mere om i denne uges Ugerevy-opsamling.

Få styr på høringen

Der er allerede skrevet meget om det, Frances Haugen sagde, så det vil jeg ikke bruge så meget tid på her. I stedet vil jege pege dig i retning af MIT Technology Reviews glimrende opsamling på deres dækning af Facebook og deres udfordringer i det seneste stykke tid, hvilket de på elegant vis bruger til at kontekstualisere Haugens forklaringer.

Casey Newton har også skrevet en solid artikel, hvor han fremhæver nogle af de vigtigste pointer samt kigger fremad.

Han bemærker eksempelvis – som Technology Review også gør – at Frances Haugen formår at flytte fokus fra mere eller mindre abstrakte snakke om indholdspolitik og censur til beslutninger om design af algoritmer og selve platformen.

Det gør hun blandt andet med afsæt i de lækkede data, hun skrabede sammen på Facebooks interne Workplace (Facebooks alternativ til det klassiske intranet), da hun sagde sit job op tilbage i maj.

Hvad så nu?

Et af de helt store spørgsmål er, hvad der skal ske nu. Nogle vil formentlig argumentere for, at dette er endnu et bevis på, at Facebook bør brydes op, og at man passende kan starte med at rulle købene af Instagram og WhatsApp tilbage.

Dette er Frances Haugen, måske overraskende, modstander af. I stedet peger hun på de algoritmer, der sammensætter blandt andet feed’et og kommer med andre anbefalinger på Facebooks platforme.

Haugen mener, at algoritmerne bør reguleres (så de ikke anbefaler indhold på baggrund af engagement – altså antal kommentarer, reaktioner, likes etc.). Derudover er hun fortaler for at gøre Facebook-feedet kronologisk, altså sorteret på eksempelvis opdateringers og billedernes udgivelses- eller upload-tidspunkter.

Casey Newton stiller spørgsmålstegn ved dette og nævner, at polariserende indhold også blev delt på Twitter og Instagram, inden de også valgte at sortere deres feeds via algoritmer, men at det muligvis kan dæmme op for spredningen.

Algoritmerne er svære

Derudover er det svært at regulere den form for algoritmer, der er tale om her.

MIT Technology Review har talt med Ellery Roberts Biddle, der er projektdirektør hos Ranking Digital Rights – en nonprofit, der studerer sociale platformes rankingsystemer og deres indvirkning på menneskerettigheder.

Hun fortæller, at Haugens forslag giver mening, men at der stadig er mange ubesvarede spørgsmål omkring algoritmetransparens, altså gennemsigtigheden i og omkring disse systemer.

(Jeg har tidligere skrevet om algoritmetransparens, og at man heller ikke skal have for meget af det, i mit engelsksprogede nyhedsbrev.)

Politiken, opfordrer i en leder Facebook til at åbne op for algoritmerne, så myndighederne kan få indblik i, hvordan de fungerer.

Umiddelbart er det et fornuftigt ræsonnement; lad os skille feed-algoritmerne ad og skabe synlighed (om ikke andet for myndighederne) om, hvad de prioriterer – og gøre det rigtigt.

Men en ting er, at det er svært at arbejde med den form for transparens – noget andet er, at det ikke nødvendigvis er nogen god løsning. Ikke kun fordi, det kan rejse spørgsmålet om, hvad en virksomhed har ret til at holde hemmeligt af konkurrencehensyn, men også fordi det ikke nødvendigvis fører noget godt med sig at gøre det synligt, hvad algoritmer som dem, der styrer Facebook-feedet, arbejder efter.

I forvejen er der en kamp i gang hver dag – og her spiller mange medier lystigt med – hvor det handler om at ramme de rigtige tidspunkter, elementer og interaktioner (“hvad synes du – læg en kommentar”), så man får de gode placeringer i feedet.

Yderligere gennemsigtighed om, hvordan feedet på Facebook fungerer vil gøre denne kamp endnu vildere, og det vil hurtigt blive et ræs mod bunden. Akkurat som når journalister konkurrerer på klik, sidevisninger og læsere.

Det, du måler, er du selv

Det skyldes noget meget grundlæggende, nemlig det der kaldes “Goodharts lov” – den kan du læse mere om på Wikipedia, hvis du har lyst. Kort fortalt siger den, i lettere omskrevet form, at “when a measure becomes a target, it ceases to be a good measure”.

Altså; i det øjeblik, du gør et målepunkt til et mål, er det et dårligt mål.

Det er det af den simple årsag, at vi mennesker hurtigt finder ud af, hvordan vi får vores belønning, og så gamer vi systemet, indtil det lykkes. Det er derfor, nogle journalister laver clickbaits – fordi så får de flere sidevisninger end kollegerne og konkurrenterne.

Og det er selvfølgelig også derfor, Facebook-feedet er så grimt, som det til tider er: Vi vil gerne have den store rækkevidde og de mange interaktioner, for så er vi jo dygtige.

Vi elsker det vanvittige

Derfor løser øget gennemsigtighed formentlig ikke meget, ligesom det ikke bliver sjovt at være dem, der skal regulere de signaler, rank-algoritmerne arbejder efter – fordi det i sidste ende skal være målbart, for at algoritmerne fatter det, og allerede der er det hastigt på vej til at blive en dårlig idé at måle efter.

Det her handler om noget, der er større og mere komplekst, end at vi er sure på og skuffede over Facebook. Det handler om os mennesker. Som MIT Technology Review skrev i tilbage i marts:

“The models that maximize engagement also favor controversy, misinformation, and extremism: put simply, people just like outrageous stuff.”

Bevares, det er selvfølgelig ikke det samme som, at der ikke skal gøres noget – men det illustrerer, hvorfor det er svært at regulere såvel tech-firmaer som de algoritmer, der driver dem og deres platforme.

Samtidig er Machine Learning-algoritmer, der er trænede på data og selvlærende, ikke så lette at gennemskue som en gammeldags, regelfølgende nærmest håndskrevet algoritme.

Derudover viser argumentet for at skille algoritmen ad også begrænsningen i den sammenligning med de store tobaksfirmaer, som de amerikanske politikere og nogle medier har kastet sig ud i.

Sammenligningen ligger jo lige for: Der er tale om en stor, ond organisation, der har bygget noget, der er dårligt for os, men som vi samtidig bliver afhængige af. Men der er nu engang forskel på ingredienslisten i en cigaret og i en algoritme, der skal bringe vores billeder og geniale ord ud til så mange mennesker som muligt.

I et Recode-nyhedsbrev (der desværre ikke er udgivet online, så jeg kan ikke linke til det) argumenterer Adam Clark Estes for, at Big Oil (de store amerikanske oliefirmaer, der siden blev splittet op via antitrust-lovgivning) er en bedre sammenligning.

Det handler blandt andet om, at såvel oliefirmaer som Facebook sidder på noget, vi har svært ved at undgå, især i “developing nations”, hvor der er en større afhængighed af Facebook end i for eksempel USA – som det også ses med olie.

Oliemetaforen har selvsagt også sine begrænsinger, men den er nu ikke desto mindre interessant og umiddelbart mere relevant end cigaretterne.

Om du vil kæde det sammen med alle “data er det nye olie”-parolerne, må stå for din egen regning 🙂

Del så de data

Hvad kan der så gøres? Af alle de ting, jeg har læst i forbindelse med “Facebook Files” og Haugens vidnesbyrd, synes jeg faktisk Casey Newton har fat i noget i sit Platformer-nyhedsbrev.

Både i den artikel, jeg linkede til tidligere, og i denne artikel, hvor han advokerer for, at Facebook deler “Facebook-filerne” (det var inden, de så delte de slides, én af Wall Street Journal-historierne handlede om).

Og det handler om data.

Begge artikler rummer nemlig en appel om, at Facebook også frigiver de data, der ligger til grund for de interne konklusioner og anbefalinger, de siden har fået så meget kritik for.

Newtons pointe er god; for det handler nemlig om ægte transparens. Og han foreslår ikke, at Facebook bare slår en eksport i kommasepareret format, som du så kan mase ind i Excel eller Google Sheets.

I stedet anbefaler han Facebook at frigive dataene i samarbejde med uafhængige forskere, således at dataene kan blive sat i de fornødne kontekster samt blive anonymiseret og renset for personhenførbare oplysninger.

Okay, det handler ikke om de algoritmer, som så mange er så sure på – men det handler dog om konsekvensen af dem og de sociale platformes andre aspekter og indvirkning på vores samfund.

Og det betyder, at man ville have et reelt, faktabaseret afsæt for at lave noget om (et grundlag meget af debatten omkring Facebook, teknologi og algoritmer desværre ofte mangler).

Skal forskere have adgang ved lov?

Desværre har Facebook ikke ligefrem stolte traditioner for at dele data. I en glimrende gennemgang peger Columbia Journalism Review os til en artikel hos The Washington Post skrevet af Nathaniel Persily. Han er professor ved Stanfard Law School og chef for Stanford Cyber Policy Center.

Han stod også i spidsen for et samarbejde mellem forskere og Facebook, som han dog forlod efter flere års frustration over brudte løfter om at dele mere data.

“When Facebook did finally give researchers access to data, it ended up having significant errors — a problem that was discovered only after researchers had spent hundreds of hours analyzing it, and in some cases publishing their findings (about, for example, how disinformation spreads).”

Derfor opfordrer Persily den amerikanske kongres til at vedtage en lov, der giver forskere adgang til information fra Facebook om, hvordan dets tjenester påvirker samfundet.

Det er ikke fjernt fra, hvad Casey Newton anbefaler og efterspørger – og noget kan tyde på, at Facebook før eller siden vil blive tvunget til at dele disse former for data og oplysninger.

Hans råd til kongressens politikere er samtidig, at de ikke forsøger at vedtage en lov, der skal løse alle de problemer, Haugens vidnesbyrd omhandlede.

Kan Facebook redde sig selv?

Selvfølgelig ville det være dejligt og nemt, hvis Facebook selv begyndte at frigive den slags ting og begyndte at bygge et feed, der var mindre polariserende. Især i kølvandet på afsløringer af, at de har sat vækst (for såvel brugen af Facebook som Facebooks bundlinje) forrest.

Men det tyder på, at Facebook skal have hjælp.

I starten af sit vidnesbyrd sagde Frances Haugen:

“The company’s leadership knows ways to make Facebook and Instagram safer and won’t make the necessary changes because they have put their immense profits before people. Congressional action is needed. They cannot solve this crisis without your help.”

“Facebook’s actions make clear that we cannot trust it to police itself,” sagde den demokratiske senator Richard Blumenthal, der sidder i spidsen for den kongreskomité, Haugen vidnede overfor, ifølge CNN.

Og da MIT Technology Review i juli anmeldte en bog om Facebooks “fundamentale fejl” sagde de det ganske tydeligt:

“[…] between the lines, the message is loud and clear: Facebook will never fix itself.”

Herhjemme har Sebastian Gjerding fremført samme synspunkt i en lederartikel hos Information.

Tvivlens fordel er væk

Jeg nævner det efterhånden hver gang, jeg enten skriver eller holder oplæg om Facebook, men det er en pointe, der er værd at gentage:

Uanset om Facebook i en given sag har begået store fejl eller har (helt eller delvist) ret i det de siger, så har de forlængst mistet “the benefit of the doubt”. Især hos mange medier.

Det kommer selvfølgelig delvist fra Facebooks lange række af dårlige historier, men det er også baseret på ganske stærke følelser overfor Facebook i dele af mediebranchen, hvor man er flasket op på en historie om, at det er tech-firmaer som Facebook, der har taget de penge, der burde gå til medierne.

Om man deler det narrativ eller ej er ikke relevant i netop denne sammenhæng – men det er vigtigt at have for øje, når man orienterer sig i Facebooks række af skandaler. Blandt andet fik The New York Times gjort i nælderne, da de fejlagtigt skrev i 2018, at Netflix og Spotify kunne læse med i Facebook-brugernes private beskeder.

Det var ikke tilfældet. Journalisten havde tilsyneladende ganske enkelt ikke forstået det tekniske – og det er et godt eksempel på, at tvivlens fordel er væk for Facebook.

Facebooks svar

Facebooks modsvar på Facebook Files og Frances Haugens vidensbyrd har indtil videre bestået af blandt andet:

  • En artikel af Nick Clegg (Facebooks “Vice President of Global Affairs”) med overskriften “What the Wall Street Journal Got Wrong”
  • En tilbagevisning af dele af The Wall Street Journals dækning (som minimum med delvis berettigelse, ser det ud til), som dog også stiller spørgsmål ved validiteten i dele af Facebooks research (“This research, some of which relied on input from only 40 teens…”)
  • Slides (PDF #1, PDF #2) om blandt andet Instagrams påvirkning på unge (ledsaget af kommentarer, der stillede spørgsmålstegn ved konklusionerne i dokumenterne samt dataene – og derved Facebooks egne forskere)
  • Et opslag fra Mark Zuckerberg, hvor han (ikke overraskende) forklarer, at Facebook føler sig misforstået og gentager deres interesse i regulering (som dog, siger kynikerne, formentlig vil gøre det sværere for konkurrenter og dermed gavne Facebook mest)
  • Et forsøg på en miskreditering af Frances Haugen (hun arbejdede der i mindre end to år, havde intet medarbejderansvar og havde aldrig beslutningsmøder med den øverste Facebook-ledelse)

Som Casey Newton skrev i forbindelse med miskrediteringen af Haugen:

“If there’s a point in there, I missed it.”

Jeg er ikke i en position, hvor jeg kan rådgive Facebook, så det vil jeg lade være med.

Men det tyder på, at det er på tide, de lancerer nogle reelle initiativer omkring deling af og gennemsigtighed i forbindelse med information og data – inden de bliver tvunget til at gøre det.

Og så handler det også om, at dem, der til stadighed gør sig afhængig af Facebook og fodrer platformen (det gælder også medier) bør tænke sig om.

Men ja, det er lettere sagt end gjort. Som Kaas og Ryg sang i 1963:

“Bare en gang til, så sker det aldrig, aldrig mer’

Bare to gange til, så sker det aldrig, aldrig mer’

Bare syv gange til, så sker det aldrig, aldrig mer’

Bare firs gange til, så sker det aldrig, aldrig mer’

Det lover vi hinanden”

En ting er at sige noget. Noget andet er at gøre noget ved det. ◉

Giv dig selv en fordel:
+ Tilmeld dig Ugerevyen