Hvad skal vi med Facebook?

Whistle­blow­eren Frances Hau­gen har aflagt vid­nes­byrd, og det ser ikke godt ud for Face­book. Men hvad skal der ske nu – og hvor­for er algo­rit­merne et svært sted at starte?

Foto: Thought Cat­a­log / Pex­els


Af Lars K Jensen

Dig­i­tal chef hos Will­more og udgiv­er af Dig­i­tal Ugerevy

Kon­takt:
lars@willmore.dkTwit­ter | LinkedIn
.

Artiklen udkom med Digital Ugerevy-nyhedsbrevet

Tilmeld dig, hvis du ikke vil gå glip af den næste:

Du kan altid afmelde dig igen ved at bruge lin­ket i bun­den af hvert nyheds­brev

💌

"Hvad skal vi med Face­book, de vil altid bare slås

Hvad skal vi med Face­book, de vil kun bedrage os

Hvad skal vi med Face­book, de er altid til besvær

Hvad skal vi med Face­book, de vil altid kun ha' mer'"

Sådan lyder en – let­tere – omskrivn­ing af en sang af Preben Kaas og Jør­gen Ryg fra 1963.

Indtil videre har Face­books jagt på mere skaf­fet dem en dominerende posi­tion i vores liv – og en serie af prob­le­mer og tragedi­er. Sådan fort­sat­te det i denne uge, der var den måske værste i Face­books his­to­rie.

Ugens helt store his­to­rie er naturligvis fort­sæt­telsen af his­to­ri­erne om Face­book og om, hvor meget de vid­ste, og hvor lidt de gjorde.

Sen­este kapi­tel start­ede for­rige søndag, den 3. okto­ber. Her stod den whistle­blow­er, der har delt en række doku­menter med den amerikanske kon­gres og ikke mindst The Wall Street Jour­nal frem.

Under et inter­view med '60 Min­utes' fandt vi ud af, at det er en tidligere prod­uct man­ag­er ved navn Frances Hau­gen, der havde lev­eret ammu­ni­tio­nen til The Wall Street Jour­nals 'Face­book Files'-afløringer, som jeg skrev om for en uge siden.

Tirs­dag mor­gen, amerikan­sk tid, aflagde hun sit vid­nes­byrd foran den samme kon­greskomité, der tidligere har gril­let Face­books sikker­hed­schef, Antigone Davis.

Umid­del­bart inden var Face­book ramt af et enormt ned­brud, der sendte alle deres tjen­ester i sort i 6 timer. Ned­brud­det skyldtes en ellers ruti­nemæs­sig teknisk øvelse, hvilket du kan læse mere om i denne uges Ugerevy-opsam­ling.

Få styr på høringen

Der er allerede skrevet meget om det, Frances Hau­gen sagde, så det vil jeg ikke bruge så meget tid på her. I stedet vil jege pege dig i ret­ning af MIT Tech­nol­o­gy Reviews glim­rende opsam­ling på deres dækn­ing af Face­book og deres udfor­dringer i det sen­este stykke tid, hvilket de på ele­gant vis bruger til at kon­tek­stu­alis­ere Hau­gens fork­laringer.

Casey New­ton har også skrevet en sol­id artikel, hvor han fremhæver nogle af de vigtig­ste point­er samt kig­ger fre­mad.

Han bemærk­er eksem­pelvis – som Tech­nol­o­gy Review også gør – at Frances Hau­gen for­mår at fly­tte fokus fra mere eller min­dre abstrak­te snakke om ind­hold­spoli­tik og cen­sur til beslut­ninger om design af algo­rit­mer og selve plat­for­men.

Det gør hun blandt andet med afsæt i de lækkede data, hun skrabe­de sam­men på Face­books interne Work­place (Face­books alter­na­tiv til det klas­siske intranet), da hun sagde sit job op tilbage i maj.

Hvad så nu?

Et af de helt store spørgsmål er, hvad der skal ske nu. Nogle vil for­mentlig argu­mentere for, at dette er end­nu et bevis på, at Face­book bør bry­des op, og at man passende kan starte med at rulle købene af Insta­gram og What­sApp tilbage.

Dette er Frances Hau­gen, måske over­rask­ende, mod­stander af. I stedet peger hun på de algo­rit­mer, der sam­men­sæt­ter blandt andet feed'et og kom­mer med andre anbe­falinger på Face­books plat­forme.

Hau­gen men­er, at algo­rit­merne bør reg­uleres (så de ikke anbe­faler ind­hold på bag­grund af engage­ment – alt­så antal kom­mentar­er, reak­tion­er, likes etc.). Deru­dover er hun for­t­aler for at gøre Face­book-feedet kro­nol­o­gisk, alt­så sorteret på eksem­pelvis opda­teringers og billed­ernes udgivelses- eller upload-tid­spunk­ter.

Casey New­ton stiller spørgsmål­stegn ved dette og nævn­er, at polaris­erende ind­hold også blev delt på Twit­ter og Insta­gram, inden de også val­gte at sortere deres feeds via algo­rit­mer, men at det muligvis kan dæmme op for spred­nin­gen.

Algoritmerne er svære

Deru­dover er det svært at reg­ulere den form for algo­rit­mer, der er tale om her.

MIT Tech­nol­o­gy Review har talt med Ellery Roberts Bid­dle, der er pro­jek­t­di­rek­tør hos Rank­ing Dig­i­tal Rights – en non­prof­it, der stud­er­er sociale plat­formes rank­ingsys­te­mer og deres ind­virkn­ing på men­neskerettighed­er.

Hun fortæller, at Hau­gens forslag giv­er mening, men at der stadig er mange ubesvarede spørgsmål omkring algo­rit­metrans­parens, alt­så gen­nem­sigtighe­den i og omkring disse sys­te­mer.

(Jeg har tidligere skrevet om algo­rit­metrans­parens, og at man heller ikke skal have for meget af det, i mit engel­sksprog­ede nyheds­brev.)

Poli­tiken, opfor­dr­er i en led­er Face­book til at åbne op for algo­rit­merne, så myn­dighed­erne kan få ind­b­lik i, hvor­dan de fun­ger­er.

Umid­del­bart er det et for­nuftigt ræson­nement; lad os skille feed-algo­rit­merne ad og skabe syn­lighed (om ikke andet for myn­dighed­erne) om, hvad de pri­or­iter­er – og gøre det rigtigt.

Men en ting er, at det er svært at arbe­jde med den form for trans­parens – noget andet er, at det ikke nød­vendigvis er nogen god løs­ning. Ikke kun for­di, det kan rejse spørgsmålet om, hvad en virk­somhed har ret til at holde hem­meligt af konkur­rence­hen­syn, men også for­di det ikke nød­vendigvis før­er noget godt med sig at gøre det syn­ligt, hvad algo­rit­mer som dem, der styr­er Face­book-feedet, arbe­jder efter.

I forve­jen er der en kamp i gang hver dag – og her spiller mange medi­er lystigt med – hvor det han­dler om at ramme de rigtige tid­spunk­ter, ele­menter og inter­ak­tion­er ("hvad synes du — læg en kom­men­tar"), så man får de gode plac­eringer i feedet.

Yderligere gen­nem­sigtighed om, hvor­dan feedet på Face­book fun­ger­er vil gøre denne kamp end­nu vildere, og det vil hur­tigt blive et ræs mod bun­den. Akku­rat som når jour­nal­is­ter konkur­rerer på klik, side­vis­ninger og læsere.

Det, du måler, er du selv

Det skyldes noget meget grundlæggende, nem­lig det der kaldes "Good­harts lov" – den kan du læse mere om på Wikipedia, hvis du har lyst. Kort for­t­alt siger den, i let­tere omskrevet form, at "when a mea­sure becomes a tar­get, it ceas­es to be a good mea­sure".

Alt­så; i det øje­b­lik, du gør et målepunkt til et mål, er det et dårligt mål.

Det er det af den sim­ple årsag, at vi men­nesker hur­tigt find­er ud af, hvor­dan vi får vores beløn­ning, og så gamer vi sys­temet, indtil det lykkes. Det er der­for, nogle jour­nal­is­ter laver click­baits – for­di så får de flere side­vis­ninger end kol­legerne og konkur­renterne.

Og det er selvføl­gelig også der­for, Face­book-feedet er så grimt, som det til tider er: Vi vil gerne have den store række­v­id­de og de mange inter­ak­tion­er, for så er vi jo dygtige.

Vi elsker det vanvittige

Der­for løs­er øget gen­nem­sigtighed for­mentlig ikke meget, lige­som det ikke bliv­er sjovt at være dem, der skal reg­ulere de sig­naler, rank-algo­rit­merne arbe­jder efter – for­di det i sid­ste ende skal være mål­bart, for at algo­rit­merne fat­ter det, og allerede der er det hastigt på vej til at blive en dårlig idé at måle efter.

Det her han­dler om noget, der er større og mere kom­plekst, end at vi er sure på og skuffede over Face­book. Det han­dler om os men­nesker. Som MIT Tech­nol­o­gy Review skrev i tilbage i marts:

"The mod­els that max­i­mize engage­ment also favor con­tro­ver­sy, mis­in­for­ma­tion, and extrem­ism: put sim­ply, peo­ple just like out­ra­geous stuff."

Bevares, det er selvføl­gelig ikke det samme som, at der ikke skal gøres noget – men det illus­tr­erer, hvor­for det er svært at reg­ulere såv­el tech-fir­maer som de algo­rit­mer, der dri­ver dem og deres plat­forme.

Sam­tidig er Machine Learn­ing-algo­rit­mer, der er trænede på data og selvlærende, ikke så lette at gen­nem­skue som en gam­meldags, regelføl­gende nærmest hånd­skrevet algo­ritme.

Deru­dover vis­er argu­mentet for at skille algo­rit­men ad også begræn­snin­gen i den sam­men­lign­ing med de store tobaks­fir­maer, som de amerikanske poli­tikere og nogle medi­er har kastet sig ud i.

Sam­men­lignin­gen lig­ger jo lige for: Der er tale om en stor, ond organ­i­sa­tion, der har bygget noget, der er dårligt for os, men som vi sam­tidig bliv­er afhængige af. Men der er nu engang forskel på ingre­di­enslis­ten i en cig­a­ret og i en algo­ritme, der skal bringe vores billed­er og geniale ord ud til så mange men­nesker som muligt.

I et Recode-nyheds­brev (der desværre ikke er udgivet online, så jeg kan ikke linke til det) argu­menter­er Adam Clark Estes for, at Big Oil (de store amerikanske oliefir­maer, der siden blev split­tet op via antitrust-lov­givn­ing) er en bedre sam­men­lign­ing.

Det han­dler blandt andet om, at såv­el oliefir­maer som Face­book sid­der på noget, vi har svært ved at undgå, især i "devel­op­ing nations", hvor der er en større afhængighed af Face­book end i for eksem­pel USA – som det også ses med olie.

Oliemetaforen har selvsagt også sine begrænsinger, men den er nu ikke desto min­dre inter­es­sant og umid­del­bart mere rel­e­vant end cig­a­ret­terne.

Om du vil kæde det sam­men med alle "data er det nye olie"-parolerne, må stå for din egen reg­n­ing 🙂

Del så de data

Hvad kan der så gøres? Af alle de ting, jeg har læst i forbindelse med "Face­book Files" og Hau­gens vid­nes­byrd, synes jeg fak­tisk Casey New­ton har fat i noget i sit Plat­former-nyheds­brev.

Både i den artikel, jeg linkede til tidligere, og i denne artikel, hvor han advok­er­er for, at Face­book del­er "Face­book-fil­erne" (det var inden, de så delte de slides, én af Wall Street Jour­nal-his­to­ri­erne han­dlede om).

Og det han­dler om data.

Begge artik­ler rum­mer nem­lig en appel om, at Face­book også fri­giv­er de data, der lig­ger til grund for de interne kon­klu­sion­er og anbe­falinger, de siden har fået så meget kri­tik for.

New­tons pointe er god; for det han­dler nem­lig om ægte trans­parens. Og han fores­lår ikke, at Face­book bare slår en eksport i kom­mase­p­a­r­eret for­mat, som du så kan mase ind i Excel eller Google Sheets.

I stedet anbe­faler han Face­book at fri­give dataene i samar­be­jde med uafhængige forskere, således at dataene kan blive sat i de fornødne kon­tek­ster samt blive anonymis­eret og renset for per­son­hen­før­bare oplysninger.

Okay, det han­dler ikke om de algo­rit­mer, som så mange er så sure på – men det han­dler dog om kon­sekvensen af dem og de sociale plat­formes andre aspek­ter og ind­virkn­ing på vores sam­fund.

Og det bety­der, at man ville have et reelt, fak­tabaseret afsæt for at lave noget om (et grund­lag meget af debat­ten omkring Face­book, teknolo­gi og algo­rit­mer desværre ofte man­gler).

Skal forskere have adgang ved lov?

Desværre har Face­book ikke lige­frem stolte tra­di­tion­er for at dele data. I en glim­rende gen­nem­gang peger Colum­bia Jour­nal­ism Review os til en artikel hos The Wash­ing­ton Post skrevet af Nathaniel Persi­ly. Han er pro­fes­sor ved Stan­fard Law School og chef for Stan­ford Cyber Pol­i­cy Cen­ter.

Han stod også i spid­sen for et samar­be­jde mellem forskere og Face­book, som han dog for­lod efter flere års frus­tra­tion over brudte løfter om at dele mere data.

"When Face­book did final­ly give researchers access to data, it end­ed up hav­ing sig­nif­i­cant errors — a prob­lem that was dis­cov­ered only after researchers had spent hun­dreds of hours ana­lyz­ing it, and in some cas­es pub­lish­ing their find­ings (about, for exam­ple, how dis­in­for­ma­tion spreads)."

Der­for opfor­dr­er Persi­ly den amerikanske kon­gres til at ved­tage en lov, der giv­er forskere adgang til infor­ma­tion fra Face­book om, hvor­dan dets tjen­ester påvirk­er sam­fun­det.

Det er ikke fjernt fra, hvad Casey New­ton anbe­faler og efter­spørg­er – og noget kan tyde på, at Face­book før eller siden vil blive tvunget til at dele disse for­mer for data og oplysninger.

Hans råd til kon­gressens poli­tikere er sam­tidig, at de ikke forsøger at ved­tage en lov, der skal løse alle de prob­le­mer, Hau­gens vid­nes­byrd omhan­dlede.

Kan Facebook redde sig selv?

Selvføl­gelig ville det være dejligt og nemt, hvis Face­book selv beg­y­n­dte at fri­give den slags ting og beg­y­n­dte at bygge et feed, der var min­dre polaris­erende. Især i køl­van­det på afs­løringer af, at de har sat vækst (for såv­el bru­gen af Face­book som Face­books bundlin­je) for­rest.

Men det tyder på, at Face­book skal have hjælp.

I starten af sit vid­nes­byrd sagde Frances Hau­gen:

"The company’s lead­er­ship knows ways to make Face­book and Insta­gram safer and won’t make the nec­es­sary changes because they have put their immense prof­its before peo­ple. Con­gres­sion­al action is need­ed. They can­not solve this cri­sis with­out your help."

"Facebook's actions make clear that we can­not trust it to police itself," sagde den demokratiske sen­a­tor Richard Blu­men­thal, der sid­der i spid­sen for den kon­greskomité, Hau­gen vidnede over­for, ifølge CNN.

Og da MIT Tech­nol­o­gy Review i juli anmeldte en bog om Face­books "fun­da­men­tale fejl" sagde de det ganske tydeligt:

"[...] between the lines, the mes­sage is loud and clear: Face­book will nev­er fix itself."

Her­hjemme har Sebas­t­ian Gjerd­ing frem­ført samme syn­spunkt i en led­er­ar­tikel hos Infor­ma­tion.

Tvivlens fordel er væk

Jeg nævn­er det efter­hån­den hver gang, jeg enten skriv­er eller hold­er oplæg om Face­book, men det er en pointe, der er værd at gen­t­age:

Uanset om Face­book i en giv­en sag har begået store fejl eller har (helt eller delvist) ret i det de siger, så har de for­længst mis­tet "the ben­e­fit of the doubt". Især hos mange medi­er.

Det kom­mer selvføl­gelig delvist fra Face­books lange række af dårlige his­to­ri­er, men det er også baseret på ganske stærke følelser over­for Face­book i dele af mediebranchen, hvor man er flas­ket op på en his­to­rie om, at det er tech-fir­maer som Face­book, der har taget de penge, der burde gå til medierne.

Om man del­er det nar­ra­tiv eller ej er ikke rel­e­vant i netop denne sam­men­hæng – men det er vigtigt at have for øje, når man ori­en­ter­er sig i Face­books række af skan­daler. Blandt andet fik The New York Times gjort i nælderne, da de fejlagtigt skrev i 2018, at Net­flix og Spo­ti­fy kunne læse med i Face­book-brugernes pri­vate besked­er.

Det var ikke til­fældet. Jour­nal­is­ten havde tilsyneladende ganske enkelt ikke forstået det tekniske – og det er et godt eksem­pel på, at tvivlens fordel er væk for Face­book.

Facebooks svar

Face­books modsvar på Face­book Files og Frances Hau­gens videns­byrd har indtil videre bestået af blandt andet:

  • En artikel af Nick Clegg (Face­books "Vice Pres­i­dent of Glob­al Affairs") med over­skriften "What the Wall Street Jour­nal Got Wrong"
  • En tilbagevis­ning af dele af The Wall Street Jour­nals dækn­ing (som min­i­mum med delvis berettigelse, ser det ud til), som dog også stiller spørgsmål ved validiteten i dele af Face­books research ("This research, some of which relied on input from only 40 teens...")
  • Slides (PDF #1, PDF #2) om blandt andet Insta­grams påvirkn­ing på unge (led­saget af kom­mentar­er, der stillede spørgsmål­stegn ved kon­klu­sion­erne i doku­menterne samt dataene – og derved Face­books egne forskere)
  • Et opslag fra Mark Zucker­berg, hvor han (ikke over­rask­ende) fork­lar­er, at Face­book føler sig mis­forstået og gen­t­ager deres inter­esse i reg­u­ler­ing (som dog, siger kynikerne, for­mentlig vil gøre det sværere for konkur­renter og dermed gavne Face­book mest)
  • Et forsøg på en miskred­i­ter­ing af Frances Hau­gen (hun arbe­jd­ede der i min­dre end to år, havde intet medar­be­jder­ans­var og havde aldrig beslut­ningsmøder med den øver­ste Face­book-ledelse)

Som Casey New­ton skrev i forbindelse med miskred­i­terin­gen af Hau­gen:

"If there’s a point in there, I missed it."

Jeg er ikke i en posi­tion, hvor jeg kan råd­give Face­book, så det vil jeg lade være med.

Men det tyder på, at det er på tide, de lancer­er nogle reelle ini­tia­tiv­er omkring del­ing af og gen­nem­sigtighed i forbindelse med infor­ma­tion og data – inden de bliv­er tvunget til at gøre det.

Og så han­dler det også om, at dem, der til stadighed gør sig afhængig af Face­book og fodr­er plat­for­men (det gælder også medi­er) bør tænke sig om.

Men ja, det er let­tere sagt end gjort. Som Kaas og Ryg sang i 1963:

"Bare en gang til, så sker det aldrig, aldrig mer'

Bare to gange til, så sker det aldrig, aldrig mer'

Bare syv gange til, så sker det aldrig, aldrig mer'

Bare firs gange til, så sker det aldrig, aldrig mer'

Det lover vi hinan­den"

En ting er at sige noget. Noget andet er at gøre noget ved det. ◉

Giv dig selv en fordel:
+ Tilmeld dig Ugerevyen