Hvad er op og ned i Facebook Papers?

End­nu en uge, end­nu flere Face­book-afs­løringer. Få de vigtig­ste over­skrifter – og en løftet pegefin­ger omkring de lækkede doku­menter.

Face­book Papers (som dette ikke er et fotografi af) består af tusind­vis af sider. (Gen­re­fo­to: Pix­abay / Pex­els)


Af Lars K Jensen

Dig­i­tal chef hos Will­more og udgiv­er af Dig­i­tal Ugerevy

Kon­takt:
lars@willmore.dkTwit­ter | LinkedIn
.

Artiklen udkom med Digital Ugerevy-nyhedsbrevet

Tilmeld dig, hvis du ikke vil gå glip af den næste:

Du kan altid afmelde dig igen ved at bruge lin­ket i bun­den af hvert nyheds­brev

💌

(Sen­este nye fra Face­book-land er, at Face­book-fir­maet (ikke app’en på din tele­fon) skifter navn til ‘Meta’. Det kan du læse mere om i dette afs­nit af ugens opsam­ling.)

Egentlig havde jeg beslut­tet mig for, at jeg ikke gider skrive mere om Face­book og afs­løringerne, men igen er der ikke andet at sige, end at det sim­pelthen bare er ugens vigtig­ste his­to­rie og emne. Så der­for skriv­er jeg om Face­book igen, og der­for læs­er du om Face­book igen.

Sen­este kapi­tel er Face­book Papers (ikke at forvek­sle med de oprindelige Face­book Files, som The Wall Street Jour­nal udgav, skønt der dog er en del over­lap).

Kort for­t­alt er det en lang række af lækkede doku­menter, som whistle­blow­eren Frances Hau­gen tog med, inden hun for­lod Face­book i maj måned.

De lækkede doku­menter er sendt fra Hau­gens advokater til den amerikanske Secu­ri­ties and Exchange Com­mis­sion (SEC) og til et kon­sor­tium af etablerede medi­er, der har adgang til doku­menterne i "redact­ed" form – hvilket vil sige, at infor­ma­tion­er som navne er streget ud.

(The Wash­ing­ton Post har skrevet om selve dæknin­gen af de lækkede doku­menter, og hvor­dan den vis­er, at under­sø­gende jour­nal­is­tik er under foran­dring – det samme har Colum­bia Jour­nal­ism Review.)

Dig­i­tal Ugerevy er sat i ver­den for at give dig overb­lik og gøre det let­tere for dig at følge med. Der­for er mit ærinde heller ikke at kaste mig ud i en dybere analyse, for der er allerede skrevet gode ting, der lig­ger derude.

Lad mig i stedet starte med at pege dig i ret­ning af det.

Hos Nie­man Lab har Joshua Ben­ton læst en masse artik­ler for at kunne give os sin gen­nem­gang af de vigtig­ste temaer.

Stormen på Kongressen

Her kan vi blandt andet læse, at Face­books rolle i forbindelse med stor­men på den amerikanske kon­gres den 6. jan­u­ar i år var større, end vi gik og troede.

En rækkede af de lækkede doku­menter, og his­to­ri­erne om dem, han­dler om de interne split­telse i Face­book-organ­i­sa­tio­nen. Som The Wash­ing­ton Post skriv­er:

"Mean­while, the company’s Civic Integri­ty team was large­ly dis­band­ed by a man­age­ment that had grown weary of the team’s crit­i­cisms of the com­pa­ny, accord­ing to for­mer employ­ees"

Angiveligt havde Face­book fun­det metoder til at begrænse spred­nin­gen af poli­tisk polaris­er­ing, kon­spir­a­tionste­ori­er og opfor­dringer til vold, men ledelsen var imod at imple­mentere dem. Det er i overensstem­melse med det, vi har kun­net læse i de oprindelige læk, og som Face­book gen­tagne gange har benægtet: At de har sat prof­it foran alt andet.

En lig­nende pointe find­er vi i en CNN-artikel (igen; jeg læn­er mig op ad Joshua Ben­tons opsam­ling i forbindelse med nogle af de artik­ler, jeg link­er til), hvor de citer­er fra et af de lækkede doku­menter – her er det en kom­men­tar til en artikel fra Mike Schroepfer, der er Face­books CTO (Chief Tech­nol­o­gy Offi­cer – teknologidi­rek­tør):

"[...] lead­er­ship over­rides research based pol­i­cy deci­sions to bet­ter serve peo­ple like the groups incit­ing vio­lence today. Rank and file work­ers have done their part to iden­ti­fy changes to improve our plat­forms but have been active­ly held back."

Moderationen halter udenfor USA

En anden vigtig his­to­rie i de mange læk er, at Face­book er dårlige til at mod­erere ind­hold uden­for hjem­lan­det.

Blandt andet fortæller The New York Times om, et forsøg, en Face­book-researcher udførte. Det var sim­pelt; opret en pro­fil som en per­son, der bor i Indi­en og lad pro­filen følge alle anbe­falingerne fra Face­books algo­rit­mer, hvad angår grup­per, video­er inter­es­sante Face­book-sider og så videre.

Det endte helt galt. Som researcheren selv skrev:

"Fol­low­ing this test user’s News Feed, I’ve seen more images of dead peo­ple in the past three weeks than I’ve seen in my entire life total."

New York Times fortæller også om den tilsyneladende skævvrid­ning, der er i forhold til, hvor­dan Face­book fordel­er pen­gene i kam­p­en mod mis­in­for­ma­tion:

"Eighty-sev­en per­cent of the company’s glob­al bud­get for time spent on clas­si­fy­ing mis­in­for­ma­tion is ear­marked for the Unit­ed States, while only 13 per­cent is set aside for the rest of the world — even though North Amer­i­can users make up only 10 per­cent of the social network’s dai­ly active users, accord­ing to one doc­u­ment describ­ing Facebook’s allo­ca­tion of resources."

Deru­dover har Face­book også prob­le­mer med det ara­biske sprog – eller den ara­biske fam­i­lie af sprog, som der jo i virke­lighe­den er tale om, og som sid­ste år var det tred­jemest pop­ulære sprog på Face­book.

Det bety­der blandt andet også, at uskyldige bliv­er fanget i Face­books regler om, hvad der er ter­ror­re­lateret ind­hold, og får deres pro­fil­er deak­tiveret.

Face­book selv siger, at i hvert fald nogle af de til­fælde skyldes, at forskel­lige lande har forskel­lige def­i­n­i­tion­er af, hvad en ter­ro­ror­gan­i­sa­tion er. Som NBC News skriv­er:

"In a state­ment, Face­book said the mea­sure seemed to be a mis­char­ac­ter­i­za­tion because it includ­ed con­tent relat­ed to Hamas and Hezbol­lah — orga­ni­za­tions that some peo­ple in the Mid­dle East wouldn’t con­sid­er tied to ter­ror­ism, but that the U.S. gov­ern­ment has on its list of “for­eign ter­ror­ist orga­ni­za­tions.” Face­book said it has legal oblig­a­tions to remove that con­tent, as well as a pol­i­cy against it."

Andenklasses borgere

Deru­dover har Face­book den udfor­dring, at de for­mu­la­rer, man skal udfylde for at anmelde hate­speech kun delvist er over­sat til sprog som Pash­to og Dari; Afghanistans to offi­cielle sprog.

Sam­tidig er Face­books algo­rit­mer og kun­stige intel­li­genser slet ikke klar til at håndtere eller forstå nuancerne i de forskel­lige ara­biske sprog, skriv­er Wired:

"Face­book users who speak lan­guages such as Ara­bic, Pash­to, or Armen­ian are effec­tive­ly sec­ond class cit­i­zens of the world’s largest social net­work."

Der cirkulerer et tal, der siger, at Face­books algo­rit­mer fejlagtigt flager ara­bisk ind­hold 77% af gan­gene – det er dog et tal, Face­book afvis­er.

De unge er på vej væk

En del af dæknin­gen af Face­book Papers går også på, at de unge for­lad­er Face­book, hvilket er et poten­tielt stort prob­lem, som jeg har skrevet om i en tidligere artikel.

The Verge kan dog fortælle, at det har været et prob­lem siden 2012, og at de unge også bruger min­dre tid med Insta­gram, hvilket ellers har været Face­books helt store guld­kalv hos de unge.

Et fald i de unge brugere er selvsagt et prob­lem for Face­book (som det også ville være for alle andre – bare spørg den danske mediebranche), da det er her fremti­dens brugere – og for­ret­ning – skal komme fra.

Det er også i denne kon­tekst, vi skal se ini­tia­tiv­er mål­ret­tet mod børn, såsom 'Mes­sen­ger Kids' og børneudgaven af Insta­gram, som Face­book dog sat­te på pause for nylig.

Menneskehandel: Apple fik nok

En af de oprindelige Face­book Files-afs­løringer hos The Wall Street Jour­nal fra midten af sep­tem­ber han­dlede om, at Face­book ikke gjorde nok for at forhin­dre, at Face­book og Insta­gram bliv­er brugt i forbindelse med men­neske­han­del.

CNN kan nu fortælle, at prob­lemet nåede et sådan omfang i 2019, at Apple truede med at fjerne Face­book og Insta­gram fra App Store, hvilket ville være katas­tro­falt for Face­book.

Der­for fik de travlt med at fjerne en masse af det prob­lema­tiske ind­hold og imple­mentere ændringer for at komme prob­lemet til livs. Suc­ce­sen er dog begrænset, skriv­er CNN, der fortæller, at de ved hjælp at søgeter­mer nævnt i de lækkede doku­menter kunne finde pro­fil­er, der pås­tod at sælge "domes­tic work­ers", der mind­ede om de pro­fil­er, Face­books researchere tidligere har mark­eret og fjer­net.

Samme oplevelse har AP, og de skriv­er, at "Facebook’s crack­down seems to have had a lim­it­ed effect".

Mange ansatte har fået nok

En lang række af de lækkede doku­menter er kom­mentar­er og indlæg på Face­books eget Work­place (en intern/in­tranet-udgave af Face­book, som alle virk­somhed­er kan bruge) skrevet af medar­be­jdere, der efter­hån­den er blevet dis­il­lu­sionerede – og flere har sagt op.

"I came here hop­ing to effect change and improve soci­ety, but all I’ve seen is atro­phy and abdi­ca­tion of respon­si­bil­i­ty," som NBC News citer­er en unavn­givet ansat for.

I artiklen "Face­book Failed the Peo­ple Who Tried to Improve It" kig­ger Wired på de såkaldte "badge posts", som er de indlæg, Face­book-ansat­te skriv­er på Work­place, når de for­lad­er virk­somhe­den – ofte led­saget af et billede af deres skilt/badge, der­af navnet.

Hvis du vil læse citater fra folk, der har givet op, er det artiklen for dig. Inter­es­sant er det dog, at opda­teringer som denne er helt tilbage fra 2016:

"I am leav­ing because I am high­ly con­cerned about our cor­po­rate direc­tion, how our pur­suit of growth may neg­a­tive­ly impact our ethics and mis­sion state­ment, and how this has become man­i­fest in our code­base. Plus, I am too tired to fight it."

Artiklen har også fat i noget andet inter­es­sant, nem­lig Face­books interne beløn­ningsstruk­tur. En tidligere Face­book-researcher fork­lar­er:

"'If you're a ‘low­ly prod­uct man­ag­er’ you could be doing the best work in the world, but if you don’t get X num­ber of new users to sign up, you don’t get your bonus, or you don’t get pro­mot­ed,' [...] To tru­ly address the prob­lems, 'The way that the com­pa­ny incen­tivizes prod­uct teams would rad­i­cal­ly have to change'""

Denne form for inci­ta­menter er generelt over­set i dæknin­gen af tech-fir­maer – ja, generelt alle fir­maer – hvis du spørg­er mig. For det er så afgørende for, hvor­dan sys­te­mer, algo­rit­mer og pro­duk­ter bliv­er skruet sam­men; det er definerende for, hvad der møder brugerne.

Så hvad enten det er LinkedIn, der sender dig en mail for at opfor­dre dig til at skrive en opda­ter­ing eller at gøre en kom­men­tar til et nyt indlæg på plat­for­men, eller Face­book der vil have dig til at lave en Sto­ry (eller en tred­je, der vil have dig til at gøre noget), så kan du roligt reg­ne med, at der sid­der en stakkels pro­duk­t­per­son inde bagved, der bliv­er målt på, om du så rent fak­tisk også gør det.

Hvor meget kan vi stole på Facebook Papers?

Der­for er det så vigtigt, at alle organ­i­sa­tion­er tænker over, hvor­dan de motiver­er og beløn­ner deres ansat­te.

Du kan læse mere fra Face­books egne ansat­te i en anden Wired-artikel: "How to Fix Face­book, Accord­ing to Face­book Employ­ees".

Her bliv­er der sam­let op på diverse Face­book-ansattes bud på løs­ninger på nogle af Face­books prob­le­mer. Det er spæn­dende læs­ning, men alt­så... det er jo også en gratis omgang, ikke sandt?

Et lidt anderledes – og nød­vendigt – per­spek­tiv find­er vi i Plat­former-nyheds­brevet fra Casey New­ton. Han har talt med en tidligere Face­book-ansat, der fork­lar­er, at der man­gler noget vigtigt i dæknin­gen af Face­book Papers.

Det han­dler om at forstå de lækkede doku­menter (indlæg og kom­mentar­er på, hvad der i sid­ste ende er Face­books intranet) og få det kon­tek­stu­alis­eret på den rette måde.

Det han­dler om at forstå, at Work­place på mange måder er som Face­book-mod­er­ski­bet selv: Det er et socialt medie på tværs af organ­i­sa­tio­nen, hvor alle kan skrive og kom­mentere. Og der­for er der ingen garan­ti for, at citater­ne i de lækkede doku­menter er fra folk, der udtaler sig inden­for deres eksper­tis­er. Og de slørede navne gør det end­nu sværere at afgøre.

Læs blot her:

"These are being described as Face­book Papers and Face­book Files and Leaked Doc­u­ments, but real­ly the right way to under­stand them (for the most part) is they are posts and com­ment threads. And I think that the hyper-col­lab­o­ra­tive cul­ture dri­ven by Work­place is prob­a­bly alien to a lot of peo­ple, who don't under­stand the Poster's cul­ture that thrives at Face­book. [...]

Basi­cal­ly: any­one can post any­thing about any­thing at any time, and their posts might be good or bad or not ter­ri­bly well thought out, and they might not have very much con­text about the thing they're post­ing about.

So a lot of what is get­ting described as "inter­nal debate" is real­ly just posters post­ing because they are pro­cras­ti­nat­ing from doing their real job. It doesn't mean it's not impor­tant or not worth look­ing at, but a lot of the Face­book Papers are giv­en a lot more grav­i­tas than they prob­a­bly deserve. These are off-the-cuff con­ver­sa­tions between peo­ple who for the most part are not involved with delib­er­a­tions or deci­sion-mak­ing, but just want­ed to weigh in because an announce­ment post hap­pened to come across their (algo­rith­mi­cal­ly sort­ed and opti­mized for engage­ment) Work­place feed."

Og der­for er det vigtigt at have for øje, at man ikke baser­er for meget på noget, der ikke er en del af de reelle pro­duk­tbeslut­ninger hos Face­book:

"But the point that's impor­tant to high­light, if you want to use these as an inves­tiga­tive tool, is that these com­ment threads are large­ly not the actu­al debate or delib­er­a­tion that goes into mak­ing a deci­sion about a launch. They are the gut reac­tion from peo­ple who prob­a­bly work on some com­plete­ly dif­fer­ent thing."

Her synes jeg, Wired svigter i nogle af deres artik­ler; tvær­ti­mod ophø­jer de per­son­erne bag de lækkede kom­mentar­er til sand­hedsvid­ner, og når man i Plat­former-nyheds­brevet læs­er, at en artikel er mere eller min­dre baseret på et screen­shot af to kom­mentar­er, der blev skrevet tre år før, Hau­gen tog et screen­shot, kan vi jo nok godt se, at der man­gler et eller andet.

(Casey New­ton har i øvrigt også reflek­teret og skrevet om sin rolle som jour­nal­ist i forhold til Face­book-lækket.

Det samme har Alex Kantrowitz: "I’m in the con­sor­tium pos­sess­ing the leaked Face­book doc­u­ments. Let’s dis­solve it.", og Math­ew Ingram fra Colum­bia Jour­nal­ism Review her skrevet om medies­trate­gien i forbindelse med Face­book Papers.)

Men det er nemt at hade Face­book, og mange nuancer går tabt, når his­to­ri­er som disse ruller, som jeg tidligere har skrevet.

Hvad så nu..?

Det er selvføl­gelig ikke det samme som at sige, at der ikke er noget at komme efter. Og det inter­es­sante spørgsmål er selvføl­gelig, hvad der kom­mer til at ske nu – efter flere uger med skud­vek­slinger mellem Frances Hau­gen og medierne samt Face­book.

Det han­dler blandt andet om, hvorvidt det over­hovedet er muligt at bygge en sag mod Face­book ved SEC (Secu­ri­ties and Exchange Com­mis­sion).

Flere juraekspert­er siger, at det kan blive svært at bevise, at Face­book har gjort noget galt, skriv­er NBC. Årsagen er, at det er lettest at have en sag, hvis man har klokkeklare bevis­er på wrong­do­ing. De er svære at finde i Face­book-afløringerne.

En af Hau­gens beskyld­ninger (at Face­book poten­tielt puster bruger­tal og andre metrikker kun­stigt op over­for annon­cør­er) kan dog være inter­es­sant – og er noget, SEC har fokuseret på i flere år.

"The Face­book Whistle­blow­er Won’t Change Any­thing," skrev Wired tidligere på måne­den og anbe­falede os at sænke vores for­vent­ninger til, hvad en whistle­blow­er real­is­tisk kan opnå.

Om Frances Hau­gen, Face­book Files, Face­book Papers og Face­book... what­ev­er kom­mer til at ændre noget eller ej, ved vi først om noget tid. En kon­sekvens for Face­book allerede nu er dog, at det for­mentlig bliv­er svært at rekrut­tere de dygtig­ste folk (en evig kamp imellem de store tech-fir­maer) – og at holde på dem, man har.

Og så håber jeg, at jeg kan fokusere på noget andet end Face­book i næste uges nyheds­brev. ◉


Gør som dine værste konkur­renter:
Tilmeld dig Dig­i­tal Ugerevy
.

Hvad er ligheden mellem Facebook og Radio LOUD?

Det kniber med de unge brugere – og et navne­skift er ikke løs­nin­gen på de reelle prob­le­mer.


Af Lars K Jensen

Dig­i­tal chef hos Will­more og udgiv­er af Dig­i­tal Ugerevy

Kon­takt:
lars@willmore.dkTwit­ter | LinkedIn
.

Artiklen udkom med Digital Ugerevy-nyhedsbrevet

Tilmeld dig, hvis du ikke vil gå glip af den næste:

Du kan altid afmelde dig igen ved at bruge lin­ket i bun­den af hvert nyheds­brev

💌

De dårlige his­to­ri­er fort­sæt­ter for Face­book, og som du kan læse i denne uges opsam­ling, er der angiveligt end­nu flere his­to­ri­er på vej baseret på læk.

I denne uge fik Face­book dog sel­skab i de helt store over­skrifter i den danske mediebranche, da Radio LOUD også beg­y­n­dte at røre på sig.

Samme problem

Både Face­book og LOUD står med det samme prob­lem: De har ikke fat i de rigtige mål­grup­per. Radioen er tænkt og markeds­ført til unge men­nesker, men langt hov­ed­parten af lyt­terne er over 56 år, skrev Medi­aWatch tidligere på måne­den.

Face­book har samme prob­lem. Den 9. okto­ber skrev The Econ­o­mist en led­er­ar­tikel (som jeg brugte som afsæt for en artikel om Zucker­berg), hvor de fortæller om en af de over­sete ting i forbindelse med whistle­blow­eren Frances Hau­gens vid­nes­byrd.

Ifølge hende har Face­book skjult et fald i antallet af unge amerikanere, der bruger Face­book. Interne bereg­ninger hos Face­book selv vis­er, at et fald i amerikanske teenageres engage­ment på plat­for­men kan betyde et fald på hele 45% i alle amerikanske brugere af Face­book inden­for de næste to år.

Det er vold­somt.

Det samme tal ser vi i Kevin Roos­es artikel hos The New York Times, hvor han argu­menter­er for, at Face­book er svagere, end vi vid­ste (artiklen er i øvrigt skrevet før Face­books kæm­pened­brud).

Samme løsning

Nu kom­mer vi til den del af sam­men­lignin­gen mellem LOUD og Face­book, der lig­ger mest lige for. I ugens løb meldte Berlingske Media (der er gået ind i kred­sen bag radiokanalen) ud, at LOUD skifter navn til 24syv.

Sam­tidig køber Berlingske Media 91% af aktierne i sel­sk­a­bet – hvis det god­k­endes af Radio- og tv-nævnet.

Det er der alt muligt at sige om, som jeg ikke vil komme nærmere ind på her.

Face­book går også med plan­er om et navne­skifte, som du kan læse mere om i denne uges opsam­ling – under "Sociale medier"-afsnittet herun­der.

Navne­skiftet bliv­er angiveligt snart præsen­teret og er noget, Face­book har arbe­jdet ser­iøst med de sen­este par måned­er.

Ifølge Casey New­ton har Face­book to grunde til at skifte navn: Det for­færdelige ry og rygte – samt at app’en Face­book ikke er en del af fremti­den for fir­maet Face­book.

Deru­dover har Face­book også behov for at åbne navnet og strate­gien mere op for det kom­mende meta­verse, som Face­book vil bygge og hyre 10.000 europæiske udviklere til at hjælpe dem med. Som Giz­mo­do kækt skriv­er, led­er Face­book efter 10.000 men­nesker, der ikke had­er dem.

Virker det?

Uanset hvad Face­book (og Berlingske Media/LOUD) håber på at få ud af et navne­skifte, skal man nok ikke overvur­dere betyd­nin­gen af det – og dermed under­vur­dere folks hukom­melse.

Det nye 24syv bliv­er aldrig det 24syv, der nærmest er opstået en dødekult omkring. Og det nye Face­book er jo stadig det fir­ma, der kæm­per med at holde styr på data, være ærlig om sin rolle og påvirkn­ing i forhold til brugere såv­el som sam­fund – og som har en lang hale af møgsager bag sig.

Som en tidligere Face­book-exec­u­tive siger til Casey New­ton risik­er­er Face­book at skade deres drømme om at skabe et metavers:

"I think their aggres­sion in try­ing to own the meta­verse nar­ra­tive runs the risk of sour­ing peo­ple to the entire con­cept."

Og så er der jo spørgsmålet om, hvorvidt folk over­hovedet er trygge ved, at det er netop Face­book, der skal eje meta­ver­set, hvor vi alle beredvil­ligt smider vores hæmninger og tager VR-briller på i stedet.

"Face­book Can't Hide Its Prob­lems Behind a New Name," skriv­er Wired – og mon ikke det samme gælder for en vis radiokanal.

Imi­dler­tid vil jeg glæde mig til, at FC Barcelona snarest kom­mer ud af deres nuværende krise ved at skifte navn. ◉


Gør som dine værste konkur­renter:
Tilmeld dig Dig­i­tal Ugerevy
.

Er Zuckerberg en byrde for Facebook?

Spørgsmå­lene står i kø, og prob­lemet starter i top­pen, skriv­er The Econ­o­mist. Mange taler om reg­u­ler­ing, men kan en stør­relse som Face­book reg­uleres?

Karikatur: Don­key­Hotey (Flickr Cre­ative Com­mons)


Af Lars K Jensen

Dig­i­tal chef hos Will­more og udgiv­er af Dig­i­tal Ugerevy

Kon­takt:
lars@willmore.dkTwit­ter | LinkedIn
.

Artiklen udkom med Digital Ugerevy-nyhedsbrevet

Tilmeld dig, hvis du ikke vil gå glip af den næste:

Du kan altid afmelde dig igen ved at bruge lin­ket i bun­den af hvert nyheds­brev

💌

Analy­serne står i kø efter sid­ste uges drama­tiske uge for Face­book med ned­brud og whistle­blow­eren Frances Hau­gens vid­nes­byrd foran an kon­greskomité, som jeg behan­dlede i sid­ste uge.

I denne omgang vil jeg ikke skrive så meget i dyb­den, for der er ikke så meget nyt at sige. Jeg vil i stedet anbe­fale dig at læse The Econ­o­mists led­er­ar­tikel, 'Face­book is near­ing a rep­u­ta­tion­al point of no return'.

Drop opbrydningen

Her lev­er­er de en pointe, som jeg også havde i min artikel: At Face­book har mis­tet manges tillid, og at ganske få (og da slet ikke poli­tikere og medi­er) vil lade tvivlen komme dem til gode.

Og selvom der er forskel på tobaks­fir­maer og Face­book, så skad­er det Face­book, hvis nar­ra­tivet omkring Face­book bliv­er, at de er lige­som de store tobaks­fir­maer.

Led­er­ar­tiklen skiller mere eller min­dre antitrust-anklagerne (hvor man søger at bryde Face­book op) ad og fork­lar­er, at det ville skulle hvile på en def­i­n­i­tion af monopol, der udelukker de fleste andre sociale netværk.

Det vil se mærke­ligt ud efter Face­book store ned­brud, hvor brugerne netop strømmede til andre tjen­ester og plat­forme.

Zuckerberg i klemme

Artiklen slut­ter af med en – mildest talt – inter­es­sant for­mu­ler­ing:

"If ratio­nal argu­ment alone is no longer enough to get Face­book out of its hole, the com­pa­ny should look hard at its pub­lic face. Mark Zucker­berg, Facebook's all-pow­er­ful founder, made a rea­soned state­ment after this week's wave of anger. He was ignored or ridiculed and increas­ing­ly looks like a lia­bil­i­ty."

Det er jo store ord, for Zucker­berg er jo nærmest Face­book. Og måske er det en del af prob­lemet – det er der noget, der tyder på det er, når det gælder denne form for krisekom­mu­nika­tion.

The Econ­o­mist hen­ty­der for­mentlig blandt andet til denne opda­ter­ing fra Zucker­berg.

Hos en af Face­books konkur­renter, Twit­ter, har flere af inve­stor­erne med­s­tifter og CEO, Jack Dorsey, i en form for hals­greb. Kri­tikken går blandt andet på, at han sam­tidig også er direk­tør for betal­ings­fir­maet Square, og i marts 2020 nåede parterne til en enighed, der holdt Dorsey i stolen – men stillede krav:

"So, Dorsey is safe for now, but the pres­sure is clear­ly on. Twitter's incom­ing board mem­bers will be look­ing to max­i­mize their returns, and while Dorsey will be giv­en a chance to prove him­self, he'll need to pro­duce quick­ly to win their trust."

Den aftale er angiveligt noget af det, der press­er Twit­ter til at lancere nye ting for hele tiden at skabe vækst.

Det vis­er, at CEO-stiftere ikke er urørlige, og det er måske ikke utænke­ligt, at nogle vil beg­y­n­de at stille krav til Zucker­berg. (Skriv­er jeg baseret på det fak­tum, at The Econ­o­mist sæt­ter ord på det.)

Kan man overhovedet regulere Facebook?

En af de ord, der fylder meget i køl­van­det på Face­books helvedesuge er ordet "reg­u­ler­ing". Face­book skal reg­uleres, algo­rit­merne skal reg­ulere etc. Men kan det over­hovedet lade sig gøre?

Det spørgsmål stiller Colum­bia Jour­nal­ism Review i en artikel, hvor de sam­ler fint op på, hvad andre har skrevet.

Face­book går selv ind for reg­u­ler­ing, og det afføder naturligvis for­dom­men, at hvis Face­book selv ønsker det, så er det ver­dens værste idé og noget, man skal være ekstremt var­som omkring.

Der lig­ger blandt andet en finesse i, at reg­u­ler­ing sam­tidig legit­imis­er­er det, der skal reg­uleres. Matt Stoller skriv­er:

"In oth­er words, we have to elim­i­nate Facebook’s tox­ic busi­ness mod­el, not reg­u­late it, because reg­u­lat­ing some­thing serves to legit­imize it. It’s not about stop­ping the col­lec­tion of data and manip­u­la­tion, it’s about stop­ping the prac­tices that make that col­lec­tion of data and manip­u­la­tion prof­itable in the first place."

En af forsla­gene, der turner­er derude (blandt andet for­di Hau­gen selv nævnte det) er gode gam­mel­daws algo­rit­mefri feeds. Det er dog på ingen måde nogen garan­ti for, at hate­speech og lig­nende forsvin­der – og forestil dig et feed, hvor Face­book-sider og pri­vat­per­son­er hele tiden skriv­er opda­teringer for at ligge øverst i feedet.

Nick Clegg, der er Face­books "VP of Glob­al Affairs" forsvar­er et algo­ritmestyret feed. Hans argu­ment er, at brugerne vil se mere hate­speech etc., for­di algo­rit­merne også fun­ger­er som en form for mas­sivt spam­fil­ter. Det er nok et spørgsmål om øjnene, der ser.

Som jeg skrev i sid­ste uge, risik­er­er det også at være begrænset, hvad man reelt får ud af at "kigge ind" i en algo­ritme, der er bygget på Machine Learn­ing og trænet på data – og ikke skrevet af men­nesker.

Imens fort­sæt­ter Hau­gen sin tour. Hun skal tale for Storbri­tan­niens par­la­ment, for Face­books Over­sight Board, og hun er også blevet inviteret til at tale i EU-regi.

Mindre transparens

I et nyheds­brev fork­lar­er Bloomberg Tech­nol­o­gy, at en af kon­sekvenserne af alt dette bliv­er min­dre trans­parens hos de store tech-fir­maer.

Det har de ellers været kendt for; både i deres organ­i­sa­tion­er og interne kom­mu­nika­tion – men også i det fak­tum, at Face­book eksem­pelvis laver analyser, som ganske få andre (ej heller medi­er) laver, og de føler, de får kri­tik af folk, der led­er efter hullerne i osten og kon­sekvent fokuser­er på fej­lene og ignorere det gode. Og her har Face­book en pointe.

"Some of this week's crit­i­cism was ten­den­tious," skriv­er The Econ­o­mist om netop det fak­tum, at pos­i­tive his­to­ri­er i dataene og under­søgelserne blev over­set.

En stor del af den offentlige opin­ion og lov­giverne har taget still­ing til Face­book. Om det får kon­sekvenser for Zucker­berg og alt det, han har skabt, vil tiden vise.

Indtil videre ser det ud til, skriv­er The Econ­o­mist, at Face­book oplever et fald i unge brugere i USA. Det kan blive alvorligt og kan i værste til­fælde føre til et større fald i amerikanske brugere generelt set.

Det vil Zucker­berg for­mentlig få at føle, hvis den tid kom­mer. ◉

Gør som de andre, der er som dig:
+ Tilmeld dig Ugerevyen

Hvad skal vi med Facebook?

Whistle­blow­eren Frances Hau­gen har aflagt vid­nes­byrd, og det ser ikke godt ud for Face­book. Men hvad skal der ske nu – og hvor­for er algo­rit­merne et svært sted at starte?

Foto: Thought Cat­a­log / Pex­els


Af Lars K Jensen

Dig­i­tal chef hos Will­more og udgiv­er af Dig­i­tal Ugerevy

Kon­takt:
lars@willmore.dkTwit­ter | LinkedIn
.

Artiklen udkom med Digital Ugerevy-nyhedsbrevet

Tilmeld dig, hvis du ikke vil gå glip af den næste:

Du kan altid afmelde dig igen ved at bruge lin­ket i bun­den af hvert nyheds­brev

💌

"Hvad skal vi med Face­book, de vil altid bare slås

Hvad skal vi med Face­book, de vil kun bedrage os

Hvad skal vi med Face­book, de er altid til besvær

Hvad skal vi med Face­book, de vil altid kun ha' mer'"

Sådan lyder en – let­tere – omskrivn­ing af en sang af Preben Kaas og Jør­gen Ryg fra 1963.

Indtil videre har Face­books jagt på mere skaf­fet dem en dominerende posi­tion i vores liv – og en serie af prob­le­mer og tragedi­er. Sådan fort­sat­te det i denne uge, der var den måske værste i Face­books his­to­rie.

Ugens helt store his­to­rie er naturligvis fort­sæt­telsen af his­to­ri­erne om Face­book og om, hvor meget de vid­ste, og hvor lidt de gjorde.

Sen­este kapi­tel start­ede for­rige søndag, den 3. okto­ber. Her stod den whistle­blow­er, der har delt en række doku­menter med den amerikanske kon­gres og ikke mindst The Wall Street Jour­nal frem.

Under et inter­view med '60 Min­utes' fandt vi ud af, at det er en tidligere prod­uct man­ag­er ved navn Frances Hau­gen, der havde lev­eret ammu­ni­tio­nen til The Wall Street Jour­nals 'Face­book Files'-afløringer, som jeg skrev om for en uge siden.

Tirs­dag mor­gen, amerikan­sk tid, aflagde hun sit vid­nes­byrd foran den samme kon­greskomité, der tidligere har gril­let Face­books sikker­hed­schef, Antigone Davis.

Umid­del­bart inden var Face­book ramt af et enormt ned­brud, der sendte alle deres tjen­ester i sort i 6 timer. Ned­brud­det skyldtes en ellers ruti­nemæs­sig teknisk øvelse, hvilket du kan læse mere om i denne uges Ugerevy-opsam­ling.

Få styr på høringen

Der er allerede skrevet meget om det, Frances Hau­gen sagde, så det vil jeg ikke bruge så meget tid på her. I stedet vil jege pege dig i ret­ning af MIT Tech­nol­o­gy Reviews glim­rende opsam­ling på deres dækn­ing af Face­book og deres udfor­dringer i det sen­este stykke tid, hvilket de på ele­gant vis bruger til at kon­tek­stu­alis­ere Hau­gens fork­laringer.

Casey New­ton har også skrevet en sol­id artikel, hvor han fremhæver nogle af de vigtig­ste point­er samt kig­ger fre­mad.

Han bemærk­er eksem­pelvis – som Tech­nol­o­gy Review også gør – at Frances Hau­gen for­mår at fly­tte fokus fra mere eller min­dre abstrak­te snakke om ind­hold­spoli­tik og cen­sur til beslut­ninger om design af algo­rit­mer og selve plat­for­men.

Det gør hun blandt andet med afsæt i de lækkede data, hun skrabe­de sam­men på Face­books interne Work­place (Face­books alter­na­tiv til det klas­siske intranet), da hun sagde sit job op tilbage i maj.

Hvad så nu?

Et af de helt store spørgsmål er, hvad der skal ske nu. Nogle vil for­mentlig argu­mentere for, at dette er end­nu et bevis på, at Face­book bør bry­des op, og at man passende kan starte med at rulle købene af Insta­gram og What­sApp tilbage.

Dette er Frances Hau­gen, måske over­rask­ende, mod­stander af. I stedet peger hun på de algo­rit­mer, der sam­men­sæt­ter blandt andet feed'et og kom­mer med andre anbe­falinger på Face­books plat­forme.

Hau­gen men­er, at algo­rit­merne bør reg­uleres (så de ikke anbe­faler ind­hold på bag­grund af engage­ment – alt­så antal kom­mentar­er, reak­tion­er, likes etc.). Deru­dover er hun for­t­aler for at gøre Face­book-feedet kro­nol­o­gisk, alt­så sorteret på eksem­pelvis opda­teringers og billed­ernes udgivelses- eller upload-tid­spunk­ter.

Casey New­ton stiller spørgsmål­stegn ved dette og nævn­er, at polaris­erende ind­hold også blev delt på Twit­ter og Insta­gram, inden de også val­gte at sortere deres feeds via algo­rit­mer, men at det muligvis kan dæmme op for spred­nin­gen.

Algoritmerne er svære

Deru­dover er det svært at reg­ulere den form for algo­rit­mer, der er tale om her.

MIT Tech­nol­o­gy Review har talt med Ellery Roberts Bid­dle, der er pro­jek­t­di­rek­tør hos Rank­ing Dig­i­tal Rights – en non­prof­it, der stud­er­er sociale plat­formes rank­ingsys­te­mer og deres ind­virkn­ing på men­neskerettighed­er.

Hun fortæller, at Hau­gens forslag giv­er mening, men at der stadig er mange ubesvarede spørgsmål omkring algo­rit­metrans­parens, alt­så gen­nem­sigtighe­den i og omkring disse sys­te­mer.

(Jeg har tidligere skrevet om algo­rit­metrans­parens, og at man heller ikke skal have for meget af det, i mit engel­sksprog­ede nyheds­brev.)

Poli­tiken, opfor­dr­er i en led­er Face­book til at åbne op for algo­rit­merne, så myn­dighed­erne kan få ind­b­lik i, hvor­dan de fun­ger­er.

Umid­del­bart er det et for­nuftigt ræson­nement; lad os skille feed-algo­rit­merne ad og skabe syn­lighed (om ikke andet for myn­dighed­erne) om, hvad de pri­or­iter­er – og gøre det rigtigt.

Men en ting er, at det er svært at arbe­jde med den form for trans­parens – noget andet er, at det ikke nød­vendigvis er nogen god løs­ning. Ikke kun for­di, det kan rejse spørgsmålet om, hvad en virk­somhed har ret til at holde hem­meligt af konkur­rence­hen­syn, men også for­di det ikke nød­vendigvis før­er noget godt med sig at gøre det syn­ligt, hvad algo­rit­mer som dem, der styr­er Face­book-feedet, arbe­jder efter.

I forve­jen er der en kamp i gang hver dag – og her spiller mange medi­er lystigt med – hvor det han­dler om at ramme de rigtige tid­spunk­ter, ele­menter og inter­ak­tion­er ("hvad synes du — læg en kom­men­tar"), så man får de gode plac­eringer i feedet.

Yderligere gen­nem­sigtighed om, hvor­dan feedet på Face­book fun­ger­er vil gøre denne kamp end­nu vildere, og det vil hur­tigt blive et ræs mod bun­den. Akku­rat som når jour­nal­is­ter konkur­rerer på klik, side­vis­ninger og læsere.

Det, du måler, er du selv

Det skyldes noget meget grundlæggende, nem­lig det der kaldes "Good­harts lov" – den kan du læse mere om på Wikipedia, hvis du har lyst. Kort for­t­alt siger den, i let­tere omskrevet form, at "when a mea­sure becomes a tar­get, it ceas­es to be a good mea­sure".

Alt­så; i det øje­b­lik, du gør et målepunkt til et mål, er det et dårligt mål.

Det er det af den sim­ple årsag, at vi men­nesker hur­tigt find­er ud af, hvor­dan vi får vores beløn­ning, og så gamer vi sys­temet, indtil det lykkes. Det er der­for, nogle jour­nal­is­ter laver click­baits – for­di så får de flere side­vis­ninger end kol­legerne og konkur­renterne.

Og det er selvføl­gelig også der­for, Face­book-feedet er så grimt, som det til tider er: Vi vil gerne have den store række­v­id­de og de mange inter­ak­tion­er, for så er vi jo dygtige.

Vi elsker det vanvittige

Der­for løs­er øget gen­nem­sigtighed for­mentlig ikke meget, lige­som det ikke bliv­er sjovt at være dem, der skal reg­ulere de sig­naler, rank-algo­rit­merne arbe­jder efter – for­di det i sid­ste ende skal være mål­bart, for at algo­rit­merne fat­ter det, og allerede der er det hastigt på vej til at blive en dårlig idé at måle efter.

Det her han­dler om noget, der er større og mere kom­plekst, end at vi er sure på og skuffede over Face­book. Det han­dler om os men­nesker. Som MIT Tech­nol­o­gy Review skrev i tilbage i marts:

"The mod­els that max­i­mize engage­ment also favor con­tro­ver­sy, mis­in­for­ma­tion, and extrem­ism: put sim­ply, peo­ple just like out­ra­geous stuff."

Bevares, det er selvføl­gelig ikke det samme som, at der ikke skal gøres noget – men det illus­tr­erer, hvor­for det er svært at reg­ulere såv­el tech-fir­maer som de algo­rit­mer, der dri­ver dem og deres plat­forme.

Sam­tidig er Machine Learn­ing-algo­rit­mer, der er trænede på data og selvlærende, ikke så lette at gen­nem­skue som en gam­meldags, regelføl­gende nærmest hånd­skrevet algo­ritme.

Deru­dover vis­er argu­mentet for at skille algo­rit­men ad også begræn­snin­gen i den sam­men­lign­ing med de store tobaks­fir­maer, som de amerikanske poli­tikere og nogle medi­er har kastet sig ud i.

Sam­men­lignin­gen lig­ger jo lige for: Der er tale om en stor, ond organ­i­sa­tion, der har bygget noget, der er dårligt for os, men som vi sam­tidig bliv­er afhængige af. Men der er nu engang forskel på ingre­di­enslis­ten i en cig­a­ret og i en algo­ritme, der skal bringe vores billed­er og geniale ord ud til så mange men­nesker som muligt.

I et Recode-nyheds­brev (der desværre ikke er udgivet online, så jeg kan ikke linke til det) argu­menter­er Adam Clark Estes for, at Big Oil (de store amerikanske oliefir­maer, der siden blev split­tet op via antitrust-lov­givn­ing) er en bedre sam­men­lign­ing.

Det han­dler blandt andet om, at såv­el oliefir­maer som Face­book sid­der på noget, vi har svært ved at undgå, især i "devel­op­ing nations", hvor der er en større afhængighed af Face­book end i for eksem­pel USA – som det også ses med olie.

Oliemetaforen har selvsagt også sine begrænsinger, men den er nu ikke desto min­dre inter­es­sant og umid­del­bart mere rel­e­vant end cig­a­ret­terne.

Om du vil kæde det sam­men med alle "data er det nye olie"-parolerne, må stå for din egen reg­n­ing 🙂

Del så de data

Hvad kan der så gøres? Af alle de ting, jeg har læst i forbindelse med "Face­book Files" og Hau­gens vid­nes­byrd, synes jeg fak­tisk Casey New­ton har fat i noget i sit Plat­former-nyheds­brev.

Både i den artikel, jeg linkede til tidligere, og i denne artikel, hvor han advok­er­er for, at Face­book del­er "Face­book-fil­erne" (det var inden, de så delte de slides, én af Wall Street Jour­nal-his­to­ri­erne han­dlede om).

Og det han­dler om data.

Begge artik­ler rum­mer nem­lig en appel om, at Face­book også fri­giv­er de data, der lig­ger til grund for de interne kon­klu­sion­er og anbe­falinger, de siden har fået så meget kri­tik for.

New­tons pointe er god; for det han­dler nem­lig om ægte trans­parens. Og han fores­lår ikke, at Face­book bare slår en eksport i kom­mase­p­a­r­eret for­mat, som du så kan mase ind i Excel eller Google Sheets.

I stedet anbe­faler han Face­book at fri­give dataene i samar­be­jde med uafhængige forskere, således at dataene kan blive sat i de fornødne kon­tek­ster samt blive anonymis­eret og renset for per­son­hen­før­bare oplysninger.

Okay, det han­dler ikke om de algo­rit­mer, som så mange er så sure på – men det han­dler dog om kon­sekvensen af dem og de sociale plat­formes andre aspek­ter og ind­virkn­ing på vores sam­fund.

Og det bety­der, at man ville have et reelt, fak­tabaseret afsæt for at lave noget om (et grund­lag meget af debat­ten omkring Face­book, teknolo­gi og algo­rit­mer desværre ofte man­gler).

Skal forskere have adgang ved lov?

Desværre har Face­book ikke lige­frem stolte tra­di­tion­er for at dele data. I en glim­rende gen­nem­gang peger Colum­bia Jour­nal­ism Review os til en artikel hos The Wash­ing­ton Post skrevet af Nathaniel Persi­ly. Han er pro­fes­sor ved Stan­fard Law School og chef for Stan­ford Cyber Pol­i­cy Cen­ter.

Han stod også i spid­sen for et samar­be­jde mellem forskere og Face­book, som han dog for­lod efter flere års frus­tra­tion over brudte løfter om at dele mere data.

"When Face­book did final­ly give researchers access to data, it end­ed up hav­ing sig­nif­i­cant errors — a prob­lem that was dis­cov­ered only after researchers had spent hun­dreds of hours ana­lyz­ing it, and in some cas­es pub­lish­ing their find­ings (about, for exam­ple, how dis­in­for­ma­tion spreads)."

Der­for opfor­dr­er Persi­ly den amerikanske kon­gres til at ved­tage en lov, der giv­er forskere adgang til infor­ma­tion fra Face­book om, hvor­dan dets tjen­ester påvirk­er sam­fun­det.

Det er ikke fjernt fra, hvad Casey New­ton anbe­faler og efter­spørg­er – og noget kan tyde på, at Face­book før eller siden vil blive tvunget til at dele disse for­mer for data og oplysninger.

Hans råd til kon­gressens poli­tikere er sam­tidig, at de ikke forsøger at ved­tage en lov, der skal løse alle de prob­le­mer, Hau­gens vid­nes­byrd omhan­dlede.

Kan Facebook redde sig selv?

Selvføl­gelig ville det være dejligt og nemt, hvis Face­book selv beg­y­n­dte at fri­give den slags ting og beg­y­n­dte at bygge et feed, der var min­dre polaris­erende. Især i køl­van­det på afs­løringer af, at de har sat vækst (for såv­el bru­gen af Face­book som Face­books bundlin­je) for­rest.

Men det tyder på, at Face­book skal have hjælp.

I starten af sit vid­nes­byrd sagde Frances Hau­gen:

"The company’s lead­er­ship knows ways to make Face­book and Insta­gram safer and won’t make the nec­es­sary changes because they have put their immense prof­its before peo­ple. Con­gres­sion­al action is need­ed. They can­not solve this cri­sis with­out your help."

"Facebook's actions make clear that we can­not trust it to police itself," sagde den demokratiske sen­a­tor Richard Blu­men­thal, der sid­der i spid­sen for den kon­greskomité, Hau­gen vidnede over­for, ifølge CNN.

Og da MIT Tech­nol­o­gy Review i juli anmeldte en bog om Face­books "fun­da­men­tale fejl" sagde de det ganske tydeligt:

"[...] between the lines, the mes­sage is loud and clear: Face­book will nev­er fix itself."

Her­hjemme har Sebas­t­ian Gjerd­ing frem­ført samme syn­spunkt i en led­er­ar­tikel hos Infor­ma­tion.

Tvivlens fordel er væk

Jeg nævn­er det efter­hån­den hver gang, jeg enten skriv­er eller hold­er oplæg om Face­book, men det er en pointe, der er værd at gen­t­age:

Uanset om Face­book i en giv­en sag har begået store fejl eller har (helt eller delvist) ret i det de siger, så har de for­længst mis­tet "the ben­e­fit of the doubt". Især hos mange medi­er.

Det kom­mer selvføl­gelig delvist fra Face­books lange række af dårlige his­to­ri­er, men det er også baseret på ganske stærke følelser over­for Face­book i dele af mediebranchen, hvor man er flas­ket op på en his­to­rie om, at det er tech-fir­maer som Face­book, der har taget de penge, der burde gå til medierne.

Om man del­er det nar­ra­tiv eller ej er ikke rel­e­vant i netop denne sam­men­hæng – men det er vigtigt at have for øje, når man ori­en­ter­er sig i Face­books række af skan­daler. Blandt andet fik The New York Times gjort i nælderne, da de fejlagtigt skrev i 2018, at Net­flix og Spo­ti­fy kunne læse med i Face­book-brugernes pri­vate besked­er.

Det var ikke til­fældet. Jour­nal­is­ten havde tilsyneladende ganske enkelt ikke forstået det tekniske – og det er et godt eksem­pel på, at tvivlens fordel er væk for Face­book.

Facebooks svar

Face­books modsvar på Face­book Files og Frances Hau­gens videns­byrd har indtil videre bestået af blandt andet:

  • En artikel af Nick Clegg (Face­books "Vice Pres­i­dent of Glob­al Affairs") med over­skriften "What the Wall Street Jour­nal Got Wrong"
  • En tilbagevis­ning af dele af The Wall Street Jour­nals dækn­ing (som min­i­mum med delvis berettigelse, ser det ud til), som dog også stiller spørgsmål ved validiteten i dele af Face­books research ("This research, some of which relied on input from only 40 teens...")
  • Slides (PDF #1, PDF #2) om blandt andet Insta­grams påvirkn­ing på unge (led­saget af kom­mentar­er, der stillede spørgsmål­stegn ved kon­klu­sion­erne i doku­menterne samt dataene – og derved Face­books egne forskere)
  • Et opslag fra Mark Zucker­berg, hvor han (ikke over­rask­ende) fork­lar­er, at Face­book føler sig mis­forstået og gen­t­ager deres inter­esse i reg­u­ler­ing (som dog, siger kynikerne, for­mentlig vil gøre det sværere for konkur­renter og dermed gavne Face­book mest)
  • Et forsøg på en miskred­i­ter­ing af Frances Hau­gen (hun arbe­jd­ede der i min­dre end to år, havde intet medar­be­jder­ans­var og havde aldrig beslut­ningsmøder med den øver­ste Face­book-ledelse)

Som Casey New­ton skrev i forbindelse med miskred­i­terin­gen af Hau­gen:

"If there’s a point in there, I missed it."

Jeg er ikke i en posi­tion, hvor jeg kan råd­give Face­book, så det vil jeg lade være med.

Men det tyder på, at det er på tide, de lancer­er nogle reelle ini­tia­tiv­er omkring del­ing af og gen­nem­sigtighed i forbindelse med infor­ma­tion og data – inden de bliv­er tvunget til at gøre det.

Og så han­dler det også om, at dem, der til stadighed gør sig afhængig af Face­book og fodr­er plat­for­men (det gælder også medi­er) bør tænke sig om.

Men ja, det er let­tere sagt end gjort. Som Kaas og Ryg sang i 1963:

"Bare en gang til, så sker det aldrig, aldrig mer'

Bare to gange til, så sker det aldrig, aldrig mer'

Bare syv gange til, så sker det aldrig, aldrig mer'

Bare firs gange til, så sker det aldrig, aldrig mer'

Det lover vi hinan­den"

En ting er at sige noget. Noget andet er at gøre noget ved det. ◉

Giv dig selv en fordel:
+ Tilmeld dig Ugerevyen