Surpriză: Facebook spune că Facebook A-Bine pentru Știri!

Un studiu a fost publicat săptămâna trecută în jurnal Ştiinţă asta arată că algoritmul Facebook nu este cauza unei „bule de filtrare” ipotetice - în care oamenii văd doar știri care se aliniază cu tendințele lor politice de pe o rețea socială.

Singura problema? Este un studiu pe Facebook realizat de oameni care sunt angajați de Facebook.

Ar trebui să fim cu adevărat atât de surprinși de faptul că proprii cercetători Facebook minimizează impactul manipulărilor companiei lor asupra fluxurilor de știri ale oamenilor?

Studiul, Expunerea la știri și opinii ideologice diverse pe Facebook, de Eytan Bakshy și colegii de pe Facebook a fost publicat săptămâna trecută în Ştiinţă. Cum ar putea fi publicat acest studiu în prestigioasa revistă Ştiinţă? 1 Nu se presupune că evaluarea inter pares atrage studii de auto-publicare publicate de companii care demonstrează doar ceea ce vrea compania să arate datele?

Trebuie să ne întrebăm cum au evaluat colegii acest studiu publicat. Multe critici ale studiului au fost deja publicate, așa că voi face doar un rezumat rapid al problemelor citate de alții. Această critică a lui Christian Sandvig rezumă destul de mult problema legată de modul în care cercetătorii Facebook și-au făcut propriile descoperiri în studiul publicat:

În ceea ce privește comparațiile, studiul continuă spunând că:

„Stabilim în mod concludent că ... alegerile individuale mai mult decât algoritmii limitează expunerea la conținut care provoacă atitudine.”

„Comparativ cu clasarea algoritmică, alegerile indivizilor cu privire la ce să consume au avut un efect mai puternic”

Clopotele de alarmă sună pentru mine. Industria tutunului ar fi putut finanța odată un studiu care spune că fumatul este mai puțin periculos decât extracția cărbunelui, dar aici avem un studiu despre fumatul minerilor de cărbune. Probabil în timp ce se află în mina de cărbune.

Ceea ce vreau să spun este că nu există niciun scenariu în care „alegerile utilizatorilor” vs. „algoritmul” să poată fi schimbate, deoarece acestea se întâmplă împreună [...]. Utilizatorii selectează din ceea ce algoritmul a filtrat deja pentru ei. Este o secvență.

Cred că afirmația corectă despre aceste două lucruri este că ambele sunt rele - ambele cresc polarizarea și selectivitatea. După cum am spus mai sus, algoritmul pare să crească modest selectivitatea utilizatorilor.

Într-adevăr, ați crede că cercetătorii Facebook care, știți, lucrează la Facebook, ar înțelege că nu puteți deranja și separa algoritmul de comportamentul utilizatorului, deoarece unul depinde de celălalt. Fără a manipula algoritmul (pe care Adam Kramer l-a descoperit pe Facebook nu este un lucru bun de făcut fără a obține în prealabil consimțământul informat al utilizatorului), nu puteți spune cu adevărat de ce utilizatorii fac clic pe un lucru mai mult decât pe altceva.

Dar această recenzie a studiului Facebook de la Zeynep Tufekci, profesor la Universitatea din Carolina de Nord, Chapel Hill, a scris că ceea ce datele studiului au găsit cu adevărat au fost îngropate în apendicele studiului:

Cu cât este mai mare link-ul, cu atât mai probabil (mult mai mult) va fi făcut clic pe el. Trăiți și muriți prin plasare, determinat de algoritmul de flux de știri. (Efectul, așa cum observă corect Sean J. Taylor, este o combinație de plasare și faptul că algoritmul ghicește ce ați dori).

Acest lucru era deja cunoscut, în mare parte, dar este minunat să fie confirmat de cercetătorii Facebook (studiul a fost creat exclusiv de angajații Facebook). [...]

O descoperire nouă este că algoritmul fluxurilor de știri (modest) suprimă conținut divers, iar o altă constatare crucială și, de asemenea, nouă este că plasarea în feed este (puternic) influențată de ratele de clic.

Facebook îți arată lucruri de știri pe care este mai probabil să le citești (pentru că este de acord cu punctul tău de vedere politic) și că, cu cât apare mai sus în fluxul tău de știri, cu atât este mai probabil să dai clic pe el.

Cu alte cuvinte, manipularea de către Facebook a fluxului dvs. de știri continuă să fie un factor important care contribuie la determinarea pe care probabil veți face clic. Și continuă să manipuleze acel feed pentru a vă arăta știrile aliniate politic mai mult decât dacă nu ar exista nicio părtinire în algoritmul lor.

Și, așa cum remarcă Tufekci, acesta a fost un grup mic, select de utilizatori Facebook studiați, doar pentru că cercetătorii Facebook le-au studiat mai convenabil (și mai ieftin). S-au uitat doar la utilizatorii care și-au identificat afilierea politică pe Facebook și se conectează regulat la serviciu (aproximativ 4% din totalul utilizatorilor Facebook [doar 9% dintre utilizatori își declară afilierea politică pe Facebook, ceea ce înseamnă că acesta nu este un eșantion pe care îl puteți generaliza orice din]). Nu spune nimic despre utilizatorii Facebook care nu își declară afilierea politică pe Facebook - ceea ce este majoritatea dintre noi.

Ar fi putut Facebook să efectueze un studiu mai robust? Sigur, dar ar fi necesitat tehnici de cercetare mai tradiționale, cum ar fi recrutarea sondajelor pe site combinată cu recrutarea randomizată a e-mailurilor în afara site-ului.

Așadar, iată constatarea nefiltrată, imparțială, din datele (prin amabilitatea lui Tufekci) pe care cercetătorii Facebook s-au învârtit aparent pentru a spune că ceea ce vedeți în fluxul lor de știri nu este vina lor:

Cercetătorii Facebook arată în mod concludent că algoritmul fluxurilor de știri Facebook scade conținutul ideologic divers și transversal pe care oamenii îl văd din rețelele de socializare de pe Facebook cu o sumă măsurabilă. Cercetătorii raportează că expunerea la conținut divers este suprimată de algoritmul Facebook cu 8% pentru liberalii auto-identificați și cu 5% pentru conservatorii auto-identificați.

Sau, așa cum spune Christian Sandvig, „algoritmul filtrează 1 din 20 de știri dure transversale pe care un conservator autoidentificat le vede (sau 5%) și 1 din 13 știri dure transversale pe care un liberal autoidentificat vede (8%). ” Vedeți mai puține știri cu care nu ați fi de acord și care sunt împărtășite de prietenii dvs., deoarece algoritmul nu vi le arată.

Din păcate, în afara New York Times și câteva alte puncte de vânzare selectate, majoritatea site-urilor mass-media de știri au raportat doar ceea ce cercetătorii Facebook au susținut în studiul lor, fără scepticism.

Dar acum știți adevărul - Facebook a studiat un eșantion mic, nereprezentativ, apoi a minimizat ceea ce au arătat datele lor pentru a sublinia un rezultat care a fost mai pozitiv față de companie. Pentru mine, acesta este un alt exemplu de cercetători pe Facebook care nu înțeleg cu adevărat scopul cercetării științifice - pentru a împărtăși cunoștințele cu lumea care nu este părtinitoare și manipulată.

Pentru lecturi suplimentare ...

Zeynep Tufekci: Cum algoritmul Facebook suprimă diversitatea conținutului (modest) și modul în care fluxul de știri vă reglementează clicurile

Christian Sandvig: Studiul Facebook „Nu este vina noastră”

NY Times: Facebook Folosiți polarizarea? Site-ul cere diferențe

Note de subsol:

  1. Din păcate, acum trebuie să adaug un alt jurnal la lista mea de publicații științifice respectate, care necesită un control mai aprofundat. După cum știu cititorii de multă vreme ai World of Psychology, această listă devine mai lungă în fiecare an: Pediatrie (Pediatria publică studii despre tehnologie care sunt aparent revizuite de nimeni familiarizat cu relațiile cauzale de cercetare de bază.), Ciberpsihologie, comportament și rețele sociale (Cyberpsychology publică aparent orice studiu despre dependența de Internet sau rețelele sociale, indiferent de calitatea acestuia.) Și acum, Ştiinţă. [↩]

!-- GDPR -->