Modul în care Etica Squishy a Facebook i-a pus în probleme

Ah, cât de repede oamenii se retrag atunci când sunt prinși făcând ceva puțin mai puțin transparent. Și poate ceva ceva ... șmecher, din punct de vedere etic.

Asta este ceea ce „științificul de date” de pe Facebook, Adam D.I. Kramer făcea duminică, când a postat o actualizare a stării pe propria sa pagină de Facebook, încercând să explice de ce Facebook a făcut un experiment prost și a manipulat - mai mult decât de obicei - ceea ce oamenii au văzut în fluxul lor de știri.

Pentru umor de marți-dimineață, să aruncăm o privire la ceea ce a spus Kramer duminică, față de ceea ce a scris în studiu.

Să începem cu examinarea motivației proclamate pentru studiu, dezvăluită acum de Kramer:

Am considerat că este important să investigăm îngrijorarea obișnuită conform căreia privirea prietenilor postează conținut pozitiv îi face pe oameni să se simtă negativi sau să fie excluși. În același timp, am fost îngrijorați de faptul că expunerea la negativitatea prietenilor ar putea determina oamenii să evite să viziteze Facebook

În ce scop? Ați manipula și mai mult fluxul de știri, făcând să pară că viața tuturor a fost o vișină pe partea de sus a unei înghețate și ați reduce conținutul negativ?

Nu are prea mult sens că unei companii cu scop lucrativ i-ar păsa de acest lucru, cu excepția cazului în care ar putea avea un rezultat concret. Și orice rezultat acționabil din acest studiu ar face ca Facebook să pară chiar mai puțin conectat la lumea reală decât este astăzi.2

În studiu (Kramer și colab., 2014), cercetătorii au afirmat că experimentul lor a fost amplu și manipulator:

Arătăm, printr-un experiment masiv (N = 689.003) pe Facebook ...

Experimentul a manipulat măsura în care oamenii (N = 689.003) au fost expuși la expresii emoționale în fluxul lor de știri. […] Au fost efectuate două experimente paralele pentru emoția pozitivă și negativă: unul în care expunerea la conținutul emoțional pozitiv al prietenilor în fluxul lor de știri a fost redus și unul în care expunerea la conținutul emoțional negativ în fluxul de știri a fost
redus.

În aceste condiții, atunci când o persoană și-a încărcat fluxul de știri, postări care conțineau conținut emoțional al valenței emoționale relevante, fiecare postare emoțională avea între 10% și
90% șanse (bazate pe ID-ul lor de utilizator) de a fi omise din fluxul de știri pentru vizionarea respectivă.

Dacă ați făcut parte din experiment, postările cu un cuvânt de conținut emoțional au avut până la 90% șanse de a fi omise din fluxul dvs. de știri. În cărțile mele și ale celor mai mulți oameni, asta este destul de manipulator.

Uită-te acum cum Kramer (aka Danger Muffin) minimizează impactul experimentului în explicația postată pe Facebook:

În ceea ce privește metodologia, cercetarea noastră a încercat să investigheze afirmația de mai sus, deprioritizând foarte puțin un procent mic de conținut din News Feed (în funcție de existența unui cuvânt emoțional în postare) pentru un grup de persoane (aproximativ 0,04% din utilizatori sau 1 în 2500) ...

Ah, trecem de la „până la o șansă de 90%” la „deprioritizarea minimă a unui procent mic de conținut”. Nu este uimitor cât de creativ se poate caracteriza exact același studiu în două moduri aproape contradictorii?

A fost semnificativ sau nu?

Studiul în sine face multiple afirmații și concluzii cu privire la semnificația și impactul descoperirilor lor (în ciuda dimensiunilor lor de efect ridicol de mici). Într-un fel, toate aceste afirmații obositoare și excesive au trecut de revizuitorii jurnalului PNAS (care trebuie să fi dormit când au ștampilat această hârtie) și au fost lăsați să stea fără calificare.

În explicația lui Kramer postată duminică, el sugerează că datele lor nu au găsit cu adevărat nimic despre care oamenii ar trebui să fie îngrijorați:

Și la sfârșitul zilei, impactul real asupra persoanelor din experiment a fost cantitatea minimă pentru a-l detecta statistic ... 3

Ceea ce contrazice direct afirmațiile făcute în studiul însuși:

Aceste rezultate sugerează că emoțiile exprimate de prieteni, prin intermediul rețelelor sociale online, ne influențează propriile stări, constituind, după cunoștințele noastre, prima dovadă experimentală a contagiunii emoționale la scară masivă prin intermediul rețelelor sociale [...]

Mesajele online influențează experiența noastră de emoții, care pot afecta o varietate de comportamente offline.

Uită-te acolo - nu există calificative pentru acele afirmații. Nici o zicală: „Oh, dar acest lucru nu ar afecta cu adevărat emoțiile individului”. Nu, în opinia mea, o contradicție completă față de ceea ce susține acum unul dintre cercetători.

Dar a fost etic?

O mulțime de controverse au înconjurat dacă acest tip de adiţional manipularea fluxului dvs. de știri în Facebook este etică și dacă este în regulă să încorporați un formular de consimțământ global de cercetare în acordul privind termenii și condițiile unui site web. (Facebook manipulează deja ceea ce vedeți în fluxul dvs. de știri prin intermediul algoritmului său.)

În primul rând, să scoatem argumentul „heringului roșu” din modul în care această cercetare nu este aceeași cu cea a companiilor de cercetare interne pentru testul de utilizare sau de proiectare. Acest tip de cercetare nu este niciodată publicat și niciodată făcut pentru a examina ipotezele științifice despre comportamentul uman emoțional. Este ca și cum ai compara merele cu portocalele pentru a sugera că acestea sunt același lucru.

Cercetările pe subiecți umani trebuie, în general, să fie semnate de un terț independent numit comitet de revizuire instituțională (IRB). Acestea sunt de obicei găzduite la universități și analizează toate cercetările efectuate de cercetătorii proprii ai universității pentru a se asigura că nu încalcă lucruri precum legea, drepturile omului sau demnitatea umană. Companiile cu scop lucrativ precum Facebook nu au, în general, un echivalent IRB exact. Dacă un studiu pe subiecte umane nu a fost revizuit de către un IRB, dacă acesta a fost etic sau moral rămâne o întrebare deschisă.

Iată apărarea „omului de știință a datelor” 4 Kramer cu privire la proiectarea cercetării, așa cum sa menționat în studiu:

[Datele au fost prelucrate într-un fel] astfel încât cercetătorii nu au văzut text. Ca atare, a fost în concordanță cu Politica de utilizare a datelor Facebook, la care toți utilizatorii sunt de acord înainte de a crea un cont pe Facebook, constituind consimțământul informat pentru această cercetare.

Cu toate acestea, Kashmir Hill sugerează că politica de utilizare a datelor Facebook a fost modificată la 4 luni după efectuarea studiului pentru a permite în mod explicit utilizarea „cercetării” datelor Facebook.

De asemenea, păreau să fi obosit să obțină aprobarea IRB a unei universități pentru studiu. Hill a raportat mai devreme că IRB-ul lui Cornell nu a analizat studiul.5 Niciunul dintre cercetători nu a făcut un pas înainte pentru a explica de ce aparent i-au spus editorului PNAS că îl conduceau de către IRB-ul unei universități.

Chris Chambers din Marea Britanie Guadian oferă acest rezumat al situației triste:

Această situație este, sincer, ridicolă. În ce versiune a anului 2014 este acceptabil ca jurnalele, universitățile și oamenii de știință să ofere cuvinte nevăstuică și ofuscare ca răspuns la întrebări simple despre etica cercetării? Cum este acceptabil ca un comitet de etică să decidă că aceiași autori care au asistat Facebook în proiectarea unui studiu intervențional pentru a schimba starea emoțională a mai mult de 600.000 de oameni, „nu s-au angajat direct în cercetarea umană”?

Gheață pe tort: ​​non-scuze

Kramer nu și-a cerut scuze pentru efectuarea cercetării fără acordul informat al utilizatorului. În schimb, și-a cerut scuze felul în care a scris cercetarea:

Înțeleg de ce unii oameni sunt preocupați de acest lucru, iar eu și coautorii mei ne pare foarte rău pentru modul în care lucrarea a descris cercetarea și orice anxietate pe care a provocat-o.

Oamenii nu sunt supărați că ați făcut cercetarea, sunt supărați că ați făcut cercetarea asupra lor fără știrea sau consimțământul lor. Și îmi pare rău Facebook, dar îngroparea „consimțământului” în mii de cuvinte de mumbo-jumbo legal te poate proteja legal, dar nu te protejează de bunul simț. Sau reacțiile oamenilor atunci când află că le-ați folosit ca cobai.

Oamenii își doresc pur și simplu un mod semnificativ de a renunța la efectuarea experimentelor dvs. asupra lor și a fluxului de știri fără știrea sau consimțământul lor.

Facebook nu oferă acest lucru astăzi. Dar bănuiesc că, dacă Facebook vrea să continue cercetări de această natură, vor oferi în curând această opțiune utilizatorilor săi.

Un studiu de caz de etică pentru toate timpurile

Această situație este un exemplu perfect al modului în care nu puteți efectua cercetări cu privire la datele utilizatorilor dvs. fără acordul explicit al acestora. Va fi predat la cursurile de etică pentru anii - și poate deceniile viitoare.

De asemenea, va acționa ca un studiu de caz despre ceea ce nu trebuie făcut ca rețea socială dacă doriți să rămâneți de încredere de către utilizatorii dvs.

Facebook ar trebui să ofere tuturor utilizatorilor scuze autentice pentru efectuarea acestui tip de cercetare fără cunoștințele și permisiunea lor explicită. De asemenea, aceștia ar trebui să își schimbe cerințele de cercetare internă, astfel încât toate studiile efectuate pe utilizatorii lor să treacă printr-un IRB extern, bazat pe universități.

Lecturi suplimentare

Fiasco pe Facebook: a fost studiul lui Cornell despre „contagiunea emoțională” o încălcare a eticii?

Facebook a adăugat „Cercetare” la acordul utilizatorului la 4 luni după studiul de manipulare a emoțiilor

Referinţă

Kramer, ADI, Guillory, JE, Hancock, JT. (2014). Dovezi experimentale de contagiune emoțională la scară masivă prin rețelele sociale. PNAS. www.pnas.org/cgi/doi/10.1073/pnas.1320040111

Note de subsol:

  1. Ceea ce ne-au spus deja în studiu: „Un test pentru a vedea dacă postările cu conținut emoțional sunt mai atractive”. [↩]
  2. Facebook pare mai puțin legat de viața mea reală, având în vedere că propriul meu feed de știri pare să fi trecut în mare parte de la postări despre viața oamenilor la „linkuri pe care le consider interesante” - chiar dacă nu dau clic niciodată pe aceste linkuri! [↩]
  3. Ceea ce este un mod de a spune „cercetătorul nostru”, „Experimentul nostru nu a găsit cu adevărat nicio dimensiune de efect demn de remarcat. Dar vom trâmbița rezultatele ca și cum am fi făcut-o (de vreme ce am găsit de fapt un jurnal, PNAS, suficient de fraier pentru a-l publica!). " [↩]
  4. Folosesc ghilimele în jurul acestui titlu, deoarece toți cercetătorii și oamenii de știință sunt oameni de știință de date - asta diferențiază un cercetător de un povestitor. [↩]
  5. De fapt, observă că Hancock, un autor numit pe hârtie, a avut acces doar la rezultate - nici măcar la datele reale! [↩]

!-- GDPR -->