YouTube își prezintă abordarea cu privire la dezinformarea poliției și provocările în acțiunea eficientă
Publicat: 2022-04-08Dezbaterea privind dezinformarea pe platformele sociale și modul în care ar trebui să fie controlată este incredibil de complexă, fără soluții generale. Eliminarea rapoartelor în mod clar false pare a fi pasul cel mai logic și eficient - dar acesta nu este întotdeauna atât de clar, iar înclinarea prea departe în sens invers și eliminarea prea multor pot limita libertatea de exprimare și dezbaterea valoroasă.
Oricare abordare are pericole, iar astăzi, directorul de produs al YouTube, Neal Mohan, și-a oferit perspectiva asupra problemei și a modului în care YouTube încearcă să echilibreze abordarea dezinformarii cu nevoia de a facilita o platformă deschisă pentru toți utilizatorii.
În primul rând, abordând în mod specific dezinformarea medicală, subiectul cheie al momentului, Mohan observă că YouTube a eliminat peste un milion de videoclipuri legate de informații despre coronavirus din februarie 2020, inclusiv cele care promovează remedii false sau pretinde că pandemia este o farsă.
„În mijlocul unei pandemii globale, toată lumea ar trebui să fie înarmată cu absolut cele mai bune informații disponibile pentru a se menține în siguranță pe ei înșiși și pe familiile lor.”
Acestea fiind spuse, YouTube a facilitat răspândirea unei cantități semnificative de dezinformare COVID. În luna mai trecută, de exemplu, un video controversat anti-vax numit „Plandemic” a fost vizionat de peste 7 milioane de ori pe YouTube înainte de a fi eliminat.
Provocarea pentru YouTube în acest sens, așa cum este și pentru Facebook, este de amploare - cu atât de mulți oameni activi pe platformă, tot timpul, este dificil pentru YouTube să acționeze suficient de rapid pentru a surprinde totul în timp util și chiar și un o mică întârziere a aplicării poate duce la milioane de vizualizări suplimentare și un impact mult mai mare.
În acest sens, Mohan observă că dintre cele 10 milioane de videoclipuri pe care platforma le elimină pentru încălcarea Ghidului în fiecare trimestru, majoritatea nici măcar nu ating 10 vizionări. Dar din nou, acestea sunt medii și vor exista cazuri precum „Plandemic” care se strecoară printre crăpături, lucru pe care Mohan recunoaște și el.
„Eliminările rapide vor fi întotdeauna importante, dar știm că nu sunt aproape suficiente. În schimb, modul în care tratăm tot conținutul pe care îl lăsăm pe YouTube ne oferă cea mai bună cale de urmat.”
În acest sens, Mohan spune că un alt element al abordării YouTube este acela de a se asigura că informațiile din surse de încredere au prioritate în elementele de căutare și descoperire ale aplicației, în timp ce, ulterior, încearcă să reducă acoperirea furnizorilor mai puțin reputați.
„Când oamenii caută acum știri sau informații, obțin rezultate optimizate pentru calitate, nu pentru cât de senzațional ar putea fi conținutul.”
Care este calea corectă de urmat - optimizarea pentru implicare pare o cale către pericol în acest sens. Dar, din nou, peisajul media modern poate, de asemenea, întuneca acest lucru, publicațiile fiind în mod esențial stimulate să publice conținut mai dezbinat, încărcat de emoții, pentru a genera mai multe clicuri.
Am văzut acest lucru la începutul săptămânii, când datele Facebook au dezvăluit că această postare, de la Chicago Tribune, a adunat 54 de milioane de vizualizări numai din implicarea Facebook în primul trimestru al acestui an.

Titlul este înșelător - în cele din urmă s-a descoperit că medicul a murit din cauze care nu au legătură cu vaccinul. Dar vă puteți imagina cum ar fi alimentat acest lucru grupurile anti-vax din rețeaua de socializare - iar unii, ca răspuns, au spus că vina în acest caz nu au fost sistemele Facebook, care au facilitat amplificarea postării, ci Chicago Tribune în sine. pentru publicarea unui titlu clar înșelător.

Ceea ce este adevărat, dar, în același timp, toate publicațiile știu ce motivează implicarea Facebook - și acest caz o demonstrează. Dacă doriți să maximizați acoperirea Facebook și traficul de recomandare, titlurile emoționale și divizoare care provoacă implicarea, sub formă de aprecieri, distribuiri și comentarii, funcționează cel mai bine. Tribune a obținut 54 de milioane de vizualizări dintr-un singur articol, care subliniază o defecțiune majoră în sistemul de stimulente pentru instituțiile media.
De asemenea, evidențiază faptul că chiar și punctele de vânzare „reputabile” pot publica informații greșite și conținut care alimentează mișcări periculoase - așa că, chiar dacă YouTube se concentrează pe partajarea conținutului din surse de încredere, aceasta nu va fi întotdeauna o soluție la astfel de probleme, ca atare.
Ceea ce Mohan notează în continuare:
„În multe cazuri, dezinformarea nu este clară. Prin natură, evoluează în mod constant și, adesea, nu are o sursă primară care să ne spună exact cine are dreptate. La fel ca în urma unui atac, informațiile contradictorii pot veni din toate direcțiile diferite. Sfaturi crowdsourced au identificat chiar vinovatul sau victimele greșite, cu un efect devastator. În absența certitudinii, companiile de tehnologie ar trebui să decidă când și unde să stabilească limite pe teritoriul tulbure al dezinformării? Convingerea mea puternică este nu."
Puteți vedea, așadar, de ce Mohan ezită să insiste pentru mai multe eliminări, o soluție adesea presată de analiștii externi, în timp ce Mohan subliniază, de asemenea, interferența tot mai mare a regimurilor opresive care încearcă să înlăture opiniile opuse prin cenzura discuțiilor online.
„Observam un nou impuls tulburător în jurul guvernelor care ordonă eliminarea conținutului în scopuri politice. Și personal cred că ne este mai bine ca societate când putem avea o dezbatere deschisă. Informațiile greșite ale unei persoane sunt adesea credința profundă a altei persoane, inclusiv perspective care sunt provocatoare, potențial ofensatoare sau chiar, în unele cazuri, includ informații care ar putea să nu treacă de controlul unui verificator de fapte.”
Din nou, răspunsurile nu sunt clare, iar pentru platformele cu acoperire YouTube sau Facebook, acesta este un element semnificativ care necesită investigații și acțiuni acolo unde este posibil.
Dar nu va rezolva totul. Uneori, YouTube va lăsa lucruri care ar trebui eliminate, ceea ce duce la mai multe probleme potențiale de expunere și amplificare, în timp ce alteori va elimina conținut despre care mulți cred că ar fi trebuit lăsat. Mohan nu neagă acest lucru și nici nu se sustrage de responsabilitatea pentru acest lucru și este interesant de remarcat nuanța luată în considerare în această dezbatere atunci când încearcă să determine cea mai bună cale de urmat.
Există cazuri în care lucrurile sunt clare - sub sfatul organismelor medicale oficiale, de exemplu, dezinformarea COVID-19 ar trebui eliminată. Dar nu așa funcționează întotdeauna. De fapt, mai des decât se remarcă, apelurile de judecată sunt făcute pe platformă cu platformă, când probabil că nu ar trebui să fie. Soluția optimă, prin urmare, ar putea fi un grup de supraveghere mai larg, independent, care face apeluri în timp real și ghidează fiecare platformă în abordarea sa.
Dar chiar și asta ar putea fi supus abuzului.
După cum am menționat, nu există răspunsuri simple, dar este interesant să vedem perspectiva YouTube asupra dezbaterii în evoluție.
