سيكون العثور على إجابات للمشكلات التي تم تحديدها في أحدث تسريبات Facebook عملية معقدة
نشرت: 2022-04-08إذن ما الذي تعلمناه من الكشف الأخير عن وثائق وأبحاث Facebook الداخلية؟
حسنًا ، ليس كثيرًا ، حقًا. أصدر المهندس السابق في Facebook Frances Haugen مجموعة أولية من التقارير الداخلية من الشبكة الاجتماعية الشهر الماضي ، والتي حددت مخاوف مختلفة ، بما في ذلك نضالاتها في التعامل مع المحتوى المضاد للقاحات ، والآثار الضارة لتغييرات الخوارزمية ، والآثار السلبية للصحة العقلية على Instagram. في سن المراهقة.
أصدر Haugen مجموعة أخرى من التقارير هذا الأسبوع ، من خلال جهد منسق مع العديد من المنشورات الرئيسية ، والتي توسع في هذه المطالبات الأولية ، وتضيف المزيد من التفاصيل حول مختلف الجوانب. وكل هذا مثير للاهتمام ، بلا شك ، كل ذلك يسلط الضوء على ما يعرفه Facebook عن أنظمته وكيف يمكنهم زرع الانقسام والقلق ، وتأثيراتها المجتمعية الأوسع. لكن الكشف ، أيضًا ، يؤكد إلى حد كبير ما كنا نعرفه بالفعل أو نشتبه فيه. أدى افتقار Facebook إلى دعم اللغة المحلية إلى زيادة الضرر في بعض المناطق ، واستخدام شبكته في الأنشطة الإجرامية ، بما في ذلك الاتجار بالبشر ، وأن Facebook ربما أعطى الأولوية للنمو على السلامة في بعض عمليات صنع القرار.
كان كل هذا معروفًا إلى حد كبير ، لكن حقيقة أن Facebook يعرف أيضًا ، وأن بحثه الخاص يؤكد ذلك ، أمر مهم ، وسيؤدي إلى مجموعة جديدة كاملة من الإجراءات المتخذة ضد الشبكة الاجتماعية ، في أشكال مختلفة.
ولكن هناك بعض الملاحظات القيمة الأخرى التي لم نكن على علم بها والتي تم إخفاؤها بين آلاف الصفحات من رؤى البحث الداخلي.
أحد العناصر الرئيسية ، الذي أبرزه الصحفي Alex Kantrowitz ، يتعلق بخوارزمية News Feed المثيرة للجدل على وجه التحديد ، وكيف عمل Facebook على موازنة المخاوف مع تضخيم المحتوى من خلال تجارب مختلفة.
الحل الرئيسي الذي دفعته Haugen في خطابها الأولي إلى الكونغرس حول تسريب ملفات Facebook هو أنه يجب إجبار الشبكات الاجتماعية على التوقف عن استخدام الخوارزميات القائمة على المشاركة تمامًا ، من خلال إصلاحات لقوانين القسم 230 ، والتي ، من وجهة نظر Haugen ، ستغير الحوافز للمشاركة في النظام الأساسي الاجتماعي ، وتقليل الأضرار التي تسببها أنظمتهم.
كما أوضح Haugen :
"إذا كان لدينا إشراف مناسب ، أو إذا قمنا بإصلاح [القسم] 230 لجعل Facebook مسؤولاً عن عواقب قرارات التصنيف المتعمدة ، أعتقد أنهم سيتخلصون من التصنيف المستند إلى المشاركة."
لكن هل سينجح ذلك؟
كما ذكرت Kantrowitz ، أجرى Facebook بالفعل تجربة لمعرفة:
"في فبراير 2018 ، قام باحث على Facebook بإغلاق خوارزمية ترتيب News Feed لـ 0.05٪ من مستخدمي Facebook. "ماذا يحدث إذا قمنا بحذف موجز الأخبار المصنف؟" سألوا في تقرير داخلي يلخص التجربة. النتائج التي توصلوا إليها: بدون خوارزمية موجز الأخبار ، تنخفض المشاركة على Facebook بشكل ملحوظ ، ويخفي الأشخاص المزيد من المنشورات بنسبة 50٪ ، ويرتفع المحتوى من مجموعات Facebook إلى الأعلى ، و- بشكل مفاجئ- يحقق Facebook المزيد من الأموال من المستخدمين الذين يتصفحون موجز الأخبار."

أظهرت التجربة أنه بدون الخوارزمية لترتيب المحتوى بناءً على عوامل مختلفة مختلفة ، أمضى المستخدمون وقتًا أطول في التمرير للعثور على المنشورات ذات الصلة ، وتعريضهم لمزيد من الإعلانات ، بينما انتهى بهم الأمر بإخفاء الكثير من المحتوى - والذي ، عندما تنظر إلى الخلاصة الزمنية ، لا تتمتع بفائدة مستمرة تتمثل في تقليل احتمالية رؤية المزيد منها في المستقبل. ارتفع محتوى المجموعات لأن المستخدمين أكثر تفاعلاً في المجموعات (على سبيل المثال ، في كل مرة ينشر فيها شخص ما تحديثًا في مجموعة أنت عضو فيها ، يمكن أن يظهر لك ذلك في خلاصتك) ، بينما يؤدي عدد أكبر بكثير من تعليقات أصدقائك وإعجاباتهم إلى مشاركات الصفحة التي تظهر في خلاصات المستخدم.
إذن فهو سلبي بشكل عام ، وليس الحل الذي روج له البعض. بالطبع ، جزء من هذا يعتمد أيضًا على السلوك المعتاد ، في ذلك ، في النهاية ، من المحتمل أن يتوقف المستخدمون عن متابعة صفحات معينة والأشخاص الذين ينشرون كثيرًا ، ويتركون مجموعات معينة لا يهتمون بها كثيرًا ، وهم " د تعلم طرق جديدة للتحكم في التغذية الخاصة بهم. لكن هذا يمثل الكثير من الجهد اليدوي من جانب مستخدمي Facebook ، وستتأثر مشاركة Facebook بسبب ذلك.
يمكنك أن ترى سبب تردد Facebook في اتخاذ هذا الخيار ، في حين أن الدليل هنا لا يشير بالضرورة إلى أن الخلاصة أقل إثارة للانقسام نتيجة لذلك. وهذا قبل أن تأخذ في الاعتبار أن المحتالين والصفحات سيتعلمون كيفية التلاعب بهذا النظام أيضًا.
إنها نظرة ثاقبة مثيرة للاهتمام حول عنصر رئيسي في النقاش الأوسع حول تأثير Facebook ، حيث يتم تحديد الخوارزمية غالبًا على أنها الشيء الأكثر سلبية ، من خلال التركيز على المحتوى الذي يثير المشاركة (أي الحجة) من أجل إبقاء الناس على المنصة لفترة اطول.
هل هذا صحيح؟ أعني ، من الواضح أن هناك حالة يجب إثباتها بأن أنظمة Facebook تعمل على تحسين المحتوى الذي من المحتمل أن ينشره المستخدمون ، وأفضل طريقة لتحفيز الاستجابة هي من خلال رد الفعل العاطفي ، حيث يكون الغضب والفرح أقوى الدوافع. يبدو من المحتمل ، إذن ، أن خوارزميات Facebook ، سواء عن قصد أو بغير قصد ، تقوم بتضخيم المنشورات الجدلية ، والتي يمكن أن تعزز الانقسام. لكن البديل قد لا يكون أفضل بكثير.
إذن ما هي أفضل طريقة للمضي قدمًا؟
هذا هو العنصر الأساسي الذي نحتاج إلى التركيز عليه الآن. بينما تسلط هذه الأفكار الداخلية مزيدًا من الضوء على ما يعرفه Facebook وتأثيراته الأوسع نطاقًا ، فمن المهم أيضًا التفكير في الخطوات التالية التي قد تكون ، وكيف يمكننا تنفيذ إجراءات وقائية أفضل لتحسين مشاركة وسائل التواصل الاجتماعي.
وهو ما يحاول Facebook القيام به - كما أشار مارك زوكربيرج الرئيس التنفيذي لشركة Facebook ردًا على التسريب الأولي لملفات Facebook.
" إذا أردنا تجاهل البحث ، فلماذا ننشئ برنامجًا بحثيًا رائدًا في الصناعة لفهم هذه القضايا المهمة في المقام الأول؟ إذا لم نهتم بمكافحة المحتوى الضار ، فلماذا إذن نوظف عددًا أكبر بكثير من الأشخاص المكرسين لهذا الغرض أكثر من أي شركة أخرى في مساحتنا - حتى الشركات الأكبر منا؟ "
من الواضح أن Facebook يبحث في هذه العناصر. ثم ينزل الاهتمام إلى حيث تكمن دوافعه حقًا ، ولكن أيضًا ، وفقًا لهذه التجربة ، ما الذي يمكن فعله لإصلاحه. نظرًا لأن إزالة Facebook تمامًا لن يحدث - فما هي الطرق التي يمكننا استخدامها لاستخدام هذه الأفكار لبناء منتدى عام أكثر أمانًا وانفتاحًا وأقل إثارة للانقسام؟
هذا سؤال أصعب بكثير للإجابة عليه ، وهو مصدر قلق أكثر انعكاسًا من الكثير من التقارير المغلوطة حول Facebook كونها الرجل السيئ.
