فيسبوك يعلن عن قواعد جديدة للمجموعات لمعالجة المخاوف بالمعلومات المضللة وخطاب الكراهية
نشرت: 2021-03-02على مدار العامين الماضيين ، قام Facebook بدفعة منسقة على ميزة المجموعات الخاصة به كوسيلة لتعزيز المشاركة على النظام الأساسي والحفاظ على تسجيل دخول الأشخاص.
في المراسلات الرسمية للشركة حول هذا الموضوع ، كرر Facebook شعبية المجموعات - أكثر من 1.4 مليار مستخدم Facebook ينخرطون في مجموعات كل شهر ، وأكثر من 400 مليون شخص هم أعضاء في ما يسميه Facebook `` مجموعات ذات مغزى كبير '' ، أو مجموعات أصبحت الجزء المركزي من تجربتهم التفاعلية. من المحتمل أن تكون هذه الأرقام قد ارتفعت أكثر خلال عمليات الإغلاق COVID-19 - ولكن في الوقت نفسه ، هناك وجهة نظر أكثر تشككًا لمجموعات Facebook هي أنها تمكن النظام الأساسي من إخفاء بعض المناقشات الأكثر إثارة للجدل داخل التطبيق عن الرأي العام.
بالتأكيد ، قد تكون منزعجًا إذا رأيت منشورًا مضادًا للتطرف في خلاصتك الرئيسية - ولكن إذا نقل Facebook تلك المناقشة إلى مجموعة خاصة ، فلن تعرف حتى عنها ، ويمكن لهذا المستخدم بعد ذلك متابعة مناقشته ، وإعطاء Facebook هذا الارتباط الإضافي. بدلاً من إزالة بعض هذه المنشورات والمناقشات الأكثر إثارة للقلق ، يبدو أن دفع مجموعاتها كان أيضًا حول نقلها إلى مناطق أكثر خصوصية. وهو ما يعني بالطبع أن Facebook لا يزال يمكّنهم من الانتشار ، وقد تم تحديد النظام الأساسي ، في كثير من الحالات ، كميسر رئيسي في تنامي الحركات الهامشية ، والخطيرة في بعض الأحيان ، في العالم الحقيقي.
هذا هو المكان الذي تأتي فيه أحدث مراجعة على Facebook لقواعد المجموعة.
أعلن Facebook هذا الأسبوع عن مجموعة من اللوائح الجديدة للمجموعات ، والتي ستشهد تنفيذ عقوبات وقيود جديدة على من ينتهكون معايير المجتمع ، حتى في المجموعات الخاصة.
من بين الإجراءات المختلفة ، سيقوم Facebook بما يلي:
- قم بإزالة جميع المجموعات المتعلقة بالميليشيات والمنظمات الأناركية من التوصيات ، مع تقييدها أيضًا في البحث وتقليل محتواها في موجز الأخبار. كما نقوم بإزالة هذه المجموعات عندما يناقشون العنف المحتمل ، حتى لو كانوا يستخدمون لغة ورموز محجبة.
- توقف عن التوصية بالمجموعات ذات الصلة بالصحة للمستخدمين في أسطح الاكتشاف. سيظل المستخدمون قادرين على دعوة الأصدقاء إلى المجموعات الصحية ، بينما ستظل عمليات البحث المحددة تظهر مثل هذه المجموعات ، لكن Facebook لن يقوم بتضمينها في التوصيات العامة للمستخدمين.
- قلل التعرض لـ g roups التي تشارك بشكل متكرر محتوى تم تصنيفه على أنه خطأ من قِبل مدققي الحقائق ، وقم بإزالة المجموعات التي إما تستمر في انتهاك القواعد أو تشارك المحتوى الذي ينتهك معايير المجتمع الخاصة بها. يتم الآن إخطار مسؤولي المجموعة في كل مرة يتم فيها نشر جزء من المحتوى تم تصنيفه على أنه خطأ بواسطة مدققي الحقائق في مجموعتهم.
- قم بإيقاف مسؤولي ومشرفي المجموعات التي تم حذفها بسبب انتهاكات السياسة من إنشاء مجموعات جديدة لفترة من الوقت ، في حين أن الأعضاء الذين لديهم أي انتهاكات لمعايير المجتمع في مجموعة سيحتاجون الآن إلى الحصول على الموافقة على مشاركاتهم داخل تلك المجموعة للإجراء 30 يومًا.
هذه تدابير مهمة ، نظرًا للطريقة التي يمكن بها استخدام مجموعات Facebook لتضخيم العناصر المعنية.

في أبريل الماضي ، أظهر تقرير أن فيسبوك كان يستضيف آلاف المجموعات والصفحات ، بملايين الأعضاء والمتابعين ، التي تدعم نظرية QAnon المؤامرة. منذ ذلك الحين ، اتخذ Facebook إجراءات بشأن QAnon ، ومختلف المجموعات الأخرى ذات الصلة ، ولكن حقيقة أن هذه الشبكات كانت موجودة على المنصة على الإطلاق هي مصدر قلق كبير - وهذا مجرد مثال واحد على كيفية قيام Facebook بتسهيل انتشار الحركات المقلقة والمثيرة للانقسام من خلال تقدم مجموعاتها.
في مخاوف أخرى ملحوظة:
- يستضيف Facebook العديد من مجموعات إنكار تغير المناخ ، وقد طبق تفسيرات مختلفة على عملية التحقق من الحقائق الخاصة به ، حتى أنه استثنى بعض محتوى إنكار تغير المناخ من خلال وصفه بأنه "رأي".
- في وقت سابق من هذا العام ، تم العثور على مجموعات مختلفة على Facebook ، تضم ملايين الأعضاء ، لنشر نظريات مؤامرة COVID-19 ، مع مجموعة `` Stop 5G UK '' مجرد مثال واحد على أولئك الذين اكتسبوا قوة جذب كبيرة.
- كشف تحقيق أجرته شركة ProPublica العام الماضي عن مجموعات فيسبوك سرية مكونة من أعضاء فقط من عملاء حرس الحدود الحاليين والسابقين ، حيث سخروا من وفاة مهاجرين.
العديد من هذه الحالات لا ترى تغطية صحفية كبيرة ، لأن المناقشات تحدث داخل مجموعات خاصة ، لذلك قد لا يتم الإبلاغ عنها ، أو مشاهدتها من قبل المستخدمين العاديين ، مما يحد من إمكانية إنفاذها.
لكن Facebook يقول إنه يطبق معايير المجتمع الخاصة به على جميع المجموعات ، حتى المجموعات الخاصة:
" تنطبق معايير المجتمع الخاصة بنا على المجموعات العامة والخاصة ، وتعمل أدوات الكشف الاستباقية الخاصة بنا عبر كليهما. وهذا يعني أنه حتى إذا لم يبلغنا شخص ما عن مشكلة ، يمكن للذكاء الاصطناعي الخاص بنا اكتشاف المحتوى الذي يحتمل انتهاكه ويمكننا إزالته."
من الواضح أن الذكاء الاصطناعي ليس فعالًا دائمًا ، ولكن نأمل ، مع هذه الدفعة المتجددة ، يصعد Facebook من إجراءاته ضد هذا ، وسيعمل على إزالة المحتوى المخالف من أجل الحد من انتشاره.
بالإضافة إلى ذلك ، سيبدأ Facebook أيضًا في أرشفة المجموعات التي ليس لها مسؤول نشط ، مع مطالبة الأعضاء النشطين أيضًا بأن يصبحوا مديرين لتلك المجموعات التي غادرها المدير الأصلي.

"من الآن فصاعدًا ، عندما يختار مسؤول واحد متبقٍ التنحي ، يمكنه دعوة أعضاء ليصبحوا مسؤولين. إذا لم يقبل أي أعضاء مدعوين ، فسنقترح أدوار المسؤول على الأعضاء الذين قد يكونون مهتمين. وإذا لم يوافق أحد ، فسنقوم بأرشفة مجموعة."
بشكل أساسي ، يتحرك Facebook لضمان وجود شخص ما في مكانه لفرض قواعد المجموعة ، والتي يمكن أن تكون تدبيرًا آخر في تقليل الحالات التي تتعارض فيها تلك المجموعات مع إرشادات النظام الأساسي ، وربما تنشر معلومات مضللة وكراهية.
من الجيد أن ترى Facebook يتطلع إلى تكثيف إجراءاته في هذا الصدد ، ولكن كما هو موضح في هذه الأمثلة ، تظل مجموعات Facebook مشكلة ، ومن المحتمل أن تستمر لبعض الوقت. وهذا ، بالطبع ، يعود أيضًا إلى الطريقة التي يختار بها Facebook اتخاذ إجراء - نعم ، سوف يدفع بقوة أكبر ضد أولئك الذين ينتهكون قواعده ، لكن هذه القواعد غالبًا ما تسمح أيضًا بالكثير من الفسحة فيما يتعلق بما هو مقبول ، وما يراه Facebook كمعلومات مضللة في نهجها الخاص.
ماذا ستكون التأثيرات إذن ، سيخبرنا الوقت فقط.
