تمارس منصات التواصل الاجتماعي، مثل "جوجل"، و"فيس بوك" و"يوتيوب" و"تويتر" وغيرها السيطرة على المحتوى المكتوب والتعبير المرئي لمليارات المستخدمين حول العالم. وبينما كان الاعتقاد في البداية أن تلك المنصات هي أماكن للتبادل الحر للأفكار. لكن بمرور الوقت وتزايد شعبيتها زادت القيود المفروضة على ما يمكننا فعله أو قوله، بالإضافة إلى الضغط الواقع على هذه المنصات من قِبل جهات خارجية، وعلى هذا النحو، يجب أن ننظر إلى المنصات على أنها تعمل كـ "حكام جدد" للتعبير عبر الإنترنت.

في هذا السياق، تناقش جيليان سي يورك، وهي ناشطة ومؤلفة أمريكية في مجال حرية التعبير، في كتاب جديد لها كيفية قيام منصات التواصل الاجتماعي التي تم إنشاؤها في وادي السيليكون بولاية كاليفورنيا الأمريكية بإنشاء نظام يحكم كيفية تعبير الناس عن أنفسهم عبر الإنترنت، وهي عملية يحكمها نظام أشمل يسمى "رأسمالية المراقبة"، وهو مصطلح يستخدم لوصف عملية شاملة من المراقبة والتحكم في السلوك البشري بهدف الربح.

رقابة مسيسة:

تشير الكاتبة إلى أن الفكرة السائدة بين المدافعين عن الحريات المدنية تركزت على أنه يجب أن تسعى شركات التواصل الاجتماعي للحد من الرقابة من خلال الاستجابة فقط لأوامر المحكمة من البلدان التي تملك فيها مكاتب أو موظفين أو أصول رئيسية أخرى، خشية أن تصبح من أدوات الرقابة الحكومية، لكن بمرور الوقت، أصبح من الواضح أنه بالإضافة إلى الطلبات الرسمية التي تتلقاها الشركات لإزالة المحتوى أو تقييده، فهناك العديد من الطرق التي تتعامل بها الحكومات مع الشركات بشكل غير رسمي.

وتستدل الكاتبة على ذلك بإحدى سياسات "فيس بوك"، والتي أُطلق عليها اسم "الإعفاء لأهمية نشر الأخبار"، إذ تعرضت تلك السياسة إلى انتقادات من النشطاء الذين يعتقدون أنها تفضل خطاب السياسيين على خطابهم، حيث تسمح للمشاركات التي تنتهك معايير المجتمع بالبقاء على المنصة إذا اعتقدت الشركة أن مصلحة الجمهور في رؤيتها تفوق مخاطر الضرر، كما تم اتهام موقع "تويتر" باتخاذ إجراءات مماثلة بمواصلة نشر خطاب الكراهية من قبل الرئيس الأمريكي السابق دونالد ترامب، برغم أنه ينتهك قواعد الموقع.

وأكدت يورك في معرض انتقادها منصات التواصل الاجتماعي أنه عندما يُعتبر خطاب المواطن أقل قيمة من خطاب السياسي، وعندما يتم إسكات الناشط من قبل سلطات الدولة أو شركات التواصل الاجتماعي، فإن ذلك يشير إلى أشكال القمع الإلكتروني عبر الإنترنت.

الأولوية للربح:

أشارت الكاتبة إلى أن المتابع لتصريحات مؤسس "فيس بوك" مارك زوكربيرج يلاحظ أنه يرى منصته مجرد وسيلة، بينما تأمين حرية التعبير أمر تقرره الحكومات وشعوبها، وفي هذا الإطار، عندما تأمر حكومة أجنبية "فيس بوك" بإزالة محتوى ما، فإن الشركة تتبع الأوامر فقط، لأن زوكربيرج ببساطة لا يرى أن حماية الناس وآرائهم هي مسؤولية "فيس بوك".

الملحوظ هنا أن بعض منصات التواصل الاجتماعي تعتمد في وضع سياساتها واتخاذ قراراتها على أبحاث السوق، وهذا أمر مقلق – بحسب الكاتبة - لأن غالبية أبحاث السوق تُجرى في عدد قليل فقط من الدول التي عادة ما تكون أكثر ثراءً وأكثر تحفظاً، وهو ما يشير إلى اختيار هذه الشركات خدمة المستخدمين الأكثر ثراءً، على حساب حق الآخرين في حرية التعبير والوصول إلى المعلومات.

وترى الكاتبة أن شركات التواصل الاجتماعي ابتعدت كثيراً عن مهامها الأصلية، فقد ملأ المسؤولون فيها جيوبهم بالدخل المتولد من المعلنين الذين يستغلون المواطنين في جميع أنحاء العالم، وأصبحوا أكثر تقرباً من السلطة.

المحتوى العنيف:

يسعى الإرهابيون إلى الترويج لأيديولوجياتهم في أوساط الناس، لأن هجماتهم تفتقر إلى المعنى بدون ذلك، وببساطة توفر وسائل التواصل الاجتماعي لأي إرهابي منصته المجانية، مع ذلك فإن الرقابة أحياناً قد لا تكون حلاً فعالاً. هنا، أوردت الكاتبة مثالاً يبرز إحدى المشكلات الأساسية في كيفية تعامل صانعي السياسة في منصات التواصل الاجتماعي مع المحتوى العنيف والمتطرف، فعندما بدأت مقاطع فيديو قطع تنظيم "داعش" للرؤوس بالظهور من سوريا في عام 2011، لضحايا مجهولي الهوية اعتُبر إبقاؤها منشورة "ذا قيمة إخبارية"، لكن عندما تم بث مقتل الصحفي الأمريكي جيمس فولي إلى العالم بالطريقة نفسها تغيرت تلك الحسابات وتمت المسارعة إلى حذف المقطع.

 مع تزايد مطالب الجمهور ووسائل الإعلام بفعل شيء ما حيال ما يبثه تنظيم "داعش"، اتخذ "فيس بوك" زمام المبادرة. ففي يونيو 2017، أعلنت الشركة أنها بصدد إدخال الذكاء الاصطناعي للمساعدة في إزالة المحتوى المتطرف، وبالتالي بدأ محو مئات الآلاف من مقاطع الفيديو التي تتضمن مثل هذا المحتوى، وبعد بضعة أشهر فقط من بدء الشركات في استخدام الذكاء الاصطناعي تم اتهام «فيس بوك» و«يوتيوب» بإزالة الأدلة على ارتكاب الفظائع، وتعريض القضايا المرفوعة ضد مجرمي الحرب للخطر.

معضلة الإباحية:

ألقت الكاتبة الضوء على الإشكالية التي تواجه منصات التواصل الاجتماعي في التمييز بين المحتوى الذي يتناول العُري والجنس في الفن، من ناحية، والمحتوى الإباحي من ناحية أخرى، إذ أظهرت مجموعة من الوثائق المسربة بشأن سياسات موقع «فيس بوك» أنه حاول وضع سياسة متماسكة في هذا الصدد، فقد تم التمييز بين "الفن الذي ينتج يدوياً" مثل، الصور المرسومة والتماثيل، ويُسمح فيه بتصوير العُرى، و"الفن الذي ينتج رقمياً" باستخدام الوسائل الحديثة، وتفرض عليه قيود أكبر.

وعلى الرغم من أن عدداً قليلاً من منصات التواصل الاجتماعي اختار السماح بنشر المحتوى الإباحي، فقد اختار البعض الآخر، لا سيما «فيس بوك» و«يوتيوب»، حظر هذا المحتوى الصريح منذ البداية، وسعت هذه الشركات سريعاً إلى إيجاد حلول لضمان عدم إغراق منصاتها بالمواد الإباحية، خشية أن تصبح غير مرغوب فيها بالنسبة للمعلنين.

ولم تكن محاربة الإباحية أمراً سهلاً، فبغض النظر عن مقدار استثمارات الشركات في مراقبة المحتوى، وجد ناشرو المواد الإباحية طريقة لعرضها على منصات التواصل، وفي النهاية، شددت معظم المنصات عمليات المراقبة، وانخفضت كمية المواد الإباحية، لكن أيضاً تم حظر الكثير من الأشياء الأخرى بالتبعية، مثل المحتوى المتعلق بمعلومات الصحة الجنسية، وذلك بسبب استخدام تقنيات ترشيح واسعة النطاق.

الآلات بدل البشر:

يتم استخدام المعالجة الآلية بشكلٍ متزايد لفرض سياسات المحتوى التي تحددها منصات التواصل الاجتماعي، لكن على الرغم من جميع التطورات التي تحققت في تطوير التقنيات الآلية، لا تزال خوارزميات التعلم الآلي الحالية تعاني بعض الإشكاليات في تحديد الفروق الدقيقة بين المفاهيم، كما أن خوارزميات التعلم الآلي تتعلم من مدخلات البيانات. بالتالي، فإن الذكاء الاصطناعي يعكس نظرة من قاموا بإنشائه، ولذلك يمكن أن يكون متحيزاً أو تمييزياً.

فيما يتعلق بمراقبة المحتوى المكتوب أو المسموع، فإن المشكلة الواضحة أن الشركات ببساطة لا تستثمر القدر نفسه من الموارد في اللغات غير الرئيسية، كما تفعل في اللغة الإنجليزية، والإسبانية، والفرنسية، وعدد قليل من اللغات الأخرى، وفي بعض الحالات، تفتقر تماماً إلى دعم لغات معينة، وهذا بالطبع له تأثير على كل من فاعلية المراقبة الآلية والبشرية.

إن الخوارزميات ببساطة لا يمكنها أن تتيح الاستغناء عن الخبرة البشرية، فبمجرد أن تخرج شركات التواصل الاجتماعي البشر من المعادلة وتترك زمام الأمور للآلات، فلا يمكن تصور نوعية المعايير الثقافية التي سيؤدي إلى انتشارها في المستقبل.

انتشار الكراهية:

بحلول عام 2017، استخدمت مواقع «فيس بوك» و«تويتر» و«يوتيوب» سياسات تحظر معظم أشكال خطاب الكراهية، وهي سياسات نادراً ما يتم تفسيرها أو تطبيقها بشكل متسق، فعلى سبيل المثال، في حين أن المحتوى الذي يدافع بشكل صارخ عن النازية ستتم إزالته بشكل شبه مؤكد إذا تم الإبلاغ عنه، فإن الخطاب المعادي للمسلمين قد لا يُعامل بالطريقة نفسها.

جدير بالملاحظة هنا، أنه بدلاً من معالجة مشكلة خطاب الكراهية بالدقة التي تتطلبها، لجأت معظم الشركات إلى أدوات المراقبة الآلية التي لا يمكنها التمييز بين الفروق الدقيقة التي تحدد خطاب الكراهية.

ولا تكمن مشكلة المنصات – وفقاً للكاتبة- في أنها تسمح لأي شخص أن يقول ما يشاء، ولكن في أنها مصممة لتحقيق الدخل والاستفادة من كل محتوى يحقق شعبية، حتى ولو كان يدعو إلى الإبادة الجماعية، وهو ما يفسر سبب تأخر شركات وسائل التواصل الاجتماعي في كثير من الأحيان عندما يتعلق الأمر بالتصرف بشأن خطاب التحريض والكراهية. لذلك، ترى الكاتبة أنه يجب معالجة دور المنصات في انتشار ظاهرة خطاب الكراهية، وفي الوقت ذاتها حل المشكلة من جذورها في المنازل وفي الفصول الدراسية، وفي أروقة السلطة.

متطلبات فورية:

أظهرت جائحة «كوفيد-19» أن شركات التواصل الاجتماعي أصبحت لديها الإرادة لفرض رقابة على أشكال معينة من التعبير، ولعل أفضل دليل على ذلك هو اختفاء مقطع فيديو يسمى "Plandemic" كان يروج للعديد من الادعاءات الكاذبة حول فيروس كورونا. فقد سارعت مواقع «يوتيوب» و«فيس بوك» و«تويتر» لحذف الفيديو، وهو ما اعتبره بعض المراقبين دليلاً على أن الشركات كانت قادرة على التعامل مع المحتوى الضار طوال الوقت. لكنها مع ذلك اختارت عدم القيام بذلك، حيث ركزت انتباهها على الأشياء التي أرادت الحكومات وغيرها من الكيانات القوية منهم أن يفرضوا الرقابة عليها.

 أشارت الكاتبة إلى أن هناك تغييرات يجب على شركات التواصل الاجتماعي إجراؤها على الفور، من أبرزها الافصاح والشفافية حول ما تخضعه للرقابة، وضمان حق كل مستخدم في الاعتراض على عمليات إزالة المحتوى، كما يجب على الشركات تزويد المستخدمين بمعلومات حول كيفية تغذية خوارزميات المحتوى الموصى به بالبيانات، والحصول على موافقة من المستخدم بشأن بياناته التي يتم استخدامها، ومنح المستخدمين المزيد من الخيارات حول ما يرونه خلال تصفحهم. كما ينبغي أيضاً أن تعمل فوراً على إشراك المجتمع المدني في صنع السياسات بشفافية، وإجراء تدقيق كامل لتقييم مدى توافق السياسات الحالية مع معايير حقوق الإنسان وإجراء التغييرات حيثما كان ذلك ضرورياً.

عرض محمود إبراهيم - مركز المستقبل للأبحاث والدراسات المتقدمة

الكاتب

مواضيع أخرى ربما تعجبكم

0 تعليقات

اترك تعليقاً

الحقول المطلوبة محددة (*).