FINANCIAL TIMES

حذف المحتوى السيئ في «الإنترنت» مثل ملاحقة قطعة صابون في حوض استحمام

كيف ينبغي لشركات التكنولوجيا التعامل مع المحتوى الخطير أو المليء بالكراهية؟ لو سألت معظم مستخدمي شبكة الإنترنت هذا السؤال، لأجاب كثير منهم بكلمة واحدة: "حذفه".
دائما ما نستخدم زر الحذف في أجهزتنا– وكذلك يفعل عمالقة شبكة الإنترنت.
خذ على سبيل المثال الطريقة التي سارع بها كل من "فيسبوك" و"تويتر" و"يوتيوب" أخيرا، لإزالة مقاطع فيديو الهجوم الإرهابي على المسلمين في مسجدي كرايستشرتش في نيوزيلندا.
أو كيف استعانت الشركات ذاتها بجيوش من الموظفين الذين يطلق عليهم اسم "منسقي المحتوى" لإزالة المواد المسيئة يوميا، يمكن القول إن هذه الوظيفة تعد من أكثر الوظائف الجديدة فظاعة في القرن الحادي والعشرين.
مع تكثيف هذا السباق للضغط على زر الحذف، هناك مشكلة: عادة ما يكون مصير ذلك الفشل. على الرغم من أن عمالقة التقنية وسط احتجاجات عامة، سارعوا إلى حذف لقطات كرايستشرش المرعبة من على شبكة الإنترنت، إلا أن هذه المواد استمرت في الظهور، لأن المستخدمين كانوا يعيدون نشرها باستمرار.
يشبه حذف المحتوى ملاحقة قطعة صابون في حوض استحمام؛ إذ تستمر بالانزلاق بعيدا عن اليد.
في الكواليس، مع تفاقم مشكلة خطاب الكراهية على شبكة الإنترنت، بدأ بعض التقنيين الإشارة إلى أنه بدلا من مجرد ضغط زر الحذف، فقد آن الأوان للتركيز على مجموعة تكتيكات أخرى تشمل التخفيض والتخفيف والتأخير والتحويل.
قد يبدو هذا غريبا، لكن الفكرة طرحت بشكل جيد قبل أسبوعين في مقالة قوية كتبها ناثانيل بيرسيلي، أستاذ القانون في جامعة ستانفورد، بوضع إطار لعمل لجنة كوفي عنان.
تهدف المبادرة، التي تم عقدها العام الماضي من قبل الأمين العام الأسبق للأمم المتحدة، إلى تقديم المشورة بشأن تنفيذ أفضل الممارسات، من أجل حماية الديمقراطية من الأخبار المزيفة والتطرف على شبكة الإنترنت وما شابه ذلك.
تبدأ مقالة بيرسلي بالإشارة إلى أنه في الأيام الأولى لشبكة الإنترنت، ادعى التقنيون في بعض الأحيان أن منصاتهم الإلكترونية هي بمنزلة "ساحة البلدة" - مكان يمكن للناس يجتمعون ويتحدثون فيه للمساهمة في تحقيق المصلحة العامة. هذه الصورة تبدو جذابة، إلا أنها خاطئة.
ساحة البلدة الفعلية لها محيط ثابت ويمكن للجميع رؤيته من حيث المبدأ.
في المقابل، تتم إعادة تعريف "ساحة البلدة " الرقمية بشكل مستمر من قبل المشاركين – ولا أحد يستطيع الاتفاق على رؤية مساحة واحدة. هذا يعكس جزئيا الاختيار الذاتي؛ فجميعنا نخصص ما نراه.
يرجع ذلك أيضا إلى عدد لا يحصى من الخوارزميات التي تستخدمها محركات البحث لتشكيل وجهة نظرنا، في تحديد أولويةالمحتوى الذي نراه لأنماط استهلاكنا.
يقول بيرسلي: " الاختيارات التي تصنعها المنصات من حيث الأولوية النسبية لأنواع معينة من المحتوى، أكثر أهمية من القرارات المتعلقة، بأي محتوى يجب أن يزال، في كثير من النواحي".
في بعض الحالات، هذه فكرة مرعبة. ليست لدينا أي فكرة عن كيفية عمل هذه الخوارزميات، لذا لا يمكن لمعظمنا قياس كيف تؤثر في رؤيتنا لـ "الساحة"– أو إدراك ما لا نراه نتيجة "أولويات" شركة تكنولوجيا ما.
لم يحدث من قبل أن تقبع مثل هذه القوة الاستثنائية في أيدي عمالقة القطاع الخاص.
على أن هناك جانبا إيجابيا: إذا أرادت شركات مثل "جوجل" أو "فيسبوك" أن تتصدى لمقاطع مجازر مروعة والتحريض على الكراهية، فلن تلجأ دائما إلى "حذفها" فحسب؛ بل هناك تكتيك آخر يتمثل في استخدام الخوارزميات، لإغراقها أو تأخير سرعة ظهورها.
يقول بيرسيلي إن " تخفيض بروز المحتوى لا يزال أداة قوية للمنصات، من أجل التصدي للمحتوى الإشكالي دون اتخاذ الخطوة الأكثر تطرفا، المتمثلة في حذفه من الموقع".
هناك تكتيك ممكن آخر هو إعادة التوجيه أو التخفيف. فكر في مشروع "إعادة توجيه" أنشأته "جيق ساو"، وهي أحد أقسام شركة جوجل.
منذ ثلاث سنوات، تم إنشاؤه وتحديد الكلمات الرئيسة التي يستخدمها مستخدمو الإنترنت، للبحث عن مقاطع فيديو الانضمام إلى "داعش" - ثم توظيف خوارزميات لإعادة توجيه هؤلاء المستخدمين إلى محتوى معاد لـ"داعش". بسحب ما كتب على موقع "ري دايركت" فإنه "على مدى ثمانية أسابيع، شاهد 320 ألف شخص أكثر من نصف مليون دقيقة من 116 مقطع فيديو، تم اختيارها لدحض مقاطع داعش التي توجد فيها سمات تدعو للانضمام إليها".
لم تصرح "جيق ساو" ما إذا كانت الاستراتيجية "ناجحة"، أي أسهمت في تقليل أعداد المنضمين إلى "داعش"، على أن من الواضح أنها تعتبر طريقة ذات قيمة: هذه الأيام، يوفر موقع "ري دايركت" مخططا لكل من يريد نسخ التكتيك، تستطيع أن تجده في الرابط التالي redirectmethod.org. لا شك أن بعض الحكومات الغربية تدرس إمكانيته من أجل استخدامها ضد المتطرفين اليمينيين.
هل هذه فكرة جيدة؟ قد يجادل البعض بأن ذلك يعتمد على السياق: هذه الأدوات ذاتها المستخدمة لمكافحة مقاطع داعش – أو الكراهية التي تشجع نبرة تفوق العرق الأبيض – يمكن إساءة استخدامها من قبل الحكومات؛ فالصين، على سبيل المثال، بارعة في استخدام هذه الأدوات.
وبصورة أقل دراماتيكية، أنت تحتاج إلى إلقاء نظرة على "فيسبوك" فحسب، لتعرف كيف يمكن أن تنتج هذه الخوارزميات نتيجة عكسية.
يشير تقرير حديث من "نيوز هويب" NewsWhip، موقع تتبع وسائل التواصل الاجتماعي، إلى أنه عندما غيرت "فيسبوك" خوارزمية العام الماضي، لإعطاء أولوية أكبر لمحتوى "يحث على تفاعل" المستخدمين، تسبب ذلك في زيادة ظهور الأخبار التي صممت لإثارة الغضب أو السخط.
مع انتشار محتوى بدافع الكراهية عبر شبكة الإنترنت، تزداد احتمالية استخدام هذه الأدوات.
فكر في ذلك في المرة المقبلة التي تضغط فيها على زر حذف على لوحة مفاتيحك. إزالة المحتوى ليست هي الطريقة الوحيدة لتشكيل عقولنا؛ إن أقوى أساليب الرقابة هي تلك التي لا نراها أبدا من أجل تحقيق الخير أو التسبب في منع وقوع الشر.

إنشرها

أضف تعليق

المزيد من FINANCIAL TIMES