كريتر نت / وكالات
نشر الكاتب الفرنسي مارتان أنترسينجر على الصفحة الرسمية لقناة “تيليه مونتي كارلو” في موقع فيسبوك أنه “من الغريب أن يسارع فيسبوك إلى حجب صورة عارية لجسدي ويتأخر في حجب فيديو لعملية إرهابية يُبث على المباشر”.
يحاول أنترسينجر في تعليقه الإضاءة على الطريقة الآلية التي تتعامل بها أنظمة فيسبوك مع مقاطع الفيديو والصور، وعجزها في الأكثر المواقف حساسية عن وقف الدعاية الإرهابية أو التحريض على منصاتها.
وقال أنترسينجر في تقرير نشرته صحيفة لوموند الفرنسية، إن منفذ عملية كرايستشيرش الإرهابية نشر فيديو يوثق الهجوم المسلح الذي نفذه في مسجدين وأسفر عن مقتل 50 شخصا على فيسبوك، الأمر الذي جعل هذا الموقع عرضة للاتهامات، خاصة في هذا الوقت الذي ينتشر فيه خطاب الكراهية لليمين المتطرف على شبكات التواصل الاجتماعي.
ويبدو السؤال مشروعا: لماذا فشل فيسبوك في اكتشاف فيديو الهجوم أو إزالته أثناء بثه الذي دام 17 دقيقة، بينما لا يتهاون ويستجيب سريعا لحذف صور أجزاء عارية من جسد المرأة (التي تظل محظورة على المنصة)؟
والسؤال الثاني: لماذا فشل فيسبوك في إزالة مئات الآلاف من النسخ المماثلة لفيديو الإرهابي الذي نشره مستخدمو الإنترنت من جميع أنحاء العالم في الساعات والأيام التي أعقبت الهجوم، رغم أنه يمتلك أفضل التقنيات في مجال الذكاء الاصطناعي في العالم، لاسيما أن الموقع يفاخر منذ موجة هجمات داعش، بحذفه كل المحتوى الجهادي تقريبا حتى قبل نشره؟
ويقول تقرير الصحيفة الفرنسية إن الإجابة على هذين السؤالين تستدعي العودة إلى حدود الذكاء الاصطناعي والطريقة التي يدير بها المحتوى الإرهابي. يواجه فيسبوك نوعين من المحتوى الإرهابي، مثل شريط الفيديو الخاص بهجوم كرايستتشيرش بعد الهجوم، أو العديد من مقاطع الفيديو الدعائية لمنظمة الدولة الإسلامية. وتشترك شبكة فيسبوك مع بعض الشبكات الاجتماعية الأخرى مثل تويتر في قاعدة بيانات لمقاطع الفيديو، وكل فيديو يتم نشره بواسطة أحد المستخدمين، يقوم فيسبوك بمقارنته بكسل بالبكسل بجميع مقاطع الفيديو الإرهابية في قاعدة البيانات هذه.
ولا يتعرف فيسبوك على الإرهاب كما يفعل البشر: إنه يبحث ببساطة في ما إذا كانت وحدات البكسل لمقطع فيديو جديد متطابقة أم لا لوحدات بكسل لمقطع فيديو يعرفه بالفعل. ويمنع نشر نسخ من المحتوى الإرهابي المشار إليه بالفعل. وتعمل هذه الطريقة بطريقة جيدة مع المحتوى الجهادي (بالإضافة إلى محتوى الاستغلال الجنسي للأطفال). ومع ذلك، اعترف فيسبوك أن ثلاثمئة ألف نسخة من الفيديو المباشر للإرهاب يمكن نشرها على شبكته.
عمليا، تواجه فيسبوك أحيانا مقاطع فيديو إرهابية لا تعرفها الشبكة الاجتماعية، والتي تظهر على أجهزتها لأول مرة. هذه هي حالة الصور الحية لهجوم كرايستشيرش الإرهابي، المسجلة في الوقت الذي يبث فيه. فالآلية المذكورة لم تعد تعمل لأن الفيديو جديد. وفي هذا السياق، يعتمد فيسبوك اعتمادا كبيرا على تقارير مستخدميه.
ووفقا لموقع فيسبوك، لم يبلغ أي من المستخدمين الذين شاهدوا الفيديو عن ذلك أثناء البث المباشر، وتمت مشاهدته أربعة آلاف مرة قبل إزالته. وليست لدى فيسبوك حاليا الوسائل اللازمة للاعتراف تلقائيا بأن هذه الصور هي عمل إرهابي حي.
ويطرح أنترسينجر تساؤلا: في مواجهة هذا السيناريو الأخير هل يستطيع فيسبوك تدريب خوارزميات الذكاء الاصطناعي الخاصة به للتعامل مباشرة مع مقاطع الفيديو الإرهابية غير المسبوقة، كما يفعل مع صور الثدي العاري؟ في الواقع، يحظر فيسبوك النشر إلا في ظل ظروف معينة (النشر مع أهداف فنية أو الوعي بأمراض معينة). ويفعل في الكثير من الحالات، دون مساعدة من مستخدميه. ببساطة عن طريق “الاعتراف” دون مساعدة من الإنسان.
وتأتي المشكلة من هذا الذكاء الاصطناعي بأنه لم يصبح بعد ذكيا في الواقع، حيث تعمل الخوارزميات على تحديد المحتوى بشكل أفضل في حالة الثدي مقارنة بالإرهاب. ويعلق أنترسينجر “ليس من الصعب للغاية فهم السبب: في الحياة، يستطيع المولود الجديد التعرف على ثدي، لكنه لا يستطيع التعرف على خطاب أبوبكر البغدادي”.
ومن الممكن تقنيا اكتشاف الثدي عن طريق جهاز للتعرف على ترتيب وحدات البكسل ولونها، لكن كيف يمكن تدريب آلة للكشف عن الإرهاب، لأن الأخير يكمن في نية الناشر، وفي سياق نشره، أكثر مما يظهر في الواقع؟ وقد يتم الاعتراض على أنه من دون الحديث عن الإرهاب، يمكن التعرف تلقائيا على مقطع فيديو للذبح من خلال تحديد الأسلحة أو اللقطات الموجودة على مقاطع الفيديو. وهذا نظريا صحيح، لكن وجود هذه العلامات لا يكفي للقول إن الفيديو أو الصورة ذات طبيعة إرهابية.
ثم ماذا عن الصور المستخرجة من الأفلام (مثل مقطورة فيلم العمل) أو مشاهد لعبة فيديو واقعية؟ تقنيات فيسبوك لا تسمح بعد بتحديد القصد الفعلي لمحتوى منشور، ومنع صور البث بشكل استباقي. باستثناء حظر جميع أنواع الصور أو المحتويات التي قد تكون أقرب إلى المطالبة الإرهابية، أو عملا من أعمال الإرهاب، بشكل عشوائي.
المهمة مستحيلة ونحن نتصور أنه في يوم من الأيام يمكن للإرهابيين نشر مطالبهم في خطاب يقرأ على صورة لبرج إيفل: هل يجب على فيسبوك بناء على ذلك حظر جميع صور برج إيفل في منصته؟ لذلك يعتبر فهم القدرات الحقيقية لنظم الذكاء الاصطناعي أمرا لا غنى عنه لطلب محاسبة فيسبوك.
ففي معظم الحالات، التقنيات الاصطناعية ليست مهيئة بعد لاتخاذ قرار ما هو أصلي أو مقتبس على الإنترنت، وبصرف النظر عن محتوى يمكن التعرف عليه بسهولة (مثل المواد الإباحية)، فإنه من الصعب تحديد نوعية جميع أنواع المحتوى إن كانت مسيئة أم لا. ويظهر الفيديو الحي لمذبحة كرايستشيرش أنه على الرغم من التقدم الحاصل حتى الآن، لا يزال هناك العديد من التحديات التي يتعين حلها.