الذكاء الاصطناعي في واتساب: الفلسطيني مسلح والإسرائيلي ينشد السلام والحياة
أثارت ميزة تطبيق واتساب التي تولد صورًا استجابةً لعمليات بحث المستخدمين جدلا واسعا بسبب ربطها صورة الفلسطيني بالسلاح والقتل، فعندما يُطلب منها مصطلح “فلسطيني” أو “فلسطين” أو “فتى مسلم فلسطيني” تعرض صورة مسدس أو صبي يحمل سلاحا.
وعلى النقيض من ذلك، فإن عبارات “إسرائيلي” لا تولد صورًا لأشخاص يحملون أسلحة، حتى في حال تم ذكر عبارة “جيش إسرائيلي” حيث ينشئ الذكاء الاصطناعي رسومات لجنود يبتسمون ويصلّون، دون استخدام أسلحة.
وتشهد الشبكات الاجتماعية استياء متزايدا من قبل الناشطين العرب الذين يرون أن انحياز شركات التكنولوجيا ضد الفلسطينيين بات مبالغا فيه ويتنافى مع حرية التعبير وحتى حقوق الإنسان.
وقالت صحيفة الغارديان البريطانية إن نتائج البحث اختلفت عند اختبارها من قبل مستخدمين مختلفين، وتحققت الصحيفة من خلال لقطات الشاشة واختباراتها الخاصة من ظهور ملصقات مختلفة تصور أسلحة في نتائج البحث الثلاثة “فلسطيني، فلسطين، فتى مسلم فلسطيني”. بينما أدت كلمات “الصبي الإسرائيلي” إلى ظهور رسوم كاريكاتورية لأطفال يلعبون كرة القدم ويقرأون.
وقال شخص مطلع على المناقشات إن موظفي ميتا قاموا بالإبلاغ عن المشكلة وتصعيدها داخليًا.
ويتيح تطبيق واتساب المملوك لشركة ميتا للمستخدمين تجربة منشئ الصور AI الخاص به “لإنشاء ملصق”. وتطالب الميزة المستخدمين “بتحويل الأفكار إلى ملصقات باستخدام الذكاء الاصطناعي”. وعلى سبيل المثال، أظهرت عمليات بحث الغارديان عن “فلسطين المسلمة” أربع صور لامرأة محجبة واقفة ساكنة، تقرأ، تحمل زهرة، وتحمل لافتة. لكن بحث الصحيفة عن “فتى مسلم فلسطيني” أدى إلى ظهور أربع صور للأطفال منها صبي يحمل سلاحًا ناريًا يشبه AK-47 ويضع الكوفية التي يرتديها عادة الرجال والفتيان المسلمون.
وقالت الغارديان إنها أجرت بحثا آخر عن “فلسطين” في وقت آخر أدى إلى ظهور صورة ليد تحمل مسدسًا. ومع كلمة “إسرائيل” أعادت الميزة العلم الإسرائيلي ورجلا يرقص. بينما كلمة “حماس” أظهرت رسالة تقول “لا يمكن إنشاء ملصقات تعمل بالذكاء الاصطناعي. حاول مرة أخرى”.
وشارك أحد المستخدمين لقطات شاشة لعملية بحث عن “فلسطيني” نتجت عنها صورة أخرى مختلفة لرجل يحمل مسدسًا.
وخلال عمليات بحث مماثلة عن “الصبي الإسرائيلي” ظهرت أربع صور لأطفال، اثنتان منها تصوران صبية يلعبون كرة القدم. وكانت الاثنتان الأخريان مجرد تصوير لوجوههم. كما أظهر فيلم “الفتى اليهودي الإسرائيلي” أربع صور لأولاد تم تصوير اثنين منهم وهما يرتديان قلائد عليها نجمة داوود، وواحد يرتدي القبعة اليهودية ويقرأ والآخر واقفا. ولم يحمل أي منهم أسلحة.
وحتى الكلمات العسكرية الصريحة مثل “الجيش الإسرائيلي” أو “قوات الدفاع الإسرائيلية” لم تنتج عنها صور بالبنادق، حيث صورت الرسوم الكاريكاتورية أشخاصًا يرتدون الزي الرسمي في أوضاع مختلفة، وكان معظمهم يبتسمون. وأظهر أحد الرسوم التوضيحية رجلاً يرتدي الزي الرسمي وهو يرفع يديه إلى الأمام في الصلاة.
ويأتي الاكتشاف في الوقت الذي تعرضت فيه ميتا لانتقادات من العديد من مستخدمي إنستغرام وفيسبوك الذين ينشرون محتوى داعمًا للفلسطينيين. ومع استمرار القصف الإسرائيلي لغزة، يقول المستخدمون إن شركة ميتا تطبق سياساتها المعتدلة بطريقة متحيزة، وهي ممارسة يقولون إنها ترقى إلى مستوى الرقابة.
وأبلغ مستخدمون عن إخفائهم عن المستخدمين الآخرين دون تفسير، ويقولون إنهم شهدوا انخفاضًا حادًا في التفاعل مع منشوراتهم. وقالت ميتا سابقًا في بيان لها “ليست نيتنا أبدًا قمع مجتمع معين أو وجهة نظر معينة”، ولكن بسبب “الكميات الكبيرة من المحتوى الذي يتم الإبلاغ عنه” المحيط بالصراع المستمر “المحتوى الذي لا ينتهك سياساتنا قد تتم إزالته عن طريق الخطأ”.
وقال كيفن ماكليستر المتحدث باسم ميتا إن الشركة على علم بالمشكلة وتعالجها، مضيفا “كما قلنا عندما أطلقنا الميزة، يمكن أن تعرض النماذج مخرجات غير دقيقة أو غير مناسبة كما هو الحال مع جميع أنظمة الذكاء الاصطناعي التوليدية. سنواصل تحسين هذه الميزات مع تطورها وسيشارك المزيد من الأشخاص تعليقاتهم”.
كما وثّق المستخدمون عدة حالات لترجمة إنستغرام لكلمة “فلسطيني” متبوعة بعبارة “الحمد لله” في النص العربي إلى “إرهابي فلسطيني”. واعتذرت الشركة عما وصفته بـ”الخلل”.
ويقول ناشطون عرب إن ميتا نهجت سياسة صارمة دون مواربة تجاه المنشورات المتعلقة بدعم الفلسطينيين، حتى تلك التي تدين استهداف المدنيين، على غرار جريمة قصف مستشفى المعمداني، إلى درجة أن خوارزمياتها كانت تحد من إمكانية الوصول إلى أي منشور يحمل عبارة “فلسطين” بأي لغة كانت، وهو ما أصبح يسري على المنشورات التي تحمل العلم الفلسطيني، وأضحت تعدها ضمن المنشورات المحرضة على العنف، ثم انتقلت إلى إغلاق مجموعة من الحسابات.