FINANCIAL TIMES

أخطاء الذكاء الاصطناعي تثير مخاوف النشطاء والجماعات الحقوقية

تكنولوجيا التعرف على الوجة أصبحت هاجسا للجماعات الحقوقية. تصوير: جيلز سابري "نيويورك تايمز"

احتجاجات طلاب بريطانيا التي أثارت عاصفة سياسية العام الماضي.

الأسبوع الماضي قال جافين ويليامسون، وزير التعليم البريطاني: "هذا العام سنضع ثقتنا في المعلمين بدلا من الخوارزميات".
الحكومة حريصة على تجنب تكرار الفشل الذريع الذي حدث العام الماضي بشأن الامتحانات في مدارس إنجلترا. مع إلغاء الاختبارات بسبب الاضطراب الناجم عن فيروس كورونا، أنشأ "مكتب تنظيم المؤهلات والامتحانات"، الإدارة الحكومية المسؤولة عن الامتحانات، خوارزمية تهدف إلى إيقاف تضخيم العلامات التي يعطيها المدرسون لطلابهم من خلال توحيد العلامات التي تترك لتقدير المعلمين.
بالنسبة لآلاف الطلاب، كانت الخوارزمية كارثية، حيث أدت إلى تخفيض عدد من علامات الطلاب وأثارت عاصفة سياسية. في مواجهة الاحتجاجات أخذ الطلاب يهتفون "اللعنة على الخوارزمية"، ورضخ مكتب تنظيم المؤهلات والامتحانات. تم إلغاء الخوارزمية، وتلقى الطلاب الدرجات التي تم تقييمها من قبل المعلمين واستقالت رئيسة قسم التنظيم، سالي كوليير.
الضجة حول نظام الامتحانات البريطانية هي رمز لأحد الاتجاهات الخفية، لكن الأكثر تأثيرا للوباء.
في مواجهة مثل هذه الطوارئ الصحية القاسية، دفع كوفيد - 19 إلى تسريع حاد في الجهود التي تبذلها الحكومات لتقديم أشكال أكثر آلية لصنع القرار. ووفر حافزا وأساسا منطقيا للسلطات لتجربة أنظمة جديدة، في كثير من الأحيان دون نقاش كاف، مع إتاحة الفرصة لشركات تكنولوجيا المراقبة لعرض منتجاتها باعتبارها أدوات للمصلحة العامة.
لكن الجهود أدت أيضا إلى رد فعل عنيف حاد. ومع أن إخفاق مكتب تنظيم المؤهلات والامتحانات كان الحادث الأكثر شهرة من حيث الخوارزميات، إلا أن النشطاء والمحامين حققوا عددا من الانتصارات ضد مثل هذه الأنظمة في جميع أنحاء أوروبا والولايات المتحدة خلال العام الماضي، في مجالات تراوح من أعمال الشرطة إلى الرعاية الاجتماعية.
حتى مع هذه الانتصارات، يعتقد النشطاء أن مزيدا من الخلافات ستظهر في الأعوام المقبلة.
تقول مارثا دارك، الشريك المؤسس لمنظمة فوكس جلوف، وهي منظمة للحقوق الرقمية هددت باتخاذ إجراءات قانونية بشأن الخوارزمية قبل أن يلغيها مكتب تنظيم المؤهلات والامتحانات: "لم يسأل الجمهور قط عن هذه الطريقة الجديدة في اتخاذ القرار. هذا يخزن مشكلات سياسية هائلة محتملة".

المرآة السوداء

في حين أن الخوارزميات غالبا ما ترتبط بشعوذة وسائل التواصل الاجتماعي التي تظهر على موقع تيك توك أو فيسبوك، إلا أنها تستخدم عمليا في مجموعة واسعة من الأشياء، بدءا من الشبكات العصبية المعقدة إلى أنظمة أبسط بكثير. يقول جوناثان ماكولي، المستشار القانوني في صندوق الحرية الرقمية في أمستردام، مستشهدا بمسلسل تبثه نتفليكس يصور مجتمعا مختلا: "تسود لدى الناس فكرة أن هذه الأمور هي من النوع الذي يحدث في مسلسل المرآة السوداء. في معظم الأحيان هي أدوات اكتوارية بسيطة" ـ يدعم صندوق الحرية الرقمية التقاضي لحماية الحقوق الرقمية في أوروبا.
بسبب انتشار الخوارزميات في كل مكان، فإن استخدامها يتطلب دراسة متأنية، كما يقول فابيو تشيوسي، مدير مشروع ألجوريزم ووتش AlgorithmWatch غير الربحي في برلين. يضيف: "نحن لا ندعو إلى العودة إلى العصور الوسطى، لكن علينا أن نسأل عما إذا كانت هذه الأنظمة تجعل مجتمعنا أفضل، وليس فقط ما إذا كانت تجعل الأمور أكثر كفاءة".
كارلي كايند، مديرة معهد آدا لافليس، وهو معهد أبحاث بريطاني يدرس تأثير الذكاء الاصطناعي والبيانات على المجتمع، تشير إلى أن حالة خوارزمية مكتب تنظيم المؤهلات والامتحانات توضح مدى صعوبة الأمر. تقول: "فكروا كثيرا في الإنصاف والعدالة لكنهم اتخذوا مفهوما واحدا محددا – ينبغي تحسين الخوارزمية لتعزيز الإنصاف عبر الأعوام الدراسية المختلفة حتى لا يتعرض الطلاب (السابقون) للحرمان بشكل غير عادل".
هذا النهج يعني أن النظام خفض 40 في المائة من نتائج المستوى A من توقعات المعلمين، ما أثار غضبا جماعيا. والأسوأ من ذلك، أن النتائج تبدو غير مواتية للطلاب الذين يأتون من خلفيات فقيرة واعتبر أنها تعاقب الأشخاص المتفوقين الذين تفوقوا في الأداء على أداء مدارسهم التاريخي.
تقول دارك: "كانت هذه هي المرة الأولى التي نقوم فيها بهذا العمل، حيث رأينا أشخاصا يصرخون في الشوارع بشأن الخوارزميات. وكانت هذه هي المرة الأولى التي يرى فيها كثير من أفراد الجمهور أن السلطة تتم مارستها بواسطة خوارزمية".
لكن التراجع التام في موقف مكتب تنظيم المؤهلات والامتحانات لم يكن أول فوز خوارزمي لمنظمة فوكس جلوف في آب (أغسطس). قبل ذلك بأيام، أسقطت وزارة الداخلية البريطانية خوارزمية مبهمة تستخدم لطلبات التأشيرات، بعد أن قامت مجموعة الحقوق الرقمية والمجلس المشترك لرعاية المهاجرين بإجراء مراجعة قانونية. قالت فوكس جلوف في تقريرها القانوني إن القائمة السرية للنظام "للجنسيات المشبوهة" هي بمنزلة "إدخال سريع للأشخاص البيض".
في الولايات المتحدة، حقق النشطاء أيضا انتصارات ضد إساءة استخدام واحدة من أكثر التكنولوجيات الخوارزمية إثارة للجدل، وهي التعرف على الوجه، التي لطالما انتقدت بسبب قضايا التحيز العنصري والدقة وتأثيرها في الخصوصية. في حزيران (يونيو)، قدم الاتحاد الأمريكي للحريات المدنية في ميشيجان شكوى إدارية بعد أن تم القبض على روبرت وليامز المقيم في ميشيجان بشكل خاطئ نتيجة لتكنولوجيا التعرف على الوجه.
تقول نيكول أوزير، مديرة التكنولوجيا والحريات المدنية في اتحاد الحريات المدنية في كاليفورنيا: "مخاطر الذكاء الاصطناعي وتكنولوجيا التعرف على الوجه بشكل أكثر تحديدا توجد على رادار كثير من الناس منذ فترة طويلة. ما رأيناه في العامين الماضيين هو اعتراض على الذكاء الاصطناعي غير الفعال والخطير".
أقرت مدن في ولايات مثل ماساتشوستس قوانين تحظر استخدام تكنولوجيا التعرف على الوجه من قبل السلطات، بعد الخطوات التي اتخذتها مدن مثل أوكلاند وسان فرانسيسكو في 2019. تقول أوزير إن اتحاد الحريات المدنية في كاليفورنيا كان ناجحا أيضا في شن حملة ضد إقرار مشروع القانون رقم 2261، الذي قالت إنه كان سيعطى في النهاية الضوء الأخضر لاستخدام التعرف على الوجه في كاليفورنيا.
كانت هناك أيضا انتصارات كبيرة للناشطين في أوروبا العام الماضي، أبرزها حالة "مؤشر مخاطر النظام" SyRI، وهي أداة آلية هولندية تستخدم للكشف عن الاحتيال في مجال الرعاية الاجتماعية. في شباط (فبراير)، قضت محكمة مقاطعة لاهاي بأن المؤشر غير قانوني، بسبب الآثار المترتبة على الخصوصية لاستخدام كميات كبيرة من البيانات من السلطات العامة الهولندية.
من بين نقاط البيانات المحتملة التي يمكن أن يستخدمها مؤشر SyRI لمعرفة ما إذا كان من المحتمل أن يمارس الفرد احتيالا للحصول على الإعانة الاجتماعية، هي الحالة التعليمية، والوضع السكني، وما إذا كان قد أكمل برنامج التكامل المدني، وهي خطوة مطلوبة للحصول على تصريح إقامة.
يقول جيل كلاس، مدير التقاضي والمحامي في لجنة الحقوقيين من أجل حقوق الإنسان في هولندا، التي أقامت القضية: "مثل كثير من هذه الأنظمة، بدأ SyRI بنهج سلبي للغاية – وهو افتراض أن الناس من المحتمل أن يمارس الاحتيال".
وفي حين كان النجاح باعثا على التشجيع، حذر كلاس من أن معركة المحكمة لم تكن نهاية الصراع بين النشطاء والسلطات. يقول: "أعتقد بالتأكيد أننا أنشأنا سابقة، لكننا نرى الكثير من الخوارزميات الأخرى يتم نشرها. أعتقد أن المشكلات الرئيسة في صنع القرار الآلي لم تظهر بعد".

سباق الذكاء الاصطناعي

حتى قبل الوباء، كانت أدوات صنع القرار الآلي والخوارزميات تنتشر منذ أعوام، بحسب بيترا مولنار، المديرة المساعدة لمختبر قانون اللاجئين في مركز دراسات اللاجئين في جامعة يورك.
تقول: "من منظور جيوسياسي، تنخرط الدول في نوع من سباق التسلح، حيث تحاول الدفع إلى طليعة الابتكار عندما يتعلق الأمر باتخاذ القرارات الحسابية والآلية".
لكن حالة الطوارئ الصحية غير المسبوقة أدت إلى تعميق هذا الاتجاه، حيث لجأت السلطات إلى الأنظمة التجريبية التي تدعي أنها ستحسن كفاءة عملياتها.
تحذر إيلا جاكوبوسكا، مسؤولة السياسات والحملات في "الحقوق الرقمية الأوروبية"، وهي مجموعة مناصرة: "رأينا حقا استخدام الوباء كتجربة في التكنولوجيا على حقوق الناس وحرياتهم. وهي تعامل تماما مساحاتنا العامة ووجوهنا وأجسادنا كشيء يجب استكشافه وتجربته".
من بين إجراءات المراقبة التي أشارت إليها تجارب الكاميرات التي يمكن أن تكشف ما إذا كان المستخدمون يرتدون كمامات في شاتليه ليه هال، إحدى أكثر محطات مترو الأنفاق ازدحاما في باريس، التي انتهت فجأة في حزيران (يونيو) بعد أن قالت CNIL، السلطة الفرنسية لحماية البيانات، إنها تنتهك اللوائح العامة لحماية البيانات في الاتحاد الأوروبي GDPR.
يعترف مارتن دراجو، الخبير القانوني في المجموعة الفرنسية للدفاع عن الحقوق الرقمية LQDN، الذي يردد مخاوف مولنار بشأن "سباق التسلح": "أشعر أننا في فرنسا مثال سيئ على كيفية استخدام المراقبة الحيوية. عندما نخبر إدارة الشرطة عن مخاطر (الإساءة)، يقولون لنا إننا إذا واصلنا قتالنا، فستخسر فرنسا سباق (الذكاء الاصطناعي) ضد الصين والولايات المتحدة".
حققت LQDN عددا من النجاحات العام الماضي. في شباط (فبراير)، فازت بالقضية الأولى ضد استخدام أنظمة تكنولوجيا التعرف على الوجه في فرنسا، حول أنظمة تتحكم في الوصول إلى مدرستين ثانويتين في جنوب فرنسا. يقول دراجو: "قالت سلطة حماية البيانات للإدارة الإقليمية إنها لم توضح سبب كون تكنولوجيا التعرف على الوجه ضرورية، ولماذا تقوم بأكثر مما يمكن أن يفعله الإنسان".
لكن المراقبة الخوارزمية لا تزال واسعة الانتشار في فرنسا. أكثر ما يثير قلق النشطاء هو Traitement des Antécédents Judiciaires، وهي قاعدة بيانات جنائية تضم ثمانية ملايين وجه يمكن للشرطة استخدامها للتعرف على الوجوه. يقول دراجو: "الملف يتعلق بكل من كان جزءا من تحقيق"، بما في ذلك الذين تمت تبرئتهم وكذلك المدانون بارتكاب جرائم. "إنه لأمر قاتم للغاية أن يخضع ملايين الأشخاص لتكنولوجيا التعرف على الوجه".
يشعر دراجو بالقلق بشأن الأحكام الجديدة المحتملة لمعالجة البيانات، وهي جزء من قانون الأمن الفرنسي المثير للجدل الذي أثار الاحتجاجات. ستعمل بنود القانون على إضفاء الصفة القانونية على النقل في الوقت الفعلي للبيانات من الطائرات من دون طيار وكاميرات هيئة الشرطة إلى مراكز القيادة، ما يفتح إمكانات أكبر للتعرف على الوجه والأنواع الأخرى لتحليل الصور.
تم تبني القانون من قبل الجمعية الوطنية (مجلس النواب) في تشرين الثاني (نوفمبر) الماضي. الآن يجب أن يتم إقراره في مجلس الشيوخ، مع جلسة عامة مقررة في آذار (مارس). بحسب دراجو، إذا كان هناك خلاف بين المجلسين حول الصياغة الدقيقة للنص، فإن الجمعية الوطنية لها الكلمة الأخيرة.
يقول: "عندما يتحدث مؤيدو الأنظمة الخوارزمية عما يفعلونه الآن، تستخدم الصين دائما كبش فداء. يقولون ’لن نكون مثل الصين أبدا‘. لكن لدينا منذ الآن ملفات TAJ، ولدينا بوابات Parafe (التعرف على الوجه) في بعض المطارات ومحطات القطارات – إنه أمر غريب للغاية".
دومين سافيتش، الرئيس التنفيذي للمجموعة السلوفينية غير الربحية Drzavljan D، يقول إن الأنظمة الجديدة التي تم تبنيها خلال الجائحة من غير المرجح أن تختفي معها. "بعد الجائحة، علينا أن نعود ونحلل ما تم فعله بسبب فيروس كورونا ونقول ما إذا كان الأمر جيدا (لكن) سيكون ذلك صعبا لأنه يتم تنفيذها على مستوى لا يمكنك ببساطة إيقافها. يتم تنفيذ المزيد والمزيد من التكنولوجيا، من دون مفتاح إيقاف".

فرصة للقطاع الخاص

بالنسبة لمقدمي تكنولوجيا المراقبة والصناعات ذات الصلة، أتاح الوباء أيضا فرصة لبيع منتجاتهم كأدوات لإدارة الصحة العامة – مثلا، إعادة تسمية الكاميرات المصممة لاكتشاف الأسلحة على أنها ماسحات ضوئية حرارية يمكنها اكتشاف الإصابات المحتملة. تقولة أوزير: "رأينا ذلك بعد 9/11 ومرة أخرى خلال كوفيد - 19، ترى الشركات أن الناس خائفون ويرون أنها فرصة لكسب المال. هم يندفعون من خلال التسويق الخادع، قائلين ’هذا هو الذي سيحافظ على سلامتكم‘ حتى عندما لا يكون الجانب العلمي متماسكا".
يقول دراجو إن فيروس كورونا يتم التعامل معه في فرنسا كفرصة لشركات المراقبة لتحسين أنظمتها قبل دورة الألعاب الأولمبية في 2024 في باريس. "لديك الكثير من الشركات الفرنسية (...) التي ترغب في سن قانون لتسهيل تجربة المراقبة الحيوية" للسماح بعرض أنظمة القياسات الحيوية في فرنسا للألعاب.
في المملكة المتحدة يعرض وسطاء البيانات مساعدة السلطات المحلية على استخدام مجموعاتها الضخمة من المعلومات الشخصية والعامة لمهام مثل تحديد الأفراد الذين يعانون أعقاب الأزمة أو الأشخاص المعرضين لخطر كبير لمخالفة قواعد العزل الذاتي.
في بيان صادر عن مفوضة المعلومات البريطانية إليزابيث دينهام في تشرين الأول (أكتوبر) الماضي، تم انتقاد سمسرة البيانات باعتبارها قطاعا يبدو أنه يتم فيه تداول المعلومات على نطاق واسع، دون مراعاة للشفافية، ما يمنح الملايين من البالغين في المملكة المتحدة القليل من الخيارات أو لا يملكون أي سيطرة على بياناتهم الشخصية.
تقول سيلكي كارلو، مديرة بيج براذر ووتش Big Brother Watch غير الربحية في المملكة المتحدة: "هل نحن سعداء لاتخاذ قرارات حياتنا بمساعدة وسطاء البيانات، بالاعتماد على فرضية المراقبة الجماعية وجمع البيانات؟ أدى الوباء إلى تطبيع موجة من هذا النوع واعتبارها مقبولة بسبب استثنائية الظروف".
يهتم النشطاء بشكل خاص بالتجارب مع التكنولوجيا التي تستهدف المهاجرين واللاجئين. تقول مولنار: "على طول حدود المكسيك، مثلا، هناك الكثير من تكنولوجيا ’الحدود الذكية‘. أيضا منطقة البحر الأبيض المتوسط وبحر إيجة، أصبحت نوعا من ساحة اختبار لكثير من التكنولوجيا التي يتم طرحها لاحقا".
عمليات النشر هذه دلالة على التقاء الصحة العامة والسياسة الشعبوية. ارتبط اللاجئون والمهاجرون والأشخاص الذين يعبرون الحدود لفترة طويلة بهذه المجازات المتمثلة في جلب الأمراض، ولذلك تجب مراقبتهم وتعقبهم والسيطرة عليهم".
تراوح التكنولوجيات المستخدمة على طول الحدود من الطائرات من دون طيار من الدرجة العسكرية إلى تحليل وسائل التواصل الاجتماعي الذي يتنبأ بالتحركات السكانية "وأجهزة كشف الكذب بالذكاء الاصطناعي"، التي تدعي مراقبة تعبيرات الوجه بحثا عن علامات عدم الأمانة. قامت المطارات في المجر ولاتفيا واليونان بتجربة التكنولوجيا عند نقاط التفتيش الحدودية.
تضيف مولنار: "لا أعرف كيف تتعامل هذه الأنظمة مع قضايا التواصل بين الثقافات، وحقيقة أن الناس غالبا لا يشهدون أو يروون قصصهم بطريقة خطية. إنه أمر مزعج للغاية أننا نستخدم تكنولوجيا كهذه دون إشراف ومساءلة مناسبين".
تقول: "بدأنا في الحديث أكثر قليلا عن بعض هذه الطرق الهيكلية التي يمكنها إعطاء تصور لمفهوم الشكل الذي ستكون عليه الرقابة الخوارزمية. لكن أمامنا طريق طويل لنقطعه قبل أن نصل إلى مرحلة كنا نفكر فيها في جميع التداعيات المختلفة التي يمكن أن يحدثها هذا النوع من اتخاذ القرار على حقوق الناس".
 

إنشرها

أضف تعليق

المزيد من FINANCIAL TIMES