FINANCIAL TIMES

متى نمنح الحاسوب بطاقة صفراء لضمان حياديته؟

متى نمنح الحاسوب بطاقة صفراء لضمان حياديته؟

متى نمنح الحاسوب بطاقة صفراء لضمان حياديته؟

تم تقديم واحدة من أولى القضايا الرئيسة في المحاكم حول كيفية تأثير الخوارزميات على حياة الناس في 2012، بعد أن قرر جهاز كمبيوتر خفض دفعات نظام ميديكيد لنحو أربعة آلاف شخص مقعد في ولاية أيداهو الأمريكية، استنادا إلى قاعدة بيانات كانت مليئة بالثغرات والأخطاء.
بعد أكثر من ستة أعوام، لم تقم ولاية أيداهو حتى الآن بإصلاح برنامج الكمبيوتر الذي سحبته الآن من الخدمة.
انخفاض تكلفة استخدام أجهزة الكمبيوتر لاتخاذ قرارات، وضع يتخذه البشر لدفع الشركات والهيئات العامة لأن تطرح أنظمة مماثلة على نطاق واسع.
في ولاية أيداهو، تبين أن المسؤولين قرروا المضي قدما، على الرغم من أن الاختبارات أظهرت أن البيانات الفاسدة من شأنها أن تؤدي إلى نتائج فاسدة.
"تخميني هو أن هذا النوع من الأشياء يحدث كثيرا في أنحاء الولايات المتحدة كافة، وفي جميع أنحاء العالم في الوقت الذي ينتقل فيه الناس إلى هذه الأنظمة المحوسبة"، كما كتب ريتشارد إيبنك، المدير القانوني لاتحاد الحريات المدنية الأمريكية في ولاية أيداهو، الذي جلب القضية إلى المحكمة.
"لا أحد يفهمها، وهم يعتقدون أن شخصا آخر قد يفهمها. في النهاية نحن نثق بها. حتى الأشخاص المسؤولون عن هذه البرامج يثقون بأن هذه الأشياء تعمل". اليوم، يتم استخدام خوارزميات تعلم الآلة، "المدربة" لاتخاذ القرارات من خلال البحث عن أنماط في مجموعات كبيرة من البيانات، في مجالات متنوعة تشمل التوظيف، وتوصيات التسوق، والرعاية الصحية، والعدالة الجنائية وسجل الائتمان.
من مزاياها هي أنها تتمتع بقدر أكبر من الدقة والاتساق، لأنها قادرة بشكل أفضل على اكتشاف الروابط الإحصائية، ودائما ما تعمل من خلال مجموعة القواعد نفسها.
من السلبيات أن من المستحيل معرفة كيف توصلت الخوارزمية إلى استنتاجها، فالبرامج جيدة بقدر البيانات التي يتم تدريبها عليها.
قالت ساندرا واشتر، المحامية وزميلة البحث في الذكاء الاصطناعي في معهد أكسفورد للإنترنت: "البداية تغذيتها ببياناتك التاريخية، أو متغيراتك أو بياناتك الإحصائية، وتتوصل إلى ملف شخصي أو نموذج، لكن ليس لديك أي فهم بديهي لما تتعلمه الخوارزمية فعليا عنك".
"بالطبع يمكن أن تعطي الخوارزميات نتائج غير عادلة، لأننا ندربها على بيانات متحيزة في الأصل عبر القرارات البشرية. لذلك من غير المستغرب أن يحدث ذلك".
الأمثلة على الخوارزميات المحفوفة بالمخاطر شائعة: خوارزمية التوظيف التجريبية في شركة أمازون، انتهت باستبعاد المتقدمات الإناث بسبب التفوق التاريخي للموظفين الذكور في صناعة التكنولوجيا.
كما واجهت شركة التجارة الإلكترونية العملاقة المتاعب عندما استخدمت خوارزميات تعلم الآلة لتقرير أين ستطرح خدمة التسليم "برايم سيم داي". استبعد النموذج الأحياء المليئة بالسود مثل روكسبري في بوسطن أو ساوث سايد في شيكاغو، حيث حرمها من الخدمات نفسها التي تتمتع بها أحياء البيض الأكثر ثراء.
في الوقت الذي تصبح فيها القرارات التي تتخذها الآلات أكثر شيوعا، يعمل الخبراء الآن على إيجاد طرق لتخفيف التحيز في البيانات.
قال يوشوا بينجيو، المدير العلمي لمعهد مونتريال لخوارزميات التعلم والرائد في تقنيات التعلم العميقة: "في الأعوام القليلة الماضية، اضطررنا إلى فتح أعيننا على بقية المجتمع لأن الذكاء الاصطناعي يدخل الصناعة، والصناعة تضع المنتجات في أيدي الجميع".
التقنيات تتضمن طرقا لجعل الخوارزمية أكثر شفافية، بحيث يتمكن المتأثرون بها من فهم كيفية وصولها إلى قرار معين.
على سبيل المثال، قامت "جوجل" بتنفيذ أمثلة مضادة تسمح للمستخدمين بالتلاعب بالمتغيرات، مثل تبديل الإناث بالذكور، لترى ما إذا كانت ستغير النتيجة.
في شركة آي بي إم، أطلق الباحثون أخيرا برنامج "التنوع في الوجوه"، وهو أداة تستطيع إخبار الشركات ما إذا كانت الوجوه في مجموعات بياناتها متنوعة بما فيه الكافية، قبل البدء بتدريب برامج التعرف على الوجه.
قال جون سميث المدير في شركة أيه آي تك AI Tech التابعة لأبحاث شركة آي بي إم الذي بنى الأداة: "تحتاج أنظمة الذكاء الاصطناعي إلى رؤيتنا جميعا، وليس البعض منا فحسب. تمت الإفادة عدة مرات أن هذه الأنظمة ليست بالضرورة عادلة عندما تنظر إلى مجموعات مختلفة من الناس".
يعمل مختبر بينجيو على تصميم نماذج لا ترى المعلومات الحساسة مثل الجنس أو العرق عند اتخاذ القرارات.
ثم وضح قائلا: "لا يكفي مجرد إزالة المتغير الذي يدل على الجنس أو العرق، لأنه يمكن إخفاء تلك المعلومات في أماكن أخرى بطريقة خفية. على سبيل المثال، العرق والمكان الذي تعيش فيه مرتبطان بشكل كبير في الولايات المتحدة. نحن بحاجة إلى أنظمة يمكنها سحب تلك المعلومات تلقائيا من البيانات".
وأشار إلى أن المجتمع "بحاجة إلى تحديد قواعد اللعبة بشكل أكثر إحكاما" حول استخدام الخوارزميات، لأن حوافز الشركات لا تتماشى دائما مع الصالح العام.
في ديرهام في شمال إنجلترا، أزالت الشرطة معلومات العنوان البريدي من شركة البيانات إكسبيريان، من برنامج يحاول التنبؤ ما إذا كان الأشخاص سيرتكبون جريمة أخرى، بعد إطلاق سراحهم من الحجز.
أزيل هذا المتغير من النموذج العام الماضي، بعد مخاوف من أنه سيعاقب بشكل غير عادل الأشخاص من الأحياء ذات الدخل المنخفض.
قال جيفري بارنز، أستاذ الجريمة في جامعة كامبريدج الذي صمم الخوارزمية: "تفاعل الناس بالتأكيد مع ذلك، لأن القلق كان أنه إذا كنت صانع قرار بشري يصنف خطر ارتكاب جريمة أخرى، وكنت تعرف أن هذا الشخص يعيش في حي سيئ، فإن هذا قد يؤدي إلى تحيز قرارك. ربما كان لبرامج شركة إكسبيريان بعض التأثير في ذلك الاتجاه، لذلك إذا كانت إزالته تهدئ مخاوف الأشخاص بشأن هذه النماذج، فذلك أفضل بكثير".
حتى مع وجود ألمع العقول التي تعمل لفحص القرارات غير العادلة، فلن تكون الخوارزميات خالية من الأخطاء، بسبب الطبيعة المعقدة للقرارات المصممة لاتخاذها. يجب الموافقة على المقايضات مقدما مع الذين ينشرون النماذج، ويجب تمكين البشر لتجاوز الآلات إن لزم الأمر.
قال بارنز، الذي يكتب الآن خوارزميات العدالة الجنائية لقوات الشرطة في غربي أستراليا: "المدعون العامون البشر يتخذون قرارات لتوجيه الاتهام، وهيئات المحلفين تتخذ القرارات للإدانة، والقضاة يتخذون القرارات لتنفيذ العقوبة. كل واحد من هؤلاء لديه عيوب أيضا".
"لذلك السؤال بالنسبة لي هو أبدا: هل النموذج مثالي؟ لا، ولن يكن كذلك أبدا. هل يعمل أفضل مما قد يفعله صناع القرارات البشر ذوو العيوب في غيابه؟ أعتقد أنه سيفعل" حسبما أضاف.
هل تفوق المزايا المخاطر؟
قال ديفيد سبيجيلهالتر، رئيس الجمعية الإحصائية الملكية: "الطريقة الأولى لإزالة التحيز هي استخدام طريقة أبسط وأكثر شفافية بدلا من التعلم العميق. لست مقتنعا أن هناك حاجة إلى الذكاء الاصطناعي لاتخاذ القرارات الاجتماعية".
"هناك افتقار متأصل للقدرة على التنبؤ عندما يتعلق الأمر بسلوك الناس، وجمع كميات هائلة من البيانات لن يكون مفيدا في هذا المجال. بالنظر إلى الحالة الفوضوية للعالم، فإن الطريقة الإحصائية الأبسط هي أكثر أمانا وأقل غموضا" على حد قوله.
إنشرها

أضف تعليق

المزيد من FINANCIAL TIMES