FINANCIAL TIMES

الذكاء البشري وحده القادر على لجم الذكاء الاصطناعي

الذكاء البشري وحده القادر على لجم الذكاء الاصطناعي

هناك كثير من المزاعم الكبيرة بشأن القوة التحويلية للذكاء الاصطناعي، لكن يجدر بنا الاستماع إلى بعض التحذيرات الكبيرة أيضاً. الشهر الماضي، كيت كروفورد، الباحثة الرئيسة في "مايكروسوفت ريسيرش"، حذّرت من أن زيادة قوة الذكاء الاصطناعي يُمكن أن تؤدي إلى "ما يحلم به الفاشيون" إذا ما أسيء استخدام التكنولوجيا من قِبل الأنظمة الاستبدادية.
كروفورد أخبرت مؤتمر التكنولوجيا SXSW قولها: "تماما في الوقت الذي نرى فيه زيادة الوظيفة المتقلبة في سرعة الذكاء الاصطناعي، هناك شيء آخر يحدث: صعود القومية المتطرفة، والاستبدادية اليمينية، والفاشية".
وقالت إن إنشاء سِجلات بيانات واسعة، واستهداف المجموعات السكانية، وإساءة استخدام القدرة التنبؤية الموجودة لدى أجهزة حفظ النظام، والتلاعب بالمعتقدات السياسية، يُمكن تمكينها جميعا من خلال الذكاء الاصطناعي.
كروفورد ليست وحدها في التعبير عن القلق إزاء سوء استخدام التكنولوجيات الجديدة القوية، أحياناً بطرق غير مقصودة. السير مارك والبورت، كبير المستشارين العلميين في الحكومة البريطانية، حذّر من أن الاستخدام المتهور للذكاء الاصطناعي في مجالات مثل الطب والقانون يُمكن أن يؤدي إلى نتائج ضارة ويقوّض ثقة الجمهور بالتكنولوجيا.
وعلى الرغم من أن الذكاء الاصطناعي لديه القدرة على تحسين الحُكم لدى البشر، إلا أنه ينطوي أيضاً على خطر إثارة تحيّزات ضارة ومنحها شعورا زائفا بالموضوعية. كتب والبورت في مقالة في "وايرد": "تعلُّم الآلة يُمكن أن يستوعب جميع التحيّزات الضمنية الواردة في تاريخ الأحكام القضائية أو العلاج الطبي - وإخراجها من خلال خوارزمياتها".
وكأي وقت مضى، تحديد المخاطر أسهل كثيرا من إصلاحها. الأنظمة المُجرّدة من المبادئ لن تلتزم أبداً بالأنظمة التي تُقيّد استخدام الذكاء الاصطناعي، لكن حتى في الديمقراطيات العاملة القائمة على القانون سيكون من الصعب صياغة استجابة مناسبة. تعظيم المساهمات الإيجابية التي يستطيع الذكاء الاصطناعي تقديمها، وفي الوقت نفسه التقليل من عواقبها الضارة سيكون واحدا من أصعب تحدّيات السياسة العامة في عصرنا.
بدايةً، من الصعب فهم التكنولوجيا واستخدامها غالباً ما يكون خفيا. كما يُصبح من الصعب على نحو متزايد العثور على خبراء مستقلين ليسوا أسرى في أيدي الصناعة، أو ليسوا عالقين في أنواع أخرى من التضارب.
شركات التكنولوجيا الكبيرة، المدفوعة من شيء يقترب من سباق تسلّح تجاري في هذا المجال، كانت تقتنص كثيرا من الخبراء الأكاديميين الأكثر ذكاءً في مجال الذكاء الاصطناعي. بالتالي هناك الكثير من الأبحاث المتطورة واقعة في المجال الخاص وليس العام.
ما تُحمد عليه، أن بعض شركات التكنولوجيا الرائدة تعترف بضرورة الشفافية، وإن كان في وقت متأخر. كانت هناك مجموعة من المبادرات لتشجيع مزيد من الأبحاث المتعلقة بالسياسة والنقاش العام بشأن الذكاء الاصطناعي. إيلون ماسك، مؤسس تيسلا موتورز، ساعد على تأسيس "أوبن إيه آي"، وهي شركة أبحاث غير ربحية تسعى وراء طُرق آمنة لتطوير الذكاء الاصطناعي. "أمازون" و"فيسبوك" و"جوجل ديب مايند" و"آي بي إم" و"مايكروسوفت" و"أبل" اتحدّت أيضاً في شراكة في مجال الذكاء الاصطناعي لإطلاق مزيد من النقاش العام بشأن تطبيقات التكنولوجيا في العالم الحقيقي.
مصطفى سليمان، المؤسس المُشارك لـ"جوجل ديب مايند" والرئيس المُشارك للشراكة، يقول إن الذكاء الاصطناعي يستطيع لعب دور تحويلي في معالجة بعض أكبر التحديات في عصرنا، لكنه يقبل بأن معدل التقدّم في مجال الذكاء الاصطناعي يفوق قدرتنا الجماعية على فهم هذه الأنظمة والسيطرة عليها. بالتالي يجب على شركات الذكاء الاصطناعي الرائدة أن تُصبح أكثر ابتكاراً واستباقية بكثير في محاسبة نفسها. تحقيقاً لهذه الغاية، تعمل "جوجل ديب مايند" التي يوجد مقرها في لندن، على تجربة عمليات تدقيق البيانات يُمكن التحقق منها، وستُعلن قريباً تشكيل مجلس للأخلاقيات للتدقيق في جميع أنشطة الشركة.
لكن سليمان يُشير إلى أن مجتمعاتنا ستضطر أيضاً إلى وضع إطار عمل أفضل لتوجيه هذه التكنولوجيات من أجل الصالح العام. يقول في مقابلة للتسجيل الصوتي الرقمي "تيك تونيك"، التابع لـ "فاينانشيال تايمز": "يجب أن نكون قادرين على السيطرة على هذه الأنظمة حتى تفعل ما نُريد، عندما نُريد، وألا تتفوّق علينا".
ويقول بعض المراقبين إن أفضل طريقة لتحقيق ذلك هي تكييف أنظمتنا القانونية لضمان أن أنظمة الذكاء الاصطناعي ستكون "قابلة للشرح" للجمهور. هذا يبدو بسيطاً من حيث المبدأ، لكن قد يتبين أنه معقد تماماً من الناحية العملية.
ميراي هيلدبرانت، أستاذة القانون والتكنولوجيا في الجامعة الحرة في بروكسل، تقول إن أحد مخاطر الذكاء الاصطناعي هو أننا نُصبح أكثر اعتماداً على "العقول العقيمة" التي لا نفهمها تماماً. وتُجادل بأن الهدف والنتيجة من هذه الخوارزميات يجب أن يكون بالتالي قابلا للاختبار وقابلا للنقاش في قاعة المحكمة. "إذا لم تستطع تفسير قرارات نظامك بشكل مفهوم، فعندها لن تتمكن من اتّخاذها".
سنكون بحاجة إلى الكثير من الذكاء البشري لمواجهة تحدّيات الذكاء الاصطناعي.
إنشرها

أضف تعليق

المزيد من FINANCIAL TIMES