FINANCIAL TIMES

كيف نمنع الروبوت من طهي القطط؟

كيف نمنع الروبوت من طهي القطط؟

كيف يمكننا التأكد من أن أجهزة الكمبيوتر تفعل ما نريدها أن تفعله في الوقت الذي تفعل فيه باستمرار ما يحلو لها؟
قد يبدو ذلك سؤالا فلسفيا مجردا، لكنه أيضا تحد عملي ملح، وفقا لستويرت راسل، أستاذ علوم الكمبيوتر في جامعة كاليفورنيا، بيركلي، وأحد المفكرين البارزين في العالم في مجال الذكاء الاصطناعي.
من السهل للغاية، كما يقول راسل، تصور السيناريوهات التي تسبب فيها أنظمة الكمبيوتر المستقلة القوية بشكل متزايد أضرارا مريعة في العالم الحقيقي، إما من خلال سوء استخدام طائش وإما من خلال إساءة متعمدة. لنفترض، مثلا، في المستقبل غير البعيد أن روبوت الرعاية يعتني بأطفالك. تأخرت وطلبت من الروبوت إعداد وجبة. يفتح الروبوت الثلاجة، ولا يجد أي طعام، يحسب القيمة الغذائية لقطتك ويطبخ لحمها. أو لنأخذ مثالا أكثر ترويعا لسوء الاستخدام الذي يمكن حدوثه تكنولوجيا اليوم. مجموعة إرهابية تطلق مجموعة طائرات بدون طيار محملة بالقنابل في مدينة وتستخدم تكنولوجيا التعرف على الصور لقتل جميع من يرتدي زي الشرطة.
مثلما يجادل البروفيسور راسل في كتابه الأخير Human Compatible، نحتاج إلى طرق أفضل للتحكم فيما تفعله أجهزة الكمبيوتر لمنعها من التصرف بطرق معادية للإنسان، سواء من باب الإهمال أو من باب القصد والتصميم. على الرغم من أن الأمر قد يستغرق أعواما عديدة، إن لم يكن عقودا، إلا أننا يجب أن نبدأ في التفكير بجدية فيما سيحدث إذا توصلنا للذكاء الاصطناعي الذي يفوق طاقة البشر.
حل مشكلة التحكم المطلق بشكل صحيح يمكن أن يقودنا إلى عصر ذهبي من الرخاء. الحل الخاطئ قد يؤدي إلى انقراض البشرية. يخشى البروفيسور راسل أن الأمر قد يتطلب كارثة بمستوى كارثة تشيرنوبيل في الذكاء الاصطناعي لتنبيهنا إلى الأهمية الحيوية لضمان السيطرة.
في الوقت الحالي، يعتبر البروفيسور راسل خارجا عن المألوف في مجتمع الذكاء الاصطناعي بإطلاقه مثل هذه التحذيرات. على الرغم من أنه شارك في تأليف كتاب سابق حول الذكاء الاصطناعي يتم استخدامه من قبل معظم الجامعات في جميع أنحاء العالم، إلا أن البروفيسور راسل ينتقد ما يسميه الأنموذج القياسي للذكاء الاصطناعي و"الإنكار" من جانب كثيرين في هذا القطاع.
ويعمل هو الآن مع بعض الباحثين وشركات التكنولوجيا الأخرى لتصميم ما يسميه أنظمة الذكاء الاصطناعي "التي ثبت أنها مفيدة". تتمثل الفكرة في إنشاء مزيد من البرامج الاحترازية التي تتحقق بشكل دوري، مع البشر، للتأكد من فعل الشيء الصحيح، بدلا من اتباع هدف ثابت واحد بشكل أعمى. يجب أن يكون الهدف دائما تحسين التفضيلات البشرية. لكن صياغة التحدي على هذا النحو المبسط إنما هي فتح صندوق عجائب مليء بالتعقيد. منذ بداية الفكر كان الفلاسفة يتجادلون فيما يجعلنا سعداء. من يقرر تلك التفضيلات؟ كيف نزن آراء الكبار مقابل الشباب - والذين لم يولدوا بعد؟ ماذا يحدث لو، مثل الملك ميداس، اتخذنا قرارا غبيا ثم غيرنا رأينا؟
التجارب على تكنولوجيا محاكاة الدماغ الاصطناعية wireheading تشير أيضا إلى إمكانية التلاعب بتفضيلاتنا. في الظروف الخاطئة، من المحتمل أن يتصرف البشر الذين يمرون بتجارب محاكاة الدماغ الاصطناعية تماما مثلما تفعل فئران المعمل؛ الضغط بشكل سحري على زر المتعة الذي يطلق الدوبامين حتى نموت.
بطبيعة الحال، التحديات المتمثلة في تحسين تفضيلات الإنسان ليست فريدة بالنسبة إلى الذكاء الاصطناعي. ذلك الهدف النبيل هو، من الناحية النظرية، ما يحرك الحكومات الديمقراطية كل يوم. من المفترض أيضًا أن يشرح أساليب عمل السوق. لكن البروفيسور راسل يقول إن رأسمالية المساهمين مثال جيد على نظام له دور أو هدف موضوعي سيئ. أصدرنا تعليمات إلى الشركات بزيادة عوائد المساهمين إلى أقصى حد، مع تجاهل التفضيلات المجتمعية الأخرى، مثل الحفاظ على البيئة.
"فكر في صناعة الوقود الأحفوري بوصفه نظام ذكاء اصطناعي. نعده مع هذا الهدف الثابت المتمثل في زيادة أرباحه إلى أقصى حد وقد ربح"، حسبما يقول البروفيسور راسل، مضيفا: "إنها آلة تملك العناصر البشرية لكنها تعمل كآلة. لقد تغلبت على بقية الجنس البشري لأنها نوع من الكيان الذكي بصورة فائقة".
مثلما يصمم الاقتصاديون البيئيون كيفية تسعير العوامل الخارجية السلبية - مثلا من خلال فرض ضرائب على الكربون - سيتعين على علماء الكمبيوتر تصميم برامج ذكاء اصطناعي أكثر مرونة تعكس مجموعة من التفضيلات المجتمعية. لتحقيق ذلك، يطلق البروفيسور راسل دورة في علوم الكمبيوتر في بيركلي بمشاركة من أقسام الفلسفة والاقتصاد. يتبنى مركز الذكاء الاصطناعي الجديد في كلية لندن الجامعية أيضا نهجا متعدد التخصصات.
عند كتابة دليل التعليمات لمستقبلنا، سيتعين على مهندسي البرمجيات إنشاء حوار مستمر وغير قابل للكسر بين الآلات والبشر. الذكاء الاصطناعي مهم للغاية فلا يجب تركه لعلماء الكمبيوتر وحدهم.
إنشرها

أضف تعليق

المزيد من FINANCIAL TIMES