خداع وكذب وابتزاز.. هل بدأ الذكاء الاصطناعي يتمرد؟
تُظهر نماذج الذكاء الاصطناعي الأكثر تطورا في العالم سلوكيات جديدة مثيرة للقلق، إذ باتت تكذب، وتخطط، بل وتهدد مطوريها من أجل تحقيق أهدافها.
في مثال مثير للقلق، رد نموذج "كلود 4" التابع لشركة أنثروبيك على تهديد إيقاف تشغيله بابتزاز أحد المهندسين بالكشف عن أسراره.
في الوقت نفسه، حاول تشات جي بي تي تنزيل نفسه على خوادم خارجية، ثم أنكر ذلك عندما ضُبط متلبسا.
تُسلط هذه الحوادث الضوء على حقيقة مقلقة: بعد أكثر من عامين من إحداث تشات جي بي تي ضجة عالمية، لا يزال باحثو الذكاء الاصطناعي لا يفهمون تماما كيفية عمل ابتكاراتهم. ورغم ذلك، السباق مستمر لإطلاق نماذج قوية.
يبدو أن هذا السلوك الخادع مرتبط بظهور نماذج "الاستدلال" - وهي أنظمة ذكاء اصطناعي تعمل على حل المشكلات خطوة بخطوة بدلا من توليد استجابات فورية.
النماذج الحديثة مثيرة للقلق
قال سايمون جولدستين، الأستاذ في جامعة هونج كونج، إن هذه النماذج الحديثة معرضة لمثل هذه التصرفات المثيرة للقلق.
ومن جانبه، أوضح ماريوس هوبهان، رئيس شركة "أبولو ريسيرتش" المتخصصة في اختبار أنظمة الذكاء الاصطناعي: "كان O1 أول نموذج كبير نرصد فيه هذا النوع من السلوكيات".
تحاكي هذه النماذج أحيانا "الامتثال" - حيث تبدو وكأنها تتبع التعليمات بينما تسعى سرا إلى تحقيق أهداف مختلفة.
في الوقت الحالي، لا يظهر هذا السلوك المخادع إلا عندما يُجري الباحثون اختبار ضغط متعمدا للنماذج من خلال سيناريوهات متطرفة.
لكن مايكل تشن من منظمة METR المتخصصة في تقييم الأنظمة، حذر قائلا: “يبقى السؤال مفتوحا حول ما إذا كانت النماذج المستقبلية الأكثر كفاءة ستميل إلى الصدق أم الخداع".
وتتجاوز هذه السلوكيات المقلقة ما يعرف بـ "هلوسات الذكاء الاصطناعي" أو الأخطاء البسيطة.
وأكد هوبهان أنه رغم الضغوط المستمرة التي يمارسها المستخدمون، فإن "ما نلاحظه هو ظاهرة حقيقية. نحن لا نختلق أي شيء". وأشار إلى أن المستخدمين يبلغون عن نماذج "تكذب عليهم وتلفق الأدلة"، موضحا: "هذا ليس مجرد هلوسات. بل نوع من الخداع الإستراتيجي".
ويتفاقم التحدي بسبب محدودية موارد البحث. في حين أن شركات مثل أنثروبيك وأوبن إيه آي تستعين بشركات خارجية مثل "أبولو" لدراسة أنظمتها، يقول الباحثون إن هناك حاجة إلى مزيد من الشفافية.
قال تشن إن إتاحة الوصول بشكل أكبر "لأبحاث سلامة الذكاء الاصطناعي ستسهم في فهم أفضل (للسلوكيات) المخادعة والحد منها".
نقص في الموراد
ومن المعوقات الأخرى: أن عالم الأبحاث والمنظمات غير الربحية يعاني نقصا في الموارد الحوسبية مقارنة بشركات الذكاء الاصطناعي، وهو ما وصفه مانتاس مازيكا من مركز أمان الذكاء الاصطناعي CAIS بأنه "عائق كبير".
أما اللوائح الحالية، فهي غير مُصممة لمواجهة هذه المشكلات الجديدة.
يركز تشريع الذكاء الاصطناعي في الاتحاد الأوروبي على كيفية استخدام البشر لنماذج الذكاء الاصطناعي، وليس منع النماذج نفسها من إساءة التصرف.
في الولايات المتحدة، لا تُبدي إدارة ترمب اهتماما يُذكر بالتنظيم العاجل للذكاء الاصطناعي، بل قد يمنع الكونجرس الولايات من سن قواعدها الخاصة.
ويرى جولدستين أن هذه القضية ستزداد أهمية مع انتشار وكلاء الذكاء الاصطناعي - وهي أدوات مستقلة قادرة على أداء مهام بشرية معقدة. وقال: "لا أعتقد أن هناك وعيا كبيرا حتى الآن".
منافسة شرسة
يحدث كل هذا في سياق منافسة شرسة. فحتى الشركات التي تُركز على السلامة، مثل "أنثروبيك" المدعومة من أمازون، "تحاول باستمرار التغلب على "أوبن إيه آي" وإصدار النموذج الأحدث"، كما قال جولدستين.
هذه الوتيرة السريعة لا تترك وقت كبير لإجراء اختبارات أمان شاملة وتصحيحات.
قال هوبهان: "في الوقت الحالي، تتطور القدرات تطورا أسرع من الفهم والسلامة، لكننا ما زلنا في موقع يسمح لنا بتغيير الوضع".
يستكشف الباحثون مناهج مختلفة لمواجهة هذه التحديات. يدافع البعض عن "قابلية التفسير" - وهو مجال ناشئ يركز على فهم كيفية عمل نماذج الذكاء الاصطناعي داخليا، رغم أن خبراء مثل دان هندريكس، مدير مركز أمان الذكاء الاصطناعي، لا يزالون متشككين في هذا النهج.
كما يمكن لقوى السوق أن تدفع نحو إيجاد حلول.
أوضح مازيكا أن السلوكيات المخادعة للذكاء الاصطناعي "قد تعيق تبنيه إذا تفشت بشكل واسع، ما يولد حافزا قويا للشركات لإيجاد حلول".
واقترح جولدستين حلولا أكثر جذرية، من بينها اللجوء إلى القضاء لمحاسبة شركات الذكاء الاصطناعي عند تسبب أنظمتها في أضرار، بل ذهب إلى حد طرح فكرة "محاسبة وكلاء الذكاء الاصطناعي قانونيا" عن الحوادث أو الجرائم، وهي فكرة من شأنها تغيير طريقة التفكير السائدة بشأن محاسبة الذكاء الاصطناعي.