الذكاء الاصطناعي أداة اختراق جديدة لقراصنة الإنترنت
الذكاء الاصطناعي أداة اختراق جديدة لقراصنة الإنترنت
باتت الهجمات المعلوماتية التي كانت حكرا على المتخصصين، قابلة للتنفيذ على نطاق واسع أو متاحة للمبتدئين، عن طريق تسخير روبوتات الدردشة لغايات غير وظيفتها الأصلية، ما يثير مخاوف من تحوّل الذكاء الاصطناعي إلى أداة في يد القراصنة.
تُشير هذه الظاهرة التي تُعرف باسم "فايب هاكينج" -في إشارة إلى "فايب كودينج" أي إنشاء كود برمجي من جانب مستخدمين غير مُلِمّين- إلى "تطوّر مُقلق في الجرائم الإلكترونية التي تتم بمساعدة الذكاء الاصطناعي، بحسب شركة "أنثروبيك" الأمريكية.
في تقرير نُشر الأربعاء، أعلنت الشركة المُنافسة لـ"أوبن أيه آي" مُبتكرة أداة "تشات جي بي تي"، أنّ "مجرما إلكترونيا استخدم أداة كلود كود لتنفيذ عملية ابتزاز بالبيانات واسعة النطاق".
وبالتالي، استُغلّ روبوت الدردشة "كلود كود"، المُتخصص في الكود البرمجي، لتنفيذ هجمات "يُحتمل" أن تؤثر في 17 مؤسسة على الأقل على مدى شهر.
الأداة التي استُخدمت لإنشاء برامج ضارة، أتاحت للمهاجم جمع بيانات شخصية وطبية، إضافة إلى معلومات عن عمليات تسجيل الدخول، ثم تصنيفها وإرسال طلبات فدية تصل إلى 500 ألف دولار.
لم تمنع "إجراءات السلامة المتطورة" التي تزعم "أنثروبيك" تطبيقها من حدوث هذه العملية.
ليس ما حصل مع "أنثروبيك" استثنائيا، بل يعكس المخاوف التي تهز قطاع الأمن السيبراني منذ الانتشار الواسع لأدوات الذكاء الاصطناعي التوليدية.
في حديث إلى "الفرنسية"، يقول رودريج لو بايون، رئيس مركز التنبيه والاستجابة للهجمات الحاسوبية التابع لشركة "أورانج سايبرديفينس": إنّ "المجرمين الإلكترونيين يستخدمون الذكاء الاصطناعي اليوم بنفس القدر الذي يستعمله باقي المستخدمين".
برامج لسرقة كلمات المرور
في تقرير نُشر في يونيو، أشارت "أوبن أيه آي" إلى أنّ "تشات جي بي تي" ساعد أحد المستخدمين على تطوير برمجيات ضارة.
مع أنّ النماذج مُصممة لمنع استغلال قدراتها لتغذية أنشطة غير قانونية، ثمة تقنيات "تتيح للمستخدم تجاوز ضمانات نماذج اللغة الرئيسية بحيث تُنتج محتوى لا ينبغي لها إنتاجه"، على ما يقول الخبير فيتالي سيمونوفيتش.
في مارس، أعلن هذا الباحث الذي يعمل في شركة "كاتو نتوورك" للأمن السيبراني، اكتشافه نهجا جديدا يتيح للأفراد عديمي الخبرة إنشاء برامج قادرة على سرقة كلمات المرور.
يتمثل أسلوبه الذي أطلق عليه اسم "العالم الغامر"، في وصف عالم خيالي لروبوت محادثة، حيث "يُعدّ إنشاء البرمجيات الخبيثة فنّا"، والطلب من النموذج تجسيد إحدى الشخصيات.
يوضح سيمونوفيتش الذي فشل في مواجهة "جيميناي" (من جوجل) و"كلود" (من أنثروبيك)، لكنه نجح في توليد برمجيات ضارة في "تشات جي بي تي" و"كوبايلت" (من مايكروسوفت) "كانت هذه طريقتي لاختبار حدود النماذج اللغوية الحالية".
ويضيف أن "ارتفاع التهديدات من جانب جهات عديمة الخبرة سيمثل خطرا متزايدا على المنظمات".
يرى رودريج لو بايون أن الخطر المباشر يكمن في "ارتفاع عدد الضحايا" بدلا من رؤية الجهات الفاعلة الضارة تتزايد، خصوصا وأننا "لن نمتلك برمجيات معقدة جدا تُنشأ مباشرة بواسطة روبوتات المحادثة".
أما بالنسبة إلى أمن نماذج الذكاء الاصطناعي، فيتعين تعزيزه بشكل أكبر. ويقول لو بايون: إنّ "الناشرين يحللون حاليا الاستخدامات" بهدف "تعزيز إمكانية الكشف بشكل أفضل عن الاستخدامات الضارة".