الاقتصادية - الموقع الرسمي لأخبار الاقتصاد والأسواق | الاقتصادية

الثلاثاء, 21 أكتوبر 2025 | 28 رَبِيع الثَّانِي 1447
Logo
شركة الاتحاد التعاوني للتأمين10.9
(-0.18%) -0.02
مجموعة تداول السعودية القابضة201.3
(-1.32%) -2.70
الشركة التعاونية للتأمين128.8
(-2.94%) -3.90
شركة الخدمات التجارية العربية107.1
(0.85%) 0.90
شركة دراية المالية5.59
(0.18%) 0.01
شركة اليمامة للحديد والصلب37.9
(-0.26%) -0.10
البنك العربي الوطني25.64
(-1.23%) -0.32
شركة موبي الصناعية13
(2.28%) 0.29
شركة البنى التحتية المستدامة القابضة36.4
(-1.09%) -0.40
شركة إتحاد مصانع الأسلاك24.43
(-1.29%) -0.32
بنك البلاد28.86
(-0.82%) -0.24
شركة أملاك العالمية للتمويل12.7
(-0.39%) -0.05
شركة المنجم للأغذية57.9
(-1.11%) -0.65
صندوق البلاد للأسهم الصينية12.34
(1.15%) 0.14
الشركة السعودية للصناعات الأساسية61
(-0.08%) -0.05
شركة سابك للمغذيات الزراعية123.5
(-0.48%) -0.60
شركة الحمادي القابضة34.94
(-0.74%) -0.26
شركة الوطنية للتأمين15.01
(-1.57%) -0.24
أرامكو السعودية25.08
(0.08%) 0.02
شركة الأميانت العربية السعودية20.22
(-1.75%) -0.36
البنك الأهلي السعودي39.34
(0.51%) 0.20
شركة ينبع الوطنية للبتروكيماويات34.8
(0.00%) 0.00

باتت الهجمات المعلوماتية التي كانت حكرا على المتخصصين، قابلة للتنفيذ على نطاق واسع أو متاحة للمبتدئين، عن طريق تسخير روبوتات الدردشة لغايات غير وظيفتها الأصلية، ما يثير مخاوف من تحوّل الذكاء الاصطناعي إلى أداة في يد القراصنة.

تُشير هذه الظاهرة التي تُعرف باسم "فايب هاكينج" -في إشارة إلى "فايب كودينج" أي إنشاء كود برمجي من جانب مستخدمين غير مُلِمّين- إلى "تطوّر مُقلق في الجرائم الإلكترونية التي تتم بمساعدة الذكاء الاصطناعي، بحسب شركة "أنثروبيك" الأمريكية.

في تقرير نُشر الأربعاء، أعلنت الشركة المُنافسة لـ"أوبن أيه آي" مُبتكرة أداة "تشات جي بي تي"، أنّ "مجرما إلكترونيا استخدم أداة كلود كود لتنفيذ عملية ابتزاز بالبيانات واسعة النطاق".

وبالتالي، استُغلّ روبوت الدردشة "كلود كود"، المُتخصص في الكود البرمجي، لتنفيذ هجمات "يُحتمل" أن تؤثر في 17 مؤسسة على الأقل على مدى شهر.

الأداة التي استُخدمت لإنشاء برامج ضارة، أتاحت للمهاجم جمع بيانات شخصية وطبية، إضافة إلى معلومات عن عمليات تسجيل الدخول، ثم تصنيفها وإرسال طلبات فدية تصل إلى 500 ألف دولار.

لم تمنع "إجراءات السلامة المتطورة" التي تزعم "أنثروبيك" تطبيقها من حدوث هذه العملية.

ليس ما حصل مع "أنثروبيك" استثنائيا، بل يعكس المخاوف التي تهز قطاع الأمن السيبراني منذ الانتشار الواسع لأدوات الذكاء الاصطناعي التوليدية.

في حديث إلى "الفرنسية"، يقول رودريج لو بايون، رئيس مركز التنبيه والاستجابة للهجمات الحاسوبية التابع لشركة "أورانج سايبرديفينس": إنّ "المجرمين الإلكترونيين يستخدمون الذكاء الاصطناعي اليوم بنفس القدر الذي يستعمله باقي المستخدمين".

برامج لسرقة كلمات المرور

في تقرير نُشر في يونيو، أشارت "أوبن أيه آي" إلى أنّ "تشات جي بي تي" ساعد أحد المستخدمين على تطوير برمجيات ضارة.

مع أنّ النماذج مُصممة لمنع استغلال قدراتها لتغذية أنشطة غير قانونية، ثمة تقنيات "تتيح للمستخدم تجاوز ضمانات نماذج اللغة الرئيسية بحيث تُنتج محتوى لا ينبغي لها إنتاجه"، على ما يقول الخبير فيتالي سيمونوفيتش.

في مارس، أعلن هذا الباحث الذي يعمل في شركة "كاتو نتوورك" للأمن السيبراني، اكتشافه نهجا جديدا يتيح للأفراد عديمي الخبرة إنشاء برامج قادرة على سرقة كلمات المرور.

يتمثل أسلوبه الذي أطلق عليه اسم "العالم الغامر"، في وصف عالم خيالي لروبوت محادثة، حيث "يُعدّ إنشاء البرمجيات الخبيثة فنّا"، والطلب من النموذج تجسيد إحدى الشخصيات.

يوضح سيمونوفيتش الذي فشل في مواجهة "جيميناي" (من جوجل) و"كلود" (من أنثروبيك)، لكنه نجح في توليد برمجيات ضارة في "تشات جي بي تي" و"كوبايلت" (من مايكروسوفت) "كانت هذه طريقتي لاختبار حدود النماذج اللغوية الحالية".

ويضيف أن "ارتفاع التهديدات من جانب جهات عديمة الخبرة سيمثل خطرا متزايدا على المنظمات".

يرى رودريج لو بايون أن الخطر المباشر يكمن في "ارتفاع عدد الضحايا" بدلا من رؤية الجهات الفاعلة الضارة تتزايد، خصوصا وأننا "لن نمتلك برمجيات معقدة جدا تُنشأ مباشرة بواسطة روبوتات المحادثة".

أما بالنسبة إلى أمن نماذج الذكاء الاصطناعي، فيتعين تعزيزه بشكل أكبر. ويقول لو بايون: إنّ "الناشرين يحللون حاليا الاستخدامات" بهدف "تعزيز إمكانية الكشف بشكل أفضل عن الاستخدامات الضارة".

للإشتراك في النشرة
تعرف على أحدث الأخبار والتحليلات من الاقتصادية