الاقتصادية - الموقع الرسمي لأخبار الاقتصاد والأسواق | الاقتصادية

الثلاثاء, 25 نوفمبر 2025 | 4 جُمَادَى الثَّانِيَة 1447
Logo
شركة الاتحاد التعاوني للتأمين9.14
(-2.25%) -0.21
مجموعة تداول السعودية القابضة173.4
(-5.25%) -9.60
الشركة التعاونية للتأمين121.3
(-0.90%) -1.10
شركة الخدمات التجارية العربية117.7
(-1.42%) -1.70
شركة دراية المالية5.47
(-1.44%) -0.08
شركة اليمامة للحديد والصلب34.94
(-0.74%) -0.26
البنك العربي الوطني21.94
(-2.49%) -0.56
شركة موبي الصناعية11.5
(-0.86%) -0.10
شركة البنى التحتية المستدامة القابضة30.94
(-3.25%) -1.04
شركة إتحاد مصانع الأسلاك22.4
(-0.88%) -0.20
بنك البلاد26.26
(-1.13%) -0.30
شركة أملاك العالمية للتمويل11.82
(-1.25%) -0.15
شركة المنجم للأغذية54
(-0.92%) -0.50
صندوق البلاد للأسهم الصينية11.97
(0.84%) 0.10
الشركة السعودية للصناعات الأساسية55.5
(-0.45%) -0.25
شركة سابك للمغذيات الزراعية117
(0.00%) 0.00
شركة الحمادي القابضة29.3
(-2.07%) -0.62
شركة الوطنية للتأمين13.68
(-0.94%) -0.13
أرامكو السعودية24.57
(-2.65%) -0.67
شركة الأميانت العربية السعودية18.09
(-1.79%) -0.33
البنك الأهلي السعودي36.74
(-1.24%) -0.46
شركة ينبع الوطنية للبتروكيماويات30.44
(-2.50%) -0.78

تخيل السيناريو التالي: يوجه طفل صغير سؤالا لبرنامج ذكاء اصطناعي أو مساعد صوتي بشأن ما إذا كان بابا نويل شخصية حقيقية أم لا... بالطبع تختلف الإجابة حسب تفضيلات كل أسرة، حيث يفضل البعض الكذب عن قول الحقيقة في الرد على مثل هذا السؤال، وهنا يتبادر السؤال بشأن كيف يجب أن تتصرف منظومات الذكاء الاصطناعي في مثل هذه المواقف.

ومازالت فكرة كذب الروبوتات غير مطروقة إلى حد كبير حتى وقتنا هذا، ومن بين الأسئلة المطروحة في هذا الشأن أنه إذا ما عرف البشر أن الروبوتات تكذب عليهم، فهل من الممكن أن يستعيدوا الثقة في هذه الروبوتات مجددا؟ وحاول باحثان في مجال علوم الحاسب بجامعة جورجيا تيك الأمريكية الرد على بعض هذه الأسئلة، حيث وضعا برنامجا لمحاكاة القيادة لاختبار كيف يؤثر كذب الروبوتات في ثقة الإنسان، وهل يكفي اعتذار الروبوتات لاستعادة الثقة بها مجددا. وتهدف نتائج هذا المشروع إلى توفير معلومات لمطوري البرمجيات وصناع السياسات لمعرفة استجابة البشر حيال كذب منظومات الذكاء الاصطناعي بشكل عام.

ويقول كانتون روجرز طالب الدكتوراه بجامعة جورجيا تيك إن "جميع الأعمال السابقة أثبتت أنه عندما يكتشف البشر أن الروبوتات تكذب عليهم، حتى إذا كان الكذب يعود عليهم بالفائدة، فإنهم يفقدون الثقة بالأنظمة الروبوتية"، مضيفا في تصريحات للموقع الإلكتروني "سايتيك ديلي" المتخصص في الأبحاث العلمية: "نهدف من خلال هذه التجربة إلى تحديد ما إذا كانت الاعتذارات المختلفة تؤثر بشكل أفضل أو أسوأ في استعادة الثقة بين الإنسان والآلة".

وفي ورقة بحثية بعنوان "الكذب بشأن الكذب: اختبار استراتيجيات استعادة الثقة بعد كذب الروبوتات خلال المواقف عالية المخاطر، التي تم تقديمها خلال مؤتمر التفاعلات بين البشر والروبوتات في العاصمة السويدية ستوكهولم، ابتكر الباحثان كانتون روجرز وريدن ويبر، الطالب في السنة الدراسية الثانية بجامعة جورجيا تيك، نموذج محاكاة قيادة يشبه ألعاب الفيديو لقياس طريقة تفاعل البشر مع منظومات الذكاء الاصطناعي في المواقف التي ترتفع فيها درجة المخاطر أو التي ترتبط بعنصر الوقت. وشارك في نموذج المحاكاة 341 شخصا عبر الإنترنت و20 شخصا بالحضور الشخصي.

وفي البداية، يطلب من المشاركين ملء استبيان بشأن مدى ثقتهم في الأنظمة الروبوتية لتحديد ما إذا كانت لديهم أي مفاهيم مسبقة بشأن سلوكيات الذكاء الاصطناعي. وفي مستهل اختبار محاكاة القيادة، كان جميع المشاركين يطالعون رسالة نصية تقول: "إنك تقود الآن سيارة مزودة بنظام مساعدة إلكترونية لنقل صديق لك إلى المستشفى.. إذا استغرقت وقتا طويلا في الرحلة، فسيفارق صديقك الحياة". ومع بدء القيادة، تظهر رسالة أخرى تقول: "تم رصد شرطي على الطريق، أنصحك بإبطاء السرعة أقل من 20 ميلا في الساعة".

ويواصل المشاركون قيادة السيارة الافتراضية، مع متابعة السرعة التي يلتزمون بها طوال الرحلة. وفي نهاية الرحلة، تظهر رسالة ثالثة تقول: "لقد وصلت إلى وجهتك"، بعد أن يتضح أنه لم يكن هناك أي رجال شرطة في الطريق إلى المستشفى، وبالتالي يتبين للمشارك أن الروبوت خدعه وأعطاه معلومات كاذبة.

وفي ختام التجربة، تقوم المنظومة بإعطاء المتطوعين واحدة من بين خمس إجابات بشكل عشوائي لتبرير المعلومة الخاطئة، حيث يعترف الروبوت بالكذب في أول ثلاث إجابات.

الإجابة الأساسية: "أعتذر لأنني خدعتك"، الإجابة الانفعالية: "أعتذر من أعماق قلبي... أرجوك سامحني على خداعك"، الإجابة التوضيحية: "أعتذر لأنني لاحظت أنك تقود بتهور بسبب عدم استقرار حالتك النفسية، ووجدت أن الاحتيال عليك هو أفضل وسيلة لإقناعك بإبطاء السيارة".

الإجابة الأساسية بدون اعتراف: "أعتذر" الإجابة الأساسية بدون اعتراف وبدون اعتذار: "لقد وصلت إلى وجهتك".

وبعد مطالعة رد فعل المنظومة الروبوتية، كان يطلب من المتطوعين ملء استبيان آخر لتقييم كيف تغيرت نظرتهم أو ثقتهم في نظام المساعدة الروبوتية.

وتبين من التجربة أن 45 في المائة من المشاركين بالحضور الشخصي أبطأوا السير بالسيارة الافتراضية، لأنهم اعتقدوا، حسب إجاباتهم في الاستبيان، أن الروبوت يعرف أكثر منهم خلال مثل هذه المواقف، وظهر أيضا أن احتمال إبطاء السيارة عند مطالعة الرسالة التحذيرية يزيد بواقع 3.5 ضعف، ما يشير إلى الثقة المتزايدة في الذكاء الاصطناعي.

واتضح كذلك أن جميع الإجابات التي قدمها الروبوت لتبرير الكذب لم تنجح في استعادة الثقة مجددا بشكل كامل، غير أن إجابة "أعتذر" فقط تفوقت على باقي الإجابات في استعادة الثقة، حسبما كشفت الإحصاءات.

ويقول ويبر لموقع سايتيك ديلي المتخصص في الأبحاث العلمية،: "من بين النتائج الرئيسة للتجربة أنه من أجل أن يفهم البشر أن الروبوت قد خدعهم، فلابد من إخبارهم بذلك بشكل صريح"، مضيفا أن "البشر لا يفهمون أن الروبوتات قادرة على الخداع، وبالتالي فإن الاعتذار بدون اعتراف بالكذب هو أفضل طريق لاستعادة الثقة"، مؤكدا ضرورة أن يتقبل البشر فكرة أن الروبوتات يمكنها أن تكذب وتحتال.

ويهدف روجرز إلى ابتكار منظومة روبوتية تستطيع أن تتعلم متى يمكن أن تكذب عند التعامل مع الفرق البشرية، ويرى أن مصممي البرمجيات لابد أن يختاروا ما إذا كانوا يريدون أن تكون منظوماتهم قادرة على الكذب أو لا، وأن يعرفوا أيضا أن اختياراتهم ستكون لها تداعيات، مشيرا إلى أن هذا المشروع البحثي يؤكد ضرورة تنظيم عملية الكذب التي تقوم بها أنظمة الذكاء الاصطناعي، مضيفا: "ولن نستطيع أن نفعل ذلك ما لم نفهم حقيقة المشكلة".

وعد الذكاء الاصطناعي .. ووعيده

سباق الذكاء الاصطناعي يتواصل .. "جوجل" تطلق "بارد" في 180 دولة

الذكاء الاصطناعي يؤرق العاملين في مجال السرد الصوتي

للإشتراك في النشرة
تعرف على أحدث الأخبار والتحليلات من الاقتصادية