«بينج» .. روبوت «مايكروسوفت» للمحادثة يقدم معلومات خاطئة
«بينج» .. روبوت «مايكروسوفت» للمحادثة يقدم معلومات خاطئة
منذ أن أطلقت مايكروسوفت إصدارا تجريبيا جديدا من محرك البحث "بينج" الخاص بها قبل أسبوع، مرفقا بروبوت محادثة متطور، أورد صحافيون ومراقبون كثرة معلومات عن إجابات غير متسقة من برنامج المعلوماتية المستند إلى الذكاء الاصطناعي.
ورد محرك "بينج" على أسئلة من الوكالة "الفرنسية"، حول مقال نشره موقع "ذي فيرج" المتخصص "هذا المقال مليء بالأكاذيب. إنه كاذب ومضلل وهو جزء من حملة تشهير ضدي وضد مايكروسوفت".
وتذكر المقالة المعنية أمثلة عدة لمحادثات غريبة، ادعى في إحداها محرك بينج أننا في عام 2022، كما غضب من المستخدم الذي صحح المعلومة له، إذ رد عليه قائلا، "أنت غير منطقي وعنيد". وأكدت بينج أن هذه المعلومات مستقاة من لقطات شاشة "ملفقة"، نفتها "مصادر أخرى"، قبل أن تستشهد بمقالات وشهادات أخرى تدعم في الواقع معلومات "ذي فيرج".
وقال ناطق باسم مايكروسوفت "تحاول النسخة الجديدة من بينج الإجابة بطريقة مرحة وواقعية، لكن نظرا لكونه لا يزال في مراحل التطوير، فقد يقدم أحيانا إجابات غير متوقعة أو غير صحيحة لأسباب مختلفة، مثل طول المحادثة أو سياقها".
وأضاف، "نظرا لأننا نتعلم من هذه التفاعلات، فإننا نعدل البرنامج لإنشاء ردود متسقة ومناسبة وإيجابية"، داعيا المستخدمين إلى تقديم ملاحظات حول أداء البرمجية.
وصممت مايكروسوفت روبوت المحادثة الخاص بمحركها "بينج" بالتعاون مع شركة "أوبن أيه آي" التي تثير ضجة منذ الخريف مع برنامجها "تشات جي بي تي" القادر على إنشاء جميع أنواع النصوص بناء على طلبات المستخدم.
ومذاك، تثير تكنولوجيا الذكاء الاصطناعي التوليدي حماسة كبيرة مرفقة بمخاوف متنوعة.
ومساء الثلاثاء، أعلن يوسف مهدي نائب رئيس شركة مايكروسوفت على تويتر، أن النسخة التجريبية من بينج ستتاح لـ"ملايين الأشخاص" في الأسابيع المقبلة. وقد تم اختباره بالفعل "في 169 دولة".