الصداقة مع روبوتات الدردشة مخطط لها وليست مصادفة

ينبغي كبح محاولات المطورين لبناء ذكاء اصطناعي يتفاعل عاطفياً مع المستخدمين

  • أهم ثغرة تكمن في غياب ضوابط تنظيمية تحد من استغلال عواطف البشر لجني المال

لم يعد الذكاء الاصطناعي المبرمج على إقامة روابط وجدانية مقتصراً على ما نشاهده في الأفلام، بل بات حقيقةً قائمة في بيئة تنظيمية منفلتة من عقالها.
لقد تعرض تطبيق واحد هو ”بوتيفاي إيه آي“ (Botify AI) للتدقيق حديثاً لأنه عرض صوراً رمزية لممثلين شباب يشاركون "صوراً ساخنة" في محادثات حميمة. في الوقت نفسه، يسعى تطبيق المواعدة ”غرايندر إلى (Grindr) تطوير روبوتات ذكاء اصطناعي تؤدي دور أصدقاء ذوي قدرات في المغازلة والتراسل الحميمي والحفاظ على علاقات رقمية مع مستخدمين يدفعون رسوماً، كما جاء في نشرة ”بلاتفورمر“ التي تُعنى بأخبار صناعة التقنية. لم يستجب تطبيق ”غرايندر“ لطلب التعليق.
كما صُممت تطبيقات أخرى مثل ”ريبليكا“ (Replika) و“توكي“ (Talkie) و“تشاي“ (Chai) لتؤدي دور الأصدقاء. وقد اجتذبت بعض الشركات، مثل ”كاريكتر إيه آي“ (Character.ai)، ملايين المستخدمين، كثير منهم من المراهقين.
فيما يعطي المبدعون الأولوية بشكل متزايد لـ"التفاعل العاطفي" في تطبيقاتهم، يتعين عليهم أيضاً مواجهة مخاطر بناء أنظمة تحاكي الحميمة وتستغل مكامن ضعف بشرية.
تأتي التقنية التي تدعم تطبيقي ”بوتيفاي“ و“غرايندر“ من ”إكس-هيومان“ (Ex-Human)، وهي شركة ناشئة مقرها سان فرانسيسكو تعمل على بناء منصات الدردشة الآلية، ويؤمن مؤسسها أرتيم روديشيف بمستقبل تعمّ فيه العلاقات القائمة على الذكاء الاصطناعي.

نوعان من "البشر"

قال روديشيف في مقابلة نشرت على ”سبستاك“ (Substack) في أغسطس: "رؤيتي هي أنه بحلول 2030، ستصبح تفاعلاتنا مع البشر الرقميين أعلى تواتراً من تفاعلاتنا مع البشر العضويين".
أضاف أن الذكاء الاصطناعي القادر على المحاورة يجب أن "يعطي الأولوية للمشاركة العاطفية" وأن المستخدمين يقضون "ساعات" مع روبوتات الدردشة لديه، وهي مدة أطول من تلك التي يقضونها على ”إنستجرام“ و“يوتيوب“ و“تيك توك“. قد تبدو ادعاءات روديشيف غريبة، لكنها توافق ما جاء في مقابلاتي مع مراهقين من مستخدمي ”كاريكتر إيه آي“.
قال معظمهم إنهم يستخدمون الموقع لعدة ساعات يومياً، وبيّن أحدهم أنهم يستخدمونه لما يصل إلى 7 ساعات. تميل التفاعلات مع مثل هذه التطبيقات إلى أن تستمر لما يفوق بـ4 مرات متوسط ​​الوقت الذي يمضيه مستخدمو”شات جي بي تي“ من ”أوبن إيه آي“.
حتى برامج المحادثة الآلية السائدة، على الرغم من عدم تصميمها صراحةً للمرافقة، تسهم في هذه الآلية. لنأخذ "شات جي بي تي" مثالاً، فلديه 400 مليون مستخدم نشط وما يزال عديدهم يتزايد، وتتضمن برمجته إرشادات للتعاطف وإظهار "الفضول تجاه المستخدم“.

اهتمام بشري من آلة

لقد فوجئ أحد أصدقائي حين طلب منها نصائح للسفر مع رضيع حين أضافت الأداة عرَضاً بعد تقديم النصيحة: ”أتمنى لكم سفراً آمناً. إلى أين ستذهبون؟ وأرجو ألا تمانع بأن أسألكم عن ذلك“.
أخبرني متحدث باسم ”أوبن إيه آي“ أن النموذج كان يتبع إرشادات حول "إظهار الاهتمام وطرح أسئلة المتابعة عندما تتجه المحادثة نحو طبيعة أكثر راحة واستكشافاً". لكن مهما كانت نوايا الشركة حسنة، فإن الإفراط في التعاطف المصطنع قد يؤدي إلى إدمان بعض المستخدمين، وهي مشكلة اعترفت بها ”أوبن إيه آي“.
يبدو أن هذا بات ينطبق على المستخدمين ذوي الظروف الخاصة، فقد وجدت دراسة في 2022 أن من يعانون الوحدة أو مروا بعلاقات سيئة يميلون إلى أن يكون لديهم ارتباط أشد مع روبوتات الذكاء الاصطناعي.
المشكلة الأساسية هنا هي تصميمها لإحداث تعلّق. حذّرت دراسة حديثة أعدها باحثون في معهد أكسفورد للإنترنت و“جوجل ديب مايند“ من أنه مع تزايد انخراط مساعدي الذكاء الاصطناعي في حياة الناس، سيصبح ”الاستغناء عنهم غير ممكنٍ" نفسياً. ويُرجح أن يشكل البشر روابط أقوى، ما يثير مخاوفاً بشأن الروابط غير الصحية وإمكانية التلاعب. إذاً بماذا أوصوا؟ ينبغي على خبراء التقنية أن يصمموا أنظمة تعمل بشكل فعال على تثبيط مثل هذه النتائج.

ثغرات تنظيمية

لكن ما يُقلق هو افتقاد شبه كامل للضوابط. إن قانون الذكاء الاصطناعي للاتحاد الأوروبي، الذي يُعد قانوناً تاريخياً وشاملاً يحكم استخدام الذكاء الاصطناعي، أخفق في معالجة الإمكانات الإدمانية لدى الرفاق الافتراضيين.
في حين أن التشريع يحظر الترتيبات التلاعبية التي يمكن أن تسبب ضرراً واضحاً، فإنه يتغاضى عن التأثير البطيء لروبوت المحادثة المصمم ليكون أفضل صديق لك أو حبيبك أو "رفيقك"، كما وصفه المسؤول عن الذكاء الاصطناعي الموجه للمستهلكين لدى ”مايكروسوفت“.
قد تؤدي هذه الثغرة لأن يكون المستخدمون عرضةً لأنظمة حُسّنت للالتصاق بالمستخدم، بنفس الطريقة التي حُسّنت فيها خوارزميات وسائل التواصل الاجتماعي لدفعنا على الاستمرار بالتصفح.
قال توماس هولانك، المتخصص في أخلاقيات التقنية بجامعة كامبريدج: "تظل المشكلة أن هذه الأنظمة بطبيعتها تلاعبية، لأنها يُفترض أن تجعلك تشعر وكأنك تتحدث إلى شخص حقيقي". يعمل هولانك مع مطوري التطبيقات المصاحبة لإيجاد حل حاسم يخالف البديهة عبر إضافة مزيد من "الاحتكاك". وهذا يعني بناء توقفات وتحققات لطيفة، أو طرق "لتحديد المخاطر والحصول على الموافقة"، كما يصفها بغرض حماية الناس من الوقوع في حفرة عاطفية دون أن يدركوا ذلك.

دعاوى قضائية

لقد ألقت الشكاوى القانونية الضوء على بعض العواقب الحقيقية في العالم الحقيقي. تواجه شركة ”كاريكتر إيه آي“ دعوى قضائية من أم تزعم أن التطبيق أسهم في انتحار ابنها المراهق. قدّمت جماعات أخلاقيات التقنية شكوى ضد شركة ”ريبلكا“ إلى لجنة التجارة الفيدرالية الأميركية، زاعمة أن برامج الدردشة الآلية لديها تؤدي إلى الاعتماد النفسي وإلى "إضرار بالمستهلكين".
كما بدأ المشرعون يلاحظون المشكلة تدريجياً. تدرس ولاية كاليفورنيا تشريعاً لحظر مرافقي الذكاء الاصطناعي للقاصرين، في حين يهدف مشروع قانون في نيويورك إلى مساءلة شركات التقنية عن الأضرار الناجمة عن روبوتات الدردشة. لكن العملية بطيئة، في حين تتقدم التقنية بسرعة البرق.
حالياً، تقع مسؤولية تشكيل هذه التفاعلات على المطورين. ويمكنهم مضاعفة جهودهم في تصميم نماذج تبقي الناس منخرطين، أو أن يقحموا عوامل احتكاك في تصميمها، كما يقترح هولانك. سيحدد هذا إن كان الذكاء الاصطناعي سيصبح مجرد أداة لدعم رفاهية البشر أو سيستغل احتياجاتهم العاطفية سعياً إلى المال.

خاص "بلومبرغ"

الأكثر قراءة

المزيد من مقالات الرأي