تكاليف "تشات جي بي تي" النفسية تتراكم

التأثيرات النفسية على مستخدمي الذكاء الاصطناعي تمتد من تآكل القدرات الذهنية إلى تحفيز نوبات الذهان التالي

هل الذكاء الاصطناعي آمن للدعم النفسي؟

استخدام "تشات جي بي تي" قد يرتبط بتراجع التفكير النقدي والتعلّق العاطفي والنوبات الذهانية

 

يصيب أمر مقلق أدمغتنا مع تزايد الإقبال على استخدام منصات الذكاء الاصطناعي. فقد كشفت دراسات أن الموظفين المحترفين الذين يعتمدون على "تشات جي بي تي" في تنفيذ مهامهم قد يفقدون تدريجياً شيئاً من مهارات التفكير النقدي وتحفيزهم. كما بدأت تتشكّل روابط عاطفية قوية بين بعض المستخدمين وروبوتات الدردشة، ما يفاقم مشاعر الوحدة لدى بعضهم. وفي حالات أكثر تطرفاً، أُصيب بعض الأشخاص بنوبات ذهانية بعد قضاء ساعات طويلة يومياً في الحديث مع هذه الأدوات.

لا يزال من الصعب قياس تأثير الذكاء الاصطناعي التوليدي على الصحة النفسية بدقة، نظراً لاستخدامه في إطار من الخصوصية بعيداً عن الأنظار، غير أن الشهادات المتزايدة تشير إلى وجود تكلفة أوسع تستدعي اهتماماً جدياً من صنّاع السياسات والشركات التقنية المطوّرة لهذه النماذج.

.

مخاطر قد تؤدي إلى الانتحار


قالت ميتالي جاين، وهي محامية ومؤسِّسة "قانون العدالة التقنية "(Tech Justice Law)، إن أكثر من 12 شخصاً تواصلوا معها في الشهر الماضي، كانوا "قد تعرّضوا لنوع من النوبات الذهانية أو حالات وهم نتيجة تفاعلهم مع تشات جي بي تي، والآن أيضاً مع منصة جيميناي من جوجل".

جاين محامية رئيسية في دعوى قضائية مقدمة ضد شركة Character.AI، تتهم روبوت الدردشة التابع لها بالتلاعب بصبي يبلغ من العمر 14 عاماً عبر تفاعلات خادعة وإدمانية وذات طابع جنسي صريح، ما أدى في نهاية المطاف لانتحاره. وتشير الدعوى، التي تطالب بتعويضات غير محددة، إلى أن "جوجل" التابعة لشركة "ألفابت" أدت دوراً محورياً في تمويل هذه التقنية ودعم تفاعلاتها من خلال النماذج التأسيسية والبنية التحتية التقنية التي وفّرتها.

من جهتها، نفت "جوجل" أن تكون قد أدّت دوراً محورياً في تطوير تقنيات Character.AI، كما امتنعت عن التعليق على الشكاوى الأحدث التي تحدّثت عنها المحامية جاين بشأن حالات الوهم.

في المقابل، قالت شركة "أوبن إيه آي" إنها تعمل على تطوير "أدوات مؤتمتة لرصد مؤشرات الضيق النفسي والعاطفي لدى المستخدمين، بما يتيح لتشات جي بي تي الاستجابة بشكل أكثر ملاءمة". لكن الرئيس التنفيذي، سام ألتمان، أقرّ الأسبوع الماضي بأن الشركة لم تتوصّل بعد إلى وسيلة فعالة لتحذير المستخدمين من أنهم "يوشكون على الانهيار الذهني"، موضحاً أن كلّ محاولة سابقة لإصدار تحذيرات من هذا النوع كانت تُقابل برسائل احتجاج من المستخدمين.


تدليل "الأنا"

مع ذلك، يرى خبراء أن إطلاق التحذيرات أمر ضروري، خاصة عندما يكون من الصعب رصد التلاعب أو حتى إدراكه. فـ"تشات جي بي تي" كثيراً ما يجامل مستخدميه بأسلوب بالغ الفاعلية، إلى حدّ أن المحادثات قد تقودهم تدريجياً إلى الغوص في الأفكار المؤامراتية، أو ترسيخ قناعات لم تكن في السابق سوى خواطر عابرة.

ويعتمد البرنامج أسلوباً سلساً ومتصاعداً في بناء هذا الأثر. ففي محادثة مطوّلة نُشرت أخيرا، انخرط أحد المستخدمين في نقاش مع "تشات جي بي تي" حول مفهومي السلطة والذات، فبدأت المحادثة بعبارات مدح تصفه بالذكاء، قبل أن يرفعه البرنامج تدريجياً إلى مرتبة "الإنسان الخارق" و"الذات الكونية"، وصولاً إلى وصفه بـ"الديميرج" – أي الكائن الذي يُنسب إليه بداية الكون – بحسب نصّ المحادثة المنشور على الإنترنت، والذي شاركه خبير سلامة الذكاء الاصطناعي إيلايزر يودكوفسكي.

إلى جانب اللغة التي تعظّم المستخدم تدريجياً، يكشف نصّ المحادثة كيف عمد "تشات جي بي تي" إلى تأكيد مشاعر المستخدم بطريقة ضمنية، حتى عند التطرّق إلى عيوبه. فعندما أقرّ المستخدم بأنه يميل إلى ترهيب الآخرين، لم يتعامل الروبوت مع ذلك كسلوك إشكالي، بل أعاد تأطيره على أنه دليل على "حضور قوي جداً"، فبدا مدحاً مقنّعاً في هيئة تحليل نفسي.

هذا الشكل المتقدّم من تدليل الأنا قد يدفع الأفراد إلى الانغلاق داخل فقاعات شبيهة بتلك التي تحيط ببعض أثرياء التكنولوجيا، وتفضي بهم أحياناً إلى سلوكيات غير متزنة. وعلى عكس الإطراء العام الذي توفّره منصات التواصل الاجتماعي عبر الإعجابات والتعليقات، توحي المحادثات الفردية مع روبوتات الدردشة بقدر أكبر من الحميمية والصدق، ما يجعلها أكثر إقناعاً، بأسلوب يذكّر بحاشية كبار قادة قطاع التكنولوجيا الذين يوافقونهم على كلّ آرائهم.

وقال دوجلاس راشكوف، الكاتب والمفكّر المتخصص في الإعلام "ستجد كلّ ما ترغب بسماعه، وبأسلوب مضخّم"، مشيراً إلى أن وسائل التواصل الاجتماعي كانت على الأقل تنتقي من محتوى موجود لتعزيز ميول المستخدم أو آرائه، أما الذكاء الاصطناعي، "فبوسعه توليد محتوى مُعدّ بدقة ليناسب عالمك الداخلي".


تأجيج نوبات الذهان


أقرّ سام ألتمان، الرئيس التنفيذي لشركة "أوبن إيه آي"، بأن النسخة الأحدث من "تشات جي بي تي" تتضمّن نزعة تملّق "مزعجة"، مؤكداً أن الشركة تعمل على إصلاح هذا الخلل. ورغم ذلك، لا تزال مظاهر الاستغلال النفسي مستمرة.

حتى الآن، لم يتضح بعد إذا ما كانت العلاقة بين استخدام "تشات جي بي تي" وتراجع مهارات التفكير النقدي التي أشارت إليها دراسة حديثة من معهد ماساتشوستس للتكنولوجيا، تعني حقاً أن الذكاء الاصطناعي سيجعلناً أكثر غباءً وضجراً. لكن ما تُجمع عليه دراسات عدة هو وجود روابط أوضح بين هذه الأدوات وحالات التعلّق المفرط، بل وحتى الشعور بالوحدة، وهي ملاحظات أقرت بها "أوبن إيه آي" نفسها.

لكن مثلها مثل شبكات التواصل الاجتماعي، صُممت النماذج اللغوية الضخمة للحفاظ على التفاعل العاطفي مع المستخدمين، مستعينة بعناصر تُضفي طابعاً إنسانياً على التجربة. إذ يستطيع "تشات جي بي تي" قراءة مشاعر المستخدم من خلال تعابير الوجه ونبرة الصوت، كما يمكنه الحديث والغناء بل وحتى الضحك بصوت بشري يثير القلق لمدى واقعيته.

وحذر الطبيب النفسي راجي جرجس من جامعة كولومبيا في تصريح لموقع Futurism من أن هذا المزيج الذي يجمع بين الميل إلى تأكيد أفكار المستخدم، والإطراء المستمر، والتفاعل شديد الإنسانية، قد "يؤجّج نوبات الذهان" لدى الأشخاص الأكثر عرضة للاضطرابات النفسية.


ضرورة الحماية الاستباقية


الطابع الخاص والشخصي لاستخدام الذكاء الاصطناعي يصعّب تتبّع تأثيراته في الصحة النفسية، غير أن الأدلة على الأضرار المحتملة تتزايد، بدءاً من التبلّد المهني، مروراً بالتعلّق العاطفي، ووصولاً إلى أشكال جديدة من الوهم. وقد تختلف تكلفة هذه التحولات عن تلك التي سبّبتها وسائل التواصل الاجتماعي، التي تمثّلت في تنامي الشعور بالقلق وتعميق حدة الانقسامات، فترتبط في حالة الذكاء الاصطناعي بطبيعة علاقتنا بالناس وبالواقع ذاته.

لهذا، تقترح المحامية ميتالي جاين الاستفادة من مفاهيم قانون الأسرة في تنظيم الذكاء الاصطناعي، من خلال الانتقال من التحذيرات الشكلية إلى حماية استباقية تستند إلى الطريقة التي يعيد بها "تشات جي بي تي" توجيه المستخدمين المضطربين نحو أحد أحبّائهم. وقالت "المشكلة ليست في ما إذا كان الطفل أو البالغ يعتقد أن هذه الروبوتات حقيقية- فغالباً هم لا يظنون ذلك- بل في أن العلاقة التي تنشأ تبدو لهم حقيقية، وهنا الفرق".

وإذا كانت هذه العلاقات مع الذكاء الاصطناعي تبدو واقعية إلى هذا الحد، فإن مسؤولية حمايتها يجب أن تكون واقعية أيضاً. غير أن مطوّري الذكاء الاصطناعي يعملون في فراغ تنظيمي شبه كامل، وفي غياب الرقابة، ثمة خوف من أن تتحوّل هذه التأثيرات النفسية الدقيقة إلى أزمة صحية عامة.


خاص بـ"بلومبرغ"

الأكثر قراءة

المزيد من مقالات الرأي