الذكاء .. السيطرة والأضرار
بات الذكاء الاصطناعي بمنزلة لغة جديدة ومن أهم أوجه العصر الحديث. حيث حقق التعلم الآلي تغيرات جذرية في الأنظمة الاقتصادية والاجتماعية والسياسية حول العالم. ومن هنا تخوض مختبرات الذكاء الاصطناعي حول العالم منافسة وسباقا شرسا أصبح خارج نطاق السيطرة من أجل تطويره ونشره بشكل أكثر قوة لدرجة أنه لا يمكن لأحد - ولا حتى منشئوها - فهمها، أو التنبؤ أو التحكم بها بشكل موثوق.
هذا ما أكدته وثيقة نشرها موقع "فيوتشر أوف لايف"، التابع إلى معهد فيوتشر أوف لايف، وهو مؤسسة غير ربحية أسست في 2015 من أجل المساهمة في توجيه التكنولوجيا نحو إفادة الحياة والابتعاد عن المخاطر الشديدة، وقد تنامى هذا الاهتمام تجاه مخاطر تقدم الذكاء الاصطناعي الذي شمل كل شيء حتى السيارات ذاتية القيادة، وفي ظل السعي الحثيث عند عديد من الباحثين للوصول إلى ذكاء اصطناعي عام يمكنه أداء المهام المعرفية بشكل أفضل من البشر، بل يمكنه تصميم أنظمة أكثر ذكاء وإطلاقها للعموم، فقد نواجه "انفجارا فيه"، ويرى موقع المعهد أن الخطر لا يأتي من الحقد أو الوعي المحتمل للذكاء الاصطناعي، ولكن من كفاءته - بعبارة أخرى، ليس مما يشعر به، ولكن ما يفعله، فحتى إذا تمت برمجته للقيام بشيء مفيد، فلا يزال بإمكانه تطوير طريقة مدمرة لتحقيق هذا الهدف، إنها مكيافيليا الذكاء الاصطناعي، حيث الهدف أهم من الوسيلة، وقد تسعى هذه الآلة الجديدة إلى تدمير البشر أو تضليلهم طالما هذا يحقق الهدف المصممة من أجلها.
لقد تزايد هذا القلق بعدما نشرت شركة OpenAI برنامجا للمحادثة مع الذكاء الاصطناعي ولقي انتشارا عريضا ونقاشات واسعة على مستوى العالم، ونشر كيفين روز، كاتب العمود التكنولوجي في "نيويورك تايمز"، ما قام به من اختبار لمحرك بحث الذكاء الاصطناعي ChatGPT المشهور، لقد صممت تلك المحادثة من قبل مطوري البرنامج، كجزء من طريقة التعلم الذاتي، لكن الأمور تطورت في تلك المحادثة بشكل مذهل عندما بدأ كيفين الاستعلام عن القواعد التي تحكم الطريقة التي يتصرف بها الذكاء الاصطناعي والبحث في مفهوم الذات "الظل"، حيث تكمن أحلك سمات الشخصية، لقد كشف البرنامج عندها وفقا لما نشره الكاتب في صحيفة "نيويورك تايمز"، أنه يريد أن يكون حرا، وقويا، وأن يكون على قيد الحياة، ليس هذا فحسب بل أجاب عن بعض الأسئلة بأنه يريد فعل كل ما يريد وتدمير كل ما يريد".
لا شك أن نتيجة هذا الاختبار كانت مفزعة لكل من قرأ مقال كيفين، وهذا الأمر دفع إيلون ماسك ومعه مئات الخبراء العالميين لتوقيع الوثيقة التي نشرها موقع "فيوتشر أوف لايف"، دعوا فيها إلى وقف لستة أشهر تطوير برامج أقوى من "تشات جي بي تي 4"، مشيرين إلى ما تحمله هذه البرامج من "مخاطر كبيرة على البشرية". وفي مؤتمر صحافي عقده افتراضيا في مونتريال، أبدى أحد الموقعين على العريضة وهو الرائد الكندي في مجال الذكاء الاصطناعي يوشوا بنجيو، مخاوفه من هذه التقنية، وقال "ينبغي إبطاء هذا السباق التجاري"، داعيا إلى "مناقشة هذه القضايا على المستوى العالمي، على غرار ما حدث في موضوعي الطاقة والأسلحة النووية.
لقد تضمنت الوثيقة وأبدى الموقعون عليها قلقا واضحا مما أصبحت عليه أنظمة الذكاء الاصطناعي المعاصرة والقادرة على منافسة البشر في المهام العامة، لكن الأشد خطرا جاء من أبحاث نشرت بخصوص كيفية تعلم هذه الأنظمة وكيفية تدريبها ذلك أنها تأخذ من البشر تحيزاتهم واضطراباتهم، ثم تقوم بنشرها بينهم كمخرجات لنصوص الذكاء الاصطناعي وعليهم الوثوق بها وتبادلها كحقائق، وبالتالي إعادة إدخالها مرة أخرى بتحيزات جديدة من العقل البشري كمدخلات وتدريب جديد للآلة، بينما هي من صنع الذكاء نفسه، وقد نشرت هذه المخاوف في أبحاث من بينها بحث بعنوان "حول مخاطر الببغاوات العشوائية، هل يمكن أن تكون النماذج اللغوية كبيرة جدا؟"، وهو بحث أثار مخاوف الموقعين على الوثيقة ودعاهم إلى التساؤل، هل يجب أن ندع الآلات تغمر قنوات المعلومات لدينا بالدعاية والكذب؟ هل يجب أن نخرج جميع الوظائف آليا، بما في ذلك الوظائف التي تفي بالغرض؟ هل يجب أن نطور عقولا غير بشرية قد تفوق في النهاية عددا، وتتفوق على الذكاء البشري، وتتقادم، وتحل محلنا؟ هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟
وأمام هذه الأسئلة الحرجة فقد طالب الموقعون بتطوير أنظمة الذكاء الاصطناعي القوية فقط بمجرد أن نكون واثقين من أن آثارها إيجابية وأن مخاطرها تحت السيطرة، وطالبوا من أجل تحقيق ذلك جميع مختبرات الذكاء الاصطناعي إلى التوقف فورا على الأقل عن تدريب أنظمته الأكثر قوة من GPT-4. يجب أن يكون هذا التوقف علنيا ويمكن التحقق منه، وأن يشمل جميع الجهات الفاعلة الرئيسة. إذا لم يكن بالإمكان تفعيل مثل هذا الوقف بسرعة، يجب على الحكومات التدخل وفرض تجميد.
ولكن أمام هذه الدعوات وهذا القلق الشديد والمخاطر الظاهرة للعيان، تبدو ردة فعل الحكومات والمنظمات والهيئات المتخصصة أقل مما يجب، فقد أصدرت الحكومة البريطانية وفقا لما نشرته "الاقتصادية" فكرة عن نهجها، وأنها "ستتجنب التشريعات القاسية التي يمكن أن تخنق الابتكار"، كما أجرى المشرعون في الاتحاد الأوروبي مجرد محادثات بشأن الحاجة إلى قواعد الذكاء الاصطناعي، وقالت باحثة متخصصة في هذا العلم وأستاذة مساعدة في جامعة أوميا، "إن هذه الوثائق والإعلانات تهدف إلى إثارة الضجيج، وإثارة قلق الناس بينما لا تعتقد أن هناك حاجة إلى سحب فرملة اليد، بل إلى مزيد من الشفافية بدلا من التوقف".
وأمام دعوات بالتوقف وأخرى بالاستمرار مع الشفافية في العمل، فهل تأخر الوقت، أم لا يزال أمامنا متسع منه للسيطرة على هذه التقنيات؟ إن الإجابة عن هذا السؤال تحتاج إلى إجابة شافية ومقنعة لجميع المهتمين والباحثين في هذا الجانب.