هل يكمل الاتحاد الأوروبي لمساته الأخيرة لتنظيم الذكاء الاصطناعي؟

هل يكمل الاتحاد الأوروبي لمساته الأخيرة لتنظيم الذكاء الاصطناعي؟

لم الحاجة إلى تنظيم الذكاء الاصطناعي؟
لم يجد المنظمون في جميع أنحاء العالم نقصا في المشكلات التي تدعو للقلق مع ظهور الذكاء الاصطناعي.
هل ينبغي أن يتدخلوا في الخوارزميات التي يمكن أن تتحيز أو تشوه القرارات التي تؤثر في الحياة اليومية للمليارات من الناس؟ ماذا عن خطر قيام روبوتات المحادثة، مثل تشات جي بي تي، بزيادة إنتاج المعلومات المضللة على الإنترنت، أو تؤدي إلى إساءة استخدام كميات هائلة من البيانات الشخصية؟ وماذا ينبغي أن يفعلوا حيال التحذيرات من أن أجهزة الحاسوب قد تصل قريبا إلى مستوى من الذكاء بحيث تفلت من سيطرة صانعيها - مع احتمال وقوع عواقب وخيمة على البشرية؟
هذه التكنولوجيا تتطور بسرعة كبيرة - والمخاطر المحتملة، في بعض الحالات، غير مفهومة بشكل جيد - بحيث لا يوجد اتفاق يذكر حتى الآن على جدول أعمال تنظيمي.
ما قضايا الذكاء الاصطناعي التي ينظر فيها المنظمون أولا؟
كان الاتحاد الأوروبي في طريقه إلى وضع اللمسات الأخيرة على قانون للذكاء الاصطناعي الأول من نوعه الذي كان من شأنه أن يتحكم، أو حتى يحظر، أنظمة الذكاء الاصطناعي التي يفترض أنها "عالية المخاطر" - مثل المستخدمة في اتخاذ القرارات بشأن طلبات العمل أو القروض أو العلاجات الصحية. ثم انفجر الهوس بـتشات جي بي تي - الاهتمام العام الهائل بروبوت الدردشة الخاص بالذكاء الاصطناعي التوليدي المتاح مجانا من شركة أوبن أيه آي.
سارع المشرعون إلى تعديل خططهم لتشمل ما يسمى بالنماذج التأسيسية، مثل النموذج اللغوي الكبير الذي يدعم تشات جي بي تي.
حيث ستجبر قواعد الاتحاد الأوروبي الشركات على الكشف عن البيانات التي تم تدريب هذه النماذج عليها، ويمكن أن تجعلها مسؤولة عن إساءة استخدام التكنولوجيا، حتى عندما لا تتحكم في التطبيقات النهائية.
مع ذلك، يعتقد باتريك فان إيكي، الرئيس المشارك لممارسات الإنترنت والبيانات والخصوصية العالمية في شركة كولي للمحاماة، أن بروكسل قد تحركت في وقت مبكر جدا لمحاولة تنظيم تكنولوجيا لا تزال "تتغير باستمرار"، ما يعكس تحيزا ثقافيا تجاه التنظيم غير المبني على فهم عميق لهذه التكنولوجيا. يقول - مرددا وجهة نظر منتشرة على نطاق واسع في عالم الذكاء الاصطناعي: "نحن نهوى تنظيم الواقع حتى قبل أن يصبح واقعا".
مع ذلك، فإن عديدا من المديرين التنفيذيين في شركات التكنولوجيا في الولايات المتحدة لديهم تفسير مختلف عن ذلك، إذ يرون أنها خطوة وقائية متعمدة من قبل الاتحاد الأوروبي، تفرض قيودا على مجموعة من الشركات الأمريكية بشكل أساسي، التي تهيمن على صناعة الذكاء الاصطناعي.
هل ستصبح لائحة الاتحاد الأوروبي التنظيمية للذكاء الاصطناعي نموذجا يحتذى به في بقية العالم؟
هذا ما حدث مع تشريع حماية البيانات في التكتل، وهو تطور محتمل يثير قلق شركات التكنولوجيا الأمريكية. يقول مؤيدو قانون الاتحاد الأوروبي: إنه سيتم تطبيقه بصورة مرنة ليعكس المعايير المتغيرة والتقدم التكنولوجي، لكن النقاد يقولون إن التجربة تظهر أن بروكسل تتخذ نهجا أكثر تزمتا - والقواعد التي تم وضعها الآن يمكن أن تحد من تطور التكنولوجيا.
بعض الشركات الأوروبية تتفق مع ذلك. ففي رسالة إلى المفوضية الأوروبية في حزيران (يونيو)، قضت 150 من المخاوف الأوروبية الكبيرة بالتحذير من أن القانون يمكن أن يعرقل اقتصاد التكتل من خلال منع الشركات هناك من استخدام هذه التكنولوجيا المهمة بحرية.
ويجب التوصل إلى نسخة نهائية من القانون في مفاوضات ثلاثية بين البرلمان والمفوضية ومجلس الدول الأعضاء - ما يعني أنه لا تزال هناك فرصة للتغييرات.
ألا تطالب شركات الذكاء الاصطناعي بالتنظيم؟
تعلمت صناعة الذكاء الاصطناعي من رد الفعل العنيف ضد وسائل التواصل الاجتماعي أنها لا تدفع مقابل تجنب التنظيم على التكنولوجيات التي قد يكون لها تأثير اجتماعي وسياسي كبير.
لكن هذا لا يعني أنهم يحبون ما يخطط له الاتحاد الأوروبي. سام ألتمان، رئيس شركة أوبن أيه أي وأحد المؤيدين صراحة لتنظيم الذكاء الاصطناعي، قال لـ"فاينانشيال تايمز" إن شركته قد تضطر إلى الانسحاب تماما من الاتحاد الأوروبي إذا كانت القواعد النهائية بشأن الذكاء الاصطناعي صارمة للغاية. لكن الضجة التي أثارتها كلماته دفعته إلى التراجع بسرعة، ولكن خلف الكواليس، لم تهدأ مخاوف الولايات المتحدة.
وكان استعداد شركات التكنولوجيا الكبرى للمطالبة بالتنظيم قد أثار شكوكا في أنها تعدها وسيلة لإحكام قبضتها على سوق الذكاء الاصطناعي. فارتفاع التكاليف والبيروقراطية قد تجعلان من الصعب على المنافسين الجدد اقتحام السوق.
ما هو البديل عن نهج الاتحاد الأوروبي؟
قبل اتخاذ قرار بشأن القوانين الجديدة، تلقي عديد من البلدان نظرة فاحصة على الكيفية التي يتم بها تطبيق لوائحها الحالية على التطبيقات التي يتم تشغيلها بواسطة الذكاء الاصطناعي.
في الولايات المتحدة، مثلا، فتحت لجنة التجارة الفيدرالية تحقيقا في تشات جي بي تي، باستخدام صلاحيتها الحالية، إذ يتمثل أحد مخاوفها في أن تشات جي بي تي يقوم بسحب البيانات الشخصية واستخدامها أحيانا لجمع معلومات خاطئة وضارة عن الأشخاص العاديين.
وعلى عكس نظرائهم الأوروبيين، بادر المشرعون الأمريكيون أيضا بمراجعة واسعة للذكاء الاصطناعي تحاول تحديدا الموازنة بين فوائد التكنولوجيا وأضرارها المحتملة. وقد دعا تشاك شومر زعيم الأغلبية في مجلس الشيوخ الأمريكي، إلى سلسلة من إحاطات الخبراء والمنتديات لأهم لجان مجلس الشيوخ، لمساعدتها على تحديد جوانب الذكاء الاصطناعي التي قد تحتاج إلى تنظيم.
قالت هولي فيشنر، الرئيسة المشاركة لمجموعة صناعة التكنولوجيا في شركة كوفينغتون آند بيرلينغ للمحاماة: "إن التعاون الكبير بين الحزبين في الكونجرس بشأن المنافسة الأمريكية مع الصين" تجعل نهج شومر "رسالة رابحة - وتشير إلى أن الولايات المتحدة تتحرك في اتجاه مختلف عن أوروبا".
إذا لم تقم الحكومات بالتنظيم الآن، ألن يصبح سباق الذكاء الاصطناعي فوضى خطرة؟
تقول عديد من شركات التكنولوجيا إن تطوير الذكاء الاصطناعي يجب أن يعكس الأيام الأولى للإنترنت: حيث توقف المنظمون في ذلك الوقت، وسمحوا للابتكار بالازدهار، ولم يتدخلوا إلا في وقت لاحق، بحسب الحاجة.
هناك بالفعل دلائل على أن معايير الصناعة الجديدة والاتفاقيات حول أفضل الممارسات في الذكاء الاصطناعي بدأت تترسخ، حتى دون تنظيم محدد. ففي الولايات المتحدة، مثلا، تعمل الصناعة مع المعهد الوطني للمعايير والتكنولوجيا على تدوين أفضل الطرق لتصميم أنظمة الذكاء الاصطناعي وتدريبها ونشرها.
وكانت هناك أيضا تعهدات بمزيد من الكشف عن كيفية عمل النماذج الكبيرة والبيانات التي تم استخدامها لتدريبها - على الرغم من أنه من غير الواضح كيف ستكون الشركات القادمة.
وفي الوقت نفسه، لا يوجد نقص في المقترحات الخاصة بأنظمة "العلامات المائية" الجديدة للتحقق مما إذا كان المحتوى عبر الإنترنت قد تم إنتاجه بواسطة نظام الذكاء الاصطناعي التوليدي وليس بواسطة شخص.
إن الفشل في إحراز تقدم على هذه الجبهات وغيرها من شأنه أن يعجل الدعوات إلى التنظيم إلى حد كبير.
يقول بعض الأشخاص الذين يطورونه إنه يمكن أن يدمر البشرية - أليس هذا سببا للتنظيم على الفور؟
لا أحد في صناعة التكنولوجيا يعتقد أن أنظمة الذكاء الاصطناعي اليوم تمثل تهديدا وجوديا للبشرية ولا يوجد اتفاق حول متى - إن وجدت - يمكن أن تصل التكنولوجيا إلى هذه النقطة. ولكن في وقت سابق من هذا العام، دعت رسالة مفتوحة وقع عليها عديد من خبراء التكنولوجيا إلى وقف العمل على الأنظمة الأكثر تقدما لمدة ستة أشهر، من أجل إتاحة الوقت للتوصل إلى بروتوكولات سلامة جديدة.
وفي حين بدأت الحكومات بالنظر في هذه المشكلة، فإن الأمر يتطلب اتفاقيات دولية جديدة لمحاولة السيطرة على انتشاره الخطير. وحتى في هذه الحالة، قد تكون هذه الجهود غير عملية، نظرا للتوافر الواسع للموارد الحاسوبية ومجموعات البيانات اللازمة لتدريب أنظمة الذكاء الاصطناعي.
في الوقت الراهن، تدعي الشركات نفسها التي تقود المهمة في الذكاء الاصطناعي أنها أيضا في طليعة المحاولات لكبح جماحه. حيث قالت شركة أوبن أيه أي في تموز (يوليو): إنها تعمل على إنشاء فريق داخلي لبدء البحث عن طرق للتحكم في أجهزة الحاسوب "فائقة الذكاء"، التي تعتقد أنها قد تصل في هذا العقد. والحل الذي تقترحه: نظام ذكاء اصطناعي جديد للسيطرة على الذكاء الاصطناعي.

الأكثر قراءة