قواعد الذكاء الاصطناعي الأوروبية تعيد تشكيل صناعة التكنولوجيا

قواعد الذكاء الاصطناعي الأوروبية تعيد تشكيل صناعة التكنولوجيا

للتأكد من أن الشركات تتصرف بطرق مرغوبة اجتماعيا، يسعى المنظمون عموما إلى تركيز انتباههم على الإجراءات التي قد تسبب ضررا. لكن ماذا يحدث عندما يبدأون أيضا بمحاولة التحكم في المدخلات بدلا من مجرد النظر إلى نتائج صنع القرار في الشركة؟
هذا هو أساسا ما تقترح المفوضية الأوروبية فعله في قواعد الذكاء الاصطناعي غير المسبوقة التي تم تحديدها الأسبوع الماضي. هذه المحاولة الأولى لإنشاء إطار قانوني يغطي تطوير واستخدام الذكاء الاصطناعي تتعمق في مناطق غامضة كانت في السابق خارج نطاق الرقابة الخارجية.
في المستقبل، على ما يبدو، لن يكون ما تفعله الشركات والحكومات هو وحده المهم، بل كيفية توصلهم إلى القرارات الرئيسة في المقام الأول.
هذا يجعل مشروع القواعد الأوروبية تمددا ملحوظا للتنظيم يصل إلى أحشاء أنظمة التكنولوجيا. نظرا لأن الذكاء الاصطناعي مدمج في مزيد والمزيد من العمليات التجارية، تقترب القواعد من تنظيم جزء أساسي من جهاز صنع القرار داخل الشركات. وهي مفتوحة عن قصد: بدءا من عدد قليل فقط من الاستخدامات الأكثر حساسية للذكاء الاصطناعي، تحتفظ المفوضية بالحق في توسيع نطاق رقابتها في المستقبل.
محاولة إخضاع أنظمة الذكاء الاصطناعي إلى شكل من أشكال الأطر التنظيمية أمر مفهوم. تلعب الخوارزميات المبهمة وغير الموثوق بها، في كثير من الأحيان، دورا في تشكيل الطريقة التي يتم بها اتخاذ الكثير من القرارات الحكومية وقرارات الشركات المهمة. لكن الآثار عميقة.
إعلان المفوضية الأسبوع الماضي لفت الانتباه بشكل أساسي إلى اقتراح حظر الاستخدامات الأكثر إثارة للجدل للذكاء الاصطناعي، مثل التوقف فعليا عن جميع عمليات استخدام التعرف على الوجه تقريبا في الأماكن العامة. من المرجح أن يجذب اتخاذ إجراءات صارمة ضد المراقبة الآلية دعما واسعا.
الأقل ملاحظة كانت القواعد التي تهدف إلى التحكم في فئة أوسع من الأنظمة، التي سيكون لها تأثير في الشركات في الكثير من الصناعات - وليس فقط تلك الموجودة في الاتحاد الأوروبي.
قد تبدو الغرامات الأشد، المخصصة لأخطر الانتهاكات للقواعد - غرامة تصل إلى 6 في المائة من الإيرادات العالمية للشركة - صالحة لأولئك الذين يستخدمون الذكاء الاصطناعي لشيء حاول الاتحاد الأوروبي حظره تماما. لكن هذه العقوبة الشديدة تنطبق أيضا على أولئك الذين لا يستوفون متطلبات الجودة لمجموعات البيانات المستخدمة لتدريب نماذج التعلم الآلي - وهي واحدة من أكثر الطرق شيوعا ومكرا لتسلل التحيز.
ليس من المستغرب أنه تم إجراء مقارنات بين قواعد الذكاء الاصطناعي الجديدة واللائحة العامة لحماية البيانات، وهي نظام حماية البيانات بعيد المدى في أوروبا. كما هو الحال مع قواعد الخصوصية، فإنه يجبر الشركات خارج الاتحاد الأوروبي على اتباع الإجراءات الأوروبية إذا كان ناتج أنظمتها يؤثر في المواطنين الأوروبيين. قد تكون أوروبا متأخرة كثيرا عن الولايات المتحدة والصين في سباق الذكاء الاصطناعي، لكنها لا تزال تتقدم في التنظيم التكنولوجي. وهذا يضمن زيادة التوتر مع الشركات الأمريكية.
من الصعب الاعتراض على هدف المفوضية المتمثل في وضع معايير عالية لتطوير الذكاء الاصطناعي. مسألة كيفية بناء أنظمة "أخلاقية للذكاء الاصطناعي" تتعامل مع جميع الموضوعات بشكل عادل لطالما كانت موضوعا مثيرا لبعض الوقت، والتأكد من أن جميع مستخدمي التكنولوجيا يتبعون أفضل الممارسات أمر له مزاياه.
لكن عندما ينص على هذا الهدف في قوانين مدعومة بعقوبات شديدة، تظهر أسئلة أصعب. من غير الواضح، مثلا، كيف سترسم أوروبا الخط الفاصل الذي يحدد الأنظمة الأكثر خطورة التي تحتاج إلى تنظيم، أو حتى ما إذا كانت الخطوط الواضحة ممكنة.
الذكاء الاصطناعي، مثلا، سيتم حظره تماما إذا اعتبر أنه ينطوي على تلاعب بالأشخاص باستخدام أساليب مموهة بطرق قد تسبب لهم الأذى. هذا يبدو جديرا بالثناء. ومع ذلك، اللهجة مرنة. في أذهان الكثير من منتقدي "فيسبوك" قد يبدو هذا وصفا عادلا للطريقة التي تعمل بها خوارزميات وسائل التواصل الاجتماعي على تأجيج الانقسام السياسي الشديد.
مشكلات مماثلة تظهر عند محاولة تعريف نظام ذكاء اصطناعي "عالي الخطورة" - وهي فئة تعتبرها المفوضية تشمل أي شيء قد يمس حقوق المواطن.
في البداية، يغطي صراحة استخدام الذكاء الاصطناعي داخل الشركات للتوظيف أو لتقييم العاملين للترقية. ويشمل أيضا الذكاء الاصطناعي الذي يؤثر في الوصول إلى الخدمات "الأساسية"، مثل منح القروض. مجلس الذكاء الاصطناعي سيقرر، على مستوى أوروبا، إلى أي مدى يمتد هذا التعريف للذكاء الاصطناعي عالي الخطورة في المستقبل. القواعد التي تنطبق على أنظمة مثل هذه ستكون متعبة.
كما هو الحال مع جميع لوائح الاتحاد الأوروبي الشاملة، من المرجح أن يكون هذا القانون في حالة تطوير لأعوام ويخضع لضغوط شديدة. لكن في محاولتها لتشكيل كيفية اتخاذ القرارات المؤتمتة، حددت بروكسل اتجاها واضحا.

الأكثر قراءة