منتقدو الذكاء الاصطناعي في "ألفابت" يطرحون الأسئلة الخطأ

تحالف غير معتاد بين مساهمين في الشركة يطالب بزيادة الرقابة على الذكاء الاصطناعي

  • التحرك الصحيح هو بالدعوة لمراجعة خارجية حقيقية تقودها جهات مستقلة
شكّل عدد قليل من مساهمي شركة "ألفابت" تحالفاً غير متوقع أخيراً، حين طالبوا الشركة بإيلاء اهتمام أكبر للمخاطر المرتبطة بالذكاء الاصطناعي. أعرب المركز الوطني للسياسات القانونية (NLPC) عن قلقه من تأثير الذكاء الاصطناعي في حقوق الخصوصية، بينما اشتكت شركة "إنسباير إنفستينج" (Inspire Investing) -وهي مساهم يدعم "الاستثمار المسؤول المتوافق مع المبادئ الدينية المسيحية المحافظة ويعارض أحياناً ما يُعرف بالسياسات المؤيدة لليقظة الاجتماعية- من احتمال أن يؤدي الذكاء الاصطناعي إلى فرض رقابة على الخطاب الديني والسياسي. أما "جمعية المساهمين للبحث والتعليم" (SHARE)، فحذرت من أن الذكاء الاصطناعي لدى "جوجل" قد يؤدي بشكل غير مقصود إلى تقويض حقوق الإنسان وتعزيز التمييز.

لطالما كان القلق من أضرار التكنولوجيا نقطة اتفاق بين مختلف الأطياف السياسية، إذ جمعت بين مشرعين جمهوريين وديمقراطيين لتوجيه الانتقادات إلى شركات التواصل الاجتماعي بسبب دورها في تأجيج أزمة الصحة النفسية. لكن، وبالطريقة ذاتها التي اتسمت بها تلك الجهود بالطابع الاستعراضي السياسي، يبدو أن الانتقادات الأخيرة للذكاء الاصطناعي تسير على النهج نفسه.

تصويت المساهمين في "ألفابت"
لا يُعد تصويت المساهمين الأوسع نطاقاً في "ألفابت" ضد تلك المقترحات بناء على توصية الشركة أمراً ذا أهمية كبيرة، نظراً لأن تلك المقترحات ما كانت لتُحدث فرقاً يُذكر في الحد من مخاطر الذكاء الاصطناعي. والسبب في ذلك أن الجهات الثلاث طالبت "ألفابت" بتقييم أدائها ذاتياً.

لا تقتصر على فقدان الوظائف .. هذه أبرز مخاطر الذكاء الاصطناعي

دعا "المركز الوطني للسياسات القانونية" الشركة إلى إعداد تقرير يوضح ما إذا كانت تستخدم بيانات الأفراد لتدريب أنظمتها المعتمدة على الذكاء الاصطناعي. بينما طالبت "إنسباير" بتقييم تحيز الذكاء الاصطناعي ضد المعتقدات الدينية والسياسية، فيما رغبت جمعية المساهمين للبحث والتعليم في أن تُعد الشركة دراسة عن تأثير تقنيات الإعلانات المعتمدة على الذكاء الاصطناعي في حقوق الإنسان، وذلك بحسب بيان الشركة في تقرير المساهمين للعام 2025.
أما "ألفابت" فأكدت أنه لا حاجة لأي من ذلك، كونها تجري بالفعل أبحاثاً كافية لتقييم المخاطر. وقالت في بيان: "نحن ننشر تقارير دورية حول مسؤولية الذكاء الاصطناعي، والتي تتضمن رؤى تفصيلية حول السياسات والممارسات والعمليات التي نتبعها في تطوير أنظمة الذكاء الاصطناعي المتقدمة".
من المؤكد أن تسليط الضوء على ما إذا كانت "جوجل" تسيء استخدام البيانات الشخصية يُعد أمراً إيجابياً، إلى جانب المقترحات الأخرى، لكن جميع هذه المطالب تفتقر إلى الجوهر، لأنها تدعو الشركة نفسها إلى إعداد هذه التقارير، لا جهات تنظيمية مستقلة أو باحثين خارجيين. وهو ما يجعل هذه المقترحات تبدو أشبه بنشاط استعراضي أكثر من كونها جهوداً لإحداث تغيير حقيقي، ولا سيما أن بعض المجموعات مثل المركز الوطني للسياسات القانونية تقدمت بمقترحات مشابهة في عدة شركات تكنولوجيا أخرى خلال هذا الموسم للتصويت.

الشفافية في شركات التكنولوجيا

أتقنت شركات وادي السيليكون منذ زمن بعيد ما يمكن تسميته "غسل الشفافية"، وذلك من خلال إصدار تقارير براقة -مثل التقرير الصادر عن شركة "ميتا بلاتفورمز" حول خطاب الكراهية على "فيسبوك"، أو تقارير "أوبر تكنولوجيز" حول إحصاءات السلامة- لكنها غير خاضعة لمراجعة طرف ثالث. ونظراً لغياب القوانين التي تفرض الإفصاح، تحتفظ هذه الشركات بقراراتها المتعلقة بإدارة المحتوى وتصميم الخوارزميات، والآن أيضاً تصميم نماذج الذكاء الاصطناعي، في دائرة الغموض، وتشير إلى تقاريرها التفصيلية كلما واجهت ضغوطاً من المشرعين أو منظمات المجتمع المدني.
وعندما سُئل الرئيس التنفيذي لشركة "أوبن أيه آي"، سام ألتمان، عن مخاطر الذكاء الاصطناعي خلال شهادته أمام مجلس الشيوخ في مايو 2023، تحدث بدوره عن الأبحاث التي تُجريها الشركة، وكذلك عن "المراجعات المستقلة من قبل خبراء مستقلين لأداء النماذج في مختلف المؤشرات". غير أن أحد المكونات الأساسية لنماذج الذكاء الاصطناعي هو بيانات التدريب، وهي العنصر الذي تحتفظ "أوبن أيه آي" بسريته منذ سنوات. ولو أُتيحت هذه البيانات للمُنظمين أو الباحثين، لكان بإمكانهم فحص تقنية الشركة بشكل أفضل لاكتشاف العيوب الأمنية أو التحيّزات أو انتهاكات حقوق الملكية الفكرية. وتُرجع الشركة ذلك إلى ضرورة حماية الأسرار التجارية، لكن تجنّب المسؤولية القانونية قد يكون سبباً أكثر ترجيحاً.

تجربة "ميتا بلاتفورمز"

ولو أراد مساهمو "ألفابت" المضي في طريق التغيير الحقيقي، لكان عليهم المطالبة برقابة خارجية: مراجعة فنية مستقلة -من قبل إحدى شركات المحاسبة الأربع الكبرى مثلاً، أو من مؤسسات أكاديمية- لتقييم أنظمة الشركة قبل طرحها للاستخدام. وقد خطت "ميتا" خطوة أولية في هذا الاتجاه قبل بضع سنوات عندما استعانت بشركة "إرنست آند يونج" (Ernst & Young) لمراجعة جزء من تقارير الشفافية الخاصة بـ"فيسبوك"، لكن يمكن التوسع في ذلك بشكل أكبر بكثير.
صحيح أن مساهمي "ألفابت" النشطاء هم مجموعات صغيرة نسبياً، وربما لا يمتلكون النفوذ الكافي للتأثير في نتائج اجتماع الجمعية العمومية، لكن أصواتهم -ولا سيما صوت المركز الوطني للسياسات القانونية نظراً لميوله المحافظة- قد تكتسب وزناً أكبر إذا دفعوا بهذه الأفكار التنظيمية من خلال قنوات سياسية أخرى. فعلى سبيل المثال، يمكنهم الضغط على المشرّعين لإنشاء هيئة تنظيمية مشابهة لإدارة الغذاء والدواء، لكن مخصصة للذكاء الاصطناعي، تُلزم الشركات بتحقيق معايير معينة قبل طرح تقنياتها للعامة. وحتى يتحقق ذلك، ستظل حالة التوافق بين الحزبين الديمقراطي والجمهوري الواسعة غارقة في نظام يُفضل دوماً الإبقاء على الوضع القائم.

خاص بـ "بلومبرغ"

الأكثر قراءة

المزيد من مقالات الرأي