FINANCIAL TIMES

حقوق الإنسان «الرقمية» قضية تشغل صناديق الاستثمار

 حقوق الإنسان «الرقمية» قضية تشغل صناديق الاستثمار

استجواب السياسيين العلني لرؤساء شركات التكنولوجيا أمثال مارك زوكربيرج رئيس "فيسبوك" بات أمرا مألوفا لدى المستثمرين.
لورين كومبيري، مديرة مشاركة المساهمين في "بوسطن كومن آسيت ما نجمينت"، وهو صندوق يدير 2.4 مليار دولار، تابع لمجموعة تستثمر بكثافة في أسهم التكنولوجيا، تقول: "لا يمر يوم لا ترى فيه إحدى شركات التكنولوجيا تتحدث إلى الكونجرس، أو يتم تسليط الضوء عليها بسبب نوع من الجدل".
تداعيات فضيحة "كامبريدج أناليتكا" كانت مثل صيحة تنبيه للمستثمرين، مثل "بوسطن كومن"، ما يؤكد الآثار الاجتماعية الضارة للتكنولوجيا الرقمية في حال تركها دون مراقبة. تقول كومبيري: "هذه هي نواقيس الخطر التي تظهر لنا مرارا وتكرارا".
حقوق الإنسان الرقمية أصبحت أحدث موضوع في النقاش الدائر حول جهود الاستثمار الأخلاقي لمديري الصناديق. تعرض مديرو الصناديق لضغط في الأعوام الأخيرة للتخلي عن استثماراتهم في الشركات التي يمكن أن تضر بحقوق الإنسان من مصنعي الأسلحة وتجار التجزئة إلى مشغلي السجون الخاصة. محط التركيز الآن هو مخاطر حقوق الإنسان غير الملموسة الكامنة في الممتلكات التكنولوجية لمديري الصناديق.
بدأت الأنظار تتجه على مجموعات التكنولوجيا بسبب المخاوف حول خصوصية البيانات، لكن نقاط النقاش التي بدأت تظهر الآن تتطرق إلى الإعلانات المستهدفة وكيف تتعامل الشركات مع التطرف على مواقعها عبر الإنترنت.
في أعقاب هجوم إرهابي في نيوزيلندا هذا العام نشر فيه المجرم لقطات فيديو للواقعة على الإنترنت، طالب مستثمرون يديرون أصولا تزيد قيمتها على 90 مليار دولار نيوزيلندي (57 مليار دولار) "فيسبوك" و"تويتر" وألفابيت"، الشركة الأم لـ"جوجل"، باتخاذ مزيد من الإجراءات للتعامل مع المحتوى العنيف أو المتطرف المنشور على مواقعها.
"تحالف المستثمرين لحقوق الإنسان" ينسق حاليا جهودا على الصعيد العالمي مع "ألفابيت" حول إدارة تكنولوجيا الذكاء الاصطناعي وخصوصية البيانات والتطرف عبر الإنترنت.
تفاعل المستثمر مع موضوع حقوق الإنسان الرقمية لا يزال في مراحله الأولية. من بين الأمور التي تعيق المستثمرين الصعوبة التي يواجهونها في اكتشاف وقياس المخاطر الحقيقية. تقول كومبيري: "معظم المستثمرين لا يفهمون آثار جميع المشكلات في الفضاء الرقمي بشكل جيد وليس لديهم أبحاث وأدوات كافية تمكنهم من تقييمها بشكل صحيح، الأمر ذاته ينطبق على الشركات أيضا".
أحد المصادر النادرة المتاحة إليهم هو مؤشر تصنيف حقوق الشركات الرقمية، الذي أنشئ عام 2015 وهو يصنف شركات التكنولوجيا على أساس مجموعة من المقاييس. تطوير مثل هذه الأدوات يوفر للمستثمرين مزيدا من المعلومات حول المخاطر المرتبطة بالتطورات التكنولوجية، ما يمكنهم من محاسبة الشركات بعد تحديدهم المخاطر والجوانب الأخلاقية المشكوك فيها.
هناك تحد آخر هو سرعة التقدم التكنولوجي. جون هوشين، السكرتير العام لمجلس الأخلاقيات لدى "أيه بي فندز" AP funds السويدية، يرى "أن المشكلة تكمن في أن التغييرات التكنولوجية يتم تنفيذها بسرعة من قبل الشركات، لكن في بعض الأحيان لا نتوقف ونتساءل عن تأثيرها في حقوق الإنسان. في المستقبل سينظر إلينا كالغرب المتوحش".
يتم تسليط الضوء على هذه النقطة من خلال النقاش الحاد حول برنامج الذكاء الاصطناعي والتعرف على الوجه الذي تم وصفه بأنه وسيلة لجعل المجتمع أكثر فاعلية، لكن المستثمرين يواجهون حقيقة أن التعرف على الوجه يمكن استخدامه أيضا لأغراض غير أخلاقية. يقول منتقدو هذا البرنامج إن الشركات التي تصنعه وتبيعه قد لا تكون على دراية بكيفية استخدامه، خاصة عندما تستخدمه الحكومات لأغراض عسكرية.
أنظمة التعرف على الوجه والمشاعر تستخدم بشكل خاص من قبل الحكومة الصينية للمراقبة في منطقة شينجيانج، حيث يوجد ما يقدر بمليون من الأقلية المسلمة في معسكرات اعتقال. في الولايات المتحدة، يقول نشطاء وجماعات الخصوصية إن هذه التكنولوجيا تستخدم بطريقة ضارة من قبل الوكالات الفيدرالية، مثل إدارة الهجرة، والجمارك، وحماية الحدود.
هناك أيضا مخاوف بشأن العيوب والتحيزات في برامج التعرف على الوجه. اكتشف اختبار أجراه اتحاد الحريات المدنية الأمريكي العام الماضي أن تكنولوجيا التعرف على الوجه "ريكوجنيشن" Rekognition من "أمازون" عرفت على نحو خاطئ 28 من أعضاء الكونجرس كمعتقلين. أظهرت الأبحاث أيضا أن البرنامج لديه مزيد من حالات أخطاء الهوية بالنسبة للنساء والأقليات الإثنية.
كارولا فان لاموين، رئيسة الملكية النشطة في "روبيكو" Robeco، شركة تدير 199 مليار يورو من الأصول، قالت: "إننا نرى قدرة الذكاء الاصطناعي على تسهيل إمكانات النمو لشركات التكنولوجيا، لكننا نرى أيضا المخاطر المرتبطة به".
عدم وجود لوائح منسقة تتحكم في الذكاء الاصطناعي أمر يزيد تعقيد الصورة. شرعت "روبيكو" أخيرا في تحقيق حول التأثير الاجتماعي للذكاء الاصطناعي، مدفوعة بمخاوف من أن التطورات تتجاوز تطوير القوانين أو المبادئ.
في الولايات المتحدة، مثلا، حظرت مجموعة من المدن والحكومات المحلية ووكالات إنفاذ القانون استخدام برامج التعرف على الوجه، لكن لا يزال مسموحا للوكالات الفيدرالية بأن تستخدمها.
قالت كومبيري: "ما يقلق المستثمرين من الذكاء الاصطناعي هو أن التكنولوجيا يتم تطويرها في معزل، لا نرى معيارا عالميا عليها".
اتخذ عدد من الشركات بما فيها "جوجل" و"مايكروسوفت" و"آي. بي. إم" خطوات أولية للحماية من المخاطر غير المقصودة من خلال اعتماد قوانين أخلاقيات الذكاء الاصطناعي.
كانت لـ"مايكروسوفت" ردود فعل قوية بشكل خاص إذ دعت العام الماضي إلى "مبادرة حكومية لتنظيم الاستخدام السليم لتكنولوجيا التعرف على الوجه". هذا العام، رفضت الشركة طلبا من إحدى وكالات إنفاذ القانون في كاليفورنيا لتثبيت تكنولوجيا التعرف على الوجه في سيارات الضباط وكاميرات الجسم التي يرتدونها بسبب مخاوف تتعلق بحقوق الإنسان.
على الرغم من قرار "مايكروسوفت"، تحدث عدد قليل من الشركات فقط عن كيف تؤثر المخاطر المتعلقة بحقوق الإنسان في قرارات أعمالهم والعقود التي يقبلونها أو يرفضونها.
يستخدم بعض المستثمرين صوتهم داخل الشركات لاتخاذ موقف. "مركز العقيدة المشتركة للمسؤولية التشاركية"، وهو تحالف من المستثمرين المسؤولين الذين يديرون أكثر من 400 مليار دولار من الأصول، قدم قرارا هذا العام لـ"أمازون" يدعوها إلى وقف بيع "ريكوجنيشن" للحكومات إلى أن تتم مراجعة ما إذا كان يشكل تهديدا على المدنيين وحقوق الإنسان.
يريد مستثمرون آخرون أن تدرج الشركات اعتبارات حقوق الإنسان في تقييماتها الرسمية لإدارة المخاطر وجعل كبار المسؤولين التنفيذيين مسؤولين عن ذلك. قالت فان لاموين: "نريد من الشركات أن تؤدي واجبها. يجب أن يعرفوا متى وكيف يتم استخدام الذكاء الاصطناعي، وتقييم التأثيرات المحتملة ومراقبة ذلك باستمرار على مستوى أوسع".
وقال هوشين: "واجهت شركات التكنولوجيا قضايا تتعلق بحقوق الإنسان على مدار الأعوام القليلة الماضية. نعتقد أن هناك حاجة إلى أن يفهم قطاع التكنولوجيا بأكمله حقوق الإنسان بشكل أفضل ويبدأ في توظيف أشخاص مختصين في حقوق الإنسان".
يتضمن ذلك مطالبة الشركات بتدريب مصممي الذكاء الاصطناعي على مراعاة حقوق الإنسان أثناء عملية تطوير المنتج. قالت كومبيري: "إذا لم يتم دمج تلك المفاهيم في التصميم الفعلي للتكنولوجيا الحديثة منذ البداية، سيكون التحكم في الآثار المترتبة على حقوق الإنسان أصعب بكثير".

إنشرها

أضف تعليق

المزيد من FINANCIAL TIMES