Author

منافع بأخطار .. ما الضمانات؟

|

يواجه العالم تحولات تقنية هائلة ومتسارعة، وأصبح الذكاء الاصطناعي واقعا نعايشه ولم يعد فقط محبوسا في الخيال العلمي سواء في الروايات أو الأفلام التي تنتجها هوليوود، والحديث اليوم بالذات يتصاعد حول روبوت الدردشة الواعي لشركة أوبن إيه أي المدعومة من "مايكروسوفت"، الذي أطلق في إصدار "جي بي تي-4".
وقد أثارت هذه التقنية أسئلة خطيرة بشأن علاقة الإنسان بالآلة، خاصة إذا تم ربط هذه التقنيات بالبيانات السحابية غير المركزية، والعملات الرقمية، والقدرات التي توفرها تقنيات البلوكتشين من خلال تسجيل المعاملات وحفظ السجلات، وعلى الرغم من أن هذه التقنيات ترسم مستقبلا مثاليا، لزيادة الإنتاجية والابتكار، وتتيح لنا حتى إعادة توزيع الثروة بطرائق جديدة.
هنا الأسئلة التي تطرح وتثيرها هذه التقنيات كثيرة وخطيرة، وأكد تقرير لـ"الاقتصادية" وجود مثل هذا القلق من مخاطر كثيرة غير مرصودة بشأن هذه التقنيات مجتمعة، وهي مطروحة من مجموعة من الخبراء الاقتصاديين والباحثين في "مايكروسوفت"، وفي جامعة هارفارد وشخصيات بارزة كثيرة في هذه التكنولوجيات الاجتماعية اللامركزية، ما يهدد بتعطيل هيكل اقتصادنا وسياستنا ومجتمعنا، وفي تقرير على موقع شركة الاستشارات ماكنزي بهذا الشأن، فإن هناك مشكلة الإدراك المتأخر في فهم المخاطر والأسباب الكامنة وراءها المحيطة بالذكاء الاصطناعي.
وأشار التقرير إلى أن عددا من المخاطر من بينها صعوبات البيانات واستيعابها وفرزها وربطها واستخدامها فمن السهل الوقوع في مخاطر مثل الاستخدام غير المقصود أو الكشف عن معلومات حساسة، وهنا مخاطر التكنولوجيا، من حيث الضمانات الكافية أن المخرجات التي يأتي بها الذكاء الاصطناعي كاملة وغير منقوصة مثلا، فالاعتمادية التامة على هذه التقنيات قد يعطل كثيرا من الحس الطبيعي لدى الإنسان. ومن المخاطر أيضا العقبات الأمنية، مع تصاعد احتمال قيام المحتالين باستغلال البيانات التسويقية والصحية والمالية التي تبدو غير حساسة التي تجمعها الشركات لتغذية أنظمة الذكاء الاصطناعي، وإعادة ربطها لإنشاء هويات مزيفة.
ومن المخاطر كذلك نمذجة التصرفات السيئة حيث يمكن لنماذج الذكاء الاصطناعي نفسها أن توجد مشكلات بحيث تختار النموذج المتحيز للخروج بنتائج أو استنتاجات، وعلى سبيل المثال فإن هناك احتمالية أن يقوم الذكاء الاصطناعي بالتمييز ضد فئات معنية عن طريق الرمز البريدي أو استهدافها. ومن المخاطر أيضا قضايا التفاعل بين الأشخاص والآلات فالحوادث والإصابات تزداد احتمالا إذا لم يدرك مشغلو المعدات الثقيلة أو المركبات أو الآلات الأخرى متى يجب أبطال الأنظمة أو تباطؤهم في تجاوزها لأن انتباه المشغل في مكان آخر، وعلى العكس فقد يكون الحكم البشري خاطئا في تجاوز نتائج النظام.
ومن المخاطر غير المرصودة حتى الآن وتثار حولها الأسئلة ما إذا كان الذكاء الاصطناعي يستطيع إنشاء هوية مزيفة لا يمكن اكتشافها تماما، وتنفيذ عمليات مالية وتداولات رقمية وغيرها مما يتم اليوم بشكل رقمي، كيف سنعرف أن تحويلات الأموال الرقمية آمنة أو حتى موثوقة؟ هل سيكون كتاب العدل والعقود عبر الإنترنت موثوقين؟ هل ستصبح الأخبار المزيفة، التي تمثل حاليا مشكلة كبيرة، غير قابلة للكشف أساسا؟ كل هذه الأسئلة الشائكة جدا تم طرحها في تقرير "الاقتصادية" وعبر عنها الخبراء المعنيون في العالم، والجميع يرى بأننا قد أصبحنا أمام "لحظة دستورية" تتطلب إطارا تنظيميا جديدا تماما لمثل هذه التكنولوجيات، ويقارن البعض بين هذه اللحظات واللحظات التي مر بها العالم من التقنيات الحيوية، ومن ذلك تقرير أخلاقيات البيولوجيا، الذي تم إصداره في الولايات المتحدة استجابة للتجارب في علم الجينوم حيث وضع مبادئ توجيهية للتجارب المسؤولة، التي سمحت بتطوير تكنولوجي أكثر أمانا.
لكن الصورة تبدو مختلفة عن التجارب البيولوجية، فالمسألة تتجاوز القضايا الإنسانية والأخلاقية، بل هي مسألة تتعلق اليوم بشكل العقد الاجتماعي، فمهوم الحكومة وشكلها بدآ يتغيران وتمتد المخاطر المحتملة إلى كل الجوانب السياسية، وفي رأي تقرير جامعة هارفارد، حيث يقول إن الآليات الديمقراطية الحالية لم تعد متوائمة وقد يتخلى عنها المواطنون المتشائمون بازدياد، وهنا مؤشرات لاتجاهات عديدة لبناء مجتمعات رقمية معزولة عن المجتمعات الإنسانية اليومية، حيث يلجأ الأغنياء إلى مجمعات خاصة وينقلون ثرواتهم وأعمالهم إلى ولايات قضائية خارج الحكومة ومناطق اقتصادية خاصة، وقد تنخفض الإيرادات الضريبية للحكومات بشكل جوهري، وتتضاءل حصة العمال، وحدوث اضطرابات كبرى، في كل مكان تقريبا ولن يكون أحد في معزل من تلك الأحداث.
لهذا فإن الوصول إلى تشريعات تحد من تنامي هذه التقنيات قد يواجه مشكلة الهروب من الحكومات نحو المجتمعات الرقمية المنعزلة، ولذا يرى الخبراء بأن الاتجاه الأكثر تواؤما اليوم هو مزيد من الشفافية وإجبار الشركات على الكشف عن التجارب التي تجريها، والعواقب غير المقصودة. ومجمل القول، إن الشفافية هي الخطوة الأولى نحو ضمان عدم تغلب تكنولوجيا الذكاء الاصطناعي على صانعيها.

إنشرها