FINANCIAL TIMES

الذكاء الاصطناعي يجلب معضلات استراتيجية حقيقية

الذكاء الاصطناعي يجلب معضلات استراتيجية حقيقية

في الآونة الأخيرة ترأست "عملية استراتيجية" جلب إليها التنفيذيون معضلات، آملين في أن يجدوا لها وصفة تخفف أوجاعهم وآلامهم الاستراتيجية.
"متى ولماذا يجب أن تنحرف شركتي عن إطار استراتيجيتها؟"، سأل أحد أعضاء "منتدى فاينانشيال تايمز 125"، الذي استضاف الجلسة. وأشار مشارك آخر إلى أن الاستراتيجية هي "فن اتخاذ القرارات الصعبة". ربما يكون فنا، لكن العلم يلعب دورا متزايدا في الاختيار.
مر أكثر من ثلاث سنوات بالفعل على تعلم نظام الكمبيوتر "ألفا جو"، المنتج من شركة دييب مايند، كيفية التغلب على أفضل لاعب بشري في اللعبة الاستراتيجية البحتة "جو". لطالما سعت صناديق التحوط إلى التعبير عن استراتيجيات تجارية واستثمارية ناجحة في شفرات الحاسوب، "لتجاوز ارتباطاتنا العاطفية باستنتاجاتنا الشخصية"، على حد تعبير ري داليو، مؤسس شركة بريدج ووتر.
الخوارزميات المستندة إلى الذكاء الاصطناعي تعد "ناقلات عملاقة" لصنع القرار بأسلوب داليو، وفقا لمقال جديد استفزازي أعده ديرك ليندباوم وميكو فيزا وفرانك دن هوند. وبلا رقابة، ستكون إحدى النتائج المتطرفة هي نوع من التفرد الاستراتيجي، كون الإذعان الخانع للخوارزمية دمر قدرة المديرين على تقييم الخطط نهائيا.
هذه المقالة تستمد إلهامها من القصة القصيرة البائسة الصادرة في عام 1909 بعنوان "الآلة تتوقف"، لمؤلفها إدوارد مورجان فوستر. فوستر تصور فيها عالما يعيش فيه أفراد ضعفاء في غرف أشبه بقرص العسل تحت الأرض، وهي جزء من نظام استبدادي يعتمد على التكنولوجيا. فهم يعتمدون على "الآلة" للاتصال والتسلية والتغذية الروحية والبدنية. قدرة معظم البشر على اتخاذ القرارات ضمرت. والأفراد المتمردون يتم نفيهم إلى سطح الأرض.
عندما تعاني الآلة فشلا كارثيا، ينهار المجتمع الواقع تحت الأرض مع انهيارها. في بصيص من الأمل، يلمح إنسان محكوم عليه بالهلاك أن "الإنسانية قد تعلمت درسها".
قصة الخيال العلمي التي كتبت في عصر الملك إدوارد قد تبدو دليلا إرشاديا ضعيفا للاستراتيجيين في الوقت الحالي. لكن البروفيسور ليندباوم أخبرني أنه هو وشريكاه المؤلفين، دون أن يخلقوا صورة شيطانية للتكنولوجيا، أرادوا استخدام حكاية فورستر لإبلاغ المديرين المزاولين للمهنة بحدود ومخاطر الذكاء الاصطناعي. وهو يحذر المديرين من "أن ينتهي بهم المطاف في حالة من العجز المكتسب، من خلال الافتقار إلى الخبرة المباشرة". إذا قاموا بتفويض كثير من القرارات إلى الآلة، سيفقدون أيضا القدرة على الابتكار وتحمل المخاطر الإبداعية التي يعتمد عليها التقدم.
في الواقع، دعاة تعلم الآلة هم في الغالب من بين أول من أشار إلى هذه الحدود.
مشروع ديفيد يانج الأخير "إيفا"، وهو محرك ذكاء اصطناعي يستخدم بيانات الشركة للتنبؤ ـ من بين أمور أخرى ـ بما إذا كان من المحتمل أن يستقيل الموظفون الرئيسيون. بقياس عدد الخلايا العصبية، حتى أكثر تكنولوجيات الذكاء الاصطناعي تطورا لا تكاد تكون ذكية مثل نحلة، حسبما يقول. لا عجب أنه يوصي التنفيذيين بمعاملة المستشار القائم على الذكاء الاصطناعي باعتباره "رأي طبي ثان"، بدلا من الاعتماد عليه للتوجيه الاستراتيجي.
أندرو مكافي وإريك برينجولفسون كتبا في كتابهما الأخير "الآلة، المنصة، الحشد"، عن خطر صنع قرار "أعمى دون الاستناد إلى بيانات رقمية"، بل استنادا إلى "رأي الشخص الأعلى أجرا". من الناحية النظرية، يقدم الكمبيوتر ترياقا خوارزميا؛ أما في الممارسة العملية، مثلما تشهد كثير من الأمثلة المعترف بها، فهو قد يؤدي أيضا إلى إعادة إنتاج تحيز مبرمجيه أو البيانات التي يستخدمونها. حتى في أكثر حالات التفاؤل التكنولوجي، لا يزال مكافي وبرينجولفسون يوصيان بتضمين "الذكاء البشري في دائرة العمل، لكن بذكاء"، لو كان فقط ممكنا حقن منطق سليم في التوصيات التي تعتمد على الخوارزميات.
الخطة الاستراتيجية النظيرة القديمة يمكنها أن تشجع تبعية مماثلة. في عام 1994، كتب أستاذ الإدارة هنري مينتسبيرج عن الثغرات والعيوب في التخطيط الاستراتيجي في الأيام الأولى من تحليلات البيانات: "الأنظمة الرسمية يمكنها بالتأكيد معالجة المعلومات، على الأقل المعلومات المجهدة (أكثر من البشر)؛ يمكنها دمجها وتجميعها ونقلها. لكنها لم تستطع أبدا استيعابها وفهمها وتوليفها".
سألت البروفيسور مينتسبيرج عما إذا كان قد غير رأيه على مدى السنوات الـ 25 الماضية. لا على الإطلاق، هذا كان جوابه. المعضلات الاستراتيجية المعقدة - ما يسميه "الألغاز المحيرة" - تخضع الآن لحلول مبرمجة دقيقة للغاية.
بعبارة أخرى، لا يزال الاستراتيجي الإنساني مطلوبا، على وجه التحديد ليقرر متى ولماذا ينحرف عن إطار الاستراتيجية، سواء أنشئ هذا الإطار على يد لجنة مكونة من أشخاص أو آلة ذكية للغاية.
يشير البروفيسور ليندباوم وشريكاه المؤلفان إلى أن ناقوس الموت لعملية صنع القرار البشري سيدق في المرة الأولى التي تحكم فيها محكمة أن طبيبا قتل أحد المرضى بتجاهل توصيات أداة تشخيصية معتمدة على الذكاء الاصطناعي. وامتدادا لذلك، أحذر من أول دعوى لأصحاب الأسهم ضد مجلس يتجاهل خطة استراتيجية صاغتها الآلة.
إنشرها

أضف تعليق

المزيد من FINANCIAL TIMES