FINANCIAL TIMES

حتى لا ينقلب سحر الذكاء الاصطناعي على ساحره .. التنظيم ضرورة

حتى لا ينقلب سحر الذكاء الاصطناعي على ساحره .. التنظيم ضرورة

ماذا لو كان الشيء الوحيد الذي قد تثق فيه حقا هو شيء أو شخص قريب بما يكفي لتلمسه وتتحسسه؟ ربما هذا هو العالم الذي يأخذنا إليه الذكاء الاصطناعي. نشرت مجموعة من الأكاديميين وخبراء الذكاء الاصطناعي في جامعة هارفارد للتو تقريرا يهدف إلى وضع حدود أخلاقية حول تطوير تكنولوجيات يحتمل أن تكون مظلمة مثل روبوت الدردشة الواعي على ما يبدو من شركة أوبن إيه أي المدعومة من "مايكروسوفت"، الذي أطلق في إصدار جديد و "محسن" (حسب وجهة نظرك) "جي بي تي-4" الأسبوع الماضي.
المجموعة، التي تضم جلين ويل، خبير اقتصادي وباحث في "مايكروسوفت"، ودانييل ألين، الأستاذة في جامعة هارفارد ومديرة مركز سافرا للأخلاقيات، وشخصيات بارزة كثيرة أخرى في الصناعة، تدق نواقيس الخطر بشأن "التجارب الكثيرة في تكنولوجيات اجتماعية لامركزية". تشمل التجارب تطوير "محتوى مقنع للغاية يتم إنشاؤه آليا (مثل تشات جي بي تي)" يهدد بتعطيل هيكل اقتصادنا وسياستنا ومجتمعنا.
إنهم يعتقدون أننا وصلنا إلى "لحظة دستورية" للتغيير تتطلب إطارا تنظيميا جديدا تماما لمثل هذه التكنولوجيات.
بعض أخطار الذكاء الاصطناعي، مثل مستقبل على غرار فيلم ذا تيرميناتور تقرر فيه الآلات أن البشر قد ولت أيامهم، تعد منطقة تطرق لها الخيال العلمي كثيرا- التي تجدر الإشارة إلى أنها تتمتع بسجل جيد في التنبؤ بسير العلم نفسه في الأعوام المائة الماضية أو نحوها. لكن هناك مناطق أخرى غير مفهومة تماما. مثلا، إذا كان الذكاء الاصطناعي يستطيع الآن إنشاء هوية مزيفة لا يمكن اكتشافها تماما، فما فائدة الأطر القانونية وأطر الحوكمة التي تعتمد على مثل هذه الوثائق للسماح لنا بالقيادة أو السفر أو دفع الضرائب؟
شيء واحد نعرفه مسبقا هو أن الذكاء الاصطناعي يمكن أن يسمح للفاسدين بالظهور كأي شخص، في أي مكان وأي وقت. "عليك افتراض أن الخداع سيصبح أرخص بكثير وأكثر انتشارا في هذا العصر الجديد"، كما يقول ويل، الذي نشر كتابا إلكترونيا مع وزيرة الرقمية التايوانية، أودري تانج. هذا يوضح الأخطار التي يشكلها الذكاء الاصطناعي وغيره من تكنولوجيا المعلومات المتقدمة على الديمقراطية، وأبرزها أنها تعظم مشكلة المعلومات المضللة.
تمتد التداعيات المحتملة إلى كل جانب من جوانب المجتمع والاقتصاد. كيف سنعرف أن تحويلات الأموال الرقمية آمنة أو حتى موثوقة؟ هل سيكون كتاب العدل والعقود عبر الإنترنت موثوقين؟ هل ستصبح الأخبار المزيفة، التي تمثل حاليا مشكلة كبيرة، غير قابلة للكشف أساسا؟ وماذا عن التداعيات السياسية للعدد الذي لا يحصى من الاضطرابات التي ستؤثر بها التكنولوجيا في الوظائف، موضوع سيتناوله الأكاديميان دارون أسيموجلو وسيمون جونسون في كتاب مهم جدا سيصدر لاحقا هذا العام.
يمكن للمرء أن يتخيل بسهولة عالما تصارع فيه الحكومات لمواكبة هذه التغييرات، وكما يصفها تقرير جامعة هارفارد: "تثبت الآليات الديمقراطية الحالية غير الكاملة إلى حد كبير عجزها (...)ومن ثم سيتخلى عنها المواطنون المتشائمون بازدياد".
لقد رأينا بالفعل تلميحات عن هذا الوضع. إن مدينة تكساس الخاصة التي يبنيها إيلون ماسك لإيواء موظفيه في "سبيس إكس" و"تسلا" و"بورينج" ليست سوى أحدث تكرار لخيال وادي السيليكون التحرري، حيث يلجأ الأغنياء إلى مجمعات خاصة في نيوزيلندا، أو ينقلون ثرواتهم وأعمالهم إلى ولايات قضائية خارج الحكومة و"مناطق اقتصادية خاصة". يتناول كوين سلوبوديان، مؤرخ جامعة ويليسلي، ظهور مثل هذه المناطق في كتابه الجديد، "رأسمالية متصدعة".
في هذا السيناريو، تنخفض الإيرادات الضريبية، وتتضاءل حصة العمالة، ويؤدي عالم ناتج عن ذلك محصلته صفر إلى تفاقم "خروج" ذوي الامتيازات.
بالطبع، يمكن أن يكون المستقبل مشرقا أكثر. الذكاء الاصطناعي يتمتع بإمكانات لا تصدق لزيادة الإنتاجية والابتكار، وقد يتيح لنا حتى إعادة توزيع الثروة الرقمية بطرائق جديدة. لكن ما هو واضح بالفعل هو أن الشركات لن تتراجع عن تطوير تكنولوجيا ويب 3 المتقدمة، من الذكاء الاصطناعي إلى بلوكتشين، بأسرع ما يمكن. إنهم يرون أنفسهم في سباق وجودي مع بعضهم بعضا ومع الصين من أجل المستقبل.
لذا يبحثون عن طرائق ليس للترويج للذكاء الاصطناعي وحده، بل الحلول الأمنية له. مثلا، في عالم لا يمكن فيه المصادقة على الثقة رقميا، يفكر مطورو الذكاء الاصطناعي في "مايكروسوفت" وغيرها من الشركات فيما إذا كانت هناك طريقة لابتكار إصدارات أكثر تقدما من "الأسرار المشتركة" (أو الأمور التي قد تعرفها أنت وشخص آخر مقرب فقط) رقميا وعلى نطاق واسع.
مع ذلك، هذا يشبه إلى حد ما حل مشكلة تكنولوجية بمزيد من التكنولوجيا.
في الحقيقة، ربما أفضل حل لمعضلة الذكاء الاصطناعي هو التناظرية.
تقول ألين: "ما نحتاجه هو نظام يبعث يقظة أكثر حذرا"، مستشهدة بتقرير اللجنة الرئاسية لعام 2010 حول أخلاقيات البيولوجيا، الذي تم إصداره استجابة لنهضة علم الجينوم. لقد وضع مبادئ توجيهية للتجارب المسؤولة، التي سمحت بتطوير تكنولوجي أكثر أمانا (على الرغم من أن أحدا قد يشير إلى معلومات جديدة عن التسرب المختبري المحتمل في جائحة كورونا، ويقول إنه لا يوجد نظام مضمون دوليا).
في الوقت الحالي، عوضا عن حظر الذكاء الاصطناعي أو إيجاد طريقة مثالية لسن قوانين، قد نبدأ بإجبار الشركات على الكشف عن التجارب التي تجريها، وما الذي نجح وما لم ينجح، وأين قد تظهر عواقب غير مقصودة. الشفافية هي الخطوة الأولى نحو ضمان عدم تغلب تكنولوجيا الذكاء الاصطناعي على صانعيها.

إنشرها

أضف تعليق

المزيد من FINANCIAL TIMES