دراسة: كفاءة الأطباء الذين يستعينون بالذكاء الاصطناعي تدنت 20 %

دراسة: كفاءة الأطباء الذين يستعينون بالذكاء الاصطناعي تدنت 20 %

دراسة: كفاءة الأطباء الذين يستعينون بالذكاء الاصطناعي تدنت 20 %

فيما يُنظر إلى الذكاء الاصطناعي أنه وسيلة واعدة لتحسين الإنتاجية، إلا أن الاعتماد الكبير عليه قد يُضعف مهارات المتخصصين. تشير دراسة إلى أن الذكاء الاصطناعي يضعف كفاءة بعض الأطباء في الكشف عن الحالات غير الطبيعية أثناء الفحوصات الروتينية، ما يثير تساؤلات جدّية حول تأثير التكنولوجيا في كفاءة الأطباء.

أظهرت دراسة نُشرت هذا الشهر في مجلة لانسيت لأمراض الجهاز الهضمي والكبد أن أطباء المناظير الذين يستعينون بأدوات الذكاء الاصطناعي أثناء تنظير القولون، أظهروا معدل اكتشاف أقل للسلائل (الزوائد) عند سحب تلك الأدوات.

في الدراسة، خضع 1443 مريضًا لتنظير القولون باستخدام أنظمة ذكاء اصطناعي ثم دونها. وجد الباحثون أن الأطباء الذين استخدموا الذكاء الاصطناعي سابقًا تراجعت لديهم نسبة اكتشاف السلائل من 28.4% إلى 22.4% بعد سحب تلك الأنظمة، أي بانخفاض 20%.

هذا الإخفاق فاجأ الدكتور مارسين رومانزيك، إخصائي أمراض الجهاز الهضمي في مركز إتش-تي الطبي في تيشي، بولندا، ومؤلف الدراسة. لا تُثير هذه النتائج تساؤلات حول الكسل وضعف الكفاءة الناجمين عن الاعتماد على الذكاء الاصطناعي فحسب، بل أيضا حول تأثيره في الأطباء الذين اعتادوا على التعلم من الكتب والتطبيق المباشر.

قال رومانزيك: "تعلمنا الطب من الكتب ومن مرشدينا. كنا نراقبهم. كانوا يُملون علينا ما يجب فعله. والآن، تملي علينا أداة اصطناعية ما يجب فعله، وإلى أين ننظر".

إلى جانب الاستخدام المتزايد للذكاء الاصطناعي في غرف العمليات وعيادات الأطباء، فإن انتشار الأتمتة قد جلب معه آمالًا كبيرة في تحسين الأداء. وقد توقعت "جولدمان ساكس" العام الماضي أن التكنولوجيا قد ترفع الإنتاجية 25%. ومع ذلك، حذرت الأبحاث الناشئة أيضًا من مخاطر اعتماد أدوات الذكاء الاصطناعي دون مراعاة آثارها السلبية. فكما وجدت دراسة أجرتها شركة مايكروسوفت وجامعة كارنيجي ميلون هذا العام أن الذكاء الاصطناعي قد زاد من كفاءة الموظفين في العمل، لكنه قلل من مشاركاتهم النقدية أثناء التنفيذ، ما أضعف قدراتهم في التقييم والتفكير النقدي.

دراسة رومانزيك دراسة أخرى من أبحاث متزايدة تُشكك في قدرة البشر على استخدام الذكاء الاصطناعي دون إضعاف مهاراتهم.

في دراسته، أوضح أن الأطباء ربما أصبحوا يعتمدون على "المربع الأخضر" الذي يضعه الذكاء الاصطناعي حول النتوءات غير الطبيعية، وعندما اختفى هذا التوجيه، فقدوا تلك الإشارة البصرية. وسمّى هذه الظاهرة بـ"تأثير خرائط جوجل"، مشيرًا إلى أن الناس كانوا قبل 20 عاما يعتمدون على الخرائط الورقية لتحديد وجهاتهم، أما الآن فيعتمدون كليًا على أنظمة الملاحة.

هذه الظاهرة ليست مقتصرة على الطب. ففي 2009، تحطمت طائرة تابعة للخطوط الجوية الفرنسية كانت متجهة من ريو دي جانيرو إلى باريس، ما أسفر عن وفاة جميع الركاب الـ 228. أظهرت التحقيقات أن الطيار الآلي توقف عن العمل بسبب تجمّد أجهزة الاستشعار، لكن الطيارين لم يكونوا مدربين على التحكم اليدوي بالطائرة في هذه الظروف، فاتبعوا إرشادات خاطئة قدمها النظام الآلي.

صرح ويليام فوس، رئيس مؤسسة سلامة الطيران، وقت إجراء تحقيق الخطوط الجوية الفرنسية: "نشهد حالةً لا يستطيع فيها الطيارون فهم ما تفعله الطائرة إلا إذا ترجمها لهم الجهاز". مضيفا: "هذه ليست مشكلةً لشركة إيرباص وحدها أو الخطوط الجوية الفرنسية. إنها تحدٍّ جديدٌ يواجهه القطاع كاملا".

تشير هذه الحوادث إلى ضرورة إعادة التفكير في كيفية تدريب المهنيين، ولا سيما في المجالات التي تتعرض فيها الأروح للخطر. وتقول لين وو، أستاذة في كلية وارتون في جامعة بنسلفانيا، "إنه لا ضرر من الاعتماد على التكنولوجيا، لكن يجب أن يكون ذلك مصحوبًا بتأهيل مستمر للعنصر البشري".

وصرحت لين وو لمجلة فورتشن: "المهم هو أن نتعلم من تاريخ الطيران والجيل السابق من الأتمتة أن الذكاء الاصطناعي قادرٌ بلا شك على تعزيز الأداء. لكن علينا الحفاظ على تلك المهارات الأساسية، بحيث نعرف كيف نُسيطر على الوضع عندما لا يعمل الذكاء الاصطناعي".

وبالمثل، لا يعارض رومانزيك حضور الذكاء الاصطناعي في الطب.

ويقول: "سيصير الذكاء الاصطناعي – أو صار أصلا - جزءًا من حياتنا، شئنا أم أبينا. نحن لا نذم الذكاء الاصطناعي أو ندعو إلى التوقف عن استخدامه. بل نقول إنه علينا جميعًا دراسة ما يحدث داخل أدمغتنا، وكيف يؤثر فينا؟ وكيف يمكننا استخدامه بفاعلية؟".

أشارت لين وو إلى انه إذا أراد المهنيون والمتخصصون الاستمرار في استخدام الأتمتة لتحسين عملهم، فعليهم الحفاظ على مهاراتهم الأساسية، فالذكاء الاصطناعي يعتمد على البيانات البشرية لتدريب نفسه، ما يعني أنه إن تلقى تدريبا معيبا، فستكون مخرجاته معيبة أيضًا.

الأكثر قراءة