التعليم وبيئات الاستخدام للبيانات «1من 2»

|

ما الذي تشترك فيه مبادرات مثل التعلم الشخصي والتكيفي، أو برامج الدردشة من أجل التعليم، أو المترجمين الآليين، أو استخدام تحليلات التعلم التنبؤية؟ جميعها مكونات "التعليم القائم على البيانات". في عديد من البلدان هناك اهتمام واضح بتوسيع دور التقنيات الرقمية في التعليم، الأمر الذي يؤدي حتما إلى أنظمة تعليمية أكثر كثافة للبيانات. ومع تزايد الاهتمام بأنظمة التعليم الذكي التكيفي التي تتيح تفاعلا باللغة الطبيعية، أو أدوات للتنبؤ بالتسرب من المدارس، أو أنظمة مؤتمتة جديدة لتعزيز تشغيل الطلاب، فمن المحتمل أن تزداد أهمية التقنيات كثيفة البيانات في التعليم خلال الأعوام المقبلة.
على الرغم من أن هذه الابتكارات الرقمية يمكن أن تحقق منافع جديدة، إلا أن من المهم أيضا أن نفهم أنها بوسعها أيضا تحويل المشهد الحالي للتعليم في اتجاهات غير متوقعة. فقد حظي فقدان المعلومات الشخصية، أو الوصول إليها دون إذن أو الكشف عنها، باهتمام وسائل الإعلام أخيرا، لكن الافتقار إلى الشفافية أو التحيز التلقائي أو استخدام البيانات للتأثير في سلوك المستخدم، يعد أيضا من التحديات شديدة الأهمية التي تجب موازنتها عند استكشاف هذه الاتجاهات.
لن يتطلب المشهد المتغير للتعليم أن يصبح الطلاب والمعلمون أكثر معرفة بالبيانات فحسب، بل أيضا تعد المنظمات التعليمية والإداريون بالضرورة استراتيجية (أكثر) استباقية وشمولا عند التخطيط للأنظمة التعليمية كثيفة البيانات، وتشغيلها، والتفاعل معها بشكل متزايد.
فمع الأنظمة الذكية (المتقدمة) "على سبيل المثال، تلك القادرة على تحديد الأنماط أو التعرف على الأصوات أو الوجوه أو الصور أو النصوص أو حتى ضغطات المفاتيح".
إن الأهمية المتزايدة للأنظمة كثيفة البيانات تسمح بظهور تحديات وأسئلة جديدة من المتوقع أن تلعب دورا حيويا خلال العقد المقبل. فيما يلي بعض الأسئلة التي سيكون من المهم مراعاتها والإجابة عنها بشكل منهجي داخل المؤسسات التعليمية وخارجها، حيث تتبنى البلدان المختلفة أدوات تتيح مزيدا من الممارسات التعليمية المستندة إلى البيانات:
الخصوصية وحماية البيانات: من لديه بياناتي؟ هل البيانات آمنة؟ ما البيانات التي يتم الاحتفاظ بها؟ ومن لديه حق الوصول إليها؟ من يتعقبني؟ ما حقوقي؟ كيف أحمي خصوصيتي؟ أين يمكن الحصول على المساعدة ذات الصلة؟
الاستخدام الأخلاقي للبيانات: ما مخاطر الاعتماد على الأنظمة المؤتمتة؟ كيف يتسنى تبني الحلول التكنولوجية للتعليم دون تجاهل التبعات الأخلاقية؟ ما الإجراءات والظروف التي تكون فيها الأنظمة كثيفة البيانات مناسبة للاستخدام؟
محاسبة البيانات: ما التقييم الذي أجري للاستخدام الأخلاقي للبيانات؟ هل تم التقاط البيانات بمعرفة وموافقة جميع الأطراف المعنية؟ إذا كان المقصود من البيانات الشخصية التي تم جمعها من قبل أن تستخدم لغرض جديد، فما الذي ينبغي عمله؟ ما آليات مراقبة الجودة التي تحتاج إلى تنفيذ لاستخدام أفضل البيانات الممكنة؟
محو الأمية الخوارزمية: ما الآثار الإيجابية والسلبية التي يمكن أن يحدثها استخدام الذكاء الاصطناعي في التعليم في الناس؟ كيف يمكن إجراء تقييم نقدي لنتائج استخدام أنظمة الذكاء الاصطناعي؟ إلى أي مدى ينبغي أن تتعامل الأطر الحالية لمحو الأمية الرقمية مع تعميق الفهم للتبعات الأخلاقية والاجتماعية الناجمة عن البيانات الضخمة؟
إمكانية التعبير عن الرأي والمسؤوليات: كيف يمكن إعداد الطلاب والمعلمين لحماية أنفسهم من الاستخدامات غير المقصودة للتكنولوجيا؟ هل يمكن أن يشارك المستخدم النهائي بنشاط أكبر في تصميم أو تطبيق أدوات كثيفة البيانات من أجل التعليم؟
الوعي بالتحيز: كيف يمكن الحد من تأثير التحيز في بعض المستخدمين أو المجموعات؟ ما مجموعات البيانات التي يجري أو تم تدريب الخوارزمية عليها؟ وما حدودها وتحيزاتها المحتملة؟
الشفافية: كيف يتم جمع بيانات الطلاب وتحليلها واستخدامها؟ كيف تتغلب على "مشكلة الصندوق الأسود"، عندما يكون تعقيد الخوارزمية غامضا حتى لمطوريها؟ ما أفضل الممارسات للحفاظ على سياسة بيانات شفافة؟ كيف تحافظ على البيانات واضحة ومتسقة ومفهومة؟
القدرة على الشرح والتوضيح: ماذا يعني فتح "الصندوق الأسود" للذكاء الاصطناعي؟ كيف يمكن جعل الشروط والأحكام ذات الصلة أكثر سهولة في الاستخدام؟ "هذا مثال مثير للاهتمام بالشروط والأحكام المبسطة لوسائل التواصل الاجتماعي المختلفة.

إنشرها