شاهدتُ بالأمس فيديو للدكتور أنس النجداوي، مدير جامعة Hبوظبي – فرع دبي يظهر فيه بنسخة رقمية مطابقة له، والتجربة لافتة وتفتح أفقا جديدا لفهم دور الذكاء الاصطناعي في التعليم بوصفه أداة داعمة للإنسان لا بديلا عنه.
هذا المشهد يثير الإعجاب لكنه في الوقت ذاته يفرض سؤالا قانونيا مركزيا حول حدود الاستخدام والمسؤولية والحوكمة قبل أن تسبقنا التقنية بخطوات لا يمكن تداركها، وهنا لا بد وأن أشير إلى العديد من الأبحاث التي ناقشت ذلك في هذا السياق، منها دراسة أكاديمية للصديق البروفيسور ممدوح العدوان.
النسخة الرقمية أو ما يعرف بالتوأم الرقمي تمثل نقلة نوعية في بيئات التعلم؛ فهي تتيح تعلما مخصصا وتفاعلا مستمرا وتقييما قائما على البيانات، لكن هذه المزايا تصطدم مباشرة باعتبارات قانونية دقيقة تتمثل في الأسئلة التالية: من يملك هذه النسخة الرقمية؟ وهل هي امتداد قانوني للشخص أم منتج تقني مستقل؟، ومن يتحمل المسؤولية إذا أنتجت هذه النسخة محتوى مضللا أو تقييما خاطئا أو قرارا تعليميا أضر بحق الطالب؟
المسؤولية القانونية للذكاء الاصطناعي في المجال التعليمي لا يمكن تركها في المنطقة الرمادية؛ فالذكاء الاصطناعي لا يتمتع بشخصية قانونية مستقلة وفق القواعد المستقرة.
لا بل إن المسؤولية تقع على عاتق مطور النظام أو الجهة المشغلة أو المؤسسة التعليمية بحسب طبيعة الخطأ وعلاقته بالإشراف والرقابة.
والخطأ الناتج عن خلل تقني يختلف عن الخطأ الناتج عن سوء استخدام أو غياب إشراف بشري فعال، وهنا فقط تظهر أهمية تحديد المسؤولية المدنية والجزائية بصورة واضحة وهذا يحتاج الكثير من البحث القانوني المعمق.
القانون في هذا السياق ليس عائقا أمام الابتكار، والبيانات التعليمية تعد من أكثر أنواع البيانات حساسية، كما أن استخدام الذكاء الاصطناعي في التعليم يفرض التزاما صارما بمبادئ حماية البيانات والشفافية وقابلية التفسير وعدم التمييز، وهذه المبادئ تشكل أساس الثقة بين الطالب والمؤسسة التعليمية وتمنع تحول النسخة الرقمية إلى أداة تاثير غير منضبط أو انتهاك غير مرئي للخصوصية.
التجارب الدولية تقدم إطارا استرشاديا مهما؛ فتوصية اليونسكو لأخلاقيات الذكاء الاصطناعي تؤكد مبدأ الإنسان في الحلقة وتمنع تفويض القرارات التعليمية الجوهرية إلى الأنظمة الالية دون إشراف بشري، كما أن التشريع الأوروبي للذكاء الاصطناعي يصنف الأنظمة المستخدمة في التعليم ضمن الأنظمة عالية المخاطر ويفرض عليها التزامات قانونية مشددة تتعلق بالتقييم المسبق للمخاطر والتوثيق والمساءلة.
في السياق العربي تبرز الحاجة إلى بناء إطار تشريعي محلي متوازن، والمطلوب ليس نسخ التجارب الغربية بل مواءمتها مع الخصوصية القانونية والثقافية.
وهذا يتطلب تعريف النسخة الرقمية تعريفا قانونيا دقيقا، ووضع قواعد صريحة للمسؤولية عند الخطأ مع إلزام المؤسسات التعليمية بالإفصاح عن استخدام الذكاء الاصطناعي وإنشاء آليات تدقيق مستقلة تضمن سلامة المخرجات.
الفيديو الذي قدمه الدكتور أنس النجداوي يعكس لحظة فارقة؛ فالتقنية جاهزة والخيال التعليمي واسع، غير أن العقد القانوني المنظم لهذه العلاقة لم يكتمل بعد.
إن تنظيم الذكاء الاصطناعي في التعليم ليس ترفا تشريعيا بل ضرورة لحماية الحقوق وضمان العدالة والحفاظ على جوهر العملية التعليمية، والنسخة الرقمية يجب أن تكمل دور الانسان لا أن تحل محله ولا أن تتجاوزه مع ضابط قانوني وأخلاقي محدد وواضح ويتواءم مع الرؤى العالمية في هذا السياق.
العين الاماراتية








