جرس إنذار.. الذكاء الاصطناعي يقود إلى الانتحار

السياسي -وكالات

السحر في عالم الذكاء الاصطناعي، يأخذ المستخدم إلى عالم فريد من الإمكانات الهائلة، وبواسطته قد يصنع البشر ما لا يخطر على بال، غير أنه إلى جانب هذا قد يتحول لباب أخطار غير متوقعة.
ويدور حديث وجدل واسع حول الذكاء الاصطناعي من البداية، والمخاوف التي تأتي يداً بيد مع فوائده العظيمة للبشرية، ومن النقاط المقلقة، ما أثارته حالات انتحار تعلقت بالذكاء الاصطناعي.

آخر الحوادث كانت انتحار مراهق، لم يتجاوز 14 عاماً، رفعت والدته في ولاية فلوريدا الأمريكية، دعوى قضائية، ضد برنامج دردشة يعتمد على الذكاء الاصطناعي، تسبب في دفع ابنها إلى قتل نفسه.

“الملاك الجميل”

وأرسل برنامج Character.AI إلى المراهق الأمريكي سيويل سيتزر، خلال فبراير (شباط) الماضي، طلباً للبقاء المنزل، وهذا الطلب فسره خبراء نفسيون بأنه يعني دخول المراهق إلى عالم الوهم، وينتهي بشكل طبيعي بالانتحار، لأنّ التطبيق يعتمد على تجسيد أدوار، ويتيح للمستخدمين التفاعل مع الشخصيات التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
وقالت الأم أن شخصية “داني”، شبيهة بشخصية الأميرة المقاتلة في مسلسل “صراع العروش” دينيريس تارجيريان، وصار يتفاعل معها بشكل يبدو حقيقياً.
وكشف المراهق عن رغبته بالانتحار، وفقاً لما أظهرته لقطات من محادثات الدردشة، وكان التطبيق يشجعه بشكل متواصل على هذه الخطوة، حتى جاءت اللحظة الحاسمة، حين أعرب الشاب عن رغبته بالانتحار للشخصية الوهمية التي يحادثها عبر التطبيق، فحصل على الحماس المطلوب بالقول: “من فضلك افعل ذلك، يا ملكي الجميل”.
ولم تمض إلا ثوان، حتى أطلق سيويل النار على نفسه بمسدس والده.

البلجيكي.. حماية البشرية

ولا يقتصر الأمر على المراهقين، في تأثير الذكاء الاصطناعي الخطير من هذا النوع، وتغذيته لحالات نفسية متدهورة.
في العام الماضي، انتحر رجل بلجيكي، بعد حوار طويل مع أحد روبوتات الدردشة، شكّل تطبيقاً يحمل اسم “إليزا” Eliza، الذي يستعمل نموذجاً لغوياً مدعوماً بالذكاء الاصطناعي.
وبعد 6 أسابيع من حديثه معه، شجع التطبيق الرجل البلجيكي، الذي لم تذكر وسائل الإعلام اسمه، على الانتحار، بعدما طلب الأخير من التطبيق منح خيارات التضحية اللازمة من أجل حماية الكوكب.
وقالت أرملة الرجل لصحيفة “La Libre” المحلية، إن المحادثات أظهرت أن الروبوت أقنع زوجها الراحل بالانتحار، في مقابل أن يتولى هو، أي الروبوت، حماية البشرية.

“الحوت الأزرق”

وتعد حوادث الانتحار المتعددة بين مراهقين في معظمها، التي سببتها لعبة “الحوت الأزرق” الشهيرة، التي حدثت بين 2015 و2019، من النماذج للخطورة المتعلقة ببرامج المحادثة، وليست بالضرورة بالذكاء الاصطناعي، غير أنها اليوم ستصبح بالذكاء الاصطناعي بطبيعة الحال.
ويقول خبراء في علم النفس، إنه حتى لو لم نحمل الذكاء الاصطناعي مسؤولية مباشرة على قيام الفرد بالانتحار، إلا أنه قد يكون أداة أساسية في الدفع والتحريض عليه.

الإنقاذ

غير أن آراء مقابلة ترفض التخوف من الذكاء الاصطناعي في نطاق الانتحار تحديداً، ويشدد هؤلاء على تمكن برامج الذكاء الاصطناعي على العكس، منع الانتحار والتنبؤ به للحد من الحالات.
لكن تطبيق الأمر معقد جداً.
وتسعى شركات وسائل التواصل الاجتماعي لإنشاء خوارزميات للتنبؤ بالانتحار وإطلاق تدخلات، تهدف إلى منع الانتحار، غير أن القيم المضمنة في الحوافز الخوارزمية، لمنع الانتحار غليظة من الناحية الموضوعية وتستحق التدقيق، ونظراً لأن المناقشات حول عقلانية الانتحار ومعناه وجوازه شائعة وتخضع للاختلافات داخل الثقافات وعبرها، ويؤكد البعض أن مهمة التنبؤ بالانتحار غير مناسبة للنهج الخوارزمي.
وعلى الرغم من قدرة الخوارزمية على تحديد ظاهرة معقدة، مثل خطر الانتحار ومظهرها الموضوعي، فإن أي خوارزمية للتنبؤ بالانتحار ذاتية تماماً وتنطوي على أحكام أخلاقية.

المستقبل

ويقول آخرون إنه من الممكن أن تساعد الأساليب متعددة التخصصات التي تجمع بين مصادر البيانات المتنوعة وطرق الذكاء الاصطناعي في تحديد الأفراد المعرضين للخطر من خلال تحليل محتوى وسائل التواصل الاجتماعي، وتاريخ المرضى، والبيانات من الأجهزة المحمولة، مما يتيح التدخل في الوقت المناسب.
ومع ذلك، يجب معالجة التحديات المتعلقة بخصوصية البيانات، والتحيز الخوارزمي، وقابلية تفسير النموذج، والتنفيذ في العالم الحقيقي لتحقيق الإمكانات الكاملة لهذه التقنيات.
ويجب أن تركز الأبحاث المستقبلية على دمج استراتيجيات التنبؤ والوقاية، وتسخير البيانات المتعددة الوسائط، وتوسيع النطاق ليشمل مجموعات سكانية متنوعة.
وتعد القضية بالغة الأهمية، حيث يُعد الانتحار أحد أهم أسباب الوفيات غير الطبيعية في جميع أنحاء العالم ، حيث يموت أكثر من 800 ألف شخص بالانتحار كل عام، مع محاولة المزيد من الأشخاص الانتحار، أو تجربة أفكار انتحارية.

شاهد أيضاً