الذكاء الاصطناعي.. كيف تصبح المشاعر المزيفة أداة للابتزاز؟

السياسي -وكالات

في ظل ارتفاع عدد المجرمين في الفضاء الإلكتروني، حذر خبراء أمنيون متخصصون بالبرمجة، من تزايد مخاطر “الأصدقاء والصديقات” المبرمجين بالذكاء الاصطناعي.

وأعدت صحيفة “ذا صن” بنسختها الأمريكية، تقريراً مفصلاً حول مخاطر الانجرار بالعواطف عبر تطبيقات المحادثة المدعومة بالذكاء الاصطناعي، لأنها تسمح للمجرمين بإنشاء شركاء رومانسيين افتراضيين، بحيث يبدو الأمر ممتعاً بداية، لكنه بلا شك “سم في العسل”.

احذروا تقنية “ديب فايك”
حققت تقنية “ديب فايك” تقدّماً كبيراً في السنوات القليلة الماضية، رغم أن الصور الرمزية للأحباء الافتراضيين لا تزال تبدو آلية وغريبة بعض الشيء، وفقاً للمؤسس المشارك والرئيس التنفيذي لشركة “سايبر سمارت” جيمي أختار.
واعتبر أن التكنولوجيا “سلاح ذو حدين”، لأنه يمكن استخدامها أيضاً لأغراض خبيثة من خلال استغلال مجرمي الإنترنت المشاعر الإنسانية لاصطياد ضحاياهم.
وأعطى مثالاً على أن مبرمجي الذكاء الاصطناعي، يستغلون صفة معينة لدى الشخص كأن يكون مُحباً للمشاعر الحزينة، فتنتحل روبوتاتهم الافتراضية مشاعر الحزن في شخصية الإنسان.

 

وأردف: “عندها يكون الجاني الافتراضي والضحية يشتركان في نفس المشاعر، وتستغل الآلة مشاعر الإنسان وتؤثر على عقله حتى يقع في فخ الهدف المحدد للانقضاض عليه، وخصوصاً ابتزازه بأمر ما”.

25 مليون دولار لمجرمي الإنترنت

واعتبر أنه “ليس من الصعب تخيل سيناريو يستخدم فيه مجرمو الإنترنت برنامج الحزن الآلي أو صديق/صديقة الذكاء الاصطناعي لابتزاز الأموال من الضحية أو خداعهم لتنزيل برامج ضارة”.
وسرد أحد الأمثلة على هذا النوع من الهجمات، ففي وقت سابق من هذا العام، تم خداع موظف مالي في شركة متعددة الجنسيات لدفع 25 مليون دولار لمجرمي الإنترنت الذين تظاهروا بأنهم المدير المالي للشركة باستخدام تكنولوجيا التزييف العميق.
ووجه نصيحة إلى كل من يتحدث إلى برامج المحادثة الآلية، بضرورة التأكد من استخدام تطبيقات رسمية ومعروفة، لأن من يقوم بتنزيل برامج محادثة الآلية من متاجر تطبيقات مشبوهة، سيقع حتماً في فخ مجرمي الذكاء الاصطناعي.

حتى الرسمية غير آمنة

هذا ليس كل شيء، فحتى برامج المحادثة الرسمية ليست آمنة بالضرورة، لذلك سبق وحذر الخبراء من أنه لا ينبغي مشاركة الكثير من المعلومات الخاصة مع أي برنامج محادثة آلي، حتى على التطبيقات المعروفة مثل ChatGPT من OpenAI أو Google Gemini.
لأنه يمكن لروبوتات المحادثة تسريب المعلومات التي قام الشخص بمشاركتها، وإذا وصلت هذه المعلومات إلى الأيدي الخطأ، فمن الممكن أن يتم استخدامها ضده، وهذه مشكلة لأن روبوتات المحادثة شبيهة بالبشر لدرجة أنها تعطي شعوراً زائفاً بالأمان.

شاهد أيضاً