OpenAI تكشف حملات قرصنة عالمية استغلت الذكاء الاصطناعي في سرقة بيانات حساسة

شات جي بي تي
كتب بواسطة: زهرة بدر | نشر في  twitter

في خطوة تؤكد تصاعد التهديدات السيبرانية المرتبطة بالذكاء الاصطناعي، أعلنت شركة "OpenAI"، المطورة لنموذج شات جي بي تي، عن تفكيكها لعدد من الشبكات الإلكترونية التابعة لجهات قرصنة في روسيا، الصين، إيران، وكوريا الشمالية، كانت قد استغلت نماذجها اللغوية لتنفيذ عمليات خبيثة تستهدف أنظمة تشغيل، ومنصات تواصل اجتماعي، وحتى الانتخابات في بعض الدول، التقرير الذي صدر مؤخراً عن الشركة يكشف عن تفاصيل دقيقة لأساليب معقدة استخدمتها تلك المجموعات، ومدى التهديد الذي تشكّله على الأمن السيبراني العالمي.

أوضحت "OpenAI" في تقريرها الاستخباراتي أن العديد من الحسابات التي تم تعطيلها كانت تابعة لمجموعات تهديد ناطقة بالروسية، استخدمت شات جي بي تي لتحسين برمجيات خبيثة، وتصحيح الأكواد، وإنشاء بنى تحتية للتحكم عن بعد، واحدة من أبرز هذه الحملات كانت تُعرف باسم "ScopeCreep"، وهي مجموعة روسية استغلت أدوات الذكاء الاصطناعي لتطوير أدوات خبيثة مخصصة لأنظمة ويندوز، عبر إنشاء حسابات مؤقتة تستخدم لمحادثة واحدة فقط ثم يتم التخلص منها، في تكتيك واضح للحفاظ على سرية عملياتها.


إقرأ ايضاً:الأرصاد: طقس شديد الحرارة ورياح مثيرة للغبار تضرب عدة مناطقرينارد يُعلن قائمة المنتخب السعودي المشاركة في الكأس الذهبية 2025 وسط غياب نجوم الهلال

الهجوم الروسي تضمن نشر برنامج خبيث تم تمريره على شكل أداة ألعاب مزيفة تحت اسم Crosshair X، كانت تقوم بتحميل ملفات ضارة من خادم خارجي، هذا البرنامج مكّن المهاجمين من تنفيذ أنشطة خفية شملت سرقة البيانات، تصعيد الامتيازات، وتجاوز أنظمة الدفاع، واستُخدمت تقنيات معقدة مثل تشفير Base64، وأوامر PowerShell، وبروكسيات SOCKS5 لإخفاء الهوية الرقمية للمهاجمين، مع إرسال تنبيهات فورية على تطبيق "تليغرام" عند اختراق أي جهاز جديد.

ولم تكن روسيا وحدها من تستفيد من قدرات الذكاء الاصطناعي التي توفرها OpenAI، بل ظهرت في التقرير أيضاً مجموعات صينية مرتبطة بـ APT5 وAPT15، استخدمت شات جي بي تي في إجراء أبحاث متقدمة، وتحليل أكواد أنظمة تشغيل، وتطوير أدوات لإدارة البنية التحتية الرقمية ونشر تطبيقات أندرويد، ومن المثير للقلق أن بعض هذه المجموعات ركّزت على تطوير أدوات لاختراق خوادم FTP وأتمتة حملات تأثير رقمي تستهدف منصات كبرى مثل فيسبوك وإنستغرام وتيك توك.

أما على الصعيد العالمي، فقد رصد التقرير أنشطة مرتبطة بكوريا الشمالية هدفت إلى تزوير مستندات توظيف باستخدام نماذج الذكاء الاصطناعي، لتسهيل اختراق شركات التكنولوجيا، كما أشار إلى حملة من الفلبين تضمنت نشر آلاف التعليقات السياسية المؤثرة عبر "فيسبوك" و"تيك توك"، بينما أطلقت إيران حملات تستهدف دعم روايات سياسية معينة وتحريك قضايا انفصالية باستخدام محتوى مدعوم من الذكاء الاصطناعي.

واستعرض التقرير أيضاً عملية تُعرف باسم "الرقم الخطأ"، والتي يعتقد أنها مرتبطة بكمبوديا وبعض شبكات الاحتيال الصينية، حيث استخدمت أدوات OpenAI في توليد رسائل توظيف زائفة بلغات متعددة، هدفها تضليل الباحثين عن العمل عالمياً وجذبهم إلى منصات مشبوهة تطلب رسوماً غير قانونية، هذه الأنشطة تعكس توجهاً متصاعداً نحو استخدام الذكاء الاصطناعي كأداة للاحتيال المنظم والعابر للحدود.

اختتم فريق الأمن السيبراني في "OpenAI" تقريره بتأكيد أن التهديدات الحالية لا تعتمد فقط على القدرات البرمجية، بل على أنظمة متكاملة من التمويه، والتشغيل اللامركزي، والتحايل على أنظمة الحماية، وأضاف أن مواجهة هذه التحديات تتطلب تعاوناً دولياً متزايداً، ووعيًا جماعيًا بخطورة استغلال تقنيات الذكاء الاصطناعي في الأنشطة الإجرامية، مشيراً إلى أن الشركة تعمل على تحسين وسائل الرقابة وكشف الاستخدامات المشبوهة لمنصاتها.

في ضوء هذا التصعيد، يتزايد القلق العالمي من تحول أدوات الذكاء الاصطناعي إلى سلاح بيد الجماعات السيبرانية، التي باتت تعتمد على نماذج لغوية متقدمة لصقل أدواتها الخبيثة، وتوسيع رقعة هجماتها، والتأثير على الأفراد والمؤسسات والدول على حد سواء، إن ما كشفته "OpenAI" ليس مجرد تقرير تقني، بل هو ناقوس خطر ينذر بمرحلة جديدة من التهديدات الرقمية.

اقرأ ايضاً
الرئيسية | اتصل بنا | سياسة الخصوصية | X | Facebook