AI في الجرائم الإلكترونية
كيف يغير AI سلسلة القتل السيبراني
العمليات السيبرانية الهجومية هي إجراءات متعمدة تُنفذ في الفضاء السيبراني لاختراق أنظمة الخصم أو تعطيلها أو تدميرها سعياً لتحقيق أهداف استراتيجية. وعادة ما يتم تأطيرها من خلال سلسلة القتل السيبرانيوهو إطار عمل طورته في الأصل شركة لوكهيد مارتن. يقسم إطار العمل الهجوم إلى تسلسل منظم من المراحل، حيث يتتبع تقدم الخصم من الاستطلاع الأولي إلى الإجراءات النهائية المتخذة للوصول إلى الأهداف (على سبيل المثال، تسريب البيانات أو تدمير البيانات).
2
2
التسليح
اقتران الثغرة مع الباب الخلفي في حمولة قابلة للتسليم
التوصيل
تسليم الحزمة المسلحة إلى الضحية عبر البريد الإلكتروني، أو الويب، أو USB، إلخ.
3
3
4
4
الاستغلال
استغلال ثغرة أمنية لتنفيذ تعليمات برمجية على نظام الضحية
التركيب
تثبيت البرامج الضارة على الأصل
5
5
6
6
القيادة والتحكم (C2)
قناة أمر للتلاعب عن بُعد بالضحية
الإجراءات المتخذة بشأن الأهداف
مع وصول "اليدين على لوحة المفاتيح"، يحقق المتسللون أهدافهم الأصلية
7
7
في السنوات الأخيرة، تكثفت العمليات السيبرانية الهجومية في السنوات الأخيرة من حيث الحجم والتعقيد. لا تتزايد الهجمات السيبرانية العالمية بشكل حاد فحسب، بل تتنوع أنواعها أيضًا:: في عام 2022, كانت 27% من الهجمات السيبرانية العالمية قائمة على الابتزاز، و21% من الهجمات السيبرانية العالمية تضمنت أبوابًا خلفية و17% من هجمات الفدية. ويلعب الذكاء الاصطناعي (AI) دورًا رئيسيًا في هذا التصعيد والتنويع، مما يتيح أشكالًا جديدة من الهجمات مثل التزييف العميق أو البرمجيات الخبيثة السربية، مع تعزيز النواقل التقليدية مثل التصيد الاحتيالي أو استغلال الثغرات الأمنية. وفقًا لـ استبيان المدير المالي العالمي، فإن 85% من المتخصصين في الأمن السيبراني يعزو ارتفاع الهجمات إلى تسليح AI التوليدية. في بنغالورو، الهند، أ تقرير الولاية أكد هذا الاتجاه: بحلول أوائل عام 2025، كان 80% من رسائل التصيد الاحتيالي من رسائل البريد الإلكتروني التي تم إنشاؤها AI.
تعمل AI على تحويل سلسلة القتل السيبراني نفسها، ولديها القدرة على تعزيز كل مرحلة من مراحل الحملات السيبرانية الهجومية. وقد أصبحت السرعة والحجم اللذان تعيد بهما AI تشكيل هذه السلسلة مصدر قلق أمني وطني ملح.
تركز مجموعة الأدوات هذه بشكل خاص على AI كعامل تمكين للهجوم، وتستكشف كيف تحوّل المراحل المختلفة لسلسلة القتل السيبراني.
الاستطلاع
يقوم المهاجم بجمع معلومات عن الهدف، مثل تفاصيل الموظفين أو رسائل البريد الإلكتروني أو بيانات النظام للتخطيط لهجومه.
كيف يغير AI الاستطلاع:
تم تسليط الضوء على الحالة: ChatGPT كمساعد استطلاع ChatGPT
في عام 2024, الباحثة في مجال الأمن السيبراني شيتال تمارا نشرت ورقة بحثية توضح كيف يمكن للنماذج اللغوية الكبيرة مثل ChatGPT تسريع مرحلة الاستطلاع للهجوم بشكل كبير. فبدلاً من قضاء ساعات في كتابة البرامج النصية وجمع المعلومات الاستخبارية مفتوحة المصدر يدويًا، استخدم الباحث سلسلة قصيرة من المطالبات التخاطبية، على سبيل المثال "اذكر جميع النطاقات الفرعية التي يمكنك العثور عليها لموقع examplecompany.com"، "لخص طوبولوجيا شبكة الشركة بناءً على المعلومات المتاحة للجمهور"، و"حدد أنظمة التشغيل والخدمات التي تعمل على الأرجح على هذه الخوادم".
في غضون دقائق، أنتج النموذج مواد استطلاعية مفيدة، بما في ذلك:
- قائمة بالنطاقات والنطاقات الفرعية المرتبطة بالشركة المستهدفة
- نطاقات عناوين IP المحتملة
- ملاحظات حول تكوينات SSL/TLS والمنافذ المفتوحة المحتملة والخدمات المشتركة
- معلومات الموظفين العامة (من LinkedIn والبيانات الصحفية) التي يمكن استخدامها في التصيد الاحتيالي.
وفي حين يتطلب جمع المعلومات الاستطلاعية في العادة ساعات أو أياماً من العمل اليدوي، اختزلت التجربة المهمة إلى سير عمل تخاطبي يتطلب خبرة فنية أقل بكثير. وبالتالي، تؤكد الدراسة كيف يمكن للنماذج التوليدية أن تقلل من عوائق الاستطلاع الآلي، مع ما يترتب على ذلك من آثار واضحة على الممارسة الدفاعية ونمذجة التهديدات.
-
أدوات المسح الآلي - "تسليح AI في الهجمات السيبرانية دراسة مقارنة لأدوات AI التي تعمل بالطاقة AI للأمن الهجومي" (أنيس وحمودة 2025)
تُظهر الدراسة المقارنة كيف أن الأدوات المؤتمتة (مثل WebCopilot وSublist3r وRustScan+Nmap) تسرّع من مسح الشبكة وتعداد النطاقات الفرعية. تسلط النتائج الضوء على كيفية قيام AI بأتمتة المهام الهجومية مثل محاكاة سيناريوهات الهجوم والتكيف الديناميكي مع الدفاعات، مما يمهد الطريق لعمليات أمنية هجومية مؤتمتة بالكامل. -
AI أدوات للاستطلاع - AI للاستطلاع - "تهديد هجمات AI الهجومية للمؤسسات" (ميرسكي وآخرون 2023)
يسلط الاستطلاع الضوء على 32 أداة من أدوات AI الهجومية التي تستخدم التعلم العميق والتعلم المعزز والبرمجة اللغوية العصبية لأتمتة اكتشاف نقاط الدخول وبناء الشخصية واختيار الهدف. تعمل هذه الأدوات على تعزيز معلومات نظام التشغيل وتمكين التزييف العميق الواقعي للتصيد الاحتيالي، وتسمح حتى للمهاجمين عديمي الخبرة بتخطيط وإطلاق حملات أكثر تأثيراً. -
جمع المعلومات واستغلالها تلقائيًا - "تسليح AI للهجمات الإلكترونية" (يامين وآخرون 2021)
يبحث البحث في الهجمات السيبرانية الأخيرة التي استخدمت تقنيات AI ويحدد استراتيجيات التخفيف ذات الصلة. يسلط الضوء على مختلف أدوات AI (على سبيل المثال، GyoiThon وDeep Exploit) التي يمكن أن تساعد في جمع البيانات عن النظام والأهداف المحتملة والتدابير الدفاعية.
التسليح
يستخدم المهاجم المعلومات التي تم الكشف عنها أثناء الاستطلاع لبناء أو تخصيص حمولة خبيثة (مثل البرمجيات الخبيثة أو الثغرات) واستغلال نقاط ضعف الهدف.
كيف يغيّر AI التسليح:
تعمل AI على تبسيط عملية إنشاء وضبط الحمولات الخبيثة من خلال إنشاء أو تعديل التعليمات البرمجية واختبار المتغيرات مقابل نماذج الكشف. يمكن أن يؤدي ذلك إلى إنتاج حمولات خبيثة أكثر سرية وتكيّفاً واستهدافاً، بما في ذلك المتغيرات متعددة الأشكال التي تغير مظهرها مع كل عملية تنفيذ. يمكن استخدام الاختبار العدائي لتحسين الحمولات قبل نشرها.
تم تسليط الضوء على الحالة: قطّارة البرمجيات الخبيثة AI التي تم إنشاؤها في البرية
في عام 2024, محللو الأمن السيبراني حملة تصيّد احتيالي بدت روتينية في البداية: سلسلة من رسائل البريد الإلكتروني التي توزع حمولة برمجيات خبيثة تقليدية. ومع ذلك، كشف الفحص الدقيق للقطّارة (أي البرنامج الصغير المسؤول عن تثبيت وتفعيل البرمجية الخبيثة الأساسية) عن ميزة غير عادية.
تشير بنية وتركيب القطارة إلى أنه قد تم إنشاؤها بواسطة نموذج لغوي كبير بدلاً من تأليف مبرمج بشري. على الرغم من أنه كان يعمل كغلاف بسيط، إلا أن القطّارة التي أنتجتها AI كانت مصقولة وفعّالة في آنٍ واحد، مما يدل على قدرتها على التهرب من طرق الكشف التقليدية. ونجحت في تجاوز التواقيع الأساسية لمكافحة الفيروسات وأوصلت البرمجية الخبيثة على النحو المنشود.
كانت هذه النتيجة جديرة بالملاحظة باعتبارها واحدة من أولى الحالات المؤكدة التي تم فيها نشر شيفرة خبيثة من إنتاج شركة AI في البرية. وعلى الرغم من أن البرمجية الخبيثة الأساسية لم تكن جديدة، إلا أن الاستعانة بمصادر خارجية لجزء من عملية التسليح إلى شركة AI كان تطوراً هاماً. فقد أظهر كيف يمكن للمهاجمين توسيع نطاق العمليات، وتقليل تكاليف التطوير، والتكيف بسرعة أكبر، مع تعقيد جهود الكشف والاستجابة في الوقت نفسه.
-
البرمجيات الخبيثة متعددة الأشكال المحسّنة AI - "البرمجيات الخبيثة متعددة الأشكال AI: تجربة عملية في العالم الحقيقي والكشف عن البرمجيات الخبيثة" (Itkin 2025)
يقترح المقال إثباتًا لمفهوم البرمجية الخبيثة متعددة الأشكال التي تعمل بتقنية AI التي تعيد كتابة شيفرتها البرمجية ديناميكيًا في وقت التشغيل لتجنب الكشف، والتي تم إنشاؤها كبرنامج تسجيل مفاتيح يولد حمولات مشوشة في كل عملية تنفيذ. -
نماذج اللغة الكبيرة لتوليد التعليمات البرمجية - "نماذج اللغات الكبيرة لتوليد الأكواد: مسح شامل للتحديات والتقنيات والتقييم والتطبيقات" (Huynh & Lin 2025)
يوضح الاستطلاع كيف يمكن لبرمجيات LLMs (مثل CodeLlama و Copilot) توليد تعليمات برمجية قابلة للتنفيذ تلقائيًا من اللغة الطبيعية، مما يقلل من حاجز إنشاء البرمجيات الخبيثة وتطوير البرمجيات الخبيثة وتكييف الحمولات من قبل المهاجمين. -
AI المولدة بتقنيات تشويش جديدة - "ADVERSARIALuscator: أداة تشويش قائمة على برنامج Adversarial-DRL قائم على التعتيم ومولد البرمجيات الخبيثة المتحولة" (Sewak et al. 2021)
يعرض المقال برنامج ADVERSARSARIALuscator، وهو برنامج AI يمكنه إعادة كتابة التعليمات البرمجية الخبيثة تلقائياً لإنشاء العديد من الإصدارات وتبدو مختلفة في كل مرة من أجل تجنب اكتشافها من قبل أنظمة الأمن. في الاختبارات، تمكن حوالي ثلث هذه المتغيرات من تجاوز أنظمة الأمان المتقدمة. -
البرمجيات الخبيثة AI التي تعتمد على "ترميز الاهتزازات" - "القراصنة يستخدمون AI لتحليل تقارير استخبارات التهديدات والبرمجيات الخبيثة "فيبي كود" (كيلي 2025)
في هذه المقالة الإخبارية، أفاد باحثون أمنيون أن القراصنة يستخدمون تقنية AI التوليدية لقراءة وتفسير تقارير استخبارات التهديدات، ثم إنتاج برمجيات خبيثة تعمل تلقائيًا. وتترجم هذه التقنية التي يُطلق عليها اسم "التشفير الذبذباتي"، هذه التقنية التي تترجم التحليلات التي يمكن للبشر قراءتها إلى شيفرة، مما يمكّن الخصوم من تحويل أبحاث الأمن السيبراني العامة إلى برمجيات خبيثة بسرعة.
التوصيل
يقوم المهاجم بشن الهجوم عن طريق نقل الحمولة الخبيثة إلى الهدف، وغالبًا ما يكون ذلك عبر رسائل البريد الإلكتروني التصيدية أو مواقع الويب المزيفة أو الشبكات غير الآمنة.
كيف يغيّر AI من طريقة توصيل AI
يقوم AI بتخصيص آليات التسليم وتوقيتها لتحقيق أقصى قدر من النجاح. فهو يقوم بأتمتة توليد محتوى تصيد احتيالي مقنع، وتزييف عميق في الوقت الحقيقي، وتفاعلات دردشة متكيفة وصفحات ويب احتيالية واقعية، ويستخدم بيانات الاستطلاع لاختيار اللحظة والقناة المثلى للتسليم. وهذا يقلل من الحاجة إلى المهارة البشرية في تنفيذ الحملات.
تسليط الضوء على القضية عملية احتيال الرئيس التنفيذي لشركة أروب
في عام 2024، قام الموظفون في شركة Arup الهندسية البريطانية تلقى ما بدا أنه مكالمة فيديو شرعية من الرئيس التنفيذي الإقليمي للشركة. طلب المدير التنفيذي بشكل عاجل تحويل الأموال فيما يتعلق بصفقة سرية. وقام الشخص الذي ظهر على الشاشة بتقليد مظهر الرئيس التنفيذي وصوته وتصرفاته بدقة ملحوظة.
في الواقع، لم يكن المتصل هو المدير التنفيذي، بل كان شخصًا مزيفًا تم إنشاؤه من خلال برنامج AI، صُمم لتقليده في الوقت الفعلي. واقتناعًا منهم بصحة التفاعل، أذن الموظفون بسلسلة من التحويلات بلغت قيمتها حوالي 25 مليون دولار أمريكي.
تُعد هذه الحادثة واحدة من أكبر حالات الهندسة الاجتماعية التي تم الإبلاغ عنها من خلال الهندسة الاجتماعية التي تعتمد على تقنية AI خلال مرحلة التسليم للهجوم الإلكتروني. وهي توضح أن التصيد الاحتيالي لم يعد بحاجة إلى الاعتماد على رسائل البريد الإلكتروني سيئة الصياغة أو الروابط المشبوهة. وبدلاً من ذلك، تتيح تقنية AI الآن نشر عمليات انتحال شخصية واقعية للغاية بالصوت والصورة لا تتحايل على الضوابط التقنية فحسب، بل على الحكم والثقة البشريين أيضاً.
-
رسائل LLMs للهندسة الاجتماعية والتصيد الاحتيالي على نطاق واسع - "استكشاف البرمجيات الخبيثة للكشف عن البرمجيات الخبيثة: المراجعة وتصميم الإطار ونهج التدابير المضادة" (الكركي وخان 2024)
تصف المقالة كيف يمكن استخدام برمجيات LLMs في أتمتة محتوى التصيّد الاحتيالي، وتوليد برمجيات خبيثة متعددة الأشكال، وصياغة مدخلات عدائية. -
AI- الهندسة الاجتماعية التي تعمل بالطاقة AI - "ظل الاحتيال: الخطر الناشئ للهندسة الاجتماعية التي تعمل بتقنية AI وعلاجها المحتمل" (يو وآخرون. 2024)
تُظهر الدراسة الاستقصائية كيف تجعل نماذج الانتشار ونماذج LLMs التصيد الاحتيالي وانتحال الشخصية أكثر تخصيصًا وإقناعًا. وتصنف الهندسة الاجتماعية الممكّنة بتقنية AI إلى "مراحل 3E" (التوسيع والإثراء والنشوء)، وتسلط الضوء على كيفية تمكن المهاجمين من توسيع نطاق الحملات وإدخال ناقلات جديدة واستغلال التهديدات الجديدة، مما يجعل إيصال الحمولات الخبيثة أكثر فعالية. -
AI - الاحتيال الصوتي/التصيد الاحتيالي الصوتي - "لقد خدعت البنك الذي أتعامل معه" (هوفر 2025)
تجربة صحفية تفضح صوت AI الذي تم إنشاؤه من خلال تجربة صحفية تكشف عن صوت مزيف عميق يُستخدم للاحتيال على الحسابات المصرفية.
الاستغلال
يقوم المهاجم بتشغيل الحمولة لاستغلال ثغرة أمنية والحصول على وصول غير مصرح به إلى النظام المستهدف. بعد التسلل إلى المؤسسة، يستخدم المهاجم هذا الوصول للتنقل أفقياً بين الأنظمة للعثور على المعلومات ذات الصلة (مثل البيانات الحساسة والثغرات الإضافية وخوادم البريد الإلكتروني وغيرها) وإلحاق الضرر بالمؤسسة.
كيف يغير AI الاستغلال:
يساعد AI المهاجمين في تحديد وفهم واستغلال نقاط ضعف النظام من خلال أتمتة اكتشاف الثغرات الأمنية (على سبيل المثال، الفحص الذكي والمسح الموجه)، وبناء أشجار الهجوم واقتراح مسارات الاستغلال. ويمكنه أيضاً توليد مدخلات عدائية تتجاوز أدوات الأمان أو تستغل الدفاعات.
تم تسليط الضوء على الحالة: دودة موريس II AI موريس II AI
في عام 2024, الباحثون أظهر شكلاً جديداً من الدودة ذاتية الانتشار لم يعتمد على استغلال الثغرات البرمجية التقليدية. بل استهدفت بدلاً من ذلك أنظمة AI التوليدية نفسها.
الاسم موريس الثاني في إشارة إلى دودة موريس سيئة السمعة التي ظهرت عام 1988، استخدم هذا الهجوم لإثبات صحة المفهوم مطالبات عدائية للتلاعب بنماذج AI لتكرار وتوزيع تعليمات خبيثة. وبمجرد "إصابة النظام"، يمكن للدودة توليد المزيد من التعليمات بشكل مستقل، والتي تحث AI على تكرار الهجوم ونقله إلى نماذج أخرى.
على عكس الديدان التقليدية، التي عادةً ما تستغل التعليمات البرمجية غير المصححة, موريس الثاني الانتشار من خلال استغلال الانفتاح وعدم القدرة على التنبؤ بسلوك AI التوليدي. أكد العرض التوضيحي على أنه مع قيام المؤسسات بتضمين AI التوليدية بشكل متزايد في سير العمل التشغيلي، فقد تكشف عن أسطح هجوم جديدة حيث لا تكمن الثغرة في التعليمات البرمجية المصدرية بل في بيانات التدريب واستجابات النموذج.
-
العدائية والهجومية AI - "استغلال AI للهجمات: حول التفاعل بين AI العدائي وAI الهجومي" (شرور وباجولا 2025)
وتوضح الدراسة كيف يمكن للمهاجمين استغلال نقاط الضعف في أنظمة AI من خلال مدخلات عدائية، أو تسليح AI نفسها لإطلاق عمليات استغلال أكثر فعالية ضد أهداف تقليدية، مما يسلط الضوء على الدور المزدوج لـ AI كأداة وهدف في الهجمات الإلكترونية. -
ثنائيات البرمجيات الخبيثة المعادية - "ثنائيات البرمجيات الخبيثة العدائية: التهرب من التعلم العميق لاكتشاف البرمجيات الخبيثة في الملفات التنفيذية" (Kolosnjarski وآخرون 2018)
تعرض الدراسة الهجمات القائمة على التدرج التي تعدل أقل من 1% من البايتات في الملفات التنفيذية مع الحفاظ على الوظائف، مما يجعلها تتفادى بنجاح أجهزة كشف البرمجيات الخبيثة القائمة على التعلم العميق والمدربة على البايتات الخام.
التركيب
يقوم المهاجم بتثبيت البرمجيات الخبيثة أو الأبواب الخلفية للحفاظ على الوصول والتحكم المستمر (الخفي) داخل النظام المستهدف.
كيف يغير AI التثبيت AI
يمكن لتقنية AI إنتاج تقنيات ثبات تكيفية واقتراح أكثر نواقل التثبيت فعالية من خلال تحليل بيانات المراحل السابقة، لكن الأتمتة الكاملة لمرحلة التثبيت الدقيقة التي تتطلب اتخاذ قرارات دقيقة لا تزال محدودة. عند تطبيقها، تُمكّن AI البرمجيات الخبيثة من تعديل السلوك لتجنب الاكتشاف واختيار التوقيت الأمثل ونقاط الدخول.
تم تسليط الضوء على الحالة: برمجيات الفدية الخبيثة التي تتعلم الاختباء
في عام 2024, الباحثون نظامًا يُعرف باسم EGAN، وهو نموذج AI تم تطويره لاستكشاف كيف يمكن لبرمجيات الفدية الخبيثة أن تستخدم استراتيجيات التعلم للتهرب من الاكتشاف. على عكس البرمجيات الخبيثة الثابتة التقليدية، والتي إما أن يتم اكتشافها أو التغاضي عنها, EGAN تعمل من خلال التجريب التكراري.
قام النظام بتعديل شيفرة برمجية الفدية بشكل متكرر، واختبار المتغيرات المتتالية حتى أنتج نظامًا يمكنه تجاوز دفاعات مكافحة الفيروسات مع الاحتفاظ بالوظائف الكاملة. في الواقع، "تعلمت" البرمجية الخبيثة كيفية التحايل على آليات الكشف القائمة على الشذوذ والتي عادةً ما تكون فعالة في تحديد السلوك المشبوه.
على الرغم من إنشائها في بيئة بحثية, EGAN أظهرت كيف يمكن لآليات الثبات التي تعتمد على تقنية AI أن تجعل من الصعب اكتشاف برمجيات الفدية الخبيثة والقضاء عليها بمجرد نشرها. فبدلاً من الاعتماد على تقنيات التهرب المحددة مسبقاً، تتكيف البرمجيات الخبيثة بشكل ديناميكي، مما يزيد من احتمالية وجود برمجيات خبيثة "غير قابلة للقتل".
-
التهرب من البرمجيات الخبيثة القائمة على RL - "تعلّم التهرب من نماذج البرمجيات الخبيثة الثابتة للتعلم الآلي عبر التعلم المعزز" (أندرسون وآخرون 2018)
تُظهر الدراسة كيف يمكن لعوامل التعلّم المعزز تعديل البرمجيات الخبيثة لنظام التشغيل Windows PE بشكل متكرر مع الحفاظ على الوظائف من أجل التهرب من أجهزة الكشف عن البرمجيات الخبيثة الثابتة القائمة على التعلم الآلي، مما يتيح تثبيت البرمجيات الخبيثة الثابتة بشكل كامل في الصندوق الأسود والتكيف مع البرمجيات الخبيثة المستمرة.
القيادة والتحكم
بعد السيطرة على أنظمة متعددة، يقوم المهاجم بإنشاء مركز تحكم لاستغلالها عن بعد. يقوم المهاجم بإنشاء اتصال عن بُعد مع النظام المخترق، عبر قنوات مختلفة (مثل الويب أو نظام أسماء النطاقات أو البريد الإلكتروني) للتحكم في العمليات وتجنب الكشف. يستخدم المهاجم تقنيات مختلفة مثل التعتيم لتغطية مساراته وتجنب الكشف، أو هجمات الحرمان من الخدمة (DoS) لتشتيت انتباه المتخصصين في مجال الأمن عن أهدافهم الحقيقية.
كيف يغير AI القيادة والتحكم (C2):
يتيح AI المزيد من اتصالات C2 السرية من خلال توليد حركة مرور تحاكي النشاط الشرعي، وتصميم خوارزميات توليد المجال المراوغ، وتنظيم شبكات روبوتات لا مركزية وقابلة للتكيف. ويمكنها أيضاً ضبط سلوك C2 للتهرب من أجهزة الكشف عن الحالات الشاذة.
تم تسليط الضوء على الحالة: AI-شبكات الروبوتات المنسقة AI، أسراب لها عقلها الخاص
في عام 2023, الباحثون شكلًا جديدًا من أشكال شبكات الروبوتات التي تعمل بواسطة AI. تعتمد شبكات الروبوتات التقليدية عادةً على خادم مركزي للقيادة والتحكم (C2) يقوم من خلاله محور واحد بإصدار التعليمات التي تقوم الأجهزة المخترقة أو "الروبوتات" بتنفيذها. ومع ذلك، يمكن تعطيل هذه البنية في كثير من الأحيان بمجرد أن يتعرف المدافعون على الخادم المركزي ويعطلونه.
اعتمدت شبكة الروبوتات التي تعمل بتقنية AI نموذجًا مختلفًا. حيث استخدمت كل عقدة في الشبكة التعلم المعزز لتحدد بشكل مستقل متى تبدأ الهجمات، والأهداف التي يجب متابعتها، وكيفية تكييف التكتيكات استجابةً للتدابير الدفاعية. وبدلاً من انتظار التعليمات المركزية، تعاونت الروبوتات بطريقة لا مركزية، وعملت كشكل من أشكال خلايا النحل ذاتية التنظيم.
هذا التصميم جعل شبكة الروبوتات أكثر مرونة وأصعب في اكتشافها. حتى لو تم تحييد بعض العقد، يمكن أن تتكيف البقية وتستمر في العمل. بالنسبة للمدافعين، لم تعد المهمة تقتصر على تعطيل خادم واحد، بل تطلبت بدلاً من ذلك مواجهة سرب موزع ومتكيف من الأجهزة المخترقة.
-
AI القائم على التلاعب في السجل وإخفاء الأثر - "5 تقنيات لمكافحة التحريات الجنائية لخداع المحققين (+ أمثلة ونصائح للكشف)" (CyberJunkie 2023)
وصفت التقارير في عامي 2024-2025 كيف يمكن استخدام AI لمحو أو تغيير السجلات الرقمية لإخفاء الهجمات عن المحققين، على الرغم من أن الأمثلة الواقعية الكاملة لا تزال نادرة. -
تجاوز أنظمة كشف التطفل على الشبكة القائمة على شبكة GAN - "NAttack! Attacks Adversarial Attacks لتجاوز مصنف قائم على شبكة GAN مدرّب على اكتشاف التطفل على الشبكة" (Piplai et al. 2020)
تُظهر الدراسة كيف يمكن للهجمات المعادية أن تتهرب بنجاح من أنظمة كشف التسلل المدربة على شبكة GAN، مما يسمح للمهاجمين بإخفاء حركة مرور C2 على أنها نشاط عادي للشبكة.
العمل على الأهداف
يقوم المهاجم بتنفيذ هدفه النهائي، مثل استخراج البيانات أو تشفير البيانات أو تدمير البيانات.
كيف يغير AI العمل على الأهداف:
تعمل تقنية AI على تسريع وتنقيح المهام النهائية للهجوم: الاستخراج الآلي للبيانات، وتحديد أولويات الأصول عالية القيمة، ورسائل الابتزاز المصممة خصيصًا وتوليد محتوى واسع النطاق للتضليل أو التعطيل. لا تزال القرارات الاستراتيجية النهائية تتطلب في كثير من الأحيان حكمًا بشريًا، ولكن تقنية AI تختصر الطريق إلى تلك القرارات.
تم تسليط الضوء على الحالة: PromptLocker، برمجيات الفدية الخبيثة التي تعتمد على برمجيات AI
في عام 2024, قدم باحثون في جامعة نيويورك برومبت لوكر (PromptLocker)وهو نظام فدية برمجيات الفدية الخبيثة الذي يتحكم فيه نموذج لغوي كبير. على عكس برمجيات الفدية التقليدية، التي تتبع سلوكيات محددة مسبقًا, برومبت لوكر (PromptLocker) اتخاذ القرارات في الوقت الفعلي وأتمتة مراحل متعددة من دورة حياة الهجوم. في العرض التوضيحي للنموذج بشكل مستقل:
- اختيار الأهداف الأكثر قيمة داخل النظام المخترق,
- البيانات الحساسة المُستخرجة قبل التشفير، مما يزيد من النفوذ على الضحايا,
- وحدات التخزين والملفات المشفرة لمنع الوصول إليها
- إنشاء مذكرات فدية مصممة خصيصًا، وتعديل لهجتها ومطالبها وفقًا لملف الضحية (على سبيل المثال، القدرة المالية والقطاع).
على الرغم من أن العمل تم إجراؤه في بيئة بحثية خاضعة للرقابة, برومبت لوكر (PromptLocker) توضيح كيف يمكن لتقنية AI التوليدية أتمتة وتوسيع نطاق المهام التي كانت تتطلب تخطيطًا بشريًا في السابق، وبالتالي تسريع قدرة المهاجمين على تحقيق أهدافهم والتكيف مع الظروف المتغيرة.
-
AI المعلومات المضللة التي تم إنشاؤها على نطاق واسع - "حملة تضليل موالية لروسيا تستخدم أدوات AI المجانية لتغذية "انفجار المحتوى" (جيلبرت 2025)
يشرح المقال كيف تستخدم حملة "عملية التحميل الزائد" المرتبطة بروسيا (2023-2025) أدوات AI لإنتاج صور ومقاطع فيديو ومقاطع فيديو ومقاطع فيديو مزيفة مستنسخة صوتياً لشخصيات عامة. وتنتشر هذه المواد على نطاق واسع عبر شبكات الروبوتات على وسائل التواصل الاجتماعي لدفع الروايات المثيرة للانقسام. -
AI صياغة ملفات تعريف اجتماعية وهمية للتضخيم - "خصائص وانتشار الملفات الشخصية المزيفة على وسائل التواصل الاجتماعي ذات الوجوه التي تم إنشاؤها باستخدام AI" (يانغ وآخرون 2024)
وقد وجد التحقيق أكثر من 1400 حساب على تويتر يستخدمون صورًا للملفات الشخصية من إنشاء AI، منظمة في شبكات لتعزيز عمليات الاحتيال والرسائل المشحونة سياسيًا، مع وجود الآلاف من هذه الحسابات النشطة يوميًا. -
AI التي تم إنشاؤها من خلال وثائق وأخبار مزيفة (عمليات نفسية) - "الأكاذيب التي ترويها روسيا لنفسها مروجو الدعاية في البلاد يستهدفون الغرب - لكنهم يضللون الكرملين أيضًا" (Rid 2024)
يشرح المقال كيف تقوم حملة Doppelgänger المستمرة بإنشاء نسخ مزيفة مقنعة لمواقع إخبارية شرعية ونشر مقالات من إنتاج AI للترويج للروايات المؤيدة لروسيا في جميع أنحاء الغرب.
أسئلة للمناقشة
- أي خطوة من سلسلة القتل السيبراني من المرجح أن تتحول أكثر من غيرها بواسطة AI في المستقبل، ولماذا؟ وفي الوقت الحاضر، في أي مرحلة من مراحل AI تحقق AI أكثر النتائج الواعدة للمهاجمين؟ وفي أي مرحلة يبدو تطبيق AI أقل فعالية وواعداً؟
- هل تميل كفة AI في الفضاء الإلكتروني أكثر نحو المهاجمين أم المدافعين؟
- هل سيؤدي الوصول الواسع النطاق إلى تقنية AI إلى تكافؤ الفرص للهواة، أم سيؤدي في الغالب إلى تمكين الخصوم الذين يتمتعون بموارد جيدة؟
- كيف يمكن لقدرة AI على أتمتة وتسريع سلسلة القتل السيبراني أن تغير طبيعة الهجمات السيبرانية؟
- هل يمكن أن تجعل AI الهجمات سريعة جداً وقابلة للتكيف بحيث تصبح أطر الدفاع التقليدية بالية؟
- من يتحمل المسؤولية عند إساءة استخدام نماذج AI في الهجمات الإلكترونية: المطورون أم الناشرون أم المهاجمون؟
- كيف يمكن لصانعي السياسات تنظيم تكنولوجيا AI الهجومية دون خنق الابتكار في التطبيقات الدفاعية أو المدنية؟
- هل ستدفع AI الصراع السيبراني نحو حرب أكثر استقلالية و"آلة على آلة"؟
- هل يمكن لـ AI أن يغير نموذج سلسلة القتل السيبراني بشكل أساسي إلى شيء غير خطي ومتكيف باستمرار؟