AI في الجرائم الإلكترونية

كيف يغير AI سلسلة القتل السيبراني

العمليات السيبرانية الهجومية هي إجراءات متعمدة تُنفذ في الفضاء السيبراني لاختراق أنظمة الخصم أو تعطيلها أو تدميرها سعياً لتحقيق أهداف استراتيجية. وعادة ما يتم تأطيرها من خلال سلسلة القتل السيبرانيوهو إطار عمل طورته في الأصل شركة لوكهيد مارتن. يقسم إطار العمل الهجوم إلى تسلسل منظم من المراحل، حيث يتتبع تقدم الخصم من الاستطلاع الأولي إلى الإجراءات النهائية المتخذة للوصول إلى الأهداف (على سبيل المثال، تسريب البيانات أو تدمير البيانات).

2

2

التسليح

اقتران الثغرة مع الباب الخلفي في حمولة قابلة للتسليم

التوصيل

تسليم الحزمة المسلحة إلى الضحية عبر البريد الإلكتروني، أو الويب، أو USB، إلخ.

3

3

4

4

الاستغلال

استغلال ثغرة أمنية لتنفيذ تعليمات برمجية على نظام الضحية

التركيب

تثبيت البرامج الضارة على الأصل

5

5

6

6

القيادة والتحكم (C2)

قناة أمر للتلاعب عن بُعد بالضحية

الإجراءات المتخذة بشأن الأهداف

مع وصول "اليدين على لوحة المفاتيح"، يحقق المتسللون أهدافهم الأصلية

7

7

في السنوات الأخيرة، تكثفت العمليات السيبرانية الهجومية في السنوات الأخيرة من حيث الحجم والتعقيد. لا تتزايد الهجمات السيبرانية العالمية بشكل حاد فحسب، بل تتنوع أنواعها أيضًا:: في عام 2022, كانت 27% من الهجمات السيبرانية العالمية قائمة على الابتزاز، و21% من الهجمات السيبرانية العالمية تضمنت أبوابًا خلفية و17% من هجمات الفدية. ويلعب الذكاء الاصطناعي (AI) دورًا رئيسيًا في هذا التصعيد والتنويع، مما يتيح أشكالًا جديدة من الهجمات مثل التزييف العميق أو البرمجيات الخبيثة السربية، مع تعزيز النواقل التقليدية مثل التصيد الاحتيالي أو استغلال الثغرات الأمنية. وفقًا لـ استبيان المدير المالي العالمي، فإن 85% من المتخصصين في الأمن السيبراني يعزو ارتفاع الهجمات إلى تسليح AI التوليدية. في بنغالورو، الهند، أ تقرير الولاية أكد هذا الاتجاه: بحلول أوائل عام 2025، كان 80% من رسائل التصيد الاحتيالي من رسائل البريد الإلكتروني التي تم إنشاؤها AI.

تعمل AI على تحويل سلسلة القتل السيبراني نفسها، ولديها القدرة على تعزيز كل مرحلة من مراحل الحملات السيبرانية الهجومية. وقد أصبحت السرعة والحجم اللذان تعيد بهما AI تشكيل هذه السلسلة مصدر قلق أمني وطني ملح.

تركز مجموعة الأدوات هذه بشكل خاص على AI كعامل تمكين للهجوم، وتستكشف كيف تحوّل المراحل المختلفة لسلسلة القتل السيبراني.

الاستطلاع

يقوم المهاجم بجمع معلومات عن الهدف، مثل تفاصيل الموظفين أو رسائل البريد الإلكتروني أو بيانات النظام للتخطيط لهجومه.

كيف يغير AI الاستطلاع:

يعمل برنامج AI على أتمتة وتسريع عملية جمع المعلومات الاستخبارية مفتوحة المصدر من خلال معالجة كميات كبيرة من البيانات العامة (وسائل التواصل الاجتماعي ومواقع الشركات والسجلات المسربة) واستخراج المواد المنظمة مثل النطاقات الفرعية ونطاقات بروتوكول الإنترنت المحتملة وملفات تعريف الموظفين. كما أنه يقلل من حاجز المهارة للهندسة الاجتماعية المستهدفة من خلال إنتاج ملفات تعريف موجزة للضحايا مناسبة للتصيد الاحتيالي.
مدى التأثير: مرتفع. يقلل من الوقت والخبرة المطلوبة بشكل كبير.

تم تسليط الضوء على الحالة: ChatGPT كمساعد استطلاع ChatGPT

في عام 2024, الباحثة في مجال الأمن السيبراني شيتال تمارا نشرت ورقة بحثية توضح كيف يمكن للنماذج اللغوية الكبيرة مثل ChatGPT تسريع مرحلة الاستطلاع للهجوم بشكل كبير. فبدلاً من قضاء ساعات في كتابة البرامج النصية وجمع المعلومات الاستخبارية مفتوحة المصدر يدويًا، استخدم الباحث سلسلة قصيرة من المطالبات التخاطبية، على سبيل المثال "اذكر جميع النطاقات الفرعية التي يمكنك العثور عليها لموقع examplecompany.com"، "لخص طوبولوجيا شبكة الشركة بناءً على المعلومات المتاحة للجمهور"، و"حدد أنظمة التشغيل والخدمات التي تعمل على الأرجح على هذه الخوادم".

في غضون دقائق، أنتج النموذج مواد استطلاعية مفيدة، بما في ذلك:

  • قائمة بالنطاقات والنطاقات الفرعية المرتبطة بالشركة المستهدفة
  • نطاقات عناوين IP المحتملة
  • ملاحظات حول تكوينات SSL/TLS والمنافذ المفتوحة المحتملة والخدمات المشتركة
  • معلومات الموظفين العامة (من LinkedIn والبيانات الصحفية) التي يمكن استخدامها في التصيد الاحتيالي.

وفي حين يتطلب جمع المعلومات الاستطلاعية في العادة ساعات أو أياماً من العمل اليدوي، اختزلت التجربة المهمة إلى سير عمل تخاطبي يتطلب خبرة فنية أقل بكثير. وبالتالي، تؤكد الدراسة كيف يمكن للنماذج التوليدية أن تقلل من عوائق الاستطلاع الآلي، مع ما يترتب على ذلك من آثار واضحة على الممارسة الدفاعية ونمذجة التهديدات.

قراءات أخرى

التسليح

يستخدم المهاجم المعلومات التي تم الكشف عنها أثناء الاستطلاع لبناء أو تخصيص حمولة خبيثة (مثل البرمجيات الخبيثة أو الثغرات) واستغلال نقاط ضعف الهدف.

كيف يغيّر AI التسليح:

تعمل AI على تبسيط عملية إنشاء وضبط الحمولات الخبيثة من خلال إنشاء أو تعديل التعليمات البرمجية واختبار المتغيرات مقابل نماذج الكشف. يمكن أن يؤدي ذلك إلى إنتاج حمولات خبيثة أكثر سرية وتكيّفاً واستهدافاً، بما في ذلك المتغيرات متعددة الأشكال التي تغير مظهرها مع كل عملية تنفيذ. يمكن استخدام الاختبار العدائي لتحسين الحمولات قبل نشرها.

مدى التأثير: مرتفع. تعمل الأتمتة على تسريع وتوسيع نطاق تطوير الحمولة.

تم تسليط الضوء على الحالة: قطّارة البرمجيات الخبيثة AI التي تم إنشاؤها في البرية

في عام 2024, محللو الأمن السيبراني حملة تصيّد احتيالي بدت روتينية في البداية: سلسلة من رسائل البريد الإلكتروني التي توزع حمولة برمجيات خبيثة تقليدية. ومع ذلك، كشف الفحص الدقيق للقطّارة (أي البرنامج الصغير المسؤول عن تثبيت وتفعيل البرمجية الخبيثة الأساسية) عن ميزة غير عادية.

تشير بنية وتركيب القطارة إلى أنه قد تم إنشاؤها بواسطة نموذج لغوي كبير بدلاً من تأليف مبرمج بشري. على الرغم من أنه كان يعمل كغلاف بسيط، إلا أن القطّارة التي أنتجتها AI كانت مصقولة وفعّالة في آنٍ واحد، مما يدل على قدرتها على التهرب من طرق الكشف التقليدية. ونجحت في تجاوز التواقيع الأساسية لمكافحة الفيروسات وأوصلت البرمجية الخبيثة على النحو المنشود.

كانت هذه النتيجة جديرة بالملاحظة باعتبارها واحدة من أولى الحالات المؤكدة التي تم فيها نشر شيفرة خبيثة من إنتاج شركة AI في البرية. وعلى الرغم من أن البرمجية الخبيثة الأساسية لم تكن جديدة، إلا أن الاستعانة بمصادر خارجية لجزء من عملية التسليح إلى شركة AI كان تطوراً هاماً. فقد أظهر كيف يمكن للمهاجمين توسيع نطاق العمليات، وتقليل تكاليف التطوير، والتكيف بسرعة أكبر، مع تعقيد جهود الكشف والاستجابة في الوقت نفسه.

قراءات أخرى

التوصيل

يقوم المهاجم بشن الهجوم عن طريق نقل الحمولة الخبيثة إلى الهدف، وغالبًا ما يكون ذلك عبر رسائل البريد الإلكتروني التصيدية أو مواقع الويب المزيفة أو الشبكات غير الآمنة.

كيف يغيّر AI من طريقة توصيل AI

يقوم AI بتخصيص آليات التسليم وتوقيتها لتحقيق أقصى قدر من النجاح. فهو يقوم بأتمتة توليد محتوى تصيد احتيالي مقنع، وتزييف عميق في الوقت الحقيقي، وتفاعلات دردشة متكيفة وصفحات ويب احتيالية واقعية، ويستخدم بيانات الاستطلاع لاختيار اللحظة والقناة المثلى للتسليم. وهذا يقلل من الحاجة إلى المهارة البشرية في تنفيذ الحملات.

مدى التأثير: مرتفع. AI يزيد بشكل ملحوظ من الإقناع والأتمتة في التسليم.

تسليط الضوء على القضية عملية احتيال الرئيس التنفيذي لشركة أروب

في عام 2024، قام الموظفون في شركة Arup الهندسية البريطانية تلقى ما بدا أنه مكالمة فيديو شرعية من الرئيس التنفيذي الإقليمي للشركة. طلب المدير التنفيذي بشكل عاجل تحويل الأموال فيما يتعلق بصفقة سرية. وقام الشخص الذي ظهر على الشاشة بتقليد مظهر الرئيس التنفيذي وصوته وتصرفاته بدقة ملحوظة.

في الواقع، لم يكن المتصل هو المدير التنفيذي، بل كان شخصًا مزيفًا تم إنشاؤه من خلال برنامج AI، صُمم لتقليده في الوقت الفعلي. واقتناعًا منهم بصحة التفاعل، أذن الموظفون بسلسلة من التحويلات بلغت قيمتها حوالي 25 مليون دولار أمريكي.

تُعد هذه الحادثة واحدة من أكبر حالات الهندسة الاجتماعية التي تم الإبلاغ عنها من خلال الهندسة الاجتماعية التي تعتمد على تقنية AI خلال مرحلة التسليم للهجوم الإلكتروني. وهي توضح أن التصيد الاحتيالي لم يعد بحاجة إلى الاعتماد على رسائل البريد الإلكتروني سيئة الصياغة أو الروابط المشبوهة. وبدلاً من ذلك، تتيح تقنية AI الآن نشر عمليات انتحال شخصية واقعية للغاية بالصوت والصورة لا تتحايل على الضوابط التقنية فحسب، بل على الحكم والثقة البشريين أيضاً.

قراءات أخرى

الاستغلال

يقوم المهاجم بتشغيل الحمولة لاستغلال ثغرة أمنية والحصول على وصول غير مصرح به إلى النظام المستهدف. بعد التسلل إلى المؤسسة، يستخدم المهاجم هذا الوصول للتنقل أفقياً بين الأنظمة للعثور على المعلومات ذات الصلة (مثل البيانات الحساسة والثغرات الإضافية وخوادم البريد الإلكتروني وغيرها) وإلحاق الضرر بالمؤسسة.

كيف يغير AI الاستغلال:

يساعد AI المهاجمين في تحديد وفهم واستغلال نقاط ضعف النظام من خلال أتمتة اكتشاف الثغرات الأمنية (على سبيل المثال، الفحص الذكي والمسح الموجه)، وبناء أشجار الهجوم واقتراح مسارات الاستغلال. ويمكنه أيضاً توليد مدخلات عدائية تتجاوز أدوات الأمان أو تستغل الدفاعات.

مدى التأثير: متوسط. AI يحسن سرعة وفعالية الاكتشاف، خاصة ضد الأنظمة المعقدة.

تم تسليط الضوء على الحالة: دودة موريس II AI موريس II AI

في عام 2024, الباحثون أظهر شكلاً جديداً من الدودة ذاتية الانتشار لم يعتمد على استغلال الثغرات البرمجية التقليدية. بل استهدفت بدلاً من ذلك أنظمة AI التوليدية نفسها.

الاسم موريس الثاني في إشارة إلى دودة موريس سيئة السمعة التي ظهرت عام 1988، استخدم هذا الهجوم لإثبات صحة المفهوم مطالبات عدائية للتلاعب بنماذج AI لتكرار وتوزيع تعليمات خبيثة. وبمجرد "إصابة النظام"، يمكن للدودة توليد المزيد من التعليمات بشكل مستقل، والتي تحث AI على تكرار الهجوم ونقله إلى نماذج أخرى.

على عكس الديدان التقليدية، التي عادةً ما تستغل التعليمات البرمجية غير المصححة, موريس الثاني الانتشار من خلال استغلال الانفتاح وعدم القدرة على التنبؤ بسلوك AI التوليدي. أكد العرض التوضيحي على أنه مع قيام المؤسسات بتضمين AI التوليدية بشكل متزايد في سير العمل التشغيلي، فقد تكشف عن أسطح هجوم جديدة حيث لا تكمن الثغرة في التعليمات البرمجية المصدرية بل في بيانات التدريب واستجابات النموذج.

قراءات أخرى

التركيب

يقوم المهاجم بتثبيت البرمجيات الخبيثة أو الأبواب الخلفية للحفاظ على الوصول والتحكم المستمر (الخفي) داخل النظام المستهدف.

كيف يغير AI التثبيت AI

يمكن لتقنية AI إنتاج تقنيات ثبات تكيفية واقتراح أكثر نواقل التثبيت فعالية من خلال تحليل بيانات المراحل السابقة، لكن الأتمتة الكاملة لمرحلة التثبيت الدقيقة التي تتطلب اتخاذ قرارات دقيقة لا تزال محدودة. عند تطبيقها، تُمكّن AI البرمجيات الخبيثة من تعديل السلوك لتجنب الاكتشاف واختيار التوقيت الأمثل ونقاط الدخول.

مدى التأثير: متوسط. AI يحسن الثبات والتخفي، لكن الأتمتة الكاملة تظل محدودة لأن التثبيت يتطلب قرارات سياقية.

تم تسليط الضوء على الحالة: برمجيات الفدية الخبيثة التي تتعلم الاختباء

في عام 2024, الباحثون نظامًا يُعرف باسم EGAN، وهو نموذج AI تم تطويره لاستكشاف كيف يمكن لبرمجيات الفدية الخبيثة أن تستخدم استراتيجيات التعلم للتهرب من الاكتشاف. على عكس البرمجيات الخبيثة الثابتة التقليدية، والتي إما أن يتم اكتشافها أو التغاضي عنها, EGAN تعمل من خلال التجريب التكراري.

قام النظام بتعديل شيفرة برمجية الفدية بشكل متكرر، واختبار المتغيرات المتتالية حتى أنتج نظامًا يمكنه تجاوز دفاعات مكافحة الفيروسات مع الاحتفاظ بالوظائف الكاملة. في الواقع، "تعلمت" البرمجية الخبيثة كيفية التحايل على آليات الكشف القائمة على الشذوذ والتي عادةً ما تكون فعالة في تحديد السلوك المشبوه.

على الرغم من إنشائها في بيئة بحثية, EGAN أظهرت كيف يمكن لآليات الثبات التي تعتمد على تقنية AI أن تجعل من الصعب اكتشاف برمجيات الفدية الخبيثة والقضاء عليها بمجرد نشرها. فبدلاً من الاعتماد على تقنيات التهرب المحددة مسبقاً، تتكيف البرمجيات الخبيثة بشكل ديناميكي، مما يزيد من احتمالية وجود برمجيات خبيثة "غير قابلة للقتل".

قراءات أخرى

القيادة والتحكم

بعد السيطرة على أنظمة متعددة، يقوم المهاجم بإنشاء مركز تحكم لاستغلالها عن بعد. يقوم المهاجم بإنشاء اتصال عن بُعد مع النظام المخترق، عبر قنوات مختلفة (مثل الويب أو نظام أسماء النطاقات أو البريد الإلكتروني) للتحكم في العمليات وتجنب الكشف. يستخدم المهاجم تقنيات مختلفة مثل التعتيم لتغطية مساراته وتجنب الكشف، أو هجمات الحرمان من الخدمة (DoS) لتشتيت انتباه المتخصصين في مجال الأمن عن أهدافهم الحقيقية.

كيف يغير AI القيادة والتحكم (C2):

يتيح AI المزيد من اتصالات C2 السرية من خلال توليد حركة مرور تحاكي النشاط الشرعي، وتصميم خوارزميات توليد المجال المراوغ، وتنظيم شبكات روبوتات لا مركزية وقابلة للتكيف. ويمكنها أيضاً ضبط سلوك C2 للتهرب من أجهزة الكشف عن الحالات الشاذة.

مدى التأثير: متوسط. AI يزيد من تطور ومرونة C2، ولكن القيود التشغيلية تحد من الاعتماد الواسع النطاق.

تم تسليط الضوء على الحالة: AI-شبكات الروبوتات المنسقة AI، أسراب لها عقلها الخاص

في عام 2023, الباحثون شكلًا جديدًا من أشكال شبكات الروبوتات التي تعمل بواسطة AI. تعتمد شبكات الروبوتات التقليدية عادةً على خادم مركزي للقيادة والتحكم (C2) يقوم من خلاله محور واحد بإصدار التعليمات التي تقوم الأجهزة المخترقة أو "الروبوتات" بتنفيذها. ومع ذلك، يمكن تعطيل هذه البنية في كثير من الأحيان بمجرد أن يتعرف المدافعون على الخادم المركزي ويعطلونه.

اعتمدت شبكة الروبوتات التي تعمل بتقنية AI نموذجًا مختلفًا. حيث استخدمت كل عقدة في الشبكة التعلم المعزز لتحدد بشكل مستقل متى تبدأ الهجمات، والأهداف التي يجب متابعتها، وكيفية تكييف التكتيكات استجابةً للتدابير الدفاعية. وبدلاً من انتظار التعليمات المركزية، تعاونت الروبوتات بطريقة لا مركزية، وعملت كشكل من أشكال خلايا النحل ذاتية التنظيم.

هذا التصميم جعل شبكة الروبوتات أكثر مرونة وأصعب في اكتشافها. حتى لو تم تحييد بعض العقد، يمكن أن تتكيف البقية وتستمر في العمل. بالنسبة للمدافعين، لم تعد المهمة تقتصر على تعطيل خادم واحد، بل تطلبت بدلاً من ذلك مواجهة سرب موزع ومتكيف من الأجهزة المخترقة.

قراءات أخرى

العمل على الأهداف

يقوم المهاجم بتنفيذ هدفه النهائي، مثل استخراج البيانات أو تشفير البيانات أو تدمير البيانات.

كيف يغير AI العمل على الأهداف:

تعمل تقنية AI على تسريع وتنقيح المهام النهائية للهجوم: الاستخراج الآلي للبيانات، وتحديد أولويات الأصول عالية القيمة، ورسائل الابتزاز المصممة خصيصًا وتوليد محتوى واسع النطاق للتضليل أو التعطيل. لا تزال القرارات الاستراتيجية النهائية تتطلب في كثير من الأحيان حكمًا بشريًا، ولكن تقنية AI تختصر الطريق إلى تلك القرارات.

مدى التأثير: متوسط. AI يسرع النشاط الموجه نحو الهدف ويوسع نطاقه ولكنه لا يحل بالكامل محل القصد البشري.

تم تسليط الضوء على الحالة: PromptLocker، برمجيات الفدية الخبيثة التي تعتمد على برمجيات AI

في عام 2024, قدم باحثون في جامعة نيويورك برومبت لوكر (PromptLocker)وهو نظام فدية برمجيات الفدية الخبيثة الذي يتحكم فيه نموذج لغوي كبير. على عكس برمجيات الفدية التقليدية، التي تتبع سلوكيات محددة مسبقًا, برومبت لوكر (PromptLocker) اتخاذ القرارات في الوقت الفعلي وأتمتة مراحل متعددة من دورة حياة الهجوم. في العرض التوضيحي للنموذج بشكل مستقل:

  • اختيار الأهداف الأكثر قيمة داخل النظام المخترق,
  • البيانات الحساسة المُستخرجة قبل التشفير، مما يزيد من النفوذ على الضحايا,
  • وحدات التخزين والملفات المشفرة لمنع الوصول إليها
  • إنشاء مذكرات فدية مصممة خصيصًا، وتعديل لهجتها ومطالبها وفقًا لملف الضحية (على سبيل المثال، القدرة المالية والقطاع).

على الرغم من أن العمل تم إجراؤه في بيئة بحثية خاضعة للرقابة, برومبت لوكر (PromptLocker) توضيح كيف يمكن لتقنية AI التوليدية أتمتة وتوسيع نطاق المهام التي كانت تتطلب تخطيطًا بشريًا في السابق، وبالتالي تسريع قدرة المهاجمين على تحقيق أهدافهم والتكيف مع الظروف المتغيرة.

قراءات أخرى

أسئلة للمناقشة

الببليوغرافيا

"حملة تضليل مؤيدة لروسيا تستخدم أدوات AI المجانية لتغذية "انفجار المحتوى" | WIRED". تم الوصول إليه في 19 سبتمبر 2025. https://www.wired.com/story/pro-russia-disinformation-campaign-free-ai-tools/. 

"AI-Powered PromptLocker Ransomware المدعوم من PromptLocker هو مجرد مشروع بحثي لجامعة نيويورك - عملت الشفرة كبرمجية فدية نموذجية، حيث اختارت أهدافًا واستخرجت بيانات مختارة وشفرت وحدات تخزين |أجهزة توم". تم الوصول إليه في 19 سبتمبر 2025. https://www.tomshardware.com/tech-industry/cyber-security/ai-powered-promptlocker-ransomware-is-just-an-nyu-research-project-the-code-worked-as-a-typical-ransomware-selecting-targets-exfiltrating-selected-data-and-encrypting-volumes. 

الكركي، وجمال، ومحمد الظفر خان، ومروان عمر. "استكشاف LLMs للكشف عن البرمجيات الخبيثة: مراجعة وتصميم إطار العمل ونهج التدابير المضادة'. arXiv:2409.07587. الإصدار 1. نسخة مسبقة، arXiv، 11 سبتمبر 2024. https://doi.org/10.48550/arXiv.2409.07587. 

Anderson, Hyrum S., Anant Kharkar, Bobby Filar, David Evans, and Phil Roth. "تعلم التهرب من نماذج البرمجيات الخبيثة الثابتة للتعلم الآلي عبر التعلم المعزز". arXiv:1801.08917. طباعة مسبقة، arXiv، 30 يناير 2018. https://doi.org/10.48550/arXiv.1801.08917. 

أنيس، وفاطمة، ومحمد حمودة. "تسليح AI في الهجمات السيبرانية دراسة مقارنة للأدوات التي تعمل بتقنية AI من أجل الأمن الهجومي". وقائع المؤتمر الدولي الثامن لشبكات المستقبل والأنظمة الموزعة، ACM، 11 ديسمبر 2024، 283-90. https://doi.org/10.1145/3726122.3726164. 

بوكانان، بن. "أجندة أبحاث الأمن القومي للأمن السيبراني والذكاء الاصطناعي". مركز الأمن والتكنولوجيا الناشئة، 2020. https://cset.georgetown.edu/publication/a-national-security-research-agenda-for-cybersecurity-and-artificial-intelligence/. 

كوهين، وستاف، ورون بيتون، وبن ناسي. "ها قد جاءت دودة AI: إطلاق العنان للديدان عديمة النقرات التي تستهدف تطبيقات GenAI التي تعمل بالطاقة". arXiv:2403.02817. الإصدار 1. نسخة مسبقة، arXiv، 5 مارس 2024. https://doi.org/10.48550/arXiv.2403.02817. 

Commey, Daniel, Benjamin Appiah, Bill K. Frimpong, Isaac Osei, Ebenezer N. A. Hammond, and Garth V. Crosby. "EGAN: شبكة GAN التطورية للتهرب من برامج الفدية". 2023 مؤتمر IEEE الثامن والأربعون لشبكات الكمبيوتر المحلية (LCN)، 2 أكتوبر 2023، 1-9. https://doi.org/10.1109/LCN58197.2023.10223320. 

"Cyber Kill Chain® ® | Lockheed Martin". تم الوصول إليه في 19 سبتمبر 2025. https://www.lockheedmartin.com/en-us/capabilities/cyber/cyber-kill-chain.html. 

"التهديدات السيبرانية في الاتحاد الأوروبي: حقائق وأرقام - Consilium". تم الوصول إليه في 22 سبتمبر 2025. https://www.consilium.europa.eu/en/policies/top-cyber-threats/. 

"Deepfake Fraudsters Fraudsters ينتحلون شخصية الرؤساء التنفيذيين في FTSE". تم الوصول إليه في 19 سبتمبر 2025. https://www.thetimes.com/business-money/technology/article/deepfake-fraudsters-impersonate-ftse-chief-executives-z9vvnz93l. 

اختراق الصندوق "5 تقنيات مضادة لخداع المحققين (+ أمثلة ونصائح للكشف)". تم الوصول إليه في 19 سبتمبر 2025. https://www.hackthebox.com/blog/anti-forensics-techniques. 

"القراصنة يستخدمون AI لتشريح تقارير استخبارات التهديدات والبرمجيات الخبيثة "فيب كود" | IT Pro". تم الوصول إليه في 19 سبتمبر 2025. https://www.itpro.com/security/hackers-are-using-ai-to-dissect-threat-intelligence-reports-and-vibe-code-malware. 

هوفر، أماندا. "عملية الاحتيال الجديدة الذكية التي لا يستطيع بنكك إيقافها". Business Insider. تم الوصول إليه في 19 سبتمبر 2025. https://www.businessinsider.com/bank-account-scam-deepfakes-ai-voice-generator-crime-fraud-2025-5. 

هوينه، ونام، وبييو لين. "نماذج اللغة الكبيرة لتوليد التعليمات البرمجية: مسح شامل للتحديات والتقنيات والتقييم والتطبيقات". arXiv:2503.01245. طباعة مسبقة، arXiv، 2 أبريل 2025. https://doi.org/10.48550/arXiv.2503.01245. 

مؤشر IBM Security X-Force Security X-Force Threat Intelligence Index 2023. n.d. 

Kolosnjaji, Bojan, Ambra Demontis, Battista Biggio, et al. "ثنائيات البرمجيات الخبيثة الخبيثة: التهرب من التعلم العميق لاكتشاف البرمجيات الخبيثة في الملفات التنفيذية'. arXiv:1803.04173. طباعة مسبقة، arXiv، 12 مارس 2018. https://doi.org/10.48550/arXiv.1803.04173. 

Li, Haoyuan, Hao Jiang, Tao Jiang, Tao Jin, et al. "DATE: الباحث عن المنتجات المتكيفة مع المجال للتجارة الإلكترونية". arXiv:2304.03669. طباعة مسبقة، arXiv، 7 أبريل 2023. https://doi.org/10.48550/arXiv.2304.03669. 

ميرسكي، ويسرويل، وأمبرا ديمونتيس، وجيديب كوتاك وآخرون. "تهديد هجمات AI للمؤسسات". أجهزة الكمبيوتر والأمان 124 (يناير 2023): 103006. https://doi.org/10.1016/j.cose.2022.103006. 

بيبلاي وأريتران وساي سري لايا شوكابالي وأنوبام جوشي 'NAttack! هجمات عدائية لتجاوز مصنف قائم على شبكة GAN مدرّب على كشف التسلل إلى الشبكة". 2020 مؤتمر IEEE الدولي السادس حول أمن البيانات الضخمة على السحابة (BigDataSecurity)، ومؤتمر IEEE الدولي حول الحوسبة عالية الأداء والحوسبة الذكية (HPSC)، ومؤتمر IEEE الدولي حول البيانات الذكية والأمن (IDS)، مايو 2020، 49-54 مايو 2020. https://doi.org/10.1109/BigDataSecurity-HPSC-IDS49724.2020.00020. 

"البرمجيات الخبيثة متعددة الأشكال AI: تجربة عملية في العالم الحقيقي والكشف عن البرمجيات الخبيثة - CardinalOps". تم الوصول إليه في 19 سبتمبر 2025. https://cardinalops.com/blog/polymorphic-ai-malware-detection/. 

ريد، توماس. "الأكاذيب التي ترويها روسيا لنفسها". الشؤون الخارجية، 30 سبتمبر 2024. https://www.foreignaffairs.com/united-states/lies-russia-tells-itself. 

"خسارة 938 كرور روبية لصالح Cybercrooks منذ يناير | أخبار بنغالورو - تايمز أوف إنديا". تم الوصول إليه في 22 سبتمبر 2025. https://timesofindia.indiatimes.com/city/bengaluru/rs-938-crore-lost-to-cybercrooks-since-jan/articleshow/122075324.cms. 

شروير، وساسكيا لورا، ولوكا باجولا، وألبرتو كاستانيارو، وجيوفاني أبراتوزي، وماورو كونتي. "استغلال AI للهجمات: On the Interplay between Adversarial AI and Offensive AI'. arXiv:2506.12519. الإصدار 1. نسخة مسبقة، arXiv، 14 يونيو 2025. https://doi.org/10.48550/arXiv.2506.12519. 

سيواك، وموهيت، وسانجاي ك. ساهاي، وهيمانت راثور. "ADVERSARIALuscator: أداة تشويش قائمة على برنامج Adversarial-DRL ومولد البرمجيات الخبيثة المتحولة". المؤتمر الدولي المشترك للشبكات العصبية 2021 (IJCNN)، 18 يوليو 2021، 18 يوليو 2021، 1-9. https://doi.org/10.1109/IJCNN52387.2021.9534016. 

تيمارا، شيتال. "تعظيم نجاح اختبار الاختراق باستخدام تقنيات الاستطلاع الفعالة باستخدام ChatGPT". arXiv:2307.06391. طباعة مسبقة، arXiv، 20 مارس 2023. https://doi.org/10.48550/arXiv.2307.06391. 

تاونسند، كيفن. "تم العثور على برمجيات خبيثة من إنتاج AI في البرية". سيكيوريتي ويك، 24 سبتمبر 2024. https://www.securityweek.com/ai-generated-malware-found-in-the-wild/. 

يامين، ومحمد مدثر، ومحب الله، وحبيب الله، وحبيب الله، وباسل كات. "تسليح AI للهجمات الإلكترونية". مجلة أمن المعلومات وتطبيقاتها 57 (مارس 2021): 102722. https://doi.org/10.1016/j.jisa.2020.102722. 

يانغ، وكاي-تشينغ، ودانيشجيت سينغ، وفيليبو مينكزر. "خصائص وانتشار الملفات الشخصية المزيفة على وسائل التواصل الاجتماعي ذات الوجوه التي تم إنشاؤها باستخدام AI". مجلة الثقة والأمان على الإنترنت 2، رقم 4 (2024). https://doi.org/10.54501/jots.v2i4.197. 

Yu, Jingru, Yi Yu, Xuhong Wang, et al. "The Shadow of Fraud: The Emerging Dangering Danger of AI-Powered Social Engineering and Its Possible Creature'. arXiv:2407.15912. طباعة مسبقة، arXiv، 22 يوليو 2024. https://doi.org/10.48550/arXiv.2407.15912. 

شكراً لاشتراكك في نشرتنا الإخبارية!

شكراً لكم! تم استلام الرد على دعوة الحضور ل AI في الإساءة الإلكترونية

AI في الجريمة الإلكترونية

جاري التحميل...

جاري التحميل...