How Can Generative AI Be Used in Cybersecurity?

كيف يمكن استخدام AI التوليدي في الأمن السيبراني ?

مقدمة

يبرز الذكاء الاصطناعي التوليدي - أنظمة الذكاء الاصطناعي القادرة على إنشاء محتوى أو تنبؤات جديدة - كقوة فارقة في مجال الأمن السيبراني. وقد أثبتت أدوات مثل GPT-4 من OpenAI قدرتها على تحليل البيانات المعقدة وإنشاء نصوص شبيهة بالنصوص البشرية، مما يتيح مناهج جديدة للدفاع ضد التهديدات السيبرانية. ويستكشف متخصصو الأمن السيبراني وصناع القرار في مختلف القطاعات كيف يمكن للذكاء الاصطناعي التوليدي تعزيز دفاعاتهم ضد الهجمات المتطورة. فمن القطاع المالي والرعاية الصحية إلى قطاع التجزئة والقطاع الحكومي، تواجه المؤسسات في جميع القطاعات محاولات تصيد احتيالي متطورة وبرامج ضارة وتهديدات أخرى قد يساعد الذكاء الاصطناعي التوليدي في مواجهتها. في هذه الورقة البيضاء، نستعرض كيف يمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني، مع تسليط الضوء على التطبيقات الواقعية، والإمكانيات المستقبلية، والاعتبارات المهمة للتبني.

يختلف الذكاء الاصطناعي التوليدي عن الذكاء الاصطناعي التحليلي التقليدي ليس فقط من خلال اكتشاف الأنماط ولكن أيضًا خلق المحتوى - سواءً كان محاكاة الهجمات لتدريب الدفاعات أو إنتاج تفسيرات باللغة الطبيعية لبيانات أمنية معقدة. هذه القدرة المزدوجة تجعلها سلاحًا ذا حدين: فهي توفر أدوات دفاعية جديدة فعّالة، ولكن الجهات الفاعلة في مجال التهديدات قد تستغلها أيضًا. تستكشف الأقسام التالية مجموعة واسعة من حالات استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني، بدءًا من أتمتة اكتشاف التصيد الاحتيالي وصولًا إلى تحسين الاستجابة للحوادث. كما نناقش الفوائد التي تُبشر بها ابتكارات الذكاء الاصطناعي هذه، إلى جانب المخاطر (مثل "هلوسة" الذكاء الاصطناعي أو إساءة استخدامه بشكل عدائي) التي يجب على المؤسسات إدارتها. وأخيرًا، نقدم نصائح عملية لمساعدة الشركات على تقييم الذكاء الاصطناعي التوليدي ودمجه بمسؤولية في استراتيجياتها للأمن السيبراني.

الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني: نظرة عامة

يشير الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني إلى نماذج الذكاء الاصطناعي - غالبًا ما تكون نماذج لغوية كبيرة أو شبكات عصبية أخرى - القادرة على توليد رؤى وتوصيات وأكواد برمجية، أو حتى بيانات تركيبية، للمساعدة في مهام الأمن. على عكس النماذج التنبؤية البحتة، يستطيع الذكاء الاصطناعي التوليدي محاكاة السيناريوهات وإنتاج مخرجات قابلة للقراءة البشرية (مثل التقارير والتنبيهات أو حتى عينات أكواد ضارة) بناءً على بيانات التدريب. وتُستغل هذه القدرة لـ التنبؤ والكشف والاستجابة للتهديدات بطرق أكثر ديناميكية من ذي قبل (ما هو الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ - بالو ألتو نتوركسعلى سبيل المثال، يمكن للنماذج التوليدية تحليل سجلات ضخمة أو مستودعات معلومات التهديدات وإنتاج ملخص موجز أو إجراء موصى به، وتعمل تقريبًا مثل "مساعد" الذكاء الاصطناعي لفرق الأمن.

أظهرت التطبيقات المبكرة للذكاء الاصطناعي التوليدي للدفاع السيبراني نتائج واعدة. في عام ٢٠٢٣، طرحت مايكروسوفت مساعد الطيار الأمني، وهو مساعد مدعوم بتقنية GPT-4 لمحللي الأمن، للمساعدة في تحديد الاختراقات والتنقيب بين 65 تريليون إشارة تعالجها Microsoft يوميًا (Microsoft Security Copilot هو مساعد GPT-4 AI الجديد للأمن السيبراني | The Verge). يمكن للمحللين تحفيز هذا النظام باللغة الطبيعية (على سبيل المثال "تلخيص جميع الحوادث الأمنية خلال الـ 24 ساعة الماضية")، وسيُنتج مساعد الطيار ملخصًا سرديًا مفيدًا. وبالمثل، فإن جوجل استخبارات التهديدات بالذكاء الاصطناعي يستخدم نموذجًا توليديًا يسمى تَوأَم لتمكين البحث المحادثة من خلال قاعدة بيانات التهديدات الضخمة لدى Google، وتحليل التعليمات البرمجية المشبوهة بسرعة وتلخيص النتائج لمساعدة صائدي البرامج الضارة (كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ ١٠ أمثلة واقعية). وتوضح هذه الأمثلة الإمكانات: إذ يمكن للذكاء الاصطناعي التوليدي استيعاب بيانات الأمن السيبراني المعقدة وواسعة النطاق وتقديم الرؤى في شكل يمكن الوصول إليه، مما يؤدي إلى تسريع عملية اتخاذ القرار.

وفي الوقت نفسه، يمكن للذكاء الاصطناعي التوليدي إنشاء محتوى مزيف واقعي للغاية، وهو ما يشكل فائدة كبيرة للمحاكاة والتدريب (وللأسف، بالنسبة للمهاجمين الذين يصنعون الهندسة الاجتماعية).عندما ننتقل إلى حالات استخدام محددة، سنرى أن قدرة الذكاء الاصطناعي التوليدي على كل من تركيب و تحليل تُشكل المعلومات أساسًا لتطبيقات الأمن السيبراني العديدة. نستعرض أدناه حالات استخدام رئيسية، بدءًا من منع التصيد الاحتيالي ووصولًا إلى تطوير البرمجيات الآمنة، مع أمثلة على كيفية تطبيق كل منها في مختلف القطاعات.

التطبيقات الرئيسية للذكاء الاصطناعي التوليدي في مجال الأمن السيبراني

الشكل: تشمل حالات الاستخدام الرئيسية للذكاء الاصطناعي التوليدي في مجال الأمن السيبراني مساعدي الذكاء الاصطناعي لفرق الأمن، وتحليل نقاط ضعف الكود، واكتشاف التهديدات التكيفية، ومحاكاة هجوم اليوم صفر، والأمن البيومتري المعزز، واكتشاف التصيد الاحتيالي (6 حالات استخدام للذكاء الاصطناعي التوليدي في مجال الأمن السيبراني [+ أمثلة] ).

اكتشاف التصيد الاحتيالي والوقاية منه

لا يزال التصيد الاحتيالي أحد أكثر التهديدات الإلكترونية انتشارًا، إذ يخدع المستخدمين للنقر على روابط ضارة أو الكشف عن بيانات اعتمادهم. ويتم حاليًا نشر الذكاء الاصطناعي التوليدي في كلٍّ من كشف محاولات التصيد الاحتيالي وتعزيز تدريب المستخدمين لمنع الهجمات الناجحة. على الصعيد الدفاعي، تستطيع نماذج الذكاء الاصطناعي تحليل محتوى البريد الإلكتروني وسلوكيات المُرسِل لرصد العلامات الدقيقة للتصيد الاحتيالي التي قد تغفلها المرشحات القائمة على القواعد. من خلال التعلم من مجموعات بيانات ضخمة لرسائل البريد الإلكتروني الشرعية والاحتيالية، يمكن للنموذج التوليدي رصد أي شذوذ في اللهجة أو الصياغة أو السياق يُشير إلى عملية احتيال - حتى عندما لا تكشف القواعد النحوية والإملائية عنها. في الواقع، يُشير باحثو بالو ألتو نتوركس إلى أن الذكاء الاصطناعي التوليدي يُمكنه تحديد "علامات خفية لرسائل التصيد الاحتيالي التي قد لا يتم اكتشافها بخلاف ذلك" مساعدة المؤسسات على البقاء خطوة واحدة للأمام من المحتالين (ما هو الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ - بالو ألتو نتوركس).

تستخدم فرق الأمن أيضًا الذكاء الاصطناعي التوليدي محاكاة هجمات التصيد الاحتيالي للتدريب والتحليل. على سبيل المثال، قدمت شركة Ironscales أداة محاكاة تصيد احتيالي مدعومة بتقنية GPT، تُنشئ تلقائيًا رسائل بريد إلكتروني تصيدية مزيفة مصممة خصيصًا لموظفي المؤسسة (كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ ١٠ أمثلة واقعيةتعكس رسائل البريد الإلكتروني المُصممة بالذكاء الاصطناعي أحدث أساليب المهاجمين، مما يمنح الموظفين تدريبًا عمليًا على اكتشاف محتوى التصيد الاحتيالي. يُعد هذا التدريب المُخصص أمرًا بالغ الأهمية، حيث يعتمد المهاجمون أنفسهم على الذكاء الاصطناعي لإنشاء إغراءات أكثر إقناعًا. والجدير بالذكر أنه في حين أن الذكاء الاصطناعي المُولِّد قادر على إنتاج رسائل تصيد احتيالي مُصقولة للغاية (ولّت أيام اللغة الإنجليزية المُكسورة بسهولة)، فقد وجد المدافعون أن الذكاء الاصطناعي ليس منيعًا. في عام 2024، أجرى باحثو أمن IBM تجربة قارنوا فيها رسائل التصيد الاحتيالي المكتوبة بشريًا بتلك المُولَّدة بالذكاء الاصطناعي، "ومن المثير للدهشة أن رسائل البريد الإلكتروني التي تم إنشاؤها بواسطة الذكاء الاصطناعي لا تزال سهلة الاكتشاف على الرغم من قواعدها النحوية الصحيحة" (6 حالات استخدام للذكاء الاصطناعي التوليدي في مجال الأمن السيبراني [+ أمثلة] ويشير هذا إلى أن الحدس البشري المقترن بالكشف بمساعدة الذكاء الاصطناعي لا يزال قادرًا على التعرف على التناقضات الدقيقة أو إشارات البيانات الوصفية في عمليات الاحتيال المكتوبة بواسطة الذكاء الاصطناعي.

يُساعد الذكاء الاصطناعي التوليدي في مكافحة التصيد الاحتيالي بطرق أخرى أيضًا. يُمكن استخدام النماذج لتوليد الاستجابات أو المرشحات الآلية التي تختبر رسائل البريد الإلكتروني المشبوهة. على سبيل المثال، يمكن لنظام الذكاء الاصطناعي الرد على رسالة بريد إلكتروني باستفسارات معينة للتحقق من صحة المُرسِل، أو استخدام برنامج إدارة التعلم (LLM) لتحليل روابط ومرفقات البريد الإلكتروني في بيئة اختبار، ثم تلخيص أي نية خبيثة. منصة NVIDIA الأمنية مورفيوس يوضح قوة الذكاء الاصطناعي في هذا المجال - فهو يستخدم نماذج معالجة اللغة الطبيعية التوليدية لتحليل رسائل البريد الإلكتروني وتصنيفها بسرعة، وقد وجد أنه يحسن اكتشاف رسائل البريد الإلكتروني الاحتيالية من خلال 21% مقارنة بأدوات الأمن التقليدية (6 حالات استخدام للذكاء الاصطناعي التوليدي في مجال الأمن السيبراني [+ أمثلة] يقوم Morpheus أيضًا بإنشاء ملفات تعريف لأنماط اتصال المستخدم للكشف عن السلوك غير المعتاد (مثل قيام المستخدم فجأة بإرسال رسائل بريد إلكتروني إلى العديد من العناوين الخارجية)، مما قد يشير إلى حساب مخترق يرسل رسائل بريد إلكتروني احتيالية.

عمليًا، بدأت الشركات في مختلف القطاعات تثق بالذكاء الاصطناعي لتصفية رسائل البريد الإلكتروني وحركة مرور الويب من هجمات الهندسة الاجتماعية. على سبيل المثال، تستخدم شركات التمويل الذكاء الاصطناعي التوليدي لمسح الاتصالات بحثًا عن محاولات انتحال الهوية التي قد تؤدي إلى الاحتيال الإلكتروني، بينما ينشر مقدمو الرعاية الصحية الذكاء الاصطناعي لحماية بيانات المرضى من الخروقات المتعلقة بالتصيد الاحتيالي. من خلال توليد سيناريوهات واقعية للتصيد الاحتيالي وتحديد السمات المميزة للرسائل الضارة، يُضيف الذكاء الاصطناعي التوليدي طبقة قوية لاستراتيجيات منع التصيد الاحتيالي. الخلاصة: يمكن أن يساعد الذكاء الاصطناعي في اكتشاف هجمات التصيد الاحتيالي وتعطيلها بشكل أسرع وأكثر دقة، حتى مع استخدام المهاجمين لنفس التكنولوجيا لتحسين أدائهم.

اكتشاف البرامج الضارة وتحليل التهديدات

تتطور البرمجيات الخبيثة الحديثة باستمرار، حيث يُنشئ المهاجمون متغيرات جديدة أو يُشوّشون الأكواد البرمجية لتجاوز توقيعات مكافحة الفيروسات. يُقدّم الذكاء الاصطناعي التوليدي تقنيات جديدة للكشف عن البرمجيات الخبيثة وفهم سلوكها. ومن بين هذه الأساليب استخدام الذكاء الاصطناعي لـ توليد "التوائم الشريرة" من البرامج الضارةيمكن لباحثي الأمن إدخال عينة معروفة من البرامج الضارة في نموذج توليدي لإنشاء العديد من المتغيرات المتحولة من تلك البرامج الضارة. وبذلك، يتوقعون بفعالية التعديلات التي قد يُجريها المهاجم. يمكن بعد ذلك استخدام هذه المتغيرات المُولّدة بالذكاء الاصطناعي لتدريب أنظمة مكافحة الفيروسات وكشف التسلل، بحيث يتم التعرف حتى على الإصدارات المعدلة من البرامج الضارة في الواقع.6 حالات استخدام للذكاء الاصطناعي التوليدي في مجال الأمن السيبراني [+ أمثلة] تساعد هذه الاستراتيجية الاستباقية على كسر الحلقة المفرغة التي يُجري فيها المخترقون تعديلات طفيفة على برمجياتهم الخبيثة لتجنب الكشف، ويضطر المدافعون إلى بذل جهد كبير لكتابة توقيعات جديدة في كل مرة. وكما ذُكر في إحدى حلقات البودكاست المتخصصة، يستخدم خبراء الأمن الآن الذكاء الاصطناعي التوليدي لـ "محاكاة حركة مرور الشبكة وإنشاء حمولات ضارة تحاكي الهجمات المتطورة" اختبار دفاعاتهم ضد مجموعة كاملة من التهديدات بدلاً من حالة واحدة. هذا الكشف التكيفي عن التهديدات وهذا يعني أن أدوات الأمان أصبحت أكثر قدرة على مقاومة البرامج الضارة متعددة الأشكال التي قد تتسلل بخلاف ذلك.

إلى جانب الكشف، تساعد الذكاء الاصطناعي التوليدي في تحليل البرمجيات الخبيثة والهندسة العكسية، وهي مهامٌ تتطلب جهدًا كبيرًا من محللي التهديدات. يمكن تكليف نماذج اللغات الكبيرة بفحص الأكواد أو النصوص البرمجية المشبوهة وشرح الغرض المقصود من الكود بلغة واضحة. مثالٌ واقعيٌّ على ذلك هو تحليلات الكود من VirusTotal، وهي ميزة تقدمها VirusTotal من Google والتي تستفيد من نموذج الذكاء الاصطناعي التوليدي (Sec-PaLM من Google) لإنتاج ملخصات باللغة الطبيعية للكود الضار المحتمل (كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ ١٠ أمثلة واقعية). إنه في الأساس "نوع من ChatGPT مخصص للترميز الأمني" العمل كمحلل برامج ضارة بالذكاء الاصطناعي يعمل على مدار الساعة طوال أيام الأسبوع لمساعدة المحللين البشريين على فهم التهديدات (6 حالات استخدام للذكاء الاصطناعي التوليدي في مجال الأمن السيبراني [+ أمثلة] ). بدلاً من التدقيق في نص برمجي غير مألوف أو رمز ثنائي، يمكن لعضو فريق الأمان الحصول على شرح فوري من الذكاء الاصطناعي - على سبيل المثال، "يحاول هذا البرنامج النصي تنزيل ملف من خادم XYZ ثم تعديل إعدادات النظام، وهو ما يشير إلى سلوك البرامج الضارة." ويؤدي هذا إلى تسريع الاستجابة للحوادث بشكل كبير، حيث يمكن للمحللين فرز البرامج الضارة الجديدة وفهمها بشكل أسرع من أي وقت مضى.

يتم استخدام الذكاء الاصطناعي التوليدي أيضًا تحديد البرامج الضارة في مجموعات البيانات الضخمةتفحص محركات مكافحة الفيروسات التقليدية الملفات بحثًا عن توقيعات معروفة، لكن النموذج التوليدي قادر على تقييم خصائص الملف، بل وحتى التنبؤ بما إذا كان ضارًا بناءً على الأنماط المُكتسبة. من خلال تحليل سمات مليارات الملفات (الخبيثة والحميدة)، قد يكتشف الذكاء الاصطناعي النية الخبيثة في حال عدم وجود توقيع صريح.على سبيل المثال، قد يضع نموذج توليدي علامة على ملف قابل للتنفيذ باعتباره مشبوهًا لأن ملف تعريف سلوكه "يبدو" مثل اختلاف طفيف في برنامج الفدية الذي شاهده أثناء التدريب، على الرغم من أن الملف الثنائي جديد. يساعد هذا الكشف القائم على السلوك في مكافحة البرامج الضارة الجديدة أو التي لم تُكتشف بعد. يُقال إن ذكاء جوجل الاصطناعي لتحليل التهديدات (جزء من كرونيكل/مانديانت) يستخدم نموذجه التوليدي لتحليل الأكواد الضارة المحتملة و "مساعدة المتخصصين في الأمن بشكل أكثر كفاءة وفعالية في مكافحة البرامج الضارة وأنواع أخرى من التهديدات." (كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ ١٠ أمثلة واقعية).

من ناحية أخرى، يجب أن ندرك أن المهاجمين يمكنهم استخدام الذكاء الاصطناعي التوليدي هنا أيضًا - لإنشاء برمجيات خبيثة تتكيف تلقائيًا. في الواقع، يحذر خبراء الأمن من أن يمكن أن يساعد الذكاء الاصطناعي التوليدي مجرمي الإنترنت على تطوير البرامج الضارة وهو أمر يصعب اكتشافه (ما هو الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ - بالو ألتو نتوركسيمكن توجيه نموذج الذكاء الاصطناعي لتغيير شكل برمجية خبيثة بشكل متكرر (بتغيير بنية ملفاتها، وطرق تشفيرها، إلخ) حتى تتجنب جميع اختبارات مكافحة الفيروسات المعروفة. يُمثل هذا الاستخدام العدائي مصدر قلق متزايد (يُشار إليه أحيانًا باسم "البرمجيات الخبيثة المدعومة بالذكاء الاصطناعي" أو البرمجيات الخبيثة متعددة الأشكال كخدمة). سنناقش هذه المخاطر لاحقًا، لكنها تُؤكد أن الذكاء الاصطناعي التوليدي أداة في لعبة القط والفأر هذه التي يستخدمها كل من المدافعين والمهاجمين.

بشكل عام، تعمل الذكاء الاصطناعي التوليدي على تعزيز دفاعات البرامج الضارة من خلال تمكين فرق الأمن من فكر مثل المهاجم - توليد تهديدات وحلول جديدة داخليًا. سواءً كان ذلك إنتاج برمجيات خبيثة مصطنعة لتحسين معدلات الكشف، أو استخدام الذكاء الاصطناعي لشرح واحتواء البرمجيات الخبيثة الحقيقية الموجودة في الشبكات، فإن هذه التقنيات تُطبق في مختلف القطاعات. قد يستخدم البنك تحليل البرمجيات الخبيثة المدعوم بالذكاء الاصطناعي لتحليل ماكرو مشبوه بسرعة في جدول بيانات، بينما قد تعتمد شركة تصنيع على الذكاء الاصطناعي للكشف عن البرمجيات الخبيثة التي تستهدف أنظمة التحكم الصناعية. من خلال تعزيز تحليل البرمجيات الخبيثة التقليدي بالذكاء الاصطناعي التوليدي، يمكن للمؤسسات الاستجابة لحملات البرمجيات الخبيثة بشكل أسرع وأكثر استباقية من ذي قبل.

استخبارات التهديدات وتحليلها تلقائيًا

تُغرق المؤسسات يوميًا بوابل من بيانات استخبارات التهديدات، بدءًا من مؤشرات الاختراق المُكتشفة حديثًا (IOCs) ووصولًا إلى تقارير المحللين حول أساليب القرصنة الناشئة. ويتمثل التحدي الذي تواجهه فرق الأمن في غربلة هذا الكم الهائل من المعلومات واستخلاص رؤى عملية. ويُثبت الذكاء الاصطناعي التوليدي أهميته البالغة في أتمتة تحليل معلومات التهديدات واستهلاكهابدلاً من قراءة العشرات من التقارير أو إدخالات قواعد البيانات يدويًا، يمكن للمحللين استخدام الذكاء الاصطناعي لتلخيص معلومات التهديدات ووضعها في سياقها بسرعة الجهاز.

ومن الأمثلة الملموسة على ذلك شركة جوجل استخبارات التهديدات مجموعة أدوات تدمج الذكاء الاصطناعي التوليدي (نموذج جيميني) مع كنوز جوجل من بيانات التهديدات من مانديانت وفيروس توتال. يوفر هذا الذكاء الاصطناعي "البحث التفاعلي عبر مستودع جوجل الضخم لمعلومات التهديدات"، مما يسمح للمستخدمين بطرح أسئلة طبيعية حول التهديدات والحصول على إجابات مختصرة (كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ ١٠ أمثلة واقعية). على سبيل المثال، يمكن للمحلل أن يسأل، "هل لاحظنا أي برامج ضارة مرتبطة بمجموعة التهديدات X تستهدف صناعتنا؟" وسوف يقوم الذكاء الاصطناعي باستخراج المعلومات ذات الصلة، وربما ملاحظة ذلك "نعم، تم ربط مجموعة التهديد X بحملة تصيد احتيالي الشهر الماضي باستخدام البرامج الضارة Y"، بالإضافة إلى ملخص لسلوك هذا البرنامج الخبيث. هذا يُقلل بشكل كبير من الوقت اللازم لجمع المعلومات، والذي كان يتطلب عادةً البحث في أدوات متعددة أو قراءة تقارير طويلة.

يمكن للذكاء الاصطناعي التوليدي أيضًا أن يرتبط ويرتبط تلخيص اتجاهات التهديد.قد يُنقّب هذا النظام بين آلاف منشورات مدونات الأمن، وأخبار الاختراقات، وأحاديث الويب المظلم، ثم يُنتج ملخصًا تنفيذيًا لأهم التهديدات الإلكترونية لهذا الأسبوع لعرضه على مسؤول أمن المعلومات. في السابق، كان هذا المستوى من التحليل والتقارير يتطلب جهدًا بشريًا كبيرًا؛ أما الآن، فيمكن لنموذج مُعدّ جيدًا صياغته في ثوانٍ، حيث يقوم البشر فقط بتحسين النتائج. وقد طورت شركات مثل زيرو فوكس فوكس جي بي تي، وهي أداة ذكاء اصطناعي توليدية مصممة خصيصًا لـ "تسريع تحليل وتلخيص المعلومات الاستخباراتية عبر مجموعات البيانات الكبيرة" بما في ذلك المحتوى الضار وبيانات التصيد الاحتيالي (كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ ١٠ أمثلة واقعيةمن خلال أتمتة عملية قراءة البيانات والمراجع المتبادلة، تمكن الذكاء الاصطناعي فرق الاستخبارات الخاصة بالتهديدات من التركيز على اتخاذ القرار والاستجابة.

حالة استخدام أخرى هي مطاردة التهديدات التحادثيةتخيل أن محللًا أمنيًا يتفاعل مع مساعد الذكاء الاصطناعي: "أرني أي علامات على تسرب البيانات خلال الـ 48 ساعة الماضية" أو "ما هي الثغرات الأمنية الجديدة التي يستغلها المهاجمون هذا الأسبوع؟" يستطيع الذكاء الاصطناعي تفسير الاستعلام، والبحث في السجلات الداخلية أو مصادر المعلومات الخارجية، والرد بإجابة واضحة أو حتى بقائمة بالحوادث ذات الصلة. وهذا ليس مستبعدًا، إذ بدأت أنظمة إدارة المعلومات الأمنية والأحداث (SIEM) الحديثة بدمج استعلامات اللغة الطبيعية. على سبيل المثال، تُضيف حزمة أمان QRadar من IBM ميزات ذكاء اصطناعي توليدية في عام 2024 لتمكين المحللين. "اسأل [...] أسئلة محددة حول مسار الهجوم الملخص" للحادث والحصول على إجابات مفصلة. كما يمكنه أيضًا "تفسير وتلخيص معلومات استخباراتية ذات صلة بالتهديدات" تلقائيا (كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ ١٠ أمثلة واقعيةفي الأساس، تقوم الذكاء الاصطناعي التوليدي بتحويل كميات هائلة من البيانات الفنية إلى رؤى بحجم الدردشة عند الطلب.

في مختلف القطاعات، لهذا الأمر آثارٌ بالغة. إذ يُمكن لمُقدّمي الرعاية الصحية استخدام الذكاء الاصطناعي للبقاء على اطلاعٍ بأحدث مجموعات برامج الفدية التي تستهدف المستشفيات، دون الحاجة إلى مُحلّلٍ مُتفرّغٍ للبحث. كما يُمكن لمركز العمليات الأمنية (SOC) في شركة بيع بالتجزئة تلخيص أساليب البرامج الضارة الجديدة في نقاط البيع بسرعة عند تقديم إحاطاتٍ لموظفي تكنولوجيا المعلومات في المتاجر. وفي القطاع الحكومي، حيث يجب تجميع بيانات التهديدات من جهاتٍ مُختلفة، يُمكن للذكاء الاصطناعي إنتاج تقارير مُوحّدة تُسلّط الضوء على التحذيرات الرئيسية. أتمتة جمع معلومات التهديدات وتفسيرهاتساعد الذكاء الاصطناعي التوليدي المؤسسات على الاستجابة بشكل أسرع للتهديدات الناشئة وتقليل خطر تفويت التحذيرات الحرجة المخفية وسط الضوضاء.

تحسين مركز عمليات الأمان (SOC)

تشتهر مراكز عمليات الأمن بإرهاق التنبيهات وحجم البيانات الهائل. قد يخوض محلل مركز عمليات الأمن (SOC) العادي في آلاف التنبيهات والأحداث يوميًا، محققًا في الحوادث المحتملة. يعمل الذكاء الاصطناعي التوليدي كعامل مضاعف للقوة في مراكز عمليات الأمن من خلال أتمتة الأعمال الروتينية، وتوفير ملخصات ذكية، وحتى تنظيم بعض الاستجابات. الهدف هو تحسين سير عمل مركز عمليات الأمن (SOC) بحيث يتمكن المحللون البشريون من التركيز على القضايا الأكثر أهمية، بينما يتولى مساعد الذكاء الاصطناعي التعامل مع الباقي.

أحد التطبيقات الرئيسية هو استخدام الذكاء الاصطناعي التوليدي كـ "مساعد المحلل". يُعد برنامج Microsoft Security Copilot، الذي تمت الإشارة إليه سابقًا، مثالاً على ذلك: فهو "تم تصميمه لمساعدة محلل الأمن في عمله وليس استبداله" المساعدة في التحقيق في الحوادث والإبلاغ عنها (Microsoft Security Copilot هو مساعد GPT-4 AI الجديد للأمن السيبراني | The Vergeفي الممارسة العملية، يعني هذا أن المحلل يمكنه إدخال البيانات الخام - سجلات جدار الحماية، أو الجدول الزمني للحدث، أو وصف الحادث - وطلب من الذكاء الاصطناعي تحليلها أو تلخيصها.قد يقوم مساعد الطيار بإخراج قصة مثل، "يبدو أنه في الساعة 2:35 صباحًا، نجح تسجيل دخول مشبوه من IP X إلى الخادم Y، تبعه عمليات نقل بيانات غير عادية، مما يشير إلى خرق محتمل لهذا الخادم." إن هذا النوع من السياق المباشر له قيمة لا تقدر بثمن عندما يكون الوقت هو جوهر المسألة.

كما تساعد مساعدات الذكاء الاصطناعي في تخفيف عبء فرز المستوى الأول. ووفقًا لبيانات الصناعة، يمكن لفريق الأمن قضاء 15 ساعة في الأسبوع أقوم فقط بفرز حوالي 22000 تنبيه وإيجابيات خاطئة (6 حالات استخدام للذكاء الاصطناعي التوليدي في مجال الأمن السيبراني [+ أمثلة] باستخدام الذكاء الاصطناعي التوليدي، يُمكن فرز العديد من هذه التنبيهات تلقائيًا - حيث يُمكن للذكاء الاصطناعي استبعاد التنبيهات التي تبدو سليمة (مع توضيح الأسباب) وتسليط الضوء على التنبيهات التي تحتاج إلى اهتمام حقيقي، بل واقتراح الأولوية لها أحيانًا. في الواقع، تُتيح قوة الذكاء الاصطناعي التوليدي في فهم السياق ربط التنبيهات التي قد تبدو غير ضارة عند انفرادها، ولكنها تُشير مجتمعةً إلى هجوم متعدد المراحل. وهذا يُقلل من احتمالية تفويت أي هجوم بسبب "إرهاق التنبيهات".

يستخدم محللو مركز العمليات الأمنية أيضًا اللغة الطبيعية مع الذكاء الاصطناعي لتسريع عمليات البحث والتحقيقات. الذكاء الاصطناعي الأرجواني على سبيل المثال، تجمع المنصة بين واجهة تعتمد على LLM وبيانات أمنية في الوقت الفعلي، مما يسمح للمحللين "اطرح أسئلة معقدة للبحث عن التهديدات باللغة الإنجليزية البسيطة واحصل على إجابات سريعة ودقيقة" (كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ ١٠ أمثلة واقعية). يمكن للمحلل أن يكتب، "هل تواصلت أي نقاط نهاية مع النطاق badguy123[.]com في الشهر الماضي؟"، وسيبحث الذكاء الاصطناعي الأرجواني في السجلات للاستجابة. هذا يُجنّب المحلل كتابة استعلامات أو نصوص برمجية لقواعد البيانات - فالذكاء الاصطناعي يقوم بذلك تلقائيًا. كما يعني هذا أن المحللين المبتدئين قادرون على التعامل مع مهام كانت تتطلب سابقًا مهندسًا خبيرًا ماهرًا في لغات الاستعلام، بفعالية. رفع مهارات الفريق من خلال مساعدة الذكاء الاصطناعيفي الواقع، أفاد المحللون أن التوجيه التوليدي للذكاء الاصطناعي "يعزز مهاراتهم وكفاءتهم"، حيث يمكن للموظفين المبتدئين الآن الحصول على دعم الترميز عند الطلب أو نصائح التحليل من الذكاء الاصطناعي، مما يقلل الاعتماد على طلب المساعدة دائمًا من أعضاء الفريق الأعلى مرتبة (6 حالات استخدام للذكاء الاصطناعي التوليدي في مجال الأمن السيبراني [+ أمثلة] ).

تحسين آخر لـ SOC هو تلخيص الحوادث وتوثيقها آليًابعد معالجة الحادث، يجب على شخص ما كتابة التقرير - وهي مهمة يجدها الكثيرون مملة. يستطيع الذكاء الاصطناعي التوليدي أخذ بيانات الطب الشرعي (سجلات النظام، وتحليل البرامج الضارة، والجدول الزمني للإجراءات) وإنشاء مسودة أولية لتقرير الحادث. تعمل IBM على دمج هذه الإمكانية في QRadar بحيث... "نقرة واحدة" يمكن إعداد ملخص للحادث لأصحاب المصلحة المختلفين (المديرين التنفيذيين، وفرق تكنولوجيا المعلومات، وما إلى ذلك) (كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ ١٠ أمثلة واقعيةهذا لا يوفر الوقت فحسب، بل يضمن أيضًا عدم إغفال أي شيء في التقرير، إذ يُمكن للذكاء الاصطناعي تضمين جميع التفاصيل ذات الصلة باستمرار. وبالمثل، لأغراض الامتثال والتدقيق، يُمكن للذكاء الاصطناعي ملء النماذج أو جداول الأدلة بناءً على بيانات الحوادث.

النتائج الواقعية مُلفتة. أفاد أوائل المُعتمدين على نظام SOAR (تنسيق الأمن وأتمتته والاستجابة له) المُدار بالذكاء الاصطناعي من Swimlane بتحقيق مكاسب إنتاجية هائلة - على سبيل المثال، شهدت شركة Global Data Systems فريق SecOps التابع لها يُدير عددًا أكبر بكثير من الحالات؛ وقال أحد المديرين "ما أفعله اليوم مع 7 محللين قد يتطلب 20 موظفًا بدونه" الأتمتة المدعومة بالذكاء الاصطناعي (كيف يمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني). بعبارة أخرى، يمكن للذكاء الاصطناعي في مركز العمليات الأمنية مضاعفة السعة.في جميع القطاعات، سواءً كانت شركة تقنية تتعامل مع تنبيهات أمن السحابة أو مصنعًا يراقب أنظمة تكنولوجيا التشغيل، ستحقق فرق مركز العمليات الأمنية (SOC) سرعة في الكشف والاستجابة، وتقليل الحوادث الفائتة، وزيادة كفاءة العمليات من خلال تبني مساعدي الذكاء الاصطناعي المُولِّدين. الأمر يتعلق بالعمل بذكاء أكبر، مما يسمح للآلات بإدارة المهام المتكررة والمليئة بالبيانات، ليتمكن البشر من توظيف حدسهم وخبرتهم في المجالات الأكثر أهمية.

إدارة الثغرات الأمنية ومحاكاة التهديدات

يُعدّ تحديد وإدارة الثغرات الأمنية - نقاط الضعف في البرامج أو الأنظمة التي يمكن للمهاجمين استغلالها - وظيفةً أساسيةً في مجال الأمن السيبراني. يُحسّن الذكاء الاصطناعي التوليدي إدارة الثغرات الأمنية من خلال تسريع عملية اكتشافها، والمساعدة في تحديد أولويات التصحيحات، وحتى محاكاة الهجمات على تلك الثغرات لتحسين الجاهزية. باختصار، يُساعد الذكاء الاصطناعي المؤسسات على اكتشاف ثغراتها الأمنية وإصلاحها بسرعة أكبر. بشكل استباقي اختبار الدفاعات قبل أن يقوم بها المهاجمون الحقيقيون.

أحد التطبيقات المهمة هو استخدام الذكاء الاصطناعي التوليدي لـ مراجعة الكود الآلي واكتشاف الثغرات الأمنيةغالبًا ما تحتوي قواعد البيانات الكبيرة (وخاصةً الأنظمة القديمة) على ثغرات أمنية لا تُلاحظ. يمكن تدريب نماذج الذكاء الاصطناعي التوليدي على ممارسات الترميز الآمنة وأنماط الأخطاء الشائعة، ثم إطلاقها على الشيفرة المصدرية أو الملفات الثنائية المُجمّعة لاكتشاف الثغرات المحتملة. على سبيل المثال، طوّر باحثو NVIDIA خط أنابيب ذكاء اصطناعي توليدي يُمكنه تحليل حاويات البرامج القديمة وتحديد الثغرات الأمنية. "بدقة عالية - أسرع بما يصل إلى 4 مرات من الخبراء البشريين." (6 حالات استخدام للذكاء الاصطناعي التوليدي في مجال الأمن السيبراني [+ أمثلة] تعلّم الذكاء الاصطناعي بشكل أساسي شكل الشيفرات غير الآمنة، وتمكّن من فحص برمجيات قديمة لعقود لتحديد الوظائف والمكتبات الخطرة، مما سرّع بشكل كبير عملية التدقيق اليدوي للشيفرات، البطيئة عادةً. يُمكن لهذا النوع من الأدوات أن يُحدث نقلة نوعية في قطاعات مثل القطاع المالي أو الحكومي التي تعتمد على قواعد بيانات قديمة وكبيرة، إذ يُساعد الذكاء الاصطناعي على تحديث الأمن من خلال الكشف عن المشكلات التي قد يستغرق الموظفون أشهرًا أو سنوات لاكتشافها (إن وُجدت أصلًا).

كما يساعد الذكاء الاصطناعي التوليدي في سير عمل إدارة الثغرات الأمنية من خلال معالجة نتائج فحص الثغرات الأمنية وتحديد أولوياتها. أدوات مثل Tenable التعرض للذكاء الاصطناعي استخدم الذكاء الاصطناعي التوليدي للسماح للمحللين بالاستعلام عن بيانات الثغرات الأمنية بلغة بسيطة والحصول على إجابات فورية (كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ ١٠ أمثلة واقعية).يمكن لـ ExposureAI "تلخيص مسار الهجوم الكامل في سرد" لثغرة أمنية حرجة معينة، موضحًا كيف يمكن للمهاجم ربطها بثغرات أخرى لاختراق النظام. كما يقترح إجراءات لمعالجة المشكلة ويجيب على أسئلة المتابعة حول المخاطر. هذا يعني أنه عند الإعلان عن ثغرة أمنية حرجة جديدة (CVE)، يمكن للمحلل أن يسأل الذكاء الاصطناعي: "هل تأثر أي من خوادمنا بهذه الثغرة الأمنية الخطيرة وما هو أسوأ سيناريو محتمل إذا لم نقم بإصلاحها؟" والحصول على تقييم واضح مُستمد من بيانات المسح الخاصة بالمؤسسة. من خلال وضع الثغرات الأمنية في سياقها (على سبيل المثال، هذه الثغرات مُتاحة على الإنترنت وعلى خادم عالي القيمة، لذا فهي ذات أولوية قصوى)، يُساعد الذكاء الاصطناعي المُولِّد الفرق على إجراء التصحيحات بذكاء وبموارد محدودة.

بالإضافة إلى العثور على نقاط الضعف المعروفة وإدارتها، يساهم الذكاء الاصطناعي التوليدي في اختبار الاختراق ومحاكاة الهجوم - اكتشاف أساسا مجهول الثغرات الأمنية أو اختبار ضوابط الأمان. استُخدمت الشبكات التوليدية التنافسية (GANs)، وهي نوع من الذكاء الاصطناعي التوليدي، لإنشاء بيانات مصطنعة تُحاكي حركة مرور الشبكة الحقيقية أو سلوك المستخدم، والتي قد تتضمن أنماط هجوم خفية.اقترحت دراسة أجريت عام 2023 استخدام شبكات GAN لتوليد حركة مرور هجومية واقعية لتدريب أنظمة اكتشاف التطفل (6 حالات استخدام للذكاء الاصطناعي التوليدي في مجال الأمن السيبراني [+ أمثلة] من خلال تزويد نظام اكتشاف التسلل (IDS) بسيناريوهات هجومية مُصممة بالذكاء الاصطناعي (لا تنطوي على مخاطر استخدام برامج ضارة فعلية على شبكات الإنتاج)، يمكن للمؤسسات تدريب دفاعاتها على التعرف على التهديدات الجديدة دون انتظار التعرض لها في الواقع. وبالمثل، يمكن للذكاء الاصطناعي محاكاة مهاجم يستكشف النظام - على سبيل المثال، تجربة تقنيات استغلال مختلفة تلقائيًا في بيئة آمنة لمعرفة مدى نجاح أي منها. ترى وكالة مشاريع البحوث الدفاعية المتقدمة الأمريكية (DARPA) واعدًا هنا: يستخدم تحدي الذكاء الاصطناعي السيبراني لعام 2023 الذكاء الاصطناعي التوليدي (مثل نماذج اللغة الكبيرة) بشكل صريح. "العثور على الثغرات الأمنية في البرامج مفتوحة المصدر وإصلاحها تلقائيًا" كجزء من المسابقة ( وكالة مشاريع البحوث الدفاعية المتقدمة (DARPA) تهدف إلى تطوير تطبيقات الذكاء الاصطناعي والاستقلالية التي يمكن للمقاتلين الوثوق بها > وزارة الدفاع الأمريكية > أخبار وزارة الدفاع وتؤكد هذه المبادرة أن الذكاء الاصطناعي لا يساعد فقط في إصلاح الثغرات المعروفة؛ بل إنه يعمل بشكل نشط على اكتشاف ثغرات جديدة واقتراح إصلاحات، وهي مهمة كانت تقتصر تقليديا على الباحثين الأمنيين المهرة (والمكلفين).

يمكن للذكاء الاصطناعي التوليدي أن يخلق أيضًا مصائد العسل الذكية والتوائم الرقمية للدفاع. تُطوّر الشركات الناشئة أنظمة وهمية تعتمد على الذكاء الاصطناعي، تُحاكي الخوادم أو الأجهزة الحقيقية بشكل مُقنع. وكما أوضح أحد الرؤساء التنفيذيين، يُمكن للذكاء الاصطناعي المُولّد "استنساخ الأنظمة الرقمية لتقليد الأنظمة الحقيقية وجذب المتسللين" (6 حالات استخدام للذكاء الاصطناعي التوليدي في مجال الأمن السيبراني [+ أمثلة] هذه المصائد المُولّدة بالذكاء الاصطناعي تتصرف كالبيئة الحقيقية (مثل جهاز إنترنت أشياء مزيف يُرسل بيانات قياس عن بُعد عادية)، ولكنها موجودة فقط لجذب المهاجمين. عندما يستهدف المهاجم الطُعم، يكون الذكاء الاصطناعي قد خدعه ليكشف عن أساليبه، والتي يمكن للمدافعين دراستها واستخدامها لتعزيز الأنظمة الحقيقية. يوفر هذا المفهوم، المدعوم بالنمذجة التوليدية، طريقةً استشرافيةً لـ اقلب الطاولة على المهاجمين، باستخدام الخداع المعزز بالذكاء الاصطناعي.

في مختلف القطاعات، تُقلل إدارة الثغرات الأمنية بشكل أسرع وأكثر ذكاءً من الاختراقات. ففي مجال تكنولوجيا المعلومات في مجال الرعاية الصحية، على سبيل المثال، قد يكتشف الذكاء الاصطناعي بسرعة وجود مكتبة قديمة معرضة للخطر في جهاز طبي، ويطالب بإصلاح البرامج الثابتة قبل أن يستغلها أي مهاجم. وفي مجال الخدمات المصرفية، يمكن للذكاء الاصطناعي محاكاة هجوم داخلي على تطبيق جديد لضمان سلامة بيانات العملاء في جميع السيناريوهات. وهكذا، يعمل الذكاء الاصطناعي التوليدي كأداة فحص واختبار للوضع الأمني ​​للمؤسسات: فهو يُسلط الضوء على العيوب الخفية ويضغط على الأنظمة بطرق مبتكرة لضمان مرونتها.

إنشاء الكود الآمن وتطوير البرمجيات

لا تقتصر مواهب الذكاء الاصطناعي التوليدي على اكتشاف الهجمات - بل تمتد أيضًا إلى إنشاء أنظمة أكثر أمانًا منذ البدايةفي مجال تطوير البرمجيات، تُساعد مُولِّدات أكواد الذكاء الاصطناعي (مثل GitHub Copilot وOpenAI Codex وغيرهما) المُطوِّرين على كتابة أكوادهم بشكل أسرع من خلال اقتراح مُقتطفات أكواد أو حتى وظائف كاملة. وينصبُّ تركيز الأمن السيبراني على ضمان أمان هذه الأجزاء المُقترحة من أكواد الذكاء الاصطناعي، واستخدامها لتحسين ممارسات البرمجة.

من ناحية أخرى، يمكن للذكاء الاصطناعي التوليدي أن يعمل كـ مساعد ترميز يتضمن أفضل ممارسات الأمانيمكن للمطورين المطالبة بأداة الذكاء الاصطناعي، "إنشاء وظيفة إعادة تعيين كلمة المرور في بايثون" ومن الأفضل استعادة شيفرة برمجية لا تعمل فحسب، بل تتبع أيضًا إرشادات الأمان (مثل التحقق من صحة الإدخالات، والتسجيل، ومعالجة الأخطاء دون تسريب المعلومات، إلخ). يمكن لمثل هذا المساعد، المُدرَّب على أمثلة شيفرة برمجية آمنة شاملة، أن يُساعد في تقليل الأخطاء البشرية التي تُؤدي إلى ثغرات أمنية. على سبيل المثال، إذا نسي أحد المطورين تنظيف مدخلات المستخدم (مما يفتح الباب أمام حقن SQL أو مشاكل مماثلة)، يُمكن للذكاء الاصطناعي إما تضمين ذلك افتراضيًا أو تحذيره.يتم الآن ضبط بعض أدوات ترميز الذكاء الاصطناعي باستخدام البيانات التي تركز على الأمان لخدمة هذا الغرض الدقيق - بشكل أساسي، برمجة أزواج الذكاء الاصطناعي مع ضمير أمني.

ومع ذلك، هناك جانب سلبي: يُمكن للذكاء الاصطناعي التوليدي أن يُنشئ ثغرات أمنية بسهولة إذا لم يُدار بشكل صحيح. وكما أشار خبير الأمن في سوفوس، بن فيرشايرين، فإن استخدام الذكاء الاصطناعي التوليدي للترميز... "مناسب للكود القصير الذي يمكن التحقق منه، ولكنه محفوف بالمخاطر عند دمج الكود غير المدقق" في أنظمة الإنتاج. يكمن الخطر في أن الذكاء الاصطناعي قد يُنتج شيفرات صحيحة منطقيًا لكنها غير آمنة بطرق قد لا يلاحظها غير المختص. علاوة على ذلك، قد يؤثر مُخربون عمدًا على نماذج الذكاء الاصطناعي العامة بتزويدها بأنماط شيفرات ضعيفة (شكل من أشكال إفساد البيانات)، مما يدفع الذكاء الاصطناعي إلى اقتراح شيفرات غير آمنة. معظم المطورين ليسوا خبراء أمنيينلذا، إذا اقترح الذكاء الاصطناعي حلاً مناسبًا، فقد يستخدمه بشكل أعمى، دون أن يدرك أنه يحتوي على عيب (6 حالات استخدام للذكاء الاصطناعي التوليدي في مجال الأمن السيبراني [+ أمثلة] إن هذا القلق حقيقي - في الواقع، هناك قائمة OWASP لأفضل 10 الآن لطلاب ماجستير القانون (نماذج اللغة الكبيرة) والتي تحدد المخاطر الشائعة مثل هذا في استخدام الذكاء الاصطناعي للترميز.

ولمواجهة هذه المشاكل يقترح الخبراء "محاربة الذكاء الاصطناعي التوليدي بالذكاء الاصطناعي التوليدي" في مجال البرمجة. عمليًا، هذا يعني استخدام الذكاء الاصطناعي مراجعة واختبار الكود كتبه ذكاء اصطناعي آخر (أو بشر). يستطيع الذكاء الاصطناعي فحص عمليات إرسال الكود الجديدة أسرع بكثير من مُراجع الكود البشري، ويُحدد نقاط الضعف أو المشاكل المنطقية المحتملة. نشهد بالفعل ظهور أدوات تُدمج في دورة حياة تطوير البرمجيات: تُكتب الكودات (ربما بمساعدة الذكاء الاصطناعي)، ثم يُراجعها نموذج توليدي مُدرّب على مبادئ الكود الآمن ويُنشئ تقريرًا عن أي مشاكل (مثل استخدام وظائف مُهملة، أو عمليات تحقق مفقودة من المصادقة، إلخ). يُعد بحث NVIDIA، المذكور سابقًا، والذي حقق اكتشافًا أسرع للثغرات في الكود بأربع مرات، مثالًا على تسخير الذكاء الاصطناعي لتحليل الكود الآمن (6 حالات استخدام للذكاء الاصطناعي التوليدي في مجال الأمن السيبراني [+ أمثلة] ).

علاوة على ذلك، يمكن للذكاء الاصطناعي التوليدي أن يساعد في إنشاء تكوينات وبرامج نصية آمنةعلى سبيل المثال، إذا احتاجت شركة ما إلى نشر بنية تحتية سحابية آمنة، يمكن للمهندس أن يطلب من الذكاء الاصطناعي إنشاء نصوص برمجية للتكوين (البنية التحتية كرمز) تتضمن عناصر تحكم أمنية (مثل تجزئة الشبكة بشكل صحيح، وأدوار إدارة الهوية والوصول ذات الامتيازات الأقل). يستطيع الذكاء الاصطناعي، بعد تدريبه على آلاف هذه التكوينات، إنتاج خط أساس يقوم المهندس بضبطه بدقة. هذا يُسرّع الإعداد الآمن للأنظمة ويُقلل من أخطاء التكوين الخاطئ، وهي مصدر شائع لحوادث أمن السحابة.

تستفيد بعض المؤسسات أيضًا من الذكاء الاصطناعي التوليدي للحفاظ على قاعدة معرفية لأنماط الترميز الآمنة. إذا لم يكن المطور متأكدًا من كيفية تنفيذ ميزة معينة بأمان، فيمكنه الاستعلام من نظام ذكاء اصطناعي داخلي استفاد من مشاريع الشركة السابقة وإرشاداتها الأمنية. قد يُرجع الذكاء الاصطناعي نهجًا مُوصى به أو حتى مقتطفًا من الكود يتوافق مع المتطلبات الوظيفية ومعايير أمان الشركة. وقد استُخدم هذا النهج من قِبل أدوات مثل أتمتة الاستبيانات في Secureframe، الذي يستخرج الإجابات من سياسات الشركة والحلول السابقة لضمان استجابات متسقة ودقيقة (إنشاء وثائق آمنة بشكل أساسي) (كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ ١٠ أمثلة واقعية). يُترجم المفهوم إلى البرمجة: الذكاء الاصطناعي الذي "يتذكر" كيفية تنفيذ شيء ما بشكل آمن من قبل ويرشدك إلى القيام بذلك بهذه الطريقة مرة أخرى.

باختصار، يؤثر الذكاء الاصطناعي التوليدي على تطوير البرمجيات من خلال جعل مساعدة الترميز الآمنة أكثر سهولة في الوصول إليها. الصناعات التي تطور الكثير من البرامج المخصصة - التكنولوجيا، والتمويل، والدفاع، وما إلى ذلك.سيستفيد المطورون من وجود مساعدي ذكاء اصطناعي، لا يسرّعون عملية البرمجة فحسب، بل يعملون أيضًا كمراقب أمني يقظ. عند إدارتها بشكل صحيح، يمكن لأدوات الذكاء الاصطناعي هذه الحد من ظهور ثغرات أمنية جديدة، ومساعدة فرق التطوير على الالتزام بأفضل الممارسات، حتى لو لم يكن لدى الفريق خبير أمني مشارك في كل خطوة. والنتيجة هي برنامج أكثر مقاومة للهجمات منذ البداية.

دعم الاستجابة للحوادث

عند وقوع حادثة أمن سيبراني - سواءً كانت انتشارًا لبرامج ضارة، أو خرقًا للبيانات، أو انقطاعًا للنظام نتيجة هجوم - يكون الوقت حاسمًا. يُستخدم الذكاء الاصطناعي التوليدي بشكل متزايد دعم فرق الاستجابة للحوادث (IR) في احتواء الحوادث ومعالجتها بشكل أسرع وبمعلومات أكثر توافرًا. الفكرة هي أن الذكاء الاصطناعي قادر على تحمل بعض أعباء التحقيق والتوثيق أثناء وقوع الحادث، بل واقتراح أو أتمتة بعض إجراءات الاستجابة.

أحد الأدوار الرئيسية للذكاء الاصطناعي في العلاقات مع المستثمرين هو تحليل الحوادث في الوقت الحقيقي وتلخيصهافي خضم الحادث، قد يحتاج المستجيبون إلى إجابات لأسئلة مثل "كيف دخل المهاجم؟"، "ما هي الأنظمة المتأثرة؟"، و "ما هي البيانات التي قد تتعرض للخطر؟"يستطيع الذكاء الاصطناعي التوليدي تحليل السجلات والتنبيهات وبيانات الأدلة الجنائية من الأنظمة المتأثرة، وتوفير رؤى سريعة. على سبيل المثال، يتيح برنامج Microsoft Security Copilot للمستجيب للحوادث إدخال أدلة متنوعة (ملفات، عناوين URL، سجلات الأحداث) وطلب جدول زمني أو ملخص.Microsoft Security Copilot هو مساعد GPT-4 AI الجديد للأمن السيبراني | The Verge).قد تستجيب الذكاء الاصطناعي بـ: من المرجح أن الاختراق بدأ برسالة بريد إلكتروني احتيالية للمستخدم JohnDoe في الساعة 10:53 بتوقيت جرينتش تحتوي على البرنامج الخبيث X. بمجرد تنفيذه، أنشأ البرنامج الخبيث بابًا خلفيًا تم استخدامه بعد يومين للانتقال أفقيًا إلى خادم الشؤون المالية، حيث جمع البيانات. إن الحصول على هذه الصورة المتماسكة في دقائق بدلاً من ساعات يمكّن الفريق من اتخاذ قرارات مستنيرة (مثل الأنظمة التي يجب عزلها) بشكل أسرع بكثير.

الذكاء الاصطناعي التوليدي يمكن أن يكون أيضا اقتراح إجراءات الاحتواء والمعالجةعلى سبيل المثال، إذا أُصيبت نقطة نهاية ببرنامج فدية، يُمكن لأداة الذكاء الاصطناعي إنشاء نص برمجي أو مجموعة من التعليمات لعزل ذلك الجهاز، وتعطيل حسابات معينة، وحظر عناوين IP الخبيثة المعروفة على جدار الحماية - وهو في الأساس تنفيذٌ لدليل برمجي. تُشير شركة بالو ألتو نتوركس إلى أن الذكاء الاصطناعي التوليدي قادر على "إنشاء الإجراءات أو النصوص المناسبة بناءً على طبيعة الحادث"، أتمتة الخطوات الأولية للاستجابة (ما هو الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ - بالو ألتو نتوركسفي حالة إرهاق فريق الأمن (مثلاً، هجوم واسع النطاق على مئات الأجهزة)، قد ينفذ الذكاء الاصطناعي بعض هذه الإجراءات مباشرةً في ظل ظروف مُعتمدة مسبقًا، متصرفًا كجهاز استجابة مبتدئ يعمل بلا كلل. على سبيل المثال، يمكن لوكيل الذكاء الاصطناعي إعادة تعيين بيانات الاعتماد التي يراها مُخترقة تلقائيًا، أو عزل الأجهزة المُضيفة التي تُظهر نشاطًا ضارًا يُطابق ملف الحادثة.

أثناء الاستجابة للحوادث، يُعد التواصل أمرًا بالغ الأهمية، سواءً داخل الفريق أو مع الجهات المعنية. ويمكن للذكاء الاصطناعي التوليدي أن يُساعد من خلال: صياغة تقارير أو ملخصات تحديث الحوادث أثناء التنقلبدلاً من أن يتوقف المهندس عن استكشاف الأخطاء وإصلاحها لكتابة تحديث عبر البريد الإلكتروني، يمكنه أن يطلب من الذكاء الاصطناعي، "تلخيص ما حدث في هذه الحادثة حتى الآن لإبلاغ المسؤولين." يمكن للذكاء الاصطناعي، بعد استيعاب بيانات الحادث، إنتاج ملخص موجز: حتى الساعة الثالثة مساءً، تمكن المهاجمون من الوصول إلى حسابي مستخدم وخمسة خوادم. تشمل البيانات المتأثرة سجلات العملاء في قاعدة البيانات X. إجراءات الاحتواء: تم إلغاء وصول VPN للحسابات المخترقة وعزل الخوادم. الخطوات التالية: فحص أي آليات استمرارية." ويمكن للمستجيب بعد ذلك التحقق من ذلك أو تعديله بسرعة وإرساله، مما يضمن إبقاء أصحاب المصلحة على اطلاع بالمعلومات الدقيقة والحديثة.

بعد أن تهدأ الأمور، عادةً ما يكون هناك تقرير مفصل عن الحادثة يجب إعداده وتجميع الدروس المستفادة. وهذا مجال آخر يتألق فيه دعم الذكاء الاصطناعي، إذ يمكنه مراجعة جميع بيانات الحادثة و... إنشاء تقرير ما بعد الحادث تغطي الأسباب الجذرية والتسلسل الزمني والتأثير والتوصيات. على سبيل المثال، تدمج شركة IBM الذكاء الاصطناعي التوليدي لإنشاء "ملخصات بسيطة لحالات وحوادث أمنية يمكن مشاركتها مع أصحاب المصلحة" بضغطة زر (كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ ١٠ أمثلة واقعيةمن خلال تبسيط التقارير اللاحقة للعمل، يمكن للمؤسسات تنفيذ التحسينات بشكل أسرع والحصول أيضًا على توثيق أفضل لأغراض الامتثال.

أحد الاستخدامات المبتكرة التطلعية هو محاكاة الحوادث المدعومة بالذكاء الاصطناعيعلى غرار تدريبات التعامل مع الحرائق، تستخدم بعض الشركات الذكاء الاصطناعي التوليدي لدراسة سيناريوهات الحوادث المحتملة. قد يُحاكي الذكاء الاصطناعي كيفية انتشار برنامج الفدية بناءً على تصميم الشبكة، أو كيفية قيام مُطلع داخلي باستخراج البيانات، ثم يُقيّم فعالية خطط الاستجابة الحالية. يُساعد هذا الفرق على إعداد وتحسين خطط الاستجابة قبل وقوع حادث حقيقي. يشبه الأمر وجود مُستشار استجابة للحوادث في تطور مُستمر، يُختبر جاهزيتكم باستمرار.

في القطاعات عالية المخاطر، مثل القطاع المالي أو الرعاية الصحية، حيث يكون توقف الخدمة أو فقدان البيانات بسبب الحوادث مكلفًا للغاية، تُعدّ قدرات الاستجابة للحوادث المدعومة بالذكاء الاصطناعي جذابة للغاية. لا يستطيع المستشفى الذي يواجه حادثًا إلكترونيًا تحمل انقطاعات طويلة في النظام - لذا فإن الذكاء الاصطناعي الذي يُساعد بسرعة في احتواء الحادث قد يكون مُنقذًا للحياة. وبالمثل، يمكن للمؤسسات المالية استخدام الذكاء الاصطناعي للتعامل مع الفرز الأولي لأي تسلل احتيالي مُشتبه به في الساعة الثالثة صباحًا، بحيث يكون الكثير من العمل التحضيري (مثل تسجيل خروج الحسابات المتأثرة، وحظر المعاملات، وما إلى ذلك) قد تم إنجازه بالفعل بحلول الوقت الذي يكون فيه الموظفون المُناوبون متصلين بالإنترنت. تعزيز فرق الاستجابة للحوادث باستخدام الذكاء الاصطناعي التوليدييمكن للمؤسسات تقليل أوقات الاستجابة بشكل كبير وتحسين دقة معالجتها، مما يؤدي في نهاية المطاف إلى تخفيف الأضرار الناجمة عن الحوادث الإلكترونية.

التحليلات السلوكية واكتشاف الشذوذ

يمكن اكتشاف العديد من الهجمات الإلكترونية من خلال ملاحظة أي انحراف عن السلوك "الطبيعي" - سواءً كان حساب مستخدم يُنزّل كمية غير عادية من البيانات أو جهاز شبكة يتصل فجأةً بمضيف غير مألوف. يوفر الذكاء الاصطناعي التوليدي تقنيات متقدمة لـ تحليل السلوك واكتشاف الشذوذ، تعلم الأنماط الطبيعية للمستخدمين والأنظمة ثم الإشارة عندما يبدو شيء ما غير طبيعي.

غالبًا ما يستخدم الكشف التقليدي عن الشذوذ عتبات إحصائية أو تعلّمًا آليًا بسيطًا على مقاييس محددة (ارتفاعات استخدام وحدة المعالجة المركزية، تسجيل الدخول في أوقات غير اعتيادية، إلخ). يمكن للذكاء الاصطناعي التوليدي تطوير هذا الأمر من خلال إنشاء ملفات تعريف سلوكية أكثر دقة. على سبيل المثال، يمكن لنموذج الذكاء الاصطناعي استيعاب بيانات تسجيل الدخول، وأنماط الوصول إلى الملفات، وعادات البريد الإلكتروني لموظف مع مرور الوقت، وتكوين فهم متعدد الأبعاد لسلوكه "الطبيعي". إذا قام هذا الحساب لاحقًا بشيء خارج عن نطاقه الطبيعي بشكل كبير (مثل تسجيل الدخول من بلد جديد والوصول إلى مجموعة كبيرة من ملفات الموارد البشرية في منتصف الليل)، فسيكتشف الذكاء الاصطناعي انحرافًا ليس فقط في مقياس واحد، بل في نمط سلوكي كامل لا يتناسب مع ملف تعريف المستخدم. من الناحية الفنية، يمكن للنماذج التوليدية (مثل أجهزة التشفير التلقائي أو نماذج التسلسل) نمذجة ما يبدو عليه "الطبيعي" ثم توليد نطاق متوقع من السلوك. عندما يخرج الواقع عن هذا النطاق، يُصنف على أنه شذوذ.ما هو الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ - بالو ألتو نتوركس).

أحد التطبيقات العملية هو مراقبة حركة المرور على الشبكةوفقًا لمسح أُجري عام 2024، فإن 54% من سكان الولايات المتحدةأشارت المنظمات إلى مراقبة حركة المرور على الشبكة باعتبارها حالة استخدام رئيسية للذكاء الاصطناعي في مجال الأمن السيبراني (أمريكا الشمالية: أفضل حالات استخدام الذكاء الاصطناعي في الأمن السيبراني على مستوى العالم بحلول عام 2024يمكن للذكاء الاصطناعي التوليدي تعلم أنماط الاتصال العادية لشبكة المؤسسة - أي الخوادم تتحدث عادةً مع بعضها البعض، وحجم البيانات المنقولة خلال ساعات العمل مقابل الليل، وما إلى ذلك. إذا بدأ المهاجم في استخراج البيانات من الخادم، حتى لو ببطء لتجنب الكشف، فقد يلاحظ النظام القائم على الذكاء الاصطناعي ذلك "لا يرسل الخادم A أبدًا 500 ميجابايت من البيانات في الساعة 2 صباحًا إلى عنوان IP خارجي" وأصدر تنبيهًا. لأن الذكاء الاصطناعي لا يستخدم قواعد ثابتة فحسب، بل نموذجًا متطورًا لسلوك الشبكة، فإنه يستطيع اكتشاف الشذوذات الدقيقة التي قد تغفلها القواعد الثابتة (مثل "تنبيه إذا كانت البيانات > X ميجابايت") أو تُشير إليها عن طريق الخطأ. هذه الطبيعة التكيفية هي ما يجعل اكتشاف الشذوذ المدعوم بالذكاء الاصطناعي فعالًا في بيئات مثل شبكات المعاملات المصرفية، والبنية التحتية السحابية، وأسطول أجهزة إنترنت الأشياء، حيث يُعد تحديد قواعد ثابتة للوضع الطبيعي مقابل الوضع غير الطبيعي أمرًا بالغ التعقيد.

يساعد الذكاء الاصطناعي التوليدي أيضًا في تحليلات سلوك المستخدم (UBA)، وهو أمر أساسي لاكتشاف التهديدات الداخلية أو الحسابات المخترقة. من خلال إنشاء خط أساس لكل مستخدم أو كيان، يمكن للذكاء الاصطناعي اكتشاف أشياء مثل إساءة استخدام بيانات الاعتماد. على سبيل المثال، إذا بدأ بوب من قسم المحاسبة فجأة في الاستعلام عن قاعدة بيانات العملاء (وهو أمر لم يفعله من قبل)، فإن نموذج الذكاء الاصطناعي لسلوك بوب سيصنف هذا على أنه غير عادي. قد لا يكون برنامجًا ضارًا - فقد تكون حالة سرقة بيانات اعتماد بوب واستخدامها من قبل مهاجم، أو أن بوب يستكشف حيث لا ينبغي له ذلك. وفي كلتا الحالتين، يحصل فريق الأمان على إشعار مسبق للتحقيق. توجد أنظمة UBA التي يقودها الذكاء الاصطناعي في العديد من منتجات الأمان، وتعمل تقنيات النمذجة التوليدية على زيادة دقتها وتقليل الإنذارات الكاذبة من خلال مراعاة السياق (ربما يكون بوب في مشروع خاص، وما إلى ذلك، والذي يمكن للذكاء الاصطناعي أحيانًا استنتاجه من بيانات أخرى).

في مجال إدارة الهوية والوصول، كشف التزييف العميق هناك حاجة متزايدة للذكاء الاصطناعي التوليدي، إذ يُمكنه إنشاء أصوات ومقاطع فيديو مُصطنعة تُخدع الأمان البيومتري. ومن المثير للاهتمام أن الذكاء الاصطناعي التوليدي يُمكنه أيضًا المساعدة في كشف هذه التزييفات العميقة من خلال تحليل التفاصيل الدقيقة في الصوت أو الفيديو التي يصعب على البشر ملاحظتها. وقد رأينا مثالًا على ذلك مع شركة أكسنتشر، التي استخدمت الذكاء الاصطناعي التوليدي لمحاكاة عدد لا يُحصى من تعابير الوجه وحالاته. يدرب أنظمة القياسات الحيوية الخاصة بهم للتمييز بين المستخدمين الحقيقيين والتزييفات العميقة المُولّدة بالذكاء الاصطناعي. على مدار خمس سنوات، ساعد هذا النهج شركة أكسنتشر على التخلص من كلمات المرور في 90% من أنظمتها (بالانتقال إلى القياسات الحيوية وعوامل أخرى) وتقليل الهجمات بنسبة 60% (6 حالات استخدام للذكاء الاصطناعي التوليدي في مجال الأمن السيبراني [+ أمثلة] في الأساس، استخدموا الذكاء الاصطناعي التوليدي لتعزيز المصادقة البيومترية، مما جعلها أكثر صمودًا في وجه الهجمات التوليدية (مثال رائع على مواجهة الذكاء الاصطناعي للذكاء الاصطناعي). يُعد هذا النوع من النمذجة السلوكية - في هذه الحالة، التمييز بين وجه بشري حي ووجه مُصنّع بواسطة الذكاء الاصطناعي - أمرًا بالغ الأهمية في ظل اعتمادنا المتزايد على الذكاء الاصطناعي في المصادقة.

يُمكن تطبيق اكتشاف الشذوذ المُدعّم بالذكاء الاصطناعي المُولّد في مختلف القطاعات: في مجال الرعاية الصحية، يُراقب سلوك الأجهزة الطبية بحثًا عن أي علامات اختراق؛ وفي قطاع المالية، يُراقب أنظمة التداول بحثًا عن أي أنماط غير طبيعية قد تُشير إلى احتيال أو تلاعب خوارزمي؛ وفي قطاع الطاقة/المرافق، يُراقب إشارات أنظمة التحكم بحثًا عن أي علامات اختراق. الاتساع (النظر إلى جميع جوانب السلوك) و العمق (فهم الأنماط المعقدة) إن ما يوفره الذكاء الاصطناعي التوليدي يجعله أداة فعّالة لرصد مؤشرات الحوادث السيبرانية. ومع تزايد تسلل التهديدات، واختفائها بين العمليات الاعتيادية، تُصبح هذه القدرة على تحديد "الوضع الطبيعي" بدقة والصراخ عند حدوث أي انحراف أمرًا بالغ الأهمية.وبالتالي، يعمل الذكاء الاصطناعي التوليدي كحارس لا يعرف الكلل، ويتعلم باستمرار ويقوم بتحديث تعريفه للوضع الطبيعي لمواكبة التغييرات في البيئة، وينبه فرق الأمن إلى الشذوذ الذي يستحق الفحص الدقيق.

فرص وفوائد الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني

يؤدي تطبيق الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني إلى جلب مجموعة كبيرة من الفرص والفوائد للمؤسسات الراغبة في استخدام هذه الأدوات. نلخص أدناه المزايا الرئيسية التي تجعل الذكاء الاصطناعي التوليدي إضافةً قيّمةً لبرامج الأمن السيبراني:

  • اكتشاف التهديدات والاستجابة لها بشكل أسرع: تستطيع أنظمة الذكاء الاصطناعي التوليدي تحليل كميات هائلة من البيانات آنيًا، والتعرف على التهديدات أسرع بكثير من التحليل البشري اليدوي. هذه الميزة في السرعة تعني الكشف المبكر عن الهجمات واحتواء الحوادث بشكل أسرع. عمليًا، يمكن للمراقبة الأمنية المدعومة بالذكاء الاصطناعي اكتشاف التهديدات التي يستغرق البشر وقتًا أطول بكثير للتعامل معها. من خلال الاستجابة السريعة للحوادث (أو حتى تنفيذ الاستجابات الأولية بشكل مستقل)، يمكن للمؤسسات تقليل وقت بقاء المهاجمين في شبكاتها بشكل كبير، مما يقلل الضرر إلى أدنى حد.

  • تحسين الدقة وتغطية التهديدات: بفضل التعلم المستمر من البيانات الجديدة، تستطيع النماذج التوليدية التكيف مع التهديدات المتطورة ورصد مؤشرات أكثر دقة للنشاط الخبيث. يؤدي هذا إلى تحسين دقة الكشف (انخفاض عدد النتائج السلبية والإيجابية الخاطئة) مقارنةً بالقواعد الثابتة. على سبيل المثال، يستطيع الذكاء الاصطناعي الذي تعلّم السمات المميزة لرسائل التصيد الاحتيالي أو سلوك البرامج الضارة تحديد متغيرات لم تُرصد من قبل. والنتيجة هي تغطية أوسع لأنواع التهديدات - بما في ذلك الهجمات الجديدة - مما يعزز الوضع الأمني ​​العام. كما تكتسب فرق الأمن رؤى تفصيلية من تحليلات الذكاء الاصطناعي (مثل تفسيرات سلوك البرامج الضارة)، مما يتيح دفاعات أكثر دقة واستهدافًا. (ما هو الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ - بالو ألتو نتوركس).

  • أتمتة المهام المتكررة: يتفوق الذكاء الاصطناعي التوليدي في أتمتة مهام الأمن الروتينية والمكثفة، بدءًا من فحص السجلات وتجميع التقارير وصولًا إلى كتابة نصوص الاستجابة للحوادث. يقلل العبء على المحللين البشريين، مما يتيح لهم التركيز على الاستراتيجية عالية المستوى واتخاذ القرارات المعقدة (ما هو الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ - بالو ألتو نتوركسيمكن للذكاء الاصطناعي التعامل مع المهام الروتينية والمهمة، مثل فحص الثغرات الأمنية، وتدقيق التكوين، وتحليل نشاط المستخدم، وإعداد تقارير الامتثال (أو على الأقل صياغتها أوليًا). ومن خلال التعامل مع هذه المهام بسرعة فائقة، لا يُحسّن الذكاء الاصطناعي الكفاءة فحسب، بل يُقلل أيضًا من الخطأ البشري (الذي يُعد عاملًا مهمًا في حدوث الخروقات).

  • الدفاع الاستباقي والمحاكاة: يُمكّن الذكاء الاصطناعي المُولِّد المؤسسات من الانتقال من الأمن التفاعلي إلى الأمن الاستباقي. فمن خلال تقنيات مثل محاكاة الهجمات، وتوليد البيانات الاصطناعية، والتدريب القائم على السيناريوهات، يُمكن للمدافعين توقع التهديدات والاستعداد لها. قبل تتجسد في العالم الحقيقي. تستطيع فرق الأمن محاكاة الهجمات الإلكترونية (حملات التصيد الاحتيالي، تفشي البرمجيات الخبيثة، هجمات الحرمان من الخدمة الموزعة، إلخ) في بيئات آمنة لاختبار استجاباتها وسد أي نقاط ضعف. هذا التدريب المستمر، الذي غالبًا ما يستحيل إجراؤه بدقة بالجهد البشري وحده، يُبقي الدفاعات فعّالة ومُحدّثة. يشبه الأمر "تدريبًا على مواجهة الحرائق" الإلكترونية - حيث يمكن للذكاء الاصطناعي إلقاء العديد من التهديدات الافتراضية على دفاعاتك حتى تتمكن من التدرب عليها وتحسينها.

  • تعزيز الخبرة البشرية (الذكاء الاصطناعي كقوة مضاعفة): يعمل الذكاء الاصطناعي التوليدي كمحلل مبتدئ ومستشار ومساعد لا يعرف الكلل في شخص واحد.يمكنه أن يوفر لأعضاء الفريق الأقل خبرة التوجيه والتوصيات المتوقعة عادةً من الخبراء المخضرمين، بشكل فعال إضفاء الطابع الديمقراطي على الخبرة عبر الفريق (6 حالات استخدام للذكاء الاصطناعي التوليدي في مجال الأمن السيبراني [+ أمثلة] يُعد هذا الأمر بالغ الأهمية نظرًا لنقص الكفاءات في مجال الأمن السيبراني، إذ يُساعد الذكاء الاصطناعي الفرق الصغيرة على إنجاز المزيد بموارد أقل. من ناحية أخرى، يستفيد المحللون ذوو الخبرة من قدرة الذكاء الاصطناعي على أداء المهام الروتينية وإظهار رؤى غير واضحة، والتي يمكنهم التحقق منها والعمل بناءً عليها. والنتيجة النهائية هي فريق أمن أكثر إنتاجية وكفاءة، حيث يُعزز الذكاء الاصطناعي تأثير كل فرد بشري.كيف يمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني).

  • تعزيز دعم القرار وإعداد التقارير: من خلال ترجمة البيانات التقنية إلى رؤى باللغة الطبيعية، يُحسّن الذكاء الاصطناعي التوليدي التواصل واتخاذ القرارات. يحصل قادة الأمن على رؤية أوضح للمشاكل من خلال الملخصات المُولّدة بواسطة الذكاء الاصطناعي، ويمكنهم اتخاذ قرارات استراتيجية مدروسة دون الحاجة إلى تحليل البيانات الخام. وبالمثل، يتحسن التواصل بين مختلف الوظائف (مع المديرين التنفيذيين ومسؤولي الامتثال، إلخ) عندما يُعدّ الذكاء الاصطناعي تقارير سهلة الفهم حول الوضع الأمني ​​والحوادث.كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ ١٠ أمثلة واقعيةولا يؤدي هذا إلى بناء الثقة والتوافق بشأن المسائل الأمنية على مستوى القيادة فحسب، بل يساعد أيضًا في تبرير الاستثمارات والتغييرات من خلال التعبير بوضوح عن المخاطر والثغرات التي اكتشفها الذكاء الاصطناعي.

تعني هذه المزايا مجتمعةً أن المؤسسات التي تستفيد من الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني يمكنها تحقيق وضع أمني أقوى مع تكاليف تشغيلية أقل. ويمكنها الاستجابة للتهديدات التي كانت ساحقة في السابق، وسد الثغرات التي لم تُرصد، والتحسين المستمر من خلال حلقات التغذية الراجعة المدعومة بالذكاء الاصطناعي. في نهاية المطاف، يوفر الذكاء الاصطناعي التوليدي فرصةً للتفوق على الخصوم من خلال مواءمة... السرعة والحجم والتطور من الهجمات الحديثة ذات الدفاعات المتطورة بنفس القدر. وكما وجد أحد الاستطلاعات، يتوقع أكثر من نصف قادة الأعمال والقطاع السيبراني اكتشاف التهديدات بشكل أسرع وزيادة الدقة من خلال استخدام الذكاء الاصطناعي التوليدي ([PDF] توقعات الأمن السيبراني العالمي ٢٠٢٥ | المنتدى الاقتصادي العالمي) (الذكاء الاصطناعي التوليدي في الأمن السيبراني: مراجعة شاملة لبرنامج الماجستير في القانون) - وهي شهادة على التفاؤل بشأن فوائد هذه التقنيات.

مخاطر وتحديات استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني

في حين أن الفرص كبيرة، فمن الأهمية بمكان التعامل مع الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني مع فتح أعيننا على المخاطر والتحديات قد تُؤدي الثقة العمياء بالذكاء الاصطناعي أو إساءة استخدامه إلى ثغرات أمنية جديدة. نستعرض أدناه المخاوف والمخاطر الرئيسية، مع شرح سياق كل منها:

  • الاستخدام المعادي من قبل مجرمي الإنترنت: إن القدرات التوليدية نفسها التي تساعد المدافعين قادرة على تمكين المهاجمين. يستخدم مُرتكبو التهديدات بالفعل الذكاء الاصطناعي التوليدي لصياغة رسائل تصيد إلكتروني أكثر إقناعًا، وإنشاء شخصيات وهمية ومقاطع فيديو مُزيفة لأغراض الهندسة الاجتماعية، وتطوير برمجيات خبيثة متعددة الأشكال تتغير باستمرار لتجنب الكشف، وحتى أتمتة جوانب من عمليات الاختراق.ما هو الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ - بالو ألتو نتوركس). يشعر ما يقرب من نصف (46%) من قادة الأمن السيبراني بالقلق من أن الذكاء الاصطناعي التوليدي سيؤدي إلى هجمات معادية أكثر تقدمًا (أمن الذكاء الاصطناعي التوليدي: الاتجاهات والتهديدات واستراتيجيات التخفيفيعني هذا "التسابق في استخدام الذكاء الاصطناعي" أنه مع تبني المدافعين للذكاء الاصطناعي، لن يتخلف المهاجمون كثيرًا (بل قد يكونون متقدمين في بعض المجالات، باستخدام أدوات ذكاء اصطناعي غير منظمة). يجب أن تكون المؤسسات مستعدة للتهديدات المُعززة بالذكاء الاصطناعي، والتي تكون أكثر تواترًا وتطورًا وصعوبة في تتبعها.

  • هلوسات الذكاء الاصطناعي وعدم الدقة: يمكن لنماذج الذكاء الاصطناعي التوليدية إنتاج مخرجات معقول ولكن غير صحيح أو مضلل - ظاهرة تُعرف بالهلوسة. في سياق أمني، قد يُحلل الذكاء الاصطناعي حادثة ما ويستنتج خطأً أن ثغرة أمنية معينة هي السبب، أو قد يُنشئ برنامجًا نصيًا معيبًا لإصلاح المشكلة لا يحتوي على هجوم. قد تكون هذه الأخطاء خطيرة إذا أُخذت على محمل الجد. وكما تُحذر شركة NTT Data، "من المحتمل أن يُنتج الذكاء الاصطناعي المُولِّد محتوى غير صحيح، وتُسمى هذه الظاهرة بالهلوسة... ومن الصعب حاليًا القضاء عليها تمامًا" (المخاطر الأمنية للذكاء الاصطناعي التوليدي والتدابير المضادة، وتأثيرها على الأمن السيبراني | مجموعة إن تي تي داتاقد يؤدي الاعتماد المفرط على الذكاء الاصطناعي دون التحقق إلى توجيه الجهود بشكل خاطئ أو شعور زائف بالأمان. على سبيل المثال، قد يُصنّف الذكاء الاصطناعي نظامًا بالغ الأهمية على أنه آمن بشكل خاطئ، أو على العكس، قد يُثير الذعر من خلال "اكتشاف" خرق لم يحدث. يُعدّ التحقق الدقيق من مخرجات الذكاء الاصطناعي وإشراك البشر في القرارات الحاسمة أمرًا ضروريًا للحد من هذا الخطر.

  • النتائج الإيجابية والسلبية الكاذبة: فيما يتعلق بالهلوسة، إذا كان نموذج الذكاء الاصطناعي مدربًا أو مهيأً بشكل سيئ، فقد المبالغة في وصف النشاط الحميد بأنه خبيث (إيجابيات كاذبة) أو ما هو أسوأ من ذلك، تفويت التهديدات الحقيقية (السلبيات الكاذبة) (كيف يمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني). يمكن أن تُرهق التنبيهات الكاذبة المفرطة فرق الأمن وتؤدي إلى إرهاق التنبيهات (مما يُلغي مكاسب الكفاءة التي وعدت بها الذكاء الاصطناعي)، بينما تُعرّض عمليات الاكتشاف الفائتة المؤسسة للخطر. يُعد ضبط النماذج التوليدية لتحقيق التوازن الصحيح أمرًا صعبًا. فكل بيئة فريدة، وقد لا يعمل الذكاء الاصطناعي على النحو الأمثل فورًا بمجرد تشغيله. كما أن التعلم المستمر سلاح ذو حدين - فإذا تعلم الذكاء الاصطناعي من ردود الفعل غير الدقيقة أو من بيئة متغيرة، فقد تتقلب دقته. يجب على فرق الأمن مراقبة أداء الذكاء الاصطناعي وتعديل الحدود أو تقديم ردود فعل تصحيحية للنماذج. وفي السياقات عالية المخاطر (مثل اكتشاف التسلل للبنية التحتية الحيوية)، قد يكون من الحكمة تشغيل اقتراحات الذكاء الاصطناعي بالتوازي مع الأنظمة الحالية لفترة من الوقت، لضمان توافقها وتكاملها بدلاً من تعارضها.

  • خصوصية البيانات والتسريب: غالبًا ما تتطلب أنظمة الذكاء الاصطناعي التوليدي كميات هائلة من البيانات للتدريب والتشغيل. إذا كانت هذه النماذج قائمة على السحابة أو غير معزولة بشكل صحيح، فهناك خطر تسرب المعلومات الحساسة. قد يُدخل المستخدمون بيانات خاصة أو بيانات شخصية عن غير قصد إلى خدمة ذكاء اصطناعي (مثل طلب تلخيص تقرير حادث سري من ChatGPT)، وقد تصبح هذه البيانات جزءًا من معرفة النموذج. في الواقع، وجدت دراسة حديثة 55% من المدخلات لأدوات الذكاء الاصطناعي التوليدي تحتوي على معلومات حساسة أو معلومات شخصية قابلة للتعريف، مما أثار مخاوف جدية بشأن تسرب البيانات (أمن الذكاء الاصطناعي التوليدي: الاتجاهات والتهديدات واستراتيجيات التخفيف). بالإضافة إلى ذلك، إذا تم تدريب الذكاء الاصطناعي على البيانات الداخلية وتم الاستعلام عنها بطرق معينة، فقد الناتج يجب على المؤسسات تطبيق سياسات صارمة لمعالجة البيانات (مثل استخدام أنظمة ذكاء اصطناعي محلية أو خاصة للمواد الحساسة) وتوعية الموظفين بعدم نشر المعلومات السرية في أدوات الذكاء الاصطناعي العامة. كما أن للوائح الخصوصية (مثل اللائحة العامة لحماية البيانات، إلخ) دورٌ مؤثر، فاستخدام البيانات الشخصية لتدريب الذكاء الاصطناعي دون موافقة أو حماية مناسبة قد يُخالف القوانين.

  • أمن النموذج والتلاعب به: يمكن أن تصبح نماذج الذكاء الاصطناعي التوليدية في حد ذاتها أهدافًا.قد يحاول الخصوم التسمم النموذجي، تغذية البيانات الضارة أو المضللة أثناء مرحلة التدريب أو إعادة التدريب بحيث يتعلم الذكاء الاصطناعي الأنماط غير الصحيحة (كيف يمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبرانيعلى سبيل المثال، قد يُشوّه المهاجم بيانات استخبارات التهديد بمهارة، مما يُصعّب على الذكاء الاصطناعي تمييز برمجيات المهاجم الخبيثة. تكتيك آخر هو الحقن الفوري أو التلاعب بالإخراجحيث يجد المهاجم طريقة لإرسال مُدخلات إلى الذكاء الاصطناعي تُسبب له سلوكًا غير مقصود - ربما لتجاهل إجراءات السلامة أو الكشف عن معلومات لا ينبغي له الكشف عنها (مثل المطالبات الداخلية أو البيانات). بالإضافة إلى ذلك، هناك خطر التهرب من النموذج: يقوم المهاجمون بصياغة مُدخلات مُصممة خصيصًا لخداع الذكاء الاصطناعي. نرى هذا في الأمثلة المُعادية - بيانات مُشوشة قليلاً يراها الإنسان طبيعية، لكن الذكاء الاصطناعي يُصنفها بشكل خاطئ. يُعد ضمان أمان سلسلة توريد الذكاء الاصطناعي (سلامة البيانات، والتحكم في الوصول إلى النماذج، واختبار المتانة المُعادية) جزءًا جديدًا ولكنه ضروري من الأمن السيبراني عند نشر هذه الأدوات (ما هو الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ - بالو ألتو نتوركس).

  • الإفراط في الاعتماد وتآكل المهارات: هناك خطر أقل حدة يتمثل في أن المؤسسات قد تعتمد بشكل مفرط على الذكاء الاصطناعي، مما يؤدي إلى ضمور المهارات البشرية. إذا وثق المحللون المبتدئون بمخرجات الذكاء الاصطناعي ثقة عمياء، فقد لا يطورون التفكير النقدي والحدس اللازمين عند عدم توفره أو خلله. أحد السيناريوهات التي يجب تجنبها هو فريق أمني يمتلك أدوات ممتازة ولكنه يفتقر إلى المعرفة اللازمة للعمل في حال تعطل هذه الأدوات (مثل الطيارين الذين يعتمدون بشكل مفرط على نظام القيادة الآلية). إن التدريبات المنتظمة دون مساعدة الذكاء الاصطناعي، وتعزيز عقلية أن الذكاء الاصطناعي مساعد، وليس وسيطًا معصومًا من الخطأ، أمران مهمان للحفاظ على يقظة المحللين البشريين. يجب أن يظل البشر هم صانعو القرار النهائيون، وخاصةً في الأحكام عالية التأثير.

  • التحديات الأخلاقية والامتثالية: يثير استخدام الذكاء الاصطناعي في الأمن السيبراني تساؤلات أخلاقية، وقد يُثير قضايا تتعلق بالامتثال التنظيمي. على سبيل المثال، إذا اتهم نظام ذكاء اصطناعي موظفًا، عن طريق الخطأ، بأنه مُطلع خبيث على المعلومات الداخلية بسبب خلل، فقد يُلحق ذلك ضررًا جسيمًا بسمعة ذلك الشخص أو مسيرته المهنية. قد تكون القرارات التي يتخذها الذكاء الاصطناعي غامضة (مشكلة "الصندوق الأسود")، مما يُصعّب شرح أسباب اتخاذ إجراءات مُعينة للمُدققين أو الجهات التنظيمية. مع ازدياد انتشار المحتوى المُولّد بواسطة الذكاء الاصطناعي، أصبح ضمان الشفافية والحفاظ على المساءلة أمرًا بالغ الأهمية. بدأت الجهات التنظيمية في التدقيق في الذكاء الاصطناعي - على سبيل المثال، سيفرض قانون الذكاء الاصطناعي للاتحاد الأوروبي متطلبات على أنظمة الذكاء الاصطناعي "عالية المخاطر"، وقد يندرج الذكاء الاصطناعي في مجال الأمن السيبراني ضمن هذه الفئة. ستحتاج الشركات إلى فهم هذه اللوائح، وربما الالتزام بمعايير مثل إطار عمل إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST) لاستخدام الذكاء الاصطناعي التوليدي بمسؤولية. (كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ ١٠ أمثلة واقعيةويمتد الامتثال إلى الترخيص أيضًا: قد يكون استخدام النماذج مفتوحة المصدر أو النماذج التابعة لجهات خارجية له شروط تقيد استخدامات معينة أو تتطلب تحسينات المشاركة.

في ملخص، الذكاء الاصطناعي التوليدي ليس حلاً سحريًا إذا لم تُنفَّذ بعناية، فقد تُنشئ نقاط ضعف جديدة حتى مع حلها لمشاكل أخرى. أشارت دراسة للمنتدى الاقتصادي العالمي لعام ٢٠٢٤ إلى أن حوالي ٤٧٪ من المؤسسات تُشير إلى التقدم في الذكاء الاصطناعي التوليدي من قِبل المهاجمين كقلق رئيسي، مما يجعل... "التأثير الأكثر إثارة للقلق للذكاء الاصطناعي التوليدي" في مجال الأمن السيبراني ([PDF] توقعات الأمن السيبراني العالمي ٢٠٢٥ | المنتدى الاقتصادي العالمي) (الذكاء الاصطناعي التوليدي في الأمن السيبراني: مراجعة شاملة لبرنامج الماجستير في القانونلذا، يجب على المؤسسات اتباع نهج متوازن: الاستفادة من مزايا الذكاء الاصطناعي مع إدارة هذه المخاطر بدقة من خلال الحوكمة والاختبار والإشراف البشري. سنناقش لاحقًا كيفية تحقيق هذا التوازن عمليًا.

التوقعات المستقبلية: الدور المتطور للذكاء الاصطناعي التوليدي في الأمن السيبراني

بالنظر إلى المستقبل، من المتوقع أن يصبح الذكاء الاصطناعي التوليدي جزءًا لا يتجزأ من استراتيجية الأمن السيبراني، وأداةً سيواصل خصوم الإنترنت استغلالها. ديناميكية القط والفأر سيتسارع التطور، مع هيمنة الذكاء الاصطناعي على مختلف المجالات. إليكم بعض الرؤى المستقبلية حول كيفية تأثير الذكاء الاصطناعي المُولِّد على الأمن السيبراني في السنوات القادمة:

  • الدفاع السيبراني المعزز بالذكاء الاصطناعي يصبح معيارًا: بحلول عام 2025 وما بعده، نتوقع أن تُدمج معظم المؤسسات المتوسطة والكبيرة أدوات الذكاء الاصطناعي في عملياتها الأمنية. وكما أصبحت برامج مكافحة الفيروسات وجدران الحماية معيارية اليوم، قد تصبح برامج الذكاء الاصطناعي المساعدة وأنظمة كشف الشذوذ مكونات أساسية في هياكل الأمن. ومن المرجح أن تصبح هذه الأدوات أكثر تخصصًا - على سبيل المثال، نماذج ذكاء اصطناعي متميزة مُعدّلة بدقة لأمن السحابة، ومراقبة أجهزة إنترنت الأشياء، وأمن أكواد التطبيقات، وما إلى ذلك، تعمل جميعها بتناغم. وكما يشير أحد التوقعات، "في عام 2025، سيكون الذكاء الاصطناعي التوليدي جزءًا لا يتجزأ من الأمن السيبراني، مما يمكّن المؤسسات من الدفاع ضد التهديدات المعقدة والمتطورة بشكل استباقي" (كيف يمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبرانيستعمل الذكاء الاصطناعي على تعزيز اكتشاف التهديدات في الوقت الفعلي، وأتمتة العديد من إجراءات الاستجابة، ومساعدة فرق الأمن في إدارة كميات أكبر بكثير من البيانات مقارنة بما يمكنهم إدارته يدويًا.

  • التعلم المستمر والتكيف: ستتحسن أنظمة الذكاء الاصطناعي التوليدية المستقبلية في مجال الأمن السيبراني التعلم أثناء التنقل من الحوادث الجديدة ومعلومات التهديدات، يُحدّثون قاعدة معارفهم في الوقت الفعلي تقريبًا. قد يؤدي هذا إلى دفاعات تكيفية حقيقية - تخيّل ذكاء اصطناعي يرصد حملة تصيد احتيالي جديدة تستهدف شركة أخرى صباحًا، وبحلول الظهر يكون قد عدّل مرشحات البريد الإلكتروني لشركتك استجابةً لذلك. قد تُسهّل خدمات أمن الذكاء الاصطناعي السحابية هذا النوع من التعلم الجماعي، حيث تُفيد الرؤى مجهولة المصدر من مؤسسة واحدة جميع المشتركين (على غرار مشاركة معلومات التهديدات، ولكن بشكل آلي). ومع ذلك، سيتطلب هذا معالجة دقيقة لتجنب مشاركة المعلومات الحساسة ولمنع المهاجمين من تغذية النماذج المشتركة ببيانات خاطئة.

  • التقارب بين مواهب الذكاء الاصطناعي والأمن السيبراني: ستتطور مهارات متخصصي الأمن السيبراني لتشمل الكفاءة في الذكاء الاصطناعي وعلوم البيانات. وكما يتعلم محللو اليوم لغات الاستعلام والبرمجة النصية، قد يُجري محللو الغد بانتظام تحسينات على نماذج الذكاء الاصطناعي أو يضعون "أدلة تشغيل" لينفذها الذكاء الاصطناعي. قد نشهد أدوارًا جديدة مثل "مدرب أمن الذكاء الاصطناعي" أو مهندس الذكاء الاصطناعي للأمن السيبراني - متخصصون في تكييف أدوات الذكاء الاصطناعي مع احتياجات المؤسسات، والتحقق من أدائها، وضمان عملها بأمان. من ناحية أخرى، ستؤثر اعتبارات الأمن السيبراني بشكل متزايد على تطوير الذكاء الاصطناعي. سيتم بناء أنظمة الذكاء الاصطناعي بميزات أمنية شاملة (بنية آمنة، وكشف العبث، وسجلات تدقيق لقرارات الذكاء الاصطناعي، إلخ)، وأطر عمل لـ الذكاء الاصطناعي الجدير بالثقة (عادلة، وقابلة للتفسير، وقوية، وآمنة) ستوجه نشرها في سياقات أمنية بالغة الأهمية.

  • هجمات أكثر تطوراً مدعومة بالذكاء الاصطناعي: للأسف، سيتطور مشهد التهديدات مع الذكاء الاصطناعي. نتوقع استخدامًا أكثر تواترًا للذكاء الاصطناعي لاكتشاف ثغرات اليوم صفر، ولصياغة عمليات تصيد احتيالي موجهة بدقة (مثل استخلاص الذكاء الاصطناعي لبيانات من مواقع التواصل الاجتماعي لإنشاء طُعم مُصمم بدقة)، ولإنشاء أصوات أو مقاطع فيديو مُزيفة بعمق لتجاوز المصادقة البيومترية أو ارتكاب عمليات احتيال. قد تظهر برامج اختراق آلية قادرة على تنفيذ هجمات متعددة المراحل بشكل مستقل (استطلاع، استغلال، حركة جانبية، إلخ) مع الحد الأدنى من الإشراف البشري.سيؤدي هذا إلى الضغط على المدافعين للاعتماد أيضًا على الذكاء الاصطناعي - بشكل أساسي الأتمتة مقابل الأتمتةقد تحدث بعض الهجمات بسرعة الآلة، مثل روبوتات الذكاء الاصطناعي التي تحاول تجربة آلاف التباديل المختلفة لرسائل التصيد الاحتيالي لمعرفة أيها يتخطى المرشحات. ستحتاج الدفاعات السيبرانية إلى العمل بسرعة ومرونة مماثلتين لمواكبة (ما هو الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ - بالو ألتو نتوركس).

  • التنظيم والذكاء الاصطناعي الأخلاقي في مجال الأمن: مع انخراط الذكاء الاصطناعي بعمق في وظائف الأمن السيبراني، سيزداد التدقيق، وربما التنظيم، لضمان استخدام أنظمة الذكاء الاصطناعي هذه بمسؤولية. ويمكننا توقع أطر عمل ومعايير خاصة بالذكاء الاصطناعي في مجال الأمن. وقد تضع الحكومات مبادئ توجيهية للشفافية، مثل اشتراط عدم اتخاذ قرارات أمنية مهمة (مثل إنهاء وصول موظف للاشتباه في نشاط ضار) من قِبل الذكاء الاصطناعي وحده دون مراجعة بشرية. وقد تُمنح أيضًا شهادات لمنتجات أمن الذكاء الاصطناعي، لضمان تقييمها من حيث التحيز والمتانة والسلامة للمشترين. علاوة على ذلك، قد ينمو التعاون الدولي بشأن التهديدات السيبرانية المتعلقة بالذكاء الاصطناعي؛ على سبيل المثال، اتفاقيات بشأن التعامل مع المعلومات المضللة الناتجة عن الذكاء الاصطناعي، أو معايير ضد بعض الأسلحة السيبرانية التي تعتمد عليه.

  • التكامل مع أنظمة الذكاء الاصطناعي وتكنولوجيا المعلومات الأوسع: من المرجح أن يتكامل الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني مع أنظمة الذكاء الاصطناعي الأخرى وأدوات إدارة تكنولوجيا المعلومات. على سبيل المثال، يمكن للذكاء الاصطناعي الذي يُدير تحسين الشبكة أن يعمل مع الذكاء الاصطناعي الأمني ​​لضمان عدم فتح التغييرات لثغرات أمنية. قد تُشارك تحليلات الأعمال المُدارة بالذكاء الاصطناعي البيانات مع أنظمة الذكاء الاصطناعي الأمني ​​لربط الحالات الشاذة (مثل انخفاض مفاجئ في المبيعات مع احتمال حدوث مشكلة في موقع إلكتروني بسبب هجوم). باختصار، لن يعمل الذكاء الاصطناعي بمعزل عن الآخرين، بل سيكون جزءًا من بنية ذكية أكبر لعمليات المؤسسة. وهذا يتيح فرصًا لإدارة المخاطر الشاملة، حيث يُمكن للذكاء الاصطناعي دمج البيانات التشغيلية وبيانات التهديدات، وحتى بيانات الأمن المادي، لتوفير رؤية شاملة لوضع الأمن في المؤسسة.

على المدى البعيد، يُؤمل أن يُساعد الذكاء الاصطناعي المُولِّد على ترجيح كفة الدفاع لصالح المُدافعين. فمن خلال التعامل مع حجم وتعقيد بيئات تكنولوجيا المعلومات الحديثة، يُمكن للذكاء الاصطناعي أن يجعل الفضاء الإلكتروني أكثر قابلية للدفاع. ومع ذلك، فهي رحلة طويلة، وستكون هناك صعوبات متزايدة في تطوير هذه التقنيات وتعلم الثقة بها على النحو الأمثل. فالمؤسسات التي تُواكب التطورات وتستثمر في... التبني المسؤول للذكاء الاصطناعي من المرجح أن يكون المسؤولون عن الأمن هم الأكثر قدرة على التعامل مع تهديدات المستقبل.

وكما أشار تقرير اتجاهات الأمن السيبراني الأخير الصادر عن شركة جارتنر، "إن ظهور حالات استخدام الذكاء الاصطناعي التوليدي (والمخاطر) يخلق ضغوطًا من أجل التحول" (اتجاهات الأمن السيبراني: المرونة من خلال التحول - جارتنرسيستغلّ المتكيّفون الذكاء الاصطناعي كحليف قوي؛ أما المتأخّرون فقد يجدون أنفسهم متخلفين عن الركب أمام خصومهم المدعومين بالذكاء الاصطناعي. ستكون السنوات القليلة القادمة مرحلةً محوريةً في تحديد كيفية إعادة الذكاء الاصطناعي تشكيل ساحة المعركة السيبرانية.

نصائح عملية لتبني الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني

بالنسبة للشركات التي تقوم بتقييم كيفية الاستفادة من الذكاء الاصطناعي التوليدي في استراتيجية الأمن السيبراني الخاصة بها، إليك بعض الأمثلة: نصائح وتوصيات عملية لتوجيه التبني المسؤول والفعال:

  1. ابدأ بالتعليم والتدريب: تأكد من فهم فريق الأمن لديك (وموظفي تكنولوجيا المعلومات بشكل عام) لما يمكن للذكاء الاصطناعي التوليدي فعله وما لا يمكنه فعله. قدّم تدريبًا على أساسيات أدوات الأمن المدعومة بالذكاء الاصطناعي، وحدّث... برامج التوعية الأمنية لجميع الموظفين لمواجهة التهديدات التي يُمكّنها الذكاء الاصطناعي. على سبيل المثال، درّبوا الموظفين على كيفية توليد الذكاء الاصطناعي لعمليات تصيد احتيالي ومكالمات مزيفة للغاية. وفي الوقت نفسه، درّبوا الموظفين على الاستخدام الآمن والمعتمد لأدوات الذكاء الاصطناعي في عملهم.المستخدمون الذين لديهم معرفة جيدة أقل عرضة لسوء التعامل مع الذكاء الاصطناعي أو الوقوع ضحية للهجمات المعززة بالذكاء الاصطناعي (كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ ١٠ أمثلة واقعية).

  2. تحديد سياسات واضحة لاستخدام الذكاء الاصطناعي: تعامل مع الذكاء الاصطناعي التوليدي كأي تقنية قوية - مع مراعاة الحوكمة. ضع سياسات تحدد من يمكنه استخدام أدوات الذكاء الاصطناعي، والأدوات المسموح بها، والأغراض المستخدمة. أضف إرشادات حول التعامل مع البيانات الحساسة (مثل: عدم إدخال البيانات السرية في خدمات الذكاء الاصطناعي الخارجية) لمنع التسريبات. على سبيل المثال، قد تسمح فقط لأعضاء فريق الأمن باستخدام مساعد ذكاء اصطناعي داخلي للاستجابة للحوادث، ويمكن للتسويق استخدام ذكاء اصطناعي مُعتمد للمحتوى - بينما يُقيّد استخدام أي شخص آخر. تُعالج العديد من المؤسسات الآن الذكاء الاصطناعي التوليدي صراحةً في سياسات تكنولوجيا المعلومات الخاصة بها، وتشجع هيئات المعايير الرائدة سياسات الاستخدام الآمن بدلاً من الحظر التام (كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ ١٠ أمثلة واقعية). تأكد من توصيل هذه القواعد والأساس المنطقي وراءها إلى جميع الموظفين.

  3. التخفيف من "الذكاء الاصطناعي الظلي" ومراقبة الاستخدام: على غرار تكنولوجيا المعلومات الخفية، ينشأ "الذكاء الاصطناعي الخفية" عندما يبدأ الموظفون باستخدام أدوات أو خدمات الذكاء الاصطناعي دون علم قسم تكنولوجيا المعلومات (مثل استخدام مطور لمساعد برمجة ذكاء اصطناعي غير مُصرّح به). قد يُؤدي هذا إلى مخاطر خفية. نفّذ تدابير لـ الكشف عن استخدام الذكاء الاصطناعي غير المصرح به والتحكم فيهيمكن لمراقبة الشبكة تحديد الاتصالات بواجهات برمجة تطبيقات الذكاء الاصطناعي الشائعة، ويمكن للاستطلاعات أو عمليات تدقيق الأدوات الكشف عن استخدام الموظفين. قدّم بدائل معتمدة حتى لا ينجذب الموظفون ذوو النية الحسنة إلى الممارسات غير القانونية (على سبيل المثال، وفّر حساب ChatGPT Enterprise رسميًا إذا وجده المستخدمون مفيدًا). ​​من خلال تسليط الضوء على استخدام الذكاء الاصطناعي، يمكن لفرق الأمن تقييم المخاطر وإدارتها. المراقبة أساسية أيضًا - سجّل أنشطة ومخرجات أدوات الذكاء الاصطناعي قدر الإمكان، بحيث يكون هناك مسار تدقيق للقرارات التي أثّر فيها الذكاء الاصطناعي. (كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ ١٠ أمثلة واقعية).

  4. استخدم الذكاء الاصطناعي دفاعيًا - لا تتخلف عن الركب: أدرك أن المهاجمين سيستخدمون الذكاء الاصطناعي، لذا ينبغي أن يستخدمه دفاعك أيضًا. حدد بعض المجالات ذات التأثير الكبير حيث يمكن للذكاء الاصطناعي التوليدي أن يُساعد عملياتك الأمنية فورًا (ربما فرز التنبيهات، أو تحليل السجلات تلقائيًا) وأجرِ مشاريع تجريبية. قم بتعزيز دفاعاتك باستخدام سرعة الذكاء الاصطناعي ونطاقه لمواجهة التهديدات سريعة الحركة (كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ ١٠ أمثلة واقعيةحتى عمليات التكامل البسيطة، مثل استخدام الذكاء الاصطناعي لتلخيص تقارير البرامج الضارة أو إنشاء استعلامات البحث عن التهديدات، يمكن أن توفر على المحللين ساعات. ابدأ بخطوات صغيرة، قيّم النتائج، وكرّرها. ستُعزز النجاحات من اعتماد الذكاء الاصطناعي على نطاق أوسع. الهدف هو استخدام الذكاء الاصطناعي كعامل مضاعف للقوة - على سبيل المثال، إذا كانت هجمات التصيد الاحتيالي تُرهق فريق الدعم لديك، فاستخدم مُصنّف بريد إلكتروني قائم على الذكاء الاصطناعي لتقليل هذا الكمّ بشكل استباقي.

  5. استثمر في ممارسات الذكاء الاصطناعي الآمنة والأخلاقية: عند تنفيذ الذكاء الاصطناعي التوليدي، اتبع ممارسات التطوير والنشر الآمنة. استخدم نماذج خاصة أو ذاتية الاستضافة للمهام الحساسة للاحتفاظ بالسيطرة على البيانات. إذا كنت تستخدم خدمات ذكاء اصطناعي خارجية، فراجع إجراءات الأمان والخصوصية الخاصة بها (التشفير، وسياسات الاحتفاظ بالبيانات، وما إلى ذلك). أدرج أطر عمل إدارة مخاطر الذكاء الاصطناعي (مثل إطار عمل إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا أو إرشادات ISO/IEC) لمعالجة جوانب مثل التحيز، وسهولة التفسير، والمتانة في أدوات الذكاء الاصطناعي لديك بشكل منهجي.كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ ١٠ أمثلة واقعية). خطط أيضًا لتحديثات/تصحيحات النموذج كجزء من الصيانة - يمكن أن تحتوي نماذج الذكاء الاصطناعي على "نقاط ضعف" أيضًا (على سبيل المثال، قد تحتاج إلى إعادة التدريب إذا بدأت في الانجراف أو إذا تم اكتشاف نوع جديد من الهجوم المعادي على النموذج).من خلال دمج الأمان والأخلاقيات في استخدام الذكاء الاصطناعي، يمكنك بناء الثقة في النتائج وضمان الامتثال للوائح الناشئة.

  6. إبقاء البشر على اطلاع: استخدم الذكاء الاصطناعي لمساعدة الحكم البشري في مجال الأمن السيبراني، لا ليحل محله تمامًا. حدد نقاط القرار التي تتطلب التحقق البشري (على سبيل المثال، قد يُعِدّ الذكاء الاصطناعي تقرير حادث، لكن يُراجعه محلل قبل توزيعه؛ أو قد يقترح حظر حساب مستخدم، لكن يُوافق عليه إنسان). هذا لا يمنع أخطاء الذكاء الاصطناعي من التسرب فحسب، بل يساعد فريقك أيضًا على التعلم منه والعكس صحيح. شجع سير العمل التعاوني: يجب أن يشعر المحللون بالراحة في التشكيك في مخرجات الذكاء الاصطناعي وإجراء فحوصات السلامة. بمرور الوقت، يمكن أن يُحسّن هذا الحوار كلاً من الذكاء الاصطناعي (من خلال الملاحظات) ومهارات المحللين. باختصار، صمم عملياتك بحيث يتكامل الذكاء الاصطناعي ونقاط القوة البشرية - يتعامل الذكاء الاصطناعي مع الحجم والسرعة، ويتعامل البشر مع الغموض والقرارات النهائية.

  7. القياس والمراقبة والتعديل: أخيرًا، تعامل مع أدوات الذكاء الاصطناعي التوليدية الخاصة بك كمكونات حية لنظامك البيئي الأمني. قياس أدائهم هل يُقلّلون أوقات الاستجابة للحوادث؟ هل يكتشفون التهديدات مبكرًا؟ ما هو اتجاه معدل الإيجابيات الخاطئة؟ اطلب ملاحظات من الفريق: هل توصيات الذكاء الاصطناعي مفيدة، أم أنها تُسبب ضجيجًا؟ استخدم هذه المقاييس لتحسين النماذج، أو تحديث بيانات التدريب، أو تعديل كيفية دمج الذكاء الاصطناعي. تتطور التهديدات السيبرانية واحتياجات العمل، ويجب تحديث نماذج الذكاء الاصطناعي أو إعادة تدريبها دوريًا للحفاظ على فعاليتها. ضع خطة لحوكمة النموذج، تتضمن من المسؤول عن صيانته وعدد مرات مراجعته. من خلال الإدارة الفعالة لدورة حياة الذكاء الاصطناعي، تضمن أنه يبقى موردًا لا عبئًا.

في الختام، يُمكن للذكاء الاصطناعي المُولِّد أن يُعزز قدرات الأمن السيبراني بشكل كبير، إلا أن نجاح تبنيه يتطلب تخطيطًا مدروسًا وإشرافًا مستمرًا. ستجني الشركات التي تُثقِّف موظفيها، وتضع إرشادات واضحة، وتُدمج الذكاء الاصطناعي بطريقة متوازنة وآمنة، ثمار إدارة التهديدات بشكل أسرع وأذكى. تُوفر هذه الدروس خارطة طريق: الجمع بين الخبرة البشرية وأتمتة الذكاء الاصطناعي، وتغطية أساسيات الحوكمة، والحفاظ على المرونة مع التطور الحتمي لتكنولوجيا الذكاء الاصطناعي ومشهد التهديدات.

ومن خلال اتخاذ هذه الخطوات العملية، تستطيع المنظمات الإجابة على هذا السؤال بثقة "كيف يمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟" - ليس فقط من الناحية النظرية، ولكن في الممارسة اليومية - وبالتالي تعزيز دفاعاتهم في عالمنا الرقمي المتزايد والمدفوع بالذكاء الاصطناعي.كيف يمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني)

العودة إلى المدونة