أمن الذكاء الاصطناعي مقابل الذكاء الاصطناعي في مجال الأمن
تم النشر | 1 أغسطس 2025 |
دليل نهائي لإدارة المخاطر للذكاء الاصطناعي وحوكمته
الذكاء الاصطناعي في مجال الأمنوأمن الذكاء الاصطناعي هما مصطلحان مختلفان لهما معانٍ محددة في الدفاع السيبراني الحديث. الذكاء الاصطناعي في مجال الأمن يستخدم نماذج التعلّم الآلي والتعلّم العميق لتعزيز تقنيات الأمان، بما في ذلك أمن الشبكات ونقاط النهاية والبريد الإلكتروني وغيرها الكثير، للمساعدة في تسريع النتائج الإلكترونية وزيادة المهارات الإلكترونية التي تؤدي إلى تحسين وضعك الأمني العام. يتضمن أمن الذكاء الاصطناعي حلولاً مصممة لتأمين الذكاء الاصطناعي وحوكمته للحد من المخاطر المرتبطة بالاستخدام المقبول للذكاء الاصطناعي ودورة حياة تطوير نماذج الذكاء الاصطناعي وإنتاجها.
جدول المحتويات
- الاختلافات الرئيسية بين أمن الذكاء الاصطناعي والذكاء الاصطناعي في مجال الأمن
- فهم أمن الذكاء الاصطناعي
- أمن الذكاء الاصطناعي لحالات استخدام الذكاء الاصطناعي
- ما هو الذكاء الاصطناعي في مجال الأمن؟
- فهم نماذج الذكاء الاصطناعي في الأمن الإلكتروني
- أطر إدارة المخاطر للذكاء الاصطناعي والحوكمة
- الذكاء الاصطناعي المسؤول مع AI Aware
- 4 نصائح لمساعدة مدراء أمن المعلومات في تقييم قدرات الذكاء الاصطناعي لمنصة الأمان
- كيف تستخدم Tenable الذكاء الاصطناعي في الأمن الإلكتروني
- استخدام الذكاء الاصطناعي لتحديد أولويات المخاطر في العالم الحقيقي باستخدام تصنيف أولوية الثغرة الأمنية
- الموارد الأمنية للذكاء الاصطناعي
- منتجات أمان الذكاء الاصطناعي
Key differences between security for AI and AI for security
يستخدم الذكاء الاصطناعي في مجال الأمن الذكاء الاصطناعي لتعزيز الدفاع السيبراني. وهو ينطوي على تضمين التعلم الآلي والتعلم العميق والذكاء الاصطناعي التوليدي في التقنيات الأمنية لزيادة كفاءتها وفعاليتها.
على سبيل المثال، يساعد تصنيف المخاطر المدعوم بالتعلم الآلي في إدارة الثغرات الأمنية في تحديد أولويات الثغرات الأمنية المؤثرة على الأعمال بحيث لا يحتاج الممارسون إلى إدارة سوى عدد أقل من حالات التعرض للخطر بدلاً من التخفيف من جميع الحالات الحرجة وعالية الخطورة، وهو صراع مستمر للعديد من المؤسسات.
Generative AI has also contributed to the rise of security assistants, which have proven to boost IT security team productivity overall and help uplevel more junior team members.
فهو يجعل العمليات الأمنية أسرع وأكثر تكيفاً وقدرة على التعامل مع البيانات على نطاق يفوق القدرات البشرية.
يحمي أمن الذكاء الاصطناعي من التعرض للذكاء الاصطناعي للمؤسسات والاستخدام غير المصرح به للذكاء الاصطناعي. أثناء إنشاء نماذج الذكاء الاصطناعي الخاصة بك أو اعتماد أدوات الطرف الثالث مثل ChatGPT وGemini، فإنها توسع سطح الهجوم. فهو يحمي نماذج الذكاء الاصطناعي وبيانات التدريب والبنية التحتية الأساسية الخاصة بك من فئة جديدة من التهديدات، مثل الهجمات العدائية وتسميم البيانات وسرقة النماذج.
Understanding security for AI
يُعد تأمين أدوات الذكاء الاصطناعي أولوية متزايدة مع تزايد اعتماد فرق العمل في مؤسستك على هذه الأدوات:
أدوات إنتاجية مثل:
- دردشةGPT
- الجوزاء
- مايكروسوفت كوبيلوت
نماذج الذكاء الاصطناعي مفتوحة المصدر مثل:
- لاما
- ميسترال
- بلوم
مكتبات الذكاء الاصطناعي مثل:
- PyTorch
- TensorFlow
- Scikit-learn
تخزين البيانات مثل:
- دلو S3 (AWS)
- تخزين Azure Blob Storage
- التخزين السحابي من Google
النماذج اللغوية الكبيرة (LLMs) مثل:
- GPT-4
- كلود 3
- بالم 2
ولكن كلما أصبحت هذه الأدوات جزءًا من أمن مؤسستك وتطوير البرمجيات والتمويل والتسويق وسير العمل في مؤسستك، كلما زادت المخاطر الجديدة التي تعرضها.
هنا، يشير أمن الذكاء الاصطناعي إلى الأشخاص والعمليات والسياسات والأدوات التي تحتاجها لحماية البنية التحتية للذكاء الاصطناعي وأنماط الاستخدام والمخرجات.
في العديد من البيئات، يبدأ هذا بتطوير سياسة للاستخدام الآمن والأخلاقي والمناسب للذكاء الاصطناعي، إلى جانب تحديد الاستخدام غير المصرح به للذكاء الاصطناعي، وهي أدوات الذكاء الاصطناعي التي لم توافق عليها مؤسستك أو تؤمنها رسمياً.
اسأل:
- هل يلصق مطورونا التعليمات البرمجية المصدرية في أدوات الذكاء الاصطناعي العامة؟
- هل يقوم المستخدمون من رجال الأعمال بتحميل بيانات حساسة على ChatGPT؟
يبدأ أمن الذكاء الاصطناعي بالمخزون.
اسأل:
- ما هي النماذج التي نستخدمها؟
- أين نشرناهم؟
- من يمكنه الوصول إليها؟
ويشمل ذلك:
- الذكاء الاصطناعي المُصرَّح به
- استخدام الذكاء الاصطناعي غير المُصرَّح به
- إقامة البيانات
- الاحتفاظ بالبيانات
- سياسات التدريب النموذجية
- استخدام واجهة برمجة التطبيقات بين LLMs
- الذكاء الاصطناعي في الأنظمة السحابية
- الحوكمة النموذجية الدقيقة
من المهم توفير أمن الذكاء الاصطناعي، سواء كنت تبني باستخدام نماذج مفتوحة المصدر، أو باستخدام أدوات الذكاء الاصطناعي من طرف ثالث، أو بتضمين الذكاء الاصطناعي في التطبيقات الداخلية.
بمجرد معرفة مكان تواجد النماذج، يمكنك تطبيق عناصر تحكم مثل:
- الوصول المستند إلى الدور
- تصنيف البيانات وحمايتها
- مراقبة السلوك الاستدلالي
- إنفاذ السياسة لوقف الوصول غير المصرح به أو تسريبات البيانات
بالنسبة للبنية التحتية للذكاء الاصطناعي المستضافة على السحابة، يجب أن تكون وحدات التحكم الخاصة بك آمنة:
- أوزان النموذج وبيانات التدريب
- عمليات نشرالبنية التحتية كتعليمة برمجية ( IaC)
- واجهات برمجة التطبيقات التي تعرض الاستدلال على النماذج
- الخدمات المرتبطة بها مثل قواعد بيانات المتجهات
Security for AI use cases
تأمين استخدام الذكاء الاصطناعي ومنع تسرب البيانات.
أحد أكبر مخاطر الذكاء الاصطناعي هو كيفية استخدام الناس له.
قد يقوم الموظفون الذين يلصقون معلومات حساسة في أدوات الذكاء الاصطناعي دون وجود حواجز حماية بالكشف عن بيانات الملكية دون علمهم.
ما الخطأ الذي يمكن أن يحدث
- قد يسقط المطورون التعليمات البرمجية المصدرية في أدوات الذكاء الاصطناعي العامة.
- يمكن لفرق التسويق تحميل قوائم العملاء.
- يمكن لمستخدمي الأعمال مشاركة المستندات السرية مع روبوت الدردشة الآلي.
إذا قام شخص ما بإدخال أي من هذه البيانات في تدريب نموذج لشخص آخر، يمكن أن تؤدي حتى الإجراءات حسنة النية إلى انتهاك الخصوصية أو تسريبات الملكية الفكرية.
كيفية تقليل المخاطر
- وضع قواعد واضحة.
- قم بإنشاء وتطبيق سياسات الاستخدام المقبول التي تحدد أين ومتى وأي بيانات يمكن لموظفيك استخدامها في أدوات الذكاء الاصطناعي العامة.
- اكتشف استخدام الذكاء الاصطناعي في مؤسستك.
- ابدأ بتحديد من يستخدم ماذا من خلال أدوات مراقبة الذكاء الاصطناعي. وهذا يشمل مكونات المتصفح الإضافية، والتطبيقات، وخدمات الذكاء الاصطناعي المعتمدة على السحابة، سواء تمت الموافقة عليها أم لا.
- منع البيانات الحساسة من المغادرة
- استخدم نُهج DLP المضبوطة لتفاعلات الذكاء الاصطناعي للإبلاغ عن التعليمات البرمجية المصدرية أو معلومات التعريف الشخصية (PII) أو الوثائق الداخلية قبل تمكين المشاركة الخارجية. يمكنك أيضاً استخدام جدران الحماية لحظر الوصول إلى عناوين IP للذكاء الاصطناعي غير المُصرَّح به؛ فقط لاحظ أن الموظفين سيجدون حلاً بديلاً، وقد تلعب دائماً دور اللحاق بالخدمات الجديدة.
- استخدم نُهج DLP المضبوطة لتفاعلات الذكاء الاصطناعي للإبلاغ عن التعليمات البرمجية المصدرية أو معلومات التعريف الشخصية (PII) أو الوثائق الداخلية قبل تمكين المشاركة الخارجية. يمكنك أيضاً استخدام جدران الحماية لحظر الوصول إلى عناوين IP للذكاء الاصطناعي غير المُصرَّح به؛ فقط لاحظ أن الموظفين سيجدون حلاً بديلاً، وقد تلعب دائماً دور اللحاق بالخدمات الجديدة.
قم بتأمين بيئة تطوير الذكاء الاصطناعي لديك.
يستخدم تطوير الذكاء الاصطناعي مجموعة معقدة مثل خدمات السحابة، وواجهات برمجة التطبيقات، وبيانات التدريب، وقواعد البيانات المتجهة، ومنصات عمليات التعلم الآلي (MLOps). تقدم كل طبقة انكشافًا محتملًا.
وهنا، يُعد الذكاء الاصطناعي-التدبير-الإدارة-الإنتاجية هو المفتاح.
ما الخطأ الذي يمكن أن يحدث
- يمكن أن تؤدي التكوينات الضعيفة إلى كشف نقاط النهاية للمنهج أو بيانات التدريب أو الأذونات.
- يمكن للمهاجم الذي يعثر على واجهة برمجة تطبيقات مفتوحة أو دور ضعيف في IAM أن يسرق أوزان النماذج، أو يصل إلى بيانات حساسة أو حتى يتلاعب بسلوك الذكاء الاصطناعي في الإنتاج.
- يمكن للمهاجم الذي يعثر على واجهة برمجة تطبيقات مفتوحة أو دور ضعيف في IAM أن يسرق أوزان النماذج، أو يصل إلى بيانات حساسة أو حتى يتلاعب بسلوك الذكاء الاصطناعي في الإنتاج.
كيفية تأمين نماذج الذكاء الاصطناعي والمكتبات الخاصة بك ضد الثغرات الأمنية
- جرد نظام الذكاء الاصطناعي البيئي الخاص بك.
- تتبع كل شيء، ليس فقط النماذج، ولكن أيضًا الخدمات مثل SageMaker وBedrock وAzure AI وVertex AI والبنية التحتية الداعمة.
- فحص التكوينات غير الصحيحة.
- التقط الدلاء العامة أو الأدوار المفرطة في التفويض أو تعريض واجهة برمجة التطبيقات قبل أن تتسبب في مخاطر.
- التحكم في الوصول.
- قم بتطبيق RBAC صارم وفرض أقل قدر من الامتيازات حتى تتمكن الهويات المعتمدة فقط من الوصول إلى موارد الذكاء الاصطناعي لديك.
- قم بتأمين سلسلة التوريد الخاصة بك.
- استخدم أدوات مثل فاتورة مواد الذكاء الاصطناعي (AIBOM) لمراقبة التبعيات الخارجية ومخاطر النماذج المُدرَّبة مسبقًا.
حماية نماذج الذكاء الاصطناعي في وقت التشغيل.
تستجيب نماذج الذكاء الاصطناعي لمدخلات المستخدم، ويعرف المهاجمون كيفية استغلال ثغرة في النظام. تساعدك دفاعات وقت التشغيل على اكتشاف الهجمات المعادية وإيقافها قبل أن تتسبب في ضرر حقيقي.
ما الخطأ الذي يمكن أن يحدث
- تسميم البيانات، حيث يقوم المهاجمون بتلويث بيانات التدريب لإدخال ثغرات أمنية خفية.
- هجمات التهرب، حيث يقوم ممثلو التهديد بإنشاء مدخلات لخداع نموذجك لإساءة التصنيف أو سوء التصرف.
- استخراج النموذج، حيث يمكن لأنماط الاستعلام أن تعكس المنطق أو تسرّب بيانات التدريب الحساسة.
- حقن الموجهات، حيث تستخدم الجهات الفاعلة الخبيثة الموجهات الخبيثة للتلاعب بموجهات LLM لتوليد مخرجات ضارة أو الكشف عن تعليمات مخفية.
كيفية الدفاع عنها
- التدريب على المرونة في مواجهة الخصوم. استخدام العينات العدائية أثناء تدريب النموذج لبناء دفاعات أقوى.
- تصفية المدخلات والتحقق من صحة المدخلات. قم بتعقيم الاستعلامات قبل وصولها إلى نموذجك لمنع هجمات الحقن التي يقوم بها المهاجمون.
- مراقبة سلوك النموذج. راقب أي حالات شاذة في الإخراج، أو طفرات الرفض أو الأنماط التي تشير إلى سوء الاستخدام.
يغطي أمن الذكاء الاصطناعي جميع الطبقات الثلاث. تحتاج إلى رؤية كيفية تفاعل المستخدمين مع الذكاء الاصطناعي، وحواجز حماية للبنية التحتية والاستحقاقات، ودفاعات للنماذج في الإنتاج. تمكّن هذه الحماية فرقك من الابتكار دون فتح الباب أمام مخاطر يمكن تجنبها.
What is AI for security?
كيف يفيد الذكاء الاصطناعي تقنيات الأمن الإلكتروني؟
يعمل الذكاء الاصطناعي في مجال الأمن على تعزيز أدوات الأمان في مجموعتك، حتى تتمكن من تحديد حالات التعرُّض للخطر والتهديدات وتحديد أولوياتها والاستجابة لها بسرعة ودقة أكبر.
يقوم الذكاء الاصطناعي بتحليل كميات هائلة من القياس عن بُعد في الوقت الفعلي للعثور على الأنماط وتحديد المخاطر واقتراح أفضل الإجراءات لإغلاق حالات التعرض ومعالجة التهديدات.
التحليل التنبؤي للتهديدات
تبحث نماذج الذكاء الاصطناعي في الهجمات السابقة ومعلومات التهديدات للتنبؤ بما سيحدث بعد ذلك، حتى تتمكن من تقوية الأنظمة قبل أن يستغلها أحد ممثلي التهديدات.
على سبيل المثال، يمكن للذكاء الاصطناعي تحديد الثغرات الأمنية التي من المرجح أن يستهدفها المهاجمون بناءً على سلوكيات ممثلي التهديد، ومدى توفر الثغرات، ومدى تعرض الأصول.
Solutions with vulnerability prioritization tools use machine learning to surface the real risks from thousands of findings, cutting through the noise of CVSS scores and pointing you toward the flaws that matter.
كيف يدعم الذكاء الاصطناعي العمليات الأمنية الاستباقية
تجمع منصات الذكاء الاصطناعي السياق من مصادر متعددة حول الحالات السلوكية الشاذة والتهديدات وثغرات أمنية وغيرها من حالات التعرض، بما في ذلك التكوينات السحابية وأذونات الهوية، لتخبرك بما هو في خطر ولماذا هو مهم.
إليك بعض الطرق التي يمكن للذكاء الاصطناعي من خلالها تحسين دفاعاتك الإلكترونية:
See how Tenable risk scoring helps streamline vulnerability prioritization with more accuracy.
Threat and anomaly detection
يقوم الذكاء الاصطناعي ببناء خط أساس ديناميكي لما هو نموذجي في بيئتك. ويشمل ذلك عمليات تسجيل الدخول، وسلوكيات الخدمة، ونشاط واجهة برمجة التطبيقات، وعمليات عبء العمل السحابي.
يمكن لأداة الذكاء الاصطناعي في حل الأمن الإلكتروني الخاص بك أن تلتقط تلقائيًا الأنشطة غير المعتادة مثل محاولات تسجيل الدخول من مواقع مشبوهة أو الحاويات التي تتجول في أماكن لا ينبغي لها أن تتجول فيها.
Because this kind of anomaly detection doesn’t rely on predefined signatures, it’s especially effective at spotting novel threats, zero days and insider threats that traditional signature- and rules-based tools are likely to miss.
تعيين مسار الهجوم الذكي
يساعدك الذكاء الاصطناعي على رؤية الصورة الكبيرة. من خلال معالجة بيانات التعرّض للهجوم عبر سطح الهجوم في الوقت الفعلي، يتيح لك معرفة الثغرات الأمنية والتكوينات غير الصحيحة والأذونات المفرطة عبر بيئاتك السحابية وفي مكان العمل التي تتحد لتكوين مسارات هجوم عالية الخطورة تؤدي إلى جواهر التاج الخاص بك.
You can use that insight to proactively break attack paths, whether by revoking a permission, remediating a misconfiguration or isolating a risky asset.
زيادة المحللين باستخدام الذكاء الاصطناعي التوليدي
يعمل الذكاء الاصطناعي التوليدي على تسهيل فهم البيانات المعقدة. ويمكنه تلخيص مسارات التعرّض، وشرح ماهية الثغرة الأمنية وتوضيح كيفية إصلاحها، كل ذلك بلغة بسيطة.
بدلاً من التنقيب في لوحات المعلومات أو قواعد المعرفة، يمكن لمحللي مركز العمليات الأمنية والتعرض أن يطرحوا أسئلة بلغة طبيعية ويحصلوا على إجابات فورية وغنية بالسياق. يعزز الكفاءة ويمنح المحللين الوقت للتركيز على الأعمال ذات القيمة الأعلى.
ما الفائدة؟ إذا لم تقم بتطبيق نفس المستوى من التدقيق والتحكم في الوصول إلى أدوات الذكاء الاصطناعي التوليدي لديك، فإنك تخاطر بإدخال انكشافات جديدة، مما يعرض البيانات الحساسة ونماذج الملكية وثقة المستخدم للخطر.
الذكاء الاصطناعي في مجال الأمن لا يلغي الرقابة البشرية. فهو يخلصك من المهام اليدوية والمتكررة التي تستهلك وقت فريقك وتؤدي إلى الإرهاق.
يمكنك أتمتة عملية فرز التنبيهات وارتباطها وتلخيص البيانات حتى يتمكن محللو مركز العمليات الأمنية لديك من التركيز على فهم أفضل لنوايا المهاجمين والتحقيق في الحوادث الأمنية وبناء دفاعات إلكترونية أكثر نضجاً.
الجمع بين سرعة الذكاء الاصطناعي وحجمه مع الخبرة البشرية يمنحك ميزة قوية.
See how Tenable AI capabilities can help you manage exposures that novel AI-driven attacks introduce and identify unauthorized AI usage across your environment.
Understanding AI models in cybersecurity
يستخدم الناس مصطلح الأمن المدعوم بالذكاء الاصطناعي بشكل فضفاض، ولكن عندما تبحث في منصات الأمن المدعومة بالذكاء الاصطناعي التي تحقق أفضل أداء في الممارسة العملية، فإنها تشترك جميعها في شيء واحد: التخصص.
- بعض النماذج رائعة في التنبؤ.
- يبحث آخرون عن التعرف على الأنماط أو تفسير اللغة الطبيعية.
وكلما كان الحل أكثر فعالية في ربط كل نموذج بحالة استخدام الأمان، كانت النتائج أقوى وأكثر كفاءة.
فيما يلي بعض الأنواع الرئيسية لنماذج الذكاء الاصطناعي التي يمكن لفرقك استخدامها لتعزيز الأمن وما هي أفضل ما تقوم به:
التعلم الآلي الخاضع للإشراف للتنبؤ القائم على الأنماط
- ما هي وظيفتها: يتعلم من البيانات التاريخية المصنفة للتنبؤ بالنتائج أو تصنيف المدخلات الجديدة.
- مكانها في الأمن: تحتاج إلى معرفة الثغرات الأمنية التي تشكل خطرًا حقيقيًا. يمكن لنماذج التعلّم الآلي الخاضعة للإشراف أن تتعلم من تريليونات من نقاط البيانات، واتجاهات الثغرات الأمنية السابقة، وسلوك المهاجمين وأهمية الأصول للتنبؤ بالثغرات الأمنية الجديدة التي من المرجح أن يستغلها المهاجمون.
- كيف يبدو الأمر أثناء العمل يمكن للمنصات التي تستخدم هذا النموذج تعيين درجة مخاطر تنبؤية لكل ثغرة أمنية استناداً إلى نشاط التهديد الفعلي. إنه بديل مستنير بالبيانات لدرجات CVSS الثابتة ويساعدك على تقليل إرهاق التنبيهات.
التعلم العميق لاكتشاف التهديدات المعقدة
- ما هي وظيفتها: تقوم الشبكات العصبية، مثل شبكات الذاكرة طويلة الأمد (LSTMs) والشبكات العصبية التلافيفية (CNNs)، بتحليل أنماط حركة مرور الشبكة وسلوك المستخدم وسجلات الوصول إلى الملفات للكشف عن الروابط التي قد يستغرق المحللون البشريون ساعات للعثور عليها.
- مكانها في الأمن: التعلّم العميق ضروري للتعامل مع التهديدات المتطورة التي لا تتبع قواعد اللعب المعتادة للهجمات. تلتقط هذه النماذج الأشياء التي تغفلها الأنظمة التقليدية القائمة على القواعد تماماً، خاصةً عندما يحاول المهاجمون الاندماج أو استخدام تقنيات جديدة أو غير معروفة.
- كيف يبدو الأمر أثناء العمل فكّر في البرامج الضارة المصممة للتهرب من الاكتشاف التقليدي عن طريق تغيير مظهرها. يرصد التعلّم العميق الأنماط السلوكية الأساسية، حتى عندما يقوم المهاجمون بتعديل الشيفرة البرمجية عمداً لتبدو جديدة. أو ضع في اعتبارك سيناريو يبدأ فيه شخص ما لديه حق الوصول الشرعي في القيام بأشياء ليست مخالفة للسياسة من الناحية الفنية ولكنك تشعر أنها خاطئة، مثل الوصول إلى الملفات بترتيب غير عادي أو في أوقات غريبة. يلتقط النظام هذه التحولات السلوكية الدقيقة.
الرسوم البيانية المعرفية لرسم خريطة بيانية لكيفية انتشار التهديدات
- ما هي وظيفتها: يربط بين الكيانات والمستخدمين والأصول والأذونات والثغرات الأمنية في شبكة علاقات مرئية يمكن البحث فيها.
- مكانها في الأمن: تعمل هذه النماذج على تشغيل Attack Path Analysis. فبدلاً من التعامل مع المخاطر على أنها نتائج منفصلة، فإنها تُظهر كيف يمكن للمهاجمين تجميع العديد من المخاطر للوصول إلى الأصول عالية القيمة.
- كيف يبدو الأمر أثناء العمل قد يكشف الرسم البياني المعرفي عن تركيبة سامة مثل خادم متوجه للعامة به عيب معروف يتصل (عبر حسابات خدمة مفرطة الصلاحية) بقاعدة بيانات الإنتاج. يخبرك أين تتدخل لصد مسار الهجوم.
الذكاء الاصطناعي التوليدي والبرمجة اللغوية العصبية لتمكين المحللين
- ما هي وظيفتها: تحليل اللغة الطبيعية وتوليدها بحيث تكون بيانات الأمان المعقدة واضحة وقابلة للبحث والتنفيذ.
- مكانها في الأمن: بدلاً من البحث في لوحات التحكم، يمكن لفريقك طرح أسئلة بلغة بسيطة والحصول على ملخصات مقروءة بشرياً عن حالات التعرض والتهديدات وخطوات الاستجابة.
- كيف يبدو الأمر أثناء العمل يمكن للمحلل أن يسأل "كيف يمكنني إصلاح هذا الانكشاف؟" أو "ما هي الثغرات الأمنية التي تؤثر على أصولنا التي تواجه الإنترنت مع وصول المسؤول؟ يقلل من وقت التحقيق ويجعل سير العمل الأمني في متناول غير المتخصصين.
لماذا يعد اختيار النموذج مهمًا
عندما يدعي البائع أنه يستخدم "الذكاء الاصطناعي"، يجب أن تسأل:
- أي نوع؟
- لأي مشاكل؟
- ما مقدار البيانات التي استخدمها البائع لتدريب نموذج الذكاء الاصطناعي؟
- كم مرة يقوم البائع بتحديث النموذج بشكل متكرر؟
- كيف يقارن نموذج تصنيف المخاطر الخاص بالحل بنموذج CVSS أو CISA KEV أو EPSS؟
هناك فرق كبير بين النظام الأساسي الذي يطبق خوارزمية عامة واحدة والنظام الأساسي الذي يجمع بشكل استراتيجي بين نماذج متعددة، كل منها مضبوط لمهمة محددة.
يدمج الذكاء الاصطناعي الأكثر تقدماً في مجال الأمن كل ما سبق، باستخدام التعلم الآلي للتنبؤ بثغرات الأمن، والرسوم البيانية المعرفية لتعيين مسار الهجوم، والذكاء الاصطناعي التوليدي لتوجيه الاستجابة.
ستحدد هذه الفروق مدى سرعة تحرك فريقك ومدى دقة استجابته وفعالية تقليل المخاطر الحقيقية.
AI risk management and governance frameworks
In the U.S., the primary standard guiding AI governance is the NIST AI Risk Management Framework (AI RMF). It’s a voluntary framework designed to help you manage AI risks and support the development of trustworthy and responsible AI systems.
يحتوي الإطار على أربع وظائف أساسية: الحوكمة والتخطيط والقياس والإدارة.
يقدم إطار عمل إدارة المخاطر للذكاء الاصطناعي من المعهد الوطني للمعايير والتكنولوجيا والابتكار والإدارة (NIST) مخططًا للحوكمة المسؤولة وإدارة المخاطر في مجال الذكاء الاصطناعي، حتى تتمكن فرقك من بناء أنظمة ذكاء اصطناعي يمكنك الوثوق بها.
يتطلب وضع هذا الإطار موضع التنفيذ أكثر من مجرد النوايا الحسنة. يتطلب الأمر أدوات عملية تمنحك رؤية عميقة ورؤى قابلة للاستخدام.
تلعب المنصات التي تتمتع بميزات قوية لاكتشاف الذكاء الاصطناعي وأمانه - على سبيل المثال، تلك التي تشير إلى كل من استخدام الذكاء الاصطناعي والنماذج والبنية التحتية المعتمدة وغير المعتمدة - دوراً مباشراً في خطوات الخريطة والقياس الخاصة بإطار العمل من خلال بناء مخزون كامل وإظهار المخاطر ذات الصلة.
تساعدك هذه الأدوات أيضاً على إدارة المخاطر من خلال المراقبة المستمرة لعمليات التعرُّض للذكاء الاصطناعي واكتشاف الثغرات الأمنية من خلال المعالجة المركزة.
في النهاية، يمكن أن تساعدك الحلول الأمنية الحديثة على تحقيق الحوكمة المسؤولة للذكاء الاصطناعي واعتماد الذكاء الاصطناعي بأمان أكبر.
لكن تذكر أن الأطر ليست قائمة مرجعية خطية. إنها دليل للعمليات المستمرة لإدارة المخاطر طوال دورة حياة الذكاء الاصطناعي.
الحوكمة
تُعد وظيفة الحاكم هي حجر الزاوية في إطار إدارة علاقات العملاء بالذكاء الاصطناعي. ترسخ ثقافة إدارة المخاطر وتنميها. فهو يضع السياسات، ويحدد المساءلة ويضمن وجود العمليات الصحيحة لدعم الوظائف الثلاث الأخرى.
بينما يقود الناس والسياسة الحوكمة، فإن التكنولوجيا تدعمها وتنفذها. الحوكمة الفعالة مستحيلة بدون الرؤية الشاملة والبيانات التي توفرها أدوات الأمان.
أنشطة الحوكمة الرئيسية
- قم بإنشاء إرشادات لنشر الذكاء الاصطناعي وحدد مدى تحملك للمخاطر مقدمًا
- تحديد الأدوار والمسؤوليات وتعيينها لحوكمة الذكاء الاصطناعي
- تعزيز ثقافة تعطي الأولوية للتواصل المفتوح حول مخاطر الذكاء الاصطناعي
- إنشاء عمليات لإدارة المخاطر الناجمة عن مكونات الذكاء الاصطناعي للجهات الخارجية
رسم الخرائط والقياس والإدارة
بمجرد أن يكون لديك أساس قوي لحوكمة الذكاء الاصطناعي، يجب عليك الانخراط في دورة مستمرة من تخطيط مخاطر الذكاء الاصطناعي وقياسها وإدارتها.
الخريطة
تركز الخريطة على السياق والاكتشاف. قبل تأمين نظام الذكاء الاصطناعي، يجب أن تفهم الغرض منه ومكوناته وتأثيره المحتمل.
يتضمن رسم الخرائط:
- بناء مخزون شامل لأنظمة الذكاء الاصطناعي، بما في ذلك النماذج ومصادر البيانات، وخدمات الذكاء الاصطناعي AWS وAzure وGCP، والاستخدام غير المصرح به للذكاء الاصطناعي واكتشاف المكونات الإضافية للمتصفح.
- توثيق سياق النظام، بما في ذلك الأهداف والقدرات المقصودة.
- تحديد المخاطر المحتملة لجميع المكونات، بما في ذلك عناصر الطرف الثالث.
القياس
في مرحلة القياس، تقوم بتقييم المخاطر من التعيين لمعرفة مدى ثقتك في البنية التحتية التي تشغل أنظمة الذكاء الاصطناعي لديك.
يتضمن القياس:
- Analyzing data pipelines and cloud infrastructure for potential security exposures, such as publicly accessible data buckets, insecure configurations in AI services like Amazon SageMaker, or identity and access management (IAM) roles that give people way more access than they need
- الاختبار المستمر لأصول الذكاء الاصطناعي وتقييمها باستمرار بحثًا عن الثغرات الأمنية وتكوينات غير صحيحة
- إنشاء وتتبع المقاييس المتعلقة بأمن الذكاء الاصطناعي والامتثال مع مرور الوقت
الإدارة
تعالج مرحلة الإدارة المخاطر التي قمت بتعيينها وقياسها. يجب عليك تخصيص الموارد لمعالجة المخاطر الأكثر أهمية وفقاً لمدى تحملك للمخاطر المحددة.
تتضمن الإدارة:
- تطبيق الضوابط الأمنية للحد من المخاطر، مثل الإجراءات التقنية لتخفيف المخاطر، مثل إصلاح التكوين غير الصحيح للسحابة وإلغاء الأذونات الزائدة وتشفير البيانات.
- نصيحة: استخدم منصة الأمان لتوجيه الإجراءات مع تعليمات الإصلاح خطوة بخطوة.
- تحويل المخاطر إلى طرف آخر، على سبيل المثال، من خلال التأمين الإلكتروني.
- اتخاذ قرار بعدم نشر نظام الذكاء الاصطناعي إذا كانت مخاطره عالية بشكل غير مقبول.
- القبول الرسمي للمخاطر التي تقع ضمن مستوى التحمل المحدد لمؤسستك.
Responsible AI with AI Aware
يوفر إطار عمل مثل إطار عمل NIST لإدارة المخاطر للذكاء الاصطناعي (AI RMF) مخططًا أساسيًا مهمًا للذكاء الاصطناعي المسؤول، ولكنه مجرد تمرين نظري دون اتباع النهج الصحيح لوضعه موضع التنفيذ.
This is where AI Aware comes in. It provides data for AI governance to help build and enforce policies.
يدور AI Aware حول امتلاك الرؤية والفهم والتحكم الذي تحتاجه لإدارة مخاطر الذكاء الاصطناعي بفعالية داخل مؤسستك. يتعلق الأمر بتجاوز المبادئ التوجيهية المفاهيمية إلى التنفيذ العملي.
A platform like Tenable Cloud Security offers the technical foundation you need to cultivate an AI Aware posture. It provides a comprehensive inventory to map your AI landscape, continuous analysis to measure your security posture, actionable guidance to mitigate your risks and the organization-wide visibility required for effective AI governance.
هل أنت جاهز لتجاوز الأطر النظرية وفهم مخاطر الذكاء الاصطناعي وإدارتها بشكل حقيقي؟ اكتشف كيف يمكن لـ Tenable Cloud Securityالمساعدة.
4 tips to help CISOs evaluate a security platform’s AI capabilities
بصفتك رئيسًا تنفيذيًا لأمن المعلومات، ربما يمطرك بائعو إدارة التعرض للمخاطر بمزاعم جريئة حول حلولهم التي تعتمد على الذكاء الاصطناعي. ولكن العديد منها يقوم بأتمتة المهام فقط.
يجب أن يؤدي استثمارك في أمن الذكاء الاصطناعي إلى أكثر من ذلك بكثير. كما يجب أن يقلل من مخاطر العمل ويعزز برنامج الأمان الخاص بك.
فيما يلي بعض الأسئلة الرئيسية التي يجب على كل رئيس تنفيذي لأمن المعلومات طرحها لاكتساب رؤى حول كيفية تقييم حل أمني قائم على الذكاء الاصطناعي.
هل يربط الحل بوضوح بين الذكاء الاصطناعي الخاص به والنتائج الأمنية الحقيقية، أم أنه يسرد فقط الميزات التقنية؟
ضع في اعتبارك:
- هل يشرح البائع سبب استخدامه لتقنيات محددة للذكاء الاصطناعي، بخلاف مجرد سرد النماذج أو الكلمات الطنانة؟
- هل يمكن للبائع أن يربط بنية الذكاء الاصطناعي الخاصة به بنتائج مثل المعالجة الأسرع، أو تحسين MTTD/MTTR، أو تقليل التعرض؟
- هل تم تحسين الذكاء الاصطناعي لحالة الاستخدام الخاصة بك (على سبيل المثال، تحديد أولويات الثغرات الأمنية ومخاطر الاستحقاق)، أم أنه مجرد أداة إضافية؟
- هل يقدم البائع دليلاً أو مقاييس توضح التأثير الأمني للذكاء الاصطناعي في العالم الحقيقي؟
البائع الذي يقود بالنتائج، وليس بالخوارزميات، من المرجح أن يقدم قيمة استراتيجية.
هل يستطيع الذكاء الاصطناعي التواصل بوضوح مع البشر، وليس فقط توليد البيانات؟
ضع في اعتبارك:
- هل تشرح المنصة النتائج بلغة مشتركة يمكن للمحللين العمل بها دون فك التشفير؟
- هل يمكنه ترجمة التنبيهات التقنية إلى سياق لقادة الأعمال أو فرق المخاطر أو المدققين؟
- هل يدعم الفرز الأسرع من خلال إظهار ما هو على المحك وسبب أهميته؟
- هل المخرجات قابلة للاستخدام عبر الفرق، وليس فقط تكنولوجيا المعلومات أو الأمن؟
الذكاء الاصطناعي الذي يحسّن التواصل يبني الثقة ويسرّع العمل. إذا لم تتمكن المنصة من التحدث بلغة فريقك، فلن تدعم التعاون أو الاستجابة.
هل يتكيف الذكاء الاصطناعي مع احتياجات عملك أم يجبرك على التكيف معه؟
ضع في اعتبارك:
- هل يمكن للذكاء الاصطناعي أن يتعلم من بيئتك، بما في ذلك كيفية تصرف المستخدمين، وما هي الأصول الأكثر أهمية؟
- هل يقوم بضبط درجة المخاطر بناءً على مجال عملك وبيئتك المحددة، وليس على معيار عام؟
- هل المخرجات مصممة خصيصًا لسطح الهجوم الفعلي، أم أنها تتعامل مع كل مؤسسة بنفس الطريقة؟
- هل يمكن أن يتطور مع تغير البيئة المحيطة بك، أم أنه مقيد بافتراضات ثابتة؟
الذكاء الاصطناعي الذي لا يستطيع التكيف مع أعمالك لن يساعدك في إدارة المخاطر الحقيقية. سوف يفوتك ما يهمك أو يشتت انتباهك بما لا يهمك.
هل يدعم الذكاء الاصطناعي اتخاذ القرارات القائمة على المخاطر والمتأصلة في التعرض والتأثير؟
ضع في اعتبارك:
- هل يحدد الذكاء الاصطناعي أولويات النتائج بناءً على المخاطر الفعلية، وليس فقط درجات الخطورة؟
- هل يمكن التمييز بين ثغرات أمنية نظرية وتلك التي لها مسارات تعرض حقيقية؟
- هل يأخذ في الحسبان قابلية الثغرات، وأهمية الأصول وسلوك الخصم، وليس فقط درجات CVSS الثابتة؟
- هل يساعد ذلك فريقك على التركيز على ما يقلل من المخاطر بشكل أسرع، أم أنه يساعدهم على التركيز على ما يقلل من المخاطر بشكل أسرع، أم أنه يوزعهم على ضوضاء ذات أولوية منخفضة؟
يُمكِّنك الذكاء الاصطناعي الذي يُمكِّنك من العمل على أساس المخاطر من التصرف بقصد حتى تتمكن من تركيز مواردك المحدودة على حالات التعرض للمخاطر الأكثر أهمية.
How Tenable uses AI in cybersecurity
تدعم أدوات الذكاء الاصطناعي القابلة للتثبيت كلا جانبي معادلة الذكاء الاصطناعي والأمن الإلكتروني: استخدام الذكاء الاصطناعي لتعزيز الأمن الإلكتروني وتأمين أنظمة الذكاء الاصطناعي التي تبنيها أو تتبناها شركتك.
يساعد هذا التركيز المزدوج على تقليل المخاطر على جبهتين مهمتين: حماية بنيتك التحتية وحماية بصمة الذكاء الاصطناعي لديك.
سترى ذلك في ثلاثة عروض أساسية:
- تعمل تقنية ExposureAI على تعزيز الكشف عن التهديدات وتحليلها وتحديد أولويات العلاج.
- تساعد إدارة الثغرات الأمنية AI Aware في اتخاذ قرارات تصحيح أكثر ذكاءً بناءً على سياق المخاطر الفعلية.
- يعمل نظام AI-SPM على تأمين نماذج الذكاء الاصطناعي والبنية التحتية والاستحقاقات الخاصة بك.
استخدم الذكاء الاصطناعي لتعزيز الدفاع السيبراني مع ExposureAI
إن ExposureAI هو المحرك التوليدي وراء منصة إدارة التعرض للمخاطر Tenable One من Tenable. فهو يعالج أكثر من تريليون نقطة بيانات لمساعدتك على اكتشاف المخاطر وفهمها وتقليلها بدقة.
ExposureAI maps the relationships between your assets, users, cloud services, identities and vulnerabilities. Built on Tenable’s Exposure Data Fabric, it pulls in, normalizes and connects scattered security data from across your entire attack surface. That data fabric turns disconnected findings into a rich, deeply linked web of insight.
وهذه النظرة المتصلة مهمة.
بدلاً من مجرد الإبلاغ عن المشكلات المعزولة فقط، يمكن لـ ExposureAI اكتشاف سلاسل الهجمات المعقدة ومتعددة الخطوات وإضافة الدقة إلى كل تنبيه. فكر في الأمر وكأنه رسم بياني معرفي. من خلال هيكلة بياناتك بطريقة علائقية، فإنه يجعل من الممكن تتبع مسارات الهجوم من نقطة الدخول الأولية وصولاً إلى جواهر التاج.
من خلال هذه الصورة الكاملة، لا يرى فريقك أين توجد المخاطر فحسب، بل كيف يرتبط كل شيء معًا لخلق انكشاف حقيقي. يعمل على تسريع عملية تحديد الأولويات وإصلاح المشكلات.
يمنح هذا الأساس نماذج ExposureAI السياق العميق الذي تحتاجه نماذج ExposureAI لتقديم رؤى فورية وخطوات تالية واضحة، مما يغير الطريقة التي تكتشف بها المخاطر في بيئتك وتفهمها وتوقفها.
See how ExposureAI can help you cut through all the vulnerability noise to focus on actual risk to your business.
تحديد أولويات الثغرات الأمنية باستخدام AI Aware
يعمل AI Aware على تحسين سير عمل إدارة الثغرات الأمنية التقليدية باستخدام التعلّم الآلي لتركيز فريقك على نقاط الضعف التي تمثل أكبر التهديدات في الوقت الحالي.
وبدلاً من الاعتماد على تصنيفات CVSS الثابتة، يأخذ النظام بعين الاعتبار قابلية الاستغلال ومسارات التعرض للتهديدات ومعلومات التهديدات وسياق الأعمال لتحديد أولويات الثغرات الأمنية بناءً على المخاطر الواقعية.
يقلل برنامج AI Aware من الضوضاء ويسرّع عملية التصحيح من خلال تسليط الضوء على الثغرات التي من المرجح أن يستغلها المهاجمون في بيئتك. فهو يساعدك على التحول من إدارة الثغرات الأمنية القائمة على رد الفعل إلى استراتيجية قائمة على المخاطر.
تعرّف على كيفية تعزيز AI Aware في تحديد الأولويات القائمة على المخاطر.
تأمين حزمة الذكاء الاصطناعي الخاصة بك باستخدام الذكاء الاصطناعي-إدارة الأداء لكل ألف ظهور
كلما زاد اعتماد الذكاء الاصطناعي على الذكاء الاصطناعي، زاد كذلك سطح الهجوم. يساعدك AI-SPM على اكتشاف الخدمات السحابية والنماذج والاستحقاقات التي تدعم مبادرات الذكاء الاصطناعي لديك وتقويتها والتحكم فيها.
يكتشف AI-SPM البنية الأساسية المتعلقة بالذكاء الاصطناعي عبر AWS وAzure وGoogle Cloud. فهو يحدد كيفية تفاعل المستخدمين مع المنصات ويحدد كيفية تفاعل المستخدمين مع المنصات ويضع علامات على ملحقات المتصفح غير المصرح بها أو الحزم أو الاستخدام غير المصرح به للذكاء الاصطناعي الذي يصل إليه مستخدمو الأعمال.
It integrates with cloud infrastructure and entitlement management (CIEM) tools to enforce least privilege. It tracks who accesses your models, APIs and sensitive data so you can detect misuse early and remain compliant.
Using AI to prioritize real-world risk with VPR
يستخدم تقييم أولوية الثغرات الأمنية (VPR) من Tenable التعلم الآلي لتعيين درجات ديناميكية للمخاطر بناءً على عوامل واقعية متعددة، وليس فقط درجة CVSS ثابتة، لمساعدة فريقك على تحديد أولويات المخاطر الفعلية، بدلاً من الغرق في التنبيهات.
يشتمل تصنيف أولوية الثغرة الأمنية على:
- استغلال ثغرات التوافر والتسليح
- معلومات استخبارات التهديدات النشطة من مصادر الويب العامة والمظلمة
- التعرض للأصول وسياق الشبكة
- الاتجاهات الزمنية وسلوك المهاجمين
مثال:
- قد يقيّم CVSS ثغرتين ب 9.8، لكن ممثلي التهديد يستغلون واحدة فقط في البرية.
- وبدلاً من التسرع في إصلاح كليهما بناءً على تلك النتيجة، تطبق VPR مقاييس أخرى لتسجيل المخاطر لتعيين مخاطر أعلى على الشخص الذي لديه نشاط تهديد فعلي. يمنحك تصنيف أولوية الثغرة الأمنية الرؤية التي تحتاجها لمعرفة أيهما يجب تصحيحه أولاً.
هل ترغب في معرفة كيفية عمل ExposureAI و AI-SPM معًا لتأمين بيئتك ومبادرات الذكاء الاصطناعي الخاصة بك؟ استكشف حلول الأمن الإلكتروني المدعومة بالذكاء الاصطناعي من Tenable.
AI security resources
AI security products
أخبار الأمن الإلكتروني التي يمكنك استخدامها
- Tenable Cloud Security
- Tenable One
- Tenable Vulnerability Management