أمن الذكاء الاصطناعي مقابل الذكاء الاصطناعي في مجال الأمن

تم النشر | 1 أغسطس 2025 |

الدليل النهائي لإدارة مخاطر الذكاء الاصطناعي وحوكمته

الذكاء الاصطناعي في مجال الأمنوأمن الذكاء الاصطناعي هما مصطلحان مختلفان لهما معانٍ مُحددة في الدفاع الإلكتروني الحديث. ويُستخدم الذكاء الاصطناعي في مجال الأمن نماذج التعلّم الآلي والتعلّم العميق لتعزيز تقنيات الأمان، بما في ذلك أمن الشبكات ونقاط النهاية والبريد الإلكتروني وغيرها الكثير، للمساعدة في تسريع النتائج الإلكترونية وزيادة المهارات الإلكترونية التي تؤدي إلى تحسين وضعك الأمني العام. ويتضمن أمن الذكاء الاصطناعي حلولاً مُصممة لتأمين الذكاء الاصطناعي وحوكمته للحد من المخاطر المرتبطة بالاستخدام المقبول للذكاء الاصطناعي ودورة حياة تطوير نماذج الذكاء الاصطناعي وإنتاجها.

الاختلافات الرئيسية بين أمن الذكاء الاصطناعي والذكاء الاصطناعي في مجال الأمن

يُستخدم الذكاء الاصطناعي في مجال الأمن الذكاء الاصطناعي لتعزيز الدفاع الإلكتروني. وينطوي على تضمين التعلم الآلي والتعلم العميق والذكاء الاصطناعي التوليدي في التقنيات الأمنية لزيادة كفاءته وفعاليته. 

على سبيل المثال، يُساعد تصنيف المخاطر المدعوم بالتعلم الآلي في إدارة الثغرات الأمنية في تحديد أولويات الثغرات الأمنية المؤثرة على الأعمال بحيث لا يحتاج الممارسون إلى إدارة سوى عدد أقل من حالات التعرض للمخاطر بدلاً من التخفيف من جميع الحالات الحرجة وعالية الخطورة، وهو صراع مستمر للعديد من المؤسسات. 

لقد ساهم الذكاء الاصطناعي التوليدي أيضًا في زيادة عدد مساعدي الأمن، الذين أثبتوا قدرتهم على تعزيز إنتاجية فريق أمن تكنولوجيا المعلومات بشكل عام، والمساعدة في رفع مستوى أعضاء الفريق الأقل خبرة. 

إنه يجعل العمليات الأمنية أسرع وأكثر تكيفًا وقدرة على التعامل مع البيانات على نطاق يفوق القدرات البشرية.

يحمي أمن الذكاء الاصطناعي من مخاطر الذكاء الاصطناعي للمؤسسات والاستخدام غير المصرح به للذكاء الاصطناعي. أثناء إنشاء نماذج الذكاء الاصطناعي الخاصة بك أو اعتماد أدوات الجهات الخارجية مثل ChatGPT وGemini، فإنها توسع سطح الهجوم. كما إنه يحمي نماذج الذكاء الاصطناعي وبيانات التدريب والبنية التحتية الأساسية من فئة جديدة من التهديدات، مثل الهجمات العدائية وتخريب البيانات وسرقة النماذج.

فهم أمن الذكاء الاصطناعي

يُعد تأمين أدوات الذكاء الاصطناعي أولوية متزايدة مع تزايد اعتماد فرق العمل في مؤسستك على هذه الأدوات:

أدوات الإنتاجية مثل:

  • ChatGPT
  • Gemini
  • Microsoft Copilot

نماذج الذكاء الاصطناعي مفتوحة المصدر مثل:

  • Llama
  • Mistral
  • Bloom

مكتبات الذكاء الاصطناعي مثل:

  • PyTorch
  • TensorFlow
  • Scikit-learn

تخزين البيانات مثل:

  • S3 bucket (AWS)
  • Azure Blob Storage
  • Google Cloud Storage

النماذج اللغوية الكبيرة (LLMs) مثل:

  • GPT-4
  • Claude 3
  • PaLM 2

ولكن كلما أصبحت هذه الأدوات جزءًا من أمن مؤسستك وتطوير البرمجيات والتمويل والتسويق وسير العمل في مؤسستك، زادت المخاطر الجديدة التي تتعرض لها.

وهنا، يُشير أمن الذكاء الاصطناعي إلى الأشخاص والعمليات والسياسات والأدوات التي تحتاجها لحماية البنية التحتية للذكاء الاصطناعي وأنماط الاستخدام والمخرجات. 

في العديد من البيئات، يبدأ هذا بتطوير سياسة للاستخدام الآمن والأخلاقي والمناسب للذكاء الاصطناعي، إلى جانب تحديد الاستخدام غير المصرح به للذكاء الاصطناعي، وهي أدوات الذكاء الاصطناعي التي لم توافق عليها مؤسستك أو تؤمنها بشكل رسمي.

اسأل:

  • هل يلصق مطورونا الأكواد البرمجية المصدرية في أدوات الذكاء الاصطناعي العامة؟
  • هل يقوم ممستخدموا الأعمال بتحميل بيانات حساسة على ChatGPT؟

يبدأ أمن الذكاء الاصطناعي بالمخزون.

اسأل:

  • ما النماذج التي نستخدمها؟
  • ما مكان نشرها؟
  • من يمكنه الوصول إليها؟

ويشمل ذلك:

  • الذكاء الاصطناعي المُصرَّح به
  • استخدام الذكاء الاصطناعي غير المُصرَّح به
  • مكان البيانات
  • الاحتفاظ بالبيانات
  • سياسات تدريب النموذج
  • استخدام واجهات برمجة التطبيقات (APIs) بين نماذج اللغات الكبيرة (LLMs)
  • الذكاء الاصطناعي في الأنظمة السحابية
  • الحوكمة النموذجية الدقيقة

من المهم توفير أمن الذكاء الاصطناعي، سواء أكنت تبني باستخدام نماذج مفتوحة المصدر، أو باستخدام أدوات الذكاء الاصطناعي من جهة خارجية، أو بتضمين الذكاء الاصطناعي في التطبيقات الداخلية. 

وبمجرد معرفة مكان تواجد النماذج، يُمكنك تطبيق عناصر تحكم مثل:

  • الوصول بناءً على الدور
  • تصنيف البيانات وحمايتها
  • مراقبة السلوك الاستدلالي
  • تنفيذ السياسة لإيقاف الوصول غير المصرح به أو تسريبات البيانات

بالنسبة للبنية التحتية للذكاء الاصطناعي المستضافة على السحابة، يجب أن تكون وحدات التحكم آمنة:

  • أوزان النموذج وبيانات التدريب
  • عمليات نشر البنية التحتية كتعليمة برمجية (IaC)
  • واجهات برمجة التطبيقات التي توفر خدمات استنتاج النماذج
  • الخدمات المرتبطة بها مثل قواعد بيانات المتجهات

حالات استخدام أمن الذكاء الاصطناعي

تأمين استخدام الذكاء الاصطناعي ومنع تسرب البيانات.

إن أحد أكبر مخاطر الذكاء الاصطناعي تكمن في كيفية استخدام الناس له. 

قد يكشف الموظفون الذين يلصقون معلومات حساسة في أدوات الذكاء الاصطناعي دون وجود حواجز حماية عن بيانات الملكية دون علمهم. 
 

ما الخطأ الذي يُمكن أن يحدث
  • قد يضيف المطورون التعليمات البرمجية المصدرية في أدوات الذكاء الاصطناعي العامة.
  • يمكن لفرق التسويق تحميل قوائم العملاء.
  • يمكن لمستخدمي الأعمال مشاركة المستندات السرية مع برنامج الدردشة الآلي. 

إذا أدخل شخص ما أي من هذه البيانات في تدريب نموذج لشخص آخر، يمكن أن تؤدي حتى الإجراءات حسنة النية إلى انتهاك الخصوصية أو تسريبات الملكية الفكرية.
 

كيفية تقليل المخاطر
  • وضع قواعد واضحة.
    • يمكنك إنشاء وتطبيق سياسات الاستخدام المقبول التي تُحدد أين ومتى وأي بيانات يمكن لموظفيك استخدامها في أدوات الذكاء الاصطناعي العامة.
  • اكتشاف استخدام الذكاء الاصطناعي في مؤسستك.
    • ابدأ بتحديد من يستخدم ماذا باستخدام أدوات مراقبة الذكاء الاصطناعي. ويشمل هذا مكونات المتصفح الإضافية، والتطبيقات، وخدمات الذكاء الاصطناعي المعتمدة على السحابة، سواء تمت الموافقة عليها أم لا.
  • منع تسرب البيانات الحساسة إلى الخارج.
    • استخدم سياسات منع فقدان البيانات (DLP) المُحسّنة للتفاعل مع الذكاء الاصطناعي لرصد الأكواد البرمجية المصدرية، أو معلومات الهوية الشخصية (PII)، أو المستندات الداخلية قبل السماح بمشاركتها خارجيًا. ويمكنك أيضًا استخدام جدران الحماية لحظر الوصول إلى عناوين IP للذكاء الاصطناعي غير المُصرَّح به؛ فقط لاحظ أن الموظفين سيجدون حلاً بديلاً، وقد تؤدي دائمًا دور اللحاق بالخدمات الجديدة. 
       

قم بتأمين بيئة تطوير الذكاء الاصطناعي لديك.

يستخدم تطوير الذكاء الاصطناعي مجموعة معقدة مثل خدمات السحابة، وواجهات برمجة التطبيقات، وبيانات التدريب، وقواعد البيانات المتجهة، ومنصات عمليات التعلم الآلي (MLOps). وتؤدي كل طبقة إلى احتمالية التعرض للمخاطر.

وهنا، يُعد إدارة وضع أمن الذكاء الاصطناعي (AI-SPM) هو المفتاح.
 

ما الخطأ الذي يُمكن أن يحدث
  • يمكن أن تؤدي التكوينات الضعيفة إلى كشف نقاط النهاية للنموذج أو بيانات التدريب أو الأذونات.
    • يُمكن للمهاجم الذي يعثر على واجهة برمجة تطبيقات مفتوحة أو دور ضعيف في إدارة الهوية والوصول (IAM) أن يسرق بيانات النموذج، أو يصل إلى بيانات حساسة أو حتى يتلاعب بسلوك الذكاء الاصطناعي في بيئة التشغيل الفعلية.
       
كيفية تأمين نماذج الذكاء الاصطناعي والمكتبات ضد الثغرات الأمنية
  • جرد نظام الذكاء الاصطناعي لديك.
    • تتبع كل شيء، ليس فقط النماذج، ولكن أيضًا الخدمات مثل SageMaker وBedrock وAzure AI وVertex AI والبنية التحتية الداعمة.
  • فحص التكوينات غير الصحيحة.
    • رصد حاويات التخزين العامة، أو الأدوار الممنوحة صلاحيات مفرطة، أو واجهات برمجة التطبيقات المكشوفة والمعرضة للخطر، وذلك قبل أن تتحول إلى مخاطر أمنية فعلية.
  • التحكم في الوصول.
    • طبّق نظام التحكم في الوصول القائم على الأدوار (RBAC) بصرامة، وافرض مبدأ أقل قدر من الصلاحيات، لضمان وصول الهويات المعتمدة فقط إلى موارد الذكاء الاصطناعي الخاصة بك.
  • تأمين سلسلة التوريد.
    • استخدم أدوات مثل قائمة مكونات الذكاء الاصطناعي (AIBOM) لمراقبة تبعيات الجهات الخارجية والمخاطر المرتبطة بالنماذج مسبقة التدريب.

حماية نماذج الذكاء الاصطناعي أثناء وقت التشغيل

تستجيب نماذج الذكاء الاصطناعي لمدخلات المستخدم، ويعرف المهاجمون كيفية استغلال ذلك. وتساعدك دفاعات وقت التشغيل على اكتشاف الهجمات المعادية وإيقافها قبل أن تتسبب في ضرر حقيقي.
 

ما الخطأ الذي يُمكن أن يحدث
  • تخريب البيانات، حيث يُخرب المهاجمون بيانات التدريب لإدخال ثغرات أمنية خفية.
  • هجمات التهرب، حيث يُنشئ ممثلو التهديد مُدخلات لخداع نموذجك لإساءة التصنيف أو سوء التصرف.
  • استخراج النموذج، حيث يُمكن لأنماط الاستعلام أن تعكس المنطق أو تسرّب بيانات التدريب الحساسة.
  • حقن الأوامر، حيث يستخدم المهاجمون الأوامر الخبيثة للتلاعب بنماذج اللغات الكبيرة (LLMs) لتوليد مخرجات ضارة أو الكشف عن تعليمات مخفية.
     
كيف تبني حصونك الرقمية وتتصدى لهذه الاختراقات بذكاء؟
  • التدريب من أجل المرونة ضد الهجمات العدائية. استخدم العينات العدائية أثناء تدريب النموذج لبناء دفاعات أقوى وتعزيز قدرة النظام على مواجهة التهديدات المتطورة.
  • تصفية المدخلات والتحقق من صحة المدخلات. قم بتنقية الاستعلامات قبل وصولها إلى نموذجك لمنع هجمات حقن الأوامر التي يستخدمها المهاجمون.
  • مراقبة سلوك النموذج. راقب أي حالات غريبة في الإخراج والنتائج، أو طفرات الرفض أو الأنماط التي تُشير إلى سوء الاستخدام.

تُغطي استراتيجية أمن الذكاء الاصطناعي جميع الطبقات الثلاث. وتحتاج إلى رؤية كيفية تفاعل المستخدمين مع الذكاء الاصطناعي، وحواجز حماية للبنية التحتية والاستحقاقات، ودفاعات للنماذج في بيئة التشغيل. وتُمكّن هذه الحماية فرقك من الابتكار دون فتح الباب أمام مخاطر يمكن تجنبها.

ما المقصود بالذكاء الاصطناعي في مجال الأمن؟

كيف يُفيد الذكاء الاصطناعي تقنيات الأمن الإلكتروني؟

يعمل الذكاء الاصطناعي في مجال الأمن على تعزيز أدوات الأمان في مجموعتك، حتى تتمكن من تحديد حالات التعرُّض للمخاطر والتهديدات وتحديد أولوياتها والاستجابة لها بسرعة ودقة أكبر. 

يُحلل الذكاء الاصطناعي أحجام هائلة من بيانات القياس عن بُعد في الوقت الفعلي لاكتشاف الأنماط، ورسم خرائط المخاطر، واقتراح أفضل الإجراءات لسد ثغرات التعرض للمخاطر ومُعالجة التهديدات.

التحليل التنبؤي للتهديدات

تبحث نماذج الذكاء الاصطناعي في الهجمات السابقة ومعلومات التهديدات للتنبؤ بما سيحدث بعد ذلك، حتى تتمكن من تقوية الأنظمة قبل أن يستغلها أحد المهاجمون.

على سبيل المثال، يُمكن للذكاء الاصطناعي تحديد الثغرات الأمنية التي من المُرجح أن يستهدفها المهاجمون بناءً على سلوكيات المهاجمين، ومدى توفر الثغرات، ومدى تعرض الأصول للمخاطر. 

تستخدم الحلول مع أدوات تحديد أولويات الثغرات الأمنية التعلم الآلي لاكتشاف المخاطر الحقيقية من بين آلاف النتائج، مما يؤدي إلى اختصار ضجيج درجات الثغرات وتوجيهك نحو الثغرات المهمة.

 

كيف يدعم الذكاء الاصطناعي العمليات الأمنية الاستباقية

تجمع منصات الذكاء الاصطناعي السياق من مصادر متعددة حول الحالات السلوكية الغريبة والتهديدات والثغرات الأمنية وغيرها من حالات التعرض للمخاطر، بما في ذلك التكوينات السحابية وأذونات الهوية، لتخبرك بما يتعرض للخطر ولماذا هو مهم.

إليك بعض الطرق التي يُمكن للذكاء الاصطناعي من خلالها تحسين دفاعاتك الإلكترونية:

تعرف كيف يساعد تقييم المخاطر من Tenable على تبسيط عملية تحديد أولويات الثغرات الأمنية بدقة أكبر. 

الكشف عن التهديدات والحالات الخارجة عن المألوف

يبني الذكاء الاصطناعي خط أساس ديناميكي لما هو نموذجي في بيئتك. ويشمل ذلك عمليات تسجيل الدخول، وسلوكيات الخدمة، ونشاط واجهة برمجة التطبيقات، وعمليات عبء العمل السحابي.

يمكن لأداة الذكاء الاصطناعي في حل الأمن الإلكتروني أن تكتشف تلقائيًا الأنشطة غير المعتادة مثل محاولات تسجيل الدخول من مواقع مشبوهة أو الحاويات التي تتجول في أماكن لا ينبغي لها أن تتجول فيها.

ولأن هذا النوع من اكتشاف الحالات غير المعتادة لا يعتمد على توقيعات محددة مسبقًا، فهو فعال بشكل خاص في رصد التهديدات الجديدة. أيام الصفر والتهديدات الداخلية التي من المحتمل أن تغفل عنها الأدوات التقليدية القائمة على التوقيعات والقواعد.

تعيين مسار الهجوم الذكي

يُساعدك الذكاء الاصطناعي على رؤية الصورة الكبيرة. من خلال معالجة بيانات التعرض للمخاطر عبر سطح الهجوم لديك في الوقت الفعلي، يتيح لك النظام رؤية كيف تجتمع الثغرات الأمنية، والأخطاء في الإعدادات، والصلاحيات المفرطة عبر بيئاتك السحابية والمحلية لتشكيل مسارات هجوم عالية الخطورة تؤدي إلى إلى الوصول إلى أصولك الحساسة.

يمكنك استخدام هذه الرؤى لقطع مسارات الهجوم بشكل استباقي، سواء من خلال إلغاء صلاحية معينة، أو معالجة خطأ في الإعدادات، أو عزل أصل رقمي عالي المخاطر.

تعزيز إمكانيات المُحللين باستخدام الذكاء الاصطناعي التوليدي

يعمل الذكاء الاصطناعي التوليدي على تسهيل فهم البيانات المعقدة. ويُمكنه تلخيص مسارات التعرّض للمخاطر، وشرح ماهية الثغرة الأمنية وتوضيح كيفية إصلاحها، كل ذلك بلغة بسيطة.

وبدلاً من التنقيب في لوحات المعلومات أو قواعد المعرفة، يُمكن لمحللي مركز العمليات الأمنية والتعرض للمخاطر أن يطرحوا أسئلة بلغة طبيعية ويحصلوا على إجابات فورية غنية بالسياق. مما يُعزز الكفاءة ويمنح المحللين الوقت الكافي للتركيز على الأعمال ذات القيمة الأعلى.

ما فائدة ذلك؟ إذا لم تُطبق المستوى نفسه من التدقيق والتحكم في الوصول إلى أدوات الذكاء الاصطناعي التوليدي التي لديك، فإنك تخاطر بإدخال مخاطر جديدة، مما يُعرض البيانات الحساسة ونماذج الملكية وثقة المستخدم للخطر.

الذكاء الاصطناعي في مجال الأمن لا يلغي الرقابة البشرية. بل يُخلصك من المهام اليدوية والمتكررة التي تستهلك وقت فريقك وتؤدي إلى الشعور بالإرهاق.

يمكنك أتمتة عملية فرز التنبيهات وربطها وتلخيص البيانات حتى يتمكن محللو مركز العمليات الأمنية لديك من التركيز على فهم أفضل لنوايا المهاجمين والتحقيق في الحوادث الأمنية وبناء دفاعات إلكترونية أكثر تطورًا. 

إن الدمج بين سرعة الذكاء الاصطناعي ونطاق معالجته الواسع وبين الخبرة البشرية يمنحك ميزة قوية في مواجهة التهديدات الإلكترونية.
 

اكتشف كيف يمكن لإمكانيات الذكاء الاصطناعي من Tenable أن يساعدك في إدارة المخاطر التي تسببها الهجمات الجديدة التي تعتمد على الذكاء الاصطناعي وتحديد استخدام الذكاء الاصطناعي غير المصرح به في بيئتك.

فهم نماذج الذكاء الاصطناعي في مجال الأمن السيبراني

يستخدم الناس مصطلح الأمن المدعوم بالذكاء الاصطناعي بشكل فضفاض، ولكن عندما تبحث في منصات الأمن المدعومة بالذكاء الاصطناعي التي تحقق أفضل أداء في الممارسة العملية، فإنها تشترك جميعها في شيء واحد: التخصص.

  • بعض النماذج رائعة في التنبؤ.
  • تبحث منصات أخرى عن التعرف على الأنماط أو تفسير اللغة الطبيعية. 

وكلما كان الحل أكثر فعالية في ربط كل نموذج بحالة استخدام الأمان، كانت النتائج أقوى وأكثر كفاءة.

فيما يلي بعض الأنواع الرئيسية لنماذج الذكاء الاصطناعي التي يمكن لفرقك استخدامها لتعزيز الأمن وما أفضل ما تقوم به تلك النماذج:

التعلم الآلي الموجه للتنبؤ المبني على الأنماط

  • وظيفته: يتعلم من البيانات التاريخية المصنفة للتنبؤ بالنتائج أو تصنيف المدخلات الجديدة.
  • مكانه في مجال الأمن: تحتاج إلى معرفة الثغرات الأمنية التي تُشكل خطرًا حقيقيًا. ويمكن لنماذج التعلّم الآلي الخاضعة للإشراف أن تتعلم من تريليونات من نقاط البيانات، واتجاهات الثغرات الأمنية السابقة، وسلوك المهاجمين وأهمية الأصول للتنبؤ بالثغرات الأمنية الجديدة التي من المرجح أن يستغلها المهاجمون.
  • كيف يبدو أثناء الاستخدام يُمكن للمنصات التي تستخدم هذا النموذج تعيين درجة مخاطر تنبؤية لكل ثغرة أمنية بناءً على نشاط التهديد الفعلي. إنه بديل مستند إلى البيانات لتصنيفات الثغرات الثابتة، ويساعدك في تقليل الإجهاد الذي يحدث من كثرة التنبيهات عبر التركيز على ما يهم حقًا.

التعلم العميق لاكتشاف التهديدات المعقدة

  • وظيفته: تُحلل الشبكات العصبية، مثل شبكات الذاكرة طويلة الأمد (LSTMs) والشبكات العصبية التلافيفية (CNNs)، أنماط حركة مرور الشبكة وسلوك المستخدم وسجلات الوصول إلى الملفات للكشف عن الروابط التي قد يستغرق المحللون البشريون ساعات للعثور عليها.
  • مكانه في مجال الأمن: إن التعلّم العميق ضروريًا للتعامل مع التهديدات المتطورة التي لا تتبع قواعد الهجوم المعتادة. وتكتشف هذه النماذج الأشياء التي تغفلها الأنظمة التقليدية القائمة على القواعد تمامًا، وخاصةً عندما يحاول المهاجمون الاندماج أو استخدام تقنيات جديدة أو غير معروفة.
  • كيف يبدو أثناء الاستخدام: فكّر في البرامج الضارة المُصممة للتهرب من الاكتشاف التقليدي من خلال تغيير شكلها. ويرصد التعلّم العميق الأنماط السلوكية الأساسية، حتى عندما يُعدل المهاجمون الكود البرمجي عمدًا لتبدو جيدة. أو يمكنك التفكير في سيناريو يبدأ فيه شخص ما لديه حق الوصول الشرعي في القيام بأشياء ليست مخالفة للسياسة من الناحية الفنية ولكنك تشعر أنها غير صحيحة، مثل الوصول إلى الملفات بترتيب غير عادي أو في أوقات غريبة. يكتشف النظام هذه التحولات السلوكية الدقيقة.

استخدام مخططات المعرفة لتتبع مسارات انتشار التهديدات

  • وظيفته: يربط بين الكيانات والمستخدمين والأصول والأذونات والثغرات الأمنية في شبكة علاقات مرئية يمكن البحث فيها.
  • مكانه في مجال الأمن: تعمل هذه النماذج على تشغيل تحليل مسار الهجوم. فبدلاً من التعامل مع المخاطر على أنها نتائج منفصلة، فإنها تُظهر كيف يمكن للمهاجمين تجميع العديد من المخاطر للوصول إلى الأصول عالية القيمة.
  • كيف يبدو أثناء الاستخدام: قد تكشف مخططات المعرفة عن تركيبة ضارة مثل خادم مكشوف للعامة به عيب معروف يتصل (عبر حسابات خدمة بصلاحية مفرطة) بقاعدة بيانات الإنتاج. يخبرك أين تتدخل لصد مسار الهجوم.

الذكاء الاصطناعي التوليدي والبرمجة اللغوية العصبية لتمكين المحللين

  • وظيفته: تحليل اللغة الطبيعية وتوليدها بحيث تكون بيانات الأمان المعقدة واضحة وقابلة للبحث والتنفيذ.
  • مكانه في مجال الأمن: بدلاً من البحث في لوحات التحكم، يمكن لفريقك طرح أسئلة بلغة بسيطة والحصول على ملخصات مقروءة بشريًا عن حالات التعرض للمخاطر والتهديدات وخطوات الاستجابة.
  • كيف يبدو أثناء التشغيل: يمكن للمحلل أن يسأل: "كيف يمكنني معالجة هذا التعرض؟" أو "ما الثغرات التي تؤثر على أصولنا المتصلة بالإنترنت والتي تملك صلاحيات مسؤول؟" ليحصل على إجابات سياقية ودقيقة على الفور. يقلل من وقت التحقيق ويجعل سير العمل الأمني في متناول غير المتخصصين.
سبب أهمية اختيار النموذج

عندما يدعي البائع أنه يستخدم "الذكاء الاصطناعي"، يجب أن تسأل:

  • أي نوع؟
  • لأي مشاكل؟
  • ما مقدار البيانات التي استخدمها البائع لتدريب نموذج الذكاء الاصطناعي؟
  • كم مرة يُحدث البائع النموذج بشكل متكرر؟
  • كيف يقارن نموذج تصنيف المخاطر الخاص بالحل بنموذج CVSS أو CISA KEV أو EPSS؟

يوجد فرق كبير بين منصة تُطبق خوارزمية عامة واحدة ومنصة تجمع بشكل استراتيجي بين نماذج متعددة، كل منها مضبوط لمهمة محددة. 

يدمج الذكاء الاصطناعي الأكثر تقدمًا في مجال الأمن كل ما سبق، باستخدام التعلم الآلي للتنبؤ بثغرات الأمن، والرسوم البيانية المعرفية لتعيين مسار الهجوم، والذكاء الاصطناعي التوليدي لتوجيه الاستجابة.

ستُحدد هذه الفروق مدى سرعة تحرك فريقك ومدى دقة استجابته وفعالية تقليل المخاطر الحقيقية.

أطر إدارة مخاطر الذكاء الاصطناعي وحوكمته

في الولايات المتحدة، المعيار الأساسي الذي يوجه حوكمة الذكاء الاصطناعي هو إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا (AI RMF). وهو إطار عمل طوعي مُصمم لمساعدتك في إدارة مخاطر الذكاء الاصطناعي ودعم تطوير أنظمة الذكاء الاصطناعي الجديرة بالثقة والمسؤولة.

يحتوي الإطار على أربع وظائف أساسية: الحوكمة والتخطيط والقياس والإدارة. 

يقدم إطار عمل إدارة المخاطر للذكاء الاصطناعي من المعهد الوطني للمعايير والتكنولوجيا والابتكار والإدارة (NIST) مخططًا للحوكمة المسؤولة وإدارة المخاطر في مجال الذكاء الاصطناعي، حتى تتمكن فرقك من بناء أنظمة ذكاء اصطناعي يمكنك الوثوق بها.

إن تحويل هذا الإطار إلى واقع ملموس يحتاج إلى أكثر من مجرد الرغبة في التغيير. ويتطلب الأمر أدوات عملية تمنحك رؤية عميقة ورؤى قابلة للاستخدام. 

تؤدي المنصات التي تتمتع بميزات قوية لاكتشاف الذكاء الاصطناعي وأمانه - على سبيل المثال، تلك التي تُشير إلى كل من استخدام الذكاء الاصطناعي والنماذج والبنية التحتية المعتمدة وغير المعتمدة - دورًا مباشرًا في خطوات الخريطة والقياس الخاصة بإطار العمل من خلال بناء مخزون كامل وإظهار المخاطر ذات الصلة. 

تُساعدك هذه الأدوات أيضًا على إدارة المخاطر من خلال المراقبة المستمرة لمخاطر الذكاء الاصطناعي واكتشاف الثغرات الأمنية من خلال المعالجة المركزة. 

وفي النهاية، يُمكن أن تساعدك الحلول الأمنية الحديثة على تحقيق الحوكمة المسؤولة للذكاء الاصطناعي واعتماد الذكاء الاصطناعي بأمان أكبر.

ولكن تذكر أن الأطر ليست قائمة مرجعية خطية. إنها دليل للعمليات المستمرة لإدارة المخاطر طوال دورة حياة الذكاء الاصطناعي. 
 

الحوكمة

تُعد وظيفة الحاكم حجر الزاوية في إطار إدارة علاقات العملاء بالذكاء الاصطناعي. وترسخ ثقافة إدارة المخاطر وتنميها. حيث يضع السياسات، ويحدد المساءلة ويضمن وجود العمليات الصحيحة لدعم الوظائف الثلاث الأخرى. 

بينما يقود الناس والسياسة الحوكمة، فإن التكنولوجيا تدعمها وتنفذها. الحوكمة الفعالة مستحيلة بدون الرؤية الشاملة والبيانات التي توفرها أدوات الأمان.

أنشطة الحوكمة الرئيسية
  • إنشاء إرشادات لنشر الذكاء الاصطناعي وتحديد مدى تحملك للمخاطر مقدمًا
  • تحديد الأدوار والمسؤوليات وتعيينها لحوكمة الذكاء الاصطناعي
  • تعزيز ثقافة تعطي الأولوية للتواصل المفتوح حول مخاطر الذكاء الاصطناعي
  • إنشاء عمليات لإدارة المخاطر الناجمة عن مكونات الذكاء الاصطناعي للجهات الخارجية

التحديد والقياس والإدارة

بمجرد أن يتوفر لديك أساس قوي لحوكمة الذكاء الاصطناعي، يجب عليك الانخراط في دورة مستمرة من تحديد مخاطر الذكاء الاصطناعي وقياسها وإدارتها.

التحديد

يُركز التحديد على السياق والاكتشاف. قبل تأمين نظام الذكاء الاصطناعي، يجب أن تفهم الغرض منه ومكوناته وتأثيره المحتمل.

يتضمن التخطيط ما يلي:

  • بناء مخزون شامل لأنظمة الذكاء الاصطناعي، بما في ذلك النماذج ومصادر البيانات، وخدمات الذكاء الاصطناعي AWS وAzure وGCP، والاستخدام غير المصرح به للذكاء الاصطناعي واكتشاف المكونات الإضافية للمتصفح.
  • توثيق سياق النظام، بما في ذلك الأهداف والقدرات المقصودة.
  • تحديد المخاطر المحتملة لجميع المكونات، بما في ذلك عناصر الجهات الخارجية.
القياس

في مرحلة القياس، تقوم بتقييم المخاطر من التخطيط لمعرفة مدى ثقتك في البنية التحتية التي تشغل أنظمة الذكاء الاصطناعي لديك.

يتضمن القياس:

  • تحليل خطوط معالجة البيانات والبنية التحتية السحابية بحثًا عن أي مخاطر أمنية محتملة، مثل دلاء البيانات التي يمكن الوصول إليها بشكل عام، أو التكوينات غير الآمنة في خدمات الذكاء الاصطناعي مثل Amazon SageMaker، أو إدارة الهوية والوصول (IAM) الأدوار التي تمنح الأشخاص إمكانية وصول أكبر بكثير مما يحتاجون إليه
  • الاختبار المستمر لأصول الذكاء الاصطناعي وتقييمها باستمرار بحثًا عن الثغرات الأمنية وتكوينات غير صحيحة
  • إنشاء وتتبع المقاييس المتعلقة بأمن الذكاء الاصطناعي والامتثال مع مرور الوقت
الإدارة

تُعالج مرحلة الإدارة المخاطر التي قمت بتحديدها وقياسها. يجب عليك تخصيص الموارد لمعالجة المخاطر الأكثر أهمية وفقاً لمدى تحملك للمخاطر المحددة.

تتضمن الإدارة:

  • تطبيق الضوابط الأمنية للحد من المخاطر، مثل الإجراءات التقنية لتخفيف المخاطر، مثل إصلاح التكوين غير الصحيح للسحابة وإلغاء الأذونات الزائدة وتشفير البيانات.
  • نصيحة: استخدم منصة آمنة لتوجيه الإجراءات مع تعليمات الإصلاح خطوة بخطوة.
  • تحويل المخاطر إلى طرف آخر، على سبيل المثال، من خلال التأمين الإلكتروني.
  • اتخاذ قرار بعدم نشر نظام الذكاء الاصطناعي إذا كانت مخاطره عالية بشكل غير مقبول.
  • القبول الرسمي للمخاطر التي تقع ضمن مستوى التحمل المحدد لمؤسستك.

ذكاء اصطناعي مسؤول مدعوم بتقنية AI Aware.

يوفر إطار عمل مثل إطار عمل NIST لإدارة المخاطر للذكاء الاصطناعي (AI RMF) مخططًا أساسيًا مهمًا للذكاء الاصطناعي المسؤول، ولكنه مجرد تمرين نظري دون اتباع النهج الصحيح لوضعه موضع التنفيذ.

وهنا يأتي دور AI Aware. يوفر هذا النظام بيانات لحوكمة الذكاء الاصطناعي للمساعدة في تصميم السياسات وإنفاذها.

يدور AI Aware حول امتلاك الرؤية والفهم والتحكم الذي تحتاجه لإدارة مخاطر الذكاء الاصطناعي بفعالية داخل مؤسستك. ويتعلق الأمر بتجاوز المبادئ التوجيهية المفاهيمية إلى التنفيذ العملي.

منصة مثل Tenable Cloud Security توفر لك هذا الأساس الفني اللازم لتبني ثقافة الوعي بالذكاء الاصطناعي. ونوفر جردًا شاملاً لتحديد مشهد الذكاء الاصطناعي الخاص بك، وتحليلًا مستمرًا لقياس وضعك الأمني، وتوجيهات قابلة للتنفيذ للتخفيف من المخاطر التي تواجهها، والرؤية على مستوى المؤسسة المطلوبة لحوكمة الذكاء الاصطناعي الفعالة.

هل أنت جاهز لتجاوز الأطر النظرية وفهم مخاطر الذكاء الاصطناعي وإدارتها بشكل حقيقي؟ اكتشف كيف يمكن لـ Tenable Cloud Security تقديم المساعدة.

أربع نصائح لمساعدة مديري أمن المعلومات على تقييم قدرات الذكاء الاصطناعي لمنصة أمنية

بصفتك مدير أمن معلومات، ربما يمطرك بائعو إدارة التعرض للمخاطر بمزاعم جريئة حول حلولهم التي تعتمد على الذكاء الاصطناعي. ولكن العديد منها يقوم بأتمتة المهام فقط. 

يجب أن يؤدي استثمارك في أمن الذكاء الاصطناعي إلى أكثر من ذلك بكثير. كما يجب أن يقلل من مخاطر العمل ويعزز برنامج الأمان الخاص بك. 

فيما يلي بعض الأسئلة الرئيسية التي يجب على كل مدير أمن معلومات طرحها لاكتساب رؤى حول كيفية تقييم حل أمني معتمد على الذكاء الاصطناعي.
 

هل يربط الحل بوضوح بين الذكاء الاصطناعي الخاص به والنتائج الأمنية الحقيقية، أم أنه يسرد فقط الميزات التقنية؟

فكر فيما يلي:

  • هل يشرح البائع سبب استخدامه لتقنيات محددة للذكاء الاصطناعي، بخلاف مجرد سرد النماذج أو الكلمات الطنانة؟
  • هل يمكن للبائع أن يربط بنية الذكاء الاصطناعي الخاصة به بنتائج مثل المعالجة الأسرع، أو تحسين MTTD/MTTR، أو تقليل التعرض؟
  • هل تم تحسين الذكاء الاصطناعي لحالة الاستخدام الخاصة بك (على سبيل المثال، تحديد أولويات الثغرات الأمنية ومخاطر الاستحقاق)، أم أنه مجرد أداة إضافية؟
  • هل يقدم البائع دليلاً أو مقاييس توضح التأثير الأمني للذكاء الاصطناعي في العالم الحقيقي؟

البائع الذي يقود بالنتائج، وليس بالخوارزميات، من المرجح أن يقدم قيمة استراتيجية.
 

هل بإمكان الذكاء الاصطناعي التواصل بوضوح مع البشر، وليس فقط إنشاء البيانات؟

فكر فيما يلي:

  • هل تشرح المنصة النتائج بلغة مشتركة يمكن للمحللين العمل بها دون الحاجة لفك تشفير النتائج؟
  • هل يمكنها ترجمة التنبيهات التقنية إلى سياق لقادة الأعمال أو فرق المخاطر أو المدققين؟
  • هل تدعم الفرز الأسرع من خلال إظهار ما هو على المحك وسبب أهميته؟
  • هل النتائج قابلة للاستخدام من خلال جميع الفرق، وليس فقط فرق تكنولوجيا المعلومات أو الأمن؟

الذكاء الاصطناعي الذي يُحسّن التواصل يبني الثقة ويسرّع العمل. إذا لم تتمكن المنصة من التحدث بلغة فريقك، فلن تدعم التعاون أو الاستجابة.
 

هل يتكيف الذكاء الاصطناعي مع احتياجات عملك أم يجبرك على التكيف معه؟

فكر فيما يلي:

  • هل يمكن للذكاء الاصطناعي أن يتعلم من بيئتك، بما في ذلك كيفية تصرف المستخدمين، وما الأصول الأكثر أهمية؟
  • هل يضبط درجة المخاطر بناءً على مجال عملك وبيئتك المحددة، وليس على معيار عام؟
  • هل النتائج مصممة خصيصًا لسطح الهجوم الفعلي، أم أنها تتعامل مع كل مؤسسة بالطريقة نفسها؟
  • هل يمكن أن يتطور مع تغير البيئة المحيطة بك، أم أنه مقيد بافتراضات ثابتة؟

الذكاء الاصطناعي الذي لا يمكنه التكيف مع أعمالك لن يساعدك في إدارة المخاطر الحقيقية. سوف يفوتك ما يهمك أو يشتت انتباهك بما لا يهمك.
 

هل يدعم الذكاء الاصطناعي اتخاذ القرارات القائمة على المخاطر والمتأصلة في التعرض للمخاطر والتأثير؟

فكر فيما يلي:

  • هل يحدد الذكاء الاصطناعي أولويات النتائج بناءً على المخاطر الفعلية، وليس فقط درجات الخطورة؟
  • هل يمكن التمييز بين ثغرات أمنية نظرية وتلك التي لها مسارات مخاطر حقيقية؟
  • هل يأخذ في الحسبان قابلية استغلال الثغرات، وأهمية الأصول وسلوك الخصم، وليس فقط درجات CVSS الثابتة؟
  • هل يساعد ذلك فريقك على التركيز على ما يقلل من المخاطر بشكل أسرع، أم أنه يساعدهم على التركيز على ما يقلل من المخاطر بشكل أسرع، أم أنه يوزعهم على ضوضاء ذات أولوية منخفضة؟

يُمكِّنك الذكاء الاصطناعي الذي يُمكِّنك من العمل على أساس المخاطر من التصرف بقصد حتى تتمكن من تركيز مواردك المحدودة على حالات التعرض للمخاطر الأكثر أهمية.

كيف تستخدم شركة Tenable الذكاء الاصطناعي في مجال الأمن الإلكتروني

تدعم أدوات الذكاء الاصطناعي من Tenable كلا جانبي معادلة الذكاء الاصطناعي والأمن الإلكتروني: استخدام الذكاء الاصطناعي لتعزيز الأمن الإلكتروني وتأمين أنظمة الذكاء الاصطناعي التي تبنيها أو تتبناها شركتك. 

يساعد هذا التركيز المزدوج على تقليل المخاطر على جبهتين مهمتين: حماية بنيتك التحتية وحماية بصمة الذكاء الاصطناعي لديك.

سترى ذلك في ثلاثة عروض أساسية:

استخدم الذكاء الاصطناعي لتعزيز الدفاع الإلكتروني باستخدام ExposureAI

يُعد ExposureAI المحرك التوليدي وراء منصة Tenable One Exposure Management. فهو يعالج أكثر من تريليون نقطة بيانات لمساعدتك على اكتشاف المخاطر وفهمها وتقليلها بدقة.

ويقوم ExposureAI بتحديد العلاقات بين أصولك ومستخدميك وخدماتك السحابية وهوياتك والثغرات الأمنية التي لديك. وهو مبني ومصمم على بيانات التعرض للمخاطر لمنصة Tenable حيث بجمع ويوحد ويربط بيانات الأمان المتناثرة من جميع أنحاء سطح الهجوم الخاص بك. وتعمل هذه البنية البيانية على تحويل النتائج المنفصلة إلى شبكة غنية ومترابطة بعمق من الأفكار.

وهذه النظرة المتصلة مهمة. 

بدلاً من مجرد الإبلاغ عن المشكلات المعزولة فقط، يمكن لمنصة ExposureAI اكتشاف سلاسل الهجمات المعقدة ومتعددة الخطوات وإضافة الدقة إلى كل تنبيه. فكر في الأمر وكأنه رسم بياني معرفي. من خلال هيكلة بياناتك بطريقة علائقية، فإنه يجعل من الممكن تتبع مسارات الهجوم من نقطة الدخول الأولية وصولاً إلى جواهر التاج.

من خلال هذه الصورة الكاملة، لا يرى فريقك أين توجد المخاطر فحسب، بل كيف يرتبط كل شيء معًا لخلق انكشاف حقيقي. يعمل على تسريع عملية تحديد الأولويات وإصلاح المشكلات. 

يمنح هذا الأساس نماذج ExposureAI السياق العميق الذي تحتاجه نماذج ExposureAI لتقديم رؤى فورية وخطوات تالية واضحة، مما يغير الطريقة التي تكتشف بها المخاطر في بيئتك وتفهمها وتوقفها.

راجع كيف يمكن لـ ExposureAI أن يساعدك في تجاوز كل الضجيج المتعلق بالثغرات الأمنية للتركيز على المخاطر الفعلية التي تهدد عملك. 
 

تحديد أولويات الثغرات الأمنية باستخدام AI Aware

يعمل AI Aware على تحسين سير عمل إدارة الثغرات الأمنية التقليدية باستخدام التعلّم الآلي لتركيز فريقك على الثغرات المنية التي تمثل أكبر التهديدات في الوقت الحالي.

وبدلاً من الاعتماد على تصنيفات CVSS الثابتة، يأخذ النظام بعين الاعتبار قابلية الاستغلال ومسارات التعرض للتهديدات ومعلومات التهديدات وسياق الأعمال لتحديد أولويات الثغرات الأمنية بناءً على المخاطر الواقعية.

يقلل برنامج AI Aware من الضوضاء ويسرّع عملية التصحيح من خلال تسليط الضوء على الثغرات الأمنية التي من المرجح أن يستغلها المهاجمون في بيئتك. فهو يساعدك على التحول من إدارة الثغرات الأمنية القائمة على رد الفعل إلى استراتيجية قائمة على المخاطر.

تعرّف على كيفية تعزيز AI Aware في تحديد الأولويات القائمة على المخاطر.
 

تأمين حزمة الذكاء الاصطناعي لديك باستخدام إدارة وضع أمن الذكاء الاصطناعي (AI-SPM)

كلما زاد الاعتماد على الذكاء الاصطناعي، زاد كذلك سطح الهجوم. تُساعدك إدارة وضع أمن الذكاء الاصطناعي (AI-SPM) على اكتشاف الخدمات السحابية والنماذج والاستحقاقات التي تدعم مبادرات الذكاء الاصطناعي لديك وتقويتها والتحكم فيها.

تكتشف إدارة وضع أمن الذكاء الاصطناعي (AI-SPM) البنية الأساسية المتعلقة بالذكاء الاصطناعي عبر AWS وAzure وGoogle Cloud. فهي تُحدد كيفية تفاعل المستخدمين مع المنصات وتُحدد كيفية تفاعل المستخدمين مع المنصات وتضع علامات على ملحقات المتصفح غير المصرح بها أو الحزم أو الاستخدام غير المصرح به للذكاء الاصطناعي الذي يصل إليه مستخدمو الأعمال.

ويتكامل مع أدوات إدارة البنية التحتية للسحابة والاستحقاقات (CIEM) لفرض أقلّ قدر من الامتيازات. كما تتتبع من يصل إلى نماذجك وواجهات برمجة التطبيقات والبيانات الحساسة حتى تتمكن من اكتشاف إساءة الاستخدام في وقت مبكر وتظل متوافقًا مع المعايير.

استخدام الذكاء الاصطناعي لتحديد أولويات المخاطر في العالم الحقيقي باستخدام تصنيف أولويات الثغرات الأمنية (VPR)

يستخدم تصنيف أولويات الثغرات الأمنية (VPR) من Tenable التعلم الآلي لتعيين درجات ديناميكية للمخاطر بناءً على عوامل واقعية متعددة، وليس فقط درجة CVSS ثابتة، لمساعدة فريقك على تحديد أولويات المخاطر الفعلية، بدلاً من الغرق في التنبيهات.

يشتمل تصنيف أولوية الثغرة الأمنية على:

  • استغلال الثغرة الأمنية والتسليح
  • معلومات التهديدات النشطة من مصادر شبكة الويب العام والمظلم
  • مخاطر للأصول وسياق الشبكة
  • الاتجاهات الزمنية وسلوك المهاجمين

مثال:

  • قد يقيّم CVSS ثغرتين ب 9.8، لكن ممثلي التهديد يستغلون واحدة فقط في بيئة العمل.
  • وبدلاً من التسرع في إصلاح كليهما بناءً على تلك النتيجة، يُطبق تصنيف أولويات الثغرات الأمنية (VPR) مقاييس أخرى لتسجيل المخاطر لتعيين مخاطر أعلى على الشخص الذي لديه نشاط تهديد فعلي. يمنحك تصنيف أولوية الثغرة الأمنية الرؤية التي تحتاجها لمعرفة أيهما يجب تصحيحه أولاً.

هل ترغب في معرفة كيفية عمل ExposureAI وإدارة وضع أمن الذكاء الاصطناعي (AI-SPM) معًا لتأمين بيئتك ومبادرات الذكاء الاصطناعي الخاصة بك؟ استكشف حلول الأمن الإلكتروني المدعومة بالذكاء الاصطناعي من Tenable.

AI security resources

AI security products

أخبار الأمن الإلكتروني التي يمكنك استخدامها

أدخل بريدك الإلكتروني ولن تفوتك أي تنبيهات فورية وإرشادات الأمان من الخبراء في Tenable.