Facebook Google Plus Twitter LinkedIn YouTube RSS Menu Search Resource - BlogResource - WebinarResource - ReportResource - Eventicons_066 icons_067icons_068icons_069icons_070

تحديد أعباء عمل الذكاء الاصطناعي وتأمينها



تحديد وتأمين أعباء عمل الذكاء الاصطناعي

اكتشف أسباب احتياج أعباء عمل الذكاء الاصطناعي إلى نهج جديد لأمن السحابة

النقاط الرئيسية

  1. فجوة الرؤية: نظرًا لأن الابتكار في مجال الذكاء الاصطناعي قد فاق الاستعداد الأمني التقليدي، تواجه المؤسسات فجوة حرجة في الرؤية حيث تتراكم الخطوط المبهمة والثغرات الأمنية الخفية بشكل أسرع من قدرة فرق الأمن على اكتشافها.
  2. فحص مستمر بدلاً من الفحص الثابت: لتأمين بيئات الذكاء الاصطناعي المرنة بفعالية، يجب أن تتحول الاستراتيجيات الأمنية من الفحص الثابت في الوقت الفعلي إلى نموذج الاكتشاف والتحقق المستمر الذي يُراقب التغيرات السريعة الفورية.
  3. تحديد الأولويات حسب السياق: بدلاً من الاستجابة للحجم الهائل من التنبيهات، يجب على فرق الأمن تحديد أولويات المخاطر بناءً على التقاطع الخطير للبيانات الحساسة والهويات ذات الصلاحيات الزائدة والتكوينات غير الصحيحة لتحديد مسارات الهجوم الفعلية.

ماذا يحدث عندما يصبح الجزء الأكثر ابتكارًا في بيئتك السحابية هو الأكثر عرضة للخطر أيضًا؟ إذا كانت السحابة هي نظام التشغيل في عالمنا الرقمي اليوم، أصبح الذكاء الاصطناعي بمثابة الوضع الحر: مرن، ومبدع، وقوي بشكل لا يُصدق، ولكنه سهل الاقتحام بشكل خطير إذا لم تكن حذرًا.

إن الحرية نفسها التي تُسرّع من ابتكار الذكاء الاصطناعي تعرض أيضًا مخاطر كبيرة. ووفقًا لـ Tenable Cloud Research، فإن 70% من أعباء عمل السحابة التي تستخدم خدمات الذكاء الاصطناعي تحتوي على تكوين غير صحيح واحد على الأقل أو ثغرة أمنية حرجة. فكّر في ذلك للحظة.

لا يتم نشر مسارات الذكاء الاصطناعي من خلال فرق الأمن. ويتم إنشاؤها وإدارتها من خلال المطورين وعلماء البيانات ومهندسي تعلّم الآلة. وفي هذه العملية، تصبح هذه الفرق في هذه العملية هي المديرين العرضيين لأنظمة ذكاء اصطناعي كاملة. إنهم يديرون مثيلات وحدة معالجة الرسومات، وإرفاق حسابات الخدمة المميزة، وربط مخازن البيانات، وضبط أذونات الهوية التي غالبًا ما لا تتم مراجعتها. وفي كثير من الحالات، ينتهي الأمر بالأشخاص الذين يبنون نموذج الذكاء الاصطناعي إلى حمل مفاتيح المملكة، حتى لو لم يقصدوا ذلك أبدًا.

داخل مسارات التدريب، ودفاتر الملاحظات المُدارة، ومخازن الكائنات، وسجلات النماذج، وقواعد بيانات المتجهات، والهويات التي تربطها معًا، تتراكم الثغرات الأمنية الخفية. وتخلق نقاط الضعف هذه بهدوء واحدة من أسرع أسطح الهجوم نموُا وأقلها فهمًا في المؤسسة. وحتى أبسط خيارات التكوين - مثل ما إذا كان الكمبيوتر الدفتري مزودًا بإمكانية الوصول المباشر إلى الإنترنت أو ما إذا كانت مساحة التخزين في الطراز مشفرة - يمكن أن يفتح الباب أمام تعرضه للمخاطر دون قصد.

لم يعد قادة الأمن يسألون: "هل نستخدم الذكاء الاصطناعي في السحابة؟" لقد تجاوزنا هذا السؤال بالفعل. إنهم يتصارعون مع واقع أكثر صعوبة بكثير: "كيف نؤمن ما لا يمكننا رؤيته أو لا يمكننا تصنيفه أو حتى لم نعرف أننا نشرناه؟"

لا تكمن المشكلة بشكل عام في الإهمال. المشكلة هي التعتيم. الذكاء الاصطناعي السحابي يخلق سراب البساطة. حيث يبدو السطح هادئًا ومبسّطًا ومجرّدًا بشكل جميل، ولكن خلف هذا التجريد طبقات عميقة من الأتمتة والتقصير الموروث، وتمدد الهوية والامتيازات غير المرئية التي تجعل من الصعب اكتشاف الانكشاف الذي يتشكل في الوقت الحقيقي. وتُخفي هذه الطبقات مزيجًا ضارًا من المخاطر. وقد يبدو متجر النموذج المفتوح للجمهور غير ضار حتى يتقاطع مع حساب خدمة بامتيازات مفرطة أو بيانات تدريب حساس مُخزنة بدون تشفير. إن التقاطع بين هذه المشكلات، وليس أي واحدة منها بمفردها، هو ما يخلق انكشافًا حقيقيًا. ولم يُصمم الفحص التقليدي وفحوصات السياسة التقليدية أبدًا للأنظمة التي تتصرف بهذه الطريقة. ولذلك تكون النتيجة حتمية. يتحرك الذكاء الاصطناعي بوتيرة أسرع من الضوابط الأمنية الموضوعة لحمايته، وتتسع الفجوة بين الابتكار والحماية كل يوم.

كيف يبدو الأمن الجيد: سد فجوة الرؤية

إذا كانت فرق الأمن تتمتع بوضوح وارتفاع النسر، فإن السحابة ستبدو مختلفة تمامًا. فإنهم سيطلعون على أعباء عمل الذكاء الاصطناعي التي تظهر وتختفي في غضون دقائق، والهويات التي تتراكم عليها الأذونات بهدوء، ونماذج البيانات التي تنتقل عبر طبقات التخزين، والبيانات الحساسة التي تتدفق إلى الخدمات التي لا يتذكر أحد أنه قام بتكوينها. كما سيطلعون أيضًا على التسلسل الكامل لكيفية تدريب النماذج، ومكان كتابة المخرجات والخدمات السحابية التي تتفاعل خلف الكواليس. وتكشف وجهة النظر هذه عن مخاطر لا تدرك معظم الفرق وجودها.

ومن هذا المنطلق، تكون المخاطر الحقيقية مرئية وظاهرة. وبدونها، تظل تلك المخاطر مخفية داخل طبقات التجريد التي تجعل الذكاء الاصطناعي السحابي يبدو بسيطًا.

يبدأ سد الفجوة بين ابتكار الذكاء الاصطناعي وأمن الذكاء الاصطناعي بهذا النوع من الرؤية. وبينما يتم تدريب النماذج وضبطها وإعادة نشرها، تتغير البيئة تحت الأقدام. تظهر اتصالات تخزين جديدة. تكتسب حسابات الخدمة امتيازات. ترث خدمات الذكاء الاصطناعي المُدارة الافتراضيات التي لا يراجعها أحد. تتراكم التركيبات الخاطئة بهدوء حتى تشكل مساراً مكشوفاً.

ولتأمين الذكاء الاصطناعي بالسرعة التي يتطور بها، تحتاج المؤسسات إلى إعادة التفكير في شكل "الجيد". جيد يعني رؤية الصورة الكاملة لكيفية بناء خطوط أنابيب الذكاء الاصطناعي وكيفية تصرفها. وهذا يعني فهم أي الهويات يمكن أن تصل إلى أي البيانات، وأي أعباء العمل التي تقدم معلومات حساسة، وأين تنتقل الأصول النموذجية وأي مجموعات من نقاط الضعف والامتيازات والتعرض مهمة بالفعل. وهذا يعني تحديد أولويات المخاطر من خلال السياق، وليس من خلال الضوضاء.

والأهم من ذلك أنه يعني تبني نموذج للتقييم المستمر والتحقق من الصحة والتطبيق. تتغير بيئات الذكاء الاصطناعي بسرعة كبيرة بحيث لا يمكن إجراء فحص في الوقت المحدد أو فحوصات التكوين الثابتة. يجب أن يتوافق الأمن مع وتيرة النشر، وليس العكس.

هذا هو أساس تأمين الذكاء الاصطناعي في السحابة؛ الرؤية المرتفعة والفهم السياقي والتحقق المستمر. مع وجود هذا الأمر، يمكن للمؤسسات أن تنتقل أخيرًا من مرحلة الاستجابة لحالات التعرّض للذكاء الاصطناعي إلى مرحلة الوقاية منها.

من التحديات إلى الممارسات القابلة للتنفيذ

والآن بعد أن فهمنا وتيرة وتعقيدات بيئات الذكاء الاصطناعي، فإن الخطوة التالية هي إنشاء الممارسات التي تحقق القدرة على التنبؤ والتحكم.

أفضل الممارسات لتأمين أعباء عمل الذكاء الاصطناعي في السحابة

بمجرد أن تفهم المؤسسات مدى مرونة أعباء عمل الذكاء الاصطناعي وترابطها، فإن الخطوة التالية هي وضع الممارسات الصحيحة لحمايتها. الأمن القوي للذكاء الاصطناعي لا يعني إبطاء الابتكار. يتعلق الأمر بمنح المطورين ومهندسي التعلّم الآلي أو التعلّم العميق إلى جانب فرق الأمن أساساً مشتركاً يقلل من المخاطر دون تعطيل السرعة.

فيما يلي الممارسات الأساسية الأكثر أهمية.

1. اكتشف باستمرار كل مورد من موارد الذكاء الاصطناعي عبر السحابة الخاصة بك

تنتشر أعباء عمل الذكاء الاصطناعي عبر الخدمات والتخزين وخطوط الأنابيب والسجلات وواجهات برمجة التطبيقات والخدمات المُدارة. كما أنها تظهر وتختفي بسرعة. أفضل الممارسات الأولى هي الاكتشاف المستمر لكل مكون في دورة حياة الذكاء الاصطناعي. ويتضمن ذلك خطوط أنابيب التدريب، ومستودعات النماذج، وخدمات التدريب والاستدلال الحاسوبي للذكاء الاصطناعي وخدمات حوسبة التدريب والاستدلال وقواعد البيانات المتجهة ونقاط نهاية الاستدلال ومخازن البيانات التي تغذيها. ويعني أيضاً تتبع كيفية اتصال هذه الخدمات وأين تتدفق النماذج والخدمات السحابية التي تعتمد عليها.

الرؤية ليست نشاطاً لمرة واحدة. يبدأ أمان الذكاء الاصطناعي عندما يصبح الاكتشاف مستمراً.

2.تصنيف البيانات التي تتدفق من أنظمة الذكاء الاصطناعي وإليها

تكون أعباء عمل الذكاء الاصطناعي آمنة بقدر أمان البيانات التي تستخدمها. تحتاج المؤسسات إلى تصنيف آلي ودقيق يحدد بيانات التدريب الحساسة والمعلومات الخاضعة للتنظيم ومجموعات بيانات الملكية الفكرية ومجموعات بيانات الإنتاج قبل دخولها إلى خطوط أنابيب النماذج. يعد تحديد بيانات التدريب الحساسة الخطوة الأولى في اكتشاف وتأمين عبء عمل الذكاء الاصطناعي الكامل ومخاطر نشره. فهو يمنع التعرض العرضي وتسريب البيانات والتدريب غير المقصود للنموذج على المعلومات عالية الخطورة. يستفيد الأمن القوي للذكاء الاصطناعي أيضًا من إمكانية الاطلاع على أمثلة للبيانات المكتشفة، وليس فقط التسميات عالية المستوى.

إذا لم تتمكن من رؤية بياناتك، فلن تتمكن من التحكم في كيفية تشكيلها لنماذجك أو كيفية كشفها لأعمالك.

3. فهم علاقات الهوية والامتيازات ضمن تدفقات عمل الذكاء الاصطناعي

تعتمد خدمات الذكاء الاصطناعي على حسابات الخدمة والرموز المميزة والاستحقاقات التي تنمو بسرعة تتجاوز الغرض الأصلي منها. تقدم كل مهمة أو دفتر ملاحظات أو خط أنابيب أو مهمة مجدولة لوحدة معالجة الرسومات أذونات جديدة. يجب على فرق الأمن أن تفهم من وماذا لديه حق الوصول إلى كل مورد من موارد الذكاء الاصطناعي وأي امتيازات موروثة بصمت من مكان آخر. لا تشمل هذه الرؤية ليس فقط الوصول إلى النماذج ولكن أيضًا بيانات التدريب والإنتاج التي تتدفق عبر هذه الأنظمة، بالإضافة إلى الهويات التي تعتمد عليها أعباء عمل الذكاء الاصطناعي نفسها.

يرتكز الأمن القوي للذكاء الاصطناعي على نظافة الهوية. تخلق ضوابط الهوية الضعيفة أسرع مسار لاختراق النموذج أو سرقة البيانات.

4.تحديد أولويات مخاطر الذكاء الاصطناعي من خلال السياق وليس الحجم

تولد أعباء عمل الذكاء الاصطناعي كميات كبيرة من الضوضاء. ليست كل نقطة ضعف أو سوء تهيئة على نفس القدر من الأهمية. يأتي الخطر الحقيقي عندما تتقاطع التعرّضات: البيانات الحساسة مع الأدوار ذات الامتيازات الزائدة، أو أعباء العمل الضعيفة التي يمكن الوصول إليها من الشبكات العامة. تحديد الأولويات السياقية يدرك أن الثغرات التي تؤثر على أطر أو أدوات الذكاء الاصطناعي يجب تقييمها من منظور من يمكنه استغلالها وكيفية ارتباطها بالأصول الحرجة.

تحتاج المؤسسات إلى تحديد الأولويات التي تعكس مسارات الهجوم الحقيقية، وليس قوائم المشكلات الثابتة. يتحسن مستوى الأمان عندما تعرف الفرق ما هي التعرضات المهمة ولماذا.

5. التحول من الفحوصات الثابتة إلى التحقق المستمر

تتطور بيئات الذكاء الاصطناعي بسرعة لا يمكن لأدوات الأمان القديمة مجاراتها. يمكن أن تؤدي النماذج الجديدة ومجموعات البيانات الجديدة وخطوات خط الأنابيب الجديدة إلى التعرض بين عشية وضحاها. يجب أن تتبنى المؤسسات التحقق المستمر الذي يراقب تغيرات الوضع، ويفرض حواجز حماية ويضمن عدم عودة الظروف الخطرة بعد المعالجة. يتضمن ذلك مراقبة التكوينات الخاطئة مثل التخزين النموذجي العام أو التشفير المفقود أو أجهزة الكمبيوتر المحمولة ذات الوصول المباشر إلى الإنترنت.

الأمان الثابت يخلق نقاط عمياء. التحقق المستمر والضوابط، وإغلاقها.

6.تنفيذ حواجز الحماية التي تمنع المخاطر قبل وقوعها

لا يؤدي الأمان الجيد إلى إبطاء ابتكار الذكاء الاصطناعي. يعمل على تسريعها من خلال تقليل إعادة العمل. يجب على المؤسسات تطبيق الحد الأدنى من الامتيازات وحماية البيانات وحواجز حماية التكوين كجزء من عملية تطوير الذكاء الاصطناعي ونشره. يتضمن ذلك منع الكشف العام عن أصول النماذج، وتقييد البيانات الحساسة من الدخول إلى خطوط أنابيب التدريب، وحظر الاستحقاقات التي تمنح وصولاً غير ضروري إلى سجلات النماذج وقواعد بيانات المتجهات، بل وتحديد المكان الذي يمكن أن توجد فيه البيانات الحساسة والمكان الذي لا يمكن أن توجد فيه.

لتنفيذ حواجز حماية التحكم في الوصول هذه بفعالية، فإن النهج الأكثر أمانًا هو تقييد الأذونات المرتفعة إلى اللحظة المحددة التي تحتاجها بالضبط. يساعد الوصول قصير الأجل عند الطلب على ضمان تحرك فرق الذكاء الاصطناعي بسرعة دون ترك امتيازات طويلة الأمد في البيئة.

تحدد أفضل الممارسات الخطوط العريضة للوجهة، ولكنها لا تكون مهمة إلا عندما يمكن تطبيقها على أرض الواقع. تتحرك بيئات الذكاء الاصطناعي بسرعة كبيرة جداً بالنسبة للنظرية وحدها. تحتاج المؤسسات إلى طريقة لتحويل هذه المبادئ إلى شيء حقيقي. هذا هو بالضبط ما تقدمه Tenable: الرؤية والسياق والتحقق المستمر والتحكم المستمر الذي يحول أفضل الممارسات من نقاط حوارية إلى واقع يومي.

كيف يقوم برنامج Tenable Cloud Security بتأمين أعباء عمل الذكاء الاصطناعي عبر السحابة

توفر Tenable الوضوح الذي تتطلبه بيئات الذكاء الاصطناعي الحديثة. تمتد أعباء عمل الذكاء الاصطناعي لتشمل الحوسبة والتخزين والهوية والبيانات والخدمات المُدارة، ويؤدي كل جزء من هذا النظام البيئي دوراً في تشكيل المخاطر. إدارة التعرض هي الاستراتيجية التي تمكّن المؤسسات من رؤية هذه المخاطر وتحديد أولوياتها وإصلاحها عبر الأصول السحابية المترابطة. يساعدك برنامج CNAPP لأمن السحابة القابل للتثبيت على تنفيذ هذه الاستراتيجية من خلال توحيد تكوينات السحابة ومسارات الهوية وحساسية البيانات في فهم سياقي واحد لمدى أهمية التعرضات الحقيقية.

أعادت السحابة والذكاء الاصطناعي كتابة منحنى التعلم بين عشية وضحاها. يمكن اعتماد خدمات الذكاء الاصطناعي السحابية الأصلية، مثل نماذج ووكلاء مؤسسة أمازون بيدروك الأساسية، ووكلاء Azure AI Studio، ونماذج Azure OpenAI، ونقاط نهاية Google Vertex AI، على الفور . كما أنها تقدم أيضاً أشكالاً جديدة من المخاطر التي بدأت معظم الفرق في فهمها.

يتشكل نشر الذكاء الاصطناعي الحديث بشكل متزايد من خلال هذه الخدمات المُدارة. تكتشف شركة Tenable الموارد السحابية التي تدعمها وتراقبها، وتقيّم تكويناتها، وتحدد الهويات والأذونات التي تتفاعل معها. يساعد ذلك المؤسسات على تأمين الذكاء الاصطناعي الذي تستهلكه بنفس فعالية الذكاء الاصطناعي الذي تنشئه.

يبدأ الأمر بالرؤية. تقوم شركة Tenable بجرد الخدمات السحابية المشاركة في أعباء عمل الذكاء الاصطناعي عبر AWSوAzureوGCP وOracle Cloud. ويشمل ذلك بيئات الحوسبة وخدمات التخزين وطبقات الشبكات والهويات وواجهات برمجة التطبيقات وعناصر التحكم في الوصول. كما أنه يحدد مكان وجود البيانات الحساسة داخل هذه البيئات والهويات أو الخدمات التي يمكن أن تصل إليها، بما في ذلك وقت وصول موارد الذكاء الاصطناعي إليها.

من هناك، تضيف Tenable السياق. نادراً ما تصبح أعباء عمل الذكاء الاصطناعي خطيرة بسبب مشكلة واحدة. تتجسد المخاطر عندما تتعارض التكوينات الخاطئة والبيانات الحساسة والامتيازات المفرطة عبر الخدمات السحابية. يربط Tenable بين هذه الإشارات ويكشف عن حالات التعرض التي من المرجح أن تؤدي إلى تسرب البيانات أو الوصول غير المقصود أو إساءة استخدام الامتيازات. على سبيل المثال، يمكنه الكشف عن إمكانية وصول نموذج الذكاء الاصطناعي المُدار إلى بيانات التدريب غير المشفرة.

This context allows organizations to focus on what matters instead of reacting to noise. Tenable’s Vulnerability Priority Rating (VPR) applies real time threat intelligence to determine which issues represent genuine exploitability and which are unlikely to be targeted.

غالبًا ما يكون التعرض للبيانات هو المكان الذي تصبح فيه مخاطر الذكاء الاصطناعي ملموسة. تربط قدرات تينابل في مجال أمن البيانات مجموعات البيانات الحساسة بخدمات الذكاء الاصطناعي التي تتفاعل معها. أحد الأمثلة على ذلك هو التحليل المدمج الذي يكتشف نماذج AWS Bedrock المخصصة المدربة على البيانات الحساسة، مما يوفر رؤية قابلة للتنفيذ بدلاً من التنبيهات المجردة.

وأخيراً، توفر Tenable التحقق المستمر من الصحة. تتغير الموارد السحابية التي تدعم أعباء عمل الذكاء الاصطناعي باستمرار مع نشر خدمات جديدة وتطور الأذونات وتدفق البيانات الجديدة إلى البيئة. تراقب شركة Tenable هذه التغييرات في الوقت الفعلي، وتطبق سياسات حماية تفرض أقل امتيازات وتحمي البيانات الحساسة وتمنع الحالات الخطرة قبل دخولها إلى الإنتاج.

تخلق هذه الإمكانات مجتمعةً بيئة يمكن فيها للابتكار في مجال الذكاء الاصطناعي أن يتحرك بسرعة دون أن يترك الأمن وراءه. تكتسب المؤسسات رؤية واضحة في الخدمات السحابية التي تدعم أعباء عمل الذكاء الاصطناعي، والثقة في أماكن تراكم المخاطر، وضمان بقاء وضعها محميًا حتى مع تغير البيئة بمرور الوقت.

تجربة عملية

يرشدك العرض التوضيحي القصير أدناه إلى بيئة ذكاء اصطناعي سحابي حقيقية ويوضح كيف تحدد Tenable أعباء العمل وتكشف عن المخاطر الخفية وتسلط الضوء على المشكلات الأكثر أهمية.

إنها نظرة سريعة ومباشرة على ما تبدو عليه الرؤية الأمنية للذكاء الاصطناعي في الواقع العملي.

 

انقر هنا للحصول على مزيد من المعلومات حول تحديد أعباء عمل الذكاء الاصطناعي وتأمينها


أخبار الأمن الإلكتروني التي يمكنك استخدامها

أدخل بريدك الإلكتروني ولن تفوتك أي تنبيهات فورية وإرشادات الأمان من الخبراء في Tenable.

× الاتصال بفريق المبيعات