تحديد أعباء عمل الذكاء الاصطناعي وتأمينها
اكتشف أسباب احتياج أعباء عمل الذكاء الاصطناعي إلى نهج جديد لأمن السحابة
النقاط الرئيسية
- فجوة الرؤية: نظرًا لأن الابتكار في مجال الذكاء الاصطناعي قد فاق الاستعداد الأمني التقليدي، تواجه المؤسسات فجوة حرجة في الرؤية حيث تتراكم الخطوط المبهمة والثغرات الأمنية الخفية بشكل أسرع من قدرة فرق الأمن على اكتشافها.
- فحص مستمر بدلاً من الفحص الثابت: لتأمين بيئات الذكاء الاصطناعي المرنة بفعالية، يجب أن تتحول الاستراتيجيات الأمنية من الفحص الثابت في الوقت الفعلي إلى نموذج الاكتشاف والتحقق المستمر الذي يُراقب التغيرات السريعة الفورية.
- تحديد الأولويات حسب السياق: بدلاً من الاستجابة للحجم الهائل من التنبيهات، يجب على فرق الأمن تحديد أولويات المخاطر بناءً على التقاطع الخطير للبيانات الحساسة والهويات ذات الصلاحيات الزائدة والتكوينات غير الصحيحة لتحديد مسارات الهجوم الفعلية.
ماذا يحدث عندما يصبح الجزء الأكثر ابتكارًا في بيئتك السحابية هو الأكثر عرضة للخطر أيضًا؟ إذا كانت السحابة هي نظام التشغيل في عالمنا الرقمي اليوم، أصبح الذكاء الاصطناعي بمثابة الوضع الحر: مرن، ومبدع، وقوي بشكل لا يُصدق، ولكنه سهل الاقتحام بشكل خطير إذا لم تكن حذرًا.
إن الحرية نفسها التي تُسرّع من ابتكار الذكاء الاصطناعي تعرض أيضًا مخاطر كبيرة. ووفقًا لـ Tenable Cloud Research، فإن 70% من أعباء عمل السحابة التي تستخدم خدمات الذكاء الاصطناعي تحتوي على تكوين غير صحيح واحد على الأقل أو ثغرة أمنية حرجة. فكّر في ذلك للحظة.
لا يتم نشر مسارات الذكاء الاصطناعي من خلال فرق الأمن. ويتم إنشاؤها وإدارتها من خلال المطورين وعلماء البيانات ومهندسي تعلّم الآلة. وخلال هذه العملية، تصبح هذه الفرق في هذه العملية المديرين العرضيين لأنظمة ذكاء اصطناعي كاملة. يديرون مثيلات وحدة معالجة الرسومات، وإرفاق حسابات الخدمة المميزة، وربط مخازن البيانات، وضبط أذونات الهوية التي غالبًا ما لا تتم مراجعتها. وفي كثير من الحالات، ينتهي الأمر بالأشخاص الذين يبنون نموذج الذكاء الاصطناعي إلى حمل مفاتيح المملكة، حتى لو لم يقصدوا ذلك أبدًا.
داخل مسارات التدريب، ودفاتر الملاحظات المُدارة، ومخازن الكائنات، وسجلات النماذج، وقواعد بيانات المتجهات، والهويات التي تربطها معًا، تتراكم الثغرات الأمنية الخفية. وتخلق نقاط الضعف هذه بهدوء واحدة من أسرع أسطح الهجوم نموُا وأقلها فهمًا في المؤسسة. وحتى أبسط خيارات التكوين - مثل ما إذا كان الكمبيوتر الدفتري مزودًا بإمكانية الوصول المباشر إلى الإنترنت أو ما إذا كانت مساحة التخزين في الطراز مشفرة - يمكن أن يفتح الباب أمام تعرضه للمخاطر دون قصد.
لم يعد قادة الأمن يسألون: "هل نستخدم الذكاء الاصطناعي في السحابة؟" لقد تجاوزنا هذا السؤال بالفعل. إنهم يتصارعون مع واقع أكثر صعوبة بكثير: "كيف نؤمن ما لا يمكننا رؤيته أو لا يمكننا تصنيفه أو حتى لم نعرف أننا نشرناه؟"
لا تكمن المشكلة بشكل عام في الإهمال. المشكلة هي التعتيم. الذكاء الاصطناعي السحابي يخلق سراب البساطة. حيث يبدو السطح هادئًا ومبسّطًا ومجرّدًا بشكل جميل، ولكن خلف هذا التجريد طبقات عميقة من الأتمتة والتقصير الموروث، وتمدد الهوية والامتيازات غير المرئية التي تجعل من الصعب اكتشاف الانكشاف الذي يتشكل في الوقت الحقيقي. وتُخفي هذه الطبقات مزيجًا ضارًا من المخاطر. وقد يبدو متجر النموذج المفتوح للجمهور غير ضار حتى يتقاطع مع حساب خدمة بامتيازات مفرطة أو بيانات تدريب حساس مُخزنة بدون تشفير. إن التقاطع بين هذه المشكلات، وليس أي واحدة منها بمفردها، هو ما يخلق انكشافًا حقيقيًا. ولم يُصمم الفحص التقليدي وفحوصات السياسة التقليدية أبدًا للأنظمة التي تتصرف بهذه الطريقة. ولذلك تكون النتيجة حتمية. يتحرك الذكاء الاصطناعي بوتيرة أسرع من الضوابط الأمنية الموضوعة لحمايته، وتتسع الفجوة بين الابتكار والحماية كل يوم.
كيف يبدو الأمن الجيد: سد فجوة الرؤية
إذا كانت فرق الأمن تتمتع بوضوح وارتفاع النسر، فإن السحابة ستبدو مختلفة تمامًا. فإنهم سيطلعون على أعباء عمل الذكاء الاصطناعي التي تظهر وتختفي في غضون دقائق، والهويات التي تتراكم عليها الأذونات بهدوء، ونماذج البيانات التي تنتقل عبر طبقات التخزين، والبيانات الحساسة التي تتدفق إلى الخدمات التي لا يتذكر أحد أنه قام بتكوينها. كما سيطلعون أيضًا على التسلسل الكامل لكيفية تدريب النماذج، ومكان كتابة المخرجات والخدمات السحابية التي تتفاعل خلف الكواليس. وتكشف وجهة النظر هذه عن مخاطر لا تدرك معظم الفرق وجودها.
ومن هذا المنطلق، تكون المخاطر الحقيقية مرئية وظاهرة. وبدونها، تظل تلك المخاطر مخفية داخل طبقات التجريد التي تجعل الذكاء الاصطناعي السحابي يبدو بسيطًا.
يبدأ سد الفجوة بين ابتكار الذكاء الاصطناعي وأمن الذكاء الاصطناعي بهذا النوع من الرؤية. وبينما يتم تدريب النماذج وضبطها وإعادة نشرها، تتغير البيئة. وتظهر اتصالات بوحدة تخزين جديدة. وتكتسب حسابات الخدمة امتيازات. وتتواجد الإعدادات الافتراضية في خدمات الذكاء الاصطناعي المُدارة التي لا يراجعها أحد. وتتراكم التكوينات غير الصحيحة بهدوء حتى تُشكل مسارًا للتعرض للمخاطر.
ولتأمين الذكاء الاصطناعي بالسرعة التي يتطور بها، تحتاج المؤسسات إلى إعادة التفكير في شكل "الجيد". جيد يعني رؤية الصورة الكاملة لكيفية تصميم مسارات الذكاء الاصطناعي وطريقة تصرفها. وهذا يعني فهم أي الهويات يُمكن أن تصل إلى أي البيانات، وأي أعباء العمل التي تقدم معلومات حساسة، وأين تنتقل الأصول النموذجية وأي مجموعات من الثغرات الأمنية والامتيازات والتعرض مهمة بالفعل. ويعني هذا تحديد أولويات المخاطر من خلال السياق، وليس من خلال الضوضاء.
الأهم من ذلك أنه يعني تبني نموذج للتقييم المستمر والتحقق من الصحة والتطبيق. حيث تتغير بيئات الذكاء الاصطناعي بسرعة كبيرة بحيث لا يمكن إجراء فحص في الوقت المُحدد أو عمليات التحقق الثابتة من التكوينات. ويجب أن يتوافق الأمن مع وتيرة النشر، وليس العكس.
هذا أساس تأمين الذكاء الاصطناعي في السحابة؛ الرؤية المرتفعة والفهم السياقي والتحقق المستمر. مع وجود هذا الأمر، يمكن للمؤسسات أن تنتقل أخيرًا من مرحلة الاستجابة لحالات التعرّض لمخاطر الذكاء الاصطناعي إلى مرحلة الوقاية منها.
من التحديات إلى الممارسات القابلة للتنفيذ
والآن بعد أن فهمنا وتيرة وتعقيدات بيئات الذكاء الاصطناعي، فإن الخطوة التالية هي إنشاء الممارسات التي تحقق القدرة على التنبؤ والتحكم.
أفضل الممارسات لتأمين أعباء عمل الذكاء الاصطناعي في السحابة
بمجرد أن تفهم المؤسسات مدى مرونة أعباء عمل الذكاء الاصطناعي وترابطها، فإن الخطوة التالية هي وضع الممارسات الصحيحة لحمايتها. الأمن القوي للذكاء الاصطناعي لا يعني إبطاء الابتكار. ويتعلق الأمر بمنح المطورين ومهندسي التعلّم الآلي أو التعلّم العميق إلى جانب فرق الأمن أساسًا مشتركًا يُقلل من المخاطر دون تعطيل السرعة.
وفيما يلي الممارسات الأساسية الأكثر أهمية.
1. اكتشف باستمرار كل مورد من موارد الذكاء الاصطناعي عبر السحابة
تنتشر أعباء عمل الذكاء الاصطناعي عبر الخدمات والتخزين وخطوط الأنابيب والسجلات وواجهات برمجة التطبيقات والخدمات المُدارة. كما أنها تظهر وتختفي بسرعة. أفضل الممارسات الأولى هي الاكتشاف المستمر لكل مكون في دورة حياة الذكاء الاصطناعي. ويتضمن ذلك خطوط أنابيب التدريب، ومستودعات النماذج، وخدمات التدريب والاستدلال الحاسوبي للذكاء الاصطناعي وخدمات حوسبة التدريب والاستدلال وقواعد البيانات المتجهة ونقاط نهاية الاستدلال ومخازن البيانات التي تغذيها. ويعني أيضاً تتبع كيفية اتصال هذه الخدمات وأين تتدفق النماذج والخدمات السحابية التي تعتمد عليها.
الرؤية ليست نشاطاً لمرة واحدة. يبدأ أمان الذكاء الاصطناعي عندما يصبح الاكتشاف مستمراً.
2.تصنيف البيانات التي تتدفق من أنظمة الذكاء الاصطناعي وإليها
تكون أعباء عمل الذكاء الاصطناعي آمنة بقدر أمان البيانات التي يستخدمها. وتحتاج المؤسسات إلى تصنيف آلي ودقيق يُحدد بيانات التدريب الحساسة والمعلومات الخاضعة للتنظيم ومجموعات بيانات الملكية الفكرية ومجموعات بيانات الإنتاج قبل دخولها إلى مسارات النماذج. ويُعد تحديد بيانات التدريب الحساسة الخطوة الأولى في اكتشاف وتأمين عبء عمل الذكاء الاصطناعي الكامل ومخاطر نشره. فهو يمنع التعرض العرضي للمخاطر وتسريب البيانات والتدريب غير المقصود للنموذج على المعلومات عالية الخطورة. ويستفيد الأمن القوي للذكاء الاصطناعي أيضًا من إمكانية الاطلاع على أمثلة للبيانات المُكتشفة، وليس فقط التسميات عالية المستوى.
إذا لم تتمكن من معرفة بياناتك، فلن تتمكن من التحكم في كيفية تشكيلها لنماذجك أو كيفية كشفها لأعمالك.
3. فهم علاقات الهوية والامتيازات ضمن تدفقات عمل الذكاء الاصطناعي
تعتمد خدمات الذكاء الاصطناعي على حسابات الخدمة والرموز المميزة والاستحقاقات التي تنمو بسرعة تتجاوز الغرض الأصلي منها. وتوفر كل مهمة أو دفتر ملاحظات أو مسار أو مهمة مجدولة لوحدة معالجة الرسومات أذونات جديدة. ويجب على فرق الأمن أن تفهم من وما الذي لديه حق الوصول إلى كل مورد من موارد الذكاء الاصطناعي وأي امتيازات يستخدمها بصمت من مكان آخر. ولا تشمل هذه الرؤية الوصول إلى النماذج فحسب ولكن أيضًا بيانات التدريب والإنتاج التي تتدفق عبر هذه الأنظمة، بالإضافة إلى الهويات التي تعتمد عليها أعباء عمل الذكاء الاصطناعي نفسها.
يرتكز الأمن القوي للذكاء الاصطناعي على سلامة الهوية. حيث تخلق ضوابط الهوية الضعيفة أسرع مسار لاختراق النموذج أو سرقة البيانات.
4.تحديد أولويات مخاطر الذكاء الاصطناعي من خلال السياق وليس الحجم
تُنتج أعباء عمل الذكاء الاصطناعي كميات كبيرة من الضوضاء. فليست كل ثعرة أمنية أو تكوين غير صحيح بنفس القدر من الأهمية. ويأتي الخطر الحقيقي عندما تتقاطع المخاطر: البيانات الحساسة مع الأدوار ذات الامتيازات المفرطة، أو أعباء العمل التي تتضمن ثغرات أمنية ويمكن الوصول إليها من الشبكات العامة. تحديد الأولويات السياقية يساعد على إدراج أن الثغرات التي تؤثر على أطر أو أدوات الذكاء الاصطناعي يجب تقييمها من منظور من يمكنه استغلالها وكيفية ارتباطها بالأصول الحرجة.
تحتاج المؤسسات إلى تحديد الأولويات التي تعكس مسارات الهجوم الحقيقية، وليس قوائم المشكلات الثابتة. حيث يتحسن مستوى الأمان عندما تعرف الفرق المخاطر المهمة وسبب أهميتها.
5. التحول من الفحوصات الثابتة إلى التحقق المستمر
تتطور بيئات الذكاء الاصطناعي بسرعة لا يمكن لأدوات الأمان القديمة مجاراتها. ويمكن أن تؤدي النماذج الجديدة ومجموعات البيانات الجديدة وخطوات المسارات الجديدة إلى التعرض للخطر بين عشية وضحاها. ويجب أن تتبنى المؤسسات التحقق المستمر الذي يراقب تغيرات الوضع، ويفرض حواجز حماية ويضمن عدم عودة الظروف الخطرة بعد المعالجة. كما يتضمن ذلك مراقبة التكوينات غير الصحيحة مثل التخزين النموذجي العام أو التشفير المفقود أو أجهزة الكمبيوتر المحمولة ذات الوصول المباشر إلى الإنترنت.
الأمان الثابت يخلق نقاط عمياء. والتحقق المستمر والضوابط، تؤدي إلى التخلص منها.
6.تنفيذ حواجز الحماية التي تمنع المخاطر قبل وقوعها
لا يؤدي الأمن الجيد إلى إبطاء ابتكار الذكاء الاصطناعي. بل يعمل على تسريعه من خلال تقليل إعادة العمل. ويجب على المؤسسات تطبيق الحد الأدنى من الامتيازات وحماية البيانات وحواجز حماية التكوين كجزء من عملية تطوير الذكاء الاصطناعي ونشره. كما يتضمن ذلك منع الكشف العام عن أصول النماذج، وتقييد البيانات الحساسة من الدخول إلى مسارات التدريب، وحظر الاستحقاقات التي تمنح وصولاً غير ضروري إلى سجلات النماذج وقواعد بيانات المتجهات، بل وتحديد المكان الذي يمكن أن توجد فيه البيانات الحساسة والمكان الذي لا يمكن أن توجد فيه.
ولتنفيذ حواجز حماية التحكم في الوصول هذه بفعالية، فإن النهج الأكثر أمانًا هو تقييد الأذونات المرتفعة إلى اللحظة المحددة التي تحتاجها بالضبط. حيث يساعد الوصول قصير الأجل عند الطلب على ضمان تحرك فرق الذكاء الاصطناعي بسرعة دون ترك امتيازات طويلة الأمد في البيئة.
تُحدد أفضل الممارسات الخطوط العريضة للوجهة، ولكنها لا تكون مهمة إلا عندما يمكن تطبيقها على أرض الواقع. وتتحرك بيئات الذكاء الاصطناعي بسرعة كبيرة جدًا بالنسبة للنظرية وحدها. وتحتاج المؤسسات إلى طريقة لتحويل هذه المبادئ إلى حقيقة. وهذا هو بالضبط ما تقدمه Tenable: الرؤية والسياق والتحقق المستمر والتحكم المستمر الذي يحول أفضل الممارسات من نقاط حوارية إلى واقع يومي.
كيف نؤمن Tenable Cloud Security أعباء عمل الذكاء الاصطناعي عبر السحابة
توفر Tenable الوضوح الذي تتطلبه بيئات الذكاء الاصطناعي الحديثة. وتمتد أعباء عمل الذكاء الاصطناعي لتشمل الحوسبة ومساحة التخزين والهوية والبيانات والخدمات المُدارة، ويؤدي كل جزء من هذا النظام دورًا في تشكيل المخاطر. إن إدارة التعرض للمخاطر هي الاستراتيجية التي تمكّن المؤسسات من رؤية هذه المخاطر وتحديد أولوياتها وإصلاحها عبر الأصول السحابية المترابطة. ويساعدك Tenable Cloud Security CNAPP على تنفيذ هذه الاستراتيجية من خلال توحيد تكوينات السحابة ومسارات الهوية وحساسية البيانات في فهم سياقي واحد لمدى أهمية المخاطر الحقيقية.
أعادت السحابة والذكاء الاصطناعي كتابة منحنى التعلم بين عشية وضحاها. حيث يمكن اعتماد خدمات الذكاء الاصطناعي في السحابية الأصلية، مثل نماذج ووكلاء مؤسسة Amazon Bedrock، ووكلاء Azure AI Studio، ونماذج Azure OpenAI، ونقاط نهاية Google Vertex AI، على الفور. كما أنها توفر أيضًا أشكالاً جديدة من المخاطر التي بدأت معظم الفرق في فهمها.
يتشكل نشر الذكاء الاصطناعي الحديث بشكل متزايد من خلال هذه الخدمات المُدارة. وتكتشف Tenable الموارد السحابية التي تدعمها وتراقبها، وتقيّم تكويناتها، وتُحدد الهويات والأذونات التي تتفاعل معها. ويساعد ذلك المؤسسات على تأمين الذكاء الاصطناعي الذي تستهلكه بالفعالية نفسها للذكاء الاصطناعي الذي تنشئه.
إن الرؤية هي الأساس. وتُجرد Tenable الخدمات السحابية المشاركة في أعباء عمل الذكاء الاصطناعي عبر AWSوAzureوGCP وOracle Cloud. ويشمل ذلك بيئات الحوسبة وخدمات التخزين وطبقات الشبكات والهويات وواجهات برمجة التطبيقات وعناصر التحكم في الوصول. كما أنه يُحدد مكان وجود البيانات الحساسة داخل هذه البيئات والهويات أو الخدمات التي يُمكن أن تصل إليها، بما في ذلك وقت وصول موارد الذكاء الاصطناعي إليها.
ومن هناك، تضيف Tenable السياق. ونادرًا ما تصبح أعباء عمل الذكاء الاصطناعي خطيرة بسبب مشكلة واحدة. حيث تتجسد المخاطر عندما تتعارض التكوينات غير الصحيحة والبيانات الحساسة والامتيازات المفرطة عبر الخدمات السحابية. وتربط Tenable بين هذه الإشارات وتكشف عن حالات التعرض للمخاطر التي من المرجح أن تؤدي إلى تسرب البيانات أو الوصول غير المقصود أو إساءة استخدام الامتيازات. على سبيل المثال، يُمكنه الكشف عن إمكانية وصول نموذج الذكاء الاصطناعي المُدار إلى بيانات التدريب غير المشفرة.
يسمح هذا السياق للمؤسسات بالتركيز على ما هو مهم بدلاً من التفاعل مع الضوضاء. ويطبق تصنيف أولويات الثغرات الأمنية (VPR) من Tenable على الفور معلومات التهديدات لتحديد المشكلات التي تُمثل قابلية استغلال حقيقية وأيها من غير المحتمل أن تكون مستهدفة.
غالبًا ما تكون البيانات المكان الذي تصبح فيه مخاطر الذكاء الاصطناعي ملموسة. وتربط إمكانيات وضع أمان البيانات من Tenable مجموعات البيانات الحساسة بخدمات الذكاء الاصطناعي التي تتفاعل معها. وأحد الأمثلة على ذلك هو التحليل المُدمج الذي يكتشف نماذج AWS Bedrock المخصصة المدربة على البيانات الحساسة، مما يوفر رؤية قابلة للتنفيذ بدلاً من التنبيهات المجردة.
وأخيرًا، توفر Tenable التحقق المستمر من السلامة. وتتغير الموارد السحابية التي تدعم أعباء عمل الذكاء الاصطناعي باستمرار مع نشر خدمات جديدة وتطور الأذونات وتدفق البيانات الجديدة إلى البيئة. وتراقب Tenable هذه التغييرات في الوقت الفعلي، وتطبق سياسات حماية تفرض أقل امتيازات وتحمي البيانات الحساسة وتمنع الحالات الخطرة قبل دخولها إلى الإنتاج.
وتخلق هذه الإمكانات مجتمعةً بيئة يمكن فيها للابتكار في مجال الذكاء الاصطناعي أن يتحرك بسرعة دون أن يترك الأمن وراءه. تكتسب المؤسسات رؤية واضحة في الخدمات السحابية التي تدعم أعباء عمل الذكاء الاصطناعي، والثقة في أماكن تراكم المخاطر، وضمان بقاء وضعها محميًا حتى مع تغير البيئة بمرور الوقت.
تجربة عملية
يرشدك العرض التوضيحي القصير أدناه إلى بيئة ذكاء اصطناعي سحابي حقيقية ويوضح كيف تحدد Tenable أعباء العمل وتكشف عن المخاطر الخفية وتسلط الضوء على المشكلات الأكثر أهمية.
إنها نظرة سريعة ومباشرة على ما تبدو عليه الرؤية الأمنية للذكاء الاصطناعي في الواقع العملي.
انقر هنا للحصول على مزيد من المعلومات حول تحديد أعباء عمل الذكاء الاصطناعي وتأمينها.
- Cloud