أمن الذكاء الاصطناعي: إطار عمل استراتيجي للتخلص من ثغرة التعرض للمخاطر المتعلقة بالذكاء الاصطناعي
مع تسارع اعتماد الذكاء الاصطناعي، يواجه مديرو أمن المعلومات تحديًا مزدوجًا: دفع عجلة الابتكار بالتوازي مع التخفيف من مخاطر سطح الهجوم الآخذ في التوسع بشكل متسارع. لذا يوفر إطار عمل شركة Tenable المكوّن من خمس خطوات لتأمين الذكاء الاصطناعي نهجًا منهجيًا لتقليل المخاطر الأمنية المتعلقة بالذكاء الاصطناعي، بينما تسابق مؤسستك الزمن لتحقيق فوائد الإنتاجية التي يوفرها الذكاء الاصطناعي.
أهم النقاط
- احصل على إطار عمل مُكوّن من خمس خطوات لمساعدتك في تأمين استخدامك للذكاء الاصطناعي في جميع أنحاء مؤسستك والتخفيف من المخاطر الأمنية التي تخلقها أدوات الذكاء الاصطناعي.
- يتطلب تأمين استخدام الذكاء الاصطناعي في المؤسسات مزيجًا من إمكانيات الاستكشاف القوية للذكاء الاصطناعي وآليات تأمين أعباء عمل الذكاء الاصطناعي والبنية التحتية التي تشغِّله، بالإضافة إلى الرؤية الشاملة على مستوى الأوامر والقدرة على تحليل المخاطر الأمنية المتعلقة بالذكاء الاصطناعي، جنبًا إلى جنب مع حالات التعرض للمخاطر الأخرى والضوابط الفنية لضمان الامتثال لسياسة الاستخدام المقبول للذكاء الاصطناعي في مؤسستك.
- تعرّف على الأسباب التي تجعل الضوابط الأمنية الحالية لديك غير كافية فيما يتعلق بتأمين الذكاء الاصطناعي.
بينما يسهم الذكاء الاصطناعي في إحداث تحول جذري في المؤسسات، يواجه قادة الأمن مثلي تحديًا بشأن كيفية إدارة المخاطر الأمنية التي يفرضها هذا التحول بأكبر قدر من الفاعلية.
يكمن التحدي في أن الذكاء الاصطناعي قد بات الآن مُدمَجًا بصورة فعلية في كل مكان عبر مؤسساتنا: في أدوات إنتاجية الموظفين، ومنصات البرمجيات كخدمة (SaaS)، ومكتبات المطورين، والخدمات السحابية، وواجهات برمجة التطبيقات (API)، وتطبيقات الويب. ولكن ما النتيجة؟ لذا تواجه فرقنا ثغرة متزايدة للتعرض للمخاطر المتعلقة بالذكاء الاصطناعي: سطح هجوم شاسع وغير مرئي إلى حد كبير لم تُصمَّم أدواتنا الأمنية التقليدية لمراقبته.
ما يزيد الأمر تعقيدًا هو أننا غالبًا لا نستطيع عزل مخاطر الذكاء الاصطناعي في أصل واحد. بل تنشأ هذه المخاطر من سلسلة من العناصر المترابطة (مثل التطبيقات، والبنية التحتية، والهويات، والبيانات) التي تؤدي مُجتمَعة إلى خلق حالات التعرض للمخاطر. وإليك مثالًا يوضح ما أعنيه.
لنفترض أن موظفًا يستخدم روبوت دردشة للذكاء الاصطناعي معتمَدًا لحلول الدعم الفني يعتمد على وكلاء خدمة Amazon Bedrock، وهؤلاء الوكلاء يتمتعون بامتيازات مرتفعة للوصول إلى أنظمة داخلية حساسة مثل أدوات تخطيط موارد المؤسسات وإدارة موارد العملاء. وإذا تمكّن ممثل تهديد من الوصول إلى هذا الوكيل عبر ثغرة أمنية غير معالَجة في جهاز الكمبيوتر المحمول الخاص بالموظف، فسيتمكّن من استخدام الوكيل لاختراق البيانات الحساسة؛ وهكذا يتحول استخدام يبدو آمنًا لأداة ذكاء اصطناعي معتمَدة إلى حالة تعرض للمخاطر عالية التأثير.
تزداد صعوبة حماية البيانات في بيئات العمل المدعومة بالذكاء الاصطناعي اليوم على نحوٍ متسارع لأن كل تفاعل من التفاعلات الهائلة مع أصول الذكاء الاصطناعي (مثل: كل أمر، وتحميل ملف، واستجابة مُولَّدة، ودمج، وتكوين) يمكن أن يُعرِّض الملكية الفكرية ومعلومات العملاء والخطط السرية للخطر.
إذن، كيف نُروِّض سطح الهجوم الجديد المليء بالتحديات هذا، والذي ينمو دون رادع مع توسع مؤسساتنا في استخدام الذكاء الاصطناعي؟ إليك إطار عمل استراتيجي طبقتُه لحوكمة الذكاء الاصطناعي واكتشافه وتأمينه أينما ظهر أو خلق مخاطر لمؤسستك.
إطار عمل استراتيجي: 5 خطوات لتأمين الذكاء الاصطناعي في المؤسسات
1. تأسيس لجنة لحوكمة الذكاء الاصطناعي، ووضع إطار عمل له، وسياسة لاستخدامه المقبول
يبدأ تأمين الذكاء الاصطناعي بوضع توقعات واضحة للموظفين بشأن الاستخدام المقبول، ووضع سياسة للاستخدام المقبول للذكاء الاصطناعي من شأنها:
- توفير قائمة بأدوات الذكاء الاصطناعي المُعتمَدة وغير المُعتمَدة؛
- تحديد حالات الاستخدام التجاري الملائمة وغير الملائمة؛
- توضيح أنواع البيانات التي يمكن مشاركتها مع النماذج اللغوية الكبيرة (LLM) وأنواع البيانات التي لا يمكن مشاركتها؛
- تحديد قواعد التعامل مع البيانات؛
- مراعاة قوانين حقوق النشر؛
- توضيح عواقب انتهاكات السياسات.
استنادًا إلى سياسة الاستخدام المقبول للذكاء الاصطناعي في مؤسستك، يمكنك تنفيذ ضوابط لفرض الامتثال لها ومراقبته.
2. اكتشاف أنظمة الذكاء الاصطناعي عبر سطح الهجوم بالكامل لديك
عندما أتحدث مع مديري أمن المعلومات الآخرين عن تأمين الذكاء الاصطناعي، فإنهم يُجمِعون على أن اكتشافه ورصده يمثل أحد أكبر تحدياتهم. وأنا أتفهم ذلك تمامًا؛ فهو منتشر في كل مكان بشكل مذهل، ويصعُب العثور على الكثير منه، ويرجع ذلك جزئيًا إلى أن وجود الذكاء الاصطناعي يمتد إلى ما هو أبعد بكثير من الأنظمة المُدارة مركزيًا التي تكون ظاهرة بوضوح.
بصفتنا قادة أمنيين، يتعيّن علينا مراعاة ما يلي:
- أصول الذكاء الاصطناعي، ووكلاؤه، ومكوناته الإضافية، وإضافات متصفحه وأعباء عمله، بغض النظر عما يلي...
- تشغيلها في السحابة أو في مكان العمل
- إمكانية الوصول إليها داخليًا أو خارجيًا
- كونها مُعتمَدة أو غير مُعتمَدة
- عمليات النشر المنسية لاختبارات الذكاء الاصطناعي
- أدوات الذكاء الاصطناعي المُضمَنة في نقاط النهاية والتطبيقات
- جميع برامج الذكاء الاصطناعي ومكتباته ونماذجه وخدماته
- خدمات الذكاء الاصطناعي المكشوفة للعامة، وواجهات برمجة التطبيقات (API) للنماذج اللغوية الكبيرة (LLM)، وروبوتات الدردشة للذكاء الاصطناعي على نقاط النهاية وفي التطبيقات السحابية.
يمكن أن توفر حلولك الحالية الخاصة بمنع فقدان البيانات (DLP) ووسائط أمان الوصول إلى السحابة (CASB) وإدارة الوضع الأمني السحابي (CSPM) نقطة انطلاق جيدة لاكتشاف أصول الذكاء الاصطناعي. إلا أن الاكتشاف الشامل لذلك يتطلب أدوات اكتشاف متخصصة لأن الطبيعة غير الحتمية للذكاء الاصطناعي تتحدى ميزات الحماية الأمنية التقليدية القائمة على القواعد. كما يتطلب ذلك أيضًا إمكانيات اكتشاف فريدة لتحديد أدوات الذكاء الاصطناعي ومكتباته المُضمَنة، وفهم كيفية عمل أنظمة الذكاء الاصطناعي معًا بما يؤدي إلى خلق حالات التعرض للمخاطر.
من خلال الحصول على رؤية مستمرة وكاملة لاستخدام مؤسستك للذكاء الاصطناعي، ستعرف بدقة أعباء العمل والبنية التحتية التي تحتاج إلى تأمينها، ويمكنك البدء في تقييم إجمالي مستوى تعرض مؤسستك لمخاطر الذكاء الاصطناعي وتحديد أولويات إجراءات المعالجة اللازمة وفقًا لذلك.
3. تأمين أعباء عمل الذكاء الاصطناعي ووكلائه
نظرًا لأن أعباء عمل الذكاء الاصطناعي مترابطة بعمق، وغالبًا ما تكون ذات تكوينات غير صحيحة بشدة أو صلاحيات مفرطة، فإن هذه الخطوة تتضمن تأمين البنية التحتية التي يعمل عليها الذكاء الاصطناعي تأمينًا استباقيًا وتحصين أعباء عمله قبل أن يتمكن المهاجمون من استغلالها. على سبيل المثال، إذا كان المطورون في مؤسستك ينشئون تطبيقات مدعومة بالذكاء الاصطناعي في السحابة، فعليك التأكد من أمان تلك البنية التحتية السحابية.
تتطلب ميزات الحماية الفعّالة توفير إمكانيات تهدف إلى:
- تحديد التكوينات غير الصحيحة والتكوينات المحفوفة بالمخاطر في أعباء عمل الذكاء الاصطناعي المُستندة إلى السحابة.
- الكشف عن الثغرات الأمنية التي يمكن أن تُعرّض النماذج، أو الوكلاء، أو البيانات، أو واجهات برمجة التطبيقات (API) للوصول غير المُصرَّح به.
- تنفيذ إجراءات تقليص حالات التعرض للمخاطر المستندة إلى الهوية، لأن الذكاء الاصطناعي يعتمد اعتمادًا كبيرًا على الهويات غير البشرية.
- الكشف عن حسابات الخدمات ذات الامتيازات المفرطة، وأدوارها، وهوياتها الآلية المُستخدَمة في عمليات سير عمل الذكاء الاصطناعي، والتطبيق الصارم لمبدأ الوصول بأقل الامتيازات.
- فهم مسارات الهجوم المُحتمَلة من أصول الذكاء الاصطناعي وأعباء عمله التي يمكن أن تؤثر على الأنظمة المهمة للأعمال أو تؤدي إلى الوصول إلى بيانات حساسة.
- سرعة عزل وكلاء الذكاء الاصطناعي غير المنتظمين أو المخترَقين ضمن البيئات الخاضعة للرقابة للحد من التأثير المُحتمَل لعمليات الاختراق.
سأتناول هذا الموضوع المُحدَّد الخاص بتأمين أعباء عمل الذكاء الاصطناعي ووكلائه بمزيد من التفصيل في مدونة لاحقة أعتزم نشرها. وفي غضون ذلك، يمكنك فهم كيف تجتمع نقاط الضعف المرتبطة بالهوية وعيوب البنية التحتية لخلق حالات حرجة للتعرض للمخاطر، وذلك من خلال إجراء تحليل عميق للمخاطر الخاصة بحزمة الذكاء الاصطناعي لديك. واستنادًا إلى هذه الرؤى، يمكنك تزويد فرق الأمن لديك بدليل تعليمات قابل للتنفيذ لتعزيز البيئات وضمان تشغيل الخدمات على بنيات آمنة ومرنة وموثوقة.
4. تقييم استخدام الذكاء الاصطناعي وتفاعلاته
تتضمن هذه الخطوة فهم كيفية تفاعل موظفيك مع أدوات الذكاء الاصطناعي التوليدي والوكلاء المستقلين لضمان عدم انتهاك الموظفين لسياسة الاستخدام المقبول للذكاء الاصطناعي في مؤسستك. ومن الضروري فهم كيفية تدفق البيانات عبر جميع تطبيقات الذكاء الاصطناعي وتحديد المواضع التي تنشأ فيها حالات التعرض للمخاطر.
يتطلب ذلك رؤية تفصيلية بشأن:
- مَن يستخدم الذكاء الاصطناعي
- فهم الغرض من الاستخدام
- تحديد مصدر السلوكيات المحفوفة بالمخاطر وإساءة الاستخدام
- معرفة البيانات التي يشاركها الموظفون عبر الأوامر أو التحميلات أو الإجراءات المُؤتمَتة
- الكشف عن محاولات كسر حماية أدوات الذكاء الاصطناعي المعتمَدة وتقديم الأوامر الضارة
الرؤية الشاملة على مستوى الأوامر المُدخَلة لاستخدام الموظفين للذكاء الاصطناعي تتيح لفريق الأمن لديك الكشف عن انتهاكات السياسات وتعزيز سلوك استخدام الذكاء الاصطناعي الآمن. وتتيح لهم أيضًا تحديد أي بيانات حساسة، بما في ذلك الملكية الفكرية ومعلومات تعريف الشخصية، التي قد يشاركها الموظفون أو الوكلاء مع أدوات الذكاء الاصطناعي عبر الأوامر المُدخَلة أو التحميلات أو التفاعلات المؤتمتة، والتي قد تخلق حالات التعرض للمخاطر عبر تسريب غير مقصود. بالإضافة إلى ذلك، فهي تُمكّن فريق الأمن لديك من الكشف عن التهديدات وحالات إساءة الاستخدام الجديدة المخصصة للذكاء الاصطناعي والاستجابة لها، مثل محاولات حقن الأوامر وغيرها من التعليمات الضارة المُصمّمة للتلاعب بأنظمة الذكاء الاصطناعي.
سواء كان الأمر يتعلق باكتشاف أداة ضارة مرتبطة بوكيل Microsoft Copilot أو قيام موظف بإساءة استخدام الذكاء الاصطناعي في أوضاع غير ملائمة لم تُصمّم الأداة من أجلها (على سبيل المثال، اتخاذ قرارات التوظيف الداخلية)، فإنك بحاجة إلى الاستجابة بسرعة لمعالجة حالات التعرض للمخاطر هذه وتعزيز الاستخدام الآمن.
5. تحليل المخاطر الأمنية المتعلقة بالذكاء الاصطناعي في سياق حالات التعرض للمخاطر الأخرى
لتخفيف المخاطر الأمنية المتعلقة بالذكاء الاصطناعي، لا يكفي الكشف بشكلٍ منعزل عن الثغرات الأمنية غير المعالَجة في برامج الذكاء الاصطناعي، أو التكوينات الضعيفة لأنظمة الذكاء الاصطناعي، أو الوكلاء ذوي الامتيازات المفرطة. فقد بات الذكاء الاصطناعي على أي حال مُدمَجًا بالكامل في جميع تطبيقاتنا وبياناتنا وعملياتنا التجارية.
يتطلب التخفيف من المخاطر الأمنية المتعلقة بالذكاء الاصطناعي نهجًا موحدًا ومؤتمتًا لجمع بيانات أمان الذكاء الاصطناعي الغنية بالسياق، ثم ربطها وتحليلها جنبًا إلى جنب مع بيانات التعرض للمخاطر الأخرى، مثل حاويات S3 المكشوفة للعامة أو جهاز كمبيوتر محمول به ثغرات أمنية أو حساب مهجور يتمتع بامتيازات المسؤول. في Tenable، نُطلق على هذا النهج اسم "إدارة التعرض للمخاطر"، ونرى أن القطاع قد بدأ يتبنى هذا المفهوم سريعًا. إذ تتيح لك إدارة التعرض للمخاطر رؤية استباقية لكيفية تضافر نقاط الضعف الأمنية عبر بيئتك، بما يؤدي إلى خلق حالات التعرض للمخاطر: مسارات هجوم عالية الخطورة تؤدي إلى الأنظمة والبيانات الأكثر حساسية في مؤسستك.
تُبرز أيضًا إدارة التعرض للمخاطر المخاطر بسياق دقيق —بما يشمل محرك الذكاء الاصطناعي ومستخدمه وجلسته المخصصين— لإتاحة إدارة المشكلات بدقة عالية والاستجابة السريعة لها. ويتعلق الأمر بفهم الكيفية التي تتكتّل بها المجموعات الضارة من المخاطر لتؤدي إلى تعرض أعمالنا للمخاطر. فقد يرتبط تكوين غير صحيح متوسط الخطورة في خدمة Amazon Bedrock بنماذج اللغات الكبيرة (LLM) غير المُؤمَّنة التي تمنح الوكلاء استحقاقات وصول مفرطة. لذا، تتطلب إدارة التعرض للمخاطر هذا الفهم الشامل للبيئة وسطح الهجوم بالكامل.
تأمين مستقبل ابتكارات الذكاء الاصطناعي
لقد أدى التكامل المتسارع للذكاء الاصطناعي عبر المؤسسات إلى خلق سطح هجوم معقد ومترابط، لم تكن ضوابط الأمن التقليدية ببساطة مُجهَّزة للتعامل معه. وللتخلص من ثغرة التعرض للمخاطر المتعلقة بالذكاء الاصطناعي، يجب على قادة الأمن الانتقال من النهج التفاعلي المتمحور حول الأداة إلى استراتيجية استباقية مُوحَّدة.
من خلال تطبيق إطار العمل المُكوَّن من خمس خطوات هذا، يمكنك بناء وضع أمني مرن يتطور جنبًا إلى جنب مع تقنيات الذكاء الاصطناعي. ففي نهاية المطاف، لا تهدف الإدارة الفعّالة للتعرض للمخاطر إلى إبطاء وتيرة الابتكار، بل تتعلق بتوفير حواجز الحماية اللازمة لضمان قدرة مؤسستك على تبنّي قوة الذكاء الاصطناعي بأمان وثقة.
تعرف على المزيد
- Cloud
- Exposure Management
Tenable One
ظطلب إصدار تجريبي
منصة إدارة التعرض للمخاطر المدعومة بالذكاء الاصطناعي الرائدة عالميًا.
شكرًا لك
شكرًا لاهتمامك بـ Tenable One.
سيتواصل معك أحد مندوبينا في القريب العاجل.
Form ID: 7469
Form Name: one-eval
Form Class: c-form form-panel__global-form c-form--mkto js-mkto-no-css js-form-hanging-label c-form--hide-comments
Form Wrapper ID: one-eval-form-wrapper
Confirmation Class: one-eval-confirmform-modal
Simulate Success