- Cloud
- Research
- Tenable Cloud Security
تقرير مخاطر الذكاء الاصطناعي السحابي من Tenable لعام ٢٠٢٥
تحتوي ما يقرب من ثلاثة أرباع أعباء عمل الذكاء الاصطناعي السحابي على ثغرات أمنية خطيرة غير معالجة.
70% من أعباء العمل السحابية التي تحتوي على برامج ذكاء اصطناعي مثبتة تتضمن ثغرة أمنية حرجة، مقارنة بـ 50% من أعباء العمل السحابية التي لا تحتوي على برامج ذكاء اصطناعي مثبتة.
كشف تحليلنا للذكاء الاصطناعي في بيئات السحابة عن مستويات التبني والأنماط المحفوفة بالمخاطر في أدوات وخدمات محددة.
كجزء من استراتيجية إدارة التعرض المتطورة، يجب على أصحاب المصلحة في أمن السحابة فهم مخاطر الذكاء الاصطناعي وتأمين مثل هذه المخاطر ومنعها بشكل استباقي في بيئة السحابة التي لديهم.
ابق متقدمًا من خلال فهم اتجاهات ومخاطر أمان سحابة الذكاء الاصطناعي
تعمق في تقرير مخاطر الذكاء الاصطناعي السحابي من Tenable اليوم.
النقاط الرئيسية
اعتماد خدمات مطوري الذكاء الاصطناعي السحابي المُدارة
60% من مستخدمي Azure قاموا بتكوين الخدمات المعرفية. قام ربع (25%) من مستخدمي AWS بتكوين Amazon Sagemaker، وقام خمس (20%) من مستخدمي GCP بتكوين Vertex AI Workbench في Google Cloud.
مفهوم Jenga® في خدمات الذكاء الاصطناعي المُدارة
إن تقسيم الخدمات على غرار Jenga® من خلال موفري الخدمات السحابية قد يؤدي إلى تخلفات خطرة موروثة، مع مواجهة عواقب وخيمة في حالة استغلالها - خاصة في بيئات الذكاء الاصطناعي.
الحسابات ذات الامتيازات المفرطة تؤدي إلى المخاطر
في الواقع، 77% من المؤسسات التي قامت بإعداد دفاتر ملاحظات Vertex AI من Google Cloud لديها نسخة واحدة على الأقل تم تكوينها باستخدام حساب خدمة Compute Engine الافتراضي المتميز.
على الرغم من تطور الذكاء الاصطناعي، إلا أنه ليس خاليًا من المخاطر ويتطلب اهتمامك.
نعرض في هذا التقرير، مخاطر الذكاء الاصطناعي التي لاحظناها في أدوات مطوري الذكاء الاصطناعي ذاتية الإدارة وخدمات الذكاء الاصطناعي السحابية، ونقدم توصيات للتخفيف من المخاطر وأفضل الممارسات لأمن الذكاء الاصطناعي في السحابة.