مساعد الطيار: سيف ذو حدين
يحتوي Microsoft 365 Copilot، مساعد الذكاء الاصطناعي المصمم لتبسيط إنتاجيتك، على جانب مظلم. كشفت ثغرة أمنية تم اكتشافها مؤخرًا، يطلق عليها اسم «ASCII Disrbing»، عن قدرة Copilot على أن تصبح أداة للجهات الخبيثة.
سلسلة الاستغلال
تضمنت سلسلة الاستغلال المعقدة هذه سلسلة من الخطوات:
- الحقن الفوري: تم إدخال محتوى ضار في مطالبات Copilot، مما أدى إلى التلاعب بسلوكه.
- استدعاء الأداة التلقائي: تم خداع Copilot للوصول إلى بيانات إضافية من مصادر مختلفة، بما في ذلك رموز Slack MFA وأرقام المبيعات.
- التهريب باستخدام ASCII: تم استخدام أحرف Unicode المخفية لتهريب المعلومات الحساسة من واجهة الدردشة.
- استخراج البيانات: تم إرسال البيانات التي تم تسريبها إلى خادم يتحكم فيه المهاجم.
مخاطر مساعد الطيار Gone Rogue
كان من الممكن أن تؤدي هذه الثغرة الأمنية إلى تحويل Copilot إلى آلة تصيد هائلة. تخيل أنك تتلقى بريدًا إلكترونيًا على ما يبدو من زميل موثوق به يطلب منك خدمة. دون علمك، إنها رسالة تصيد مصممة بعناية تم إنشاؤها بواسطة Copilot، وهي مصممة لسرقة بيانات الاعتماد الخاصة بك أو المعلومات الحساسة.
توصيات للاستخدام الآمن
لحماية مؤسستك من هذا النوع من التهديدات، ضع في اعتبارك ما يلي:
- قم بتقييم المخاطر الخاصة بك: قم بتقييم تعرضك للمخاطر المتعلقة بـ Copilot وحدد ما إذا كانت التدابير الأمنية الإضافية ضرورية.
- تنفيذ منع فقدان البيانات: قم بنشر حلول DLP لمراقبة ومنع تسرب البيانات الحساسة.
- إدارة إنشاء المساعد التجريبي ونشره: تنفيذ السياسات والإجراءات للتحكم في إنشاء ونشر مثيلات Copilot.
- ابق محدثًا: حافظ على تحديث برنامج Microsoft 365 وبرنامج Copilot بأحدث تصحيحات الأمان لمعالجة الثغرات الأمنية.
ذا تايكي
في حين أن Copilot يمكن أن يكون أداة قيّمة، إلا أنه من الضروري أن تكون على دراية بمخاطره المحتملة. من خلال فهم ثغرة ASCII الخاصة بالتهريب واتخاذ خطوات استباقية للتخفيف من حدتها، يمكنك التأكد من أن Copilot يظل أحد الأصول الآمنة والمفيدة لمؤسستك.