۱۳ شرکت فناوری برای دفاع از هوش مصنوعی متخاصم دست به کار شدند
یک سازمان تحقیقاتی با همکاری مایکروسافت و ۱۱ شرکت فناوری چارچوبی را برای مقابله با حملات متخاصم که به سیستم های هوش مصنوعی وارد می شود، فراهم کرده اند.
شرکت مایکروسافت با همکاری سازمان تحقیقاتی MITRE چارچوبی برای کمک به کارشناسان امنیت سایبری جهت مقابله با حملات به مدل های هوش مصنوعی فراهم کرده اند.
این چارچوب «ماتریکس تهدید یادگیری ماشینی متخاصم» (Adversarial ML Threat Matrix نام دارد و در گیت هاب فراهم است. علاوه بر مایکروسافت و MITRE یازده شرکت دیگر نیز در این پروژه با آنها همکاری می کنند.
درهمین راستا MITRE دربیانیه ای رسمی در وب سایت خود نوشت: باهمکاری مایکروسافت، بوش، آی بی ام، انویدیا، ایرباس، دیپ اینستینک، تو سیکس لبز، دانشگاه تورنتو، دانشگاه کاردیف، دانشگاه کارنگی ملون، پرایس واترهاوسکوپرز و انستیتو ماشین یادگیری بری ویل این چارچوب را عرضه می کند تا در شناسایی، هشدار و پاسخ به تهدیدها علیه سیستمهای یادگیری ماشینی (ML) به تحلیلگران کمک کند.
مایکروسافت در وبلاگ خود اعلام کرد طی ۴ سال گذشته با افزایش قابل توجه حملات به سیستم هایML تجاری روبرو بوده است. گزارش های بازاری ماتریکس تهدید ناشی از یادگیری ماشینی متخاصم قرار است تیمهای امنیتی را تقویت کند.
این ماتریکس مجموعه ای از رفتارهای خصمانه و آسیب پذیریهایی را در بردارد که شرکت مایکروسافت و MIRTE طی سالها مشاهده کردهاند.
مایکروسافت در پستی در وبلاگ خود گفت: متوجه شده ایم مهاجمان هنگام حمله به یک سیستم یادگیری ماشینی از ترکیبی از «تکنیکهای سنتی» مانند فیشینگ در کنار تکنیکهای یادگیری ماشینی متخاصم استفاده میکنند.
منبع: مهر به نقل از اینترنت آو تینگز،