چگونه میتوان هوش مصنوعی را ایمنتر و قابل اعتمادتر کرد؟
هوش مصنوعی نقش مهمی را در زندگی روزمره ما بازی میکند. هوش مصنوعی – معمولاً یادگیری ماشینی (ML) – فرآیند آموزش الگوریتمها با استفاده از دادهها به جای برنامهریزی صریح آنها است. چنین الگوریتمهایی در حال حاضر در برنامههای مختلف از منابع انسانی گرفته تا تامین مالی و حمل و نقل و پزشکی استفاده میشوند، و می توان موارد استفاده زیادی را در این رابطه ذکر کرد.
مزایای یادگیری ماشین آشکار است: آنها تجزیه و تحلیل سریعتر دادههای بیشتری را نسبت به هر انسان یا حتی گروهی از انسانها امکان پذیر میکنند. بسیاری از برنامههای ML که میتوانند از تواناییهای انسانی پیشی بگیرند، از قبل وجود دارند، مانند برنامههایی که برای بازی Chess (شطرنج) یا شناسایی اظهارنامه بیمه تقلبی طراحی شدهاند. الگوریتمهای فعلی ML ارزش کافی برای توجیه ادامه تحقیقات و تأمین مالی ایجاد میکنند. هوش مصنوعی اینجاست تا بماند – و قرار است هم در صنعت و هم در زندگی شخصی ما فراگیرتر شود.
دانلود فایل PDF و مشاهده عناوین ماهنامه ” اقتصاد دیجیتال” شماره ۱۴، آبان ماه۱۴۰۰
با این حال، یک مانع هنوز در مسیر موفقیت واقعی هوش مصنوعی وجود دارد – اعتماد. چگونه میتوانیم به هوش مصنوعی اعتماد کنیم؟
موانع دستیابی به پتانسیل کامل هوش مصنوعی
دو جنبه اساسی وجود دارد که باید قبل از اینکه هوش مصنوعی بتواند به پتانسیل کامل خود برسد، باید مورد توجه قرار گیرد. اینها درک درستی از تواناییهای هوش مصنوعی و نحوه استفاده از آن و بهبود امنیت هوش مصنوعی است.
برای درک نحوه عملکرد یادگیری ماشین و نحوه استفاده صحیح از آن، مهم است که به خاطر داشته باشید که اگرچه برخی از مدلهای ML بسیار پیچیده هستند، اما سیستمهایی که ML را در خود جای میدهند هنوز فقط محصول ترکیب درک یک دامنه و دادههای آن هستند. اکثر روشهای فعلی ML به گونهای طراحی شدهاند که به سادگی مدلهای پیچیده دلخواه را بر اساس برخی معیارهای بهینهسازی با دادهها تطبیق دهند. روشی که این الگوریتمها در دادهها قرار میگیرند گاهی اوقات میتواند باعث شود مدل چیزهایی را بیاموزد که واقعاً مهم نیستند، اما برای حل مسئله بهینهسازی در آن مجموعه داده خاص خوب هستند.
ارزش منحصر به فردی که ML به ارمغان می آورد، توانایی آن در یادگیری از داده ها است. این نیز اتفاقاً ضعف منحصر به فرد آن از منظر امنیتی است. ما می دانیم که ارسال ورودیهای غیرمنتظره حتی به سیستم های محاسباتی ‘کلاسیک’ قطعی می تواند باعث رفتارهای غیرمنتظره شود. این رفتارهای غیرمنتظره اغلب منجر به کشف آسیبپذیریهای قابل بهرهبرداری میشود و دلیل این است که روشهایی مانند اعتبارسنجی ورودی مناسب و فازی کردن در آزمایش بسیار ارزشمند هستند.
جهت مشاهده و دانلود ماهنامه ” اقتصاد دیجیتال” اینجا کلیک نمایید.
هنگامی که رفتارهای غیرمنتظره در کد سنتی یافت میشود، می توان آنها را با ویرایش کد برطرف کرد. با این حال، هنگامی که رفتارهای غیرمنتظره در مدلهای ML یافت میشود، اصلاحات را نمیتوان به راحتی با ویرایش دستی انجام داد، اما اقدامات احتیاطی باید در جای دیگری انجام شود. از آنجایی که سیستمهای ML در تعداد فزایندهای از موارد استفاده با ارزش بالا استفاده میشوند، انگیزههای فزایندهای برای دشمنان وجود دارد تا آسیبپذیریهای ذاتی آن سیستمها را بیابند و از آنها بهرهبرداری کنند.
بسیاری از مدل های ML به صورت دوره ای بازآموزی میشوند. به عنوان مثال، برای بهروز نگه داشتن یک مدل بر اساس آخرین رفتارهای مخاطب هدف، اطمینان از اینکه سیستم بهترین توصیههای ممکن را هنگامی که یک ویدیو یا آهنگ جدید محبوبیت پیدا میکند، ارائه میکند، یا یک سیستم امنیتی را قادر میسازد تا موارد جدید را شناسایی کند، بازآموزی لازم است.
اما فرآیند بازآموزی مدل، خود بردارهای حمله را قادر میسازد که حتی زمانی که حریف به سیستمی که مدل را اجرا میکند دسترسی مستقیم ندارد، کار کنند. چنین حملاتی میتوانند به سادگی دادههای ورودی مدل را با منبع خارجی دستکاری کنند. اینها تهدیداتی هستند که راه حلهای امنیتی فعلی برای مقابله با آنها مجهز نیستند، زیرا شامل شناسایی فایلهای مخرب، شناسایی نقض در سیستمهای دفاعی امنیتی رایانه سنتی، یا تشخیص حضور یک عامل مخرب در یک سیستم یا شبکه نمیشود. حتی رویکردهای کلاسیک اعتبارسنجی دادههای ورودی مانند تشخیص پرت و ردیابی توزیعها در دادهها در طول زمان اغلب قادر به تشخیص چنین حملاتی نیستند، زیرا بهترین راه برای دستکاری یک مدل ML معمولاً ایجاد تغییرات بسیار ظریف در دادههای ورودی آن است.
درک حملات به مدلهای یادگیری ماشینی
چندین راه مختلف برای حمله به مدل های ML وجود دارد و میتوان آنها را به روشهای مختلف دسته بندی کرد. اینها شامل فرار از مدل، مسمومیت مدل و حملات محرمانه است. بیایید نگاهی دقیقتر به هر یک از این دسته بندیها بیندازیم تا بفهمیم که چه معنایی دارند و چگونه میتوان دفاعها را اجرا کرد.
حملات فرار مدل به فریب یک مدل برای طبقهبندی نادرست یک ورودی خاص یا فرار از مکانیسمهای تشخیص ناهنجاری متکی است. نمونههایی از فرار از مدل شامل تغییر یک باینری مخرب به طوری که به عنوان خوش خیم طبقه بندی شود یا فریب یک الگوریتم تشخیص تقلب برای شناسایی نکردن ورودی جعلی است.
اگرچه حملات مدلسازی میتوانند آسیبهای بزرگی به همراه داشته باشند، اما شاید در بین انواع حملاتی که در اینجا مورد بحث قرار گرفتهاند، کمترین شدت را داشته باشند. حملات مدلسازی به دشمن اجازه میدهد از یک سیستم سوء استفاده کند، اما رفتار مدل ML مورد حمله را برای ورودیهای آینده تغییر نمیدهند و دادههای محرمانه را افشا نمیکنند. حملات فرار مدل اساساً از این واقعیت سوء استفاده می کنند که مرزهای تصمیم در مدل بسیار پیچیده هستند و توانایی مدل برای درون یابی بین نمونهها محدود است، به نحوی که ‘شکافهایی’ را برای استفاده باقی می گذارد.
از طرف دیگر، مسمومیت مدل با هدف تغییر رفتار یک مدل انجام میشود تا نمونههای آینده به اشتباه طبقه بندی شوند. یک مثال، ارائه ورودیهای مخرب به یک مدل طبقه بندی هرزنامه برای فریب دادن آن به طبقه بندی نادرست ایمیلها است. این را میتوان در سیستمهایی به دست آورد که به کاربران اجازه میدهد ایمیل را به عنوان هرزنامه برچسب گذاری کنند.
برای درک نحوه عملکرد این حمله، این واقعیت را در نظر بگیرید که فرآیندهای آموزشی مدل برای یافتن یک مرز تصمیم گیری بهینه بین کلاسها طراحی شده اند. هنگامی که یک نمونه در سمت ‘اشتباه’ مرز تصمیم ظاهر میشود، الگوریتم قصد دارد با جابجایی مرز تصمیم آن را اصلاح کند تا نمونه جایی باشد که برچسب آن نشان میدهد. اگر نمونهای در دادههای آموزشی به طور هدفمند به اشتباه برچسب گذاری شود، باعث میشود که مرز تصمیم در جهت اشتباه حرکت کند. این متعاقباً میتواند منجر به شناسایی نشدن نمونههای متخاصم در آینده یا طبقهبندی نمونههای خوشخیم به عنوان مخرب شود.
بسیاری از مدلهایی که دارای سطح بالایی از مالکیت معنوی شرکت هستند یا بر روی دادههای حساس آموزش دیدهاند، در دسترس جهان هستند. حملات محرمانه شامل تکرار آن مدلها (سرقت مدل) و یا افشای دادههایی است که برای آموزش آن مدلها استفاده شدهاند (وارونگی مدل).
برای انجام یک حمله محرمانه، دشمن مجموعههای بهینهسازیشدهای از پرسوجوها را به مدل هدف میفرستد تا نحوه عملکرد مدل را کشف کند یا مدل را بر اساس آن ورودیها بازسازی کند. این روشها را میتوان برای سرقت مالکیت معنوی و کسب مزیت رقابتی احتمالی یا افشای برخی از دادههایی که برای آموزش مدل استفاده شد، استفاده کرد.
مبارزه با تهدیدات در برابر مدل های ML
چگونه میتوان هوش مصنوعی را ایمن تر و قابل اعتمادتر کرد؟ اولین قدم درک و تصدیق وجود تهدیدات بالقوه است. بسیاری از تهدیدات علیه مدلهای ML واقعی هستند، اما متخصصان ML لزوماً آنها را در نظر نمیگیرند، زیرا بیشتر تلاشهایی که برای توسعه مدلها انجام میشود بر بهبود عملکرد مدل متمرکز است. امنیت، در بهترین حالت، یک فکر بعدی است، و ما باید این را تغییر دهیم و امنیت را از قبل در طراحی سیستمهای ML دخالت دهیم. اگرچه حملات علیه مدلهای ML یک نگرانی جدی است، راههای زیادی برای کاهش آنها وجود دارد.
یکی از راههای دفاع در برابر حملات، شناسایی، پاکسازی یا دور انداختن نمونههای بالقوه مخرب است. رویکردها برای این کار بسته به نوع کاربرد و مدل متفاوت است، اما به طور کلی، این فرآیند شامل درک چگونگی آسیب دیدن یک مدل به منظور شناسایی انواع نمونههایی است که میتوانند آن آسیب را ایجاد کنند. یک مثال میتواند نظارت بر توزیع ورودیها باشد که توجه بیشتری به نمونههایی دارد که به طور مشکوکی نزدیک به مرزهای تصمیم مدل هستند، اما در سمت اشتباه طبقه بندی شدهاند.
اغلب بین دقت و استحکام تعادل وجود دارد. مدلهای سادهتر اغلب قویتر هستند، اما معاوضهها طبیعتاً باید مورد به مورد در نظر گرفته شوند. همچنین تکنیکهایی مانند آموزش خصمانه وجود دارد که میتواند استحکام و گاهی اوقات حتی عملکرد را بهبود بخشد زیرا مجموعه بزرگتری از نمونههای آموزشی را برای مدل فراهم میکند. آموزش خصومتآمیز فرآیند افزودن نمونههای متخاصم با برچسبگذاری صحیح به دادههای آموزشی است – و اگرچه این ممکن است همه موارد را پوشش ندهد، مطمئنا میتواند کمک کند.
نظارت بر خروجیهای یک مدل به طور فعال، با استفاده از مجموعهای از تستهای تعریفشده، پایهای را فراهم میکند که میتواند به طور موثر برای تشخیص بسیاری از موارد مسمومیت مدل استفاده شود. چنین آزمایشاتی به تمرینکنندگان اجازه میدهد تا تغییراتی را که در طول بازآموزی رخ میدهند، درک کنند. تمایز بین تغییرات عادی در رفتار ورودی و نتایج یک حمله مسمومیت اغلب دشوار است. این مشکل بیشتر شبیه به تشخیص و پاسخ امنیت سایبری سنتی است تا روشهای پیشگیرانه کلاسیک. ما میدانیم که مهاجمان آنجا هستند، و میدانیم که آنها ممکن است به دنبال دستکاری مدلها باشند، بنابراین باید اذعان کنیم که حفاظتها ممکن است هرگز کافی نباشد.
علاوه بر رویکردهای کلی کاهش حمله که در بالا ذکر شد، روشهایی با هدف محافظت از محرمانه بودن مدل مانند پوشاندن گرادیان، حریم خصوصی تفاضلی و تکنیکهای رمزنگاری وجود دارد.
اعتماد میتواند پتانسیل کامل هوش مصنوعی را آزاد کند
با اذعان به وجود تهدیدات، اعمال اقدامات احتیاطی مناسب و ساختن سیستمهایی که برای شناسایی فعالیتها و ورودیهای مخرب طراحی شدهاند، میتوانیم بر این چالشها غلبه کنیم و ML را ایمنتر از آنچه در حال حاضر هست کنیم.
اگر میخواهیم به هوش مصنوعی اعتماد کنیم، باید علاوه بر درک تواناییها و محدودیتها، این اطمینان را داشته باشیم که حداقل به راحتی نمیتوان آن را دستکاری کرد. اما برای انجام این کار، باید از مشکلات آگاه باشیم و فعالانه آنها را کاهش دهیم تا واقعاً قدرت کامل هوش مصنوعی را آزاد کنیم.
هوش مصنوعی یک عنصر کلیدی برای آینده ما است – و ما باید بتوانیم به آن اعتماد کنیم تا از مزایای کامل آن بهره مند شویم. هوش مصنوعی امن واقعاً پایهای برای هوش مصنوعی قابل اعتماد و گامی کلیدی در مسیر آیندهای قدرتمند است.
منبع: دانا