خطرات فناوریهوش مصنوعی

نقش هوش مصنوعی در امنیت جامعه و جنگ‌ها

کانال تلگرام  رسانه فناوری هوشمند
مترجم: سید‌حسین علوی لنگرودی

قدرت تخریب فراوان تسلیحات هسته‌‌‌ای و پر‌رمز و راز بودن آنها باعث شده بسیاری از کشورها به تسلیحاتی روی بیاورند که بر پایه هوش مصنوعی کار می‌کنند. در نتیجه ما شاهد روند رو به رشد گرایش کشورهای مختلف به سمت طیف وسیعی از تسلیحات هستیم که بر پایه پیشرفت‌‌‌های سریع و شگفت‌‌‌انگیز در حوزه هوش مصنوعی شکل‌‌‌ گرفته و در حال‌‌‌ توسعه هستند و قادرند تاثیرات انقلابی و شگرفی را بر سیاست‌‌‌های امنیتی جهان  برجا گذارند.

با ورود منطق غیرانسانی به سیستم‌های نظامی باید منتظر دگرگونی‌‌‌های اساسی در استراتژی‌‌‌های نظامی جهان باشیم؛ جایی که قرار است در آینده‌‌‌ای نزدیک میزبان نظامیان و سرویس‌‌‌های امنیتی متفاوتی باشد که توسط هوش مصنوعی آموزش می‌‌‌بینند و احتمالا به شکل کاملا متفاوتی هدایت خواهند شد.

 چنین تحولاتی به ‌‌‌طور قطع بر استراتژی‌‌‌ها و تاکتیک‌‌‌های رزمی و رفتار نظامیان تاثیرگذار خواهد بود. موضوع هنگامی ابعاد گسترده‌‌‌تر و جدی‌‌‌تری به خود می‌گیرد که بدانیم هوش مصنوعی قرار است کنترل بسیاری از تسلیحات متعارف و پیشرفته از جمله هواپیماهای جنگی یا حتی تسلیحات سایبری را بر عهده بگیرد و روبات‌‌‌ها و ماشین‌‌‌ها در بسیاری از موقعیت‌‌‌های خطرناکی که حضور انسان‌‌‌ها در آنجا با دشواری و خطر مرگ روبه‌‌‌روست حضور پیدا خواهند کرد.

بیشتربخوانیم: بوستون دینامیکس از نسخه ربات برقی انسان‌نمای اطلس رونمایی کرد

بیشتر استراتژی‌‌‌ها و تاکتیک‌‌‌های نظامی سنتی بر اساس الگوهای تصمیم‌گیری انسان که مبتنی بر تجربیات و درایت او هستند شکل ‌‌‌گرفته‌‌‌اند، در حالی ‌‌‌که هوش مصنوعی دارای منطق خاص خودش است. با استفاده از همین منطق است که اقدام به هدایت یک هواپیمای جنگی یا اسکن کردن و منهدم کردن اهداف نظامی می‌کند.

درواقع، با ورود هوش مصنوعی به عرصه نظامی و جنگ‌‌‌ها، ابعاد جدیدی به این فضا اضافه خواهد شد که درگذشته وجود نداشته است.  به‌‌‌طورکلی، به این دلیل که هوش مصنوعی بسیار پویا و رو به رشد است، حتی خود کشورهایی که اقدام به طراحی و ساخت تسلیحات مبتنی بر هوش مصنوعی می‌کنند، هم به‌‌‌طور دقیق نمی‌‌‌دانند که قدرت واقعی این تسلیحات چقدر خواهد بود یا واکنش آنها در موقعیت‌‌‌های خاص چه خواهد بود.

حال سوال اینجاست که انسان چگونه می‌تواند برای چیزی استراتژی تهاجمی یا تدافعی تدوین کند که به‌‌‌سرعت در حال تغییر و پیشرفت است و در ضمن این توانایی را دارد تا بر قدرت انسان نیز پیشی بگیرد؟ پرسش کلیدی بعدی این است که آیا راه دیگری غیر از استفاده کردن از یک اسلحه کنترل‌‌‌شده توسط هوش مصنوعی برای سنجش عملکرد آن در دنیای واقعی وجود دارد؟

به ‌‌‌هر حال، در جنگ‌‌‌های کلاسیک، روان‌شناسی خود و طرف مقابل از یک‌‌‌سو و ملاحظات اخلاقی و انسانی از سوی دیگر، دارای نقش تعیین‌‌‌کننده‌‌‌ای است؛ حال‌‌‌آنکه چنین چیزی در مورد الگوریتم‌‌‌ها و روبات‌‌‌ها مصداق پیدا نمی‌‌‌کند و آنها هیچ‌گونه درکی از پیامدهای مختلف و نتایج تصمیماتی که می‌‌‌گیرند و اقداماتی که انجام می‌دهند ندارند.

علاوه بر این باید دانست که نقش‌‌‌آفرینی هوش مصنوعی در زمینه نظامی فقط به جنگ‌‌‌افزارهایی مانند جت‌‌‌های جنگنده و اسلحه‌‌‌ سبک و سنگینی که توسط هوش مصنوعی هدایت و کنترل می‌‌‌شوند، محدود نمی‌شود. در حال حاضر، هوش مصنوعی به این توانایی رسیده تا با تولید و انتشار گسترده ضداطلاعات و رواج حجم عظیمی از اطلاعات نادرست اما باورپذیر، به‌‌‌طرف مقابل ضربات مهلکی وارد کند. این حملات سهمگین و به‌‌‌شدت مخرب از طریق تولید شخصیت‌‌‌ها، ویدئوها، تصاویر و سخنرانی‌‌‌های غیرواقعی و هدفمند توسط هوش مصنوعی صورت می‌‌‌پذیرند و قادرند تاثیرات بسیار زیادی بر جوامع هدف به‌‌‌ویژه جوامع آزاد و دموکراتیک برجا گذارند.

بیشتربخوانیم: تولید دیجیتال؛ تعریف و نمونه‌ها

برخلاف تسلیحات هسته‌‌‌ای که استفاده از آنها دارای ملاحظات بسیار و منطبق با رعایت اصل بازدارندگی است، استفاده از هوش مصنوعی به‌‌‌عنوان یک اسلحه بدون هیچ ترس و واهمه‌‌‌ای جریان دارد، به‌‌‌طوری که مدت‌‌‌هاست رقبای آمریکا به‌‌‌سرعت در حال آماده‌‌‌سازی و گاه استفاده جدی از تسلیحات متکی به هوش مصنوعی، چه از نوع فیزیکی و چه از نوع سایبری آن هستند.

از این نوع تسلیحات به‌‌‌صورت تهاجمی، تدافعی، انتشار ضداطلاعات در ابعاد وسیع و از کار انداختن تسلیحات هوش مصنوعی رقبا استفاده کرده و می‌کنند و این روند به دلیل نبود چارچوب‌‌‌ها و معاهدات بین‌المللی در این حوزه به شکل خطرناکی در حال گسترش است. هر کدام از قدرت‌‌‌های بزرگ جهان در حوزه هوش مصنوعی در حال تلاش برای پیشی گرفتن از سایرین و پیدا کردن دست بالا در این رقابت سخت و سریع هستند.

درواقع، بسیاری از کشورها پیشرفت در زمینه طراحی، ساخت و حتی به‌‌‌کارگیری تسلیحات هوش مصنوعی را به‌‌‌عنوان بخشی کلیدی از دکترین امنیتی و دفاعی خود قلمداد می‌کنند و بر این اعتقادند که پیشرفت‌‌‌های بیشتر در این حوزه هم دارای پیامدهای مثبت نظامی و هم دستاوردهای مثبت غیرنظامی و عمومی است.

بااین‌‌‌همه باید دانست حتی تحقیقات، نوآوری‌‌‌ها و پیشرفت‌‌‌های صورت گرفته در حوزه هوش مصنوعی که با اهداف غیرنظامی و مدنی صورت می‌‌‌گیرند، ممکن است توسط یک کشور یا گروه در راستای اهداف نظامی و تسلیحاتی استفاده شوند.

تنها کافی است کاربرانی جدید با دستیابی به الگوریتم‌‌‌های طراحی‌‌‌شده برای تحقق یک هدف صلح‌‌‌آمیز و غیرنظامی و ایجاد تغییراتی در آنها به مرحله‌‌‌ای برسند که همان الگوریتم‌‌‌ها را به‌‌‌عنوان یک اسلحه مورد استفاده قرار دهند.

بیشتربخوانیم: پنج ابزار و منابع رایگان برای توسعه دهندگان راه حل های اینترنت اشیا

 با این ‌‌‌همه باید این را هم دانست که این نوع استفاده یک‌‌‌جانبه و جاه‌‌‌طلبانه از هوش مصنوعی به‌‌‌عنوان ابزار و اسلحه، بدون در نظر گرفتن پیامدهای کوتاه‌‌‌مدت و بلندمدت آن و بی‌‌‌توجه به واکنش‌‌‌های احتمالی سایر بازیگران به آن می‌تواند بسیار خطرناک و چالش‌‌‌برانگیز باشد.

مدیریت هوش مصنوعی ازجمله موضوعاتی است که پیش از فراگیر شدن سیستم‌های هوش مصنوعی باید به آن توجه داشت، چراکه هوش مصنوعی همراه با خود یک سری ملاحظات و پیامدهای خاص خواهد آورد که در هیچ حوزه دیگری مشابه آن وجود ندارد؛ به‌‌‌ویژه زمانی که صحبت از استفاده استراتژیک از ظرفیت‌‌‌های سایبری هوش مصنوعی و رقابت‌‌‌های راهبردی قدرت‌‌‌های بزرگ بر سر آن مطرح باشد.

امروزه برنامه‌‌‌های دیجیتال بر بسیاری از سیستم‌های فیزیکی غلبه پیدا کرده‌‌‌اند و در همه جای زندگی ما به چشم می‌‌‌خورند حتی در داخل یخچال‌‌‌های هوشمند در خانه‌‌‌های ما! اغلب این دستگاه‌‌‌ها به هم متصل بوده و به‌‌‌صورت شبکه‌‌‌ای عمل می‌کنند و به همان اندازه که پیشرفته و موثرند، پیچیدگی‌‌‌ها، چالش‌‌‌ها و آسیب‌‌‌پذیری‌‌‌های خاص خود را هم دارند.

منبع: دنیای اقتصاد به نقل از کتاب The age of AI: and our human future

بیشتربخوانیم: پنج ستون و عامل اصلی در تحول دیجیتال موفق

  • نقش هوش مصنوعی در امنیت جامعه و جنگ‌ها
کانال تلگرام  رسانه فناوری هوشمند

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

همچنین ببینید
بستن
دکمه بازگشت به بالا