خطرات فناوری

جنگ اوکراین باعث افزایش تحقیقات پیرامون ربات‌ های قاتل شده است

کانال تلگرام  رسانه فناوری هوشمند

ارتش ایالات متحده در حال افزایش توسعه و استفاده از تسلیحات خودمختار و ربات‌ قاتل است، این امر بر اساس به‌روزرسانی دستورالعمل‌های وزارت دفاع تأیید شده است.

این به رو رسانی که در ۲۵ ژانویه ۲۰۲۳ منتشر شده، اولین مورد در یک دهه است که در آن مشخص شده آمریکا بر روی سلاح های خودران هوش مصنوعی تمرکز می‌کند.

پیش از این ناتو هم در برنامه‌های خود که در ۱۳ اکتبر ۲۰۲۲ منتشر شد از اصطلاح حفظ برتری فناورانه استفاده کرد که در واقع همان ربات‌ قاتل می‌تواند تفسیر شود و دنبال چنین برنامه‌ای افتاده است.

هر دو بیانیه منعکس کننده درس مهمی است که ارتش‌ها در سراسر جهان از عملیات جنگی اخیر در اوکراین و قره باغ گرفته‌اند: هوش مصنوعی تسلیحاتی آینده جنگ است.

بمب – پهپادها و موشک های نیمه خودران فعلا با کنترل قابل توجه انسانی استفاده می‌شوند. اما آینده این امر را تغییر خواهد داد.

با افزایش تلفات در اوکراین، فشار برای دستیابی به برتری‌های تسلیحاتی نوین مثلا در قالب روبات‌هایی که بتوانند بدون نیاز به نظارت انسانی، اهداف خود را انتخاب کنند و به آنها حمله کنند، افزایش یافته است.

“فناوری هوشمند” رسانه تخصصی انقلاب صنعتی چهارم

در این ماه، یک تولیدکننده کلیدی روسی اعلام کرد که قصد دارد نسخه جنگی جدیدی از ربات شناسایی خود را توسعه دهد، یک وسیله نقلیه زمینی بدون سرنشین، تا نیروهای موجود در اوکراین را تقویت کند.

پهپادهای کاملاً خودمختار در حال حاضر برای دفاع از تأسیسات انرژی اوکراین در برابر سایر پهپادها استفاده می‌شوند . وحید نوابی، مدیرعامل پیمانکار دفاعی ایالات متحده که پهپاد نیمه خودران سوئیچ بلید را تولید می‌کند، گفت که این فناوری در حال حاضر برای تبدیل این تسلیحات به حالت کاملا خودمختار در دسترس است.

میخائیلو فدوروف، وزیر تحول دیجیتال اوکراین، استدلال کرده است که سلاح‌های کاملاً خودمختار «گام بعدی منطقی و اجتناب‌ناپذیر» جنگ هستند و اخیراً گفته است که سربازان ممکن است در شش ماه آینده آنها را در میدان نبرد ببینند.

طرفداران سیستم های تسلیحاتی کاملاً خودمختار استدلال می‌کنند که این فناوری با دور نگه داشتن سربازان از میدان جنگ، آنها را از خطر دور نگه می‌دارد. آنها همچنین اجازه می‌دهند تا تصمیمات نظامی با سرعت فوق بشری گرفته شود و قابلیت‌های دفاعی به طور اساسی بهبود یابد.

در حال حاضر، تسلیحات نیمه خودمختار، مانند مهمات سرگردان که خود را بر روی اهداف ردیابی و منفجر می کنند، به یک “انسان در حلقه” نیاز دارند. آنها می‌توانند اقداماتی را توصیه کنند اما از اپراتورهای خود می‌خواهند که آنها را آغاز کنند.

در مقابل، پهپادهای کاملاً خودمختار، مانند به اصطلاح «‌شکارچی‌های پهپادی» که اکنون در اوکراین مستقر شده‌اند، می‌توانند پهپادهای دشمن را در روز و شب، بدون نیاز به مداخله اپراتور و سریع‌تر از سیستم‌های تسلیحاتی کنترل‌شده توسط انسان، ردیابی و غیرفعال کنند.

منتقدانی مانند کارزار توقف ربات‌ قاتل بیش از یک دهه است که از ممنوعیت تحقیق و توسعه سیستم‌های تسلیحاتی خودمختار حمایت می‌کنند. آنها به آینده‌ای اشاره می کنند که در آن سیستم های تسلیحاتی خودمختار به طور خاص برای هدف قرار دادن انسان ها طراحی بشوند و دیگر روی وسایل نقلیه، زیرساخت ها و سایر سلاح‌ها متمرکز نباشند.

 آنها استدلال می کنند که تصمیم‌های زمان جنگ در مورد زندگی و مرگ باید در دست‌های انسان باقی بماند. تبدیل آنها به یک الگوریتم، یک کار غیرانسانی دیجیتال است.

هم‌رای با سازمان دیده بان حقوق بشر، کمپین توقف ربات‌ قاتل استدلال می‌کند که سیستم های تسلیحاتی خودمختار فاقد بخش قضاوت انسانی لازم برای تمایز بین غیرنظامیان و اهداف نظامی قانونی هستند. آنها همچنین با کاهش خطرات درک شده، آستانه جنگ را پایین می‌آورند و کنترل معنادار انسان را بر آنچه در میدان نبرد اتفاق می افتد از بین می‌برند.

این سازمان‌ها استدلال می‌کنند که ارتش‌هایی که بیشترین سرمایه‌گذاری را روی سیستم‌های تسلیحاتی خودمختار انجام می‌دهند، از جمله ایالات متحده، روسیه، چین، کره جنوبی و اتحادیه اروپا، جهان را وارد یک مسابقه تسلیحاتی جدید پرهزینه و بی‌ثبات می‌کنند.

دیده‌بان حقوق بشر بیانیه‌ای صادر کرد و گفت که دستورالعمل جدید نمی‌تواند معنای عبارت «سطح مناسب» کنترل انسانی را روشن کند.

به روز رسانی پنتاگون ادعا می‌کند به صورت همزمان به استقرار سیستم های تسلیحاتی خودمختار و رعایت قوانین بشردوستانه متعهد است. اما چگونه ایالات متحده این تعهدات را متعادل خواهد کرد و آیا چنین تعادلی حتی ممکن است؟

کمیته بین المللی صلیب سرخ، بر این نکته پافشاری می‌کند که تعهدات قانونی فرماندهان و اپراتورها نباید به یک ماشین، الگوریتم یا سیستم تسلیحاتی منتقل شود. در حال حاضر، انسان ها مسئول حفاظت از غیرنظامیان و محدود کردن خسارات جنگی با اطمینان از متناسب بودن استفاده از زور با اهداف نظامی هستند.

اگر زمانی سلاح‌های هوشمند مصنوعی در میدان نبرد مستقر شوند، چه کسی باید در هنگام وقوع مرگ‌های غیرنظامی پاسخگو باشد؟ پاسخ روشنی برای این سوال بسیار مهم وجود ندارد.

منبع: The Conversation

  • جنگ اوکراین باعث افزایش تحقیقات پیرامون ربات‌ قاتل شده است

  ” اقتصادالکترونیکی“آخرین و به روزترین محتوی در اقتصاددیجیتال

کانال تلگرام  رسانه فناوری هوشمند

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا