ربات‌های قاتل در جنگ‌های آینده چگونه ظاهر خواهند شد؟

ربات‌های قاتل در جنگ‌های آینده چگونه ظاهر خواهند شد؟

شاید در آینده ربات‌های قاتلی که امروزه در فیلم‌ها می‌بینیم بتوانند با یک پیشرفت سریع در هوش مصنوعی تبدیل به یک واقعیت شوند. محققان معتقدند که با توجه به سرمایه‌گذاری‌ هنگفت دولتی و بخش خصوصی در زمینه تولید ربات‌های هوشمند جنگی، باید وجه منفی عملکرد این تجهیزات کشنده را نیز در نظر گرفت.

 ممکن است در مورد ربات‌های قاتل، ربات‌های سلاخی یا ربات‌های نابود کننده(که رسماً به آنها سلاح‌های خودکار کشنده(LAWs) گفته می‌شود) در فیلم‌ها و کتاب‌ها شنیده باشید اما ایده تسلیحات فوق‌هوشمند که بسیار خطرناک هستند هنوز علمی تخیلی است. اما همانطور که سلاح‌های هوش مصنوعی به طور فزاینده‌ای پیچیده می‌شوند، نگرانی عمومی در مورد ترس از عدم پاسخگویی و خطر نقص فنی افزایش می‌یابد.

قبلا دیده‌ایم که هوش مصنوعی خنثی چگونه الگوریتم‌های جنسیتی و سیستم‌های تعدیل محتوای نامناسب را ایجاد کرده است، عمدتاً به این دلیل که سازندگان آنها این فناوری را درک نکرده‌اند. اما در جنگ، این نوع سوء تفاهم‌ها می‌تواند غیرنظامیان را بکشد یا مذاکرات را خراب کند.

دانشمندان معتقدند که با روی‌ کار آمدن فناوری رباتیک به عنوان ابزاری جهت کشتن انسانها چه به صورت خودکار و یا کنترل از راه دور، تصمیم‌گیری برای کشتن شهروندان بی‌گناه بسیار آسان‌تر از شرایط واقعی خواهد شد.

“فناوری هوشمند” رسانه تخصصی انقلاب صنعتی چهارم

به عنوان مثال، به یک الگوریتم تشخیص هدف می‌توان نحوه شناسایی مخازن از تصاویر ماهواره‌ای را آموزش داد. اما اگر تمام تصاویری که برای آموزش سیستم استفاده می‌شوند، سربازانی را در اطراف تانک نشان می‌دادند، چه؟ حتی ممکن است این الگوریتم یک وسیله نقلیه غیرنظامی که از منطقه نظامی عبور می‌کند را با هدف خاصش اشتباه بگیرد.

کارشناسان رباتیک همچنین پیشتر گفته بودند که جایگزینی هوش مصنوعی در هدف‌گیری و تصمیم به شلیک به جای منطق انسان یک تصمیم کاملا خطرناک و غیرعاقلانه است، چرا که در این حالت یک ربات تصمیم می‌گیرد که به یک هدف انسانی بدون در نظر گرفتن منطق و اهمیت جان انسان‌ شلیک کند.  

چرا ما به سلاح‌های خودکار نیاز داریم؟

غیرنظامیان در بسیاری از کشورها(مانند ویتنام، افغانستان و یمن) به دلیل شیوه‌ای که ابرقدرت‌های جهانی در ساخت و استفاده از سلاح‌های پیشرفته به طور فزاینده‌ای استفاده می‌کنند، آسیب دیده‌اند. بسیاری از مردم استدلال می‌کنند که بیشتر ضرر کرده‌اند تا سود که نمونه اخیراً آن حمله روسیه به اوکراین در اوایل سال ۲۰۲۲ است.

در طرفی دیگر، افرادی هستند که می‌گویند یک کشور باید بتواند از خود دفاع کند که این امر به معنای همگام شدن با فناوری نظامی کشورهای دیگر است. هوش مصنوعی می‌تواند در شطرنج و پوکر از انسان پیشی بگیرد. در دنیای واقعی نیز از انسان‌ها بهتر عمل می‌کند. به عنوان مثال مایکروسافت ادعا می‌کند که نرم افزار تشخیص گفتار آن دارای نرخ خطای یک درصد است و این در حالی است که نرخ خطای انسانی حدود شش درصد است. بنابراین تعجب آور نیست که ارتش‌ها به آرامی کنترل الگوریتم‌ها را به دست بگیرند. اما چگونه از افزودن ربات‌های قاتل به فهرست طولانی چیزهایی که آرزو می‌کردیم هرگز اختراع نکرده بودیم اجتناب کنیم؟ اول از همه: دشمنت را بشناس.

محتوی بیشتر از رباتیک:

سلاح‌های خودکار کشنده(LAW) چه هستند؟

وزارت دفاع ایالات متحده سیستم تسلیحاتی خودکار را اینگونه تعریف می‌کند: سیستم تسلیحاتی که پس از فعال شدن، می‌تواند اهداف را بدون دخالت بیشتر اپراتور انسانی انتخاب کرده و مورد هدف قرار دهد. بسیاری از سیستم‌های رزمی در حال حاضر با این معیار مطابقت دارند. رایانه‌های روی پهپادها و موشک‌های مدرن الگوریتم‌هایی دارند که می‌توانند اهداف را شناسایی کرده و با دقت بسیار بیشتری نسبت به اپراتور انسانی به سمت آنها شلیک کنند. سلاح‌های مجهز به هوش مصنوعی نیز وجود دارند که برای حمله به مردم طراحی شده‌اند، از ربات نگهبان گرفته تا پهپادهای کامیکازه سرگردان که در جنگ اوکراین استفاده می‌شوند. پهپاد انتحاری، پهپاد کامی‌کازه یا مهمات پرسه‌زن (Loitering munition) نوعی سامانه تسلیحاتی است که در آن مهمات برای مدتی در محدوده‌ای هدف را جستجو می‌کنند(اصطلاحا «پرسه‌زنی» می‌کنند) و پس از یافتن هدف به آن حمله می‌کنند.

قوانین جنگ

توافق‌نامه‌های بین‌المللی مانند کنوانسیون‌های ژنو، رفتاری را برای رفتار با اسیران جنگی و غیرنظامیان در هنگام درگیری ایجاد می‌کنند. آنها یکی از معدود ابزارهایی هستند که ما برای کنترل نحوه جنگیدن داریم. متأسفانه، استفاده از سلاح‌های شیمیایی توسط ایالات متحده در ویتنام و توسط روسیه در افغانستان، دلیلی بر عدم موفقیت این اقدامات است. کارزار جهانی علیه مین‌های زمینی(ICBL) برای ممنوعیت استفاده از مین‌های زمینی از سال ۱۹۹۲ در حال تعامل و همکلاری با سیاستمداران برای ممنوعیت استفاده از مین‌ها و مهمات خوشه‌ای(که به طور تصادفی بمب‌های کوچک را در منطقه وسیعی پراکنده می‌کند) بوده است. در سال ۱۹۹۷ معاهده اتاوا شامل ممنوعیت استفاده از این سلاح‌ها بود که ۱۲۲ کشور آن را امضا کردند. اما آمریکا، چین و روسیه در این کار شرکت نکردند.

مین‌های زمینی از سال ۲۰۱۵ سالانه حداقل ۵۰۰۰ سرباز و غیرنظامی را مجروح کرده و آنها جان خود را از دست داده‌اند و در سال ۲۰۱۷ حدود ۹۴۴۰ نفر کشته شده‌اند. با وجود تلاش‌های زیاد کارزار جهانی علیه مین‌های زمینی، شواهدی وجود دارد که هم روسیه و هم اوکراین(عضو معاهده اتاوا) از مین‌های زمینی در طول تهاجم روسیه به اوکراین استفاده می‌کنند.

آینده ما

تقریباً مطمئناً در آینده شاهد سلاح‌های بیشتری مبتنی بر هوش مصنوعی خواهیم بود. ممنوعیت‌های دقیق‌تر و ظریف‌تر به سالم نگه داشتن سیاره و افراد کمک می‌کند. ماشین‌های هوشمند با قابلیت حمله به اهداف تعیین شده بدون نیاز به دخالت انسانی، اصلی‌ترین دغدغه گروه‌های ضد توسعه «ربات‌های قاتل» محسوب می‌شود. چندی پیش یک مهندس اسبق “گوگل” راجع به نسل جدید ربات‌ها که می‌توانند در آینده کشنده باشند، ابراز ترس کرد. “لارا نولان” که پیش از این در پروژه پهپادهای نظامی گوگل کار می‌کرد، خواستار ممنوعیت استفاده از پهپادهای جنگی خودکار شد، زیرا این دستگاه‌ها احساسات انسانی ندارند.

 این پروژه تحت عنوان برنامه هوش مصنوعی پنتاگون به نام پروژه “ماون”(Maven) انجام می‌شود، روی تفکیک دشمن از مردم و دیگر اشیاء تمرکز داشت ولی پس از اعتراض کارمندان به این فناوری لغو گردید.

به گزارش روزنامه گاردین، در سال ۲۰۱۸ میلادی نولان با هدف اعتراض به فناوری پهپادهای ارتش، از گوگل کناره‌گیری کرد. وی اکنون خواستار این موضوع شده که تمام پهپادهای بدون سرنشین که توسط انسان اداره نمی‌شوند، مانند سلاح‌های شیمیایی ممنوع شوند.

نولان اظهار کرد، این ربات‌های قاتل باید متوقف شوند زیرا می‌توانند منجر به بروز قتل‌های غیرقانونی شوند. وی افزود، ممکن است با استفاده از این ربات‌ها حوادث بزرگ و وحشتناکی رخ دهد زیرا آنها رفتارهای غیر منتظره‌ای از خود نشان می‌دهند. به همین دلیل هر سیستم تسلیحاتی پیشرفته باید تحت کنترل دقیق انسان قرار گیرد. در غیر این صورت باید از استفاده از آن پیشگیری شود زیرا بسیار خطرناک خواهد بود.

حضور ربات‌های قاتل در پلیس آمریکا

با منتشر شدن خبرهایی مبنی بر استفاده از ربات‌ها در ماموریت‌های پلیس آمریکا و مسلح کردن آنها، واکنش‌های منفی نسبت به این موضوع شدت گرفته‌اند. اخیرا مسئولان شهر سان‌فرانسیسکو به پلیس این شهر این اختیار را دادند که از ربات‌های قابل کنترل از راه دور استفاده کند. این ربات‌ها، ماشین‌هایی به اندازه سگ هستند که از چرخ‌دنده‌ها و اهرم‌های تعبیه‌شده روی چرخ‌ها ساخته شده‌اند و در حال حاضر می‌توان آنها را برای کشتن آموزش داد.

این مجوز، به افسران پلیس اجازه می‌دهد تا بمبی را به بازوی مکانیکی ربات ببندند، آن را در مجاورت قانون‌شکن مورد نظر قرار دهند و دکمه‌ای را بزنند تا منفجر شود. این راهبرد شش سال پیش در دالاس آغاز شد؛ زمانی که پلیس چند ساعت با یک تک‌تیرانداز در کشمکش گرفتار شد که پنج مامور را کشته بود. زمانی که آنها یک ربات حامل مواد منفجره را مستقر کردند، کشمکش پایان یافت. این اقدام در آن زمان، کارشناسان را در مورد استفاده از نیروی مرگبار ربات شگفت‌زده کرد.

آن اقدام، بحث‌های داغی را برانگیخت مبنی بر اینکه آیا پلیس باید مجوز کشتن با چنین سیستم‌های پیشرفته‌ای را برای پایان دادن به زندگی انسان‌ها داشته باشد یا خیر. ناوگان ربات‌های سان‌فرانسیسکو در حال حاضر برای شناسایی، مأموریت‌های نجات و عملیات خنثی‌سازی بمب استفاده می‌شوند. براساس مجوز شهر سان‌فرانسیسکو، زمانی که خطر جان باختن عموم مردم یا ماموران قریب‌الوقوع است و پلیس نمی‌تواند تهدید را با استفاده از نیروی جایگزین یا تاکتیک‌های کاهش تنش مهار کند، می‌تواند به ربات‌های کشتار زمینی فرمان دهد.

اگرچه این سیاست توسط هیئت نظارت تصویب شده است اما هنوز در جلسه بعدی باید بتواند دومین رای را کسب کند و پیش از تبدیل شدن به قانون، توسط شهردار تایید شود. طبق گزارش‌ها، اداره پلیس سانفرانسیسکو گفته است که ربات‌ها را به سلاح گرم مجهز نمی‌کند اما این مجوز به طور مشخص مانع چنین امکانی نمی‌شود. این کار قبلا مورد انتقاد سایر مقامات شهر، ناظران حقوق دیجیتال و بسیاری از کاربران اینترنت قرار گرفته بود. نامه‌ای که از «دفتر دفاع عمومی سان‌فرانسیسکو» ارسال شد، این سیاست را غیرانسانی‌ و نظامی‌گرایانه نامید. دیگران استدلال کردند که حامیان آن، ترس را به ‌طور پنهانی به‌ عنوان تاکتیکی برای افزایش قدرت پلیس به‌ کار می‌برند. در مقابل، دستیار رئیس پلیس طی جلسه هیئت مدیره شهر، به ماجرای تیراندازی در یک جشنواره موسیقی سال ۲۰۱۷ در لاس‌وگاس استناد کرد و مدعی شد که یک ربات می‌توانست بار این مصیبت را کمتر کند.

این قلمرو از نظر قانونی جدید است. در پیش‌نویس‌های قبلی که برای بازنگری دولت ارائه شده بودند، یکی از بندهای قوانین بیان می‌کرد که ربات‌ها نباید به ‌عنوان وسیله استفاده از زور علیه کسی به کار بروند. با وجود این، پلیس در ماه سپتامبر این بند را حذف کرد و در حقیقت این قانون را زیر پا گذاشت که ربات نباید به انسان آسیب برساند.

در هر حال، تهدید ربات‌های قاتل موضوع جدیدی نیست. این موضوع سال‌هاست که منتقدان را نگران کرده است. شرکت “بوستون داینامیکس”(Boston Dynamics) که سگ رباتیک معروفی به نام “اسپات”(Spot) را طراحی کرده است، پس از اینکه سگ رباتیکی که به اداره پلیس نیویورک اجاره داده بود، طی یک حمله به خانه‌ای در منطقه برانکس نیویورک به کار رفت، مورد انتقاد قرار گرفت. ماه‌ها بعد، همکاری اسپات با پلیس نیویورک لغو شد. بوستون داینامیکس در حال حاضر یکی از معدود سازندگان ربات به شمار می‌رود که صریحا با مسلح کردن ساخته‌های خود مخالف است. این شرکت در ماه اکتبر، نامه سرگشاده‌ای را امضا کرد و در آن اظهار داشت که این کار، خطر آسیب و مسائل اخلاقی جدی را به همراه دارد. به عنوان مثال، اگر یک ربات به طور تصادفی کسی را بکشد، چه کسی مقصر است؟

در همین حال، “بنیاد مرزهای الکترونیکی”«EFF» که یک گروه مدافع منافع عمومی است، استدلال کرد که مسلح کردن ربات‌ها یک شیب لغزنده است که راه را برای اجازه دادن به هوش مصنوعی مستقل هموار می‌کند مبنی بر اینکه آیا ماشه را بکشد یا نه.

داستان‌های علمی-تخیلی به واقعیت علمی تبدیل می‌شوند

برای آمریکایی‌ها که فیلم‌های هالیوودی بسیاری را درباره آخرالزمان‌ هوش مصنوعی دیده‌اند، این حقیقتی تاریک است. پس از اینکه یکی از ربات‌های چهارپای شرکت “گوست روباتیکس”(Ghost Robotics) که محصولاتی را برای ارتش آمریکا عرضه می‌کند، در حال به کار بردن سلاح طی کنفرانسی در واشنگتن‌دی‌سی به نمایش گذاشته شد، این شرکت در اکتبر گذشته به تیتر خبرها تبدیل شد و واکنش‌هایی را دریافت کرد.

مجریان قانون در سان‌فرانسیسکو طی سال‌های اخیر، انبار مهمات رو به رشدی را توسعه داده‌اند. طبق گزارش‌ها، یکی از برنامه‌های فدرال آن با نارنجک‌انداز، سرنیزه، خودروهای زرهی و لباس‌های استتار آمیخته است. این شهر گفت که ناوگان آن متشکل از ۱۲ ربات است که بخشی از آنها با دلارهای فدرال خریداری شده‌اند و حاصل مازاد نظامی نیستند. یکی از مدل‌های آن موسوم به “QinetiQ TALON”، یک ربات جنگی مشهور است. “اداره پلیس سان‌فرانسیسکو”(SFPD) در ماه سپتامبر سال گذشته، حق نظارت بر خروجی‌های ویدئویی زنده را که از دوربین‌های خصوصی متعلق به مشاغل و غیرنظامیان به دست می‌آیند، دریافت کرد که به ایجاد ترس از یک دولت نظارتی رو به رشد منجر شد. برخی از کاربران توییتر این واقعیت را هدف گرفتند که پلیس و رسانه‌ها به طور یکسان سعی دارند تا این موضوع را ثابت کنند که ربات‌های پلیس حامل مسلسل یا موشک هسته‌ای نیستند، بلکه فقط مواد منفجره متوسط را حمل می‌کنند.

منبع: ایسنا و به نقل از تک اکسپلور

  • ربات‌های قاتل در جنگ‌های آینده چگونه ظاهر خواهند شد؟

  ” اقتصادالکترونیکی“آخرین و به روزترین محتوی در اقتصاددیجیتال

Check Also

منتظر بزرگترین مسابقه فوتبال بین انسان‌ و ربات‌ باشید

منتظر بزرگترین مسابقه فوتبال بین انسان‌ و ربات‌ باشید

یک دکترای هوش‌مصنوعی و رباتیک گفت: پژوهش‌ها در حوزه یادگیری تقویتی همچنان ادامه دارد و …

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *