خطرات فناوریهوش مصنوعی

هشدار پنتاگون برای استفاده از هوش مصنوعی

کانال تلگرام  رسانه فناوری هوشمند

پنتاگون در دستورالعمل جدیدی ضمن اعلام هشدار درباره حضور هوش مصنوعی در تسلیحات آینده، از برنامه‌های خود در این زمینه خبر داد.

پنتاگون دستورالعمل حاکم بر توسعه، آزمایش و استفاده از جنگ‌افزارهای خودکار و نیمه‌خودکار را بعد از حدود ۱۰ سال برای اولین‌بار به‌روزرسانی کرد تا درباره نقش فزاینده هوش مصنوعی در نبردهای آینده هشدار دهد.

وزارت دفاع آمریکا آخرین‌بار در سال ۲۰۱۲ دستورالعمل مربوط به سامانه‌های تسلیحاتی خودکار را به‌روز کرده بود، اما این هفته دوباره شاهد آپدیت‌های جدیدی هستیم. وزارت دفاع ایالات متحده می‌گوید همچنان متعهد به توسعه سامانه‌های خودکار و یکپارچه‌سازی هوش مصنوعی در پروژه‌های نظامی آینده خود است. با این به‌روزرسانی، دولت آمریکا تمام تمرکز خود را روی توسعه این سلاح‌ها می‌گذارد. این اتفاق در شرایطی می‌افتد که برخی کشورها و کنشگران مخالف توسعه این تسلیحات هستند.

به‌روزرسانی این دستورالعمل به بحث توسعه هوش مصنوعی در ۱۰ سال گذشته پرداخته است و هیئت نظارتی جدیدی را برای مدیریت این فعالیت‌ها معرفی می‌کند. حالا سلاح‌های خودکار باید در اکثر موارد از معاون ستاد مشترک نیروهای مسلح، معاون سیاست‌گذاری وزارت دفاع و معاون تحقیقات و مهندسی وزارت دفاع مجوز رسمی بگیرند تا بتوانند وارد مراحل توسعه شوند.

“فناوری هوشمند” رسانه تخصصی انقلاب صنعتی چهارم

پنتاگون برنامه خود را برای استفاده از هوش مصنوعی اعلام کرد

«مایکل هوروویتز»، رئیس اداره سیاست‌گذاری درباره توانمندی‌های نوظهور وزارت دفاع می‌گوید: «این دستورالعمل حالا مشخص می‌کند که این سامانه‌ها، درست مثل هر سامانه‌ای که از هوش مصنوعی استفاده می‌کنند، خواه تسلیحاتی باشند یا غیر، باید تابع این دستورالعمل‌ها باشند. این تصمیم بخشی از همان چیزی است که ما آن را با عنوان مدیریت خوب می‌شناسیم.»

این دستورالعمل همچنین مقررات استفاده اخلاقی از هوش مصنوعی را که در سال ۲۰۲۰ معرفی شد، بر سامانه‌های تسلیحاتی خودکار اعمال می‌کند. این به‌روزرسانی در مجموع اگرچه یک نقشه راه کامل نیست، اما مشخص می‌کند که مسیر حرکت آینده این وزارتخانه با تمرکز بر فناوری‌های مدرن به کدام سمت خواهد رفت.

درحال‌حاضر کشورهای زیادی مخالف استفاده از هوش مصنوعی در تسلیحات نظامی هستند و حداقل ۳۰ مورد از آن‌ها به‌صورت مشترک خواستار ممنوعیت توسعه این سامانه‌ها شده بودند. «آنتونیو گوترش»، دبیرکل سازمان ملل در سال ۲۰۱۹ دراین‌باره گفته بود: «ابزارهای خودکار با توانایی و اختیار انتخاب اهداف و گرفتن جان مردم، در شرایطی که انسان هیچ نقشی در این فرایند نداشته باشد، به‌لحاظ سیاسی غیرقابل پذیرش و با اخلاق مغایرند.»

منبع: تجارت‌نیوز

محتوی بیشتر از هوش مصنوعی:

  ” اقتصادالکترونیکی“آخرین و به روزترین محتوی در اقتصاددیجیتال

کانال تلگرام  رسانه فناوری هوشمند

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا