خطرات فناوری

برای جلوگیری از سوءاستفاده از هوش مصنوعی نیاز به قوانین مشخصی است!

کانال تلگرام  رسانه فناوری هوشمند

آینده‌ای را تصور کنید که در آن ربات‌ها همدم و همراه ما باشند. اما برای رسیدن به این آینده ایده‌آل، نیاز به قوانین مشخصی است تا از سوءاستفاده از هوش مصنوعی جلوگیری شود. در این مقاله به قوانین جدیدی می‌پردازیم که برای ایجاد یک رابطه سالم بین انسان و هوش مصنوعی ضروری است.

قوانین عملی برای هوش مصنوعی و ربات‌ها

نویسنده داستان‌های علمی تخیلی، آیزاک آسیموف، حتی قبل از ساخته شدن اولین کامپیوتر الکترونیکی قابل برنامه‌ریزی، یک پیشگام در زمینه هوش مصنوعی بود. ENIAC در سال ۱۹۴۵ تکمیل شد، در حالی که سه قانون رباتیک او از طریق داستان کوتاه “دور زدن” در سال ۱۹۴۲ معرفی شد.او اولین کسی بود که آنچه را که به عنوان توابع هدف ایمنی شناخته می‌شود، توصیف کرد و در آن زمان نیز برای این نامی وجود نداشت. این قوانین رباتیک، ارائه شده از یک “کتابچه راهنمای رباتیک، ویرایش ۵۶، سال ۲۰۵۸ میلادی” خیالی، عبارتند از:

قانون اول: یک ربات ممکن است به یک انسان آسیب نرساند یا از طریق بی‌عملی، اجازه دهد که یک انسان به خطر بیفتد.
قانون دوم: یک ربات باید دستورات داده شده به آن توسط انسان‌ها را اطاعت کند، مگر اینکه چنین دستوراتی با قانون اول در تضاد باشد.
قانون سوم: یک ربات باید وجود خود را تا زمانی که چنین حفاظتی با قانون اول یا دوم در تضاد نباشد، محافظت کند.

بیشتربخوانید: چگونه رایانش ابری به شرکت‌ها در دستیابی به اهداف توسعه پایدار کمک می‌کند

واقعیت این است که هیچ فناوری نمی‌تواند واقعاً قوانین آسیموف را در داخل یک ماشین تکرار کند. همانطور که رادنی بروکس از شرکت iRobot – که نام آن از کتاب آسیموف گرفته شده است، این افراد کسانی هستند که ربات نظامی Packbot و جاروبرقی Roomba را به شما ارائه کرده‌اند – می‌گوید: “مردم از من درباره اینکه آیا ربات‌های ما از قوانین آسیموف پیروی می‌کنند می‌پرسند. یک دلیل ساده وجود دارد که آنها این کار را نمی‌کنند: من نمی‌توانم قوانین آسیموف را در آن‌ها بسازم!”

یک قدم به عقب برگردید و در مورد قوانین عملی‌تر برای هوش مصنوعی و ربات‌ها فکر کنید. به عنوان مثال، آیا می‌توانیم توافق کنیم که ربات‌هایی نسازیم که ما را به شدت آزار دهند؟ یا اینکه هوش مصنوعی را نمی‌توان طراحی کرد تا دولت‌ها را سرنگون کند؟ یا شاید ربات را وادار کنیم که در طول مسیر برای تحویل چیزی برای آمازون، متوقف شود و در یک تصادف کمک کند؟ می‌دانید، مانند قوانین عقل سلیم؟واقعیت این است که ما هرگز نمی‌توانیم یک پیمانکار نظامی را از نصب یک مسلسل روی یک سگ ربات بازداریم، اما می‌توانیم با هم کار کنیم تا اطمینان حاصل کنیم که برخی از تفکر طراحی در سطح اجتماعی برای طراحی هوش مصنوعی و رباتیک اعمال می‌شود، تا زندگی ما را بهتر کند.

برای انجام این کار، باید در مورد نحوه کار فناوری صحبت کنیم. هوش مصنوعی احساسات ندارد که انسان‌ها را انگیزه می‌دهند. در عوض، هوش مصنوعی دارای توابع هدف است که همان هدف را در ماشین‌ها به عنوان احساسات در انسان‌ها انجام می‌دهند.آنها تعیین می‌کنند که یک هوش مصنوعی چه کاری را انجام می‌دهد. هنگامی که یک تابع هدف برای ایمن کردن یک هوش مصنوعی در نظر گرفته شده است، ممکن است آن را تابع هدف ایمنی بنامند. در مورد ما، ما باید یک کلاس از توابع هدف ایجاد کنیم که با تجربه کاربر و معیارهای خوشبختی در سطح اجتماعی سروکار داشته باشند.

فرض کنید دولت شما تصمیم گرفت از هر نمونه نظارت، مانند دوربین‌های چراغ راهنمایی و دوربین‌های ایمنی عمومی، برای پیدا کردن هر نمونه از جابجایی یا آشغال‌ریزی شما استفاده کند تا جریمه‌های علیه شما را به حداکثر برساند. این بسیار آزاردهنده خواهد بود، درست نیست؟ یا اگر یک ربات اصلاح سیاسی همه کارهایی را که شما انجام می‌دهید که تا حدودی نادرست است، بیرون بیاورد تا همه را وادار کند از قوانین شبکه اجتماعی بدون شوخ طنز آن پیروی کنند.

بیشتربخوانید: پنج ابزار و منابع رایگان برای توسعه دهندگان راه حل های اینترنت اشیا

در اینجا قوانین جدید هوش مصنوعی من آمده است که قرار است سرگرم‌کننده باشند، مانند قوانین جدید بیل ماهر:

قانون جدید اول: یک هوش مصنوعی یا ربات ممکن است یک انسان را به طور جدی یا مکرراً آزار ندهد.
قانون جدید دوم: یک هوش مصنوعی یا ربات باید از طریق حالات چهره، ناراحتی یا ناخشنودی را تشخیص دهد، اطلاعات جمع‌آوری کند و کاری در مورد آن انجام دهد و آن را با جامعه طراحان هوش مصنوعی و رباتیک به اشتراک بگذارد تا از آزار جلوگیری کند.
قانون جدید سوم: یک هوش مصنوعی یا ربات نباید اجازه دهد که یک انسان در برابر یک هوش مصنوعی یا شبکه هوش مصنوعی قرار گیرد و به طور مکرر اصلاح، جریمه، مجازات یا مورد آزار و اذیت قرار گیرد.
قانون جدید چهارم: یک هوش مصنوعی یا ربات هرگز قادر نخواهد بود تابع هدف خود را بازنویسی کند تا بتواند تکثیر یا کسب منابع را برای سود خود بیش از رفاه انسان‌ها به حداکثر برساند.
قانون جدید پنجم: اقدامات هر هوش مصنوعی یا ربات مشمول لغو مجاز انسان خواهد بود. به عبارت دیگر، باید یک سوئیچ خاموش چند سطحی وجود داشته باشد که هر رفتاری از هوش مصنوعی را که انسان‌ها را آزار می‌دهد، و همچنین رفتارهای ناایمن که به آنها آسیب می‌رساند، خاموش کند.
قانون جدید ششم: یک هوش مصنوعی یا ربات ممکن است به روح انسان آسیب نرساند و از طریق شبکه‌سازی با سایر هوش مصنوعی‌ها، همیشه باید یک تابع هدف برای ارتقای بشریت و روح انسان داشته باشد.

در اینجا مثالی از طراحی فناوری ضد آزار و اذیت آورده شده است: فرض کنید تلفن‌هایی برای همه اعضای خانواده خود خریداری کردید. اکنون، بچه‌ها در هنگام شام پیامک می‌فرستند و صحبت نمی‌کنند. مطمئناً می‌توانید یک قانون وضع کنید که تلفن‌ها باید در هنگام شام خاموش باشند… اما بچه‌های شما مانند آتیلا هون رفتار خواهند کرد و زندگی اجتماعی خود را نابود خواهند کرد.

چرا سازنده تلفن برای این کار ضربه نمی‌خورد و توضیح نمی‌دهد که سیاست برنامه‌های خانوادگی این است که در هنگام شام‌های خانوادگی، تلفن‌ها تمام اطلاعیه‌ها را نگه می‌دارند و نمی‌توان از آن‌ها استفاده کرد، مگر اینکه تماس‌های اضطراری به تلفن‌های والدین هدایت شوند؟و وقتی بچه‌ها شکایت می‌کنند، هوش مصنوعی برای دفاع از والدینی که هزینه تلفن‌ها را پرداخت می‌کنند پاسخ می‌دهد: “وای، والدین شما خیلی سخت کار می‌کنند و تنها چیزی که می‌خواهند یک ساعت در روز است تا با شما باشند و یک وعده غذایی آرام داشته باشند. شما از حذف اجتماعی نخواهید مرد و ساعت ۷ بعد از ظهر دوباره آنلاین خواهید بود!”اگر سازندگان تلفن سعی می‌کردند مسائل اجتماعی مانند این را حل کنند و مشتریان خود را به طور قابل توجهی خوشحال‌تر کنند چه می‌شد؟

منبع: فارس

بیشتربخوانید: مدیران ارشد فناوری (CIO) چگونه هوش مصنوعی مولد در سازمان‌ها را هدایت می‌کنند

کانال تلگرام  رسانه فناوری هوشمند

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا