برای جلوگیری از سوءاستفاده از هوش مصنوعی نیاز به قوانین مشخصی است!
آیندهای را تصور کنید که در آن رباتها همدم و همراه ما باشند. اما برای رسیدن به این آینده ایدهآل، نیاز به قوانین مشخصی است تا از سوءاستفاده از هوش مصنوعی جلوگیری شود. در این مقاله به قوانین جدیدی میپردازیم که برای ایجاد یک رابطه سالم بین انسان و هوش مصنوعی ضروری است.
قوانین عملی برای هوش مصنوعی و رباتها
نویسنده داستانهای علمی تخیلی، آیزاک آسیموف، حتی قبل از ساخته شدن اولین کامپیوتر الکترونیکی قابل برنامهریزی، یک پیشگام در زمینه هوش مصنوعی بود. ENIAC در سال ۱۹۴۵ تکمیل شد، در حالی که سه قانون رباتیک او از طریق داستان کوتاه “دور زدن” در سال ۱۹۴۲ معرفی شد.او اولین کسی بود که آنچه را که به عنوان توابع هدف ایمنی شناخته میشود، توصیف کرد و در آن زمان نیز برای این نامی وجود نداشت. این قوانین رباتیک، ارائه شده از یک “کتابچه راهنمای رباتیک، ویرایش ۵۶، سال ۲۰۵۸ میلادی” خیالی، عبارتند از:
قانون اول: یک ربات ممکن است به یک انسان آسیب نرساند یا از طریق بیعملی، اجازه دهد که یک انسان به خطر بیفتد.
قانون دوم: یک ربات باید دستورات داده شده به آن توسط انسانها را اطاعت کند، مگر اینکه چنین دستوراتی با قانون اول در تضاد باشد.
قانون سوم: یک ربات باید وجود خود را تا زمانی که چنین حفاظتی با قانون اول یا دوم در تضاد نباشد، محافظت کند.
بیشتربخوانید: چگونه رایانش ابری به شرکتها در دستیابی به اهداف توسعه پایدار کمک میکند
واقعیت این است که هیچ فناوری نمیتواند واقعاً قوانین آسیموف را در داخل یک ماشین تکرار کند. همانطور که رادنی بروکس از شرکت iRobot – که نام آن از کتاب آسیموف گرفته شده است، این افراد کسانی هستند که ربات نظامی Packbot و جاروبرقی Roomba را به شما ارائه کردهاند – میگوید: “مردم از من درباره اینکه آیا رباتهای ما از قوانین آسیموف پیروی میکنند میپرسند. یک دلیل ساده وجود دارد که آنها این کار را نمیکنند: من نمیتوانم قوانین آسیموف را در آنها بسازم!”
یک قدم به عقب برگردید و در مورد قوانین عملیتر برای هوش مصنوعی و رباتها فکر کنید. به عنوان مثال، آیا میتوانیم توافق کنیم که رباتهایی نسازیم که ما را به شدت آزار دهند؟ یا اینکه هوش مصنوعی را نمیتوان طراحی کرد تا دولتها را سرنگون کند؟ یا شاید ربات را وادار کنیم که در طول مسیر برای تحویل چیزی برای آمازون، متوقف شود و در یک تصادف کمک کند؟ میدانید، مانند قوانین عقل سلیم؟واقعیت این است که ما هرگز نمیتوانیم یک پیمانکار نظامی را از نصب یک مسلسل روی یک سگ ربات بازداریم، اما میتوانیم با هم کار کنیم تا اطمینان حاصل کنیم که برخی از تفکر طراحی در سطح اجتماعی برای طراحی هوش مصنوعی و رباتیک اعمال میشود، تا زندگی ما را بهتر کند.
برای انجام این کار، باید در مورد نحوه کار فناوری صحبت کنیم. هوش مصنوعی احساسات ندارد که انسانها را انگیزه میدهند. در عوض، هوش مصنوعی دارای توابع هدف است که همان هدف را در ماشینها به عنوان احساسات در انسانها انجام میدهند.آنها تعیین میکنند که یک هوش مصنوعی چه کاری را انجام میدهد. هنگامی که یک تابع هدف برای ایمن کردن یک هوش مصنوعی در نظر گرفته شده است، ممکن است آن را تابع هدف ایمنی بنامند. در مورد ما، ما باید یک کلاس از توابع هدف ایجاد کنیم که با تجربه کاربر و معیارهای خوشبختی در سطح اجتماعی سروکار داشته باشند.
فرض کنید دولت شما تصمیم گرفت از هر نمونه نظارت، مانند دوربینهای چراغ راهنمایی و دوربینهای ایمنی عمومی، برای پیدا کردن هر نمونه از جابجایی یا آشغالریزی شما استفاده کند تا جریمههای علیه شما را به حداکثر برساند. این بسیار آزاردهنده خواهد بود، درست نیست؟ یا اگر یک ربات اصلاح سیاسی همه کارهایی را که شما انجام میدهید که تا حدودی نادرست است، بیرون بیاورد تا همه را وادار کند از قوانین شبکه اجتماعی بدون شوخ طنز آن پیروی کنند.
بیشتربخوانید: پنج ابزار و منابع رایگان برای توسعه دهندگان راه حل های اینترنت اشیا
در اینجا قوانین جدید هوش مصنوعی من آمده است که قرار است سرگرمکننده باشند، مانند قوانین جدید بیل ماهر:
قانون جدید اول: یک هوش مصنوعی یا ربات ممکن است یک انسان را به طور جدی یا مکرراً آزار ندهد.
قانون جدید دوم: یک هوش مصنوعی یا ربات باید از طریق حالات چهره، ناراحتی یا ناخشنودی را تشخیص دهد، اطلاعات جمعآوری کند و کاری در مورد آن انجام دهد و آن را با جامعه طراحان هوش مصنوعی و رباتیک به اشتراک بگذارد تا از آزار جلوگیری کند.
قانون جدید سوم: یک هوش مصنوعی یا ربات نباید اجازه دهد که یک انسان در برابر یک هوش مصنوعی یا شبکه هوش مصنوعی قرار گیرد و به طور مکرر اصلاح، جریمه، مجازات یا مورد آزار و اذیت قرار گیرد.
قانون جدید چهارم: یک هوش مصنوعی یا ربات هرگز قادر نخواهد بود تابع هدف خود را بازنویسی کند تا بتواند تکثیر یا کسب منابع را برای سود خود بیش از رفاه انسانها به حداکثر برساند.
قانون جدید پنجم: اقدامات هر هوش مصنوعی یا ربات مشمول لغو مجاز انسان خواهد بود. به عبارت دیگر، باید یک سوئیچ خاموش چند سطحی وجود داشته باشد که هر رفتاری از هوش مصنوعی را که انسانها را آزار میدهد، و همچنین رفتارهای ناایمن که به آنها آسیب میرساند، خاموش کند.
قانون جدید ششم: یک هوش مصنوعی یا ربات ممکن است به روح انسان آسیب نرساند و از طریق شبکهسازی با سایر هوش مصنوعیها، همیشه باید یک تابع هدف برای ارتقای بشریت و روح انسان داشته باشد.
در اینجا مثالی از طراحی فناوری ضد آزار و اذیت آورده شده است: فرض کنید تلفنهایی برای همه اعضای خانواده خود خریداری کردید. اکنون، بچهها در هنگام شام پیامک میفرستند و صحبت نمیکنند. مطمئناً میتوانید یک قانون وضع کنید که تلفنها باید در هنگام شام خاموش باشند… اما بچههای شما مانند آتیلا هون رفتار خواهند کرد و زندگی اجتماعی خود را نابود خواهند کرد.
چرا سازنده تلفن برای این کار ضربه نمیخورد و توضیح نمیدهد که سیاست برنامههای خانوادگی این است که در هنگام شامهای خانوادگی، تلفنها تمام اطلاعیهها را نگه میدارند و نمیتوان از آنها استفاده کرد، مگر اینکه تماسهای اضطراری به تلفنهای والدین هدایت شوند؟و وقتی بچهها شکایت میکنند، هوش مصنوعی برای دفاع از والدینی که هزینه تلفنها را پرداخت میکنند پاسخ میدهد: “وای، والدین شما خیلی سخت کار میکنند و تنها چیزی که میخواهند یک ساعت در روز است تا با شما باشند و یک وعده غذایی آرام داشته باشند. شما از حذف اجتماعی نخواهید مرد و ساعت ۷ بعد از ظهر دوباره آنلاین خواهید بود!”اگر سازندگان تلفن سعی میکردند مسائل اجتماعی مانند این را حل کنند و مشتریان خود را به طور قابل توجهی خوشحالتر کنند چه میشد؟
منبع: فارس
بیشتربخوانید: مدیران ارشد فناوری (CIO) چگونه هوش مصنوعی مولد در سازمانها را هدایت میکنند