مقابله با درهی عجیب و غریب (uncanny valley) هوش مصنوعی مولد
کن موگراگ
سرینیواسان راگورامن
مترجم: علیرضا خدائی
وقتی که هوش مصنوعی “انسانگونه” میشود، میتواند حالتی ناخوشایند و تهدیدآمیز به خود گرفته، و ما را به پدیدهای به نام «درهی عجیب و غریب (uncanny valley)» درگیر کند.
«رویارویی با شگفتیهای عجیب و غریب هوش مصنوعی مولد» مشکلی نیست که باید برطرف شود، بلکه فرصتی است برای بازاندیشی در مورد آنچه که صنعت هوش مصنوعی واقعاً از این فناوری میخواهد و انتظار دارد، است.
به گزارش فناوری هوشمند به نقل از technologyreview؛ هوش مصنوعی مولد به دلیل تواناییاش در ایجاد نتایج غیرمنتظره، قدرت شگفتزده کردن افراد را دارد؛ ویژگیای که کمتر فناوری دیگری دارد. این نتایج غیرمنتظره گاهی میتوانند مثبت و سودمند باشند، و در برخی مواقع، به شکل نگرانکنندهای منفی و نامطلوب ظاهر شوند. از نظر تئوری، با پیشرفت هوش مصنوعی مولد، این مسئله باید اهمیت کمتری پیدا کند. اما در واقعیت، وقتی که هوش مصنوعی بیش از پیش “انسانگونه” میشود، میتواند حالتی ناخوشایند و حتی تهدیدآمیز به خود بگیرد، و ما را به پدیدهای به نام «درهی عجیب و غریب (uncanny valley)» که مدتها در رباتیک مطرح بوده است، فرو ببرد.
ممکن است وسوسهانگیز باشد که این تجربه را میتوان با مجموعه دادههای بزرگتر یا آموزش بهتر اصلاح کرد، نادیده گرفت. با این حال، از آنجا که این مسئله به نوعی به اختلال در مدل ذهنی ما از فناوری اشاره دارد (بهعنوان مثال، وقتی میگوییم «از نتیجهای که به دست آمد خوشم نیامد»)، باید این مشکل را به رسمیت شناخت و به آن رسیدگی کرد.
در واقع، این مسئله نشان میدهد که مشکل فراتر از بهبود الگوریتمها یا دادهها است و بیشتر به چگونگی درک ما از تعامل با فناوری مربوط میشود. هنگامی که نتایج تولید شده توسط هوش مصنوعی حس ناامنی یا ناراحتی ایجاد میکنند، باید این واکنشها را بررسی کرد تا بتوان به نحوی این مسائل را در طراحی و استفاده از فناوری در نظر گرفت.
بیشتر بخوانید: بلاکچین و هوش مصنوعی مولد: تیم رویایی فناوری
مدلهای ذهنی و الگوهای ضد الگو
مدلهای ذهنی مفهومی مهم در طراحی محصول و UX هستند، اما باید بیشتر توسط جامعه هوش مصنوعی پذیرفته شوند. مدلهای ذهنی به این اشاره دارند که چگونه افراد به طور ناخودآگاه فرضیاتی درباره عملکرد یک سیستم (مانند هوش مصنوعی) ایجاد میکنند. در یک سطح، مدلهای ذهنی ممکن است خیلی مشهود نباشند، زیرا به عنوان الگوهای معمولی فرضیات ما درباره یک سیستم عمل میکنند. این موضوع در فرآیند آمادهسازی نسخهی اخیر Thoughtworks Technology Radar به طور مفصل مورد بحث قرار گرفته است؛ گزارشی که دو بار در سال بر اساس تجربیات کار با مشتریان در سراسر جهان تهیه میشود.
در این گزارش، به چالشهای مربوط به پذیرش و بهکارگیری مدلهای ذهنی در طراحی سیستمهای هوش مصنوعی پرداخته شده است. همچنین به مشکل الگوهای نادرست یا «ضدالگوها» (antipatterns) اشاره میشود که میتوانند به دلیل درک ناقص از مدلهای ذهنی کاربران به وجود آیند و به نتایج نامطلوب منجر شوند.
به عنوان مثال، ما به سهلانگاری در استفاده از کد تولید شده توسط هوش مصنوعی و جایگزینی برنامهنویسی دونفره با هوش مصنوعی مولد به عنوان دو عمل اشاره کردیم که معتقدیم باید از آنها پرهیز کرد، بهویژه با رشد محبوبیت دستیارهای کدنویسی هوش مصنوعی. هر دو این مشکلات ناشی از مدلهای ذهنی ضعیفی هستند که قادر به درک نحوه عملکرد واقعی این فناوری و محدودیتهای آن نیستند. پیامد این موضوع این است که هرچه این ابزارها متقاعدکنندهتر و «انسانگونهتر» شوند، پذیرش این که این فناوری چگونه کار میکند و محدودیتهای «راهحلهایی» که ارائه میدهد برای ما دشوارتر خواهد شد.
البته، برای کسانی که هوش مصنوعی مولد را در دنیای واقعی بهکار میبرند، ریسکها مشابه هستند و شاید حتی بیشتر به چشم بیایند. در حالی که هدف از این ابزارها معمولاً ایجاد چیزی متقاعدکننده و قابل استفاده است، اگر این ابزارها باعث گمراهی، فریب یا حتی صرفاً ناراحتی کاربران شوند، ارزش و اعتبار آنها از بین میرود. جای تعجب نیست که قوانین، مانند قانون هوش مصنوعی اتحادیه اروپا، که از خالقان دیپفیکها میخواهد محتوای تولید شده را به عنوان «تولید شده توسط هوش مصنوعی» برچسبگذاری کنند، برای پرداختن به این مشکلات در حال تصویب است.
شایان ذکر است که این مشکل تنها مربوط به هوش مصنوعی و رباتیک نیست. در سال ۲۰۱۱، همکار ما مارتین فاولر درباره اینکه چگونه برخی رویکردها در ساخت برنامههای موبایل چندسکویی میتوانند درهی عجیب و غریب ایجاد کنند، نوشت: “جایی که همه چیز بیشتر شبیه کنترلهای بومی کار میکنند، اما بهقدری تفاوتهای جزئی وجود دارد که کاربران را گیج میکند.”
بیشتر بخوانید: مدیران ارشد فناوری (CIO) چگونه هوش مصنوعی مولد در سازمانها را هدایت میکنند
بهطور خاص، فاولر چیزی نوشت که فکر میکنیم آموزنده است: «پلتفرمهای مختلف روشهای متفاوتی دارند که انتظار دارند شما از آنها استفاده کنید که کل طراحی تجربه را تغییر میدهد.» نکتهای که در اینجا در ارتباط با هوش مصنوعی مولد مطرح میشود این است که زمینهها و موارد استفادهی مختلف هرکدام با مجموعهای از فرضیات و مدلهای ذهنی متفاوت همراه هستند که در زمان ورود کاربران به درهی عجیب و غریب تغییر میکند. این تفاوتهای جزئی میتوانند تجربه یا درک خروجی یک مدل زبانی بزرگ (LLM) را تغییر دهند.
به عنوان مثال، برای محقق دارویی که به مقادیر زیادی دادهی مصنوعی نیاز دارد، دقت در سطح میکرو ممکن است اهمیت چندانی نداشته باشد؛ اما برای وکیلی که سعی دارد مستندات قانونی را درک کند، دقت بسیار مهم است. در واقع، ورود به درهی عجیب و غریب ممکن است نشانهای باشد که نیاز دارید به عقب برگردید و انتظارات خود را دوباره ارزیابی کنید.
تغییر دیدگاه ما
درهی عجیب و غریب هوش مصنوعی مولد ممکن است آزاردهنده باشد و حتی چیزی باشد که بخواهیم به حداقل برسانیم، اما همچنین باید به ما یادآوری کند که محدودیتهای هوش مصنوعی مولد وجود دارد و باید ما را به بازنگری در نگرشمان تشویق کند.
تلاشهای جالبی برای انجام این کار در سراسر صنعت انجام شده است. یکی از برجستهترین آنها ایتان مولیک، استاد دانشگاه پنسیلوانیا است که استدلال میکند هوش مصنوعی نباید به عنوان نرمافزار خوب بلکه به عنوان “افراد بسیار خوب” درک شود.
بنابراین، انتظارات ما در مورد اینکه هوش مصنوعی مولد چه کاری میتواند انجام دهد و در کجا مؤثر است باید موقتی و انعطافپذیر باقی بماند. تا حدودی، این ممکن است یکی از راههای غلبه بر درهی عجیب و غریب باشد—با تأمل بر فرضیات و انتظارات خود، قدرت فناوری برای ایجاد اختلال یا سردرگمی در ما را از بین میبریم.
با این حال، صرفاً درخواست تغییر ذهنیت کافی نیست. روشها و ابزارهای مختلفی وجود دارند که میتوانند کمک کنند. یکی از این مثالها تکنیکی است که در آخرین Technology Radar شناسایی کردیم، که شامل بهدست آوردن خروجیهای ساختاریافته از مدلهای زبانی بزرگ (LLMs) میشود. این کار میتواند با دستور دادن به مدل برای پاسخگویی در قالب خاصی هنگام درخواست یا از طریق تنظیم دقیق انجام شود. به لطف ابزارهایی مانند Instructor، این کار آسانتر شده و هماهنگی بیشتری بین انتظارات و خروجیهای LLM ایجاد میکند. اگرچه ممکن است چیزی غیرمنتظره یا نادرست اتفاق بیفتد، اما این تکنیک تا حدی به حل این مشکل کمک میکند.
بیشتر بخوانید: ۷ نشانه که مدیران فناوری اطلاعات (CIO) در مسیر تحول دیجیتال نیستند
روشهای دیگری نیز وجود دارند، از جمله تولید تقویتشده با بازیابی (retrieval augmented generation) به عنوان راهی برای کنترل بهتر «پنجرهی زمینه» (context window). چارچوبها و ابزارهایی وجود دارند که میتوانند به ارزیابی و اندازهگیری موفقیت این تکنیکها کمک کنند، از جمله Ragas و DeepEval، که کتابخانههایی هستند که به توسعهدهندگان هوش مصنوعی معیارهایی برای وفاداری و مرتبط بودن ارائه میدهند.
اندازهگیری مهم است، همچنین دستورالعملها و سیاستهای مرتبط با مدلهای زبانی بزرگ (LLMs)، مانند LLM guardrails. مهم است که اقداماتی برای درک بهتر آنچه در درون این مدلها در حال وقوع است، انجام دهیم. باز کردن کامل این جعبههای سیاه ممکن است غیرممکن باشد، اما ابزارهایی مانند Langfuse میتوانند کمک کنند. انجام این کار میتواند در بازنگری رابطه ما با این فناوری، تغییر مدلهای ذهنی و از بین بردن احتمال سقوط به درهی عجیب و غریب بسیار مؤثر باشد.
یک فرصت، نه یک نقص
این ابزارها—که بخشی از انفجار کامبریایی (Cambrian ) ابزارهای هوش مصنوعی مولد هستند—میتوانند به متخصصان کمک کنند تا به بازنگری در هوش مصنوعی مولد بپردازند و امیدواریم که محصولات بهتری و مسئولانهتری بسازند. با این حال، برای دنیای وسیعتر، این کار همچنان نامرئی خواهد ماند. آنچه مهم است، کاوش در این است که چگونه میتوانیم زنجیرههای ابزاری را برای کنترل و درک بهتر هوش مصنوعی مولد تکامل دهیم، حتی اگر مدلهای ذهنی و مفاهیم موجود هوش مصنوعی مولد یک مشکل اساسی طراحی باشند، نه یک مسئله حاشیهای که بتوانیم نادیده بگیریم.
بیشتر بخوانید: هوش مصنوعی مفهوم کارآفرینی را زیر و رو میکند
این محتوی ترجمه شده در رسانه فناوری هوشمند است و نشر آن باذکر منبع، نام مترجم و ارجاع به لینک بلامانع است.