پیشنهاد سردبیرمحتوی اختصاصی "فناوری هوشمند"مقالههوش مصنوعی

مقابله با دره‌ی عجیب و غریب (uncanny valley) هوش مصنوعی مولد

کانال تلگرام  رسانه فناوری هوشمند
کن موگراگ
سرینیواسان راگورامن

مترجم: علیرضا خدائی

وقتی که هوش مصنوعی “انسان‌گونه” می‌شود، می‌تواند حالتی ناخوشایند و تهدیدآمیز به خود گرفته، و ما را به پدیده‌ای به نام «دره‌ی عجیب و غریب (uncanny valley)» درگیر کند.

«رویارویی با شگفتی‌های عجیب و غریب هوش مصنوعی مولد» مشکلی نیست که باید برطرف شود، بلکه فرصتی است برای بازاندیشی در مورد آنچه که صنعت هوش مصنوعی واقعاً از این فناوری می‌خواهد و انتظار دارد، است.

به گزارش فناوری هوشمند به نقل از technologyreview؛ هوش مصنوعی مولد به دلیل توانایی‌اش در ایجاد نتایج غیرمنتظره، قدرت شگفت‌زده کردن افراد را دارد؛ ویژگی‌ای که کمتر فناوری دیگری دارد. این نتایج غیرمنتظره گاهی می‌توانند مثبت و سودمند باشند، و در برخی مواقع، به شکل نگران‌کننده‌ای منفی و نامطلوب ظاهر شوند. از نظر تئوری، با پیشرفت هوش مصنوعی مولد، این مسئله باید اهمیت کمتری پیدا کند. اما در واقعیت، وقتی که هوش مصنوعی بیش از پیش “انسان‌گونه” می‌شود، می‌تواند حالتی ناخوشایند و حتی تهدیدآمیز به خود بگیرد، و ما را به پدیده‌ای به نام «دره‌ی عجیب و غریب (uncanny valley)» که مدت‌ها در رباتیک مطرح بوده است، فرو ببرد.

ممکن است وسوسه‌انگیز باشد که این تجربه را می‌توان با مجموعه داده‌های بزرگ‌تر یا آموزش بهتر اصلاح کرد، نادیده گرفت. با این حال، از آنجا که این مسئله به نوعی به اختلال در مدل ذهنی ما از فناوری اشاره دارد (به‌عنوان مثال، وقتی می‌گوییم «از نتیجه‌ای که به دست آمد خوشم نیامد»)، باید این مشکل را به رسمیت شناخت و به آن رسیدگی کرد.

در واقع، این مسئله نشان می‌دهد که مشکل فراتر از بهبود الگوریتم‌ها یا داده‌ها است و بیشتر به چگونگی درک ما از تعامل با فناوری مربوط می‌شود. هنگامی که نتایج تولید شده توسط هوش مصنوعی حس ناامنی یا ناراحتی ایجاد می‌کنند، باید این واکنش‌ها را بررسی کرد تا بتوان به نحوی این مسائل را در طراحی و استفاده از فناوری در نظر گرفت.

بیشتر بخوانید: بلاک‌چین و هوش مصنوعی مولد: تیم رویایی فناوری

مدل‌های ذهنی و الگوهای ضد الگو

مدل‌های ذهنی مفهومی مهم در طراحی محصول و UX هستند، اما باید بیشتر توسط جامعه هوش مصنوعی پذیرفته شوند. مدل‌های ذهنی به این اشاره دارند که چگونه افراد به طور ناخودآگاه فرضیاتی درباره عملکرد یک سیستم (مانند هوش مصنوعی) ایجاد می‌کنند. در یک سطح، مدل‌های ذهنی ممکن است خیلی مشهود نباشند، زیرا به عنوان الگوهای معمولی فرضیات ما درباره یک سیستم عمل می‌کنند. این موضوع در فرآیند آماده‌سازی نسخه‌ی اخیر Thoughtworks Technology Radar به طور مفصل مورد بحث قرار گرفته است؛ گزارشی که دو بار در سال بر اساس تجربیات کار با مشتریان در سراسر جهان تهیه می‌شود.

در این گزارش، به چالش‌های مربوط به پذیرش و به‌کارگیری مدل‌های ذهنی در طراحی سیستم‌های هوش مصنوعی پرداخته شده است. همچنین به مشکل الگوهای نادرست یا «ضدالگوها» (antipatterns) اشاره می‌شود که می‌توانند به دلیل درک ناقص از مدل‌های ذهنی کاربران به وجود آیند و به نتایج نامطلوب منجر شوند.

به عنوان مثال، ما به سهل‌انگاری در استفاده از کد تولید شده توسط هوش مصنوعی و جایگزینی برنامه‌نویسی دونفره با هوش مصنوعی مولد به عنوان دو عمل اشاره کردیم که معتقدیم باید از آن‌ها پرهیز کرد، به‌ویژه با رشد محبوبیت دستیارهای کدنویسی هوش مصنوعی. هر دو این مشکلات ناشی از مدل‌های ذهنی ضعیفی هستند که قادر به درک نحوه عملکرد واقعی این فناوری و محدودیت‌های آن نیستند. پیامد این موضوع این است که هرچه این ابزارها متقاعدکننده‌تر و «انسان‌گونه‌تر» شوند، پذیرش این که این فناوری چگونه کار می‌کند و محدودیت‌های «راه‌حل‌هایی» که ارائه می‌دهد برای ما دشوارتر خواهد شد.

البته، برای کسانی که هوش مصنوعی مولد را در دنیای واقعی به‌کار می‌برند، ریسک‌ها مشابه هستند و شاید حتی بیشتر به چشم بیایند. در حالی که هدف از این ابزارها معمولاً ایجاد چیزی متقاعدکننده و قابل استفاده است، اگر این ابزارها باعث گمراهی، فریب یا حتی صرفاً ناراحتی کاربران شوند، ارزش و اعتبار آن‌ها از بین می‌رود. جای تعجب نیست که قوانین، مانند قانون هوش مصنوعی اتحادیه اروپا، که از خالقان دیپ‌فیک‌ها می‌خواهد محتوای تولید شده را به عنوان «تولید شده توسط هوش مصنوعی» برچسب‌گذاری کنند، برای پرداختن به این مشکلات در حال تصویب است.

شایان ذکر است که این مشکل تنها مربوط به هوش مصنوعی و رباتیک نیست. در سال ۲۰۱۱، همکار ما مارتین فاولر درباره اینکه چگونه برخی رویکردها در ساخت برنامه‌های موبایل چندسکویی می‌توانند دره‌ی عجیب و غریب ایجاد کنند، نوشت: “جایی که همه چیز بیشتر شبیه کنترل‌های بومی کار می‌کنند، اما به‌قدری تفاوت‌های جزئی وجود دارد که کاربران را گیج می‌کند.”

بیشتر بخوانید: مدیران ارشد فناوری (CIO) چگونه هوش مصنوعی مولد در سازمان‌ها را هدایت می‌کنند

به‌طور خاص، فاولر چیزی نوشت که فکر می‌کنیم آموزنده است: «پلتفرم‌های مختلف روش‌های متفاوتی دارند که انتظار دارند شما از آن‌ها استفاده کنید که کل طراحی تجربه را تغییر می‌دهد.» نکته‌ای که در اینجا در ارتباط با هوش مصنوعی مولد مطرح می‌شود این است که زمینه‌ها و موارد استفاده‌ی مختلف هرکدام با مجموعه‌ای از فرضیات و مدل‌های ذهنی متفاوت همراه هستند که در زمان ورود کاربران به دره‌ی عجیب و غریب تغییر می‌کند. این تفاوت‌های جزئی می‌توانند تجربه یا درک خروجی یک مدل زبانی بزرگ (LLM) را تغییر دهند.

به عنوان مثال، برای محقق دارویی که به مقادیر زیادی داده‌ی مصنوعی نیاز دارد، دقت در سطح میکرو ممکن است اهمیت چندانی نداشته باشد؛ اما برای وکیلی که سعی دارد مستندات قانونی را درک کند، دقت بسیار مهم است. در واقع، ورود به دره‌ی عجیب و غریب ممکن است نشانه‌ای باشد که نیاز دارید به عقب برگردید و انتظارات خود را دوباره ارزیابی کنید.

تغییر دیدگاه ما

دره‌ی عجیب و غریب هوش مصنوعی مولد ممکن است آزاردهنده باشد و حتی چیزی باشد که بخواهیم به حداقل برسانیم، اما همچنین باید به ما یادآوری کند که محدودیت‌های هوش مصنوعی مولد وجود دارد و باید ما را به بازنگری در نگرش‌مان تشویق کند.

تلاش‌های جالبی برای انجام این کار در سراسر صنعت انجام شده است. یکی از برجسته‌ترین آنها ایتان مولیک، استاد دانشگاه پنسیلوانیا است که استدلال می‌کند هوش مصنوعی نباید به عنوان نرم‌افزار خوب بلکه به عنوان “افراد بسیار خوب” درک شود.

بنابراین، انتظارات ما در مورد اینکه هوش مصنوعی مولد چه کاری می‌تواند انجام دهد و در کجا مؤثر است باید موقتی و انعطاف‌پذیر باقی بماند. تا حدودی، این ممکن است یکی از راه‌های غلبه بر دره‌ی عجیب و غریب باشد—با تأمل بر فرضیات و انتظارات خود، قدرت فناوری برای ایجاد اختلال یا سردرگمی در ما را از بین می‌بریم.

با این حال، صرفاً درخواست تغییر ذهنیت کافی نیست. روش‌ها و ابزارهای مختلفی وجود دارند که می‌توانند کمک کنند. یکی از این مثال‌ها تکنیکی است که در آخرین Technology Radar شناسایی کردیم، که شامل به‌دست آوردن خروجی‌های ساختاریافته از مدل‌های زبانی بزرگ (LLMs) می‌شود. این کار می‌تواند با دستور دادن به مدل برای پاسخ‌گویی در قالب خاصی هنگام درخواست یا از طریق تنظیم دقیق انجام شود. به لطف ابزارهایی مانند Instructor، این کار آسان‌تر شده و هماهنگی بیشتری بین انتظارات و خروجی‌های LLM ایجاد می‌کند. اگرچه ممکن است چیزی غیرمنتظره یا نادرست اتفاق بیفتد، اما این تکنیک تا حدی به حل این مشکل کمک می‌کند.

بیشتر بخوانید: ۷ نشانه که مدیران فناوری اطلاعات (CIO) در مسیر تحول دیجیتال نیستند

روش‌های دیگری نیز وجود دارند، از جمله تولید تقویت‌شده با بازیابی (retrieval augmented generation) به عنوان راهی برای کنترل بهتر «پنجره‌ی زمینه» (context window). چارچوب‌ها و ابزارهایی وجود دارند که می‌توانند به ارزیابی و اندازه‌گیری موفقیت این تکنیک‌ها کمک کنند، از جمله Ragas و DeepEval، که کتابخانه‌هایی هستند که به توسعه‌دهندگان هوش مصنوعی معیارهایی برای وفاداری و مرتبط بودن ارائه می‌دهند.

اندازه‌گیری مهم است، همچنین دستورالعمل‌ها و سیاست‌های مرتبط با مدل‌های زبانی بزرگ (LLMs)، مانند LLM guardrails. مهم است که اقداماتی برای درک بهتر آنچه در درون این مدل‌ها در حال وقوع است، انجام دهیم. باز کردن کامل این جعبه‌های سیاه ممکن است غیرممکن باشد، اما ابزارهایی مانند Langfuse می‌توانند کمک کنند. انجام این کار می‌تواند در بازنگری رابطه ما با این فناوری، تغییر مدل‌های ذهنی و از بین بردن احتمال سقوط به دره‌ی عجیب و غریب بسیار مؤثر باشد.

یک فرصت، نه یک نقص

این ابزارها—که بخشی از انفجار کامبریایی (Cambrian ) ابزارهای هوش مصنوعی مولد هستند—می‌توانند به متخصصان کمک کنند تا به بازنگری در هوش مصنوعی مولد بپردازند و امیدواریم که محصولات بهتری و مسئولانه‌تری بسازند. با این حال، برای دنیای وسیع‌تر، این کار همچنان نامرئی خواهد ماند. آنچه مهم است، کاوش در این است که چگونه می‌توانیم زنجیره‌های ابزاری را برای کنترل و درک بهتر هوش مصنوعی مولد تکامل دهیم، حتی اگر مدل‌های ذهنی و مفاهیم موجود هوش مصنوعی مولد یک مشکل اساسی طراحی باشند، نه یک مسئله حاشیه‌ای که بتوانیم نادیده بگیریم.

بیشتر بخوانید: هوش مصنوعی مفهوم کارآفرینی را زیر و رو ‌می‌کند

این محتوی ترجمه شده در رسانه فناوری هوشمند است و نشر آن باذکر منبع، نام مترجم و ارجاع به لینک بلامانع است.

کانال تلگرام  رسانه فناوری هوشمند

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا