هوش مصنوعی

هوش مصنوعی هم می‌تواند مطمئن و دارای تعصبات شناختی باشد

کانال تلگرام  رسانه فناوری هوشمند
پریسا سلامتی

مطالعه‌ای جدید نشان داده است که هوش مصنوعی، علیرغم تفاوت‌های بنیادین در نحوه‌ی «تفکر» با انسان، گاهی بیش از حد مطمئن و دارای تعصبات شناختی باشد و تصمیماتی به اندازه‌ی ما غیرمنطقی می‌گیرد.

در تقریباً نیمی از سناریوهای بررسی‌شده، ChatGPT بسیاری از رایج‌ترین سوگیری‌های تصمیم‌گیری انسانی را نشان داده است. این یافته‌ها که در تاریخ ۸ آوریل در نشریه‌ی Manufacturing & Service Operations Management منتشر شده، نخستین پژوهشی است که رفتار ChatGPT را در مواجهه با ۱۸ تعصب شناختی شناخته‌شده در روان‌شناسی انسانی بررسی کرده است.

تعصبات هوش مصنوعی

نویسندگان این مقاله از پنج مؤسسه‌ی دانشگاهی در کانادا و استرالیا، مدل‌های زبانی GPT-3.5 و GPT-4 (دو مدل اصلی ChatGPT) را آزمایش کرده‌اند. آنها دریافتند که اگرچه این مدل‌ها از لحاظ استدلال «قابل توجه و باثبات» هستند، اما همچنان از اشتباهات مشابه انسان‌ها مصون نیستند.

به گفته‌ی پژوهشگران، این ثبات رفتاری هم مزایا دارد و هم معایب. «یانگ چن»، نویسنده‌ی اصلی این مطالعه و استاد مدیریت عملیات در مدرسه کسب‌وکار آیوی، در بیانیه‌ای گفت: «مدیران زمانی بیشترین بهره را از این ابزارها می‌برند که با مسائلی با راه‌حل‌های روشن و فرمول‌محور سر و کار دارند. اما اگر پای تصمیمات سلیقه‌ای یا مبتنی بر ترجیح در میان است، باید با احتیاط عمل کرد.»

در این تحقیق، محققان سوگیری‌های رایج انسانی نظیر ترس از ریسک، اعتماد به نفس بیش از حد، و «اثر مالکیت» (تمایل به ارزش‌گذاری بیشتر برای چیزهایی که مالک آن‌ها هستیم) را به صورت سوالاتی به ChatGPT ارائه کردند تا ببینند آیا هوش مصنوعی نیز همان خطاها را مرتکب می‌شود یا نه.

بیشتر بخوانید: ارکان اصلی تحول دیجیتال موفق

تصمیم‌های عقلانی — گاهی اوقات

دانشمندان، سوالاتی فرضی از روان‌شناسی سنتی را در قالب موقعیت‌های تجاری واقعی مانند مدیریت موجودی کالا یا مذاکره با تامین‌کنندگان به مدل‌ها ارائه کردند. هدف این بود که بررسی شود آیا هوش مصنوعی نه تنها سوگیری‌های انسانی را تقلید می‌کند، بلکه آیا در حوزه‌های مختلف کسب‌وکار نیز این رفتارها را نشان می‌دهد یا نه.

در مسائل با پاسخ‌های ریاضی واضح، GPT-4 عملکرد بهتری نسبت به GPT-3.5 داشت و اشتباهات کمتری در سناریوهای مبتنی بر منطق و احتمال نشان داد. اما در موقعیت‌های ذهنی، مانند انتخاب گزینه‌ای پرریسک برای رسیدن به سود، این مدل رفتاری مشابه با ترجیحات غیرمنطقی انسانی از خود نشان داد.

در مقاله آمده: «GPT-4 حتی تمایل بیشتری به قطعیت نسبت به انسان‌ها دارد.» این مدل در مواجهه با وظایف مبهم، بیشتر به سمت پاسخ‌های امن و قابل پیش‌بینی گرایش دارد.

از نکات قابل‌توجه مطالعه این بود که رفتار مدل‌ها تقریباً بدون تغییر باقی ماند، چه سوالات در قالب روان‌شناسی انتزاعی مطرح شوند، چه در قالب فرآیندهای تجاری. نتیجه‌گیری پژوهشگران این بود که این سوگیری‌ها تنها حاصل یادگیری نمونه‌های حفظ‌شده نیستند، بلکه بخشی از روش استدلال AI هستند.

از یافته‌های جالب دیگر این بود که GPT-4 گاهی حتی اشتباهات انسانی را تشدید می‌کند. مثلاً در وظایف مربوط به سوگیری تأییدی، این مدل همیشه پاسخ‌های دارای سوگیری می‌داد. همچنین گرایش بیشتری به خطای «دست داغ» (یعنی تمایل به دیدن الگو در رویدادهای تصادفی) نسبت به GPT-3.5 داشت.

با این حال، ChatGPT توانست از برخی سوگیری‌های انسانی رایج مانند نادیده‌گرفتن نرخ پایه (ترجیح اطلاعات موردی بر آمار) و خطای هزینه‌ی غرق‌شده (تأثیر هزینه‌های گذشته بر تصمیمات آینده) اجتناب کند.

بیشتر بخوانید: استفاده از فناوری‌های هوش مصنوعی برای مدیریت دارایی آینده

چرا این اتفاق می‌افتد؟

به گفته‌ی نویسندگان، منبع این سوگیری‌های شبیه به انسان، داده‌های آموزشی مدل است که شامل همان سوگیری‌ها و میان‌بُرهای ذهنی است که انسان‌ها نیز از آن‌ها استفاده می‌کنند. این تمایلات در مرحله‌ی تنظیم دقیق مدل، مخصوصاً زمانی که بازخورد انسانی پاسخ‌های باورپذیر را به پاسخ‌های منطقی ترجیح می‌دهد، تقویت می‌شوند. در مواجهه با وظایف مبهم، مدل‌های هوش مصنوعی بیشتر به الگوهای استدلال انسانی تکیه می‌کنند تا منطق صرف.

یانگ چن می‌گوید: «اگر به دنبال پشتیبانی دقیق و بدون سوگیری در تصمیم‌گیری هستید، از GPT در حوزه‌هایی استفاده کنید که در آن‌ها به یک ماشین حساب اعتماد دارید.»
اما زمانی که نتیجه به ورودی‌های ذهنی یا راهبردی بستگی دارد، نظارت انسانی ضروری است — حتی اگر تنها به اصلاح متن درخواست منجر شود.

«مینا اندیاپان»، یکی از نویسندگان همکار مقاله و استاد منابع انسانی و مدیریت در دانشگاه مک‌مستر کانادا می‌گوید:
«هوش مصنوعی باید مثل کارمندی که تصمیمات مهم می‌گیرد، با نظارت و اصول اخلاقی اداره شود. وگرنه خطر آن وجود دارد که به جای اصلاح خطاهای ذهنی، آن‌ها را خودکارسازی کنیم.»

منبع: هوشیو

بیشتر بخوانید: مدیران ارشد فناوری (CIO) چگونه هوش مصنوعی مولد در سازمان‌ها را هدایت می‌کنند

  • هوش مصنوعی هم می‌تواند مطمئن و دارای تعصبات شناختی باشد
کانال تلگرام  رسانه فناوری هوشمند

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا