مقررات هوش مصنوعی در چین کدامند؟
در ۱۱ آوریل سال ۲۰۲۳ پیشرفت بزرگی در فضای هوش مصنوعی چین رخ داد، اداره فضای سایبری چین (CAC)، پیشنویس مقررات مربوط به هوش مصنوعی مولد (GenAI) را منتشر کرد.
در این سند از هیچ شرکت خاصی نام برده نشده اما نحوه بیان آن روشن میکند که از راهاندازی بیوقفه چت رباتهای چین و ایالاتمتحده الهام گرفته شده است. پیشنویس مقررات، ترکیبی از محدودیتهای معقول در مورد خطرات هوش مصنوعی و ادامه سنت قوی دولت چین در مداخله تهاجمی در صنعت فناوری است. بسیاری از بندهای پیشنویس مقررات، اصولی هستند که منتقدان هوش مصنوعی در غرب از آن دفاع میکنند؛ دادههای مورد استفاده برای آموزش مدلهای هوش مصنوعی مولد نباید مالکیت معنوی یا حریم خصوصی را نقض کنند. الگوریتمها نباید بین کاربران بر اساس نژاد، قومیت، سن، جنسیت و سایر ویژگیها تبعیض قائل شوند.
شرکتهای هوش مصنوعی باید از منابع دادههای آموزشی و نحوه استفاده انسان شفاف باشند. در عین حال، قوانینی نیز در آن وجود دارد که سایر کشورها احتمالا از اطاعت آنها سر باز میزنند. دولت از افرادی که از این ابزارهای هوش مصنوعی مولد استفاده میکنند میخواهد با هویت واقعی خود (مانند هر پلتفرم اجتماعی در چین) ثبتنام کنند و محتوایی که نرمافزار هوش مصنوعی تولید میکند باید «ارزشهای اصلی سوسیالیسم» را منعکس کند. هیچ یک از این الزامات تعجبآور نیست. دولت چین در سالهای اخیر شرکتهای فناوری را با قدرت کنترل و پلتفرمها را به دلیل سهلانگاری مجازات میکند.
این سند باعث میشود تا این سنت نظارتی به راحتی قابل مشاهده باشد. این واقعیت که دولت چین میتواند به سرعت به یک پدیده فناوری جدید واکنش نشان دهد یک شمشیر دولبه است. مت شیهان، یکی از همکاران بنیاد کارنگی برای صلح بینالمللی مینویسد که نقطه قوت این رویکرد که به هر روند فناوری جدید بهطور جداگانه نگاه میکند، «دقت آن است که راهحلهای خاصی برای مشکلات خاص ایجاد میکند.» علیرغم ماهیت محدودکننده، این سند تشویقی ضمنی برای شرکتها در ادامه کار بر روی هوش مصنوعی است. حداکثر جریمه پیشنهادی برای نقض قوانین حدود ۱۵هزار دلار است که برای هر شرکتی که ظرفیت ساخت مدلهای بزرگ را دارد رقمی ناچیز است. البته، اگر شرکتی هر بار که مدل هوش مصنوعی آن قوانین را نقض کند جریمه شود، مبالغ ممکن است انباشته شود.
اما اندازه جریمه نشان میدهد که قوانین برای ترساندن شرکتها از سرمایهگذاری در هوش مصنوعی ساخته نشدهاند. بر اساس پیشنویس مقرراتی که منتشر شد، شرکتهای فناوری چینی باید محصولات مولد هوش مصنوعی را در آژانس فضای سایبری چین ثبت کنند و قبل از انتشار عمومی آنها را برای ارزیابی امنیتی ارسال کنند. این مقررات عملا تمام جنبههای هوش مصنوعی مولد از نحوه آموزش آن گرفته تا نحوه تعامل کاربران با آن را پوشش میدهد، شرکتهای فناوری مسوول «مشروعیت منبع دادههای پیشآموزشی» خواهند بود تا اطمینان حاصل کنند که محتوا منعکسکننده «ارزش اصلی سوسیالیسم» است.
شرکتها باید اطمینان حاصل کنند که هوش مصنوعی خواستار «براندازی قدرت دولتی» یا سرنگونی حزب حاکم کمونیست چین، اقداماتی برای «تفرق در کشور» یا «تضعیف وحدت ملی»، تولید محتوای مستهجن یا غیراخلاقی تشویق خشونت، افراط گرایی، تروریسم یا تبعیض نیست. افرادی که قوانین را نقض کنند با جریمههای بین ۱۰هزار یوان (۱۴۵۴ دلار) تا ۱۰۰هزار یوان (۱۴۵۴۵ دلار) روبرو خواهند. مقررات مربوط به هوش مصنوعی مولد برای هر شخصی اعمال میشود که با استفاده از محصولات هوش مصنوعی مولد خود در چین خدمات ارایه میدهد. تا زمانی که محصول مولد هوش مصنوعی در دسترس عموم قرار نگیرد یا به صورت عمومی برای کاربران در چین به بازار عرضه شود، دیدگاه بهتر این است که مقررات مربوط به هوش مصنوعی مولد اعمال نشود. ارایه یک محصول مولد هوش مصنوعی به تعدادی منتخب از شرکتها در چین یا چند کاربر آزمایشی از پیش شناسایی شده لزوما نباید باعث ایجاد مقررات مربوط به هوش مصنوعی مولد شود.
با این حال، حتی اگر یک کسبوکار تمام اقدامات را انجام دهد تا اطمینان حاصل کند که محصول هوش مصنوعی تولیدی آن توسط هیچ فردی در چین استفاده نمیشود همچنان باید نسبت به منبع دادهای که برای آموزش هوش مصنوعی استفاده میکند، مراقب باشد. از این نظر، تاثیر فراسرزمینی قانون حفاظت از اطلاعات شخصی (PIPL) به ویژه در این مورد مرتبط است زیرا استفاده از الگوریتمها برای پردازش دادهها به منظور تولید چیزی شبیه به آنچه پردازش انسانی انجام میدهد، ممکن است مستلزم «تجزیه و تحلیل و ارزیابی رفتار افراد در چین» شود بنابراین توسعهدهنده هوش مصنوعی را تحت اختیار PIPL قرار میدهد. اگرچه مقررات مربوط به هوش مصنوعی مولد فقط به صورت پیشنویس هستند اما نشاندهنده رویکرد نظارتی است که اداره فضای سایبری چین قصد دارد، اتخاذ کند.
ارایهدهنده
ارایهدهنده به معنای هر شخصی است که از هوش مصنوعی مولد برای ارایه خدمات تولید محتوا، از جمله ارایه دسترسی از طریق مواردی مانند رابطهای قابل برنامهریزی (به عنوان مثالAPI) است تا دیگران بتوانند از هوش مصنوعی مولد برای تولید محتوا استفاده کنند. یک ارایهدهنده، مسوول (الف) محتوای تولید شده با استفاده از سرویس خود، (ب) مشروعیت دادههای مورد استفاده برای آموزش هوش مصنوعی مولد و (ج) تحقق الزامات حاکمیتی مربوطه برای چنین هوش مصنوعی مولدی است.
محتوا
محتوای تولید شده نباید حاوی محتوای ممنوعه در چین باشد، با توجه به اینکه، دامنه چنین اطلاعات ممنوعه تا حد زیادی با قوانین و مقررات مخابراتی موجود مطابقت دارد. محتوای تولیدشده باید درست و دقیق با اقدامات موثر برای جلوگیری از اطلاعات جعلی باشد همچنین نباید تبعیضآمیز ارایه شود. ارایهدهنده باید به درستی کاربران خود را برای استفاده از هوش مصنوعی مولد برای اهداف قانونی راهنمایی کند. ارایهدهنده باید اقداماتی را برای جلوگیری از تولید مجدد محتوای ممنوعه ذکر شده بیش از سه ماه پس از شناسایی چنین محتوایی انجام دهد و اقدامات فیلترینگ بر این اساس انجام شود.
دادههای مورد استفاده برای آموزش هوش مصنوعی
چنین دادههایی ممکن است حقوق مالکیت معنوی دیگران را نقض نکند. در صورت گنجاندن دادههای شخصی، رضایت حق موضوع دادهها الزامی است، مگر اینکه قوانین و مقررات به گونهای دیگر اجازه داده باشند. دادهها باید درست، دقیق، عینی و متنوع باشند. الزامات فوق حتی اگر منبع دادهها از دامنه عمومی باشد، قابل اجرا باقی میمانند.
منبع: تعادل