۱۴۰۳ چهارشنبه ۰۷ آذر

رویکرد چین در مورد هوش مصنوعی چگونه خواهد بود؟

به گزارش شبکه خبری ICTPRESS،غول‌های فناوری چین در حدود یک ماه گذشته خودنمایی کرده‌اند. شرکت‌هایی مانند «علی بابا»(Alibaba)، «بایدو»(Baidu)، «هواوی»(Huawei) و «سنس‌تایم»(SenseTime) همگی مدل‌های هوش مصنوعی خود را به نمایش گذاشته‌اند که می‌توانند محصولات و برنامه‌هایی مانند تولیدکننده تصویر، دستیارهای صوتی و موتورهای جستجو را پشتیبانی کنند. برخی از شرکت‌ها، چت‌بات‌های مجهز به هوش مصنوعی مشابه «ChatGPT» را معرفی کرده‌اند. محصولات جدید دارای نام‌هایی مانند «ارنی بات»(Ernie Bot) شرکت بایدو، «سنس‌چت»(SenseChat) شرکت سنس‌تایم و «تونگی کیانون»(Tongyi Qianwen) شرکت علی بابا هستند.
هوش مصنوعی، یک چالش برای مقامات چین است. مرتب‌سازی «تولیدکننده» که ورودی‌های متن، تصویر، صدا یا ویدیو را پردازش می‌کند تا خروجی‌های جدیدی از آن تولید شود، نویدبخش است. شرکت‌های فناوری چینی که در سال‌های اخیر به‌ دلیل سرکوب‌های نظارتی و فروش ضعیف ضربه خورده‌اند، امیدوارند که هوش مصنوعی بتواند جریان‌های درآمدی گسترده‌ای را مشابه فرصت‌هایی ایجاد کند که با ظهور اینترنت یا تلفن‌های هوشمند به ارمغان می‌آورد.
از سوی دیگر، حزب حاکم این کشور می‌بیند که هوش مصنوعی راه‌های جدیدی را برای انتشار اطلاعات خارج از کنترل خود باز می‌کند. رهبران حزب ممکن است مقایسه‌های متفاوتی با اینترنت انجام داده باشند که به نظر می‌رسید با افزایش دسترسی به اخبار و راه‌های ارتباطی بدون فیلتر، به دموکراتیزه کردن چین کمک کند. «بیل کلینتون»(Bill Clinton) در سال ۲۰۰۰، تلاش‌های حزب برای کنترل وب را «میخکوب کردن ژله به دیوار» توصیف کرد. با وجود این، حزب با استقرار ارتشی از سانسورها و موانع دیجیتال تا حد زیادی در ایجاد اینترنتی که اهداف مورد نظر را برآورده می‌کند، موفق شده و صنعت را در سایه آن پرورش داده است. پرسشی که اکنون مطرح می‌شود، این است که آیا امکان دارد موضوع مشابهی در مورد هوش مصنوعی اتفاق بیفتد؟
قوانین پیشنهادشده توسط تنظیم‌کنندگان اینترنت چین در ۱۱ آوریل، نگرانی‌های دولت را روشن می‌کند. به گفته «اداره فضای سایبری چین»(CAC)، شرکت‌ها باید پیش از به کار بردن محصولات مولد هوش مصنوعی برای ارائه خدمات به مردم، ارزیابی امنیتی را به دولت ارائه دهند. شرکت‌ها مسئول محتوایی هستند که چنین محصولاتی تولید می‌کنند. طبق قوانین، محتوا نباید قدرت دولت را زیر سوال ببرد، به تجزیه‌طلبی دامن بزند، به وحدت ملی آسیب برساند یا نظم اقتصادی و اجتماعی را به هم بریزد و باید مطابق با ارزش‌های سوسیالیستی کشور باشد. این محدودیت‌ها ممکن است محرمانه به نظر برسند اما قوانین مشابهی که در مورد اینترنت اعمال می‌شود، به حزب امکان می‌دهد تا سخنان خود را در مورد همه چیز دیکته کند.
پیشنهادات چین در حالی مطرح می‌شود که دولت‌های سراسر جهان با نحوه تنظیم کردن اینترنت در آینده مبارزه می‌کنند. برخی با تکیه بر قوانین موجود برای نظارت بر فناوری، طرفدار یک کنترل محدود هستند. برخی دیگر بر این باورند که گروه نظارتی جدیدی مورد نیاز است. اتحادیه اروپا قانونی پیشنهاد کرده است که کاربردهای گوناگون هوش مصنوعی را طبقه‌بندی می‌کند و الزامات سختگیرانه فزاینده‌ای را با توجه به درجه خطر اعمال می‌کند. روش چین متفاوت به نظر می‌رسد. برای مثال، حزب سال گذشته نگران بود که تصاویر و ویدیوهای «دیپ‌فیک»(Deepfake) ممکن است محیط اطلاعاتی کنترل‌شده را مختل کنند و به همین دلیل، قوانین جدیدی را در مورد این فناوری صادر کرد. در این راستا، یکی از رسانه‌های تولیدشده با هوش مصنوعی و بدون برچسب مبدأ ممنوع شد.
رویکرد چین، شباهت‌هایی به اینترنت دارد. کنترل‌های وب آن که اغلب به عنوان «دیوار آتش بزرگ» شناخته می‌شوند، ممکن است یکپارچه به نظر برسند اما حفظ محتوای خارجی مضر، تنها بخشی از تلاش لایه‌ای است که به مرور زمان توسعه یافته است و بسیاری از آژانس‌ها و شرکت‌ها را درگیر می‌کند. «مت شیهان»(Matt Sheehan)، از «موقوفه کارنگی برای صلح بین‌المللی»(CEIP) می‌گوید که مرحله اول به طور کلی در مورد ایجاد بستری برای اینترنت بود که حزب بتواند آن را کنترل کند. امروز دولت چین دوباره در حال تقویت عضلات بوروکراتیک و افزایش راه‌های نظارتی خود است که این بار با در نظر گرفتن هوش مصنوعی انجام می‌شود. شیهان باور دارد که اجباری کردن بررسی‌های امنیتی و الزام شرکت‌ها به ثبت الگوریتم‌های خود، نمونه‌هایی از این امر است.
کنترل چین بر اینترنت، نوآوری را خفه نکرده است. برای اثبات این گفته، کافی است فقط به شرکت‌هایی مانند «بایت‌دانس»(ByteDance) که مادر چینی برنامه ویدیوی محبوب «تیک‌تاک»(TikTok) است، نگاه کنید. اما وقتی صحبت از هوش مصنوعی به میان می‌آید، دشوار است که ببینیم چگونه یک شرکت چینی می‌تواند محصولی به گستردگی Chatgpt ایجاد کند و در عین حال در چارچوب قوانین دولت بماند.
اداره فضای سایبری چین می‌گوید که اطلاعات تولیدشده توسط چنین برنامه‌هایی باید درست و دقیق باشند و داده‌های مورد استفاده برای آموزش آنها نیز عینی باشند. حزب چین، تعاریف خاص خود را از این واژه‌ها دارد اما حتی پیشرفته‌ترین برنامه‌های مبتنی بر هوش مصنوعی که براساس مدل‌های زبانی بزرگ ساخته شده‌اند، گه‌گاه چیزهایی را ارائه می‌دهند که واقعا نادرست هستند. برای محصولی مانند Chatgpt که از صدها گیگابایت داده به دست آمده از سراسر اینترنت تغذیه می‌شود، مرتب کردن ورودی‌ها براساس عینیت آنها به سختی امکان‌پذیر است.
بنابراین، کارشناسان تردید دارند که این اقدامات به صورت محکم و استوار اجرا شوند. در پیش‌نویس مقررات، زمینه برای تعدیل کردن وجود دارد. وقتی محتوای تولید شده خارج از قوانین باشد، دولت خواستار فیلتر کردن و سایر اقدامات مشابه و آموزش بهینه‌ ظرف سه ماه است. این اقدامات شبیه بهینه‌سازی مدل‌هایی به نظر می‌رسند که شرکت‌های غربی انجام داده‌اند تا چت‌بات‌های خود را از انتشار محتوای خشونت‌بار بازدارند. مقررات محلی هوش مصنوعی که در شهر شانگهای معرفی شده‌اند، ضعیف‌تر هستند و تصریح می‌شود که نقض قوانین جزئی ممکن است به هیچ وجه مجازاتی به همراه نداشته باشد.
ماهیت دلخواه قوانین پیشنهادی اداره فضای سایبری چین بدین معناست که می‌تواند شدت آنها را به دلخواه تغییر دهد. سایر کشورها ممکن است چنین انعطاف‌پذیری را تأیید کنند اما همان طور که شرکت‌های بزرگ اینترنتی تأیید می‌کنند، دولت چین عادت دارد قوانین را براساس خواسته‌های «شی جین پینگ»(Xi Jinping)، رئیس‌جمهور این کشور بازنویسی و به طور انتخابی اجرا کند. در سال‌های اخیر، شرکت‌های فعال در زمینه‌هایی مانند تجارت الکترونیک، رسانه‌های اجتماعی و بازی‌های ویدیویی مجبور شده‌اند در مدل‌های کسب‌وکار خود تجدیدنظر کنند. برای مثال، رسانه‌های دولتی چین در سال ۲۰۲۱، بازی‌های ویدیویی را «تریاک معنوی» نامیدند. قانون‌گذاران به شرکت‌های بازی‌سازی گفتند که تمرکز خود را روی نتیجه نهایی نگذارند و تمایل بچه‌ها به بازی را کاهش دهند.
یکی از راه‌هایی که ممکن است شرکت‌های چینی به وسیله آنها هوش مصنوعی را متوقف کنند، محدود کردن اطلاعات شخصی است که برای آموزش مدل‌های هوش مصنوعی در دسترس قرار دارد. حزب چین، پیچیده‌ترین نظارت جمعی جهان را اداره می‌کند. تا همین اواخر، شرکت‌های فناوری چین نیز قادر به جمع‌آوری اطلاعات شخصی بودند اما به نظر می‌رسد که این دوران آزادسازی برای بخش خصوصی رو به پایان است. اکنون شرکت‌هایی که می‌خواهند انواع خاصی از داده‌های شخصی را به کار بگیرند، از نظر تئوری باید موافقت افراد را دریافت کنند. اداره فضای سایبری چین سال گذشته، شرکت «دیدی گلوبال»(Didi Global) را به دلیل جمع‌آوری غیرقانونی و سوءاستفاده از داده‌های کاربران، معادل ۱.۲ میلیارد دلار جریمه کرد. براساس پیش‌نویس قوانین هوش مصنوعی، شرکت‌ها مسئول حفاظت از اطلاعات شخصی کاربران خواهند بود.
مقررات پیشنهادی اداره فضای سایبری چین، شش سال پس از آن آمده است که طرح جامع چین برای هوش مصنوعی خواستار پیشرفت‌های بزرگ تا سال ۲۰۲۵ و تسلط بر صنعت تا سال ۲۰۳۰ شد. پیشرفت به سوی این اهداف متفاوت بوده است. شرکت‌های چینی در زمینه‌هایی مانند تشخیص تصویر با کمک هوش مصنوعی و رانندگی خودکار که با ترس کمتری پیرامون دغدغه‌های دولت همراه هستند، عملکرد خوبی دارند.
در هر حال، چین همچنان از نظر سرمایه‌گذاری و نوآوری پشت سر آمریکا قرار دارد. تحریم‌های آمریکا، سرمایه‌گذاران خارجی را متوقف کرده است. بدتر از آن این است که آمریکا صادرات نیمه‌رساناهای پیشرفته به چین را که تامین‌کننده انرژی هوش مصنوعی هستند، محدود کرده و این اقدام می‌تواند صنعت را دچار مشکل کند.
چین ممکن است موفقیت بیشتری در زمینه مقررات داشته باشد. براساس طرح جامع ارائه‌شده چین، این کشور تا سال ۲۰۳۰ رمز اخلاقی جهان را برای هوش مصنوعی نوشته است. اگرچه این زمان بسیار طولانی است اما قوانین آن در مورد هوش مصنوعی مولد، دقیق‌تر و گسترده‌تر از مواردی هستند که در هر جای دیگری پیشنهاد شده‌اند و بدین ترتیب، بر بحث در مورد مدیریت فناوری جدید تأثیر می‌گذارند. اگر چین به سرعت قوانین جدیدی را وضع کند، کشورهای دیگر از آن درس خواهند گرفت. یکی از خطرات احتمالی این است که چنین روندی بیش از اندازه قوی حرکت کند و مانع نوآوری شود اما «جفری دینگ»(Jeffrey Ding)، پژوهشگر «دانشگاه جرج واشنگتن»(GWU) در مورد طرف دیگر بحث صحبت کرد. او به نبوغ شرکت‌های اینترنتی چین اشاره کرد و گفت که گاهی اوقات موانع به نوآوری ختم می‌شوند.
در هر حال، این ایده که چین ممکن است به عنوان راهنمای اصلی در مورد اصول اخلاقی هوش مصنوعی عمل کند، می‌تواند دولت‌های غربی را به وحشت بیاندازد. آنها ممکن است نگرانی‌های مشابه چین را در مورد اطلاعات نادرست و حفاظت از داده‌ها داشته باشند اما دلایل آنها مشابه نیست.

نظرات : 0

ثبت نظر

28949