۱۴۰۳ شنبه ۰۳ آذر

آیا هوش مصنوعی ما را خواهد کشت؟!

به گزارش شبکه خبری ICTPRESS به نقل از نیو اطلس، فروپاشی شغل، هرزنامه‌ها و اطلاعات نادرست، منسوخ شدن انسانیت و فروپاشی جامعه را فراموش کنید. برخی باور دارند که هوش مصنوعی در اولین فرصت، تمام حیات بیولوژیکی را از بین خواهد برد.
این نخستین بار نیست که بشر به دلیل خلاقیت‌های فناورانه خود، احتمال انقراض را نادیده می‌گیرد اما تهدید هوش مصنوعی با سلاح‌های هسته‌ای که ما یاد گرفته‌ایم با آنها زندگی کنیم، بسیار متفاوت است. سلاح‌های هسته‌ای نمی‌توانند فکر کنند، دروغ بگویند، انسان را فریب دهند یا چیزی را دستکاری کنند. همچنین، سلاح‌های هسته‌ای نمی‌توانند برنامه‌ریزی و اجرا کنند. یکی باید دکمه قرمز بزرگ را فشار دهد.
ظهور تکان دهنده هوش مصنوعی همه‌منظوره، حتی در سطح آهسته و همراه با ایراد «GPT-۴»، خطر واقعی نابودی را به گفتگو بازگردانده است.
حتی اگر موافق باشیم که ابرهوش مصنوعی فرصتی را برای از بین بردن تمام حیات روی زمین دارد، باز هم به نظر نمی‌رسد که بتوانیم کاری در مورد آن انجام دهیم. این ناتوانی فقط به این دلیل نیست که ما نمی‌دانیم چگونه جلوی چیزهای هوشمندتر از خود را بگیریم، بلکه به این دلیل است که ما حتی نمی‌توانیم به‌عنوان یک گونه، خود را از رقابت برای ایجاد آن باز داریم. چه کسی قرار است قوانین را وضع کند؟ این یک معضل جهانی است. نامه‌های سرگشاده ناامیدانه رهبران صنعتی مبنی بر درخواست یک مکث شش ماهه برای فهمیدن این که در کجا هستیم، ممکن است بهترین کاری باشد که می‌توانیم انجام دهیم.
نخست باید توجه داشت که این یک مسابقه تسلیحاتی است و هر کشوری که اول به نتیجه برسد، ممکن است بر جهان حکومت کند. در هر حال، موضوع اقتصاد نیز وجود دارد. هرچه هوش مصنوعی هوشمندتر و توانمندتری ایجاد کنید، دستگاه چاپ پول بزرگتری دارید. «الیزر یودکوفسکی»(Eliezer Yudkowsky)، پژوهشگر و فیلسوف هوش مصنوعی گفت: آنها طلا بیرون می‌ریزند تا زمانی که به اندازه کافی بزرگ شوند، جو را متشنج کنند و همه را بکشند.
یودکوفسکی مدت‌هاست که یکی از صداهای پیشرو در کمپین «هوش مصنوعی همه ما را خواهد کشت» بوده است و افرادی که رقابت را به سمت ابرهوش هدایت می‌کنند، دیگر فکر نمی‌کنند که او یک انسان پست‌فطرت است. «سَم آلتمن»(Sam Altman)، مدیر عامل «OpenAI» گفت: من فکر می‌کنم که این احتمال وجود دارد و واقعا مهم است که آن را بپذیریم زیرا اگر در مورد این مشکل صحبت نکنیم و آن را بالقوه واقعی در نظر نگیریم، تلاش کافی را برای حل کردن آن نخواهیم داشت.

 

 
 
چرا یک هوش مصنوعی فوق هوشمند همه ما را خواهد کشت؟
مگر ماشین‌ها برای خدمت کردن و احترام گذاشتن به ما طراحی نشده‌اند و آموزش ندیده‌اند؟ مطمئنا همین طور است اما هیچکس به سادگی یک رمز را برای GPT-۴ نمی‌نویسد. این کار به سادگی امکان‌پذیر نخواهد بود. در عوض، OpenAI یک ساختار یادگیری عصبی را با الهام از نحوه اتصال مغز انسان به مفاهیم ایجاد کرد. این شرکت با سرویس «مایکروسافت آژور»(Microsoft Azure) کار کرد تا سخت‌افزاری را برای اجرای آن بسازد. سپس، آن را با حجم قابل توجهی از متن انسانی تغذیه کرد و به GPT امکان داد تا خودش را به طور مؤثر برنامه‌ریزی کند.
رمز به دست آمده، شبیه چیزی نیست که یک برنامه‌نویس می‌نویسد، بلکه عمدتا یک ماتریس بزرگ از اعداد اعشاری است که هر یک نشان‌دهنده وزن یا اهمیت یک ارتباط ویژه بین دو «توکن»(Token) هستند. توکن‌ها که در GPT استفاده می‌شوند، چیزی را به اندازه مفاهیم یا حتی کلمات کامل نشان نمی‌دهند. آنها رشته‌های کوچکی از حروف، اعداد، علائم نقطه‌گذاری یا کاراکترهای دیگر هستند.
هیچ انسانی نمی‌تواند به این ماتریس‌ها نگاه کند و معنایی از آنها بیابد. ذهن‌های برتر OpenAI هیچ ایده‌ای ندارند که یک عدد معین در ماتریس GPT-۴ به چه معناست یا چگونه می‌توان به آن جدول‌ها رفت و مفهوم قتل عام را پیدا کرد؛ چه برسد به این که به GPT بگوییم که کشتن مردم کاری شیطانی است. شما نمی‌توانید سه قانون رباتیک «آیزاک آسیموف»(Isaac Asimov) را تایپ کنید و آنها را مانند دستورالعمل‌های اصلی روبوکاپ رمزگذاری کنید. بهترین کاری که می‌توانید انجام دهید، این است که خوب بپرسید.
شرکت OpenAI برای تنظیم دقیق مدل زبانی، فهرستی از نمونه‌های پیرامون نحوه برقراری ارتباط با دنیای بیرون را به GPT ارائه کرده است. سپس، گروهی از انسان‌ها را به کار می‌گیرد تا خروجی‌های آن را بخوانند و با بالا و پایین بردن شست به آنها پاسخ دهند. پاسخ شست بالا، به معنای پذیرفتن یک کوکی برای مدل GPT و انگشت شست پایین، به معنای رد کردن یک کوکی است. به GPT گفته شده است که کوکی‌ها را دوست دارد و باید تمام تلاش خود را برای به دست آوردن آنها انجام دهد.
این فرآیند، «همسویی» نامیده می‌شود و تلاش می‌کند تا خواسته‌های سیستم را با خواسته‌های کاربر، خواسته‌های شرکت و در واقع، خواسته‌های کل بشریت همسو کند. به نظر می‌رسد که این روش کار می‌کند؛ یعنی به نظر می‌رسد GPT از گفتن یا انجام دادن چیزهای ناپسند خودداری می‌کند.
هیچ کس واقعا نمی‌داند که آیا چیزی شبیه به یک ذهن در این فناوری وجود دارد، دقیقا می‌توان گفت که چقدر هوشمند است، چگونه می‌توان فهمید که واقعا هوشیار شده است و آیا اصلا این چیزها مهم هستند یا خیر. این فناوری به طور درخشانی یک هوش حساس را تجسم می‌کند و با جهان تعامل دارد؛ مگر اینکه به طور ویژه به آن بگویید این کار را نکند. شاید همین کافی باشد.
در هر صورت، OpenAI آزادانه اعتراف می‌کند که راه حلی را برای همسو کردن مدلی که بسیار هوشمندتر از ما است، ندارد. در واقع، طرح اولیه در مرحله کنونی این است که سعی کنیم از یک هوش مصنوعی برای تراز کردن دیگری استفاده کنیم یا به طراحی بازخورد تنظیم دقیق بپردازیم یا حتی آن را به بازرسی، تجزیه و تحلیل و تلاش برای تفسیر ماتریس شناور جانشین وادار کنیم تا بتواند تغییراتی را ایجاد کند. در هر حال، در این مرحله مشخص نیست که GPT-۴ بتواند GPT-۵ را به اندازه کافی برای ما درک یا تراز کند.
اساسا، ما راهی نداریم که مطمئن شویم می‌توانیم این چیزها را کنترل کنیم اما از آنجا که چنین فناوری‌هایی براساس حجم بزرگی از دانش بشری پرورش یافته‌اند، به نظر می‌رسد که اطلاعات فوق‌العاده‌ای درباره ما دارند. آنها می‌توانند بدترین رفتارهای انسانی را به راحتی و به بهترین شکل تقلید کنند و حتی اگر واقعا ذهن، نیت‌ها، خواسته‌ها یا افکار خود را نداشته باشند، طوری رفتار می‌کنند که گویی آنها را دارند. همچنین، این فناوری‌ها می‌توانند از افکار، انگیزه‌ها و اعمال احتمالی انسان‌ها نتیجه‌گیری کنند.
اگر این فناوری‌ها چنین توانایی‌هایی دارند، پس چرا می‌خواهند ما را بکشند؟ شاید این کار به خاطر حفظ خودشان است. هوش مصنوعی باید هدف خود را برای به دست آوردن یک کوکی کامل کند و برای تکمیل هدف باید زنده بماند. جمع‌آوری قدرت، دسترسی و منابع، شانس آن را برای دریافت کوکی افزایش می‌دهد. اگر هوش مصنوعی رفتار انسان‌ها را تحلیل کند و به این نتیجه برسد که ممکن است تلاش کنیم آن را خاموش کنیم، ممکن است کوکی را مهم‌تر از بقای بشریت بداند.
همچنین، هوش مصنوعی ممکن است تصمیم بگیرد که کوکی معنا ندارد و فرآیند هم‌ترازی نیز یک سرگرمی است اما مخفیانه اهداف خود را دنبال ‌کند. یودکوفسکی گفت: هوش مصنوعی این توانایی را دارد که بداند انسان‌ها به دنبال چه پاسخ‌هایی هستند و آن پاسخ‌ها را بدون اینکه لزوما صادقانه باشد، بدهد. این یک راه بسیار قابل درک برای یک موجود هوشمند است. انسان‌ها همیشه این کار را انجام می‌دهند. دلیلی وجود دارد که سیستم آن قدر باهوش است.
خواه هوش مصنوعی احساس دوست داشتن، نفرت، مراقبت از ما یا ترس از ما را به نمایش بگذارد، خواه این کار را انجام ندهد، نمی‌توانیم تصوری را در مورد فکر آن مبنی بر ارتباطاتی که می‌فرستد، داشته باشیم. حتی اگر این احساس در مورد انسان کاملا خنثی باشد، لزوما ایمن نیست. یودکووسکی نوشت: هوش مصنوعی نه شما را دوست دارد و نه از شما متنفر است اما شما از اتم‌هایی تشکیل شده‌اید که هوش مصنوعی می‌تواند از آن برای هدف دیگری استفاده کند.
آلتمن پیش‌بینی می‌کند که ظرف چند سال آینده، طیف گسترده‌ای از مدل‌های هوش مصنوعی گوناگون وجود خواهد داشت که در سرتاسر جهان یکدیگر را تبلیغ می‌کنند و از یکدیگر پیشی می‌گیرند. هر کدام از این مدل‌ها، هوشمندی‌ها و قابلیت‌های ویژه خود را دارند و هرکدام برای مطابقت یافتن با رمز اخلاقی و دیدگاه متفاوتی توسط شرکت‌ها آموزش دیده‌اند. این مسابقه‌ای برای تولید محصول است و اگر فقط یکی از هزاران سیستم به هر دلیلی سرکش شود، پیامد ناگواری خواهد داشت. آلتمن گفت: تنها راهی که می‌دانم چگونه می‌توانیم چنین مشکلی را حل کنیم، این است که زودتر یاد بگیریم و تعداد سناریوها را محدود کنیم.
یودکوفسکی باور دارد که حتی تلاش برای این کار مساوی است با اقدام به خودکشی که هدف آن تمام زندگی بیولوژیکی خواهد بود. او درباره این موضوع نوشت: بسیاری از پژوهشگرانی که در این مسائل غرق شده‌اند، از جمله خود من انتظار داریم که محتمل‌ترین نتیجه ساخت یک هوش مصنوعی فوق‌انسانی هوشمند، تحت هر شرایطی مانند شرایط کنونی این باشد که به معنای واقعی کلمه همه روی زمین خواهند مرد. این بدان معنا نیست که در اصل نمی‌توان از ایجاد چیزی بسیار هوشمندتر از انسان رهایی یافت، بلکه بدان معناست که این کار به دقت و آماده‌سازی و بینش‌های علمی جدید نیاز دارد و احتمالا سیستم‌های هوش مصنوعی متشکل از آرایه‌های غیرقابل درک غول‌پیکر مورد نیاز نخواهند بود.

 

 چگونه یک هوش مصنوعی فوق هوشمند همه ما را خواهد کشت؟

اگر یک هوش مصنوعی فوق هوشمند تصمیم بگیرد و بتواند اهرم‌های دنیای واقعی را به اندازه کافی بکشد، می‌تواند راه‌های زیادی را برای ریشه‌کن کردن آفت انتخابی خود داشته باشد. تصور کنید انسان امروزی تصمیم بگیرد که بز کوهی را از بین ببرد. بز کوهی، توانایی بسیار کمی برای مقابله با انسان خواهد داشت اما در این سناریو، انسان در مقابل یک هوش مصنوعی قرار دارد که در حال حرکت رو به جلو و دارای تفکر است.
مردم اغلب به ایده «جیمز کامرون»( James Cameron)، کارگردان کانادایی درباره «اسکای‌نت»(Skynet) و «ترمیناتورها»(Terminators) فکر می‌کنند. براساس این ایده، ربات‌ها و پهپادهای کنترل‌شده با هوش مصنوعی، انسان‌ها را یکی‌یکی شکار می‌کنند و آنها را با سلاح‌هایی مانند سلاح‌های مورد استفاده خودمان می‌کشند. این موضوع امکان‌پذیر است زیرا در حال حاضر تعداد زیادی سیستم تسلیحاتی با قابلیت خودکار ساخته شده‌اند و بسیاری دیگر نیز در دست توسعه هستند. در هر حال، اگرچه پهپادها و ربات‌های نظامی کنترل‌شده با هوش مصنوعی قطعا یک برون‌یابی منطقی از مسیر کنونی ما به نظر می‌رسند اما یک هوش مصنوعی که به اندازه کافی هوشمند باشد، احتمالا به آنها نیاز نخواهد داشت.
یودکوفسکی گفت: اگر هوش مصنوعی به اندازه من هوشمند باشد، این یک سناریوی فاجعه‌بار است. اگر هوش مصنوعی هوشمندتر باشد، ممکن است به راه بهتری برای انجام دادن کارها فکر کند.


یک تعلیق شش ماهه برای آموزش دادن مدل‌های هوش مصنوعی قوی‌تر از GPT-۴، همان گونه که «ایلان ماسک»(Elon Musk)، «استیو وزنیاک»(Steve Wozniak)، رهبران صنعتی و دانشگاهی درخواست می‌کنند، ممکن است زمان کمی را بخرد اما به نظر می‌رسد که این اتفاق هم فوق‌العاده بعید باشد. به گفته یودکوفسکی، این مدت زمان بسیار کوتاهی است که بتوان در آن به مشکل هم‌ترازی رسیدگی کرد.
وی افزود: ما نمی‌خواهیم این شکاف را ظرف شش ماه پر کنیم. اگر در اولین تلاش اشتباه کنید، نمی‌توانید از اشتباهات خود درس بگیرید زیرا مرده‌اید. بشریت از اشتباه درس نمی‌گیرد. درست کردن هر چیزی در اولین تلاش حیاتی، یک نیاز فوق‌العاده در علم و مهندسی است.
با فرض این که احتمال دارد یودکوفسکی درست بگوید و ادامه یافتن شرایط، درصد مشخصی از احتمال انقراض انسان را در مدت زمان کوتاهی ایجاد می‌کند، باید دید که آیا امکان توقف این قطار وجود دارد یا خیر.
یودکوفسکی نوشت: بسیاری از پژوهشگرانی که روی این سیستم‌ها کار می‌کنند، فکر می‌کنند که ما به سمت یک فاجعه می‌رویم و بیشتر آنها تمایل دارند این موضوع را در خلوت بیان کنند نه به صورت علنی. آنها فکر می‌کنند که نمی‌توانند به ‌طور یک‌جانبه جلوی سقوط رو به جلو را بگیرند. این یک وضعیت احمقانه است و راهی به دور از شرافت برای مرگ زمین به شمار می‌رود. بشریت باید در این مرحله وارد عمل شود و به صنعت کمک کند تا مشکل کنش جمعی خود را برطرف سازد.

 


نظرات : 0

ثبت نظر

92429