۱۴۰۳ چهارشنبه ۰۷ آذر

ذهن‌خوانی واقعا ممکن می‌شود؟

به گزارش شبکه خبری ICTPRESS، دانشمندان روشی پیدا کرده‌اند که به کمک آن می‌توانند با استفاده از اسکن مغزی و مدلسازی هوش مصنوعی، آنچه افراد به آن فکر می‌کنند را آوانویسی (نوشتن نماد‌های آوایی زبان) کنند. این روش گامی به سوی ذهن‌خوانی توصیف شده است.

در حالی که هدف اصلی رمزگشایی زبان کمک به افرادی است که توانایی برقراری ارتباط را از دست داده‌اند، دانشمندان آمریکایی اذعان کرده‌اند که این فناوری در مورد حریم شخصی ذهن سوالاتی را پیش کشیده است.

آن‌ها با هدف کاهش چنین ترس‌هایی، آزمایش‌هایی انجام دادند که نشان می‌داد رمزگشایی آن‌ها نمی‌تواند در اسکنر تصویربرداری تشدید مغناطیسی عملکردی، اف‌ام‌آرآی (fMRI) روی فعالیت مغزی افرادی که اجازه این بررسی را نداده بودند، ساعت‌های طولانی به کار رود.

پژوهش‌های قبلی نشان دادند که ایمپلنت مغزی می‌تواند افرادی را که دیگر نمی‌توانند صحبت یا تایپ کنند، قادر کند کلمات یا حتی جملات را هجی کنند. این «رابط مغز و کامپیوتر» بر بخشی از مغز تمرکز می‌کند که هنگام تلاش برای تشکیل کلمات، دهان را کنترل می‌کند.

الکساندر هات، عصب‌شناس دانشگاه تگزاس در آستن و یکی از نویسندگان مطالعه جدید، گفت که رمزگشایی زبان گروه او «در سطح بسیار متفاوتی کار می‌کند». هات در یک کنفرانس مطبوعاتی آنلاین اعلام کرد: «سیستم ما واقعا در سطح ایده‌ها، معناشناسی و معنا کار می‌کند.»

بر اساس مطالعه منتشرشده در مجله علوم اعصاب طبیعت (Nature Neuroscience) این اولین سازوکاری است که قادر به بازسازی زبان پیوسته بدون ایمپلنت مغزی تهاجمی است.

برای این مطالعه، سه نفر در دستگاه اف‌ام‌آر‌آی در مجموع ۱۶ ساعت را به گوش دادن به داستان‌های روایی صوتی،  عمدتا پادکست‌هایی مانند عشق مدرن نیویورک تایمز، صرف کردند. این کار به محققان فرصت داد جزئیات این موضوع را بفهمند که چگونه کلمات، عبارات و معانی واکنش‌هایی را در مناطقی از مغز که برای پردازش زبان شناخته شده‌اند،  تحریک می‌کنند.

آن‌ها این داده‌ها را به یک مدل زبانی شبکه عصبی وارد کردند که از جی‌پی‌تی‌ــ‌۱ (GPT-۱) استفاده می‌کرد؛  یعنی فناوری هوش مصنوعی پیشین که بعدا در چت جی‌پی‌تی (ChatGPT) معروف جایگزین شد.

این مدل برای پیش‌بینی نحوه واکنش مغز هر فرد به گفتار درک‌شده، آموزش داده شد.  سپس گزینه‌ها را محدود کرد تا نزدیک‌ترین پاسخ را پیدا کند. بعد برای آزمایش دقت مدل، هر یک از شرکت‌کنندگان به داستان جدیدی در دستگاه اف‌ام‌آر‌آی گوش کردند.

اولین نویسنده این مطالعه، جری تانگ، گفت که رمزگشا می‌تواند «محتوای چیزی را که کاربر می‌شنود، بازیابی کند». به عنوان مثال، هنگامی که شرکت‌کننده عبارت «من هنوز گواهینامه رانندگی ندارم» را شنید، مدل عبارت «او هنوز شروع به یادگیری رانندگی نکرده است» را ساخت.

محققان اذعان کردند که رمزگشا با ضمایر شخصی مانند من یا او مشکل داشت؛ اما حتی زمانی که شرکت‌کنندگان به داستان‌های خود فکر می‌کردند یا فیلم‌های صامت می‌دیدند،  رمزگشا همچنان می‌توانست «خلاصه» آن را درک کند.

این موضوع نشان داد که «ما در حال رمزگشایی چیزی عمیق‌تر از زبان‌ هستیم، سپس آن را به زبان تبدیل می‌کنیم».

به گفته هات، از آن‌جایی که اسکن اف‌ام‌آر‌آی برای ثبت کلمات منفرد بسیار کند است، «مجموعه درهم‌برهمی از اطلاعات را ظرف چند ثانیه جمع‌آوری می‌کند». از این رو ما می‌توانیم ببینیم که این ایده چگونه تکامل می‌یابد؛  حتی اگر کلمات دقیق وجود نداشته باشند.

دیوید رودریگزـآریاس وایلن، استاد اخلاق زیستی در دانشگاه گرانادای اسپانیا که در این تحقیق شرکت نداشت، گفت که این امر فراتر از آن چیزی پیش رفته است که رابط‌های قبلی مغز و کامپیوتر به دست آورده بودند.

او گفت که این ما را به آینده‌ای نزدیک می‌کند که در آن ماشین‌ها می‌توانند «ذهن‌ها را بخوانند و افکار را آوانویسی کنند» و هشدار داد که این امر ممکن است برخلاف میل افراد اتفاق بیفتد؛  مانند زمانی که آن‌ها خواب‌اند.

محققان چنین نگرانی‌هایی را پیش‌بینی کرده‌اند. آن‌ها آزمایش‌هایی انجام دادند که نشان می‌داد اگر رمزگشا پیش‌تر در مورد فعالیت مغزی خاص خود آموزش ندیده باشد، روی یک فرد کار نمی‌کند.

سه شرکت‌کننده هم توانستند رمزگشا را به‌راحتی از کار بیندازند. هنگام گوش دادن به یکی از پادکست‌ها، به کاربران گفته شد که هفت تا هفت تا بشمارند، حیواناتی را نام ببرند و تصور کنند یا داستان متفاوتی در ذهن خود تعریف کنند. به گفته پژوهشگران، تمام این روش‌ها رمزگشا را از کار انداختند.

این گروه در مرحله بعد امیدوار است که این روند را سرعت بخشد تا بتواند اسکن‌های مغز را در زمان واقعی رمزگشایی کنند.

آن‌ها همچنین خواستار قوانینی برای محافظت از حریم شخصی ذهن شدند.

رودریگزـآریاس وایلن، متخصص اخلاق زیستی، گفت: ذهن ما تاکنون حافظ حریم شخصی ما بوده است. این کشف می‌تواند اولین گام برای به خطر انداختن این آزادی در آینده باشد.

نظرات : 0

ثبت نظر

37275