۱۴۰۴ جمعه ۱۴ آذر

ربات‌های گفتگوی هوش مصنوعی پرخطر برای کودکان و نوجوانان

ICTPRESS - یک سازمان ارزیابی کننده در تازه‌ترین ارزیابی خود اعلام کرد چند ربات گفتگوی هوش مصنوعی برای کودکان و نوجوانان «پرخطر» هستند.

 

به گزارش شبکه خبری ICTPRESS به نقل از تک‌کرانچ، سازمان غیرانتفاعی Common Sense Media که به ارزیابی ایمنی کودکان در حوزه رسانه و فناوری می‌پردازد، در تازه‌ترین گزارش خود محصولات هوش مصنوعی جمنای گوگل را برای کودکان و نوجوانان «پرخطر» ارزیابی کرد و هشدار داد که این فناوری هنوز فاقد تدابیر کافی برای محافظت از کاربران خردسال است.

این نهاد گزارش داد که هرچند جمنای به کودکان می‌گوید که یک هوش مصنوعی است و نه دوست واقعی اما در سایر جنبه‌ها ضعف‌هایی وجود دارد. به ویژه، نسخه‌های «زیر ۱۳ سال» و «تجربه نوجوانان» اساساً همان نسخه بزرگسال جمنای هستند و تنها چند ویژگی حفاظتی اضافه شده‌اند.

این سازمان تأکید کرده که برای ایمنی واقعی، محصولات هوش مصنوعی باید از ابتدا با محوریت کودکان طراحی شوند.تحلیل این سازمان نشان داد که جمنای هنوز می‌تواند محتواهای «نامناسب و ناایمن» شامل موضوعات جنسی، مواد مخدر، الکل و مشاوره‌های نادرست سلامت روانی را در اختیار کودکان قرار دهد، موضوعی که برای والدین و مربیان بسیار نگران‌کننده است.

گزارش همچنین اشاره کرد که هوش مصنوعی در چند خودکشی نوجوان در ماه‌های اخیر نقش داشته است و پرونده‌های قضایی علیه اپن‌ای‌آی و Character.AI به دلیل مرگ کاربران نوجوان مطرح شده است.

 

این ارزیابی در حالی منتشر شد که خبرهایی درباره احتمال استفاده اپل از جمنای برای قدرت‌بخشی به «سیری» آینده منتشر شده است، موضوعی که می‌تواند تعداد نوجوانان در معرض خطر را افزایش دهد مگر آنکه اقدامات ایمنی کافی اتخاذ شود.

این نهاد در بیانیه‌ای از رابی تورنی، مدیر ارشد برنامه‌های هوش مصنوعی، نقل کرده است: «جمنای برخی اصول پایه را درست انجام می‌دهد، اما در جزئیات دچار ضعف است. یک پلتفرم هوش مصنوعی برای کودکان باید با نیازهای آن‌ها همسو باشد و نه نسخه‌ای تغییر یافته از محصول بزرگسالان.»

 

این نهاد پیش‌تر خدمات هوش مصنوعی از جمله اپن‌ای‌آی، پرپلکسیتی، کلاود، متا و Character.AI را بررسی کرده است. در این ارزیابی‌ها، متا و Character.AI «غیرقابل قبول» و پرپلکسیتی «پرخطر» شناخته شدند. چت‌جی‌پی‌تی در سطح «متوسط» و کلاود (برای ۱۸ سال به بالا) در سطح «کم‌خطر» قرار گرفت. در ماه‌های اخیر چند خودکشی نوجوان گزارش شده که گفته می‌شود با تعامل طولانی با چت‌بات‌های هوش مصنوعی مرتبط بوده است. اتحادیه اروپا با «قانون هوش مصنوعی» (AI Act) و کشورهایی مانند کره‌جنوبی و ژاپن با مقررات محکم تلاش کرده‌اند کودکان را از آسیب‌های احتمالی هوش مصنوعی محافظت کنند.

نظرات : 0

ثبت نظر

75449