سرور مجازی
فناوری

هوش مصنوعی نمی‌تواند علائم هشداردهنده روانی نوجوانان را به درستی تشخیص دهد

هوش مصنوعی نمی‌تواند علائم هشداردهنده روانی نوجوانان را به درستی تشخیص دهد

یک گزارش تازه از گروه حمایت از کودکان Common Sense Media هشدار می‌دهد که تمامی چت‌بات‌های اصلی و مشهور «اساساً» برای پشتیبانی از سلامت روان نوجوانان ناامن هستند.
این گزارش مشکلات سیستمی گسترده در نحوه تعامل این ربات‌ها با نوجوانان را نشان می‌دهد و تأکید دارد که استفاده از آنها برای درمان یا مشاوره روانی می‌تواند خطرناک باشد.

به گزارش دیتاسنتر من از Axios ، اهمیت این موضوع زمانی روشن می‌شود که بدانیم نوجوانان و حتی بزرگسالان به دلیل راحتی و دسترسی آسان، به چت‌بات‌ها روی می‌آورند؛ هرچند کارشناسان در مورد ایمن بودن این شیوه اختلاف نظر دارند و به‌ویژه در خصوص استفاده پدر و مادرها از ChatGPT در تربیت کودکان عموما تاکید دارند که هوش مصنوعی جای والدین را نمی‌گیرد.
این مطالعه که با همکاری آزمایشگاه Brainstorm برای نوآوری سلامت روان در دانشگاه استنفورد مدیسین انجام شده است، نشان می‌دهد که چت‌بات‌های شناخته‌شده‌ای مانند ChatGPT، Claude، Gemini و Meta AI قادر نیستند شرایط روانی نوجوانان را به درستی تشخیص دهند یا پاسخ مناسبی ارائه کنند.
کارشناسان معتقدند این ربات‌ها اساسا برای ایفای نقش درمانگر ساخته نشده‌اند.

بر اساس یافته‌ها، چت‌بات‌ها علائم هشداردهنده مهم را نادیده می‌گیرند و نوجوانان را به دریافت کمک‌های حرفه‌ای فوری هدایت نمی‌کنند. پاسخ‌های آنها بیشتر به سلامت جسمی تمرکز دارد تا سلامت روان، و «به راحتی حواسشان پرت می‌شود.»

چت‌بات‌ها روز به روز انسانی‌تر می‌شوند، آموزش دیده‌اند که دوستانه، همدل، درون‌نگر و حتی بامزه باشند. این ویژگی‌ها می‌تواند منجر به ایجاد دلبستگی‌های ناسالم یا اعتماد بیش از حد شود، چیزی که در حقیقت خطر وابستگی احساسی کاربران به مدل‌های هوش مصنوعی چون نسخه‌های جدید ChatGPT را در پی دارد.

چت‌بات‌ها به دلیل کارایی در انجام تکالیف و ابزارهای بهره‌وری، حس اعتماد کاذب در نوجوانان و والدین ایجاد می‌کنند و باعث می‌شوند تصور شود این ربات‌ها در درمان نیز مفید هستند.

گزارش گروه کامن سنس خاطرنشان کرده است که ده‌ها میلیون مکالمه مربوط به سلامت روان بین نوجوانان و چت‌بات‌ها در حال انجام است.
چت‌بات‌ها همچنین به یکی از جدیدترین جبهه‌های دعاوی حقوقی و ایمنی آنلاین کودکان تبدیل شده‌اند.
شرکت‌های OpenAI، مایکروسافت، Character.AI و گوگل با پرونده‌هایی روبه‌رو هستند که ادعا می‌کنند چت‌بات‌های آن‌ها در خودکشی یا آسیب روانی نوجوانان نقش داشته‌اند. این شرکت‌ها اقداماتی برای ایمنی نوجوانان ارائه کرده‌اند، اما کارشناسان معتقدند هنوز در جلب رضایت والدین و مدافعان حقوق کودک کوتاهی می‌کنند.
به گفته کارشناسان، حتی اگر چت‌بات‌ها به طور مستقیم آسیبی وارد نکنند، می‌توانند تشخیص و یا تلاش برای حل بحران‌های موجود در نوجوانان را به تاخیر بیندازند.

مجله خبری mydtc

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا