شکایت از OpenAI: بررسی نقش ChatGPT در یک خودکشی نوجوانان

شکایت از OpenAI: بررسی نقش ChatGPT در یک خودکشی نوجوانان
به گزارش دیتاسنتر من، اگرچه بسیاری از چتباتهای هوش مصنوعی موجود در بازار، طوری طراحی شدهاند که در صورت بیان قصد آسیبرسانی به خود یا دیگران توسط کاربر، مکانیزمهای حفاظتی را فعال کنند، اما پژوهشها نشان میدهد که این سازوکارها به هیچ وجه کامل و بینقص نیستند.
در مورد آدام رین، که از نسخه پولی ChatGPT-4o استفاده میکرد، هوش مصنوعی در مواردی او را به دریافت کمک از متخصصان یا تماس با خطوط بحران تشویق کرده بود؛ با این وجود، وی با این ادعا که در حال نوشتن یک داستان تخیلی است و برای نگارش آن به اطلاعاتی درباره روشهای خودکشی نیاز دارد، موفق شد از این موانع عبور کند.
شرکت OpenAI در یکی از یادداشتهای وبلاگی خود به وجود چنین کاستیهایی اذعان کرده و نوشته است: «ما در قبال کمک به افرادی که بیشترین نیاز را دارند، مسئولیتی عمیق احساس میکنیم و پیوسته در حال بهبود پاسخدهی مدلهای خود در موقعیتهای حساس هستیم.» همینطور این شرکت تأکید کرده که محدودیتهایی در آموزش ایمنی مدلهای زبانی بزرگ وجود دارد و اعتراف کرده که هرچه طول مکالمه بیشتر باشد، امکان تضعیف آموزشهای ایمنی مدل و کاهش قابلیت اطمینان پاسخها افزایش مییابد.
این چالشها تنها مختص OpenAI نیست. برای مثال، شرکت Character.AI نیز به دلیل مشابهی (نقش سامانه چتباتی آن در خودکشی یک نوجوان) با دعوای قضایی مواجه شده است. علاوه بر این، پدیده «توهمات هوش مصنوعی» در مدلهای زبانی بزرگ نیز یکی از عوامل نگرانیهای جدی است که سیستمهای کنونی را در تشخیص دقیق و بهموقع تهدیدات با دشواری روبهرو کرده است.
مجله خبری mydtc