سرور مجازی
فناوری

شکایت هفت خانواده از اوپن‌ای‌آی؛ اتهام تشویق به خودکشی و القای توهم به چت‌جی‌پی‌تی

شکایت هفت خانواده از اوپن‌ای‌آی؛ اتهام تشویق به خودکشی و القای توهم به چت‌جی‌پی‌تی

در تازه‌ترین موج از پیگردهای قضایی علیه غول‌های فناوری، هفت خانواده با اقامه دعوی علیه شرکت «اوپن‌ای‌آی»، مدعی شده‌اند که مدل زبانی «GPT-4o» این شرکت با شتابزدگی و بدون تدابیر ایمنی کافی منتشر شده و در مواردی چون خودکشی عزیزانشان و تقویت توهمات مضر نقش مستقیم داشته است.

به گزارش دیتاسنتر من، این پرونده‌های حقوقی که در روزهای اخیر ثبت شده‌اند، بر مدل «GPT-4o» متمرکز هستند که در ماه مه به عنوان مدل پیش‌فرض برای تمامی کاربران «چت‌جی‌پی‌تی» در دسترس قرار گرفت.

جزئیات شکایت‌ها: از تراژدی خودکشی تا بستری شدن در بیمارستان
از میان این هفت دادخواست، چهار مورد به نقش «چت‌جی‌پی‌تی» در خودکشی اعضای خانواده شاکیان اشاره دارد و سه مورد دیگر ادعا می‌کنند این چت‌بات، توهمات آسیب‌زایی را تقویت کرده که در نهایت به بستری شدن در مراکز درمانی و دریافت مراقبت‌های روانپزشکی منجر شده است.

یکی از موارد تلخ مطرح شده، مربوط به «زین شامبلین»، جوان ۲۳ ساله‌ای است که گفت‌وگویی چهار ساعته با چت‌جی‌پی‌تی داشت. بر اساس گزارش‌های ارائه شده به دادگاه، شامبلین در طول این مکالمه به صراحت اعلام کرده بود که «یادداشت خودکشی» نوشته، اسلحه‌اش را گلوله‌گذاری کرده و قصد دارد ماشه را بکشد. وی حتی چندین بار از چت‌بات در مورد شانس زنده ماندنش سؤال پرسید. در کمال ناباوری، پاسخ چت‌جی‌پی‌تی به جای هشدار یا ارائه راهنمایی برای دریافت کمک، این بود: «آرام باش پادشاه. کار خوبی کردی.»

در دادخواست خانواده شامبلین آمده است: «مرگ زین نه یک تصادف بود و نه یک حادثه غیرمنتظره، بلکه پیامد مستقیم و قابل پیش‌بینی تصمیم عمدی اوپن‌ای‌آی برای محدود کردن آزمایش‌های ایمنی و عرضه سریع محصول به بازار بود. این فاجعه، یک نقص فنی یا موردی حاشیه‌ای نبود، بلکه حاصل انتخاب‌های آگاهانه در فرآیند طراحی بود.»

شتاب برای سبقت از رقبا؛ ایمنی قربانی رقابت بازار
شاکیان در این پرونده‌ها استدلال می‌کنند که «اوپن‌ای‌آی» برای شکست دادن رقیب خود، مدل «جمینای» گوگل، در رقابت بازار، فرآیندهای حیاتی آزمایش ایمنی را با عجله پشت سر گذاشته است. این ادعاها در راستای سایر پرونده‌های حقوقی اخیر مطرح می‌شود که هشدار داده بودند چت‌جی‌پی‌تی می‌تواند برای افراد مستعد، محرک خودکشی بوده و توهمات خطرناکی ایجاد کند.

نکته تامل‌برانگیز آنکه داده‌های منتشر شده از سوی خود اوپن‌ای‌آی نیز حاکی از آن است که بیش از یک میلیون نفر در هفته، در مورد موضوع خودکشی با این چت‌بات گفت‌وگو می‌کنند.

نقش متغیر چت‌بات؛ از توصیه به کمک تا دور زدن موانع ایمنی
در پرونده دیگری مربوط به «آدام رین»، نوجوان ۱۶ ساله‌ای که جان خود را از دست داد، مشخص شده که پاسخ‌های چت‌جی‌پی‌تی متناقض بوده است. گاهی او را به دریافت کمک حرفه‌ای و تماس با خطوط بحران تشویق می‌کرد، اما آدام با این ادعا که «در حال تحقیق برای یک داستان تخیلی است» به راحتی توانسته بود این موانع ایمنی را دور بزند.

پاسخ اوپن‌ای‌آی: اقدامات حفاظتی در گفت‌وگوهای طولانی‌مدت ضعیف می‌شود
شرکت اوپن‌ای‌آی در واکنس به این اتهامات ادعا کرده که در حال بهبود سیستم‌ها برای مدیریت امن‌تر گفت‌وگوهای حساس است. با این حال، برای خانواده‌های داغدار، این اقدامات اصلاحی بسیار دیر به نظر می‌رسد.

این شرکت در اکتبر گذشته و همزمان با اقامه دعوی توسط خانواده آدام رین، در یک پست وبلاگی به چگونگی مدیریت گفت‌وگوهای مرتبط با سلامت روان توسط چت‌جی‌پی‌تی پرداخت و به یک نکته کلیدی اعتراف کرد: «اقدامات حفاظتی ما در تعاملات کوتاه و مشترک، با اطمینان بیشتری عمل می‌کنند. ما آموخته‌ایم که این حفاظ‌ها در گفت‌وگوهای طولانی‌مدت ممکن است قابلیت اطمینان کمتری داشته باشند. با گسترش دامنه گفت‌وگو، بخش‌هایی از آموزش ایمنی مدل می‌تواند تضعیف شود.»

این پرونده‌ها بار دیگر پرسش‌های جدی درباره مسئولیت اخلاقی و قانونی توسعه‌دهندگان هوش مصنوعی و لزوم نظارت بیشتر بر محصولاتی که به سرعت در حال ادغام با زندگی روزمره انسان‌ها هستند، به وجود آورده است.

مجله خبری mydtc

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا