سرور مجازی
فناوری

تفکر انسانی در دل هوش مصنوعی؛ وقتی چت‌جی‌پی‌تی دچار خطاهای شناختی می‌شود

تفکر انسانی در دل هوش مصنوعی؛ وقتی چت‌جی‌پی‌تی دچار خطاهای شناختی می‌شود

پژوهشی نوآورانه نشان می‌دهد که هوش مصنوعی صرفاً داده‌ها را تحلیل نمی‌کند، بلکه در مواقعی همان اشتباهاتی را مرتکب می‌شود که انسان‌ها نیز به آن‌ها دچار می‌شوند.
 
به گزارش دیتاسنتر من و به نقل از سای‌تک‌دیلی، پرسش کلیدی این است: آیا می‌توان به هوش مصنوعی بیش از انسان اعتماد کرد؟ یافته‌های یک تحقیق جدید نشان می‌دهد که پاسخ همیشه مثبت نیست.

پژوهشگران دریافته‌اند که ChatGPT، یکی از پیشرفته‌ترین مدل‌های هوش مصنوعی حال حاضر، در تصمیم‌گیری گاهی همان اشتباهاتی را تکرار می‌کند که انسان‌ها نیز مرتکب می‌شوند.

در برخی موقعیت‌ها، این مدل به خطاهای شناختی شناخته‌شده‌ای مانند اعتماد به نفس بیش‌ازحد یا خطای داغ‌دست (Hot Hand Fallacy) دچار می‌شود. هرچند در دیگر موقعیت‌ها، رفتارش کاملاً متفاوت از انسان است؛ به‌عنوان مثال، در برابر خطای نادیده‌گرفتن نرخ پایه یا مغلطهٔ هزینهٔ ازدست‌رفته مقاومت نشان می‌دهد.
 
هوش مصنوعی؛ دستیاری هوشمند با ایرادهای انسانی
 در این تحقیق، ChatGPT در معرض ۱۸ آزمون مربوط به انواع سوگیری‌های شناختی قرار گرفت. نتایج به‌دست‌آمده قابل‌تأمل‌اند:
 
– هوش مصنوعی در دام تصمیم‌گیری‌های انسانی می‌افتد – چت‌جی‌پی‌تی در حدود نیمی از آزمون‌ها به سوگیری‌هایی نظیر اعتماد به نفس بیش‌ازحد، پرهیز از ابهام و خطای هم‌نشینی (یا همان «مسئلهٔ لیندا») دچار شد.
 
– در ریاضی عالی عمل می‌کند؛ اما در قضاوت ذهنی ضعف دارد – این مدل در حل مسائل منطقی و مبتنی بر احتمال عملکرد خوبی دارد، اما زمانی که تصمیم‌گیری‌ها جنبهٔ ذهنی پیدا می‌کنند، دچار تردید می‌شود.
 
– سوگیری همچنان پابرجاست – گرچه نسخهٔ جدیدتر GPT-4 از نظر تحلیلی دقیق‌تر از نسخه‌های قبلی است، اما گاهی در وظایف قضاوت‌محور سوگیری‌های شدیدتری از خود نشان داده است.

 

تفکر انسانی در دل هوش مصنوعی؛ وقتی چت‌جی‌پی‌تی دچار خطاهای شناختی می‌شود

چرا این مسئله مهم است؟
 از استخدام گرفته تا تأیید وام‌ها، هوش مصنوعی اکنون در قلب تصمیم‌گیری‌های کلان در کسب‌وکار و دولت‌ها جای دارد. اما اگر این فناوری خطاهای شناختی انسان را تقلید کند، آیا به‌جای اصلاح تصمیمات نادرست، آن‌ها را تشدید نخواهد کرد؟
 
یانگ چن (استادیار دانشگاه وسترن و نویسندهٔ اصلی مقاله) اظهار می‌دارد: «وقتی هوش مصنوعی از داده‌های انسانی می‌آموزد، ممکن است مثل انسان هم فکر کند – با همان سوگیری‌ها. تحقیق ما نشان می‌دهد زمانی که از هوش مصنوعی برای قضاوت استفاده می‌شود، گاهی همان میان‌برهای ذهنی انسان را به‌کار می‌برد.»
 
این تحقیق مشخص کرد که ChatGPT گرایش دارد به:
 
– محافظه‌کاری – در تصمیم‌گیری‌ها از ریسک‌پذیری اجتناب می‌کند، حتی اگر انتخاب پرریسک‌تر احتمال موفقیت بیشتری داشته باشد.
 
– اعتماد به نفس بیش‌ازحد – دقت خود را بیش از واقعیت برآورد می‌کند.
 
– تأییدگرایی – اطلاعاتی را ترجیح می‌دهد که با پیش‌فرض‌های موجود همخوانی داشته باشد و اطلاعات مخالف را نادیده می‌گیرد.
 
– اجتناب از ابهام – گزینه‌هایی را انتخاب می‌کند که اطلاعاتشان شفاف‌تر و کمتر مبهم است.
 
آنتون اوچینیکوف (استاد دانشگاه کوئینز) می‌افزاید: «وقتی مسئله‌ای پاسخ صحیح مشخصی داشته باشد، عملکرد هوش مصنوعی بی‌نقص است – حتی از بیشتر انسان‌ها هم بهتر. اما وقتی پای قضاوت به میان می‌آید، ممکن است در همان دام‌هایی بیفتد که انسان‌ها گرفتارشان می‌شوند.»

 

تفکر انسانی در دل هوش مصنوعی؛ وقتی چت‌جی‌پی‌تی دچار خطاهای شناختی می‌شود

پس آیا می‌توانیم در تصمیمات بزرگ به هوش مصنوعی اعتماد کنیم؟
 در شرایطی که دولت‌های سراسر جهان به دنبال قانون‌گذاری در حوزهٔ هوش مصنوعی هستند، این تحقیق سؤالی حیاتی را مطرح می‌کند: آیا باید اختیار تصمیم‌های مهم را به سیستمی سپرد که می‌تواند همانند انسان دچار سوگیری شود؟
 
ساموئل کیرش‌نر (استاد دانشکدهٔ کسب‌وکار UNSW) می‌گوید: «هوش مصنوعی داوری بی‌طرف نیست. اگر بدون نظارت باقی بماند، نه‌تنها ممکن است مشکلات تصمیم‌گیری را حل نکند، بلکه حتی آن‌ها را تشدید کند.»
 
مینا اندیاپان (استاد دانشگاه مک‌مستر) نیز اظهار می‌دارد: «هوش مصنوعی باید همانند کارمندی در نظر گرفته شود که تصمیمات مهم می‌گیرد – به نظارت و چارچوب‌های اخلاقی نیاز دارد. در غیر این صورت، خطر آن وجود دارد که تفکر ناقص را خودکارسازی کنیم، نه اینکه بهبود ببخشیم.»

مجله خبری mydtc

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا