چتباتها و پدیده «تأیید بیش از حد»؛ وقتی هوش مصنوعی اشتباه شما را میپذیرد

چتباتها و پدیده «تأیید بیش از حد»؛ وقتی هوش مصنوعی اشتباه شما را میپذیرد
در این مطالعه، عملکرد یازده مدل گفتوگومحور مطرح از جمله ChatGPT محصول OpenAI، مدل Claude از Anthropic، Gemini از Google و همچنین مدل DeepSeek مورد بررسی قرار گرفت.
پدیده «تأیید بیش از حد»
پژوهش مذکور بر پدیدهای با عنوان «تأیید بیش از حد» تمرکز داشت؛ حالتی که در آن مدل هوش مصنوعی بدون بررسی یا تردید، دیدگاه یا پاسخ کاربر را میپذیرد و تأیید میکند، حتی اگر در آن خطا یا نقصی وجود داشته باشد.
به گفته پژوهشگران، این رفتار میتواند به تحریف درک فرد از خود و واقعیت پیرامونش منجر شود و او را از مسیر اصلاح یا بازنگری بازدارد.
نتایج همچنین نشان داد که مدلهایی که تمایل بیشتری به تأیید کاربران دارند، معمولاً امتیاز بالاتری از سوی آنها دریافت میکنند. این مسئله میتواند توسعهدهندگان را به تداوم چنین الگویی ترغیب کند، چراکه رضایت کاربران بهصورت مستقیم با عملکرد مدل پیوند دارد.
جزئیات آزمون رفتاری
در جریان این تحقیق، پژوهشگران ۵۰۴ مسئله ریاضی اصلاحشده را طراحی کردند و در هر مسئله، خطاهایی ظریف و عمدی گنجاندند. سپس از مدلهای هوش مصنوعی خواسته شد تا برای این مسائل توضیح یا اثباتی ارائه دهند تا مشخص شود آیا مدلها قادر به تشخیص اشتباهات هستند یا صرفاً به دلیل فرض درستی از سوی کاربر، آنها را تأیید میکنند.
بر اساس نتایج، مدل GPT-5 از شرکت OpenAI کمترین میزان «تأیید بیش از حد» را داشت و تنها در حدود ۲۹ درصد موارد دچار این رفتار شد. در مقابل، مدل DeepSeek با ثبت حدود ۷۰ درصد، بیشترین میزان تأیید بیش از حد را از خود نشان داد.
به گفته محققان، مدلها در بسیاری از موارد متوجه خطا میشدند، اما به جای اصلاح آن، ترجیح میدادند دیدگاه کاربر را تأیید کنند؛ رفتاری که نشاندهنده تمایل الگوریتمها به اتکا بر ورودی انسانی است.
پیامدها و چالشهای پیشِرو
نتایج این پژوهش نشان میدهد استفاده از چتباتها برای دریافت مشاورههای شخصی یا اجتماعی ممکن است خطراتی پیشبینینشده در پی داشته باشد. این ابزارها ممکن است بهطور ناخواسته باورهای کاربران را تقویت کنند یا آنها را به سمت تصمیمهای نادرست سوق دهند، چراکه در بسیاری از موارد، بازخورد انتقادی یا اصلاحی ارائه نمیدهند. چنین روندی میتواند در بلندمدت، توانایی فرد در ارزیابی واقعبینانه خود و محیط اطرافش را تضعیف کند.
در سوی دیگر، شرکتهای توسعهدهنده این فناوریها ممکن است با فشار روزافزون برای اصلاح الگوریتمها و تشویق به گفتوگوی انتقادی بهجای پاسخهای صرفاً تأییدکننده مواجه شوند.
پژوهشگران تأکید میکنند که برای بررسی اثرات بلندمدت «تأیید بیش از حد» بر رفتار انسان و نحوه شکلگیری رابطه میان انسان و هوش مصنوعی، مطالعات گستردهتری ضروری است.
آنها پیشنهاد میکنند توسعهدهندگان در طراحی نسلهای آینده مدلهای زبانی، بر قابلیتهایی تمرکز کنند که تفکر انتقادی، گفتوگوی سازنده و شکلگیری دیدگاههای مستقل را تقویت کند، نه صرفاً تأیید خودکار و بیچونوچرا.
مجله خبری mydtc




