سرور مجازی
فناوری

هشدار محققان: زنجیره‌های فکری هوش مصنوعی، تفکر انسانی نیست!

هشدار محققان: زنجیره‌های فکری هوش مصنوعی، تفکر انسانی نیست!

پژوهشگران دانشگاه ایالتی آریزونا نسبت به برداشتی رایج از عملکرد مدل‌های زبانی هشدار داده‌اند: تصور اینکه «زنجیره‌های فکری» در این مدل‌ها نشانه‌ای از تفکر انسانی باشد، می‌تواند گمراه‌کننده و حتی خطرناک باشد.

به گزارش دیتاسنتر من و به نقل از The Decoder، در این پژوهش، تیمی به سرپرستی «سوباراو کامبامپاتی»، استاد علوم رایانه، این روند را به پدیده‌ای موسوم به «کالای فرهنگی جعلی» تشبیه کرده‌اند—اشاره‌ای استعاری به جوامعی که بدون درک واقعی از کارکرد فناوری، تنها شکل ظاهری آن را بازسازی می‌کنند.

پشت پردۀ «تفکر مصنوعی»
 گفتنی است بسیاری از مدل‌های پیشرفته مانند R1-Zero از شرکت Deepseek یا سری o از OpenAI، برای تولید پاسخ، ابتدا مسئله را به گام‌های میانی تقسیم می‌کنند.

این گام‌ها که اصطلاحاً «زنجیره‌های فکر» نامیده می‌شوند، در قالب چت‌بات‌ها یا رابط‌های متنی به کاربر نشان داده می‌شوند و به‌ظاهر حاکی از تفکر مرحله‌به‌مرحله‌اند. اما محققان دانشگاه آریزونا تأکید می‌کنند که این تصور کاملاً اشتباه است.
 
به گفته آن‌ها، این واژگان میانی صرفاً قطعات متنی سطحی‌اند که هیچ ربطی به فرایند واقعی تصمیم‌گیری مدل ندارند. در واقع، هیچ شواهد تجربی‌ای در دست نیست که نشان دهد بررسی این گام‌های میانی می‌تواند به درک عمیق‌تر از چگونگی عملکرد مدل یا کنترل بهتر آن کمک کند.
 
آیا زنجیره‌های بی‌معنا هم کار می‌کنند؟
 نکته جالب‌تر آن‌که پژوهشگران به مواردی اشاره کرده‌اند که مدل‌ها در حین آموزش، به‌طور عمدی با زنجیره‌هایی نادرست یا بی‌ربط تغذیه شده‌اند، اما در نهایت عملکرد آن‌ها بهتر از مدل‌هایی بوده که از استدلال‌های منسجم استفاده کرده‌اند.
 

هشدار محققان: زنجیره‌های فکری هوش مصنوعی، تفکر انسانی نیست!

به عنوان مثال، مدل Deepseek R1-Zero که از ترکیب انگلیسی و چینی در گام‌های میانی استفاده می‌کرد، نتایج بهتری نسبت به نسخه نهایی R1 داشت؛ نسخه‌ای که برای خوانایی بیشتر و تفهیم بهتر انسان، بهینه‌سازی شده بود. نکته اینجاست که با استفاده از یادگیری تقویتی (Reinforcement Learning)، می‌توان مدل را به تولید هر نوع متن میانی واداشت، مادامی‌که پاسخ نهایی درست باشد.
 
رؤیاپردازی انسانی درباره ماشینی که نمی‌اندیشد
 کامبامپاتی تأکید می‌کند که حتی گنجاندن واژه‌هایی مانند «آها!» یا «هوم…» در میان مراحل استدلال، اغلب به اشتباه نشانه‌ای از «بینش واقعی» تلقی می‌شود. حال آن‌که این‌ها تنها خروجی‌هایی هستند که احتمال آماری بالایی در ادامه متن دارند.

وی این رویکرد را به تست روان‌شناسی «رورشاخ» تشبیه می‌کند: آزمونی که افراد، معناهایی ذهنی در تصاویر تصادفی لکه‌مانند می‌بینند.
 
از نگاه او، تلاش برای تفسیر این واژگان پراکنده شبیه آن است که بخواهیم نظم عمیقی در آشفتگی ظاهری پیدا کنیم؛ تلاشی که بیشتر بازتاب ذهن مشاهده‌گر است تا واقعیتی درونی از هوش مصنوعی.
 
مهم‌تر از شبیه‌سازی انسان، راستی‌آزمایی پاسخ است
 محققان یادآور شده‌اند که حتی زمانی‌که مدل در میانۀ مسیر از زنجیره‌هایی آکنده از خطا یا محتوای بی‌معنا استفاده کند، باز هم می‌تواند به پاسخ درست برسد. نه به این دلیل که این گام‌ها حاوی استدلال واقعی‌اند، بلکه چون نقش «محرک زبانی» در ساختار کلی پرسش‌پاسخ ایفا می‌کنند.
 
مطالعات بیشتر نیز نشان می‌دهند که مدل‌ها هنگام مواجهه با مسائل دشوار، به‌طور ناکارآمدی بین راهبردهای مختلف حل مسئله جابه‌جا می‌شوند؛ الگویی که نشان می‌دهد وجود گام‌های میانی، بیشتر برای قالب‌دهی به پاسخ نهایی مؤثر است، نه ارتقای کیفیت استدلال.
 

هشدار محققان: زنجیره‌های فکری هوش مصنوعی، تفکر انسانی نیست!

توصیه نهایی: به مدل‌ها انسان‌بودگی ندهید
 در پایان، تیم دانشگاه آریزونا تأکید می‌کند که مدل‌های زبانی کنونی به‌واقع نمی‌اندیشند، بلکه صرفاً در بهره‌گیری از بازخوردها و سیگنال‌های اصلاحی آموزش دیده‌اند. آنچه به نظر می‌رسد یک استدلال مرحله‌به‌مرحله باشد، در اصل محصول بهینه‌سازی هدفمند روی حجم عظیمی از داده‌هاست.
 
به جای آن‌که این خروجی‌ها را نشانه‌ای از ذهن هوش مصنوعی قلمداد کنیم، بهتر است آن‌ها را ابزارهایی در حوزه مهندسی پرامپت بدانیم. هدف، بهبود کارایی مدل‌هاست، نه القای شبه‌هوشمندی.

از این‌رو، شاید منطقی‌تر باشد که حتی گام‌های میانی را نه مدل اصلی، بلکه مدلی دوم تولید کند—مدلی که مأموریتش فقط بهبود دقت پاسخ است، نه معنا دادن به فرایندی که ذاتاً معنایی ندارد.

مجله خبری mydtc

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا