هشدار محققان: زنجیرههای فکری هوش مصنوعی، تفکر انسانی نیست!

هشدار محققان: زنجیرههای فکری هوش مصنوعی، تفکر انسانی نیست!
به گزارش دیتاسنتر من و به نقل از The Decoder، در این پژوهش، تیمی به سرپرستی «سوباراو کامبامپاتی»، استاد علوم رایانه، این روند را به پدیدهای موسوم به «کالای فرهنگی جعلی» تشبیه کردهاند—اشارهای استعاری به جوامعی که بدون درک واقعی از کارکرد فناوری، تنها شکل ظاهری آن را بازسازی میکنند.
پشت پردۀ «تفکر مصنوعی»
گفتنی است بسیاری از مدلهای پیشرفته مانند R1-Zero از شرکت Deepseek یا سری o از OpenAI، برای تولید پاسخ، ابتدا مسئله را به گامهای میانی تقسیم میکنند.
این گامها که اصطلاحاً «زنجیرههای فکر» نامیده میشوند، در قالب چتباتها یا رابطهای متنی به کاربر نشان داده میشوند و بهظاهر حاکی از تفکر مرحلهبهمرحلهاند. اما محققان دانشگاه آریزونا تأکید میکنند که این تصور کاملاً اشتباه است.
به گفته آنها، این واژگان میانی صرفاً قطعات متنی سطحیاند که هیچ ربطی به فرایند واقعی تصمیمگیری مدل ندارند. در واقع، هیچ شواهد تجربیای در دست نیست که نشان دهد بررسی این گامهای میانی میتواند به درک عمیقتر از چگونگی عملکرد مدل یا کنترل بهتر آن کمک کند.
آیا زنجیرههای بیمعنا هم کار میکنند؟
نکته جالبتر آنکه پژوهشگران به مواردی اشاره کردهاند که مدلها در حین آموزش، بهطور عمدی با زنجیرههایی نادرست یا بیربط تغذیه شدهاند، اما در نهایت عملکرد آنها بهتر از مدلهایی بوده که از استدلالهای منسجم استفاده کردهاند.
به عنوان مثال، مدل Deepseek R1-Zero که از ترکیب انگلیسی و چینی در گامهای میانی استفاده میکرد، نتایج بهتری نسبت به نسخه نهایی R1 داشت؛ نسخهای که برای خوانایی بیشتر و تفهیم بهتر انسان، بهینهسازی شده بود. نکته اینجاست که با استفاده از یادگیری تقویتی (Reinforcement Learning)، میتوان مدل را به تولید هر نوع متن میانی واداشت، مادامیکه پاسخ نهایی درست باشد.
رؤیاپردازی انسانی درباره ماشینی که نمیاندیشد
کامبامپاتی تأکید میکند که حتی گنجاندن واژههایی مانند «آها!» یا «هوم…» در میان مراحل استدلال، اغلب به اشتباه نشانهای از «بینش واقعی» تلقی میشود. حال آنکه اینها تنها خروجیهایی هستند که احتمال آماری بالایی در ادامه متن دارند.
وی این رویکرد را به تست روانشناسی «رورشاخ» تشبیه میکند: آزمونی که افراد، معناهایی ذهنی در تصاویر تصادفی لکهمانند میبینند.
از نگاه او، تلاش برای تفسیر این واژگان پراکنده شبیه آن است که بخواهیم نظم عمیقی در آشفتگی ظاهری پیدا کنیم؛ تلاشی که بیشتر بازتاب ذهن مشاهدهگر است تا واقعیتی درونی از هوش مصنوعی.
مهمتر از شبیهسازی انسان، راستیآزمایی پاسخ است
محققان یادآور شدهاند که حتی زمانیکه مدل در میانۀ مسیر از زنجیرههایی آکنده از خطا یا محتوای بیمعنا استفاده کند، باز هم میتواند به پاسخ درست برسد. نه به این دلیل که این گامها حاوی استدلال واقعیاند، بلکه چون نقش «محرک زبانی» در ساختار کلی پرسشپاسخ ایفا میکنند.
مطالعات بیشتر نیز نشان میدهند که مدلها هنگام مواجهه با مسائل دشوار، بهطور ناکارآمدی بین راهبردهای مختلف حل مسئله جابهجا میشوند؛ الگویی که نشان میدهد وجود گامهای میانی، بیشتر برای قالبدهی به پاسخ نهایی مؤثر است، نه ارتقای کیفیت استدلال.
توصیه نهایی: به مدلها انسانبودگی ندهید
در پایان، تیم دانشگاه آریزونا تأکید میکند که مدلهای زبانی کنونی بهواقع نمیاندیشند، بلکه صرفاً در بهرهگیری از بازخوردها و سیگنالهای اصلاحی آموزش دیدهاند. آنچه به نظر میرسد یک استدلال مرحلهبهمرحله باشد، در اصل محصول بهینهسازی هدفمند روی حجم عظیمی از دادههاست.
به جای آنکه این خروجیها را نشانهای از ذهن هوش مصنوعی قلمداد کنیم، بهتر است آنها را ابزارهایی در حوزه مهندسی پرامپت بدانیم. هدف، بهبود کارایی مدلهاست، نه القای شبههوشمندی.
از اینرو، شاید منطقیتر باشد که حتی گامهای میانی را نه مدل اصلی، بلکه مدلی دوم تولید کند—مدلی که مأموریتش فقط بهبود دقت پاسخ است، نه معنا دادن به فرایندی که ذاتاً معنایی ندارد.
مجله خبری mydtc