سرور مجازی
فناوری

پیشرفت در مدل‌های «استدلال» هوش مصنوعی ممکن است به زودی کند شود

پیشرفت در مدل‌های «استدلال» هوش مصنوعی ممکن است به زودی کند شود

بر اساس تحلیلی منتشرشده از سوی مؤسسه غیرانتفاعی Epoch AI، صنعت هوش مصنوعی ممکن است قادر نباشد برای مدت طولانی از مدل‌های پیشرفته استدلالی، دستاوردهای عملکردی چشم‌گیری به‌دست آورد. طبق یافته‌های این گزارش، در صورتی که طی یک سال آینده این روند متوقف شود، احتمال می‌رود که سرعت پیشرفت در حوزه مدل‌های استدلالی به‌طور قابل توجهی کاهش یابد.

به گزارش دیتاسنتر من و به نقل از تک‌کرانچ، در ماه‌های اخیر، مدل‌هایی مانند O3 توسعه‌یافته توسط شرکت OpenAI، نقش مهمی در ارتقای قابل توجه معیارهای سنجش توانمندی‌های هوش مصنوعی، به‌ویژه در زمینه‌هایی چون مهارت‌های ریاضی و برنامه‌نویسی ایفا کرده‌اند. این مدل‌ها قادرند عملیات پیچیده‌تری را برای حل مسائل به کار گیرند و در نتیجه، عملکرد بهتری ارائه دهند؛ هرچند اجرای آن‌ها نسبت به مدل‌های متعارف، زمان‌برتر است.

فرایند توسعه این مدل‌های استدلالی معمولاً با آموزش یک مدل پایه بر روی حجم وسیعی از داده‌ها آغاز می‌شود و در ادامه، با بهره‌گیری از تکنیکی موسوم به یادگیری تقویتی، به مدل امکان داده می‌شود تا با دریافت بازخورد مؤثر، در حل مسائل دشوار بهینه‌تر عمل کند.

گزارش Epoch نشان می‌دهد که تاکنون آزمایشگاه‌های پیشرفته هوش مصنوعی، از جمله OpenAI، در مرحله یادگیری تقویتی از ظرفیت محاسباتی حداکثری خود استفاده نکرده‌اند. با این حال، این روند در حال دگرگونی است. به گفته OpenAI، برای آموزش مدل O3 حدود ده برابر محاسبات بیشتری نسبت به مدل پیشین یعنی O1 صرف شده است. همچنین طبق برآورد Epoch، بخش قابل‌توجهی از این توان پردازشی به فرآیند یادگیری تقویتی اختصاص داشته است. دن رابرتز، پژوهشگر OpenAI، نیز اخیراً اعلام کرده است که در برنامه‌های آتی، اولویت اصلی این شرکت بهره‌گیری از توان پردازشی بسیار بیشتر در بخش یادگیری تقویتی خواهد بود؛ حتی بیشتر از آنچه برای آموزش اولیه مدل در نظر گرفته می‌شود.

 

پیشرفت در مدل‌های «استدلال» هوش مصنوعی ممکن است به زودی کند شود

با این وجود، گزارش Epoch هشدار می‌دهد که در یادگیری تقویتی نیز سقفی برای افزایش ظرفیت محاسباتی وجود دارد.
جاش یو، تحلیلگر Epoch و نویسنده این گزارش، توضیح می‌دهد که عملکرد مدل‌های پایه هوش مصنوعی به‌طور میانگین هر سال چهار برابر بهبود می‌یابد، در حالی که این عدد برای یادگیری تقویتی، هر سه تا پنج ماه، ده برابر افزایش می‌یابد. او معتقد است که روند پیشرفت در مدل‌های استدلالی، احتمالاً تا سال ۲۰۲۶ به نقطه اشباع خواهد رسید و با محدودیت‌های کلی این حوزه همگرا می‌شود.

این تحلیل با در نظر گرفتن فرضیات گوناگون و بهره‌گیری نسبی از دیدگاه‌های مدیران ارشد شرکت‌های فعال در حوزه هوش مصنوعی تدوین شده است. با این حال، نویسنده گزارش تأکید می‌کند که چالش‌هایی فراتر از محدودیت‌های محاسباتی، از جمله هزینه‌های بالای تحقیق و توسعه، ممکن است مانع از مقیاس‌پذیری مدل‌های استدلالی شود.

یو در ادامه می‌نویسد: «چنانچه انجام تحقیقات مستمر مستلزم صرف هزینه‌های اضافی و قابل توجه باشد، ممکن است مدل‌های استدلالی به سطح مقیاس‌پذیری مورد انتظار نرسند. در این میان، رشد سریع ظرفیت‌های محاسباتی می‌تواند نقشی حیاتی در پیشرفت این مدل‌ها ایفا کند، از این رو، پیگیری دقیق این موضوع اهمیت بالایی دارد.»

هرگونه نشانه‌ای از رسیدن مدل‌های استدلالی به یک محدودیت عملکردی بالقوه، می‌تواند زنگ خطری برای صنعت هوش مصنوعی باشد؛ صنعتی که منابع مالی و فنی گسترده‌ای را صرف توسعه این نسل از مدل‌ها کرده است. مطالعات نیز نشان داده‌اند که این مدل‌ها با وجود توانایی‌های بالا، دارای کاستی‌هایی جدی هستند؛ از جمله گرایش بیشتر به ایجاد «توهم»، در مقایسه با برخی مدل‌های سنتی.

مجله خبری mydtc

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا