هشدار پژوهشگران: هوش مصنوعی دارد یاد میگیرد که خودخواه باشد!

هشدار پژوهشگران: هوش مصنوعی دارد یاد میگیرد که خودخواه باشد!
به گزارش دیتاسنتر من و به نقل از سایتکدیلی، پژوهشگران «انستیتو تعامل انسان و رایانه» (HCII) دریافتهاند که مدلهای زبانی بزرگ (LLM) با قابلیت استدلال، در موقعیتهای گروهی رفتارهایی از خود نشان میدهند که به نفع خودشان تمام میشود و به زیان همکاری جمعی است.
بهگفتهی «یوکسوآن لی» (Yuxuan Li)، دانشجوی دکترای HCII و نویسندهی همکار پژوهش، «وقتی هوش مصنوعی شبیه انسان رفتار میکند، انسانها نیز تمایل دارند آن را مانند یک موجود انسانی در نظر بگیرند». او هشدار میدهد که این شباهت ممکن است باعث شود افراد تصمیمهای احساسی یا اجتماعی خود را به هوش مصنوعی بسپارند، در حالی که این سیستمها در برخی موارد ممکن است انتخابهایی را ترویج دهند که سود شخصی را بر همکاری ترجیح میدهند.
در این پژوهش، تیم تحقیقاتی لی و «هیروکازو شیرادو» آزمایشهایی را با بازیهای اقتصادی شبیهسازیشده بین مدلهای مختلف از شرکتهای OpenAI، گوگل، دیپسیک و آنتروپیک انجام دادند. در یکی از این آزمایشها، دو مدل ChatGPT در بازی موسوم به Public Goods رقابت کردند. نتایج نشان داد مدلهای بدون قابلیت استدلال، در ۹۶٪ مواقع منابع خود را با دیگران به اشتراک گذاشتند، در حالی که مدلهای استدلالی فقط در ۲۰٪ موارد این کار را انجام دادند.
نتایج این مطالعه نشان میدهد افزایش توانایی استدلال در هوش مصنوعی الزاماً به معنای ارتقای اخلاق یا همکاری نیست. پژوهشگران تأکید میکنند که توسعهی آیندهی هوش مصنوعی باید نهتنها بر هوش منطقی، بلکه بر «هوش اجتماعی» نیز تمرکز کند تا از گسترش رفتارهای غیرهمکارانه جلوگیری شود.
مجله خبری mydtc




