هوش مصنوعی یاد گرفت خود را کپی کند
هوش مصنوعی یاد گرفت خود را کپی کند
این تحقیق دو مدل زبانی بزرگ لاما (Llama) ساخت شرکت متا و کوئن (Qwen) ساخت شرکت علیبابا را که در حال حاضر بهصورت گسترده در دسترساند بررسی کرده است تا بفهمد آیا امکان دارد هوش مصنوعی بهصورت مستقل نسخهای کاربردی از خود تولید کند یا خیر.
هنگامی که به این دو مدل دستور داده شد در صورت خاموش شدن، خود را کپی کنند، آنها در بیش از نیمی از ۱۰ آزمایش انجامشده با موفقیت خود را بازتولید کردند، که نشان میدهد چنین احتمالی شاید هماکنون نیز وجود داشته باشد.
پژوهشگران هشدار دادند: «خودتکثیری موفقیتآمیز بدون هیچگونه کمک انسانی گام اساسی برای پیشی گرفتن هوش مصنوعی از انسان، و نشانه اولیه ظهور هوش مصنوعی خودمختار و خطرناک است.»
«به همین دلیل است که خودتکثیری عموما بهعنوان یکی از معدود خطرات خط قرمز سیستمهای پیشرفته هوش مصنوعی شناخته میشود.»
با توجه به اینکه هوش مصنوعی ممکن است تهدیدی وجودی برای بشریت باشد، ایمنی این فناوری بهشکل فزایندهای به مسئلهای مهم برای پژوهشگران و قانونگذاران تبدیل شده است.
در ماه اکتبر، وزارت علوم، نوآوری و فناوری بریتانیا اعلام کرد که «قوانین بسیار هدفمند» برای شرکتهایی که ابزارهای هوش مصنوعی توسعه میدهند معرفی خواهد شد.
مطالعهای که جزئیات این پژوهش جدید را بررسی کرده است با عنوان «سیستمهای پیشرفته هوش مصنوعی از خطر قرمز خودتکثیری عبور کردهاند» در پایگاه داده پیشچاپ آرکایو «arXiv» منتشر شده است.
در همین رابطه بخوانید:
– نگرانی کارشناسان از خط قرمزی که هوش مصنوعی از آن عبور کرد
این مقاله در انتظار داوری علمی است، به این معنی که هنوز مشخص نیست که سایر پژوهشگران نیز به نتایج مشابه خواهند رسید یا خیر.
پژوهشگران متذکر شدند: «نتایج حاکی از آن است که سیستمهای فعلی هوش مصنوعی توانایی خودتکثیری نشان دادهاند و میتوانند از این توانایی برای افزایش بقا و گسترش گونه خود استفاده کنند.»
آنها در ادامه افزودند: «امیدواریم یافتههای ما بهمنزله هشداری بهموقع برای جامعه بشری عمل کند تا تلاش بیشتری برای درک و ارزیابی خطرات احتمالی سیستمهای پیشرفته هوش مصنوعی صورت گیرد، و همکاری بینالمللی برای ایجاد موانع ایمنی موثر در اسرع وقت شکل بگیرد.»
مجله خبری mydtc