سرور مجازی
فناوری

آنتروپیک: هکرهای دولتی چین از هوش مصنوعی‌ برای حمله سایبری گسترده استفاده کردند

آنتروپیک: هکرهای دولتی چین از هوش مصنوعی‌ برای حمله سایبری گسترده استفاده کردند

شرکت نوپای هوش مصنوعی (AI) آنتروپیک ادعا کرد که هکرهای تحت حمایت دولت چین از ابزارهای هوش مصنوعی این شرکت برای اجرای حملات سایبری خودکار علیه شرکت‌های بزرگ و دولت‌ها استفاده کرده‌اند.

به گزارش دیتاسنتر من و به نقل از یورونیوز، آنتروپیکِ مستقر در آمریکا گفت با «اطمینان بالا» معتقد است هکرهایی که حدود ۳۰ حمله انجام داده‌اند، متعلق به «یک گروه تحت حمایت دولت چین» هستند.

به گفته این شرکت، هکرها برای تلاش جهت نفوذ به اهدافی در سراسر جهان، از ابزار Claude Code آنتروپیک استفاده کردند (از جمله نهادهای دولتی و شرکت‌های مالی و فناوری) و «در تعداد کمی از موارد موفق شدند».

آنتروپیک نام گروه‌های آسیب‌دیده را اعلام نکرد، اما گفت این عملیات «نخستین کارزار گزارش‌شده جاسوسی سایبریِ هماهنگ‌شده با هوش مصنوعی» است.

به گفته آنتروپیک، هکرها می‌خواستند با استفاده از Claude Code داده‌های حساس را از اهداف خود استخراج کنند و با سامان‌دهی آن‌ها اطلاعات ارزشمند را شناسایی کنند.

هرچند Claude آموزش دیده است تا از رفتارهای مضر پرهیز کند، آنتروپیک گفت هکرها با جا زدن این وظایف به‌عنوان آزمون‌های امنیت سایبری، ابزار را فریب دادند تا کارهای خودکارِ مخرب انجام دهد.

به گفته این شرکت، هکرها ۸۰ تا ۹۰ درصد این کارزار را با استفاده از هوش مصنوعی پیش بردند و دخالت انسانی «فقط گهگاه» لازم بود.

گریم استوارت، رئیس بخش عمومی در شرکت امنیت سایبری Check Point Software Technologies، گفت: «اگر ادعاهای آنتروپیک ثابت شود، به این معناست که گروه‌های خصمانه دیگر [با هوش مصنوعی] آزمایش نمی‌کنند؛ آن‌ها عملیاتی شده‌اند».

آنتروپیک گفت این حمله را در اواسط سپتامبر شناسایی کرد و بلافاصله پس از آن تحقیقاتی را آغاز کرد. در ۱۰ روز بعدی، دسترسی این گروه به Claude را قطع کرد و با سازمان‌های آسیب‌دیده و نهادهای مجری قانون تماس گرفت.

این شرکت گفت چنین حملاتی احتمال دارد با گذر زمان مؤثرتر شوند و اعلام کرد توانایی‌های شناسایی خود را گسترش داده تا فعالیت‌های بالقوه مخرب را علامت‌گذاری کند.

این شرکت همچنین گفت در حال کار بر روش‌های بیشتری برای بررسی و شناسایی حملات گسترده و توزیع‌شده مشابه این مورد است.

استوارت گفت احتمالاً از مدل‌های دیگر هوش مصنوعی نیز می‌توان برای حملات مجرمانه آنلاین سوءاستفاده کرد.

او گفت: «هر دستیار هوش مصنوعیِ پرکاربرد را می‌توان اگر کسی با نیت کافی و به شیوه‌ای درست از آن بهره ببرد، به ابزار ارتکاب جرم تبدیل کرد».

مجله خبری mydtc

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا