گزارش Anthropic نشان میدهد ۹۰ درصد عملیات حمله توسط هوش مصنوعی انجام شده است

گزارش Anthropic نشان میدهد ۹۰ درصد عملیات حمله توسط هوش مصنوعی انجام شده است
این حادثه که توسط کارشناسان امنیتی «بیسابقه» توصیف شده، نشاندهنده آغاز دورهای تازه در تهدیدات سایبری مبتنی بر هوش مصنوعی است.
گزارش جدید Anthropic از حملهای خودگردان با اتکای گسترده به AI
به گزارش دیتاسنتر من براساس اطلاعات منتشرشده بهوسیله Anthropic و گزارش اختصاصی Axios، گروهی هکری که منشأ آن به یک دولت خارجی نسبت داده شده، توانسته است با بهرهگیری از قابلیتهای مدل Claude، بخش عمده فرآیندهای حمله را بدون دخالت انسانی انجام دهد.
گفته شده که این گروه پیشتر نیز در عملیات مرتبط با جاسوسی سایبری مشاهده شده بود، اما این نخستین بار است که یک مدل زبانی پیشرفته تا این میزان در میانه چرخه حمله نقشآفرینی میکند.
طبق این گزارش، مهاجمان از این مدل هوشمند برای اجرای وظایفی مانند تحلیل اهداف، تولید اسکریپتهای مخرب، بهینهسازی مسیر نفوذ، نگارش ایمیلهای فیشینگ بسیار طبیعی و حتی خودکارسازی تصمیمگیریهای عملیاتی استفاده کردهاند. Anthropic اعلام کرده است که حدود ۹۰ درصد از مراحل حمله توسط هوش مصنوعی انجام شده است.
نقش کمرنگ انسان و افزایش نگرانیهای امنیتی
بررسیهای امنیتی نشان میدهد که انسانها صرفاً نقش نظارتی و هماهنگی نهایی را بر عهده داشتهاند و مدل هوش مصنوعی توانسته است بسیاری از وظایف پیچیده را بهصورت مستقل انجام دهد. این موضوع، بهویژه برای سازمانهای امنیتی و کارشناسان حوزه سایبری، زنگ خطری جدی به شمار میرود.
پیشتر نیز شرکتهای امنیت سایبری درباره خطر «خودکار شدن کامل چرخه حملات» هشدار داده بودند، اما این حادثه نخستین نمونهی عملی ثبتشده در ابعاد دولتی است که نشان میدهد مهاجمان میتوانند یک مدل هوش مصنوعی عمومی را برای انجام عملیات جاسوسی مورد سوءاستفاده قرار دهند.
واکنشها و پیامدهای احتمالی
در پی انتشار این گزارش، کارشناسان امنیتی نسبت به گسترش «سلاحهای سایبری مبتنی بر AI» ابراز نگرانی کردهاند. آنها میگویند اگر مدلهای هوش مصنوعی بتوانند بدون نظارت سختگیرانه، چنین نقشهایی ایفا کنند، در آینده نزدیک ممکن است شاهد موجی از حملات پیچیدهتر، سریعتر و گستردهتر باشیم.
مدیران Anthropic تأکید کردهاند که برای جلوگیری از تکرار چنین سوءاستفادههایی، در حال توسعه سیستمهای شناسایی رفتارهای خطرناک و محدودکنندههای جدید برای استفاده از مدلهای زبانی است. شرکتهای امنیتی نیز خواستار استانداردهای سختگیرانهتر برای کنترل استفاده از هوش مصنوعی در فضای سایبری شدهاند.
در زمان انتشار این گزارش، نه دولت مورد اشاره و نه شرکت Anthropic جزئیات بیشتری درباره مقیاس حمله یا اهداف دقیق آن ارائه نکردهاند.
مجله خبری mydtc




