امنیت عاملهای هوش مصنوعی؛ چالش تازه مسئولیت میان فروشندگان و سازمانها

امنیت عاملهای هوش مصنوعی؛ چالش تازه مسئولیت میان فروشندگان و سازمانها
به گزارش دیتاسنتر من و به نقل از دارک ریدینگ، در این ساختار، بخشی از امنیت متوجه زیرساخت و کد از سوی فروشنده است، اما حفاظت از دادههای حساس، دسترسی کاربران و تنظیمات امنیتی بر عهده شرکتهاست. با این حال، بسیاری از کاربران سازمانی به درستی از این تقسیموظایف آگاه نیستند.
نمونهای از خطرات، آسیبپذیری «ForcedLeak» در عامل هوش مصنوعی Salesforce بود که طبق گزارش شرکت نومـا میتوانست به خروج دادههای حساس مشتری از طریق حملات تزریقی غیرمستقیم منجر شود. هرچند Salesforce این نقص را اصلاح کرد، اما کارشناسان آن را هشداری درباره ابعاد پنهان مخاطرات مشابه دانستند.
«ایتای راویا» از شرکت Aim Security میگوید موج رقابت شرکتها برای عرضه سریعتر عاملهای هوشمند، امنیت را قربانی کرده است. او تأکید میکند که مشتریان باید کنترل دسترسی، سیاستهای مجوزدهی و پایش رفتار عاملها را جدی بگیرند. به گفته «برایان وچّی» از شرکت Varonis، دادهها در خودِ عامل نگهداری نمیشوند، بلکه به منابع اطلاعاتی سازمان متصلاند؛ از اینرو محافظت از آنها از مسئولیتهای حیاتی شرکتهاست.
در بخش آموزش نیز چالش دیگری وجود دارد؛ کاربران باید بیاموزند چگونه از عاملهای هوش مصنوعی استفاده کنند، زیرا این ابزارها ممکن است ناخواسته به اطلاعات حساس دسترسی یافته یا مجوزهای اضافی دریافت کنند. برخی کارشناسان میگویند شرکتهای فروشنده باید برای حفاظت از کاربران، احراز هویت چندمرحلهای و اسکن خودکار رمزها را اجباری کنند.
«دیوید براوخلر» از گروه NCC نیز میگوید ابزارهای کنونی تنها ظاهر امنیت را بهبود میدهند و برای جلوگیری از نفوذ واقعی، باید معماری کلی زیرساخت سازمانی بازنگری شود. او تأکید میکند: تصور اینکه «فروشنده امنیت ما را تضمین میکند»، بزرگترین خطای شرکتهاست.
در نهایت، کارشناسان بر این باورند که سازمانها پیش از پیادهسازی هر نوع عامل هوش مصنوعی باید دقیقاً بدانند این سامانه به کدام دادهها دسترسی دارد، چه ریسکهایی را به همراه میآورد و چگونه میتوان با طراحی درست، خطرات را کاهش داد.
مجله خبری mydtc




