رمزهای عبور هوش مصنوعی؛ ظاهر قوی، امنیت ضعیف

رمزهای عبور هوش مصنوعی؛ ظاهر قوی، امنیت ضعیف
اکنون تحقیقات جدید نشان میدهد که تولید رمزهای عبور توسط مدلهای زبانی بزرگ نیز ریسکهای مشابهی ایجاد میکند. شرکت امنیت سایبری Irregular گزارش داده است که رمزهای عبور تولید شده توسط این مدلها، گرچه از نظر ظاهری قوی به نظر میرسند، اما در واقع «اساساً ناامن» بوده و بهطرز شگفتآوری قابل حدس زدن هستند.
به گزارش دیتاسنتر من و به نقل از Gizmodo، برای ارزیابی توانایی مدلهای محبوب هوش مصنوعی در تولید رمز عبور، محققان Irregular از Claude، چتجیپیتی و جمینای خواستند رمزهای عبور ۱۶ کاراکتری و ایمن شامل اعداد، حروف و کاراکترهای ویژه، و در برخی موارد، عبارات عبور تولید کنند.
خروجیهای این مدلها شبیه به رمزهای عبور خودکار تولید شده توسط مدیران رمز عبور یا ابزارهای داخلی گوگل و اپل بود و حتی توسط بررسیکنندههای آنلاین مانند KeePass به عنوان رمزهای عبور قوی ارزیابی شدند.
اما این رمزها کاملاً قابل شکستن بودند. دلیل اصلی این ضعف، توانایی محدود مدلهای زبانی بزرگ در تولید تصادفیسازی واقعی است. برای نمونه، زمانی که محققان از مدل Claude Opus 4.6 شرکت Anthropic خواستند ۵۰ رمز عبور منحصر به فرد تولید کند، مدل از یک الگوی بسیار قابل پیشبینی پیروی کرد: بیشتر رمزها با حرف بزرگ «G» شروع میشدند و کاراکتر دوم تقریباً همیشه رقم «۷» بود. کاراکترهای «L»، «۹»، «m»، «۲»، «$» و «#» در تمامی ۵۰ رمز عبور تکرار شدند، در حالی که بیشتر حروف الفبا هرگز ظاهر نشدند.
سایر مدلها نیز مشکلات مشابهی داشتند. ChatGPT شرکت OpenAI بیشتر رمزها را با حرف «v» آغاز میکرد و تقریباً نیمی از آنها «Q» را به عنوان کاراکتر دوم داشتند. این مدل نیز از مجموعه محدودی از کاراکترها استفاده میکرد و از الفبای کامل بهره نمیبرد. در مدل Gemini گوگل، اکثر رمزها با «K» بزرگ یا کوچک شروع میشدند و کاراکترهای بعدی معمولاً شامل «#»، «P» یا «۹» بودند.
محققان همچنین متوجه شدند که این مدلها انتخابهایی انجام میدهند که رمزها را تصادفیتر نشان دهد، اما در واقع عدم تصادفی بودن را پنهان میکند. بهعنوان مثال، هیچ یک از رمزهای عبور تولید شده شامل تکرار کاراکترها نبود، امری که به ظاهر تصادفی بودن کمک میکند، اما از نظر احتمالاتی غیرواقعی است.
قدرت یک رمز عبور معمولاً با بیت آنتروپی سنجیده میشود، واحدی که میزان حدسهای لازم برای شکستن رمز عبور را اندازهگیری میکند. برای نمونه، اگر تنها دو گزینه برای رمز وجود داشته باشد، احتمال حدس زدن آن ۵۰٪ است که معادل ۱ بیت آنتروپی است.
با افزایش تنوع گزینهها برای هر کاراکتر، بیت آنتروپی بالا میرود و شکستن رمز با روش جستجوی فراگیر دشوارتر میشود. یک رمز عبور ۲۰ بیت آنتروپی حدود یک میلیون ترکیب ممکن دارد، در حالی که رمز ۱۰۰ بیت آنتروپی شکستن آن، تریلیونها سال طول میکشد.
بر اساس یافتههای Irregular، رمزهای عبور تولید شده توسط مدلهای زبانی بزرگ بسیار ضعیفتر از حد انتظار هستند. اگر یک رمز عبور ایمن استاندارد ۶.۱۳ بیت آنتروپی به ازای هر کاراکتر داشته باشد، رمزهای تولید شده توسط LLMها تنها حدود ۲.۰۸ بیت آنتروپی ارائه میدهند. بهعبارت دیگر، رمز عبور ۱۶ کاراکتری ایمن حدود ۹۸ بیت آنتروپی دارد، در حالی که مدلها تنها قادر به تولید رمزهای عبوری با ۲۷ بیت آنتروپی بودند و به همین دلیل در برابر حملات جستجوی فراگیر بسیار آسیبپذیرند.
راهکار ساده برای کاربران، اجتناب از استفاده مستقیم از مدلهای زبانی برای تولید رمز عبور است. حتی جمینای نیز هشدار میدهد که نباید از رمزهای تولید شده برای حسابهای حساس استفاده شود. اما با گسترش استفاده از هوش مصنوعی برای برنامهنویسی و سایر وظایف، بسیاری از توسعهدهندگان و سرویسها به طور غیرمستقیم به این مدلها تکیه میکنند.
بررسیها نشان داده است که الگوهای رایج تولید شده توسط LLMها در کدها و اسناد فنی واقعی مشاهده میشوند، به این معنی که بسیاری از سیستمها و اپلیکیشنها در معرض هک قرار دارند.
شرکت Irregular تأکید کرده است که این مشکل با یک بهروزرسانی ساده قابل رفع نیست: «افراد و توسعهدهندگان نباید برای تولید رمز عبور به LLMها تکیه کنند. رمزهای عبور تولید شده بهصورت مستقیم از خروجی این مدلها اساساً ضعیف هستند و این ضعف با تنظیمات سادهای مانند تغییر دما یا اعلان قابل اصلاح نیست، زیرا LLMها برای تولید خروجیهای قابل پیشبینی و پذیرش شده بهینه شدهاند، و این با تولید رمز عبور ایمن ناسازگار است.»
مجله خبری mydtc




