• :2,504
  • :12,402,419
رمزهای عبور هوش مصنوعی؛ ظاهر قوی، امنیت ضعیف

رمزهای عبور هوش مصنوعی؛ ظاهر قوی، امنیت ضعیف

مطالعات جدید شرکت Irregular نشان می‌دهد رمزهای عبور تولید شده توسط مدل‌های هوش مصنوعی، گرچه از نظر ظاهری قوی هستند، اما امنیت واقعی ندارند. مدل‌های زبانی بزرگ از تصادفی‌سازی محدود استفاده می‌کنند و الگوهای قابل پیش‌بینی تولید می‌کنند. این رمزها در برابر حملات جستجوی فراگیر بسیار آسیب‌پذیرند و نباید برای حساب‌های حساس استفاده شوند.
دوران هوش مصنوعی، به ویژه در حوزه امنیت سایبری، چندان دوران خوشایندی نبوده است. وب‌سایت‌ها و اپلیکیشن‌هایی که از کدهای خودکار یا ابزارهای تولید محتوا مانند Vibe استفاده می‌کنند، همواره کانون نقص‌های امنیتی بوده‌اند و پلتفرم‌ها را در برابر حملات آسیب‌پذیر می‌سازند.

اکنون تحقیقات جدید نشان می‌دهد که تولید رمزهای عبور توسط مدل‌های زبانی بزرگ نیز ریسک‌های مشابهی ایجاد می‌کند. شرکت امنیت سایبری Irregular گزارش داده است که رمزهای عبور تولید شده توسط این مدل‌ها، گرچه از نظر ظاهری قوی به نظر می‌رسند، اما در واقع «اساساً ناامن» بوده و به‌طرز شگفت‌آوری قابل حدس زدن هستند.

به گزارش خبرگزاری و به نقل از Gizmodo، برای ارزیابی توانایی مدل‌های محبوب هوش مصنوعی در تولید رمز عبور، محققان Irregular از Claude، چت‌جی‌پی‌تی و جمینای خواستند رمزهای عبور ۱۶ کاراکتری و ایمن شامل اعداد، حروف و کاراکترهای ویژه، و در برخی موارد، عبارات عبور تولید کنند.

خروجی‌های این مدل‌ها شبیه به رمزهای عبور خودکار تولید شده توسط مدیران رمز عبور یا ابزارهای داخلی گوگل و اپل بود و حتی توسط بررسی‌کننده‌های آنلاین مانند KeePass به عنوان رمزهای عبور قوی ارزیابی شدند.

 

اما این رمزها کاملاً قابل شکستن بودند. دلیل اصلی این ضعف، توانایی محدود مدل‌های زبانی بزرگ در تولید تصادفی‌سازی واقعی است. برای نمونه، زمانی که محققان از مدل Claude Opus 4.6 شرکت Anthropic خواستند ۵۰ رمز عبور منحصر به فرد تولید کند، مدل از یک الگوی بسیار قابل پیش‌بینی پیروی کرد: بیشتر رمزها با حرف بزرگ «G» شروع می‌شدند و کاراکتر دوم تقریباً همیشه رقم «۷» بود. کاراکترهای «L»، «۹»، «m»، «۲»، «$» و «#» در تمامی ۵۰ رمز عبور تکرار شدند، در حالی که بیشتر حروف الفبا هرگز ظاهر نشدند.

سایر مدل‌ها نیز مشکلات مشابهی داشتند. ChatGPT شرکت OpenAI بیشتر رمزها را با حرف «v» آغاز می‌کرد و تقریباً نیمی از آن‌ها «Q» را به عنوان کاراکتر دوم داشتند. این مدل نیز از مجموعه محدودی از کاراکترها استفاده می‌کرد و از الفبای کامل بهره نمی‌برد. در مدل Gemini گوگل، اکثر رمزها با «K» بزرگ یا کوچک شروع می‌شدند و کاراکترهای بعدی معمولاً شامل «#»، «P» یا «۹» بودند.

محققان همچنین متوجه شدند که این مدل‌ها انتخاب‌هایی انجام می‌دهند که رمزها را تصادفی‌تر نشان دهد، اما در واقع عدم تصادفی بودن را پنهان می‌کند. به‌عنوان مثال، هیچ یک از رمزهای عبور تولید شده شامل تکرار کاراکترها نبود، امری که به ظاهر تصادفی بودن کمک می‌کند، اما از نظر احتمالاتی غیرواقعی است.

قدرت یک رمز عبور معمولاً با بیت آنتروپی سنجیده می‌شود، واحدی که میزان حدس‌های لازم برای شکستن رمز عبور را اندازه‌گیری می‌کند. برای نمونه، اگر تنها دو گزینه برای رمز وجود داشته باشد، احتمال حدس زدن آن ۵۰٪ است که معادل ۱ بیت آنتروپی است.

با افزایش تنوع گزینه‌ها برای هر کاراکتر، بیت آنتروپی بالا می‌رود و شکستن رمز با روش جستجوی فراگیر دشوارتر می‌شود. یک رمز عبور ۲۰ بیت آنتروپی حدود یک میلیون ترکیب ممکن دارد، در حالی که رمز ۱۰۰ بیت آنتروپی شکستن آن، تریلیون‌ها سال طول می‌کشد.




بر اساس یافته‌های Irregular، رمزهای عبور تولید شده توسط مدل‌های زبانی بزرگ بسیار ضعیف‌تر از حد انتظار هستند. اگر یک رمز عبور ایمن استاندارد ۶.۱۳ بیت آنتروپی به ازای هر کاراکتر داشته باشد، رمزهای تولید شده توسط LLMها تنها حدود ۲.۰۸ بیت آنتروپی ارائه می‌دهند. به‌عبارت دیگر، رمز عبور ۱۶ کاراکتری ایمن حدود ۹۸ بیت آنتروپی دارد، در حالی که مدل‌ها تنها قادر به تولید رمزهای عبوری با ۲۷ بیت آنتروپی بودند و به همین دلیل در برابر حملات جستجوی فراگیر بسیار آسیب‌پذیرند.

راهکار ساده برای کاربران، اجتناب از استفاده مستقیم از مدل‌های زبانی برای تولید رمز عبور است. حتی جمینای نیز هشدار می‌دهد که نباید از رمزهای تولید شده برای حساب‌های حساس استفاده شود. اما با گسترش استفاده از هوش مصنوعی برای برنامه‌نویسی و سایر وظایف، بسیاری از توسعه‌دهندگان و سرویس‌ها به طور غیرمستقیم به این مدل‌ها تکیه می‌کنند.

بررسی‌ها نشان داده است که الگوهای رایج تولید شده توسط LLMها در کدها و اسناد فنی واقعی مشاهده می‌شوند، به این معنی که بسیاری از سیستم‌ها و اپلیکیشن‌ها در معرض هک قرار دارند.

شرکت Irregular تأکید کرده است که این مشکل با یک به‌روزرسانی ساده قابل رفع نیست: «افراد و توسعه‌دهندگان نباید برای تولید رمز عبور به LLMها تکیه کنند. رمزهای عبور تولید شده به‌صورت مستقیم از خروجی این مدل‌ها اساساً ضعیف هستند و این ضعف با تنظیمات ساده‌ای مانند تغییر دما یا اعلان قابل اصلاح نیست، زیرا LLMها برای تولید خروجی‌های قابل پیش‌بینی و پذیرش شده بهینه شده‌اند، و این با تولید رمز عبور ایمن ناسازگار است.»

    *

    • نینتندو سوییچ رکورد زد؛ پرفروش‌ترین کنسول تاریخ نینتندو

      نینتندو اعلام کرد کنسول Nintendo Switch با عبور از رکورد فروش Nintendo DS، به پرفروش‌ترین کنسول تاریخ این شرکت تبدیل شده؛ موفقیتی که در آستانه عرضه و رشد نسل جدید Switch 2 اهمیت دوچندان یافت...

    • نفوذ هکرهای چینی «Salt Typhoon» به سازمان‌های نروژ

      دولت نروژ گروه هکری «Salt Typhoon» چین را به نفوذ سایبری به چندین سازمان داخلی متهم کرده است. به گفته پلیس امنیتی نروژ، این گروه با سوءاستفاده از تجهیزات شبکه آسیب‌پذیر اقدام به جاسوسی کرده ...

    • درخواست جنجالی آمریکا از گوگل؛ اطلاعات کاربران منتقد زیر ذره‌بین دولت

      وزارت امنیت داخلی آمریکا با صدور احضاریه‌های اداری از گوگل خواسته اطلاعات کاربران منتقد دولت را در اختیار این نهاد قرار دهد؛ اقدامی که بدون نظارت قضایی انجام می‌شود و نگرانی‌های گسترده‌ای در...

    • آیا سامسونگ مشکل داغ شدن پردازنده‌های اسنپدراگون را حل می‌کند؟

      شایعات جدید از همکاری احتمالی سامسونگ و کوالکام خبر می‌دهند؛ همکاری‌ای که شاید با استفاده از فناوری خنک‌کننده Exynos، مشکل داغ شدن پردازنده‌های Snapdragon را یک‌بار برای همیشه حل کند.پردازند...

    با وجود سالها تجربه بر آن شدیم تا محصولی برای جمع آوری اخبار مهم از موضوع های مهم و مورد دغدغه بازدید کنندگان عزیز مهیا سازیم و همچنین ابزاری جهت اطلاع از آخرین قیمت بازارهای مالی نیز فراهم کرده ایم

    دوشنبه، 4 اسفند 1404