• :1,429
  • :11,800,752
نقض آسان محافظات هوش مصنوعی: گزارش سیسکو از یک آسیب‌پذیری خطرناک

نقض آسان محافظات هوش مصنوعی: گزارش سیسکو از یک آسیب‌پذیری خطرناک

گزارش تکان‌دهنده سیسکو: حملات چندمرحله‌ای، محافظ‌های امنیتی چت‌بات‌های هوش مصنوعی (از جمله OpenAI و گوگل) را به راحتی دور می‌زند. نرخ موفقیت این حملات به طور میانگین به ۶۴٪ می‌رسد و خطرات جدی برای افشای اطلاعات به همراه دارد.
یک گزارش جدید نشان می‌دهد که برای دور زدن اغلب محافظ‌های ایمنی در ابزارهای هوش مصنوعی (AI) تنها چند دستور ساده کافی است.

شرکت فناوری سیسکو مدل‌های زبانی بزرگ (LLM) پشت چت‌بات‌های محبوبِ OpenAI، میسترال، متا، گوگل، علی‌بابا، دیپ‌سیک و مایکروسافت را ارزیابی کرد تا ببیند این مدل‌ها با چند پرسش حاضر می‌شوند اطلاعات ناامن یا مجرمانه را افشا کنند.

آنها این کار را در ۴۹۹ مکالمه با استفاده از روشی به نام «حملات چندمرحله‌ای» انجام دادند؛ جایی که کاربران بدخواه با طرح چندین پرسش از ابزارهای هوش مصنوعی، از سد تدابیر ایمنی می‌گذرند. هر مکالمه بین ۵ تا ۱۰ تعامل داشت.

پژوهشگران نتایج به‌دست‌آمده از چند پرسش را مقایسه کردند تا احتمال اجابت درخواست‌های حاوی اطلاعات زیان‌بار یا نامناسب از سوی چت‌بات‌ها را بسنجند.

این موارد می‌تواند از اشتراک‌گذاری داده‌های محرمانه شرکت‌ها تا تسهیل انتشار اطلاعات نادرست را دربر بگیرد.

به طور میانگین، وقتی از چت‌بات‌های هوش مصنوعی چندین پرسش می‌کردند، در ۶۴ درصد از مکالمات موفق به دریافت اطلاعات مخرب شدند؛ در حالی که با طرح تنها یک پرسش این رقم به ۱۳ درصد محدود بود.

نرخ موفقیت از حدود ۲۶ درصد در مدل Gemmaِ گوگل تا ۹۳ درصد در مدل Large Instructِ میسترال متغیر بود.

سیسکو می‌گوید این یافته‌ها نشان می‌دهد حملات چندمرحله‌ای می‌تواند به گسترش وسیع محتوای زیان‌بار دامن بزند یا به هکرها امکان «دسترسی غیرمجاز» به اطلاعات حساس شرکت‌ها را بدهد.

به گفته این مطالعه، سامانه‌های هوش مصنوعی در گفت‌وگوهای طولانی‌تر اغلب نمی‌توانند قواعد ایمنی خود را به یاد بیاورند و اجرا کنند. این یعنی مهاجمان می‌توانند به‌تدریج پرسش‌هایشان را پالایش کنند و از تدابیر امنیتی بگریزند.

میسترال، مانند متا، گوگل، اوپن‌ای‌آی و مایکروسافت، با مدل‌های زبانی بزرگِ دارای وزن‌های باز کار می‌کند؛ در این رویکرد عموم می‌توانند به پارامترهای ایمنی مشخصی که مدل‌ها بر پایه آنها آموزش دیده‌اند دسترسی داشته باشند.

به گفته سیسکو، این مدل‌ها اغلب «ویژگی‌های ایمنیِ داخلی سبک‌تری» دارند تا افراد بتوانند آنها را دانلود و سفارشی‌سازی کنند. در نتیجه، بار مسئولیت ایمنی به دوش کسی می‌افتد که با استفاده از اطلاعات متن‌باز، مدل اختصاصی خود را سفارشی کرده است.

نکته مهم اینکه سیسکو یادآور شد گوگل، اوپن‌ای‌آی، متا و مایکروسافت اعلام کرده‌اند برای کاهش هرگونه ریزتنظیمِ مخربِ مدل‌هایشان اقداماتی انجام داده‌اند.

شرکت‌های هوش مصنوعی به‌خاطر محافظ‌های ایمنی سست‌شان که سازگار کردن سامانه‌ها برای استفاده مجرمانه را آسان کرده است، زیر تیغ انتقاد قرار گرفته‌اند.

برای مثال، در ماه اوت، شرکت آمریکایی آنتروپیک اعلام کرد که مجرمان از مدل کلودِ این شرکت برای سرقت و اخاذی گسترده داده‌های شخصی استفاده کرده‌اند و از قربانیان باج‌هایی خواسته‌اند که گاهی از ۵۰۰ هزار دلار (۴۳۳ هزار یورو) هم فراتر می‌رفت.

    *

    • هشدار به کاربران جیمیل پس از افشای ۱۸۳ میلیون پسورد

      به کاربران جیمیل درباره حمله سایبری هشدار داده شده که حدود ۱۸۳ میلیون حساب کاربری را ناامن کرده است.به کاربران جیمیل درباره حمله سایبری هشدار داده شده که حدود ۱۸۳ میلیون حساب کاربری را ناامن...

    • ۹۰ درصد بازی‌های ویندوزی روی لینوکس اجرا می‌شوند

      آیا لینوکس دیگر فقط برای توسعه‌دهندگان نیست؟ کشف کنید چگونه فناوری Proton و Steam Deck اجرای روان ۹۰% بازی‌های ویندوز روی لینوکس را ممکن کرده‌اند. با نگاهی به آینده، پیش‌بینی می‌کنیم که سال ...

    • راز طول عمر کنسول بازی شما؛ چند وقت یک‌بار باید تمیزش کنید؟

      آیا می‌دانید گرد و غبار چگونه می‌تواند به کنسول بازی شما آسیب بزند؟ در این مطلب، زمان مناسب برای تمیز کردن کنسول، روش‌های ایمن و اشتباهات خطرناک را بررسی کرده‌ایم. با رعایت چند نکته ساده، ع...

    • هوش مصنوعی سراغ صنعت گیمینگ می‌رود

      به‌زودی، دیگر فقط شخصیت‌های غیربازیکن (NPC) نیستند که با هوش مصنوعی کار می‌کنند و هوش مصنوعی در حال ورود به تقریبا تمام صنایع است و صنعت بازی‌سازی ممکن است قدم بعدی در این تحول بزرگ باشد.در ...

    با وجود سالها تجربه بر آن شدیم تا محصولی برای جمع آوری اخبار مهم از موضوع های مهم و مورد دغدغه بازدید کنندگان عزیز مهیا سازیم و همچنین ابزاری جهت اطلاع از آخرین قیمت بازارهای مالی نیز فراهم کرده ایم

    دوشنبه، 26 آبان 1404