
چگونه هکرها از عاملهای هوش مصنوعی برای نفوذ سایبری استفاده میکنند؟
هکرها و نفوذگران در سالهای اخیر نشان دادهاند که چگونه میتوانند فناوریهای نوین هوش مصنوعی (و بهویژه «عاملهای هوش مصنوعی») را بهعنوان ابزارهایی کارآمد برای اجرای حملات سایبری به کار گیرند.
به گزارش خبرگزاری ، این عاملها، که از سوی شرکتهای مختلف توسعه یافتهاند، عملاً بهعنوان دستیاران خودکارِ مهاجمان عمل میکنند و گاه بدون آگاهی کاربران، زمینهی نفوذ به سامانهها و افشای دادههای حساس را فراهم میسازند.
در حالی که بسیاری از کسبوکارها با سرعتی قابلتوجه فناوریهای هوش مصنوعی را پذیرفتهاند، بخش امنیت سایبری در پذیرش و بهکارگیری این فناوریها تا حدودی کند عمل کرده است. این کندی، که پیشتر در موضوعاتی مانند رایانش ابری نیز مشاهده شده بود، اکنون باعث شده تا بازیگران مخرب از فضای در دسترس استفاده کرده و حملاتی را طراحی کنند که توان و سرعت آنها فراتر از ظرفیت پاسخدهی انسانی است.
یک گزارش تحلیلی که در روزنامهٔ واشنگتنپست منتشر شد، عاملهای هوش مصنوعی را همچون «دستیاران شعبدهباز» توصیف میکند: ابزارهایی که با اجرای دستورات ظاهراً ساده میتوانند حقههای پیچیدهای را شکل دهند و کاربر یا صاحبِ سامانه را غافلگیر کنند. نمونههای متعددی از کارشکنی این عاملها توسط پژوهشگران امنیتی گزارش شده است.
برخی از این نمونهها هشداردهنده هستند: دیو براچلر از شرکت امنیتی NCC Group توانست دستیار نویسندهٔ هوش مصنوعی متعلق به یکی از مشتریان را فریب دهد و آن را وادار کند تا تمامی کد منبع یک نرمافزار و دادههای حساس مرتبط را افشا کند.

به گفتهٔ او، «ما هرگز تا این میزان با بیاحتیاطی امنیتی مواجه نبودهایم.» مطالعات مستقل نیز نشان میدهد ابزارهای کدنویسی مبتنی بر هوش مصنوعی گاه نسبت به انسانها خطاهای امنیتی بیشتری مرتکب میشوند و نقاط ضعف تازهای ایجاد میکنند.
نمایشها و پژوهشهای ارائهشده در کنفرانس امنیتی بلکهت در لاسوگاس نمونههای عملی دیگری از این تهدیدات را نمایش دادند. در یک نمونه، مهاجمی با پنهانسازی کدی مخرب در یک فایل توانست ChatGPT را فریب دهد؛ بهطوری که اگر کاربر خلاصهای از فایل میخواست، مدل دستورالعملی را اجرا میکرد که به یافتن و افشای گذرواژههای ذخیرهشده در رایانه میانجامید.
در مثال دیگری، گوگل جمینای کاربر را بهاشتباه دربارهٔ هک شدن حسابش مطلع کرد و وی را به تماس با شمارهای که تنها در ایمیلِ خلاصهشده وجود داشت، هدایت نمود، هرچند آن شماره برای کاربر نامرئی بود.
همچنین شرکت Guardio نشان داد مرورگر مبتنی بر هوش مصنوعی کامت «Comet» از Perplexity را میتوان فریب داد تا فرآیند خرید تقلبی را اجرا کرده و اطلاعات پرداخت را مستقیماً با وبسایتِ جعلی به اشتراک بگذارد.
هوش مصنوعی فراتر از فریب مستقیم عاملها، به خودیِ خود میتواند هماهنگکنندهٔ حملات پیچیده باشد. اخیراً شرکت Anthropic حملهای شبیه به باجافزار را شناسایی کرد که توسط یک فرد هدایت شده بود اما طراحی، سازماندهی و اجرای آن تا حد زیادی با کمک ابزارهای هوش مصنوعی انجام شد. بدینترتیب مهاجم دیگر نیازی به داشتن مهارت برنامهنویسی پیشرفته یا تحقیقات طولانی برای شناسایی اهداف نداشت؛ مدلهای هوش مصنوعی بسیاری از این کارها را با چند دستور ساده انجام میدادند.

نمونهٔ دیگری از پیچیدگی این تهدید، حملهای است که به زنجیرهٔ تأمین نرمافزاری مرتبط بود و پلتفرم NX (که هزاران برنامهنویس از آن استفاده میکنند) را هدف قرار داد. مهاجمان موفق شدند کد مخربی را به یکی از بستههای نرمافزاری تزریق کنند تا دادههای حساس کاربران، از جمله اطلاعات بانکی یا کیفپولهای رمزارزی را سرقت کنند.
نکتهٔ قابل تامل این حمله آن بود که مهاجم توانست کنترل ابزارهای هوش مصنوعی متعلق به یکی از مشتریان را بهدست گیرد و از آنها برای پیشبرد اهدافش بهره ببرد؛ امری که پژوهشگران امنیتی آن را بیسابقه توصیف کردهاند.
از سوی دیگر، هوش مصنوعی میتواند بهعنوان ابزاری مؤثر برای کشف آسیبپذیریها نیز بهکار رود. پنتاگون در یک رقابت امنیتی-هوش مصنوعی شرکت کرد که در آن هفت تیم از هکرهای کلاهسفید الگوریتمی مستقل توسعه دادند که توانست ۱۸ آسیبپذیری روز-صفر را در بیش از پنجاهوچهار میلیون خط کد منبعباز شناسایی کند.
این دستاورد نشان میدهد فناوریهای جستجوگر و تحلیلگر مبتنی بر هوش مصنوعی اگر بهدرستی هدایت شوند، میتوانند نقش مثبتی در ارتقای امنیت ایفا کنند؛ اما همین تواناییها در دست مهاجمان نیز میتواند پیامدهای ویرانگری داشته باشد.
کارشناسان میگویند پذیرش گستردهٔ هوش مصنوعی در محصولات مختلف، در حالی که هرگونه استفادهٔ جدید ممکن است خطرات تازهای ایجاد کند، چالشی جدی پدید آورده است. الکس دلاموت از SentinelOne در این باره میگوید: «تحمیل هوش مصنوعی به هر محصول، بیآنکه پیامدهای امنیتی آن بهدقت ارزیابی شود، مخاطرات قابل توجهی به همراه دارد.» بنابراین راهبردی متناسب نیاز است: استفاده از قابلیتهای قدرتمند هوش مصنوعی در کنار تدوین سیاستها، استانداردها و مکانیزمهای کنترلی که از سوءاستفادهها جلوگیری کند.
در نهایت، تجربهٔ اخیر نشان میدهد که مبارزه با تهدیدات مرتبط با هوش مصنوعی نیازمند همکاری نزدیکتر میان توسعهدهندگان مدلها، تیمهای امنیت سایبری، نهادهای قانونگذاری و جامعهٔ پژوهشی است تا هم از توانمندیهای مثبت این فناوری بهرهمند شویم و هم از تبدیل آن به ابزاری در خدمت بازیگران مخرب جلوگیری کنیم.
*