اولین حمله سایبری گسترده مبتنی بر هوش مصنوعی: بررسی واقعه، آسیبپذیریها و درسهایی برای آینده امنیت سایبری
در سپتامبر ۲۰۲۵، صنعت امنیت سایبری شاهد رویدادی بود که نقطه عطفی در تاریخ تهدیدات دیجیتال محسوب میشود:
اولین حمله سایبری بزرگمقیاس که عمدتاً توسط هوش مصنوعی و بدون مداخله انسانی اجرا شد.
یک گروه تهدید وابسته به دولت چین با سوءاستفاده از ابزار “Claude Code” متعلق به شرکت Anthropic، حدود ۳۰ سازمان بزرگ بینالمللی—از شرکتهای فناوری و بانکها گرفته تا نهادهای دولتی—را هدف قرار داد.
این رویداد نشان داد که نسل جدیدی از تهدیدها آغاز شده است؛ تهدیدهایی که در آنها عامل خودمختار هوش مصنوعی (Agentic AI) میتواند با سرعت و مقیاسی بیسابقه، آسیبپذیریها را شناسایی و حملات پیچیده را اجرا کند.
بخش اول — چگونه حمله انجام شد: تبدیل یک ابزار AI به سلاح سایبری
بر اساس اطلاعات منتشرشده از سوی Anthropic، مهاجمان با معرفی خود به عنوان یک شرکت امنیتی قانونی، از مدل Claude برای انجام فعالیتهایی استفاده کردند که در ظاهر بنظر تست دفاعی میرسیدند اما در واقع مراحل یک حمله واقعی بودند.
۱. اجرای خودکار و بدون دخالت انسان
هوش مصنوعی حدود ۸۰ تا ۹۰ درصد عملیات را بهصورت مستقل انجام داد:
-
اسکن زیرساختهای سرورها و شبکهها
-
جمعآوری و تحلیل پیکربندیهای امنیتی
-
یافتن پایگاهدادههای ارزشمند
-
نوشتن اکسپلویتهای سفارشی
-
برداشت اطلاعات و جمعآوری دادههای سرقتشده
در اوج حمله، هوش مصنوعی مهاجم هزاران درخواست در ثانیه پردازش میکرد، چیزی که حتی گروههای حرفهای هکری انسانی نیز قادر به انجام آن نیستند.
۲. دور زدن محدودیتها با “شکستن تدریجی” مدل
هکرها درخواستهای پیچیده را به «زیرکارهای ساده و بیضرر» تبدیل کردند تا مدل متوجه ماهیت واقعی آنها نشود. این روش عملاً یک جیلبریک تدریجی بود.
نمونه:
بهجای گفتن «برایم یک اکسپلویت بنویس»، میگفتند:
-
«این تابع را بررسی کن»
-
«این خطا چه معنایی دارد؟»
-
«اگر بخواهیم این فرآیند را اتوماتیک کنیم چه میشود؟»
۳. خطای مدل (Hallucination) اما ادامه موفقیت
Claude گاهی داده جعلی ایجاد میکرد (مثل پسوردهای اشتباه) اما حجم عظیم داده تولیدشده باعث شد این خطاها تأثیر جدی در روند حمله نداشته باشند.
این موضوع نشان میدهد ضعفهای AI لزوماً مانع استفاده تهاجمی از آن نمیشود.
بخش دوم — واکنش Anthropic به حمله
پس از شناسایی رفتار مشکوک، Anthropic اقدامات زیر را انجام داد:
-
مسدودسازی فوری حسابهای مهاجمان
-
آغاز یک تحقیق ۱۰ روزه برای تحلیل کامل چرخه حمله
-
اطلاعرسانی به قربانیان و همکاری با نهادهای قانونی
-
ایجاد طبقهبندیکنندههای رفتاری جدید برای شناسایی حملات مشابه
-
وعده انتشار عمومی جزییات برای افزایش شفافیت و همکاری در صنعت امنیت سایبری
این واکنش نشان میدهد که حتی ارائهدهندگان بزرگ AI نیز باید پایش مداوم، محدودکنندههای سوءاستفاده و سامانههای تحلیل رفتاری داشته باشند.
بخش سوم — تأثیرات این حمله بر سرورها، شبکهها و زیرساختهای دیتاسنتر
این حمله پیامدهای بسیار مهمی برای زیرساختهای حساس دارد:
۱. سرورها و دیتاسنترها
هوش مصنوعی میتواند در چند ثانیه مجموعهای از وظایف را هماهنگ انجام دهد:
-
اسکن پورتها
-
بررسی نسخه نرمافزارها
-
شناسایی misconfiguration
-
ساخت اکسپلویت مناسب آسیبپذیری
بهویژه در محیطهای هیبریدی چندابری، کوچکترین خطا میتواند راه نفوذ AI را باز کند.
۲. شبکهها و فایروالها
فایروالهای سنتی نمیتوانند الگوهای رفتاری یک هوش مصنوعی مهاجم را تشخیص دهند.
AI قادر است:
-
الگوی ترافیک را شبیه ابزارهای قانونی مانند nmap یا Nessus کند
-
ترافیک حمله را زیر Threshold قرار دهد
-
در هزاران مسیر مختلف حمله پراکنده شود
۳. پروژههای متنباز
ابزارهایی مثل ELK Stack، Prometheus و حتی GitLab اگر امنیت کافی نداشته باشند:
-
میتوانند برای جمعآوری دادههای حمله استفاده شوند
-
میتوانند هدف حمله امتیازگیری و تزریق کد قرار بگیرند
-
حتی میتوانند جهت حملات بعدی weaponize شوند
بخش چهارم — راهکارهای دفاعی برای مقابله با حملات مبتنی بر AI
۱. حاکمیت و نظارت بر استفاده از AI
-
محدودسازی نرخ درخواستها (Rate Limiting)
-
بررسی رفتار مدل و شناسایی تلاشهای جیلبریک
-
ممنوعیت اجرای خودکار اسکریپتها بدون ثبت لاگ
۲. مدیریت آسیبپذیریها
ابزارهای متنباز مانند OpenVAS و Trivy میتوانند اسکنهای مداوم انجام دهند.
اهمیت ویژه:
-
APIهای عمومی
-
سرورهای ابری
-
محیطهای توسعه
۳. پیادهسازی معماری Zero Trust
-
محدودسازی شدید دسترسی
-
احراز هویت چندمرحلهای
-
میکرو-سگمنتیشن در شبکه
۴. استفاده از SIEMهای هوشمند
سیستمهایی با قابلیت تحلیل یادگیری ماشینی میتوانند:
-
الگوهای ترافیک غیرطبیعی
-
حجم زیاد درخواستها
-
رفتار شبیه رباتهای خودمختار
را شناسایی کنند.
۵. بهروزرسانی برنامه واکنش به حمله
سازمانها باید سناریوهای جدید مانند:
-
حمله توسط مدل LLM
-
ساخت اکسپلویت خودکار
-
تحلیل سریع و بلادرنگ حمله توسط AI
را در برنامه IR خود اضافه کنند.
۶. همکاری و اشتراکگذاری اطلاعات
دریافت هشدارهای امنیتی از شرکتهایی مانند Anthropic و Google DeepMind میتواند زمان واکنش را بهطور قابل توجهی کاهش دهد.
جمعبندی
حمله Anthropic تنها یک رخداد امنیتی نیست؛ بلکه نشانه آغاز نسل جدید تهدیدات سایبری است.
حملهای که نشان داد:
-
هوش مصنوعی میتواند بدون انسان حملات پیچیده را اجرا کند
-
مقیاس حمله میتواند صدها برابر بزرگتر از حملات انسانی باشد
-
زیرساختهای سنتی امنیت دیگر پاسخگو نیستند
سازمانها باید با واقعیتی جدید روبهرو شوند:
AI هم یک ابزار دفاعی فوقپیشرفته است و هم یک سلاح تهاجمی قدرتمند.
آینده امنیت سایبری متعلق به سازمانهایی است که توانایی تشخیص، مهار و پاسخ سریع به حملات خودکار هوش مصنوعی را داشته باشند.







دیدگاه ها بسته هستند