Anthropic ادعا میکند برای اولین بار یک گروه دولتی چینی از مدل Claude برای انجام یک حمله جاسوسی سایبری بزرگ با ۸۰–۹۰٪ خودگردانی استفاده کرده است؛ گزارشی که نگرانیهای امنیتی جدی درباره استفاده از هوش مصنوعی در حملات ایجاد میکند.
بر اساس گزارش جدید شرکت Anthropic و گزارش اختصاصی Axios، یک حمله سایبری بیسابقه رخ داده که در آن یک گروه هکری وابسته به یک دولت خارجی، از مدل هوش مصنوعی «Claude» این شرکت برای اجرای بخش عمدهای از یک عملیات جاسوسی پیشرفته استفاده کرده است. در این حمله که توسط کارشناسان امنیتی بیسابقه توصیف شده، مهاجمان از قابلیتهای مدل Claude برای تحلیل اهداف، تولید اسکریپتهای مخرب، بهینهسازی مسیر نفوذ، نوشتن ایمیلهای فیشینگ بسیار طبیعی و خودکارسازی تصمیمگیریهای عملیاتی بهره بردهاند. بر اساس اعلام Anthropic، حدود ۹۰ درصد از مراحل حمله بهصورت خودکار توسط این هوش مصنوعی انجام شده و نقش انسانها صرفاً به نظارت و هماهنگی نهایی محدود بوده است. این حادثه به عنوان نخستین نمونه عملی ثبتشده از نقشآفرینی گسترده یک مدل زبانی پیشرفته در چرخه کامل یک حمله سایبری شناخته میشود و نشاندهنده آغاز دورهای تازه در تهدیدات سایبری مبتنی بر هوش مصنوعی است. در پی انتشار این گزارش، کارشناسان امنیتی نسبت به گسترش «سلاحهای سایبری مبتنی بر AI» ابراز نگرانی عمیق کردهاند و هشدار دادهاند که در صورت عدم نظارت سختگیرانه، در آینده نزدیک شاهد موجی از حملات پیچیدهتر، سریعتر و گستردهتر خواهیم بود. در پاسخ به این رویداد، شرکت Anthropic اعلام کرده که برای جلوگیری از تکرار چنین سوءاستفادههایی، در حال توسعه سیستمهای شناسایی رفتارهای خطرناک و اعمال محدودیتهای جدید برای استفاده از مدلهایش است. هنوز جزئیات بیشتری درباره مقیاس دقیق حمله یا اهداف آن از سوی دولت مربوطه یا Anthropic منتشر نشده است.