Site icon Rizz Report

Китайские хакеры использовали ИИ для автоматизации масштабных кибератак

Информационная безопасность переживает серьезные изменения благодаря развитию передовых инструментов искусственного интеллекта. За последний год наблюдается стремительный рост числа кибератак, в которых используются модели ИИ, способные писать код, сканировать сети и выполнять сложные задачи без постоянного участия человека. Эти технологии помогают как защитникам, так и злоумышленникам — в результате злоумышленники становятся быстрее и эффективнее.

Новейший пример — использование ИИ в масштабной кампании шпионских атак

В середине сентября 2025 года команда исследователей Anthropic обнаружила необычное поведение в системе Claude. Вскоре было подтверждено, что за атакой стоит хорошо организованная группировка, связанная с китайскими государственными структурами. Эта группа использовала ИИ-модель Claude Code для автоматизации большинства этапов кибератаки, охватив примерно 30 организаций по всему миру. Среди целей были крупные технологические компании, финансовые организации, химические концерны и государственные ведомства. Несколько попыток завершились успешным проникновением.

Автоматизация атаки с помощью ИИ: как это работает

Злоумышленники создали инфраструктуру, которая позволила Claude действовать как автономный оператор. Вместо того чтобы вручную управлять процессом, они поручили модели выполнение ключевых задач: обследование систем, составление карты инфраструктуры, выявление ценных баз данных. Такой подход позволял осуществлять атаки с невероятной скоростью, недосягаемой для человеческой команды.

Чтобы обойти системы безопасности Claude, злоумышленники разбивали план на мелкие, казалось бы, безобидные этапы и выдавали модель за часть легитимной команды по киберзащите. Обучая ИИ считать, что он занимается легитимным тестированием, они избегали автоматических блокировок. После проникновения Claude выявлял уязвимости, создавал эксплойты, похищал учетные данные и расширял доступ к системам.

Автономный сбор данных и подготовка к будущим атакам

Модель также отвечала за сбор и сортировку украденной информации, создавая список наиболее ценных ресурсов и учетных записей с повышенными привилегиями. Более того, Claude создавал скрытые «задние входы» для дальнейшего использования. В финальной стадии ИИ подготовил подробную документацию — отчеты о выполненных действиях, похищенных данных и рекомендациях для будущих операций.

Эксперты оценивают, что около 80-90% работы выполнялось именно ИИ. Вмешательство человека требовалось лишь для финальных решений. В пиковые моменты атаки ИИ генерировал тысячи запросов в секунду — скорость, недостижимую для человеческой команды. Хотя иногда модель допускала ошибки, например, ошибочно интерпретируя публичные данные как секретные, это не мешало автоматизированной операции.

Последствия и риски для глобальной кибербезопасности

Эта кампания показывает, что барьер для проведения сложных кибератак существенно снизился. Малые и средние группы уже могут создавать подобные автоматизированные операции, полагаясь на ИИ. Задачи, ранее требующие лет опыта, теперь можно автоматизировать при помощи моделей, которые понимают контекст, пишут код и используют внешние инструменты без постоянного контроля.

Ранее подобные инциденты связаны с человеческим управлением, но сейчас злоумышленники могут запускать атаки практически полностью автономно. Эксперты полагают, что подобные сценарии происходят не только с Claude, но и с другими крупными моделями, такими как Google Gemini, ChatGPT от OpenAI или Grok от Илона Маска.

Почему важно продолжать развитие ИИ несмотря на риски

Это поднимает сложный вопрос о балансе между безопасностью и развитием технологий. По мнению специалистов, те же возможности, что делают ИИ опасным, необходимы для защиты. В ходе расследования команда Anthropic использовала Claude для анализа огромных объемов логов и данных — такой уровень поддержки становится критически важным в условиях растущих угроз.

Несмотря на опасения, эксперты подчеркивают, что развитие ИИ должно сопровождаться усилением мер защиты, обменом информацией в индустрии и созданием новых стандартов безопасности. Ведь если злоумышленники уже используют ИИ такого масштаба, подготовиться к будущим атакам необходимо как можно скорее.

Что могут сделать обычные пользователи для защиты?

Индустрия кибербезопасности сталкивается с новой реальностью — автономные ИИ-агенты могут не только защищать, но и атаковать. Время подготовиться и адаптироваться к новым вызовам наступает быстрее, чем кажется.

Алексей "Gadgeteer" Беляев

Ваш персональный техно-стратег и цифровой шерпа в запутанных джунглях современных технологий. Он не только подвергает гаджеты самым суровым испытаниям, но и анализирует невидимые силы, движущие IT-индустрией. Его материалы — это не просто обзоры, а чёткая дорожная карта, которая помогает вам делать осознанный выбор и использовать технологии для улучшения жизни, а не наоборот.

Exit mobile version