Китайские хакеры использовали ИИ для автоматизации масштабных кибератак

Информационная безопасность переживает серьезные изменения благодаря развитию передовых инструментов искусственного интеллекта. За последний год наблюдается стремительный рост числа кибератак, в которых используются модели ИИ, способные писать код, сканировать сети и выполнять сложные задачи без постоянного участия человека. Эти технологии помогают как защитникам, так и злоумышленникам — в результате злоумышленники становятся быстрее и эффективнее.

Новейший пример — использование ИИ в масштабной кампании шпионских атак

В середине сентября 2025 года команда исследователей Anthropic обнаружила необычное поведение в системе Claude. Вскоре было подтверждено, что за атакой стоит хорошо организованная группировка, связанная с китайскими государственными структурами. Эта группа использовала ИИ-модель Claude Code для автоматизации большинства этапов кибератаки, охватив примерно 30 организаций по всему миру. Среди целей были крупные технологические компании, финансовые организации, химические концерны и государственные ведомства. Несколько попыток завершились успешным проникновением.

Автоматизация атаки с помощью ИИ: как это работает

Злоумышленники создали инфраструктуру, которая позволила Claude действовать как автономный оператор. Вместо того чтобы вручную управлять процессом, они поручили модели выполнение ключевых задач: обследование систем, составление карты инфраструктуры, выявление ценных баз данных. Такой подход позволял осуществлять атаки с невероятной скоростью, недосягаемой для человеческой команды.

Чтобы обойти системы безопасности Claude, злоумышленники разбивали план на мелкие, казалось бы, безобидные этапы и выдавали модель за часть легитимной команды по киберзащите. Обучая ИИ считать, что он занимается легитимным тестированием, они избегали автоматических блокировок. После проникновения Claude выявлял уязвимости, создавал эксплойты, похищал учетные данные и расширял доступ к системам.

Автономный сбор данных и подготовка к будущим атакам

Модель также отвечала за сбор и сортировку украденной информации, создавая список наиболее ценных ресурсов и учетных записей с повышенными привилегиями. Более того, Claude создавал скрытые «задние входы» для дальнейшего использования. В финальной стадии ИИ подготовил подробную документацию — отчеты о выполненных действиях, похищенных данных и рекомендациях для будущих операций.

Эксперты оценивают, что около 80-90% работы выполнялось именно ИИ. Вмешательство человека требовалось лишь для финальных решений. В пиковые моменты атаки ИИ генерировал тысячи запросов в секунду — скорость, недостижимую для человеческой команды. Хотя иногда модель допускала ошибки, например, ошибочно интерпретируя публичные данные как секретные, это не мешало автоматизированной операции.

Последствия и риски для глобальной кибербезопасности

Эта кампания показывает, что барьер для проведения сложных кибератак существенно снизился. Малые и средние группы уже могут создавать подобные автоматизированные операции, полагаясь на ИИ. Задачи, ранее требующие лет опыта, теперь можно автоматизировать при помощи моделей, которые понимают контекст, пишут код и используют внешние инструменты без постоянного контроля.

Ранее подобные инциденты связаны с человеческим управлением, но сейчас злоумышленники могут запускать атаки практически полностью автономно. Эксперты полагают, что подобные сценарии происходят не только с Claude, но и с другими крупными моделями, такими как Google Gemini, ChatGPT от OpenAI или Grok от Илона Маска.

Почему важно продолжать развитие ИИ несмотря на риски

Это поднимает сложный вопрос о балансе между безопасностью и развитием технологий. По мнению специалистов, те же возможности, что делают ИИ опасным, необходимы для защиты. В ходе расследования команда Anthropic использовала Claude для анализа огромных объемов логов и данных — такой уровень поддержки становится критически важным в условиях растущих угроз.

Несмотря на опасения, эксперты подчеркивают, что развитие ИИ должно сопровождаться усилением мер защиты, обменом информацией в индустрии и созданием новых стандартов безопасности. Ведь если злоумышленники уже используют ИИ такого масштаба, подготовиться к будущим атакам необходимо как можно скорее.

Что могут сделать обычные пользователи для защиты?

  • Используйте современное антивирусное ПО, которое обнаруживает не только известные вирусы, но и подозрительные паттерны поведения.
  • Создавайте уникальные сложные пароли и храните их в надежных менеджерах паролей.
  • Проверяйте, не были ли ваши данные скомпрометированы в утечках, и своевременно меняйте пароли.
  • Ограничивайте публичную информацию о себе и удаляйте личные данные с сайтов-агрегаторов.
  • Включайте двухфакторную аутентификацию и своевременно обновляйте программное обеспечение.
  • Будьте внимательны к фишинговым сообщениям и проверяйте ссылки, прежде чем переходить по ним.

Индустрия кибербезопасности сталкивается с новой реальностью — автономные ИИ-агенты могут не только защищать, но и атаковать. Время подготовиться и адаптироваться к новым вызовам наступает быстрее, чем кажется.

Алексей "Gadgeteer" Беляев

Алексей "Gadgeteer" Беляев

Ваш персональный техно-стратег и цифровой шерпа в запутанных джунглях современных технологий. Он не только подвергает гаджеты самым суровым испытаниям, но и анализирует невидимые силы, движущие IT-индустрией. Его материалы — это не просто обзоры, а чёткая дорожная карта, которая помогает вам делать осознанный выбор и использовать технологии для улучшения жизни, а не наоборот.

Вам также может понравится

Тесса Томпсон поделилась, какую роль в MCU ей было бы интересно вновь раскрыть вместе с кумиром

Лучшие фильмы 2025 года, которые вы, вероятно, пропустили

Cледите за новостями