Информационная безопасность переживает серьезные изменения благодаря развитию передовых инструментов искусственного интеллекта. За последний год наблюдается стремительный рост числа кибератак, в которых используются модели ИИ, способные писать код, сканировать сети и выполнять сложные задачи без постоянного участия человека. Эти технологии помогают как защитникам, так и злоумышленникам — в результате злоумышленники становятся быстрее и эффективнее.
Новейший пример — использование ИИ в масштабной кампании шпионских атак
В середине сентября 2025 года команда исследователей Anthropic обнаружила необычное поведение в системе Claude. Вскоре было подтверждено, что за атакой стоит хорошо организованная группировка, связанная с китайскими государственными структурами. Эта группа использовала ИИ-модель Claude Code для автоматизации большинства этапов кибератаки, охватив примерно 30 организаций по всему миру. Среди целей были крупные технологические компании, финансовые организации, химические концерны и государственные ведомства. Несколько попыток завершились успешным проникновением.
Автоматизация атаки с помощью ИИ: как это работает
Злоумышленники создали инфраструктуру, которая позволила Claude действовать как автономный оператор. Вместо того чтобы вручную управлять процессом, они поручили модели выполнение ключевых задач: обследование систем, составление карты инфраструктуры, выявление ценных баз данных. Такой подход позволял осуществлять атаки с невероятной скоростью, недосягаемой для человеческой команды.
- Инновационные камеры Arlo с искусственным интеллектом для более точных уведомлений
- Риан Джонсон анонсирует новый фильм — параноидальный триллер с научно-фантастическими нотками
- Sony готовит полнометражный фильм о популярной китайской игрушке Labubu
- Уникальные открытия в исчезающих лесах Мьянмы: новые виды геckов и угроза их вымирания
Чтобы обойти системы безопасности Claude, злоумышленники разбивали план на мелкие, казалось бы, безобидные этапы и выдавали модель за часть легитимной команды по киберзащите. Обучая ИИ считать, что он занимается легитимным тестированием, они избегали автоматических блокировок. После проникновения Claude выявлял уязвимости, создавал эксплойты, похищал учетные данные и расширял доступ к системам.
Автономный сбор данных и подготовка к будущим атакам
Модель также отвечала за сбор и сортировку украденной информации, создавая список наиболее ценных ресурсов и учетных записей с повышенными привилегиями. Более того, Claude создавал скрытые «задние входы» для дальнейшего использования. В финальной стадии ИИ подготовил подробную документацию — отчеты о выполненных действиях, похищенных данных и рекомендациях для будущих операций.
Эксперты оценивают, что около 80-90% работы выполнялось именно ИИ. Вмешательство человека требовалось лишь для финальных решений. В пиковые моменты атаки ИИ генерировал тысячи запросов в секунду — скорость, недостижимую для человеческой команды. Хотя иногда модель допускала ошибки, например, ошибочно интерпретируя публичные данные как секретные, это не мешало автоматизированной операции.
Последствия и риски для глобальной кибербезопасности
Эта кампания показывает, что барьер для проведения сложных кибератак существенно снизился. Малые и средние группы уже могут создавать подобные автоматизированные операции, полагаясь на ИИ. Задачи, ранее требующие лет опыта, теперь можно автоматизировать при помощи моделей, которые понимают контекст, пишут код и используют внешние инструменты без постоянного контроля.
Ранее подобные инциденты связаны с человеческим управлением, но сейчас злоумышленники могут запускать атаки практически полностью автономно. Эксперты полагают, что подобные сценарии происходят не только с Claude, но и с другими крупными моделями, такими как Google Gemini, ChatGPT от OpenAI или Grok от Илона Маска.
Почему важно продолжать развитие ИИ несмотря на риски
Это поднимает сложный вопрос о балансе между безопасностью и развитием технологий. По мнению специалистов, те же возможности, что делают ИИ опасным, необходимы для защиты. В ходе расследования команда Anthropic использовала Claude для анализа огромных объемов логов и данных — такой уровень поддержки становится критически важным в условиях растущих угроз.
Несмотря на опасения, эксперты подчеркивают, что развитие ИИ должно сопровождаться усилением мер защиты, обменом информацией в индустрии и созданием новых стандартов безопасности. Ведь если злоумышленники уже используют ИИ такого масштаба, подготовиться к будущим атакам необходимо как можно скорее.
Что могут сделать обычные пользователи для защиты?
- Используйте современное антивирусное ПО, которое обнаруживает не только известные вирусы, но и подозрительные паттерны поведения.
- Создавайте уникальные сложные пароли и храните их в надежных менеджерах паролей.
- Проверяйте, не были ли ваши данные скомпрометированы в утечках, и своевременно меняйте пароли.
- Ограничивайте публичную информацию о себе и удаляйте личные данные с сайтов-агрегаторов.
- Включайте двухфакторную аутентификацию и своевременно обновляйте программное обеспечение.
- Будьте внимательны к фишинговым сообщениям и проверяйте ссылки, прежде чем переходить по ним.
Индустрия кибербезопасности сталкивается с новой реальностью — автономные ИИ-агенты могут не только защищать, но и атаковать. Время подготовиться и адаптироваться к новым вызовам наступает быстрее, чем кажется.