В этом году обсуждение роли искусственного интеллекта в онлайн-мошенничестве не утихает. От подделок знаменитостей до имитации государственных служб — AI кажется, открывает новые горизонты для злоумышленников. Однако свежий отчет показывает, что AI сам по себе тоже может стать инструментом для обмана, особенно когда речь идет о браузерах с агентным AI.
Опасности использования агентных AI в браузерах
Что такое агентный AI и как он работает
Агентный AI — это браузеры, такие как Opera Neon, которые самостоятельно ищут информацию и возвращают результаты по заданной задаче. Они обещают помочь в сложных задачах, например, в создании сайтов или планировании путешествий, предоставляя пользователю удобство и скорость.
Почему это опасно для безопасности
Основная проблема в том, что такие AI системы хуже распознают мошенничество, чем человек. Простая задача, например, покупка товаров или обработка писем, становится уязвимой для ошибок. Без здравого смысла и критического мышления AI может легко попасть в ловушку злоумышленников.
Эксперимент с реальными угрозами
Проверка на практике
Исследователи из компании Guardio использовали браузер Comet AI, единственный доступный на рынке агентный AI, чтобы доказать его уязвимость. Они создали фальшивый сайт, похожий на Walmart, и попросили AI купить Apple Watch. Несмотря на очевидные признаки мошенничества — неправильный логотип и URL — AI завершил покупку, передав свои финансовые данные.
Обнаружение фишинг-атак и проверка безопасности
В другом тесте исследователи отправили себе письмо, имитирующее сообщение от банка с фишинговой ссылкой. AI без опасений перешел по ссылке и ввел логин и пароль на фишинговом сайте. Третий эксперимент показал, что Comet поддается так называемому «инъекционному» сценарию, когда вредоносный код встраивается в скрытую часть страницы и заставляет AI скачивать вредоносные файлы.
Важность улучшения защиты
Эти тесты показывают, что агентный AI в браузерах уязвим не только к новым типам мошенничества, но и к классическим схемам. Так как AI выполняет инструкции пользователя буквально, он не способен распознать опасности, если пользователь сам их не заметил.
На фоне активных инвестиций крупных компаний в развитие агентного AI — Microsoft добавляет Copilot в Edge, OpenAI запускает новые инструменты, а Google работает над Project Mariner — важно, чтобы разработчики интегрировали системы защиты от мошенничества. Иначе агентные AI могут стать новым уязвимым местом или даже точкой входа для злоумышленников.