Новый вектор атаки заставляет ИИ не видеть опасные команды на сайтах

Эксперты LayerX описали атаку, при которой ИИ н...

freepik.com

MaxДзенTelegram

Новая атака скрывает опасные команды от ИИ-ассистентов на сайтах

Специалисты LayerX обнаружили новый способ атаки на ИИ-ассистентов, связанный с различием между тем, что анализирует модель, и тем, что видит пользователь в браузере. В результате опасные команды могут оставаться незамеченными системой.

Как работает схема

Атака основана на использовании кастомных шрифтов, подмены символов и CSS. В HTML-коде страницы скрывается один текст, тогда как пользователю отображается совершенно другой. Таким образом, ИИ анализирует безопасную версию, а человек видит вредоносную инструкцию.

Пример с игровой страницей

В демонстрации исследователи показали страницу с предложением бонуса для игры BioShock. Пользователю предлагается выполнить команду, после чего он может проверить её через ИИ. Однако ассистент, анализируя HTML, не обнаруживает угрозы и ошибочно подтверждает безопасность.

Почему это опасно

Метод не требует взлома системы — он опирается на социальную инженерию. Пользователь и ИИ фактически видят разные версии страницы. По данным LayerX, в 2025 году техника работала против популярных сервисов, включая ChatGPT, Claude, Copilot и другие. При этом только Microsoft полностью устранил проблему, сообщает anti-malware.ru.

Больше новостей и эксклюзивных видео смотрите в канале Самара Онлайн 24 в MAX.

Читайте также:

MaxДзенTelegramВКонтактеОдноклассники