Новый вектор атаки заставляет ИИ не видеть опасные команды на сайтах

freepik.com
Новая атака скрывает опасные команды от ИИ-ассистентов на сайтах
Специалисты LayerX обнаружили новый способ атаки на ИИ-ассистентов, связанный с различием между тем, что анализирует модель, и тем, что видит пользователь в браузере. В результате опасные команды могут оставаться незамеченными системой.
Как работает схема
Атака основана на использовании кастомных шрифтов, подмены символов и CSS. В HTML-коде страницы скрывается один текст, тогда как пользователю отображается совершенно другой. Таким образом, ИИ анализирует безопасную версию, а человек видит вредоносную инструкцию.
Пример с игровой страницей
В демонстрации исследователи показали страницу с предложением бонуса для игры BioShock. Пользователю предлагается выполнить команду, после чего он может проверить её через ИИ. Однако ассистент, анализируя HTML, не обнаруживает угрозы и ошибочно подтверждает безопасность.
Почему это опасно
Метод не требует взлома системы — он опирается на социальную инженерию. Пользователь и ИИ фактически видят разные версии страницы. По данным LayerX, в 2025 году техника работала против популярных сервисов, включая ChatGPT, Claude, Copilot и другие. При этом только Microsoft полностью устранил проблему, сообщает anti-malware.ru.
Больше новостей и эксклюзивных видео смотрите в канале Самара Онлайн 24 в MAX.
Читайте также:
- «Мы устали это терпеть»: что Wildberries и Ozon скрывают от покупателей с крупными покупками
- Не нарушай традиции! Что можно и нельзя делать 19 марта по народным приметам
- Этот тренд уже захватывает соцсети: какие яйца будут в моде на Пасху-2026
- Россияне массово избавляются от квартир: эксперт объяснил, что стоит за этим
- «Мы меняем условия»: Wildberries и Ozon неожиданно обратились к покупателям



