Искусственный интеллект в разработке создаёт риски утечек и кибератак

magnific.com
Эксперты предупредили о новых киберрисках при использовании ИИ в разработке
Внедрение искусственного интеллекта в процессы разработки программного обеспечения приводит к появлению новых угроз кибербезопасности. Речь идёт как об утечках корпоративных данных через ИИ-агентов, так и об уязвимостях в их взаимодействии с моделями и инфраструктурой.
Эксперты отмечают формирование новых классов уязвимостей, связанных с чрезмерным доверием к нейросетям и расширением их автономности.
Как ИИ-агенты создают новые угрозы
Современные ИИ-агенты способны не только отвечать на запросы, но и выполнять действия от имени пользователя: анализировать код, работать с файлами, обращаться к API и взаимодействовать с системами компании.
Это создаёт дополнительные риски, включая перехват каналов связи между разработчиком и ИИ-системой, а также случайную передачу конфиденциальной информации во внешние сервисы.
По данным исследования «Лаборатории Касперского», современные модели уже работают не только с кодом, но и с целыми контейнерными архитектурами. Однако при расширении контекста возникает эффект «близорукости» — исправление одной части системы может приводить к ошибкам в другой.
Риски утечек и уязвимостей
Аналитика exploitDog показывает, что около 30% рисков утечек корпоративных данных связано с использованием публичных ИИ-сервисов. В таких случаях в облако могут попадать финансовые документы, клиентские базы, исходный код и внутренние регламенты компаний.
Генеральный директор exploitDog (НИР) Сергей Крюков отметил, что без строгого контроля прав доступа и фильтрации данных ИИ-агенты могут непреднамеренно передавать чувствительную информацию за пределы компании.
Новый слой уязвимостей
Директор по науке и ИИ ПАО «Группа Астра» Владимир Нелюб заявил о появлении нового слоя уязвимостей на стыке ИБ, разработки и поведения ИИ-моделей.
К ним относятся подмена инструкций, отравление контекста, злоупотребление инструментами, ошибки взаимодействия агентов и избыточные права доступа.
По словам экспертов, проблема усугубляется тем, что ИИ работает с естественным языком, где граница между данными и командой становится размыта. Поэтому защищать необходимо весь технологический контур — от данных и API до журналов событий и прав доступа.
Баланс между пользой и рисками
Руководитель исследований AppSec в Positive Technologies Владимир Кочетков отметил, что ИИ эффективен в поиске типовых уязвимостей, таких как SQL-инъекции и XSS, и может ускорять анализ кода.
Однако полностью доверять ему принятие решений нельзя: модели могут ошибаться, «галлюцинировать» и неверно интерпретировать контекст. Поэтому оптимальным считается подход, при котором ИИ используется как инструмент поддержки, а финальная проверка остаётся за специалистом.
Больше новостей и эксклюзивных видео смотрите в канале Самара Онлайн 24 в MAX.



