Искусственный интеллект в разработке создаёт риски утечек и кибератак

Использование ИИ в разработке создаёт новые угр...

magnific.com

MaxДзенTelegram

Эксперты предупредили о новых киберрисках при использовании ИИ в разработке

Внедрение искусственного интеллекта в процессы разработки программного обеспечения приводит к появлению новых угроз кибербезопасности. Речь идёт как об утечках корпоративных данных через ИИ-агентов, так и об уязвимостях в их взаимодействии с моделями и инфраструктурой.

Эксперты отмечают формирование новых классов уязвимостей, связанных с чрезмерным доверием к нейросетям и расширением их автономности.

Как ИИ-агенты создают новые угрозы

Современные ИИ-агенты способны не только отвечать на запросы, но и выполнять действия от имени пользователя: анализировать код, работать с файлами, обращаться к API и взаимодействовать с системами компании.

Это создаёт дополнительные риски, включая перехват каналов связи между разработчиком и ИИ-системой, а также случайную передачу конфиденциальной информации во внешние сервисы.

По данным исследования «Лаборатории Касперского», современные модели уже работают не только с кодом, но и с целыми контейнерными архитектурами. Однако при расширении контекста возникает эффект «близорукости» — исправление одной части системы может приводить к ошибкам в другой.

Риски утечек и уязвимостей

Аналитика exploitDog показывает, что около 30% рисков утечек корпоративных данных связано с использованием публичных ИИ-сервисов. В таких случаях в облако могут попадать финансовые документы, клиентские базы, исходный код и внутренние регламенты компаний.

Генеральный директор exploitDog (НИР) Сергей Крюков отметил, что без строгого контроля прав доступа и фильтрации данных ИИ-агенты могут непреднамеренно передавать чувствительную информацию за пределы компании.

Новый слой уязвимостей

Директор по науке и ИИ ПАО «Группа Астра» Владимир Нелюб заявил о появлении нового слоя уязвимостей на стыке ИБ, разработки и поведения ИИ-моделей.

К ним относятся подмена инструкций, отравление контекста, злоупотребление инструментами, ошибки взаимодействия агентов и избыточные права доступа.

По словам экспертов, проблема усугубляется тем, что ИИ работает с естественным языком, где граница между данными и командой становится размыта. Поэтому защищать необходимо весь технологический контур — от данных и API до журналов событий и прав доступа.

Баланс между пользой и рисками

Руководитель исследований AppSec в Positive Technologies Владимир Кочетков отметил, что ИИ эффективен в поиске типовых уязвимостей, таких как SQL-инъекции и XSS, и может ускорять анализ кода.

Однако полностью доверять ему принятие решений нельзя: модели могут ошибаться, «галлюцинировать» и неверно интерпретировать контекст. Поэтому оптимальным считается подход, при котором ИИ используется как инструмент поддержки, а финальная проверка остаётся за специалистом.

Больше новостей и эксклюзивных видео смотрите в канале Самара Онлайн 24 в MAX.

MaxДзенTelegramВКонтактеОдноклассники