Исследование Irregular: ИИ генерируют пароли, которые легко взломать

Анализ Irregular показал, что пароли от ChatGPT...

freepik.com

MaxДзенTelegram

ИИ создают предсказуемые пароли, которые небезопасны на практике

Специалисты Irregular изучили пароли, генерируемые ChatGPT, Claude и Gemini. Каждой модели запросили по 50 паролей длиной 16 символов с буквами разных регистров, цифрами и спецсимволами. На первый взгляд строки выглядели надёжными, однако тестирование показало их предсказуемость.

Выявленные шаблоны

Claude сгенерировал лишь 30 уникальных паролей из 50, а 18 оказались почти идентичными. У ChatGPT и Gemini также фиксировались устойчивые начала и окончания строк, повторялись структуры. Даже отсутствие повторяющихся символов у Claude не гарантировало настоящую случайность.

Реальная стойкость паролей

Используя формулу Шеннона и вероятностный анализ, исследователи оценили энтропию паролей: около 27 бит по статистике символов и 20 бит по вероятностям, вместо 98–120 бит для случайных строк такой длины. Это значит, что пароли ИИ можно взломать обычным брутфорсом за несколько часов.

Рекомендации экспертов

Irregular подчеркивает, что изменить предсказуемость пароля через настройки модели невозможно. Эксперты советуют заменить все пароли, созданные ИИ, и использовать специализированные генераторы и менеджеры паролей для повышения безопасности.

Больше новостей и эксклюзивных видео смотрите в канале Самара Онлайн 24 в MAX.

Читайте также:

MaxДзенTelegramВКонтактеОдноклассники