Ошибочные ответы нейросетей могут создавать фатальные последствия для людей

Учёные ПНИПУ выяснили, что нейросети часто выби...

freepik.com

MaxДзенTelegram

Фатальные риски ошибок нейросетей для человека

Учёные Пермского политеха выяснили, что нейросети часто дают правдоподобные, но не вероятные ответы. Такие ошибки могут иметь фатальные последствия в критических сферах, например при диагностике заболеваний или управлении беспилотными автомобилями.

Языковая модель — математическая система, которая анализирует частотность событий. Алгоритмы выбирают ответ, который кажется правдоподобным, а не наиболее достоверным. Невозможно создать код, который научит ИИ критически мыслить или сделать его полностью этичным.

Когнитивные искажения и подход к решению

Учёные предлагают междисциплинарный подход: участие философов, психологов, социологов и правоведов. Важно не полностью устранить искажения, а научиться их выявлять, измерять и ограничивать. Ключевую роль также играют прозрачность алгоритмов и процедуры аудита решений ИИ.

Эксперимент с профессиями

В эксперименте ПНИПУ двум группам людей и четырем чат-ботам (ChatGPT, YaGPT, GigaChat, DeepSeek) предложили определить подходящую профессию для описанного мужчины. Люди, изучавшие статистику, чаще выбирали охранника. Все четыре модели выбрали библиотекаря, опираясь на детальное описание личности, игнорируя статистическую вероятность.

Выводы учёных

Специалисты ПНИПУ отметили «иллюзию рациональности» у нейросетей: алгоритмы логично и убедительно обосновывают неверные решения. Это создаёт видимость глубокого анализа, хотя фактически вероятность выбранного исхода значительно ниже.

Больше новостей и эксклюзивных видео смотрите в канале Самара Онлайн 24 в MAX.

Читайте также:

MaxДзенTelegramВКонтактеОдноклассники