Почему сложные ИИ всё чаще ошибаются: разоблачение от академика РАН

freepik.com
По мнению академика РАН Игоря Каляева, повышение сложности крупных языковых моделей (LLM), вроде ChatGPT, приводит к расширению их общей осведомленности, однако негативно сказывается на профессиональном уровне выдаваемых ответов. Он провел параллель с ученым, обладающим глубокими знаниями лишь в конкретной, узкой сфере.
После выпуска новых версий моделей OpenAI – o3 и o4-mini – разработчики отметили повышение их точности в отдельных задачах, но одновременно и увеличение количества ошибок и случаев "галлюцинаций". Каляев предостерег, что с дальнейшим усложнением моделей проблемы с качеством будут только нарастать и могут стать существенной помехой для эффективного использования ИИ.
Обратите внимание: В жизни российских пенсионеров в июне произойдут перемены, связанные с новым указом, о котором рассказала Татьяна Голикова
Сообщает ТАСС
Источник: samaraonline24.ru
Читайте в Дзен