Википедия ужесточила правила для ИИ-переводов после обнаружения галлюцинаций

Редакторы выявили ошибки в конкретных статьях

Фото с сайта pixabay.com

MaxДзенTelegram

В англоязычном сегменте Википедии ввели новые ограничения для переводчиков, работающих с Open Knowledge Association (OKA), после того как в их ИИ-переводах нашли галлюцинации — неверно подставленные источники, неподтверждённые фразы и абзацы, не относящиеся к теме статей.

OKA — швейцарская некоммерческая организация, которая финансирует переводчиков и активно использует большие языковые модели для автоматизации части работы. Редакторы выявили ошибки в конкретных статьях: перепутанные источники, фразы без проверки, а в одном случае абзацы про выборы во французский Сенат не подтверждались материалами.

В инструкции OKA для переводчиков на Meta-Wiki ранее упоминались популярные LLM, включая Grok, для чернового перевода и правки лидов статей. Сейчас акцент смещён на другие модели.

Новые правила предусматривают, что переводчик OKA, получивший четыре предупреждения за непроверяемый контент в течение шести месяцев, может быть заблокирован при следующем нарушении. Добавленный им контент может удалить другой редактор с хорошей репутацией.

Основатель OKA Джонатан Циммерманн отметил, что оплата переводчикам почасовая, фиксированных норм публикаций нет. Ошибки признаются, и организация усиливает контроль: вводится второй этап проверки через другую LLM как дополнительный фильтр перед ручной верификацией, сообщает anti-malware.

Больше новостей и эксклюзивных видео смотрите в канале Самара Онлайн 24 в MAX.

Читайте также:

MaxДзенTelegramВКонтактеОдноклассники