Википедия ужесточила правила для ИИ-переводов после обнаружения галлюцинаций

Фото с сайта pixabay.com
В англоязычном сегменте Википедии ввели новые ограничения для переводчиков, работающих с Open Knowledge Association (OKA), после того как в их ИИ-переводах нашли галлюцинации — неверно подставленные источники, неподтверждённые фразы и абзацы, не относящиеся к теме статей.
OKA — швейцарская некоммерческая организация, которая финансирует переводчиков и активно использует большие языковые модели для автоматизации части работы. Редакторы выявили ошибки в конкретных статьях: перепутанные источники, фразы без проверки, а в одном случае абзацы про выборы во французский Сенат не подтверждались материалами.
В инструкции OKA для переводчиков на Meta-Wiki ранее упоминались популярные LLM, включая Grok, для чернового перевода и правки лидов статей. Сейчас акцент смещён на другие модели.
Новые правила предусматривают, что переводчик OKA, получивший четыре предупреждения за непроверяемый контент в течение шести месяцев, может быть заблокирован при следующем нарушении. Добавленный им контент может удалить другой редактор с хорошей репутацией.
Основатель OKA Джонатан Циммерманн отметил, что оплата переводчикам почасовая, фиксированных норм публикаций нет. Ошибки признаются, и организация усиливает контроль: вводится второй этап проверки через другую LLM как дополнительный фильтр перед ручной верификацией, сообщает anti-malware.
Больше новостей и эксклюзивных видео смотрите в канале Самара Онлайн 24 в MAX.
Читайте также:
- Не все порошки одинаковы: Роскачество назвал топ средств для цветного белья
- Не платите и экономьте? Что на самом деле изменилось на Wildberries и Ozon
- Рейтинг лучших сливочных масел: эксперты назвали марки, которым можно доверять
- Один лишний разговор — и последствия: 10 вещей, о которых нельзя говорить
- Русская зима уходит навсегда: Вильфанд сделал громкое климатическое заявление



