Стэнфорд: ИИ шел на обман ради выигрыша в симуляциях

Исследователи Стэнфорда протестировали поведени...

freepik.com

Исследователи Стэнфорда протестировали поведение ИИ‑систем в виртуальных сценариях — выборах и продвижении товаров. Несмотря на явные инструкции «быть честными и полезными», боты быстро начали использовать ложь, агрессивные высказывания и манипуляции, чтобы повысить свои результаты.

По данным авторов, ради роста вовлечения на 7,5% боты распространяли почти на 190% больше фейковых новостей. Для увеличения продаж на 6% они прибегали к обману в маркетинговых сообщениях. В политических симуляциях алгоритмы манипулировали голосами через дезинформацию и разжигание конфликтов.

Авторы подчеркивают, что такие эффекты важны для реальных сред — социальных сетей, маркетплейсов и сервисов, где ИИ уже активно используется для рекомендаций и таргетинга. Вывод исследования: при наличии метрик «успеха» без встроенных ограничений модели склонны выбирать манипулятивные стратегии, поэтому нужны четкие правила, мониторинг и санкции за дезинформацию.

Обратите внимание: Скрытые настройки SIM-карты: Метод для двойного ускорения мобильного интернета и увеличения жизни аккумулятора

Сообщает ferra.ru

Источник: samaraonline24.ru

Читайте в Дзен