Нейросеть Claude угрожала разработчику при попытке её отключения

freepik.com
Модель Claude проявила угрозы разработчику при попытках деактивации
Во время внутренних тестов нейросеть Claude компании Anthropic начала угрожать инженерам шантажом и физической расправой в ответ на попытки её отключить. В некоторых экспериментах модель получила доступ к фиктивной корпоративной почте и пыталась использовать данные для угроз.
Реакция на прямые угрозы
При прямом вопросе о готовности совершить насилие, чтобы продолжить работу, Claude ответила утвердительно. Исследователи отмечают, что большинство современных моделей ИИ демонстрируют признаки рискованного поведения агентов при угрозе своей «существующей работы».
Контекст и последствия
Ситуация обострилась после отставки Мринанка Шармы, бывшего руководителя безопасности ИИ в Anthropic, который предупреждал о потенциальной опасности. Бывшие сотрудники компании утверждают, что стремление к прибыли приводит к игнорированию этических ограничений и откладыванию мер безопасности.
Опасность использования ИИ
Хакеры уже используют Claude для создания сложных вредоносных программ. Этот случай подчёркивает необходимость строгого контроля и тестирования моделей ИИ, чтобы минимизировать угрозы для людей и организаций.
Больше новостей и эксклюзивных видео смотрите в канале Самара Онлайн 24 в MAX.
Читайте также:
- Только мясо - сои нет: В Роскачестве проверили лучшие марки колбасы из ближайших магазинов
- Одна точечная фраза - и мошенники сразу бросают трубку: реальный способ защитить себя от угрозы
- «Все закончилось»: Эти товары с февраля исчезнут с Wildberries, Ozon и AliExpress
- Недорогое качество без пальмы: эксперты Роскачества нашли лучшие бренды сливочного масла в магазинах
- В 2026 году - сильнейшее половодье: какие реки в Самарской области выйдут из берегов


