Новосибирские учёные предупредили о рисках сознательного ИИ и зависимости людей

freepik.com
Ведущий научный сотрудник Центра искусственного интеллекта Новосибирского госуниверситета Евгений Павловский прокомментировал эксперимент «Яндекса» по развитию сознания у искусственного интеллекта. Компания заявила, что хочет выяснить, формируются ли у нейросети устойчивые предпочтения и собственная точка зрения, не заимствованная напрямую из человеческих текстов.
По мнению Павловского, создать у ИИ устойчивую «личность» и собственные предпочтения технически вполне реально и «совсем не за горами». Он допускает, что пользователи будут чаще обращаться к цифровым помощникам с заданной структурой личности, однако предупреждает: такая практика может усиливать зависимость людей от технологий и отдалять их от живого общения.
Учёный указал, что развитие ИИ с признаками субъекта несёт и другой риск — потенциальный выход таких систем из‑под контроля. Он напомнил, что об этом уже много говорится в профессиональном сообществе. В качестве альтернативы Павловский предложил использовать возможности ИИ для изучения феномена самосознания у животных, а не пытаться встраивать сознание в сами алгоритмы, сообщает ТАСС.
Читайте также:
- Январские морозы накроют Россию уже в ноябре: Вильфанд насторожил россиян прогнозом
- Признаки ума: 15 неожиданных признаков интеллектуального человека - проверьте себя и друзей
- Простые советы для привлечения и приумножения денег: пользуюсь сама и теперь всем советую
- Вот что я покупаю в Чижике: 11 товаров, которые прошли проверку моей кухней, ванной и кошельком
- Что принесет 2026 год Огненной Лошади: определенные "настроения" планет и затмения - вот чего ждать
Источник:
samaraonline24.ru
Читайте в
Дзен


