Новосибирские учёные предупредили о рисках сознательного ИИ и зависимости людей

Эксперт прокомментировал эксперимент «Яндекса» ...

freepik.com

Ведущий научный сотрудник Центра искусственного интеллекта Новосибирского госуниверситета Евгений Павловский прокомментировал эксперимент «Яндекса» по развитию сознания у искусственного интеллекта. Компания заявила, что хочет выяснить, формируются ли у нейросети устойчивые предпочтения и собственная точка зрения, не заимствованная напрямую из человеческих текстов.

По мнению Павловского, создать у ИИ устойчивую «личность» и собственные предпочтения технически вполне реально и «совсем не за горами». Он допускает, что пользователи будут чаще обращаться к цифровым помощникам с заданной структурой личности, однако предупреждает: такая практика может усиливать зависимость людей от технологий и отдалять их от живого общения.

Учёный указал, что развитие ИИ с признаками субъекта несёт и другой риск — потенциальный выход таких систем из‑под контроля. Он напомнил, что об этом уже много говорится в профессиональном сообществе. В качестве альтернативы Павловский предложил использовать возможности ИИ для изучения феномена самосознания у животных, а не пытаться встраивать сознание в сами алгоритмы, сообщает ТАСС.

Читайте также:

Источник: samaraonline24.ru

Читайте в Дзен