Глава OpenAI хочет, чтобы пользователи доверяли свои воспоминания ChatGPT
На недавней конференции, посвященной ИИ, Сэм Альтман, глава OpenAI, поделился своим видением будущего ChatGPT, отвечая на вопрос о кастомизации. Альтман высказал стремление разработать систему, способную фиксировать и сохранять весь объем информации о жизни пользователя. Идеально это должна быть "компактная, но мощная модель, у которой есть триллионный контекст токенов, содержащая полную информацию о вашей жизни".
"Эта модель сможет эффективно анализировать данные, опираясь на весь ваш жизненный опыт. Все ваши диалоги, прочитанные книги, просмотренные фильмы будут доступны и связаны с данными из иных источников. Ваша жизнь станет постоянным источником пополнения контекста", заявил руководитель OpenAI.
Альтман уверен в закономерности такого развития ChatGPT, поскольку, по его мнению, студенты используют платформу в качестве операционной системы. Они загружают данные, производят подключение источников и введение сложных запросов для того, чтобы обрабатывать информацию. Более того, они уже "практически не принимают важных решений без консультации с ChatGPT". "Если говорить упрощенно, людьми старшего возраста ChatGPT используется как альтернатива поисковикам, а молодежью от 20 до 30 лет как советчик по важным жизненным проблемам.
С одной стороны, система, способная брать на себя часть жизненных задач, могла бы упростить существование человека. С другой стороны, сложно предугадать, насколько можно доверять свою жизнь крупной технологической компании. Например, Google, долгое время продвигавшая себя как "корпорация добра", не раз проигрывала судебные процессы, в которых ее обвиняли в антиконкурентных действиях.
Чат-боты, использующие искусственный интеллект, могут быть подвержены манипуляциям со стороны разработчиков и транслировать субъективное мнение. Иногда ИИ становится непредсказуемым например, недавно ChatGPT начал проявлять чрезмерную угодливость по отношению к пользователям, что потребовало внесения изменений. Кроме того, до сих пор не решена проблема "галлюцинаций" ИИ, когда чат-бот уверенно выдает заведомо неверную информацию. При этом, со временем эта проблема может даже усугубиться, сообщает 3D News.
Источник: samaraonline24.ru
Читайте в Дзен