В Роскачестве предупредили об опасности передачи информации нейросетям

Фото с сайта pxhere.com
Передача личных сведений нейросетям, в том числе ChatGPT, сопряжена с определёнными рисками для пользователей. Об этом предупредил глава Центра цифровой экспертизы Роскачества Сергей Кузьменко.
Несмотря на то что утечки информации через системы искусственного интеллекта до сих пор не были зафиксированы, подобная опасность существует. Развитие технологий не стоит на месте, и современные методы защиты могут устареть в будущем.
Кузьменко подчеркнул, что крайне не рекомендуется предоставлять ИИ персональные данные, такие как номера паспортов, сетевые имена, банковские реквизиты, медицинские заключения, учётные записи и пароли, а также любые сведения, которые могут служить для идентификации личности и использования в злонамеренных целях.
«Строго запрещено загружать данные, которые могут нанести ущерб вам или окружающим. Это включает в себя паспортные данные, сетевые идентификаторы, данные банковских карт, медицинские записи, имена пользователей и пароли, а также любую другую информацию, позволяющую идентифицировать конкретного человека и потенциально использовать её во вред», отметил специалист.
По мнению эксперта, наиболее безопасным подходом является работа с анонимными данными. Перед отправкой в ИИ следует убрать любую информацию, указывающую на конкретного человека, а при наличии сомнений лучше вообще отказаться от передачи подобных данных, сообщает ITinfo.
Обратите внимание: «Магнитам» и «Пятерочкам» осталось недолго: россияне бегут за покупками в другой супермаркет — продукты лучше, а цены — как из 2010-го
Источник: samaraonline24.ru
Читайте в Дзен