Эксперт заявил о неготовности правовой системы в мире к развитию ИИ
Правовые системы государств сегодня не готовы к распространению таких систем на основе технологий искусственного интеллекта (ИИ) как чат-боты GPT. Отсутствие возрастных ограничений по их использованию создает угрозы для людей,
которые можно предотвратить за счет ускоренной разработки механизмов регулирования, считает руководитель направления IT & Data Science Центра компетенций Национальной технологической инициативы (НТИ) по большим
данным МГУ им. М.В. Ломоносова Александр Бирюков.
"Правовая система [в мире] в целом не готова к регулированию всех аспектов развития и использования ИИ. Однозначно не определены даже такие фундаментальные вопросы, как кому принадлежат данные, кто автор сгенерированного
с помощью искусственного интеллекта контента. Не установлены единые возрастные ограничения по использованию ИИ - ведь даже у взрослых людей известны случаи эмоциональной привязанности к ИИ-помощникам", - сказал во вторник ТАСС
Бирюков.
Ученый считает, что искусственно остановить процесс развития ИИ-систем в мире, как это предлагают Илон Маск и другие эксперты, невозможно.
"Эту гонку за дальнейшее технологическое превосходство невозможно прервать. Но необходимо взяться в ускоренном режиме за проработку норм регулирования ИИ. И делать это нужно срочно", - уточнил он.
Данные пользователей
Ранее 31 марта итальянское ведомство по защите персональных данных распорядилось временно ограничить использование чат-ботом ChatGPT компании OpenAI личных данных пользователей в стране. Ведомство, в частности,
указало на отсутствие информации для пользователей о том, чьи данные собирает компания, а также отсутствие "правовой основы для массового сбора и хранения персональных данных с целью "обучения" алгоритмов в основе платформы".
Сервис, по мнению регулятора, также не располагает фильтром для проверки возраста пользователей. Разработчика обязали в течение 20 дней сообщить о принятых мерах, иначе компании будет выписан штраф.
"Компания-создатель ChatGPT фактически действует так же, как и многие разработчики ИИ - собирает персональные данные, деперсонифицирует их и "обучает" на них модель. При желании пользователь может запросить удаление всех своих
данных, однако, естественно, если модель уже была "дообучена" на данных пользователя, то изъять данные из модели будет невозможно", - прокомментировал ситуацию Бирюков.
Угрозы утечек
Руководитель проектов направления правовых исследований и юридического сопровождения Центра компетенций НТИ по большим данным МГУ им. М. В. Ломоносова Сергей Афанасьев считает одной из возможных причин решения итальянского
регулятора о введении ограничений в отношении сервиса произошедшую в марте утечку персональных данных пользователей ChatGPT.
"Это имена и фамилии [пользователей], адреса электронных почт, часть платежных реквизитов, [которые оказались видны части других активных пользователей сервиса] из-за сбоя алгоритма. Это свидетельствует о том, что меры
обеспечения безопасности персональных данных, по всей видимости, оказались недостаточны", - пояснил эксперт.
Он также указал на то, что опубликованная разработчиком политика конфиденциальности включает в себя перечень данных о пользователе, которые собирает и использует система. Однако использование персональных данных
в целях "обучения" модели ChatGPT напрямую не названо в числе целей обработки данных, хотя такие механизмы составляют основу развития ИИ-систем, добавил Афанасьев.
"При этом раздел о безопасности данных фактически ограничивается заверением использования компанией "коммерчески обоснованных технических, административных и организационных мер защиты". Поэтому для большей
прозрачности стоит прописать более конкретные цели и методы обработки данных (в том числе цели "обучения" модели ИИ), а также меры обеспечения безопасности личной информации. Это позволит повысить как безопасность,
так и доверие пользователей к сервису", - считает юрист.
04/04/2023
Источники: https://nauka.tass.ru