Science-tv.ru

Эксперт заявил о неготовности правовой системы в мире к развитию ИИ


Правовые системы государств сегодня не готовы к распространению таких систем на основе технологий искусственного интеллекта (ИИ) как чат-боты GPT. Отсутствие возрастных ограничений по их использованию создает угрозы для людей, которые можно предотвратить за счет ускоренной разработки механизмов регулирования, считает руководитель направления IT & Data Science Центра компетенций Национальной технологической инициативы (НТИ) по большим данным МГУ им. М.В. Ломоносова Александр Бирюков.

"Правовая система [в мире] в целом не готова к регулированию всех аспектов развития и использования ИИ. Однозначно не определены даже такие фундаментальные вопросы, как кому принадлежат данные, кто автор сгенерированного с помощью искусственного интеллекта контента. Не установлены единые возрастные ограничения по использованию ИИ - ведь даже у взрослых людей известны случаи эмоциональной привязанности к ИИ-помощникам", - сказал во вторник ТАСС Бирюков.

Ученый считает, что искусственно остановить процесс развития ИИ-систем в мире, как это предлагают Илон Маск и другие эксперты, невозможно.

"Эту гонку за дальнейшее технологическое превосходство невозможно прервать. Но необходимо взяться в ускоренном режиме за проработку норм регулирования ИИ. И делать это нужно срочно", - уточнил он.

Данные пользователей

Ранее 31 марта итальянское ведомство по защите персональных данных распорядилось временно ограничить использование чат-ботом ChatGPT компании OpenAI личных данных пользователей в стране. Ведомство, в частности, указало на отсутствие информации для пользователей о том, чьи данные собирает компания, а также отсутствие "правовой основы для массового сбора и хранения персональных данных с целью "обучения" алгоритмов в основе платформы". Сервис, по мнению регулятора, также не располагает фильтром для проверки возраста пользователей. Разработчика обязали в течение 20 дней сообщить о принятых мерах, иначе компании будет выписан штраф.

"Компания-создатель ChatGPT фактически действует так же, как и многие разработчики ИИ - собирает персональные данные, деперсонифицирует их и "обучает" на них модель. При желании пользователь может запросить удаление всех своих данных, однако, естественно, если модель уже была "дообучена" на данных пользователя, то изъять данные из модели будет невозможно", - прокомментировал ситуацию Бирюков.

Угрозы утечек

Руководитель проектов направления правовых исследований и юридического сопровождения Центра компетенций НТИ по большим данным МГУ им. М. В. Ломоносова Сергей Афанасьев считает одной из возможных причин решения итальянского регулятора о введении ограничений в отношении сервиса произошедшую в марте утечку персональных данных пользователей ChatGPT.

"Это имена и фамилии [пользователей], адреса электронных почт, часть платежных реквизитов, [которые оказались видны части других активных пользователей сервиса] из-за сбоя алгоритма. Это свидетельствует о том, что меры обеспечения безопасности персональных данных, по всей видимости, оказались недостаточны", - пояснил эксперт.

Он также указал на то, что опубликованная разработчиком политика конфиденциальности включает в себя перечень данных о пользователе, которые собирает и использует система. Однако использование персональных данных в целях "обучения" модели ChatGPT напрямую не названо в числе целей обработки данных, хотя такие механизмы составляют основу развития ИИ-систем, добавил Афанасьев.

"При этом раздел о безопасности данных фактически ограничивается заверением использования компанией "коммерчески обоснованных технических, административных и организационных мер защиты". Поэтому для большей прозрачности стоит прописать более конкретные цели и методы обработки данных (в том числе цели "обучения" модели ИИ), а также меры обеспечения безопасности личной информации. Это позволит повысить как безопасность, так и доверие пользователей к сервису", - считает юрист.

04/04/2023

Источники: https://nauka.tass.ru
Личный кабинет
логин      
пароль    
Российская академия наук
Институт проблем развития науки РАН © Copyright 2010-2024