Новости Comply.

Концепция регулирования ИИ до 2030 года. Часть 2

Insights
Продолжаем. Концепция не обделила вниманием и ПД, хотя конкретных механизмов нет.

Концепция предлагает:

  • расширять случаи формирования наборов ПД гос. органами, компаниями и предоставлять их разработчикам;
  • создавать условия для внедрения облачных технологий и ИТ-аутсорсинга на фин. рынке, включая новые методы обработки ПД;
  • совершенствовать механизмы распространения, шеринга и метчинга ПД.

Пока это декларации, а не готовые механизмы. Сейчас видим, что:

  • В РФ де-факто отсутствует рабочее регулирование «открытых» ПД и наблюдается, увы, обратный процесс. Статус многих пром. данных сложно определим из-за множества отраслевых ограничений (национальных и стратегических интересов). Это давно пытается преодолеть АБД.

  • Регулирование продвинутых методов обработки ПД (PETs – технологий повышения конфиденциальности) неопределенно. Законопроекты обсуждаются, но пока, увы, нет единого мнения о подходе к таким технологиям с учетом консервативного регулирования обезличивания и средств защиты ПД в отечестве нашем.

  • ЭПР в сфере ПД еще не заработали, хотя уверенные шаги были: внесение изменений в закон об ЭПР, предоставление законного основания для обработки обезличенных ПД в «песочницах» и др. Но ЭПРы по обезличиванию и обмену через доверенного посредника, увы, но пока без успеха. Отдаем должное – много ЭПР запущено в сфере беспилотников и мед. устройств.

  • Исключения для обработки обезличенных ПД, прописаных в законе, не решают проблему: разработка и обучение моделей весьма с трудом укладываются в рамки «аналитики» или «статистики». Ценность «Госозера данных» для бизнеса по-прежнему неясна.


Для сравнения, в Южной Корее обезличенные ПД допускаются к использованию в научных, аналитических целях, для разработки и обучения ИИ-моделей, при соблюдения ряда тех. и орг. гарантий. Законодатель рассматривает новое исключение: разрешать использование ПД для обучения ИИ без их обезличивания, если цель обучения совместима с исходной целью их сбора и при разрешении регулятора. Если цели различаются, то для правового основания применяется законный интерес, который признается применимым для разработки и использования ИИ, как и в ЕС.

  • Принцип недискриминации алгоритмов. По сути, это требование debiasing, что означает доступ к большим и чувствительным наборам данных (в т.ч. из специальных категорий ПД). Как это должно работать в текущей правовой конструкции, где доступ к специальным категориям ПД возможен только с письменных согласий – вопрос широко открытый. В ЕС для этого AI Act конкретизировал исключение для обработки специальных категорий ПД в публичных интересах для целей устранения предвзятостей моделей.

Что ожидать?

Отдельного регулирования ИИ пока не планируется, но в концепции признаются «локальные регуляторные проблемы» и заявлен гибридный подход: сочетание саморегулирования, мягкого права и точечных поправок в законодательство. Это отличает РФ от других юрисдикций: в ЕС, Корее, Японии, США и Бразилии принято или готовится к принятию отдельное комплексное регулирование ИИ.

Мечтается, развитие приведет к позитивным изменениям в области ПД:

  • институционализация доверенных посредников;
  • развитие практики применения «законного интереса» для ИИ;
  • уточнение исключений для работы с обезличенными данными;
  • появление отдельного регулирования промышленных данных.

Авторы обещают подготовить план изменений за 6 месяцев после утверждения концепции. Но принять ключевые акты планируют лишь к 2030 г. Работа по отдельным направлениям активно ведется с привлечением контролирующего органа и бизнеса.

В итоге документ дает вектор, но для практиков в сфере ПД и ИИ все еще нет понятного инструментария. Надеемся на конкретные шаги. Начать можно было бы с институционализации доверенных посредников и работы по методике применения законного интереса. То есть уже начали, надеемся на окончание.