Новости Comply.

Данные в никуда

Insights

Как защитить конфиденциальную информацию при работе с искусственным интеллектом

Угроза утечек персональных данных – один из наиболее серьезных рисков для репутации и бизнес-процессов компании при использовании ChatGPT и аналогичных сервисов. На этом фоне многие корпорации уже ограничили доступ к языковым моделям внутри своего ИТ-контура, отмечают эксперты. Стоит ли доверять нейросетям чувствительную информацию и нужно ли менять подход к защите персональных данных и организации систем кибербезопасности при использовании ИИ в компаниях – в материале RSpectr.
Комментирует Артем Дмитриев, управляющий партнер консалтинговой компании Comply:
Искусственный интеллект – это один из инструментов использования данных наряду с другими, поэтому радикальных изменений privacy-комплаенса пока не предвидится. Специалист по защите данных или DPO (Data Protection Officer) должен быть в авангарде внедрения ИИ-систем в компании.

ИИ-сервисы необходимо оценивать с точки зрения законности и возможности передачи данных, влияния на права субъектов персданных, риски их трансграничной передачи и локализации. DPO также должен участвовать в предоставлении рекомендаций по определению правил использования таких систем и разъяснительной работе с сотрудниками.

Возможно обсуждать ужесточение регулирования в отношении отдельных сценариев, например, профайлинга клиентов или работников, а также биометрической идентификации. Для этого можно взять на вооружение опыт ЕС, который выделяет ряд запрещенных сценариев использования ИИ-систем и ранжирует их по уровню риска.
Подробнее читайте в полной версии статьи на сайте издания.