Право и технологии

Новый закон об ИИ в России: не запрет, а режим контроля

Разбираю, что готовят для нейросетей: маркировка AI-контента, ограничения из-за персональных данных и авторские права — простым языком и с выводами для бизнеса.
Рано или поздно государство должно было взяться за регулирование искусственного интеллекта и нейросетей в России. Сейчас это выглядит не как «завтра всё запретим», а как запуск затяжного режима контроля: маркировка AI-контента, требования к персональным данным и попытка навести порядок с авторскими правами на AI-генерацию. Разбираю по пунктам — простым языком и без паники.

Что происходит: законопроект о регулировании ИИ

Речь идёт о законопроекте об ИИ в России: документ ещё в разработке, но вектор уже читается достаточно чётко. Сценарий сейчас похож не на «тотальный запрет нейросетей», а на постепенное ужесточение правил, в которое бизнесу придётся встроиться.

Маркировка AI-контента

Метка для человека и машиночитаемая метка

Самый понятный и близкий к реальности шаг — обязательная маркировка контента, созданного нейросетями. Планируется, что у AI-контента появятся видимые пометки для людей и машиночитаемые метки в метаданных, как минимум для видео и изображений.

Почему это вводят: фейки и доверие к видео/фото

Фотографии и видео больше нельзя воспринимать как «железное доказательство»: уровень фейков и дипфейков уже слишком высок. Маркировка выглядит попыткой вернуть хотя бы базовую прозрачность и дать пользователю понять, что перед ним сгенерированный материал, а не реальная съёмка.

Что с текстами: пока непонятно, как будут реализовывать

С текстами всё пока туманно: непонятно, как технически проверять, кто и где обязан ставить метку и какие именно сценарии попадут под обязательную маркировку. Детали и механизмы будут «допридумывать» по ходу, уже после принятия базового контура регулирования.

Ключевой вывод: маркировка AI-контента со временем превратится в стандарт, к которому придётся привыкнуть так же, как мы привыкли к рекламным пометкам и дисклеймерам.

Иностранные нейросети и персональные данные

Прямого запрета нет, но есть ограничения по Персональным данным

Популярный вопрос: «Запретят ли ChatGPT, Claude, Gemini и другие иностранные нейросети в России?» Прямого и окончательного запрета для всех в существующем контуре не просматривается, но появляется куда более приземлённый барьер — регулирование персональных данных и трансграничной передачи данных.

Когда риск высокий: CRM, заявки, переписка, телефоны

С 1 июля 2025 ужесточены требования к обработке и локализации персональных данных: бизнесу нельзя строить процессы так, чтобы ПДн россиян изначально собирались и обрабатывались в зарубежных базах. Если вы «кормите» зарубежный ИИ данными клиентов — ФИО, телефоны, заявки, переписки, карточки из CRM — вы уже заходите в зону трансграничной передачи и потенциальных рисков по ПДн.

Бытовое использование vs бизнес-процессы

Для бытового использования нейросетей ситуация мягче: когда вы «играетесь» с генерацией картинок или текстов без постоянного потока клиентских данных, риски существенно ниже. В бизнес-процессах, где постоянно крутятся реальные данные людей, уровень требований и внимательность регулятора будут намного выше.

Ключевой вывод: иностранные нейросети, скорее всего, останутся доступны, но коммерческое использование с данными клиентов потребует аккуратной архитектуры и юридической гигиены.

Авторское право на контент, созданный ИИ

Кто владеет результатом генерации

Отдельный блок — авторские права на контент, созданный генеративными моделями: кому принадлежат права на текст, картинку или видео, если их сгенерировал ИИ. Сейчас рынок живёт в «серой зоне»: кто-то считает, что права у пользователя, кто-то — что у платформы, а кто-то вообще не видит у такого контента владельца.

Где граница «автоматически» и «творческий вклад человека»

Законодатели пытаются провести границу между «автоматической генерацией» и существенным творческим вкладом человека. В том числе обсуждается идея, что имущественные права на полностью автоматическую генерацию могут закрепляться за оператором системы на ограниченный срок.

Ключевой вывод: если вы делаете коммерческий визуал, ролики или тексты на нейросетях, вопрос прав станет частью договоров и внутренней документации.

Что это значит для бизнеса

1) Серые схемы с ИИ и данными клиентов будут выжигать первыми

Самое уязвимое место — не то, «кто чем генерирует», а какие данные бизнес отправляет в сторонние сервисы: ПДн, карточки из CRM, переписка и входящие заявки.

2) Компании начнут тащить ИИ в локальный контур (on-premise)

Чтобы не играть в рулетку с трансграничной передачей данных, бизнес будет активнее разворачивать модели на своих мощностях, внутри собственной инфраструктуры и в юрисдикции РФ.

3) Автоматически подсвечиваются отечественные модели и платформы

Отечественным решениям проще пробиться в корпоративные процессы: меньше юридического трения, легче объяснить, где и как хранятся данные, и проще пройти внутренние проверки безопасности.

Итог: к чему готовиться уже сейчас

В целом всё выглядит ожидаемо: рынок ИИ растёт, денег и хаоса становится больше, и государство пытается перевести это в зону «понятных правил». На практике для бизнеса это означает аудит своих процессов, ревизию того, какие данные куда уходят, и более осознанный выбор нейросетевых инструментов.

Если вы используете ИИ в работе, имеет смысл уже сейчас разделить потоки: где можно работать с обезличенными данными и текстами, а где категорически нельзя выносить ПДн наружу. Параллельно стоит смотреть в сторону локальных решений и готовить юридическую базу: политика обработки данных, договоры с подрядчиками, согласия, внутренние регламенты.
Made on
Tilda