Право и технологии
Новый закон об ИИ в России: не запрет, а режим контроля
Разбираю, что готовят для нейросетей: маркировка AI-контента, ограничения из-за персональных данных и авторские права — простым языком и с выводами для бизнеса.
Рано или поздно государство должно было взяться за регулирование искусственного интеллекта и нейросетей в России. Сейчас это выглядит не как «завтра всё запретим», а как запуск затяжного режима контроля: маркировка AI-контента, требования к персональным данным и попытка навести порядок с авторскими правами на AI-генерацию. Разбираю по пунктам — простым языком и без паники.
Что происходит: законопроект о регулировании ИИ

Речь идёт о законопроекте об ИИ в России: документ ещё в разработке, но вектор уже читается достаточно чётко. Сценарий сейчас похож не на «тотальный запрет нейросетей», а на постепенное ужесточение правил, в которое бизнесу придётся встроиться.

Маркировка AI-контента

Метка для человека и машиночитаемая метка

Самый понятный и близкий к реальности шаг — обязательная маркировка контента, созданного нейросетями. Планируется, что у AI-контента появятся видимые пометки для людей и машиночитаемые метки в метаданных, как минимум для видео и изображений.

Почему это вводят: фейки и доверие к видео/фото

Фотографии и видео больше нельзя воспринимать как «железное доказательство»: уровень фейков и дипфейков уже слишком высок. Маркировка выглядит попыткой вернуть хотя бы базовую прозрачность и дать пользователю понять, что перед ним сгенерированный материал, а не реальная съёмка.

Что с текстами: пока непонятно, как будут реализовывать

С текстами всё пока туманно: непонятно, как технически проверять, кто и где обязан ставить метку и какие именно сценарии попадут под обязательную маркировку. Детали и механизмы будут «допридумывать» по ходу, уже после принятия базового контура регулирования.

Ключевой вывод: маркировка AI-контента со временем превратится в стандарт, к которому придётся привыкнуть так же, как мы привыкли к рекламным пометкам и дисклеймерам.

Иностранные нейросети и персональные данные

Прямого запрета нет, но есть ограничения по ПДн

Популярный вопрос: «Запретят ли ChatGPT, Claude, Gemini и другие иностранные нейросети в России?» Прямого и окончательного запрета для всех в существующем контуре не просматривается, но появляется куда более приземлённый барьер — регулирование персональных данных и трансграничной передачи данных.

Когда риск высокий: CRM, заявки, переписка, телефоны

С 1 июля 2025 ужесточены требования к обработке и локализации персональных данных: бизнесу нельзя строить процессы так, чтобы ПДн россиян изначально собирались и обрабатывались в зарубежных базах. Если вы «кормите» зарубежный ИИ данными клиентов — ФИО, телефоны, заявки, переписки, карточки из CRM — вы уже заходите в зону трансграничной передачи и потенциальных рисков по ПДн.

Бытовое использование vs бизнес-процессы

Для бытового использования нейросетей ситуация мягче: когда вы «играетесь» с генерацией картинок или текстов без постоянного потока клиентских данных, риски существенно ниже. В бизнес-процессах, где постоянно крутятся реальные данные людей, уровень требований и внимательность регулятора будут намного выше.

Ключевой вывод: иностранные нейросети, скорее всего, останутся доступны, но коммерческое использование с данными клиентов потребует аккуратной архитектуры и юридической гигиены.

Авторское право на контент, созданный ИИ

Кто владеет результатом генерации

Отдельный блок — авторские права на контент, созданный генеративными моделями: кому принадлежат права на текст, картинку или видео, если их сгенерировал ИИ. Сейчас рынок живёт в «серой зоне»: кто-то считает, что права у пользователя, кто-то — что у платформы, а кто-то вообще не видит у такого контента владельца.

Где граница «автоматически» и «творческий вклад человека»

Законодатели пытаются провести границу между «автоматической генерацией» и существенным творческим вкладом человека. В том числе обсуждается идея, что имущественные права на полностью автоматическую генерацию могут закрепляться за оператором системы на ограниченный срок.

Ключевой вывод: если вы делаете коммерческий визуал, ролики или тексты на нейросетях, вопрос прав станет частью договоров и внутренней документации.

Что это значит для бизнеса

1) Серые схемы с ИИ и данными клиентов будут выжигать первыми
Самое уязвимое место — не то, «кто чем генерирует», а какие данные бизнес отправляет в сторонние сервисы: ПДн, карточки из CRM, переписка и входящие заявки.

2) Компании начнут тащить ИИ в локальный контур (on-premise)
Чтобы не играть в рулетку с трансграничной передачей данных, бизнес будет активнее разворачивать модели на своих мощностях, внутри собственной инфраструктуры и в юрисдикции РФ.

3) Автоматически подсвечиваются отечественные модели и платформы
Отечественным решениям проще пробиться в корпоративные процессы: меньше юридического трения, легче объяснить, где и как хранятся данные, и проще пройти внутренние проверки безопасности.

Итог: к чему готовиться уже сейчас

В целом всё выглядит ожидаемо: рынок ИИ растёт, денег и хаоса становится больше, и государство пытается перевести это в зону «понятных правил». На практике для бизнеса это означает аудит своих процессов, ревизию того, какие данные куда уходят, и более осознанный выбор нейросетевых инструментов.

Если вы используете ИИ в работе, имеет смысл уже сейчас разделить потоки: где можно работать с обезличенными данными и текстами, а где категорически нельзя выносить ПДн наружу. Параллельно стоит смотреть в сторону локальных решений и готовить юридическую базу: политика обработки данных, договоры с подрядчиками, согласия, внутренние регламенты.
FAQ: закон об ИИ и нейросетях в России

1) Запретят ли ChatGPT / Claude / Gemini в России?
Прямого “запрета для всех” логичнее не ждать. Реальные ограничения чаще упираются в персональные данные и трансграничную передачу в бизнес-процессах.
2) Нужно ли будет маркировать контент, созданный нейросетями?
С высокой вероятностью да: как минимум для видео/изображений. Вектор на метки “для людей” и машиночитаемые метаданные уже обсуждается.
3) Что делать бизнесу, который использует ИИ в работе с заявками и CRM?
Не отправлять в зарубежные сервисы персональные данные клиентов (ФИО, телефоны, переписку, карточки CRM) без понимания юридических рисков. Разводить “данные” и “обезличенные тексты”.
4) Можно ли пользоваться нейросетями для личных целей?
Для бытовых задач риск обычно ниже, потому что нет потоковой обработки данных клиентов. Но всё равно стоит думать головой, что именно вы загружаете.
5) Кому принадлежат права на тексты/картинки/видео, сгенерированные ИИ?
Идёт попытка закрепить правила: где автоматическая генерация, где вклад человека, кто считается правообладателем. Это одна из самых конфликтных тем, потому что рынок сейчас в “серой зоне”.
6) Почему компании будут уходить в локальный контур (on-premise)?
Чтобы снизить риски по трансграничке и хранению данных: модели разворачивают на своих мощностях/внутри инфраструктуры, где проще контролировать цепочку данных.
7) Усилятся ли отечественные нейросети из-за регулирования?
Скорее да: их проще юридически интегрировать в процессы, особенно если внутри крутятся данные клиентов. Это не “победа качества”, а “победа удобства внедрения”.
Made on
Tilda