Что происходит: законопроект о регулировании ИИ
Речь идёт о законопроекте об ИИ в России: документ ещё в разработке, но вектор уже читается достаточно чётко. Сценарий сейчас похож не на «тотальный запрет нейросетей», а на постепенное ужесточение правил, в которое бизнесу придётся встроиться.
Маркировка AI-контента
Метка для человека и машиночитаемая метка
Самый понятный и близкий к реальности шаг — обязательная маркировка контента, созданного нейросетями. Планируется, что у AI-контента появятся видимые пометки для людей и машиночитаемые метки в метаданных, как минимум для видео и изображений.
Почему это вводят: фейки и доверие к видео/фото
Фотографии и видео больше нельзя воспринимать как «железное доказательство»: уровень фейков и дипфейков уже слишком высок. Маркировка выглядит попыткой вернуть хотя бы базовую прозрачность и дать пользователю понять, что перед ним сгенерированный материал, а не реальная съёмка.
Что с текстами: пока непонятно, как будут реализовывать
С текстами всё пока туманно: непонятно, как технически проверять, кто и где обязан ставить метку и какие именно сценарии попадут под обязательную маркировку. Детали и механизмы будут «допридумывать» по ходу, уже после принятия базового контура регулирования.
Ключевой вывод: маркировка AI-контента со временем превратится в стандарт, к которому придётся привыкнуть так же, как мы привыкли к рекламным пометкам и дисклеймерам.
Иностранные нейросети и персональные данные
Прямого запрета нет, но есть ограничения по ПДн
Популярный вопрос: «Запретят ли ChatGPT, Claude, Gemini и другие иностранные нейросети в России?» Прямого и окончательного запрета для всех в существующем контуре не просматривается, но появляется куда более приземлённый барьер — регулирование персональных данных и трансграничной передачи данных.
Когда риск высокий: CRM, заявки, переписка, телефоны
С 1 июля 2025 ужесточены требования к обработке и локализации персональных данных: бизнесу нельзя строить процессы так, чтобы ПДн россиян изначально собирались и обрабатывались в зарубежных базах. Если вы «кормите» зарубежный ИИ данными клиентов — ФИО, телефоны, заявки, переписки, карточки из CRM — вы уже заходите в зону трансграничной передачи и потенциальных рисков по ПДн.
Бытовое использование vs бизнес-процессы
Для бытового использования нейросетей ситуация мягче: когда вы «играетесь» с генерацией картинок или текстов без постоянного потока клиентских данных, риски существенно ниже. В бизнес-процессах, где постоянно крутятся реальные данные людей, уровень требований и внимательность регулятора будут намного выше.
Ключевой вывод: иностранные нейросети, скорее всего, останутся доступны, но коммерческое использование с данными клиентов потребует аккуратной архитектуры и юридической гигиены.
Авторское право на контент, созданный ИИ
Кто владеет результатом генерации
Отдельный блок — авторские права на контент, созданный генеративными моделями: кому принадлежат права на текст, картинку или видео, если их сгенерировал ИИ. Сейчас рынок живёт в «серой зоне»: кто-то считает, что права у пользователя, кто-то — что у платформы, а кто-то вообще не видит у такого контента владельца.
Где граница «автоматически» и «творческий вклад человека»
Законодатели пытаются провести границу между «автоматической генерацией» и существенным творческим вкладом человека. В том числе обсуждается идея, что имущественные права на полностью автоматическую генерацию могут закрепляться за оператором системы на ограниченный срок.
Ключевой вывод: если вы делаете коммерческий визуал, ролики или тексты на нейросетях, вопрос прав станет частью договоров и внутренней документации.
Что это значит для бизнеса
1) Серые схемы с ИИ и данными клиентов будут выжигать первыми
Самое уязвимое место — не то, «кто чем генерирует», а какие данные бизнес отправляет в сторонние сервисы: ПДн, карточки из CRM, переписка и входящие заявки.
2) Компании начнут тащить ИИ в локальный контур (on-premise)
Чтобы не играть в рулетку с трансграничной передачей данных, бизнес будет активнее разворачивать модели на своих мощностях, внутри собственной инфраструктуры и в юрисдикции РФ.
3) Автоматически подсвечиваются отечественные модели и платформы
Отечественным решениям проще пробиться в корпоративные процессы: меньше юридического трения, легче объяснить, где и как хранятся данные, и проще пройти внутренние проверки безопасности.
Итог: к чему готовиться уже сейчас
В целом всё выглядит ожидаемо: рынок ИИ растёт, денег и хаоса становится больше, и государство пытается перевести это в зону «понятных правил». На практике для бизнеса это означает аудит своих процессов, ревизию того, какие данные куда уходят, и более осознанный выбор нейросетевых инструментов.
Если вы используете ИИ в работе, имеет смысл уже сейчас разделить потоки: где можно работать с обезличенными данными и текстами, а где категорически нельзя выносить ПДн наружу. Параллельно стоит смотреть в сторону локальных решений и готовить юридическую базу: политика обработки данных, договоры с подрядчиками, согласия, внутренние регламенты.