Законопроект о регулировании ИИ: что известно уже сейчас

Опубликовано: 09.04.2026

Минцифры представило проект закона о регулировании нейросетей. Если вы используете их для генерации текстов, рекламных креативов или автоматизации рассылок — правовой статус вашей работы скоро изменится.


В статье расскажем, какие требования к контенту появятся в ближайшее время и как адаптировать бизнес-процессы, чтобы не нарваться на штрафы. Разобраться в теме помогла Ксения Цыганская, юрист по рекламе в сфере авторских и интеллектуальных прав.

МультиТрекинг

    считает звонки, заявки и письма с рекламы

    показывает, с каких объявлений приходят клиенты

    помогает оптимизировать рекламу

Что изменит новый закон: основные положения

Документ проходит публичные обсуждения, поэтому отдельные требования ещё могут измениться. Вот о чём говорят сейчас:


Нейросети разделят на суверенные, национальные и доверенные. Первые две категории будут включать только модели, полностью созданные и обученные в России. Их смогут разрабатывать физлица и компании — но при условии, что более половины бизнеса принадлежит российским гражданам или государству.


Для доверенных моделей создадут отдельный реестр. В него войдут системы, которые прошли сертификацию безопасности в ФСТЭК и ФСБ. Только эти нейросети можно будет внедрять в работу госуслуг, больниц, банков и общественного транспорта. Это нужно, чтобы ПД граждан оставались внутри страны, а важные службы, например диспетчерские метро, не зависели от иностранных программ и не могли быть отключены извне.


Разрабатывать и обучать ИИ-модели за пределами России будет запрещено. Ограничение касается всех ключевых этапов создания системы — от разработки архитектуры до финального обучения модели. Международное сотрудничество закон разрешает только в формате научных исследований и обмена данными.

Закон также вводит понятие «трансграничных технологий искусственного интеллекта». К ним относятся случаи, когда модель разрабатывается или обучается с участием иностранных компаний либо на зарубежных серверах. Пока такие технологии не запрещены. Однако государство оставляет за собой право в любой момент ограничить или полностью запретить их использование, если посчитает это необходимым.

Разработчиков и владельцев сервисов обяжут учитывать риски использования ИИ. Первые должны исключать из моделей функции, которые могут привести к дискриминации людей по каким-либо признакам. Вторые обязаны следить за тем, чтобы пользователи не совершали противоправных действий с помощью нейросетей.


Например, нельзя использовать ИИ для создания поддельных видео и голосов, чтобы обманывать людей. Владельцы сервисов также должны блокировать попытки взломать чужие пароли, создать вредоносные программы или запустить массовую рассылку ложных новостей.


Контент, созданный с помощью ИИ, придётся маркировать. Требование касается изображений, видео и аудио. Пользователь должен понимать, что перед ним материал, сгенерированный нейросетью.

Контент, созданный с помощью ИИ, будет подпадать под те же нормы авторского и интеллектуального права, которые уже действуют в России. Общее правило остаётся прежним: права принадлежат тому, кто создал или разработал контент. Исключение возможно только в том случае, если стороны прописали другие условия в договоре или соглашении.

Кого коснётся закон о регулировании нейросетей: от разработчика до простого пользователя

Разработчик создаёт и обучает нейросеть. Он отвечает за её безопасность: документирует архитектуру, оценивает риски и исключает функции, которые могут привести к дискриминации пользователей. Например, ИИ-скрининг резюме не должен отсеивать кандидатов по полу, возрасту или этнической принадлежности.


Ещё по новому правилу разработчик должен проверять, на каких данных обучается модель. Использовать материалы, защищённые авторским правом, можно только с разрешения правообладателя.


Оператор отвечает за работу нейросети после её запуска: тестирует систему, отслеживает ошибки и также следит за безопасностью. Если появляется риск вреда людям, имуществу или государству, он обязан остановить систему до устранения проблемы.


Владелец сервиса предоставляет доступ к нейросети через сайт, приложение или другой интерфейс. Он устанавливает правила использования, предупреждает людей о взаимодействии с ИИ и вводит ограничения, которые не позволяют генерировать незаконный контент.


Если сервисом пользуется более 500 тысяч человек в сутки, на него распространяются требования закона об информации — такие же, как для крупных интернет-площадок и социальных сетей.


Пользователь — это человек или компания, которая применяет нейросеть в своей работе. Он обязан соблюдать правила сервиса и не пытаться обходить встроенные ограничения.


Маркетологи и предприниматели чаще всего попадают под две последние категории:

  • Если бизнес внедряет ИИ-инструмент в собственный сервис или продукт и даёт к нему доступ клиентам, он становится владельцем.
  • Если компания использует нейросети для генерации текстов, изображений или автоматизации коммуникации с клиентами, она выступает пользователем. 
Callibri
Читайте также

Кто ответит за результат работы нейросети: разбираемся в зонах ответственности

Если использование нейросети приводит к нарушению закона — например, к созданию запрещённого контента, — сначала выясняют, на каком этапе возникла проблема, и кто в этот момент отвечал за работу системы.


Для разработчиков, операторов и владельцев сервисов действует презумпция вины. Это значит, что по умолчанию ответственность за результат работы ИИ лежит на них. Чтобы снять её с себя, компания должна доказать, что проверяла систему перед запуском, оценивала риски и соблюдала установленные правила работы с нейросетями.


Если один из участников рынка уже возместил ущерб, он может потребовать компенсацию с другого. Например, оператор сервиса сможет взыскать убытки с разработчика, если выяснится, что проблема возникла из-за ошибки в модели, которую нельзя было выявить при обычной проверке.

О конкретных мерах ответственности говорить пока рано. Известно лишь, что она будет административной, но ни размеров штрафов, ни контролирующего органа в проекте закона пока нет. Основная обязанность маркировать контент ложится на владельцев ИИ-сервисов. Однако блогеры с аудиторией более 100 тысяч человек будут обязаны самостоятельно проверять наличие таких предупреждений на своих площадках.

При этом закон оставляет лазейку для пользователей: посетители сайтов или соцсетей могут официально согласиться на отказ от уведомлений. В таком случае владелец сервиса или блогер имеют право не сообщать им об использовании нейросетей.

Маркировка ИИ-контента: какие требования прописаны в законе

Владельцев ИИ-сервисов обяжут маркировать аудио, видео и другие материалы, созданные нейросетями. Пометка должна быть заметной для человека и одновременно читаться автоматическими системами. Это позволит отличать синтетический контент от обычного.


Популярные сайты и соцсети с аудиторией более 100 тысяч человек в сутки обязаны проверять наличие маркировки на видео и фото, созданных ИИ. Если такой пометки нет, площадка будет вынуждена удалить контент.

Законопроект о регулировании использования ИИ в России задаёт только общие правила. В нём пока нет механизма, который объясняет, как будут проверять предупреждение о том, что контент создан нейросетью. Также не прописаны штрафы за такие нарушения. Скорее всего, конкретные санкции появятся позже — когда в Кодекс об административных правонарушениях внесут отдельные поправки. По опыту похожих законов это может произойти не раньше 2028 года.

Компаниям придётся предупреждать клиентов, что они общаются с ИИ. Требование касается ситуаций, когда продажа товаров или услуг проходит без участия человека. Например, если заказ оформляет чат-бот или голосовой помощник.


Если клиент не захочет общаться с ИИ — компания должна предложить альтернативу. Например, добавить кнопку вызова живого оператора. Конкретных правил и ситуаций, когда будет действовать это правило, пока нет.

Новый закон не отменяет существующие нормы, а дополняет их. Например, он напрямую связан с законодательством о защите прав потребителей. В проекте прямо указано, что продавец должен предупредить покупателя, если при создании товара или услуги использовали искусственный интеллект.

По своей логике такое предупреждение похоже на обязательные пометки в рекламе. Например, как предупреждения в рекламе алкоголя, медицинских товаров или БАДов. Их задача — дать человеку дополнительную информацию перед тем, как он принимает решение о покупке.

Новые задачи маркетологов: как изменятся привычные процессы после введения закона

Основные изменения будут связаны не с запретами, а с необходимостью перестроить процессы.

  • Маркетологам придётся самостоятельно следить за тем, чтобы весь контент, созданный нейросетями, был промаркирован. Российские сервисы типа «Шедеврума» или Kandinsky будут ставить пометку автоматически. А вот при работе с ChatGPT, Claude, Midjourney и другими зарубежными инструментами маркировку, скорее всего, нужно добавлять вручную. Без неё контент могут удалить с платформы.
  • Генерировать тексты, изображения и видео без оглядки на авторское право и требования закона больше не получится. Нельзя просто взять чужие фотографии из блогов, новостных сайтов или стоков и использовать их без разрешения правообладателя. Специалисты будут вынуждены внимательнее относиться к источникам данных для обучения и генерации.
  • Разработчикам чат-ботов и автоворонок придётся перенастроить сценарии диалогов. Пользователь должен сразу понимать, что общается с нейросетью, а не с человеком. Кроме того, в любой момент диалога нужно предусмотреть возможность перехода к живому оператору — это потребует изменения всей логики воронки.
Callibri
Читайте также

Зарубежные нейросети: можно ли будет использовать ChatGPT и аналоги

Сейчас прямого запрета на использование иностранных нейросетей нет. Маркетологи могут и дальше работать с привычными инструментами: ChatGPT, Claude или Midjourney. Однако государство берёт курс на технологический суверенитет. В законе появятся понятия «национальных» и «суверенных» моделей — это софт, который полностью создан и обучен в России. Именно такие нейросети станут приоритетными для госструктур и критически важных отраслей.


Жёстких ограничений для бизнеса пока не вводят, но закон оставляет за государством право пересмотреть правила в будущем. Поэтому, если ваши задачи связаны с ПД клиентов или ключевыми бизнес-процессами, стоит начать тестировать российские сервисы.

Лучшая стратегия сейчас — придерживаться золотой середины. Продолжайте использовать зарубежные сервисы, пока это возможно, но постепенно подбирайте комфортные российские альтернативы. Это ваш "план Б": если доступ к иностранным моделям ограничат или условия на рынке резко изменятся, вы сможете продолжить работу без остановок.

Чек-лист для бизнеса: как адаптироваться к новым правилам уже сейчас

  1. Проверьте, где в компании используют нейросети. Составьте список задач, которые закрываются с помощью ИИ. Посмотрите, кто и для чего его применяет: пишет тексты, делает баннеры, монтирует видео, настраивает чат-ботов. Так вы поймёте, какой объём контента в будущем попадёт под действие закона.
  2. Оцените риски блокировок. Отметьте, какие задачи у вас завязаны на зарубежные сервисы. Подумайте, чем их можно заменить, если доступ ограничат. Отказываться от привычных инструментов прямо сейчас необязательно, но для каждого критически важного процесса лучше заранее подобрать и протестировать российскую альтернативу.
  3. Протестируйте российские сервисы. Попробуйте в работе отечественные модели — например, YandexGPT или Kandinsky. Сравните результат с тем, что дают привычные зарубежные инструменты, и при необходимости доработайте промпты. Это поможет быстрее адаптироваться, если иностранные сервисы станут недоступны.
  4. Пропишите правила для подрядчиков. Добавьте в работу с фрилансерами и агентствами важное условие: они обязаны сообщать вам, если используют нейросети. Это нужно, чтобы вы вовремя поставили маркировку на их работу и не получили штрафы, если она всё-таки появятся.
  5. Заведите архив промптов. Для самых важных задач, например, создания стратегии или генерации сложных текстов, сохраняйте исходные запросы и результаты выдачи. Если в будущем возникнет спор об авторстве, вы легко докажете, что нейросеть была лишь инструментом, а финальный продукт создал и проверил ваш специалист.
При внутреннем аудите маркетинга важно помнить: к нейросетям применимы те же правила, что и к обычной рекламе. Контент не должен быть дискриминационным, задевать частную жизнь или вредить чьей-то репутации. Это стандартный набор требований, к которому маркетологи уже привыкли.

Если вы внедряете сложные системы или чат-ботов, уже сейчас зафиксируйте в инструкциях логику их работы и пропишите запрет на манипуляцию поведением пользователей. Такая подготовка поможет быстрее пройти проверки, когда в России введут официальные стандарты и реестры.

Вместо заключения: к чему готовиться бизнесу

  • Закон о регулировании ИИ ещё только готовится, и правила могут поменяться. Но уже ясно: государство берёт нейросети под контроль. Для компаний это не значит, что технологии запретят — просто теперь придётся работать по определённым правилам.
  • Компании смогут продолжать использовать привычные инструменты — от генерации рекламных креативов до чат-ботов и автоворонок. Однако вокруг этих процессов придётся выстроить дополнительные проверки: следить за маркировкой контента, контролировать источники материалов и корректно настраивать автоматические коммуникации с клиентами.
  • Самое разумное решение — начать готовиться заранее. Если маркетинговые команды уже сейчас проверят, где и как используют нейросети, протестируют альтернативные сервисы и пропишут внутренние правила работы с ИИ-контентом, переход будет проще.

CRM-чат

    Пишите клиентам в мессенджеры прямо из CRM

    Не теряйте диалоги из WhatsApp, Telegram, Авито, ВКонтакте, Авто.ру и других каналов

    Сделки создаются и обновляются автоматически

Частые вопросы о регулировании ИИ

Нужно ли маркировать контент в рекламе? Если изображения или видео сделаны нейросетью, их уже сейчас рекомендуют помечать как созданные с помощью ИИ. Для текстов отдельного требования пока нет.


Кто отвечает за ошибки ИИ в рекламных кампаниях? Ответственность зависит от роли. Разработчик отвечает за работу модели, а компания или специалист, который использует нейросеть, — за результат. Например, за содержание рекламы.


Можно ли работать с зарубежными нейросетями? Да, запрета пока нет. Но эксперты советуют постепенно подключать и российские решения, чтобы снизить возможные регуляторные риски.


Какие будут штрафы? Точные суммы пока не определены. Основные риски связаны с отсутствием маркировки ИИ-контента и возможным вредом, который может возникнуть из-за его использования.

У Callibri есть телеграм-канал — присоединяйтесь, чтобы не пропустить свежие кейсы, материалы блога и обновления сервисов.
Отправить в
Полезные статьи на почту!
Узнайте, как сделать маркетинг прозрачным и эффективным. Отправляем дайджест каждый вторник.

Нажимая «подписаться», вы соглашаетесь с правилами получения рекламных рассылок

Опубликуйте статью в блоге Callibri

Подойдут материалы про маркетинг, продажи и клиентский сервис

Советуем прочитать