A/B‑тестирование: как перестать гадать и найти лучшее решение для рекламы и сайта
Главный враг предпринимателя и маркетолога — фраза «Я чувствую, что так лучше». Можно выбирать креативы, основываясь на личном вкусе, но вот в чём проблема: вы — это не ваша целевая аудитория. То, что вам кажется стильным и лаконичным, клиент может воспринимать как скучную рекламу. В итоге вы рискуете потратить бюджет на то, что никому не интересно.
Вместе с Артёмом Бибик, маркетологом и руководителем агентства «Трафик для бизнеса», разберём, как находить решения с высокой конверсией с помощью A/B-тестов.
Сервисы Callibri
Автоматизируем работу с лидами на всех этапах воронки
Помогаем понять, какая реклама приводит платящих клиентов
Делаем работу маркетинга прозрачной и эффективной
Что такое A/B-тестирование и почему без него вы теряете деньги
A/B-тестирование — способ проверить, какой вариант рекламы, страницы или письма приносит лучший результат. Маркетолог создаёт две версии макета, делит аудиторию пополам и сравнивает показатели. Одна часть пользователей видит исходный вариант, другая — изменённый. После запуска команда анализирует клики, заявки, продажи или стоимость клиента и масштабирует более эффективное решение.
Например, цветочная лавка готовит акцию к 14 февраля. Маркетолог предлагает сделать акцент на скидке, а собственник — на скорости доставки. Оба варианта выглядят убедительно, поэтому команда запускает A/B-тест и выделяет на каждый креатив по 10 000 ₽.

Через три дня офер со скидкой приносит почти в два раза больше заказов при одинаковом бюджете. В цифрах это выглядит так:
- Вариант А: 10 000 ₽ → 20 заказов → стоимость клиента 500 ₽.
- Вариант B: 10 000 ₽ → 40 заказов → стоимость клиента 250 ₽.
Если бы предприниматель сразу вложил весь бюджет в вариант А, компания получила бы около 400 заказов. A/B-тест показал, что вариант B работает эффективнее, поэтому основной бюджет направили на него и получили в два раза больше продаж при тех же расходах.
Какие задачи решает A/B-тестирование в маркетинге
Повышает CTR рекламы. A/B-тесты показывают, какие заголовки, иллюстрации и оферы привлекают внимание аудитории, и собирают больше кликов. Например, застройщик из Кургана сравнивал несколько вариантов объявлений с разными заголовками и визуалами под каждый поисковый запрос. В итоге он выяснил, какие креативы дают максимум конверсии, и через месяц снизил стоимость обращения до 2 142 ₽.
Помогает внедрять изменения без просадки продаж. Перед редизайном сайта или запуском нового оффера компания показывает тестовую версию фокус-группе и смотрит, как пользователи реагируют на изменения. Если люди хуже ориентируются на странице, не замечают кнопку заявки или перестают доходить до покупки, бизнес узнает об этом ещё до полноценного запуска.
Увеличивает конверсию посадочной страницы. Тестирование показывает как кнопки, формы, тексты и структура страницы влияют на заявки и покупки. Например, компания по продаже рольставней проверяла разные варианты попапов и время их появления. Выяснилось, что всплывающее окно через 40 секунд после захода собирало больше всего откликов.
Повышает конверсию email-рассылок и виджетов. A/B-тесты подсказывают, какие заголовки, кнопки и формулировки лучше вовлекают аудиторию. Например, письмо магазина электроники с темой «Топ-5 пылесосов до 20 000 ₽» может принести в три раза больше переходов на сайт, чем вариант «Посмотрите наши новинки».
Снижает стоимость привлечения клиента. A/B-тесты показывают, какие рекламные связки дают больше заявок при одинаковом бюджете. Например, туристическая компания Pangeya сравнивала несколько формулировок крючков: от дружелюбных приветствий до конкретных призывов. Она подбирала оптимальное время показа и адаптировала сообщения под разные сегменты аудитории — за счёт этого получилось увеличить количество обращений больше чем в два раза.
Помогает принимать решения на основе данных. A/B-тесты показывают, какой вариант реально приносит больше заявок и продаж. Например, интернет-магазин электроники не мог определиться с названием кнопки — «Купить сейчас» или «Добавить в корзину». Тест показал, что второй вариант приносит больше оформленных заказов.
Когда стоит запускать A/B-тестирование
Если одновременно менять заголовок на сайте, цвет кнопки и картинку — не получится определить, что именно сработало. Поэтому A/B-тесты проводят точечно: изолируют одну переменную, собирают статистически значимые данные, фиксируют победителя и только потом переходят к следующей правке. Вот что чаще всего проверяют:
Посадочные страницы. Основное внимание здесь уделяют первому экрану и формам захвата, так как они определяют, останется ли пользователь на сайте. Сравнивают главные оферы, количество полей в анкетах, иерархию блоков и расположение CTA-кнопок.
👉 Например, на странице услуг замена сложного технического описания на видео с демонстрацией процесса может увеличить конверсию, так как визуальный контент проще для восприятия.
Рекламные объявления. Компании меняют креативы, заголовки и призывы к действию, чтобы снизить стоимость клика и привлечь более качественный трафик.
👉 Например, сравнивают классические рекламные баннеры и UGC-креативы. Последние выглядят как обычные посты в ленте, поэтому вызывают больше доверия у аудитории и чаще приводят к переходам по объявлению.
Имейл. В рассылках обычно тестируют темы писем, время отправки, структуру письма и элементы, которые удерживают внимание читателя и влияют на количество переходов на сайт.
👉 Например, тест заголовков покажет, какая подача сильнее влияет на Open Rate: интрига в стиле «Мы подготовили для вас кое-что особенное» или прямая выгода «Ваша скидка 1 000 ₽ сгорит через 2 часа».
Как провести A/B-тестирование за 5 шагов
Шаг 1. Сформулируйте цель — что хотите выяснить
Перед запуском A/B-теста нужно определить, какой элемент влияет на результат и за счёт чего это происходит. Для этого изучают поведение пользователей: куда люди кликают, на каком экране закрывают страницу, какие блоки пропускают и где чаще всего уходят с сайта.
На основе этих данных формулируют гипотезу — предположение о том, как изменения отразятся на количестве заявок, CTR или конверсии в покупку.
Хорошая гипотеза всегда отвечает на три вопроса:
- Что меняем?
- Как изменения повлияют на конкретный показатель?
- Почему это должно сработать?

Шаг 2. Определите метрику — по какому показателю отслеживать результат
Обычно для теста выбирают один главный параметр и несколько дополнительных, чтобы понимать, как изменения влияют на трафик и продажи. Например, при тестировании лендинга смотрят на конверсию в заявку, качество лидов и процент отказов. Новый офер может давать больше обращений, но привлекать нецелевую аудиторию. В итоге количество заявок растёт, а продажи — нет.
Не усложняйте таргетинг на старте. Ключевые запросы вроде "купить [товар]" или "[услуга] цена" — это люди с намерением. Они конвертируют лучше, чем аудитория по интересам или похожим базам. Сначала соберите статистику на "горячих", потом уточняйте.
Шаг 3. Выберите элемент для тестирования — только одно изменение
Для первых тестов лучше брать элементы, которые напрямую влияют на конверсию: офер, заголовок, первый экран, форму заявки или CTA-кнопку. Определить приоритет помогает аналитика. Если пользователи массово закрывают страницу на первом экране, логичнее тестировать заголовок или офер, а не цвет кнопки внизу сайта. Если посетители доходят до формы, но не оставляют заявку, проблема может быть в количестве полей или расположении кнопок.
Когда идей для тестов становится много, их приоритезирует через фреймворки ICE и PIE. Первый помогает оценить потенциальное влияние изменений на результат, уверенность в прогнозе и сложность запуска. Второй работает похожим образом, но вместо сложности учитывает важность страницы или элемента для бизнеса. Например, тесты на странице оформления заказа обычно получают более высокий приоритет, чем изменения в блоге компании.
В большинстве проектов я сначала тестирую офер и призыв к действию. Например, одно объявление ведёт человека сразу на каталог с ценами, а другое предлагает сначала «узнать стоимость». Такие изменения часто влияют на заявки сильнее, чем новый дизайн или цвет кнопки.
Дальше всё зависит от ниши. В товарке часто работает тест цены или доставки. В услугах — акцент на результат или процесс — “покажем кейсы” против “рассчитаем за 15 минут”. Не копируйте чужие гипотезы: сначала поймите, что волнует вашу аудиторию.
Шаг 4. Рассчитайте размер выборки — сколько людей должно поучаствовать в тесте
Проще всего использовать бесплатный калькулятор, например, AB Testguide. Понадобятся три параметра:
- Текущая конверсия (BCR) — её берут из исторических данных за 2–4 недели. Чем ниже ваш базовый показатель, тем больше людей нужно, чтобы заметить изменения.
- Минимальный ожидаемый эффект (MDE) — насколько должна вырасти метрика, чтобы результат теста вообще имел смысл для бизнеса. Например, если вы хотите увеличить конверсию с 5% до 5,1%, системе понадобится очень много данных, чтобы заметить такую маленькую разницу.
- Уровень надёжности — он показывает, насколько можно доверять результатам теста. Обычно используют стандартное значение — 95%. Это значит, что в 95 случаях из 100 вывод теста будет верным. Его не рассчитывают вручную: этот параметр уже есть в калькуляторах и специализированных сервисах.
Открываете калькулятор, вводите данные и оцениваете результат. Бывает, что для теста нужно 50 000 человек, а у вас всего 100 заходов в день. В таком случае бессмысленно тестировать цвет кнопки или мелкие правки. Чтобы сократить размер выборки — вносите более глобальные изменения, например, перепишите офер.
Шаг 5. Запустите тестирование и оцените результат
Разделите аудиторию поровну, чтобы обе версии быстрее набрали нужный объём данных. Не вносите изменения в страницу, рекламу или офер до завершения теста — иначе результаты исказятся, и станет непонятно, что именно повлияло на конверсию. Не останавливайте тест после первых удачных цифр. Сравнивайте результаты по основным и дополнительным метрикам, которые определили на шаге 2.
Следите не только за кликами, но и за бизнес-показателями. Если вариант B привёл больше трафика, но не увеличил количество продаж или заявок, такой тест нельзя считать успешным. Оценивайте стоимость целевого действия, качество лидов и итоговую выручку.
Инструменты для A/B тестирования
Дашборд аналитики Callibri собирает основные маркетинговые метрики на одном экране — сможете быстро отследить, какие объявления, посадочные и прочие каналы приводят больше всего заявок и по какой цене. Данные подтягиваются автоматически — из рекламных кабинетов и подключённых сервисов Callibri.
Несколько примеров, как это работает на практике:
- Запускаете два варианта объявления в Яндекс Директе → видите, какой даёт более дешёвые лиды.
- Сравниваете эффективность попапов на сайте → определяете, как дизайн и время показа влияют на конверсию.
- Анализируете посадочные → добавляете крючки на самые посещаемые, чтобы собрать больше заявок.
Подходит предпринимателям и маркетологам, которые работают с несколькими каналами одновременно и хотят видеть единую картину.
МультиТрекинг М — рекламный бюджет под контролем
Коллтрекинг, email-трекинг и отслеживание заявок с сайта в одном тарифе. Дополнительно и бесплатно — дашборд маркетолога, Попапы и Обратный звонок.
A/B-эксперименты — бесплатный инструмент внутри Яндекс Директа для тестирования контента на сайте. Позволяет менять заголовки, тексты, изображения и кнопки без участия программиста: создаёте варианты прямо в интерфейсе, задаёте пропорции трафика и отслеживаете влияние на конверсию. Функционал ограничен базовыми экспериментами, сложную логику или персонализацию настроить не получится.
Подходит малому бизнесу и начинающим маркетологам, которые хотят проверять гипотезы быстро и без бюджета на софт.
Вариокуб — инструмент Яндекса для A/B-тестов с двумя уровнями доступа. Базовая версия встроена в Яндекс Метрику: позволяет менять заголовки, тексты и кнопки на сайте без кода, подходит для простых экспериментов малому бизнесу. Продвинутый режим поддерживает многовариантные тесты, сегментацию по поведению и автоматическую остановку неэффективных вариантов. Оптимально для продуктовых команд и интернет-магазинов.
Можно запускать простые A/B-тесты прямо в Метрике, а когда задач станет больше — перейти на более сложные сценарии внутри той же экосистемы Яндекса без переезда на другой сервис.

Yagla — платформа для персонализированного A/B-тестирования контента на сайте. Позволяет показывать разные заголовки, оферы и блоки в зависимости от источника трафика, поведения или сегмента аудитории: например, посетителям из рекламы — один текст, из поиска — другой. Автоматически подбирает наиболее эффективную версию для каждой группы.
Подходит интернет-магазинам и сервисам, которые запускают рекламу сразу в нескольких каналах и хотят показывать каждой аудитории свой офер.

Типичные ошибки при проведении A/B-тестов и как их избежать
Тестировать несколько элементов за раз или сравнивать разные аудитории. Если одновременно поменять заголовок, кнопку и изображение, будет неясно, что именно повлияло на результат. То же самое произойдёт, если вариант A увидят новые посетители, а B — постоянные клиенты. Меняйте одну деталь и настраивайте идентичные условия: одинаковый таргетинг, гео, время показа и распределение трафика 50/50.
Смотреть только на CTR. Высокая кликабельность не всегда влияет на продажи. Объявление может собирать больше переходов, но давать меньше заявок или приводить некачественную аудиторию. При оценке тестов смотрите на несколько показателей: CTR, стоимость лида, конверсию в продажу и итоговую выручку.
Останавливать тест слишком рано. В первые дни одна из версий может случайно показать более высокую конверсию, потому что данных ещё недостаточно. Если калькулятор определил выборку в 4 000 пользователей для каждого варианта, дождитесь этого объёма и только потом делайте выводы. Иначе разница в конверсии может оказаться случайной.
Запускать тесты во время распродаж и праздников. Во время Чёрной пятницы, кануна Нового года или крупных акций люди ведут себя иначе: быстрее покупают и чаще реагируют на скидки. Из-за этого тест может показать рост конверсии, спровоцированный искусственно.
Не фиксировать гипотезы и результаты. Через несколько недель уже сложно вспомнить, что именно тестировали и почему отказались от идеи. После каждого запуска записывайте в таблицу решение, изменения между версиями A и B, метрики и итог теста.
Частая ошибка, особенно у начинающих таргетологов, — гиперсегментация. Когда аудиторию дробят на мелкие группы: возраст 25–32 и 32–38, отдельно мужчины и женщины, пользователи мобильных устройств и десктопов. В итоге получается 30–40 рекламных кампаний и сотни объявлений.
Чтобы объявления набрали статистику, на каждую группу приходится закладывать отдельный бюджет — минимум 300 ₽ в день. Если одновременно тестировать 30 креативов, расходы только на запуск могут доходить до 9 000 ₽ в день.
Но такая детализация редко даёт ощутимый прирост по заявкам или продажам. Настройками таргета невозможно полностью отсечь случайную аудиторию, поэтому полезнее фильтровать людей через офер и креативы. Например, сразу показывать цену в объявлении или вести пользователя на страницу товара.
В большинстве случаев достаточно протестировать офер, призыв к действию и несколько креативов. Не стоит тратить бюджет на очевидные проверки вроде “мобильники против десктопов”. Сначала нужно понять, какая реклама вообще даёт заявки, а уже потом углубляться в сегменты.
Три главных вывода об A/B-тестировании
- Опирайтесь на данные, а не на ощущения. Вкус команды, советы знакомых и чужие кейсы не показывают, как поведёт себя ваша аудитория. A/B-тест помогает проверить это на практике и понять, какой вариант приносит больше заявок, продаж или кликов.
- Тестируйте по одному изменению за раз. Если одновременно поменять офер, кнопку и изображение, станет непонятно, что именно повлияло на результат. Начинать лучше с элементов, которые сильнее всего влияют на конверсию: первого экрана, формы заявки, заголовка или рекламного креатива.
- Сохраняйте результаты каждого теста. Даже если новая версия не увеличила конверсию, вы уже понимаете, какое решение не работает для вашей аудитории. Фиксируйте гипотезы, метрики и выводы в одной таблице — это поможет не запускать одинаковые тесты повторно и быстрее находить рабочие связки.
Часто задаваемые вопросы об A/B тестировании
Чем A/B тест отличается от сплит-теста?
Ничем. Иногда сплит-тестом называют тесты с равным делением трафика 50/50, а A/B-тестом — любые сравнения двух вариантов, но на практике разницы нет. Главное — сравнивать два варианта на одинаковой аудитории и фиксировать результат по одной метрике.
Сколько времени должен длиться A/B тест?
Он длится столько, сколько нужно, чтобы набрать расчётное количество визитов. Обычно это 1–3 недели.
Какой минимальный объём трафика нужен для достоверных результатов?
Зависит от текущей конверсии и желаемого эффекта. При конверсии 2–4% и цели +20–25% нужно ~3 000–5 000 визитов на каждый из вариантов. Рассчитать точную цифру можно в калькуляторе.
Можно ли запустить A/B тест, если на сайте мало посетителей?
Да, A/B-тесты работают и на сайтах с небольшим трафиком, но в таком случае результаты придётся собирать дольше. Для первых запусков лучше выбирать страницы, которые дают больше всего заявок или продаж, например главную страницу или оформление заказа. Не тестируйте мелкие элементы по отдельности и сразу закладывайте более длинный срок проверки — от 4 до 6 недель.
Что делать, если A/B тест не показал значимых отличий?
Зафиксируйте вывод, вернитесь к аналитике поведения пользователей и сформулируйте новую гипотезу. Вы уже знаете, что это изменение не влияет на метрику, и не будете тратить на него бюджет.
У Callibri есть телеграм-канал — присоединяйтесь, чтобы не пропустить свежие кейсы, материалы блога и обновления сервисов.
Нажимая «подписаться», вы соглашаетесь с правилами получения рекламных рассылок
Опубликуйте статью в блоге Callibri
Подойдут материалы про маркетинг, продажи и клиентский сервис