Тесты Пообщаться с GPT Протестировать код
Программирование Аналитика Дизайн Маркетинг Управление проектами
27 Янв 2023
9 мин
1783

Что такое A/B-тестирование и как его провести

Пройдите тест, узнайте какой профессии подходите

Расскажем, как узнать, чего действительно хотят пользователи, не опираясь только на догадки. А еще разберем, когда и как запускать A/B-тесты, чтобы избежать

A/B-тестирование что это

Возможно, вы сталкивались с такой ситуацией: в голову пришла идея, которая может улучшить метрики, увеличить количество пользователей или клиентов, а потом в голову закралась мысль — а вдруг всё станет хуже?

В таких случаях помогут A/B-тесты.

Пример A/B-теста

Пример A/B-теста с изменением цвета элемента

Например, вы делаете промостраницу мероприятия и хотите повысить конверсию. Дизайнер предлагает: «Давайте сделаем кнопку регистрации поярче». Идея неплохая, но хочется ее проверить, чтобы не отпугнуть всех тех гостей, которых привлекал старый вариант страницы.

A/B-тесты — инструмент, который помогает провести такую проверку, выбрать, как дальше развивать продукт и при этом не растерять всех клиентов во время экспериментов.

Какие задачи решает

Итак, вы хотите сделать кнопку ярче, но боитесь ухудшить конверсию. Тогда вы берете 15% посетителей и показываете им ярко-красную кнопку, а остальные 85% видят привычный вариант. Потом аналитики сравнивают, у какого варианта процент конверсии лучше.

Если конверсия падает, значит, что-то пошло не так. Например, красный цвет «слился» с фоном, пользователи перестали замечать кнопку. А если число регистраций выросло, значит, пользователи стали чаще обращать на нее внимание.

Кому необходимо

A/B-тесты особенно полезны, когда уже есть аудитория. Чем больше аудитория, тем выше риск оттолкнуть уже лояльных пользователей. Поэтому продукт лучше менять постепенно и показывать каждое новое изменение только части пользователей.

Если же вы запускаете новый проект или стартап, лояльной аудитории нет, отталкивать некого. Тогда можно проводить более смелые эксперименты и не тратить время на A/B-тесты.

Основные виды

Помимо классического A/B-тестирования, есть еще несколько похожих методов.

Сплит-тестирование (Split Testing). При сплит-тестировании запускают отдельную веб-страницу или экран мобильного приложения, где нужна совсем другая верстка. Другими словами, проверяют большие изменения, например полный редизайн.

Сплит-тестирование часто путают с A/B-тестированием, но это разные процессы. В отличие от сплит-тестов, A/B-тесты последовательно проверяют небольшие изменения. Например, сначала меняют цвет кнопки, смотрят, стало ли лучше, а потом переходят к другим элементам.

A/B-тестирование и сплит-тестирование

Мультивариативное тестирование (Multivariate Testing, MVT). Оно помогает проверить сразу несколько небольших изменений. На каждую уникальную комбинацию доработок направляют часть аудитории.

В примере с кнопкой регистрации на странице можно изменить не только цвет, но и расположение. Составьте все возможные комбинации:

  • «Базовый» вариант: оставляем прежний цвет и расположение.
  • Вариант А: делаем кнопку красной, но позицию не меняем.
  • Вариант Б: сохраняем цвет, но переносим кнопку в левый угол.
  • Вариант В: делаем кнопку красной и ставим в левый угол.

Каждому варианту нужно выделить по 25% аудитории, а потом посмотреть, где зарегистрировалось больше людей.

Пример мультивариативного тестирования

Пример MVT-теста, где тестируют комбинацию изменений (цвет/расположение)

Мультистраничное тестирование (Multipage Testing). Им проверяют один и тот же элемент на всех страницах, где он есть.

Например, в разных частях сайта есть одна и та же кнопка регистрации. Вы хотите перекрасить ее на всём сайте. Проверки конверсии этой кнопки у новых пользователей на главной странице недостаточно: возможно, на главной странице решение перекрасить кнопку было удачным, но что насчет всех остальных страниц, где еще появляется эта кнопка? Где-то конверсия могла и упасть.

Поэтому проанализировать нужно все страницы, где есть кнопка регистрации.

Хотите разрабатывать гипотезы, собирать и интерпретировать результаты A/B-тестов? В курсе Skypro «Аналитик данных» вы научитесь проводить такие эксперименты, визуализировать итоги и аргументированно представлять их коллегам и руководителям.

Мультистраничное тестирование

Пример мультистраничного теста, где мы должны проверить конверсию на каждой затронутой странице

Инструменты

Сейчас есть много сервисов для A/B-тестов.

Google Analytics. Это один из самых популярных сервисов для маркетологов и аналитиков. В нём легко настроить тесты прямо на сайте и отследить ключевые конверсии. За A/B-тестирование здесь не нужно доплачивать.

A/B-тестирование в Google Analytics

Результаты A/B-тестирования в Google Analytics

В Google Analytics можно посмотреть, как пользователи реагируют на разные варианты сайта. Можно задать ключевые метрики, и сервис покажет результаты по каждому тесту. Минус в том, что A/B-тесты тут работают только для веба, а не для мобильных приложений.

Сервис Firebase. Он нацелен на продуктовые решения: мобильные и веб-приложения. Как и в Google Analytics, здесь можно настроить ключевые метрики и выбрать, кто именно увидит каждый вариант. Зато в информационных сайтах Firebase может быть не так полезен. При этом инструменты A/B-тестирования в нём тоже бесплатные.

A/B-тестирование в Firebase Analytics

Результаты тестирования в Firebase Analytics

Amplitude Experiments. Удобный сервис, который тесно связан с Amplitude Analytics и удобен для продуктовой разработки. Для тестирования информационных сайтов или порталов сервис перегружен функциями, за которые всё равно нужно платить — так что лучше использовать бесплатные сервисы выше.

A/B-тестирование в Amplitude Experiments

Результаты тестирования в Amplitude Experiments

Если не уверены, какой инструмент лучше использовать, или еще не работали в сфере аналитики, то в Skypro есть обучение по профессии «Аналитик данных».

А/B тестирование и анализ данных в Python // Урок 6 от Skypro

Что нужно тестировать

Тестируйте любые изменения, которые влияют на целевые действия пользователя — регистрацию, покупку, заявку и так далее.

Например, тестировать надо обязательно:

  • если вы делаете редизайн сайта, страницы или ее элемента;
  • добавляете новые или удаляете функции с сайта: формы, кнопки, фильтрацию.

Если изменения касаются исключительно «внутренней работы сайта», то тестировать не нужно. Например, переносите базу данных с одного сервера на другой. Это важное изменение для вас, но пользователи о нём даже не узнают.

Как провести A/B-тестирование

Начинайте любой A/B-тест с гипотезы — идеи о том, как улучшить сайт или приложение. Если кажется, что она слишком большая, разбейте ее на несколько маленьких. Например, вы думаете, что дизайн сайта слишком блеклый. Прежде чем раскрашивать сайт, сделайте варианты с разными версиями акцентных цветов. Возможно, на самом деле цветовая гамма всех устраивает.

Когда определились с гипотезой, подключите метрики, которые помогут отследить нужные показатели. Например, если хотите повысить переходы на форму регистрации, настройте счетчик именно на эти переходы.

Потом воспользуйтесь любым внешним сервисом, чтобы создать новый A/B-тест. Укажите, какую часть аудитории затронет эксперимент, и следите, выполняется ли ваша гипотеза.

Обычно при настройке A/B-теста указывают базовое состояние. Это значит, что для части пользователей всё остается по-прежнему. Потом добавляете столько вариантов, сколько нужно.

  • В классическом A/B-тесте обычно два варианта: «Базовый» и, например, «Красная кнопка регистрации». В мультистраничном варианте этого теста сделайте такие же проверки на всех страницах, где есть кнопка регистрации.
  • Если используете мультивариативный тест (MVT), можете добавить еще варианты: «Синяя кнопка», «Желтая кнопка» и так далее.

Для каждого варианта (кроме базового) настройте аудиторию, которая его увидит. Скажем, вы хотите поменять цвет кнопки регистрации у 10% пользователей, которые не зарегистрированы, живут в США и подходят под любые другие ваши критерии.

схема

После того как запустили тест, дождитесь статистически значимых результатов. Время ожидания зависит от количества пользователей: если у вас мало посетителей, придется ждать, пока наберется достаточное количество данных.

Используйте калькуляторы A/B-тестов в интернете, чтобы понять, какой объем данных надо собрать. Многие сервисы (например, Evan Miller, Optimizely, VWO) помогают рассчитать нужный объем: вы указываете только базовую конверсию и желаемый эффект.

Не злоупотребляйте A/B-тестами. Каждый тест замедляет развитие продукта. Если уверены, что новая функция нужна пользователям (например, они давно просят ее добавить) и не усложните жизнь аудитории, запускайте сразу. Если что-то пойдет не так, всегда можно поправить или вернуть старую версию.

Как оценить результаты

Может оказаться, что базовая версия показала результаты выше, чем вариант с изменениями. Не спешите считать гипотезу провальной — сначала проверьте, кого включили в тест. Возможно, выбрали слишком маленький процент пользователей.

Тогда можно повысить процент тех, кто участвует, или облегчить критерии отбора: не искать сегмент «посетители старше тридцати лет, которые заходили на сайт более трех раз и хотя бы раз совершили покупку», а остановиться просто на «тех, кто заходил на сайт больше трех раз».

Иногда во время теста разница в показателях получается незначительной. В этом случае придумайте гипотезы, которые дополнят основную, и проведите дополнительные тесты.

Если хотите научиться формулировать гипотезы, создавать A/B-тесты и правильно читать их результаты, приходите на курс Skypro «Аналитик данных».

Частые ошибки

Самая распространенная ошибка в A/B-тестировании — слишком частое его использование. A/B-тесты нужны, чтобы не потерять уже лояльных клиентов или сегмент пользователей, которые и так стали бы вашими клиентами. Если использовать эти тесты постоянно, даже когда изменения вообще не связаны с действиями покупателей, то это лишь затормозит внедрение продукта.

Проводите тесты там, где важна конверсия: например, при регистрации или покупке. Или когда подозреваете, что нововведение может усложнять посетителям сайта или приложения работу с сервисом.

Еще одна частая проблема: тот, кто проводит тесты, не дожидается статистически значимого объема данных. Не делайте выводы, когда нововведение показали десяти посетителям и все они не ушли в конверсию — это нормально. Дождитесь, когда нововведение увидит хотя бы несколько сотен людей.

Пример A/B-теста

Представьте, что делаете мобильное приложение. Появилась идея: «Давайте автоматически подтягивать логин и пароль из браузера, чтобы пользователям не приходилось вспоминать свои данные».

вход на мобильном приложении

Звучит удобно, но что если у человека несколько аккаунтов? Не запутаем ли мы его?

Формулируем гипотезу: «Если автоматически заполнять логин и пароль, то пользователям будет проще войти в приложение, а значит, конверсия в авторизацию вырастет».

Чтобы отследить эту конверсию, нужно добавить такие метрики:

  1. Событие успешной авторизации. Предполагаем, что с «автозаполнением» этот показатель вырастет.
  2. Событие авторизации с ошибкой «Неправильный логин/пароль». С помощью этой метрики проверяем, стало ли меньше неверных вводов.
  3. Событие выхода из аккаунта. Если пользователь вошел в чужой аккаунт, он сразу выйдет. Ждем, что количество таких выходов не увеличится.
  4. После того как подключили эти метрики, создайте A/B-тест в аналитическом сервисе. Укажите вариант «Автоматическое заполнение логина/пароля» и определите, какой процент аудитории участвует в эксперименте, например 50%.
    блок-схема по шагам

Когда тест соберет данные, посмотрите на метрики. Если они изменились так, как мы ожидали, можно считать эксперимент успешным и включить автозаполнение для всех. Если результаты отличаются, стоит подкорректировать гипотезу и запустить новый тест.

Главное про A B тестирование

  • A/B-тестирование помогает понять, как изменения в продукте влияют на метрики и конверсию. Часть аудитории видит новую версию, а остальные продолжают пользоваться старой.
  • A/B-тестирование важно, если у вас уже есть лояльные пользователи. Резкие перемены могут их отпугнуть, поэтому лучше постепенно вводить изменения и показывать их только части пользователей.
  • Вариантов тестирования несколько: классический A/B, мультивариативный и мультистраничный. Они отличаются масштабом изменений.
  • Для экспериментов подойдут Google Analytics, Firebase и Amplitude. В них удобно выбрать, кто увидит новую версию, а еще отследить основные метрики.
  • Перед запуском сформулируйте гипотезу и определите, по каким показателям будете судить об успехе. Так вы точно понимаете, что проверяете и когда эксперимент можно считать удачным.
  • Оценивайте результаты, когда соберется достаточный объем данных. Если улучшений нет или эффект слишком маленький, пересмотрите гипотезу и попробуйте снова.
  • Иногда A/B-тесты проводят слишком часто и тормозят развитие продукта. Не злоупотребляйте ими. Тесты нужны, когда вы сомневаетесь в гипотезе или хотите проверить ключевые действия.
  • Следите за промежуточными показателями, чтобы вовремя заметить причину падения конверсии. Если данных не хватает, соберите дополнительные метрики и проанализируйте каждый шаг пользователя.

Добавить комментарий