Множественные эксперименты: теория и практика +16

Блог компании Яндекс, Big Data, Математика, Статистика в IT, Аналитика мобильных приложений, Big Data, Блог компании Яндекс, Математика, Статистика в IT, Аналитика мобильных приложений

Рекомендация: подборка платных и бесплатных курсов бизнес аналитики - https://katalog-kursov.ru/

В современном мире сложно представить развитие продукта без A/B-тестирования. Чтобы успешно запустить продукт или новую функциональность — надо грамотно спроектировать A/B, рассчитать и интерпретировать его результаты. Иногда нам требуется тестирование более чем для двух групп. В этой статье мы рассмотрим как раз такой случай — множественное тестирование:

  • поговорим о том, когда и зачем следует проводить множественные тесты;
  • рассмотрим основные методы расчёта результатов тестов и математические принципы, на которых основаны методы;
  • приведём примеры программной реализации методов; эти примеры вы сможете использовать в своих проектах.

Итак, приступим.



Множественные эксперименты: когда и зачем


Очевидно, что любое техническое усложнение эксперимента должно быть обосновано практической необходимостью. Это касается и множественных тестов. Если аудитория разбивается более чем на две подгруппы, вероятность получить ошибку первого рода при эксперименте нарастает экспоненциально:

$1 – (1 – \alpha)^n, $


где $n$ — число подгрупп, $\alpha$ — заданный уровень статистической значимости.
Таким образом, при добавлении всего одной дополнительной подгруппы в привычный парный тест ($n = 3$) при заданном стандартном уровне $\alpha = 0.05$ мы получаем вероятность ошибки первого рода $p = 0.14$, что значительно превышает наш заданный $\alpha = 0.05$.

Зачем же проводить множественные эксперименты, если они снижают точность результатов исследования? Причин может быть несколько:

  1. Требуется протестировать несколько изменений и их кумулятивное воздействие на продуктовые метрики. Пример — показ пользователю на странице сервиса двух новых элементов, которые по-разному расположены относительно друг друга.
  2. Изменения можно протестировать только в одном временно́м промежутке, поскольку они и взаимозависимы, и чувствительны к недельной сезонности. Пример — отключение рекламных каналов для расчёта эффекта межканальной каннибализации.
  3. Заказчик хочет как можно скорее и дешевле получить ответ, какой из вариантов следует выбрать, сэкономив при этом время разработки и внедрения эксперимента.

Если мы столкнулись с одной из таких задач и нам предстоит рассчитать статистическую значимость для теста — нужно учитывать необходимость поправки на множественное тестирование. О том, что же это такое и как это правильно сделать, и пойдёт речь ниже.

Множественные эксперименты: особенности расчёта


Основные понятия


Рассмотрим общий случай, когда мы имеем дело с $n$ гипотезами $H_{0i}$, $i = 1, …, n$ о попарном равенстве медианы или среднего $m$ подгрупп. В таком случае возможен и верный, и неверный результат исхода $H_{0i}$$VS$$H_{1i}$ для каждой из $i = 1, …, n$ гипотез. Представим результаты в виде confusion matrix эксперимента:

$H_{0i}$не отклонена $H_{0i}$отклонена $Total$

$H_{0i}$верна

$U$ $V$ $n_0$
$H_{0i}$неверна $T$ $S$ $n_1$
$Total$$k – R$ $R$ $n$


Таким образом, неверно отклонены $V$ из $R$ отклонённых основных гипотез.

Исходя из этих параметров, мы введём два важных понятия ошибок, которые контролируются при множественном тестировании: $FWER$ и $FDR$.

Групповая вероятность ошибки $FWER$ (Family-Wise Error Rate) представляет собой вероятность получить по крайней мере одну ошибку первого рода и определяется формулой:

$FWER = p(V>0).$



$FDR$ (False Discovery Rate) — это математическое ожидание отношения ошибок первого рода к общему количеству отклонений основной гипотезы:

$FDR = E(V/R|R>0).$



Рассмотрим методы контроля этих ошибок на примере стандартного продуктового кейса.

Описание кейса


В качестве простого примера рассмотрим эксперимент, в котором трём изолированным, непересекающимся группам пользователей показали три варианта страницы с предложением нажать на кнопку звонка по объявлению. В качестве основной метрики для простоты расчёта возьмём суммарное количество звонков в каждой группе.

Посмотрим на то, как же менялась исследуемая метрика:


Рис. 1. График динамики нажатий на кнопку звонка



Воспользуемся стандартным методом $bootstrap$, чтобы привести распределение целевой метрики в выборках к нормальному виду, и посмотрим на гистограммы и диаграммы размаха средних значений в выборках:


Рис. 2. Гистограмма распределения средних значений в группах


Рис. 3. Диаграмма размаха средних значений в группах



Судя по графикам, группа C выигрывает по количеству нажатий на кнопку звонка. Однако необходимо убедиться в статистической значимости результатов. Для этого приведём оцениваемую метрику к виду нормального распределения и воспользуемся привычным t-критерием Стьюдента для попарного сравнения групп в эксперименте, а затем — методами контроля $FWER$ и $FDR$ для учёта поправки на множественное сравнение.

Контроль FWER


Существует множество методов контроля данной ошибки, однако наиболее распространены два:

1) одношаговая процедура с одновременной корректировкой $p-value$ для всех тестируемых гипотез методом Бонферрони;

2) последовательная, итеративная корректировка $p-value$ c принятием решения на каждом шаге в соответствии с результатом методом Холма.

1. Поправка Бонферрони


Эта одношаговая процедура позволяет снизить вероятность ложноположительного результата эксперимента. Суть метода — принять альтернативную гипотезу, если:

$p ≥ \alpha / n, $


где $n$ — количество тестируемых гипотез.

Реализовать метод можно достаточно просто при помощи стандартной библиотеки $bootstrapped$:

from bootstrapped import bootstrap as bs
from bootstrapped import compare_functions as bs_cmp
from bootstrapped import stats_functions as bs_st


bs_ab_estims = bs.bootstrap_ab(np.array(group_A), np.array(group_B), 
                               bs_st.mean bs_cmp.difference, 
                               num_iterations=5000, alpha=0.05/3, 
                               iteration_batch_size=100, scale_test_by=1, 
                               num_threads=4)

bs_bc_estims = bs.bootstrap_ab(np.array(group_B), np.array(group_C), 
                               bs_st.mean bs_cmp.difference, 
                               num_iterations=5000, alpha=0.05/3, 
                               iteration_batch_size=100, scale_test_by=1, 
                               num_threads=4)

bs_ac_estims = bs.bootstrap_ab(np.array(group_A), np.array(group_C), 
                               bs_st.mean bs_cmp.difference, 
                               num_iterations=5000, alpha=0.05/3, 
                               iteration_batch_size=100, scale_test_by=1, 
                               num_threads=4) 

Получив результаты статистической оценки, можно сделать выводы, различаются группы или нет.

Основной минус подхода: чем больше подгрупп — тем меньше мощность критерия, что увеличивает вероятность принять неверную гипотезу. Например, для десяти тестов и $α_i = 0.05$ необходимо получить $p_i ≤ 5 · 10^-3$, чтобы сказать, что разница значимая. Чтобы нивелировать эти недостатки, можно выбрать метод Холма.

2. Метод Холма


Это нисходящая процедура последовательного изменения $p-value$. На первом шаге алгоритма метода реальные $p-value$ сортируются по возрастанию:

$p_1 ≤ ··· ≤ p_n,$


затем корректируется исходно заданный $\alpha$-уровень:

$ \alpha^{’}_i = \alpha / (n – i + 1), $


после чего проверяется условие $p_i ≥ \alpha^{’}_i$ и делается заключение, верна ли основная гипотеза $H_{0i}$.

Точка останова алгоритма — момент i, когда принята первая основная гипотеза $H_{0i}$, при этом принимаются и все последующие $H_{0j}, j > i$.
Реализовать данный метод можно при помощи процедуры $multipletests()$ из библиотеки $statsmodels$ с параметром $method=”holm”$:

from bootstrapped import bootstrap as bs
from bootstrapped import stats_functions as bs_st
from scipy.stats import ttest_ind
from statsmodels.sandbox.stats.multicomp import multipletests

bs_a = bs.bootstrap(np.array(group_A), stat_func=bs_st.mean, 
             num_iterations=10000, iteration_batch_size=300, 
             return_distribution=True)


bs_b = bs.bootstrap(np.array(group_B), stat_func=bs_st.mean, 
             num_iterations=10000, iteration_batch_size=300, 
             return_distribution=True)

bs_c = bs.bootstrap(np.array(group_C), stat_func=bs_st.mean, 
             num_iterations=10000, iteration_batch_size=300, 
             return_distribution=True)


stat_ab, p_ab = stats.ttest_ind(pd.DataFrame(bs_a), pd.DataFrame(bs_b))

stat_bc, p_bc = stats.ttest_ind(pd.DataFrame(bs_b), pd.DataFrame(bs_c))

stat_ac, p_ac = stats.ttest_ind(pd.DataFrame(bs_a), pd.DataFrame(bs_c))

print(sorted([p_ab, p_bc, p_ac]))

print("FWER: " + str(multipletests(sorted([p_ab, p_bc, p_ac]), alpha=0.05, 
                     method='holm', is_sorted = True))) 

Контроль FDR


Контроль $FDR$ означает, что выполняется условие $FDR = E(V/R) < \alpha$. При этом $FDR ≤ FWER$, т. е. вероятность получить ошибку первого рода при контроле $FDR$ снижается.

Метод Бенджамини — Хохберга


Эта восходящая процедура предполагает последовательное изменение $p-value$, предварительно отсортированных по возрастанию:

$p_1 ≤ ··· ≤ p_n.$


Затем исходный $α$-уровень корректируется по формуле:

$\alpha^{’}_i = i · \alpha / n, $


затем, как и в методе Холма, проверяется условие $p_i ≥ \alpha^{’}_i$ и делается заключение, верна ли основная гипотеза $H_{0i}$ и все последующие $H_{0j}, j > i$.

Метод Бенджамини — Хохберга, как и метод Холма, можно реализовать при помощи процедуры $multipletests()$:

print("FDR: " + str(multipletests([p_ab, p_bc, p_ac], alpha=0.05, 
                    method='fdr_bh', is_sorted = False))) 

Заключение


В статье мы рассказали об основных методах оценки результатов множественных тестов и привели примеры программного кода, реализующего эти методы. Мы надеемся, что вы с пользой и интересом провели время и сможете применить описанные процедуры на практике. А если у вас возникли вопросы — мы с радостью ответим на них.

Спасибо за внимание!




К сожалению, не доступен сервер mySQL