Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the ultimate-addons-for-gutenberg domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /sites/danielkossmann.com/files/wp-includes/functions.php on line 6114

Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the hustle domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /sites/danielkossmann.com/files/wp-includes/functions.php on line 6114
Referências sobre testes (A/B, split ou multivariável) em sites ou produtos digitais - Daniel Kossmann

Realizar constantemente testes para validar hipóteses é uma das rotinas de Gerente de Produtos (Product Manager ou PM). Diferente do que algumas pessoas acham, não é só fazer uma alteração qualquer (ex: mudar cor do botão de azul para verde), definir o split e esperar até o resultado. Há várias nuances e boas práticas a serem seguidas para não invalidar o teste e chegar a um resultado estatisticamente significativo. Segue abaixo algumas referência que estou utilizando na minha jornada de aprendizado sobre o assunto.

Ferramentas

Calculadora para teste A/B de significância estatística

Para ajudar a entender se os dados obtidos tem significância estatística para definir o resultado.

  1. SurveyMonkey;
  2. VWO;

Calculadora de tamanho de amostra

Para ajudar a entender qual é o tamanho da amostra necessária para validar o teste.

  1. SurveyMonkey;
  2. VWO;

Boas práticas

Artigos:

  1. The top 3 mistakes that make your A/B test results invalid, por James Flory;
  2. In Defense Of A/B Testing, por Paras Chopra;
  3. Avoid the Pitfalls of A/B Testing, por Iavor Bojinov, Guillaume Saint-Jacques, e Martin Tingley;
  4. 10 A/B testing mistakes that ruin your experiments (and how to avoid them), por Hotjar;

Abaixo fiz um resumo dos itens que mais me chamaram atenção.

Tenha poucas variações

A cada nova variação adicionada:

  1. Teste dura mais tempo;
  2. Pode impactar integridade do teste, pois quanto mais tempo ele rodar, maior a chance de usuários removem o cookie do teste (cerca de 10% de remoção a cada 2 semanas);
  3. Significância diminui (Multiple Comparison Problem).

Mantenha o split do teste até o final

Mudar o split durante o teste pode causar um problema chamado Paradoxo de Simpson.
Solução: Altere somente a % dos visitantes impactados pelo teste. Ex: um teste que era 10% p/ variação e 90% para controle vira um teste com split 50/50 para 20% do tráfego (10% controle e 10% variação). Para aumentar para 40% a variação, o tráfico deve ser alterado para 80%.

Utilize uma calculadora de tamanho de amostra antes de parar o teste

A significância estatística não deve ser o único fator para definir o resultado do teste. Você deve esperar o teste ter uma amostra de dados suficiente também. Isto também vale para quando você está analisando um segmento do teste, como dispositivo utilizado ou país de origem.

Varie entre alterações pequenas e radicais

Uma estratégia que englobe tanto pequenas alterações (ex: cor do botão, título da seção principal) e alterações radicais (ex: novo layout) é a ideal para ter velocidade e também obter resultados mais impactantes.

Se você tiver alguma referência para testes, só deixar um comentário que ficarei feliz em adicionar nesta lista.

Foto da capa por Carlos Muza na Unsplash.



Comments

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *