Todo mundo adora um vencedor, especialmente um teste vencedor em email marketing.
Você conhece o sentimento. O vencedor lhe dá clareza e confiança. Você sente como se finalmente tivesse descoberto algo. É o Santo Graal dos testes! Você executou um teste A/B em uma campanha, uma versão superou a outra e agora você tem um direcionamento para sua próxima campanha. Trabalho concluído!
Não tão rápido, caro comerciante por e-mail.
Não quero ser um desmancha-prazeres. Sou um daqueles líderes de pensamento por e-mail que escreveu muito sobre o valor dos testes, aqui na MarTech e em outros lugares. Mas também avisei que o chamado “vencedor” poderá contar apenas parte da história. Você não terminou quando o teste for executado!
Se você considerar os resultados dos seus testes pelo valor nominal, sem questionar como eles aconteceram ou o que realmente significam, você pode acabar tomando decisões que parecem baseadas em dados, mas que podem levar seu programa de e-mail na direção errada.
A ilusão da certeza
Os testes A/B nos dão respostas aparentemente definitivas para questões importantes. Essa é uma das razões pelas quais confiamos nele. Parece tão simples. A versão A venceu a versão B. Vemos os números. A decisão parece objetiva. Não precisamos mais pensar nisso.
Mas aqui está uma das advertências que você deve levar em conta sempre que realizar um teste: cada resultado de teste é moldado por seu momento específico, pelo público em que você testa e por um conjunto de condições, algumas das quais você conhece e muitas que você não conhece.
Apesar de todas essas variáveis, muitas vezes tratamos os resultados dos testes como se fossem universal e permanentemente verdadeiros.
Algo que funcionou uma vez se torna o novo padrão. O que “ganhou” é implementado em futuras campanhas de e-mail, automações e jornadas de ciclo de vida. Ajustamos nossa visão de nossos clientes com base nesse resultado. Em pouco tempo, um único teste influenciou toda uma direção estratégica.
O que não entendemos é que o nível de certeza necessário para justificar essas decisões revolucionárias simplesmente não existe.
4 razões pelas quais seu vencedor pode enganá-lo
Seu e-mail vencedor não teve sucesso apenas por causa da linha de assunto ou da frase de chamariz. Ele foi executado em um ambiente de caixa de entrada específico que pode não existir na próxima vez que você enviar uma campanha.
É por esse contexto que um teste vencedor nem sempre significa o que pensamos.
1. Tempo: A maioria dos testes A/B de e-mail são executados em períodos relativamente curtos, muitas vezes apenas o suficiente para atingir significância estatística. Mas o comportamento não é estático. O que repercute em seu público esta semana pode não acontecer tão bem na próxima, especialmente se fatores externos mudarem ou se houver fadiga.
2. Variabilidade do público: Mesmo dentro de um banco de dados bem segmentado, grupos diferentes responderão de maneira diferente à mesma mensagem. Uma versão com bom desempenho geral pode ter desempenho inferior em segmentos de alto valor ou vice-versa. Se você olhar apenas para o resultado agregado, você perderá essa nuance.
3. Contexto: O contexto desempenha um papel maior do que admitimos. O tempo, a sazonalidade, as mensagens concorrentes na caixa de entrada e as interações recentes com a marca influenciam a forma como alguém responde a um e-mail. Essas condições raramente são estáveis. Mudança de público; os ambientes da caixa de entrada mudam. O que parecia atraente em um momento pode rapidamente perder o impacto.
4. Métricas: A maioria dos vencedores dos testes é julgada com base em uma única métrica primária, como taxa de abertura, taxa de cliques ou taxa de conversão. Mas essas métricas raramente contam a mesma história. Uma versão que gera mais cliques pode gerar um valor médio de pedido mais baixo em toda a campanha. Uma versão que converte melhor pode atrair clientes de qualidade inferior. Quando declaramos um vencedor com base numa única métrica, muitas vezes ignoramos as compensações.
O e-mail torna isso ainda mais complexo. Ao contrário de muitos outros canais, estamos lidando com um ambiente push onde o tempo, o posicionamento da caixa de entrada, as mensagens concorrentes e até mesmo o texto de visualização influenciam o comportamento antes mesmo de o e-mail ser aberto. Isso significa que o resultado do seu teste é moldado por muito mais do que o elemento que você pretende medir.
Uma rápida verificação da realidade
Recentemente, revisei um teste em que uma marca declarou uma clara vencedora com base na taxa de cliques. A linha de assunto era mais forte e o e-mail gerou mais tráfego. Superficialmente, parecia uma decisão fácil.
Mas quando olhamos além da métrica do título, o quadro mudou.
A maior taxa de cliques veio de uma linha de assunto motivada pela curiosidade, que atraiu um público mais amplo e menos qualificado. A taxa de conversão caiu. O valor médio do pedido caiu. A receita global por destinatário foi inferior à chamada versão perdedora.
Se eles tivessem lançado a versão “vencedora” com base apenas em cliques e usando uma implementação 10/10/80, teriam obtido um resultado comercial pior. Felizmente, executamos este teste usando uma divisão 50/50.
É aqui que muitos programas de e-mail erram. Os dados não enganaram você. Sua interpretação sim.
Obtenha insights importantes da MarTech
Notícias da plataforma, análise estratégica e tendências do setor. Aprovado por mais de 40.000 profissionais de marketing.
O custo oculto de “ganhar”
É aqui que o verdadeiro problema começa a surgir.
Quando aceitamos um vencedor sem nos aprofundarmos, não apenas corremos o risco de tomar uma decisão um pouco errada, mas também corremos o risco de construir uma abordagem de teste completa com base em insights incompletos.
Com o tempo, isso pode levar a uma otimização excessiva com base em sinais errados. Duplicamos o que parece funcionar sem compreender completamente por que funcionou em primeiro lugar. Ficamos menos curiosos porque os dados já nos deram uma resposta. E começamos a perder a oportunidade de descobrir os padrões comportamentais mais ricos que realmente impulsionam o desempenho.
O mais perigoso é que cria uma sensação de confiança equivocada. As decisões parecem validadas porque os dados as respaldam, mas não questionamos adequadamente a base desses dados.
Esta é a aparência dos testes inteligentes
A alternativa não é parar de testar, mas mudar o papel que os testes desempenham.
Em vez de usar testes A/B para produzir vencedores, seu objetivo deve ser usar testes para responder perguntas significativas sobre seu público e seu comportamento. Isso significa começar com uma hipótese clara e ser intencional sobre o que você está tentando aprender, não apenas sobre o que está tentando melhorar.
Significa também olhar além de uma única variável isoladamente. O desempenho do email raramente depende de um único elemento. Cópia, design, oferta, tempo, seleção de público e até mesmo frequência de envio interagem entre si. Testar vários elementos sob uma hipótese única e bem estruturada pode fornecer informações muito mais valiosas do que alterar a cor de um botão de cada vez.
Crucialmente, exige que você observe o quadro completo do desempenho. Não apenas a métrica imediata que declarou vencedora, mas o que aconteceu depois. Receita. Valor médio do pedido. Repita o comportamento. Esses são os sinais que indicam se você realmente melhorou a experiência do cliente ou apenas aumentou um número.
Com o tempo, trata-se de construir um corpo de aprendizagem. Você descobrirá padrões que surgem em vários testes e desenvolverá insights que compõem e moldam a estratégia de uma forma mais significativa.
Dos resultados à compreensão
Esta é a mudança que faz a maior diferença: passar de “Esta versão venceu” para “Este comportamento mudou porque…”.
É uma mudança sutil na linguagem, mas uma mudança significativa no pensamento. Ele incentiva você a explorar os impulsionadores subjacentes do desempenho, em vez de parar no resultado superficial.
É aqui que o insight comportamental se torna incrivelmente valioso. Quando você entende como as pessoas processam as informações, o que chama a atenção, o que gera confiança e o que desencadeia ações, você pode interpretar os resultados dos seus testes de uma forma mais informada. Ele transforma os testes de um exercício tático em algo muito mais estratégico.
Na melhor das hipóteses, testar não significa encontrar ganhos rápidos. Trata-se de construir um sistema de aprendizagem que melhore continuamente o seu programa.
Seus clientes pesquisam em qualquer lugar. Certifique-se de que sua marca aparece.
O kit de ferramentas de SEO que você conhece, além dos dados de visibilidade de IA de que você precisa.
Comece o teste gratuito
Comece com
Isso significa conectar seus testes, em vez de tratá-los como atividades isoladas. Significa pensar sobre como um insight alimenta o próximo e estar confortável com alguma ambiguidade, porque nem todo teste produzirá uma resposta clara e simples.
Mas o que isso lhe dará, se você abordar isso da maneira certa, é algo muito mais valioso do que um único vencedor.
Isso lhe dará compreensão.
Pensamento final
O teste A/B não está quebrado. Mas a maneira como interpretamos os resultados geralmente é.
Se conseguirmos ir além da ideia de que uma variante vencedora é igual a uma verdade definitiva e, em vez disso, usarmos testes para explorar, questionar e aprender, desbloquearemos muito mais valor da mesma atividade.
Em um canal tão diferenciado e orientado para o comportamento como o e-mail, essa mudança de pensamento pode fazer toda a diferença.
Fonte ==> Istoé