Mobile Heroes

Noga Laron by Noga Laron | abril 27, 2020

Noga é a chefe de AU e growth da Playstudios, um dos maiores desenvolvedores de jogos de cassino social do mundo.

Nos últimos 5 anos, Noga liderou o crescimento do jogo móvel de maior sucesso da Playstudios, o “POP! Slots”, levando-o para o top 10 da categoria mundial de cassinos. Noga tem 8 anos de experiência em Marketing Digital e Growth Hacking em diversas empresas de jogos, com um histórico comprovado em obter um ROI significativo ao gerenciar grandes orçamentos. Noga ingressou na Playstudios em 2015.

Entenda mais sobre Noga e sua estratégia em: Mobile Hero profile


Hoje, modelos de ML, IA e Deep Learning são as palavras de ordem para todos os profissionais de marketing de aplicativos. Na Playstudios Israel, estamos trabalhando com um modelo de valor de vida útil do usuário (LTV) muito preciso e sofisticado. Como muitos profissionais de marketing de aplicativos para dispositivos móveis, percebemos rapidamente que precisávamos criar um modelo LTV robusto para preparar nosso departamento de AU com informações de aprendizado de máquina.

Faz um ano que implementamos o modelo para produção com o pLTV como o KPI principal. A transição das metas de ROAS (retorno do investimento em anúncios) de curto prazo, como as metas de ROAS do dia 3/7/14, para as metas de probabilidade de valor da vida útil (pLTV) (120 dias) mudou drasticamente nossa abordagem e estratégia de marketing.

Medimos e otimizamos nossas campanhas de marketing por meio de pLTV e tempo de recuperação, que muda constantemente. Ao contrário do ROAS, que é incremental, o pLTV pode encolher. Neste artigo, compartilharei 7 dicas e aprendizados importantes para aumentar sua aquisição de usuários.

1. A verdade o libertará, mas primeiro o jogará fora

Depois de implementar e começar a trabalhar com um modelo LTV, uma coisa que pode acontecer é que você verá que os KPIs ROAS do dia 3/7/14 não são um bom proxy para a recuperação de alguns canais. Isso geralmente é para aqueles que tendem a ter um CPI alto.

Sua primeira reação pode ser não aceitar isso. É contra-intuitivo que uma campanha com 7% de RO3 D3 e 13% de RO7 D7 tenha 60% de pROAS dentro da sua meta de recuperação de negócios. Esta campanha tem uma alta taxa de pagadores e um incrível ROAS de curto prazo. Você pode pensar que o modelo deve estar errado. No entanto, no nosso caso, não foi.

2. A fase da lua de mel

O ROAS de curto prazo (dia 3/7/14) foi o KPI perfeito para otimizar por alguns anos, mas estava apenas convertendo o período de lua de mel do ciclo de vida do usuário.

Mesmo se você adquirir os melhores usuários altamente engajados e converter em pagadores, isso não significa que eles permanecerão. Ao otimizar e focar apenas nas metas de ROAS de curto prazo, você está deixando de fora essa variável de retenção.

3. Nem tudo o que reluz é ouro

O ROAS de curto prazo pode ser enganoso no estado atual do ecossistema devido a duas mudanças principais que você, provavelmente, notou em seu domínio.

  • É mais fácil atingir jogadores de alto valor. Os monopólos, o Value Optimization do Facebook (também conhecido como VO) e o ROAS de destino do Google UAC (tROAS), tornaram muito mais simples, liberando recursos sofisticados de segmentação que poderiam otimizar através de um ROAS alto.
  • Não é segredo que há uma queda significativa na retenção por D7 (70% a 90% dos usuários deixam o jogo nos primeiros sete dias).

Você pode modelar o achatamento da curva de recuperação com base nos dias 7/14. É como se você estivesse executando uma atividade de AU multicanal e cross-country. Mesmo se você modelar a curva corretamente, como saber se os usuários estão saindo?

De acordo com a minha “teoria do Tinder”, seus usuários mais preciosos e valiosos estão mostrando menor retenção do que antes. Esses são os usuários que você deseja pagar pelo CPI mais alto para obtê-los.

Não é difícil adivinhar o porquê. Hoje, a publicidade digital é muito mais fácil e eficaz. Seus concorrentes diretos e indiretos os bombardearam com os principais anúncios (você verificou o IPM de suas campanhas do VO / tROAS?).

É mais difícil recuperar, se você estiver olhando apenas para a atividade passada (ROAS) e não o que eles estão fazendo agora.

4. Questione tudo e adicione validação

Os modelos de aprendizado de máquina contam com um conjunto de dados excepcionalmente rico. Você precisa se certificar de alimentá-los com dados válidos. Verifique se a arquitetura de dados pode suportá-la e se você monitora o processo de fluxo de dados.

5. Treine seu modelo frequentemente

Você precisa treinar seu modelo com novos dados. Sua estratégia de compra e alocação de campanha estão sempre mudando, assim como seu aplicativo.

6. Deixe os cientistas de dados executarem campanhas da AU

Você precisa treinar bem seu modelo LTV, mas seu cientista de dados da AU, melhor.

Pegue seu cientista de dados de marketing do código python e peça para ele otimizar algumas campanhas da AU em seus canais principais. Esses aprendizados podem ajudá-los a entender a montanha-russa emocional de executar uma campanha de marketing paga e com que frequência os gerentes da AU tomam decisões.

7. Nem todas as redes de anúncios nascem iguais

Alguns parceiros podem otimizar e trabalhar com seus objetivos de pLTV, mas a maioria deles precisaria de KPIs mais fáceis para trabalhar.

Você deve compartilhar conhecimento e ser o mais transparente possível. Trabalhe com todos os parceiros para definir quais métricas podem ser personalizadas como o melhor proxy para o pLTV que você deseja ver em suas campanhas (FTD, CPA, ROAS, etc.).