¿Cómo podemos ayudarte?

Es un proceso de sólo 3 pasos:

  • Primero debe completar un formulario de configuración de campaña.
  • Luego, organizamos una reunión en conjunto para confirmar la configuración de la campaña y recopilar la información necesaria (KPI, parámetros, enlaces de seguimiento, anuncios, ID de dispositivo).
  • Lanzamos la campaña.

El proceso completo, desde la configuración inicial hasta el lanzamiento, puede demorar sólo algunos días o hasta un máximo de dos semanas, dependiendo qué tan rápido podamos confirmar la configuración de la campaña y recibamos los archivos necesarios.

CPI: encuentre a los usuarios que instalan su aplicación.
CPA: encuentre a los usuarios que realizan acciones en la aplicación.
CPR: encuentre a los usuarios que generan la mayor cantidad de ingresos para su aplicación (ROAS)

No. Nuestro ML solo puede optimizar en base a un único objetivo. Esto es así porque existe una correlación inversa entre el CPI y el CPA/ROAS.

No. Es necesario que nuestro ML recopile datos de diferentes inventarios para encontrar a los mejores usuarios para su aplicación.

Limitar el alcance del Machine Learning reducirá la capacidad de la plataforma de potenciar la escala de los resultados a largo plazo.

Dato clave: el ML es tan inteligente como los datos de los que se alimenta.

Recomendamos comenzar con un presupuesto diario de entre $250 y $350.

Si el presupuesto diario supera los $350, el ML podría aprender demasiado rápido en un período muy breve y, como consecuencia, podría arrojar datos imprecisos sobre las condiciones del mercado.

Se refiere al flujo de acciones que realiza el usuario, desde instalar la app hasta el evento objetivo para el cual optimizamos la campaña.

Ejemplo: Instalación > Registro > Agregar al carrito > Compra

Para lograr los objetivos, es fundamental configurar la campaña teniendo en cuenta la secuencia de acciones adecuada.

Hace referencia al evento «A» meta vinculado a su KPI objetivo (ROAS o CPA).

Ejemplo: Objetivo: CPA
Evento A meta: Compra

Se trata de un evento altamente correlacionado con su evento «A» meta que probablemente genere más eventos de este último tipo.

Ejemplo: si el evento A meta es “compra”, el evento intermedio podría ser “agregar al carrito”.

Cuanto más eventos de “Agregar al carrito” ocurran, más probabilidades habrá de que se den eventos de “compra”.

Dato clave: optimizar la campaña para eventos intermedios puede ayudar a agilizar el desempeño, en especial para aplicaciones con varios pasos hasta la conversión.

Ocurren cuando el usuario realiza el mismo evento varias veces.

Ejemplo: el usuario A realiza una compra 3 veces

Es un período de tiempo que puedes usar para evaluar el desempeño.

Ejemplo: la instalación ocurre el día 1, la compra se da el día 3.

Vista sin cohort: la compra se atribuirá a la instalación del día 3

Vista de cohort 7 días después de la instalación: la compra se atribuirá a la instalación que ocurrió el día 1.

Dato clave: la vista por cohort puede ayudarte a identificar patrones de comportamiento de los usuarios que, a su vez, te servirán para nutrir tus estrategias de marketing y re-engagement en la aplicación.

Es importante porque ese es el período para el cual optimizaremos la campaña.

Ejemplo: si el objetivo de CPA de un cliente es la compra dentro de una ventana de 7 días, optimizaremos la campaña para compras dentro de los 7 días posteriores a la instalación.

Si se carga una lista de supresión, el ML puede enfocar el gasto publicitario en aquellos usuarios que no tienen instalada la aplicación.

Ejemplo: Con lista de supresión: el ML puja por los usuarios que no han instalado aún la aplicación.

Sin lista de supresión: el ML puja por todos los usuarios, incluso por aquellos que quizá ya tengan instalada la aplicación.

¿Lo sabías? Los clientes de Liftoff que cargan listas de supresión perciben un desempeño hasta un 39 % superior que aquellos que no las cargan.

Activar todos los postbacks puede mejorar el desempeño en un X %.

De esta manera, el ML puede enfocar la inversión publicitaria en aquellos usuarios que aún no han instalado su aplicación.

Sin postbacks:
El ML puja por todos los usuarios, incluso por aquellos que quizá ya tengan instalada la aplicación.
El ML NO sabrá que los usuarios que no generaron una conversión en su aplicación quizás sean usuarios que ya tienen instalada app.

Con postbacks:
El ML enfoca la inversión publicitaria SOLO en los usuarios que aún no instalaron su aplicación.
El ML sabrá que los usuarios que no generaron una conversión en su aplicación son usuarios que, para empezar, nunca la instalaron.

Al activar los postbacks de ingresos, el ML optimiza la campaña para los usuarios que generan mayores ingresos.

Si no los activa, tendremos que adivinar quiénes son esos usuarios, y es menos probable que alcance sus objetivos de ROAS.

Si activa la atribución view-through, obtendrá una vista panorámica del desempeño de su anuncio, tanto en relación con los clics como con las visualizaciones.

Ejemplo: el usuario A ve el anuncio y hace clic para instalar la app en ese momento.
El usuario B ve el anuncio y no hace clic, pero instala la app más tarde ese día.

Dato clave: Google y Facebook tienen activado el modelo de atribución view-through de forma automática.

Si le interesa hacer una comparación justa, le recomendamos configurar el mismo modelo de atribución view-through en todos los canales de su mix de medios.

Las campañas pasan por un período de ramp up.

  1. Aprendizaje: el ML recopila datos de diferentes inventarios para ver qué tipos de usuarios generan conversiones en su aplicación.
  2. Optimización: el ML comienza a optimizar la campaña en función de los usuarios más valiosos.

Una vez iniciada la fase de optimización, podemos comenzar a escalar el desempeño de la campaña.

Nuestra recomendación es lanzarla en un máximo de 2 ubicaciones por sistema operativo.

De esta manera, el ML puede reunir datos suficientes sin dispersar el presupuesto.

El tiempo que demora esta progresión depende de la ubicación, la app, el tipo de evento y la oferta.

CPI: hasta 100 instalaciones únicas
CPA: hasta 300 eventos únicos
ROAS: hasta 150 eventos únicos de ingresos

Las campañas en base a modelos de CPA y ROAS se optimizan para usuarios de gran valor que realizan alguna acción o generan ingresos. Los usuarios de gran valor son más caros.

Dato clave: el CPI y los CPA/ROAS se correlacionan de manera inversa. Fijar límites para los CPI hace que el ML deba pujar por usuarios de baja calidad que no generan valor.

Sí, puede contactarse con su ejecutivo de cuentas y mencionarle los cambios que desea realizar.

Dato clave: si modifica los objetivos de la campaña o introduce cambios drásticos en el presupuesto diario, esto afectará el desempeño.

Sugerimos evitar los cambios en los objetivos después del lanzamiento. Además, lo ideal es escalar progresivamente para obtener el mejor desempeño posible.

Sí, pero recomendamos empezar con un límite máximo diario de $350 para permitirle al ML reunir datos suficientes durante un período de tiempo razonable.

Si la cifra supera los $350, el ML podría aprender demasiado rápido en un período muy breve y, como consecuencia, podría arrojar datos imprecisos sobre las condiciones del mercado.

Finalizada la fase de aprendizaje, podemos aumentar sus límites diarios para enfocar el gasto en impulsar el desempeño.

No. Nuestro ML está diseñado para segmentar a los usuarios al nivel del usuario, no del editor.

En la práctica, esto quiere decir que optimizamos la campaña enfocándonos en los usuarios con mayores probabilidades de generar una conversión, independientemente de la app de origen.

Aplicar listas negras o listas blancas limitaría el alcance del ML y su capacidad para escalar el desempeño.

Ejemplo con lista blanca: el ML puja solo por los usuarios de un grupo limitado de aplicaciones de origen, lo que deriva en saturación y problemas para escalar.

Ejemplo con lista negra: el ML no llega a potenciales usuarios calificados en apps filtradas por la lista.

Dato clave: ¿Le preocupa ser víctima de fraude?

El ML cuenta con una herramienta integrada de control del fraude, Fraud Check, que analiza cada solicitud de puja al nivel del dispositivo para filtrar aquellas que parecen sospechosas o fraudulentas.

Una audiencia disponible para implementar acciones de retargeting, conformada por al menos 250.000 usuarios (100.000 para e-commerce, 100.000 usuarios pagadores en juegos informales).

Esto es lo que necesitamos para configurar su campaña de Re-Engagement:

  • Objetivo de CPA/ROAS
  • Flujo del usuario de la aplicación (p. ej.: Instalación > Registro > Agregar al carrito > Compra)
  • Segmento objetivo (p. ej.: compradores que no hayan realizado una compra en los últimos 14 días)
  • Evento intermedio (p. ej. “Agregar al carrito”)
  • Eventos A meta (p. ej., compra)
  • Período de bloqueo (p. ej., dirigirse a los usuarios transcurridos 3 días desde la instalación)
  • Lista de ID de dispositivos
  • Todos los postbacks (necesarios para más de 2 semanas si 250 000 ID de dispositivos no están disponibles)
  • Deep Links de seguimiento del MMP

Sí. Son muchos los beneficios de ejecutar campañas de UA y Re-Engagement con la misma plataforma:

Mejor rendimiento: aproveche el ML de manera holística para incentivar nuevas interacciones de los usuarios en el momento justo.

Mejor experiencia del usuario: cree una experiencia de visualización impecable con anuncios consistentes entre sí.

Rentabilidad: elimine el riesgo de pagar dos veces por el mismo usuario y simplifique las operaciones con un solo punto de contacto.

Machine learning es el motor que alimenta la compra programática de anuncios.
En otra palabras, es un algoritmo que toma decisiones de compra inteligentes.
Funciona de la siguiente manera:
Datos de entrenamiento > Modelo > Predicciones

Entrenamos a nuestro ML para que se alimente únicamente de datos completos, depurados y precisos.

Nuestro ML se compone de las siguientes herramientas:

  • Smart Pacer: regula la inversión publicitaria de manera óptima para alcanzar a los usuarios durante todo el día (puja más por los usuarios cuando hay más usuarios valiosos, y menos cuando hay menos usuarios de estas características).
  • Fraud Check: analiza las solicitudes de puja para controlar que no haya información sospechosa o faltante (p. ej., que no falte el ID de dispositivo, que no haya demasiadas aplicaciones de editores, direcciones IP anónimas, entre otros).
  • Dead Zones: bloquea los clics accidentales que ocurren muy cerca del botón para cerrar el anuncio.

Todo esto le permite al ML aprender de forma adaptativa y escalar el desempeño a largo plazo.

El ML cuenta con una herramienta integrada de control del fraude, Fraud Check, que analiza automáticamente cada solicitud de puja al nivel del dispositivo y rechaza las que presentan estas características:

Sospechosas

  • Tienen demasiadas aplicaciones de editores
  • Observan demasiadas solicitudes de puja por día (usuario hiperactivo)
  • Movimiento geográfico excesivo.
  • Direcciones IP anónimas (de nodos de salida, VPN, servidores, etc.)
    Inválidas
  • ID de dispositivo faltante
  • ID de tienda de aplicaciones faltante
  • Anormales o truncadas

Fraud Check, la herramienta de control del fraude, rechaza el 13 % de todas las solicitudes de puja, lo que garantiza que su inversión publicitaria esté protegido.

Trabajamos de cerca con exchanges asociados para seguir sus lineamientos de marca.

Además, implementamos un estándar global de calidad en todo el inventario en el que compramos.

Ejemplo: no compramos anuncios en aplicaciones que podrían incluir contenido sensible o inapropiado (como contenido político, sexual, de armas de fuego, alcohol u otro).

En el caso que vea un anuncio en una con contenido no seguro, avísenos y pondremos en pausa al editor. Adicionalmente procederemos a investigar el caso dentro de las 24 horas de recibida la solicitud.

A fin de diseñar anuncios de alto rendimiento, necesitaremos la siguiente información de su campaña:

  • Nombre de la app
  • Título o subtítulo de la app
  • Ícono de la app
  • Logotipo de la app
  • Texto breve para el anuncio de la app (máx. 65 caracteres)
  • Descripción de la app (máx. 90 caracteres)
  • Imágenes de productos
  • Capturas de la interfaz de la app
  • Materiales de Marketing complementarios
  • Imágenes para anuncios nativos
  • Pantalla final del video
  • Video vertical (1 a 15 seg., 16 a 30 seg.)
  • Video horizontal (1 a 15 seg., 16 a 30 seg.)
  • Lineamientos de identidad visual de la marca

Consulte la sección de configuración de la campaña para ver más detalles.

Aceptamos los siguientes tipos de archivos:

Imágenes: PSD (la opción preferida), JPG, PNG
Videos: MP4

Ofrecemos los siguientes formatos de anuncios:

320 x 50 (banner, teléfonos móviles)
300 x 250 (banner, teléfonos móviles)
728 x 90 (banner, tablets)
480 x 320 (interstitial, teléfonos móviles)
320 x 480 (interstitial, teléfonos móviles)
768 x 1024 (interstitial, tablets)
1024 x 768 (interstitial, tablets)
1200 x 627 (native)

Después del lanzamiento, podrá ver sus anuncios en el panel de control de Liftoff.

Por lo general, no implementamos anuncios por temporada, debido a la forma en que probamos e iteramos los anuncios: sabemos que los anuncios diseñados para el largo plazo o para campañas «always-on» ofrecen un mejor desempeño.

Además, los anuncios por temporada generalmente:

  1. No están tan producidos como los anuncios pensados para el largo plazo.
  2. Incluyen muchos elementos nuevos y, en general, el desempeño es inferior (lo que reduce la inversión del cliente).
  3. Reducen el presupuesto publicitario disponible para pruebas más relevantes.

En Liftoff seguimos estos pasos para realizar pruebas A/B y medir los anuncios:

Hacemos pruebas A/B con esta metodología:

  1. Elegimos un anuncio vigente para mejorarlo (en general, el anuncio que está generando el mayor gasto).
  2. Identificamos una característica clave para evaluar (p. ej, una imagen o texto)
  3. Creamos uno o dos anuncios para probar y comparar con el que está vigente.
  4. Probamos los anuncios creados y los vigentes varias veces, a fin de que todos tengan las mismas probabilidades de ser vistos (mismas plataformas, mismas apps, mismos países, etc.).
  5. Alcanzamos un límite de al menos 100 000 impresiones en total, 80 instalaciones y una probabilidad (p-value) de < 0,01, lo que significa que un anuncio continuará desempeñándose mejor que otro con un porcentaje de certeza del 99 %.

Usamos estas métricas para medir el éxito:

  1. Adquisición de usuarios: impresión a instalación (ITI)
  2. Re-Engagement: impresión a evento en la app (ITA)

Las pruebas A/B nos ayudan a detectar qué anuncios optimizarán el desempeño de la campaña.
Asimismo, estas pruebas nos permiten identificar nuevas tendencias y las mejores prácticas que se pueden usar en todos los formatos. Así, cuando descubrimos un nuevo aprendizaje en la categoría de su app, lo aplicamos a su campaña.

Liftoff realiza como mínimo 2 pruebas A/B por trimestre, por cuenta.

La frecuencia puede aumentar según la flexibilidad de los anuncios, la inversión publicitaria y la cantidad de anuncios disponibles.

Todos los anuncios de Liftoff son responsive. Esto quiere decir que están configurados automáticamente para adaptarse al dispositivo y al tamaño de la pantalla que utiliza el usuario, lo que le brinda una experiencia consistente.

Si los comparamos con los anuncios estáticos, los formatos responsive suelen presentar un desempeño un 200 % superior.

Sí, siempre y cuando esos videos no contengan elementos interactivos específicos de los formatos para esas plataformas.

Por ejemplo, muchos videos en Instagram y Snapchat terminan con un elemento que incentiva al usuario a “deslizar hacia arriba” para obtener más información.

Dichos elementos no funcionan cuando los videos se reproducen fuera de esas aplicaciones, lo que puede perjudicar la experiencia del usuario.