Un caso de éxito para ofrecer rendimiento en una cuenta de Google Ads madura

En el transcurso de un año, 80 experimentos probaron una amplia gama de funciones (como anuncios adaptables, ofertas de CPA objetivo y otras) para un gran cliente legal.

Ejecutar una campaña de Google Ads puede ser un caso de estás condenado si lo haces y estás condenado si no lo haces. Si la campaña resulta ser un fracaso, obviamente estás en problemas, pero si resulta exitosa, puedes encontrarte con otros desafíos. Las campañas que tienen éxito durante un período prolongado pueden presentar desafíos para continuar brindando rendimiento y agregando valor.

En mi experiencia, las nuevas cuentas de Google Ads tienen ganancias rápidas y frutos bajos. Con el tiempo, estos se vuelven menos evidentes y hay más necesidad de innovar. Una de las formas en que hemos podido ofrecer rendimiento a lo largo del tiempo en cuentas que ya han tenido éxito es mediante los borradores y experimentos de campaña.

En este caso de estudio, llevamos a cabo una campaña para un gran cliente legal durante cinco años. Los resultados fueron fenomenales durante el período y habíamos visto un crecimiento extraordinario. La campaña de Google Ads estaba en un estado maduro en el que estábamos satisfechos con el rendimiento y los niveles de CPA, pero teníamos el desafío de seguir generando un crecimiento de clientes potenciales. En esta industria competitiva, era importante probar constantemente las funciones y superar nuevos límites. Durante un año, realizamos 80 experimentos para probar una amplia gama de funciones. Lo llevaremos a través de algunas de estas pruebas, los resultados que recibimos y lo que aprendimos.

Borradores y experimentos de campaña

Antes de hacerlo, conviene hacer un breve resumen de los borradores y experimentos de la campaña. Llamaremos a estos «experimentos» para abreviar. Esta función de Google Ads nos ha ayudado a resolver el problema y seguir ofreciendo rendimiento en una cuenta madura. El proceso básico para usar la herramienta es:

  • Clonar una campaña existente como un nuevo borrador
  • Realice los cambios deseados dentro de ese borrador para probar algunas hipótesis
  • Ejecute este borrador junto con la campaña original durante algún tiempo
  • Divida el tráfico entre borrador y campaña (generalmente 50/50) como una prueba A / B
  • Informar sobre los resultados en tiempo real durante la prueba y proporcionar actualizaciones cuando los resultados sean estadísticamente significativos
  • Aplique los resultados del borrador a la campaña original o rechace el borrador de la campaña con un clic de un botón

Google tiene una guía detallada para configurar esto, cuál es el mejor recurso para usar como guía

La herramienta nos ha dado la libertad de repensar cómo administramos una cuenta e involucramos a nuestros clientes. Ahora podemos sentarnos con un cliente y proponer un conjunto de hipótesis que queremos probar. Estas hipótesis están diseñadas para alinearse con los próximos objetivos del cliente y también empujar los límites de rendimiento. Los clientes están involucrados en un proceso de toma de decisiones, que es completamente transparente. Pudieron ver el proceso desde la formulación de la pregunta / hipótesis hasta los resultados.

Los experimentos también proporcionan un entorno seguro para implementar y probar nuevas funciones. Cuando el rendimiento de la cuenta ha sido sólido, a menudo dudamos en mover el barco. Pero aún tenemos que probar nuevas funciones. Tomemos, por ejemplo, la reciente introducción de funciones y herramientas de aprendizaje automático en Google Ads, como estrategias de ofertas automáticas y anuncios receptivos. La entrega de las claves de los algoritmos de ML puede resultar abrumadora. Si bien el AA puede proporcionar mejoras de rendimiento incrementales, existe el riesgo de que estos algoritmos no funcionen y, luego, el rendimiento de la cuenta se vea afectado. Los experimentos le permiten minimizar estos riesgos mediante pruebas.

Lo que probamos

En consulta con nuestro cliente, realizamos una serie de experimentos. Estos se probaron de forma continua durante todo el año. Como muestra, algunas de las hipótesis clave que probamos fueron:

  • Las ofertas automáticas (maximizar las conversiones) proporcionarán más conversiones que las ofertas manuales.
  • Las ofertas automáticas (CPA objetivo) proporcionarán un mejor rendimiento del volumen de conversiones que el que logramos actualmente con las ofertas manuales.
  • Una estructura de campaña más granular basada en SKAG aumentará el nivel de calidad de la campaña
  • Los anuncios gráficos receptivos proporcionarán un mejor CTR que los banners estáticos
  • Los anuncios de búsqueda receptivos proporcionarán un mejor CTR que los anuncios de texto expandidos
  • Una nueva página de destino con menos desorden demostrará mejores tasas de conversión
  • Una nueva página de destino con una imagen principal diferente proporcionará mejores tasas de conversión
  • El texto del anuncio con una pregunta en lugar de una declaración en el primer título proporcionará un mejor CTR
  • La ejecución de anuncios en una posición más baja proporcionará una mejor tasa de conversión.
  • Hacer ofertas un 20% más altas solo en dispositivos de escritorio mejorará la tasa de conversión

Tenga en cuenta que las hipótesis son específicas. Estamos probando un solo resultado y usando una métrica específica para evaluar.

Además de los experimentos de campaña, también realizamos varios «experimentos de variación de anuncios». Estos son ligeramente diferentes de los experimentos de campaña, ya que pueden ser de campaña cruzada. Esto va más allá del alcance de este artículo, pero recomendamos encarecidamente ejecutarlos también.

A continuación se muestran los resultados de cuatro experimentos que realizamos:

1. Ejemplo de cambio de texto de anuncio

Hipótesis: El texto del anuncio con una pregunta en lugar de una declaración en el primer título proporcionará un mejor CTR.

Que cambiamos: Texto de anuncio ajustado para el encabezado uno para que todos los anuncios en el borrador se basen en preguntas.

Resultados:

Decisión: Este experimento duró 18 días. El CTR aumentó en un 1%. Los resultados no fueron significativos, por lo que decidimos no aplicar.

Que aprendimos: No hubo un aumento en el rendimiento al tener anuncios relacionados con preguntas en lugar de anuncios con declaraciones en un sentido general. Estos debían ajustarse caso por caso, según la consulta de búsqueda y el anuncio.

2. Anuncios de búsqueda adaptables

Hipótesis: Los anuncios de búsqueda receptivos proporcionarán un CTR mejor que los anuncios de búsqueda estáticos.

Que cambiamos: Se introdujeron anuncios de búsqueda receptivos en el borrador de la campaña.

Resultados:

Decisión: Este experimento duró 47 días. El CTR aumentó en un 1%. Los resultados no fueron significativos. Aún así, decidimos aplicar los resultados, ya que los anuncios adaptables no dañaban el rendimiento y eran una nueva función que nos permitía rotar más textos de anuncios.

Que aprendimos: A pesar de no tener un aumento de rendimiento, vemos que los buscadores interactúan bien con este nuevo tipo de anuncio. Pudimos minimizar el riesgo a través del experimento. Continuamos monitoreando estos tipos de anuncios después de que la implementación y el rendimiento fueran sólidos.

3. Cambios en la página de destino

Hipótesis: Ajustar la imagen principal en la página de destino de hombre a mujer aumentará las tasas de conversión.

Que cambiamos: Ajustó la imagen del héroe.

Resultados:

Decisión: Este experimento duró 30 días. La tasa de conversión aumentó del 7% al 14,88%. Aplicamos el experimento y solo ejecutamos la nueva página de destino en el futuro.

Que aprendimos: El aumento de CVR fue dramático y mostró que un pequeño cambio, como cambiar el género de la imagen, puede tener un efecto dramático. También aprendimos que es probable que los usuarios respondan mejor a las imágenes femeninas en general.

4. Oferta de CPA objetivo

Hipótesis: Las ofertas automáticas (CPA objetivo) proporcionarán un mejor rendimiento del volumen de conversiones que el que logramos actualmente con las ofertas manuales.

Que cambiamos: Establecimos un CPA objetivo en el borrador, al mismo CPA que ya estábamos logrando en la campaña con ofertas manuales. Las hipótesis probarían si podemos lograr más conversiones con las ofertas de CPA objetivo.

Resultados:

Decisión: Este experimento duró 34 días. El experimento logró 53 conversiones, la campaña original logró 70 conversiones y también tuvo un CPA más bajo. Por lo tanto, decidimos no implementar ofertas de CPA objetivo para esta campaña.

Que aprendimos: Las estrategias de ofertas automáticas aún no son ideales. También debemos agregar que el CPA objetivo ha funcionado mejor en otras pruebas de campaña que realizamos. Hemos hablado con Google y su recomendación fue ejecutar el borrador de CPA objetivo durante más tiempo. Estamos de acuerdo, pero esto no siempre es práctico para los clientes con presupuestos limitados.

Consideraciones experimentales

Como nota final, hay dos cuestiones clave que no se discuten o revisan ampliamente en los artículos de ayuda de Google. Es muy importante tenerlos en cuenta al realizar experimentos.

Tener un objetivo en mente al generar esta hipótesis es fundamental. Debes anotar en un cuaderno cuál es el objetivo y qué métrica quieres probar. Definir la métrica también es fundamental desde el principio, ya que es fácil desviarse de ella. Por ejemplo, si está probando un nuevo tipo de anuncio, su hipótesis probablemente debería estar escrita en términos de CTR y no de CPA. Sus resultados pueden mostrar un mejor CPA, pero esto no debería influir en su decisión, ya que su hipótesis se enmarca en términos de CTR y no debe aplicar el experimento.

Otra forma en que puede obtener un resultado falso positivo es debido a un problema de diseño de tiempo. Esto ocurre cuando el experimentador aumenta o disminuye el tiempo de ejecución del experimento para lograr un resultado significativo o deseado. Esto ocurre sin saberlo, el experimentador no se da cuenta de que está creando un falso positivo. Piénselo así: si aumentamos el tiempo de ejecución durante otra semana, podríamos obtener un resultado significativo, si aumentamos otra semana más, podemos obtener un resultado no significativo, por lo que alterar el período para satisfacer nuestras necesidades no es una prueba justa. . Incluso en experimentos universitarios bien diseñados, se produce este sesgo.

Es importante establecer un marco de tiempo antes de que el experimento comience a ejecutarse y ceñirse a este. Para contrarrestar esto, incluyo las fechas de finalización dentro del título del experimento para saber cuándo tiene que finalizar. Como regla general, los experimentos deben realizarse durante al menos un mes. También puede intentar usar un calculadora de tamaño de muestra de prueba ab Si está probando cambios en la tasa de conversión.


Las opiniones expresadas en este artículo pertenecen al autor invitado y no necesariamente a El Blog informatico. Los autores del personal se enumeran aquí.


Deja un comentario