
Performance Max (PMax) tiene fama de “caja negra”: tú le das señales, creatividades y presupuesto… y el algoritmo decide. Y durante mucho tiempo, testear creatividades en PMax fue justo eso: subir opciones, cruzar los dedos y mirar después qué asset marcaba “El mejor”. Poco control, poca claridad y decisiones más cercanas a la intuición que a un experimento real.
Pero esto acaba de cambiar. Google ha empezado a desplegar A/B testing nativo de creativos en Performance Max, una funcionalidad que permite comparar assets A vs B dentro del mismo grupo de recursos con un reparto controlado (tipo 50/50) y resultados más fáciles de interpretar. Si gestionas campañas de Máximo rendimiento —especialmente en eCommerce— esto es una oportunidad enorme para optimizar con método: probar mensajes, imágenes, vídeos y copies con criterio, iterar más rápido y dejar de “adivinar” qué funciona.
En este articulo de Agencia LA | LIBÉLULA explicamos cómo funciona, cómo configurarlo paso a paso, qué testear primero y cómo leer los resultados para quedarte con el ganador sin autoengañarte.
Qué ha cambiado: del “sube assets y reza” al A/B testing con control real
Si llevas tiempo trabajando con Performance Max, seguro que te suena esta película: subes varias creatividades, dejas que el algoritmo combine todo… y luego intentas interpretar qué ha pasado mirando etiquetas como “Bajo”, “Bueno” o “El mejor”. En tu caso lo has dicho tal cual: hasta ahora era poco preciso; subías varias opciones y esperabas a ver qué pasaba.
Lo interesante es que en febrero de 2026 Google empieza a dar un paso importante: pruebas A/B integradas para comparar creatividades de forma más estructurada (en beta) dentro de PMax. Y esto encaja con una realidad que cualquiera que gestione PMax conoce: PMax es una caja negra, pero el creative sigue siendo la palanca que más controlamos. Si estás valorando tomarte la publicidad en serio como canal de crecimiento, aquí tienes 10 razones por las que necesitas hacer publicidad para tu marca.
Si tu objetivo es que tu marca crezca con paid media (y no solo “probar anuncios”), te va a ayudar leer también estas 10 razones por las que necesitas hacer publicidad para tu marca (enlace interno), porque pone contexto a por qué el testeo creativo no es un capricho: es un sistema de mejora continua.
Nota práctica (de experiencia real en cuentas): esta funcionalidad se está desplegando. Es normal que en algunas cuentas ya aparezca y en otras aún no (te ha pasado: “en algunas mías ya lo veo”). Eso también condiciona qué alternativa usarás si todavía no la tienes (lo veremos más abajo).
Cómo funciona el A/B testing de assets en PMax (Control, Treatment y Common assets)
La gracia del A/B testing nativo es que compara dos conjuntos de activos creativos (A vs B) dentro del mismo grupo de recursos (asset group). Google lo define con tres “cajones”:
- Control (assets A): lo que ya tienes y quieres usar como referencia.
- Treatment (assets B): el set nuevo que quieres enfrentar al control (pueden ser assets nuevos o existentes).
- Common assets: activos que no asignas ni a A ni a B y que pueden seguir sirviendo al 100% del tráfico, acompañando a cada variante según el split.
Esto es clave porque te permite aislar el efecto creativo sin tener que montar estructuras raras, ni duplicar campañas. Y, sobre todo, porque puedes definir el reparto de tráfico entre control y tratamiento (por ejemplo 50/50), algo que tú mismo marcas como el diferencial frente a “duplicar asset groups” sin control del reparto.
Por qué este enfoque reduce ruido (y evita duplicar campañas)
Google explica que en tests de assets dentro de PMax el tráfico se divide dentro de una sola campaña, lo que puede reducir el periodo de aprendizaje y entregar resultados más rápido comparado con tests que dependen de campañas separadas.
Traducido a la vida real: menos variables cambiando a la vez = menos “autoengaño” cuando eliges ganador.

Paso a paso: cómo crear un experimento de creatividades en Performance Max
Aquí va el proceso en modo “haz esto y listo”, mezclando lo que recomienda Google y lo que funciona de verdad cuando no quieres cargarte el aprendizaje.
Requisitos previos y checklist antes de lanzar
Antes de tocar Experimentos, revisa esto:
- Elige 1 hipótesis por test.
Ejemplo: “Vídeo con UGC + beneficio en 3 segundos mejora CPA vs vídeo corporativo”. - Define KPI principal (uno).
- Lead gen: normalmente CPA o conversiones.
- eCommerce: ROAS o valor de conversión.
- No mezcles cambios estructurales.
Google recomienda no cambiar assets ni ciertas configuraciones después de iniciar el experimento para mantener la validez del test. - Ten volumen suficiente.
Si no hay conversiones, no hay conclusiones. (Parece obvio, pero es el motivo #1 de tests “bonitos” e inútiles.)
Configuración recomendada: reparto 50/50, duración y “cosas que NO tocar”
Dónde se crea: desde el menú Experiments en Google Ads (Campañas → Experimentos), creando un nuevo experimento y seleccionando Assets como lo que quieres testear.
Qué vas a seleccionar:
- Campaña PMax
- Un asset group concreto (importante: el test se limita a un solo asset group por experimento).
Split de tráfico: si tu objetivo es claridad, un 50/50 suele ser el estándar para acelerar lectura (y es justo lo que tú destacas como “lo más diferencial”). En el artículo de Google el split se define al configurar control/treatment.
Duración: Google recomienda correr el experimento mínimo 4 a 6 semanas para seguir buenas prácticas (aunque el sistema guía puede sugerir un end date).
Muy importante: al empezar, el asset group queda en modo “solo lectura” (bloqueado) para que no edites assets durante el experimento.
Eso, aunque moleste, es una señal de que el test está bien planteado: sin “toqueteos” que rompan la comparación.
Qué creatividades testear primero (prioridades que suelen mover la aguja)
Aquí es donde la mayoría se pierde: quieren testear “todo” y acaban testeando “nada”.
Imágenes
Empieza por el contraste más brutal:
- Lifestyle/uso real vs producto fondo blanco
- Variantes con beneficio claro (texto corto en creatividad) vs sin texto
- Formatos adaptados a inventario (horizontal, cuadrado, vertical)
Si necesitas specs, CrackPPC resume formatos y tamaños típicos para imágenes en PMax.
Mi recomendación práctica: define una sola variable (“fondo blanco vs lifestyle”) y deja el resto estable.
Vídeos
El vídeo suele ser el “multiplicador” silencioso. Y en PMax, o lo controlas tú… o lo controla Google.
Google contempla tests específicos para medir el impacto incremental de añadir vídeo en PMax (incluso suprimiéndolo en el control para aislar efecto).
Ideas de hipótesis fáciles:
- 6–10s (hook rápido) vs 20–30s (demostración)
- UGC + prueba social vs vídeo de marca “corporativo”
- Mensaje funcional (“precio/entrega”) vs emocional (“estatus/aspiración”)
Tu propio enfoque aquí encaja perfecto: dejar de adivinar y empezar a optimizar con criterio.
Titulares y descripciones
En PMax, un buen copy no es poesía: es claridad + intención.
Tests típicos:
- Titular con beneficio vs con característica
- “Garantía/seguridad” vs “ahorro/urgencia”
- Primera persona (“yo lo conseguí”) vs impersonal (“consigue…”)
Consejo de agencia: no cambies 15 titulares a la vez. Crea 2 “packs” con ángulos distintos y compáralos (A = racional, B = emocional).
Cómo leer resultados y elegir ganador sin autoengañarte
Cuando el experimento termina, Google permite aplicar el experimento (pasar el set B al asset group) o finalizar sin aplicar. Si quieres que este proceso sea un sistema (y no un experimento aislado) y escalar con control, aquí te puede ayudar nuestro servicio de publicidad digital en Google Ads.
KPIs según objetivo (lead gen vs eCommerce)
- Lead gen: mira CPA, conversiones y calidad del lead (si tienes CRM/import).
- eCommerce: prioriza ROAS/valor de conversión, pero vigila margen (no te enamores del ROAS si estás vendiendo lo que menos conviene).
Señales típicas de “test inconcluso”
- Duración demasiado corta (menos de 3–4 semanas suele ser inestable, especialmente con poco volumen; esto también lo apuntan experiencias tempranas en beta en la comunidad).
- Cambiaste algo a mitad de camino (landing, presupuesto, tracking, promociones).
- Hay estacionalidad fuerte (rebajas, evento) sin control.
Y aquí cierro con lo que buscas para posicionar a La Libélula como especialista: si quieres que este proceso sea un sistema (no un experimento aislado) y que además se conecte con estrategia de negocio, lo natural es apoyarte en un equipo que gestione creatividades, medición y estructura. En La Libélula lo hacemos desde el servicio de publicidad digital en Google Ads y Social Ads (enlace interno) cuando el objetivo es escalar sin perder control.
Errores comunes al testear creatividades en PMax (y cómo evitarlos)
- Testear sin hipótesis.
“A ver qué pasa” no es un test, es un sorteo. - Cambiar assets durante el experimento.
Además de que el sistema lo bloquea en muchos casos, rompe el análisis. - Meter 5 variables a la vez.
Si cambias vídeo, imágenes y copy… ¿qué ganó realmente? - No “refrescar” creatividades con cadencia.
Aunque el contenido sea evergreen, el proceso debe ser recurrente (mensual o bimestral). - Obsesionarte con un único placement.
PMax mezcla inventario; tu trabajo es alimentar al sistema con assets sólidos y medir impacto.
Plantilla evergreen: tu sistema de testeo creativo mensual para PMax
Si tuviera que dejarte un SOP sencillo para tu blog (y que también lo entienda un decisor de marketing), sería esto:
Cada mes:
- Semana 1: define 1 hipótesis (solo 1) + prepara set B (2–4 assets por tipo).
- Semana 2–6: corre experimento A/B assets con split 50/50 y sin cambios estructurales.
- Semana 6: aplica ganador, documenta aprendizaje (“qué mensaje/ángulo funcionó”) y crea la siguiente hipótesis.
Truco de oro (de experiencia real): si no ves aún la función en tu cuenta, puedes simular tests creando dos asset groups dentro de la campaña… pero asumiendo que no controlarás el reparto 50/50 (por eso la función nativa es un salto). Y cuando por fin te aparezca, migras a experimentos y ganas rigor.
El gran cambio de 2026 no es “otra feature más”: es que por fin puedes testear creatividades en PMax con una lógica más científica (control vs treatment), dentro del mismo asset group, con split definido y foco en significancia.
Y eso, en una plataforma que a veces se siente como caja negra, te devuelve algo que echábamos de menos: criterio.
Preguntas frecuentes sobre los test A/B en Performance Max (FAQs)
¿El A/B testing nativo de PMax sirve para comparar dos creatividades exactas?
Sirve para comparar dos sets de assets (A vs B) dentro del mismo asset group, no un “anuncio” único como en Search. Eso es justo lo potente: te dice qué combinación creativa funciona mejor.
¿Cuánto tiempo debo dejar corriendo el experimento?
Como base, 4 a 6 semanas si quieres resultados sólidos y comparables.
¿Por qué no puedo editar el asset group mientras corre el test?
Porque Google bloquea la edición para que el experimento sea válido (“view-only mode”). Si cambias assets a mitad, la comparación deja de ser limpia.
¿Qué son los “common assets” y por qué importan?
Son assets que no asignas ni a A ni a B y pueden seguir sirviendo al 100% del tráfico. Ayudan a mantener elementos constantes mientras comparas lo que realmente quieres testear.
¿Qué testeo primero si tengo poco presupuesto?
Empieza por 1 variable que tenga potencial alto: un nuevo vídeo (o añadir vídeo vs no vídeo) suele ser el cambio con más “palanca”. Google contempla explícitamente tests para medir el impacto de añadir vídeos.