Cuando la atribución reemplaza a la accountability: el problema que nadie quiere nombrar

Cuando la atribución reemplaza a la accountability: el problema que nadie quiere nombrar
Veintidós páginas. Tipografía sans-serif, gradientes lavanda, número de slide en cada esquina. El dashboard de atribución que sostiene 380 millones de pesos de inversión del trimestre pasado tiene el formato y la autoridad de un fallo judicial. Lo único que le falta es una contraparte.
En la portada, el logo de la agencia. Dentro, los números brillantes que dicen lo que la directora de marketing necesita decir en el comité del lunes. ROAS por canal, contribución por publisher, modelo multi-touch propietario calibrado, dos años de data, ajustado para estacionalidad. Cada cifra precisa hasta el segundo decimal.
Pregunta obvia y cómoda de no hacer: ¿quién construyó este modelo? La misma agencia que gestiona el 70% del mix que el modelo declara exitoso. Pregunta más incómoda: ¿cuándo se contrastó este output contra un test de incrementalidad real? Nunca. Cuando salió la idea de un geo test, alguien preguntó si la agencia iba a estar de acuerdo en correr el experimento sobre los canales que ella misma maneja, y la conversación terminó ahí.
"Igual el dashboard ya muestra que están funcionando." Esa frase, dicha sin ironía en una sala de reuniones en Las Condes hace pocas semanas, es el problema que nadie quiere nombrar. La atribución de plataforma y la atribución de agencia se han convertido, en buena parte de la industria, en una forma de no rendir cuentas. Una coartada con tipografía limpia.
Tres razones, ninguna culpa del producto
¿Por qué un modelo de atribución termina funcionando como muleta política y no como herramienta de medición? Hay tres razones estructurales que conviene nombrar de frente.
1. El modelo lo construye, financia o mantiene el que se beneficia de su output.
Esta es la pieza más incómoda. Una parte considerable de los modelos de atribución que circulan en la región fueron construidos por la misma agencia que ejecuta la inversión, por la misma plataforma que vende el inventario, o por un consultor que tiene un acuerdo de partnership con alguno de los dos. No tiene por qué haber mala intención. Pero la dirección de los incentivos es clara, y cualquier estadístico te lo va a decir, cuando el que arma el modelo es también el que aparece favorecido en sus resultados, los supuestos derivan en silencio hacia la conclusión esperada.
Como señala una reciente investigación sobre el tema, "cuando la atribución reemplaza la accountability, el modelo deja de ser una hipótesis verificable y se vuelve un argumento prefabricado".
2. La atribución es retrospectiva, no predictiva, y eso protege a quien la usa.
Un dashboard de atribución te dice qué pasó. Te ordena los canales según la lógica del modelo elegido, last-click, first-click, time-decay, data-driven de plataforma, lo que sea. Lo que no te dice es qué habría pasado con un mix distinto, ni qué va a pasar el próximo trimestre si movés el presupuesto.
Para alguien que tiene que defender un número en una reunión, esa asimetría es una bendición. Podés justificar lo que ya gastaste sin comprometerte con una predicción que pueda fallar. La atribución como herramienta de auditoría hacia atrás es cómoda, porque siempre tenés data para sostenerla. La atribución como herramienta de decisión hacia adelante exigiría tomar partido, y tomar partido es lo que las organizaciones evitan cuando no hay incentivos para hacerlo.
3. Es más fácil defender un número que explicar un supuesto.
Un MMM bien hecho viene con intervalos de confianza, supuestos explícitamente declarados, calibración cruzada con tests de incrementalidad, y la honestidad de decir "este canal aportó entre X% y Y% con esta probabilidad, condicional a estos supuestos". Un dashboard de atribución viene con un número fijo: ROAS 4,2; contribución del canal, 38%.
En una organización donde el costo político de defender un rango es mayor que el costo político de defender un número falso pero preciso, el dashboard gana siempre. No porque sea mejor, sino porque es más cómodo. La precisión espuria es más fácil de presentar que la incertidumbre honesta, y los comités de presupuesto suelen premiar lo primero.
El ángulo LATAM: el mismo problema con dos vueltas más
En Chile, México, Colombia y Perú, este problema tiene capas adicionales que vale la pena destacar.
Primero, la concentración del mercado de agencias. En la mayoría de los mercados de la región, unos pocos holdings agrupan el grueso de las cuentas grandes. Eso significa que la herramienta de atribución, el equipo de planificación, la operación de compra y el modelo de medición a menudo viven dentro del mismo proveedor. La separación entre "quien decide el mix" y "quien mide el mix" desaparece cuando ambos son la misma factura.
Segundo, los presupuestos de medición. Una marca que invierte 5 millones de dólares anuales rara vez tiene el presupuesto extra para contratar una auditoría independiente. El resultado es que la marca acepta el modelo de su agencia no porque sea óptimo, sino porque es la única opción accesible.
Tercero, la rotación del CMO. Con un tenure promedio de 18 a 24 meses en marcas de consumo en LATAM, un CMO no tiene incentivos para invertir en sistemas de medición que tardan un año en mostrar valor real. El sistema heredado de la agencia es la opción de bajo riesgo político.
Qué hace distinto el Marketing Mix Modeling (MMM)
El MMM no resuelve este problema de forma mágica, pero lo aborda desde un ángulo estructural diferente:
- Independencia Real: Separa al actor que construye el modelo de quien ejecuta la inversión. Un MMM independiente, como los implementados por NeuroRadar sobre frameworks como Robyn, no tiene incentivos para favorecer a un canal específico.
- Visión Holística: Modela el mix completo, incluyendo TV, radio, OOH y orgánico, que los dashboards de plataforma ignoran por completo.
- Supuestos Expuestos: Obliga a declarar la forma de la curva de adstock y los rangos de saturación. Cuando defiendes los resultados, defiendes también los supuestos.
- Validación con Realidad: La precisión se evalúa contra tests de incrementalidad reales (geo-experiments, holdouts), no solo contra clics en una plataforma.
Qué NO hace el MMM
Por honestidad intelectual, es vital saber qué no resuelve:
- No opera en tiempo real: Los modelos serios necesitan data histórica y se actualizan trimestralmente. No reemplaza la optimización táctica diaria.
- No elige el creativo: Te dice qué canal aporta más, pero no si el video de 15 segundos es mejor que el carrusel.
- No es libre de supuestos: Es libre de supuestos ocultos. Hace visibles las variables para que el juicio humano pueda actuar con mejores datos.
¿Qué hacer ahora?
Si sospechas que la atribución se ha vuelto una coartada en tu organización, haz estas tres preguntas en la próxima reunión:
- ¿Quién construyó este modelo y a quién beneficia realmente su resultado?
- ¿Cuándo fue la última vez que contrastamos estos datos con un test de incrementalidad real?
- ¿Qué decisión de presupuesto habríamos tomado distinto si el resultado del modelo fuera otro?
Si las respuestas son incómodas, es momento de separar la auditoría de la operación. Puedes ver cómo se ve un dashboard de MMM independiente con datos reales en nuestra demo abierta.
Preguntas frecuentes
¿Por qué la atribución de agencia puede ser sesgada?
Cuando quien construye el modelo es también quien gestiona la inversión, los incentivos están alineados para favorecer los canales que el mismo actor controla. Esto convierte la medición en una coartada política en lugar de una herramienta de optimización.
¿Qué diferencia al MMM independiente de la atribución tradicional?
El MMM independiente separa la medición de la ejecución, utiliza datos agregados (sin cookies), expone sus supuestos de forma transparente y se valida mediante tests de incrementalidad reales (geo-tests o holdouts).
¿El MMM reemplaza totalmente a los dashboards de plataforma?
No. Las métricas de plataforma siguen siendo útiles para la optimización táctica diaria. El MMM se utiliza para la planificación estratégica del presupuesto y la auditoría de la rentabilidad real de cada canal a nivel macro.
¿Cuánto tiempo se necesita para ver resultados con un modelo MMM?
Para que el modelo sea estadísticamente sólido, se recomiendan entre 18 y 24 meses de datos históricos. Los modelos se suelen actualizar trimestralmente para ajustar la estrategia de inversión a largo plazo.