Analítica web

Todo sobre la medición de audiencias en internet con ComScore

ComScore Inc es una empresa norteamericana muy conocida por los que trabajamos en el sector online ya que, desde 2012, es el organismo escogido por concurso para la medición de audiencias de internet en España, sustituyendo a Nielsen tras varios años realizando esta función.

Los ránkings de audiencia que ComScore hace públicos cada mes son de especial importancia para medios online y otros sitios web cuyos ingresos provienen total o principalmente de la publicidad, pues las agencias de medios y los planificadores publicitarios determinan dónde invertir básicamente a partir de esos informes de audiencias.

Para los analistas web de medios y periódicos online, el ránking mensual de ComScore es una especie de santo grial, un objetivo para el que todo el equipo online (SEOs, redactores, analistas…) trabaja casi exclusivamente. No obstante, también tiene importancia para aquellos que trabajan en otro tipo de proyectos en internet, incluso en el sector del e-commerce.

Si bien para estos últimos el ránking de ComScore no es tan vital -dado que la mayor parte de sus ingresos no depende de la publicidad- también son conscientes de la importancia de aparecer bien posicionados en la “foto” con respecto a su competencia. Esto puede obedecer a motivos estratégicos o al prestigio de situarse en los primeros puestos, sin olvidar que estar arriba suele ser síntoma de poseer una buena parte del mercado (al menos en audiencia, no necesariamente en facturación).

Por todo lo anterior, es importante que entendamos claramente cómo se realiza dicha medición, de modo que podamos interpretar correctamente los informes y saber cómo influir en ellos dentro de lo posible. En este artículo, voy a intentar recopilar todos los datos necesarios para tener una guía detallada sobre la medición de audiencias y el funcionamiento de ComScore. Si tras leerlo te queda cualquier duda o crees que hay alguna incorrección o apunte a añadir, por favor no dudes en dejar constancia a través de los comentarios.

Medición de audiencias Offline

Las audiencias en los medios tradicionales, como televisión o radio, se basan en dos cosas: la instalación de audímetros y extrapolaciones estadísticas.

Centrándonos en el famoso share televisivo, para poder obtener esa información se determina inicialmente un “universo” en el que basarse, es decir, un grupo muestral de invididuos de diferentes características (sexo, edad, poder adquisitivo, situación geográfica, etc.). Tras captarlos para su participación en el estudio se les instala un aparato en sus televisores (un audímetro o panel) que registra todo lo que visualizan. A partir de ahí, se estima estadísticamente el número aproximado de personas que sintonizó cada emisión en TV y los grupos sociodemográficos representados.

Algunos se sorprenden al saberlo, pero la verdad es que esas cifras que leemos habitualmente del tipo “8 millones de espectadores vieron el partido de España” se basan realmente en sólo unos cuantos miles de espectadores y una extrapolación proporcional. Se trata de una forma de medición muestral, también llamada user centric.

Medición de audiencias Online

La medición de audiencias en sitios web tiene una parte que funciona exactamente igual a lo anterior: ComScore dispone de un grupo de muestra, un universo de algo más de 30.000 usuarios que han sido reclutados para participar y han accedido a instalar una especie de “audímetro” en sus ordenadores. No se trata de un aparato físico en este caso sino de un pequeño software llamado cProxy que, una vez instalado, registra todas las webs visitadas por el usuario, cuyos datos sociodemográficos están previamente identificados . El resto funciona igual: extrapolación estadística*.

*las extrapolaciones tanto en online como en offline se basan en la metodología del EGM (qué es el EGM)

Eso sería la parte “muestral” de ComScore, una información que se puede obtener de CUALQUIER sitio web, ya que para ello no es necesario incluir nada en el código. Se basa completamente en los datos obtenidos gracias a su universo de “panelistas”.

Ahora bien, en internet tenemos una ventaja: podemos usar tags de javascript y guardar cookies en el ordenador de TODOS los usuarios que visiten una web (siempre que no hayan bloqueado expresamente el almacenamiento de cookies), lo que nos permite identificarlos, conocer sus datos de navegación y cuantificarlos. Es lo que hacemos con la mayoría de herramientas de analítica web, como Google Analytics por ejemplo.

Del mismo modo, ComScore ofrece la posibilidad de colocar su código de seguimiento en nuestra web de manera que puedan recopilar datos directamente a partir de ese código (y de las cookies que coloca en los equipos cliente) y utilizarlos para contabilizar la audiencia del sitio web en cuestión. Esta “semilla” es un código muy sencillo de apenas unas líneas que se conoce como “Direct” y cualquiera puede colocarlo en su site. Si en nuestro proyecto hubiéramos contratado e implementado DAX (Digital Analytix), la herramienta de analítica web de ComScore, no haría falta añadir el código Direct, pues ya estaríamos recopilando datos a través de ella.

Este método también tiene sus puntos débiles, pero al menos no se basa en estimaciones, sino en datos algo más tangibles. Se trata de una medición censal o site centric.

Entonces ¿cómo calcula finalmente ComScore los usuarios únicos? ¿Con audímetros o con cookies? ¿De forma muestral o censal? La respuesta es: de las dos maneras.

Datos “híbridos” unificando medición muestral y medición censal

Esa es la verdadera potencia de ComScore. En sus informes nos presenta un dato unificado de su datos muestrales y los datos censales de cada web, siempre que disponga de éstos últimos, de lo contrario sólo podrá utilizar el dato muestral. Anteriormente Nielsen funcionaba basándose exactamente en el mismo concepto con alguna pequeña diferencia en el tamaño de la muestra de panelistas y la fórmula de unificación (proceso que ellos llamaban “hibridación”).

Cabe mencionar en este punto que si la audiencia de nuestro sitio web se calcula en base a ambos datos -es decir, hemos colocado en nuestra web previamente el código de ComScore- con total seguridad será mayor que si se calculara solamente con el dato muestral. De hecho, cuando se dispone del dato unificado se pasa a hablar de “navegadores únicos” en vez de “individuos” ya que realmente se están midiendo cosas distintas en la práctica.

También es importante saber que si sólo disponemos del dato de panelistas para un determinado sitio web los usuarios que acceden desde dispositivos móviles QUEDAN EXCLUÍDOS de la medición, ya que no existe una versión del audímetro para mobile, al menos de momento (se prevé que para 2015 estará disponible). Actualmente, si queremos que se incluyan los usuarios que acceden desde el móvil debemos tener el código de seguimiento (Direct o DAX) colocado en nuestra web. Éste es, por tanto, otro motivo por el que el dato unificado genera números mayores en nuestra audiencia.

Para obtener el dato unificado, ComScore hace lo siguiente:

  1. Obtiene un ratio de CPP (Cookies Per Person) para un país determinado a partir de TODOS los datos que recoge.
  2. Utiliza ese ratio para realizar una extrapolación de cuántos “individuos” representaría el número total de cookies generadas gracias al código de seguimiento censal.
  3. Comprueba cuántos de sus usuarios panelistas han quedado fuera de esa medición por cookies (por tenerlas bloquedas, por no forma parte de la muestra utilizada para calcular el CPP, etc.).
  4. Suma estos dos últimos valores para obtener el dato final que se presentará en los informes (con un icono con la letra U para distinguir que se trata de un dato unificado).

Interesante ¿verdad? Pasemos a hablar ahora de qué tipo de informes podemos consultar si contratamos el servicio de ComScore y de un tema no menos importante: cuánto nos va a costar.

Qué informes proporciona ComScore

Todo lo explicado anteriormente tiene que ver solamente con la parte de obtención y procesamiento de datos. El verdadero servicio de ComScore consiste en ofrecer acceso a esos datos, algo que sin duda necesitaremos si somos una agencia de medios y que nos será muy útil si somos un soporte o un sitio web en el que nuestro ránking de audiencia es un factor importante .

Una vez dentro del panel de ComScore, los sitios web se clasifican en CATEGORÍAS por temáticas como: Real State, Retail, Travel, Ad-Networks, Finance… y así hasta más de 100 categorías y subcategorías. Nuestro sitio web estará englobado en únicamente una de esas categorías y si contratamos el acceso básico solamente podremos ver los datos relativos a los sitios web pertenecientes a esa categoría, teóricamente nuestra competencia directa.

La herramienta MMX (My Metrix) de ComScore nos proporcionará siempre datos MENSUALES que se actualizan aproximadamente el día 20 de cada mes (mostrando datos del mes anterior). Entre los informes que podemos consultar se encuentran:

  • Ránking de audiencia de nuestra categoría. Obviamente cuanto más alta sea nuestra posición mucho mejor, especialmente si vivimos de la publicidad. No olvidemos que es precisamente ESTE RÁNKING el que utilizan muchos planificadores de medios para decidir en qué soportes invertir (los tres primeros, por ejemplo).
  • Comparativa con competidores. Podemos generar de forma dinámica informes más personalizados en los que compararnos directamente con los competidores de nuestra elección en base a distintas métricas: navegadores únicos, páginas vistas, tiempo en página, etc.
  • Source & Loss. Un informe muy interesante que nos indica el volumen y el porcentaje de usuarios que acceden a nuestro sitio web directamente tras visitar a alguno de nuestros competidores (source) y los usuarios que visitan a nuestros competidores inmediatamente después de a nosotros (loss).
  • Audiencia compartida. Este informe nos muestra qué porcentaje de nuestros usuarios es común con cada uno de los competidores que escojamos.

Y eso no es todo. Podemos ver informes de deduplicación de audiencia entre dispositivos móviles y desktop, por ejemplo. O consultar las audiencias de nuestros competidores agregada en diferentes canales si así lo han configurado (por ejemplo, un retailer generalista tipo El Corte Inglés podría tener un canal de Moda, un canal de Electrónica, un canal de Alimentación, etc.). En este sentido, la herramienta es muy flexible y nos ofrece muchas posibilidades de consulta de datos agregados/desagregados.

Cuánto cuesta ComScore

El servicio básico de ComScore tiene un coste anual alrededor de los 12.000 euros (en 2014) para una única categoría. Si necesitamos acceso a todas las categorías y no solamente a la que engloba a nuestro sitio web (si somos agencia, por ejemplo) el precio ascenderá como mínimo al doble, aunque puede verse aumentado bastante más en función de diversos factores. Por lo general nos proporcionarán al menos 5 cuentas de acceso distintas en cualquiera de las modalidades.

Desde luego, se trata de una herramienta muy potente. De nuestra empresa dependerá determinar si es imprescindible para nosotros y si vale la pena el coste anual que tiene.

Está claro que el mundo de la medición de audiencias en internet es bastante complejo y, de hecho, en este post sólo hemos repasado la superficie, se puede ahondar mucho más. Es totalmente recomendable que lo conozcamos bien y que entendamos su funcionamiento en la mayor profundidad posible. En mi opinión, un buen analista web no debe cerrarse sólo a la parte de negocio y de datos, sino abrirse a comprender además todos los aspectos técnicos relacionados. O incluso ser experto en ellos, algo que le proporcionará una ventaja competitiva considerable.

El efecto Madrid-Barça ¿multiplicado por 4?

Hay dos cosas que paralizan este país: la nieve y el fútbol. La primera es forzada, provocada seguramente por falta de costumbre y poca previsión. Pero la segunda es voluntaria, muy voluntaria…

 

Y es que, cuando es día de partido “grande”, se nota. Se nota porque hay mucha menos gente en las calles, en los restaurantes, en los cines… y en las webs. Efectivamente, el medio online también sucumbe ante las pasiones del deporte rey y sufre, como cualquier otro sitio sin TV ni cerveza,un bajón importante de afluencia durante la retransmisión de eventos deportivos populares.

-Sí, pero el tráfico no lo es todo-, podemos alegar a modo de consuelo. Cierto, pero sigue siendo una parte muy importante. O si no que se lo digan a los SEO, o a quienes se encargan de comercializar el inventario de impresiones de un sitio web, o a los jefes, siempre pendientes de las PV y los UU. Y por muy optimizados que tengamos nuestros porcentajes de conversión, menos tráfico es igual a menos consecuciones de objetivos, aunque la proporción se mantenga. Desde cualquier punto de vista y sea cual sea el motivo, es evidente que una caída repentina de nuestras visitas, no mola.

Pero volvamos al fútbol. ¿Qué pasa en un site como pisos.com cuando juegan los dos grandes del fútbol español, Real Madrid y FC Barcelona? Pues pasa algo como esto:

Caída de tráfico durante el Barça-Madrid del 29-nov-2011

Es lo que podríamos denominar “El efecto Madrid-Barça”: una caída pronunciada del tráfico durante el partido, las horas previas -hay que ver los prolegómenos y preparar las palomitas- y las horas posteriores -hay que celebrarlo o irse directo a la cama, según los colores-, descendiendo en el momento más crítico hasta aproximadamente la mitad de visitas con respecto al mismo día de la semana anterior. Y aún es peor en otros portales como Autocasion.com, también de Vocento, en el que la audiencia es mayoritariamente masculina, pues el fútbol sigue siendo un deporte sobretodo de hombres (aunque en pisos.com tenemos muchas chicas futboleras).

Obviamente, este es un efecto generalizado, le pasa a todo el mundo y se asume, así que no es el fin del mundo. Tampoco lo es que tu equipo pierda el “Clásico”, pero ¿verdad que tampoco mola nada? Por eso ¿hay algo que podamos hacer al respecto? ¡Claro! Y lo vamos a ilustrar, como no podría ser de otro modo, con un símil futbolístico.

La importancia de un centro del campo creativo

Un centro del campo creativo es indispensable

En el centro del campo debe situarse el cerebro del equipo, alquien que sea capaz de llevar el ritmo del partido y tomar las decisiones adecuadas en función de lo que acontezca a lo largo del encuentro. Este es el papel que debe jugar la analítica web dentro del proyecto.

Se ha detectado el problema (caída de visitas) y se ha identificado la causa(fútbol). Pero no basta con quedarse ahí. Para hacer analítica web de calidad, debería proporcionarse también una solución o, como mínimo, alguna idea práctica para sobrellevar la situación.

Vale, la causa es externa y lo suficientemente poderosa como para que los parques, los centros comerciales y los sitios web se vean menos transitados que las pirámides de Egipto según David Bisbal. Pero del mismo modo que los genios del centro del campo protegen la línea defensiva y surten de balones a los delanteros, debemos hacer lo propio con el resto del equipo: propongamos medidas.

Una defensa con capacidad de anticipación

Conocemos las características de nuestro rival, así que debemos prepararnos para contrarrestarlas. ¿Cómo podemos anticiparnos a un efecto que conocemos de sobras y que sucede siempre que hay un partido importante? Bueno, no podemos controlar de un día para otro el volumen del tráfico orgánico ni de la mayoría de fuentes, que inevitablemente bajarán. Pero sí hay un tipo de visitas sobre las que tenemos mucho control: el tráfico SEM.

Por tanto, si sabemos de antemano que las búsquedas empezarán a descender notablemente por la tarde a medida que se acerca la hora del partido ¿por qué no hacemos algo durante la mañana? Si aumentamos nuestro presupuesto diario en AdWords y damos un empujón a todas las campañas en las horas que no se ven afectadas, seguramente el global del tráfico del día estará equilibrado. Lógicamente no podemos compensar todo el tráfico perdido con visitas de PPC, pero sí paliar hasta cierto punto el impacto negativo.

Pasemos al ataque

Por supuesto, en un símil analítico-futbolero no pueden pasarse por alto los goals (objetivos). Siempre con ellos en mente, debemos ser capaces de aprovechar los puntos débiles de nuestro oponente para pasar al ataque. ¿Cómo?

Bien pues, sabiendo la repercusión mediática de este tipo de acontecimientos deportivos ¿por qué no le sacamos partido? Una buena idea podría ser lanzar alguna actividad promocional relacionada con el evento, quizá en las redes sociales. De esta manera, es posible que lo que perdamos de un lado lo ganemos de otro. O dicho de otro modo, aunque encajemos algún gol, el resultado final nos sea favorable.

Resultado final favorable

Para terminar solamente queda hacer alusión al título del post, pues todos sabemos la que se nos avecina en abril ¿verdad? Dos clásicos asegurados, probablemente cuatro si no hay sorpresas, con el agravante de ser un partido decisivo para el campeonato liguero, una final de copa y quizá una eliminatoria de Champions. ¡Y todo en poco más de un mes! Un Super Efecto Madrid-Barça x 4 a la vista.

¿Cómo afectará a nuestro tráfico? ¿Estaremos preparados para contrarrestar el impacto? ¿Ganará por fin algún partido el Madrid?

En fin, tres incógnitas cuya respuesta tengo muy clara. Al menos dos de ellas ;)

Practitioner Web Analytics 2011: resumen y algunas reflexiones

La semana pasada, durante los días 2 y 3 de marzo, tuvo lugar en Barcelona la cuarta edición del Practitioner Web Analytics, el evento más importante sobre analítica web en España. He tenido la oportunidad de asistir por segunda vez -la anterior fue la edición del 2009- y quería compartir mis impresiones con respecto a las distintas ponencias, así como algunas reflexiones acerca de las jornadas en sí.

Englobado esta vez en el EcommRetail Show en la Fira de Barcelona, el PWA 2011 iba a estar rodeado de actividades y charlas gratuitas de otras disciplinas del sector: SEO, negocios online, eCommerce, social media, etc. Lo que a priori podría considerarse un punto a favor en términos de mayor exposición, se convirtió finalmente en un arma de doble filo, pues el bullicio, las instalaciones y la supeditación a una organización menos flexible no favorecieron a la concentración ni a la comodidad de los asistentes. En cualquier caso, ya sabemos que el contenido es el rey, así que vamos a centrarnos en cómo se desarrollaron las presentaciones.

Las ponencias

El auditorio 5 del e-commretail fue el escenario del primer día de conferencias y, aunque llamaba la atención ver el aforo a algo menos de la mitad cuando en otros auditorios literalmente no se cabía, hay que tener en cuenta que la temática tiene la audiencia que tiene y el precio también suponía un filtro importante. Así que nos sentamos en la parte de delante y nos dispusimos a escuchar el plato fuerte de la jornada: la presentación de Bryan Eisemberg.

Bryan Eisemberg: 21 Secrets of Top Converting Websites

Tras un inicio algo accidentado (el micrófono no funcionaba y la organización se olvidó de la traducción simultánea), Bryan sorprendió a propios y extraños haciendo su presentación en un español inesperadamente fluido. Afincado en Nueva York, a donde sus padres llegaron desde Argentina y Uruguay, con abuelos turcos y antepasados españoles, Bryan “volvió a casa” para hacer las delicias de los presentes con una clase tremendamente práctica y orientada 100% a mejorar los ratios de conversión.

Expuso ejemplos de algunos sites de comercio electrónico estadounidenses con porcentajes de conversión insultantes y pasó a detallar, uno a uno, los 21 trucos que nos harían multiplicar los nuestros. Guardo todos ellos en una libretita muy chula de Google Analytics que nos regalaron al entrar y, como Bryan nos pidió que no desveláramos demasiado de sus “secretos”, quiero destacar al menos el número 4: el Scent (rastro). Es decir, mantener en las landing pages la huella del origen que llevó al usuario hasta allí. Los colores, los copys, las imágenes, la ubicación… TODO lo que estaba originalmente presente debería estarlo también a lo largo del proceso que lleva a la conversión. Parece obvio, pero si lo pensamos bien no lo es tanto. Yo, por mi parte, me he determinado a tenerlo en cuenta de forma muy estricta a partir de ahora.

Vicky Brock: Beyond looking in the rear view mirror

Como Board Director de la Web Analytics Association en UK y fundadora de su propia agencia de consultoría, tenía mucha curiosidad por saber lo que Vicky tenía que decir con respecto a un tema muy tratado en analítica web: aunque miremos datos de cosas que ya han pasado, debemos ser capaces de aplicar lo que vemos en la toma de decisiones que afectarán al futuro. Y lo cierto es que Vicky fue un poco más allá y nos animó a trabajar en base a predicciones. Es decir, si cierto patrón se ha mantenido durante un determinado período, digamos 1 ó 2 meses ¿qué nos hace pensar que el mes siguiente el patrón va a cambiar? También lo llevó a un plano más práctico mostrando el caso real de una empresa escocesa que comercializa viajes en bote en su web. Me gustó especialmente el uso tan inteligente que le dieron al módulo de eCommerce de Google Analytics, incluyendo como Categoría del producto el número de días de antelación con el que se contrataban los viajes. Esto les permitía predecir comportamientos futuros y realizar acciones promocionales con la antelación más efectiva. Analítica web en estado puro, me encantó.

Finalmente, destacar que también nos previno contra obsesionarse con el control absoluto. No podemos predecir todas las variables que entrarán en juego y debemos asumir que muchas cosas escapan a nuestro control. Como muestra indicó que cada vez que se emitía una película en TV sobre el Lago Ness, las ventas de la empresa citada anteriormente se disparaban. Un ejemplo contundente en este sentido.

Kristoffer Ewald: What is campaign multi-attribution and why should you care?

La multiatribución de campañas es, sin duda, un tema en boga dentro del mundo de la analítica web. Y Kristoffer explicó algunos modelos para aplicar un sistema de multiatribución y sus ventajas. Entré algo tarde a su presentación (debido un break fisiológico obligado y la ausencia de descansos en el programa) y me costó un poco seguir el hilo, no sé si por el tono algo monótono de Kristoffer o por el shock surrealista que supuso encontrarme al “Dioni” entrando al auditiorio del PWA. Prácticamente se puede decir que mentalmente postpuse el tema a la mesa redonda de la tarde, que en definitiva trataría sobre lo mismo.

Multi-atribución de campañas: La situación en España

La mesa redonda sobre multiatribución fue uno de los momentos de los que personalmente más disfruté. Sobre la mesa (nunca mejor dicho) tenemos un debate abierto sobre cómo el mercado fluye de forma natural hacia este modelo de atribución, más preciso sin duda. Los participantes, entre los que incluyo al entusiasta moderador, parecían tener claro que el modelo actual de last-click-wins es insuficiente y que la multiatribución es un destino inevitable.

Escuché con atención sus argumentos y, mientras reflexionaba sobre hasta qué punto esta mayor precisión en la atribución iba a cambiar nuestras vidas en lo que tiene que ver con decisiones de inversión, se abrió el turno de preguntas y Pere Rovira hizo su particular intervención. Él planteó lo que muchos teníamos en mente: ¿realmente hace falta hilar tan fino? Claro que atribuir la conversión al último click no es preciso pero ¿qué medición basada en scripts de cliente lo es? Pere hizo hincapié en quizá la paradoja más significativa: en la medición web tenemos la posibilidad de calcular el ROI de forma más fiable que en ningún otro ámbito del marketing… y le pedimos todavía más. En fin, es un tema apasionante sobre el que no se ha escrito todavía el último capítulo y en el que seguramente la mayoría bailaremos al son que marque Google con sus decisiones al respecto.

Javier Godoy: Medición para Social Media

De gran nivel fue también la exposición de Javier Godoy, en la que nos mostró la metodología que siguen en Inspiring Move para medir algo tan complejo como el impacto del trabajo en redes sociales. Y es que, en vez de tomar las conversiones al uso como referencia, se habla de popularidad, reputación, influencia, apego

Pues bien, por complicado que parezca, Javier nos presentó una serie de indicadores que han definido y que consiguen, en la medida de lo posible, parametrizar y cuantificar estos valores tan intangibles. El uso de las herramientas para conseguirlo y las deficiencias que éstas suelen tener fueron temas presentes también en su ponencia. El Social Media no es mi ámbito principal de actuación, pero reconozco que me dejó sorprendido el esfuerzo y enorme trabajo existente detrás del equipo de Javier, a fin de analizar los resultados de algo tan difícil de medir.

Los Business Cases

En mi opinión, el punto más débil de esta edición del Practitioner. Cierto es que, en los casos de estudio, es razonable un margen de permisividad en la relación directa con la analítica web (la razón de ser del evento, no lo olvidemos). Pero hay que decir también que al menos dos de los cuatro business cases fueron muy muy flojos, demasiado. Paso a comentarlos individualmente a continuación.

Ignasi Blanco: Verticoutdoor

Caso típico de una tienda de comercio eletrónico que busca mejorar sus conversiones. Lo más elaborado del caso es la clasificación que realizaron de todos sus productos en cuatro grupos según su potencial para venderse, centrándose el estudio en aquellos con un mayor ratio de ventas por impresión de la ficha del producto. La idea era mostrar esos artículos más destacados, principalmente en la home y en los recomendados, a fin de aumentar las ventas priorizando los productos más “vendibles” en función de sus estadísticas.

El resultado del experimento fue un aumento del 25%… en las ventas de esos artículos promocionados. Esa seguramente fue la mayor flaqueza del case, pues habría sido mucho más significativo conocer el porcentaje de aumento de las ventas (o ingresos) totales a raiz de los cambios realizados. Lógicamente si los productos anteriormente destacados se vendían en menor porcentaje, pero dejaban un margen mayor, el resultado global no sería nada deseable.

Por lo demás, creo que Ignasi hizo una presentación bien trabajada, a pesar del fallo de enfoque comentado anteriormente.

Ricardo Tayar: MasterD

En este caso el objetivo de la empresa es básicamente la captación de leads para cursos de formación y Ricardo nos presentó una serie de versiones del formulario encargado de generarlas y los porcentajes de aumento con respecto a cada versión anterior. Lo que más me gustó fue el hecho de que se incluyera también el resultado negativo de uno de los cambios, pues no es habitual reconocer errores en este tipo de casos cuando el cometerlos es inevitable, forma parte del proceso de optimización. También la customización visual tan agresiva de las landing pages de algunos cursos de temática tunning me pareció un gran acierto y un punto muy a favor de la empresa, como muestra de flexibilidad y capacidad de adaptación.

Lo que no quedó tan claro fueron los motivos que llevaron a cada cambio de versión del formulario, dando la impresión de que eran motivados por los cambios de diseño en toda la web, más que por una búsqueda de optimización. Y cuando en el turno de preguntas se inquirió por los motivos del batacazo en el último cambio, la respuesta fue algo ambigua: cambios en el algoritmo de indexación de Google hicieron que el 60% de los términos de búsqueda con resultado en primera página se perdieran. No sé por qué un menor volumen de tráfico orgánico debería influir en el porcentaje de conversión de esa fuente.

Alfonso Ormad: Planeta DeAgostini

A mi juicio esta presentación fue lo peor de los dos días, junto con la siguiente. Alfonso se limitó a hacer una exhibición de screenshots de Google Analytics y Google AdWords sin ningún criterio. Mientras mostraba pantallazos del dashboard de Analytics y de las pantallas de “Visión General” como si fueran informes de algo, decía cosas como “nosotros miramos mucho Google Analytics”. Cuando pasó a AdWords, más de lo mismo: pantallazos incluso de la configuración de campaña como si fuera algo relevante y mostrando sin ningún problema que se gastan 600 euros al día. Por momentos tuve la impresión de que no tenía muy claro de qué hablaba y, tras ver que Alfonso enseñaba sin pudor alguno todas sus campañas, que rondaban un CTR medio de 0,25% o poco más, me pregunté qué clase de estrategia SEM se estaba trabajando, si acaso alguna. ¿Tendrán en DeAgostini alguien dedicado a la analítica web, más allá de mirar el tráfico en Analytics? Mi apuesta es que NO.

No es aceptable. Si esto es ejemplo de algo, apaga y vámonos. Dio muy mala impresión, la verdad. Parecía que el ponente desconocía totalmente a qué clase de auditorio se estaba dirigiendo.

Albert López: Uvinum

Albert ya avisó antes de empezar que en términos de analítica web seguramente muchos de los oyentes podían estar subidos a la tarima antes que él. -Está bien- pensé, no tienes que ser un experto en el tema para tener algo interesante que decir en estas jornadas, siempre que aportes algo de valor en tu presentación. Pero no fue así. Su ponencia iba encaminada hacia el uso de las redes sociales y la medición al respecto. Podría haber llegado a estar medio bien, si no fuera porque presentó una ponencia de, literalmente, 3 diapositivas. Esto tampoco es aceptable en un Practitioner. Dio la impresión de no haber ningún esfuerzo detrás y, si no fuera por lo despacio que habló, habría tardado 5 minutos en terminar.

Y es una lástima. No sólo por comprometer la imagen de un evento como el PWA, sino también porque dejó en mal lugar un proyecto tan interesante como Uvinum.

Los Workshops

El segundo día dio paso a los talleres, sobre los que hubo divergencia de opiniones. Lógicamente sólo pude asistir a dos de los cuatro incluidos en el programa, más el Master Workshop de Bryan Eisemberg: Mastering the Conversion Trinity, en el que nos inculcó una sencilla pero contundente metodología para maximizar las conversiones. Relevance, Value y Call-to-action es su fórmula magistral que, a base de ejemplos prácticos, nos dejó un modelo a poner en práctica en nuestros websites. En cuanto al resto, os dejo el enlace a la Crónica de los talleres del PWA 2011, escrita por Xavier Colomés.

Conclusiones

Si habéis leido todo lo anterior, habréis comprobado que disfruté mucho de algunas ponencias y otras me parecieron muy por debajo de lo aceptable en un evento de estas características. También debo decir que mi juicio está muy influenciado por el elemento comparativo que supone mi asistencia al Practitioner de hace dos años. Contrastando ambas ediciones, lo cierto es que he encontrado la del 2011 mucho más floja.

En primer lugar y de forma destacada, la organización ha estado muy por debajo de lo esperado. Obviamente la inclusión en el ecommRetail no ha contribuido al desarrollo óptimo de las conferencias ni de los talleres, siendo en muchas ocasiones complicado incluso entender al ponente debido al ruido ambiental. La falta de adhesión a los horarios también provocó algunas situaciones indeseables (gente corriendo para llegar que finalmente tuvo que esperar media hora o más antes de empezar la ponencia correspondiente, por ejemplo). No tengo ni idea de si esto es culpa del organizador del PWA o de la organización mayor de la Fira de Barcelona, pero son detalles que afectan a la impresión global final.

En cuanto a los casos de estudio, punto que he criticado más negativamente, también la edición del 2009 fue muy superior. Ícaro Moyano con Tuenti, Daniel Peña con Coca-cola y, especialmente, Gemma Muñoz con Bankinter dejaron el listón muy alto. Hemos echado de menos el ejemplo de analistas web luchando en sus empresas por conseguir una cultura orientada a datos y por implantar la analítica web como pilar fundamental. Creo que en este sentido se ha dado un bajón de calidad que debería mejorarse en las ediciones siguientes.

Dicho esto, no obstante, también hay que romper una lanza en favor de WATT, organizadores de un evento tan indispensable para la escena de analítica web de España. Es evidente que hay mucho trabajo detrás de unas jornadas de estas características y que todos agradecemos enormemente la oportunidad de escuchar a gente como Bryan Eisemberg, Vicky Brock, etc… y no hay otra oportunidad para ello aparte del Practitioner Web Analytics.

También es una gran oportunidad para pasar tiempo y compartir experiencias con otros analistas web, escuchar a gente tan reputada como Jaume Clotet, Pere Rovira, Andrés Flores, Gemma Muñoz (a.k.a. @sorprendida Rising Star), volver a ver a colegas de profesión como mi compañera en Vocento Gema Mora o tipos tan agradables como Iván del Muro o Ferriol Egea y, por supuesto, conocer a otras personas del sector.

Así que, a pesar de las críticas, espero poder asistir el año que viene al Practitioner Web Analytics 2012 y disfrutar nuevamente de una experiencia única y, quién sabe, quizá volver a escuchar en directo a Avinash.

Qué significa el valor “Other” en los informes de contenido de Google Analytics y cómo evitarlo

Si utilizamos Google Anaytics en algún sitio web con un tráfico elevado, es posible que al consultar los informes del módulo de Contenido nos hayamos encontrado que algunas páginas se están contabilizando con el nombre “Other”.

(Other) como nombre de página

Cuando Analytics muestra “(other)” como nombre de página está indicando que el _trackPageview correspondiente no ha registrado el nombre de la página en cuestión. ¿Por qué sucede esto? Bien, hay que tener en cuenta que Google Analytics tiene un límite de 50.000 URL’s únicas por día. En un site con muchas visitas, si los nombres de página son muy específicos, es probable que haya más de 50.000 nombres de página distintos servidos cada día. A partir de ahí GA les asigna el nombre “other”.

Lógicamente, esto puede suponer un problema a la hora de evaluar el consumo de contenido, pues no sabemos exactamente a qué paginas corresponden los datos. ¿Qué podemos hacer para subsanar este problema?

Etiquetar manualmente todas las páginas

Lo primero que hay que hacer es quitarle el control a Google del nombre que asigna a nuestras páginas. Si utilizamos el tracking code estándar de Analytics sin ninguna modificación, automáticamente se tomará como nombre de página todo lo que hay detrás del nombre de dominio de nuestro site. Esto puede bastar en algunos casos pero también ser tremendamente ineficiente en otros, como sucede en la situación que nos ocupa.

Para evitar esto, debemos especificar en el _trackPageview del código de Analytics el Pagename con el que queremos identificar a cada página.

Versión asincrónica de GA:

<script type="text/javascript">// <![CDATA[
var _gaq = _gaq || [];   
_gaq.push(['_setAccount', 'UA-XXXXX-X']);   
_gaq.push(['_trackPageview', 'nombre_de_tu_pagina']);   
(function() {     var ga = document.createElement('script'); 
ga.type = 'text/javascript'; 
ga.async = true;     
ga.src = ('https:' == document.location.protocol ? 'https://ssl' : 'http://www') + '.google-analytics.com/ga.js';     
var s = document.getElementsByTagName('script')[0]; s.parentNode.insertBefore(ga, s);   })();
// ]]></script>

Versión sincrónica de GA:

<script type="text/javascript">// <![CDATA[
var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www.");
document.write(unescape("%3Cscript src='" + gaJsHost + "google-analytics.com/ga.js' type='text/javascript'%3E%3C/script%3E"));
// ]]></script><script type="text/javascript">// <![CDATA[
var pageTracker = _gat._getTracker("UA-xxxxxx-x"); 
pageTracker._trackPageview("nombre_de_tu_pagina");
// ]]></script>

A partir de ahí, lo ideal si tenemos este problema es reducir al mínimo el número de nombres de página distintos. Para conseguirlo podemos crear “tipos” de nombres de página, eliminando información superflua o irrelevante que genere nombres demasiado específicos y, por tanto, dispare innecesariamente el numéro de URL’s únicas.

Por ejemplo, en un periódico digital probablemente no se analice el tráfico de cada noticia específica, pero seguramente será muy útil saber qué sección temática o qué autor genera la mayor cantidad de visitas. Si incluimos esa información agrupadora en nuestro Pagename podríamos prescindir del título de la noticia, con lo que se reduciría considerablemente el número de nombres de página únicos.

En algunos sites no se podrá eliminar por completo las páginas etiquetadas como “other” en Google Analytics, pero evidentemente se puede trabajar para que éstas sean las menos posible.

La importancia de la Analítica web

Hoy en día nadie pone  en duda la importancia y utilidad de las herramientas de analítica en sitios web. Y mucho menos cuando se trata de proyectos de gran envergadura, en los que la implementación de sistemas de medición se convierte en algo totalmente imprescindible.

En Pisos.com tenemos muy clara esa realidad y, como consecuencia, hacemos un uso exhaustivo de la analítica web.  El proceso que seguimos para llevar a cabo esta tarea puede estructurarse en tres pasos:

  1. Almacenamiento de todos los datos que servirán de indicadores para cada departamento según sus necesidades.
  2. Realización de análisis de diversa naturaleza para extraer la información que nos proporcionan los datos registrados.
  3. Toma de decisiones en base a las conclusiones obtenidas tras los análisis.

La adopción de esta metodología de trabajo nos resulta beneficiosa en muchos aspectos, que podemos agrupar en tres grandes campos:

  • Decisiones estratégicas y de inversión
  • Estudio del comportamiento del usuario
  • Resultados de acciones de comunicación y marketing

Decisiones estratégicas y de inversión

Es necesario analizar el rendimiento de las distintas fuentes de tráfico con respecto a los objetivos de negocio. De este modo podemos comprobar la rentabilidad de las inversiones en marketing online que se están llevando a cabo, así como evaluar la conveniencia de mantenerlas en el futuro o no.

Además, este análisis también nos permite un examen constante de los objetivos marcados como prioritarios, de manera que podamos decidir si es necesario replantearlos, globalmente o para alguna casuística determinada.

Estudio del comportamiento del usuario

Ningún proyecto web que se precie puede pasar por alto la figura del usuario. De hecho, constituye el rasero principal de cualquier site, así que es indispensable prestarle atención.

A fin de “escuchar” al usuario, registramos  su comportamiento en lo que tiene que ver con consumo de contenido, navegación, utilización de las funcionalidades que ponemos a su disposición, puntos de abandono, etc.

Gracias al análisis posterior de los datos recogidos, se pueden tomar decisiones enfocadas a la mejora de la usabilidad y la experiencia de usuario.

Resultados de acciones de comunicación y marketing

Tan importante como hacerse ver es hacerlo de la manera más adecuada y en los contextos más productivos para nuestros objetivos de comunicación.

Por este motivo, medimos detalladamente la respuesta a toda acción orientada a difundir nuestra imagen. El repositorio de datos obtenido resulta muy útil para tomar decisiones que maximicen la efectividad de futuras comunicaciones.

A grandes rasgos, estas son algunas muestras de cómo empleamos los recursos de analítica web en pisos.com, donde estamos convencidos de su importancia.  No obstante, también somos conscientes de que siempre se puede ir más lejos: registrar más variables, medirlas en mayor profundidad, afinar la precisión de la información obtenida…

En definitiva, sabemos que seremos mejores en la medida en que potenciemos el uso de la analítica web.