Medición del tráfico con OnCrawl ¿discrepancias entre informes?

En OnCrawl tenemos diferentes formas de medir el tráfico web y no siempre coinciden, veamos por qué.

Google Analytics / Adobe Analytics

Es la forma más fiable de medir el tráfico web llamémosle “real”, lo que más se asemeja a lo que podríamos llamar usuarios o personas. Aunque todo hay que decirlo, en la mayoría de informes de Google Analytics  que se hace referencia a usuarios, se debería hacer a navegadores únicos. Esto va cambiando poco a poco pero hasta la fecha sigue resultando imposible que una web tenga más usuarios únicos que habitantes haya en un país.

Sin embargo, las diferentes herramientas de analítica web basadas en tags javascript presentan varios inconvenientes. En primer lugar únicamente medirán navegadores que hayan ejecutado ese javascript por lo tanto dejamos fuera la gran mayoría de bots a no ser que recojamos esa visita y mediante algún lenguaje de servidor y el protocolo de universal Analytics, introduzcamos de forma manuale esa información en nuestras vistas de Google Analytis.

Google Search Console

La forma más inexacta pero a su vez menos proclive a fallos. Sencillamente falla poco porque no hay lugar a error humano, aquí no se puede olvidar meter el ga.js ni meterlo más veces de la cuenta. No hay que dar de alta la web en ningún sitio, sencillamente si Google envía tráfico a un dominio, estos clicks se recogen de forma aproximada en Google Search Console. No es necesario que hayas verificado tu web para que se recojan estos datos, verificarla simplemente sirve para poder acceder a ellos, pero los datos ahí están.

Cuenta con la ventaja adicional de que contabilizan (o deberían) absolutamente todo el tráfico que llega de Google a tu web. Especialmente sirve para salir de dudas en casos de implementaciones donde el tema de las duplicidades de cookie entre la vista normal HTML y la vista AMP no esté nada claro. Hagas lo que hagas con tus tags de medición JS, Google Search Console siempre estará en “modo shadow” recogiendo datos por su cuenta. Ahora es cuestión simplemente de que cada vez sea más y más preciso.

Es más, en instalaciones donde los compañeros de medición digital hayan tenido la genial idea de no recoger la variable “url física” donde corresponde en una instalación o marcado por defecto, será la única manera de cruzar con OnCrawl los datos de URLs activas, posicionadas o con tráfico SEO. Nunca falla, si tienes contratada la opción de integrar los datos de Search Console, siempre vas a poder cruzar todos los informes de OnCrawl con datos de tráfico y URLs.

Hits de usuarios con referrer “*google*”

Finalmente tenemos los queridísimos LOGs. Aquí sí que re recoge todo, absolutamente todo, cualquier petición a nuestro httpd, ya sea humana o de bot que tenga una respuesta por parte de nuestra máquina, queda reflejada en los LOGs. Por un lado recogemos datos del propio Googlebot pero también son valiosísimos los datos de usuarios con referrer Google. Podríamos interpretar que es un hit o visita atribuible a SEO, sin embargo vemos que los datos a veces no coinciden con los de Search Console o Google Analytics, ¿por qué?

En primer lugar, Analytics recoge sesiones, cookies. Search Console recoge Clicks, si entras 15 veces en un ratio de 20 minutos de Google a una web, habrás generado 15 clicks pero una única sesión. Sin embargo, esto normalmente apenas supone discrepancia en los datos.

Las discrepancias mayores se producen en el caso de instalaciones de AMP activas. Existe un patrón de consumo de nuestros contenidos que simplemente consume la versión cacheada en los servidores de Google y que nunca hará un hit a nuestra máquina local, no veremos nada en nuestros logs, únicamente se recogerá en Search Console y en Google Analytics en caso de que tengamos marcada la vista AMP.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.