Análisis de Búsqueda en Google Webmaster Tools

Tras unos cuantos meses con su evolución estancad, la antigua herramienta consultas de búsqueda da un paso al frente cambiando su nombre por “Análisis de Búsqueda” y ofreciendo no funcionalidades adicionales a lo que ya ofrecía pero si unas enormes capacidades de cruces de forma realmente sencilla, con menús desplegables.

La herramienta sólo está disponible para usuarios “alfa/beta” con los que Google testa las nuevas actualizaciones de Google Webmaster Tools. Tienes toda la información sobre el programa aqui y si quieres entrar a formar parte del programa de beta tester lo puedes solicitar rellenando este formulario.

Antiguamente si querías cruzar datos debías exportar los CSV y jugar con ellos mediante tablas dinámicas en excel, Spreadsheet o incluso MySQL. Hoy desde el panel de control, podemos cruzar todo lo que queramos de entre las métricas y dimensiones.

Como métricas tenemos las magnitudes que se pueden medir sobre el tráfico SEO, en este caso Google nos ofrece las impresiones, los clicks, el CTR y la posición.

Las dimensiones son los datos adicionales que son recogidos para cada métrica y que nosotros podemos segmentar, por ejemplo fecha, keyword de búsqueda, landing page, país de procedencia, dispositivo con el que se hace la búsqueda, etc.

dimensiones-metricas-analisis-busqueda-gwt

El caso es que ahora es muy fácil filtrar por consultas / keywords, urls / landings, países, dispositivos (desktop, tablet y mobile), tipo de búsqueda (web, imagen o vídeos) y fechas, pudiendo comparar todas ellas entre sí, con todos los filtros incluídos que tu quieras. Además los gráficos son mucho más visuales que antes ya que cada métrica opera con un eje adecuado a sus dimensiones y podemos ver clicks e impresiones simultáneamente sin ver desvirtuados los clicks.

Como una imagen vale más que mil palabras, os dejo varias:

Ejemplo de filtro mostrnado Clicks y CTR para las urls de 2013 (por la arquitectura de la web, todos articulos de 2013 llevan /%year%/ en la URL, España, todos los dispositivos y los últimos 30 días.

analisis-de-busqueda

Y aquí otro ejemplo donde analizamos la evolución de los clicks desde dispositivos desktop y desde dispositivos mobile, ideal a partir del mes que viene tras la priorización de resultados adaptados al tamaño de la pantalla desde donde se hace la búsqueda

analizar-trafico-mobile-webmaster-tools

Problemas :

  • Se ha perdido la posibilidad de ver las mejores URLs para una determinada keyword y viceversa, es decir las mejores keywords de una landing.
  • En el listado de landings, las URLs no son clicables, tienes que copiar y pegar para acceder al contenido.

Bonus: APPENDIX – Metric Definitions: URL vs Site Impressions

The historical Search-Query report suffers from some confusion on how CTR is calculated. To see this, let’s assume that a site always appears in positions 2, 3 and 4 and that position 3 repeatedly gets the click. Under these conditions this site will have 3 URL-impressions and 1 click, ie a CTR = 33.3% (although the site always gets the click). This distortion leads us to make a distinction between two ways we can count impressions:

  • URL Impression: the times a page from your site appeared on Google Search
  • Site Impression: the times your site appeared on Google Search

For example, if we assume that for a specific query the search result page is always:

  1. competitor-A.com
  2. com/URL-A <=   * top URL in site appearance used for calculating position
  3. com/URL-B <=   user clicks this URL
  4. com/URL-C
  5. competitor-B.com
  6. competitor-C.com

The metric aggregations will be logged in the following way:

URL-A URL-B URL-C by Page by Site
impressions 1 1 1 3 1
clicks 0 1 0 1 1
Position 2 3 4 3 2 (top *)

Since more than one of your pages can appear in response to the same query you will see that Page-Impressions are always higher than Site-Impressions.

( ! ) The Search Impact report always displays site based metrics unless you chose to breakdown, filter or compare by pages.

Aggregate metric definitions:

  • Impression
    • Page impression averages any time a URL appeared on SRP
    • SITE impression averages any time a SITE appeared on SRP
    • Note if a SITE appears several times on the same SRP, there will be many Page-impressions for each Site-impression
  • Click
    • Page click averages the times a Page impression was clicked
    • SITE click averages the times a Site impression was clicked
  • CTR
    • Page CTR is the ratio: Page click / Page impression
    • SITE CTR is the ratio: Site click / Site impression
  • Position
    • Page position is the position that URL appeared on SRP
    • SITE position is the position of the top url in the SITE impression

Note both metrics are weighted by impressions

Optimización del rastreo y la indexación

En webs relativamente grandes resulta muy importante optimizar y aprovechar al máximo el tiempo de cawling que nos dedican los bots de los buscadores. Uno de los errores más comunes que cometemos es no darle a los pequeños detalles toda la importancia que se merecen. Muchas veces pensamos, “si ya está redirigido” o “si tiene canonical” o “si ya está deshabilitado el parámetro en Google Webmaster Tools” o “qué más da, nadie va a acceder a esa url (cuando algo que debería devolver un 404 devuelve un 200)” y muchos otros ejemplos.

A continuación, voy a exponer unos máximos a los que deberíamos siempre tender para tener una web 100% optimizada de cara al rastreo de los buscadores. Espero tus comentarios para ir ampliando la lista :-)

1º) Todas las URLs que atacásemos en un servidor web deberían devolver 200, 301 o 404 / 410, nada más. Además no debería haber más de dos o más 200 con un alto % de contenido parecido y a poder ser ninguno con poco contenido.

2º) Todos los links presentes en una web, deberían apuntar a un 200. Todos, si apuntan a una redirección, reemplaza el href por el destino.

3º) Los trackings codes, parámetros etc que no cambien el contenido, mejor con una # en lugar del “?”,  siempre y cuando técnicamente la almohadilla cumpla la misma función que la interrogación, que no siempre será así. Lo mejor será hacer pruebas y ver si todo funciona como se espera, cada entorno puede ser diferente, dependerá de tu herramienta de analítica web, del javascript o plugins que uses, etc. Prueba :-)

Este último punto es el que más discrepancias puede acarrear con algunos desarrolladores. Sin embargo, la razón de poner una almohadilla, es muy clara, los bots tienen que rastrear menos urls para encontrar el mismo contenido.  Por mucho que haya canonical autoreferencial por debajo, poniendo la almohadilla antes de la interrogación le estás diciendo a los bots que se trata de la misma URL, no hace falta que rastree las dos (de hecho, como veremos más abajo, en los logs nunca veremos una almohadilla, salvo en webs con AJAX) En definitiva, si enlazas por ejemplo desde redes sociales una URL con el típico parámetro url?utm_source, les haces trabajar doble a los crawlers, rastreando “url” y “url?tracking” ya que se trata de 2 urls diferentes.

Los 3 puntos anteriores son categóricos, independientemente del contenido, volumen de URLs y arquitectura de la información de tu web, deben cumplirse sí o sí. A continuación voy a exponer algunos que también convendría cumplir siempre pero que el “cómo” ya depende más de las características concretas de tu sitio web. Se trata de la arquitectura de la información, en concreto a mí me gusta medir 3 cosas, los niveles de profundidad (clicks desde la home) y el número de URLs posicionadas vs indexadas y qué es lo que hacen los bots en nuestro sitio. Para sacar estas métricas personalmente me gusta mucho la herramienta Botify y también deepcrawl,  además de por supuesto el módulo Optimizer, de Sisxtrix.

Sobre los puntos que comentábamos que conviene cumplir:

1º) Tener todos los contenidos de tu web enlazados formando una campana de gauss de entre 3 a 5 o 6 niveles de profundidad desde la home. Para que este gráfico se aproxime lo máximo posible a la realidad, conviene tener optimizados los 3 puntos iniciales.

2º) Tener una arquitectura web que permita tener un cierto nivel de rastreo adecuado para cada tipología de contenido, no desaprovechando cuota de rastreo en URLs “poco importantes” y centrándonos en los contenidos o urls verdaderamente rentables. Si tenéis acceso a los logs podéis vigilar a Googlebot con Log Analyzer de Botify, Kibana o Splunk, pero si no tenéis también podéis hacerlo con Google Analytics.

Finalmente, como consecuencia de tener bien los dos puntos anteriores, conseguiremos aumentar el numero de urls posicionadas (con 1 visita desde google en el último mes) frente a las meramente indexadas. Es más, el número de URLs indexadas por sí solo dice más bien poco de una web, lo ideal es conjugarlo con el número de urls posicionadas.

Bonus track: Experimentemos con los enlaces con anclas, a ver que pasa: almohadilla, interrogacion, lasdos, ancla1, 2 y 3.

Concusiones del experimento:

  1. Según los logs, Googlebot no sigue lo que se encuentra detrás de la #. En todo el access log, no hay rastro de una #.
  2. Los parámetros de Google Webmaster Tools son como el canonical, puede hacerles caso, o no. Mejor no darle la opción de pasar de ellos.
  3. Los trackings en Google Analytics con el código de Universal Google Analytics de mediados de Abril 2015, funcionan tanto con ?tracking, como #tracking. No funcionan con #?tracking.

Optimizer de Sistrix

Hace unos días leí un articulo donde comparaban entre otras muchísimas cosas, la parte dedicada al crawling de herramientas como Deepcrawl, URLProfiler, Botify y el Optimizer de Sistrix entre otras.

Hoy nos centraremos en el módulo Optimizer de Sixtrix. Cada día que la uso me gusta más, sin embargo echo en falta algunas cosas como las que voy a exponer a continuación. Escribo este artículo con el objetivo de poder comentar las funcionalidades entre usuarios de esta parte de la herramienta. Voy a comentar solo aspectos o detalles muy concretos sobre el optimizer. Si quieres puedes ver un tutorial más completo en su propia web.

Personalmente me veo en la tesitura de tener que rastrear más de 100.000 URLs (que parece ser el límite del rastreador en cada sesión de crawling. Para ello se me habían ocurrido 2 alternativas:

1) Bloquear mediante robots.txt y para user agents personalizados todos los directorios menos uno (que contenta obviamente menos de 100k URLs). Pero hasta ahora no he conseguido que respete un robots personalizado para cierto user agent, parece que si que respeta el robots para el resto de user agents (User-Agent: *, o incluso “User-Agent: SIXTRIX”). hasta donde yo he po no sigue los nofollows y guarda cookies de sesión. ¿estás de acuerdo?

2) Filtrar en “Ajustes” > “Proyecto”, cierto PATH que quiero que rastree pero esto únicamente hace que intente leer esa URL, no hace que solo rastree las URLs que cuelguen de ese path tal y como hace con los host, ya que si indicas un host, si que no rastrea el resto de URLs del dominio. Esto es un poco contradictorio, de momento he comprobado que  funciona así.

Conclusión: Ninguna de las 2 anteriores me ha funcionado. El campo “página de inicio” de “Ajustes” > “Rastreador” únicamente le indica URLs adicionales a rastrear, pero no rastrea todos los links que se encuentra en esas URLs si no se los encuentra por el camino natural, es decir la home o la URL que le hayas dado en Path.

Así que si tu web es medianamente grande (más de 100k) para hacer un rastreo completo mediante el optimizer de sistrix tendrás que deshabilitar directorios mediante robots.txt hasta dejar rastreables menos de 100k. Tengo que probarlo todavía.

A continuación, voy a poner algunas cosas que le faltan a la herramienta:

– Poder establecer robots.txt virtuales, en Botify podemos hacerlo, a veces en proyectos grandes un seo depende de desarrollo y los cambios, incluso para subir un robots.txt no son excesivamente cortos.

– También estaría muy bien poder usar operadores booleanos en la herramienta de búsqueda de código fuente, así como poder exportar los resultados tal y como lo hacemos con el resto de informes. Trabajar solo con la interfaz web en webs medianamente grandes resulta realmente tedioso. Mejor todavía sería que el propio Google Webmaster Tools tuviese una herramienta de búsqueda de código fuente. Ah, y que no sacase URLs que resultan ser redirecciones cuando usamos la búsqueda inversa. No tiene sentido.

– La exportación de los redirects internos, solo exporta url redirigida y destino de la redirección. Deepcrawl si que exporta los 3 campos. Muy útil para terminar de pulir webs grandes tras migraciones donde han cambiado todas las URLs y hay muchos enlaces internos apuntando a redirecciones. El informe de los 404 si que lo exporta muy bien, con las URLs rotas y los orígenes. Esto último por cierto tengo pendiente mirar si se puede hacer desde el API de Google Webmaster Tools con el “urlDetails.linkedFromUrls[]“.

Post vivo, seguiré actualizando conforme vaya profundizando mis conocimientos sobre la herramienta y vayan mejorándola.

App “Mi Carrefour”, Carrefour Pass y servicio de atención al cliente de Carrefour

Solemos hacer la compra en carrefour, la usabilidad de la web deja bastante que desear por eso solemos comprar en soysuper.com. Los gastos de envío varían entre 6 y 9€ depende de la zona.

Nos sacamos la tarjeta Carrefour Pass, supuestamente te devuelven el 1% de lo comprado en descuentos para próximas compras, cuando nos la mandaron nos enviaron también un 10% de descuento en alimentación, con la letra pequeña de “maximo 50€”, anunciando en la misma carta a bombo y platillo que con el APP Mi Carrefour no necesitábamos llevar más plásticos, que podíamos llevar todo en el móvil. Tenemos la tarjeta carrefour, la de menores de 30 años (te ahorras el IVA de los productos frescos) y el 10% ese de descuento en Alimentación.

Hace unos días nos gastamos 600€, gran parte en alimentación y productos frescos, al ir a pagar en caja nos dijeron que sin tarjeta no podían hacernos ningún descuento, que “eso del móvil” no sabían lo que era. Por no discutir ni perder tiempo pagamos y fuimos a atención al cliente, le expliqué lo ocurrido y no sabían ni por donde les daba el aire.

Al llegar a casa le escribí un correo en el formulario de contacto explicando todo lo ocurrido, adjuntando mi documentación y el ticket de compra. Me contestaron tarde y mal. 3 o 4 respuestas diciendo que tenía que ir a Atención al Cliente del hipermercado en cuestión. Lo dejé por imposible. Si implantáis mejoras en vuestro sistema de fidelización, crm y demás, lo mínimo es formal al personal. Habéis perdido un cliente.

Mal, carrefour, mal.

Actualización: recibí una llamada de la directora comercial del hipermercado, carrefour pidiéndome disculpas y diciéndome que lo solucionarían ingresándome en el cheque ahorro lo pendiente. 15 días más tarde, sigo esperando.

Tablets y Móviles BQ

Hace unos meses decidí comprar mi primera tablet, la verdad es que fue un dilema. Los productos chinos vienen pegando muy fuerte, leyendo un poco los foros de xda veía mucha comunidad contenta con los productos, la relación calidad / precio parecía que no dejaba lugar a dudas. Sin embargo, tras en móviles decantarme por el Oneplus, esta vez con la tableta decidí apostar por un producto nacional, me compré la BQ Edison 3. Todo muy bien hasta que la guardé un mes y pico en el armario y ya no ha vuelto a arrancar.

Al parecer, si voy a estar un período de tiempo prolongado sin usarla, es preferible dejarla con un 50% de carga aproximadamente. Lo de la extenuación de la batería creía que era un concepto del pasado, que ya no ocurría, pero a mí me ha pasado con la batería de la BQ Edison 3. Tras intentar cargarla, incrédulo de que eso estuviese pasando, durante horas, me va a tocar enviarla al SAT, “perdiendo” todos los datos. Espero que BQ siga invirtiendo en innovación y que a nadie más le ocurra algo similar, independientemente de que deje la tablet con un 50% o un 0% de carga de la batería…

Lo peor de todo es que diciendo en el primer mensaje al SAT que si había alguna forma, aunque fuese compleja de arrancarla, que había instalado rom personalizadas en unos cuantos dispositivos diferentes, me contestasen con un enlace sobre aplicaciones de copia de seguridad en la nube. Tambíen es cierto que fue en plenas vacaciones de semana santa y supongo que fue un copy&paste. :S