prerender.io

El Googlebot de 2022 por mucho evergreen que sea el Chromium que lo sustenta todavía lo cierto es que no ejecuta JS el 99% de las veces que rastrea los sitios web.

Si tu sitio es estático y no necesitas que Google profundice demasiado, quizá te puedas permitir el lujo de pintarle un sitio con alta carga de JS y simplemente esperando unas pocas semanas o incluso meses en el peor de los casos, Google acabe indexándotelo.

Pero cuando necesitas velocidad de rastreo e indexación, deberás plantearte hacer lo que se conoce como SSR, es decir, traducirle a Googlebot el JS de tu web para al menos a los bots, servirle html plano mucho más fácil de digerir para los bots actuales.

Existe otra opción para cuando no sabemos o queremos ejecutar procesos complicados en nuestro servidor. Pongamos un ejemplo, Google habla inglés y nuestra web español. No se entienden. ¿Qué hacemos? Aprendemos inglés (SSR) o contratamos un traductor, en este caso prerender.io que «traduce» o interpreta más bien, el JS de nuestra web para devolverle HTML a Googlebot.

Para usar prerender.io simplemente necesitarás agregar unos registros DNS y luego instalar un servicio en tu servidor que haga derivar las peticiones de Googlebot a prerender.io o mucho más fácil poner tu web tras Akamai, Google Cloud, CloudFlare o servicios similares y que sean ellos quienes hagan de Hub.

Tras unas semanas usándolo en varios clientes bajo Vtex IO y Adobe Experience Manager estas son algunas conclusiones o tips que quizá te ayuden a tomar la decisión de usarlo o te resuelvan alguna duda si ya lo estás usando.

  • Puedes agregar un sitemap, pero solo servirá para que descubra antes las URLs y las tenga precacheadas antes de la petición de Googlebot. Esto acelerará mucho los tiempos. De unos 5s a 0.5s. A Junio de 2022, están todavía desarrollando la funcionalidad para hacer pings o leer rss con «cambios. Hasta ahora solo puedes modificar que actualice de 1 a 30 días, a más actualizaciones, más créditos consumes.
  • Es perfectamente normal que tras instalarlo, comiencen a salir errores de rastreo de JS en Google Search Console. Pero es simplemente porque Googlebot aparte de cachear URLs, también cachea URIs (con i) de .js, .css, .jpg, etc. Las URIs (con i) de esos .JS, dejan de estar accesibles para Googlebot porque únicamente le sirve .html. De ahí los errores que desaparecerán en unas pocas semanas / meses.
  • Si tu sitio no es responsive, tienes que marcarlo y cacheará 2 versiones de tu web, con desktop y mobile. Gastarás el doble de créditos.
  • Si quieres ahorrar créditos puedes agregar parámetros a la lista de URLs a ignorar y no cachear (los bots irían a origen), pero sobre todo, excluir de la lista de bots a todos menos a Google.
  • Te manda reporte de errores semanal por email, en formato agregado, por nº de errores de cada URL. No puedes llegar a este informe vía web, solo a través del email.

Contrátalo a través de este enlace y me dará para tomarme unos Txipirones a la Bilbaína.

Javier Lorente Murillo