Fetch and Horror: 3 ejemplos de cómo buscar y procesar en GSC puede revelar grandes problemas SEO

Cuando pides a Google que busque y procese, su rastreador buscará todos los recursos necesarios para que pueda renderizar con precisión una página, incluyendo imágenes, CSS y JavaScript. Google proporciona una instantánea de vista previa de lo que Googlebot ve frente a lo que ve un usuario típico. Es importante saberlo, ya que los sitios pueden bloquear los recursos de forma inadvertida, lo que podría afectar la cantidad de contenido que se obtiene.

La adición de búsqueda y procesamiento fue un gran problema, ya que ayuda a revelar problemas con la forma en que se indexa el contenido. Con esta funcionalidad, los webmasters pueden asegurarse de que Googlebot pueda obtener todos los recursos necesarios para un procesamiento preciso. Debido a que muchos webmasters no permiten directorios y archivos importantes a través de robots.txt, es posible que Googlebot estuviera viendo una vista limitada de la página, pero el webmaster ni siquiera sabría si no buscaría y renderizaría.

Como dijo el antiguo Googler Pierre Far en ese momento, «Al bloquear el rastreo de CSS y JS, estás perjudicando activamente la indexación de tus páginas».

Por lo tanto, una auditoría técnica no es una auditoría técnica si no incluye las páginas de prueba que utilizan buscar y procesar. Utilizando la herramienta en Google Search Console (GSC), puede probar los rastreadores de escritorio y de smartphones de Google para ver cómo Googlebot está procesando cada página de su sitio.

Voy a cubrir más sobre la situación móvil más adelante en este post, pero por ahora, me centraré en lo que puede suceder cuando se bloquean los recursos. Después de revisar sus propias páginas, puede que se parezca a esto:

Echemos un vistazo a tres ejemplos que he encontrado durante mis viajes SEO.

Ejemplo 1: Condiciones de neutralización
Hay situaciones en las que fetch y render pueden revelar algunos problemas menores de render, y luego hay situaciones que llamo «whiteout de posicionamiento web SEO«. Es ahí donde poco o ningún contenido está siendo procesado por Googlebot.

Es una situación siniestra, ya que los usuarios típicos ven una página con contenido normal. Pero Googlebot no está viendo mucho (o ninguna) de ella. Así que a menos que esté buscando específicamente para comprobar lo que Googlebot puede ver, puede ser fácilmente engañado a pensar que todo está bien. Pero no lo es.fetch-horror

La captura de pantalla de abajo es de una auditoría técnica que realicé para una marca más grande. Literalmente no había contenido que se representaba en ciertas páginas de categorías.

Inicialmente no creer el resultado, tuve que comprobar esto varias veces – fue literalmente un whiteout posicionamiento SEO. Resulta que todas las imágenes, CSS y JavaScript estaban siendo bloqueadas por robots.txt, por lo que el render se estaba rompiendo por completo – y el contenido no estaba siendo renderizado en la página.

¿Qué tan bien crees que estas páginas se clasifican?

Ejemplo 2: Gran migración, la mitad del contenido
El siguiente ejemplo provino de una migración de CMS a gran escala. Con cualquier migración grande, hay gremlins que pueden causar grandes problemas. (Es por eso que escribí un post sobre la Ley de Murphy para Migraciones CMS.) No es raro que varios gremlins a la superficie después de tirar el gatillo en una migración a gran escala. Y una vez que la superficie, puede terminar tratando de apagar muchos incendios (como este):