Googlebots: el rastreo de tu página es vital para posicionar

En todo blog “que se precie” de marketing digital encontraremos infinidad de entradas hablando de SEO, de posicionamiento y de la indexación en Google. Sin embargo, son muy pocos los que dedican, así sea unas líneas, a un paso previo a la indexación y sin el cual esta no puede existir: el rastreo.

Previo a cualquier indexación y de manera absolutamente necesaria (conditio sine qua non, que decíamos cuando estudiábamos latín en el cole…) Google tiene que rastrear las páginas web a través de sus Googlebots.

Estos rastreadores son los encargados de seguir los enlaces y escanear a través de la información de las páginas Web, de forma similar a como lo haría un humano, sólo que mucho más rápido y a mucha mayor profundidad. Los Googlebots intentan escanear e indexar todas las páginas de la Web, aunque en la actualidad sólo el 10 por ciento de todos los sitios web están indexados.

Por lo general, el proceso de rastreo se inicia desde un mapa del sitio (sitemap) que los propietarios de los sitios web ofrecen el motor de búsqueda. Google tiene programas con algoritmos que determinan la frecuencia con que los sitios necesitan ser rastreados y qué páginas se han podido recuperar desde cada sitio. Esto asegura que el índice se mantenga al día con los nuevos sitios web, los cambios en los sitios web existentes y los enlaces rotos.

Dependiendo de la frecuencia con la que los algoritmos de Google lo determinen, estos rastreos pueden ocurrir entre varias veces al día o una vez cada seis meses.

¿Por qué Google puede no rastrear una página?

En algunas ocasiones, Googlebots puede no ser capaz de rastrear nuestro sitio web. Por ejemplo si tenemos el archivo robots.txt configurado incorrectamente. Estos archivos lo que hacen es impedir el acceso a los rastreadores a determinadas páginas del sitio web.

Algunos sitios web terminan con sólo algunas páginas indexadas y todo lo demás bloqueado.  En lugar de bloquear determinadas páginas, la función principal de robots.txt debería ser dar a los rastreadores de Google instrucciones más específicas sobre la forma en la que deben leer la página.

Además, las etiquetas de título, meta y autor mal formateados pueden impedir a Googlebots  leer la página web. Del mismo modo, un .htaccess mal configurado en nuestro nuevo hosting puede arruinar e intento de rastreo por parte de Google.

Lo mismo ocurre con los parámetros de URL. Es más, un error de este tipo puede causar que Google elimine un sitio web completo de su índice. El motor de búsqueda también penalizará a los dominios susceptibles de comprar contenidos o links del mismo modo que servicios de alojamiento deficientes pueden hacer que el rastreo de nuestro sitio web no se produzca.

Para garantizar que nuestra página web se rastrea, es importante tomar las medidas necesarias para que así sea. Webmasters Tools de Google permite a los propietarios del sitio determinar donde puedan estar los errores de rastreo específicos en sus sitios web.

Garantizar el archivo robot.txt está configurado correctamente es crucial. Además, la adición de un completo y actualizado sitemap hace que sea más fácil para Googlebots rastrear nuestro sitio web.

Optimizando nuestra web para mejorar los resultados

Si queremos mejorar nuestro page rank, Google tiene que poder rastrear e indexar nuestro sitio web. Para ello, el propio motor de búsqueda nos da algunos consejos sobre cómo hacerlo de manera efectiva:

  • La estructura de un sitio web debe tener una jerarquía clara con los enlaces de texto. Cada página de destino debe ser accesible desde al menos un vínculo de texto estático
  • Debemos limitar el número de enlaces en una página.
  • Proporcionar un mapa del sitio para los visitantes con enlaces a las páginas más importantes. Debemos considerar la posibilidad de dividirlo en sub-categorías para los sitios web con un alto número de enlaces.
  • Pensar en las palabras que nuestros clientes potenciales podrían utilizar para buscar nuestro sitio web e incluirlos dichos términos y frases en nuestras páginas de destino.
  • Utilizar texto en lugar de imágenes para los nombres importantes, información y enlaces, ya que los rastreadores no reconocen el texto dentro de una imagen. En todo caso, en las imágenes deberemos asegurarnos de usar la etiqueta ALT con el texto descriptivo.
  • Estar alerta sobre enlaces rotos y errores de HTML

En última instancia, los resultados del motor de búsqueda se generan en base a lo que Google espera que el usuario encontrará más útil. Ponerse en la mentalidad de un visitante potencial es vital de cara a que el resultado sea el esperado. La experiencia de usuario y el contenido relevante son dos de los aspectos más importantes en los que debemos incidir.

Finalmente, Google también basa su ranking en el número de enlaces entrantes que una página tiene de otros sitios web, ya que eso indica que tiene contenido valioso. Sin embargo, hace una excepción a esta señal de clasificación: tienen que ser enlaces de calidad. El motor de búsqueda busca en forma proactiva y elimina enlaces spam.

La optimización de nuestro sitio web para la indexación en buscadores es casi siempre complicado, pero es absolutamente necesario para aumentar la visibilidad de nuestra web.

#fun4DJ #fun4Break #fun4Marketing

rastreo arañas google

Por |2016-10-12T20:25:05+00:00febrero 6th, 2015|#fun4Break, Blog|No hay comentarios

About the autor:

#fun4DJ & CEO en fun4Shoppers || Digital Marketing - Social Media - Web Design - Events&Music - fun4CiberSecurity - Geek & Knowmad || En constante aprendizaje en un mundo en el que lo que hoy vale, mañana está obsoleto - Huyo de los jetas, de los vendedores de humo y de quienes pretenden aparentar - Si necesitas algo de mí, tan solo pídemelo - Creo en las personas - Always searching #PureLife - Si me dices ven, lo dejo todo

Deje su comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.