Cómo hacer para que se indexen mis páginas
5 diciembre, 2018
importancia-del-dominio-web
Importancia del dominio en una web
6 diciembre, 2018
robots-de-buscadores

robots-de-buscadores

Una vez que un robot entra en una página se lee el código buscando identificar una serie de zonas: la cabecera, el cuerpo… y dentro de éstas, intenta localizar las etiquetas clave, es decir, las palabras que identifican los contenidos, estructuras, archivos, secciones, etc. de la Web. Si por ejemplo, la etiqueta TITLE no es la primera bajo la etiqueta HEAD, no archivará en su base de datos el título de la Web.

Organización de un serp

SERP viene de Search Engine Results Page (Páginas de Resultados de Buscadores), es la página de los resultados que nos muestra un buscador. Frecuentemente se hace referencia a la lista de resultados de un buscador.

En Google se puede distinguir entre la lista de resultados orgánica y la de pago. La lista de resultados orgánica se basa en las páginas indexadas que rastrea y almacena el crawler o robot, mientras que la lista de lago es aquella que nos aparece como enlaces patrocinados.

Elementos para fomentar la entrada de un robot en nuestra web

Un método habitual, conocido como “peso según frecuencia”, asigna un peso relativo a las palabras para indicar su importancia en cada documento; la asignación de relevancia se basa en la distribución de las palabras y en la frecuencia con que aparecen en cada uno de los sites.

Si queremos que los robots nos visiten más a menudo, consiguiendo tener siempre nuestro contenido actualizado en sus índices, deberemos aumentar el grado de variabilidad o frescura de nuestras páginas modificándolas a menudo y aportando nuevos contenidos de forma regular

No suele verse en el mercado occidental muchos casos de «mascotas» que obtengan tanto carisma, en cambio en Japón esto es muy habitual.


El secreto de un sitio Web son sus contenidos y, principalmente, que estos contenidos sean originales, ya que un buscador va a enseñar a los usuarios que hacen búsquedas lo optimo y actual para ellos.

Pero ¿qué usa Google que hace más efectiva su búsqueda?. El análisis de enlaces, constituye la estrategia fundamental de discriminación y a la que mayor peso específico tiene sobre el SEO. Básicamente esta técnica estudia la naturaleza de cada página, si se trata de una “autoridad”(es decir, los enlaces de otras páginas remiten a ella) o si es un “eje” (remite a otras páginas). En otras palabras: la popularidad de la página donde se sitúa el enlace.

Puedo evitar ser rastreado

Existen diferentes métodos llamados Métodos de Exclusión que permiten evitar que un buscador rastree e indexe nuestra página:

  • El archivo robots.txt – un archivo robots.txt en un sitio web funcionará como una petición que especifica que determinados robots no hagan caso a archivos o directorios específicos en su búsqueda. Esto puede realizarse, por ejemplo, para dejar fuera de una preferencia los resultados de una búsqueda avanzada, o de la creencia que el contenido de los directorios seleccionados puede ser engañoso o inaplicable a la clasificación del sitio en su totalidad.
  • Meta-Tags específicos para robots – son unos caracteres pertenecientes al HTML que se deben de escribir dentro del tag general y que lo podemos definir como líneas de código que indican a los buscadores que le indexan por qué términos debe ser encontrada la página. Dependiendo de la utilización, caracterización y objetividad de dichos meta, se puede conseguir una excelente posición en el listado resultante de una búsqueda.

 

Contacto