palabras-clave-seo
Elección de palabras claves para estrategia SEO
6 diciembre, 2018
evaluacion-seo-web
Herramientas de optimización y evaluación
6 diciembre, 2018
seo-on-page

seo-on-page

Llamaremos Seo on Page a lo que depende directamente de la aplicación en nuestra Web. Estos factores normalmente se aplican por técnicos de las Web, aunque es necesario conocerlos cuando se trabajan o se plantean nuevas categorías dentro de la Web.

Como hemos comentado anteriormente, los crawlers o robots de los buscadores dan la importancia que se merecen a los elementos HTML que encontraremos dentro del código de nuestro sitio Web. Eso implica una gran concordancia entre estos elementos y las Keywords relevantes en nuestro sector.

Tu sitio web es el escaparate de lo que eres y ofreces a millones de internautas alrededor del mundo, y como alrededor del mundo hay muchas formas de ver las cosas, lo que has de hacer es tener en cuenta eso y plantear un sitio web que sea comprensible para todos, que utilice tecnologías lo más estándar posible siempre pensando en el usuario tipo, además de las muchas excepciones que pueda haber, ya que esas excepciones son las que harán del sitio el mejor, entre los cuales hay que incluir personas de visibilidad reducida, motores de búsqueda, navegadores de todo tipo…

Si lo importante son los contenidos, aquí tienes la forma de ponerlos en el sitio web de forma óptima. Hay muchos factores a tener en cuenta pero sobretodo has de aplicar el sentido común ya que es imposible tener una página optimizada al 100% y hay que sopesar qué es mejor aplicar en cada momento. No hay que olvidar que tampoco debes sobreoptimizar tu sitio ya que podría ser contraproducente.

La página principal no es la página que ha de aparecer siempre en los resultados de búsqueda, un error muy común, que intenta considerar aparecer por muchas frases de búsqueda, algo que es complejo debido a la densidad de los contenidos posibles.

Optimiza el diseño y la programación de su web

La optimización de una Web se basa en unos algoritmos que cambian y se perfeccionan constantemente. Sin embargo existen una serie de prácticas comprobadas a lo largo de los últimos dos años. Los mecanismos algorítmicos que yacen bajo ellas se caracterizan por permanecer estables a lo largo del tiempo. Son conocidas como «los mandamientos» y reconocidas como parte del «core» del algoritmo común a todos los buscadores por ingenieros y matemáticos de los principales motores en las cada vez más conferencias y encuentros internacionales entre hackers y diseñadores de buscadores en los que cada vez más se prodiga la comunidad de expertos («hacker» =experto informático).

Programación

Cuando se va a empezar un sitio web lo primero que hay que tener claro, a parte de su finalidad, es cómo lo vamos a hacer. Hoy por hoy existen infinidad de formas de hacer una web, y no es necesario saber lenguajes de programación pero es importante tener en cuenta que los estaremos utilizando sin ser conscientes de ello.

Da igual que el sitio esté desarrollado en HTML plano, o que tenga programación en PHP, ASP o JSP por ejemplo, ya que, al final, el contenido que aparece por pantalla sigue siendo HTML y no programación, por lo que harás el sitio web siempre con la herramienta que te funcione mejor o consideres más adecuada para cada ocasión, ya que un sitio puede tener desarrollos en varios lenguajes de programación.

Una de las cosas que agradecen google que en una página web haya mucha información. Lo que se debe intentar es que haya un 30% de código y un 70% de información. Por esto es importante utilizar métodos que requieran poco código.

Otra cosa que es de agradecer es que las páginas se puedan ver bien en cualquier navegador y dispositivo dando mucha importancia a los móviles. También es importante que pasen los validadores de HTML, de CSS…

Programación en css

Las tablas existen desde el comienzo en HTML, pero no se crearon para diseñar un sitio, sino para la presentación de datos tabulares.

La utilización de “border=0” y las imágenes transparentes hicieron posible crear una rejilla que permitió a los diseñadores organizar textos e imágenes, establecer tamaños y ubicar objetos. Pero esto es sencillamente incorrecto. Las tablas no se crearon para maquetar y no deben utilizarse para eso, porque de esta forma se mezclan presentación y contenido, y lo que es importante, este es el factor principal por el cual los robots de buscadores no leen bien las webs con tablas.

La solución es clara: CSS+HTML. Algunas de las ventajas de la maquetación con CSS:

  • Separación de forma y contenido. Generalmente CSS y HTML se encuentran en archivos separados, lo que facilita el trabajo en equipo porque diseñador y programador pueden trabajar independientemente. Por otro lado, permite el acceso a distintos navegadores y dispositivos.
  • Tráfico en el servidor. Las páginas pueden reducir su tamaño entre un 40% y un 60%, y los navegadores guardan la hoja de estilos en la caché, esto reduce los costos de envío de información.
  • Tiempos de carga. Por la gran reducción en el peso de las páginas, mejora la experiencia del usuario, que valora de un sitio el menor tiempo en la descarga.
  • Precisión. La utilización de CSS permite un control mucho mayor sobre el diseño, especificando exactamente la ubicación y tamaño de los elementos en la página. También se pueden emplear medidas relativas o variables para que la pantalla o la caja contenedora se acomode a su contenido.
  • Mantenimiento. Reduce notablemente el tiempo de mantenimiento cuando es necesario introducir un cambio porque se modifica un solo archivo, el de la presentación, sin tener que tocar las páginas que contienen la estructura con el contenido.
  • Diseño unificado y flexibilidad. Es posible cambiar completa o parcialmente el aspecto de un sitio con sólo modificar la hoja de estilos. Por otro lado, el tener el estilo de una Web en un solo archivo permite mantener la misma apariencia en todas las páginas.
  • Posicionamiento. Las páginas diseñadas con CSS tienen un código más limpio porque no llevan diseño, sólo contenido. Esto es semánticamente más correcto y la página aparecerá mejor posicionada en los buscadores. Google navega obviando el diseño.

Rastreo de un sitio web

Uno de los aspectos más importantes a tener en cuenta a la hora de posicionar un sitio Web es conocer los criterios que utiliza el Robot o crawler del motor de búsqueda en relación con las diferentes partes del documento HTML.

A continuación vamos a definir la estructura típica de un documento HTML y seguidamente veremos cómo ésta puede afectar a su posicionamiento.

Esta es la típica estructura de un documento HTML:

<HTML>
<HEAD>
<!– información de cabecera utilizada para contener información adicional acerca de este documento, y que no se muestra en pantalla –>
</HEAD>

<BODY>
<!– todo el HTML a visualizar –>
: :
: :
: :
</BODY>
</HTML>

La cabecera de la página web

El primer elemento de un documento es la etiqueta <HEAD>, es decir, la cabecera del documento. En esta etiqueta se encuentra toda la información que va a describir las características del documento: título, descripción, palabras clave, Copyright, autor…

La cabecera de cada página es lo primero que leen los robots de búsqueda y que van a decidir la estructura de la página y su configuración, por lo que es muy importante dedicarle una gran atención a sus partes:

DOCTYPE

Es la explicación de que tipo de código HTML / XHTML vas a encontrar en el sitio. Con esto ayudas al navegador a que muestre el sitio de una forma correcta. Es un elemento obligatorio en los sitios web. Además puede llegar a indicar si un sitio está pensado para verse en un tipo de plataforma u otra (como por ejemplo el especificar el formato XHTML para móviles).

TITLE

Esta etiqueta transmite al robot el título de la página, por lo que se deben incluir en éste las palabras clave por las que queremos que nuestro sitio sea encontrado

El título de la página ha de indicar con precisión qué hay en esta página. Al hacer una consulta en cualquier buscador lo que ves en los resultados son los títulos de las páginas web juntamente a su descripción (o a un fragmento de la página). Por eso el título de cada página debe ser el que necesita y no otro.

El título de la página es el lugar donde los usuarios de los buscadores pulsan, por eso se hace el elemento más importante (visible) frente al resto de resultados.

Hay que tener en cuenta que las palabras que aparecen primero en el título tiene más valor que las del final, por lo que si quieres darle más fuerza a unas palabras has de intentar ponerlas al principio.

META Content-Type

Indica la codificación del texto. Habitualmente UTF-8 o ISO-8859-1, teniendo en cuenta que si quieres realizar una web internacional y con soporte de futuro es mejor tenerla optimizada para UTF-8.

META Description

Es la descripción de lo contenido en el documento. En ella se ha de reflejar en pocas frases, la síntesis de todo el documento, toda la información.

Tendrá una pequeña descripción de lo que vas a encontrar en la página, en esta en concreto y no en toda la web . Este texto ha de ser, por tanto, único en cada una de las páginas de todo el sitio. Lo ideal es que sea breve entre 25 y 150 caracteres.

META Keywords

Un buen META Keywords viene dado de la relación de las palabras con el contenido que hay en la página. Al igual que la descripción, deberían ser únicas para esa página. Si esa lista de palabras coincide con las que el buscador considera más importantes, le dará un valor superior al sitio.

Las palabras clave que hemos de indicar no han de exceder en su cantidad por lo que lo mejor sería una media de 5 grupos de palabras por página.

Hay que tener en cuenta que debes tratar el sitio mediante herencia, o sea, si una palabra clave está en la página principal ya es válida para todo el sitio; has de elegir palabras de más general a más concreto según vayas entrando en secciones o páginas del sitio.

LINK Stylesheet

Indica la dirección URL del CSS (Hojas de Estilo). Este parámetro es opcional, aunque se recomienda hacer uso de CSS ya que los algoritmos de google lo premia.

LINK Alternate

Indica la dirección XML del feed, indicador de contenidos para buscadores especificos de blogs. Este parámetro es opcional, aunque si la página dispone de noticias o información actualizada se recomienda hacer uso del mismo.

En principio esto es suficiente para que la cabecera del sitio sea lo más estándar para los robots de búsqueda, navegadores y usuarios.

Gran parte de estos elementos son los que aparecen en los resultados de búsqueda (título, descripción…) y que hay que tenerlos muy estudiados ya que son los que los usuarios encuentran.

 Área del cuerpo o contenido

La disposición de los elementos HTML y el contenido dentro de la página es relevante para los robots. Un texto ubicado al principio del código fuente HTML es más relevante que un texto que aparece el pie del mismo. Es importante aclarar, que, cuando hablamos de código HTML no estamos hablando de algo perceptible para nuestros usuarios, como hemos visto anteriormente.

Esta disposición es muy importante para la correcta indexación de nuestros contenidos, este código de alguna manera también ha de ir limpio y con la disposición correcta de los elementos que a continuación explicaremos como (hojas de estilo CSS, H1, negritas….).

El texto del documento, que como hemos dicho va incluido en el «body», puede jerarquizarse (aunque la mayoría de diseñadores lo consideren «anticuado», los robots no). La manera óptima de especificar dicha jerarquía es mediante las etiquetas <H1>, <H2>, <H3>, <H4>, <H5> y <H6>. Al conjunto de texto incluido dentro de estas etiquetas les llamaremos «Área de Cabeceras» (del inglés «header»).

Como hemos comentado, el contenido de los titles, metas y el resto de etiquetas que hemos nombrado y que veremos a continuación han de aparecer destacas en el código fuente de la página así, como en los diferentes puntos de la web.

Algunas especificaciones a tener en cuenta:

  • Empieza y termina la página (tal como la lee el boot) con un texto que describa en 5 palabras tu Web. La primera de ellas tiene que ser tu palabra clave.
  • No abuses de las imágenes ni del texto alternativo de estas. Pon como texto alternativo de la primera de ellas en orden de lectura en el código tu palabra clave. Es decir, no es necesario poner texto alternativo a todas y cada una de las fotos que aparezcan en una web y que tengan una relación más o menos directa entre ellas o el contenido. Máxime si la web se basa en contenido gráfico. Tan sólo sería necesario poner el texto alternativo a la primera imagen de una serie. Un ejemplo: si una web/blog tiene la descripción de cómo instalar un sistema operativo y consta de 30 imágenes, no es necesario duplicar en texto alternativo, tales como, «instalacion win xp 1», «instalación win xp – configuración», «instalación win xp – ajustes», etc. Porque existe una tendencia o repetición de un patrón con un simple cambio. Ahora bien, si tienes pocas imágenes y no tienen nada que ver unas de otras, especifica el texto alternativo en cada una de ellas.
  • Usar etiquetas <H1>. Algunos buscadores como Google no sólo miden el área de cabecera sino que distingue entre sus distintas jerarquías.
  • Incluye también el término de búsqueda como primera palabra del primer texto hiperenlazado de tu página.
  • Otros buscadores, como Google, consideran el área de negritas y los tamaños de letra. Destacar tus palabras clave en negrita en el texto e incluso en un tamaño de letra mayor que el resto ayuda.
  • Utiliza ampliamente la palabra clave en el texto «normal de tu página» sobre todo en su tercio superior, aunque tampoco abuses (por ejemplo no lo uses varias veces en una fila de tabla).
  • La proporción entre código y texto cuenta. Aunque se discute si directamente o por el efecto sobre otras variables, abusar de las líneas de código javascript o crear páginas intermedias de cookies o redirecciones consigue dañar seriamente el posicionamiento de tu página.
  • Google también puntúa las URLs. Ayuda tener un dominio que incluyan tu palabra clave; recuerda que no separa las palabras, por ejemplo el dominio www.saludytecnologia.com no aporta nada al posicionamiento con la palabra «salud» aunque www.salud-ytecnologia.comsi. Sin embargo, los subdominios o directorios en la palabra clave también ayudan como sería  www.saludytecnologia.com/salud).
  • Texto alternativoEs el texto que se asocia a la imagen mediante el atributo ALT de la etiqueta <IMG SRC>. Es una de las áreas más sensibles y menos cuidadas por los diseñadores que no siguen los estándares de usabilidad.

    <img title=»Armario del siglo XIX con un estilo contemporáneo»
    src=”http://misitio.ext/imagen/armario-XIX-contenporaneo.gif”
    alt=”armario siglo XIX contemporáneo” />

    http://www.marketingconsulting.es/

  • Texto hiper enlazadoEs el conjunto de texto de la página que aparece entre etiquetas <a href=»URL»> y </a>
  • Área de comentariosAún existen un par de buscadores que analizan el código de los comentarios que, de modo invisible para los usuarios, los programadores colocan para otros programadores dentro del código.La etiqueta de comentarios sigue el siguiente formato: <!– Texto del comentario –>
  • Etiquetado<p> –usada para distinguir lo diferentes párrafos. Acostumbra a usarse para definir o explicar conceptos importantes. Se trata de una etiqueta usada en webs muy concretas (por ejemplo diccionarios online o glosarios profesionales) ya que causa espacios en blanco en algunos navegadores, especialmente FireFox.

Linking interno

Entendemos por Linking interno el conjunto de enlaces que apuntamos a nuestro site, desde el mismo. Anteriormente, hemos visto que es importante ofrecer a los robots enlaces con los que acceder a toda la información que queremos indexar, para ello es imprescindible estructurar un sistema de Linking interno que facilite la navegación a través de nuestro sitio.

Una buena estrategia de Linking interno generará flujo natural del crawler a través de nuestro sitio y potenciará la indexación.

Las claves para generar un buen Linking interno son:

  • Enlazar con buenos anchor text* (optimizados y coherentes con las Keywords de nuestro sector así como, con el contenido que mostramos).
  • Hacer un buen uso de los Now follow, para priorizar unos enlaces frente a otros.
  • Crear enlaces con rutas absolutas.
  • Intentar contextualizar enlaces: crear enlaces en medio de un texto.

Los enlaces

Hay que tener en cuenta dentro de un sitio web que sea fácilmente indexable y saber cómo crear un buen mapa de enlaces internos, ya que eso es en lo que se basan los motores de búsqueda, en encontrar enlaces para poder indexar toda la red.

o primero de todo es ver cómo hay que crear un enlace. Según los estándares del W3C se indica que un enlace tiene un posible atributo (opcional) que es el del “title”. Este atributo, como recomendación, es que tenga el título <title> de la página de destino.

Este podría ser un enlace habitual…

<a href=»https://www.fluyeycrea.com/»>Blog</a>

Aunque, ¿no sería mejor uno así?

<a title=»Blog creativo. Fluye y Crea» href=»https://www.fluyeycrea.com/»>blog</a>

El uso de los títulos (que, personalmente, a mí me gusta poner antes de la URL y “lejos” del texto del enlace, precisamente para ayudar a la densidad de palabras clave) se supone que es para ayudar a las personas invidentes y a determinados navegadores.

Una cosa que no debemos hacer es utilizar “popups” o “JavaScript” dentro de la parte donde se pone la URL. Ya que dificulta la usabilidad y no le gusta nada a google.

Si es posible debemos dar facilidades de navegación como utilizar una especie de “línea de navegación” de forma que pueda volver a la categoría padre de la sección del sitio donde se encuentre, y así facilitar una estructura del sitio.

El usuario siempre debe aber en todo momento dónde está y cómo poder volver “atrás” sin necesidad de usar el botón. Los robots que rastrean la web no tienen ese botón y no pueden llegar a una página en la web en la que no se pueda volver atrás sin un enlace.

El hecho de tener unos enlaces lo más cuidados y trabajados posibles van a hacer que la indexación del sitio sea óptima.

Cabeceras, negritas, cursivas, listados

Para empezar, todo texto debería tener un título. Este título, al ser lo más importante de la página (del texto ó contenido que incluyamos), debería ser el tradicional <h1> del HTML. Las cabeceras van del <h1> al <h6> pero habitualmente sólo se usan del <h1> al <h3>.

Teniendo en cuenta se según los estándar de usabilidad sólo puede haber un único <h1> por página, lo añadiríamos junto a una breve entrada o bloque resumen y el resto se puede intentar “seccionar” con bloques <h2> y <h3> como si fueran subsecciones del texto principal, ya que estos no tienen límites. No es bueno abusar de esto (como de nada) por lo que harás un uso responsable y sólo lo usarás si es necesario.

De la misma forma que pones títulos a tus textos, también harás uso de las negritas, cursivas… en HTML hay muchos sistemas de formateado de texto (se supone que el HTML se hizo para eso) por lo que deberías también utilizarlos si se diera el caso.

Los más utilizados son estos:

<i>Así es como se pone un texto en cursiva<i>

<b>Así es como se pone un texto en negrita</b>

<u>Así es como se pone un texto con subrayado</u>

Las imágenes

Cada vez más, las imágenes son una fuente importante de tráfico para las Web. Para posicionar correctamente nuestras imágenes es necesario facilitar su lectura y comprensión o interpretación por parte de los crawlers.

Lo mismo que el texto, una imagen es un contenido y también es importante. Google tienen un buscador específico de imágenes que siempre vienen bien para atraer tráfico, ya que se estima que entre un 5% y un 10% llega desde este tipo de búsquedas.

En las imágenes debes tener dos detalles siempre presentes: el nombre de la imagen y describirla correctamente.

El nombre de la imagen es el nombre que se le da al fichero que se publica en la red.

La descripción viene dada para el cumplimiento del HTML y de la usabilidad, sobretodo para personas invidentes que utilizan navegadores poco habituales.

Toda imagen ha de llevar, en la actualidad, un texto alternativo. Este texto alternativo es el que aparece en el sitio web si la imagen, por la razón que sea, no puede aparecer. En este caso lo interesante es incorporar palabras clave, al igual que en el nombre del fichero, pocas palabras pero que describan claramente qué es la imagen.

Esto se da con dos elementos: “alt” y “title”, que son los mandatarios en estas cuestiones. Losresultados de búsqueda de imágenes muestran, además de la imagen, una breve descripción de lo que incluye dicha imagen o un fregmento de texto, que suele ser el “title”, y que ayuda a subir posiciones entre los diferentes resultados que puedes encontrar.

<img title=»Armario del siglo XIX con un estilo contemporáneo» src=»http:// misitio.ext/imagen/armario-XIX-contenporaneo.gif» alt=»armario siglo XIX contemporáneo» />

Al igual que en los enlaces el hecho de poner el “title” delante de la dirección de la imagen y tras ella el texto alternativo “alt” ayuda a mejorar la densidad de información, ya que hay que recordar que los motores de búsqueda utilizan la información existente alrededor de una imagen para posicionarla, ya que no pueden saber qué contenido tiene la misma (aunque se está trabajando en ello).

Igual que en el contenido del texto, es importante usar imágenes de calidad que harán que se vea más claro para el crawler en su listado de imágenes. Las imágenes deberían ser propias para evitar la duplicidad de contenido. Es bueno enlazar las imágenes pequeñas, con imágenes mayores y de mejor resolución.

Los contenidos

La clave para una buena indexación son los contenidos: contenidos de calidad y optimizados para las Keywords que queramos posicionar y que sean relevantes en nuestro sector.

El contenido es el elemento de mayor importancia para cualquier sitio web. No importa lo sofisticados se vuelvan los buscadores o cuántos factores externos se agreguen a los algoritmos, en definitiva, lo que juega un rol vital a la hora de los rankings es el contenido textual principalmente, junto al resto de contenidos que se puedan ir añadiendo (imágenes, vídeos…). Cada página de un sitio es una potencial página de aterrizaje para los usuarios provenientes de los buscadores. Por ello es esencial que cada página tenga las palabras claves más relevantes para esa página y que no las obviemos.

Es muy habitual querer que la página inicial de nuestro sitio consiga atraer el 100% del tráfico del sitio, pero es mucho mejor distribuir la recepción de tráfico entre varias páginas o categorías que tengan una temática más específica. Es crucial que el contenido no sólo sea amistoso con los motores de búsqueda, sino que también sea provechoso para la audiencia, es decir el usuario.

Hay que tener en cuenta que si un usuario llega desde un buscador a una página y no encuentra el contenido que busca, automáticamente cierra esa ventana y se vuelve al buscador… en cambio, si encuentra lo que busca y, además, le damos más información relacionada, es probable que se quede un rato navegando por el sitio.

Contenido fresco

Uno de los factores más importantes en la actualidad es el factor frescura ya que juega un rol muy importante que se manifiesta en una patente que le ha sido otorgada a Google y que trata sobre los factores temporales a la hora de medir la actualización de una página. Se puede decir, como regla básica, que cuanto más se actualiza el contenido de una página, mayor es la probabilidad de que un buscador la considere un punto extra positivo a la hora de los rankings.

Sin embargo, agregar elementos de frescura a la página puede ser un tarea que consuma tiempo. Hay diferentes maneras para generar contenido fresco, sin la necesidad de consumir demasiados recursos.

Notas de prensa: son algunos los casos en los que se dispone de una agencia de prensa… lo más interesante es que esas notas de prensa estén en una sección del sitio y así mantenemos esa sección con cierta frecuencia actualizada.

Preguntas frecuentes: en la mayoría de sitios hay una zona de contacto donde se pueden añadir una serie de preguntas y respuestas habituales que suelen realizar los visitantes al llegar al sitio.

Blogs: fácilmente con un sistema de blog se puede integrar contenido más o menos actualizado al sitio web en cuestión que haga que parte del material que haya no sea estático y esté actualizado.

Directorios: crear un pequeño directorio en el propio sitio web ayudará a que generemos contenidos temáticos y que enlacen a sitios de calidad, algo que valoran positivamente los robots de búsqueda.

Glosarios: un pequeño listado de palabras con sus respectivas definiciones, enlazando a las secciones de la web, puede ayudar a que los usuarios encuentren lo que buscan cuando no tienen claros los conceptos.

Los buscadores intentan entregar al usuario contenido relevante para sus búsquedas, por lo que las páginas que están enfocadas concretamente a una temática tendrán mejores posiciones en los resultados. Lo ideal es organizar el sitio web de temas muy genéricos a temas más concretos, de forma que cuanta más profundidad tenga el sitio más concretas sean las temáticas que allí se tratan.

Pero no sólo es importante mantener el contenido fresco, sino que la cantidad de contenido y páginas han de ir aumentando con el tiempo. Los sitios que tienen pocos contenidos pueden ser planteados por los buscadores como páginas que no se actualizan o no evolucionan y eso no es bueno para subir posiciones, de forma que si puedes generar contenidos con frecuencia, ganarás en calidad y reconocimiento (además de tener más contenido por el que ser encontrado).

La implementación de un blog corporativo que se actualice con cierta frecuencia no sólo es una excelente herramienta de marketing y comunicación sino que además es beneficioso para el posicionamiento por su naturaleza propia.

Frases de búsqueda y palabras clave

Una cosa que sí debes tener en cuenta al crear contenidos es cuidar cómo lo haces. Sí, puede parecer que crear contenidos es muy sencillo, pero si realmente lo fuera no existiría la carrera de Periodismo, ni por supuesto, los periodistas, principales generadores de contenidos.

Por eso cuando hagas un contenido, y sobretodo los textuales, hay que tener muy claro qué es lo que queremos destacar del texto. Hasta ahora se hablaba del concepto de “palabras clave”, pero cada vez más los usuarios que buscan utilizan más palabras a la hora de realizar sus consultas, lo que hace que no te centres tanto en palabras clave como en frases de búsqueda o conceptos.

Y es que cada vez más hay de tener en cuenta que tipo de perfil es el que queremos conseguir atraer al sitio, ya que sabiendo este perfil puedes prever cómo busca y por ende el lenguaje que va a utilizar.

Un ejemplo de artículo podría ser éste (como ejemplo de una supuesta web de ciencia con un nivel medio-bajo):

La vida empezó «en el fondo del mar»

Una nueva y controvertida teoría sobre el origen de la vida en la Tierra ha dado que hablar en la comunidad científica.

La nueva concepción sostiene que los organismos vivos se originaron en los que llama «incubadores inorgánicos». Se trata de pequeños nidos formados en rocas de sulfuro de hierro.

La teoría, propuesta por los profesores William Martin, de la Universidad de Düsseldorf (Alemania), y Michael Russell, del Centro Escocés de Investigación Ambiental en Glasgow, cuestiona de la raíz ideas convencionales.

Hasta ahora se ha sostenido que primero se formaron los ladrillos elementales de la vida, los cuales se fueron juntando para generar una estructura celular básica.

La nueva propuesta señala, en cambio, que la célula se formó primero y que después se rellenó con moléculas de vida.

Una de las implicaciones de la teoría es que existen más probabilidades de que se desarrollen organismos en planetas donde antes se pensaba que sería imposible.

Tras la lectura de este fragmento de noticia podrías plantearte cuáles son los conceptos que tal vez interesaría posicionar: “dónde comenzó la vida” y “origen de la vida”. Estas dos frases pueden ser una búsqueda que la gente haga y por tanto es algo que debes plantearte posicionar. Además podrías destacar los nombres de los científicos.

Así pues, puedes dejar redactado el artículo de la siguiente manera:

El origen de la vida en el fondo del mar

Una nueva y controvertida teoría sobre el origen de la vida en la Tierra ha dado que hablar en la comunidad científica.

La nueva concepción sostiene que los organismos vivos se originaron en los que llama «incubadores inorgánicos». Se trata de pequeños nidos formados en rocas de sulfuro de hierro.

La teoría sobre dónde comenzó la vida, propuesta por los profesores William Martin, de la Universidad de Düsseldorf (Alemania), y Michael Russell, del Centro Escocés de Investigación Ambiental en Glasgow, cuestiona de la raíz ideas convencionales.

Hasta ahora se ha sostenido que primero se formaron los ladrillos elementales de la vida, los cuales se fueron juntando para generar una estructura celular básica.

La nueva propuesta señala, en cambio, que el origen de la vida está en la célula que se formó primero y que después se rellenó con moléculas de vida. Una de las implicaciones de la teoría es que existen más probabilidades de que se desarrollen organismos en planetas donde antes se pensaba que sería imposible.

En este último fragmento, el haber añadido conceptos en negritas y cursivas hará que el robot de búsqueda se quede atento a esos conceptos y les de cierta importancia por encima del resto del documento.

Densidad de Contenidos

Los contenidos de una Web se deben preparar dándole forma según el código HTML y destacando, en todo caso las Keywords de forma correcta. Es bueno, que en toda nuestra Web repitamos de forma constante las Keywords de interés, sin caer en lo absurdo. Es muy importante que la repetición de estas palabras se vea como algo natural y no como algo forzado o preparado para los robots, ya que de ser así, podemos ser penalizados por sobrecargar la página.

Si realizamos contenido de calidad o interés fácilmente recibiremos enlaces de otras webs, que nos ayudaran a mejorar el posicionamiento.

Cada buscador tiene sus propias fórmulas para calcular y encontrar resultados de búsqueda relevantes. La ubicación de los conceptos y su densidad con respecto a la cantidad de texto que se encuentra en una página, puede afectar los resultados, ya que es lógico que si un concepto aparece una única vez en un contenido de 5 páginas no tenga mucho valor con respecto al global.

Ubicar conceptos al comienzo de cada página asegura que el enfoque de la página sea leído rápidamente. El título y los metadatos forman parte de la información disponible en la cabecera de la página, pero si se tienen palabras al comienzo del contenido, esto será beneficioso también.

La densidad se refiere a la cantidad de veces que se repite una palabra cada 100 palabras. Es aconsejable mantener un ratio de 2%-3%, tratando de que los conceptos aparezcan en intervalos regulares entre el texto del contenido, lo que significaría que cada 2 o 3 párrafos has de incluir de alguna forma los temas principales que se están tratando.

Habiendo dicho esto, crear páginas pensadas solamente para los buscadores no es una buena idea. El texto de la página debe poder ser leído correctamente y debe persuadir al visitante a tomar una acción. Esto significa que si ves que incluir los conceptos no es posible es mejor no forzar y aplicar otro sistema que encuentres más conveniente.

Una forma de verlo es con la versión “solo texto” que tiene guardada Google de las páginas:

http://www.google.com/search?strip=1&q=cache:www.dominio.ext/dir/pagina.html

Contenidos atractivos

Pero no todo es cuestión de añadir u optimizar contenidos, sino que la forma de hacerlo también es uno de los secretos. No basta con atraer a los usuarios desde los motores de búsqueda sino que además hay que conseguir que si llegan a la página la utilicen como fuente y se queden el mayor tiempo posible.

Es muy importante que la página cargue rápidamente, que lo que aparece en una primera impresión sea claro y fácil de leer y que sea sencillo navegar de un sitio a otro por la misma. Además, hay que aportar elementos que nos distingan, como son enlaces relacionados a un contenido, noticias de interés, ofertas y promociones…

Estructura del sitio

La forma en que se organiza la información (o sea, dónde están los textos, imágenes y enlaces dentro del código fuente) puede afectar a cómo los buscadores la leen. Los robots de búsqueda leen los sitios de izquierda a derecha y de arriba a abajo (si no se les indica lo contrario, como puede pasar en países con otros alfabetos) y consideran lo que aparecería en “en primer pantallazo” (lo que se ve por pantalla nada más entrar en la página) lo más importante.

Gracias a los CSS, si reorganizas el sitio web de una manera más estructurada, los datos se pueden colocar de manera que el contenido principal de la página quede lo más arriba posible, manteniendo la apariencia general del sitio. Como consecuencia, el contenido de la página podrá conseguir una clasificación superior, lo que permitirá mejorar el resultado global del sitio.

A continuación te planteo algunas plantillas habituales de sitios web:

Este podría ser el planteamiento de una estructura completa y compleja en la que nos encontramos las 5 zonas primarias de contenido.

La zona (1) es aquella en la que habitualmente encontramos el nombre del sitio, la cabecera, junto a un buscador, una zona de publicidad u otros elementos similares.

Las zonas (2) y (4) suelen incluir los menús de navegación o enlaces a ciertos contenidos destacados del sitio.
La zona (3) incorporaría el contenido principal de la página, donde encontraremos el grueso del contenido de la página y donde deberán estar los contenidos principales a posicionar.

Para acabar, la zona (5) es el pie de página, donde habitualmente están los datos de acceso a la propietaria del sitio y los enlaces a datos legales correspondientes a cada país.

Cada sitio web tiene unas necesidades concretas y no se puede generalizar, pero dándose el caso, lo idea es que se indexe la página en 4 bloques:

Cabecera

Contenidos

Navegación

Pie de página

Esta estructura es la ideal en el caso de que en los menús de navegación no haya enlaces externos directos a otras páginas que no sean las propias, ya que en el caso contrario, el de haber una gran cantidad de enlaces externos al final de la página, lo ideal sería cambiar el formato a la siguiente estructura:

Cabecera

Navegación

Contenidos

Pie de página

Como digo, cada caso es un mundo y hay que estudiar bien si un motor de búsqueda podría considerar ese menú de navegación como algo “negativo” en el conjunto del sitio y por tanto será bueno estudiar la posición del mismo.

Aun así y gracias a las tecnologías XHTML y CSS podemos permitir el lujo de que el código esté ordenado de la manera óptima SEO, pero que aparentemente se vea de otra forma.

Mapa del sitio

El mapa del sitio es una lista de vínculos a las diferentes páginas de la propia Web. De esta manera, la página ayuda a los buscadores para que encuentren dónde está situado cada contenido.

Un mapa del sitio es una sección donde encontrarás una especie de índice de todo lo que podemos encontrar. Lógicamente no hace falta incluir todos los contenidos, sólo la estructura principal (secciones y subsecciones) de forma que el robot de búsqueda, si entra en este mapa, tenga accesibles todas las secciones principales donde encontrar información.

Como beneficio adicional, los mapas de los sitios ofrecen la oportunidad de incluir páginas que normalmente no podrían formar parte de la estructura normal de navegación del sitio. Como ejemplo, se podría encontrar una breve lista de los contenidos más destacados para que estén a un clic y no haya de buscar el robot a través de las diferentes categorías.

Aún todo esto, hay que tener en cuenta que no puedes excederte en la cantidad de enlaces de este mapa. Si el sitio es muy grande deberás elegir las páginas que quieras destacar.

Esta página sirve de ayuda a la indexación pero no implica que si una página no está en el mapa no se indexe… el mapa es una vía para facilitarle la ayuda a los robots de indexación. Además, en algunas ocasiones, si el usuario no tiene mucha idea de dónde encontrar un contenido es probable que vaya a este mapa del sitio para hacerse una idea más clara de su estructura y así poder llegar a su cometido.

Para facilitar el trabajo a los robots:

Archivo “sitemap”: es un archivo XML con una estructura específica que facilita a los crawlers información sobre el contenido que tenemos y con que periodicidad se actualiza. Así, se generará el archivo XML llamado sitemap.xml y se insertará en el directorio raíz.

Dirección URL

Este capítulo tiene contenido altamente técnico, por lo que se recomienda la lectura a todo el mundo, pero la aplicación del mismo sólo a aquellos con conocimientos técnicos suficientes como para aplicarlos con seguridad.

Como ya he comentado en varias ocasiones, la estructura del sitio es uno de los elementos que hace que la información quede bien organizada y de esa forma sea mucho más sencillo llegar a ella.

Al igual que el título de la página web, la dirección URL es uno de los elementos que se muestran en los resultados de búsqueda, algo que la convierte en uno de los elementos importantes.

Habitualmente los robots de búsqueda suelen indexar los sitios web en base a su profundidad. La profundidad suele venir dada por la cantidad de carpetas, archivos o parámetros de las URLs y por esto mismo hay que tener muy en cuenta su funcionamiento y su corrección (en la medida de lo posible).

Una dirección web puede ser esta:

http://www.sitiodeejemplo.com/index.php?s=1234

O puede ser esta:

http://www.sitiodeejemplo.com/contenidos/pagina-de-contenido/

Está claro que la segunda opción es mucho más intuitiva que la primera ya que el usuario que ve los resultados de búsqueda encuentra que la dirección tiene relación con lo que busca, además de ser mucho más sencilla de recordar que la primera.

La pregunta es simple… ¿cómo se pueden conseguir estas direcciones de una forma sencilla? En este caso no es tan sencillo como incluir una negrita o una cursiva en un texto, ya que lo más probable es que si tienes estas direcciones tan complejas es porque usas algún sistema de base de datos. Si simplemente tienes una página en “html” lo que hay que hacer es cuidar muy bien cómo llamas a los ficheros.

Se podría hacer una clasificación simple de dos tipos de direcciones web: las que llevan “identificadores” y las que no. Las que llevan identificador son aquellas que a un mismo fichero, como es el caso del primer ejemplo, le pasamos un número o nombre que va cambiando y muestra una página u otra.

También has de tener en cuenta que es muy diferente el sistema de cambios de URLs para Internet Information Server (IIS) como para Apache HTTP Server, dos de los servidores web más frecuentes en Internet, ya que existe un sistema que permite hacer estas mejoras de forma sencilla que viene implementado por defecto en Apache pero no en IIS, aunque para ello dispones de Isapi Rewrite que será 100% funcional con la versión Lite (gratuita) para las necesidades básicas.

El funcionamiento del Mod_Rewrite es muy sencillo, aunque hay que llevar mucho cuidado con él ya que una mala configuración podría hacer que no funcione nada. Para la versión del Isapi Rewrite es recomendable la lectura de su funcionamiento. Para la versión de Apache que viene por defecto simplemente hay que crear un fichero en el directorio raíz de nuestro sitio web llamado “.htaccess” (vigilad el punto al principio del nombre), aunque también es recomendable darle una ojeada a su documentación. En el caso de los ejemplos siguientes, todos se basan en Apache.

Como casos de ejemplo podrías encontrarte lo siguiente: tenemos unas páginas creadas por nosotros que son medianamente estáticas.

http://www.sitiodeejemplo.com/index.php?pagina=productos

http://www.sitiodeejemplo.com/index.php?pagina=ayuda

Quizá para estas páginas sea mucho más simple aplicar un cambio con Mod_Rewrite para que queden así:

http://www.sitiodeejemplo.com/pagina/productos/

http://www.sitiodeejemplo.com/pagina/ayuda/

¿Cómo lograr esto? Con un fichero “.htaccess” que incluya lo siguiente:

RewriteEngine on

RewriteRule pagina/([A-Za-z0-9]*)/ index.php?pagina=$1

En este caso, la primera línea (RewriteEngine) lo que indica es que activamos el Mod_Rewrite y la segunda le indica la regla: todas las páginas que tengan el primer formato (pagina/([A- Za-z0-9]*)/), internamente llamarán al segundo formato (index.php?pagina=$1), es decir, que una página que llegue en formato “/pagina/loquesea/” internamente llamará a “/index. php?pagina=loquesea”.

Esto vendría a ser lo más sencillo, que se puede complicar como queramos… por poner un ejemplo diferente y algo más complejo, utilizando una base de datos, el sistema funciona con identificadores, como por ejemplo:

http://www.sitiodeejemplo.com/articulos.php?cat=novedades&id=548

http://www.sitiodeejemplo.com/articulos.php?cat=soluciones&id=32

http://www.sitiodeejemplo.com/soporte.php?ayuda=tecnologia

En este caso quizá estaría mejor que las direcciones fueran como:

http://www.sitiodeejemplo.com/articulos/novedades/548/

http://www.sitiodeejemplo.com/articulos/soluciones/32/

http://www.sitiodeejemplo.com/soporte/tecnologia/

Un fichero “.htaccess” para aplicar el Mod_Rewrite quedaría como:

RewriteEngine on

RewriteRule articulos/([A-Za-z0-9]*)/([0-9]*)/ articulos. php?cat=$1&id=$2

RewriteRule soporte/([A-Za-z]*)/ soporte.php?ayuda=$1

La primera regla serviría para los dos primeros ejemplos, ya que la estructura de ambas es muy similar…

Lógicamente puedes hacer combinaciones de muchos tipos y para ello existe multitud de documentación sobre Mod_Rewrite, como la documentación de Isapi Rewrite o la documentación de Apache Mod_Rewrite. Una búsqueda en la red te arrojará multitud de opciones con las que trabajar.

Un detalle a tener en cuenta es que, a nivel posicionamiento, las sesiones y las cookies no tienen validez por lo que no se recomienda el uso de ellas. En el caso de necesitarse lo más recomendable es que no se indexen esas zonas en las que se utilicen ya que se podría llegar a convertir en una penalización al duplicar el buscador todas las sesiones en páginas idénticas que lo único que cambia es el identificador de sesión.

Robots txt

Cuando en el año 1994 comenzaron a aparecer los primeros robots de búsqueda, o simplemente unos robots que investigaban Internet para calcular su tamaño, los administradores de sitios web se encontraban con problemas porque estos robots entraban en las páginas web y las saturaban. Es por eso que se desarrolló un protocolo para que los robots de búsqueda los cumplieran creando así los ficheros “robots.txt”.

El fichero “robots.txt” es muy importante en lo que se refiere a los robots de búsqueda, ya que es lo primero que van a visitar de un sitio web, antes incluso que la página principal del dominio. Este fichero hay que colocarlo en la carpeta raíz del dominio (o subdominio)… no sirve de nada que esté en una carpeta interior ya que no será leído nunca.

Este fichero, un documento de texto (TXT) normal y corriente, incluye directrices propias a cada uno de los buscadores que permiten indicarle que partes del sitio pueden o no pueden indexar, lo que te ayudará a indicarle si hay contenido que quieras que quede excluido o incluido.

El archivo “robots.txt” más simple utiliza varias reglas:

User-Agent: el robot al que se aplica la regla.

Disallow: las páginas que desea bloquear.

Allow: las páginas que desea indexar.

Se pueden incluir todas las entradas que se desee así como varias líneas “Disallow” y varios “User-Agent”.

El fichero que, por defecto, debería haber en todos los dominios si no quieres aplicarles ninguna regla sería:

User-Agent: *

Con esto le indicas que todos los robots de búsqueda tienen vía libre para indexar todos los contenidos que haya en el sitio web sin excepción, siempre y cuando sean capaces de rastrearlos.

Un ejemplo sencillo puede ser el siguiente, en el que todo el sitio quedaría excluido por los robots de búsqueda, es decir, que no se indexaría ni debería aparecer en los resultados:

User-Agent: *

Disallow: /

Un ejemplo algo menos sencillo es el siguiente, en el que te encontrarás con un directorio al que los robots no han de acceder, pero donde le aplicas una excepción con una página concreta del mismo:

User-Agent: *

Disallow: /directorio/

Allow: /directorio/fichero.html

Aunque también se puede jugar con los robots de cada buscador:

User-Agent: Google

Disallow: /

User-Agent: MSNBot

Disallow: /fichero_prohibido.html

User-Agent: *

Allow: /

En este caso le estás diciendo al robot de Google que no puede indexar nada, al robot de Microsoft que puede indexar todo excepto el fichero prohibido y al resto de robots que pueden indexar lo que quieran.

Existe una base de datos con la lista de robots que mantiene el sitio oficial de robots.txt

http://www.robotstxt.org/db.html

http://www.robotstxt.org/

En el mismo sentido, nuestra Web contendrá enlaces por lo que si no queremos que los robots los indexen habrá que aplicar un NowFollow a un enlace, basta con añadir al código del mismo una relación “now follow” (rel=nofollow).

Página no encontrada

Una de las cosas que no suele tenerse muy en cuenta cuando se da de alta un sitio nuevo es el control de las páginas de error. Por defecto, los servidores web como Apache o IIS suelen mostrar una página en blanco con un mensaje de error que dice algo como “Error 404 – Página no encontrada”.

Hay que decir que estas páginas no son indexadas por los robots de búsqueda (y que a la larga, si estaban indexadas irán desapareciendo de los resultados de búsqueda), pero sí que llevan a un problema y es que, si el robot está indexando una lista de páginas y llega a una 404 automáticamente “se le corta el rollo” y puede llegar a marcharse del sitio web.

La opción por defecto y que deberías usar habitualmente para tratar este tipo de errores es aquella en la que se devuelve un error 404 del servidor pero, en vez de utilizar una plantilla básica que diga que esa página no se ha encontrado, configuremos el servidor web para que, por ejemplo, muestre la página del mapa del sitio. De cara a los buscadores da igual qué página mostremos, ya que al ser un error no se indexará ni se tendrá en cuenta, pero de cara al usuario es mucho mejor mostrarle el mapa del sitio o una página similar en la que se le indique que esa página que buscaba ya no existe pero que pueda seguir navegando por el sitio sin problema.

En algunas ocasiones podrías plantear crear redirecciones o mostrar por defecto la página principal del sitio, pero esto puede suponer a corto plazo que los robots indexen páginas que no existen con el mismo contenido de la página principal y que podrían suponer una penalización por tener muchas páginas iguales.

En cualquier caso, tener unas páginas de error para todos los errores posibles es siempre interesante, ya que aunque el Error 404 es el más habitual existen muchos otros.

Flash

El uso de flash en las páginas web ha pasado a mejor vida. Podríamos hablar largo y tendido de porque ya no se usa pero es un hecho ya no hay motivos para usarlo. Y lo que más nos importa a google no le gustaría que lo usáramos.

Contacto