Entradas

A la hora de crear un blog o cualquier página web se puede caer en múltiples errores relacionados con el SEO que pueden tener un impacto negativo en las visitas. No cumplir con las políticas de Google puede suponer perder posiciones y no alcanzar un buen posicionamiento. Los buscadores disponen de mecanismos para identificar las prácticas poco limpias que tratan de engañar al algoritmo de Google. Conocer los errores más habituales puede servir para no volver a cometerlos.

– Rellenar la página de palabras clave:

Las keywords deben de utilizarse correctamente. No sirve de nada llenar el texto de palabras clave y ponerlas en todas partes. Antes, abusar de las keywords traía resultados positivos, pero el cambio en el algoritmo de Google se esfuerza por detectar contenido spam y de baja calidad, es decir, textos sobre cualquier cosa en los que se abusa de palabras clave. También hay que evitar etiquetar cada post con muchas más etiquetas de las necesarias. Las palabras clave han de ser variadas, estar bien repartidas y en una densidad adecuada. Para más información.

– Contenido duplicado:

Los motores de búsqueda penalizan a los sitios con contenido duplicado, ya que lo relacionan con el spam y los sitios de baja calidad. Existen dos casos:

– Muchas páginas con el mismo contenido, es decir, cuando hay bloques de contenido iguales o que coinciden muchísimo entre sí; como puede ser una tienda online que genera múltiples fichas de un mismo producto con escasas variaciones. En ese caso, el motor de búsqueda puede tener problemas a la hora de elegir que página es la adecuada para posicionar.

– Plagio de contenido de otras webs. En muchas ocasiones el bot de Google puede confundirse y considerar a la web que ha plagiado como emisora del contenido original.

– Enlaces rotos:

Google penaliza a los sitios con enlaces rotos dentro de su estructura. Localizar estos enlaces y corregirlos es una de las tareas imprescindibles en una estrategia de posicionamiento SEO.

– Ignorar las imágenes:

Las imágenes hacen SEO. Si se les presta la atención necesaria las imágenes pueden generar enormes cantidades de tráfico desde los buscadores. No hay que olvidarse del atributo Alt, que hace referencia al texto alternativo que aparecerá cuando la imagen no se haya cargado por alguna razón. Sirve para decirle a los buscadores qué contiene la imagen. El nombre del archivo es también un indicador del contenido de la imagen, debe ser corto y descriptivo, y no es necesario que se incluya tanta información como en la etiqueta Alt. Exif (Exchangeable image file format) es una especificación que permite implementar metadatos en las imágenes, no son visibles para los clientes, pero si son valorados en los buscadores. Además, hay que optimizar las imágenes a un tamaño y una resolución adecuada para que el sitio web no tarde mucho en cargar.

– Compra de enlaces:

Google lucha contra los enlaces fraudulentos. Tanto los de mala calidad como aquellos que muestran indicios de haber sido comprados y no obtenidos de forma natural. Google también penaliza a los participantes de redes y comunidades de enlaces.

– Utilizar siempre el mismo anchor text:

En la variedad está la clave y es importante jugar con distintas combinaciones. No sirve para nada utilizar siempre como anchor text la palabra clave por la que te quieres posicionar. La gran mayoría de los enlaces que apuntan hacia tu página web, un 40% / 50%, deberían ser enlaces que hacen referencia a tu marca, mientras que un 20% deberían ser llamadas a la acción, tipo: pulse aquí, más información, para saber más…

El proceso SEO se basa en la mejora continua, y si nos quedamos estancados, en cualquier momento nuestros competidores nos superarán. Además, recordamos que los algoritmos de los buscadores como el PageRank cambian continuamente, de manera que si no tenemos cuidado podríamos despertarnos cualquier día y ver que hemos sido relegados a la quinta o sexta página de resultados. Para mantener la buena posición que por fin hemos logrado, debemos supervisar nuestros proyecto SEO periódicamente. Una vez que hemos alcanzado nuestro objetivo, nos queda mucho trabajo por delante para mantenernos en las primeras posiciones. Existen algunos problemas frecuentes que se dan en SEO y que se pueden sintetizar en los siguientes:

– Los buscadores nos borran de la lista de resultados. Con toda seguridad el mayor y más preocupante problema con el que nos podríamos encontrar es que nos eliminen de un buscador, y, más aún, si se trata de Google. Si dependemos de nuestro ranking de búsqueda para mantener los clientes y las ventas, ser excluido de un buscador es una posibilidad aterradora. Incluso un único día sin aparecer en un buscador le puede costar mucho a nuestra empresa, no solo económicamente sino también en cuanto a la fidelidad del cliente.

Entonces, ¿qué podemos hacer si estamos en una posición privilegiada en el ranking un día y al siguiente nuestro sitio no se puede encontrar en los buscadores? Antes de presuponer que nos han eliminado, tenemos que asegurarnos buscando nuestro sitio usando el delimitador site. Es decir, realizaremos la siguiente búsqueda: site:www.misitioweb.es. Si estamos en Google (o el buscador que corresponda) aparecerán las páginas que el robot haya indizado. Si estamos en Google, pero no aparecemos en las páginas de resultados para las palabras clave que nos representan, entonces puede que nos hayan penalizado. Tanto si nos han penalizado como si nos han eliminado, lo mejor es que tratemos de ponernos en contacto con el buscador para saber cuál es el problema exactamente y así poder solucionarlo.

– Robo de contenido. Otro de los principales problemas con el que nos podríamos encontrar en nuestros esfuerzos SEO es el robo de contenido de nuestro sitio web. Normalmente, esto lo lleva a cabo un sitio web que utiliza un robot “ladrón” para copiar el contenido de nuestro sitio.
Si el robot encuentra nuestro sitemap, recogerá el contenido de este aun con mayor facilidad. Pero, incluso sin un sitemap XML, un robot puede robar el contenido de nuestro sitio. La mejor manera de saber cuándo ha sido indexada nuestra página por un robot es examinar los registros del servidor. Normalmente, veremos una petición del archivo robots.txt en el registro de archivo. Cerca de esa petición o solicitud deberíamos observar el nombre del rastreador que solicitó el mapa del sitio. Una vez que el rastreador que queramos que acceda a nuestro sitio web lo haya rastreado, podemos eliminar el archivo. Esto solo dificultará que los hackers se aprovechen de nuestro mapa del sitio, pero no lo impedirá.

– Fraude por clic. El fraude por clic es muy difícil de controlar. Si sospechamos que nuestros anuncios PPC están siendo objeto del fraude por clic, debemos informar inmediatamente a nuestro proveedor PPC.