Panda. Créditos: Fernando Revilla. |
Aquellos algoritmos de Google: Qué hacíamos para evitar al Panda
ASÍ ERAN LAS COSAS Y ASÍ LO ESCRIBÍAMOS
Cómo es de público conocimiento, en la primera mitad del año Google modificó el algoritmo que utiliza este buscador para presentar los resultados de búsqueda. A fines de febrero se llevó a cabo el primer paso, con el establecimiento del nuevo algoritmo, conocido como “Panda”, en Estados Unidos; luego el cambio se extendió a todo el mundo de habla inglesa, y la semana pasada el cambio llegó al mundo de habla hispana. ¿En qué consiste este cambio? ¿Qué quiere y qué busca Google? ¿Qué es calidad para Google? ¿En qué nos afecta esto como bloggers y cómo evitar el golpe? A continuación, algunas pistas para orientarse ante esta nueva actualización del algoritmo de Google.
Qué busca Google con Panda
Según sus declaraciones oficiales, Google busca con este cambio restarle relevancia a los sitios considerados de baja calidad en los resultados de búsqueda. El principal blanco de este cambio serían las llamadas “granjas de contenido” que lanzan a la web a diario miles de contenidos redactados principalmente en función de la demanda y con vistas a aparecer entre los primeros resultados del buscador, a través de la utilización de una estrategia SEO.
Ahora bien, ¿qué es calidad para Google? En el blog oficial de Google para webmasters, los administradores del buscador han publicado una guía de lo que es considerado contenido de calidad desde su perspectiva. Algunos de los elementos más importantes de esta guía son los siguientes:
- Artículos escritos por expertos que realmente aporten información relevante sobre el tópico y no una serie de generalidades. Artículos que contengan información interesante y en profundidad sobre un tópico y no generalidades obvias.
- Artículos que no estén escritos sólo con la intención de aparecer primeros en los buscadores, sin ningún contenido real.
- Contenidos que no posean errores de estilo, redacción o afirmaciones incorrectas.
- Sitios que no posean contenido sutilmente duplicado o redundante.
- Sitios web que provean contenido de valor sustancial en comparación con otros sitios.
- Sitios web que no estén abarrotados de publicidad.
La lista sigue y puede consultarse completa siguiendo este link, aunque debo advertir que está en inglés.
Cómo se traduce esto en un algoritmo
Ahora bien, todos los parámetros anteriores suenan completamente lógicos para catalogar la calidad de un sitio (o la falta de la misma) desde el punto de vista de un usuario. Pero lo que opera en las búsquedas de Google no son seres humanos asignando un determinado status de calidad a un sitio, sino una fórmula matemática: un algoritmo. Entonces, ¿cómo se traducen todas estas buenas intenciones de Google en una fórmula matemática? Es lo que nadie sabe, ni nadie sabrá. Información confidencial.
No obstante, el hecho de que no deje de ser una fórmula matemática nos permite aventurar algunas conclusiones y pistas para evitar el golpe de Panda. Además, el hecho de que el cambio haya sido aplicado hace ya meses en el mundo de habla inglesa nos permite aprovechar la experiencia ya recaudada por los bloggers y redactores angloparlantes.
Cómo evitar el golpe de Panda
Como ya hemos dicho en otro artículo de Enreda2.0, en términos de SEO todo es aproximado y, más aún, cuando se trata de un cambio tan reciente. Se pueden recopilar, sin embargo, algunas pistas y consejos que he leído aquí y allá en la red, aunque no sea más que para abrir el debate. Por ejemplo:
- Navegabilidad: por muchas razones Panda requiere que los sitios sean más navegables y que se potencie su usabilidad. En primer lugar, colocar cuidadosamente la publicidad, jamás en detrimento del contenido. En segundo lugar, al parecer Google le ha dado más peso en la ecuación a la “bounce rate*”, lo cual también va en el sentido de incrementar la navegabilidad del sitio.
- Evitar cualquier tipo de contenido duplicado: Google ya venía castigando el contenido duplicado pero con Panda esto al parecer ha tomado un nuevo cariz. Ahora no sólo se penaliza el contenido duplicado sino que se penaliza el contenido “parecido” o “similar”.
- Sobreutilización de palabras clave: los textos llenos de palabras claves en detrimento de la buena información y el estilo también perderán posiciones en las hojas de resultados del buscador.
- Cuidado con los enlaces: al parecer, el nuevo algoritmo valora los enlaces hacia sitios considerados per se respetables o de calidad, tales como los sitios .edu o .gov.
- El sitio como un todo: hay que prestar particular atención a cada una de las partes componentes de un sitio web o un blog. Al parecer, si, por ejemplo, contamos en un blog con un 90% de contenido original y de calidad, y con un 10% de corte y pegue o contenido de baja calidad, ese 10% acabará teniendo mayor peso y afectará al sitio en su conjunto.
Como he dicho, estás son conclusiones estimativas, provenientes sobre todo de la experiencia entre los bloggers y redactores en inglés. La discusión está abierta para ir formulando precisiones a través de la experiencia.
La última pregunta, y quizás la más importante, es: ¿en qué nos afecta esto como bloggers? En principio, el cambio no está pensado contra los blogs sino contra esas enormes máquinas generadoras de contenidos que son las “content farms”. Es decir, cualquiera que posea un blog sobre una temática que domina, actualizado a diario y en crecimiento no debería verse afectado por este cambio, sino más bien beneficiado. Ahora bien, existen también muchos blogs dedicados a nutrirse de contenido ajeno o a la tradicional práctica del “corte y pegue”. Pues no creo que haya buenas noticias para este tipo de sitios…
*Bounce rate o “tasa de rebote” de un sitio: hace referencia a la cantidad de personas que llegan a una página de un sitio y abandonan el sitio sin explorar otras páginas en el mismo.