Por Redacción - 1 Septiembre 2015
Atrás quedaron los tiempos en los que las webs prescindían de artículos y preposiciones para mantener eficaces -aunque incomprensibles- keywords, en los que la vía para mejorar el SEO era comprar links, en los que se podían copiar textos enteros sin penalización alguna. Ahora, dicen, el contenido de calidad es el rey, y no mienten. Google trata de premiar a quienes aportan contenidos relevantes con los primeros puestos en el buscador, y es una tendencia que se agudiza año tras año. Por eso la clave está en saber cómo detecta Google ese contenido de calidad.
Para averiguarlo, Searchmetrics realizó un informe analizando los primeros 30 resultados para un total de 10000 palabras clave y 300000 webs. Estas son sus conclusiones.
Textos relevantes y fáciles de leer
Para conseguir relevancia sigue siendo esencial escribir textos largos, y de hecho, la longitud media de las webs del top 30 ha aumentado un 25% desde 2014. Pero para Google, no basta con que un texto sea largo para que sea considerado "de calidad", también debe ser legible.
Lo importante ahora es escribir de una manera natural (como si no existiese el SEO y uno solo quisiera comunicarse) y por eso, desde hace ya años, no se premia la repetición de palabras clave. Por contra, sí posiciona el uso de muchas palabras diferentes del mismo campo semántico, e incluso otras relacionadas solo tangencialmente con el tema.
Además, segun el informe, la complejidad de los textos ha disminuido, lo que se prima es la "facilidad de lectura" que no fatiga a los usuarios, sino que los entretiene.
Muerte a las keywords
Repitamos todos juntos: "las palabras clave ya no son importantes". Con cada actualización del logaritmo de Google nos lo dicen, pero parece que no acabamos de creerlos. Este informe vuelve a incidir en el mismo punto que se relaciona íntimamente con el anterior, y que también tiene su importancia desde un punto técnico.
No hace falta dar prioridad a un dominio con tu palabra clave en su url, ni repetirte en las metodescripciones (que por cierto, siguen siendo esenciales para que Google considere un contenido de calidad) ni mucho menos en el texto. Las webs en mejores posiciones contienen menos keywords que el resto.
El concepto de usabilidad continuará siendo esencial
El tiempo que el usuario pasa en una página ayuda a posiconar dicha web en el top 10 de Google, por lo que tiene sentido diseñar un espacio cómodo y fácil de usar donde el visitante quiera quedarse. De hecho, son factores como el tiempo en página, el porcentaje de rebote o el porcentaje de clics los que resultan clave para los motores de búsqueda.
Por eso es esencial tener un site bien estructurado, con elementos interactivos (siempre dentro de la lógica) destinados a facilitar el uso por parte del lector. Además, las páginas del top 30 también muestran un mayor número de imágenes.
Y no hay que olvidar un factor clave como es el diseño responsive: en un mundo en el que cada vez más usuarios acceden a Internet desde distintos dispositivos, apostar por un diseño que se adapte parece la respuesta más lógica. Y sí, Google también detecta la calidad en este detalle, de manera que hay una correlación entre las webs mejor situadas en buscadores y el uso de diseños responsive.
Enlaces externos, sí pero sin obsesionarse
Aunque Google siempre consideró los backlinks como una señal de calidad, ahora su principal objetivo es luchar contra el link building antinatural. Así, resulta que la correlación entre número de backlinks y posición en buscadoras continúa decreciendo año tras año (aunque continúa alto).
El éxito en redes sociales también sirve para medir la calidad
Aunque no hay unanimidad sobre si Google usa las redes sociales para detectar la calidad de un contenido, sí se observa una relación clara entre el número de veces que un contenido es compartido y su posición en la SERP.
Lo cual es esperable si pensamos que las redes sociales son una herramienta potente para llevar a los usuarios una y otra vez a una web, aumentando sus interacciones en el propio site.