Comparte esta publicación:
De todos los mitos que rodean al SEO, quizá el mayor de ellos es la densidad de la palabra clave o keyword density… y me tiene hasta los huevos que la gente crea que es importante.
Por eso en este artículo voy a explicar todas las razones por las que la densidad de la palabra clave y el TF-IDF no son relevantes: para que dejen de creer todas las cosas que recomiendan los plugins de SEO.
Tabla de contenidos
Comencemos a hacer cachitos este mito. Para empezar:
¿Qué chingados es la densidad de la palabra clave?
La densidad de la palabra clave o keyword density se refiere al número de veces que una palabra clave o keyword aparece en un determinado texto. Se expresa como un porcentaje en relación al total de palabras del contenido.
Por ejemplo, si tienes un texto de 100 palabras y la keyword “perro” aparece 2 veces, la densidad de la palabra clave será del 2%.
¿Qué es el El TF-IDF?
TF-IDF son las siglas de Term Frequency-Inverse Document Frequency o, en español, Frecuencia de Términos – Frecuencia del Documento Inversa. Algunas herramientas usan esta métrica en lugar de la densidad de palabra clave.
El TF-IDF es una versión más sofisticada de la keyword density. Pero, además de calcular la frecuencia de la keyword en un solo documento, la compara contra documentos similares.
Por ejemplo, si escribo un artículo centrado en la keyword “razas de perros pequeñas”, el TF-IDF va a comparar el contenido de mi publicación con otros artículos que hablen sobre el tema “razas de perros pequeñas”, y me va a devolver un análisis comparativo de qué palabras aparecen con mayor frecuencia en mi artículo y en el de los competidores.
Algo así:
¡Ojo! Reitero que no tienes por qué usar esta métrica para optimizar tus artículos, buscar que “terrier” tenga una densidad de 2% no te va a hacer rankear mejor. Abajo veremos por qué.
¿De dónde surge el mito de la keyword density?
La keyword density, como el pixel art, surge de las limitaciones tecnológicas de su era. Para entenderlo, hablaré muy brevemente de la historia de los motores de búsqueda:
1990 – Alan Emtage crea Archie, el primer motor de búsqueda. Este permitía buscar archivos públicos vía FTP.
Por desgracia, Archie no podía leer el contenido de los archivos, ni entender el lenguaje natural, por lo que debías conocer el título del archivo que buscabas para poder encontrarlo.
1993 – Acá comienzan a aparecer más buscadores, más sofisticados, como Aliweb, www Worm y Jumpstation.
Jumpstation usaba la búsqueda lineal para encontrar resultados. Tomaba en cuenta el título y los encabezados de los documentos para poder procesar la búsqueda.
1995 – Llegan dos de los buscadores más populares de su era: Excite y AltaVista.
Excite se distinguió, no solo por leer las keywords de un documento, sino por rankear los resultados de búsqueda basado en la relación estadística entre las palabras.
Por su lado, AltaVista usaba, entre otros factores, las metaetiquetas, el contenido del sitio y, claro, ¡la densidad de la palabra clave!
La idea era simple: Si una keyword aparece más frecuentemente en un documento, el documento seguramente trata de ese tema o está fuertemente relacionado.
Es aquí donde comienza el gran mito que tenemos hoy, aunque claro, en los 90s, la densidad de palabra clave era un factor de rankeo bastante real… pero ¿por qué hoy en día ya no lo es?.
Veamos por qué:
(spoiler, a partir de aquí me voy a centrar muuuuucho en Google).
Pruebas de que la densidad de la palabra clave no es relevante
1. Los algoritmos lo dicen
Como mencioné, para 1995 la keyword density era la norma. Y como suele pasar, la gente encontró una manera de abusar del sistema mediante el keyword stuffing y otras prácticas de spam.
Por supuesto, los motores de búsqueda no se quedaron de brazos cruzados:
2003 – Google lanza Florida, una actualización a su algoritmo que penaliza el uso excesivo de keywords o keyword stuffing, y el uso de texto de anclaje repetitivo.
Para evitar que Google penalizara el contenido, vino la idea de mantener la keyword density al rededor del 2%, de tal manera que la keyword fuera frecuente, pero no en exceso. Es aquí donde surge la segunda parte del mito y por lo cual muchos plugins de SEO marcan la “densidad ideal” en el 2%.
Pero los algoritmos no pararon ahí:
2004 – Google lanza Brandy, una actualización que incluye la incorporación de Latent Semantic Indexing (LSI) o Indexación Semántica Latente.
La LSI ayuda a Google a entender sinónimos y palabras polisémicas.
Por ejemplo, Google entiende que plátano y banana, pese a ser palabras distintas, significan lo mismo. También google distingue que ratón puede referirse a un animal o a un componente de un equipo de cómputo. Todo gracias a la relación estadística entre palabras.
O sea que, desde 2004 Google entiende sinónimos y los diferentes significados de una palabra.
Por lo que no es necesario repetir una keyword de forma 100 % exacta muchas veces. Ya que ahora se pueden usar sinónimos.
2013 – Google lanza Humminbird, una actualización que ayuda al buscador a entender mejor el contexto de las búsquedas y las búsquedas por voz.
A partir de aquí aparece el knowledge graph y Google comienza a centrarse en la búsqueda semántica, es decir que ya entiende lo que significan las palabras, más allá de su significado literal.
O sea que, desde Hummingbird, Google entiende la intención de la búsqueda.
Por ejemplo, si busco peras en almíbar, Google no me mostrará una definición, sino recetas, porque entiende que si busco peras en almíbar es muy probable que quiera saber cómo preparar una receta.
De igual forma, si busco: ¿cuántos años tiene Jordan? Google sabrá que hablo de Michael Jordan, y que Michael Jordan se relaciona con las entidades basket ball y NBA.
Esto sigue con la tendencia de entender el lenguaje y dejar de lado la repetición obsesiva de keywords exactas.
2018 – Google comienza a usar neural matching, un método de Inteligencia Artificial que permite al buscador conectar palabras a conceptos.
O sea que, que si no sabes cómo se llama lo que buscas, se lo puedes explicar a Google y lo va a entender como un sinónimo. Por ejemplo, busqué maquina de dos ruedas impulsada por humano, y Google entiende que hablo de bicicletas.
Entonces… ¡no importa si no usas una keyword exacta al 100%! Escribir de forma natural para humanos también puede darte buenos resultados en el SERP.
Pero hay más:
2019 – Google lanza BERT, un modelo de Procesamiento Natural del Lenguaje (NLP) entrenado ampliamente.
BERT entiende las frases de manera bidireccional, es decir, analiza las frases antes y después de una palabra clave para entender mejor el contexto. Además diferencia entre las distintas conjunciones, nexos y pronombres, y la manera en que estos cambian el significado de la frase.
Con lo que Google ya no solo se centra en una sola keyword, sino en todo el contexto que la rodea. Por lo que todo tu contenido es tan importante como la keyword que deseas usar.
2021 – Google lanza MUM, Multitask Unified Model o Modelo Unificado Multitarea.
Esta es una Inteligencia Artificial 1,000 veces más poderosa que BERT, que además de entender el lenguaje, puede generarlo. Además al ser un modelo multimodal, puede entender el contenido de texto e imágenes (lo que puede expandirse a audio y video en el futuro).
Esto significa que Google puede responder preguntas complejas, sin necesidad de buscar una keyword específica. Todo basado en el lenguaje y la intención de búsqueda.
O sea que, desde inicios de los 2000, la tendencia de Google ha sido dejar de lado la densidad de la palabra clave y centrarse en entender el lenguaje en un contexto más amplio, mediante IA y modelos de lenguaje.
2. Hay pruebas numéricas
En su estudio 7 factores de posicionamiento en buscadores analizados: Un estudio de seguimiento (2018) el equipo de Moz hizo un análisis de correlación entre la keyword density y la posición en buscadores.
Como métrica usaron el factor de correlación de Pearson (PCC), un coeficiente que mide la correlación lineal entre dos grupos de datos. Este coeficiente tiene un valor del -1 al 1.
Ahora bien, si la keyword density fuera un factor relevante de rankeo, el coeficiente de Pearson debería tener un valor cercano al 1, indicando que en efecto, la keyword density guarda una estrecha relación con las posiciones en el SERP.
Sin embargo, el estudio de Moz solo encontró un PCC de 0.097… ni siquiera llega al 0.1, lo que indica que los rankings en Google y la densidad de palabra clave no están relacionados.
3. El equipo de Google lo confirma
Por si esto fuera poco, personal de Google ha mencionado en múltiples ocasiones que ellos no se centrarían en la densidad de la palabra clave:
En 2011, en el video ¿Cuál es la densidad de palabras clave ideal de una página?, Matt Cutts, exdirector de Spam Web de Google, menciona:
“Si piensas que simplemente puedes decir, voy a tener un 14.5% de keyword density, o 7% o 77%, eso no quiere decir que voy a rankear en el número 1, ese realmente no es el caso. Esa no es la forma en que funcionan los rankings de los motores de búsqueda”.
A lo que añade que lo principal es escribir contenido de manera que suene natural, y recomienda leerlo en voz alta.
Posteriormente, en 2014, John Mueller, Search Advocate de Google, mencionó durante las horas de oficina de Google Webmaster:
“…la keyword density, en general, es algo en lo que yo no me enfocaría. Asegúrate de que tu contenido esté escrito de manera natural. Cuando los humanos vean tu sitio web, no van a contar el número de ocurrencias de cada palabra, y los motores de búsqueda también se han movido de ahí a lo largo de los años. Así que no van a ser influenciados por alguien que tiene la misma palabra clave en su página 20 veces porque creen que esto, de alguna forma, ayuda a los motores de búsqueda a entender de qué trata la página.”
Adicionalmente, John Mueller lo volvió a confirmar en un post de Reddit, en 2021.
¿Por qué la gente sigue creyendo este mito SEO?
Si bien no tengo una estadística sobre el tema, no tengo dudas al respecto:
Cada vez que escucho que alguien menciona la keyword density es porque lo ha visto en Yoast, Rankmath o algún otro plugin de SEO.
La realidad es que, si bien este tipo de herramientas tienen muchas cosas útiles, tienen un par de errores y el asunto de la keyword density es uno de ellos.
Simplemente lo agregan para aparentar que tienen más funciones que los competidores, para vender. Así que no creas todo lo que ves en herramientas SEO.
Si no uso la keyword density, tons, ¿cómo debo optimizar mis artículos SEO?
Fácil, papi. Tanto Google como Bing quieren dos cosas:
Que el contenido esté escrito para humanos y que sea de calidad. ¿Que cómo obtener esas dos cosas? Acá te van unos tips:
1. Lee las guías de Google y Bing
Si para empezar no sabes a qué se refieren los buscadores con calidad, ya llevas las de perder.
Mucha gente hay ahí afuera que ni de casualidad se da una vuelta por las guías.
Acá los links:
2. Lee sobre la historia de los buscadores y algoritmos
El SEO es conocer el algoritmo. Muchas de las cosas que se dan por sentadas en el SEO, como el uso de backlinks, vienen de actualizaciones del algoritmo pasadas.
Por eso, si no has leído sobre este tema, tache ❌, ya mejor vete retirando, porque vas a proponer pura cosa que no funciona.
Acá unos artículos sobre la historia de los buscadores:
- Historia de los buscadores
- Otro Post sobre historia de los buscadores
- Historia de los buscadores en Wikipedia
Y acá algunos artículos sobre los algoritmos de Google:
3. Escribe de forma natural y no espamees keywords
Puede que escribir de manera natural suene algo vago. Así que vamos a acotarlo un poco más.
Puedes identificar que escribes de forma natural porque al leerlo en voz alta suena bien. Piensa en que debe de sonar como si alguien te lo platicara.
Dicho de otra forma:
La buena lectura nos hace centrarnos tanto en las palabras, que nos olvidamos de dónde estamos.
Pero, a veces, hay interrupciones en el texto que nos hacen recordar dónde nos encontramos y que nos sacan del mundo de lo que leemos. Puede ser una frase mal construida, errores de impresión o palabras que parecen haber sido forzadas a estar ahí… que se ven poco naturales.
Acá un ejemplo más claro:
Mira el texto. ¿Quién habla así?
Ese texto suena poco natural porque es muy repetitivo:
Para empezar, el encabezado (y otros elementos de la página, como el título y la estructura del artículo) ya te dejan saber de qué habla el texto, por lo que no hace falta volver a aclararlo en los párrafos, y menos repetir en México tantas veces… ¡vaya, que queda claro en qué país trabajas!
En segundo lugar, el texto solo busca meter una palabra en la frase por el hecho de meterla. Como si tu amigo te hubiera retado a usar rigamarol 3 veces en tu siguiente conversación.
Y bueno… la lista de keywords que puso ahí es la cereza en el pastel del spam.
Algo más natural luciría así:
¿Conviene más contratar a una agencia o a un SEO freelance?
A diferencia de trabajar con agencias, con un especialista SEO independiente tendrás un trato directo y sin intermediarios. Soy yo quien encabezará tu proyecto y trabajará con tu equipo. Juntos sacaremos el máximo rendimiento a tu negocio en Internet, sin importar en qué parte de México te encuentres.
Estas son algunas ventajas de contratar un SEO freelance y no a una agencia:
¿Lo ves? Menos repetitivo, más corto y al punto… más natural.
En conclusión (TL;DR)
- La keyword density era un factor de posicionamiento en lo años 90, pero desde los 2000 ha perdido importancia. Si aún la usas, usas tácticas con más de 20 años de antigüedad.
- Estudios independientes como el de Moz, la documentación de los algoritmos de Google y de sus guías de calidad, así como el testimonio de empleados de Google corroboran que la densidad de palabra clave no es relevante.
- Si deseas rankear, no hay un número mágico. Simplemente debes crear contenido de calidad, que suene natural, y que esté escrito para personas como tú o yo.
Dime en los comentarios qué te ha parecido el artículo, qué piensas del tema y si hay algún otro mito SEO del que quieras que hable.
Y si quieres un especialista en SEO y marketing de contenidos, que use tácticas modernas, no dudes en contactarme.
Comparte esta publicación: