Los algoritmos de Google

Seguro que has oído hablar de los algoritmos de los buscadores antes. Básicamente son el conjunto de normas que, de una manera ponderada y lógica, deciden si se cumplen las condiciones para que una página se muestre o no. Esas normas son lo que se suele conocer como factores de ranking.


Por ejemplo, para rankear en Google para una determinada intención de búsqueda se estima que existen más de 250 distintos vectores o factores . No todos tienen el mismo peso, unos influyen más y otros menos.

¿Cuáles son? pues deberíamos decirte que el secreto mejor guardado de los buscadores es su algoritmo y los elementos que los hacen funcionar, suelen ser bastante opacos y difusos en sus explicaciones. Se suele saber más por los experimentos o el ensayo y error que comentábamos que por un canal oficial.

Aunque también es verdad que Google últimamente se ha puesto las pilas a través de los tuits, hangouts y ponencias de dos personajes que trabajan ahí:

● Gary Illyes: https://twitter.com/methode?lang=es

● John Muller: https://twitter.com/johnmu?lang=es

Aunque te recomiendo seguir a gente de la comunidad SEO, que son los que cada día bajan a las trincheras y curran de ello (y comparten mucho conocimiento).

Sobre la opacidad, pues piénsalo bien: es bastante lógico porque lo que más les preocupa a Google y compañía es que los resultados se alteren de manera artificial, que los usuarios puedan alterar la relevancia orgánica manipulando los factores de ranking. Esto es lo que se conoce como SPAM (sí, como en el email).

Updates de algoritmos anti-SPAM

La preocupación por mantener las SERPs limpias y relevantes hace que los algoritmos estén en constante revisión. Los motores de búsqueda tienen equipos anti-SPAM que trabajan en updates que los hagan más eficientes y penalicen a los “tramposos”.

De cara al eCommerce, los cambios más relevantes que se han ido produciendo con el tiempo y aquellos que nos penalizan con más frecuencia son los relacionados con la calidad y cantidad del contenido y los enlaces de mala calidad. Vamos a ver cuáles son esos updates que han ido integrándose en el core del algoritmo a medida que se volvían más y más importantes.

Google Panda

Un nombre adorable que esconde detrás una bestia parda que ha devorado a muchísimos eCommerce. Fue lanzado en febrero de 2011 y se ha ido refinando y su impacto se dejó notar de manera contundente. Llegó a tumbar al mismísimo eBay (en verde los filtros de Panda que ha ido recibiendo):


Aquellos sitios que se dedicaban a duplicar contenido con variaciones mínimas con la intención de llegar generar más landings que sirvieran para posicionar keywords (fontanero Madrid, Fontanero Pozuelo, Fontanero Villaviciosa de Odón, Fontanero Pinto…) empezaron a tener problemas graves y caídas de tráfico.

Lo mismo ocurrió con aquellos que tenían tan poco contenido que la mayor parte de sus urls eran casi idénticas.

También sintieron el zarpazo del Panda aquellos que spineaban, copiaban y pegaban texto sin mucho sentido de cara a la semántica con la única excusa de poder meter con calzador unas cuantas repeticiones de sus keywords objetivo.

En muchos de estos casos había una mala fe manifiesta, una intención clara de manipular los resultados, pero en otros simplemente por desconocimiento o por esas cosas que hacen a veces los CMS sufrieron los rigores del equipo antispam de Google.

Panda se cebó de manera muy especial con el eCommerce, tanto en los más “traviesos” como en los ingenuos y es que, en una tienda online, es muy sencillo empezar a generar contenido duplicado casi sin darse cuenta. ¿quieres algún ejemplo?

Los paginados y filtros: todo un clásico. Tienes 150 páginas de productos que a ojos de los bots son casi exactamente iguales ¿resultado? bambú para el oso.

Categorías: al final, si no cuidas un poco este aspecto, todas las categorías tienen un alto grado de similitud. Más bambú.

Páginas de producto “fusiladas” del fabricante: cuando sólo hay especificaciones técnicas que has extraído de la página del fabricante e, igual que a ti, se les ha ocurrido lo mismo a todos tus competidores… malo para ti y bueno para la cena del panda.

Variaciones de producto: las mismas zapatillas, la misma descripción, el mismo texto, distinto color y distinta url… mmmmm, yummy.

Si además tienes un blog en el dominio ya puedes ver al panda buscando el antiácido porque las categorías, tags, archivos, perfiles de los usuarios y demás son una auténtica trampa cuando no se gestionan bien.

Como ves no son cosas muy rebuscadas, de hecho, en muchas de estas puedes estar cayendo de una manera absolutamente involuntaria pero Google no hace prisioneros y puede mandarte a segunda o tercera página sin dudarlo un segundo.

En 2016 Panda dejó de ser un update que se liberaba con cierta frecuencia para pasar a formar parte del core del algoritmo ¿qué significa esto? pues una de las cosas más importantes es que cuando eras penalizado algorítmicamente, tenías que arreglar el desaguisado y esperar a que se liberase una nueva versión para ver si se solucionaba el problema y recuperabas tus rankings.

Al pasar a formar parte del núcleo del algoritmo la cosa se aligera bastante con lo que casi en tiempo real puedes ir solucionando tus problemas con Google Panda.

Google Penguin

Otro animalito blanco y negro que puede complicarte mucho la existencia. Si decíamos que Google Panda perseguía el contenido duplicado y de mala calidad que empobrece la experiencia del usuario sólo para spamear las SERPs, el pingüino de Google tiene un objetivo muy diferente: la popularidad obtenida de manera antinatural. Aquí un pingüinazo de manual:


Para entender cómo funciona Penguin hay que tener claro un concepto fundamental en el SEO como es el de la popularidad. Google y el resto de los motores de búsqueda no han encontrado hasta el momento una mejor manera de entender la relevancia de una web que la consecución de enlaces externos.

Cada link que apunta a una página es, de algún modo, una recomendación que ese tercero está haciendo de nuestro contenido.

Antes del pingüino valía absolutamente todo para manipular el algoritmo. Se ponían enlaces porque iba prácticamente al peso: a más enlaces mejor ranking. Evidentemente esto hizo que la cosa se descontrolase bastante con cosas como:

Triangulación de enlaces y otros esquemas: yo te pongo el enlace y a cambio tú me pones otro en tu página. O directamente compro 70 dominios y los enlazo entre sí para aumentar mi perfil de enlaces.

Granjas de enlaces: empresas o particulares que disponían de miles de dominios y vendían paquetes de links. Muchos de ellos procedentes de destinos tan variopintos como Rusia, Estados Unidos o La India.

Forzado de anchor texts: éste tipo de sobre optimización es muy común. Ten en cuenta que para Google el texto enlazado aporta mucho significado al enlace. No es lo mismo “pinche aquí” que “fontanero Madrid”, ni para el usuario ni para el buscador que tampoco es una fiera en aquello de la semántica (aunque está avanzando muchísimo)

Enlaces descontextualizados: para el fontanero de Madrid será mucho más interesante que le enlace un proveedor de grifería que una boutique de Mallorca. Más interesante y más lógico desde el prisma de la naturalidad.

Estos son algunos ejemplos, pero hay muchas más malas artes que se pueden dar.

La cosa es que Google tomó cartas en el asunto y con el objetivo de preservar la relevancia de los resultados en las SERPs, liberó Penguin que tuvo un impacto demoledor entre todos aquellos que manipulaban la obtención de enlaces. Corría el 24 de abril de 2012 y empezó a hacer mucho frío en Google.

Con este Penguin 1.0 y los siguientes lanzamientos, los perfiles de enlaces antinaturales comenzaron a ser un problema y en algunos casos muy graves. Mientras que salir de un “pandazo” era algo más sencillo, recuperarse de un pingüino es mucho más arduo.

El principal mecanismo que existe para esto es la llamada disavow tool un mecanismo por el cual se puede desautorizar aquellos enlaces que no queremos que sigan transmitiendo a nuestro dominio su influencia negativa.

Sobre el papel suena fantásticamente, pero hay dos cosas que debes saber sobre la herramienta de desautorización. La primera es que no es en absoluto automática.

 

De hecho, tienes que poder demostrar que has hecho todo lo posible para retirar esos enlaces antes de recurrir a un disavow, debes mandar un completo reporte diciendo cuándo y cuántas veces has intentado ponerte en contacto con el propietario del site contrario. Es más, las buenas prácticas recomiendan crear una cuenta de Gmail exclusivamente para esta tarea y ceder las credenciales a Google junto al informe para que quede constatado que es cierto.

La segunda desventaja de la que os hablaba es más subjetiva y puede sonar hasta un poco paranoide. Cuando hacemos un disavow, de alguna forma, estamos reconociendo tácitamente que hemos intentado manipular los resultados del buscador y eso a Google le sienta bastante mal.

Lo mejor para evitar este tipo de penalizaciones es que consigas los enlaces de la manera más natural posible (o que al menos lo parezca) No sigas patrones, no te fijes una cantidad al mes o la semana de links como objetivo. Tienes que ser anárquico en lo que se llama linkbuilding o creación de enlaces y vigilar mucho las métricas de los sitios que nos enlazan. Estar enlazado por un sitio penalizado o penalizable es muy problemático.

Desde 2016 Penguin también forma parte del algoritmo core con las mismas condiciones que Panda con lo que puede ser un poco más rápido salir (ojo, más rápido no es lo mismo que más sencillo, cuesta igual)

Google Fred

Mucho se ha especulado sobre este nuevo (nuevo de 2017) algoritmo: que si ataca a sites con muchos links de afiliados, a sites con contenido pobre, a los sites que abusan de la publicidad o que escriben posts totalmente encarados a publicitar un producto, a los que tienen muchos links…


La realidad es que, especulaciones al margen, lo que ataca Fred es el thin content.

La obsesión de Google con los contenidos viene de largo. Cambios en sus formas de indexar y rankear los sites como Google Panda, Hummingbird o Caffeine. Recordemos que el proceso por el que un site acaba rankeando en Google pasa por 3 fases:

Crawleado: los bots de Google descubren y “se patean” nuestro site.

Indexado: las URLs son almacenadas en el índice de URLs de Google (las relevantes y las que no lo son tanto).

Rankeado: las URLs rankean más arriba o más abajo según una serie de parámetros que Google considera que son relevantes para sus resultados de búsqueda (contenido, relevancia, frescura de ese contenido, enlaces externos, autoridad…).

Dentro de este proceso, Fred ha llegado para “penalizar” (más bien sería filtrar el tráfico hasta que no las arreglemos) las URLs con contenido escueto o pobre.

Fred ataca el problema del thin content de raíz

Hay que recalcar que, para Google, el contenido escueto no tiene por qué ser pobre. Algunas respuestas a preguntas rankean el número 1 con menos de 300 palabras. Dicho de otra manera, no por enrollarnos más haremos un mejor contenido o un contenido más relevante para Google.

El siguiente ejemplo muestra como un documento HTML con tan solo 54 palabras (muy lejos de esas “300 mínimas” que se dice que deberíamos tener) rankea número 1 para la query “¿Qué es el índice de masa corporal?” e incluso se cuela en el knowledge graph.


● ¿Es un contenido escueto? Sí.

● ¿Es un contenido pobre? No.

● ¿Resuelve la pregunta que tenía el usuario? Sí.

Google Fred puede “fockarse” de un plumazo el tráfico orgánico de una tienda online (o de un blog). Esto me pasó con un proyecto que llevaba. Obviamente, no daré nombres. Esta tienda online tiene unos muy buenos textos en las fichas de producto, pero no tan buenos en las páginas de categoría (los listings de productos).

Si atendemos a los datos, Google lanza Fred sobre el 8 de marzo de 2017. Este es nuestro gráfico de visibilidad en Sistrix:

La visibilidad baja de 0.3 a 0.01. ¿Por qué?

Hace tiempo que teníamos sobre la mesa la tarea “escribir texto para las páginas de categoría”, pero el día a día de llevar una tienda online hace que muchas veces vayas dejando las tareas que no ves como prioritarias para más tarde. En este caso, se pagó muy caro. Esta es la curva de Analytics para el tráfico orgánico. En naranja, la salida de Fred Update:


Como podéis ver, pasamos de tener unas 45-50.000 visitas orgánicas a la semana a unas 26-30.000. Perdimos casi el 50% de tráfico.

Este es el gráfico del Top 10:


Efectivamente, desaparecemos. Ni una keyword en el Top 10 (teníamos casi 30).

Y este es el gráfico de las palabras clave en las 10 primeras páginas de resultados antes de Google Fred:


Y después de Fred. Dantesco.


¿Cómo se solucionó? Rápidamente se detectó que el problema era Fred, por lo que nos pusimos manos a la obra para solucionar los problemas de las principales páginas que tenían thin content. Es decir, comenzamos a redactar textos en base a los parámetros de calidad que siempre ha marcado Google.

La subida de texto corresponde a la línea verde que veréis en el gráfico:


Y, como podéis ver, nuestro Top 10 se recuperó:


Así pues, al loro con Panda, Penguin y Fred. No hacen concesiones.