Fases del SEO
Ahora que tenemos la visión completa de los dos niveles del SEO podemos entender mejor cómo funciona el proceso.
Debemos diferenciar entre tres fases diferentes que acaban (o no) con nuestra página apareciendo en las SERPs cuando un usuario realiza una búsqueda a través de Google o cualquier otro motor.
● Fase 1: Crawleado
● Fase 2: Indexado
● Fase 3: Rankeado
Esta es la fase previa. Antes de poder mostrar una página, el sistema tiene que ser capaz de recorrerla para saber si merece la pena añadirla a la base de datos.
Los motores de búsqueda cuentan con los llamados bots, arañas o crawlers. Son los encargados de recorrer las páginas simulando de cierto modo la forma en la que lo hacen los usuarios.
Para realizar este recorrido irá “saltando” desde diferentes enlaces internos y externos, por eso es tan importante en la optimización on page diseñar unas buenas topografía y arquitectura además de conseguir enlaces externos de calidad en el off.
Para conocer cómo se está realizando el crawleado puedes utilizar algunas herramientas. Una de las más potentes y que resulta obligatoria para hacer SEO es Google Search Console ( la del pantallazo al principio de esta sección).
La información que se recoge aquí puede no ser tan extensa como la que se puede extraer de otras herramientas, pero cuenta con la enorme ventaja de venir directamente de la fuente más autorizada: Google.
Obtendrás información de:
● Errores de rastreo: nos dirá cuántos y cuáles existen en las principales
1.000 primeras páginas. Diferencia entre servidor (500) y no encontrados (404) además del rastreo móvil y de escritorio.
● Estadísticas de rastreo: podremos saber cuántos ficheros recorre cada día, el número de bytes descargados y el tiempo que emplea en descargar una página. Es importante saber que Google no le dedica todo el tiempo del mundo a cada página, en función de la relevancia de la misma le asignará un mayor o menor crawl budget. Ojo, aquí se juntan tanto documentos HTML, como CSS, JS o imágenes. Además, no solo nos muestra las URLs con status 200, también las 3xx o 4xx.
● Explorar como Google: podemos enviar nuevas páginas o aquellas que no estén siendo recorridas para “forzar” su crawleo
● Probador de robots.txt: este fichero gestiona permitiendo o denegando el acceso a las distintas páginas por parte del bot de google o cualquier otro.
● Sitemaps: podremos (y debemos) subir un xml con todas las urls del sitio. Este mapa es de mucha utilidad para Google porque le permite recorrer de manera más rápida y eficiente todo el sitio web. Aquí lo podemos subir para que Google pueda acceder a él de manera cómoda y rápida.
Que Google sepa que la página existe no quiere decir necesariamente que la incorpore a su base de datos. Aquí entra en juego la indexación que es el proceso por el cual categoriza la información recibida y la clasifica debidamente dentro de su índice (de ahí viene la palabra).
Para entender el proceso el ejemplo que utiliza Google es muy gráfico. Imagina que el buscador fuera una enorme enciclopedia en la que existiera un índice, todas las páginas que contiene (y son miles de millones) están aquí listadas pero de forma que se relacionan con las palabras que contiene cada documento.
Poco a poco se va depurando el proceso y, gracias a la inteligencia artificial, el machine learning y la búsqueda semántica, Google es capaz de establecer relaciones entre el contenido que van más allá de las simples palabras. Se empieza a conseguir interpretar las intenciones de búsqueda y está adquiriendo la capacidad de mostrar resultados más relevantes basados en la personalización, el análisis y el aprendizaje de los millones de búsquedas que se realizan cada día.
Hay algo importante en lo que deberíamos detenernos un momento. Hasta este momento las páginas eran recorridas e indexadas en base al bot específico para escritorio.
Esto significa que Google priorizaba de algún modo a las versiones para dispositivos desktop. El paradigma de la búsqueda va cambiando y cada vez se recibe más y más tráfico desde los dispositivos móviles, Google también se ha dado cuenta de este detalle y, desde 2018, va a tomar cartas en el asunto. Tanto es así, que Google no para de lanzar herramientas para que le eches un vistazo a tu site, por ejemplo la prueba de optimización para móviles.
A partir de ahora recorrerá las páginas con su bot mobile y será en base al crawleo realizado con él, como confeccionará los índices.
Esto supone un grave problema para los que tengan versiones diferenciadas para sus tiendas (el clásico subdominio “m.dominio.com”) o contenidos independientes. Lo que no esté en la versión móvil, simplemente no se podrá indexar.
Así es: a Google le gusta el móvil y cada vez más. Se acabó lo de mobile friendly, ahora la tendencia es mobile first.
Esto es normal y tiene todo el sentido, debido a que la mayoría de búsquedas que se hacen en Google ya vienen desde un dispositivo móvil.
Bien, una vez que nuestra página ha sido rastreada e indexada entra en juego la tercera fase de este proceso y es en la que más influye el SEO off page, la autoridad. Google ya tiene nuestras páginas sabe de qué van y les ha asignado una categorización guardando un pequeño resumen de lo que trata.
En el momento en que se produce la búsqueda Google a través del interfaz, corre a comprobar qué resultados de entre los indexados son más relevantes para esa cadena concreta bajo su propio algoritmo de calidad (el page rank del que os hablábamos anteriormente), sopesa la cantidad y la calidad de los enlaces así como los otros 200 factores que se estima que existen y, en función de eso, nos ofrece un resultado.
Cuando hablamos de resultados hay que tener en cuenta que no son únicamente páginas webs o documentos como PDF. Cada vez más los resultados se van enriqueciendo con elementos multimedia como imágenes o vídeos, pero también con otra serie de resultados instantáneos:
● Mapas de ubicación servidos por Google Maps con direcciones a las que acceder.
● Respuestas directas a preguntas concretas (a veces incluso en la propia barra del navegador) el tiempo, la cartelera, horarios y precios de vuelos…
● Respuestas de Knowledge Graph: una enorme base de datos de personas, hechos y lugares que tiene un destacado espacio en las búsquedas.
● Featured snippets y preguntas relacionadas: las páginas con una buena optimización pueden optar a aparecer en los resultados que se llaman de posición 0 porque se sitúan justo debajo de los Adwords, por encima de los resultados orgánicos. Generalmente responden a una pregunta que tiene un mínimo volumen de búsquedas.
Si lo piensas es una pequeña guerra que debes librar con cada palabra y cada intención de búsqueda. La primera página tiene sólo los resultados orgánicos que tiene (normalmente 10) y hay que pegarse con Adwords, los mapas y todo lo demás. Por eso tener el mejor ranking posible ayuda de manera muy directa a conseguir visibilidad.
Después de 50 páginas (54, para ser exactos) espero que hayamos sido capaces de hacerte ver la importancia de la optimización del tráfico orgánico, pero por si te queda alguna duda vamos a profundizar en un par de ventajas importantes.
La primera es que el SEO como estrategia a medio-largo plazo es mucho más barato. Ojo, he dicho MÁS barato y no gratis como erróneamente parece pensarse. Para hacer SEO es necesario contar con recursos y un cierto presupuesto mensual.
De todas formas, pese a tener que contratar a un consultor que realice una auditoría o tener un perfil in company, el seguimiento, pagar las horas de desarrollo para adecuar la página e invertir en la creación de contenidos y el linkbuilding… resulta más rentable a largo plazo que el SEM. Ten en cuenta que cuando ganas una posición y eres capaz de mantenerla tendrás una fuente de tráfico de una cierta consistencia, en el PPC, en el momento que dejas de pagar… adiós muy buenas.
Por otra parte, la base del on page es tener una página bien construida, con una sólida arquitectura, gran contenido, velocidad de carga, funcionamiento en dispositivos móviles… llamadme loco pero eso suena a una buena página de cara al usuario. La optimización desde el prisma SEO siempre es buena para el visitante (excepto cuando las cosas se llevan al extremo) por lo que estás beneficiando a todo de manera transversal aplicando estos criterios.
Porque refuerza otras estrategias. De hecho, una situación ideal cuando hablamos de search marketing es buscar el punto de equilibrio o de cruce. Al principio en cualquier proyecto que surja de cero es lógico meter una cierta inversión en Adwords para empezar a captar, si esto se compagina con una buena labor en SEO, cuando se empiece a ganar tráfico orgánico podremos ir reduciendo la inversión en el de pago.
Y lo último pero no menos importante: cuando haces SEO puedes tener en la oficina muñecos de peluche con forma de Panda o de Pingüino y cascos de soldado imperial de la guerra de las galaxias, que es algo que ocurre en el 90% de los departamentos y agencias del mundo.
¿Qué particularidades tiene el SEO para las tiendas online? Vamos a resumirlas en unos bonitos bullet points:
● Está vinculado a un customer journey, que suele ser tipo AIDCA (Atención, Interés, Deseo, Convicción, Acción). Cada una de estas fases debe estar cubierta por nuestra tienda online y trasladada a queries informacionales y transaccionales que den respuesta al usuario.
● El SEO para ecommerce se basa en captar tráfico hacia 2 puntos transaccionales: categorías y fichas de producto.
● El SEO de los productos van ligados a varios puntos que hay que tener en cuenta
○ estacionalidad
○ stock
○ opiniones sobre el producto
○ reputación de la tienda
○ disponibilidad / envío
○ precio
No es que sin esos puntos vayamos a rankear mejor o peor, pero hay que tenerlos en cuenta ya que una mala disponibilidad, no tener stock, tener un precio muy alto… puede hacer que no se haga clic en el resultado desde las SERP (porque mostremos la info desde ahí y ya no le interese al usuario) o que se vaya de la ficha de producto rápidamente, cosa que afecta al dwell time y al % de rebote.
● No hay que olvidar la información que presentemos en las SERP (el marcado de Schema y la metainformación que veremos más adelante) para enseñarle al usuario cosas como el precio, stock, valoraciones, en cuánto tiempo enviamos el paquete…
● Es muy importante el UGC (User Generated Content) para las fichas de producto. Aprovechemos fotografías en redes sociales como Instagram y también las opiniones de los usuarios para meter contenido en las fichas de producto.
● Finalmente, muy importante evitar la canibalización de productos, categorías y blog, como veremos más adelante
Vamos ahora con una pausa publicitaria para hacer un cafelito y recomendar herramientas útiles para seguir los rankings (mira, me parecía que aquí quedaban bien).
● Ahrefs
● Sistrix
● SEMRush
● Majestic
● SERPBook
● Ryte
● Moz