06/09/19

Señales Emergentes de Calidad de Búsqueda: clics, atención y satisfacción_

06/09/2019

Google como motor de búsqueda ha evolucionado de manera exponencial en los últimos años, actualizando su algoritmo para tomar en cuenta y clasificar sitios que se correspondan con sus intereses y los de los usuarios, respecto a calidad, utilidad, facilidad de acceso, diseño, entre otros aspectos relevantes a la hora de clasificar los resultados de búsqueda. 

Para lograr dicha meta, Google también toma en cuenta las conocidas señales o factores que le indican a los rastreadores la calidad y utilidad de un sitio y su posterior indexación y clasificación, donde la experiencia e intención de usuario sin duda destacan. 

No obstante, cada día el algoritmo y funcionamiento del buscador se cambia y modifica para ofrecer los mejores resultados y páginas que se correspondan con ello, y para eso se encuentran aplicando señales emergentes de calidad de búsqueda nuevas, como por ejemplo aquellas que se relacionando directamente con clics, atención y satisfacción que pasan a tener gran relevancia. 

Con tales cambios y evolución en los buscadores en línea, el SEO tradicional cada vez se hace menos conveniente, teniendo que innovar y adaptarse a los nuevos tiempos e intereses de los usuarios y del buscador. Por ejemplo, Google utiliza señales de comportamiento del usuario para evaluar la calidad de sus resultados: 

  • Los modelos de análisis de calidad de búsqueda tradicionales no son aptos para el análisis de SERP o resultados modernos.
  • CAS es el nuevo modelo de comportamiento del usuario desarrollado por Google que se refiere a Clics, Atención y Satisfacción. 
  • Con este nuevo modelo se captura conjuntamente el comportamiento del clic, la atención y la satisfacción del usuario de una sola vez y automáticamente.
  • Funciona mejor que los métodos de evaluación anteriores, particularmente con diseños no lineales.

Punto de partida hacia diseños SERP o resultados no lineales

En una página de diez resultados, los patrones de comportamiento y atención del usuario pueden predecirse con facilidad. 

Por ejemplo, el sesgo de clic basado en la posición se entiende bien y es por eso que los motores de búsqueda pueden usar, y de hecho lo hacen, el CTR o proporción de clics como una de las métricas de evaluación de calidad. Ahora, las cosas se ponen más complicadas con diseños de resultados más complejos.

Nuevas señales SEO para Google

Los diseños SERP no lineales contemporáneos cambian dinámicamente según el tema, el contexto, el tiempo, la ubicación, la personalización y muchos otros factores que tienen que ver directamente con el usuario. 

Sin duda, esto representa un desafío en la evaluación de calidad y como lo puede lograr un sitio web que quiere posicionarse bien, no solo debido a patrones de comportamiento no triviales y tan variados, sino también a un fenómeno que Google llama «buen abandono».

Definiendo el Good Abandonment o «buen abandono»

Un “buen abandono”, así determinado por Google es cuando los usuarios abandonan las páginas de resultados de búsqueda sin hacer clic en nada, pero quedando de alguna manera satisfechos con lo mostrado. 

En otras palabras, la utilidad termina con Google, ya sea realizando una acción o recuperando información de manera directa, mostrada de un sitio web que está diseñado para responder a una consulta en el buscador sin tener que hacer clic en el sitio en sí, haciendo muy útil. Algunos ejemplos de consultas que pueden conducir a un buen abandono son:

  • Cual es el área de un triángulo.
  • Convertir 20 USD en Euros.
  • Cual es la letra de la Canción de Queen

En el pasado, el abandono de los SERP o resultados de búsqueda mostrados han sido vistos como una señal de mala experiencia. Ahora, con el concepto del buen abandono hay posibilidades iguales de que los usuarios lo hagan por una buena razón o por un mal motivo

Aquí es donde entra y de esto se trata el modelo CAS de Google; el propósito de entender el comportamiento del usuario en el contexto del SERP evolucionado mediante clics, atención y satisfacción de ellos. 

Por eso, si Google como buscador está cambiando para darle revelaciones a tales cualidades, los desarrolladores web también deben hacerlo, si es que quieren mantener su tráfico y su optimización en resultados de motores de búsqueda. 

Aspectos clave prácticos 

Implicaciones para el tráfico de cola larga o Long-Tail Traffic 

Los investigadores de Google consideran que las consultas de cola larga son de naturaleza informativa y no de navegación, por lo que se entiende que se busca un resultado acorde con buena calidad de texto y que quien busca tiene la intención de entrar a un sitio y tomarse su tiempo

Dado que el usuario está buscando información, la respuesta puede satisfacerle si se presenta directamente en un SERP, ya sea dentro de un panel de información o simplemente como parte de un buen fragmento de resultado.

Esta mentalidad debería ser una señal de alerta, ya que sugiere un tipo de intención dentro de Google que justifica el «buen abandono» a pesar de la obvia falta de beneficio para los editores y desarrolladores de sitio web, al no hacer clic en sus sitios los usuarios de manera directa. 

Hay algo que hay que entender: Google es una empresa de información y su trabajo es proporcionar respuestas a las preguntas de los usuarios. Si un sitio se queda atrás en cuanto a esto, tarde o temprano se quedará fuera del juego, y si una página busca ofrecer respuesta, también lo hará.  

Google no tiene la ambición de mostrar más resultados de búsqueda en sus resultados, lo que busca es calidad y es algo a tomar en cuenta en todos los aspectos del sitio. Esto no es ser malo, es ofrecer un servicio eficiente y proveer a sus usuarios la mejor respuesta de mejor manera y más rápido. 

¿Quién está en riesgo?

Debido a la influencia de Google y su interés de mostrar la información necesaria acordemente a lo que quiere el usuario sin tener que hacer clic, puede haber ciertos tipos de páginas y plataformas en riesgo que ofrezcan un servicio parecido o respondan a preguntas y búsquedas, como por ejemplo:

  1. Agregados de datos, productos y servicios.
  2. Búsqueda de vuelos, hoteles, alquiler de autos y sitios de reserva.
  3. Comparación de precios, informes meteorológicos, resultados deportivos.
  4. Calendarios de eventos y varios otros sitios web basados ​​en datos
  5. Información de dominio, búsquedas de direcciones IP, hora/fecha y conversión de moneda o transformación de unidades de medida. 

¿Quién está a salvo?

De la misma manera como hay sitios en riesgo cuya función sea dar información y competir con Google de manera directa, hay otras plataformas en línea que no tendrán de que preocuparse, como es el caso de: 

Los productores originales o contenido, productos, herramientas y servicios continuarán disfrutando de los beneficios del tráfico de búsqueda orgánica. 

Sin embargo, una cosa a tener en cuenta es que sus datos no están separados de su marca y se utilizan para presentar a su audiencia directamente a través de los resultados de búsqueda. Algunos ya temen que esto pueda estar ocurriendo a través de fragmentos enriquecidos y el gráfico de conocimiento.

Página entre casos con riesgo y sin riesgo 

En este punto del juego y época actual, Google todavía no es capaz de proporcionar contenido bien organizado, seleccionado o consejos u opiniones significativos. 

Entonces, en los próximos diez años más o menos, se seguirá viendo el contenido generado por el hombre como el productor dominante de este tipo de información y asesoramiento. 

No obstante, la década siguiente desafiará esto y se verá que la inteligencia artificial asumirá un papel más significativo en la curación del contenido, la opinión e incluso el asesoramiento, cambiando el juego una vez más aunque de manera más pronunciada y trascendente. 

Implicación para los modelos de clic y proyecciones de tráfico

La optimización de CTR es una parte integral de toda buena campaña de SEO, eso está claro. En este sentido el objetivo es simple: «Mismo rango, más clics», y esto se logra haciendo que los títulos, la descripción y el esquema de los sitios y páginas sean más atractivos para los usuarios.

Pero aquí está la cosa, para comprender qué funciona y qué no funciona se necesita un punto de referencia efectivo y métricas confiables. 

Desafortunadamente, ese ya no es el caso al ser tan complejo y variado el tema de los factores y señales tomadas por Google, las cuales obviamente no se muestran precisamente. A continuación se muestra una curva de distribución de CTR de un sitio web de viajes bastante grante:

Por ejemplo, los promedios de CTR para este sitio web se pueden usar como punto de referencia útil en las detecciones de anomalías de CTR, tanto positivas como negativas que señalan páginas con un rendimiento muy inferior cuyo CTR va a la zaga del promedio del sitio web. 

Del mismo modo, ayuda a detectar páginas con un CTR superior al promedio y a descubrir patrones de optimización de fragmentos que de otro modo estarían enterrados en la gran cantidad de datos, los cuales pueden tratar de imitarse para tener una mejor optimización. 

Cómo Google puede ayudar a los desarrolladores

Si bien es posible conocer la posición del resultado de un sitio web, todavía se carece del contexto más profundo de un SERP o resultado de búsqueda contemporáneo que crea muchos falsos positivos.

Esto abre la lógica de hacerse las siguientes interrogantes: ¿Por qué hay un CTR tan malo? ¿Es un fragmento malo en una página o es Google? ¿Hubo un panel de conocimiento? ¿Carrusel? ¿Resultados locales? Respondiendo las preguntas práctica y claramente: simplemente no se sabe. 

Para tomar decisiones significativas que conduzcan a mejoras significativas, la Consola de Búsqueda de Google debe mostrar más datos. Específicamente, deben incluir datos de características especiales de SERP y opciones de filtro.

Tampoco hay que olvidar que, el diseño de los resultados de búsqueda es un factor de tráfico mayor que las clasificaciones. En este caso, Google olvidó incluir el panel meteorológico para una consulta que me permitió ejecutar una comparación CTR en ambos:

Intencionalmente, se están buscando consultas casi idénticas y la misma dirección URL de destino en los SERP con una diferencia de CTR del 39%, simplemente debida a la presencia de una función SERP especial.

Esto es lo que Google llama «buen abandono». Si bien es ciertamente «bueno» para los usuarios de Google, «bueno» no es como el resultado número 1 en esta página describiría esta situación.

Influenciadores negativos de CTR

Los resultados de un sitio recibirán menos clics promedio en los resultados de búsqueda si hay al menos una función de búsqueda especial en los resultados. La combinación de múltiples características especiales solo empeora las cosas, lamentablemente. La lista incluye y no se limita a los siguientes mostrados como ejemplo, siendo: 

  • Cuadro de búsqueda autocompletado.
  • Fragmentos de características.
  • Calculadoras.
  • Cuadro de respuestas.
  • Resultados locales.
  • Panel de conocimiento/Carrusel.
  • Resultados de imagen.
  • Resultados de video.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Acepto la política de privacidad *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

METODOLOGÍA QUE CONVIERTE Y MONETIZA

Si tienes un negocio online, un proyecto digital, estás planteando en montar un ecommerce y no sabes como monetizarlo, ponte en contacto conmigo. Llevo años monetizando casi todo tipo de webs. Juntos podemos desarrollar una metodología que se adapte a tu caso, sea escalable y te permita rentabilizarla.

¿Hablamos?

Casos de éxito nacionales