[ad_1]
Las opiniones del autor son completamente suyas (excluyendo el improbable caso de hipnosis) y es posible que no siempre reflejen las opiniones de Moz.
En parte uno de esta serie, hablamos sobre cómo Google y la web en general no estaban realmente preparados para la Actualización de la experiencia de página: los datos de CrUX de Google cubrían muy pocos sitios web, la gran mayoría de los cuales no alcanzaban los umbrales requeridos. Por eso, sugerí, la actualización se había retrasado y diluido tanto.
En la segunda parte, hablamos sobre las métricas en sí mismas: su debilidad, su arbitrariedad, su apertura a la manipulación. Esto también, sugerí, podría estar reteniendo a Google.
Sin embargo, la prueba está en el pudín. ¿Los Core Web Vitals, tomados individualmente o en su conjunto, están correlacionados con las clasificaciones? Si es así, ¿es más cierto que antes de la Actualización de la experiencia de la página? En esta tercera y última publicación de esta serie, veremos qué nos dicen los datos sobre la relación entre las métricas de Core Web Vitals y el desempeño de la clasificación orgánica.
Contenidos
Se aconseja discreción
Este es, a lo sumo, un estudio de correlación. Hay muchos mecanismos mediante los cuales algo puede correlacionarse con las clasificaciones sin haber influido directamente en las clasificaciones.
Por ejemplo, quizás los sitios web que se toman en serio el SEO se clasifican bien y también tienden a trabajar en su rendimiento de carga. Si es así, el rendimiento de carga y la clasificación se correlacionarían incluso sin ningún directo relación de causalidad.
Hablaremos sobre las posibles implicaciones a medida que avanzamos, pero, por favor, ¡proceda con precaución!
Rendimiento de URL pasantes frente a URL fallidas
Para empezar, decidí mirar solo las URL que tenían datos CrUX en primer lugar. Tal vez recuerde de la segunda parte que, en el momento del lanzamiento de la actualización en agosto de este año, eso era aproximadamente el 38,3% de las URL. Esto se toma de los 20 resultados principales para 10,000 palabras clave de MozCast, en todos los tipos de dispositivos móviles y de escritorio.

Tenga en cuenta que estas URL se toman todas de las 20 principales, por lo que es interesante que los promedios estén muy por encima del rango de 10.5 que esperaríamos. Es probable que esto se deba a que es desproporcionadamente probable que las URL de mayor tráfico tengan una buena clasificación, y también es desproporcionadamente probable que tengan datos CrUX.
Vemos una sólida ventaja de posición de clasificación de 0.39 aquí para las URL que pasan los tres umbrales de CWV, por encima de las que fallan al menos en uno.
¿Eso significa que este es un factor de clasificación?
A primera vista, los datos anteriores parecen muy prometedores para CWV como factor de clasificación. Sin embargo, vale la pena moderar un poco nuestra emoción.
Echemos un vistazo a los mismos datos, pero de mayo, antes de que se lanzara la actualización de Page Experience:

Podemos notar algunas cosas aquí:
La clasificación promedio de las URL con datos CrUX fue, en general, peor en agosto que en mayo. Esto es de esperar, ya que más URL tenían datos de CrUX en agosto, por lo que se había abierto camino hacia abajo en la clasificación.
Las URL que superan los umbrales de CWV ya tenían una diferencia de clasificación incluso antes de la actualización. Esto sugiere que quizás las URL que pasan la prueba ya eran mejores en otras formas que ya contaban para las clasificaciones (por ejemplo, quizás las clasificaciones eran URL gratificantes con una buena experiencia de usuario).
La diferencia entre las URL que superaron los umbrales y las que no lo hicieron ha crecido de 0,38 en mayo a 0,39 en agosto, aunque probablemente se encuentre fácilmente dentro del margen de error.
También es interesante contrastar con una métrica de rendimiento que no formaba parte de la actualización de Page Experience: Índice de velocidad, como se informa en los resultados del laboratorio Lighthouse.
Como “superar” los tres umbrales de CWV representa estar en el 36,3% superior de las URL según esa métrica, podemos comparar qué diferencia de clasificación se asocia con estar en el 36,3% superior del Índice de velocidad.

Podemos ver en este gráfico que el índice de velocidad, a pesar de no ser un factor de clasificación explícito, tiene una mejora modesta en la clasificación promedio asociada con este desglose de percentiles (0,17, frente a 0,39 para pasar los tres umbrales de CWV). Esto no significa que el índice de velocidad sea un factor de clasificación, solo significa que estas cosas pueden estar relacionadas de formas más complejas.
(Si eres un nerd de las matemáticas como yo y acabas de notar que el rango promedio ponderado de los dos grupos no es el mismo, eso se debe a que hay una pequeña cantidad de URL para las cuales pude obtener datos de CrUX, pero no datos de laboratorio, debido a errores del servidor, etc.)
Entonces, ¿pasó algo?
Actualmente, si. Pero es más sutil.
El impacto real se sintió en las URL que fallido las tres pruebas. Aunque estas URL a menudo comenzaron a clasificarse como las mejores de todas (probablemente porque representan de manera desproporcionada algunas marcas importantes y conocidas), han recibido un golpe con la actualización. Estas URL han tenido una caída de clasificación de posición de 1,15, en comparación con alrededor de 0,2 para las URL con datos CrUX tomados en su conjunto.

Esto, como mencioné en la primera parte, es diferente a lo que Google se propuso hacer. De vuelta en las preguntas frecuentes originales para la actualización en 2020, Google dijo:
“Si una página alcanza los objetivos recomendados para todos tres métricas, pasa la evaluación de web vitals … El impacto en la clasificación de la experiencia de la página será el mismo para todas las páginas que se encuentran en el rango bueno para todos Core Web Vitals, independientemente de sus puntuaciones individuales de Core Web Vitals “.
(énfasis mío, fuente original aquí)
Por todas las razones de datos que cubrí en la parte uno, probablemente no pudieron hacer esto y tuvieron que improvisar un poco, en su lugar, solo aplicaron la penalización relativa (o ausencia de un impulso) para las URL que fallaron en todas las métricas, en lugar de para URL que fallaron en una o más.
Espera, ¿todo lo que tengo que hacer es pasar una métrica?
Bueno, no, esa no es exactamente la actitud. Todavía hay muchas otras razones para querer aprobar las tres y, lo que es más importante, para tener una experiencia de página generalmente buena. Google solo buscará más formas de aumentar y aumentar estos factores con el tiempo.
Además, el resto de SEO todavía cuenta. Vea la diferencia bastante más pronunciada asociada con Page Authority, por ejemplo:

Buena suerte ahí fuera 🙂
¿Está listo para ver si las páginas de su sitio pasan un CWV o ninguno? Dirígete a Moz Pro y echa un vistazo a la versión beta de Performance Metrics dentro de nuestro conjunto de herramientas de rastreo de sitios.
¡Regístrese en Moz Pro para acceder a la versión beta!
¿Ya es cliente de Moz Pro? ¡Inicie sesión para acceder a la versión beta!
[ad_2]
Source link