Cinq spécialistes du marketing de recherche ont donné leur avis sur la mise à jour principale de Google de décembre 2020. Les observations offrent un retour intéressant sur ce qui a pu arriver.
À mon avis, Les mises à jour de Google portent de moins en moins sur les facteurs de classement et plus sur améliorer la façon dont les requêtes et les pages Web sont comprises.
Certains pensent que Google aléatoirement les résultats de recherche afin de tromper ceux qui essaient de faire du reverse engineering sur l'algorithme de Google.
Je ne partage pas cette opinion .
Certaines fonctionnalités de l'algorithme sont difficiles à détecter dans les résultats de recherche. Il n'est pas facile de pointer sur un résultat de recherche et de dire qu'il est classé à cause de l ' algorithme BERT ou Neural Matching.
Mais il est facile de pointer vers des backlinks, EAT ou expérience utilisateur comme raisons pour expliquer pourquoi un site se classe ou ne se classe pas si c'est ce qui ressort, même si la raison réelle pourrait être plus liée à BERT.
Donc, les pages de résultats du moteur de recherche ( SERPs ) peut sembler déroutant et aléatoire pour ceux qui examinent les SERPs à la recherche de facteurs de classement traditionnels de la vieille école pour expliquer pourquoi les pages sont classées ou pourquoi elles ont perdu leur classement lors d'une mise à jour.
Bien sûr, les mises à jour de Google peuvent sembler insondables. Les raisons pour lesquelles le classement des pages Web a radicalement changé au cours des dernières années en raison de technologies telles que le traitement du langage naturel.
Et si les mises à jour Google et personne ne voit ce qui a changé?
Cela s'est produit dans le passé que Google a changé quelque chose ng et la communauté SEO ne l'ont pas remarqué.
Par exemple, lorsque Google a ajouté un algorithme comme BERT, beaucoup n'ont pas pu détecter ce qui avait changé.
Maintenant, que se passerait-il si Google ajoutait quelque chose comme l'algorithme SMITH? Comment la communauté SEO pourrait-elle détecter cela?
SMITH est décrit dans un Document de recherche Google publié en avril 2020 et révisé en octobre 2020. SMITH facilite la compréhension d'une longue page de contenu, surpassant le BERT.
Voici ce qu'il dit:
«Ces dernières années, des modèles basés sur l'auto-attention comme Transformers et BERT ont réalisé des performances de pointe dans la tâche de correspondance de texte.
Ces modèles, cependant, sont toujours limités à du texte court comme quelques phrases ou un paragraphe en raison de la complexité de calcul quadratique de l'attention personnelle par rapport à la longueur du texte d'entrée.
Dans cet article, nous abordons le problème en proposant l'encodeur SMITH (Siamese Multi-depth Transformer-based Hierarchical) pour la mise en correspondance de documents longs.
Nos résultats expérimentaux sur plusieurs ensembles de données de référence pour les formulaires longs document m atching montrent que notre modèle SMITH proposé surpasse les modèles de pointe précédents, y compris l'attention hiérarchique, le réseau neuronal récurrent hiérarchique basé sur l'attention multi-profondeur et BERT.
En comparant aux lignes de base basées sur BERT, notre modèle est capable d'augmenter la longueur maximale du texte d'entrée de 512 à 2048. »
Je ne dis pas que Google a introduit l'algorithme SMITH ( PDF ) ou qu'il est lié au Algorithme de Passages .
Ce que je souligne, c'est que le Core de décembre 2020 La mise à jour contient la qualité de c apparemment non observable
Si Google ajoutait une nouvelle fonctionnalité basée sur l'IA ou mettait à jour une fonctionnalité existante telle que BERT, la communauté du marketing de recherche serait-elle en mesure de la détecter? Probablement pas.
Et c'est cette qualité des changements non observables qui peut indiquer que ce qui a changé peut avoir quelque chose à voir avec la façon dont Google comprend les requêtes et les pages Web.
Si tel est le cas, cela peut signifier qu'au lieu de tourner les roues sur les facteurs de classement habituels qui sont facilement observables (liens des sites de grattoir, vitesse du site, etc.), il peut être utile de prendre du recul et de considérer quelque chose de plus profond que les facteurs de classement habituels qui ont changé.
Aperçu de la mise à jour de base de Google de décembre 2020
Je remercie ceux qui ont eu le temps de donner leur avis, ils ont fourni d'excellentes informations qui pourraient vous aider à mettre en perspective la mise à jour de l'algorithme de base de Google de décembre.
Dave Davies ( @ oohloo )
Bea nstalk Internet Marketing
Dave met cette mise à jour dans le contexte de ce que Google a dit bientôt à l'algorithme et comment cela pourrait jouer un rôle dans les fluctuations.
Dave proposé:
«La mise à jour principale de décembre 2020 était une mise à jour unique à surveiller. De nombreux sites avec lesquels nous travaillons ont commencé avec des pertes et se sont terminés par des victoires, et vice-versa.
Il était donc clair que cela avait quelque chose à voir avec un signal ou des signaux qui se répercutaient en cascade. Autrement dit, là où le changement a causé un résultat, mais une fois que ce nouveau calcul a fait son chemin dans le système, il en a produit un autre. Comme le recalcul du PageRank, bien que celui-ci n'ait probablement rien à voir avec le PageRank.
Alternativement, Google peut avoir effectué des ajustements à la volée ou apporté d'autres modifications pendant le déploiement, mais je trouve cela moins probable. p>
Si nous pensons au timi ng, et comment cela est lié au déploiement de l'indexation des passages et qu'il s'agit d'une mise à jour de base, je soupçonne que cela est lié aux systèmes d'interprétation de contenu et non aux liens ou aux signaux dans ce sens.
Nous savons également que Core Web Les Vitals entrent dans l'algorithme en mai 2021, il peut donc y avoir des éléments pour soutenir cela dans la mise à jour, mais ceux-ci ne produiraient pas l'impact que nous voyons tous actuellement, étant donné que Web Vitals devrait techniquement être inerte en tant que signal à ce stade. donc à tout le moins, il y aurait plus à mettre à jour que cela.
En ce qui concerne la réaction générale de la communauté, celle-ci a été difficile à évaluer au-delà de "c'était grand. Comme on peut s'y attendre dans tout scénario à somme nulle, lorsqu'une personne se plaint d'une perte, une autre sourit tout le long des SERPs.
Je soupçonne qu'avant la fin du mois de janvier, cela deviendra clair exactement ce qu'ils déployaient et pourquoi. Je pense que cela a à voir avec les fonctionnalités et capacités futures, mais je suis là depuis assez longtemps pour savoir que je peux me tromper, et je dois surveiller de près. »
Steven Kang ( @ SEOSignalsLab )
Steven Kang, fondateur du populaire groupe Facebook SEO Signals Lab note que rien ne semble se démarquer en termes de points communs ou de symptômes entre les gagnants et les perdants.
«Celui-ci semble être délicat. Je trouve des gains et des pertes. J'aurais besoin d'attendre plus pour celui-ci. »
Daniel K Cheung ( @ danielkcheung )
Chef d'équipe, Prosperity Media
Daniel pense qu'il est utile de prendre du recul et de consulter les mises à jour Google du grand vue de l'image de la forêt plutôt que l'arborescence de la dernière mise à jour, et de replacer ces mises à jour dans le contexte de ce que nous savons qui se passe dans la recherche.
Un exemple est la baisse apparente des rapports d'acti manuel ons dans Google Search Console . Cela signifie-t-il que Google est meilleur pour classer les sites auxquels ils appartiennent, sans avoir à recourir à des actions manuelles punitives?
Voici comment Daniel voit la dernière mise à jour de l'algorithme de base de Google:
«Je pense que nous, en tant que personnes chargées de la recherche et de la découverte, devons cesser de penser aux mises à jour principales en tant qu’événements individuels et plutôt considérer les mises à jour principales comme un continuum de tests continus et d’améliorations que nous voyons dans les SERPs.
Donc, quand je fais référence à la mise à jour principale de décembre, je tiens à souligner qu'il ne s'agit que d'un événement parmi tant d'autres.
Par exemple, certains spécialistes du marketing affilié et Les analystes ont trouvé que des sites qui avaient été précédemment `` touchés '' par la mise à jour de mai 2020 s'étaient rétablis lors du déploiement de décembre. Cependant, cela n'a pas été cohérent.
Et encore une fois, voici le problème, nous ne pouvons pas parler de sites qui ont gagné ou perdu parce que tout est question d'URL individuelles.
Donc regarder la visibilité pure sur un site Web entier ne nous donne pas vraiment d'indices.
Il y a des murmures de 301 redirections, des PBN, des backlinks de mauvaise qualité et un contenu médiocre qui explique pourquoi certains sites ont été poussés de la page 1 à la page 6-10 des SERPs (pratiquement invisibles).
Mais ces pratiques ont toujours été sensibles aux fluctuations quotidiennes de l'algorithme.
Ce qui a été vraiment intéressant tout au long de 2020, c'est qu'il y a eu très peu de rapports de pénalités manuelles dans GSC.
Cela a été étrangement remplacé par des graphiques d'impressions et de clics sautant d'une falaise sans que le site ne soit désindexé.
Dans mon humble avis, les mises à jour de base visent de moins en moins à cibler une sélection spécifique de pratiques, mais plutôt à une opportunité supplémentaire pour l'algorithme de mûrir.
Maintenant, je ne t dire que Google fait les choses correctement 100% du temps - l'algorithme ne le fait clairement pas et je ne pense pas qu'il le fera jamais (en raison de la curiosité de l'humanité) . ”
Cristoph Cemper ( @ cemper )
LinkResearchTools, PDG
Cristoph Cemper considère que la dernière mise à jour a un impact sur un large éventail de facteurs.
Ici est ce qu'il a partagé:
"De haut niveau, Google ajuste les choses qui ont un impact global dans les mises à jour principales.
C'est-à-dire:
a) Rapports de poids pour différents types de liens et leurs signaux
Je pense que le déploiement de NoFollow 2.0 à partir de septembre 2019 n'est pas terminé, mais a été modifié. C'est à dire. combien de puissance pour quel NoFollow dans quel contexte.
b) Des boîtes de réponse, beaucoup plus. Google accroît ses propres biens immobiliers
c) Une dévaluation massive des réseaux de liens PBN et des empreintes assez évidentes de «création de liens de sensibilisation».
Ce n'est pas parce que quelqu'un a envoyé un e-mail de sensibilisation un lien payant plus naturel, même s'il a été payé avec du «contenu» ou un «échange de services».
Michael Martinez ( @ seo_theory )
Fondateur de SEOTheory
Michael Martinez a offert ces insights:
«D'après ce que j'ai vu dans les discussions en ligne, les gens sont confus et frustrés. Ils ne savent pas vraiment ce qui s'est passé et peu semblent avoir des théories sur les raisons pour lesquelles les choses ont changé.
D'une manière générale, j'ai l'impression que Google a réécrit un certain nombre de ses algorithmes d'application de la politique de qualité.
Rien de précis en tête, mais les sites d'autres personnes que j'ai consultés m'ont semblé correct, pas génial. Certains des sites de notre portefeuille ont augmenté, d'autres ont baissé.
Encore une fois, cela m'a simplement frappé comme étant de l'application ou de l'interprétation algorithmique des signaux mappés à leurs directives.
Pas à propos punir quoi que ce soit, mais peut-être essayer différentes approches pour résoudre les requêtes. »
Que s'est-il passé dans Goo gle Mise à jour principale de décembre 2020?
Les perspectives sur ce qui s'est passé lors de la mise à jour de l'algorithme principal de Google varient. Ce que la plupart des observateurs semblent d’accord, c’est qu’aucun facteur ou changement évident ne semble ressortir.
Et c’est une observation intéressante car cela pourrait signifier que quelque chose lié à l’IA ou à Traitement du langage naturel a été affiné ou introduit. Mais ce n'est que de la spéculation jusqu'à ce que Google l'exclue explicitement.
Aucun commentaire:
Enregistrer un commentaire