C'est la Saint Valentin – le jour de l'amour! Cela s'applique-t-il également à votre site Web? Si la relation entre vous et Google ne va pas bien, c'est peut-être pour les 7 raisons suivantes.
1. Votre site web n'est pas adapté aux mobiles
Avez-vous déjà eu un Tindermatch avec Googlebot? Non? Ensuite, c'est peut-être parce que le site Web n'a pas été optimisé pour les aspects mobiles. Depuis 2015, les moteurs de recherche ont privilégié les sites Web mobiles. Mot clé: responsive design,
2. Votre site Web se charge lentement
Votre date vous permet d'attendre? Comme c'est inconfortable! De même, les visiteurs de votre page Web ressentent plus de 3 secondes. Donc, ce que vous devez faire: assurer une vitesse élevée.
3. Il y a des pages d'erreur
Parfois, il faut beaucoup de chocolat et d’alcool pour vaincre un amour perdu! Aidez vos visiteurs à rester en bonne santé et assurez-vous au moins que personne ne soit confronté de manière inattendue à une page 404.
4. Aucune connexion sécurisée garantie
La confiance est un facteur essentiel dans chaque relation. Il est donc particulièrement important que vos utilisateurs fassent confiance au site Web. Mais si vous ne fournissez toujours pas de connexion sécurisée, le message dit: maintenant ou jamais!
5. Votre contenu est obsolète
Nous vieillissons et perdons notre grand corps de plage avec le temps. Malheureusement, votre contenu aussi. Vérifiez votre contenu régulièrement et assurez-vous qu'il est toujours bien entretenu et à jour, même à un âge avancé.
6. Votre structure de lien interne est bâclée
Les paires de chaussettes désordonnées ont toujours détruit les relations. La même chose s'applique à votre structure de lien interne. Si cela est sale et que les liens ne correspondent pas au texte d'ancrage, Google peut être vraiment en colère. Utilisez les mots-clés appropriés ici pour éviter les conflits de relations.
7. Les étiquettes ne sont pas définies
En fin de compte, la beauté intérieure est tout aussi importante que l'apparence. Aidez Google à comprendre ce que votre site Web contient réellement dans sa boîte et à définir correctement les balises méta: titre, description, alt.
La portée de l'approche du groupe cible peut varier, la variété de types de contenu, canaux ou plates-formes existantes et la voie conduisant à une diffusion réussie du contenu, a déjà été abordée dans l'article "Succès de la diffusion du contenu grâce à l'approche du groupe cible approprié".
Si vous n'avez pas lu cet article, vous pouvez le trouver ici.
Cet article repose sur les bases du contenu orienté utilisateur et fournit des informations générales utiles, des astuces et des astuces pouvant être utilisées pour découvrir les potentiels de sujet.
Il faut remonter le champ à l'arrière!
Pourquoi? Parce qu'il ne suffit pas de penser à ce que Google seul veut. Parce que Google exige les meilleurs résultats pour l'utilisateur. Ce que les utilisateurs essaient de trouver en ligne via les moteurs de recherche est le réponses parfaites ou dépannage, C'est la seule façon pour un opérateur de site Web de gagner en ligne. Après tout, c'est exactement ce dont il s'agit. Peu importe si des prospects de haute qualité, de nouveaux abonnés, plus de clics ou de l'argent. Pour gagner de l'argent, les spécialistes du marketing en ligne et les propriétaires de sites Web doivent tout mettre en œuvre pour satisfaire l'utilisateur. Avec des mesures de contenu ciblées, une expérience utilisateur optimale peut être fournie, ce qui génère des signaux utilisateur positifs. C’est le seul moyen de satisfaire aux exigences de Google et d’être ainsi mieux classé et plus visible pour ceux qui le recherchent – une base optimale pour gagner de l’argent organique.
Les ajustements apportés à la conception et au contenu ne concernent pas uniquement l'expérience de recherche des utilisateurs. Surtout, le référencement joue un grand rôle ici. Parce que de "Search Engine Optimization (SEO)" est maintenant plutôt "rechercheexpérienceoptimisation (SXO) ". Les bases, telles que l'architecture de la page et la structure des liens internes, ont une influence non négligeable sur le comportement du visiteur d'un site Web. Le temps de chargement et la propreté de l'index sont également des facteurs pertinents lorsqu'il s'agit de satisfaire l'utilisateur avec le site Web, de le conserver sur la page et de générer des données utilisateur positives pour Google. Ceux qui trouvent un contenu particulièrement utile, intéressant ou captivant sont susceptibles de passer beaucoup de temps et davantage, de le partager avec des amis et de ne pas quitter le site aussi rapidement. Mais plus sur cela plus tard.
La propreté de l'index nécessite des résultats de recherche pertinent. étroit et parfait pour l'utilisateur sont. Si ces exigences sont désormais adaptées à leur propre domaine de contenu, il s’agit clairement de fournir un contenu de haute qualité, actualisé et adapté aux besoins du groupe cible. Les inventaires de contenu bien pensés et bien pensés sont les éléments A et O. Cet article doit préciser comment l’hygiène du contenu est créée et maintenue en permanence.
Contenu pertinent – L'essence de l'hygiène du contenu
Avant d'évaluer la pertinence du contenu existant, vous devez utiliser l'inventaire du contenu pour enregistrer l'inventaire actuel. Beaucoup manquent ou sautent cette étape importante, considérée comme "inutile" ou "beaucoup trop coûteuse". Qu'une vérification du contenu coûte du temps et des efforts sont hors de question. Cependant, il est tout sauf inutile. La section suivante fournit des conseils pratiques sur la manière d’enregistrer et d’évaluer l’inventaire de contenu aussi facilement que possible. En outre, le sujet est également mis en évidence dans l'article "Guide pas à pas pour un audit de contenu réussi".
Étape 1: Inventaire du contenu (ou: Audit de contenu quantitatif)
Objectif: capturer le contenu, fournir un aperçu et subdiviser une variété de sujets.
Pour capturer un inventaire complet du contenu, il est approprié rampantD'excellents outils. Le résultat est une liste d'URL individuelles pouvant être exportées en tant que base optimale pour une URL ultérieure. regroupement sert. Par exemple, vous pouvez classer par catégorie et sous-catégorie, produit et page de blog, par sujet, type de page, objectif, phase de parcours client ou objectif de l'utilisateur. Selon quels critères le cluster est ouvert à tous et doit être défini individuellement. La liste devrait être celle Inventaire complet du contenu inclure. Outre leur propre site Web, leur propre blog ou magazine, leurs canaux de médias sociaux et les messages et publications placés sur des plates-formes externes, ils jouent également un rôle majeur. Il est donc important de collecter tout le contenu, même hors ligne!
Une fois la liste créée, vous devez être spécial données pertinentes être déposé. L'avantage de l'analyse est que beaucoup d'informations peuvent être interrogées automatiquement. Par exemple, le code de statut, le méta-titre et la méta-description ou les balises H, ainsi que la longueur de caractère correspondante. Des informations utiles qui peuvent également être stockées manuellement, par exemple le focus du mot clé, les données de trafic organique, le taux de clic et de rebond et le classement actuel. Mais les bases, comme la date de publication ou l'auteur, sont des informations importantes qui appartiennent à la liste. Surtout avec des blogs, des conseils ou des contributions de magazines qui ont du sens. Il faut déjà définir à l’avance les données qui sont importantes pour pouvoir les collecter avec le moins d’effort possible et en quelques étapes seulement.
Conseils pour un inventaire de contenu structuré:
premier Explorer le site deuxième Définir les valeurs mesurées pertinentes troisième Former des groupes de sujets
En plus de votre propre contenu, vous devez tenir compte du contenu des concurrents. Ceci fournit un aperçu approximatif du contenu existant de l'industrie. Une comparaison avec le propre inventaire facilite la mise en évidence des lacunes et la reconnaissance du potentiel d'amélioration.
Étape 2: Évaluation du contenu (ou: Audit de contenu qualitatif)
Une fois qu'un aperçu du contenu existant a été créé, il s'agit d'évaluer les quantités de contenu. Les données de comportement de l'utilisateur sont particulièrement utiles à cet effet. Elles rendent le comportement du visiteur du site Web compréhensible. Celles-ci incluent, par exemple, la durée de séjour sur un site Web (temps passé sur le site), le taux de rebond d'une page (taux de rebond) ou le taux de clic d'une URL. Mais les mesures suivantes peuvent également être éclairantes à cette étape:
Trafic organique
Sources de trafic
Nombre de backlinks
Pages par session
profondeur de défilement
Nombre d'utilisateurs nouveaux et existants
Sources de trafic
conversions
Toutefois, lors de l'évaluation de l'inventaire du contenu, il n'est pas suffisant d'examiner des chiffres et des indicateurs individuels, tels que le taux de clic ou le taux de rebond, pour déterminer si le contenu est pertinent ou non pour le groupe cible. Après tout, un sujet sur lequel on ne clique pas est loin d’être inintéressant. Le contenu peut être livré dans le mauvais format et distribué via des canaux qui ne sont tout simplement pas utilisés par le public cible.
Excursus sur le taux de rebond
Le taux de rebond (ou taux de rebond) est le pourcentage de visiteurs qui quittent après avoir entré une seule page. Vous pouvez donc supposer qu'un taux de rebond élevé est automatiquement synonyme de mauvais contenu. Plus le nombre de sauts est élevé, plus le contenu n'est pas pertinent. Vous pourriez le penser. Cependant, ce n'est pas si facile: évaluer et mieux évaluer la pertinence du contenu pour les utilisateurs ne suffit pas d'avoir un seul indicateur. En outre, il existe non seulement une variété de paramètres, mais également de nombreuses options de combinaison. Par conséquent, dans l'exemple suivant, le taux de rebond et la durée du séjour sont inclus.
Afin d'évaluer les performances d'un contenu, une comparaison métrique avec d'autres contenus et leurs performances est utile pour identifier les valeurs aberrantes. Contenu qui a sensiblement moins bien performé ou beaucoup mieux que d’autres versions à ce jour. Cependant, il est important de comparer uniquement les mesures et les éléments de contenu du même type. Il serait irréaliste de comparer le taux de rebond et la durée d'un article de presse compact avec le taux de rebond et la durée de séjour d'un article de guide complet.
L'illustration présente trois guides et la durée moyenne de séjour des lecteurs. Le troisième article d'une durée moyenne de 10 secondes seulement présente également le taux de rebond le plus élevé. Mais cela ne doit pas nécessairement indiquer que le troisième article est le moins pertinent pour le groupe cible.
Peut-être que le premier article est beaucoup plus long que les deux autres et nécessite un séjour plus long. La durée de séjour similaire de l’article 2 pourrait être due au fait que l’utilisateur laisse la page ouverte, mais le contenu seulement dans une faible mesure lire. Le dernier article, censé être le moins pertinent, pourrait être le meilleur dans ce cas. Livrer déjà le premier contenu la réponse parfaite ou la solution du problème, donc pas de long séjour est nécessaire et un saut rapide tout à fait logique.
conclusion: Un taux de rebond élevé associé à un court séjour sur une page ne signifie pas automatiquement que le contenu du site Web est inintéressant pour l'utilisateur. Si l'utilisateur a trouvé la solution ou le problème idéal dans les plus brefs délais, les chiffres clés indiquent même clairement que le contenu est parfaitement adapté au groupe cible.
L'évaluation du contenu indique la qualité du contenu existant. Non seulement des facteurs basés sur les données, tels que le taux de rebond ou l'aide ponctuelle sur site pour l'évaluation. Le sentiment personnel peut également aider à séparer le bon contenu du mauvais contenu. Vous pouvez poser les questions suivantes lors de l'évaluation. Est-ce que le contenu …
… à droite?
… utile?
… écrit professionnellement?
… convivial?
… clairement compréhensible?
… la mise à jour?
… groupe cible pertinent?
Étape 3: Hygiène du contenu (ou: Audit continu du contenu)
Avec chaque nouveau contenu unique, des contenus individuels doivent être créés, qui soutiennent l’image de marque d’un site Web et sont utilisés avec plaisir par les utilisateurs comme supports d’information. Une fois que les valeurs mesurées ont été déterminées lors de l'audit quantitatif et que le contenu a été évalué individuellement, le domaine est maintenant en cours de nettoyage. Vous pouvez effectuer quatre étapes pour identifier un contenu difficile et lui confier une nouvelle tâche – ou simplement le supprimer.
premier Les pages sur lesquelles vous n'avez pas cliqué doivent être supprimées ou définies sur "noindex". Ces sites ne font que créer des obstacles inutiles dans le budget d'exploration et, dans le pire des cas, font manquer à Google un contenu important. Toutefois, si les rubriques de ces pages concernent votre marque, suivez l’étape 4.
deuxième Les pages qui se classent sur des mots clés de seuil doivent être optimisées. Ranger une URL sur le deuxième SERP, il existe un potentiel pour le sujet, mais il manque quelque chose. Un coup d’œil sur la concurrence sur ce sujet vous aidera et vous pourrez retraiter votre page – en termes de contenu et de design – et ainsi augmenter vos chances de classement.
troisième Les sujets obsolètes doivent être mis à jour et republiés. Cela signifie notamment que vous devez rechercher des sujets d'actualité dans votre inventaire de contenu et voir comment optimiser ces thèmes pour l'environnement actuel. Publiez ces sujets avec un nouvel horodatage et vous aurez un nouveau contenu dans un court laps de temps.
4 Les sujets générant trop peu de trafic doivent être reformatés. Vérifiez pourquoi le sujet n'a pas fonctionné comme souhaité. Peut-être que c'est le format et pas assez pratique pour les lecteurs. Parfois, l'intégration d'infographies, de listes, de tableaux, etc. est déjà utile.
Conseils pour l'audit de contenu évolutif
Tout d'abord, utilisez les métriques pour vérifier si le contenu est performant ou non performant de votre perspective. On peut en tirer de nombreux enseignements qui peuvent déjà aider à la recherche de nouveaux sujets.
premier Pour un contenu haute performance, vérifiez quels types de contenu sont impliqués, quand ils ont été publiés et quel sujet il traite. Ce faisant, vous pouvez identifier les préférences de votre public cible et intégrer ces connaissances à la création de contenus futurs.
deuxième Le contenu non performant nécessite un examen attentif. A-t-il été libéré au mauvais moment ou sur les mauvais canaux? Cela peut également être dû au type de contenu et au format choisis pour le sujet. Pour les hackers de la vie, une vidéo peut être meilleure qu’un texte de guide détaillé. Pour un contenu complexe, une infographie peut aider à comprendre le sujet.
Regardez toujours un peu la concurrence et fouillez dans les forums, que le contenu est heureux de partager et de servir dans la collecte d'informations. J'aime aussi essayer de nouveaux formats et mesurer leur efficacité. Le résultat est la stratégie de contenu ultime qui répond à vos besoins.
Trouver des idées de sujet
Que ce soit pour optimiser le contenu existant, pour créer un nouveau contenu ou des sujets spécialement conçus pour la distribution et le placement sur des plateformes externes. Les sections suivantes ont pour but de vous aider à générer de nouvelles idées en quelques étapes, qui renforcent la pertinence du contenu d'un site Web et garantissent l'hygiène du contenu.
Faites un brainstorming en équipe et collectez vos propres idées
Envisagez des sous-thèmes et des extensions ou des idées de formats créatifs si certains sujets sont déjà couverts (en ligne et hors ligne).
s'orienter sur le contenu existant du secteur et exposer les lacunes dans leur propre inventaire de contenu
Explorer des groupes, des pages, des comptes ou des canaux sur un sujet de réseau social spécifique
W-questions Utilisez des outils pour trouver l'intersection des intérêts des utilisateurs et de vos propres idées.
Interroger le volume de recherche de certains termes de recherche et ajouter de nouvelles idées de mots clés (ce qui peut générer de nouvelles sources d'idées)
Faites attention à la formulation correcte (p. Ex. À partir du mot-clé research, mais aussi à partir de comparaisons avec le contenu existant de l'industrie)
Concentrez-vous sur les classements actuels et sur les mots clés de seuil pour identifier les sujets potentiels
Google!
Honnêtement, quelle est votre première étape dans la recherche sur le sujet? Commencez-vous directement avec les outils ou commencez-vous par Google vous-même, qu'est-ce qui existe déjà sur le sujet et qu'est-ce que la concurrence fait? Définissez-vous l'intention de recherche à l'aide d'outils ou de résultats Google? Je t'ai attrapé?
Nous sommes tellement concentrés sur le travail avec des outils que nous perdons de vue l’outil le plus important: Google. Soyez vous-même l'utilisateur et regardez les premiers résultats de la recherche. Répondez-vous à votre question? Quels formats et fonctionnalités SERP seront lus? Cette approche est extrêmement révélatrice pour voir quelle intention Google voit derrière la requête de recherche.
Exemple 1: "Comment Floss Dance"
À la demande "Comment fait Floss Dance", une vidéo est diffusée. De toute évidence, il s’agit du format le plus utile pour Google en termes d’utilisateur. Est aussi logique: une danse est mieux expliquée quand elle est dansée. Les chaînes pertinentes sont YouTube, Facebook, Instagram et d'autres plates-formes vidéo sur lesquelles ce didacticiel vidéo sera publié.
Exemple 2: "Coiffures Tendance 2018"
Les coiffures tendance 2018 – il s'agit de coupes cool et tendance. Donc, les demandeurs veulent des images ou des vidéos. Et cela se voit aussi dans les résultats. En recherche Google normale, au-dessus du pli affiche les images presque exclusivement. Cela semble donc être un format courant pour cette recherche. Les chaînes pertinentes comprennent Facebook, Instagram et Pinterest.
Exemple 3: "Instructions de tapisserie"
Qui a fait du papier peint? Si vous avez besoin d'instructions, vous voudrez probablement un tutoriel étape par étape ici. Contrairement à une vidéo, les chercheurs peuvent lire rapidement l'étape suivante, sans avoir à chercher l'endroit approprié dans la vidéo. Cette intention se vérifie également sur le premier SERP. Position-Zero inclut des instructions pas à pas et la fonctionnalité People-Ask. Les formats pertinents sont probablement des listes et des infographies, qui sont intégrés dans des blogs, des guides et des pages de FAQ.
Seulement 2% des premiers visiteurs convertissent!
Les idées de thèmes et de formats sont loin de tout. Seulement 2% des premiers visiteurs convertissent. Et c'est précisément pourquoi il est important de comprendre le parcours client du groupe cible. C’est seulement ainsi que les problèmes peuvent être identifiés et que l’ensemble de l’expérience client est améliorée. Selon une étude de McKinsey, la maîtrise du parcours client génère 10% de revenus supplémentaires, 20% de coûts en moins et une satisfaction client accrue de 20%. Les clients potentiels interagissent avec une marque six à huit fois en moyenne avant de se convertir et de devenir clients.
Afin de rester dans la mémoire des acheteurs potentiels, il est non seulement nécessaire de créer un contenu pertinent dans le bon format, mais également d'utiliser les bons canaux de distribution. Ce ne devrait pas être un processus rigide, mais un système en constante évolution, adapté aux besoins du processus, qui ne reste jamais immobile. Essayez ce qu'il faut! Il est également utile de parler au public cible AVANT la diffusion. D'une part, vous établissez une communication avec le groupe cible, d'autre part, vous pouvez générer une pré-sensibilisation sur le sujet. Cela aide clairement à économiser les ressources et peut fournir la preuve que les canaux prévus ne sont pas le bon chemin pour le contenu.
La même procédure s'applique aux éléments de contenu déjà publiés. Si une vidéo intégrée dans un guide ne donne pas les résultats escomptés, il est logique de les télécharger sur YouTube ou Facebook. Les infographies et les images pratiques sont le bon format à partager sur Pinterest. Avec les bonnes étiquettes attribuées, une large masse est adressée et prête pour une distribution ultérieure sur différents canaux.
6 conseils de sensibilisation pour plus de succès
1. Utilisez des alertes
2. Republier les contributions existantes
3. Pitch contenu à la presse
4. Trouver la bonne personne à contacter
5. Documentation de contact
6. Tester, tester, tester!
Connaissez vos objectifs
Ou plutôt: connaissez votre catégorie cible! Les objectifs trop détaillés peuvent se retourner contre eux. La réaction d'un grand nombre de clients et d'utilisateurs potentiels aux mesures de marketing de contenu ne peut jamais être prédite à 100%. Bien sûr, il est possible de créer des prévisions, d'effectuer des calculs, d'utiliser des études et des statistiques, et bien plus encore. Cependant, même le statisticien le plus intelligent ne peut pas jeter un coup d'œil dans le futur. Par conséquent, il est important de regrouper les indicateurs et objectifs pertinents. Les campagnes peuvent être alignées sur les trois objectifs clés suivants et mesurées à l'aide de différents paramètres.
Interaction: J'aime, Partages, Commentaires, Téléchargements, Mentions, etc.
Portée: trafic organique, nouveaux abonnés, backlinks, classements, notoriété de la marque, etc.
Conversion: commandes, mais aussi abonnements aux newsletters ou nouveaux leads
L'énorme influence des signaux des utilisateurs sur le classement est incontestable dans l'industrie du référencement. Pour la plupart des experts en référencement, les signaux des utilisateurs sont le Saint Graal. Mais les signaux des utilisateurs sont-ils vraiment un facteur de classement? Cet article traite de manière critique de cette théorie et vise également à montrer combien il est important dans la vie de remettre en question de façon répétée et, surtout, de différencier les faits allégués.
Déclarations générales sur les facteurs de classement
Tout d’abord, vous devez faire la distinction entre les signaux de classement et les facteurs de classement. Ces deux termes sont utilisés de manière synonyme, encore et encore, mais à y regarder de plus près, ce n’est pas la même chose.
Un facteur de classement est par exemple Backlinks. Le bon signal pour cela est le nombre ou la qualité des backlinks. Rankbrain est un facteur de classement, mais n'est pas un signal de classement. Mais assez maintenant avec le calcul des cacahuètes.
Les référenceurs restent attachés à des facteurs de classement statiques et à l'optimisation de certains signaux de classement. Pourquoi? Parce que cela leur donne sécurité et optimisations tactiques. En soi, il n'y a plus rien à faire si vous optimisez les bons signaux.
Mais la pondération de ces facteurs de classement est maintenant tellement volatile que l’on ne peut pas fixer une priorité des signaux sur une base forfaitaire. La réponse la meilleure mais peut-être peu satisfaisante à la question de l'importance d'un signal de classement est dans la plupart des cas: "Cela dépend!"
À l'ère de l'apprentissage automatique et des résultats de recherche de plus en plus personnalisés, Google est en mesure d'utiliser des algorithmes de classement individuels – en fonction du contexte – pour le tri individuel des SERP. Ces algorithmes pourraient s’appuyer sur le classement des signaux de différentes manières ou au moins avec une pondération différente. Et ce sera probablement encore plus le cas à l'avenir qu'il ne l'est déjà. Voici quelques facteurs qui influencent déjà la pondération individuelle des facteurs de classement et des signaux:
Historique de recherche de l'utilisateur respectif
Intention de recherche de la requête de recherche
Localisation de l'utilisateur
Terminal de l'utilisateur
Environnement industriel ou thématique ou ontologie auquel une demande de recherche doit être affectée
Searchmetrcis a donc commencé à segmenter ses études de corrélation de facteurs de classement régulières par secteur:
Aujourd'hui, pour chaque secteur d'activité, même pour chaque requête de recherche, différents facteurs de classement changent constamment.
Par exemple, je peux bien imaginer que certains sites Web, tels que dans le segment "Votre argent ou votre vie", des signaux de réputation externes, tels que p. ex. Besoin de liens comme par exemple magasins ordinaires avec des biens de consommation simples.
Dans ces conditions, il n'est plus possible de parler aujourd'hui de l'importance d'un facteur de classement. Google lui-même a un taux fixe nommé "les trois facteurs de classement les plus importants" avec les éléments suivants:
Oui, le contenu est un indice important à évaluer par Google, mais uniquement dans son contexte. Et les liens sont probablement pondérés différemment selon le contexte. Tous les autres facteurs de classement possibles pèseront probablement plus ou moins individuellement sur Google.
Les collègues de Sistrix ont rassemblé dans une ronde illustre les SEO des sujets intéressants, qui coïncident en grande partie avec les déclarations que j'ai décrites ci-dessus:
L'utilisateur signale-t-il l'un des facteurs de classement les plus importants?
Tous les changements majeurs dans le classement ou les mises à jour alléguées de Google sont récemment justifiés par une nouvelle pondération des signaux des utilisateurs comme facteur déterminant. Le terme signaux d'utilisateur est déjà très imprécis. De quoi parle-t-on? Taux de rebond?Dwell?Taux d'interaction avec le site?Nombres d'engagement SERP tels que CTR, clics longs, clics courts?
Ces "signaux utilisateurs" servent aujourd'hui de justification à tout ce que l'on ne peut expliquer autrement ou pour lequel il n'y a aucune indication de Google. Malheureusement, cela est trop souvent mal compris, simplement pas entendu et ensuite mal transmis.
Pour capturer les signaux des utilisateurs ou les indicateurs d'engagement, Google disposerait théoriquement de quelques outils:
Google Chrome
Google Analytics
Google Gestionnaire de balises
androïde
Adsense / Double-clic
DNS public Google
L'accent est mis sur la théorie. Le fait que Google ait la capacité de collecter et peut-être de le faire ne constitue pas une preuve factuelle qu'il s'agisse d'un facteur de classement direct.
Pour utiliser les données de Google Analytics en termes de classement des sites Web, Google en personne de Gary Illyes a déjà exprimé en 2015. Il a répondu à des demandes répétées de manière brève et concise, en expliquant qu'ils n'utilisaient pas ces données pour le classement.
Adam Singer de Google Analytics a également confirmé cette fois encore sur Twitter:
Gary Illyes a également commenté l'utilisation des données de Google Chrome en octobre 2017:
Tout d’abord, nous n’utilisons pas le trafic dans nos classements. Pour ce qui est des autres types de trafic, Google pourrait le constater grâce aux outils d'analyse, mais je n'utilise pas les données d'analyse pour les classements de recherche. Nous avons donc des données de Chrome, mais Chrome est incroyablement bruyant. Source: https://searchengineland.com/gary-illyes-ask-anything-smx-east-285706
Avant de résumer les déclarations les plus récentes de Google sur les signaux des utilisateurs en tant que facteur de classement des deux dernières années, il convient maintenant de faire une brève distinction entre la notation générale des sites Web et la personnalisation des SERP.
Différence entre personnalisation et notation
Google magasins u.a. à l'aide de cookies, l'historique de recherche de chaque utilisateur, dans la mesure où il accepte les conditions d'utilisation de Google. Cela peut être fait dans le navigateur ainsi que dans le compte dans l'état connecté. Les clics sur les résultats de recherche individuels modifient également progressivement les SERP liés à l'utilisateur. Ainsi, le classement après plusieurs requêtes de recherche identiques pour les résultats avec lesquels j'ai interagi sous la forme de clics augmente régulièrement dans le mien SERPs personnels plus je clique dessus. Cette préférence personnelle pour une source d'informations affecte également les autres URL du domaine, pas seulement celles que j'ai visitées dans le passé.
Aussi le emplacement Au moment où je suis dans la requête de recherche détermine le classement de mes résultats de recherche personnalisés (Plus dans l'article Mots-clés régionaux: Comment déterminer l'intention de l'utilisateur local?).
Pour la personnalisation, Google utilise également l'historique des recherches pour déterminer le contexte thématique que je recherche dans la session en cours ou plus généralement si je m'intéresse davantage à la voiture Jaguar ou à l'animal Jaguar.
Tout cela se passe dans le cadre des résultats de recherche personnalisés, mais n'a rien à voir avec la notation générale ou la notation de sites Web individuels. C'est en quelque sorte le classement des sites Web en fonction de mon comportement de recherche individuel. Ces classements peuvent être différents pour un autre utilisateur. En parlant de recherche personnalisée, mes signaux d’utilisateur individuel, par exemple Clics, un rôle.
Mais la spéculation de nombreux référenceurs sur les signaux des utilisateurs en tant que facteur de classement direct et donc dans le cadre de la notation générale des sites Web n’est pas expliquée et reste à remettre en question.
Afin de mieux expliquer la notation des sites Web, je voudrais décrire brièvement le fonctionnement procédural de Google.
Le fonctionnement de Google est divisé en gros en les étapes suivantes:
Ramper et indexer
Comprendre et étendre les requêtes de recherche (y compris Rankbrain)
Récupération et notation (Hummingbird / Knowledge Graph)
Pour l'évaluation, c'est-à-dire l'évaluation de documents individuels indépendamment de la requête de recherche, Rankbrain n'est pas responsable, mais bien l'algorithme de Hummingbird. Rankbrain n'interprète que les requêtes de recherche. Rankbrain est uniquement utilisé pour les requêtes de recherche.
Classement et récupération sur Google
Si on interprète déjà Gary Illyes presque un peu agacé après avoir publié un post sur Twitter et sa réponse aux demandes de Rand Fishkins, Rankbrain pourrait être utilisé pour pondérer les facteurs de classement différemment en fonction de l’intention de recherche. Cela influencerait donc le classement des documents.
Dites maintenant à certains référenceurs qu'au moins dans la détermination de l’intention de recherche de Rankbrain, Google s’appuie sur de véritables signaux d’utilisateur et a donc une influence sur le classement.
À regarder de plus près, Gary Illyes à la session de questions-réponses du SEO de Brighton à l'automne 2017:
Nous avons déjà indiqué que Rankbrain utilisait des données de recherche historiques pour prédire ce qui fonctionnait le mieux pour les chercheurs. Sinon, je m'en tiendrai à ce que j'ai déjà dit. Python, il vous faudra peut-être quelques clics pour déterminer si vous utilisez le langage de programmation, le serpent ou l'oiseau, ou quoi que ce soit d'autre toujours cliquer sur les oiseaux ou les serpents ou autre chose.
Supposons que Google utilise les données de clic pour identifier l'intention de recherche par mot clé, mais pas pour évaluer des pages individuelles.
Voici la vidéo:
Selon Google, Rankbrain n’utilise que les requêtes de recherche pour mieux identifier l’intention de recherche de l’utilisateur et le terme de recherche.
Voilà pour Rankbrain et les signaux des utilisateurs. Si vous voulez en savoir plus, je vous recommande ma contribution Importance de l'apprentissage automatique, de l'IA et de Rankbrain sur le référencement et Google.
Passons à la notation des documents sur Hummingbird. J'essaierai de l'expliquer à l'aide de la présentation du SMX West 2016 par Paul Haahr.
Selon Paul Haahr (vidéo ci-dessous), Google classe les documents et les sites Web dans des "fragments" de l'index. Selon Haahr, il existe des milliers de fragments différents. J'imagine que ces fragments sont classés en fonction de l'objectif du document et / ou du domaine dans l'index. La notation globale pertinente pour le classement a ensuite lieu à partir de la notation générale du document en comparaison avec l'intention de recherche de la requête de recherche identifiée via Rankbrain.
Paul Haahr en train de marquer
Sur les partitions, Google pourrait appliquer une pondération individuelle des signaux de classement ou différents algorithmes (voir ci-dessus). Mais les signaux utilisateur tels que le CTR, le taux de rebond, la durée de séjour… jouent-ils un rôle dans la notation générale des documents?
URL saute comme une indication possible des signaux de l'utilisateur pour les tests
De nombreux référenceurs interprètent les sauts d'URL à court terme dans le classement, par exemple, de la page 2 ou 3 à la première page, comme des tests dans lesquels Google utilise les signaux de l'utilisateur pour vérifier la qualité d'un document. Cela fait des années que nous voyons ce saut et il est clair que Google teste quelque chose ici. Le fait que Google utilise ici les signaux des utilisateurs semble logique et constituerait un moyen efficace. Mais que dit Google à ce sujet?
Les signaux des utilisateurs tels que le taux de rebond ou le temps d'arrêt sont-ils un facteur de classement?
Plusieurs déclarations de Google sont cohérentes. Commençons par la première déclaration de Google par un webmaster Hangout anglais en novembre 2015. Là, John Mueller dit:
C'est une bonne question. Et je ne pense pas que nous ayons cela comme facteur de classement. Donc, de ce point de vue, c'est quelque chose à demander.
Lorsque nous affinons nos algorithmes, il s’agit d’une échelle très large dans cet enfant d'un changement sur le comportement de l'utilisateur. Mais faire cela sur une URL est très difficile car je ne peux pas attendre. Les personnes qui veulent juste lire une lettre sont à la recherche de quelques heures.
Donc, ils sont très différents et ils émettent un signal très bruyant et je ne pense pas que cela aurait du sens ici.
Une déclaration similaire de John dans un webmaster allemand Hangout datant d'août 2016:
De plus, j'ai demandé directement à John Müller en décembre 2016 dans son Webmaster Hangout. Voici sa réponse:
Dans cette réponse, Jean nie toute influence directe des signaux des utilisateurs sur le classement. Cependant, dans les deux réponses, il souligne l'influence possible des signaux des utilisateurs sur le développement de l'algorithme de classement. Le développement d'algorithmes de classement sur Google se déroule en plusieurs phases.
Avancement d'algoritm sur Google Source: Google
Ces phases sont probablement supportées depuis longtemps par les évaluateurs de recherche et par les fonctionnalités d’apprentissage automatique. Ici, cela pourrait être par exemple Il convient de noter que les données utilisateur des évaluateurs de recherche dans les expériences dans l'environnement de test, ainsi que les signaux utilisateur issus des expériences avec des utilisateurs réels en phase bêta, sont utilisées pour évaluer le changement d'algorithme. Dans la vidéo suivante, quelques déclarations de développeurs Google:
Vous trouverez d'autres déclarations dans d'autres Hangouts Google pour les webmasters:
Google Webmaster Hangout, 16.06.2017
question: Les filtres dans les catégories d'un magasin peuvent-ils aider au classement car ils améliorent l'expérience utilisateur?
Réponse: L'expérience utilisateur n'est pas un facteur de classement. Mais si vous l'améliorez, cela peut avoir un impact indirect sur le classement.
question: Au SMX, Gary a parlé de l'utilisation de métriques de comportement d'utilisateur pour tester des algorithmes. Qui sont-ils?
Réponse: Je ne suis pas sûr de ce que Gary a dit. Mais lorsque nous testons les résultats de recherche, nous utilisons principalement les tests A / B et voyons quels résultats les utilisateurs sont plus satisfaits. L'ampleur des changements qui en résultent dépend du cas spécifique. C'est pourquoi vous faites toujours un ou deux tests à chaque recherche, car nous essayons toujours d'améliorer des choses. Cela fait toujours référence aux SERP et n'a vraiment rien à voir avec vos pages individuelles. Ces mesures ne vous aideraient pas à améliorer vos pages. Source: portail SEO
Cette déclaration apparaît également une fois de plus lors de la séance de questions-réponses avec Gary Illyes:
Gary Illyes: Lorsque nous le faisons mieux ou mieux que nous le faisons, nous l'utilisons un peu plus vite que nous le faisons. requêtes spécifiques.
En résumé: selon Google, les signaux des utilisateurs sur les sites Web ou les numéros d'engagement ne constituent pas un facteur de classement direct, mais sont utilisés sous la forme de données de clic dans la phase bêta du développement de l'algorithme.
Cependant, Google semble au moins traiter du sujet, comme le suggère le classement des résultats de recherche de Google Patent Modeling basé sur un élément temporel de la rétroaction des utilisateurs de l'année 2015.
Le taux de clics dans les SERP est-il un facteur de classement direct?
Lors du SMX Advanced 2016, Gary Illyes de Google a formulé des commentaires très clairs sur ce sujet. Il a évoqué la manipulation facile des clics par des acheteurs ou des robots. Par conséquent, ce ne serait pas une bonne idée d'utiliser ce signal comme facteur de classement direct, dit Illyes.
Toujours dans cet entretien, Illyes insiste sur le fait que les données de clics sont plus susceptibles d'être utilisées pour évaluer les modifications d'algorithmes. Dans une interview avec Danny Sullivan au SMX Advanced 2015, il a également nié très clairement l’influence du CTR en tant que signal de classement dans le classement. En savoir plus dans l'article Comment Google utilise les clics dans les résultats de recherche dans The SEM Post.
Qu'est-ce que Google par exemple Les tests CTR-A / B seront également présentés dans la présentation de Paul Haahr, ingénieur de longue date chez Google, à SMX-Advanced 2016:
Vous trouverez ici la présentation complète sur slideshare et au-dessous de la vidéo avec show command! 🙂
De nombreux référenceurs ont pris cette présentation comme preuve pour considérer le CTR dans les SERP comme un signal de classement confirmé. Même les grands noms de l'industrie tels que Rand Fishkin, que je considère toujours comme l'un des meilleurs spécialistes du marketing en ligne au monde, a mal interprété les déclarations contenues dans cette présentation.
La grande erreur est que Paul Haahr a dit très clairement que ces signaux utilisateur sont utilisés pour évaluer une version d'algorithme dans le cadre du développement d'un algorithme. Cela ne signifie pas que les taux de clic dans les SERP constituent un signal de classement dans les algorithmes utilisés. Ses déclarations concernent des expériences réelles, c'est-à-dire des expériences réalisées dans le cadre de l'évaluation de l'algorithme. Ici, le bon côté ne voulait évidemment entendre que ce qui correspond à son opinion. Auparavant, il avait publié certaines contributions et résultats de ses propres recherches sur le CTR en tant que signal de classement. Ces déclarations de Paul Haahr ne prouvent pas ses soupçons.
Cette interprétation erronée évidente des déclarations de Haahr a également été répandue parmi les SEO allemands bien connus. Au moins depuis lors, le taux de clic en tant que facteur de classement pour Google était une règle bien établie et non une conjecture.
Gary Illyes a réagi de manière très radicale en février 2019 aux affirmations récurrentes de Rand Fishkin selon lesquelles les signaux des utilisateurs, tels que le taux de rebond, la durée du séjour ou le CTR sont des facteurs de classement:
"La durée du séjour, le CTR et la théorie de Fishkins, sont des ordures. La recherche est beaucoup plus facile que les gens ne le pensent. "
Eric Enge et son collègue Marc de Stone Temple Consulting expliquent dans leur vidéo plus ou moins amusante pourquoi le CTR n'est pas un facteur de classement direct, mais pourrait être un facteur de classement indirect:
Les didacticiels complets sur l'optimisation du taux de clics ou l'optimisation des extraits de code permettraient également d'améliorer directement le classement sous forme de tiret dans le bleu.
Cependant, il existe des tests, comme celui de Marcus Tandler, qui a demandé à ses centaines d'auditeurs lors du SMX 2016 à Munich de rechercher "marcus tandler seo" et de cliquer sur le résultat de onpage.org. Avec le résultat suivant:
Le résultat de la recherche onpage.org est rapidement passé à la position 2. Cependant, le classement n’était pas particulièrement durable et n’a diminué que quelques minutes plus tard. On peut supposer que Google tente soudainement d'augmenter le nombre de requêtes de recherche. Je les ai mentionnées dans cet article Mots-clés d'actualité, en raison des taux de clics permettant de se connecter rapidement aux résultats de recherche correspondants. Supposons que Google puisse supposer qu’il souhaite réorganiser les SERP à court terme en raison d’un événement soudain. La notation réelle des sites Web ne serait pas influencée de manière durable.
Pour ceux qui souhaitent consulter leurs taux de clics SERP, je recommande l'aperçu suivant pour l'analyse comparative: https://www.advancedwebranking.com/cloud/ctrstudy/
Les pogos sont-ils collants ou les facteurs de classement des clics courts et longs?
Le soi-disant Pogo collant, ou les évaluations des clics longs et courts, semblent être au moins un sujet qui concerne Google, mais est également plutôt inapproprié comme facteur de classement global, car il existe des cas dans lesquels un retour aux SERP est tout à fait normal par exemple en lisant une nouvelle. Au moins, vous trouverez également un brevet Google. Cela montre que Google s'intéresse au sujet, mais ne constitue également qu'une indication de son utilisation possible en tant que facteur de classement. Les indications de Google selon lesquelles il existe des facteurs de classement possibles n'existent pas.
Encore une fois, Google affirme plus souvent que ce n'est pas le cas.
"Nous essayons de ne pas utiliser de tels signaux en matière de recherche. Il y a donc beaucoup de raisons pour lesquelles les utilisateurs peuvent aller et venir, regarder différentes choses dans les résultats de la recherche, ou simplement rester sur une page et revenir en arrière. Je pense que c'est vraiment difficile à préciser et à dire "bien, nous pourrions transformer cela en facteur de classement."
Donc, je ne m'inquiéterais pas de choses comme ça. Lorsque nous examinons nos algorithmes, lorsque nous examinons les changements d’algorithmes que nous souhaitons lancer, nous examinons comment réagir à ces changements. C'est l'algorithme que nous utilisons de la bonne manière.
Mais pour des pages individuelles, je ne pense pas que ce soit une chose qui vaille la peine de se concentrer. "
au Pogo collant respectivement Bounce à taux SERP Il y avait une autre déclaration intéressante de John Mueller. Il a déclaré dans l'un des hangouts de son webmaster que la manipulation des boutons de retour dans le navigateur ne nuirait pas au classement. Ce serait un moyen facile d’influencer positivement le taux de rebond au SERP. Plus d'informations à ce sujet dans l'article des collègues de SeoSüdwest.
Les signaux utilisateur comme facteur de classement? Plutôt indirectement que directement
Depuis que je suis impliqué dans l'optimisation des moteurs de recherche depuis près de 10 ans, aucune revendication ne persiste malgré les négations répétées de Google. Plus que les signaux des utilisateurs sont un facteur de classement direct important.
À chaque conférence que j'ai visitée ces dernières années et dans chaque deuxième billet de blog, les signaux des utilisateurs sont proclamés comme un facteur de classement important. Et bien que trois personnalités de haut niveau responsables de Google refusent l'utilisation de signaux d'utilisateur en tant que facteur de classement direct de manière très cohérente et identique.
Selon les déclarations de Google, il n’est pas contesté que les signaux des utilisateurs sont utilisés pour évaluer les modifications de l’algorithme. Cela signifie qu'ils ont également une influence indirecte sur les classements. Mais ils ne sont pas utilisés pour la notation de sites Web individuels et ne constituent donc pas un facteur de classement direct, mais à mon avis plutôt pour une identification large des fonctionnalités de page pointant vers des sites Web conviviaux. Cela pourrait par exemple certains types d'éléments de navigation, différentes formes de présentation telles que des images, du texte, des vidéos et du texte dans une taille de police particulière.
Il s'agit moins de métriques telles que les taux de clic, les taux de rebond ou le temps de rétention. Ceux-ci utilisent bien plus que des moyens pour identifier certaines caractéristiques des sites Web conviviaux ou, plus précisément, pour les identifier largement. Cela pourrait également expliquer les corrélations qui, selon certaines études, pourraient bien exister entre ces métriques et ces classements. Dans le cas de l'engagement SERP, certains tests, tels que ceux de Marcus Tandler ou Rand Fishkin, pourraient suggérer que le CTR ou même les clics longs et courts pourraient avoir un impact, du moins à court terme. Voici également la déclaration de Google contre elle.
Par conséquent, à mon avis, une optimisation des paramètres tels que le taux de rebond ou la durée du séjour n'a guère de sens du point de vue du référencement. D'abord, parce que les déclarations de Google parlent systématiquement contre. Deuxièmement, parce que les outils d'analyse Web courants ne permettent pas une image différenciée, à moins que vous ne travailliez avec de nombreux micro-événements. Bien sûr, en ce qui concerne l'ensemble du marketing en ligne ou des taux de diplomation.
Dans l'interview déjà mentionnée par Sistrix, il existe des opinions divergentes sur les signaux des utilisateurs en tant que facteur de classement. Le ton commun du tour presque complet, cependant, est que les signaux des utilisateurs ne sont pas un facteur de classement direct. À l’engagement SERP sous forme de CTR, les clics longs et courts sont lus Sebastian Erlhofer un plus grand impact du classement. Tobias Black et Johannes Beus soutenir mes hypothèses exprimées ici. S'il vous plaît voir pour plus d'informations intéressantes:
En résumé, je pense pouvoir capturer les éléments suivants:
Les signaux utilisateur tels que les taux de rebond, les temps d'arrêt ne constituent pas un signal de classement direct! Dans le cas de l'engagement SERP, certains tests, tels que ceux de Marcus Tandler ou Rand Fishkin, pourraient suggérer que le CTR ou même les clics longs et courts pourraient avoir un impact, du moins à court terme. Optimiser vos propres taux de rebond et vos temps de rétention peut permettre d'identifier certaines fonctionnalités actuellement conviviales pour les sites conviviaux et qui constituent des facteurs de classement. Ce n'est pas obligé! Dans tous les cas, vous devriez regarder des sites Web très bien classés et vous demander quels éléments de ces sites pourraient être conviviaux par rapport au contexte respectif.
Un autre mythe fréquemment évoqué à travers le village lors des conférences et des blogs est la grande importance de la rapidité des pages pour le classement. Page Speed: Quelle est l'importance des temps de chargement en tant que facteur de classement pour le référencement? J'ai pris ça à part.
J'ai résumé d'autres mythes sur le référencement dans un article destiné aux collègues de Zielbar.
Arrête de suivre à l'aveuglette et forme ta propre opinion
Si vous avez certains de mes messages plus anciens comme Image de marque et nouveau classement Google: Pourquoi le référencement ne suffit plus … ou Ces 11 développements marketing en ligne que vous auriez dû lire à l'écran, vous trouverez également la référence aux signaux des utilisateurs comme facteur de classement possible. Mais les déclarations claires et cohérentes de Google sur ce sujet au cours des deux dernières années sont tellement claires et laissent peu à désirer. C'est pourquoi j'ai relativisé mon opinion ici quelque chose.
Les signaux d'utilisateur ne sont, à mon avis, qu'un facteur de classement indirect.
La plupart des référenceurs aiment consulter les sources de Google pour appuyer ou prouver l'exactitude de leurs déclarations. Mais apparemment seulement si cela convient à son opinion. Dans le cas des signaux utilisateur en tant que facteur de classement, de nombreuses sources Google le réfutent. Mais curieusement, les signaux des utilisateurs ne sont jamais liés à ces sources Google. Malheureusement, comme dans l'exemple ci-dessus, Rand Fishkin les déforme souvent pour les adapter à leur propre opinion. En quelque sorte pas très cohérent, non?
C’est l’une des raisons pour lesquelles une semaine ne se passe pas sans que les experts en référencement cherchent à optimiser leurs taux de rebond, leurs taux de clic et leur temps de rétention, dans l’espoir d’obtenir un meilleur classement. Ou il est prétendu que UX est le nouveau référencement. Très confiant et libre de critiques, si on considère les déclarations claires de Google contre elle. Peut-être est-ce dû à la passion des SEO pour les hacks tactiques rapides et les victoires rapides que cette conviction persiste si obstinément.
Les temps nécessaires pour les référenceurs ne sont pas devenus plus faciles et la discipline autrefois tactique du référencement est devenue en grande partie un outil stratégique. Pas si facile de trouver des victoires rapides clairement identifiables. Étant donné que les signaux des utilisateurs viennent comme des signaux de classement tout à fait juste.
S'il vous plaît ne vous méprenez pas! L’optimisation de la convivialité et du taux de conversion sont généralement très utiles pour le marketing en ligne, mais ne permettent indirectement, selon Google, d’améliorer, le cas échéant, le classement. J'espère maintenant à cause de l'état des choses encore une fois les collègues pressés, qui leurs théories de positionnement "UX est le nouveau référencement"Ou"CRO est le nouveau référencement"Reportez-vous aux blogs et aux conférences du monde du marketing en ligne.
Je ne veux pas dire qu'il serait logique que les signaux des utilisateurs constituent un moyen adéquat d'évaluer la qualité du contenu et des sites Web. Peut-être que Google finira par en faire un facteur de classement direct. Enfin, Google proclame des sites Web conviviaux. Mais étant donné que des tests valables sont actuellement manquants et difficiles à mettre en œuvre isolément, il convient de croire avant tout aux déclarations de collègues de Google et non à l'opinion de nombreux experts en référencement qui affirment qu'il n'y a pas mieux que de certitude.
On devrait souvent se remettre en question quand quelque chose est un fait, quand quelque chose est une spéculation et quand quelque chose est un mythe. Ce n'est pas un fait, simplement parce que quelque chose semble logique ou sort de la bouche d'un influenceur ou d'une autorité digne de confiance. Surtout lorsque vous vous appelez un expert, il est impératif d'avoir vos propres opinions bien fondées et de ne pas accepter tous les soi-disant "faits" donnés.
En général, l'optimisation des moteurs de recherche suscite toujours beaucoup de spéculations et de vœux pieux. Je ne peux pas me libérer complètement de cela. Mais très important: les spéculations doivent également être formulées de cette manière, c’est-à-dire au subjonctif ou avec une référence indiquant qu’il s’agit d’une opinion en soi et non d’un fait.
C’est un bel exemple de la manière dont nous pouvons influencer l’opinion générale et accepter les faits comme des faits, mais en aucun cas sur des bases solides et même niés par la plus haute autorité. Il s’agit d’un phénomène social qui ne se limite pas à l’industrie du référencement. Alors, les théories du complot se développent rapidement.
Développer votre propre opinion ou théorie, qui est valable, prend du temps et nécessite de l'expérience. Comme nous sommes souvent paresseux, nous aimons suivre la foule. Ce que la plupart des gens font aura raison. Cela économise du temps, de l’énergie et n’a plus besoin d’être pensé. Il est plus facile de répéter ce qui a été dit que de développer votre propre opinion, voire opposée, et éventuellement de la défendre contre les masses.
Mais les experts devraient le faire encore et encore. C'est pourquoi ils sont des experts. Voici quelques conseils sur la façon de développer ma propre opinion et de valider les propos que j'entends moi-même.
Conseils pour valider les déclarations
Surtout lorsque vous entendez quelque chose d'excitant et de nouveau, ce qui a du sens, vous êtes euphorique au sujet du point de vue nouvellement appris ou nouveau. Nach einer kurzen Phase der Euphorie über die neuen Ansätze sollte man kurz innehalten und folgende Dinge tun:
Recherchieren, ob es Aussagen aus verifizierter Quelle dazu gibt, die es bestätigen oder widerlegen.
Den eigenen Kopf anschalten und nach Denkfehlern in der Argumentation suchen.
Eigene kleine Untersuchungen machen.
(Mit eigenen Projekten) eigene Erfahrungen sammeln.
Der Sau folgen oder es sein lassen.
Damit minimiert man das Risiko, Ressourcen in Maßnahmen zu verschwenden oder in Sackgassen zu laufen.
Und zum Schluss nochmal: Nur weil etwas auf den ersten Blick logisch und sinnvoll erscheint, muss es nicht der Wahrheit entsprechen. Viele der Verschwörungstheorien aus der Politik und dem Weltgeschehen klingen erst einmal logisch, was jedoch nicht bedeutet, dass sie wahr sind.
Wer mehr über aktuelle Missverständnisse und Mythen aus der SEO-Welt lesen will, dem empfehle ich auch meinen Beitrag bei den Kollegen von Zielbar.
Facilitez le travail de Google et le moteur de recherche adorera votre site Web. Nous vous montrerons les astuces les plus importantes pour une indexation plus rapide et une analyse efficace.
Le temps est un atout important et toujours serré. Même le Googlebot n'a qu'un temps limité et donc un budget d'exploration. Toutefois, comme le bot décide d’inclure votre site Web dans l’index de Google, vous devez le lui faciliter le plus possible. Nous vous donnerons aujourd’hui quelques conseils importants sur la meilleure indexation du contenu de votre moteur de recherche et vous montrerons comment nettoyer votre page pour que Google puisse indexer votre page plus facilement.
Votre site web comme une maison sur la carte
Si vous comparez Internet à une grande carte lorsqu'un domaine correspond à une maison construite sur cette carte, les sous-pages de ce domaine sont identiques aux pièces ou aux étages d'une maison. Googlebot est un visiteur de votre maison dans ce monde. Plus vous avez de portes et mieux votre site Web est structuré, plus ce visiteur peut facilement rechercher du contenu sur votre site et l'enregistrer pour une visite ultérieure. Parce que c'est l'une des tâches principales de Googlebots: suivre les URL et enregistrer les URL.
Si Googlebot ne peut pas indexer votre site Web, il n'y aura pas de lien vers vos pages dans les SERPs de Google. Cela signifie que vous ne pouvez pas trouver votre page avec Google. Même si Googlebot rencontre des pages orphelines ou que vos sous-pages renvoient des codes d’état HTTP incorrects, Googlebot peut ne pas envoyer ces URL à l’index. Dans les cas extrêmes, Googlebot n'explorera plus ces pages.
Lorsque Googlebot visite votre site Web
Une des premières étapes conduit le Googlebot au fichier appelé robots.txt. Dans ce fichier, vous indiquez quelles zones de votre site Web Googlebot peuvent ou non visiter. Ensuite, vous déposez ce fichier sur votre site Web, par exemple. donc www.meineseite.de/robots.txt. Comment faire un fichier robots.txt, vous pouvez le lire ici dans le wiki de SEO Expertise.
Le fichier robots.txt doit également contenir l'URL de votre plan Sitemap. Il s’agit du fichier dans lequel vous pouvez répertorier toutes les URL de votre site Web lisibles par machine de Googlebot. Par conséquent, à l'étape suivante, nous allons vous montrer comment créer et utiliser un sitemap XML.
Google montre ce que vous avez: comment envoyer un sitemap XML
Pour que Googlebot indexe toutes vos pages importantes, il est préférable d’utiliser un plan du site sans défaut. Vous y transférez toutes les URL de votre site Web.
Un sitemap XML en tant que document lisible par une machine doit contenir les éléments suivants:
Figure 1: Balises obligatoires pour le sitemap XML
Outre les balises obligatoires, votre sitemap peut également contenir d'autres balises.
Ici, vous pouvez spécifier au format AAAA-MM-JJThh: mmTZD, lors de la dernière modification du plan Sitemap.
Cela donnera à Googlebot une indication de la fréquence de modification du plan du site. Les valeurs possibles sont: toujours (la page changera chaque fois que vous y accéderez), toutes les heures (Par heure), tous les jours (Daily), hebdomadaire (Hebdomadaire), mensuel (Mensuel) annuel (Annuellement) jamais (jamais, utilisable pour les URL qui sont dans l'archive). Vous ne devez utiliser cette balise que si vous pouvez la faire correspondre à n’importe quelle URL. Cela devrait montrer au robot que le contenu change et qu'il visite la page plus souvent. Il ne serait pas logique d’utiliser la balise "changefreq always" pour toutes les URL de votre site Web.
Cette balise vous permet de hiérarchiser vos URL. La valeur 1.0 correspond à la priorité la plus élevée et 0.1 à la priorité la plus basse.
Important: L'utilisation des balises Fréquence de changement et Priorité n'affectera pas le classement de votre site Web. Ils servent uniquement à contrôler plus efficacement le travail de Googlebots.
Jusqu'ici la théorie. Maintenant, il faut pratiquer: créer le plan du site.
Bien entendu, pour la plupart des sites Web, la création manuelle d'un tel fichier serait une tâche extrêmement longue. C'est pourquoi il existe des outils correspondants sur le Web que vous pouvez trouver ici:
Certains CMS ont déjà une fonctionnalité qui vous permet de créer un sitemap XML par clic. Bien sûr, vous pouvez aussi les utiliser.
Ce que vous devriez rechercher dans votre sitemap
Si vous indiquez à Google les URL de votre site Web via le plan du site, vous devez faire attention à quelques points, afin qu'aucune erreur ne se produise et que le plan du site ne puisse être lu correctement. Les générateurs de sitemaps couramment utilisés ou votre CMS généreront des sitemaps corrects. Néanmoins, vous devriez alors vérifier les aspects suivants de votre dossier.
Liste de contrôle pour la création correcte d'un sitemap:
Le codage du sitemap doit toujours être au format UTF-8.
Les trémas et les caractères spéciaux dans les URL doivent être convertis en codes d'échappement. L'URL www.meineseite.de/büro sera répertorié sous le nom www.mysite.com/b%FCro dans le plan du site.
Les URL doivent avoir une syntaxe uniforme. Si votre page est principalement accessible via http://www.mysite.com, il ne devrait pas y avoir de sous-pages dans le sitemap au format http://myeseite.de ou https://www.myeseite.de.
Il ne doit y avoir aucun ID de session dans les URL soumises dans le plan Sitemap. Ces identifiants sont généralement ajoutés à l'URL réelle pour identifier de manière unique les utilisateurs lors de leur visite.
Si votre page est disponible dans plusieurs langues, indiquez-le dans la balise Sitemap by hreflang.
exemple:
Vous avez maintenant les bases pour créer un plan du site. Toutefois, nous aimerions attirer votre attention sur deux autres formulaires spéciaux: les plans Sitemap qui s’écartent de la norme.
Cas particuliers: plans Sitemap pour vidéos, images, sites Web mobiles ou actualités
À l'aide du plan Sitemap XML, vous pouvez non seulement répertorier les URL des sous-pages de votre site Web, mais également des liens vers des vidéos, des images, des URL de mobile ou des actualités. Plus important encore, vous marquez ces types de contenu dans la balise du plan du site respectif.
Figure 2: Cas spéciaux pour le sitemap
Si votre site Web contient de nombreuses images, nous vous recommandons de créer également un sitemap pour l’image. La même chose s'applique aux vidéos. Un sitemap pour les actualités n’est important que si vous souhaitez apparaître dans Google Actualités avec votre site Web. Pour être éligible au programme Google Actualités, des conditions particulières s'appliquent. Vous les trouverez ici.
Passons au point suivant: création de plans Sitemap pour de très grandes pages Web.
Sitemaps fractionnés pour les grands sites Web
Si vous souhaitez répertorier un grand nombre d'URL dans un plan Sitemap, il est recommandé de les diviser en plusieurs petits plans Sitemap. Fondamentalement, chaque sitemap doit faire moins de 50 mégaoctets et pas plus de 50 000 URL.
Si vous avez plusieurs sitemaps, il est préférable de créer un fichier d'index Sitemaps à partager avec Googlebot. Cela ressemble à ceci pour trois sitemaps:
Il est important que le fichier central soit fourni avec la balise sitemapindex. En outre, vous devez indiquer chaque jour où vous avez enregistré le plan du site correspondant. En option, il s'agit également de la dernière modification des fichiers Sitemap.
Maintenant, vous avez rencontré presque tous les scénarios. Passons maintenant à l'étape pratique: soumettre le plan du site.
Comment envoyer votre plan Sitemap à la console de recherche Google
Tout d’abord, sauvegardez votre sitemap, vos sitemaps ou votre fichier d’index sur votre serveur afin de pouvoir les récupérer via une URL fixe. Copiez ces URL.
Connectez-vous ensuite à Google Search Console.
Si vous n'avez pas encore utilisé de plan Sitemap, cliquez sur "Aucun plan Sitemap" dans le volet de droite du tableau de bord de la console de recherche.
Figure 3: Mettre en place des sitemaps
Cliquez sur le bouton rouge "Ajouter / tester un plan du site" à la page suivante.
Entrez ensuite le chemin d'accès au fichier Sitemap stocké.
Si vous souhaitez commencer par tester votre sitemap pour détecter les erreurs, cliquez sur "Tester le sitemap". Ensuite, vous recevrez une évaluation du fichier avec des informations sur les erreurs possibles, sans que le fichier soit transféré à Googlebot.
Cela pourrait alors u.a. ressembler à ceci:
Figure 4: Aperçu des erreurs Sitemap
Si tout est correct, vous compléterez votre sitemap.
Important: Placez également l'URL du sitemap dans votre fichier robots.txt afin que Googlebot puisse le récupérer avant d'explorer votre page.
A quoi peut ressembler un fichier robots.txt avec une référence au plan du site, vous pouvez voir ici:
Il est important que votre sitemap soit toujours à jour. Mettez toujours le fichier XML à jour chaque fois que les URL de votre page ont été modifiées ou que de nouvelles URL ont été ajoutées. Incidemment, le principe de rapidité s’applique également à votre site. Dans la section suivante, nous allons vous montrer comment nettoyer votre page en prenant soin des pages orphelines et des 404 pages d'erreur.
Nettoyage régulier
Si vous affichez toutes vos URL dans Googlebot avec le plan du site, vous devez également vous assurer que leur contenu est toujours à jour et disponible. En effet, si Googlebot rencontre 404 pages d'erreur plus souvent, vos sous-pages risquent de ne plus être indexées par les moteurs de recherche. Avec les pages orphelines, il peut arriver que le bot ne les trouve pas et ne puisse donc pas les transmettre à l'index.
Trouver 404 pages
Lorsqu'un utilisateur clique sur une URL de votre page qui n'existe plus, votre serveur émet généralement un code d'état 404 (introuvable). Ceci est insatisfaisant pour chaque visiteur et votre référencement. Googlebot gaspille également des ressources inutiles en visitant ces pages. Par conséquent, essayez d'éliminer ces pages d'erreur 404.
Procédez comme suit.
Avec la console de recherche Google, si vous cliquez sur Erreurs d'exploration, vous trouverez toutes les erreurs 404 dans la section Analyse.
Figure 5: Trouver 404 pages d'erreur
Même avec SEO Expertise, vous pouvez identifier les erreurs 404. Dans le module Réussite de site Web, cliquez sur "Indexabilité", puis sur "Codes d'état".
Figure 6: Trouver les 404 erreurs via les codes d'état
Vérifiez ces pages maintenant.
Le contenu de "l'ancienne" URL est-il disponible sur une "nouvelle" URL? Ensuite, vous pouvez facilement rediriger l'ancienne URL vers la nouvelle via 301-redirect. Théoriquement, vous pouvez également effectuer cette étape lors de la redirection vers des contenus similaires de votre domaine.
Ne pouvez-vous pas rediriger les URL? Ensuite, vous devriez concevoir une page d'erreur attrayante. Donnez à l'utilisateur la possibilité de rechercher sur votre site ou donnez-lui des recommandations sur des sujets ou sous-pages similaires.
Pages orphelines
Les pages orphelines peuvent interrompre l’exploration de Googlebot sur votre site Web. Parce que ces pages sont des pages Web qui ne sont ni accessibles via des liens entrants, ni reliées par des liens internes au reste de votre site Web.
Trouver des pages orphelines est un peu compliqué. Pour ce faire, les webmasters doivent créer une liste de toutes les URL de la page Web et les comparer aux URL réellement explorées.
Etant donné que les robots d'exploration ne trouvent pas de pages orphelines, vous ne pouvez filtrer les pages non analysées et donc orphelines en juxtaposant votre liste avec celle-ci.
Il existe différentes raisons pour les pages orphelines. Si vous trouvez de telles sous-pages, qui proviennent de liens internes défectueux, vous devez corriger les liens internes le plus rapidement possible.
Si vous trouvez des pages orphelines dont le contenu est également nul ou incorrect, vous pouvez les supprimer.
Lors de la correction des pages d'erreur 404 et après la suppression des pages orphelines, vous devez mettre à jour votre plan Sitemap. En vérifiant l'index Google, vous vous assurez que l'indexation de votre site Web est optimisée et que seul le contenu actif entre dans l'index Google.
Si vous optimisez l'indexation de vos pages Web en nettoyant et en soumettant un plan Sitemap, il existe encore une autre étape importante, souvent oubliée: la surveillance. Nous arrivons à cet aspect dans la dernière section.
Surveillance permanente
Il est important de savoir comment Google indexe votre page. Vous pouvez ainsi réagir rapidement aux erreurs et éviter que votre page ne perde des classements ou des pièces non indexées.
Pour voir l'état de vos pages indexées, vous pouvez utiliser Google Search Console.
Connectez-vous à votre compte Google, puis cliquez sur l'élément de menu "Index Google" situé à gauche, puis sur "Statut d'indexation". Vous obtiendrez ensuite un aperçu de l'historique d'indexation Google de votre site Web.
Figure 7: état de l'index
Si vous découvrez ici que le nombre de pages indexées diminue rapidement, même si vous produisez toujours de nouveaux contenus, et donc des pages, vous devriez aller au fond des choses.
Bien que Google ne garantisse pas l'indexation des URL envoyées via le plan Sitemap, vous devez également surveiller la proportion de pages soumises par rapport à celles indexées. Si le nombre d'URL envoyées est considérablement plus élevé que le nombre réellement indexé, des erreurs sur vos pages peuvent également empêcher Google d'indexer.
Connectez-vous à la console de recherche. Ensuite, vous voyez déjà dans la partie supérieure droite "Plan du site" le nombre de pages soumises qui ont été effectivement indexées. Cliquez sur "Plan du site" pour obtenir un aperçu des plans du site que vous avez envoyés.
Figure 8: Vue d'ensemble des sitemaps soumis
Les indices suivants aident au dépannage:
Vérifiez votre fichier robots.txt. Les zones de page importantes sont-elles exclues ici?
Vérifiez l'utilisation correcte des balises Canonical. Est-ce que vos tags Canonical font référence à la bonne page? Utilisez-vous la même syntaxe?
Vérifiez si vous utilisez correctement la balise noindex. Excluez-vous éventuellement des sous-pages de votre site Web?
De manière sporadique, vous pouvez également consulter une requête de site sur la recherche Google, pour savoir si des pages individuelles de vous figurent dans l'index.
Dans la barre de recherche, vous entrez ensuite: site: www.meineseite.de/unterseite Après avoir cliqué sur "Rechercher", votre page apparaîtra avec un extrait de code dans les SERP, si elle est indexée.
Il est important que vous vérifiiez régulièrement le statut d'indexation de votre site après avoir apporté des modifications au site ou ajouté de nouvelles URL. Toutefois, même si vous apportez des modifications importantes au site Web, il est important de créer un plan de surveillance et de regarder Weekly dans la console de recherche.
SEO Expertise est également utile pour surveiller votre site. Si vous allez dans le menu "Indexabilité" puis cliquez sur "Robots.txt", vous obtiendrez immédiatement toutes les sous-pages de votre domaine, qui sont bloquées par le fichier robots.txt.
Figure 9: Fonctionnalité SEO Expertise Robots.txt
Vous pouvez également vérifier si des sous-pages individuelles de votre site Web sont également répertoriées dans votre fichier de sitemap. Pour ce faire, cliquez sur le sous-élément "Dans les plans Sitemap" dans le rapport "Plan du site".
Figure 10: Vérifier les bases individuelles avec SEO Expertise
conclusion
Aujourd'hui, nous vous avons montré comment optimiser l'indexation de votre site Web à l'aide du plan du site et du rangement. Nous avons expliqué tous les aspects importants pour la création du plan du site. Nous vous avons également montré comment trouver 404 pages d'erreur et pages orphelines, et pourquoi il est important de les modifier.
Rappelez-vous toujours qu'un plan du site correct n'est pas une garantie pour un bon classement. Vous simplifiez simplement le travail de Googlebot et pouvez gérer de manière optimale son budget d'analyse. Cela facilite l'indexation et crée ainsi les conditions permettant à votre page d'obtenir un bon classement. Lors du nettoyage de votre site, vous pouvez non seulement gagner du temps pour le bot, mais également lui permettre de créer de la valeur pour vos utilisateurs et de les aider à trouver ce qu'ils recherchent. Et c'est l'objectif principal de l'optimisation des moteurs de recherche. En ce sens: Bonne optimisation!
Consultez votre fichier Robots.txt avec SEO Expertise et aidez Google crawl
L'établissement d'une marque jouera un rôle de plus en plus important dans le classement du contenu à l'avenir. Pourquoi l'optimisation des moteurs de recherche (SEO) n'est qu'une tâche de plus pour influencer le classement des moteurs de recherche et le marketing devient de plus en plus important, j'explique ci-dessous.
Mes contributions au repositionnement de l’optimisation des moteurs de recherche, du référencement dans le mix marketing et de la construction de liens Quo Vadis? Relations publiques, marketing ou référencement? sont comme une lecture introductive dans le sujet également très bien adapté.
Ma présentation d'avril 2014 au Marketing Forum dans le cadre de la Hannover Messe aborde également de manière plus approfondie le sujet suivant:
À l'avenir, il deviendra de plus en plus important pour Google de devenir une marque et une autorité dans un domaine spécifique. Je vais expliquer ci-dessous que la différence entre la perception d'une marque par Google et un être humain n'est plus si grande. Tout d'abord, la conceptualité de la marque elle-même.
Définition et démarcation: marque, autorité et entité
Pour commencer, je voudrais d'abord perdre quelques mots de base sur les termes marque, autorité et, en termes de recherche sémantique, le terme entité.
marque
Une marque est définie par les caractéristiques suivantes:
En vertu de la loi, une marque est une marque
A une promesse de marque: qualité et confiance
Est la base d'une relation émotionnelle mutuelle, la fidélité à la marque …
A la notoriété ou la popularité
Peut être icône de statut
Peut également être un phare ou une autorité dans un ou plusieurs domaines thématiques
autorité
Bien qu'une marque puisse bénéficier d'une large popularité sociale, les autorités sont plus susceptibles de prendre en compte un segment social particulier, par exemple. une industrie ou un domaine lié. Ici la réputation joue un rôle crucial moins de popularité. En outre, Julian a écrit sur SEOkratie également une bonne contribution. L’objectif doit toujours être d’être la première source d’information au sein d’un secteur et donc le phare du secteur. C’est la seule façon de faire face avec calme au choc de contenu attendu.
entité
En sémantique, une entité est identifiée de manière unique par un identifiant et des propriétés particulières. Les entités font toujours partie d'une ontologie. Le graphique suivant, tiré de la présentation de la recherche sémantique SEOcampixx donnée par ma collègue Svenja Hintz, montre que les entités au sein d’ontologies peuvent également être en relation.
Classement de l'avenir = SEO et marketing
Jusqu'à présent, le marketing n'a joué qu'un rôle dans l'optimisation des moteurs de recherche en termes de concepts propres à la marque. Devenir une marque ou une autorité dans un domaine spécifique pourrait être masqué par les référenceurs à l'ère pré-Hummingbird. Mais au plus tard, avec l’introduction définitive de la recherche sémantique dans la mise à jour Hummingbird et les efforts de Google pour établir le rang d’auteur, de nombreux facteurs influant sur le changement de classement.
Du document à l'autorité
Avant 2013, la quasi-totalité de l'optimisation des moteurs de recherche concernait le document html à optimiser lui-même et ses liens externes. Pour la vue d'ensemble des critères de classement, dater un aperçu un peu plus ancien de l'article Le classement de Google dans le changement: Critères de classement et référencement d'hier, d'aujourd'hui et de demain.
Influence directe de l'optimisation des moteurs de recherche plus tôt
Les smileys souriants au niveau des points individuels représentent les optimiseurs de moteurs de recherche qui ont été en mesure d’influencer directement ces points et ont ainsi été les principaux interlocuteurs en matière de visibilité sur les moteurs de recherche. Mais même dans les années qui ont précédé Hummingbird, de plus en plus de facteurs ont été ajoutés, qui n'étaient plus directement influencés par les moteurs de référencement tels que la personnalisation croissante (telle que la localisation). J'ai fourni ces points dans l'aperçu suivant avec des smileys qui pleurent.
Influence directe de l'optimisation des moteurs de recherche jusqu'à aujourd'hui
Cependant, ce qui représente à l'avenir une sorte de révolution dans les facteurs de classement, c’est que l’introduction de la recherche sémantique, l’éloignement du document sur le créateur ou l’auteur, la marque, l’autorité ou le domaine lui-même et la personnalisation plus poussée des SERP en fonction de l’individu. Le comportement des utilisateurs dépend de nombreux facteurs, qui ne sont plus directement influencés par l'optimisation des moteurs de recherche. Les effets de cette évolution sont déjà manifestes dans des industries très concurrentielles. Dans les niches, il est encore suffisant de fournir un bon classement avec les techniques de référencement habituelles. Les effets deviendront progressivement plus visibles avec "l'apprentissage de l'algorithme de Hummingbird".
Sphère d'influence directe sur le futur de l'optimisation des moteurs de recherche (cliquez sur l'image pour l'agrandir)
En plus de la déclaration suivante à laquelle je me tiens à 100% et que tout le monde ne goûte pas:
Au moins 50% des signaux de classement ne sont plus directement influencés par le référencement
… l'autre partie concerne le marketing, les relations publiques, le marketing dans les médias sociaux et l'optimisation de la convivialité ou de la conversion. Alors que le référencement se concentre sur l'optimisation technique et structurelle de la page ainsi que sur la stratégie, les domaines du marketing, des relations publiques et des médias sociaux sont responsables de la stratégie de marque. L’optimisation de la convivialité est responsable de l’amélioration des signaux de l’utilisateur et contribue donc indirectement à la marque.
Responsabilités futures pour le classement de Google & Co.
À l'avenir, Google accordera une grande importance à votre pertinence en tant qu'entité, autorité et marque dans un ou plusieurs domaines. C'est pourquoi le marketing jouera un rôle clé à l'avenir, qu'il soit ou non présent dans les moteurs de recherche, en particulier sur Google. Cette thèse est étayée par des déclarations dans une interview sur stonetemple.com avec le chef de produit Bing, Duane Forrester. Il nomme les principaux facteurs de classement pour Bing comme suit:
"5 clés pour améliorer le classement des recherches" par Duane Forrester
Ici, il devient clair que les mesures classiques de référencement telles que le référencement sur page et la création de liens ne sont plus la priorité absolue.
Étant donné que vous devez convaincre Google, on peut appeler Marketing un site Web, mais aussi un auteur, une marque, une autorité ou un phare du secteur, dans l'optique de Google Branding. Mais comment Google reconnaît-il une marque ou une autorité?
Comment Google reconnaît-il une marque ou une autorité?
Si vous examinez de plus près les fonctionnalités de reconnaissance de marque mentionnées ci-dessus en termes de marque et d'autorité et que vous les associez avec des signaux, Google peut facilement commencer à utiliser vos services ou applications telles que Google Analytics, Chrome, Outils pour les webmasters, Android … maintenant. cela peut ressembler à ceci à grande échelle.
Comment Google reconnaît-il une marque?
Une marque peut être considérée comme déjà décrite concernant une certaine popularité en général ou du moins un domaine. Transférés en valeurs mesurables, ils sont par exemple:
Hauteur et développement du volume de recherche par marque et / ou domaine: Les hauteurs et l’évolution du volume de recherche par les termes de recherche associés à chaque marque en disent long sur sa popularité. Le marketing, la publicité et les relations publiques classiques peuvent influencer ces signaux.
Le rapport entre le nombre de requêtes de recherche pour la marque ou le domaine et le nombre de clics sur le résultat de la recherche: Cette hypothèse est basée sur un brevet de Google, comme expliqué dans ce post sur MOZ. Si le taux de clics sur une annonce est supérieur à la moyenne pour une requête de recherche, Google peut associer le terme de la marque au domaine et identifier la marque sans lien direct.
Comment Google reconnaît-il une autorité?
Une autorité est principalement identifiée par la réputation et la confiance. Les signaux suivants que Google peut utiliser pour cela:
Pour influencer le classement, il est nécessaire de se concentrer sur les clients et les utilisateurs, et non sur le moteur de recherche. Cela implique de promouvoir des signaux utilisateurs positifs, un attachement émotionnel à la marque ou au site web, une popularité et une réputation croissantes et la création d'une entité. Cette base s’ajoute à la détermination du sujet concernant la recherche et l’analyse de mots clés, le référencement sur page en tant que structure d’information appropriée ou les liens internes, le transfert de données structurées, l’hygiène et le référencement du site Web. C'est le devoir, mais il ne suffira pas à lui seul de gagner un pot de fleurs dans les zones disputées. Ici, le travail d'équipe s'applique entre spécialistes interdisciplinaires.
Voici une citation de l'article déjà cité de MOZ de Simon Penson:
Mon conseil serait de commencer à penser en dehors de suivre des liens. Soyez heureux de gagner (et de construire) des liens et des mentions non suivis. Pensez en dehors du lien, car il y a de la valeur dans les mentions de conduite et la construction de la marque.
À mon avis, la construction du lien entre les époques touche à sa fin. Pourquoi? Je pense que la création de liens ou l'amélioration de l'optimisation de la réputation en ligne constituent une compétence essentielle des relations publiques et de la communication d'entreprise, moins du référencement. L’objectif des relations publiques et des communications d’entreprise est la construction de la marque, le positionnement sur le marché et la construction de la réputation. Les backlinks résultants sont un bel effet secondaire, mais jamais au premier plan.
Lorsque la co-occurrence devient de plus en plus pertinente, Google peut enregistrer la dénomination des marques et même reconnaître les domaines et les URL et explorer de nouveaux contenus, même s'ils ne sont pas directement liés. Le lien lui-même n'est plus. Doit avoir.
De nos jours, les moteurs de recherche ne réagissent plus seulement aux liens retour existants afin de reconnaître la pertinence pour un sujet spécifique, mais plutôt à un grand nombre de signaux hors page. La force de la marque elle-même, le z. B. sur le nombre de visiteurs via un accès direct ou le nombre d'accès peut être déterminé par des recherches liées à la marque, joue un rôle. Et cela peut être réalisé avec la stratégie de marque, le marketing, les relations publiques ou la communication d'entreprise.
Le classement des contenus individuels ainsi que la visibilité d'un domaine seront probablement déterminants à l'avenir, en plus de l'optimisation technique des moteurs de recherche en créant une réputation ou une marque et tous les signaux ou effets qui lui sont associés.
Enfin, ma présentation à la FH-Hanovre à la mi-avril, etc. sur ce sujet:
Écrire des textes en ligne est ennuyant. Même pour les rédacteurs expérimentés, il ne s'agit généralement que de phraséologie, car ils respectent les consignes de référencement. Mais comment rendre cette tâche laborieusement obligatoire plus agréable et plus intéressante pour le lecteur? Je veux vous dire dans ce post.
Dans le meilleur des cas, votre client a créé un briefing exemplaire ou vous le savez en tant qu’opérateur de site Web avec votre produit ou votre service. Dans le pire des cas, vous ne savez rien du sujet. Ensuite, vous ne pouvez pas contourner une recherche. Cela ne devrait pas faire partie de l'article. Comme petit conseil, j'aimerais vous donner des textes Web similaires sur le sujet, c’est-à-dire les rangs 1 à 3. Si vous le savez, vous pouvez commencer.
avertissement: Ne vous inquiétez pas des mots-clés pour le moment, mais ajoutez-les bien sûr et ajoutez plus tard, dans le post, d'autres modifications, si nécessaire.
1. Créer un contour
Je pense qu'il y a deux types de personnes. Ceux qui planifient un texte à l’avance et ceux qui commencent tout juste à écrire. Comme il est plus facile pour les débutants d’écrire un texte, s’ils s’en tiennent à un contour, ce point vient en premier.
Mettez-vous à la place de votre lecteur et demandez-vous ce que vous attendez d'un tel texte. Réfléchissez à ce que vous voulez transmettre et à la meilleure façon de structurer cette information dans un texte continu. Commencez par le titre et ajoutez progressivement les sous-titres.
Avec cette méthode, la longueur d'un texte peut être très bien calculée. Supposons que votre nom comporte cinq en-têtes et 700 mots. Ça fait 140 mots pour chaque rubrique, Cela ne semble pas si effrayant.
Vous pouvez ensuite utiliser votre plan en tant que table des matières pour permettre à vos lecteurs de naviguer plus facilement dans l’article.
Figure 1: Exemple de contour
2. Ecrire une introduction
Imaginez le texte comme un argumentaire. Dans un tel cas, vous ne tueriez pas le client avec les faits réels. Vous devez le toucher, lui donner envie du produit.
Il est logique de garder l’introduction assez simple. Donner au lecteur une description sommaire de ce qui l'attend. Formulez des phrases courtes et concises qui facilitent la tâche.
Selon une étude réalisée par Chartbeat.com qui a analysé 2 milliards de visites sur différents sites Web sur une période d'un mois, 55% des utilisateurs passent moins de 15 secondes sur une page. Même avec des pages de contenu pur, au moins un des trois utilisateurs a montré ce comportement.
Supposons donc que vous ne disposiez que de 15 secondes pour gagner le lecteur. Cela fonctionne mieux avec un teaser, qui est encore avant l'introduction réelle.
Lors de la formulation, vous pouvez suivre le schéma suivant:
Figure 2: Capture d'écran "Comment le marketing vidéo peut améliorer votre classement"
De quoi s'agit-il? = Le marketing vidéo comme outil de marketing efficace.
Qu'est-ce que je reçois? = 5 astuces pour l'optimisation.
Avec quel résultat? = Meilleur classement et plus de trafic.
Comme vous pouvez le constater, la lecture de ce teaser ne prend pas 15 secondes et permet toujours de refléter la valeur ajoutée de l'article. Suit une introduction plus détaillée qui embellit davantage le sujet sans en anticiper le contenu.
3. Composez la partie principale
Suit maintenant les documents dans lesquels vous apportez du contenu. Voici quelques cintres pouvant être utilisés pour rassembler suffisamment de texte:
1. L'explicative
Fondamentalement, vous expliquez votre service ou votre produit plus en détail, vous donnez des conseils sur ce à quoi faire attention et vous montrez des solutions à un problème. Bien sûr, cela n'a aucun sens d'expliquer à quelqu'un ce qu'est une étagère de salle de bain. Dans ce cas, vous auriez recours à des alternatives, par exemple: "Comment assembler au mieux les étagères de la salle de bain au mur?" Ici aussi, laissez vos expériences et anecdotes entrer, celles-ci sont souvent plus intéressantes que des informations purement théoriques.
2. Le guide
Comme dans un vrai discours de vente, le client est à la recherche d'informations et où pourrait-il les trouver mieux que dans un texte long sur votre page? Répondre au public vous permet de regrouper les questions les plus courantes sur le mot clé que les utilisateurs ont sur votre produit ou service. À partir de ces questions, vous pouvez inclure les plus appropriées dans votre texte et y répondre. Soit directement avec la question, soit indirectement dans le corps du texte. Vous pouvez vraiment utiliser cette source de contenu. Plus le texte est important pour votre classement, plus vous devez enregistrer de points.
3. Le conteur
Si votre service ou votre produit contient une histoire passionnante, intégrez-la dans votre texte. Si c'est juste une histoire ennuyeuse, racontez-la passionnante. Les informations de fond signifient plus de texte, plus de moyens d’adapter votre mot clé et de le rendre naturel.
Figure 3: Attirer l'attention à travers une histoire. (Source)
4. Le scientifique
Recherchez des études et des articles intéressants sur le sujet sur lequel vous écrivez et intégrez-les dans le texte. Nous, êtres humains, aimons les chiffres et les faits car ils nous aident à classer les informations que nous lisons. Comme vous le verrez bientôt, il présente également un avantage pratique en ce qui concerne la composition de numéros.
4. structure
Il est maintenant temps de donner un formulaire au bloc de texte non terminé. Le groupe Nielsen Norman a découvert dans une étude réalisée à la fin des années 90 que les utilisateurs avaient tendance à numériser des textes Web. Une étude oculaire de 2017 corrobore ce résultat et montre les modèles populaires avec lesquels les utilisateurs écrivent des textes.
Très commun est le F-forme, Dans la partie supérieure, certaines sections sont lues horizontalement, avant qu'un petit saut ne soit effectué pour lire un autre passage. Ensuite, l'utilisateur entre dans un schéma de lecture vertical et se concentre fortement sur le côté gauche du texte.
Cet exemple montre comment le schéma F peut être neutralisé. Non seulement les énumérations sont en retrait, mais le début est également mis en gras. En dessous, une boîte grise sur laquelle le lecteur, pour ainsi dire, "rebondit".
Figure 4: Capture d'écran "Mon premier projet de référencement: où et comment commencer?"
Autres modèles d'analyse:
Couche motif gâteau: Ici, le lecteur numérise le texte en ne lisant que les titres et les sous-titres.
Motif tacheté: Le lecteur saute de grands passages de texte, comme s'il cherchait une information spécifique dans le texte, telle que des chiffres ou des liens.
Motif de marquage: L'œil reste au même endroit lors du défilement vers le bas avec la souris.
Ces modèles d'analyse, parmi d'autres, montrent à quel point un texte bien structuré est important. Les titres et les mots audacieux attrapent le lecteur et peuvent le ramener avant qu'il ne saute.
Vous pouvez utiliser les outils suivants pour rendre votre texte plus facile à lire:
Sous-rubriques
talons
énumérations
Mise en évidence d'informations particulièrement importantes
Citations et tirets de passages importants
Zones d'information colorées ou astuces supplémentaires
Si nécessaire, des images
Dans cette étape, vous devez filtrer les répétitions et les informations redondantes du texte pour le réécrire ou le supprimer.
5. correct
La relecture sert également à vérifier la densité des mots-clés et à trouver les occasions négligées de l'adapter. Ne soyez pas négligent et passez plusieurs fois. Pour les phrases peu claires, une recherche sur Google ou le site Web du Duden peut aider.
Si vous souhaitez résumer à nouveau le texte clairement, ajoutez une liste dans laquelle vous reproduisez brièvement les déclarations les plus importantes. Un lecteur qui est paresseux pour lire trouve rapidement l’information qu’il recherche et peut revenir au passage de texte où le sujet est traité plus en détail.
Si tout va bien, le texte peut être mis en ligne.
conclusion
J'espère que ce guide vous aidera la prochaine fois que vous vous asseyez devant un document vierge sans savoir par où commencer. Plus vous rédigez de textes de cette manière, plus vous y entrerez en routine et travaillerez plus efficacement et plus rapidement.
En 2013, Google a fait un cadeau très spécial pour ses 15 ans. Le moteur de recherche a un oiseau, un colibri, pour être exact, et il ne fait pas que colorer le zoo. Il ne s’agit pas d’une mise à jour anti-spam à la panda ou un manchot, qui sépare la paille du blé, mais d’un algorithme complètement nouveau (voir aussi Hummingbird: informations sur la mise à jour la plus importante de l’algorithme de Google depuis 2001).
Comme Google le décrit lui-même comme un changement de moteur, le moteur de recherche s’est permis un nouveau lecteur. Le colibri sonne enfin le recherche sémantique ce qui, grosso modo, signifie qu’elle peut maintenant récupérer les connaissances différemment. Toutes les données sont maintenant structurées sous forme de graphiques, offrant ainsi de nouvelles possibilités intéressantes d’attribuer une ou plusieurs significations au contenu.
Il ne s'agit pas que de mots-clés, il s'agit de nœuds et de bords
Google veut donner à chaque utilisateur, à tout moment, n'importe où, les réponses les plus pertinentes aux questions de la vie. Son efficacité dépend de ce que l'utilisateur révèle à propos de lui-même. Mais si tel est le cas, les résultats deviendront tellement personnalisés à l'avenir qu'il n'y aura plus de résultats "neutres". Pour le référencement, cela change un concept fondamental: il n'y a plus de place pour un mot clé spécifique dans le formulaire. Cela dépend plutôt du contexte de l'utilisateur, ce qui revêt des dimensions très intéressantes au regard des appareils mobiles.
Si cela se produit réellement avec la recherche sémantique telle que Google l’imagine, le référencement n’est plus ce qu’il était. Le référencement n’est pas mort alors, au contraire, l’optimisation est encore plus intense, car les moteurs de recherche sémantiques ne sont plus de petits enfants qui peuvent être éblouis par quelques mots clés stratégiquement placés. Au lieu de cela, ils regardent derrière la façade et se concentrent sur les valeurs intrinsèques d'une présence en ligne.
Mais non seulement les utilisateurs, mais aussi les sites Web deviennent des êtres significatifs. Google veut apprendre à tous les connaître et à se comprendre ou à rester éloignés les uns des autres. Le classement dans la recherche sémantique porte donc sur l'identité, l'intention, le sens, le contexte, l'association et les relations.
Google devient intime, montrez-lui ce que vous avez dessus
Avec un réseau de produits impressionnant, Google fait avancer la fusion des humains et des machines et veut devenir une interface indispensable entre le online et le offline. Imaginez un appareil que vous portez toujours sur le corps et à partir duquel vous obtenez des réponses significatives à des questions aussi génériques, telles que: Comment puis-je être le meilleur pour Thomas? Reste-t-il du café sur le chemin? Le client a-t-il déjà confirmé le rendez-vous? Quand est la conférence à nouveau? Dois-je acheter quelque chose aujourd'hui?
Plus les produits utilisés par une personne sont nombreux, plus les résultats de la recherche deviennent intimes et personnels, car ils ne sont plus basés uniquement sur un index actuel, crawlé, à tout moment, mais également sur l'empreinte numérique et l'historique de l'utilisateur. Les données nécessaires récupèrent Google via Google+, Gmail, Chrome, Store, Play, Maps, Lecteur, l'emplacement, le comportement de recherche précédent, etc.
Le résultat est un réseau de relations et de contextes, et qui sait, peut-être qu'à l'avenir, il sera normal que tout un chacun ait un petit assistant technique connaissant non seulement son lieu de résidence, ses intérêts et sa taille, mais également nos habitudes et préférences quotidiennes, ainsi que les nôtres. Famille, amis, employeurs, collègues et tous leurs intérêts et relations. Il nous féliciterait pour notre anniversaire, nous souhaiterait un examen réussi, nous taper l'oreille lors d'une présentation et nous rappeler de tout, sans que nous ayons à le demander.
Devenir un être avec un agenda
Le référencement change car tous ces facteurs intimes ne peuvent être influencés. L'ingénierie inverse devient de plus en plus compliquée. Pour bien s'insérer dans le cadre de la recherche sémantique, c'est-à-dire exprimer une intention, créer un sens, créer un contexte, créer une association et cultiver des relations, il est nécessaire de disposer d'une base en tant qu'identité. Google considère les sites Web et tout ce qui peut être derrière eux, les personnes, les entreprises, les projets, les institutions ou les organisations comme une entité, ce qui signifie autant qu'un être doté d'un agenda.
Pour être perçu par Google comme un expert sur un sujet particulier, il ne s'agit plus de convaincre un algorithme stupide, mais bien de convaincre un algorithme de plus en plus intelligent ET un humain situé à l'autre bout de l'écran. La création de marques devient la pierre angulaire de la présence en ligne et le contenu est le moyen de communication. Pour cette raison, le contenu n'est pas si mal suscité à la mode et se scinde avec le référencement, car il affecte d'autres domaines d'activité, tels que le marketing et les relations publiques, les achats, les services et les ressources humaines. Le contenu est le ciment qui peut être utilisé pour créer une image d’entreprise cohérente, à la fois en externe et en interne.
Cependant, le contenu peut encore être si excitant s'il n'est pas trouvé, alors c'est un effort d'amour gaspillé. Dans le monde multi-écrans, le temps de chargement, l'architecture de page et les redirections correctes ne doivent pas être relégués au second plan. Il convient de veiller à ce que le contenu soit bien structuré de manière à pouvoir être analysé et indexé régulièrement. Le balisage structuré aide la recherche sémantique à mieux comprendre la signification du contenu et à établir des relations significatives les unes avec les autres. Une fois qu'elle en a compris le sens, elle peut traiter toutes les questions elle-même et devenir ainsi le répondeur, qui ne se déploiera probablement que complètement en termes de recherche vocale.
Il faut du temps pour se développer
La recherche sémantique est en fait un tournant, le paradoxe est que la conversion d’algorithme nécessaire n’a été remarquée par pratiquement personne. Seule une presse élaborée avec Danny Sullivan en tant que journaliste exclusif a informé le monde du référencement du prétendu changement significatif d'algorithme pendant plus de dix ans. Et l'explosion, c'est qu'elle avait déjà traversé la scène quatre semaines plus tôt.
Le fait que Hummingbird soit en grande partie passé inaperçu du public a probablement un lien avec le fait que le basculement est un processus qui initie un nouveau processus, qui est sinon un processus. L'index n'est plus un catalogue rigide, les connaissances sont maintenant disponibles différemment. Il est basé sur des oreilles qui structurent les informations de manière significative et les relient entre elles et qui peuvent être considérées comme des cerveaux virtuels, qui ont bien sûr aussi une mémoire (neuromarketing, n'importe qui?).
En fin de compte, il s'agit de faire en sorte que l'utilisateur se déplace
Depuis le début, Google a été très occupé à acquérir des connaissances et à comprendre les algorithmes. Non seulement ils voulaient indexer les connaissances à partir du réseau, mais ils scannaient aussi des livres et se promenaient pour photographier le monde. En outre, depuis 15 ans, ils ont pu observer et analyser le comportement en ligne de pratiquement tous les utilisateurs des sociétés occidentales. Et le Web ne reste pas immobile, de nouveaux sites Web apparaissent tous les jours et une quantité inimaginable d'interactions a lieu, créant de nouvelles connexions à tout moment. Pour rester pertinent et donner les meilleures réponses à tout moment et en tout lieu, le moteur de recherche est devenu un processus capable d'apprendre et, avec le temps, de comprendre les choses dans le bon contexte. Cependant, cela prend un certain temps, car la machine et les utilisateurs doivent encore apprendre à se manipuler correctement.
Le développement dépend non seulement de la technologie, mais également de l'utilisateur et du degré de disponibilité de celui-ci à divulguer des informations. Dans tous les cas, le potentiel d'un moteur de recherche sémantique combiné aux bons outils est que vous ne devez plus vous souvenir de rien.
Un bon contenu offre aux utilisateurs une valeur ajoutée, est unique et traite avec parcimonie l'heure du lecteur. Mais comment pouvez-vous vraiment créer de bons textes?
Un moyen simple et éprouvé de résoudre ce problème est la question en W. De cette manière, vous pourrez capturer les points les plus importants rapidement et en toute sécurité avec chaque texte. Nous vous avons déjà donné sept astuces pour un contenu parfait. Aujourd'hui, nous allons vous montrer comment créer du contenu avec des questions W qui plaisent à Google et à vos utilisateurs.
Quelles sont les questions W?
Au début, la question de savoir quelles sont les questions W est peut-être triviale. Mais c'est au centre du processus d'écriture. Avec les questions W, le questionneur reçoit toujours des réponses concrètes à une question spécifique. Puisque ces pronoms de questions (pronoms interrogatifs) ou adverbes de questions (adverbes interrogatifs) commencent par un W, les questions correspondantes sont appelées "questions en W".
Afin de vous montrer avec quelle précision vous pouvez poser des questions à des textes ou à des contenus, nous listons ici une fois tous les mots de la question.
Pourquoi les questions W sont-elles importantes?
Qui appelle l'appel d'urgence du service d'incendie, doit nécessairement contrôler les questions de W. Parce qu'il y a où? Quoi? Quand? et comment a demandé à avoir rapidement un aperçu de la nature de l'urgence et de l'urgence.
Bien sûr, vos paroles ne sont pas des urgences et vos lecteurs n'appellent généralement pas votre site Web en cas d'urgence. Néanmoins, les questions W constituent également un moyen de choix pour adapter au mieux vos textes aux besoins de l'utilisateur. Ils vous aident à réduire le texte à l'essentiel et à donner une réelle valeur ajoutée au contenu. La raison est assez simple: il n’ya pas de réponses creuses à des questions concrètes sur W et donc pas de phrases creuses qui remplissent inutilement des pages Web!
Quelles questions puis-je demander pour un texte?
Avant de vous demander pourquoi vous devriez poser un texte, voici une image utile pour mieux comprendre cette approche: les textes sont en un sens des conversations avec un opposé invisible. Vous pouvez également considérer cela comme une sorte d'interview que vous faites avec vous-même et ne faites que les réponses. Pour vous aider avec cette "interview" ou "conversation", W questions vous aident.
La question la plus simple que vous puissiez poser à un texte est la suivante: quel est le but de mon texte? Maintenant, vous pouvez intervenir et dire que ce n'est pas une question spécifique au texte. Tu as raison aussi. La question du but est une sorte de "méta-question" qui est avant tout. Elle vous donne les grandes lignes de votre texte.
Les destinations communes suivantes peuvent avoir des textes:
informer
encourager l'achat
annoncer
provoquer
Pour stimuler la controverse
informer et encourager l'achat
animer une conversion
aider
Comme vous pouvez le constater rapidement, les genres de texte correspondants aux textes Web peuvent être affectés à ces objectifs. Vous y trouverez des textes de guides (aide, informer), des textes classiques de produits (pour encourager les achats) ou des articles de blogues (provoquer, susciter la controverse).
Passons aux questions W concrètes, que vous pouvez mettre dans un texte. Il peut également s'agir de questions que vous anticipez de la part de vos utilisateurs:
textes de produits Pourquoi avez-vous besoin du produit xy? Comment le produit xy peut-il aider l'activité / le travail xy? Combien coûte le produit? Qui peut utiliser le produit? Où puis-je utiliser le produit? Quand ai-je besoin du produit? Quels autres produits sont appropriés? Qui fabrique le produit? Combien de temps le produit est-il durable?
Description de la catégorie Pourquoi ai-je besoin des choses offertes? Qui peut utiliser les services ou les produits? Quels types de ces produits existe-t-il? De quoi ai-je besoin pour utiliser les produits ou services? Qui fournit l'offre?
Messages blog Pourquoi une situation comme celle-ci? Quelles sont les raisons de tel ou tel avis? Pourquoi le sujet intéresse-t-il le lecteur? Quel avantage l'utilisateur peut-il tirer? Pourquoi le sujet est-il pertinent pour le lecteur?
Quel est l'objectif de l'optimisation de contenu?
Comme nous l'avons déjà montré, les questions W sont importantes pour créer un contenu pertinent. Ils vous aident à atteindre l'objectif d'optimisation du contenu. Mais attendez, est-ce vraiment un objectif? Pas du tout, car en théorie l'optimisation des textes s'adresse déjà à deux groupes cibles: Google et vos utilisateurs. Mais ici s'applique: Ce qui est bon pour vos utilisateurs l'est également pour Google.
De plus, vos textes peuvent remplir différents objectifs:
Obtenez plus de trafic grâce à un meilleur classement.
Pour obtenir un temps de rétention plus long et ainsi réduire le taux de rebond et augmenter les chances de conversion.
Vendre des produits.
Obtenir des prospects
Augmenter les abonnements aux newsletters et les téléchargements de produits.
Quel que soit votre objectif, vous devriez toujours essayer de comprendre les besoins de l'utilisateur à l'aide des questions-réponses. L'objectif central de votre optimisation de contenu est donc de créer une valeur ajoutée avec le meilleur texte unique sur le Web et de répondre ainsi aux besoins de l'utilisateur à 100%.
La FAQ: Voici comment vous l'utilisez judicieusement
La FAQ est un bon moyen de répondre aux questions des utilisateurs et de donner aux textes une fonctionnalité très pratique. Ce sont de véritables classiques et peuvent être utilisés par exemple dans les instructions d’utilisation même avant la numérisation.
Bien que les questions fréquemment posées ne doivent pas nécessairement être des questions W, ce questionnaire convient également aux FAQ, car les réponses peuvent être très précises.
Les FAQ sont utiles comme une sorte de résumé pour les guides plus longs. Dans le même temps, le questionnaire peut toujours fournir des réponses que le texte n’a pas encore données.
Figure 1: Questions W et autres questions dans la FAQ sur financescout24.de sur l'assurance invalidité.
W Questions et réponses directes Google (extraits sélectionnés)
Grâce à de nombreuses mises à jour telles que la mise à jour Hummingbird et Rank Brain, Google, en tant que moteur de recherche, est devenu de mieux en mieux à répondre directement aux questions des utilisateurs. Un exemple populaire de ceci est ce qu'on appelle les "extraits vedettes". Il s'agit de résultats de recherche sur des questions spécifiques à l'utilisateur, qui s'affichent au-dessus des résultats de recherche organiques dans une zone séparée.
Rien ne garantit que votre contenu y sera également affiché. Mais les questions W peuvent jouer un rôle crucial ici. Étant donné que Googlebot recherche un contenu pertinent pour répondre aux questions des utilisateurs, les textes sont également analysés.
Si vous formulez une sous-rubrique de votre contenu sous forme de question concrète et que vous répondez en quelques lignes avec précision et précision, la chance que votre contenu soit utilisé pour des extraits en vedette augmente.
Utilisez les questions W comme titres, titre ou description
Si vous souhaitez uniquement répondre à une question spécifique de vos utilisateurs avec un texte, vous pouvez attribuer à cette question W une position centrale. Il est donc recommandé de poser la question W:
comme l'en-tête H1 du texte.
à utiliser dans le titre de la page.
Un exemple: ce qui est hors-jeu?
Figure 2: W question en tant qu'élément central d'un article.
L'article correspondant définit également la question W comme étant le titre h1:
Quel est le hors-jeu? Définition et règle dans le football
En raison de la très grande pertinence de l'article, il pointe la question W en première position après le dictionnaire intégré à la recherche Google.
Ainsi, si vous souhaitez optimiser le contenu pour une question W très spécifique, vous pouvez utiliser la question elle-même en tant qu'élément de contenu. Cependant, cette approche n'est généralement recommandée que si le contenu fournit une sorte de définition ou une explication par dictionnaire.
Des outils qui peuvent vous aider
Vous trouverez des questions W significatives fréquemment posées par les utilisateurs sur Google Suggest. Ce n'est pas vraiment un outil autonome, ce sont juste les suggestions de recherche de Google pour une requête de recherche.
Answerthepublic.com était certainement le premier choix pour les débutants et les professionnels jusqu'à ce que l'outil soit payé pour les versions dans d'autres langues. Cependant, ceux qui écrivent principalement des textes en anglais peuvent continuer à utiliser l'outil dans une certaine mesure, à titre gratuit. Par conséquent, il convient de le mentionner ici.
Vous pouvez également utiliser l'outil OneProSeo W-Questions. Mais ici, vous devez filtrer les questions W à partir d'une liste de questions que l'outil considère être un mot clé.
Karl scratch Avec son karlscore-public, il propose toute une gamme d'outils d'optimisation de texte, y compris un outil W-questions qui n'accumule pas que les résultats de Google Suggest. Toutefois, la collection d’outils est également payante et limitée actuellement à 200 utilisateurs.
conclusion: Si vous écrivez des textes Web professionnels pour des clients et contribuez ainsi à l'optimisation du contenu, un outil payant peut certainement en valoir la peine. Non seulement vous gagnez un temps précieux, mais vous pouvez également travailler plus efficacement. Cependant, quiconque traite en détail du sujet de ses textes peut trouver des questions W pertinentes grâce à la réflexion et à l'aide de Google Suggest.
Un exemple de pratique
Un coup d'œil à cet article du magazine SEO Expertise montre comment un article peut être décomposé en questions-W. En principe, chaque section fournit la réponse à une question spécifique.
conclusion
Les questions W peuvent réellement vous aider à créer du contenu avec une valeur ajoutée. Dans tous les cas, vous rendez les utilisateurs heureux parce que vous apportez des réponses concrètes à leurs besoins. En rendant vos utilisateurs heureux, Google adorera également vos paroles, car un contenu de qualité garantit aux utilisateurs des signaux positifs, tels qu'un temps de rétention élevé et un faible taux de rebond.
Cependant, lorsque vous écrivez, rappelez-vous toujours que le texte seul ne représente pas un contenu complet. Les questions W vous aident uniquement à oublier tous les aspects pertinents de vos paroles. De plus, vous devez bien entendu que votre texte soit clairement divisé en paragraphes, dotés de sous-titres et d’un titre h1. Enfin, il est recommandé de vérifier le texte avec WDF * IDF afin de ne pas négliger les termes liés à la recherche.
Si vous ajoutez ensuite du matériel visuel attrayant, un temps de chargement réduit, des méta-descriptions et des titres optimisés, vous êtes avec W-questions et votre optimisation du contenu sur la voie de l'optimisation durable des moteurs de recherche!
Nous vous présentons ci-dessous les huit plugins WordPress les plus pratiques, en particulier pour les équipes de rédaction!
Pratiquement aucun CMS ne peut être utilisé de manière aussi simple et flexible que WordPress pour votre propre site web ou votre blog. Néanmoins, ce système doit être adapté à l'une ou l'autre exigence individuelle des opérateurs de sites Web. Merci à un grand nombre de plug-ins disponibles, ce n'est pas un problème du tout.
Comment installer un plugin
À la fin des fonctionnalités de WordPress, commence le travail des plug-ins. Ce sont de petits programmes qui vous permettent d'étendre les fonctionnalités de WordPress et de personnaliser votre site Web en fonction de vos besoins.
L'installation de plugins est très facile via le backend WordPress. Vous trouverez ici l'élément de menu du même nom. Vous pouvez y rechercher le plug-in souhaité via la fonction de recherche et l'installer en quelques étapes.
Figure 1: Elément de menu du plug-in dans la navigation WordPress.
allusionAvant d'installer un plug-in, vous devez toujours consulter les informations suivantes pour éviter les complications d'installation:
Dernière mise à jour
Nombre d'évaluations
Compatibilité avec la version actuelle de WordPress
Nombre d'installations actives
En particulier, les équipes éditoriales ont des exigences très particulières pour leur propre magazine en ligne, ce que le système WordPress avec ses fonctions de base pourrait ne pas suffire. Par conséquent, vous devriez jeter un coup d'œil aux plug-ins suivants, qui peuvent faciliter votre travail éditorial quotidien.
1. Créer des sous-titres avec des sous-titres
Lors de la création d'un nouvel article, vous pouvez inclure un sous-titre en plus du titre habituel. Cela présente l’avantage de pouvoir résumer le sujet dans le titre normal avec le mot-clé principal crisp et dans le sous-titre, il est également possible de formuler par sujet du sujet plus en détail.
Si vous dirigez un magazine en ligne et écrivez des articles éditoriaux, vous avez peut-être déjà remarqué que vous ne pouvez pas insérer de sous-titres sur WordPress. Vous pouvez changer cela rapidement avec des sous-titres. Le plug-in crée simplement un nouveau champ supplémentaire sous le titre dans le backend WP, dans lequel vous pouvez insérer vos sous-titres individuels.
Figure 2: Créer des sous-titres avec des sous-titres
2. Créez des formulaires de contact flexibles avec le formulaire de contact 7
Formulaire de contact 7 est un plug-in facile à utiliser qui vous permet de créer des formulaires de contact attrayants. Ainsi, vous pouvez créer un nouvel article, par exemple un de vos livres électroniques sur le thème à télécharger, de manière à augmenter la valeur de l'article pour le lecteur.
En plus des formulaires standard avec les données habituelles telles que le nom, l'adresse e-mail, le numéro de téléphone, etc., il peut être intégré au formulaire de contact 7 et aux fichiers captcha téléchargés. Si vous souhaitez également modifier visuellement votre formulaire de contact, vous devez disposer au minimum de connaissances de base en HTML.
Figure 3: Interface utilisateur dans le formulaire de contact 7
3. Google Analytics pour WordPress par MonsterInsights
Si vous souhaitez surveiller les clics sur votre blog ou votre magazine en ligne directement dans le système WordPress, Google Analytics pour WordPress de MonsterInsights est un plug-in indispensable et, avec près de 15 millions de téléchargements, le plus populaire des plug-ins Google Analytics pour WordPress.
Après l'installation, il vous suffit de l'activer, de définir les paramètres souhaités et de vous authentifier auprès de votre compte Google. Votre code de suivi sera alors automatiquement ajouté à toutes les pages et le suivi pourra commencer.
Le plug-in vous donne un aperçu des données de taux de rebond, des sessions et des évaluations des sources de trafic, des pages populaires et des pays d'origine des utilisateurs. Cela peut être utile si vous souhaitez obtenir un aperçu rapide dans WordPress sans vous connecter à Analytics.
4. Afficher les posts similaires avec Yuzo Related Posts
Pour que les visiteurs de votre site Web, intéressés par un sujet particulier, ne doivent pas chercher inutilement, vous pouvez suggérer des publications similaires à lire avec un simple plug-in sous votre article.
Il existe plusieurs fournisseurs pour cela, l'un d'eux est Yuzo avec son plugin Related Posts. Le plug-in est rapidement installé, configuré et également gratuit. Les articles associés peuvent être affichés dans différentes tailles de texte et d'image – automatiquement ou à la main. Afin de comprendre le nombre de visiteurs qui ont lu d'autres articles sur le plug-in, Yuzo Related Posts dispose d'un compteur.
Figure 4: Capture d'écran du site Web de Yuzo
5. N'oubliez pas de publier avec le calendrier éditorial
Vous est-il déjà arrivé de vouloir publier un article à une date donnée et de simplement l’oublier? Bien qu'il soit possible dans WordPress, des articles pour l'avenir à planifier, mais vraiment clair ne sont pas.
Calendrier éditorial est comme son nom l'indique un calendrier éditorial. Avec lui, vous gardez une trace de votre blog et savez toujours quand le post est publié. Vous pouvez faire glisser le post et le modifier directement dans le calendrier.
vidéo: Fonctionnalités du calendrier éditorial (Source: https://vimeo.com/47251750)
6. Turbo pour WordPress: WP Super Cache
Au fur et à mesure que le nombre de visiteurs augmente, l'espace Web est plus chargé, ce qui peut se faire au détriment des temps de chargement. Un bon moyen de les accélérer consiste à utiliser des plug-ins de mise en cache tels que WP Super Cache.
Le cache met en cache les pages générées une fois, ce qui signifie que vous n’avez pas à lire toutes les données de la base de données à chaque fois. Le plug-in génère des fichiers HTML statiques pour le contenu affiché aux utilisateurs qui ne sont pas connectés, commentés ou visualisés dans une publication protégée par mot de passe.
La fonction de préchargement du plug-in garantit également que le cache est présent lorsque cela est nécessaire. Une fois que vous avez configuré WP Super Cache, vous n’avez pratiquement pas à vous en préoccuper. Le plug-in est fiable et rapide, tout en garantissant des temps de chargement rapides pour les visiteurs. Cela plaît non seulement aux utilisateurs de votre site Web, mais également à Google.
Figure 5: Paramètres dans WP Super Cache
7. Optimisation des moteurs de recherche avec Yoast SEO PlugIn
Votre contenu peut toujours être si bon, si on ne le trouve pas sur le net, tout est pour le chat. Heureusement, il existe plusieurs bons plug-ins de référencement qui peuvent vous aider à améliorer votre classement sur Google. L'un d'eux est par exemple le SEO PlugIn de Yoast.
Ce plug-in est un outil polyvalent: il fournit une édition directe de la description de la page (description) dans l'article et fournit à l'équipe éditoriale des informations sur la pertinence du référencement basé sur un mot clé et la lisibilité. Il offre également de nombreuses options pour remplir les tags de médias sociaux (opengraph) pour le poste. Ceci peut être utilisé pour s'assurer que le partage d'une publication sur les réseaux sociaux fait partie de l'identité de l'entreprise.
Figure 6: Editeur dans Yoast SEO PlugIn
8. Informer sur les cookies avec WF Cookie Consent
En 2015, Google avait averti les propriétaires de sites Web de se conformer à la nouvelle politique d'approbation des utilisateurs finaux dans l'UE lorsqu'ils utilisaient des produits tels que Google AdSense, DoubleClick for Publishers ou DoubleClick Ad Exchange.
Vous devez donc permettre aux visiteurs de votre site Web de s’informer sur l’utilisation des cookies et de les accepter. Ce n'est pas beaucoup plus facile que d'utiliser des plugins comme WF Cookie Consent.
Figure 7: Paramètres avec consentement des cookies
conclusion
Nos huit plug-ins proposés fournissent aux équipes éditoriales une base de fonctionnalités clés leur permettant d'adapter WordPress à leurs propres besoins et à leurs flux de travail éditoriaux, et de faciliter grandement l'utilisation du système de gestion de contenu.
Bien sûr, il existe des centaines d'autres mini-programmes utiles pour votre WordPress en plus des plugins présentés ci-dessus. Cependant, vous ne devriez pas installer aveuglément chaque plug-in, même si cela devrait être si bon. En fin de compte, votre page en souffre car elle devient plus lourde et plus sujette aux problèmes de sécurité. Bien choisis, cependant, les pages WordPress peuvent être considérablement améliorées avec quelques plug-ins.
Surveille, analyse et optimise ton contenu avec SEO Expertise FREE!
Il va sans dire que les technologies évoluent de plus en plus vite – et le référencement ne fait pas exception. Par conséquent, il est important de toujours garder les yeux ouverts pour de nouvelles possibilités.
Alors que la recherche vocale et les données structurées vont probablement devenir de plus en plus importantes en 2019, un domaine relativement nouveau en est encore à ses balbutiements: "Edge SEO".
Un système décentralisé
"Edge SEO" est basé sur "Edge Computing». Contrairement au cloud computing, l’informatique de périphérie concerne traitement de données distribué au bord du réseau, le soi-disant bord. Cela signifie que les applications, les données ou les services sont déplacés des nœuds centraux (centres de données) vers les bords extérieurs (géographiquement les plus proches) d'un réseau. Le but: un L'économie des ressources Pour assurer le traitement – dites le latence (Délai entre l’entrée dans un système et la sortie correspondante) et l’utilisation de la bande passante correspondra réduit, Ainsi, l'utilisateur peut rapidement obtenir un site Web sur une connexion locale atteindre.
"Edge SEO" entre en jeu ici, car il est maintenant possible d'écrire du code qui, au niveau des "nœuds périphériques" – c'est-à-dire à la périphérie du réseau – incorporait les modifications apportées au réseau. C'est ce que l'on appelle également les "travailleurs du service", qui exécutent généralement JavaScript sans accéder à l'infrastructure sous-jacente.
source
Les avantages
"Edge SEO" aide les entreprises à implémenter des composants clés et des applications de code. En utilisant des services tels que Cloudflare Workers, les "service workers" peuvent le faire simplement et facilement sans intervention majeure être intégré à l'infrastructure.
Pour le "référencement de bord", par exemple, cela signifie que des requêtes techniques de référencement peuvent être exécutées – de l'installation d'un grand nombre de balises hreflang à l'installation et à la gestion des redirections. Cela peut être aussi coûts de développement réduits et des coûts réduits en conséquence, car l’équipe centrale de DevOps est moins impliquée. Ici, l’expression "moins" est importante car il doit toujours y avoir une coordination avec l’équipe centrale de DevOps lors de la mise en œuvre des "agents de service" afin d’empêcher toute modification éventuelle du site Web résultant de conflits potentiels avec les "agents de service". vient.
Examinons de plus près les utilisations potentielles des "travailleurs du service" autour de "Edge SEO".
implémenter hreflang différemment
Les attributs Hreflang (balises indiquant à Google le ciblage géographique d'un site Web et autorisant la livraison de la version linguistique appropriée) sont généralement intégrés de trois manières:
dans un sitemap XML
en tant qu'élément de lien HTML dans l'en-tête du site Web
dans l'en-tête HTTP
Comme certaines entreprises grandissent si rapidement que leur infrastructure ne peut plus suivre, la question se pose de voir une autre méthodologie qui offrira une solution même aux entreprises en expansion rapide.
Une option ici peut être le soutien des "travailleurs des services". Ils vous permettent de hreflang dans le
pour implémenter et donc modifier la réponse du serveur pour les agents utilisateurs du moteur de recherche, sans que les employés ou les agences n’aient besoin de réécrire le code source original.
Gestion de redirection simple
La configuration des redirections n’est pas toujours aussi facile ni aussi simple que cela puisse paraître, car certaines plates-formes ne prennent pas en charge les redirections. Il peut également y avoir des restrictions côté serveur et parfois des équipes de développeurs peuvent refuser de modifier le fichier .htaccess.
"Service Worker" peut vous aider en influençant la réponse du serveur avant même que les utilisateurs ne voient la page. Cela signifie que la sortie du code serveur peut être modifiée ultérieurement au niveau des "noeuds périphériques" afin, par exemple, d'afficher un code 3XX et d'exécuter un transfert correspondant. Le contrôle de niveau peut également être facilement contrôlé par des équipes non-dev via des générateurs de code pour travailleurs Cloudflare tels que Sloth.
Augmenter la sécurité du site
Pendant des années, tous les moteurs de recherche ont réclamé de meilleurs protocoles de sécurité. Grâce aux "agents de maintenance", vous pouvez créer toute une série "d'en-têtes de sécurité":
HSTS
X-Frame-Options
Protection X-XSS
Politique de référent
En mettant en œuvre des "en-têtes de sécurité", vous pouvez non seulement protéger votre site Web, mais également protéger vos utilisateurs contre des risques de sécurité dangereux, dont la plupart sont détectés par analyse passive.
Edge SEO encourage les tests
Grâce aux "employés de service", il est même possible d'ajuster rapidement le contenu d'un site Web et d'utiliser Google Analytics pour effectuer des tests A / B afin de suivre les chiffres clés ou de suivre et analyser les fluctuations de performances. En outre, les opérateurs de service peuvent modifier des éléments de page afin de les adapter à la mise en œuvre d'une autre version de test A / B.
Lire les fichiers journaux
Certaines plateformes (telles que Shopify et Salesforce CommerceCloud) n'autorisant pas l'accès aux fichiers journaux, cet accès peut être implémenté via Cloudflare – via Cloudfare Logpush (actuellement en version bêta) ou son "Service Worker". Alternativement, et dans ce cas effectivement beaucoup plus rapidement, vous pouvez également tester BotLogs de SEO Expertise ;-).
Implémenter les changements
Parfois, il est nécessaire de supprimer rapidement quelque chose d'un site Web. Si vous n'avez pas accès au CMS, vous pouvez utiliser Service Worker pour que la page affiche une erreur 503 jusqu'à ce que l'élément puisse être définitivement supprimé ou redirigé.
conclusion
Il devient clair que "Service Worker" dans le contexte de "Edge SEO" peut, à un moment ou à un autre, rendre la vie beaucoup plus facile. Cependant, il est important de toujours travailler de concert avec DevOps pour garantir que les modifications apportées à la périphérie du réseau, tout en modifiant le site, ne sont pas en conflit. Parce qu'alors, le bénéfice potentiel serait annulé par l'utilisation de "travailleurs de service" d'un seul coup.
Avez-vous déjà entendu parler de "Edge SEO" ou même acquis de l'expérience? Si tel est le cas, nous attendons vos commentaires.
Le 27 juillet 2017, les consignes relatives à l'évaluation de la qualité par Google ont été mises à jour pour la dernière fois. Vous trouverez ci-dessous un résumé détaillé des principaux changements et de ce que les référenceurs peuvent apprendre du guide. la Consignes relatives à la qualité de Google ou Directives générales est un document destiné à guider les personnes qui souhaitent évaluer manuellement la qualité des résultats de recherche. Grâce à eux, vous pouvez obtenir des informations intéressantes sur la manière dont Google souhaite idéalement évaluer les résultats de recherche. J'ai l'actuel environ 160 pages complète Guide de l'évaluateur de qualité Une fois que vous avez travaillé pour vous, essayez de donner un aperçu détaillé du document et de tirer des conclusions pour l'optimisation des moteurs de recherche.
Que sont les évaluateurs de qualité et les évaluateurs de recherche et quelle influence ont-ils sur le classement?
Il existe de nombreux malentendus autour de l’évaluateur de la qualité auprès d’évaluateurs allemands. C'est pourquoi j'aimerais parler du rôle des évaluateurs de recherche sur Google.
Le terme évaluateur de qualité n’est plus utilisé par Google dans ce contexte. Le nom officiel est Search Evaluators. Celles-ci sont utilisées dans le monde entier par Google pour évaluer les résultats de la recherche. Cette évaluation est basée sur les "Lignes directrices pour évaluer la qualité de la recherche" présentées ici.
Cependant, l’erreur la plus répandue chez les évaluateurs de recherche est qu’ils sont directement responsables du classement de chaque site Web.
Afin de pouvoir évaluer manuellement toutes les requêtes et leurs résultats provenant de Quality Raters, le nombre de nouvelles requêtes de recherche et de pages nouvellement indexées nécessiterait des millions de personnes et des décennies pour même commander à distance les SERP. La classification de presque tous les classements sera toujours effectuée par l'algorithme de Google.
Les évaluateurs de recherche évaluent les résultats de la recherche dans un environnement de test. À cette fin, les SERPs sont lus sur la base de la version actuelle de l’algorithme de classement pour une requête donnée et après la mise en œuvre d’une mise à jour de l’algorithme. Les évaluations des différents résultats de recherche sont ensuite comparées et vérifiées pour déterminer si la nouvelle version de l’algorithme a permis d’obtenir de meilleurs résultats de recherche. Dans le graphique suivant de Google pour le développement d'algorithmes, il décrit la deuxième étape à partir du haut.
Dans une expérience de comparaison directe, nous montrons aux évaluateurs deux ensembles de résultats de recherche: les résultats de l'ancien algorithme et le nouvel algorithme. Ensuite, nous évaluons quels résultats les évaluateurs préfèrent. Source: Google
Développement d'algorithmes chez Google Source: Google
La question des requêtes qui sont vérifiées par le rapport de qualité ne peut recevoir de réponse que de manière spéculative. Très probablement, il s'agira de termes qui ont un volume de recherche élevé et certains d'entre eux concernent des industries où il y a beaucoup d'argent à gagner, car ce sont des termes i.d.R. affiche également le plus de spam.
Pour évaluer les pages de destination et / ou les résultats de recherche, les responsables de la qualité travaillent dans une plate-forme d'évaluation, où ils exécutent les requêtes de recherche et évaluent les résultats de la recherche pour deux curseurs situés au-dessus des résultats de la recherche.
L’évaluateur de qualité ne devrait pas avoir d’influence directe sur le classement. On peut supposer que l’évaluation des évaluateurs de recherche de bons et de mauvais sites Web en tant que données de formation dans des systèmes d’apprentissage automatique. Sur la base de ces données, des modèles de sites Web bons et mauvais pourraient être identifiés, lesquels pourraient ensuite être utilisés pour créer des groupes de modèles pour l'algorithme de classement. Cela reste des spéculations.
Matt Cutts a commenté le travail de Quality Rater dans les deux vidéos suivantes.
Quelles sont les règles d'évaluation de la qualité Google? Définition et contenu
Le nom Guide d'évaluation de la qualité n'est plus utilisé par Google depuis un certain temps. Le nom officiel est "Lignes directrices pour évaluer la qualité de la recherche" ou trop Directives générales. Ce guide a été officiellement publié par Google pour la première fois en 2013. Jusqu'à présent, ils étaient uniquement adressés à l'évaluateur de la qualité et n'étaient pas publiés pour tout le monde. Avant cela, vous pouviez trouver des versions divulguées sur le net. En février / mars 2013, pour la première fois, il y avait une version officielle mais abrégée des Lignes directrices. C'était la version 1.0 avec la date de création 02. novembre 2012. Depuis lors, d'autres versions ont été publiées jusqu'à la version d'aujourd'hui.
Mise à jour Historique
Les directives d'évaluation de la qualité ont été mises à jour de temps à autre. Les mises à jour suivantes sont donc connues:
30.03.2011 Version 3.18 (prise)
02.11.2012 Version 1.0 (public)
29.03.2013 Version 4.1 (prise)
31.03.2014 Version 5.0 (approuvé)
15.11.2015 (public)
11 mai 2017 (public)
27.07.2017 (public)
Depuis 2015, plus aucun numéro de version n'est émis.
La version actuelle des lignes directrices donne Téléchargez le ici,
Qui s'attend maintenant à ce que tous les secrets soient révélés ici pour déchiffrer l'algorithme de classement sera déçu. la Guide d'évaluation de la qualité sont comme leur nom l'indique Lignes directrices pour les évaluateurs de la qualité ou les évaluateurs de rechercheque Google utilise pour améliorer les résultats de recherche (nous en parlerons plus tard). Ils vérifient manuellement et de manière aléatoire les SERP pour des requêtes spécifiques et déterminent si les résultats sont réellement utiles.
Contenu de la ligne directrice
Les directives de l’évaluateur de la qualité sont structurées en chapitres principaux.
Aperçu du guide général
Directive pour l'évaluation de la qualité de la page
Comprendre les besoins des utilisateurs mobiles
Besoin pleasuring examen
Utilisation de l'interface d'évaluation
Toutes les versions des directives de l’évaluateur de qualité regorgent d’exemples tels que les suivantes:
Exemples dans les directives officielles de l’évaluateur de qualité sur les requêtes de recherche aux intentions ambiguës
Exemples de requêtes de recherche avec une intention d'action dans les directives générales officielles
Depuis le Version 5.0 des directives pour l'évaluateur de la qualité Google a mis en place un processus d'évaluation qui se concentre sur deux domaines clés:
Page de renvoi et site complet sans référence à la requête de recherche (évaluation PQ)
Blocs SERP et page de destination en relation avec la requête de recherche (Need-Met)-Rating)
La cote PQ dans les directives générales
L’évaluation de la qualité des pages PQ a pour objectif de vérifier le classement des pages de destination aux fins de recherche en termes de réalisation des objectifs. Les pages de destination peuvent avoir différentes finalités.
Le but d'une page est la raison pour laquelle la page a été créée. Chaque page sur Internet est créée à des fins multiples ou multiples. La plupart des pages sont conçues pour être utiles aux utilisateurs. Certaines pages sont faites pour gagner de l'argent, avec peu ou pas d'effort pour aider les utilisateurs. Certaines pages sont même créées pour nuire aux utilisateurs. La première étape pour comprendre une page consiste à déterminer son objectif.
Les pages de renvoi et les sites Web conçus pour nuire, tromper ou vendre des utilisateurs peu utiles doivent recevoir un indice de QP faible.
content sur les pages de destination, Google classe
Contenu principal (MC)
Contenu supplémentaire (SC)
Annonces (annonces)
Le MC représente l'objectif de la page de destination. Les critiques peuvent faire partie du MC, mais aussi être considérées comme SC. Ici, il semble voir Google différemment selon les cas. Google recommande que les évaluateurs de recherche identifient d'abord le MC, puis classent la publicité et le reste en tant que SC.
Une déclaration intéressante concernant le contenu non directement visible, par exemple derrière les onglets se trouvent au chapitre 2.4.1:
Notez que les onglets de certaines pages donnent accès à davantage d'informations, par exemple des avis de clients. Dans certains cas, vous pouvez considérer le contenu sous ou en dehors du MC de la page.
Pour ça évaluation PQ Google recommande à Quality-Ratern de regarder également à côté de la Landingpage sur l'ensemble du site Web. En outre, l'opérateur du site Web et les auteurs doivent être identifiés. En outre, l'état du site Web devrait être déterminé. Par exemple, si les liens fonctionnent. si les images sont chargées ou si le contenu est mis à jour,
En outre, une image de la réputation du site Web devrait être faite. Les responsables de la qualité doivent s’appuyer sur des informations indépendantes et rechercher des informations provenant de sources objectives. Ici, il devrait y avoir une correspondance entre les informations sur le site Web et celles provenant de sources indépendantes. Pour la recherche, Google donne des indications par exemple. travailler avec des opérateurs de recherche. La note concernant les petites organisations est intéressante:
Il est fréquent que vous trouviez peu ou pas d'informations sur la réputation d'un site Web pour une petite organisation. Ce n'est pas indicatif d'une réputation positive ou négative. De nombreuses petites entreprises locales ou organisations communautaires ont une "présence sur le Web" et comptent sur le bouche à oreille et non sur des critiques en ligne. Pour ces petites entreprises et organisations, la réputation de marque ne doit pas être considérée comme une indication de la qualité médiocre des pages.
La cote PQ peut être classée en 9 niveaux, du plus bas au moyen au plus élevé.
Source: Consignes d'évaluation de la qualité Google 2017
Les évaluations PQ doivent être effectuées en tenant compte de la page de destination respective ainsi que du site Web complet. Pour les forums et les portails de questions-réponses, les encyclopédies appliquent différents critères d'évaluation.
Le classement PQ est indépendant de la requête de recherche, mais attribue une note à la fois à la page de destination et à l'ensemble du domaine. indépendamment de la requête:
Le classement PQ est étiqueté "indépendant de la requête", ce qui signifie qu'il ne dépend pas de la requête. Ne pensez pas à la requête lorsque vous attribuez un classement PQ au disque vinyle.
Expertise / Autorité / Fiabilité (E-A-T)
Google décrit la relation entre expertise, autorité et fiabilité avec l'acronyme E-A-T (Expertise-Autoritaire Fiable). La cote E-A-T fait partie de la cote PQ. Afin d'obtenir une note E-A-T positive, l'un des facteurs décisifs est le site Web de l'opérateur sur le site Web. En particulier pour les pages YMYL (plus de détails ci-dessous), la verbosité de ces informations joue un rôle majeur. Ces pages doivent être aussi transparentes que possible.
L'importance de cette fonctionnalité pour les pages de haute qualité dépend du sujet.
Un avis médical de grande qualité doit émaner de personnes ou d’organisations disposant de l’expertise médicale ou de l’accréditation appropriée. Les avis ou informations médicaux de qualité doivent être révisés, révisés et mis à jour régulièrement.
Des conseils financiers de haute qualité, des conseils juridiques, des conseils fiscaux, etc., doivent provenir de sources spécialisées et être mis à jour et actualisés.
Ce qui résulte d'un remodelage à domicile (qui peut coûter des milliers de dollars) ou de conseils sur des questions parentales (qui peuvent avoir une incidence sur le bonheur futur d'une famille).
Les pages de haute qualité sur les loisirs, comme la photographie ou apprendre à jouer de la guitare, nécessitent donc une expertise.
Que l'information provienne réellement d'experts confirmés ou de l'expérience d'un non-expert doit être décidée au cas par cas.
En résumé:
La note du MC se trouve au niveau de la page de destination. La réputation est évaluée pour l'ensemble du site. L'évaluation E-A-T peut être effectuée à la fois pour la page de destination et pour l'ensemble du site Web. Le classement E-A-T doit être effectué au niveau de la page de destination, en particulier lorsque plusieurs auteurs sont responsables des MC de la page de destination.
Le site Web EAT est important dans les situations suivantes: ● Tout le contenu du site Web est produit par la même personne ou organisation. Un exemple est un site web médical qui est produit par un groupe de médecins réputés. ● Le contenu du site Web est produit par différents auteurs ou organisations, mais le site Web est très actif. normes éditoriales. Un journal scientifique avec des normes très élevées de publication en est un exemple. ● Le site Web jouit d’une réputation extrêmement positive auprès des experts en la matière, c’est-à-dire qu’il est reconnu comme l’une des sources les plus expertes, faisant autorité ou dignes de confiance sur le sujet.
Propriétés de sites de très haute qualité
Les sous-chapitres suivants sont très intéressants pour le référencement, car Google décrit les évaluateurs de la recherche sur la recherche de pages de haute qualité.
Que ce soit un site avec "haut"Ou"très haut"Dépend principalement de la Qualité du MC, le Degré de E-A-T– l'évaluation et la réputation à partir. Les pages les plus hautes doivent avoir les caractéristiques suivantes:
E-A-T inclut le E-A-T de l'éditeur ainsi que l'auteur
Une quantité satisfaisante de contenu de haute qualité qui parle de temps, d’expertise, de compétences, de talent et d’efforts. La précision du contenu du MC dépend du but et du sujet. Des sujets plus larges nécessitent plus de contenu. Sujets spéciaux moins.
Très grande transparence vis-à-vis des opérateurs et des personnes responsables, notamment avec les magasins et les sites web sur lesquels des ventes directes peuvent être réalisées. Les commentaires sur le service à la clientèle jouent également un rôle ici.
Une réputation positive auprès du responsable du MC.
La page de destination et le site Web sont des experts, ont autorité et sont dignes de confiance quant au sujet.
De plus, le site devrait avoir la plupart des propriétés suivantes:
Degré de réputation
Contenu complémentaire convivial (SC)
Conception Web fonctionnelle qui facilite la concentration de l'utilisateur sur le MC
Informations suffisantes sur l'opérateur, les coordonnées …
Un état soigné
Pour l'actualité et l'état d'un site Web, Google écrit ce qui suit:
La fréquence à laquelle un site Web doit être mis à jour dépend de son objectif. Cependant, tous les sites Web de haute qualité sont bien entretenus, entretenus et mis à jour de manière appropriée.
Mais surtout dans l'évaluation des pages YMYL, E-A-T joue un rôle majeur.
Propriétés de sites de basse qualité
Les pages de qualité médiocre ont des propriétés qui empêchent de satisfaire le but des pages de destination, telles que suivant:
L'auteur de la page n'a pas suffisamment d'expertise pour le sujet et / ou le site Web n'est pas digne de confiance ni d'autorité de sujet.
La qualité du MC est faible.
La quantité de MC n'est pas satisfaisante.
Le MC est copié.
Le MC est difficile à consommer en raison de la publicité ou d'autres éléments.
Manque de transparence concernant l'opérateur et le but du site web
Le site a une réputation négative
Votre argent ou votre vie (YMYL) Pages
Une catégorie importante pour Google concerne les sites Web qui peuvent influencer l’esprit, la santé et la fortune des utilisateurs grâce aux informations et aux offres. Google appelle ces pages "Votre argent ou votre vie "Pages brièvement YMYL pages. Sur ces sites, Google a des attentes particulièrement élevées en ce qui concerne le classement PQ.
Google mentionne comme exemples de pages YMYL:
portails commerciaux
Généralement des pages sur lesquelles vous pouvez commander quelque chose directement avec de l'argent
Portails d'information pour la finance
Portails d'information sur la santé
Portails d'information sur des sujets juridiques
Portails d'information pour l'éducation
On peut supposer que Google met l'accent sur les signaux externes qui confirment l'autorité et la réputation d'un domaine ou d'un auteur dans les pages YMYL lors de la pondération des signaux de classement. Backlinks, co-compétitions, mentions de la marque, volume de recherche sur les termes de recherche liés à la marque ou à la navigation (plus d'informations sur l'intention de recherche dans l'article) Toutes les informations sur les types de mots clés, l'intention de recherche, l'identification de l'intention de l'utilisateur et les avis peuvent être prises en compte.
Besoin pleasuring examen
Le chapitre complet complet de la ligne directrice sur la notation des besoins satisfaits traite de l'évaluation des appareils mobiles. Dans l'évaluation des besoins satisfaits, les évaluateurs de la recherche doivent déterminer le niveau de satisfaction des besoins sur une échelle allant de «Faux à satisfaire» à «Complètement satisfait» pour un résultat de recherche.
Source: Directives générales 2017
De plus, des drapeaux peuvent être définis, je les traiterai plus tard. La note de besoin satisfait semble avoir remplacé la cote de service précédente.
Contrairement à l'évaluation PQ, cette évaluation fait référence à la requête de recherche et au résultat de la recherche. Les éléments suivants sont évalués dans les SERP:
Bloc de résultats de contenu spécial
Bloc de résultats de recherche Web
Bloc de résultat d'action de périphérique
Le bloc de résultats de contenu spécial
Dans ce cas, les évaluateurs de recherche doivent si possible interagir avec le bloc ou évaluer le contenu du bloc.
Bloc de résultats de recherche Web
Dans ce cas, les évaluateurs de recherche doivent interagir avec le bloc et effectuer l’évaluation en fonction de la page de destination.
Conditions pour la note complète
Afin de fournir un résultat avec la notation «Entièrement conforme», les conditions suivantes doivent être remplies:
La requête de recherche et les besoins de l'utilisateur doivent être clairs et sans ambiguïté
Le résultat doit être pleinement utilisable par les utilisateurs mobiles, sans effort
Presque tous les utilisateurs doivent être pleinement satisfaits sans avoir à cliquer sur un autre résultat
Espèces de drapeau dans les recommandations de l'évaluateur de la qualité
La section qui décrit quelle sélection de drapeaux peut utiliser est également intéressante. Les résultats de recherche avec différents drapeaux doivent également être classés différemment.
Porno (P)
Langue étrangère (F)
N'a pas chargé (D)
Refoulement offensive
Il est intéressant de noter que les résultats de recherche dans des langues autres que l'anglais ou les requêtes en provenance de pays où les résultats de recherche en anglais sont dans une langue autre que l'anglais ne sont généralement pas exclus. Dans ce cas, des précautions ne devraient être prises que dans des cas exceptionnels, notamment si le chercheur s'attend à ce que les résultats soient fournis en anglais.
Les différentes recherches
Dans les instructions générales, Google distingue les types de recherche suivants:
Requêtes de recherche avec emplacement explicite
Requêtes de recherche avec différentes significations
Sens dominant
Sens commun
Rare sens
Le rôle de l'intention de recherche
Comprendre l'objectif de recherche de chaque terme est une condition préalable pour que Quality Rater puisse commencer à évaluer les résultats de la recherche pour une requête.
N'oubliez pas: si vous ne comprenez pas la requête et l'intention de l'utilisateur, relâchez la tâche. Pour cette raison, la requête est une bonne première étape. Vous devez comprendre l'intention de l'utilisateur d'évaluer la page de destination.
Google lui-même établit une distinction en ce qui concerne l'intention de recherche ou l'intention de l'utilisateur dans les catégories suivantes:
Savoir et savoir simple
Action Do / Device
site Web
Visit-in-person / User Location
Requêtes de recherche avec différentes intentions de recherche
Plus à ce sujet dans l'article très détailléToutes les informations sur les types de mots clés, l’intention de recherche, l’intention de l’utilisateur d’identification, etc.
Spécifications à l'évaluateur de qualité
Les évaluateurs de la qualité ont les comportements suivants dans les lignes directrices:
Ils doivent représenter l'utilisateur dans la langue et l'emplacement respectifs.
Ils devraient en grande partie se passer des add-ons du navigateur et des extensions bloquant les publicités.
Veillez à ne pas télécharger de fichiers visibles sur l'ordinateur et à ne pas utiliser de logiciel anti-virus.
Les directives semblent un peu comme si l’évaluateur de la qualité utilisait son propre ordinateur ou travaillait même à domicile.
La nouvelle version des directives générales comparée à la version de 2015
Bien que les changements entre la version 4.1 et la version 5.0 aient été très drastiques, cette mise à jour tombe plutôt de manière contemplative, concernant les innovations. Le plus gros changement est que le Les notations de service ne font plus partie des directives de l’évaluateur de qualité, C'est pourquoi j'ai déplacé cette partie à la fin de ce post dans les archives.
En outre, il est à noter que le La cote E-A-T a pris de l'importance dans les lignes directrices a, Il est similaire avec des passages de texte à Utilisation de la publicité,
De nouvelles indications indiquent que les évaluateurs de la recherche sont très attentifs satire. humour et discours de haine aurait dû. Autre nouveauté: une section qui demande aux évaluateurs de recherche d’évaluer téléphones mobiles de performer. De manière générale, il est à noter que l’objet des Directives sur la téléphonie mobile a considérablement augmenté au fil des ans. Les chapitres principaux ainsi complets ne font référence qu'à l'utilisation mobile des résultats de la recherche.
Tous les autres changements concernent principalement la structure du document.
Les informations les plus importantes tirées des recommandations et des conclusions de l'évaluation de la qualité en matière de référencement
Sur la base de la version 5.0, je voudrais résumer les conclusions les plus importantes des directives générales relatives au travail de référencement.
Titre et description sont également évalués qualitativement
Etant donné que les évaluateurs de qualité sont arrêtés à côté de la page de destination elle-même, les résultats de la recherche, notamment le titre et la description, sont également mis en évidence. Il est donc évident qu'ici, outre la prise en compte purement quantitative du taux de clics (test intéressant ici).
La fraîcheur du contenu est importante uniquement pour des requêtes de recherche, des événements et des industries spécifiques
Comme indiqué dans mon article sur la fraîcheur du contenu en tant que facteur de classement, je ne considère pas la fraîcheur du contenu comme un critère de classement généralement important. C'est pourquoi je ne représente pas la déclaration générale selon laquelle vous devez souvent et régulièrement fournir du contenu SEO pour du nouveau contenu. Et Google semble voir la même chose:
certains les requêtes exigent des informations très récentes ou "fraîches". Les utilisateurs recherchent peut-être des "informations de dernière minute", telles qu'un événement important. Imaginez un utilisateur du Kansas en train de taper la requête (tornade), anglais (États-Unis) à cause d’un gros orage. Les informations sur la saison des tornades de l'année dernière ne sont pas utiles. Les utilisateurs ont besoin d'informations sur les tornades qui se dirigent maintenant!
En plus de certaines requêtes de recherche, Google mentionne des secteurs ou des événements concrets pour lesquels l'actualité est importante dans les directives:
événements
élections
émissions de télévision
conférences
Rechercher également des produits techniques en évolution, tels que l'I-Phone nécessite des informations à jour. Il convient de souligner la déclaration suivante:
Rappelez-vous que nous nous soucions du contenu et non de la date.
Mais Google indique également que certaines recherches ne nécessitent pas de ponctualité.
Parfois, les requêtes n'exigent pas les informations les plus récentes. Par exemple, certaines requêtes, telles que (date de naissance de Ronald Reagan) et (poids atomique de l'or), demandent des faits de base qui sont bien compris, établis et peu susceptibles de changer.
Considérer l'intention de recherche et le but de la page de destination
Lorsque j'ai vu les directives d'évaluation de la qualité pour la première fois en 2012, cela a été une révélation en matière d'intention de recherche. La référence répétée dans les lignes directrices selon laquelle l'évaluateur de la qualité doit avoir compris l'intention de recherche souligne l'importance. Car ce n'est que si Google sait ce qui est garanti pour une intention de recherche derrière une requête que le moteur de recherche peut également fournir le contenu approprié pour l'utilisateur. Et quoi de plus important pour les référenceurs: alors seulement, vous saurez quel contenu a de meilleures chances de figurer dans le classement.
L’importance de l’intention de recherche que j’ai déjà communiquée à plusieurs reprises sous forme de conseil en référencement (par exemple ici à Internet World Business), mais si vous examinez la recherche de mots clés par des collègues, vous ne trouverez souvent rien. Depuis lors, l’intention de recherche a été un sujet central dans l’analyse de mots clés.
Augmenter la confiance par la transparence
En particulier pour les sites Web liés à YMYL, la transparence à propos de l'opérateur ou de l'organisation et des informations commerciales détaillées sont essentielles à la confiance. Vous devez faire attention aux fonctionnalités suivantes pour les sites non approuvés:
Pages ou sites Web que vous soupçonnez d'être des arnaques.
Pages demandant des informations personnelles sans motif légitime (par exemple, pages demandant le nom, la date de naissance, l'adresse, le compte bancaire, le numéro d'identification du gouvernement, etc.).
Sites Web qui "hameçonnent" les mots de passe de Facebook, Gmail ou d’autres services en ligne populaires. Voir ici pour plus d’informations sur le "phishing".
Pages avec des liens de téléchargement suspects, qui peuvent être des logiciels malveillants.
En outre, les pages piratées et les pages contenant de nombreux commentaires de spam doivent être considérées comme mauvaises.
Pas trop de publicité
La ventilation entre contenu principal, contenu supplémentaire et publicité montre que Google souhaite examiner la publicité séparément. De plus, la mise à jour de l’algorithme de mise en page avait déjà montré ce que Google faisait de trop de publicité. Dès qu'une page apparaît comme le principal objectif de la publicité, elle est mal notée. C'est pourquoi vous devez faire attention à l'emplacement des espaces publicitaires car le but réel du site pour l'utilisateur est toujours l'information ou la transaction.
Optimiser l'environnement contextuel
Le soi-disant contenu complémentaire au contenu complémentaire ou additionnel en allemand semble également être une raison importante pour donner aux pages une note supérieure à la moyenne. C'est pourquoi il est judicieux de proposer des informations supplémentaires sur un sujet. Que vous les regroupiez sur un seul onglet ou sous forme de "pages satellites", distribuées autour d'une page de destination, je ne pense pas que cela soit si crucial. Le facteur décisif est simplement que vous fournissez un sujet de manière holistique avec des informations supplémentaires sur les problèmes de voisinage ou marginaux. Il existe une contribution intéressante à ce sujet en ce qui concerne les lignes directrices.
Maintenir le site et le contenu en bon état
L'état d'un site Web est évalué d'une part sur la fonctionnalité optimale ainsi que sur la maintenance du contenu. Cela inclut tout ce que nous appelons "l'hygiène des sites Web", tels que: Contrôle régulier et suppression des erreurs 404. Dans certaines zones, les mises à jour régulières du contenu jouent également un rôle. Par cela, je ne parle pas nécessairement de la fraîcheur du contenu sous la forme de nouvelles URL, mais également de la mise à jour du contenu existant. Google explique dans les instructions que cela est particulièrement important pour certains sujets. De plus, les commentaires de spam doivent être éliminés régulièrement.
Reportez-vous à l'article Tâches d'optimisation tactique et stratégique des moteurs de recherche pour les tâches de l'optimisation des moteurs de recherche.
Améliorez votre réputation et votre image de marque grâce à du bon travail, des notes et des messages
Comme mentionné dans mon article Branding et le nouveau classement Google: Pourquoi le référencement ne suffit pas, il devient de plus en plus important que le classement devienne une marque ou une autorité. Google tente également de cartographier cela dans les consignes de Quality Rater. L'examen des votes sur les forums, des portails d'examen, des contributions sur des portails spécialisés, etc. va dans le sens. C'est pourquoi vous pouvez faciliter la recherche et la référence de ces références sur leur propre site Web avant la recherche fastidieuse auprès d'opérateurs de recherche. 🙂
Pour en savoir plus sur la création de marques numériques et le référencement dans l’article Création de marques numériques: L’importance de la marque pour le marketing en ligne.
Utilisez Wikipedia
Google utilise explicitement Wikipedia dans les consignes afin d'utiliser la réputation d'un site Web pour l'évaluation PQ. Tout le monde n'est pas déjà établi en tant que marque propre sur Wikipedia. Mais vous devriez essayer d'utiliser Wikipedia comme un instrument de réputation. Ça peut être la nôtre Guide de relations publiques wt Wikipedia peut-être aider.
Contenu, contenu, contenu
Le contenu principal (MC) joue un rôle important dans de nombreux points des lignes directrices. Par exemple, Google mentionne les fonctionnalités de contenu incorrect suivantes:
Pas de contenu principal
Contenu principal avec bourrage évident des mots clés
Nonsense ou contenu sans déclaration
Contenu généré automatiquement
Contenu copié
À cette fin, l’évaluateur de qualité devrait poser les questions suivantes:
Si tout ou la plupart des MC de la page sont copiés, réfléchissez au but de la page. Pourquoi la page existe? Quelle est la valeur de la page pour les utilisateurs? Pourquoi les utilisateurs devraient-ils regarder la page avec le contenu de la copie au lieu de la source d'origine?
En général, lors de la création de contenu, vous devez toujours avoir le droit de publier le meilleur document sur le Web concernant le sujet concerné. L'effort derrière dépend de manière décisive de la concurrence. Par conséquent, vous devez traiter exactement le contenu de la première page du contenu des résultats de recherche et vous poser les questions suivantes:
Quelle est l'étendue du contenu existant sur les autres pages?
Que puis-je faire mieux?
Quels efforts dois-je dépenser pour créer un meilleur contenu?
Cet effort est-il proportionnel à l'avantage?
Devenir un expert
Être expert dans un domaine particulier signifie être une autorité dans un domaine. Cela signifie que les sites de niche peuvent certainement avoir une chance contre les grandes marques. Par exemple, Amazon ou Ebay, mais aussi d’autres magasins d’assortiments à grande échelle, auront plus de mal à se classer plus haut dans un créneau que les magasins spécialisés si ils le font bien et se font passer pour un expert. En outre, un extrait des lignes directrices:
Pensez au sujet de la page. Quel type d'expertise est requis pour que la page atteigne son objectif? La norme d’expertise dépend du sujet de la page.
Google différencie les sites Web en fonction de leurs objectifs
Google distingue différents types de sites Web en fonction de leur objectif. Par exemple
sites commerciaux
Nouvelles des sites
pages Forum
sites vidéo
Pages d'erreur
PDF
images
sites Gossip
pages Humour
Les pages d'accueil
En tant qu'objectifs possibles, Google répertorie les éléments suivants:
Vendre des produits ou des services
Partage d'informations sur un sujet
Partage de photos, vidéos et autres formats multimédia
s'amuser
Publier des questions dans le but d'obtenir une réponse d'autres utilisateurs
Autoriser les utilisateurs à partager des fichiers ou à télécharger des logiciels
Autoriser les utilisateurs à partager des informations personnelles
Guide Google pour l'évaluation de la qualité: peu de nouvelles, mais confirmation de nombreuses suppositions
La dernière version du Guide de Google pour Quality Raters révèle des informations intéressantes sur le classement des sites. Beaucoup de choses qui circulent dans les cercles de référencement sont appuyées par les conclusions des lignes directrices. Google will den Nutzer befriedigen durch die SERPs und die Websites, die dort zu finden sind. Damit stellen sie Nutzer zufrieden, die bei positiver Erfahrung mit dem Suchmaschinen-Monopolisten wieder kommen werden. Der Nutzer soll bei den Quality Ratern im Mittelpunkt stehen und Webmaster tun gut daran dieses Mantra auch für ihre Website zu befolgen, wenn sie bei Google gefunden werden wollen.
Wobei die Frage nach dem direkten Einfluss von Nutzersignalen auf das Ranking unbeantwortet bleibt. Google selbst sagt Nein! Viele SEOs sagen ja. Ich glaube eher dem was Google sagt. Gerade in diesem Punkt würde es keinen Sinn machen wenn Google hier etwas vertuschen wollen würde. Im Beitrag Nutzersignale Rankingfaktor/Rankingsignal für Google? sammele ich alle Aussagen und Indizien, die für und gegen diese Theorie sprechen.
Jeder der sich ernsthaft mit Suchmaschinen beschäftigt sollte sich die Guidelines ansehen, um besser zu verstehen was Google möchte. Dabei liegt die Betonung auf „möchte“.
Wer die Gelegenheit hat sich die General Guidelines irgendwie zu beschaffen sollte einen Blick darauf werfen. Sonst einfach diesen Beitrag bookmarken, ausdrucken etc. Ich werde auf jeden Fall versuchen diesen Beitrag bei neuen Versionen zu aktualisieren. In diesem Sinne, viel Spass beim Optimieren!
Archiv:
Die folgenden Inhalte sind kein Bestandteil mehr der aktuellen Quality-Rater-Guidelines. Ich möchte sie aber gerne an dieser Stelle festhalten.
Das Utility-Rating für Landingpages und Ergebnis-Blöcke (bei NTRB)
Die Quality Rater sind angehalten die rankenden Seiten nach deren „Utility“ also Brauchbarkeit zu prüfen. Hier haben sie die Möglichkeit basierend auf der Suchanfrage die Landingpage und den jeweiligen Ergebnis-Block über einen Schieberegler zwischen 5 Bewertungen zu wählen. Zwischenschritte sind auch auswählbar. Dabei unterscheidet Google bei den Suchergebnissen bzw. Ergebnis-Blöcken zwischen Blöcken mit Titel (TLRB), und ohne Titel (NTRB). NTRBs sind in erster Linie die Ergebnisse aus dem Knowledge Graph welche i.d.R. in einer eigenen Box ausgeliefert werden oder Ergebnisse aus Google Places.
Sometimes it is really hard to tell whether a block is a TLRB or whether it is a NTRB. Remember, you can fall back on this rule: a TLRB must have a title link at the top of the block.
TLRBs sollen dabei immer mit Blick auf den Inhalt der Landingpage bewertet werden während NTRBs mit Blick auf den in den SERPs eingeblendeten Inhalt bewertet werden sollen.
Das Utlity-Rating bezieht sich sowohl auf die Suchanfrage und das Ergebnis:
The utility rating is based on both the query and the result. For this reason, the utility rating slider is labeled “query-dependent.” You must carefully think about the query and user intent when assigning a utility rating.
Vital (nur einmal pro Suchbegriff möglich)
Damit eine URL als Vital eingestuft werden kann muss sie eine Navigationsabsicht befriedigt sein und/oder zum Suchbegriff passenden offiziellen Website einer Entität z.B. einer Person, Unternehmung, Ort oder Organisation führen. Das unterstreicht auch Googles Bemühungen Brand eigene Seiten zu fördern. Anders gesagt muss bei der Suchanfrage eindeutig sein, dass er genau diese Seite sucht. Dabei dürfen nur TLRBs mit der Bewertung Vital versehen werden. Zu bestimmten allgemeingültigen Begriffen, die keine Entität sein können wie z.B. Diabetes, Möbel, Autos… darf kein Suchergebnis als Vital bewertet werden.
Zum Vital-Rating bei Namen finde ich folgende Information noch interessant:
Important: Websites that are under construction or obviously unmaintained should not be rated V, even if they were at one point created by or authorized by the person in the query. Please consider a personal website to be unmaintained if there is old or stale information displayed prominently. For personal websites which are generally very frequently updated, please look for updates within the last four months. If the personal website feels unmaintained, do not use the V rating.
Hier einige Beispiele aus der offiziellen Version 1.0:
Useful (mehrfach möglich)
Useful ist eine Seite, die gut zu einer Suchanfragen passt und nützlich für den Nutzer ist. Dabei sollte die Landingpage folgende Eigenschaften haben:
Sehr befriedigend (highly satisfying)
Verlässlich (authoritative)
Unterhaltend (entertaining)
und/oder Neu/aktuell (and/or recent (such as breaking news on a topic))
Relevant (mehrfach möglich)
Relevante Seiten sind Landingpages, die immer noch der Suchintention des Nutzers entsprechen, aber müssen nicht so inhaltsreich, aktuell oder verlässlich wie als Useful eingestufte Seiten sein. Die Qualität muss dennoch überdurchschnittlich sein.
Slightly Relevant (mehrfach möglich)
Slighty Relevant trifft auf Seiten zu, die schon irgendwie mit dem Thema der Suchanfrage zu tun haben, aber nicht besonders hilfreich z.B. aufgrund schlechter Qualität sind. Als Beispiel werden auch Landingpages für mobile Endgeräte genannt, die für Suchanfragen für Nutzer die Desktop oder Laptop-Rechner nutzen nicht hilfreich sind.
Offtopic or Useless (mehrfach möglich)
Seiten, die nur sehr wenigen oder gar keinen Nutzern einen Mehrwert bieten, sollen als Offtopic oder Useless gekennzeichnet werden. Seiten, die ausschließlich Werbung und ausgehende Links enthalten gehören zu dieser Kategorie und sollten zusätzlich als Spam markiert werden. Nutzlose Seiten sollen generell, auch wenn sie im PQ-Rating gut abgeschnitten haben mit der schlechten Utility Rating Bewertung versehen werden. Die Auszeichnung mit dem Prädikat Vital ist unabhängig von der PQ-Bewertung also von der Qualität der Seite im Allgemeinen.
L'introduction de la recherche sémantique dans la mise à jour de Hummingbird en 2013 a fondamentalement modifié la recherche de Google et, partant, l'expérience utilisateur de Google. Hummingbird n'est pas sans raison considéré comme l'une des plus importantes mises à jour de Google dans l'histoire.
L'introduction du Knowledge Graph et de l'algorithme Hummingbird a façonné ma vision du référencement. Je travaille sur ce sujet depuis 2013 Sémantique et entités dans l'optimisation des moteurs de recherche,
Je souhaiterais mettre l’accent sur une série de classements basés sur des entités et sur le référencement sémantique, présentés ici sur le blog plus tard cette année.
Pour cela, je planifie chaque mois une contribution.
Je m'en occupe beaucoup Google Brevets. Informations des officiels de Google ainsi que le Aide Googlepropres expériences et opinions d’autres collègues. Celles-ci sont constamment incluses dans les contributions actuelles. En outre, je vais réviser et mettre à jour les contributions existantes des 5 dernières années.
Dans cet article, vous trouverez un aperçu actualisé de tous les articles écrits sur le référencement sémantique ici dans le blog. Il est mis à jour tous les mois.
Je mettrai à jour cet aperçu chaque mois avec le dernier post. Les premières contributions doivent être comprises comme une introduction au sujet. Tous les autres articles sont un peu plus en profondeur.
la Graphique de connaissances est la base de données sémantique de Google. Ici, les entités sont liées les unes aux autres, dotées d'attributs et dans un contexte thématique ou ontologies apporté. Ce faisant, les nœuds d'entités et la manière dont ces entités sont liées sont représentés sous forme d'arêtes … En savoir plus sur le graphique de connaissances de Google.
la algorithme de Hummingbird est l'algorithme de classement actuel de Google. colibri trop allemand Kollibri est basé sur une interprétation sémantique des requêtes de recherche, des documents et des autorités. En savoir plus sur Google Hummingbird ici.
Les entités jouent un rôle particulier pour Google depuis l'introduction de l'algorithme Hummingbird et, partant, pour l'optimisation des moteurs de recherche. L'optimisation des sujets et des entités remplace de plus en plus l'optimisation classique par des mots clés. En savoir plus sur les entités:
Dans cet article, je voudrais partager une découverte que j'ai faite avec vous sur Google. Google aimerait probablement avoir le vôtre dans le futur Boîte Entités ou panneau de connaissances peut réclamer et modifier.
Il s’agit de la quatrième partie d’une série de publications sur le référencement sémantique et aborde la question de savoir si Google comprend vraiment le sens des documents et des requêtes de recherche, ou s’il ne s'agit que d’une analyse statistique.
Les entités jouent un rôle de plus en plus important dans l'indexation pour Google depuis Knowledge Graph et Hummingbird. Je vais entrer dans cela plus en détail dans ce post.
Il existe peu d'informations sur les éléments importants du graphe de connaissances Google, tels que les types d'entité, les classes et les attributs, ainsi que sur l'analyse des relations entre ces éléments. Une raison plus dans le contexte de ma série d'articles sur l'optimisation des moteurs de recherche sémantiques pour répondre.
Le principal défi que doit relever Google en matière de recherche sémantique consiste à identifier et à extraire des entités et leurs attributs à partir de sources de données telles que des sites Web. Ces informations sont généralement non structurées et non exemptes d'erreurs. Le Knowledge Graph actuel en tant que centre sémantique de Google repose en grande partie sur le contenu structuré de Wikidata et les données semi-structurées de Wikipédia ou de Wikimedia.
Avec les bases de données de connaissances telles que le graphique de connaissances, il est difficile de maintenir l'équilibre entre l'exhaustivité et l'exactitude des informations. Une condition nécessaire pour être complet est que Google puisse identifier, interpréter et extraire des informations dans des sources de données non structurées. Plus à ce sujet dans ce post.
Dans cet article, je vais approfondir le traitement du langage naturel pour l'exploration de données et plus particulièrement le graphe de connaissances et les moteurs de recherche.
La présence de fonctionnalités SERP telles que Knowledge Panel et Knowledge Cards dans les SERP de Google s'est développée rapidement depuis des années. En conséquence, les résultats de recherche classiques ont également reçu des "Liens bleus" appelés de plus en plus de concurrence lorsqu'il s'agit d'attirer l'attention des demandeurs. Ou mieux l'appeler le "questionneur". Parce que la plupart des requêtes de recherche sont des questions formulées implicitement et qui nécessitent une réponse. Google veut répondre directement aux questions avec les fonctionnalités du SERP. Ces fonctionnalités sont une fenêtre dans le Graphique de connaissances Google ou y sont directement ou indirectement liés.
Cet article devrait permettre de mieux comprendre le fonctionnement des différentes fonctionnalités du SERP telles que le Panneau de connaissances et les Cartes de connaissances.
Cet article de ma série d'articles sur la sémantique et les entités dans le référencement et Google examine le rôle des entités dans l'interprétation des requêtes de recherche. Amusez-vous à lire!
Des livres ? Et sur le référencement ? Dans un secteur aussi rapide, caractérisé par un grand nombre de tendances et une scène animée par un échange d’idées animé, il peut sembler étrange de le lire en première lecture. Mais à mon avis, le développement en cours de la scène fait en sorte que les résultats d’un travail de référencement fructueux se reflètent dans les résultats obtenus sur du papier imprimé. Voici mon Top10. Avant de vous faire perdre patience avec une longue introduction : toutes les sciences ont fini par se répandre dans les livres et ceux qui ont enseigné dans ces livres et qui ont échangé et discuté du contenu de ces écrits. Le fait qu’il existe maintenant des manuels pour les référenceurs, à mes yeux, ne signifie pas que notre discipline est si poussiéreuse, mais plutôt que le référencement a réussi à passer d’une activité de passe-temps pour les nerds à une partie bien établie de l’économie et de la science de la publicité moderne.
Guide de démarrage de Google sur le référencement
Depuis que je venais de parler de papier et que vient ensuite le premier PDF. Il est définitivement recommandé d’imprimer le document. Le Guide de démarrage de Google tient définitivement ses promesses. Si vous souhaitez connaître les principes de base de l’optimisation des moteurs de recherche, vous ne pouvez pas éviter ces 30 pages. Il est certain que l’un ou l’autre des chapitres peut être fortement influencé par des produits Google tels que les outils pour les webmasters ou les analyses. Mais tout d’abord, vous obtenez gratuitement les connaissances de base de Google et, deuxièmement, le PDF contient de nombreuses notions de base, qui ont été enterrées dans de nombreux SEO avec uniquement du contenu marketing et un outil WDF * IDF.
Afin de ne pas être blasphématoire, j’évite le mot “Bible” pour décrire “L’Art du référencement”. Appelons cela “classique”, et cela fait presque 800 pages aujourd’hui. L’équipe de l’auteur nous présente le sujet du référencement par le biais des bases des moteurs de recherche et de la recherche sur Internet. Rand Fishkin & Co. fournira aux lecteurs des descriptions détaillées de la création de sites Web conviviaux pour le référencement et les aidera à définir des objectifs de travail. Des premières étapes de tout travail de référencement au suivi et à la recherche de mots clés, en passant par une perspective qui anticipait nombre des évolutions actuelles en 2012, “The Art of SEO” inclut tout ce dont vous avez besoin pour votre travail. La bonne chose à ce sujet: vous ne procédez pas nécessairement de manière chronologique, mais vous pouvez créer des chapitres individuels séparément.
Mario Fischer: Site Web boost 2.0
Certes, un livre de référencement dans sa deuxième édition de 2008 est à première vue plus une voiture de collection qu’une véritable innovation. Mais nombre des techniques et astuces présentées dans ce volume sont toujours d’actualité et il est parfois amusant de lire l’auteur. Vous pouvez peut-être appeler Website Boosting 2.0 comme le tout premier ouvrage de fiction en langue allemande, qui considère l’optimisation des moteurs de recherche comme une discipline égale dans le domaine du marketing en ligne et qui crée des liens significatifs avec la convivialité et l’économie. Après tout, gérer un site Web avec succès signifie gagner de l’argent. Et cela ne sera jamais oublié dans le “classique” de Mario Fischer.
Andre Alpar, Dominik Wojcik, Webselling : Le grand livre de la pratique du marketing en ligne
Des livres comme celui-ci, tels que ceux de Dominik Wojcik et d’autres, prouvent que le référencement fait partie intégrante du mix marketing en ligne. Andre Alpar une fois de plus. Ce tome épais de près de 800 pages convainc par ses exemples pratiques très clairs et offre aux débutants et aux utilisateurs expérimentés une expérience pratique du travail quotidien. Il va sans dire que deux optimiseurs de moteurs de recherche expérimentés accordent à la discipline du référencement le plus grand espace possible, mais les sections sur le marketing viral ou SEA ne sont pas moins éclairantes. C’est un plaisir d’obtenir une expertise aussi bien fondée d’une manière concise mais superficielle. Donc, ce groupe doit être sur la liste de lecture. Même si le dernier numéro date de 2012, le contenu n’a rien perdu de son actualité.
Sebastian Erlhofer, Optimisation des moteurs de recherche: un manuel complet
Publié pour la première fois en 2005, le “Manuel complet” est maintenant disponible dans sa 7ème édition en 2014. Sebastian Erlhofer présente sur plus de 900 pages ce que l’on attend d’un livre intitulé “Manual”: de bonnes connaissances en matière de référencement. Encore une fois, il n’est pas nécessaire de lire de manière stricte du début à la fin de la pièce, mais de lire des chapitres individuels au besoin. Quiconque a besoin d’une lecture ordonnée entre les deux a remporté un franc succès avec ce livre.
Thorsten Schneider, Le manuel de pratique sur le référencement 2015: comment atteindre les meilleurs classements dans Google et ses sociétés
Dans ce livre pratique, les débutants en référencement trouvent leur chemin. En raison de la révision régulière, le contenu est relativement à jour. Les lecteurs trouveront non seulement les bases de la recherche sur le Web, mais ils obtiendront également des informations sur les principales mises à jour de Google, telles que Panda, Penguin ou Hummingbird. La lecture divertissante est amusante et motive le travail de référencement quotidien.
André Alpar : SEO en allemand ! 33 responsables de l’optimisation des moteurs de recherche de pays germanophones dévoilent leur parcours et leurs précieux conseils
Le formidable respect que le secteur de la publicité accorde maintenant à l’optimisation des moteurs de recherche n’est pas dû à la complexité croissante de son travail, mais au travail inlassable d’experts en référencement, partageant leurs connaissances lors de conférences depuis des années et travaillant sur de nouvelles méthodes d’optimisation. Dans ce livre, André Alpar présente 33 personnalités importantes de la scène du référencement en Allemagne. Cette liste n’est peut-être pas exhaustive, mais elle fournit un aperçu passionnant du Who’s Who du paysage allemand en matière de référencement.
Dominik Wojcik, Stephan Czysch, Benedikt Illner : Référencement technique
Beaucoup se demanderont après une courte recherche dans le titre de ce livre pourquoi je recommande ici un livre qui n’est pas encore paru. Tout simplement: car il n’y avait pas encore de livre de référencement de ce type. Mais les trois agents de confiance ont jusqu’à présent apporté des contributions prometteuses à des conférences et à des articles de blog sur le “référencement technique”. Etant donné que cet aspect jouera également un rôle de plus en plus important dans le futur, ce livre ne devrait pas manquer sur votre étagère!
Kristopher B. Jones : Optimisation des moteurs de recherche: votre modèle visuel pour un marketing Internet efficace
Bien que la section sur la densité des mots clés ne soit plus à jour du point de vue du référencement actuel, ce manuel propose une approche globale, axée sur le marketing, de l’optimisation des moteurs de recherche. Non seulement ce livre vous aide-t-il à planifier votre recherche de mots clés, mais il intègre également le référencement dans un environnement marketing complet, y compris des conseils pour la modification des pages de destination correspondantes des campagnes PPC ou des guides pratiques de marketing dans les médias sociaux. En outre, vous apprendrez également à utiliser des blogs ou des communautés pour vos projets Web.
Steve Krug : Ne me faites pas penser: une approche sensée de la convivialité Web
Bien que ce classique d’utilisation de 2000 par Steve Krug ne concerne pas le référencement, il ne devrait pas manquer à la bibliothèque. Après avoir lu, vous en savez certainement plus sur les sites Web conviviaux. Et si un site aime les visiteurs, ils aiment aussi Google! Dans la troisième édition, “Ne faites pas penser à moi” inclut également les approches actuelles des sites Web optimisés pour les appareils mobiles. Dans cette liste Top10, aucune référence aux sources d’approvisionnement n’a été volontairement définie. Après tout, nous savons tous comment regarder, non? Bien sûr, si vous manquez un titre de cette liste, je suis toujours ravi des suggestions appropriées. Amusez-vous à lire !
Quelles sont les bases du référencement internet ?
Lorsque vous créez du contenu pour votre site internet, l’une des choses les plus importantes à regarder d’abord est la façon dont vous allez le référencer. Un bon référencement web peut faire une grande différence dans le positionnement de votre contenu sur les moteurs de recherche. Pour rappel, un bon placement dans les moteurs de recherche permet de toucher un public bien plus large. Il y a quelques éléments clés à prendre en compte pour bien référencer votre contenu. Bien sûr, il ne s’agit pas d’une liste exhaustive.
Les ancres de liens
Lorsque vous créez des liens vers votre propre contenu ou vers d’autres sites internet, veillez à utiliser un texte d’ancrage riche en mots clés. Cela contribuera à améliorer l’optimisation de votre contenu pour les moteurs de recherche et le rendra plus susceptible d’être mieux classé dans les résultats de recherche. Lorsqu’il s’agit de lien vers des pages de votre propre site internet, il est possible d’utiliser les mots clés exactes de la page de destination. Cela optimisera en conséquence votre position sur ce mot clé.
Les backlinks
Il est également important de ne créer des liens qu’avec des sites de haute qualité. Cela permettra de garantir que votre site web est associé à d’autres sites web réputés et aura pour effet d’améliorer votre référencement global. Ainsi, il faut éviter de publier l’adresse de son site internet sur d’autres sites avec une mauvaise réputation. Pire encore, il existe des sites internet destinés à l’achat de backlinks exclusivement. Dans ce cas, vous pourriez risquer des pénalités de la part du moteur de recherche.
L’utilisation des réseaux sociaux
Outre les méthodes traditionnelles de référencement de votre contenu, comme la création de liens à partir d’autres sites ou l’inclusion de mots clés dans vos ancres, vous pouvez également utiliser les réseaux sociaux pour partager votre contenu et contribuer à améliorer son référencement. Lorsque vous partagez des liens vers votre contenu sur des sites de médias sociaux, veillez à utiliser des descriptions et des images attrayantes pour attirer les clics et augmenter la portée de votre contenu. Plus encore, n’hésitez pas à créer une chaîne YouTube pour booster encore plus le partage de vos contenus. En résumé, plus vous êtes partagé, plus les signaux envoyés aux moteurs de recherches seront bons et mieux vous vous placerez sur ceux-ci. En suivant ces conseils simples, vous pouvez améliorer le référencement du contenu de votre site et le rendre plus susceptible d’être bien classé dans les résultats des moteurs de recherche.
Pourquoi déléguer son référencement internet à une agence ?
Nous avons vu les bases du référencement internet. Maintenant que vous connaissez les bases, nous allons vous expliquer en quoi déléguer sa campagne SEO peut être intéressant. En pratique, de nombreuses entreprises choisissent de déléguer cette tâche à une agence. Il y a plusieurs raisons à cela. Principalement : l’expertise, la rentabilité sur le long terme et le gain de temps.
L’expertise
Les agences disposent de l’expertise et des connaissances nécessaires pour mener à bien une campagne de référencement internet efficace. Elles sont au courant des derniers algorithmes et tendances, et savent adapter leurs stratégies en conséquence. Par exemple, l’agence https://www.korleon-biz.com est une des agences les plus connues pour déléguer sa campagne de référencement internet. Vous pourrez donc déléguer la vôtre en toute confiance. Vous pouvez d’ailleurs en savoir davantage sur leur twitter et ainsi contacter les bons retours de la part de leurs clients.
La rentabilité sur le long terme
Déléguer le référencement internet à une agence peut également être plus rentable à long terme. Bien que cela puisse nécessiter un investissement initial, les agences peuvent souvent obtenir de meilleurs résultats que si l’entreprise essayait de le faire elle-même. Pour rappel, il s’agit d’un véritable métier et tout le monde ne peut pas s’improviser référenceur professionnel. Cela nécessite, comme tout, de l’investissement tant en terme de coût qu’en terme de temps.
Le gain de temps
Enfin, en déléguant le référencement internet à une agence, les entreprises peuvent libérer du temps et des ressources qui peuvent être utilisés ailleurs. Ceci est particulièrement important pour les petites entreprises qui n’ont pas forcément la main d’œuvre nécessaire à une campagne de référencement.
Pendant des années, les référenceurs se réfèrent à la importance de vitesse de page ou de temps de chargement pour le Search Engine Optimization, Mais quelle est l’importance de ce facteur de classement? Quand un site Web est-il assez rapide pour Google? Que veut dire rapide? Temps de chargement court, temps de réponse court, taille de la page ou téléchargementvitesse? Nous avons rassemblé les informations officielles de Google et les résultats de deux propres études sur l’influence de Page Speed sur le classement.
Que veut dire rapide?
Sur Internet, il y a beaucoup d’hypothèses sur le moment où un site Web est rapide. Les hypothèses vont de suffisamment rapide pour l’utilisateur à des temps concrets tels que pas plus de 3 secondes ou au moins 1,5 seconde. Selon Search-Console, la durée de téléchargement d’une page de plus de 3 secondes semble être élevée. Entre 1,5 et 3 secondes en moyenne. Selon John Mueller, Google distingue jusqu’ici les sites lents des sites rapides.
Avec la mise à jour de Page Speed en juillet 2018, Google souhaite différencier un peu plus précisément ce qui est rapide et lent.
Cliquez sur l’image et écoutez la déclaration de John du 17.05.2017
Dites que cela n’a aucune importance si quelqu’un atteint 85 ou 100 points dans l’outil Page Speed Insights. L’employé de Google, Gary Illyes, a corroboré cette affirmation, du moins en termes de mobile. Donc, un score de 85 est absolument suffisant.
En 2016, John Mueller a publié sur Twitter une déclaration dans laquelle il a appelé une vitesse aussi rapide que deux ou trois secondes. Il souligne également que le nombre de demandes http n’est pas critique, mais le temps de chargement.
John Mueller en novembre 2016 sur Twitter
D’après nos propres recherches avec pingdom, le temps de chargement moyen des sites Web se situe actuellement autour de 3,25 secondes (À partir de décembre 2016).
Il est important de distinguer les raisons pour lesquelles Google accorde une attention particulière aux temps de chargement ou les exploitants de sites Web doivent porter une attention particulière aux sites Web rapides. Tout d’abord, il s’agit de l’expérience utilisateur. Surtout sur les smartphones. C’est pourquoi Google a fait de Page Speed un facteur de classement. D’autre part, il s’agit de ramper. Selon John Mueller, les pages dont le téléchargement nécessite plus de 2 secondes sont moins susceptibles d’être explorées que les pages rapides. Google souhaite utiliser le budget d’analyse plus efficacement. D’autre part, Google souligne que le budget d’analyse de nombreux sites Web aucun Problème présente. Voir aussi Google: Les pages de taille normale ne doivent pas s’inquiéter du budget d’analyse.
Dans cet article du blog Google Webmaster Central, un employé de Google donne les réponses suivantes:
En général, les éditeurs n’ont pas à s’inquiéter du budget d’analyse décrit ci-dessous. Si les nouvelles pages ont tendance à être explorées le jour de leur publication, le webmaster n’a pas à s’inquiéter du budget d’exploration. En outre, un site Web contenant moins de quelques milliers d’URL est généralement analysé efficacement.
Q: La vitesse du site Web affecte-t-elle mon budget d’exploration? Qu’en est-il des erreurs?
R: Plus un site Web est rapide, meilleure est l’expérience utilisateur et plus le taux d’analyse est élevé. Pour Googlebot, un site Web rapide indique le bon fonctionnement des serveurs. Ainsi, il peut récupérer plus de contenu sur le même nombre de connexions. D’autre part, de nombreuses erreurs 5xx ou délais d’attente lors de l’établissement de la connexion indiquent le contraire et l’analyse ralentit.
Q: L’analyse est-elle un facteur dans le classement?
R: Un taux d’analyse plus élevé ne conduit pas nécessairement à de meilleures positions dans les résultats de recherche. Google utilise des centaines de signaux pour classer les résultats. Le balayage est nécessaire pour apparaître dans les résultats, mais aucun signal de classement.
Étude de référence de vitesse de page par Google
Google a lui-même publié une étude de référence sur Page Speed en 2018. Avec les résultats suivants pour l’Allemagne:
Mais quelle heure est raisonnable pour les utilisateurs?
Je pense que cette question ne peut pas être répondu à plat. Les personnes sous pression du temps répondent à cette question différemment des personnes qui surfent confortablement sur le net. De plus, la durée du chargement d’un site Web dépend toujours de la connexion Internet. Un autre facteur pour le sentiment de vitesse ou de lenteur est l’habitude. Il est basé sur ce que vous avez l’habitude de trouver dans d’autres offres. Selon une étude de Radware datant de 2013. Les 500 plus grands sites de commerce électronique ont été examinés en ce qui concerne la vitesse de chargement. En conséquence, les sites de commerce électronique ralentissent plutôt que plus rapidement en raison de leur taille croissante.
Infographie à l’étude Radware
Différents types de performances de sites Web
Avant de discuter de nos conclusions, il est logique de prendre en compte certains des critères ou indicateurs permettant d’évaluer la «rapidité».
Temps de réponse / Firstbyte Time
Cette métrique décrit, pour ainsi dire, le premier contact de l’un. Navigateur avec la page. En plus Wikipedia:
C’est la durée pendant laquelle l’utilisateur virtuel envoie une requête HTTP au premier octet de la page en cours de réception par le navigateur. Temps nécessaire pour recevoir la requête HTTP et temps nécessaire pour obtenir le premier octet de la page.
Temps de chargement de la page
Le temps de chargement ou le temps de chargement de la page inclut le temps complet du processus entre une demande initiale, par ex. Cliquez sur un lien jusqu’à ce que le rendu de la page soit terminé. Mais il y a aussi des vues, dans lesquelles seul le processus jusqu’au rendu de la page, donc le chargement du code html sans considération du téléchargement ou de la représentation des images et du chargement de code Javascript tel. Google Analytics, GTM, etc.
La taille ou le poids d’un site Web décrit le nombre de kilo-octets nécessaires au chargement complet d’un site Web. En plus du poids pur, la vitesse de téléchargement de ces kilo-octets est également intéressante.
Relation entre “vitesse” et classement, selon Google
Google a introduit Page Speed comme nouveau facteur de classement en 2010. Cette vidéo de Maile Ohye de l’année 2010:
Ici, Maile souligne l’importance de la vitesse du site Web pour les utilisateurs et les propriétaires de site Web, ainsi que pour Google et que Google a donc introduit Page Speed comme facteur de classement. D’après l’affirmation selon laquelle Google Page Speed est important, alors, au fil des années, les référenceurs ont déclaré que Page Speed était un facteur de classement important. Il ne fait aucun doute que Page Speed est un facteur de classement et il est indéniable que la vitesse est un critère important pour l’optimisation de l’UX et de la conversion. Ceci est confirmé par Google et diverses études (par exemple ici, ici et ici). Mais si le temps de chargement est en réalité un facteur de classement important, combien de SEO prétendent remettre en question. Mais avant d’aboutir aux résultats de notre propre enquête, voici quelques déclarations officielles de Google sur le sujet.
Dans la vidéo ci-dessus, Maile souligne que la vitesse de la page est un facteur de classement parmi d’autres, et que le contenu et la pertinence sont beaucoup plus importants.
“Le classement est un processus nuancé et il y a plus de 200 signaux, mais maintenant la vitesse en est un. Sachez que le «contenu» et la pertinence »sont toujours au premier plan.”, Mail Ohye 2010
Si Google parle de la vitesse de la page en tant que facteur de classement, la signification de ce concept n’est pas très claire. Comme il est dit dans la contribution officielle de l’année 2010:
Dans le cadre de cet effort, nous intégrons aujourd’hui un nouveau signal dans notre algorithme de recherche: la vitesse du site. Vitesse du site à quelle vitesse un site Web répond aux demandes Web. En raison de la dépendance relative d’un site par rapport à d’autres sites. Actuellement, moins de 1% des requêtes de recherche sont affectées par le signal de vitesse du site dans notre implémentation et le signal n’est disponible que pour les visiteurs qui effectuent une recherche sur Google.com à ce stade.
Quelques mois plus tard, le blog du webmaster allemand a également confirmé:
La vitesse du site indique la rapidité avec laquelle un site répond aux requêtes Web … Nous avons donc décidé de prendre en compte la vitesse du site dans nos classements de recherche. Nous utilisons de nombreux facteurs pour suivre la vitesse d’un site Web par rapport à d’autres sites Web … Même si la vitesse d’un site Web est un nouveau critère, ce n’est pas aussi important que la pertinence d’une page. Actuellement, moins de 1% des requêtes de recherche sont affectées par les critères de vitesse du site dans notre implémentation. De plus, le critère de vitesse du site s’applique actuellement uniquement aux requêtes de recherche sur Google.com en anglais.
En 2010 et 2011, Matt Cutts a commenté le sujet.
Dans la Webmaster Central Hangout du 08.04.2016, John Mueller a confirmé que l’influence du temps de chargement du serveur sur le classement était minime et que les optimisations de l’ordre de la milliseconde n’avaient aucun effet sur le classement. Il ne parle que de la durée pendant laquelle un site Web doit être chargé sur le serveur. Le temps nécessaire au robot Google pour analyser le contenu n’est pas un facteur de classement direct, dit John, mais n’affecte que la vitesse d’analyse du contenu. Voici la vidéo:
Dans une vidéo de l’année 2019 de la série SEO Mythbusting, Martin Splitt de Google explique que Google prête attention aux critères de performance tels que les bits de rendu et plus, par exemple. reconnaître la réactivité d’une page. Quelle est l’impact des performances du site Web, mais rien n’est dit.
La mise à jour de Google Speed
En janvier 2018, Google a annoncé que Page Speed serait un facteur déterminant pour la recherche mobile dans le Mobile First Index. La mise à jour de Google Page Speed Update a été lancée en juillet 2018. Cela a fait de Page Speed Mobile un facteur de classement. Fait intéressant, cette fois-ci, la vitesse de circulation de Google AdWords était également un élément de qualité du score de qualité.
Cependant, l’impact sur le classement ne semble ressembler à celui des recherches sur ordinateur et ne distingue que les sites Web rapides et lents.
“La” mise à jour rapide “, comme nous l’appelons, n’affectera que les pages offrant aux utilisateurs l’expérience la plus lente et n’affectera qu’un faible pourcentage des requêtes. Il applique la même norme à toutes les pages, quelle que soit la technologie utilisée pour créer la page. L’intention de la requête de recherche est toujours un très fort signal.
Cependant, dans un hang webmaster début juin 2018, John Mueller a déclaré qu’ils utilisaient le Mise à jour de la vitesse de la page mobile considérez les temps de chargement plus différenciés. Il faut non seulement s’assurer que le bot Google reçoit la page rapidement, mais surtout l’utilisateur. Ici, Google prétend également utiliser des données utilisateur réelles de Google Chrome.
“Bloquer les scripts pour accélérer une page réservée à Googlebot ne changera pas le classement de votre page.”
En outre, John Müller devient encore plus concret dans un autre Hangout pour les webmasters. Par conséquent, Google utilise la mesure de la vitesse de la page pour les données du rapport sur l’expérience utilisateur de Chrome. Les utilisateurs qui ont donné leur consentement transfèrent leurs données à Google. Là, ces données sont collectées et évaluées. Cela aide à déterminer comment un site Web se comporte dans des conditions réelles.
Toujours dans une bulle le 05.02.2019, John von Page Speed parle en tant que facteur de classement faible. La qualité du contenu est encore plus importante.
Vitesse et classement de la page d’investigation de corrélation (décembre 2016)
Notre dernier temps de chargement et notre enquête sur les classements Google sont basés sur les données que nous avons collectées en décembre 2016. Les questions suivantes nous voulions u.a. répondre:
Existe-t-il une relation entre Google Page Speed Points et le Google Ranking
Y a-t-il une corrélation entre le temps de chargement et le classement
Le temps de chargement ou les points de vitesse de la page sont-ils pondérés différemment dans les 10 premiers résultats par rapport aux onze à vingt résultats?
Pour cette enquête, nous avons pour 20 mots-clés les 20 meilleurs résultats de recherche Les données sur les points sont bruyantes Google Page Speed (Desktop et Mobile) aussi bien que temps de charge recueillis. Les mots clés étaient un mélange coloré Mots-clés courts et moyens avec une intention de recherche transactionnelle et commerciale, par ex. les combinaisons de terme Content Marketing, mode pour grassouillet, assurance-maladie, protection civile, huile d’olive, certificats cadeaux, suivi du temps, banque d’alimentation …
Pour cela, nous avons eu recours aux outils suivants:
J’ai ensuite défini les scores et les temps de chargement via une analyse de corrélation par rapport au classement par URI. J’ai ensuite fait la même chose pour le temps de chargement en termes de taille de page et de nombre de requêtes http. Comme je n’ai pas trouvé d’outil pour interroger en masse les données, nous avons dû collecter toutes les données manuellement, et ce, grâce à nos stagiaires diligent, Simon! Quiconque a un outil de feuilles de calcul sous la main est toujours à la hauteur. Volontiers dans les commentaires …
Tout d’abord, les résultats de l’analyse de corrélation sur la relation entre les points de Google Page Speed Tool et le classement de Google dans le top 20, la To10 et la position onze à vingt.
Cliquez sur l’image pour l’agrandir
Coefficient de corrélation Top 20 (Desktop): -0,40672
Coefficient de corrélation Top 10 (Desktop): -0,7694
Coefficient de corrélation Top 11-20 (Desktop): -0,06355
Cliquez sur l’image pour l’agrandir
Coefficient de corrélation Top 20 (Mobile): -0,47139
Coefficient de corrélation Top 10 (Mobile): -0,8895
Coefficient de corrélation Top 11-20 (Mobile): -0,3946
Cliquez sur l’image pour l’agrandir
Coefficient de corrélation Top 20: -0,08871
Coefficient de corrélation Top 10: -0,61247
Coefficient de corrélation Top 11-20: -0,06564
Le coefficient de corrélation
Avant d’interpréter ces résultats, une brève explication des coefficients de corrélation. Le coefficient de corrélation est compris entre -1 et +1. Il indique la probabilité d’une relation entre les variables ou non. Pour un assez petit nombre d’échantillons, des coefficients de corrélation allant de 0,9 à 1 sont considérés comme très élevés. Donc, une connexion est très probable.
à 0,2 => très faible corrélation
à 0.5 => faible corrélation
à 0,7 => corrélation moyenne
à 0,9 => forte corrélation
plus de 0,9 => très forte corrélation
À o il n’y a pas de connexion. Dans la zone négative, c’est l’inverse. Il est important de comprendre cela lorsque vous examinez les points de l’outil Page Speed Insights et le classement. Puisque l’hypothèse doit être examinée pour savoir si le classement augmente avec le score croissant, c’est-à-dire que la valeur se déplace dans la direction de la position un, la corrélation se comporte de manière dysfonctionnelle. Donc, la corrélation négative la plus élevée possible confirmerait l’hypothèse. Au moment du chargement, un coefficient de corrélation prononcé correspond à une corrélation forte.
Informations complémentaires sur le coefficient de corrélation.
Corrélation, cependant, ne signifie pas causalité. C’est pourquoi j’interprète les résultats suivants au subjonctif. En outre, chaque référencement doit indiquer que la détermination du classement est si complexe qu’il est presque impossible de déterminer clairement les dépendances entre le classement et les indicateurs individuels.
Les questions sur l’enquête
Nous nous sommes rapprochés un peu plus des réponses aux questions suivantes au cours de l’enquête:
Existe-t-il une corrélation entre le classement Google et les scores de l’outil Google Page Speed Insights?
Existe-t-il un lien entre le classement Google et le temps de chargement?
Selon quels paramètres devez-vous effectuer une optimisation de la vitesse de la page du point de vue du référencement? Points de vitesse ou temps de chargement?
Le poids du temps de chargement / de la vitesse de page de Google est-il un facteur de classement plus important dans le classement des 10 meilleurs résultats de recherche?
Existe-t-il une relation entre la taille d’une page et la vitesse de chargement?
Existe-t-il un lien entre le nombre de requêtes http et le temps de chargement?
Existe-t-il une corrélation entre le classement Google et les scores de l’outil Google Page Speed Insights?
Selon les résultats de notre enquête, il semble exister une corrélation entre le classement et le classement de Google Page Speed Tool. La corrélation entre les points mobiles et le classement est supérieure aux points de bureau. Le coefficient de corrélation est déjà élevé dans les 10 meilleurs résultats de recherche à 0,89, ce qui suggère une corrélation.
Cependant, il faut aussi noter qu’il y a toujours des valeurs aberrantes fortes. Par exemple mon article Qu’est-ce que le marketing de contenu? Informations, définition, objectifs, stratégie et plus. Cette entrelace depuis des années pour le terme Marketing de contenu constante en position deux ou trois. Mais réside avec un temps de chargement de plus de 10-15 secondes déjà dans la très lente pour les utilisateurs de la zone désagréable. Et même avec l’outil Page Speed Insights, il ne pue pas du tout avec la gloire et se classe dans la zone rouge foncé:
Une performance de site Web incroyablement mauvaise
C’est juste un exemple. Il existe des valeurs aberrantes dans presque tous les ensembles de données, ce qui suggère que le facteur de classement Page Speed et le temps de chargement sont médiocres au maximum.
Par conséquent, nous devons continuer à nous orienter vers la déclaration de Maile Ohye de l’année 201o. Il existe probablement des facteurs de classement beaucoup plus importants que Page Speed, tels que Contenu, liens et confiance / autorité du domaine lui-même.
Existe-t-il un lien entre le classement Google et le temps de chargement?
Le coefficient de corrélation avec la relation entre le temps de chargement et le classement Google est avec 0,61 dans le top 10 des résultats de recherche plutôt moyen. Par conséquent, une connexion ne peut pas être exclue mais cela semble plutôt faible.
Selon quels paramètres devez-vous effectuer une optimisation de la vitesse de la page du point de vue du référencement? Points de vitesse ou temps de chargement?
De nombreux optimiseurs de vitesse de page vont crier et protester ici, mais je recommanderais d’utiliser l’optimisation de la vitesse de page pour les points mobiles de l’outil Page Speed Insights, si tel est le cas, pour de meilleurs résultats. Mais la critique de cette procédure serait justifiée compte tenu de la vitesse perçue par l’utilisateur comme Torben Leuschner dans son article, Démystifier l’outil Google PageSpeed Insights avec des collègues de ryte explique:
Google PageSpeed Insights n’analyse pas les temps, à l’exception d’un conseil (temps de réponse moyen du serveur). Nous parlons donc “d’optimisation du temps de chargement et de la vitesse” et du temps, la mesure la plus importante tombant simplement sous la table.
Mais en ce qui concerne le classement, ces points semblent être la meilleure orientation.
Est-ce que Google pondère le temps de chargement / la vitesse de la page en tant que facteur de classement pour le classement dans les 10 meilleurs résultats de recherche?
Ici un clair oui. J’irais même jusqu’à dire que ce n’est que pour les positions un à dix que la vitesse de classement est un facteur de classement. Au moins les corrélations aux positions 11 à 20 sont si faibles par rapport aux coefficients du top 10 qu’on peut en déduire.
À quelle vitesse les pages se chargent-elles en moyenne et y a-t-il un seuil?
Ce que j’ai remarqué dans les enregistrements des différentes requêtes de mots clés est que plus de 90% des sites Web examinés plus rapidement que 3 secondes ont chargé. En outre, le temps de chargement moyen de tous les sites Web, mesurés auparavant à Pingdom, était actuellement de 3,25 secondes, ce qui coïnciderait également avec les déclarations de John Mueller sur les sites Web rapides.
Enquête Impact Temps de chargement et premier octet du classement (novembre 2014)
Notre première enquête sur la vitesse de page et le classement remonte à la fin de 2014. Dans cette étude, semblable à celle du MOZ, nous avons l’influence de la Première heure. Temps de chargement de la page et poids un site Web vérifié pour le classement. À cette fin, nous avons saisi 50 requêtes de recherche provenant de différents domaines sur Google et examiné le temps de chargement, le temps de premier octet et le poids de chacun des dix premiers sites Web de classement des résultats de recherche. Voici les résultats:
Enquête sur le temps de chargement de Aufgesang
Résultat première enquête: seulement un petit impact sur le classement
Notre test de vitesse de page a montré une image similaire à celle de l’étude de MOZ (voir ci-dessous). Sauf pour le Première heure Il semble n’y avoir aucune corrélation directe claire entre la vitesse ou le temps de chargement ou le poids d’un site Web à classer. À la Première heure peut-on sentir une connexion. En outre, le très estimé collègue Michael Janssen a mené sa propre enquête, à partir de là plutôt Premier temps inférieur à 300 ms comme une recommandation. Toutefois, cela dépend essentiellement de la vitesse du serveur sur lequel le domaine est hébergé.
Autres études sur le temps de chargement et le classement dans les moteurs de recherche
Des études ultérieures de ces dernières années, il apparaît également que la “vitesse” d’un site Web ne semble pas être un signal de classement important. En outre, en 2013, une étude de MOZ a montré la corrélation entre le temps de chargement, le temps de réponse et la taille d’une page et le classement de 2 000 requêtes de recherche. MOZ n’a trouvé aucune corrélation entre le temps de chargement, la taille du site Web et le classement. La seule chose que vous pouvez deviner en tant que connexion au classement d’une page faible est la réponse ou heure du premier octet.
Nos données montrent il n’y a pas de corrélation entre le “temps de chargement” et le classement sur la page de résultats de recherche de Google, Cela est vrai non seulement pour les recherches génériques (un ou deux mots clés), mais également pour les recherches “à longue traîne” (4 ou 5 mots clés). Nous n’avons vu aucun site Web avec des temps de chargement de page plus rapides. Si le temps de chargement d’une page est un facteur dans les classements des moteurs de recherche, il est perdu dans le bruit des autres facteurs. Nous avions espéré voir une corrélation en particulier pour les requêtes génériques à un ou deux mots. Nous sommes convaincus que la forte concurrence pour les recherches génériques rendrait des facteurs moins importants, tels que la vitesse de défilement des pages. Ce n’était pas le cas.
Enquête MOZ: temps de chargement et classement
L’étude Searchmetrics sur les facteurs de classement de 2015 n’a pas non plus réussi à établir de lien.
Une caractéristique hautement technique, présente pour la première fois dans l’analyse de l’année dernière, est “sitespeed”. Ce facteur a été inclus dans le pool de facteurs de classement pour 2013, sur la base d’une corrélation clairement positive. Toutefois, la corrélation pour cette valeur était proche de zéro, comme indiqué dans le graphique récapitulatif des modifications.
Conclusion: La vitesse de la page est importante pour UX, médiocre pour le référencement
Google le dit depuis des années et notre enquête le suggère. Page Speed a une influence sur le classement des sites Web. Selon nos résultats de recherche, en particulier pour les 10 meilleurs résultats de recherche. Mais combien d’effort faut-il faire si l’on veut rendre son site plus rapide? Ici, il faut d’abord poser la question pour laquelle je veux faire l’effort. Pour les moteurs de recherche ou le classement ou pour que l’utilisateur se sente à l’aise sur le site?
Je recommanderais toujours à l’utilisateur d’optimiser toujours la vitesse de chargement. Et qui vient maintenant avec l’argument de l’homicide involontaire coupable Les signaux des utilisateurs sur les sites Web affectent le classement, ce qui doit me prouver une fois avec sa propre enquête ou une référence à d’autres enquêtes. Personne ne doute que Google trouve les sites Web performants et conviviaux bien. Mais entre trouver le bon et l’intégrer à l’algorithme de classement, il y a toujours une différence.
John Mueller a répondu à ma question explicite sur les signaux des utilisateurs en tant que signal de classement direct l’année dernière:
De mon point de vue, il est logique d’examiner les signaux des utilisateurs à plus grande échelle. En particulier, lorsque nous testons des algorithmes, les choses sont identiques à celles de n’importe quel site Web, par exemple. Tests A / B où vous pouvez voir ce qui fonctionne le mieux, ce qui fonctionne le moins bien, et cela a du sens quand même. Si vous vous référez à des pages individuelles, je pense que cela a moins de sens que vous puissiez inclure cela.
La déclaration de John est donc similaire aux autres déclarations de Google sur le sujet.
Une documentation détaillée de tous les relevés Google actuels et d’autres informations à ce sujet dans l’article sont des signaux d’utilisateur et un facteur de classement comportemental d’utilisateur? ,
Par conséquent, la question est toujours justifiée de savoir pourquoi, dans le monde du référencement, ces dernières années, la vitesse (de chargement) d’un site Web, encore et encore, important ou même très important Le signal de classement est appelé, bien que des études à grande échelle ne prouvent pas cette thèse et que ce soit Google lui-même depuis les déclarations de 2010, le poids du signal de classement “vitesse” n’a pas augmenté.
En tant qu’observateur critique et auditeur, une raison de plus de prendre tout cela encore et encore avec ses propres petits examens au microscope. L’influence est à la hausse depuis notre dernière enquête en 2014. Mais un facteur de classement important? Facteur de classement oui! Important ou même très important? Non!
Le sujet est bouilli dans les cercles du SEO encore et encore, parce qu’il est très technique. Et surtout, les référenceurs techniques adorent les solutions compliquées, car ils peuvent ainsi préserver la souveraineté du savoir et sa position exposée. La sécurité territoriale, pour ainsi dire. Et les référenceurs adorent les mesures tactiques ou les hacks: mettez en place une mesure et obtenez immédiatement un meilleur classement. Mais selon mon expérience, ces temps sont tout juste révolus.
Une conclusion similaire vient aussi Shaun Anderson de hobo, L’après enquête propre dans son post Quelle est la vitesse d’un site Web charge en 2017? résume ce qui suit:
Ce signal de classement et cette légère amélioration de la vitesse justifient-ils des heures consacrées au réaménagement de votre site? En soi – ce n’était pas le cas – lorsque vous devez choisir entre des tâches de nettoyage SEO, le réaménagement de sites Web, le marketing de contenu ou l’amélioration de la pertinence de votre page.
Une approche technique pour améliorer l’expérience utilisateur, il me semble, voudraiscommencer avec la vitesse du site.
Un site plus rapide devrait par exemple améliorer le niveau de satisfaction des visiteurs et le nombre de conversions. SEO pense que QUERY COMPLETION & SATISFACTION SIGNALS sont des mesures importantes pour la recherche de pages de résultats dans les moteurs de recherche en 2017.
Pour être honnête, je ne m’attendais jamais à des temps de chargement plus rapides pour améliorer le classement de mon site.
Il n’y a pas grand chose à ajouter!
Outils pour tester la vitesse des pages et les temps de chargement
À ce stade, il convient de noter qu’il n’existe aucun outil selon Google, qui mesure la mesure des temps de chargement d’un site Web tel que Google le fait en interne.
Déclaration de John Müller à partir de juillet 2018 sur les outils de vitesse de page
Cependant, il existe des ressources d’outils utiles qui peuvent être utilisées pour analyser des sites pour déterminer la vitesse de lecture
Pingdom
Webpagetest.org
GMetrix
Outil Uptrends
Outil de Google pour tester la convivialité mobile
Google Page Speed Insights
Phare de Google
Test de vitesse de page en vrac
Comment une agence spécialisée dans la performance web peut vous aider à intégrer les Core Web Vitals ?
Avec de plus en plus de critères à prendre en compte pour Google, force est de constater que les webmasters les plus novices en la matière peuvent avoir parfois de grandes difficultés à joindre les deux bouts. En effet, il arrive parfois qu’en tant qu’éditeur de site web, ou bien tout simplement en faisant partie d’une équipe de développeurs chez un grand compte, vous n’ayez pas assez de temps pour prendre en compte les besoins de Google. Ainsi, si vous vous trouvez dans ce cas précis, plusieurs options s’offrent à vous :
vous pouvez essayer de former vos équipes, au détriment d’autres projets de l’entreprise
vous pouvez fermer les yeux sur les Core Web Vitals, au risque de voir votre site web déclasser petit à petit avec le temps
vous pouvez faire appel à de vrais professionnels du SEO et de la performance web
Bien évidemment, comme vous l’avez compris, nous ne pourrions que vous recommander de faire appel à des experts de la performance web : c’est selon nous la meilleure solution que vous pourrez choisir. En effet, bien que cela puisse paraître comme un aveu d’échec de ne pas pouvoir avoir le temps de gérer les Core Web Vitals pour votre site web, force est de constater que vous n’avez tout simplement pas forcément le temps pour cela. Par ailleurs, dans le cas où vous évoluez actuellement dans le monde de la vente en ligne, vous savez sans doute que les Core Web Vitals sont un facteur essentiel pour le e-commerce.
Comme vous pouvez vous en douter, les agences qui se spécialisent justement dans la performance des sites web peuvent utiliser des outils pour améliorer le score des Core Web Vitals des sites web de leurs clients. Bien que l’on connaisse assez bien les outils classiques de Google comme Page Speed Insights, ou encore les quelques données sur les performances disponibles dans la Google Search Console, cela n’est pas toujours suffisant.
Ainsi, en faisant appel à une agence spécialisée dans la performance web, vous pourrez bénéficier des dernières technologies permettant de donner un vrai “coup de boost” à votre site web, tout en utilisant des technologies de développement qui sont bien à jour. De cette façon, vous n’aurez plus besoin de vous concentrer sur ces aspects, et vous pourrez reprendre la roadmap de votre projet web tranquillement…
Le 27 janvier 2015, les premiers clients d'OnPage.org ont participé à notre événement de certification OnPageExpert. Comment la journée s'est passée et ce que nos clients en pensent, nous avons résumé ici.
Comment planifiez-vous un événement sur OnPage.org? Tout simplement … vous réservez un cinéma complet, placez les clients dans des fauteuils confortables, leur montrez de nouvelles fonctionnalités, faites un tour de table puis laissez les clients faire un test exigeant.
Bien que ce ne soit pas une tâche facile pour l’équipe, nous aimons toujours le faire pour nos clients. Sous la direction de Christoph, la mission "OnPageExpert" a débuté à 7 heures du matin. La fatigue n’a pas été ressentie par l’équipe, au contraire. Motivés et de bonne humeur, nous nous sommes rendus pleins à craquer pour le Filmtheater de Sendlinger Tor – un lieu agréable avec une atmosphère unique.
En arrivant sur les lieux, l’ensemble de l’équipe a rapidement mis en place le montage complet pour les prochaines présentations. Même aux petites pauses entre les deux n'a pas été enregistré. Les personnes affamées de certification recevaient du café fraîchement moulu, de petites collations, des boissons et, pour couronner le tout, beaucoup de bière.
The Opening – Discours de Marcus Tandler
Quiconque connaît notre Marcus sait exactement à quoi s'attendre. Comme d'habitude, le PDG de OnPage.org s'est éclaté avec son infâme orage de diapositives. Il a explicitement souligné la position de force de la société de moteurs de recherche Google dans notre vie numérique. Cependant, selon Marcus, nous sommes également confrontés à un autre saut dans l'évolution. Les liens joueront un rôle secondaire dans un avenir proche, les facteurs de votre propre page – par exemple, OnPage – devenant nettement plus pertinents.
Perspectives techniques et sécurité
La deuxième présentation était principalement consacrée à la composante technique de OnPage.org. Nos deux informaticiens infatigables, Merlin et Danny, ont présenté les nombreuses fonctionnalités de l'outil et suggéré des moyens de les utiliser de manière idéale. Alors que notre CTO Merlin a initié des sujets d'un point de vue technique, Danny a expliqué les fonctions d'un point de vue technique.
Publication officielle de OnPage.org Mentions
OnPage.org est connu pour ses surprises. Cette fois aussi, il y avait une autre nouvelle innovante à annoncer. Christian B. Müller, notre développeur, qui s'est passionné pour le projet Mentions, a lui-même annoncé la date de sortie du nouvel outil, qui fait désormais partie de la famille d'outils OnPage.org. Avec OnPage.org Mentions, les clients existants peuvent désormais obtenir le leur observer les mentions sociales sur le web,
Le grand test de certification
Passons à l'occasion réelle de l'événement. Au premier plan bien sûr était le Certification de OnPage.org, Un test de 20 minutes était à l’origine conçu comme une requête en ligne, mais le WiFi dans les salles de cinéma a été un succès. Le plan B était alors la variante qui prenait le plus de temps: au lieu de cela, le test était réalisé dans le style classique – avec un stylo et du papier! Les participants étaient visiblement bouleversés, car la majorité était beaucoup plus détendue après le test et le rire était beaucoup plus intense. Peut-être que c'était aussi la bière gratuite suivante 🙂
Les résultats du test OnPageExpert
Le test lui-même était assez net, mais réalisable. Malheureusement, à cause du formulaire papier, les questions spécifiques à une application ont été éliminées. Au total, 95 participants ont passé l'examen et ont obtenu de bons résultats grâce à la banque. Cependant, le score complet n’atteint qu’un seul: * roulement de tambour *
Un chaleureux "bravo" de toute notre équipe!
Bien que l'évaluation du test ait pris un certain temps, nous avons pu corriger tous les tests et présenter les résultats. Ce diagramme montre comment les participants à la journée de l'événement ont été complètement coupés. La majorité, soit 62% de tous les participants, ont réussi le test avec la mention "bon". 28% des candidats à OnPageExpert ont réussi haut la main et 6% ont démontré d'excellentes compétences OnPage et ont réussi le test avec le statut Expert Gold. Pour les 4%, cela ne suffisait pas (mais alors la prochaine fois!)
Nous sommes très fiers de tous nos participants, vous avez fait de l’événement ce qu’il est. Vous êtes le vrais super-héros et maintenant OnPageExperts aussi!
Étude de commerce électronique sur le référencement, les AdWords et les médias sociaux dans les boutiques en ligne allemandes. Après 2011, 2012 et 2013, nous publions pour la quatrième fois le présent rapport de statu quo sur le paysage du commerce électronique allemand dans les domaines du référencement, de l'ESIE et des médias sociaux.
Les moteurs de recherche tels que Google & Cie sont la pierre angulaire de la recherche et de la recherche sur Internet. La recherche sur le net est le point de départ de millions de décisions d'achat quotidiennes. Mais aussi les réseaux sociaux comme Facebook et Twitter gagnent en influence. En conséquence, le marketing par moteur de recherche (SEM), sous forme de publicité sur les moteurs de recherche (SEA), d’optimisation des moteurs de recherche (SEO) et de marketing sur les médias sociaux fait désormais partie intégrante du mix marketing en ligne.
Le marketing des médias sociaux n’est pas non plus le seul objectif de nombreuses entreprises en raison de la pertinence future de leur référencement. En particulier pour les boutiques en ligne, le trafic des moteurs de recherche et des médias sociaux joue un rôle important dans le marketing en ligne en raison de la qualité des visiteurs et des taux de conversion supérieurs à la moyenne qui en résultent. La présente étude documente l'utilisation du marketing par moteur de recherche et du marketing des médias sociaux dans les plus grandes boutiques en ligne allemandes en 2014 et par rapport à 2013. Nous remercions vivement Searchmetrics, qui nous a de nouveau apporté son soutien à cette étude.
Le PDF de l'étude de 26 pages peut être cliqué contre la couverture Tweet. Publier sur Google+, Xing ou LinkedIn ou Partager sur Facebook Télécharger. Si vous avez des problèmes de téléchargement, veuillez contacter info (at) aufgesang.de avec la capture d'écran de l'article sur Google+, Xing, LinkedIn, Facebook ou Twitter. Nous vous enverrons le PDF par courrier. Comme toujours, nous avons sur demande pour les journalistes et les blogueurs les diagrammes d’étude individuels fournis compactés par zip à télécharger.
En cliquant sur l'étude de couverture pour télécharger ou télécharger Tweet
Contenu de l'étude
La présente étude examine les activités des 177 plus grandes boutiques en ligne dans les domaines Médicaments, Accessoires auto / moto, Médias, Électronique, Vêtements, Gamme complète, Jouets, Meubles, Équipement de bureau, Aliments pour animaux domestiques, Bricolage et produits de beauté en Allemagne concernant l'optimisation des moteurs de recherche (SEO), Google AdWords (SEA) et les médias sociaux. En plus du statu quo au premier semestre de 2014, nous avons également comparé certains chiffres clés avec ceux de 2013. Les données sous-jacentes datent de mai 2014 et avril 2013, respectivement.
Quoi de neuf sur l'étude de 2014?
Cette année encore, nous avons inclus de nouveaux chiffres dans les considérations. Alors maintenant, nous considérons également la distribution sociale sur Facebook, Twitter et Google+. En outre, cette fois-ci, nous examinerons l'universel La répartition de la recherche est séparée par des images, des cartes et des vidéos, ainsi que par la visibilité des images, des vidéos et des cartes. En ce qui concerne la visibilité payée, nous avons déterminé la moyenne de plusieurs valeurs de points de données pour les six premiers mois de l'année considérée, à la fois dans le statu quo et dans l'analyse de comparaison annuelle. En conséquence, les fluctuations saisonnières de l'activité AdWords ont été mieux capturées. Avec l'image, les cartes et la visibilité vidéo, nous avons ajouté de nouvelles valeurs aux évaluations.
SEO, SEA et médias sociaux Étude 2014 de la boutique en ligne
Voici quelques extraits de l'étude:
Les résultats du moteur de recherche classique en bio restent de loin le plus important canal Google pour les boutiques en ligne allemandes, avec 81,66%, suivis par AdWords avec 9,34% (hors Shopping) et les résultats de Universal Search avec 9,05%. (voir page 25)
La visibilité organique joue un rôle supérieur à la moyenne, en particulier pour les magasins de médicaments, d’électronique et de vêtements. Dans le secteur des équipements de bureau, les grands magasins accordent beaucoup moins d'importance à la visibilité organique sous la forme de résultats de recherche classiques. Ici, les résultats d'AdWords et de la recherche universelle jouent en particulier sur les impressions de la recherche d'images, un rôle supérieur à la moyenne par rapport aux autres secteurs. (voir page 18)
Votes sur les études récentes sur le commerce électronique
"Étude très large avec des résultats surprenants. Le secteur de la vente au détail est généralement très prudent par rapport aux autres industries et donne souvent la priorité aux autres. Du point de vue positif, le Web 2.0 est désormais également disponible dans le commerce de détail allemand. même si cela prend du temps. Le potentiel commercial est énorme. Les taux de croissance vont certainement se poursuivre pendant cinq à dix ans. Cela a maintenant lentement compris tout le monde dans l'industrie. C'est pourquoi les choses avancent vite … "
Les études de magasin de 2012 et 2013 à télécharger
Téléchargez l'étude 2012 en cliquant sur la couverture
Téléchargez l'étude 2013 en cliquant sur la couverture
Avez-vous remarqué que seuls certains titres suscitent votre curiosité? Björn Tantau explique comment votre CTR peut décoller avec les titres appropriés.
Savez-vous combien de titres un internaute moyen voit par jour? 1300 pièces. Terrifiant, non? Ce qui est encore plus effrayant, c'est que seulement 0,3% d'entre eux sont réellement respectés. Cela signifie que 99,7% de tous les titres sur Internet disparaissent plus ou moins inaperçus dans le nirvana numérique.
Donc, si vous produisez du contenu vous-même, vous devez vous démarquer de ces 99,7%, car sinon, votre contenu n'a aucune chance d'être vu. Conséquence: beaucoup de travail, pas de circulation – et c'est très peu satisfaisant, car vous me garantirez le droit. Cependant, il existe également un moyen intelligent de sortir de cette impasse et je vais vous le décrire tout de suite. Cela vous permettra de produire des titres parfaits en seulement 7 étapes. Des titres qui se coincent avec les utilisateurs et vous apportent du trafic:
1. Utilisez des mots forts dans vos titres
Je suis moi-même originaire du nord et j'ai grandi en dehors de Hambourg. Et dois-je te dire quelque chose? L'Allemagne du Nord est en soi comme une certaine "fraîcheur" supposée. En d'autres termes, nous, au nord, sommes toujours un peu réservés et "réservés".
Que ce soit bien sûr un cliché, je n'ai pas besoin d'expliquer davantage. Et c'est aussi un non-sens – au moins quand il s'agit de faire la une des journaux. Avec ce dispositif stylistique journalistique, la "retenue élégante" ne convient souvent pas du tout.
Raison: avec trop de retenue, vos gros titres sont trop ennuyeux. Je ne veux pas dire que vous devriez toujours en faire trop. Mais un peu plus n'a jamais fait de mal, tout comme vos titres.
Un bon moyen de faire la une de vos journaux est d’utiliser des mots forts. Avantage: des mots comme "extrême", "significatif", "utile" ou "incroyable" sont perçus différemment par vos lecteurs. Ils sont perçus de manière plus intensive et garantissent que les utilisateurs traitent votre titre de manière plus intensive.
Et c'est ce dont il s'agit: vous devez vous assurer que le titre vous donne envie de plus. Si vous perdez votre public par le titre, vous avez un problème, car presque personne ne regarde deux fois un article – s'il pense à première vue qu'il peut s'agir d'un contenu ennuyeux.
Mais méfiez-vous! Si vous annoncez quelque chose de "extrêmement significatif" dans votre titre, vous devez tenir vos engagements en conséquence. Si vous ne le faites pas, vous n'êtes pas crédible. Vous devez également garder l'équilibre: bien sûr, il n'est pas bon de sous-estimer. Mais si vous "trop" sur le plâtre, vous ne serez pas heureux – après tout, vous ne voulez pas être comparé au niveau d'un "grand journal allemand".
2. Faites attention à la bonne longueur pour votre titre
"La taille importe!" …: Jamais entendu? Je pense que oui, parce que le dicton est assez épuisé et est mis à rude épreuve pendant des années. Pourquoi est-ce que je le fais alors ici? Tout simplement parce que dans la plupart des cas, c'est tout simplement vrai.
Et vous pourrez l’imaginer – c’est également vrai pour vos titres. Ce serait trop facile, cependant, s'il s'agissait simplement de produire de la taille. Avec vos en-têtes, vous devez faire attention de choisir la bonne taille – et bien sûr en ce qui concerne la longueur, pas le dimensionnement des lettres.
Ce n’est pas toujours facile, mais c’est le but de cet article. Lang n'est pas toujours bon, même court peut fonctionner. En fin de compte, cela dépend toujours du sujet. Pour Google également, il est important de respecter la limite de caractères car, par exemple, Google n'affichera pas le titre complet s'il est trop long. 50 caractères ne doivent pas être dépassés compte tenu de ce sujet.
Cependant, vous pouvez également avoir une direction stratégique différente et si votre titre doit compter plus de 50 caractères, alors c'est tout – si votre titre est bon, c'est acceptable à 100%. En plus de Google, il existe diverses autres sources de trafic (par exemple, Facebook), ce qui peut être très lucratif de siffler sur Google, car vous avez à peu près autant de trafic et de portée.
Assurez-vous donc que votre titre est aussi long que nécessaire et le plus court possible. Si vous parvenez à stocker toutes les informations importantes et en même temps à créer une tension initiale à ce moment-là, alors vous y êtes parvenu – votre public omettra alors votre titre.
3. Le mot de recherche le plus important est juste à l'avant
Même avec des titres, vous devez parfois faire des compromis. Par exemple, si vous voulez avoir de bonnes cartes avec un terme de recherche spécifique sur Google. Bien entendu, le terme de recherche dans le titre n’est qu’un facteur de classement supérieur à 200 – mais relativement important par rapport au reste.
Google pense: si un certain mot dans un titre est placé au début, alors il doit être plus important. Compréhensible et surtout un: humain! Google est une machine, mais son objectif principal est de mieux comprendre les requêtes de recherche afin de fournir les meilleures réponses.
Cela semble logique, non? Si non, alors considérez: Si vous voulez communiquer des choses importantes, que faites-vous? Vous communiquez immédiatement les faits importants sans parler autour de la brousse – au moins, je le fais de cette façon et je connais beaucoup de gens qui le font de cette façon. Les choses importantes doivent toujours être mentionnées et clarifiées en premier.
Pourquoi Google ne devrait-il pas cocher cette case? Après tout, Google a été créé par des personnes et quiconque veut "reconstruire" correctement la communication humaine doit également s'y orienter. Comme je l'ai dit, plus de 200 autres facteurs peuvent influencer votre classement sur Google, mais le titre est l'un des facteurs les plus porteurs. Pour cette raison, vous devez vous mettre au travail le plus rapidement possible (ce qui en passant, selon l'expérience, plaira également à votre auditoire humain).
4. Votre titre vous rend curieux
La curiosité est l'un des meilleurs facteurs humains. Par curiosité, de nouvelles inventions sont faites. Les grands explorateurs ont alors traversé les sept mers, car ils voulaient explorer et découvrir la région inconnue. Bien sûr, Christophe Colomb voulait officiellement trouver la voie maritime en Inde pour accélérer les échanges. En fin de compte, toutefois, il souhaitait simplement savoir si cette route maritime existait réellement. Il était curieux.
La curiosité fait bouger les choses. Et bien sûr, vous pouvez utiliser ce lecteur à vos propres fins. Plus vous suscitez la curiosité de votre public, plus votre contenu sera consommé. Donc, assurez-vous toujours que vos titres ne sont pas trop sobres. Interpréter les choses et créer un suspense dès le début.
Bien sûr, vous ne devriez pas être trop vague. Vous devez fournir quelques faits ou au moins indiquer ce que votre public attend réellement. Mais ici, vous devez aussi tenir vos promesses. Si vous êtes curieux et que vous ne pouvez pas garder ce que votre public attend à cause de votre titre, vous deviendrez digne de confiance.
Utilisez donc ce dispositif stylistique à bon escient et pesez exactement comment vous voulez atteindre votre objectif. Si vous donnez trop d'essence, vous risquez de vous heurter au mur. Si vous êtes trop timide, votre titre revient au nirvana numérique et rejoint les 99,7% que personne ne remarque.
5. Posez des questions à votre public
Les questions vous rendent également curieux, vous le saurez par expérience personnelle. Lorsque vous posez des questions à votre public, vous maintenez des attentes élevées. Raison: Bien sûr, on s'attend à ce que vous puissiez également répondre à la question posée.
Ce principe est souvent utilisé dans la presse traditionnelle – et malheureusement, il y est souvent perverti. Les questions sont souvent inventées et ne sont pas basées sur des faits ou des résultats réels. Il s'agit simplement d'attirer l'attention.
Ne vous méprenez pas, ce n'est pas comme ça que vous devriez le faire. Mais vous devriez regarder le principe et l'intérioriser. Avec vos questions, vous suscitez la curiosité et faites en sorte que votre public soit davantage concerné par le contenu suivant, car si la question est intéressante pour l'utilisateur, il souhaite bien entendu connaître la réponse.
Vous fournissez cette réponse avec votre contenu. Si vous offrez une expérience positive en répondant à la question que vous avez posée (parce que la question et la réponse étaient significatives et, surtout, cohérentes), vos lecteurs resteront dans l’esprit.
Bénéfice pour vous: De cette manière, vous faites attention et vous vous positionnez en même temps en tant qu'autorité professionnelle – car vous êtes la personne qui a les bonnes réponses. De cette façon, vous tuez deux oiseaux avec une pierre. Dans l'ensemble, une stratégie très intelligente.
6. Faites une promesse
Une promesse est une chose sérieuse. Si vous promettez quelque chose, vous devez tenir la promesse, sinon vous serez considéré comme indigne de confiance. Si vous vous inquiétez toujours de cela, votre titre est imperméable si vous faites une promesse.
Fondamentalement, une promesse est un outil stylistique très puissant, pas seulement émotionnel. Lorsque vous faites une promesse, les autres comptent sur vous. Non seulement vous comptez sur vous pour tenir votre promesse, mais ils croient aussi instinctivement que votre promesse est vraie et de nature substantielle.
Donc, si vous n'êtes pas sûr à 100%, ne faites aucune promesse. Utilisez la promesse dans vos titres uniquement lorsque vous savez que vous pouvez la tenir – et pas seulement avec le contenu suivant. Même avec des contre-arguments émergents, vous devez pouvoir défendre votre promesse.
Vous voyez, avec des promesses, vous ne pouvez vraiment agir que si vous êtes très sûr de votre cause. En gros, pas de problème si vous effectuez une recherche consciencieuse et objective. De cette façon, vous serez en sécurité et sûr que votre titre ne sera pas sous-traité car avec le temps, votre public vous appréciera. Raison: vous ne décevez pas votre public, car vous tenez toujours vos promesses.
7. Utilisez des numéros dans vos titres
Ne me demandez pas pourquoi, mais les gens aiment les balles. Ce n'est pas pour rien qu'il existe des tableaux dans tous les domaines de notre vie: il existe des tableaux pour la musique, les livres et les films. Il existe des graphiques pour les voitures et les constructeurs automobiles. Oui, il existe même des tableaux pour les cuisines, les machines à laver et les animaux domestiques. Tout est compté – car on peut alors le comparer!
J'ai écrit ci-dessus que je ne sais pas – c'est au moins partiellement incorrect. Je sais beaucoup de choses, en particulier la comparabilité est un facteur important pour que les chiffres fonctionnent si bien. C'est pourquoi rien ne vaut les 10 meilleures listes. Ou cet article que vous lisez: Ceci est une liste des 7 meilleurs. Pas de vrais graphiques, mais une liste.
C'est un meilleur moyen de classer votre contenu, car il indique instantanément à votre public ce dont il s'agit. Le nombre "7" n'est pas choisi au hasard. Tout ce qui concerne un "7" fonctionne mieux. Dans ce cas, je ne sais vraiment pas pourquoi. Honnêtement pas. Mais de ma propre expérience, je sais que cela fonctionne – très bien même (s'applique également aux prix).
Cela semble être quelque chose de psychologique que je ne peux pas me décrire comme je le disais. Mais essayez, vous serez peut-être agréablement surpris …
conclusion
Le titre parfait est possible, même s'il dépend fortement des sujets choisis. Dans certains domaines, vous pouvez bien prendre en compte les suggestions que j'ai mentionnées, dans d'autres ce n'est pas si facile. Mais même dans ces cas, si vous envisagez activement les variations possibles, vous aurez également du succès. Et bien sûr, vous pouvez combiner mes suggestions! Vous pouvez mélanger une liste du top 10 à une question et vous promettre de créer un titre particulièrement intéressant – votre créativité ne connaît pas de limites.
La deuxième partie de la série SEO Reporting concerne l'analyse et l'évaluation des mesures pertinentes du groupe cible avec Google Analytics. Les astuces et astuces suivantes montrent comment utiliser Google Analytics pour identifier les données importantes et identifier les problèmes qui se posent dans le domaine du référencement.
Maintenant que nous avons intégré notre code Google Analytics avec le gestionnaire de balises Google sur notre site et que les données sont transférées dans notre profil Google Analytics, il est temps d'interpréter les données en conséquence. quand Reporting SEO vous devez toujours garder à l'esprit le groupe cible et l'objectif réel. Les responsables de produits considèrent souvent le référencement comme n'importe quel autre canal de trafic. Concentrez-vous donc sur les données et objectifs cumulés. Cependant, un référencement interne surveille le site plutôt que de rechercher les faiblesses et le potentiel d'optimisation et nécessite les outils appropriés.
Cette idée joue un rôle important et montre qu’il n’existe pas un seul rapport complet qui convienne parfaitement à tous les groupes cibles, mais que l’objectif d’un référencement naturel soit de suivre des données ailleurs. Jetons un coup d'oeil à certains rapports de référencement qui pourraient être importants pour le référencement interne.
Quel contenu Google ne trouve-t-il pas pertinent?
Lors de la publication de la première mise à jour de Panda, Google a clairement déclaré que le contenu ne suffisait pas, il devait également avoir un sens. Cela a été suivi par d'autres versions de la mise à jour Panda et le sujet de la qualité du contenu est devenu plus important. Récemment, Google a montré Thin Content comme Soft-404 dans les outils pour les webmasters de Google. Mais comment mesurez-vous le mauvais contenu sur un site Web et comment le faites-vous?
Un moyen très efficace d'identifier le contenu mal lu à l'aide de Google Analytics: il suffit de regarder quel contenu Google a reçu très peu d'attention ou un trafic organique faible. Pour ce faire, nous allons d’abord dans le domaine dans Google Analytics Comportement >> Contenu du site >> Toutes les pages
Ensuite, nous cliquons dans la zone segments et choisissez ici "Accès bio" out, de sorte que rien d'autre n'est sélectionné:
Figure 1: Demandes biologiques
Désormais, nous ne regardons que notre trafic organique, c'est-à-dire le trafic qui provient de notre site via les moteurs de recherche. Si vous souhaitez cibler encore mieux Google, vous pouvez limiter la source à Google ici, mais demandes organiques sont généralement tout à fait suffisants ici.
L'étape suivante consiste à identifier les sites les moins performants. Pour cela, nous utilisons la fonction de filtrage.
Figure 2: Définir le filtre
Ici, nous sélectionnons toutes les vues de page qui, dans notre période de temps, ont moins de deux vues (pour les pages plus grandes, il peut également être judicieux ici de bousiller le nombre en conséquence). À travers notre segment, nous recevons toutes les pages n'ayant reçu qu'un seul visiteur via un trafic organique.
Figure 3: fonction de filtre
Un outil pratique pour évaluer le contenu d'une page sont les signaux de l'utilisateur tels que taux de rebond et durée du séjour, Ces informations nous indiquent si une page a vraiment attiré l’attention des lecteurs ou si les quelques visiteurs n’ont pas été causés par la recherche organique simplement par un mauvais lien interne. Parce qu'une page avec un visiteur et une durée de séjour élevée peuvent être rarement visitées, mais offrent une valeur ajoutée.
Pour une présélection rapide, vous pouvez donc utiliser le filtre suivant:
Figure 4: Combinaison logique de plusieurs filtres
La liste résultante peut maintenant être parcourue et, par exemple, définie sur "noindex" ou révisée. Ici, par exemple, il est également utile d'extraire les URL et de créer une matrice de contenu dans Excel, dans laquelle le contenu est évalué en fonction de divers facteurs de contenu et des mesures sont définies.
Une autre méthode d'analyse de la qualité des textes avec Google Analytics consiste à déterminer dans quelle mesure un utilisateur a fait défiler la page.
Quel contenu a un engagement fort?
Un autre moyen d'identifier le contenu faible, par exemple, consiste à mesurer l'engagement. Pour cela, nous choisissons dans Google Analytics Contenu du site >> Toutes les pages (1) et choisissez une grande période possible. Portez une attention particulière aux éventuelles fluctuations saisonnières, telles que Noël ou généralement les saisons. Il est préférable de prendre 12 mois. D'autre part, vous pouvez identifier les moins performants à chaque saison par une forte restriction.
Maintenant nous choisissons le Vue comparative (2) hors tension, puis comme valeur de comparaison Taux de rebond (3) et régler les choses à la fin Pages vues (4).
Figure 5: Combinaison logique de plusieurs filtres
Le résultat nous montre quelles pages avec beaucoup de visiteurs (tri après les pages vues) ne sont pas assez bonnes (taux de rebond élevé). Si nécessaire, nous pouvons réviser ces pages, les définir sur "noindex" ou les supprimer complètement. N'oubliez pas qu'il existe également des types de page qui ont un taux de rebond élevé par nature, tels que la météo, les heures d'ouverture ou les pages de webcam.
Tableaux de bord Google Analytics
Pour ne pas devoir cliquer à nouveau tous les rapports ensemble, vous pouvez également résumer chaque analyse dans un tableau de bord. Pour ce faire, il vous suffit de cliquer sur "Ajouter au tableau de bord" dans le rapport correspondant.
Figure 6: Ajouter un rapport au tableau de bord
Si vous recherchez de l'inspiration, vous pouvez également accéder à la galerie de tableaux de bord Google Analytics. Juste sous Tableaux de bord >> Nouveau tableau de bord cliquez puis cliquez Importer de la galerie cliquez sur:
Figure 7: fonction d'importation
Ici, vous pouvez maintenant parcourir les catégories ou rechercher spécifiquement des tableaux de bord appropriés à l'aide de termes de recherche, que vous pouvez ensuite personnaliser en fonction de vos besoins.
Figure 8: Personnalisation du tableau de bord
conclusion
Google Analytics fournit aux optimistes de nombreuses données importantes pour prendre des décisions et identifier les problèmes. Vous avez souvent besoin de filtres spéciaux ou de méthodes de suivi. Grâce au Google Tag Manager, le référencement peut les implémenter et les tester très rapidement. Les données obtenues peuvent être des outils très importants pour identifier rapidement les problèmes, en particulier à l'ère du Panda et du contenu fin (Soft-404). Selon la tâche, des tableaux de bord individuels peuvent être utilisés pour cliquer sur un rapport approprié ou utiliser un rapport déjà complété via la galerie de tableaux de bord Google Analytics. L’optimisation des moteurs de recherche est en pleine croissance et les décisions doivent reposer sur des chiffres. Google Analytics, associé à Google Tag Manager, fournit non seulement ces chiffres, mais également la liberté et la souplesse nécessaires pour tester rapidement de nouvelles choses et obtenir de nouvelles informations.
Vous avez manqué la première partie de l'article? Ici, vous en apprendrez plus à ce sujet.
Les spécialistes du référencement présentent les résultats de leurs travaux principalement à l'aide de rapports de référencement réguliers. Comment le gestionnaire de balises Google vous aide-t-il à le découvrir dans le premier article de la série de rapports sur le référencement en deux parties.
Lorsque Google a lancé Google Tag Manager en 2012, le produit a été mal remarqué. Même aujourd'hui, beaucoup connaissent le nom, mais ne savent pas quel outil incroyablement puissant le secteur du marketing en ligne est disponible. Dans cet article, j'aimerais vous donner un aperçu de ce que Google Tag Manager peut faire en combinaison avec Google Analytics, ainsi que du temps et des ressources que vous pouvez économiser sur l'utilisation de ce puissant outil gratuit.
Qu'est-ce que Google Tag Manager?
Google Tag Manager est un conteneur qui entre directement dans le code source après l’ouverture.
La balise est insérée. Une fois intégré à tous les modèles, le contrôle est entièrement effectué via la fenêtre d'administration de Google Tag Manager. Avec cette intégration, l'informatique n'a plus besoin d'agir à partir de ce moment. Toute personne qui ne peut mettre en œuvre que des modifications du code source via un système de ticket et des sprints sera exemptée de cette étape après l'intégration du conteneur GTM. Des modifications à la logique de suivi peuvent être mises en œuvre après l'intégration en quelques clics et testées immédiatement.
Construction du GTM
Examinons de plus près la structure avant d'installer Google Tag Manager pour la première fois:
Figure 1: Système de conteneur dans GTM
compte: C'est un groupe parent dans lequel un ou plusieurs conteneurs peuvent être situés.
récipient: Un extrait de code JavaScript asynchrone,
qui a un identifiant unique similaire à Google Properties. Ce conteneur définit des règles et des balises. Si vous souhaitez utiliser plusieurs conteneurs pour différents domaines, vous devez les lire via les commutateurs de script appropriés. Notez cependant que le suivi entre domaines ne fonctionne pas sans autres ajustements.
de jour: Google Tag Manager est déjà livré avec certaines balises standard telles que Google Analytics, le remarketing GDN de suivi des conversions AdWords, etc.
règles: Les règles quand un jour devrait être tiré. Cela peut être un caractère générique (. *) Ou une URL spéciale (thanks.html) ou toute autre condition pouvant être dérivée du code HTML.
macros: Avec les macros, par exemple, vous pouvez accéder aux éléments DOM et les transmettre aux règles. Google Tag Manager fournit également ici quelques macros importantes, que vous pouvez utiliser immédiatement.
Installation de Google Tag Manager
Tout d'abord, vous avez besoin d'un compte Google. Si vous possédez déjà un compte Google AdWords, Google Analytics ou Gmail, vous pouvez vous inscrire directement à l'adresse www.google.com/tagmanager/.
1. Créez un compte, vous pouvez choisir librement le nom, par exemple votre domaine
2. Créez maintenant un conteneur. Encore une fois, vous pouvez entrer votre domaine à nouveau. Maintenant, sélectionnez "Pages Web" et le fuseau horaire correspondant.
Figure 2: Configuration du conteneur
3. Dans la troisième étape, vous recevrez maintenant le code du conteneur, que vous pourrez trouver sur toutes vos pages directement après la fin du processus.
devrait insérer. Ne soyez pas dérouté par les tags proposés sous le code, ils peuvent être ajoutés plus tard.
Figure 3: Intégration de l'extrait de code
Assurez-vous que le conteneur Google Tag Manager est vraiment intégré à toutes les pages. C'est très simple, par exemple. avec le code personnalisé SEO Screaming Frog, mais aussi avec la fonction "Extraits personnalisés" (sous Paramètres du projet) de SEO Expertise.
Figure 4: Fonction Snippet par SEO Expertise
Une fois que le code est inclus sur toutes les pages, il est temps de tirer parti des puissantes fonctionnalités de Google Tag Manager.
Lier Google Analytics à Google Tag Manager
Jetons un coup d'œil à l'interface de Google Tag Manager dans la vue d'ensemble:
Figure 5: Interface du gestionnaire de balises Google
1. Nom du compte (Prometeo) et du conteneur (domain.tld)
2. Ici, nous gérons notre conteneur et définissons des balises, des règles et des macros
3. Différentes versions de notre conteneur peuvent être gérées ici, par exemple, vous pouvez remettre en direct les versions précédentes
4. Ce bouton discret est très important, ce n'est qu'après cette opération que nos modifications dans le conteneur sont jouées. Cela semble logique, mais est souvent oublié
Pour suivre notre site à l'aide de Google Analytics, nous créons d'abord une propriété Google Analytics ou utilisons un profil existant. Nous n'avons besoin que du code UA-XXXXXX-X correspondant dans Google Tag Manager.
Remarque: Assurez-vous que si vous passez de Google Analytics à Google Tag Manager, vous supprimez le code GA pour éviter les doublons.
Dans Google Tag Manager, on clique d'abord ci-dessous « Vue d'ensemble » sur « NOUVEAU » et puis sur "TAG" , Donne ça « Jour » le nom "Google Analytics" puis composez Sélectionnez le type de tag . "Google Analytics >> Universal Analytics" out.
Figure 6: Intégration de Google Analytics
Dans la fenêtre suivante cela ressemble à ceci:
Figure 7: Création de tags
1. Entrez votre identifiant Google Analytics (UA-XXXXX-X) ici.
2. Les règles sont définies ici lorsque la balise est déclenchée. Puisque nous souhaitons activer Google Analytics sur toutes les pages, nous devons nous assurer que le tag fonctionne sur toutes les pages. Google Tag Manager propose déjà une règle de correspondance "Toutes les pages" sur.
Figure 8: Ajouter des règles
Si la règle est manquante ou a été supprimée, vous pouvez le faire sous "Créer une nouvelle règle" Créer:
Figure 9: Ajouter une règle
3. Nous n'avons pas besoin de ce point dans Google Analytics et peut être ignoré ici.
4. Maintenant, nous cliquons sur sauvegarder et nous devrions maintenant avoir l'image suivante.
Figure 10: Informations stockées
5. Cela suffirait pour terminer l'intégration de Google Analytics. Mais pour que le conteneur prenne également en charge les modifications et les travaux de suivi, nous devons toujours le publier. Pour cela on clique en haut à droite « Publier ».
Figure 11: Publier des tags
À partir de ce moment, nos visiteurs seront suivis via Google Analytics. Le meilleur moyen de vérifier cela consiste à utiliser Google Analytics sur le Suivi en temps réel va:
Figure 12: Publier des tags
Utiliser dans l'entreprise ou sur des sites Web plus grands
Maintenant, bien sûr, la question se pose de savoir pourquoi Google Analytics devrait s’intégrer de cette manière sur un site Web, même si le simple code Google Analytics est tout à fait suffisant.
Nous nous souvenons de la configuration de la Balises Google Analytics Il y avait beaucoup plus de tags à choisir, comme celui Suivi des conversions AdWords ou même ça Remarketing AdWords. Ces solutions sont des extraits de code qui doivent être intégrés à des pages de destination sélectionnées. Pendant le Suivi des conversions Code pour AdWords sur la page de remerciement, vous voulez que le Code de remarketing pour AdWords par exemple, intégrer avec les pages de destination sélectionnées.
Comme cela a déjà été expliqué au début, dans les grandes entreprises, pour chaque modification technique, des tickets doivent souvent être envoyés à l'informatique. Ce processus peut prendre plusieurs jours, voire plusieurs semaines, par exemple si la prochaine version est attendue beaucoup plus tard. Fatal, si alors lors de l'intégration fait une erreur. Cependant, ces chemins sont malheureusement nécessaires pour garantir la sécurité et la qualité du site, en particulier pour les grands sites Web, où de nombreux développeurs travaillent sur une seule page et poursuivent à nouveau plusieurs objectifs du chef de produit.
Avec Google Tag Manager, vous pouvez contourner ces méthodes longues et parfois laborieuses et déterminer indépendamment sur quelles pages. Code de remarketing de Google AdWords être joué ou pas.
Pour cela nous en avons encore mis un autre jour et choisissez cette fois Remarketing Google AdWords out. Portez à partir de notre compte Google AdWords le ID de conversion a. dessous règles de libération Entrons dans nos pages de destination. Si notre page de destination a un dénominateur commun, tel qu'un nom de produit ou un mot clé, nous pouvons déterminer ici les URL qui devraient être affectées par notre balise.
Figure 13: Ajouter des règles
Dans ce cas, notre code de remarketing ne sera lu que si l'URL contient Product1.html, Product2.html ou Product3.html.
Ainsi, au lieu d'ouvrir le code source des pages, vous pouvez utiliser Google Tag Manager pour définir les règles sur les pages auxquelles le code sera lu. Bien sûr, vous pouvez également définir des règles négatives de cette manière
Figure 14: règle d'exclusion
Si vous, cependant, le Code de remarketing de Google AdWords de tous les côtés, à quelques exceptions près, vous pouvez utiliser la configuration suivante.
règle mise à feu: {{URL}} correspond à l'expression régulière. *
Les règles de blocage: {{URL}} contient le formulaire de plainte.html
conclusion
Google Tag Manager est une solution simple qui doit être insérée dans toutes les pages, comme un code Google Analytics. L'interface d'administration de Google Tag Manager vous permet de remplir le conteneur avec des balises telles que Google Analytics et de définir des règles indiquant à quel moment les codes seront chargés (règle de déclenchement) ou bloqués (règle de blocage). Cette fonctionnalité est particulièrement utile si vous souhaitez spécifiquement adresser des pages, par exemple. vous souhaitez charger un code de conversion Google AdWords ou le code de reciblage Google AdWords sur des pages de destination sélectionnées. En particulier dans les grandes entreprises où vous ne pouvez pas modifier un code HTML aussi rapidement, la solution de conteneur de Google Tag Manager permet d’implémenter rapidement les modifications ou d’essayer des solutions rapidement en créant simplement un nouveau profil.
Voici la deuxième partie de la série SEO Reporting.
Les balises de titre et les méta-descriptions sont les figures de proue de chaque page Web dans les résultats de recherche. Si les utilisateurs reçoivent des titres et des descriptions attrayantes qui semblent correspondre à la requête, ils seront également convertis en visiteurs de sites Web.
Le fait que les balises de titre soient importantes, mais moins les descriptions, a déjà fait son chemin dans les connaissances de base de l’optimisation des moteurs de recherche dans de nombreux endroits. Mais les balises de titre ne sont pas importantes uniquement en raison de la pondération de leurs mots clés et les descriptions ne le sont pas en raison de la méconnaissance des mots-clés utilisés comme signal de classement. Alors, quel critère détermine si un utilisateur trouve réellement un résultat attrayant et augmente ainsi le taux de clic d'un site Web (= CTR ou taux de clic) dans les résultats de recherche? La longueur!
Tags de titre et taux de clic dans la recherche Google
Il est bien connu qu'une étiquette de titre doit refléter le sujet sous forme de mots-clés. Pour cette raison, la longueur maximale affichée est principalement utilisée dans les résultats de recherche. Mais les longs titres sont-ils vraiment toujours un avantage? Bien sûr, vous n'avez pas beaucoup de marge de manœuvre avec un maximum de 512 pixels dans les résultats de la recherche et vous décidez donc d'utiliser également la longueur du titre complet. Mais avec toute l'importance des mots-clés dans les balises de titre, il est important de ne pas perdre de vue l'attrait du clic. Après tout, ce n'est pas le classement, mais la fréquence de la conversion des résultats qui détermine si un site Web réussit dans la recherche organique.
Afin de déterminer la longueur du titre qui clique le plus souvent sur un résultat, nous avons examiné 3 500 sites Web en allemand, tous positionnés sur leurs sujets respectifs dans les cinq premiers résultats de recherche organiques. Vous pouvez trouver le taux de clics dans Google Search sur votre site Web dans la catégorie Recherche Google dans Google Webmaster Tools.
Figure 1: Analyse des résultats de recherche dans Google Webmaster Tools
Les critères d'évaluation du CTR sont les suivants:
Longueur de la balise de titre en pixels
Aucune utilisation de schémas pour améliorer le rendu des extraits
CTR moyen des 6 derniers mois
Aucune page de marque pure
Le premier résultat de l'évaluation compare le taux de clics des balises de titre à la longueur correspondante de 512 pixels (bleu) et des balises de titre longues (rouge).
Figure 2: Titre Jour Durée vs. CTR
Selon ces critères, le CTR moyen des titres de recherche Google organique ayant une longueur maximale de 512 pixels dans les résultats de recherche organiques est de 7,28%. En comparaison, le taux de clics des titres trop longs est nettement inférieur, à 4,65%.
En particulier avec les systèmes de gestion de contenu, qui créent par exemple une balise de titre à partir de la balise h1, il est important de veiller à ce que la longueur maximale de 512px ne soit pas dépassée. Sinon, le titre ne sera pas entièrement affiché ou modifié par Google dans certains cas, automatiquement, en fonction de la requête. Pour optimiser le taux de clics, la longueur du titre joue un rôle très important.
En bref, l'assaisonnement l'est aussi!
En deuxième résultat, les titres appropriés d’une longueur maximale de 512 pixels sont divisés en deux catégories.
premier Tags de titre avec une longueur maximale de 256px (bleu) deuxième Balises de titre d'une longueur de 257 à 512px (rouge)
Figure 3: Evaluation de la longueur du titre selon deux catégories
Cela signifie qu'il existe encore des différences de CTR avec les balises de titre correspondantes. Donc avoir Longueur maximale de 256px et CTR moyen de 7,97% et des titres avec 257 – 512px avec 7,07% un peu moins.
Tableau 1: Résultat de l'analyse des balises de titre sous forme de tableau
Qu'est-ce que cela signifie pour l'optimisation des balises de titre?
Cela signifie que non seulement les mots-clés sont importants pour l'optimisation des balises de titre, mais également le comportement des utilisateurs dans les citations des chercheurs. Le CTR dans les résultats de recherche organiques est également un signal de classement non négligeable et peut être influencé par la longueur des titres. Tout ce qui ne doit pas nécessairement être placé dans une balise de titre ne doit pas y entrer. Si le titre d'une page Web est complètement affiché, idéalement, il est légèrement inférieur à 512 pixels et pourtant significatif, il convertira mieux dans la recherche organique.
En outre, il est de plus en plus important de créer des balises de titre différentes des autres, car Google ne met plus en évidence les mots clés dans la recherche. Par exemple, les utilisateurs remarqueront des titres exceptionnellement courts sous quelque chose de plus long.
Pour optimiser la longueur et l'unicité des balises de titre, le méta-filtre par SEO Expertise est idéal.
Figure 4: Analyse de méta-titre avec le succès du site Web de SEO Expertise
À emporter
Si un titre ne contient que les mots-clés les plus importants et a une longueur maximale de 256 pixels, le taux de clics est plus élevé que pour les titres plus longs. Toutefois, si les titres entre 257px et 512px correspondent exactement à la même longueur de requête de recherche, le taux de clic est également bon. Il est donc important d'optimiser le titre non seulement pour les mots-clés, mais également pour la longueur en pixels en fonction du sujet et du comportement de l'utilisateur.
Qu'en est-il des méta-descriptions en termes de taux de clics?
Également pour le CTR des méta-descriptions, j'ai évalué les 3 500 sites Web sélectionnés et les ai comparés à leur longueur.
Figure 5: Longueur de la méta description
Tableau 2: Analyse de la méta description sous forme de tableau
Par conséquent, il est particulièrement frappant de constater que les taux de clics moyens avec les descriptions correspondantes sont très similaires à ceux des taux trop longs et trop courts. Néanmoins, avec 7,54% de descriptions avec une longueur maximale de 512 px, ils ont le CTR le plus élevé. Cela conforte l'idée selon laquelle les balises de titre ont plus d'impact que les méta-descriptions sur la fréquence des clics dans les résultats de recherche.
Le fait que les mots-clés dans les méta-descriptions n'influencent plus le classement des moteurs de recherche est correct d'une part, mais probablement pas de l'autre. Comme mentionné précédemment, le comportement de l'utilisateur en termes de fréquence des clics dans les résultats de recherche est un signal de positionnement. Étant donné que les descriptions mettent toujours l'accent sur des mots individuels correspondant à la requête de recherche, il est important que non seulement la longueur en pixels, mais également l'apparition de mots-indicateurs importants, attirent l'attention de l'utilisateur. Le texte de description peut être rapidement agrémenté du principe AIDA:
attention – Générer de l'attention avec l'utilisateur.
intérêts – éveiller l'intérêt de l'utilisateur.
désir – Désactiver la demande de l'utilisateur.
action – Tentez l'utilisateur à l'action.
conclusion
L'optimisation des méta-descriptions est aussi importante que les balises de titre. Toutefois, dans les descriptions, il est judicieux d’utiliser toute la longueur de pixels affichée dans les résultats de recherche pour attirer l’attention de l’utilisateur grâce à l’utilisation de mots-indicateurs et du principe AIDA. Idéalement, de cette façon, il est possible de fournir aux informations que l'utilisateur est censé être refusé par des balises de titre plus courtes.
Il y a une dernière chose …
Depuis quelques jours, Google teste des méta-descriptions plus longues dans les résultats de recherche en anglais. Celles-ci sont principalement livrées lors de recherches dans le sens de la longueur afin de fournir à l'utilisateur encore plus d'informations sur le contenu du site. Si cette innovation s'avère fructueuse, elle se retrouvera bientôt dans les résultats de recherche nationaux. Sois prêt!
Informations sur l'évaluation CTR: Seules les recherches sur le bureau ont été marquées, car la longueur en pixels diffère sur les appareils mobiles et les tablettes.
Pour la sixième fois déjà, nous publions notre étude sur le sujet: "Marketing en ligne dans les magasins allemands 2016". Comme les années précédentes, nous avons analysé près de 200 des plus grands magasins allemands en ce qui concerne le trafic généré par les moteurs de recherche (SEO + AdWords), les réseaux sociaux, l'accès direct, les références, l'affichage, la messagerie, Pinterest, etc. Téléchargez dès maintenant le PDF d'essai pour le partager via Facebook, Twitter, XING ou Google+ en cliquant sur la couverture de l'étude.
étude Aperçu
Après 2011, 2012, 2013, 2014 et 2015, nous publions pour la sixième fois le présent rapport de statu quo sur le paysage électronique allemand dans les domaines de l'optimisation des moteurs de recherche (SEO), Google AdWords (SEA), du marketing par médias sociaux et du marketing en ligne. ,
Les moteurs de recherche tels que Google sont la pierre angulaire de la recherche et de la recherche sur Internet. La recherche sur le net est le point de départ de millions de décisions d'achat quotidiennes. Le marketing par les médias sociaux est également une préoccupation majeure pour de nombreuses entreprises. En particulier pour les boutiques en ligne, le trafic des moteurs de recherche et des médias sociaux joue un rôle important dans le marketing en ligne en raison de la qualité des visiteurs et des taux de conversion supérieurs à la moyenne qui en résultent.
La présente étude documente l'utilisation d'AdWords, du référencement, de Facebook, de Google+, de Pinterest, de l'affichage et du marketing par e-mail dans les plus grandes boutiques en ligne allemandes en 2016, également par rapport aux années précédentes. Un grand merci va SearchmetricsQui nous a de nouveau soutenu dans cette étude.
Contenu de l'étude
La présente étude examine les activités des 197 plus grandes boutiques en ligne dans les domaines des produits pharmaceutiques, des accessoires pour voitures et motos, des médias, de l'électronique, de l'habillement, de la gamme complète, des jouets, des meubles, du matériel de bureau, de la nourriture pour animaux, du bricolage et des cosmétiques en Allemagne, en ce qui concerne la distribution du trafic, l'optimisation des moteurs ( SEO), Google Adwords (SEA), médias sociaux, display et email marketing.
En plus du statu quo au premier semestre de 2016, nous avons également comparé certains chiffres clés avec ceux de 2014 et 2015. Les données sous-jacentes datent de mai 2016, mai 2014 et mai 2015, respectivement.
Quoi de neuf sur l'étude en 2016?
Cette année encore, nous avons inclus de nouveaux chiffres dans la considération. Par exemple, cette année, nous avons également examiné pour la première fois les données de trafic provenant d’Instagram, de Youtube, de Facebook, de Gutefrage.net et de Pinterest. En outre, l’étude de cette année comprend pour la première fois un examen des données des outils Searchmetrics et Similarweb sur une période de trois ans – à compter de 2014. Par ailleurs, la prise en compte et la comparaison des données de Twitter, en raison de la fermeture du compte Twitter Share Count Les API ne sont plus disponibles depuis le 20.11.2015. De plus, l'examen quantitatif des publications sur Google+ sera omis cette année.
Quelques extraits de l'étude Online Markeing chez German Online Shops
Vous trouverez ci-dessous quelques conclusions de l’étude. Plus de plats à emporter, des diagrammes et des informations sont disponibles dans l’étude complète en PDF.
Plats à emporter en général
Comme dans les années 2014 et 2015, la recherche organique dans Google de toutes les boutiques en ligne examinées reste canal le plus important. La proportion a augmenté dans tous les secteurs, passant de 82,42% en 2015 à 85,32% en 2016. Est généralement une tendance à la hausse peut être constatée (voir page 22).
En revanche, l’importance de la recherche universelle (y compris les images, la vidéo, les achats, etc.) est de 10,08% en 2015. légèrement baissé à 9,64% (voir page 22).
La tendance négative de l'utilisation d'AdWords se poursuit en 2016; la proportion diminue de manière significative de 7,47% à 5,03% – la tendance continue à la baisse (voir page 22).
Le développement de la visibilité organique dans le domaine de l'électronique montre une forte comparaison sur trois ans tendance négative à la hausse.
SEO à emporter
La grève représente une augmentation de 64,58% de la visibilité des médias organiques, suivie de l'amélioration de l'habitat (+ 58,5%) et le matériel de bureau (+ 33,70%).
Le développement de la recherche universelle dépend fortement de l'industrie. Médicaments, accessoires auto et moto, Les vêtements, l'assortiment complet, la nourriture pour animaux domestiques et l'amélioration de l'habitat augmentent le trafic. Cependant, il est intersectoriel avec – 4,32% une évolution négative depuis 2015 reconnaissable.
Pour les boutiques en ligne étudiées, le trafic via les résultats de la recherche organique est et reste spécial Signification (voir page 18). L’augmentation intersectorielle de la visibilité organique montre également un Fermer l'activité de référencement (voir page 20).
Emportez SEA / AdWords
Le trafic Adwords continue de diminuer comme les années précédentes. Par rapport à l'année 2015, cependant, très clairement de – 32,88%.
Les secteurs des cosmétiques et des médias affichent à eux seuls une légère augmentation du trafic AdWords.
Médias sociaux à emporter
Le trafic sur Facebook reste avec 86,20% de part du canal numéro 1 du média social.
Google+ a une importance supérieure à la moyenne dans les domaines de l'électronique (33,77%), de l'équipement de bureau (24,51%) et les médias (17,29%).
Pinterest est représenté pour la première fois avec une part de 0,53% dans l'étude. Le trafic sur Pinterest se déroule principalement dans les secteurs du mobilier (5,54%), de l’amélioration de la maison (2,43%), du bureau (1,88%) et de l’habillement (1,16%).
Globalement, Facebook, avec 86,20% des parts, reste le canal de médias sociaux le plus puissant et la tendance est à la hausse.
Google+ a perdu une part au total.
Votes sur les études récentes sur le commerce électronique
"Étude très large avec des résultats surprenants. Le secteur de la vente au détail est généralement très prudent par rapport aux autres industries et donne souvent la priorité aux autres. Du point de vue positif, le Web 2.0 est désormais également disponible dans le commerce de détail allemand. même si cela prend du temps. Le potentiel commercial est énorme. Les taux de croissance vont certainement se poursuivre pendant cinq à dix ans. Cela a maintenant lentement compris tout le monde dans l'industrie. C'est pourquoi les choses avancent vite … "
Les études de magasin de 2012, 2013, 2014 et 2015 à télécharger
Téléchargez l'étude 2014 en cliquant sur la couverture
Téléchargez l'étude 2015 en cliquant sur la couverture
Téléchargez l'étude 2012 en cliquant sur la couverture
Téléchargez l'étude 2013 en cliquant sur la couverture
La deuxième partie de la série de blogs "Turbo for Your Website" traite du sujet Amazon CloudFront. Dans cet article, vous apprendrez à utiliser le service Amazon en tant que réseau de diffusion de contenu et à réduire ainsi considérablement les temps de chargement de votre site Web.
Les sites Web rapides font plus de ventes. Dans une étude récente, Ian Lurie a examiné seize sites Web de commerce électronique et a une nouvelle fois prouvé que les temps de chargement minimaux pour clairement plus de ventes,
La figure 1 montre que les pages Web dont le temps de chargement est inférieur à 1 seconde ont 100% de plus de valeur de page, c'est-à-dire de valeur de page, que de pages plus lentes.
Figure 1: Rapport temps de charge sur valeur latérale – Source
Les temps de chargement rapides semblent être un petit problème dans le travail d'optimisation, car il ne s'agit que de secondes ou de millisecondes.
Inconsciemment, il faut que chaque utilisateur soit et ensuite décider s'il appelle d'autres côtés et clique à travers votre côté ou même s'il achète ou non. Dans la première partie de cette série de blogs, le propre CDN de Google a été examiné et a montré comment l’utiliser pour son propre site Web. Amazon, qui agit également en tant que fournisseur renommé de solutions cloud, propose avec "CloudFront" un tel service qui, bien que non gratuit, apporte de nombreux autres avantages.
La configuration d'AWS CloudFront et la création de liens vers votre site Web sont très simples. Une fois configuré, CloudFront référence automatiquement les fichiers nécessaires et les met automatiquement à jour en fonction des paramètres de cache de votre site Web.
Amazon CloudFront vs. Google CDN
Bien que la solution de déchargement des fichiers statiques de Google soit gratuite, elle offre une puissance de serveur considérable, mais ne fournit que les serveurs disponibles aux États-Unis. Amazon CloudFront, quant à lui, consiste en un réseau mondial de serveurs puissants. Ainsi, l'idée même d'un CDN de mettre les fichiers à la disposition de l'utilisateur final par le chemin le plus court est encore mieux mise en œuvre ici. La facturation sur CloudFront est basée sur la quantité de données transférée.
Avec le calculateur de prix fourni, vous pouvez facilement calculer le coût du service pour le mois. Selon la liste de prix actuelle (au 30/01/2019), 1 Go de données transmises en Europe coûte actuellement 0,085 USD.
Créer un compte Amazon Web Services (AWS)
Pour utiliser CloudFront, vous avez besoin d'un compte Amazon Web Services pouvant être créé gratuitement. Dès l'enregistrement, une carte de crédit doit être déposée, laquelle n'est toutefois facturée que si vous avez réellement profité du service. Afin de compléter l'inscription, une confirmation d'identité par téléphone sera effectuée. Vous recevrez un appel automatisé d'Amazon, qui vous donnera un code PIN.
Vous les entrez ensuite dans le champ de formulaire désigné. Si vous rencontrez des problèmes avec la confirmation d'identité par téléphone, il est recommandé d'ouvrir un nouveau ticket dans la zone d'assistance. Décrivez le problème et cliquez sur le bouton "Appelez-moi". Vous recevrez immédiatement un appel de l'équipe de support, qui pourra alors confirmer votre identité. Après l'activation de votre compte, le service sera déverrouillé et les fonctions sont entièrement disponibles. Une fois connecté, vous verrez un aperçu de tous les services AWS dans le tableau de bord. En cliquant sur CloudFront, vous démarrez ce service.
Créer une distribution CloudFront
Dans la fenêtre de démarrage de CloudFront, vous verrez toutes les distributions créées à ce jour. Une distribution est responsable de la distribution des fichiers statiques de votre site Web sur le réseau mondial de serveurs, afin que vos visiteurs puissent obtenir ces fichiers le plus rapidement possible. Il est conseillé de créer une distribution séparée pour chaque site Web. Si le service est utilisé pour la première fois, la synthèse de la distribution est vide. Cliquez sur "Créer une distribution" pour créer un nouveau distributeur. A l'étape 1, le "mode de livraison" est sélectionné. Pour une utilisation dans les pages Web, la méthode "Web" doit être sélectionnée ici. La méthode RTMP (Real Time Messaging Protocol) est utilisée pour diffuser de la vidéo ou de la musique en continu.
Figure 2: Créer une nouvelle distribution dans CloudFront
Dans l'étape suivante, les paramètres de la distribution sont définis. Dans le champ "Nom de domaine d'origine", le domaine principal du site Web sans "http: //" est saisi. L '"ID d'origine" sert uniquement de nom interne à la distribution et peut être choisi librement. Tous les autres paramètres illustrés à la figure 3 peuvent rester "par défaut" et n'ont pas besoin d'être modifiés.
Figure 3: Paramètres d'une nouvelle distribution CloudFront
Pour vous assurer que les fichiers rendus disponibles par la suite via CloudFront n'ont pas d'URL longues et dénuées de sens, vous pouvez ajuster les paramètres sous "Noms de domaine de substitution". Ici, il est recommandé d'entrer un sous-domaine de votre domaine principal. Par exemple:
cdn.deinedomain.de
Ce sous-domaine sera redirigé vers l'URL CloudFront lors d'une étape ultérieure. Pour les petits sites Web, il suffit d’utiliser un sous-domaine car le nombre de fichiers statiques est généralement limité. Dans la prochaine partie de la série de blogs, nous expliquerons et expliquerons plus en détail pourquoi il peut être utile que des sites Web plus importants spécifient des noms de domaine alternatifs supplémentaires. Tous les autres points peuvent être acceptés dans les paramètres par défaut. La distribution peut maintenant être créée.
Figure 4: Créer des noms de domaine alternatifs
La distribution est maintenant affichée dans le tableau de bord CloudFront. Cela peut prendre quelques minutes pour que cela prenne effet. Cliquez sur la vue détaillée pour voir l'URL de votre distribution CloudFront sous "Général"> "Nom de domaine". Le "Statut de distribution" vous indique s'il est déjà actif ou pas encore.
Figure 5: Interrogation du nom de domaine CloudFront
Rediriger les sous-domaines vers CloudFront
Le sous-domaine saisi dans le champ "Noms de domaine alternatifs" (voir Figure 3) doit maintenant être redirigé vers l'URL CloudFront (Figure 5> "Nom de domaine"). Pour cela, l'entrée CNAME du sous-domaine doit être modifiée en ceci. Dans votre hébergeur, vous devriez trouver un guide décrivant ce processus. Sinon, le support de votre fournisseur vous aidera certainement.
Personnaliser les références en HTML
Changez maintenant dans le HTML les références des fichiers que vous aimeriez avoir sur le CDN. Lors de la première visite de la page, CloudFront se réfère exactement aux fichiers réellement nécessaires – rien de plus, rien de moins. Ces fichiers sont ensuite mis en cache sur les serveurs Amazon et fournis à vos visiteurs. Selon vos paramètres de chaching, les fichiers sont ensuite mis à jour et mis à jour régulièrement.
Figure 6: Changer les références en HTML
En raison des performances élevées des serveurs Amazon et du nombre d'emplacements de serveurs en Europe, les temps de chargement des visiteurs de votre site Web seront sensiblement réduits. Tous les fichiers statiques tels que les images, les fichiers CSS et JavaScript peuvent maintenant être échangés ici.
Avec peu d'effort beaucoup plus de vitesse
L'installation de la solution CDN d'Amazon est relativement simple, mais son impact est considérable. Alors que le CDN de Google ne distribue que les fichiers de votre site Web sur des serveurs situés aux États-Unis, CloudFront vous permet d'accéder au réseau de serveurs mondial d'Amazon. AWS présente également l'avantage que les fichiers ne doivent pas être chargés séparément sur un autre serveur. CloudFront récupère automatiquement les fichiers qui en ont vraiment besoin sur l'infrastructure du serveur Amazon. Selon les paramètres de mise en cache, les fichiers sont ensuite mis à jour régulièrement. Dans la prochaine partie de cette série de blogs, vous apprendrez comment atteindre la vitesse de chargement maximale de votre site Web en quelques astuces.
Marcus Tandler, fondateur et PDG de SEO Expertise, s'est rendu à Moscou chez Yandex pour y interroger le directeur de la recherche sur le Web, Alexander Sadovsky. Dans une interview intéressante et informative, Alexander explique pourquoi le moteur de recherche russe ne s'appuie plus sur les liens en tant que facteur de classement pour certaines requêtes de recherche.
Le moteur de recherche le plus populaire de Russie À la fin de l'année dernière, Yandex a surpris la communauté de la recherche et du référencement en annonçant qu'à partir de maintenant, les recherches commerciales dans la région de Moscou n'utiliseraient plus les backlinks comme facteur de classement. Puisque nous, chez OnPage.org, sommes de grands partisans du référencement OnPage propre, nous avons naturellement reçu cette nouvelle avec un grand plaisir. Bien que le spam sur les liens en Russie soit probablement un problème encore plus grave que dans de nombreux autres pays, je suis fermement convaincu que les autres moteurs de recherche aimeraient donner les backlinks comme facteur de classement.
illustration: Marcus Tandler rencontre Alexander Sadovsky, directeur de la recherche Web chez Yandex, à Moscou
Google, par exemple, est également très contrarié par Link Spam et a finalement pris des mesures concrètes pour résoudre le problème. En l'absence d'alternatives valables, Google n'est certainement pas complètement convaincu d'abandonner les liens comme un signal à moyen terme, mais je suis fermement convaincu que OnPage SEO deviendra de plus en plus important au cours des prochaines années.
En fin de compte, il s’agit du meilleur résultat pour le chercheur, et un site Web optimisé avec modération OnPage est un bon point de départ pour le faire.
Je voulais en savoir plus sur la façon dont Yandex a réussi à se passer des liens comme signal de classement au sein de son algo de classement. J'ai donc pris l'avion pour Moscou afin de contacter le responsable de la recherche Web chez Yandex – Alexander Sadovsky – parler de spam de lien en Russie.
J'ai appris que:
Alexander, Yandex a récemment suscité un vif intérêt en annonçant qu'il s'abstiendrait d'utiliser des liens comme facteur de classement dans les recherches commerciales à venir dans la région de Moscou. Quelles industries sont touchées en ce moment?
Désormais, plusieurs secteurs commerciaux seront concernés par ce changement, notamment l'électronique et les appareils électroménagers, les vêtements et accessoires, l'immobilier, la santé et le mode de vie, le tourisme et les loisirs, certains services (comme les avocats), le développement de sites Web et le référencement.
Mais nous pensons que nous étendrons bientôt cette pratique à d’autres secteurs d’activité et supprimerons également les liens payants en tant que facteur de classement pour d’autres régions.
Voulez-vous supprimer complètement les liens en tant que facteur de classement ou uniquement pour les requêtes de recherche commerciales?
Pour les recherches non commerciales, nous n'abandonnerons pas les liens en tant que facteur de classement. Mais bien sûr, nous sommes très attentifs aux liens achetés qui doivent réellement compter.
Comment évaluer la force ou l'autorité d'une page Web sans tenir compte des backlinks?
Nous avons actuellement plus de 800 facteurs sur lesquels nous concentrer, y compris des facteurs OnPage tels que: Contenu et structure du site Web, ainsi que les facteurs OffPage. Bien entendu, nous recueillons toutes les données possibles sur le site Web, dans le respect de la politique de confidentialité de nos utilisateurs.
Que pensez-vous de l’importance de OnPage SEO (de préférence impeccable) pour un bon positionnement dans les résultats de recherche Yandex?
Les moteurs de recherche traitent quotidiennement différents types de requêtes de recherche: les requêtes de recherche "principales" les plus fréquemment recherchées par les chercheurs, ainsi que les requêtes de recherche à longue queue (requêtes rares et massives en masse). Il y a plus de longues recherches que de recherches "principales" et la valeur des recherches à longue queue semble être beaucoup plus grande en termes de conversion. Les recherches à longue queue sont généralement des recherches de plusieurs mots, le contenu d'une page Web est donc extrêmement important pour de telles requêtes.
Comment évaluez-vous combien de liens dans le domaine commercial sont du spam pur?
La majorité absolue C’est le résultat de nos recherches dans le segment Internet russophone (nous l’appelons Runet).
Qu'en est-il de Link Spam en Russie en général?
Nous ne sommes pas des experts dans ce domaine – nous sommes un moteur de recherche 🙂 En passant, nous ne pensons pas que les entreprises de bonne réputation devraient utiliser Link Spam pour promouvoir leurs activités, car non seulement le trafic est en danger, mais aussi la réputation de celui-ci. Nous constatons que les propriétaires de sites Web accordent maintenant plus d’attention à SEM, au contenu et à la convivialité de votre site Web, qu’à l’achat de liens.
Dans une interview de 2012, le PDG de l'une des plus grandes sociétés de référencement en Russie estime la valeur du marché des services de référencement en Russie à environ 16 milliards de roubles (environ 350 millions d'euros), dont 9 milliards de roubles russes sont utilisés pour l'achat de liens. , Est-ce une estimation correcte de la taille du marché? Quelle est votre estimation de combien d’argent est actuellement dépensé pour l’achat de liens en Russie?
Nous ne traitons pas avec le référencement, nous évitons donc les estimations dans ce sens. Une étude de l'Association russe des communications électroniques (RAEC) a toutefois révélé que le marché de l'optimisation des moteurs de recherche avait atteint 10,24 milliards de roubles en 2012 (+ 20% par rapport à 2011). Pour 2013, une augmentation d'au moins 19% est attendue. Bien entendu, nous ne pouvons pas évaluer nous-mêmes la précision de ces chiffres.
Pensez-vous que cela va changer dans un proche avenir? Surtout maintenant que Yandex a annoncé qu'il ne comptera plus sur les liens dans les requêtes de recherche commerciales?
Notre objectif principal est de fournir à nos utilisateurs la meilleure expérience de recherche possible. Donc, si nous décidons de classer les changements, nous poursuivons toujours cet objectif. Tout changement devrait avant tout être utile à l'utilisateur.
La tendance à un tel recentrage, de sorte que les exploitants de sites Web dépensent moins de ressources en liens payants et se concentrent davantage sur le SEM et d'autres mesures, est très intéressante pour nous, car elle profite à l'utilisateur. Il est très gratifiant que les webmasters se préoccupent davantage de la convivialité, de leur contenu et d’une conception conviviale plutôt que d’essayer constamment de déjouer les moteurs de recherche. Les meilleurs sites Web sont, les meilleurs résultats que Yandex peut présenter.
En 2011, les «comportements de l'utilisateur» (Intention de l'utilisateur) ont été introduits dans le cadre de la formule de classement de Yandex. De nombreuses manipulations ont-elles été observées depuis dans cette zone?
Le système de sécurité Yandex peut détecter en toute sécurité la manipulation des facteurs de comportement de l'utilisateur et la différencier d'autres actions frauduleuses. Je ne sais pas combien il y a eu de tentatives au total, mais nous continuons à assister à de telles tentatives de manipulation.
Beaucoup expérimentent et essayent de trouver les vulnérabilités de notre algorithme. Mais tous les sites Web de SEO expérimentés ne sont pas représentés dans les SERPs Yandex 🙂
Comment voyez-vous le rôle des signaux sociaux en tant que facteur de classement? Pensez-vous qu'un jour ils deviendront une alternative aux liens?
Malheureusement, nous ne pouvons pas commenter publiquement pour le moment. Bien entendu, nous essayons de rassembler autant de données que possible sur chaque site Web.
La facilité d'utilisation d'un site Web semble être très importante pour Yandex. Lors de ma visite au siège de Yandex, vous m'avez indiqué que Yandex essayait de prédire la qualité d'une page récemment trouvée en examinant la convivialité et en la comparant à d'autres sites Web de haute qualité. Pouvez-vous expliquer quelque chose plus en détail?
Le problème est que plus nous en parlons avec nos algorithmes, plus les tentatives de manipulation et de fraude sont nombreuses. C'est pourquoi nous évitons d'en parler publiquement 🙂
Enfin, un autre sujet: Yandex a récemment fait sensation avec l’annonce des «îles» de Yandex. Les "îles" Yandex sont des SERP interactifs / extraits enrichis interactifs que les webmasters peuvent insérer dans les résultats de recherche à l'aide d'extensions spécifiques du protocole Open Graph. Vous proposez même une diffusion en temps réel via une API, de sorte que l'utilisateur puisse réellement interagir avec un tel extrait de code dans les résultats de la recherche. Comment cela affecte les webmasters? Voyez-vous une augmentation significative de la satisfaction parmi les chercheurs, car ils obtiennent déjà la réponse à leurs questions déjà dans les résultats de recherche, sans avoir à cliquer sur un site Web.
Un bon webmaster est toujours intéressé à générer plus de trafic et des conversions plus élevées. Et s’il peut le faire avec l’aide de Yandex, il a utilisé sa chance avec succès. En fait, le nombre de webmasters ayant implémenté au moins un extrait de code interactif de ce type est beaucoup plus élevé que le nombre d'îlots que nous voyons dans nos résultats de recherche.
Il existe de nombreux types de sites Web dont les îles n'apportent aucune valeur ajoutée au chercheur. Par conséquent, nous essayons de travailler plus étroitement avec la communauté des webmasters pour éviter ces îlots non pertinents et pour développer de nouvelles règles sur la manière de rendre les extraits interactifs idéaux pour l'utilisateur.
Le but d'un chercheur est d'obtenir une réponse directe ou de résoudre un problème aussi rapidement que possible. Si le moteur de recherche est capable de fournir la bonne réponse en un clic déjà dans les SERP ou déjà lors de la saisie de la requête de recherche, l'utilisateur est évidemment plus que satisfait. Ceci est particulièrement intéressant pour les surfeurs mobiles qui ne veulent pas trop se défouler à cause du manque de couverture réseau mobile ou des hotspots WiFi encombrés pour obtenir la réponse souhaitée. Par conséquent, nous expérimentons beaucoup et mettons en œuvre ces nouvelles fonctionnalités de manière aussi fluide que possible.
Merci pour l'interview passionnante, Alexander!
Cliquez ici pour voir l'article dans sa version originale (anglais).
Cet article de ma série d'articles sur la sémantique et les entités dans le référencement et Google examine le rôle des entités dans l'interprétation des requêtes de recherche. Amusez-vous à lire!
Les tâches principales de la recherche par entité
Pour les systèmes d’extraction de recherche basés sur des entités, les entités jouent un rôle central dans plusieurs tâches.
Interprétation des requêtes de recherche
Détermination de la pertinence au niveau du document
Évaluation au niveau du domaine ou de l'auteur
Émission d'une réponse ad hoc sous la forme d'un panneau de connaissances, d'un extrait de code …
Dans toutes ces tâches, l’interaction entre entité, requête de recherche et pertinence s’applique. Cet article porte sur l'interprétation des requêtes de recherche et sur les relations entre les entités et les requêtes de recherche.
Google veut reconnaître le sens et l'intention de recherche des requêtes de recherche
L'interprétation des requêtes de recherche est l'un des plus grands défis des moteurs de recherche à une époque où les requêtes de recherche étaient de plus en plus complexes, notamment par le biais de la recherche vocale. Car l’utilité d’un moteur de recherche est cruciale pour comprendre ce que recherche l’utilisateur. Ce n'est pas une tâche facile, en particulier pour les requêtes de recherche mal formulées. Dans moderne systèmes de recherche d'information il s'agit de moins en moins de mots-clés, qui contiennent un terme de recherche autant que le sens de la requête. Ici, les entités jouent un rôle central dans de nombreuses requêtes de recherche.
Presque tous les termes de recherche sont basés sur une question implicite ou explicite et sur une intention de recherche. L'intention de recherche est très importante pour la comparaison avec l'objectif des documents ou du contenu du corpus respectif. En période de recherche vocale et d'appareils mobiles, il est encore plus important pour Google d'identifier les requêtes de recherche et leur intention ou signification d'utilisateur aussi précisément que possible, afin de générer individuellement les résultats de recherche correspondants.
Mais je ne veux pas entrer dans l'intention de recherche ici. Dans cet article, je voudrais me concentrer sur l'interprétation de la signification des requêtes de recherche utilisant des entités.Vous pouvez en lire plus dans l'article explication et identification de l'intention de recherche et de l'intention de l'utilisateur par mot-clé.
Dans une interview en 2009, Ori Allon, ancien directeur technique de la Google Search Quality Team, a déclaré dans une interview avec IDG:
Nous travaillons très fort sur la qualité de la requête. La requête n'est pas la somme de tous les termes. La requête a une signification derrière elle. Pour des requêtes simples comme "Britney Spears" et "Barack Obama", il est assez facile pour nous de classer les pages. Mais quand la question est: Quel médicament devrais-je prendre après ma chirurgie oculaire?, C'est beaucoup plus difficile. Nous devons comprendre le sens …
Un exemple de l'efficacité des systèmes de recherche basés sur les entités, par opposition aux systèmes basés sur les termes, montre cet exemple.
Un moteur de recherche purement basé sur des termes ne reconnaîtrait pas la différence de sens entre les requêtes de recherche "feu rouge" et "feu rouge", car les termes de la requête de recherche sont les mêmes, mais disposés différemment. Selon la disposition, le sens est différent. Un moteur de recherche basé sur une entité reconnaît les différents contextes en fonction des différents arrangements. "Stoplight red" est une entité distincte, tandis que "red stoplight" est la combinaison d'un attribut et d'une entité "stoplight".
Dans cet exemple, il apparaît clairement qu'il ne suffit pas d'utiliser un terme pour déterminer l'entité. Les mots dans l'environnement jouent également un rôle important dans l'identification du sens. Les termes dont le sens varie en fonction du contexte représentent un défi pour Google ou les moteurs de recherche.
Google veut reconnaître les entités dans les requêtes de recherche
Google veut savoir quelle entité est une question. Ce n'est pas si facile si l'entité elle-même n'apparaît pas dans le terme de recherche. Google peut identifier l'entité que vous recherchez par les entités trouvées dans le terme de recherche et le contexte de relation entre les entités.
Un exemple:
La question "qui est le chef chez vw" ou la question implicite "chef vw" mène à la livraison de la boîte de graphe de connaissances suivante:
Dans cet exemple, deux entités et une phrase de connexion ou de prédicat jouent un rôle important dans la réponse à la question.
VW (entité)
Chef (type de connexion)
Herbert Diess (entité)
Ce n'est qu'en combinant l'entité "VW" et le type de connexion "boss" que Google peut répondre à la question sur l'entité "Herbert Diess".
C'est pourquoi l'identification des entités par Google est si importante dans la première étape. Google utilise Knowledge Graph comme référentiel central pour tous les termes identifiés en tant qu'entités.
Pour Google, il est important d'identifier les entités dans les termes de recherche et d'identifier les connexions avec d'autres entités. Les relations entre les entités sont au moins aussi importantes. C'est la seule façon pour Google de répondre à des questions implicites sur les entités et donc à des questions concrètes sur des entités directement dans les SERP. Voici un exemple:
La requête de recherche "Qui est le fondateur d'Adidas?" (Question explicite) et "fondateur Adidas" (question implicite) conduit presque aux mêmes résultats de recherche:
Même si les résultats diffèrent légèrement, Google reconnaît que l'entité recherchée est Adolf Dassler, bien que le nom n'apparaisse pas dans la requête de recherche. Peu importe si je pose une question implicite sous la forme du terme de recherche "Fondateur Adidas" ou une question explicite. L'entité "adidas" et le contexte relationnel "fondateur" suffisent à cela.
Enrichissement sémantique des requêtes de recherche
Source: Recherche par entité, Krisztian Balog
Il n’est pas toujours facile pour Google d’interpréter les entités pertinentes à partir des requêtes de recherche. Les requêtes de recherche en arrière-plan peuvent être automatiquement enrichies d'informations sémantiques supplémentaires ou d'annotations, ou suggérées à l'utilisateur via la méthode de suggestion automatique. Ce faisant, la correspondance entre la requête de recherche et l'entité ne repose plus uniquement sur le texte saisi, mais également sur les relations sémantiques des entités et des attributs.
L'exemple suivant recherche l'entité "Ann Dunham". Un moteur de recherche purement basé sur des termes aurait des problèmes pour répondre à la requête de recherche du "parent d'Obama". Grâce à la combinaison de recherche par terme et par entité, la réponse "Ann Dunham" peut être sortie en tant que mère du moteur de recherche.
Source: Recherche par entité, Krisztian Balog
En pratique, le résultat ressemble à ceci. En plus de la mère Ann Dunham, la deuxième entité du père Barack Hussein Obama ayant fait l'objet d'une recherche, ainsi que le panel de connaissances de Barrack Obama, sont également publiés. Le panneau de la connaissance de Barrack Obama est joué parce que le système répond au terme Barack Obama dans la requête de recherche. Les deux autres zones d'entité sont sorties du graphe de connaissances en fonction des informations supplémentaires sémantiques.
Cliquez sur l'image pour l'agrandir
La chose pratique à propos de ce système dual lors de l’interprétation des requêtes de recherche est que les résultats peuvent également être générés si aucune entité n’est recherchée dans un terme de recherche.
En plus de l'interprétation gênée par l'entité des requêtes de recherche, la méthode basée sur les termes peut également être prise en charge par des méthodes basées sur des types d'entités. Cela concerne les recherches qui recherchent plusieurs entités dans une classe de type, telles que "Visites de Hanovre". Voici une boîte qui répertorie plusieurs entités.
Cliquez sur l'image pour l'agrandir
Les requêtes relatives à un type d'entité génèrent souvent l'entité la plus pertinente, les carrousels ou le type de boîte de graphe de connaissances ci-dessus. Ces zones affichent les entités les plus pertinentes en fonction de la requête de recherche, en fonction de la pondération. La proximité ou la pertinence des entités par rapport à la requête de recherche peut être similaire à celle de documents concernant des analyses d'espace vectoriel, telles que p. Ex. Remarquez Word2Vec. Plus l'angle entre le vecteur de requête de recherche et le vecteur d'entité est petit, plus le terme et l'entité sont pertinents ou proches.
Exemple d'analyse d'espace vectoriel Entités pour la requête de recherche
Brevets Google pour l'interprétation des requêtes de recherche
Ci-dessous, je voudrais présenter quelques brevets Google pouvant être pertinents pour l'interprétation des requêtes de recherche. Certains des brevets ultérieurs pourraient être la technologie de base mise sur le Rankbrain avec ses technologies d’apprentissage automatique.
Je voudrais commencer par une série de brevets qui traitent du raffinement des requêtes de recherche. La date de publication du premier brevet montre que Google s’occupe de cette question complexe depuis longtemps. Il s’agit de l’un des premiers brevets de Google sur l’interprétation sémantique des termes de recherche. Ori Allon à partir de l'année 2009.
Affinage des requêtes de recherche
Le brevet traite principalement de l'interprétation des requêtes de recherche et de leur raffinement. Selon le brevet, le raffinement de la requête de recherche fait référence à certaines entités qui souvent coexistent dans les documents explorant la requête d'origine ou ses synonymes. En conséquence, les entités peuvent être référencées les unes aux autres et même des entités auparavant inconnues peuvent être rapidement identifiées.
Identification des expansions d'acronymes
Ce brevet a été publié pour la première fois dans le Août 2011 dessiné par Google et im Octobre 2017 redessiné à nouveau sous un nouveau nom. C'est très excitant en tant que l'un des inventeurs du spécialiste de l'apprentissage en profondeur Thomas Strohmann qui a joué un rôle de premier plan dans le développement de Rankbrain.
Ce brevet ne parle pas d'entités, mais il décrit une autre façon pour Google de réécrire ou d'affiner les recherches originales en fonction des informations d'un premier sous-ensemble de documents afin d'obtenir des résultats de recherche plus pertinents. Dans ce brevet, il s'agit principalement d'interprétation des acronymes dans les requêtes de recherche. Toutefois, le processus décrit constitue un modèle pour de nombreuses autres méthodes traitant du raffinement ou de la réécriture des requêtes de recherche.
L'acronyme et le moteur de synonymes décrits dans le brevet peuvent être remplacés par le graphe de connaissances.
Réécriture de requêtes avec détection d'entités
Ce brevet a été publié pour la première fois dans le Septembre 2004 dessiné par Google et im Octobre 2017 redessiné à nouveau sous un nouveau nom. C'est particulièrement excitant, car les racines ont une longueur d'avance sur Rankbrain, Hummingbird et Knowledge Graph, et semblent être pertinentes aujourd'hui, ce qui suggère que la méthodologie fait partie intégrante de la recherche Google actuelle.
La méthodologie décrit comment réécrire les requêtes de recherche avec des références d'entité selon les besoins, ou au moins suggérer des suggestions pour obtenir des résultats de recherche plus pertinents.
Le brevet semble à première vue assez simple et rudimentaire, car la réécriture de la requête dans les exemples cités fait uniquement référence à un complément aux requêtes de recherche avec des opérateurs de recherche. Par exemple, dans l'un des exemples, la requête "Business Week sur les fonds communs de placement" devient non écrite "Source des fonds communs de placement: Business Week". Je trouve intéressant dans le brevet que, dans les exemples, les identifiants d’entités soient attribués via des domaines. Cela donnerait la présomption que les domaines sont des images numériques uniques d'entités.
En outre, il est décrit qu’une réécriture de la requête de recherche comporte également différents termes synonymes, tels que. Des synonymes ou des fautes d'orthographe peuvent être exécutés et le contenu fourni en tant que résultats de recherche correspondant à la requête d'origine et à la requête réécrite.
Un exemple serait la requête de recherche "marketing internet". Nous trouvons ici les résultats correspondant à la requête de recherche initiale et au terme synonyme plus populaire de "marketing en ligne".
Découverte des actions d'entité pour un graphe d'entité
Ce brevet a Google dans Janvier 2014 d'abord dessiné et redessiné en octobre 2017 sous un nom actualisé. Il décrit comment Google identifie les activités liées aux entités en fonction des fluctuations de volume de recherche situationnelles à court terme. Ceux-ci peuvent alors être par exemple être ajouté à un panneau de connaissances à court terme ou un contenu qui prend en compte ces activités en cours peut être temporairement poussé vers le haut du classement. Cela permet à Google de réagir aux événements liés à la situation autour d'une entité et d'ajuster les SERP en conséquence.
Sélection du contenu à l'aide des propriétés d'entité
Ce brevet a été redessiné pour la première fois en avril 2014 et en octobre 2017 sous un nouveau nom de Google. Il décrit comment Google peut utiliser un indice de confiance pour déterminer la hiérarchie des entités dans une requête de recherche.
Pour détecter la pertinence d'une entité dans une requête, Google peut utiliser un score de confiance.
Le procédé peut inclure l’identification d’une propriété de la requête de recherche. Le procédé peut inclure le système de traitement de données déterminant une correspondance entre une propriété d'une entité de critères de sélection de contenu et la propriété de l'entité de la requête de recherche. Le procédé peut inclure le système de traitement de données. Source: https://patents.google.com/patent/US9542450B1/en
Après que ce score de confiance soit ensuite déterminé quelle est l'entité principale dans la requête de recherche, les documents appropriés pour les SERP sont donc déterminés. Les attributs d'entité peuvent être inclus dans le processus de sélection via un graphe de requête et un graphe de critères de sélection de contenu.
Dans la requête "rouge stoplight" dans la capture d'écran à gauche, les mots sont dans l'ordre standard – "rouge" décrit "stoplight" , Lorsque l'ordre est inversé, «feu rouge» devient la requête de la main droite, il devient comme s'il s'agissait d'un feu rouge; ici, 'stoplight' devient l'adjectif et 'rouge' devient le nom (un concept).
Identifier et classer les attributs d'entités
Ce brevet de Google, publié en 2015, est sans doute l’un des brevets les plus intéressants sur le sujet. Il décrit comment Google détermine les données de la requête de recherche, les parties descriptives de l'entité et les pièces jointes pour chaque terme de recherche. Ces pièces jointes peuvent par exemple Soyez des attributs. De cette manière, les requêtes de recherche peuvent être analysées pour déterminer les types d'informations que les utilisateurs souhaitent généralement recevoir.
Dans de nombreux cas, les types d'informations qui intéressent un utilisateur pour une entité (telle qu'une personne ou un sujet) sont différents. En analysant les requêtes de recherche, les informations les plus demandées peuvent être identifiées pour une entité donnée. Ensuite, lorsqu'un utilisateur envoie une requête concernant l'entité particulière, les informations les plus demandées peuvent être fournies en réponse à la requête. Par exemple, un bref résumé des faits les plus fréquemment demandés pour l'entité particulière et d'autres entités similaires peut être fourni, tel que: dans un panneau de connaissances ou une carte de connaissances.
Il prend en compte la fréquence à laquelle certaines informations sont recherchées pour l'entité elle-même ainsi qu'en général pour le type d'entité. Si par exemple Basé sur le groupe Phoenix souvent après les albums, les paroles et les dates de tournée, et généralement pour les musiciens après les membres du groupe et les chansons, il en résulte les informations fournies dans le panneau de connaissances.
Méthodes, systèmes et supports d'interprétation de requêtes
Dans ce brevet, Google im Année 2015 diverses méthodes sont décrites comment les moteurs de recherche peuvent interpréter les requêtes de recherche.
Ce brevet décrit le problème de base et les solutions pour faire face aux défis.
Par exemple, en réponse à la requête "film d'action avec Tom Cruise", ces moteurs de recherche peuvent fournir des résultats de recherche non pertinents, tels que "Last Action Hero" et "Tom and Jerry", simplement parce qu'une partie de la requête de recherche est incluse dans la liste. titre des éléments de contenu. En conséquence, une compréhension de la requête de recherche peut produire des résultats de recherche plus significatifs.
Dans la méthode décrite ici, les requêtes de recherche sont décomposées en termes individuels. Pour ces termes, il est vérifié s'ils sont liés à une entité connue. Un score de confiance détermine la proximité des termes par rapport aux entités. Le contexte de la requête de recherche, y compris les termes sans référence directe à une entité, joue également un rôle dans le terme de recherche. Sur la base de l'entité la plus pertinente, une recherche est effectuée en fonction du type d'entité et les résultats de la recherche correspondants sont livrés.
Voici un exemple. Une requête de recherche telle que "Film d'action avec Tom Cruise" serait décomposée en composants "Action", "Film", "Tom" et "Cruise". Le terme action peut être une entité du type entité film, genre ou série. Parmi ces types d’entités, lequel est le plus demandé peut, déterminé par la fréquence ou la popularité d'un score d'entité.
Selon le type de moteur de recherche (recherche d'images, recherche de vidéos …), les formats de média correspondants seront fournis en fonction du type d'entité recherché "Action Film" et de l'entité "Tom Cruise". Le brevet fait référence à une grande variété de recherches telles que, par exemple, Rechercher des requêtes dans une recherche d'image ou via une recherche vocale via un assistant numérique.
Génération de requêtes utilisant la similarité structurelle entre les documents
Ce brevet a été publié dans Septembre 2016 dessiné. Ce qui est excitant à propos de ce brevet, c’est que, parmi les inventeurs impliqués dans Paul Haahr et Yonhui Wu, se trouvaient deux ingénieurs majeurs de l’apprentissage en profondeur. En outre, Yonhui Wu a été l’un des leaders du développement de Rankbrain.
Le brevet décrit une méthode permettant à un moteur de recherche de générer des recherches auxiliaires sur une entité à stocker dans un magasin de requêtes. Ces requêtes de recherche pourraient ensuite être utilisées, par exemple. Requêtes ou réécritures d'un terme de recherche d'origine.
Sur la base de la structure de contenu de documents similaires, les affinements des requêtes de recherche peuvent être résumés. Ainsi, d'un document à l'auteur, la phrase survenue de Joseph Heller "Joseph Heller a écrit le roman influent catch 22 sur un militaire américain au cours de la Seconde Guerre mondiale." La requête "joseph plus brillante" est extraite.
Regroupement d'affinements de requêtes par intention d'utilisateur présumée
Ce brevet a Google dans Mars 2016 d'abord dessiné et redessiné en octobre 2017 sous un nom actualisé. Il existe une méthodologie utilisée par Google pour affiner les requêtes de recherche afin de mieux déterminer ce que recherche réellement l'utilisateur. Ces améliorations sont les requêtes de recherche révisées qui apparaissent sous les résultats de la recherche.
Ces améliorations sont particulièrement importantes en cas de doute sur l’intention de l’utilisateur de lire des résultats plus pertinents et les recherches associées. Pour cela, toutes les recherches possibles sont organisées dans des raffinements de cluster reflétant les différents aspects de la requête d'origine. Ces aspects nécessitent des résultats de recherche différents.
Le regroupement des requêtes de recherche est résolu via une construction graphique. Les relations entre les termes de recherche, dépendantes de la session, ainsi que l'interrogation de documents spécifiques sont prises en compte. Le graphique prend en compte à la fois la similarité basée sur le contenu et la similarité de la cooccurrence de sessions déterminée à partir des journaux de requêtes. En d'autres termes, les dépôts simultanés de recherches consécutives ainsi que le comportement des clics sont analysés.
Dans le graphique, la requête d'origine ainsi que les raffinements et les documents correspondants sont représentés sous forme de nœuds. Des noeuds supplémentaires représentent les requêtes de recherche associées se produisant en session sous forme de co-occurrences intra-session. Tous ces noeuds sont connectés via des bords.
Des groupes d’affinements et de documents de recherche peuvent être créés via le vecteur de probabilité de visite.
En ce qui concerne les recherches associées, le brevet contient un passage intéressant qui décrit comment les requêtes associées sont générées:
Les requêtes associées sont généralement obtenues à partir des journaux de requête en recherchant d'autres requêtes qui se produisent dans des sessions avec la requête d'origine. Plus précisément, les raffinements de requête, un type particulier de requêtes associées, sont obtenus en recherchant les requêtes les plus susceptibles de suivre la requête d'origine dans une session utilisateur. Pour de nombreuses requêtes courantes, il est possible que plusieurs requêtes associées soient extraites des journaux à l'aide de cette méthode. Toutefois, compte tenu de l'espace limité disponible sur une page de résultats de recherche, les moteurs de recherche ne choisissent généralement que d'afficher quelques requêtes connexes.
À cette fin, Google fournit le plus grand nombre possible de requêtes connexes, qui représentent les aspects les plus importants d’une requête de recherche originale diversifiée. Pour la recherche "mars", Google fournit les recherches connexes suivantes:
Les aspects ou entités suivants sont représentés par les requêtes associées:
Gottfried Wilhelm Leipzig (philosophe)
Université de Leibniz (établissement d'enseignement)
Biscuit de Leibniz (nourriture)
Ces entités forment des grappes. Selon les résultats de la recherche, le groupe le plus populaire semble être le philosophe suivi de l'établissement d'enseignement:
SERP pour la requête de recherche "leibniz" en contexte général
Ce sera intéressant si je change le contexte en affinant la requête de recherche pour "leibniz keks".
SERP pour la requête de recherche "leibniz keks"
Dès que vous mettez le focus interne de la session sur l'entité "Clés de Leibniz", les SERPs pour la requête de recherche ci-dessus "leibniz" changent comme suit:
Vous ne verrez plus le panneau de connaissance pour le philosophe, mais pour les trois entités "Boîtes de spécifications" (pour en savoir plus ici)
En position 1, le résultat est maintenant lié au cookie de Leibniz, tandis que dans la même requête précédente, l'entrée de Wikipédia est remontée jusqu'au philosophe.
SERP pour "leibniz" en fonction du contexte individuel
Le focus de l'entité a changé par rapport à ma session de recherche individuelle. À partir de ce moment, la popularité du cluster ou de l'entité ne compte plus, mais bien mon intention de recherche personnelle et pertinente. (plus sur la pertinence et la pertinence dans la pertinence, la pertinence et l'utilité sur Google).
Passionnant, non?
Réécriture de requêtes sur l'appareil
Ce brevet a Google dans Avril 2016 d'abord dessiné et redessiné en octobre 2017 sous un nom actualisé. Il souhaite une méthode telle que des requêtes de recherche basées sur un modèle affiché sur le client, par exemple. un smartphone est récrit, annoté et attribué à une catégorie.
Le gros avantage de cette méthode est que les faits d’une base de données d’entités telle que Le graphique de connaissance peut en outre être enrichi avec des informations relatives à l'utilisateur individuel, telles que, par exemple, Les données de localisation peuvent être étendues. Cela peut être adapté à la situation individuelle de la réponse de l'utilisateur.
Associer à une entité avec une requête de recherche
Dans ce brevet, Google a été attribué en 2016. Il s'agit de savoir comment une entité peut être reconnue dans une requête de recherche ou comment Google peut voir qu'il s'agit en fait d'une requête de recherche avec une référence à une entité. Il existe également une autre version datant de 2013 pour ce brevet.
Le brevet décrit les étapes de processus suivantes:
Recevoir une requête de recherche
Identifier une entité associée au terme de recherche
Fournissez un résumé de l'entité afin que les résultats correspondants puissent être affichés en réponse à la requête de recherche. Le résumé contient à la fois des informations pertinentes sur l'entité et des requêtes de recherche supplémentaires facultatives.
Identifiez la demande de recherche d'entité facultative et établissez un lien avec l'option sélectionnée. (Plus dans le brevet ….)
Identifier les documents correspondant aux entités ou à l'entité
Identifier d'autres entités à partir des documents sélectionnés
Connecter la ou les entités à la requête de recherche
Déterminer un classement pour les entités
Apprendre des interactions utilisateur dans la recherche de personnel via le paramétrage d'attribut
À partir de 2017, la version scientifique "Tirer des leçons des interactions de l'utilisateur dans la recherche de personnel via le paramétrage d'attributs" est issue de. Voici comment Google pourrait créer des relations d'attributs sémantiques entre les requêtes de recherche et les documents cliqués, et même prendre en charge un algorithme de classement à auto-apprentissage, en analysant le comportement des utilisateurs avec des documents individuels:
"Le cas dans la recherche privée est différent. Les utilisateurs ne partagent généralement pas les documents (par exemple, les courriels ou les fichiers personnels), et donc directement les agrégats. Pour résoudre ce problème, plutôt que d'apprendre directement du comportement de l'utilisateur pour une paire donnée (requête, doc) comme dans la recherche Web, nous avons plutôt choisi d'utiliser des documents et des requêtes utilisant des attributs sémantiquement cohérents qui sont en quelque sorte représentatifs de leur contenu. Cette approche est également décrite à la figure 2. Les documents et les projets sont projetés dans un espace attributaire agrégé, plutôt que directement. Puisque nous supposons que les attributs sont dans un modèle d’apprentissage au classement. "
Amélioration de la mise en cluster de sujets sémantiques pour les requêtes de recherche avec la co-occurrence de mots et la mise en cluster de graphes bipartites
Un autre article scientifique de Google donne des informations intéressantes sur la manière dont Google divise aujourd'hui probablement les requêtes de recherche en différents domaines thématiques.
Ce document présente deux méthodes que Google utilise pour contextualiser les requêtes de recherche. Les scores de levage jouent un rôle central dans le regroupement de co-occurrences de Word:
Formule de calcul du score de remontée
"Wi" dans la formule désigne tous les termes étroitement liés au mot racine, tels que les fautes d'orthographe, le pluriel, le singulier ou les synonymes.
"A" peut être toute interaction de l'utilisateur, telle que la recherche d'un terme de recherche spécifique ou la visite d'une page spécifique.
Si le score de levage, par exemple 5, la probabilité que "Wi" soit recherché est 5 fois supérieure à celle de "Wi" généralement recherchée.
"Un score élevé nous aide à construire des sujets significatifs plutôt que des mots inintéressants. En pratique, les probabilités peuvent être estimées à l'aide de la fréquence des mots dans l'historique de recherche Google dans une fenêtre temporelle récente. "
De cette façon, les termes peuvent être donnés à des entités particulières, telles que des entités. Mercedes et / ou lors de la recherche de pièces détachées de la classe de contexte thématique "voiture". La classe de contexte et / ou l'entité peuvent ensuite continuer à être associés à des termes qui apparaissent souvent en tant que co-occurrences des termes de recherche. Cela permet de créer rapidement un nuage de termes sur un sujet spécifique. La hauteur du score d'ascenseur détermine l'affinité avec le sujet:
"Nous utilisons le score de levage pour classer les mots en fonction de leur poids et de leur valeur."
Cette méthode peut être utilisée en particulier lorsque "Wi" est déjà connu, par ex. Termes de recherche par marques ou catégories connues. Si "Wi" ne peut pas être clairement défini, étant donné que les termes de recherche du même sujet sont trop différents, Google pourrait utiliser une deuxième méthode – "clustering bigraph pondéré".
Cette méthode repose sur deux hypothèses.
Les utilisateurs partageant les mêmes intentions formulent leurs requêtes de recherche différemment. Néanmoins, les mêmes résultats de recherche sont générés par les moteurs de recherche.
Inversement, des URL similaires sont générées pour une requête de recherche sur les premiers résultats de recherche.
Cette méthode compare les termes de recherche aux URL les mieux classées et crée des paires requête / URL dont la relation est pondérée en fonction des taux de clic et des impressions de l'utilisateur. De cette manière, des similitudes peuvent être faites entre les termes de recherche, qui n'ont pas le même mot racine et forment des clusters sémantiques.
Evaluation des interprétations sémantiques d'une requête de recherche
Ce brevet Google, introduit en juillet 2019, décrit une méthode permettant de déterminer différentes significations sémantiques dans une requête de recherche. Chaque interprétation sémantique est liée à une autre requête de recherche canonique. La requête en cours est modifiée en fonction de cela et du terme de recherche canonique
Semblable au brevet déjà mentionné concernant les annotations sémantiques, les termes de recherche modifiés sont déjà commentés avec un sens sémantique. En comparant les résultats de recherche de la requête de recherche initiale et ceux de la requête de recherche modifiée, les deux significations sémantiques possibles peuvent être validées et pondérées en relation. Le degré de similarité des résultats de la recherche détermine la proximité. Le degré de similarité est basé sur la fréquence d'apparition de certains mots-clés associés à la requête particulière dans les résultats de la recherche modifiés. Eine größere Häufigkeit des Auftretens von Keywords kann beispielsweise darauf hinweisen, dass die geänderte Suchanfrage mit größerer Wahrscheinlichkeit der semantischen Bedeutung entspricht.
In einigen Fällen können andere Daten, wie z. B. die Klickrate des Benutzers, Website-Traffic-Daten oder andere Daten, verwendet werden, um eine wahrscheinliche semantische Interpretation zu interpretieren.
Query Suggestions based on entity collections of one or more past queries
Ein weiteres Google Patent aus dem Juli 2019 beschreibt eine Methode, wie Google Suggest Vorschläge aus vergangenen Suchanfragen generieren kann. Auch hier spielen Entitäten eine Rolle. Entitäten, die in Beziehung zu den in den bisherigen Suggest-Vorschlägen vorkommenden Entitäten oder in der Vergangenheit gesuchten Entitäten in Beziehung stehen sind die Basis für die Bestimmung einer Ähnlichkeits-Messzahl für die Bestimmung neuer Suggest-Vorschläge.
Weitere Google-Patente für die Entitäten-basierte Interpretation von Suchanfragen
Rankbrain ist ein Entitäten-basierter Search Query Processor
Als Google im Jahr 2015 die Einführung von Rankbrain für die bessere Interpretation von Suchanfragen bekannt gegeben hat gab es eine Vielzahl von Vermutungen und Meinungen aus der SEO-Branche. Es wurde z.B. von der Geburtsstunde von Machine Learning bzw. KI bei Google gesprochen. Wie in meinem Beitrag Bedeutung von Machine Learning, AI & Rankbrain für SEO & Google erläutert beschäftigt sich Google bereits seit 2011 im Rahmen des Projekts Google Brain intensiv mit Deep Learning. Rankbrain war allerdings die erste offizielle Bestätigung seitens Google, dass Machine Learning auch in der Google Suche eingesetzt wird.
Die wohl präzisesten Informationen von Google zu Rankbrain bisher gab es im Bloomberg Interview aus Oktober 2015.
Eine Aussage in dem Interview sorgte für viele Missverständnisse um Rankbrain.
RankBrain is one of the “hundreds” of signals that go into an algorithm that determines what results appear on a Google search page and where they are ranked. In the few months it has been deployed, RankBrain has become the third-most important signal contributing to the result of a search query.
Viele SEO-Medien haben die Aussage so interpretiert, dass Rankbrain einer der drei wichtigsten Rankingfaktoren ist. Aber ein Signal ist kein Faktor. Rankbrain hat einen großen Einfluss darauf wie die Suchergebnisse ausgewählt und geordnet werden ist aber kein Faktor wie z.B. bestimmte Bestandteile eines Inhalts oder Links.
In diesem Interview gibt es eine weitere interessante Aussage:
RankBrain uses artificial intelligence to embed vast amounts of written language into mathematical entities — called vectors — that the computer can understand. If RankBrain sees a word or phrase it isn’t familiar with, the machine can make a guess as to what words or phrases might have a similar meaning and filter the result accordingly, making it more effective at handling never-before-seen search queries.
Bei Rankbrain werden Entitäten in einer Suchanfrage identifiziert und mit den Fakten aus dem Knowledge Graph abgeglichen. Insofern die Begriffe mehrdeutig sind findet Google über Vektorraumanalysen heraus welche der möglichen Entitäten am besten zum Begriff passen. Dabei sind die umliegenden Wörter im Suchterm ein erstes Indiz für die Ermittlung des Kontext. Das mag auch auch ein Grund sein warum Rankbrain u.a. für Longtail-Suchanfragen zum Einsatz kommt.
Das Problem in der Pre-Rankbrain-Zeit war die fehlende Skalierbarkeit bei der Identifikation und Anlage von Entitäten im Knowledge Graph. Der Knowledge Graph basiert aktuell noch in erster Linie aus Informationen aus Wikidata, die durch Wikipedia-Entitäten verifiziert werden und Wikipedia selbst – also manuell gepflegte und dadurch eher statisches und damit nicht skalierbares System.
“Wikipedia is often used as a benchmark for entity mapping systems . As described in Subsection 3.5 this leads to sufficiently good results, and we argue it would be surprising if further effort in this area would lead to reasonable gains.” Quelle: From Freebase to Wikidata – The Great Migration
Mehr dazu findest Du in den anderen Teilen der Beitragsreihe:
Eine weitere sehr zu empfehlende Quelle für Informationen zur Funktionsweise der Google-Suche aus erster Hand ist der bereits in einem anderen Beitrag erwähnte Vortrag von Paul Haahr auf der SMX West 2016.
Danny Sullivan fragte Jeff in der Q&A, wie RankBrain funktionieren könnte, um die Dokumentqualität oder -autorität festzustellen. Seine Antwort:
This is all a function of the training data that it gets. It sees not just web pages but it sees queries and other signals so it can judge based on stuff like that.
Das spannende an dieser Aussage ist, dass sie implizit ausdrückt, dass Rankbrain erst nach der Auswahl eines ersten Sets an Suchergebnissen eingreift. Das ist eine wichtige Erkenntnis, da RankBrain die Suchanfrage nicht verfeinert, bevor Google nach Ergebnissen sucht, sondern erst danach.
Dann kann RankBrain die Abfrage möglicherweise verfeinern oder anders interpretieren, um die Ergebnisse für diese Abfrage auszuwählen und neu zu ordnen. Hier können wir den Bogen zu den bereits erwähnten Google-Patenten zur Verfeinerung der Suchanfragen ziehen, die höchstwahrscheinlich mit Rankbrain in Verbindung stehen.
En résumé: RankBrain ist ein Algorithmus basierend auf Deep Learning, der nach der Auswahl eines ersten Subsets an Suchergebnissen zum Einsatz kommt und sich auf Textvektoren und andere Signale stützt, um komplexe Suchanfragen über Natural Language Processing besser zu verstehen.
Das Zusammenspiel aus Rankbrain, Hummingbird und Knowledge Graph
Ich denke, es wird klar, dass Google sich immer mehr zur Ad-hoc-Antwort-Maschine entwickelt und deswegen die Bedeutung einer Suchanfrage immer wichtiger wird als die rein termbasierte Interpretation von Suchanfragen.
Bisherige Information Retrieval Methoden beschränken sich auf die in der Suchanfrage vorkommenden Begriffe und gleichen diese mit Inhalten ab in denen die einzelnen Begriffe vorkommen, ohne über eine Kontextuelle Verbindung der Begriffe zueinander zu berücksichtigen und darüber die eigentliche Bedeutung festzustellen.
Durch Innovationen wie Hummingbird und Rankbrain geht es im Kern darum gesuchte Entitäten über einen Abgleich mit einer Entitäten-Datenbank (Knowledge Graph) zu identifizieren, über die Beziehung der relevanten Entitäten zueinander einen Kontext und darüber die Bedeutung von Suchanfragen und Dokumenten zu erkennen.
Dieses Umdenken im Information Retrieval bei Google war der Grund für die Einführung des Knowledge Graph, das Hummingbird Update im Jahr 2013 und Rankbrain im Jahr 2015. Diese Reihe von Innovationen stehen im direkten Zusammenhang miteinander bzw. greifen prozessual ineinander.
Rankbrain ist für die Interpretation von Suchanfragen hinsichtlich Synonymität, Ambiguität, Sinn (Intention) und Bedeutung (Extension) zuständig. Gerade mit Blick auf neue Suchanfragen, Long Tail Keywords, mehrdeutige Begriffe sowie Abwicklung von Prozessen im Rahmen von Voice Search und digitalen Assistenten ist Rankbrain das zentrale Element im Query Processing.
Die im Knowledge Graph erfassten Entitäten und Fakten wie Attribute und Beziehungen der Entitäten untereinander können sowohl bei der Relevanzbestimmung von Ergebnissen als auch bei der Verarbeitung von Suchanfragen (Query Processing) genutzt werden, um z.B. Dokumente und Suchanfragen über Kommentare (Annotations) mit Fakten aus dem Knowledge Graph anzureichern. Dadurch kann die Bedeutung von Suchanfragen als auch Dokumenten bzw. von einzelnen Absätzen und Sätzen in Inhalten besser interpretiert werden.
Der Hummingbird-Algorithmus ist für das Clustering von Inhalten je nach Bedeutung sowie Zweck in unterschiedliche Korpusse und für die Bewertung bzw. das Scoring der Ergebnisse hinsichtlich Relevanz also das Ranking zuständig.
Das verbindende Element bei allen drei Modulen sind Entitäten. Sie sind kleinste gemeinsame Nenner. Sowohl bei Rankbrain also auch Hummingbird spielen Vektorraumanalysen bzw. Word Embeddings als auch Natural Language Processing eine zentrale Rolle. Durch die Fortschritte in Sachen Machine Learning kann Google diese Methoden immer performanter nutzen, um sich von einer rein textbasierten Suchmaschine zu einer semantischen Suchmaschine zu entwickeln.
Un design réactif, des images nettes et l'incorporation de polices spéciales ne sont que quelques-unes des exigences imposées aux sites Web modernes. Cependant, cela entraîne souvent de longs temps de chargement pour les visiteurs.
La volonté de cliquer sur d'autres pages du projet disparaît. Les réseaux de diffusion de contenu sont un excellent moyen de réduire les temps d'attente pour vos visiteurs. Dans cet article, vous apprendrez à utiliser le CDN (réseau de diffusion de contenu) de Google en tant que turbo pour votre site Web.
CD … quoi?
Imaginez que vous allez avoir des gâteaux le matin. Il y a cinq back-shops dans une chaîne dans votre ville. Tous les rouleaux ont le même goût. Où allez-vous? À moins que vous n'aimiez les longues marches matinales, vous prendrez probablement celle qui vous est la plus proche. C'est le principe des réseaux de diffusion de contenu. Un serveur a le contenu original et actuel. Les autres serveurs répartis dans le monde tirent leurs données de ce serveur. Ils les reflètent et vérifient périodiquement les fichiers nouveaux ou mis à jour. Le visiteur du site Web obtient automatiquement les données du serveur le plus proche de son emplacement.
Un autre avantage est généré par les serveurs hautes performances des fournisseurs de CDN.
Cet article traite spécifiquement de la possibilité d'utiliser les structures de serveur Google. Les hôtes Web standard ne disposent pas des ressources matérielles nécessaires pour offrir la même vitesse que les serveurs Google.
Quelles données devraient être disponibles dans le CDN?
Les réseaux de distribution de contenu peuvent rendre des fichiers statiques disponibles. Par exemple, des fichiers CSS et JavaScript ou des images. Une fois téléchargés sur le réseau du serveur, ils peuvent être récupérés à partir de fichiers HTML.
Figure 2: Exemple d'intégration dans le code source
Tous les fichiers image ne doivent pas être rendus disponibles sur le CDN. Nous recommandons, par exemple, les grands fonds d’écran ou les images liées au design. Laissez des images appartenant au contenu de vos sites Web sur votre propre serveur. Après tout, vous souhaitez apparaître dans les résultats de la recherche d'images ci-dessus.
Combien coûte l'utilisation du réseau de diffusion de contenu Google?
L'utilisation de ce service Google est gratuite pour un maximum de cinq millions de vues par mois. De plus, les demandes sont réglées à l'heure ou au gigaoctet. Cependant, les coûts ne sont que de l'ordre du centime. De plus amples informations sont disponibles dans le tableau des prix.
Google CDN – Enregistrement et configuration pas à pas
Prêt? Parce que maintenant il est temps de commencer! L'inscription se fait via Google App Engine. Là, vous devez vous connecter avec votre compte Google. Cliquez sur le bouton "Créer une application".
Figure 3: Accueil Google App Engine
Dans l'étape suivante, vous devez créer votre application. Choisissez d'abord un nom. Ce nom sera également disponible en tant que sous-domaine à partir de AppSpot.com (deinname.appspot.com). Le choix du nom peut prendre un certain temps, car la créativité est en demande ici. Chaque nom ne peut exister qu’une seule fois et vous remarquerez bientôt qu’il y en avait déjà un devant vous 🙂 Dans le champ suivant, vous devez donner un titre à votre application. Personne ne verra ce titre dans notre cas, car vous n'utiliserez l'application que comme espace de stockage pour les fichiers statiques de vos pages Web. Confirmez à présent que vous acceptez les conditions d'utilisation en cochant la case correspondante. Vous pouvez maintenant cliquer à nouveau sur le bouton "Créer une application".
Figure 4: Installer une application Google
C'était la première blague et la seconde suit en même temps. Votre application a maintenant été créée avec succès. Vous avez maintenant la possibilité d'afficher le tableau de bord et d'enregistrer de nouveaux administrateurs pour votre espace de stockage.
Figure 5: Enregistrer avec succès une application Google
Maintenant, il est important que vous puissiez également télécharger des fichiers. Cela n'est possible qu'avec GoogleAppEngineLaunchen, qui est bien entendu fourni gratuitement par Google. Accédez à la page de téléchargement et téléchargez le logiciel correspondant à votre système d'exploitation. Ouvrez le programme et installez-le sur votre ordinateur. Cliquez ensuite sur "Fichier -> Nouvelle application". Dans le champ ID de l'application, entrez le nom unique précédemment défini pour votre application. Sous Répertoire d'application, vous pouvez spécifier dans quel dossier de votre ordinateur les fichiers doivent être téléchargés. Cliquez ensuite sur le bouton "Créer".
Figure 6: Configurer une nouvelle application dans GoogleAppEngineLauncher
Automatiquement, trois fichiers système seront créés dans le dossier que vous avez défini et un favicon sera déposé.
Figure 7: Fichiers système GoogleAppEngineLauncher
Chaque nouveau dossier que vous souhaitez partager pour la synchronisation, vous devez maintenant vous inscrire une fois dans le fichier "app.yaml" et déposer.
Ouvrez le fichier dans un éditeur de texte. Dans notre exemple, nous avons maintenant enregistré trois dossiers:
Comme vous pouvez le constater, l’inscription d’un nouveau dossier ne nécessite que deux lignes de code qui s’expliquent d’elles-mêmes.
Figure 8: Enregistrement de nouveaux dossiers dans app.yaml.
Vous êtes maintenant prêt à synchroniser vos fichiers pour la première fois. Ajoutez simplement vos fichiers aux dossiers appropriés, puis cliquez sur "Déployer" dans GoogleAppEngineLauncher. La vue de la console de votre ordinateur s'ouvre et vous pouvez suivre la manière dont les fichiers sont téléchargés sur le serveur.
Figure 9: Vue de la console de GoogleAppEngineLauncher
Bravo, c'est fait!
Modifiez maintenant le code source de votre site Web, comme le montre la figure 1, le référencement des fichiers que vous avez maintenant externalisés sur le serveur ultra-rapide de Google.
Bonus: le réglage des puces pour votre site Web
Les sites Web modernes utilisent de plus en plus des bibliothèques dites JavaScript. Par exemple, jQuery a peut-être déjà entendu l'un ou l'autre. Google fournit ces normes Web sur son serveur pour une utilisation gratuite. Tous les fichiers pris en charge sont disponibles sur Google Hosted Libraries. Déterminez lesquels de ces fichiers seront utilisés sur votre site Web et modifiez la référence à l'emplacement correspondant sur Google. L'avantage ici est que beaucoup de sites Web utilisent ces fichiers. Ainsi, si un visiteur a déjà visité un site Web qui obtient également le fichier jQuery du serveur Google, le fichier se trouve déjà dans la mémoire cache du navigateur de l'utilisateur. Cela rendra votre site web encore plus rapide.
Des visiteurs heureux font des webmasters heureux
Si vos visiteurs sont satisfaits, vous le serez également en tant qu'opérateur de site Web. Le temps de chargement joue ici un rôle important. Parce que les sites Web rapides montrent non seulement à Google qu’ils traitent avec un professionnel, mais également aux visiteurs. Ainsi, les performances des sites Web contribuent également au gain de confiance, augmentent la durée du séjour et, si nécessaire, améliorent les taux de conversion. La semaine prochaine, vous pourrez approfondir la question des réseaux de distribution de contenu dans un article avancé. Encore plus de rapidité pour votre site web, telle est la devise 😉
L'apprentissage automatique et l'intelligence artificielle (IA) jouent un rôle de plus en plus important dans la modélisation et la classification des modèles de marketing en ligne. Des entreprises telles que Tesla, Google, Microsoft, Amazon et Facebook mènent de nombreuses recherches dans le domaine de l'intelligence artificielle.
Après l'annonce de Google en novembre 2015, un nouveau signal de classement très important ou un facteur de classement important appelé rang cerveau travaille depuis des mois, l’intérêt pour le sujet est-il Machine Learning enfin arrivé dans la communauté du référencement et du marketing en ligne. Je tiens le sujet Apprentissage machine en particulier dans le contexte numérique, pour des raisons tout aussi incisives et prospectives, comme par exemple: les thèmes du marketing mobile, du big data et du contenu. Comme l'apprentissage machine lié à d'autres mots à la mode récents tels que Intelligence artificielle (Intelligence artificielle), sémantique ou Apprentissage en profondeur Je voudrais expliquer ci-dessous et quels sont les effets de ce développement sur les algorithmes d'autoapprentissage des moteurs de recherche. Je tiens à souligner que je suis le sujet Intelligence artificielle ou Apprentissage machine pourrait considérer que superficiellement. Si vous souhaitez approfondir le sujet, vous trouverez une collection détaillée de vidéos et de liens vers le sujet à la fin de l'article.
Dans cet article, je vais essayer le monde de la machine learning et son influence sur le référencement avec le soutien de précieux collègues nommés Markus Hövener. Sepita Ansari. Christian Kunz. Marcus Tober. Kai Spriestersbach, Sebastian Erlhofer et Marcel Schrepel rendre plus tangible.
Qu'est-ce que l'apprentissage automatique? Signification, définition et méthodologie
L'importance actuelle et surtout future de l'apprentissage automatique doit être classée de la même manière que les thèmes du marketing mobile, du Big Data ou du marketing de contenu dans le contexte numérique. Le nombre de visites sur la couverture médiatique des sujets a également considérablement augmenté depuis 2014, comme le montre l'évolution de Google.
Google Trends: développement d'un volume de recherche global pour les mégadonnées (en jaune), l'apprentissage automatique (en bleu) et le marketing de contenu (en rouge)
Comme je l'ai déjà expliqué dans mon article sur le Web sémantique (Web 3.0) en tant que conséquence logique du Web 2.0, les systèmes qui rendent les informations identifiables, catégorisables, évaluables et triables selon le contexte font de l'unique possibilité du flot d'informations et de données basé sur les innovations. devenir le gentleman du Web 2.0. Mais la sémantique pure ne suffit pas ici. C'est pourquoi les portiers numériques ont besoin de plus en plus d'algorithmes fiables pour accomplir cette tâche. Algorithmes d’autoapprentissage basés sur Intelligence artificielle et les méthodes d’apprentissage automatique jouent un rôle de plus en plus important. C’est le seul moyen de garantir la pertinence des résultats ou des dépenses / résultats attendus.
Mais qu'est-ce que l'apprentissage par machine maintenant et comment ça marche?
Apprentissage machine est dans le sujet Intelligence artificielle trop allemand Intelligence artificielle localiser. Le domaine de l'intelligence artificielle est divisé en sous-domaines suivants:
1er raisonnement 2. Représentation des connaissances 3. Planification et ordonnancement automatisés 4. Apprentissage automatique 5. Traitement du langage naturel 6. vision par ordinateur 7. Robotique 8. Intelligence générale ou forte IA
Le terme renseignement s’applique en relation avec Machine Learning Ce n’est pas tout à fait qu’il s’agit moins d’intelligence, mais bien de modèles et de précision reconnaissables par machine ou ordinateur. Apprentissage machine traite du développement automatisé d'algorithmes basés sur des données empiriques ou des données d'apprentissage. L'accent est mis sur l'optimisation des résultats ou l'amélioration des prévisions dues aux processus d'apprentissage.
Intelligence artificielle Le but est de prendre des décisions en fonction des données collectées selon un humain. Cela nécessite plus que des méthodologies d'apprentissage machine. La technologie à l'origine de l'apprentissage automatique s'appelle des réseaux de neurones.
Que sont les réseaux de neurones?
Réseau de neurones trop allemand Réseaux de neurones sont des groupes d'algorithmes construits conformément à un cerveau humain pour reconnaître des modèles récurrents, puis pour les étiqueter ou les étiqueter. Les modèles reconnus sont traduits en vecteurs mathématiques. Toutes les informations du monde réel, telles que les images, le son, le texte ou les séquences temporelles, sont prises en compte.
Les réseaux de neurones aident à classer les nouvelles informations de différents systèmes sur la base de similitudes et à les regrouper en groupes de modèles. Les étiquettes aident à nommer ces groupes. Des exemples d'étiquettes peuvent être: Spam, Pas de spam, Client satisfait, Client insatisfait, Lien acheté, Lien non acheté …
La diapositive suivante d'un exposé de Jeff Dean, de Google, montre que certains modèles, par exemple Grâce à ces modèles récurrents, l'apprentissage automatique peut être utilisé pour interpréter et étiqueter automatiquement l'image d'un lion.
Source: Présentation Jeff Dean / Google
Réseaux de neurones se composent de plusieurs niveaux ou couches qui contribuent en série au raffinement ou à la précision des hypothèses. Si vous êtes plus profondément concerné par le sujet, voici une belle introduction.
types d'apprentissage automatique
Il existe fondamentalement trois types différents d’apprentissage automatique:
Apprentissage surveillé
Apprentissage non surveillé
Renforcement de l'apprentissage
De plus, un extrait de l'allemand Wikpiedia:
Apprentissage supervisé apprentissage superviséL'algorithme apprend une fonction à partir de paires d'entrées et de sorties données. Pendant l’apprentissage, un "enseignant" fournit la valeur de fonction correcte pour la saisie. L’objectif de l’apprentissage supervisé est que le réseau soit formé après plusieurs calculs avec différentes entrées et sorties, la possibilité de créer des associations. Un sous-champ du apprentissage supervisé est la classification automatique. Un exemple d'application serait la reconnaissance de l'écriture manuscrite.
Apprentissage non surveillé (angl. apprentissage non superviséL'algorithme génère un modèle pour un ensemble donné d'entrées qui décrit les entrées et permet des prédictions. Il existe des méthodes de regroupement qui divisent les données en plusieurs catégories, qui diffèrent les unes des autres par des modèles caractéristiques. Le réseau crée ainsi indépendamment des classificateurs selon lesquels il divise les modèles d’entrée. Un algorithme important dans ce contexte est l'algorithme EM, qui définit de manière itérative les paramètres d'un modèle afin d'expliquer au mieux les données visualisées. Ce faisant, il utilise la présence de catégories non observables et, à son tour, estime l'affiliation des données à l'une des catégories et aux paramètres qui constituent ces catégories. Une application de l'algorithme EM se trouve, par exemple, dans les modèles de Markov cachés (HMM). Autres méthodes d'apprentissage non supervisé, par exemple. B. L'analyse en composantes principales supprime la catégorisation. Ils ont pour objectif de traduire les données observées en une représentation plus simple qui les reproduit le plus fidèlement possible malgré des informations considérablement réduites.
Renforcement de l'apprentissage (engl. apprentissage par renforcementL’algorithme apprend par la récompense et la punition une tactique sur la manière d’agir dans des situations susceptibles de se produire afin de maximiser les avantages de l’agent (c’est-à-dire le système auquel appartient la composante d’apprentissage). C'est la forme la plus commune d'apprentissage d'une personne.
J'ai aussi dans cette présentation de Rahul Jain trouvé de bons graphiques. (Lien vers la présentation en fin d'article).
la Apprentissage surveillé De nombreux travaux préparatoires sont nécessaires car les modèles de modèles doivent être définis et étiquetés au préalable afin de pouvoir identifier les informations entrantes et les affecter à ce groupe de modèles. Cet étiquetage est généralement effectué à la main en raison de l’assurance qualité. En raison de certains modèles récurrents, le système peut alors reconnaître de manière indépendante des informations avec des propriétés de modèle identiques ou similaires à l'avenir et les affecter au groupe de modèles correspondant.
Processus d'apprentissage automatique: apprentissage non surveillé
Dans le cas d'un apprentissage non supervisé, l'étiquetage avancé n'a pas lieu et les groupes de modèles sont automatiquement formés sur la base de modèles.
Semblable au terme d'intelligence artificielle, le terme d'apprentissage automatique est souvent assimilé à un apprentissage en profondeur et à la sémantique ou appelé dans le même souffle. Vous trouverez ci-dessous une tentative de différenciation.
Différence entre l'apprentissage automatique et l'apprentissage en profondeur
Apprentissage en profondeur est un sous-domaine de l’apprentissage automatique, on pourrait aussi parler de développement. Alors que les algorithmes classiques d’apprentissage automatique reposent sur des groupes de modèles solides pour la reconnaissance et la classification, les algorithmes d’apprentissage approfondi développent indépendamment ces modèles ou créent indépendamment de nouveaux niveaux de modèle au sein des réseaux de neurones. Par conséquent, il n'est pas nécessaire que les modèles pour les nouveaux événements soient développés et implémentés manuellement, comme ce serait le cas avec les algorithmes traditionnels d'apprentissage automatique. Il est donc préférable de répondre aux prévisions d’Algos qui ont un apprentissage en profondeur. En outre, ce graphique (l’Orginaquelle n’est malheureusement plus en ligne. C’est pourquoi nous faisons référence à cet article.)
Différenciation entre apprentissage automatique et sémantique
La sémantique peut aider à mieux identifier la signification d'un objet grâce à sa classification en tant qu'entité unique et à ses relations avec d'autres entités. Lors de la classification, la sémantique utilise des propriétés similaires aux modèles associés aux groupes de modèles dans l'apprentissage automatique. La principale différence, cependant, est que la sémantique ne poursuit aucun processus d'apprentissage, comme c'est le cas avec l'apprentissage automatique. De ce fait, les systèmes sémantiques sont plutôt statiques et peu capables d’effectuer des prévisions pour de nouvelles situations. Les groupes de modèles et les modèles ou entités doivent être connus.
Apprentissage automatique et algorithmes (moteur de recherche)
La chose intéressante à propos de ce développement est la Machine Learning est que les algorithmes peuvent évoluer et s’adapter à l’avenir. Jusqu'à présent, par exemple Chez Google, l’algorithme de recherche s’est développé comme suit.
Une modification moyenne des algorithmes commence par une idée visant à améliorer la recherche de l’un des développeurs de Google. Ils suivent une approche basée sur les données et toutes les modifications d’algorithme proposées sont testées avant publication dans le cadre d’une évaluation de la qualité complète.
En règle générale, les développeurs partent d'une série d'expériences, optimisent l'une ou l'autre variable et demandent un feedback à leurs collègues. S'ils sont satisfaits du résultat, l'expérience est diffusée à un public plus large.
Développement d'algorithmes chez Google Source: Google
Le résultat est un algorithme général statique qui est développé par de nombreuses mises à jour plus petites et plus grandes. Cet algorithme est le même pour chaque situation. Plongez complètement dans de nouvelles situations sans précédent, une fois débordé. La prise en compte de chaque contexte individuel, tel que Emplacement, terminal utilisé … dans lequel un utilisateur est situé doit utiliser cet algorithme. Dans le cas optimal, chaque utilisateur ou au moins groupe d'utilisateurs aurait "gagné" son propre algorithme pour pouvoir être utilisé en fonction du contexte respectif. Ce n'est pas possible avec le précédent algorithme relativement statique.
Il n'est pas possible d'écrire votre propre algorithme pour chaque tâche. Des algorithmes doivent être écrits pour apprendre des observations. L'apprentissage automatique rendrait cela possible et Google va déjà dans cette direction.
En outre, les utilisateurs de Google peuvent utiliser des signaux qui peuvent être utilisés comme indicateurs de réussite dans le processus d'apprentissage:
Rapport de clic long à court
Proportion de chercheurs effectuant des requêtes de recherche connexes et supplémentaires
Mesures d'engagement de l'utilisateur (détectables via Chrome, par exemple)
Taux de kick relatif dans les SERPs
Contenu partagé
Engagement de l'utilisateur sur les sites Web
En combinaison avec les signaux classiques de classement hors page tels que les backlinks, les co-citations et les co-occurrences, ceux-ci peuvent être utilisés comme métriques de succès pour la vérification d'une estimation par l'algorithme.
Une question intéressante est la suivante: où Google obtient-il les données de formation relatives à l'utilisateur pour lancer le processus d'apprentissage automatique?
S'agit-il de véritables données utilisateur ou Google continue-t-il d'utiliser les données fournies par les évaluateurs de recherche? Quality Rater à générer dans un environnement de test?
(Des discussions comme celle-ci dans les commentaires.)
Devenant progressivement obsolète, l'algorithme de développement d'algorithme ci-dessus. En témoignent également les mises à jour de plus en plus fréquentes en temps réel telles que. les mises à jour de pingouin en temps réel ou les mises à jour de "panda" en attente. Auparavant, les mises à jour à venir étaient annoncées volumineuses et par de tels collègues. sistrix documentée. Je pense qu'une telle documentation aura bientôt perdu sa signification. Et aussi des enquêtes et des aperçus des facteurs de classement tels que nous les connaissons jusqu’à présent seront historiques dans quelques années. Mais plus à ce sujet ci-dessous.
Google contient déjà de nombreuses informations provenant de différents niveaux d'indexation et de classement, qui doivent en quelque sorte être prises en compte dans l'algorithme.
texte
Visuels (images, vidéos)
acoustique
le comportement des utilisateurs
Knowledge Graph (image des relations)
Pendant ce temps, Google peut déjà lire les chiffres et le texte des images, comme mon collègue Philipp le décrira avec brio dans son message de la semaine prochaine.
Plus dans l'article Reconnaissance d'images: Google peut-il lire et reconnaître des textes dans des images?
Si vous examinez à nouveau les différents types d’apprentissage automatique et que vous les transférez au monde des moteurs de recherche, il est logique de penser aux endroits où au moins les approches d’apprentissage automatique sur Google sont déjà utilisées. En termes de recherche, vous pouvez au moins reconnaître les approches de la ML ici:
Graphique de connaissances
colibri
rang cerveau
éventuellement pingouin en temps réel
De plus, certains produits Google utilisant des fonctionnalités d'apprentissage en profondeur, tels que: Texte en reconnaissance d'image, reconnaissance vocale, Google Translate …
La grande question est de savoir comment créer des systèmes capables de gérer toutes ces informations.
Et encore une fois, la réponse est que l'apprentissage automatique peut être cela.
Le problème le plus important lié au traitement d’une telle masse de données est celui des performances et de l’évolutivité. Néanmoins, Google souhaite, de toutes ses forces, aller de l'avant vers l'apprentissage automatique. Selon Eric Schmidt, l'apprentissage automatique est le thème dominant de l'avenir de Google, comme il l'a récemment présenté aux étudiants de la TU Berlin:
Le sujet exceptionnel des années à venir selon Schmidt Machine Learning. Ainsi, le développement de machines et d'ordinateurs pouvant apprendre de manière autonome. Schmidt: "Nous n'aurons plus à poser de questions à l'ordinateur à l'avenir, car il a appris ce que nous allons demander. Quelque chose de très grand commence tout juste. "Schmidt fait confiance aux machines. Les ordinateurs sont simplement meilleurs et plus rapides que les humains à bien des égards.
Engagement de Google en matière d'intelligence artificielle et d'apprentissage automatique
Que Google finisse par créer un cerveau artificiel et que, pour Hummingbird et le graphe de Knowldege, ce n’est que le début de ma collègue Svenja il ya deux ans, avec l’article Knowledge Graph: Google construit un cerveau ici, dans le blog. Mais jusqu'à présent, vous ne pouviez que le deviner. En raison des activités supplémentaires de ces dernières années, le tableau devient de plus en plus clair.
Selon Google, depuis 2014, Google a presque quadruplé ses activités d'apprentissage en profondeur, comme le montrent les diapositives de la conférence de Jeff Dean ci-dessous.
Source: Présentation Jeff Dean / Google
L'engagement de Google pour les choses Intelligence artificielle et Machine Learning commencé en 2011 avec le lancement de "Google Brain". L'objectif de Google Brain est de créer vos propres réseaux de neurones. Depuis lors, Google développe son propre logiciel d'apprentissage en profondeur DistBelief Continuez à développer vos propres produits d’apprentissage automatique. La deuxième génération de logiciels appelée Flux tensoriel mais est déjà dans les starting-blocks.
En regardant l’investissement et l’engagement dans l’intelligence artificielle au fil du temps, on comprend vite l’importance de Google dans ces domaines:
L'engagement de Google dans l'apprentissage automatique et l'intelligence artificielle
Bien que Knowledge Graph et Hummingbird incluent déjà des approches d’apprentissage automatique, l’accent a été mis davantage sur le moteur de recherche sémantique. Au plus tard, avec les investissements de plusieurs centaines de millions de dollars dans diverses entreprises des domaines de l'intelligence artificielle et de l'apprentissage automatique en 2014, il est clair que Google veut vraiment aller.
avec Esprit profond (environ 365 millions de dollars) Google a acheté une société fondée en 2011, spécialisée dans les systèmes autour de l'intelligence artificielle. et al DeepMind est responsable du développement de Google Now. La mission de DeepMind est de comprendre l'intelligence. De plus, DeepMind ne traite pas seulement du développement des réseaux de neurones, mais travaille également sur des modèles beaucoup plus souples, similaires à ceux d’une mémoire à court terme.
Labos Bleu Foncé d'autre part, l'accent est mis sur la reconnaissance et l'interprétation du langage naturel, ainsi que des formats audio.
vision Factory se spécialise dans la reconnaissance et l'interprétation de supports visuels tels que des images ou des vidéos.
Toutefois, lorsqu'il s'agit de textes, Google a une expérience de moteur de recherche basée sur le texte. Dans le domaine de l'audio, de la vidéo et de l'image, ils ont obtenu un soutien professionnel auprès des entreprises mentionnées.
En outre, Google investit depuis des années, selon sa propre déclaration, dans le domaine de l'intelligence artificielle. Ainsi, Google a par exemple investi des dizaines d’heures de travail dans le développement d’une infrastructure de pointe. propres réseaux de neurones investis. En outre, Google utilise des milliers de processeurs et de processeurs graphiques pour tirer des enseignements de milliers de milliards d'enregistrements en parallèle.
En décembre 2015, Google a annoncé qu'il travaillait avec la NASA sur un ordinateur quantique.
Google publie souvent des tâches scientifiques sur des sujets tels que la reconnaissance d'images, la reconnaissance vocale. Plus de 460 publications sur l'intelligence artificielle ont été publiées au cours des deux dernières années. Voir http://research.google.com/pubs/ArtificialIntelligenceandMachineLearning.html.
Et ce n'est pas juste la théorie. Par exemple, Google affirme avoir implémenté l'expérience d'apprentissage en profondeur depuis 2012 dans plus de 47 produits. Voici un extrait:
Reconnaissance d'objets en images
Détection de type d'objet dans les vidéos
reconnaissance vocale
Passants pour les voitures autonomes
OCR: reconnaissance de texte en images
Reconnaissance d'un langage familier
Traduction automatique
Publicité en ligne
Le système d'apprentissage automatique de l'équipe Expander utilise des ressources naturelles, des images, des vidéos et des requêtes, pour alimenter traduction de la langue, reconnaissance des objets visuels, compréhension du dialogue, etc.
Google reconnaît lui-même que l’apprentissage automatique semi-supervisé (expliqué plus haut dans l’article) est utilisé.
Fondamentalement, la plateforme d'Expander combine l'apprentissage automatique semi-supervisé et l'apprentissage à grande échelle basé sur des graphes en créant une représentation multi-graphes du concept. Le graphique contient généralement des données étiquetées (nœuds associés à une catégorie de sortie connue ou une étiquette) et des données non étiquetées (nœuds pour lesquels aucune étiquette n'a été fournie).
Il est difficile de déterminer qui prend en charge l'étiquetage manuel ou la précognition sur Google. Il se peut que cela soit fait en fonction de la tâche effectuée par Quality-Rater et par un favorable Clickworker.
Pour en savoir plus sur les activités d'intelligence artificielle de Google, je vous recommande l'une des nombreuses conférences de Jeff Dean.
Au plus tard, avec l'introduction de l'extension d'algorithme de Hummingbird nommée Rankbrain, chaque référencement naturel devrait indiquer clairement que le thème de l'apprentissage automatique constituera un facteur de plus en plus important dans le classement.
Avant d’examiner les effets de ces activités sur l’optimisation des moteurs de recherche, je vais approfondir quelques conseils de lecture.
Sources sur l'apprentissage automatique et l'intelligence artificielle
Apprentissage en profondeur vs apprentissage automatique vs reconnaissance de formes
Apprentissage automatique expliqué en mots simples
Wikipedia: Apprentissage automatique
Introduction à l'apprentissage automatique
Rise of the Machines de JAX TV sur Vimeo.
Quel est le rôle de Rankbrain?
Selon Google, Rankbrain a été initialement appliqué principalement à 15-20% des requêtes précédemment non demandées. Rankbrain est appliqué à toutes les requêtes de recherche depuis juin 2016.
Rankbrain est cité par Google comme le troisième facteur de classement en importance. Le facteur de classement du terme Ber est source de confusion. Facteur de classement oui, signal de classement non. Et ici commence pour beaucoup de SEO l'incertitude, qui n'est en partie pas résolue par les déclarations contradictoires de Google.
Il y a deux questions qui occupent les SEO avec Rankbrain
Rankbrain est-il responsable du raffinement de la requête ou de la classification et de l'interprétation des mots-clés, ou du scoring des URL?
Rankbrain utilise-t-il des données utilisateur réelles, des données de formation provenant d’évaluateurs de recherche ou d’évaluateurs de qualité, ni aucun d’eux comme données de formation?
Voici les théories suivantes:
Rankbrain n'est pas un signal de classement mais seulement responsable du raffinement de la requête
Rankbrain est un signal de classement et participe donc à la notation des documents
Outre Rankbrain, d’autres systèmes d’apprentissage automatique sont utilisés chez Hummingbird.
1. Rankbrain n'est pas un signal de classement mais seulement responsable du raffinement de la requête
Rankbrain n'est pas un facteur de classement classique, tel que Titres de page ou backlinks. Rankbrain est plutôt une mise à jour de l'algorithme de Hummingbird sous la forme d'une extension. En raison de la détermination de la proximité thématique par rapport aux termes déjà connus, Rankbrain peut classer les requêtes de recherche précédemment inconnues en contextes thématiques ou, en particulier, décomposer les requêtes complexes plus longues en dénominateurs communs. En conséquence, la signification peut être mieux interprétée et ainsi la requête de recherche inconnue peut être attribuée à des synonymes déjà connus ou à des termes de signification similaire ou identique. Rankbrain, en particulier lors de l’interprétation des requêtes de recherche, peut faire progresser Google.
Par exemple, Rankbrain a été présenté dans la première annonce de Google et Paul Haahr de Google a confirmé cette théorie lors du SMX Advanced 2016 dans cette interview avec Danny Sullivan (à partir de 3h00). Notez que Gary Illyes joue également un rôle de soutien, qui est mentionné ailleurs.
2. Rankbrain est un signal de classement et est donc impliqué dans la notation des documents
Rankbrain est directement impliqué dans l'évaluation du contenu de la page. Ici, certains modèles, le contenu approprié pour une requête particulière, doivent être identifiés à plusieurs reprises et utilisés pour le scoring. Mais il n'y a que quelques déclarations de Google. Il est assez frappant de constater que Gary Illyes, dans le rôle principal joué lors d'une séance de questions-réponses avec Danny Sullivan également au SMX Advanced 2016, a déclaré ce qui suit concernant Rankbrain (à partir de 5:40 minutes):
"C'est moins pour comprendre la requête que pour marquer les résultats …"
Danny Sullivan semblait être plus susceptible de partir de la première théorie qui lui avait été confirmée lors du même événement par son collègue Halyr des Illyes.
Très déroutant ce que Google communique ici.
3. En plus de Rankbrain, d’autres systèmes d’apprentissage automatique sont utilisés chez Hummingbird.
Une autre hypothèse est que, en plus de Rankbrain, d’autres parties de Hummingbird Machine Learning incluent également, par exemple, est utilisé pour la notation de sites Web. Mario Fischer également dans une discussion sur Facebook:
Mario Fischer confus à propos de Rankbrain dans une discussion sur Facebook du 22.11.2016
J'ai demandé à John Mueller de Google dans le Webmaster Hangout du 01.12.2016 une réponse. Voici son opinion sur le rôle de Rankbrain:
John confirme la première des trois théories selon lesquelles Rankbrain n'est utilisé que pour interpréter les requêtes de recherche. La notation réelle des sites Web, qui assure le tri des résultats de la recherche, a lieu dans l'algorithme de Hummingbird. Indique si les signaux utilisateur sont utilisés ici en tant que données d'apprentissage pour l'interprétation des requêtes de recherche, par ex. être utilisé pour l'enquête n'est pas clair.
Rankbrain pour le raffinement de la requête
Je crois en la première déclaration de Google selon laquelle Rankbrain est utilisé comme moyen de raffinement de la requête, c'est-à-dire sur la page de la requête de recherche. Surtout que Paul Haahr m'a fait dans les deux vidéos l'impression beaucoup plus compétente et que Gary Illyes ne s'est pas produit pour la première fois avec un manque de satisfaction en matière de communication. Mais cela voudrait dire que Rankbrain n’est pas un facteur direct, contrairement à ce que dit Gary Illyes.
Je pense aussi qu’en plus de Rankbrain, d’autres systèmes d’apprentissage automatique, par exemple utilisé pour marquer les sites Web. Si ce n'est pas maintenant, alors à l'avenir. Je suis également convaincu que Google utilise également l'apprentissage automatique pour déterminer l'intention de recherche, y compris l'inclusion de données d'utilisateur réelles. Mais presque tout est spéculation ou acceptation à ce jour.
Rankbrain en tant que médiateur entre la requête de recherche et Hummingbird
Voyons comment fonctionne le moteur de recherche de Google.
La fonctionnalité de Google est divisée en gros dans les domaines suivants:
Ramper et indexer
Comprendre et développer les requêtes de recherche (y compris Rankbrain)
Récupération et notation (Hummingbird / Knowledge Graph)
Pour l'évaluation, l'évaluation de documents individuels indépendamment de la requête de recherche est par conséquent non pas Rankbrain responsable, mais l'algorithme de Hummingbird. Rankbrain n'interprète que les requêtes de recherche.
C'est ainsi que Google pourrait fonctionner aujourd'hui
Si on interprète déjà Gary Illyes presque un peu ennuyé et que sa réponse aux demandes de Rand Fishkins pourrait être utilisée, Rankbrain pourrait être utilisé pour pondérer différemment les facteurs de classement en fonction de l’intention de recherche. Cela influencerait donc le classement des documents.
Réclamez maintenant certains SEO qu'au moins dans la détermination de l'intention de recherche de Rankbrain Google sur des signaux d'utilisateur réels. Ich bin zuerst auch davon ausgegangen, aber laut Aussage von Gary Illyes scheint es nicht so. Zumindest keine Nutzersignale in der freien Online-Wildbahn.
It’s an offline learning algorithm. It’s refreshed every now and then with new training data.
Wenn man zwischen den Zeilen liest gibt es zwei Möglichkeiten:
Google könnte Nutzersignale ihrer Such-Evaluatoren nutzen um auch die Suchintention zu ermitteln bzw. Keyword-Modellgruppen bezogen auf die Suchintention zu bilden.
Google könnte Nutzersignale erfassen und als Trainingsdaten in das Offline Machine-Learning-System von Rankbrain einfließen lassen.
Aber alles pure Spekulation.
Kommen wir zum eigentlichen Scoring der Dokumente über Hummingbird. Ich versuche, das mal mit Hilfe von Paul Haahrs Vortrag von der SMX West 2016 zu erklären, ohne es genau zu wissen.
Google klassifiziert laut Paul Haahr (Video weiter unten) Dokumente und Websites in sogenannte Shards innerhalb des Index. Laut Haahr gibt es tausende von verschiedenen Shards. Ich könnte mir vorstellen diese Shards sind nach Zweck des Dokuments und/oder Themenbereich im Index klassifiziert. Das für das Ranking relevante Gesamt-Scoring findet dann aus dem allgemeinen Scoring des Dokuments im Abgleich mit der über Rankbrain identifizierten Suchintention der Suchanfrage statt.
Paul Haahr zum Thema Scoring
Zu weiteren Theorien, zu was Rankbrain noch genutzt werden könnte empfehle ich die Präsentation von Kai Spriestersbach von der SEOkomm 2016. Die Einschätzung zum Einfluss der Engagement-Daten wie Absprungrate und CTR auf Rankbrain teile ich allerdings nicht voll und ganz.
Wir sollten bei Kais Präsentation vielleicht eher von Machine Learning bei Google und nicht explizit von Rankbrain sprechen.
Wer sich mit dem Thema beschäftigt sollte sich auch diese Keynote von Marcus Tandler ansehen: Marcus Tandler Vortrag, Rise of the Machines
Welche Auswirkung kann Machine-Learning zukünftig auf das Ranking haben?
Ich denke, dass Machine Learning Funktionalitäten nicht erst bei Rankbrain, sondern bereits bei Hummingbird und der stetigen Weiterentwicklung bzw. Vergrößerung und Strukturierung des Knowledge Graph im Einsatz sind. Dass Machine Learning zur Spam-Bekämpfung z.B. im Rahmen des Pinguin-Algos zum Einsatz kommt wurde inzwischen durch eine Aussage von Google bzw. Gary Illyes wiedersprochen. Ich hoffe hier bleibt es auch bei dieser eindeutigen Aussage.
Ob Google jetzt schon Machine Learning für die Bewertung von Websites nutzt kann aufgrund der widersprüchlichen Aussagen aus dem Hause Google nicht beantwortet werden. Sinn würde es für die Zukunft machen.
Ich denke, dass Machine Learning bereits schon seit längerem zur Kategorisierung von Suchanfragen, Inhalten aber auch Entitäten ( Mehr zum Thema Semantik und Entitäten) eingesetzt wird. Es muss ja nicht zwangsläufigüber Rankbrain sein. Die ein oder andere Prise Machine Learning könnte auch schon in den Hummingbird-Algo direkt eingeflossen sein.
Gerade in Kombination mit dem Knowledge Graph als semantische Datenbank hätte Google zwei mächtige Werkzeug an der Hand.
Hilfreich könnte hierfür auch ein Google-Patent zur Nutzung von Knowledge Base Kategorien sein, über das man im Beitrag How Google Might Make Better Synonym Substitutions Using Knowledge Base Categories mehr erfahren kann.
Dafür, dass Google Suchanfragen bereits zu verschiedenen Kategorien zuordnet gibt es klare Anzeichen wie z.B. die Beobachtungen von Ross Hudgens zeigen.
Entitäten-Katgeorien in Google Suggest: Quelle siehe obigen Link zu The SEM Post
Google versucht hier zwecks Eindeutigkeit Begriffe insbesondere Entitäten mit mehreren Bedeutungen je nach Kontext über Kategorisierung voneinander abzugrenzen. Auch in Google Trends kategorisiert Google Begriffe bereits nach Kategorien:
Ob nun die Nutzerdaten oder das Feedback der Such-Evaluatoren bzw. Quality-Rater oder sogar beide Gruppen das bestärkende Element für den Algorithmus sind kann man nur erraten…
Das alles ist reichhaltiges Futter für die selbst lernende Weiterentwicklung der Ranking-Algorithmen und dadurch teils sehr individuelle Suchergebnisse pro Nutzer.
Ich glaube, dass die bisherigen Einsatzgebiete für Machine Learning bei Google nur der Anfang sind. So könnten theoretisch selbstlernende Algorithmen auch für alle vorkommenden Suchanfragen angewandt werden, nicht nur wie bei Rankbrain auf die bisher unbekannten Suchwörter. Doch welche Auswirkungen hätte das Ganze für SEOs?
Welche Auswirkung haben selbst lernende Algorithmen auf SEO?
Machine Learning als Teil des Ranking-Algorithmus könnte dafür sorgen, dass Google zukünftig auf die Optimierung von statischen Rankingsignalen durch Webmaster und SEOs nicht mehr angewiesen ist.
Die Implementierung von strukturierten Daten in Form von Mark-Ups hat in der Vergangenheit nur sehr schleppend stattgefunden. So hat eine Untersuchung des Tool-Anbieters Searchmetrics aus dem Jahr 2014 ergeben, dass nur 0,3% der untersuchten Websites auf Schema.org Mark Ups setzen. Die Daten stammen aus Herbst 2013 und es ist anzunehmen. dass sich hier inzwischen etwas getan hat. Ich denke, aber das Google lieber auch ohne der technischen Mithilfe von Webmastern, Redakteuren und SEOs erkennen möchte, was sich hinter einem Inhaltsbaustein verbirgt. Die meisten Inhalts-Verantwortlichen kennen sich mit Mark-Ups nicht aus und wollen sich auch zukünftig nicht damit beschäftigen. Deswegen ist es für Google umso wichtiger Inhaltselemente auch ohne die Ausweisung strukturierter Daten zu interpretieren.
Auch was Optimierungen der Seitentitel, Alt-Tags von Bildern, etc. angeht haben viele Websites immer noch Nachholbedarf.
Anhand selbst lernender pro Nutzer individueller Such-Algorithmen kann Google alle Dimensionen bezogen auf den situativen Kontexts des jeweiligen Nutzers berücksichtigen. Jeder Nutzer hätte damit komplett eigene Suchergebnisse. Das wäre der letzte Schritt von Google zur Entmanipulierung ihrer Suchergebnisse.
Die Folgen für SEOs noch einmal kurz zusammengefasst:
Noch personalisiertere Suchergebnisse als bisher nach Kontext des Nutzers
Nur noch bedingte Mithilfe durch SEOs bzw. Webmaster für Google notwendig
Manipulierung der Suchergebnisse quasi nicht mehr möglich
Einfluss statischer Rankingfaktoren wie Seitentitel, Backlinks, Nutzung von Keywords, Alt-Tags für Bilder … nimmt weiter ab
Aktive Optimierung nur für Suchmaschinen verliert noch mehr an Wichtigkeit
Das Ganze ist natürlich Zukunftsmusik und wann und ob überhaupt Google das Ranking komplett selbst lernenden Algorithmen übergibt bleibt abzuwarten. Dies würde mit einem nahezu kompletten Kontrollverlust durch Google einhergehen. Somit könnte Google überhaupt nicht mehr nachvollziehen, warum Rankings für den einen Nutzer so und für den anderen Nutzer so aussehen. Laut Aussage von John Mueller scheint der anarchistische Algorithmus auch bisher nicht angedacht, wie aus seiner Aussage aus dem Webmaster Hangout Anfang Dezember zu entnehmen ist:
Wir machen viel mit Machine Leraning, das ist ein faszinierendes Feld. Manchmal ist es spannend, dass die maschinellen Algorithmen auf etwas kommen, an das wir sonst nicht gedacht hätten. Dann versuchen wir herauszufinden, wie die Algorithmen darauf gekommen sind.
Es ist jedoch oft schwer, in dieser Umgebung die Fehler zu finden. Wenn wir also einen nur maschinell lernenden Algorithmus hätten, der alles macht, dann würde es sehrschwerwerden potentielle Fehler zu finden und zu beheben.
Man muss also die richtige Balancezwischen den verschiedenen Algorithmen finden. Alles muss reproduzierbar und verständlich sein, aber es muss auch Raum für Neuerungen geben.
Google scheint hier selbst noch nicht sicher zu sein wie viel Kontrolle sie an selbst lernende Algorithmen abgeben wollen. Wir werden es in Zukunft sehen oder auch nicht …
Mehr zum Thema Semantik und Machine Learning kann man hier bei uns im Blog lesen >>>
Expertenstimmen zum Einfluss von Machine Learning auf SEO
Hier einige weitere exklusive Stimmen von geschätzten Kollegen und SEO-Experten zu der Thematik Machine Learning und SEO:
Christian Kunz: Christian ist Inhaber der Webseite SEO Südwest und Senior Project Manager Search bei 1&1. Dort ist er unter anderem für die Suche-Projekte der Marken WEB.DE und GMX verantwortlich.
Für die SEOs wird sich nur wenig ändern. Pourquoi? Dazu muss man sich den Wirkungskreislauf von SEO-Maßnahmen, Nutzersignalen und den durch maschinelles Lernen angepassten Rankingfaktoren ansehen. Gehen wir aus vom wichtigsten Indikator, den eine Webseite an Google sendet: den Nutzersignalen. Dazu gehören zum Beispiel die Verweildauer, die Absprungrate, aber auch die Gesamtzahl der Besuche und der Page Impressions. Anhand dieser Nutzersignale kann Google erkennen, ob eine Webseite den Bedürfnissen der Besucher entspricht. Wird die Seite häufig besucht, gibt es viele wiederkehrende Besucher und bleiben diese länger auf der Seite, dann kann davon ausgegangen werden, dass die Inhalte der Seite den Besuchern gefallen.
Google verwendet die besonders beliebten Seiten (und damit meine ich nicht nur die großen Webseiten, sondern zum Beispiel auch kleine Nischenseiten zu speziellen Themen) und analysiert deren Aufbau. Dabei werden nicht nur die Inhalte bewertet, sondern zum Beispiel auch die Navigation, die Seitenstruktur, das Verhältnis von Text zu Bildern und so weiter. Natürlich weiß außer einem kleinen Kreis von Google-Mitarbeitern niemand genau, wie genau diese Analyse abläuft und welche Faktoren betrachtet werden. Man kann aber mit ziemlicher Sicherheit davon ausgehen, dass die beliebten Seiten als Blaupause für die Bewertung weiterer Webseiten genutzt werden. Dabei können sich die Rankingfaktoren und deren Gewichtung immer wieder ändern. Umso mehr eine Webseite dem jeweiligen Idealbild entspricht, desto besser die Rankingchancen der Seite.
Hier kommt die Suchmaschinenoptimierung ins Spiel: Aufgabe der SEOs ist es, die Webseiten ihrer Kunden an die jeweils aktuellen Rankingfaktoren anzupassen. Wenn zum Beispiel gerade das Thema Mobilfreundlichkeit wichtig ist, dann muss dafür gesorgt werden, die Webseite des Kunden für die Darstellung auf Smartphones zu optimieren. Geht es um sichere Datenübertragung, muss die Webseite auf TLS und idealerweise auf HTTP/2 portiert werden und so weiter.
Die SEO-Maßnahmen wirken sich wiederum auf die Nutzersignale aus, die dann zur weiteren Anpassung der Rankingfaktoren führen können – ein sich fortsetzender Kreislauf also.
Die Arbeit der SEOs ändert sich im Vergleich zu früher nicht viel, denn sie sind weiterhin im Unklaren darüber, welche Rankingfaktoren mit welchem Gewicht wirken. Sie können nur spekulieren. Der Unterschied zum alten Vorgehen besteht in zwei Dingen: Erstens werden sich die Rankingfaktoren zukünftig schneller ändern, denn maschinelles Lernen wird Anpassungen nahezu in Echtzeit ermöglichen. Zweitens werden Nutzersignale wie die Verweildauer oder die Absprungrate noch wichtiger als schon in der Vergangenheit, denn sie werden die Hauptindikatoren für Google zur Bewertung der Webseitenqualität sein.
Bei alldem darf natürlich nicht vergessen werden, dass es neben dem beschriebenen Mechanismus weiterhin auch andere Rankingfaktoren geben wird, die konstant bleiben. Die Relevanz der Inhalte auf einer Webseite zur jeweiligen Suchanfrage wird genauso einfließen wie die Autorität der Webseite, gemessen an Backlinks und Signalen aus den sozialen Netzwerken.
Markus Hövener: Markus ist Gründer und Head of SEO der auf SEO und SEM spezialisierten Online-Marketing-Agentur Bloofusion (www.bloofusion.de). Als geschäftsführender Gesellschafter von Bloofusion Germany ist er verantwortlich für alle Aktivitäten in Deutschland, Österreich und der Schweiz. Markus Hövener ist Chefredakteur des Magazins suchradar (www.suchradar.de) und Blogger bei den Internetkapitänen (www.internetkapitaene.de). Außerdem ist er Autor vieler Artikel und Studien rund um SEO und SEM und spricht auf vielen Online-Marketing-Konferenzen.
Grundsätzlich ist Machine Learning für Google ja nichts neues. Die haben zwar erst vor einigen Wochen TensorFlow („Open Source Software Library for Machine Intelligence“) veröffentlicht, aber das Thema verfolgt Google ja schon seit langem. So basiert ja schon das Panda-Update auf dem, was Googles Maschinen aus guten und schlechten Websites lernen konnten.
Für Google ist Machine Learning wahnsinnig wichtig, da sie so effizient arbeiten können und aus den gewaltigen Datenmengen Sinn machen können. Für klassisches SEO ist das natürlich der Exodus: Man kann Google halt nicht mehr mit einfachen Mitteln reinlegen und etwas mit geringer Qualität in etwas verwandeln, das Google trotzdem mag.
Für SEOs ergibt sich also ein Nachteil – aber zeitgleich auch ein Vorteil, denn es geht ja schon lange nicht mehr darum, eine bestimmte Keyword-Dichte einzuhalten. Es geht für uns als Agentur wirklich darum, den Kunden dahin zu bringen, eine erstklassige Website mit herausragenden Inhalten zu haben.
Marcus Tober: Marcus ist nicht nur als Gründer, Geschäftsführer und treibende Kraft von Searchmetrics über einschlägige SEO Kreise hinaus bekannt, sondern auch als Impulsgeber und Experte auf vielen internationalen Bühnen: Der „Big Data und Statistik-Freak“ (Tober über Tober) ist bei Kongressen, Symposien und Think Tanks weltweit ein gefragter Gast und Keynote Speaker.
In 2016 wird für den SEO explizites Analysieren oder Anwenden von Machine Learning Funktionen nicht Bestandteil der Arbeit sein. Auch wenn Machine Learning längst allgegenwärtig ist und die Grundlage für zig Updates die Suchmaschinen in den letzten Jahren gemacht haben. Was bedeutet das? Suchmaschinen benutzen schon seit vielen Jahren die gelernten Daten aus vorherigen Updates (Panda 1,2,3 etc, Penguin) und mache täglich Tests aus denen sie wiederum Anpassungen vornehmen die zu weiteren Updates führen. Bei Google ist der ständige Everflux, quasi die andauernde Bewegung der Ergebnisse.
Userdaten dienen mindestens dazu zu bewerten ob die Features die Google eingebaut oder geändert zu Verbesserungen geführt hat. Für uns SEOs heißt das ingesamt dass die abhängig von guten Ergebnissen (Rankings) weniger von nur ein paar Faktoren abhängt. Vielmehr müssen SEOs immer den Kontext berücksichtigen. Sprich die Faktoren warum eine Page erfolgreich ist können stark abweichen wenn man verschiedene Branchen oder Keywords zwischen Shorthead und Longtail betrachtet. 2016 wird sich also der Trend fortsetzen dass sich SEO je nach Webseite, Branche und natürlich Gerät (Desktop, Mobile) ändern wird und man unterschiedliche Strategien braucht um holistisch erfolgreich zu werden.
Sebastian Erlhofer: Sebastian ist geschäftsführender Gesellschafter der mindshape GmbH aus Köln und Bestsellerautor des Buches „Suchmaschinen-Optimierung“. Er betreibt SEO seit 2002 und freut sich auf die nächste SEO-Dekade
Als Suchmaschinen-Optimierer ist man ja gewohnt, regelmäßig sich mit neuen Technologien und Bewertungsmechanismen auseinander zu setzen. Vor 10 Jahren waren es noch ganz einfache statistische Verfahren, die ein Dokumententreffer und ein Ranking ausmachten: Wenn ein bestimmtes Keyword in der Meta-Beschreibung stand, dann kam das Dokument in die Treffermenge. Und wenn das Keyword noch häufig vorkam im Dokument, dann wurde dieses auch gut geranked. Heute ist – wie jeder SEO weiß – die ganze Geschichte etwas vielfältiger. Nach der Keyworddichte kam WDF*IDF und mittlerweile geht es um holistische, verständliche und nutzerorientierte Texte, die möglichst multimodal mit Videos, Infografiken und Co aufbereitet sein sollen. Links verlieren stetig an Bedeutung bzw. die Qualität der Links ist immer wichtiger. Soweit so klar. Was verändert maschinelles Lernen dann eigentlich? Meiner Meinung nach ist das eine weitere Stufe in der Suchmaschinen-Optimierung. Mit zunehmender Rechnerkapazität und verstärkter Forschung werden Computerprogramme immer besser darin, bestimmte Entitäten zu verstehen, zu klassifizieren und letztendlich Rankings zu generieren. Irgendwann – aber das ist meiner Meinung nach noch Jahre entfernt – wird maschinelles Lernen eingesetzt werden können, damit Algorithmen sich selbst optimieren und verbessern. Hier sind wir dann im Bereich der künstlichen Intelligenz oder vielleicht sogar von künstlichen Lebensformen. Die Einflüsse des maschinellen Lernens auf SEO sind schleichend. RankBrain und Co. kommen Stück für Stück und die Forschungsergebnisse von den schlausten Forschern, die sich Google weltweit kaufen kann, werden über die nächsten Jahre spannende „Rankingfaktoren“ produzieren.
Ich denke nicht, dass wir in den nächsten zwei bis drei Jahren signifikante Auswirkungen auf unsere Arbeit als SEOs spüren werden – nicht anders als sonst auch: Es werden neue Verfahren kommen und wir werden versuchen, sie zu verstehen und zu optimieren. Im Vergleich zu Beispielen aus der Vergangenheit, etwa WDF*IDF, werden allerdings noch mehr SEOs thematisch aussteigen. Heute schon können viele SEOs kaum die Hintergründe von WDF*IDF korrekt und vollständig erklären. Man nutzt die Tools und gut ist. Das reicht auch, um hier und da gut zu optimieren und Dienstleistungen zu verkaufen. Der Einäugige ist unter den Blinden immer der Sehende. Aber maschinelles Lernen mit neuronalen Netzen, Entscheidungsalgorithmen und anderen Dingen sind nicht für Laien verständlich – ich habe selbst im Informatikstudium mich alleine nur mit den Grundlagen beschäftigt (d.h. vor allem viel Mathematik die dahinter steckt) und es ist wahnsinnig komplex. Seit mittlerweile Generationen beschäftigen sich Forscher damit, Computerprogrammen das Lesen und Verstehen von Texten beizubringen. Wir sollten als SEOs nicht den Anspruch haben, das verstehen zu können oder zu wollen.
Wir sollten trotz des Fortschritts auf technischer Seite das im Fokus behalten, was unsere Arbeit ausmacht: Produkte und Dienstleistungen von unseren Kunden in den Suchergebnissen sichtbarer machen (um SEO einmal ganz klassisch zu definieren). Wir müssen Abschied nehmen von Glaubenssätzen wie „das hat bei anderen Sites auch so funktioniert“ und wir müssen uns verabschieden von den Tipps und Tricks, den Abkürzungen, die es früher gab, um schneller zu optimieren. Ich freue mich auf das jetzige und zukünftige SEO, weil es gezwungen nachhaltiger wird und damit zwingend auf den Menschen fokussiert werden muss. Nicht mehr auf Google. Denn spätestens wenn in ein paar Jahren maschinelles Lernen große Teile im Algorithmus ausmacht, und daran glaube ich definitiv, wird auch kein Ingenieur bei Google mehr irgendwelche logischen Zusammenhänge erklären können. Das können Sie heute im Prinzip schon nicht mehr. Am Ende können wir alle dann nur noch versuchen, die Entscheidungen des Rankalgorithmus nachzuvollziehen. Eben genau so, wie wir Entscheidungen von Mitmenschen nicht immer detailliert in ihre Bestandteile sezieren können, aber wir können sie nachvollziehen. Ich freu mich drauf!
Marcel Schrepel: Marcel ist Geschäftsführer und Gründer der Onlinemarketing-Agentur trust in time in Berlin. Die fachlichen Schwerpunkte der Agentur liegen im Suchmaschinenmarketing für D-A-CH und Russland (Yandex). Marcel ist überzeugter Slow-Blogger und schreibt Fachartikel über Suchmaschinenoptimierung (SEO), Google und die moderne Welt des Web 2.0. Er beschäftigt sich gerne mit Strategieentwicklung und Kommunikationswissenschaft und ist nebenbei als Lehrbeauftragter tätig.
Durch die Digitale Revolution und die Computerisierung unserer Gesellschaft, haben sich Kommunikations- und Informationsprozesse seit der Jahrtausendwende gewaltig geändert. Fast alles ist digitalisiert und Nutzer- sowie Nutzerverhalten lassen sich immer besser in Form von Daten darstellen. Durch die zunehmende mobile Nutzung lässt sich das Nutzungsverhalten von Menschen auf immer mehr Ebenen messen und algorithmisch aus- und verwerten. Maschinelles Lernen gibt es nicht erst seit gestern. Das Finden von Gesetzmäßigkeiten in Daten ist meiner Meinung nach die Kernfunktion von Google (Information Retrieval System).
Man sollte meinen, dass man aus all diesen Modellen, da stark datengetrieben, SEO relevante Muster und Daten generieren kann, die man strategisch einsetzen kann. Viele verwechseln das immer noch mit Korrelationen. Man vergisst gerne schnell die Komplexität, mit der Algorithmen heutzutage arbeiten. Google-Algorithmen, KI-Modelle und erhobene Daten – das sind alles Variablen in einer „SEO-Rechnung“, die wir nicht kennen, auch wenn das vor 10 Jahren vielleicht noch anders war.
Menschen sind launisch und verändern ihre Gewohnheiten. Lebenslagen und Jobs wechseln. Krankheit, Heirat, Kinder sind einschlägige Ereignisse. Algorithmen werden von diesen Veränderungen lernen, inwiefern sich ein Nutzer anders im Netz bewegt.
„Emotionale Intelligenz“ ist das Stichwort.
Suchmaschinen wie Google wollen auch genau das lernen, damit der Algorithmus eine gewisse Flexibilität besitzt. Durch Machine Learning bedarf es keiner ständigen Einspielung separater Algorithmen oder Algorithmus-Updates – durch Machine Learning selbst wird ein Algorithmus erst flexibel und erweitert sein „Wissen“ auf selbstständige Art und Weise – dauerhaft und zeitgemäß.
Google wird in nicht allzu ferner Zukunft in der Lage sein, Menschen zu verstehen, sie kennen zu lernen und zu erahnen, was sie als nächstes tun werden. Aktuell arbeitet Google schon mit Mustern, z.B. die personalisierte Suche oder Hummingbird.
Dem ein oder anderen dürfte vielleicht das „Google Opinion Reward“ – Programm etwas sagen.
Auf den ersten Blick scheint dies wie ein Tool für Marktforscher zu wirken. Denkt man das Ganze aber etwas utopischer in die Höhe, so könnte Google theoretisch mit solchen Umfragen auch wertvolle Zusatzdaten über einen Nutzer generieren. Daten, die sich nicht aus dem normalen Sucherverhalten schöpfen lassen, die aber zur Erstellung von Lern-Modellen unbedingt benötigt werden. Quasi ein Vorzeigedatensatz zur Referenzierung in den Lern-Algorithmen. Das Gleiche unterstelle ich Facebook mit dem Kauf von WhatsApp.
Ich denke, dass sich SEO weiterhin in eine empathiegetriebene, zielgruppenorientierte Richtung entwickeln wird, was ja einige SEO´s schon länger praktizieren. Alleine deswegen, weil SEO längst nicht mehr rein datengetrieben funktioniert. Conversion Prozesse sind längst nicht mehr einzig und allein an die Auffindbarkeit eines Angebots gekoppelt. Traffic allein ist kein Garant für eine Conversion.
Ich denke, dass Machine Learning nur ein Faktor von etlichen ist, der dafür sorgen wird, dass einheitliche Rankings verschwinden werden. Schon jetzt sind die Unterschiede messbar.
Kai Spriestersbach: Kai ist Online Strategy Consultant und strategischer Partner der eology GmbH sowie Inhaber der strategischen SEO-Beratung SEARCH ONE. Er berät und begleitet ausgewählte Kunden bei der Positionierung im Internet sowie der Verbesserung ihrer Online-Präsenz mit Blick auf die Sichtbarkeit in den Suchmaschinen. Derzeit forscht und entwickelt er an neuen Ansätzen für Marketing Software sowie Website-Projekten und bereitet sein erstes Buchprojekt vor.
In der näheren Zukunft stehen uns spannende Veränderungen ins Haus. Aber Machine Learning ist nicht neu. Die beiden Updates Panda und Penguin basieren bereits auf Machine Learning Technologie und werden nun zu einem sich kontinuierlich selbst verbessernden System ausgebaut. Anhand der Informationen über das Panda Update, die allesamt sehr vage und auf einem sehr viel abstrakteren Level waren (z.b. Würden Sie dieser Seite Ihre Kreditkarteninformationen anvertrauen) wird klar, dass es in Zukunft noch weniger Informationen von Google über Updates und direkte Rankingfaktoren geben wird.
Zum einen liegt das daran, dass Deep Learning Algorithmen selbst erkennen, welche Metriken relevant sind und die Engineers bei Google keinen Einfluß mehr darauf haben und zum anderen sehr viel mehr Daten in das Ranking einfließen werden. Hier bei ist alles vorstellbar – Googles Mitarbeiter sind sehr kreativ – wieso nicht die (auf den ersten Blick) absurdesten Informationen über Webseiten einfach mal in das System kippen und die Maschine untersuchen zu lassen, was davon sich als Rankingfaktor eignet.
Deutlich wichtiger und auch sehr viel schneller spürbar werden Nutzerdaten in das Ranking einfließen. Eine schlechte Seite wird trotz toller Optimierung und vieler Links alleine durch die Signale unzufriedener Nutzer nach unten rutschen. Das ist zwar bisher schon der Fall, allerdings nur bei sehr großen Suchvolumen und über längere Zeiträume. Hier wird Google sehr viel schneller reagieren können.
Ich betrachte selbst die Entwicklungen als sehr positiv, denn wer sich darauf konzentriert den Nutzern genau das zu bieten, was diese Suchen, wird sehr viel stärker profitieren als bisher.
Sepita Ansari: Sepita, Geschäftsführer der Catbird Seat GmbH, ist einer der anerkanntesten SEO-Experten in Deutschland. Seit 2005 beschäftigt sich Sepita Ansari mit Online Marketing. Der Wirtschafts-und Sozialwissenschaftler war 3 Jahre bei der Scout24-Gruppe tätig und hat dort das JobScout24-Online Team geleitet.
Früher bedienten wir die Technik, heute dient die Technik uns und lernt und interagiert mit uns. Dank zahlreicher Sensoren, ist ein interaktiver Umgang mit Computern möglich geworden, dabei ist das Smartphone zum persönlichen Alltagsmanager geworden. Algorithmen und die künstliche Intelligenz „verstehen“ zunehmend den Bedeutungszusammenhang und liefern relevante Ergebnisse. Diese Maschinen werden uns weiter unterstützen und gar imitieren, ersetzen werden sie uns aber nicht.
Mit Hilfe von Daten können Suchmaschinen (mit stochastischer Wahrscheinlichkeit) das menschliche Suchverhalten vorhersagen, mit Hilfe von Mathematik kann die Suchvergangenheit erklärt werden. Die Zukunft kann jedoch nicht mit 100% Güte prognostiziert werden. Da unser menschliches (Such-)Verhalten auf individuellen Interpretationen und Bewertungen beruht, kann eine Maschine dieses noch schwer vorhersehen, aber sehr gut erklären. Diese Erklärbarkeit der Daten wird auch im SEO zum erfolgsentscheidenden Kriterium: Inhalte müssen individuell ansprechen, strukturiert sein und optimal innerhalb der User Journey auf den verschiedenen Medien und Geräten auf den Nutzer zugeschnitten werden. Damit wird die Datenstruktur, die -transparenz und –validität zu einem wichtigen Faktor innerhalb der Suchmaschinenoptimierung.
(poll id = "2")
Weitere Beiträge zum Thema Machine Learning und SEO
Videos zum Thema Machine Learning und Artificial Intelligence
Avec les balises Canonical, les webmasters et les référenceurs peuvent facilement éviter les doublons. Cependant, il y a quelques points à garder à l’esprit pour ne pas perdre les avantages de la balise.
Dans ce guide, vous apprendrez donc tout ce qui est important à propos du Jour Canonical, quand il peut être utilisé et à quoi vous devriez prêter attention.
Ce que vous devez savoir sur le tag Canonical
En février 2009, Google a fusionné avec les moteurs de recherche de Microsoft et de Yahoo pour prendre en charge le tag Canonical. Dans le blog de la société, cela a également été annoncé comme un soulagement pour les webmasters:
“Carpe diem concerne tout contenu en double: nous prenons désormais en charge un format qui vous permet de spécifier votre version préférée d’une URL.” (Source)
Cet élément est un méta-type qui peut être inséré dans la zone d’en-tête d’un site Web. La balise affiche les moteurs de recherche rel = canoniques sur deux pages identiques avec des URL différentes, l’original. De cette manière, l’URL canonique en double est ignorée et seule l’URL canonique est indexée.
L’élément HTML s’appelle non seulement Canonical Tag, mais aussi Canonical-Link ou simplement “Canonical”. Utilisé correctement, Canonical Tag évite les doublons de contenu et vous aide à optimiser le moteur de recherche.
Les avantages des balises Canonical pour l’optimisation des moteurs de recherche
Si vous incluez une URL canonique spécifique en tant que balise dans le code source, vous aiderez les moteurs de recherche à gérer votre site Web. En effet, les moteurs de recherche apprennent que ce n’est pas l’exploration en cours, mais que l’URL référencée doit être indexée. Si les liens font déjà référence aux doublons, leur puissance de lien est transférée à l’URL canonique grâce à Canonical. Dans le même temps, vous évitez que Google sélectionne une URL à indexer sur plusieurs URL similaires, comme une URL utilisant http au lieu de https.
Comment une balise Canonical est-elle implémentée correctement?
Vous pouvez spécifier une URL canonique de deux manières différentes. C’est ainsi que la journée peut être passée dans laSection du document HTML ou dans l’en-tête http. Cependant, une implémentation dans l’en-tête HTML est recommandée. D’une part, car il est techniquement très facile à mettre en œuvre là-bas. D’autre part, parce que Google la journée dans d’autres domaines, tels que dans le
, ignoré. De nombreux systèmes de gestion de contenu offrent la possibilité de connecter Canonicals à l’en-tête HTML.
Dans certains documents, toutefois, la balise canonique ne peut pas être placée en HTML. Par exemple, les documents PDF ne sont pas HTML, les balises Canonical ne peuvent donc pas être utilisées dessus.Les zones sont placées. Ici, vous devez inévitablement être utilisé sur l’en-tête http.
exemple:
Supposons que votre page Web comporte deux URL différentes qui ont presque exactement le même contenu. Peut-être sont-ils simplement différents d’un autre menu ou d’un bouton. Il y a déjà des liens des deux côtés. Au lieu de laisser à Google le choix de l’une de ces deux URL à afficher dans les SERP, vous pouvez désormais choisir une URL canonique.
Supposons que les deux URL ressemblent à ceci:
1. http://meineseite.de/seotipps
2. http://myeseite.de/seotipps-aktuell
Nous décidons maintenant que la première URL devrait être l’URL canonique. En pratique, vous devez choisir la page la plus pertinente, la page avec l’URL la plus courte ou la page contenant le plus de liens en tant qu’URL canonique.
Maintenant, vous ajoutez le rel = canonique sur le duplicata dansRégion. Cela ressemble à ceci:
Google et les autres moteurs de recherche “savent maintenant” qu’il existe une version canonique de ce site à considérer lors de l’indexation. Les liens vers les deux URL comptent alors pour l’URL canonique. Vous avez donc mis en place une sorte de “redirection en douceur” sans rediriger l’utilisateur.
Coller l’étiquette canonique dans l’en-tête http
Si votre ressource est un document PDF ou un autre type de document pris en charge par Google, la balise Canonical sera implémentée dans l’en-tête http. Vous devez considérer une syntaxe différente.
Reprenons l’exemple ci-dessus, mais cette fois le deuxième document est une source PDF:
1. http://meineseite.de/seotipps
2. http://myeseite.de/seotipps-aktuell.pdf
La ligne suivante est insérée dans l’en-tête http du document PDF:
lien: ; rel = “canonical”
Google prend actuellement en charge les balises Canonical dans l’en-tête http uniquement dans les recherches sur le Web.
Quatre exemples d’application pour les balises Canonical
1. Référence à vous-même
Fondamentalement, il est recommandé que chaque site Web se réfère à lui-même par Canonical, sauf s’il en existe un duplicata. Les balises canoniques sont évidentes lorsqu’une sous-page sur différentes variantes de la même URL est disponible – cela comprend les identifiants de session et d’affilié, les adresses http ou https et les URL avec ou sans www.
Par exemple, les systèmes canoniques auto-référentiels peuvent empêcher le moteur de recherche d’ajouter une URL de campagne à l’index. Cela permet également de protéger votre site contre les attaques de référencement négatives et les pertes de classement associées. Notamment pour cette raison, Google recommande également cette approche.
2. Un produit dans une boutique en ligne est accessible via plusieurs catégories
Les boutiques en ligne rencontrent souvent des problèmes de duplication de contenu. Ces problèmes surviennent généralement lorsque le même produit est disponible dans différentes catégories via différentes URL.
Prenons l’exemple d’une boutique en ligne de baskets. Le modèle en rouge est disponible pour les hommes et les femmes et en même temps dans la catégorie “chaussures de sport” classée. Cela donne quatre URL avec le même contenu:
Pour répartir au mieux le lien vers une URL tout en évitant les doublons, vous choisissez la première URL en tant qu’URL canonique. Dans ce cas, vous ajoutez dansGamme des trois autres URL du Canonical:
De nombreux systèmes de magasin utilisent déjà l’automatisation de Canonicals. Généralement, la balise Canonical est placée sur la page principale du produit.
3. Avoir des versions imprimées des URL référencées à la version canonique
Le contenu peut souvent être converti en version imprimée non seulement dans les boutiques en ligne, mais également sur les sites Web d’actualités ou sur les sites Web de grandes entreprises. Certains CMS peuvent créer une telle version imprimée en cliquant sur. Cette transformation crée généralement sa propre URL, qui dans le pire des cas est référencée dans l’index des moteurs de recherche. De cette manière, toutefois, un contenu dupliqué est généré, ce qui peut également entraîner une restriction non désirable de la convivialité en même temps. Par exemple, si un utilisateur ouvre un fichier PDF indexé, il ne pourra pas naviguer dans ce fichier ou ne reviendra pas sur votre site Web.
Dans ce cas, une balise Canonical dans l’en-tête http du fichier d’impression ou PDF peut apporter une solution. La balise pointe ensuite sur l’URL d’origine, qui sera éventuellement indexée.
Astuce: Si vous modifiez la structure des URL de votre site Web, vous devez dans ce cas non seulement rediriger, mais toujours vérifier les balises Canonical existantes. Incidemment, cela s’applique également lorsque le protocole est modifié, par exemple lors du passage de http à https.
4. Canoniques pour la liaison de domaines croisés
Une balise canonique peut également être utilisée pour désigner l’auteur d’un article ou d’un message original. Par exemple, il est possible qu’une publication dans le magazine OnPage soit utilisée sur une autre page pour une nouvelle publication. Pour que Google et les autres moteurs de recherche soient référés à l’original, le republisher définit un lien canonique vers le magazine OnPage.
Dans ce cas, les autres utilisateurs peuvent lire l’article original sur d’autres sites Web. Dans l’index des moteurs de recherche, seul l’article principal apparaîtra.
5. rel = canonique en combinaison avec hreflang
Si vous marquez votre site Web avec hreflang pour indiquer les versions de pays et de langue pour les moteurs de recherche, vous devez utiliser rel = canonical. Chaque version linguistique se réfère à elle-même par Canonical.
Erreurs courantes lors de l’utilisation d’étiquettes canoniques
Il existe de nombreux cas où l’utilisation abusive de rel = canonique peut entraîner de réels problèmes. Par exemple, une définition incorrecte de Canonical peut entraîner la disparition involontaire d’une URL de l’index Google et la disparition de son itinérance.
Pour cette raison, vous devriez éviter les erreurs suivantes.
Lien relatif: Utilisez toujours l’URL complète si vous mettez une balise Canonical. De nombreux CMS utilisent des liens relatifs pour les liens internes. Mais Google ne peut pas gérer ce lien et ignore ensuite les Canonicals.
Utilisation multiple de Canonicals sur une seule page: Utilisez une seule balise canonique sur chaque page. Si plusieurs Canonicals existent, les moteurs de recherche ne comprennent plus l’instruction. Cela peut mener au chaos et à des résultats indésirables. Dans le pire des cas, les pages censées être classées ne seront plus indexées.
Balises canoniques sur un déplacement de domaine: N’utilisez pas de balises canoniques lors du déplacement vers un nouveau domaine. Utilisez plutôt les redirections 301. Si la “redirection” se produit uniquement via Canonical, les moteurs de recherche risquent d’être confus. Dans le pire des cas, les URL de l’ancien et du nouveau domaine de l’index. Pour les utilisateurs, cette confusion est encore plus grave car ils peuvent toujours invoquer l’ancienne URL sans être redirigés vers la nouvelle.
normes URL: Lorsque vous définissez des tags Canonical, veillez à utiliser l’orthographe exacte de l’URL. Définissez les barres obliques de fin, si elles existent, et spécifiez l’URL exactement avec ou sans www, comme elle est généralement accessible. Par exemple, si vous faites référence depuis une page www à une page non www avec un nom canonique, ce pointeur de moteur de recherche ne sera pas utile si la page cible est déjà redirigée vers la version www avec une redirection 301. Google ignore généralement la déclaration et continue d’indexer toutes les pages.
Mélange avec noindex, nofollow ou rejeter: L’utilisation d’une balise canonique et de la balise noindex sur une page à la fois peut entraîner le transfert de la fonction de la balise noindex vers le côté canonique. John Müller de Google a souligné ce danger dans un Hangout 2012. Les attributs nofollow et interdit dans robots.txt désactivent l’algorithme et entrent en conflit avec la fonction de Canonical. En particulier, les commandes d’exclusion de robots.txt refusent à Google l’accès au code HTML, ce qui signifie que le moteur de recherche ne peut même pas lire la commande Canonical, encore moins le suivre.
Devrais-je utiliser une redirection 301 ou une balise canonique?
Cette question n’est pas une réponse aussi générale. Après tout, cela dépend toujours du cas individuel, qu’une canonique ou une redirection soit plus utile. Si vous avez le choix entre une redirection 301 et une canonique, vous devriez toujours opter pour une redirection 301. Si vous ne pouvez pas utiliser une redirection 301 pour des raisons techniques ou en raison d’une restriction éventuelle de l’utilisabilité, la balise canonique constitue une alternative judicieuse.
Un exemple: si plusieurs URL de votre boutique en ligne font référence au même produit, une balise Canonical est recommandée. D’une part, la solution est techniquement plus simple et, d’autre part, vos utilisateurs devraient pouvoir appeler l’URL correspondante.
Si vous souhaitez rediriger directement une URL, seule la redirection est possible car la balise canonique ne redirige pas activement les URL, mais constitue simplement un indice pour les moteurs de recherche.
Tags canoniques sur Twitter et Facebook
Facebook et Twitter peuvent également lire et implémenter rel = canonique. Si vous partagez maintenant une URL dans ces réseaux sociaux qui fait référence à une autre URL avec un Canonical, les informations de l’URL canonique seront lues. En cas de fuite de la publication avec cette URL, ces j’aime comptent pour l’URL canonique.
Que puis-je faire si aucun Canonical ne peut être défini?
Si vous ne pouvez pas utiliser rel = canonique, vous avez toujours la possibilité de stocker uniquement les URL indexables qui émettent un code d’état 200 OK dans un sitemap. Vous pouvez envoyer ce sitemap à Google via la console de recherche Google. De cette manière, vous garantissez le faible risque que Google indexe uniquement les pages transmises via le plan du site. Cependant, il ne s’agit que d’une option pour les sites Web nouvellement créés, l’indexation des sites Web existants pouvant difficilement être influencée de cette manière. Si, en fait, aucune balise canonique ne peut être définie, essayez au moins de préciser aux moteurs de recherche via le lien interne quelle URL est la plus importante. Par exemple, si vous avez un article de presse et une version imprimée de cet article, tous les liens internes doivent aller à l’article lui-même, et un seul lien de cet article à la version imprimée.
Si les URL de votre site Web utilisent de nombreuses variables ou paramètres et qu’il n’est pas toujours facile de travailler avec un Canonical, vous pouvez également utiliser la console de recherche. Vous y indiquez comment Google doit traiter certains paramètres dans les URL.
conclusion
Les balises canoniques sont un outil puissant pour les référenceurs et les webmasters, afin d’éviter les doublons de contenu et de mieux distribuer les liens. L’implémentation est techniquement très simple même sans plugins.
Cependant, il y a des pièges que nous vous avons montrés ici. Si l’implémentation de Canonical est incorrecte, le méta-élément peut également causer des dommages et, par exemple, exclure des sous-pages importantes du classement. D’autre part, si vous considérez les règles ci-dessus pour la configuration de rel = canonical, votre site peut bénéficier de la balise.
La sixième partie de la série de blogs d'experts porte sur le thème "Optimisation du suivi des boutiques en ligne". Timo Aden explique comment effectuer correctement des analyses Web et découvrir le potentiel d'optimisation du suivi d'une page Web. L'expert en suivi donne également des conseils sur la manière de travailler et bien plus encore.
Cadre d'analyse numérique
Après tous les précieux conseils de l’article précédent sur les potentiels d’optimisation des sites Web (absolument important et absolument nécessaire – "test or the die"), il s’agit maintenant du sujet poursuite, Tous les lecteurs de cet article doivent utiliser un outil d'analyse Web. La grande majorité utilisera probablement Google Analytics – mais je suppose que les possibilités offertes à la fois par l'outil et l'analyse numérique en général ne sont pas épuisées. Pourquoi ça? Dans les points suivants, je présenterai quelques obstacles, obstacles, problèmes et défis, ainsi que des solutions pour les résoudre.
Mise en œuvre suce
Dans la plupart des cas, la mise en œuvre est loin d'être satisfaisante. Il existe donc toute une série de sociétés, certaines avec des budgets publicitaires très importants qui sont incapables de distinguer le trafic de moteur de recherche organique du trafic de moteur de recherche payé (malade!). Il existe des sociétés dans lesquelles les campagnes ne peuvent pas être dûment levées et ne peuvent donc pas être évaluées en termes de succès.
Dans le même temps, cependant, des modèles d'attribution philosophiques sont en train d'être philosophés sans même avoir la base de la fonctionnalité de ces modèles. Certaines entreprises ne travaillent pas délibérément avec l'outil d'analyse Web mis en œuvre, car certaines mesures divergent de leurs propres fichiers journaux ou, globalement, la précision des données est mise en doute. En partie, ce processus prend des années, apparemment des années de stagnation. Temps perdu.
Et seulement parce que personne n’a traité le sujet de manière intensive, parce que personne n’a jamais pris entre mille et mille euros pour embaucher une société de conseil qui le mettra en place correctement pour créer une bonne base, Non suivis et donc indétectables, l’argent est dépensé pour toutes les mesures en ligne et hors ligne au lieu de collecter des données, d’étalonner les performances et d’allouer des budgets en fonction de données.
Figure 1: Chaîne de mise en œuvre
Malheureusement, cela n'aide en rien – vous devez passer par la mise en œuvre. Dans l’ensemble du sujet d’analyse Web, la mise en œuvre est certainement la partie la moins sexy. Cependant, une fois que vous avez franchi cette étape, la beauté des données se dévoile. Des phrases intelligentes à la fin:Pas de fondation, pas de maison raisonnable, pas de pneus, pas de conduite raisonnable, pas de bonne connexion Internet, pas de surf raisonnable – pas de bonne analyse web sans une bonne implémentation! Obtenez la mise en œuvre terminée! Cela ne fonctionne pas sans elle. Ce n'est pas toujours facile. Mais quand même: faites-le!
90-60-90 ou 90-10 ou 10-90 ou 15-15-70 ou comment?
De nombreuses règles suggèrent que vous réussissez automatiquement si vous les conservez. Habituellement, le monde n’est pas aussi simple que le suggèrent ces règles. Cependant, lorsqu'elles sont correctement appliquées, ces règles peuvent augmenter les chances d'atteindre certains objectifs. 90-60-90 ne signifie pas qu'une femme avec une telle figure trouve le mari de ses rêves. Les chances, cependant, sont meilleures que si c'était un ratio inversé. Il en va de même pour les règles d'analyse Web 90-10 et 10-90.
10-90
La règle bien connue des 10 à 90 stipule que si vous disposez d’un budget de 100 euros (ou de 1 000 euros ou de 10 000 euros ou de 1 000 000 euros) pour l’analyse Web disponible, un maximum de 10 euros Outil et au moins 90 euros (plus correspondant à des budgets plus élevés) chez la personne qui travaille avec cet outil devrait investir. Cette hypothèse est valable depuis longtemps et reste correcte en principe. Il est basé sur la prise de conscience qu'un outil, quel qu'il soit, ne commence pas à ajouter de la valeur s'il n'y a pas de personnel raisonnable pour le servir. Opération ne signifie pas seulement une application pure de l'outil, mais surtout une interprétation et une analyse significatives et orientées métier des données obtenues dans le but de mieux comprendre et d'améliorer les choses.
90-10
En tout cas le Répartition du budget d'analyse web est faite – une allocation significative des ressources en mettant l’accent sur les ressources humaines sera un succès à long terme. Supposons que la mise en œuvre a parfaitement réussi. Félicitations. Supposons que la règle 10-90 soit presque parfaitement respectée, de sorte que plusieurs analystes Web ont été embauchés pour travailler avec l'outil d'analyse Web parfaitement mis en œuvre. Bravo! Et maintenant? Que font tous les analystes Web dans les entreprises? Compte-rendu!
Dans la plupart des organisations, les analystes Web sont généralement occupés à reconstituer des données de sources de données disparates dans de grandes feuilles de calcul Excel. Souvent, 100% du temps de travail est utilisé pour générer des rapports. Combien de temps reste-t-il pour l'analyse? Si vous travaillez selon ce modèle et que, parallèlement, Web Analyst appelle un peu, c'est un peu faux. Cela a peu à voir avec l'analyse Web: le fait de pouvoir utiliser différents outils et de transformer leurs données en Excel ne qualifie pas les analystes Web. Mais quelle devrait être la répartition du temps de travail?
En tant qu'analyste Web, vous ne pouvez pas contourner les rapports – un seul devrait essayer de maintenir cet effort aussi bas que possible ou de l'automatiser. que un peu de rapport fait toujours partie du travail, mais ne devrait pas être la partie principale. Le travail des analystes Web qui ajoute de la valeur est l'analyse. L'interprétation des données, l'élaboration de recommandations d'action dans le but d'influencer de manière positive le succès de l'entreprise. Cela devrait être utilisé la plupart du temps. La répartition idéale est la suivante: 90% du temps de travail devrait être utilisé pour l'interprétation et l'analyse des données. 10% du temps de travail devrait être utilisé pour les rapports.
15-15-70
Il existe donc une règle 90-10. Mais cela correspond-il à la réalité? Au cours de la phase d'analyse, vous constaterez souvent que la mise en œuvre existante n'est pas encore suffisante et qu'il peut être nécessaire de la modifier, ou que des sources de données supplémentaires doivent être incluses ou intégrées. que L’optimisation et l’adaptation de la collecte de données doivent inévitablement également faire partie du travail d’un analyste Web. Ainsi, le cadre suivant (EER de Web Analysts Work) pour l’utilisation du temps de travail en résulterait: 15% – e15% – R70% des importations – Analyse
Figure 2: Description de l'ERA
Garder la règle ne promet pas automatiquement le succès – Si la distribution du temps de travail se rapproche de cette distribution, vous êtes sur le point de disposer au minimum des bases pour une bonne analyse Web. Des phrases intelligentes à la fin:L'analyse Web sans les bonnes personnes ne fonctionnera pas en 2014 non plus. L'implémentation est nulle. Le rapport est nul. L'analyse est amusante! Si vous déclarez déjà, alors automatisé!
Individualiser et segmenter
Chaque outil d'analyse Web offre des rapports incroyablement bons. La plupart des outils d’analyse Web ont fait de leur mieux pour offrir de belles présentations (mais certains n’ont fait aucun effort – ou ils ont fait un effort et cela n’a toujours pas fonctionné). Et comme la multitude de rapports différents qui sont déjà proposés par défaut dans un outil est si grande (et ils peuvent également sembler intelligents et colorés), beaucoup pensent qu'il est tout à fait suffisant de travailler avec ces rapports donnés. C'est malheureusement une erreur. Les rapports standard sont standard – comme leur nom l'indique. Ils ne sont pas individualisés, ne sont pas adaptés aux besoins de l'entreprise, mais représentent simplement des données collectées.
Les questions concrètes sont rarement traitées avec les rapports standard existants. Celles-ci ne donnent généralement qu'un premier aperçu approximatif. Qui aime être standard? Right Web Analysts personnalisent les rapports. Cela commence par la modification des graphiques, l'ajout de plus de données, la réduction des données à l'aide de filtres ou la combinaison de données avec d'autres données. Ceci est souvent possible dans l'outil d'analyse Web utilisé, mais nécessite parfois aussi une exportation des données et un traitement ultérieur (et un affinement) des données dans un autre outil (par exemple, BigQuery, Excel, l'outil de BI, etc.).
Figure 3: Exemple de rapport individualisé
Jouer est amusant! Si vous ne vous contentez pas de l'existant, commencez à vous interroger sur les possibilités et à jouer avec les données, le vrai plaisir de l'analyse Web commence. Un autre facteur qui joue dans ceci est la segmentation. Les données autonomes agrégées sans contexte sont des rapports maximaux, en aucun cas des analyses Web. Qu'il s'agisse de visites, de taux de rebond, de taux de conversion ou de durée de séjour, toutes ces données ne sont intéressantes que si elles sont associées à d'autres données.
Quels canaux de marketing ont été utilisés pour le plus grand nombre de visites, lesquels avaient en même temps un taux de rebond supérieur à la moyenne? – Potentiel d'optimisation!
Quelle campagne a un taux de conversion élevé, mais en même temps moins de visites par rapport à d’autres mesures? – Potentiel d'apprentissage et d'optimisation!
Quel est le rapport entre la durée du séjour et la conversion? – Potentiel d'apprentissage et d'optimisation!
Dans quelle région, quel genre a le mieux fonctionné par rapport à quelle mesure de marketing? – Potentiel d'apprentissage et d'optimisation!
Figure 4: Exemple de segmentation des sources de trafic
Peu de gens aiment être seuls à long terme – pas même les indicateurs et les dimensions. Les analystes Web peuvent aider à rendre les données heureuses en trouvant les bons partenaires. Le taux de rebond global n’est pas intéressant – avec les sources de trafic, les régions géographiques, etc., le nombre est plus intéressant. Le taux de conversion global n'est pas intéressant. Avec des partenaires tels que campagnes, données démographiques, nombre de visites à la conversion, etc., le taux de conversion n’est qu’intéressant (et heureux). Des phrases intelligentes À la fin:Data et ses partenaires – faites d'abord plaisir à vos données, puis à tout le monde. La segmentation est le seul moyen de trouver des informations intéressantes dans les données existantes.
À venir ensuite …
Bientôt, nous continuerons avec le prochain article détaillé. Tanja Scherm, Concepteur d’expérience utilisateur senior pour le Web et le mobile, vous expliquera toutes les choses importantes à propos de «l’optimisation de l’expérience utilisateur dans les magasins en ligne» et donnera des conseils à votre expert personnel.
Pour la deuxième fois, OnPage.org était représenté au dmexco, le plus grand salon du marketing numérique à Cologne. Nous aimerions partager avec vous certaines impressions du salon international, nos propres impressions et quelques conseils aux exposants.
Cultivé avec la foire
Cette année, à Cologne, dmexco 2014 a été une nouvelle fois un grand succès pour dmexco et OnPage.org. Alors que la dmexco avait battu le record de fréquentation de l’année dernière et des deux jours 10 et 11 septembre 2014 Plus de 31 900 visiteurs professionnels (+ 21% par rapport à 2013) sur 66 000 m² d'exposition, notre stand a bénéficié du flux constant de visiteurs. La dmexco est le salon international et la conférence sur l’économie numérique. L'accent est mis sur le marketing numérique, les médias, la publicité et la technologie numériques tournés vers l'avenir. Nous n’avons pas manqué de présenter nos outils novateurs au populaire salon du marketing numérique et du commerce électronique. Pendant ce temps, nous exposions pour la deuxième fois à dmexco Hall 6 (stand A011-A013) sur place. Notre espace d’exposition était non seulement plus grand cette année, mais les 20 membres de l’équipe, activement soutenus par huit hôtesse, étaient constamment en pourparlers avec les partenaires commerciaux, les parties intéressées et les clients existants. Beaucoup sont venus voir la nouvelle version améliorée du logiciel, beaucoup de clients ont voulu se débarrasser de leurs désirs ou simplement prendre un café avec nous. Nous avons été très heureux de chaque visiteur – merci!
Figure 1: L'équipe OnPage.org de dmexco 2014
Conseils pour l'organisation et les exposants
Sur le plan organisationnel, une telle foire est tout sauf facile à maîtriser. Cela nécessite une très longue préparation et une conception parfaite. En règle générale, la tâche la plus difficile est la coordination des fournisseurs afin que tout soit disponible au bon endroit et au bon moment. Nous pouvons ici donner un bon conseil à tous les futurs exposants: plus tôt vous commencerez avec l’organisation, mieux ce sera. Crée des listes de fournisseurs et de tâches et fixe les délais finaux. Et un autre conseil pour lequel nous avons été très reconnaissants cette année: réservez à l’avance les chambres d'hôtel nécessaires pour l'année prochaine. Parce qu'après le dmexco est devant le dmexco!
Figure 2: Tout vient moins mal quand on compte sur tout.
Le trajet a pris un peu plus de temps pour nous Munich (parfois jusqu'à 6 heures de route), mais cela a été très amusant avec toute l'équipe.
Figure 3: L'équipe 2 de OnPage.org en route pour le dmexco à Cologne
Nous avons donc commencé assez tôt avec la préparation de la foire. Environ six mois avant la date réelle de dmexco, nous avons réfléchi à l’apparence possible de notre stand et de son organisation. Avec le constructeur d’exposition Bruns, qui nous a activement soutenus au cours de la dernière année, nous avons réussi à moderniser le concept de l’année dernière, à le peaufiner et à établir de nouvelles normes. Avec la nouvelle tête de lit de 5 mètres de long et plus d'espace, nous avons rencontré les visiteurs directement à l'entrée du hall 6. Le capitaine OnPage se présentait pour la première fois "corporellement" Figurine tridimensionnelle en taille originale à l’avant et complétant l’apparence du stand. Un grand merci à notre designer Julia et à notre illustratrice Tatjana, qui ont tant investi cœur et âme pour donner vie au stand.
Figure 4: Stand OnPage.org: Le calme avant la tempête.
Les jours de dmexco
Le premier jour, tout s'est bien passé. Juste à temps, à 9 h 30, le dmexco a ouvert ses portes et nous avions un kiosque très fréquenté depuis le début. Les deux jours, nos consultants ont assisté à la présentation du logiciel sans interruption, en se divertissant et en continuant à parler d'affaires.
OnPage.org & t3n Go-West Bash
Le tant attendu et déjà annoncé sur Facebook et Xing OnPage.org & t3n La fête sur le stand a été un franc succès et a rassemblé plus de 600 invités. Déjà avant 18 heures, notre stand était rempli de fêtards joyeux et fêtards pour boire confortablement une bonne bière bavaroise Tegernseer et pour déguster de délicieux beignets. DJ KidCut a quant à lui fourni la bonne musique de fête pour un échauffement réussi de l’OMClub, qui a eu lieu plus tard dans la soirée. Pour avoir une idée du nombre de visiteurs présents à la fête, voici une petite liste du rendement de la fête:
Caisses de bière: 105
Beignes et hot-dogs: 600
40 bouteilles de prosecco
Pas mal non? 🙂 La visite surprise de la Stormtroopers et Dark Vador personnellement, a laissé une impression durable sur les invités de la fête. Tant de selfies avec les guerriers clones et Lord Dark Vader.
Figure 5: Le groupe de personnalités sur OnPage.org s'est étendu à d'autres galaxies: Stormtroopers et Darth Vader
Le parti officiel dmexco d'IN: The OMClub
Après un bref nettoyage à l’aspirateur et une action de nettoyage, nous nous sommes directement dirigés vers le parti non officiel dmexco, le hourra! OMClub. Un grand merci à Randolf pour la qualité de son organisation, ses DJs fous et son emplacement impressionnant. Toute l'équipe a passé un bon moment jusqu'à l'aube. La fête vient de basculer incroyablement!
Figure 6: Rock'n'Roll sur le hourra! OMClub – le parti non officiel de dmexco
Bonnes impressions et à la prochaine fois
Jetez un coup d'œil à la fin d'un petit film de foire et passez avec nous Revue. Pour ceux qui n’ont pas pu visiter dmexco cette année, vous pouvez vous faire une idée de notre stand et de sa fête.
Les retours sur l’apparition de la foire jusqu’à présent étaient accablants – il a été tweeté à ce sujet, blogué et publié sans fin. Voici quelques perles sociales qui font que nos cœurs battent plus vite:
Figure 7: Tweets et messages des visiteurs de notre stand ♥
Maintenant, bien que nous soyons tous un peu épuisés, mais très satisfaits, nous pourrions gagner de nouveaux clients et continuer à convaincre les clients existants avec notre logiciel. Nous avons également trouvé très intéressant que nos clients s’arrêtent pour donner encore plus d’informations et parler de leur utilisation quotidienne des outils. Merci beaucoup pour les éloges, les critiques, les demandes de fonctionnalités et les bugs trouvés. Sans vous, le logiciel ne serait pas là où il est maintenant. Rendez-vous l'année prochaine @ dmexco 2015 et continue d'optimiser!
Dans la vidéo récemment publiée, Matt Cutts répond à la question d’un webmaster londonien. Il veut savoir s'il existe une limite pour les liens sortants sur des pages individuelles.
Matt Cutts explique que Google Bot a déjà parcouru environ 100 000 pages secondaires. Si un site Web était plus grand, les sous-pages restantes n'étaient plus indexées. Jusqu'en 2008, il existait une règle dite de 100 gauches dans les lignes directrices pour les webmasters, d. h. Au mieux, chaque page ne devrait pas comporter plus de 100 liens par sous-page, selon Google.
Pendant ce temps, les sites Web sont devenus beaucoup plus grands et plus étendus. L’inclusion d’éléments rich media a été l’une des raisons du nombre plus élevé de liens par sous-page. Même Google est maintenant en mesure de consulter de nombreuses pages et un plus grand nombre de liens.
La règle des 100 pour cent laissée ensuite par les directives aux webmasters est donc obsolète. Une sous-page n'est donc pas nécessairement considérée comme un spam si elle contient plus de 100 liens.
Cependant, selon Matt Cutts, les webmasters doivent garder à l’esprit que le classement des pages sera partagé entre tous les liens sortants. que avec 5 liens sortants, le PR est divisé par 5 et hérité.
Si un côté a par exemple 1000 liens sortants, la partie héritée par page est très faible.
Google identifie non seulement les pages de spam en fonction du nombre de liens, mais réagit, si les pages Web sont "spammées". Pour éviter cela, le responsable de l'équipe Google Anti-Spam recommande d'effectuer des tests utilisateur courants. Si les utilisateurs ne perçoivent pas une page comme étant du spam, il n’ya généralement aucune raison de s’inquiéter. Il n'est donc pas nécessaire de suivre les 100 liens par page. Il est maintenant tout à fait légitime qu'une page ait 200 à 500 liens sortants. Cependant, la condition préalable est qu’ils offrent une valeur ajoutée et fournissent aux utilisateurs un contenu précieux et utile.