Corrigez les métadonnées pour obtenir de meilleurs taux de clics

Les balises de titre et les méta-descriptions sont les figures de proue de chaque page Web dans les résultats de recherche. Si les utilisateurs reçoivent des titres et des descriptions attrayantes qui semblent correspondre à la requête, ils seront également convertis en visiteurs de sites Web.

Le fait que les balises de titre soient importantes, mais moins les descriptions, a déjà fait son chemin dans les connaissances de base de l’optimisation des moteurs de recherche dans de nombreux endroits. Mais les balises de titre ne sont pas importantes uniquement en raison de la pondération de leurs mots clés et les descriptions ne le sont pas en raison de la méconnaissance des mots-clés utilisés comme signal de classement. Alors, quel critère détermine si un utilisateur trouve réellement un résultat attrayant et augmente ainsi le taux de clic d'un site Web (= CTR ou taux de clic) dans les résultats de recherche? La longueur!

Tags de titre et taux de clic dans la recherche Google

Il est bien connu qu'une étiquette de titre doit refléter le sujet sous forme de mots-clés. Pour cette raison, la longueur maximale affichée est principalement utilisée dans les résultats de recherche. Mais les longs titres sont-ils vraiment toujours un avantage? Bien sûr, vous n'avez pas beaucoup de marge de manœuvre avec un maximum de 512 pixels dans les résultats de la recherche et vous décidez donc d'utiliser également la longueur du titre complet. Mais avec toute l'importance des mots-clés dans les balises de titre, il est important de ne pas perdre de vue l'attrait du clic. Après tout, ce n'est pas le classement, mais la fréquence de la conversion des résultats qui détermine si un site Web réussit dans la recherche organique.

Afin de déterminer la longueur du titre qui clique le plus souvent sur un résultat, nous avons examiné 3 500 sites Web en allemand, tous positionnés sur leurs sujets respectifs dans les cinq premiers résultats de recherche organiques. Vous pouvez trouver le taux de clics dans Google Search sur votre site Web dans la catégorie Recherche Google dans Google Webmaster Tools.

Google Webmaster Tools cherche des méta-données

Figure 1: Analyse des résultats de recherche dans Google Webmaster Tools

Les critères d'évaluation du CTR sont les suivants:

  • Longueur de la balise de titre en pixels
  • Aucune utilisation de schémas pour améliorer le rendu des extraits
  • CTR moyen des 6 derniers mois
  • Aucune page de marque pure

Le premier résultat de l'évaluation compare le taux de clics des balises de titre à la longueur correspondante de 512 pixels (bleu) et des balises de titre longues (rouge).

Méta-données Titellaenge

Figure 2: Titre Jour Durée vs. CTR

Selon ces critères, le CTR moyen des titres de recherche Google organique ayant une longueur maximale de 512 pixels dans les résultats de recherche organiques est de 7,28%. En comparaison, le taux de clics des titres trop longs est nettement inférieur, à 4,65%.

En particulier avec les systèmes de gestion de contenu, qui créent par exemple une balise de titre à partir de la balise h1, il est important de veiller à ce que la longueur maximale de 512px ne soit pas dépassée. Sinon, le titre ne sera pas entièrement affiché ou modifié par Google dans certains cas, automatiquement, en fonction de la requête. Pour optimiser le taux de clics, la longueur du titre joue un rôle très important.

En bref, l'assaisonnement l'est aussi!

En deuxième résultat, les titres appropriés d’une longueur maximale de 512 pixels sont divisés en deux catégories.

premier Tags de titre avec une longueur maximale de 256px (bleu)
deuxième Balises de titre d'une longueur de 257 à 512px (rouge)

Titellaenge2 méta-données

Figure 3: Evaluation de la longueur du titre selon deux catégories

Cela signifie qu'il existe encore des différences de CTR avec les balises de titre correspondantes. Donc avoir Longueur maximale de 256px et CTR moyen de 7,97% et des titres avec 257 – 512px avec 7,07% un peu moins.

Première méta-titre-analyse-résultat-sous-tableau méta-données

Tableau 1: Résultat de l'analyse des balises de titre sous forme de tableau

Qu'est-ce que cela signifie pour l'optimisation des balises de titre?

Cela signifie que non seulement les mots-clés sont importants pour l'optimisation des balises de titre, mais également le comportement des utilisateurs dans les citations des chercheurs. Le CTR dans les résultats de recherche organiques est également un signal de classement non négligeable et peut être influencé par la longueur des titres. Tout ce qui ne doit pas nécessairement être placé dans une balise de titre ne doit pas y entrer. Si le titre d'une page Web est complètement affiché, idéalement, il est légèrement inférieur à 512 pixels et pourtant significatif, il convertira mieux dans la recherche organique.

En outre, il est de plus en plus important de créer des balises de titre différentes des autres, car Google ne met plus en évidence les mots clés dans la recherche. Par exemple, les utilisateurs remarqueront des titres exceptionnellement courts sous quelque chose de plus long.

Pour optimiser la longueur et l'unicité des balises de titre, le méta-filtre par SEO Expertise est idéal.

Titre longueur de pixel Meta data

Figure 4: Analyse de méta-titre avec le succès du site Web de SEO Expertise

À emporter

    Si un titre ne contient que les mots-clés les plus importants et a une longueur maximale de 256 pixels, le taux de clics est plus élevé que pour les titres plus longs. Toutefois, si les titres entre 257px et 512px correspondent exactement à la même longueur de requête de recherche, le taux de clic est également bon. Il est donc important d'optimiser le titre non seulement pour les mots-clés, mais également pour la longueur en pixels en fonction du sujet et du comportement de l'utilisateur.

Qu'en est-il des méta-descriptions en termes de taux de clics?

Également pour le CTR des méta-descriptions, j'ai évalué les 3 500 sites Web sélectionnés et les ai comparés à leur longueur.

Longueur de méta-description méta-données

Figure 5: Longueur de la méta description

Deuxième méta-titre-analyse-résultat-sous-tableau-méta-données

Tableau 2: Analyse de la méta description sous forme de tableau

Par conséquent, il est particulièrement frappant de constater que les taux de clics moyens avec les descriptions correspondantes sont très similaires à ceux des taux trop longs et trop courts. Néanmoins, avec 7,54% de descriptions avec une longueur maximale de 512 px, ils ont le CTR le plus élevé. Cela conforte l'idée selon laquelle les balises de titre ont plus d'impact que les méta-descriptions sur la fréquence des clics dans les résultats de recherche.

Le fait que les mots-clés dans les méta-descriptions n'influencent plus le classement des moteurs de recherche est correct d'une part, mais probablement pas de l'autre. Comme mentionné précédemment, le comportement de l'utilisateur en termes de fréquence des clics dans les résultats de recherche est un signal de positionnement. Étant donné que les descriptions mettent toujours l'accent sur des mots individuels correspondant à la requête de recherche, il est important que non seulement la longueur en pixels, mais également l'apparition de mots-indicateurs importants, attirent l'attention de l'utilisateur. Le texte de description peut être rapidement agrémenté du principe AIDA:

  • attention – Générer de l'attention avec l'utilisateur.
  • intérêts – éveiller l'intérêt de l'utilisateur.
  • désir – Désactiver la demande de l'utilisateur.
  • action – Tentez l'utilisateur à l'action.

conclusion

L'optimisation des méta-descriptions est aussi importante que les balises de titre. Toutefois, dans les descriptions, il est judicieux d’utiliser toute la longueur de pixels affichée dans les résultats de recherche pour attirer l’attention de l’utilisateur grâce à l’utilisation de mots-indicateurs et du principe AIDA. Idéalement, de cette façon, il est possible de fournir aux informations que l'utilisateur est censé être refusé par des balises de titre plus courtes.

Il y a une dernière chose …

Depuis quelques jours, Google teste des méta-descriptions plus longues dans les résultats de recherche en anglais. Celles-ci sont principalement livrées lors de recherches dans le sens de la longueur afin de fournir à l'utilisateur encore plus d'informations sur le contenu du site. Si cette innovation s'avère fructueuse, elle se retrouvera bientôt dans les résultats de recherche nationaux. Sois prêt!

Informations sur l'évaluation CTR: Seules les recherches sur le bureau ont été marquées, car la longueur en pixels diffère sur les appareils mobiles et les tablettes.

Mise à jour de l'article: 10.01.2019

Étude sur le commerce électronique: marketing en ligne dans les boutiques en ligne allemandes 2016

Pour la sixième fois déjà, nous publions notre étude sur le sujet: "Marketing en ligne dans les magasins allemands 2016". Comme les années précédentes, nous avons analysé près de 200 des plus grands magasins allemands en ce qui concerne le trafic généré par les moteurs de recherche (SEO + AdWords), les réseaux sociaux, l'accès direct, les références, l'affichage, la messagerie, Pinterest, etc. Téléchargez dès maintenant le PDF d'essai pour le partager via Facebook, Twitter, XING ou Google+ en cliquant sur la couverture de l'étude.

Etude de commerce électronique Aufgesang 2016

Unbenannt3 "width =" 570 "height =" 379 "srcset =" https://www.sem-deutschland.de/wp-content/uploads/2015/08/Unbenannt3.jpg 1321w, https: //www.sem- deutschland.de/wp-content/uploads/2015/08/Unbenannt3-300x200.jpg 300w, https://www.sem-deutschland.de/wp-content/uploads/2015/08/Unbenannt3-1024x681.jpg 1024w, https://www.sem-deutschland.de/wp-content/uploads/2015/08/Unbenannt3-600x399.jpg 600w "data-lazy-values ​​=" (largeur maximale: 570px) 100vw, 570px "/><noscript><img decoding=étude Aperçu

Après 2011, 2012, 2013, 2014 et 2015, nous publions pour la sixième fois le présent rapport de statu quo sur le paysage électronique allemand dans les domaines de l'optimisation des moteurs de recherche (SEO), Google AdWords (SEA), du marketing par médias sociaux et du marketing en ligne. ,

Les moteurs de recherche tels que Google sont la pierre angulaire de la recherche et de la recherche sur Internet. La recherche sur le net est le point de départ de millions de décisions d'achat quotidiennes. Le marketing par les médias sociaux est également une préoccupation majeure pour de nombreuses entreprises. En particulier pour les boutiques en ligne, le trafic des moteurs de recherche et des médias sociaux joue un rôle important dans le marketing en ligne en raison de la qualité des visiteurs et des taux de conversion supérieurs à la moyenne qui en résultent.

La présente étude documente l'utilisation d'AdWords, du référencement, de Facebook, de Google+, de Pinterest, de l'affichage et du marketing par e-mail dans les plus grandes boutiques en ligne allemandes en 2016, également par rapport aux années précédentes. Un grand merci va SearchmetricsQui nous a de nouveau soutenu dans cette étude.

Contenu de l'étude

La présente étude examine les activités des 197 plus grandes boutiques en ligne dans les domaines des produits pharmaceutiques, des accessoires pour voitures et motos, des médias, de l'électronique, de l'habillement, de la gamme complète, des jouets, des meubles, du matériel de bureau, de la nourriture pour animaux, du bricolage et des cosmétiques en Allemagne, en ce qui concerne la distribution du trafic, l'optimisation des moteurs ( SEO), Google Adwords (SEA), médias sociaux, display et email marketing.

En plus du statu quo au premier semestre de 2016, nous avons également comparé certains chiffres clés avec ceux de 2014 et 2015. Les données sous-jacentes datent de mai 2016, mai 2014 et mai 2015, respectivement.

"Width =" 570 "height =" 697 "srcset =" https://www.sem-deutschland.de/wp-content/uploads/2015/08/Unbenannt.jpg 617w, https: //www.sem- deutschland.de/wp-content/uploads/2015/08/Unbenannt-245x300.jpg 245w, https://www.sem-deutschland.de/wp-content/uploads/2015/08/Unbenannt-600x733.jpg 600w, https://www.sem-deutschland.de/wp-content/uploads/2015/08/Unbenannt-300x367.jpg 300w "data-lazy-tailles =" (max-width: 570px) 100vw, 570px "/></p>
<p><noscript><img decoding=Quoi de neuf sur l'étude en 2016?

Cette année encore, nous avons inclus de nouveaux chiffres dans la considération. Par exemple, cette année, nous avons également examiné pour la première fois les données de trafic provenant d’Instagram, de Youtube, de Facebook, de Gutefrage.net et de Pinterest. En outre, l’étude de cette année comprend pour la première fois un examen des données des outils Searchmetrics et Similarweb sur une période de trois ans – à compter de 2014. Par ailleurs, la prise en compte et la comparaison des données de Twitter, en raison de la fermeture du compte Twitter Share Count Les API ne sont plus disponibles depuis le 20.11.2015. De plus, l'examen quantitatif des publications sur Google+ sera omis cette année.

Quelques extraits de l'étude Online Markeing chez German Online Shops

Vous trouverez ci-dessous quelques conclusions de l’étude. Plus de plats à emporter, des diagrammes et des informations sont disponibles dans l’étude complète en PDF.

Plats à emporter en général

  • Comme dans les années 2014 et 2015, la recherche organique dans Google de toutes les boutiques en ligne examinées reste
    canal le plus important. La proportion a augmenté dans tous les secteurs, passant de 82,42% en 2015 à 85,32% en 2016. Est généralement
    une tendance à la hausse peut être constatée (voir page 22).
  • En revanche, l’importance de la recherche universelle (y compris les images, la vidéo, les achats, etc.) est de 10,08% en 2015.
    légèrement baissé à 9,64% (voir page 22).
  • La tendance négative de l'utilisation d'AdWords se poursuit en 2016; la proportion diminue de manière significative
    de 7,47% à 5,03% – la tendance continue à la baisse (voir page 22).
  • Le développement de la visibilité organique dans le domaine de l'électronique montre une forte comparaison sur trois ans
    tendance négative à la hausse.

SEO à emporter

  • La grève représente une augmentation de 64,58% de la visibilité des médias organiques, suivie de l'amélioration de l'habitat
    (+ 58,5%) et le matériel de bureau (+ 33,70%).
  • Le développement de la recherche universelle dépend fortement de l'industrie. Médicaments, accessoires auto et moto,
    Les vêtements, l'assortiment complet, la nourriture pour animaux domestiques et l'amélioration de l'habitat augmentent le trafic. Cependant, il est intersectoriel
    avec – 4,32% une évolution négative depuis 2015 reconnaissable.
  • Pour les boutiques en ligne étudiées, le trafic via les résultats de la recherche organique est et reste spécial
    Signification (voir page 18). L’augmentation intersectorielle de la visibilité organique montre également un
    Fermer l'activité de référencement (voir page 20).

Emportez SEA / AdWords

  • Le trafic Adwords continue de diminuer comme les années précédentes. Par rapport à l'année 2015, cependant, très clairement de – 32,88%.
  • Les secteurs des cosmétiques et des médias affichent à eux seuls une légère augmentation du trafic AdWords.

Médias sociaux à emporter

  • Le trafic sur Facebook reste avec 86,20% de part du canal numéro 1 du média social.
  • Google+ a une importance supérieure à la moyenne dans les domaines de l'électronique (33,77%), de l'équipement de bureau
    (24,51%) et les médias (17,29%).
  • Pinterest est représenté pour la première fois avec une part de 0,53% dans l'étude. Le trafic sur Pinterest se déroule principalement
    dans les secteurs du mobilier (5,54%), de l’amélioration de la maison (2,43%), du bureau (1,88%) et de l’habillement (1,16%).
  • Globalement, Facebook, avec 86,20% des parts, reste le canal de médias sociaux le plus puissant et la tendance est à la hausse.
  • Google+ a perdu une part au total.

Votes sur les études récentes sur le commerce électronique

"Étude très large avec des résultats surprenants. Le secteur de la vente au détail est généralement très prudent par rapport aux autres industries et donne souvent la priorité aux autres. Du point de vue positif, le Web 2.0 est désormais également disponible dans le commerce de détail allemand. même si cela prend du temps. Le potentiel commercial est énorme. Les taux de croissance vont certainement se poursuivre pendant cinq à dix ans. Cela a maintenant lentement compris tout le monde dans l'industrie. C'est pourquoi les choses avancent vite … "

Les études de magasin de 2012, 2013, 2014 et 2015 à télécharger

Etude e-commerce 2014

Téléchargez l'étude 2014 en cliquant sur la couverture

Situé Sang-Shop Studie2012-finale-1

Téléchargez l'étude 2015 en cliquant sur la couverture

Aufgesang-Shop-Studie2012-final-1 "width =" 260 "height =" 368 "srcset =" https://www.sem-deutschland.de/wp-content/uploads/2012/05/Aufgesang-Shop-Studie2012 -final-1.jpg 500w, https://www.sem-deutschland.de/wp-content/uploads/2012/05/Aufgesang-Shop-Studie2012-final-1-212x300.jpg 212w, https: // www .sem-deutschland.de / wp-content / uploads / 2012/05 / Aufgesang-Shop-Studie2012-final-1-300x424.jpg 300w "data-lazy-tailles =" (largeur maximale: 260px) 100vw, 260px " /><noscript><img decoding=Téléchargez l'étude 2012 en cliquant sur la couverture

étude cover_2013_Aufgesang

Téléchargez l'étude 2013 en cliquant sur la couverture

Turbo pour votre site Web – Partie 2: AWS CloudFront

La deuxième partie de la série de blogs "Turbo for Your Website" traite du sujet Amazon CloudFront. Dans cet article, vous apprendrez à utiliser le service Amazon en tant que réseau de diffusion de contenu et à réduire ainsi considérablement les temps de chargement de votre site Web.

Les sites Web rapides font plus de ventes. Dans une étude récente, Ian Lurie a examiné seize sites Web de commerce électronique et a une nouvelle fois prouvé que les temps de chargement minimaux pour clairement plus de ventes,

La figure 1 montre que les pages Web dont le temps de chargement est inférieur à 1 seconde ont 100% de plus de valeur de page, c'est-à-dire de valeur de page, que de pages plus lentes.

sales-pagespeed Turbo pour votre site Web AWS CloudFront

Figure 1: Rapport temps de charge sur valeur latérale – Source

Les temps de chargement rapides semblent être un petit problème dans le travail d'optimisation, car il ne s'agit que de secondes ou de millisecondes.

Inconsciemment, il faut que chaque utilisateur soit et ensuite décider s'il appelle d'autres côtés et clique à travers votre côté ou même s'il achète ou non. Dans la première partie de cette série de blogs, le propre CDN de Google a été examiné et a montré comment l’utiliser pour son propre site Web. Amazon, qui agit également en tant que fournisseur renommé de solutions cloud, propose avec "CloudFront" un tel service qui, bien que non gratuit, apporte de nombreux autres avantages.

La configuration d'AWS CloudFront et la création de liens vers votre site Web sont très simples. Une fois configuré, CloudFront référence automatiquement les fichiers nécessaires et les met automatiquement à jour en fonction des paramètres de cache de votre site Web.

Amazon CloudFront vs. Google CDN

Bien que la solution de déchargement des fichiers statiques de Google soit gratuite, elle offre une puissance de serveur considérable, mais ne fournit que les serveurs disponibles aux États-Unis. Amazon CloudFront, quant à lui, consiste en un réseau mondial de serveurs puissants. Ainsi, l'idée même d'un CDN de mettre les fichiers à la disposition de l'utilisateur final par le chemin le plus court est encore mieux mise en œuvre ici. La facturation sur CloudFront est basée sur la quantité de données transférée.

Avec le calculateur de prix fourni, vous pouvez facilement calculer le coût du service pour le mois. Selon la liste de prix actuelle (au 30/01/2019), 1 Go de données transmises en Europe coûte actuellement 0,085 USD.

Créer un compte Amazon Web Services (AWS)

Pour utiliser CloudFront, vous avez besoin d'un compte Amazon Web Services pouvant être créé gratuitement. Dès l'enregistrement, une carte de crédit doit être déposée, laquelle n'est toutefois facturée que si vous avez réellement profité du service. Afin de compléter l'inscription, une confirmation d'identité par téléphone sera effectuée. Vous recevrez un appel automatisé d'Amazon, qui vous donnera un code PIN.

Vous les entrez ensuite dans le champ de formulaire désigné. Si vous rencontrez des problèmes avec la confirmation d'identité par téléphone, il est recommandé d'ouvrir un nouveau ticket dans la zone d'assistance. Décrivez le problème et cliquez sur le bouton "Appelez-moi". Vous recevrez immédiatement un appel de l'équipe de support, qui pourra alors confirmer votre identité. Après l'activation de votre compte, le service sera déverrouillé et les fonctions sont entièrement disponibles. Une fois connecté, vous verrez un aperçu de tous les services AWS dans le tableau de bord. En cliquant sur CloudFront, vous démarrez ce service.

Créer une distribution CloudFront

Dans la fenêtre de démarrage de CloudFront, vous verrez toutes les distributions créées à ce jour. Une distribution est responsable de la distribution des fichiers statiques de votre site Web sur le réseau mondial de serveurs, afin que vos visiteurs puissent obtenir ces fichiers le plus rapidement possible. Il est conseillé de créer une distribution séparée pour chaque site Web. Si le service est utilisé pour la première fois, la synthèse de la distribution est vide. Cliquez sur "Créer une distribution" pour créer un nouveau distributeur. A l'étape 1, le "mode de livraison" est sélectionné. Pour une utilisation dans les pages Web, la méthode "Web" doit être sélectionnée ici. La méthode RTMP (Real Time Messaging Protocol) est utilisée pour diffuser de la vidéo ou de la musique en continu.

cloudfront-distribution Turbo pour votre site Web AWS CloudFront

Figure 2: Créer une nouvelle distribution dans CloudFront

Dans l'étape suivante, les paramètres de la distribution sont définis. Dans le champ "Nom de domaine d'origine", le domaine principal du site Web sans "http: //" est saisi. L '"ID d'origine" sert uniquement de nom interne à la distribution et peut être choisi librement. Tous les autres paramètres illustrés à la figure 3 peuvent rester "par défaut" et n'ont pas besoin d'être modifiés.

cloudfront-distribution-turbo pour votre site Web AWS CloudFront

Figure 3: Paramètres d'une nouvelle distribution CloudFront

Pour vous assurer que les fichiers rendus disponibles par la suite via CloudFront n'ont pas d'URL longues et dénuées de sens, vous pouvez ajuster les paramètres sous "Noms de domaine de substitution". Ici, il est recommandé d'entrer un sous-domaine de votre domaine principal. Par exemple:

cdn.deinedomain.de

Ce sous-domaine sera redirigé vers l'URL CloudFront lors d'une étape ultérieure. Pour les petits sites Web, il suffit d’utiliser un sous-domaine car le nombre de fichiers statiques est généralement limité. Dans la prochaine partie de la série de blogs, nous expliquerons et expliquerons plus en détail pourquoi il peut être utile que des sites Web plus importants spécifient des noms de domaine alternatifs supplémentaires. Tous les autres points peuvent être acceptés dans les paramètres par défaut. La distribution peut maintenant être créée.

sous-domaines cloudfront Turbo pour votre site Web AWS CloudFront

Figure 4: Créer des noms de domaine alternatifs

La distribution est maintenant affichée dans le tableau de bord CloudFront. Cela peut prendre quelques minutes pour que cela prenne effet. Cliquez sur la vue détaillée pour voir l'URL de votre distribution CloudFront sous "Général"> "Nom de domaine". Le "Statut de distribution" vous indique s'il est déjà actif ou pas encore.

cloudfront-domain-name Turbo pour votre site Web AWS CloudFront

Figure 5: Interrogation du nom de domaine CloudFront

Rediriger les sous-domaines vers CloudFront

Le sous-domaine saisi dans le champ "Noms de domaine alternatifs" (voir Figure 3) doit maintenant être redirigé vers l'URL CloudFront (Figure 5> "Nom de domaine"). Pour cela, l'entrée CNAME du sous-domaine doit être modifiée en ceci. Dans votre hébergeur, vous devriez trouver un guide décrivant ce processus. Sinon, le support de votre fournisseur vous aidera certainement.

Personnaliser les références en HTML

Changez maintenant dans le HTML les références des fichiers que vous aimeriez avoir sur le CDN. Lors de la première visite de la page, CloudFront se réfère exactement aux fichiers réellement nécessaires – rien de plus, rien de moins. Ces fichiers sont ensuite mis en cache sur les serveurs Amazon et fournis à vos visiteurs. Selon vos paramètres de chaching, les fichiers sont ensuite mis à jour et mis à jour régulièrement.

cdn-html Turbo pour votre site Web AWS CloudFront

Figure 6: Changer les références en HTML

En raison des performances élevées des serveurs Amazon et du nombre d'emplacements de serveurs en Europe, les temps de chargement des visiteurs de votre site Web seront sensiblement réduits. Tous les fichiers statiques tels que les images, les fichiers CSS et JavaScript peuvent maintenant être échangés ici.

Avec peu d'effort beaucoup plus de vitesse

L'installation de la solution CDN d'Amazon est relativement simple, mais son impact est considérable. Alors que le CDN de Google ne distribue que les fichiers de votre site Web sur des serveurs situés aux États-Unis, CloudFront vous permet d'accéder au réseau de serveurs mondial d'Amazon. AWS présente également l'avantage que les fichiers ne doivent pas être chargés séparément sur un autre serveur. CloudFront récupère automatiquement les fichiers qui en ont vraiment besoin sur l'infrastructure du serveur Amazon. Selon les paramètres de mise en cache, les fichiers sont ensuite mis à jour régulièrement. Dans la prochaine partie de cette série de blogs, vous apprendrez comment atteindre la vitesse de chargement maximale de votre site Web en quelques astuces.

Entretien avec Alexander Sadovsky, responsable de la recherche Web chez Yandex

Marcus Tandler, fondateur et PDG de SEO Expertise, s'est rendu à Moscou chez Yandex pour y interroger le directeur de la recherche sur le Web, Alexander Sadovsky. Dans une interview intéressante et informative, Alexander explique pourquoi le moteur de recherche russe ne s'appuie plus sur les liens en tant que facteur de classement pour certaines requêtes de recherche.

Le moteur de recherche le plus populaire de Russie À la fin de l'année dernière, Yandex a surpris la communauté de la recherche et du référencement en annonçant qu'à partir de maintenant, les recherches commerciales dans la région de Moscou n'utiliseraient plus les backlinks comme facteur de classement. Puisque nous, chez OnPage.org, sommes de grands partisans du référencement OnPage propre, nous avons naturellement reçu cette nouvelle avec un grand plaisir. Bien que le spam sur les liens en Russie soit probablement un problème encore plus grave que dans de nombreux autres pays, je suis fermement convaincu que les autres moteurs de recherche aimeraient donner les backlinks comme facteur de classement.

Entretien yandex-visit Web avec Yandex

illustration: Marcus Tandler rencontre Alexander Sadovsky, directeur de la recherche Web chez Yandex, à Moscou

Google, par exemple, est également très contrarié par Link Spam et a finalement pris des mesures concrètes pour résoudre le problème. En l'absence d'alternatives valables, Google n'est certainement pas complètement convaincu d'abandonner les liens comme un signal à moyen terme, mais je suis fermement convaincu que OnPage SEO deviendra de plus en plus important au cours des prochaines années.

En fin de compte, il s’agit du meilleur résultat pour le chercheur, et un site Web optimisé avec modération OnPage est un bon point de départ pour le faire.

Je voulais en savoir plus sur la façon dont Yandex a réussi à se passer des liens comme signal de classement au sein de son algo de classement. J'ai donc pris l'avion pour Moscou afin de contacter le responsable de la recherche Web chez Yandex – Alexander Sadovsky – parler de spam de lien en Russie.

J'ai appris que:

Alexander, Yandex a récemment suscité un vif intérêt en annonçant qu'il s'abstiendrait d'utiliser des liens comme facteur de classement dans les recherches commerciales à venir dans la région de Moscou. Quelles industries sont touchées en ce moment?

Désormais, plusieurs secteurs commerciaux seront concernés par ce changement, notamment l'électronique et les appareils électroménagers, les vêtements et accessoires, l'immobilier, la santé et le mode de vie, le tourisme et les loisirs, certains services (comme les avocats), le développement de sites Web et le référencement.

Mais nous pensons que nous étendrons bientôt cette pratique à d’autres secteurs d’activité et supprimerons également les liens payants en tant que facteur de classement pour d’autres régions.

Voulez-vous supprimer complètement les liens en tant que facteur de classement ou uniquement pour les requêtes de recherche commerciales?

Pour les recherches non commerciales, nous n'abandonnerons pas les liens en tant que facteur de classement. Mais bien sûr, nous sommes très attentifs aux liens achetés qui doivent réellement compter.

Comment évaluer la force ou l'autorité d'une page Web sans tenir compte des backlinks?

Nous avons actuellement plus de 800 facteurs sur lesquels nous concentrer, y compris des facteurs OnPage tels que: Contenu et structure du site Web, ainsi que les facteurs OffPage. Bien entendu, nous recueillons toutes les données possibles sur le site Web, dans le respect de la politique de confidentialité de nos utilisateurs.

Que pensez-vous de l’importance de OnPage SEO (de préférence impeccable) pour un bon positionnement dans les résultats de recherche Yandex?

Les moteurs de recherche traitent quotidiennement différents types de requêtes de recherche: les requêtes de recherche "principales" les plus fréquemment recherchées par les chercheurs, ainsi que les requêtes de recherche à longue queue (requêtes rares et massives en masse). Il y a plus de longues recherches que de recherches "principales" et la valeur des recherches à longue queue semble être beaucoup plus grande en termes de conversion. Les recherches à longue queue sont généralement des recherches de plusieurs mots, le contenu d'une page Web est donc extrêmement important pour de telles requêtes.

Comment évaluez-vous combien de liens dans le domaine commercial sont du spam pur?

La majorité absolue C’est le résultat de nos recherches dans le segment Internet russophone (nous l’appelons Runet).

Qu'en est-il de Link Spam en Russie en général?

Nous ne sommes pas des experts dans ce domaine – nous sommes un moteur de recherche 🙂 En passant, nous ne pensons pas que les entreprises de bonne réputation devraient utiliser Link Spam pour promouvoir leurs activités, car non seulement le trafic est en danger, mais aussi la réputation de celui-ci. Nous constatons que les propriétaires de sites Web accordent maintenant plus d’attention à SEM, au contenu et à la convivialité de votre site Web, qu’à l’achat de liens.

Dans une interview de 2012, le PDG de l'une des plus grandes sociétés de référencement en Russie estime la valeur du marché des services de référencement en Russie à environ 16 milliards de roubles (environ 350 millions d'euros), dont 9 milliards de roubles russes sont utilisés pour l'achat de liens. , Est-ce une estimation correcte de la taille du marché? Quelle est votre estimation de combien d’argent est actuellement dépensé pour l’achat de liens en Russie?

Nous ne traitons pas avec le référencement, nous évitons donc les estimations dans ce sens. Une étude de l'Association russe des communications électroniques (RAEC) a toutefois révélé que le marché de l'optimisation des moteurs de recherche avait atteint 10,24 milliards de roubles en 2012 (+ 20% par rapport à 2011). Pour 2013, une augmentation d'au moins 19% est attendue. Bien entendu, nous ne pouvons pas évaluer nous-mêmes la précision de ces chiffres.

Pensez-vous que cela va changer dans un proche avenir? Surtout maintenant que Yandex a annoncé qu'il ne comptera plus sur les liens dans les requêtes de recherche commerciales?

Notre objectif principal est de fournir à nos utilisateurs la meilleure expérience de recherche possible. Donc, si nous décidons de classer les changements, nous poursuivons toujours cet objectif. Tout changement devrait avant tout être utile à l'utilisateur.

La tendance à un tel recentrage, de sorte que les exploitants de sites Web dépensent moins de ressources en liens payants et se concentrent davantage sur le SEM et d'autres mesures, est très intéressante pour nous, car elle profite à l'utilisateur. Il est très gratifiant que les webmasters se préoccupent davantage de la convivialité, de leur contenu et d’une conception conviviale plutôt que d’essayer constamment de déjouer les moteurs de recherche. Les meilleurs sites Web sont, les meilleurs résultats que Yandex peut présenter.

En 2011, les «comportements de l'utilisateur» (Intention de l'utilisateur) ont été introduits dans le cadre de la formule de classement de Yandex. De nombreuses manipulations ont-elles été observées depuis dans cette zone?

Le système de sécurité Yandex peut détecter en toute sécurité la manipulation des facteurs de comportement de l'utilisateur et la différencier d'autres actions frauduleuses. Je ne sais pas combien il y a eu de tentatives au total, mais nous continuons à assister à de telles tentatives de manipulation.

Beaucoup expérimentent et essayent de trouver les vulnérabilités de notre algorithme. Mais tous les sites Web de SEO expérimentés ne sont pas représentés dans les SERPs Yandex 🙂

Comment voyez-vous le rôle des signaux sociaux en tant que facteur de classement? Pensez-vous qu'un jour ils deviendront une alternative aux liens?

Malheureusement, nous ne pouvons pas commenter publiquement pour le moment. Bien entendu, nous essayons de rassembler autant de données que possible sur chaque site Web.

La facilité d'utilisation d'un site Web semble être très importante pour Yandex. Lors de ma visite au siège de Yandex, vous m'avez indiqué que Yandex essayait de prédire la qualité d'une page récemment trouvée en examinant la convivialité et en la comparant à d'autres sites Web de haute qualité. Pouvez-vous expliquer quelque chose plus en détail?

Le problème est que plus nous en parlons avec nos algorithmes, plus les tentatives de manipulation et de fraude sont nombreuses. C'est pourquoi nous évitons d'en parler publiquement 🙂

Enfin, un autre sujet: Yandex a récemment fait sensation avec l’annonce des «îles» de Yandex. Les "îles" Yandex sont des SERP interactifs / extraits enrichis interactifs que les webmasters peuvent insérer dans les résultats de recherche à l'aide d'extensions spécifiques du protocole Open Graph. Vous proposez même une diffusion en temps réel via une API, de sorte que l'utilisateur puisse réellement interagir avec un tel extrait de code dans les résultats de la recherche. Comment cela affecte les webmasters? Voyez-vous une augmentation significative de la satisfaction parmi les chercheurs, car ils obtiennent déjà la réponse à leurs questions déjà dans les résultats de recherche, sans avoir à cliquer sur un site Web.

Un bon webmaster est toujours intéressé à générer plus de trafic et des conversions plus élevées. Et s’il peut le faire avec l’aide de Yandex, il a utilisé sa chance avec succès. En fait, le nombre de webmasters ayant implémenté au moins un extrait de code interactif de ce type est beaucoup plus élevé que le nombre d'îlots que nous voyons dans nos résultats de recherche.

Il existe de nombreux types de sites Web dont les îles n'apportent aucune valeur ajoutée au chercheur. Par conséquent, nous essayons de travailler plus étroitement avec la communauté des webmasters pour éviter ces îlots non pertinents et pour développer de nouvelles règles sur la manière de rendre les extraits interactifs idéaux pour l'utilisateur.

Le but d'un chercheur est d'obtenir une réponse directe ou de résoudre un problème aussi rapidement que possible. Si le moteur de recherche est capable de fournir la bonne réponse en un clic déjà dans les SERP ou déjà lors de la saisie de la requête de recherche, l'utilisateur est évidemment plus que satisfait. Ceci est particulièrement intéressant pour les surfeurs mobiles qui ne veulent pas trop se défouler à cause du manque de couverture réseau mobile ou des hotspots WiFi encombrés pour obtenir la réponse souhaitée. Par conséquent, nous expérimentons beaucoup et mettons en œuvre ces nouvelles fonctionnalités de manière aussi fluide que possible.

Merci pour l'interview passionnante, Alexander!

Cliquez ici pour voir l'article dans sa version originale (anglais).

Recherche sémantique: entités interprétant les requêtes de recherche

Cet article de ma série d'articles sur la sémantique et les entités dans le référencement et Google examine le rôle des entités dans l'interprétation des requêtes de recherche. Amusez-vous à lire!

Les tâches principales de la recherche par entité

Pour les systèmes d’extraction de recherche basés sur des entités, les entités jouent un rôle central dans plusieurs tâches.

  1. Interprétation des requêtes de recherche
  2. Détermination de la pertinence au niveau du document
  3. Évaluation au niveau du domaine ou de l'auteur
  4. Émission d'une réponse ad hoc sous la forme d'un panneau de connaissances, d'un extrait de code …

Dans toutes ces tâches, l’interaction entre entité, requête de recherche et pertinence s’applique. Cet article porte sur l'interprétation des requêtes de recherche et sur les relations entre les entités et les requêtes de recherche.

Google veut reconnaître le sens et l'intention de recherche des requêtes de recherche

L'interprétation des requêtes de recherche est l'un des plus grands défis des moteurs de recherche à une époque où les requêtes de recherche étaient de plus en plus complexes, notamment par le biais de la recherche vocale. Car l’utilité d’un moteur de recherche est cruciale pour comprendre ce que recherche l’utilisateur. Ce n'est pas une tâche facile, en particulier pour les requêtes de recherche mal formulées. Dans moderne systèmes de recherche d'information il s'agit de moins en moins de mots-clés, qui contiennent un terme de recherche autant que le sens de la requête. Ici, les entités jouent un rôle central dans de nombreuses requêtes de recherche.

Presque tous les termes de recherche sont basés sur une question implicite ou explicite et sur une intention de recherche. L'intention de recherche est très importante pour la comparaison avec l'objectif des documents ou du contenu du corpus respectif. En période de recherche vocale et d'appareils mobiles, il est encore plus important pour Google d'identifier les requêtes de recherche et leur intention ou signification d'utilisateur aussi précisément que possible, afin de générer individuellement les résultats de recherche correspondants.

Mais je ne veux pas entrer dans l'intention de recherche ici. Dans cet article, je voudrais me concentrer sur l'interprétation de la signification des requêtes de recherche utilisant des entités.Vous pouvez en lire plus dans l'article explication et identification de l'intention de recherche et de l'intention de l'utilisateur par mot-clé.

Dans une interview en 2009, Ori Allon, ancien directeur technique de la Google Search Quality Team, a déclaré dans une interview avec IDG:

Nous travaillons très fort sur la qualité de la requête. La requête n'est pas la somme de tous les termes. La requête a une signification derrière elle. Pour des requêtes simples comme "Britney Spears" et "Barack Obama", il est assez facile pour nous de classer les pages. Mais quand la question est: Quel médicament devrais-je prendre après ma chirurgie oculaire?, C'est beaucoup plus difficile. Nous devons comprendre le sens …

Un exemple de l'efficacité des systèmes de recherche basés sur les entités, par opposition aux systèmes basés sur les termes, montre cet exemple.

Source: https://mobilemoxie.com/blog/the-entity-language-series-translation-and-language-apis-impact-on-query-understanding-entity-ersterstanding-4-of-5/

Un moteur de recherche purement basé sur des termes ne reconnaîtrait pas la différence de sens entre les requêtes de recherche "feu rouge" et "feu rouge", car les termes de la requête de recherche sont les mêmes, mais disposés différemment. Selon la disposition, le sens est différent. Un moteur de recherche basé sur une entité reconnaît les différents contextes en fonction des différents arrangements. "Stoplight red" est une entité distincte, tandis que "red stoplight" est la combinaison d'un attribut et d'une entité "stoplight".

Dans cet exemple, il apparaît clairement qu'il ne suffit pas d'utiliser un terme pour déterminer l'entité. Les mots dans l'environnement jouent également un rôle important dans l'identification du sens. Les termes dont le sens varie en fonction du contexte représentent un défi pour Google ou les moteurs de recherche.

Google veut reconnaître les entités dans les requêtes de recherche

Google veut savoir quelle entité est une question. Ce n'est pas si facile si l'entité elle-même n'apparaît pas dans le terme de recherche. Google peut identifier l'entité que vous recherchez par les entités trouvées dans le terme de recherche et le contexte de relation entre les entités.

Un exemple:

La question "qui est le chef chez vw" ou la question implicite "chef vw" mène à la livraison de la boîte de graphe de connaissances suivante:

Dans cet exemple, deux entités et une phrase de connexion ou de prédicat jouent un rôle important dans la réponse à la question.

  • VW (entité)
  • Chef (type de connexion)
  • Herbert Diess (entité)

Ce n'est qu'en combinant l'entité "VW" et le type de connexion "boss" que Google peut répondre à la question sur l'entité "Herbert Diess".

C'est pourquoi l'identification des entités par Google est si importante dans la première étape. Google utilise Knowledge Graph comme référentiel central pour tous les termes identifiés en tant qu'entités.

Pour Google, il est important d'identifier les entités dans les termes de recherche et d'identifier les connexions avec d'autres entités. Les relations entre les entités sont au moins aussi importantes. C'est la seule façon pour Google de répondre à des questions implicites sur les entités et donc à des questions concrètes sur des entités directement dans les SERP. Voici un exemple:

La requête de recherche "Qui est le fondateur d'Adidas?" (Question explicite) et "fondateur Adidas" (question implicite) conduit presque aux mêmes résultats de recherche:

Même si les résultats diffèrent légèrement, Google reconnaît que l'entité recherchée est Adolf Dassler, bien que le nom n'apparaisse pas dans la requête de recherche. Peu importe si je pose une question implicite sous la forme du terme de recherche "Fondateur Adidas" ou une question explicite. L'entité "adidas" et le contexte relationnel "fondateur" suffisent à cela.

Enrichissement sémantique des requêtes de recherche

Source: Recherche par entité, Krisztian Balog

Il n’est pas toujours facile pour Google d’interpréter les entités pertinentes à partir des requêtes de recherche. Les requêtes de recherche en arrière-plan peuvent être automatiquement enrichies d'informations sémantiques supplémentaires ou d'annotations, ou suggérées à l'utilisateur via la méthode de suggestion automatique. Ce faisant, la correspondance entre la requête de recherche et l'entité ne repose plus uniquement sur le texte saisi, mais également sur les relations sémantiques des entités et des attributs.

L'exemple suivant recherche l'entité "Ann Dunham". Un moteur de recherche purement basé sur des termes aurait des problèmes pour répondre à la requête de recherche du "parent d'Obama". Grâce à la combinaison de recherche par terme et par entité, la réponse "Ann Dunham" peut être sortie en tant que mère du moteur de recherche.

Source: Recherche par entité, Krisztian Balog

En pratique, le résultat ressemble à ceci. En plus de la mère Ann Dunham, la deuxième entité du père Barack Hussein Obama ayant fait l'objet d'une recherche, ainsi que le panel de connaissances de Barrack Obama, sont également publiés. Le panneau de la connaissance de Barrack Obama est joué parce que le système répond au terme Barack Obama dans la requête de recherche. Les deux autres zones d'entité sont sorties du graphe de connaissances en fonction des informations supplémentaires sémantiques.

Cliquez sur l'image pour l'agrandir

La chose pratique à propos de ce système dual lors de l’interprétation des requêtes de recherche est que les résultats peuvent également être générés si aucune entité n’est recherchée dans un terme de recherche.

En plus de l'interprétation gênée par l'entité des requêtes de recherche, la méthode basée sur les termes peut également être prise en charge par des méthodes basées sur des types d'entités. Cela concerne les recherches qui recherchent plusieurs entités dans une classe de type, telles que "Visites de Hanovre". Voici une boîte qui répertorie plusieurs entités.

Cliquez sur l'image pour l'agrandir

Les requêtes relatives à un type d'entité génèrent souvent l'entité la plus pertinente, les carrousels ou le type de boîte de graphe de connaissances ci-dessus. Ces zones affichent les entités les plus pertinentes en fonction de la requête de recherche, en fonction de la pondération. La proximité ou la pertinence des entités par rapport à la requête de recherche peut être similaire à celle de documents concernant des analyses d'espace vectoriel, telles que p. Ex. Remarquez Word2Vec. Plus l'angle entre le vecteur de requête de recherche et le vecteur d'entité est petit, plus le terme et l'entité sont pertinents ou proches.

Exemple d'analyse d'espace vectoriel Entités pour la requête de recherche

Brevets Google pour l'interprétation des requêtes de recherche

Ci-dessous, je voudrais présenter quelques brevets Google pouvant être pertinents pour l'interprétation des requêtes de recherche. Certains des brevets ultérieurs pourraient être la technologie de base mise sur le Rankbrain avec ses technologies d’apprentissage automatique.

Je voudrais commencer par une série de brevets qui traitent du raffinement des requêtes de recherche. La date de publication du premier brevet montre que Google s’occupe de cette question complexe depuis longtemps. Il s’agit de l’un des premiers brevets de Google sur l’interprétation sémantique des termes de recherche. Ori Allon à partir de l'année 2009.

Affinage des requêtes de recherche

Le brevet traite principalement de l'interprétation des requêtes de recherche et de leur raffinement. Selon le brevet, le raffinement de la requête de recherche fait référence à certaines entités qui souvent coexistent dans les documents explorant la requête d'origine ou ses synonymes. En conséquence, les entités peuvent être référencées les unes aux autres et même des entités auparavant inconnues peuvent être rapidement identifiées.

Identification des expansions d'acronymes

Ce brevet a été publié pour la première fois dans le Août 2011 dessiné par Google et im Octobre 2017 redessiné à nouveau sous un nouveau nom. C'est très excitant en tant que l'un des inventeurs du spécialiste de l'apprentissage en profondeur Thomas Strohmann qui a joué un rôle de premier plan dans le développement de Rankbrain.

Ce brevet ne parle pas d'entités, mais il décrit une autre façon pour Google de réécrire ou d'affiner les recherches originales en fonction des informations d'un premier sous-ensemble de documents afin d'obtenir des résultats de recherche plus pertinents. Dans ce brevet, il s'agit principalement d'interprétation des acronymes dans les requêtes de recherche. Toutefois, le processus décrit constitue un modèle pour de nombreuses autres méthodes traitant du raffinement ou de la réécriture des requêtes de recherche.

L'acronyme et le moteur de synonymes décrits dans le brevet peuvent être remplacés par le graphe de connaissances.

Réécriture de requêtes avec détection d'entités

Ce brevet a été publié pour la première fois dans le Septembre 2004 dessiné par Google et im Octobre 2017 redessiné à nouveau sous un nouveau nom. C'est particulièrement excitant, car les racines ont une longueur d'avance sur Rankbrain, Hummingbird et Knowledge Graph, et semblent être pertinentes aujourd'hui, ce qui suggère que la méthodologie fait partie intégrante de la recherche Google actuelle.

La méthodologie décrit comment réécrire les requêtes de recherche avec des références d'entité selon les besoins, ou au moins suggérer des suggestions pour obtenir des résultats de recherche plus pertinents.

Le brevet semble à première vue assez simple et rudimentaire, car la réécriture de la requête dans les exemples cités fait uniquement référence à un complément aux requêtes de recherche avec des opérateurs de recherche. Par exemple, dans l'un des exemples, la requête "Business Week sur les fonds communs de placement" devient non écrite "Source des fonds communs de placement: Business Week". Je trouve intéressant dans le brevet que, dans les exemples, les identifiants d’entités soient attribués via des domaines. Cela donnerait la présomption que les domaines sont des images numériques uniques d'entités.

En outre, il est décrit qu’une réécriture de la requête de recherche comporte également différents termes synonymes, tels que. Des synonymes ou des fautes d'orthographe peuvent être exécutés et le contenu fourni en tant que résultats de recherche correspondant à la requête d'origine et à la requête réécrite.

Un exemple serait la requête de recherche "marketing internet". Nous trouvons ici les résultats correspondant à la requête de recherche initiale et au terme synonyme plus populaire de "marketing en ligne".

SERP à la requête de recherche

Découverte des actions d'entité pour un graphe d'entité

Ce brevet a Google dans Janvier 2014 d'abord dessiné et redessiné en octobre 2017 sous un nom actualisé. Il décrit comment Google identifie les activités liées aux entités en fonction des fluctuations de volume de recherche situationnelles à court terme. Ceux-ci peuvent alors être par exemple être ajouté à un panneau de connaissances à court terme ou un contenu qui prend en compte ces activités en cours peut être temporairement poussé vers le haut du classement. Cela permet à Google de réagir aux événements liés à la situation autour d'une entité et d'ajuster les SERP en conséquence.

Sélection du contenu à l'aide des propriétés d'entité

Ce brevet a été redessiné pour la première fois en avril 2014 et en octobre 2017 sous un nouveau nom de Google. Il décrit comment Google peut utiliser un indice de confiance pour déterminer la hiérarchie des entités dans une requête de recherche.

Pour détecter la pertinence d'une entité dans une requête, Google peut utiliser un score de confiance.

Le procédé peut inclure l’identification d’une propriété de la requête de recherche. Le procédé peut inclure le système de traitement de données déterminant une correspondance entre une propriété d'une entité de critères de sélection de contenu et la propriété de l'entité de la requête de recherche. Le procédé peut inclure le système de traitement de données. Source: https://patents.google.com/patent/US9542450B1/en

Après que ce score de confiance soit ensuite déterminé quelle est l'entité principale dans la requête de recherche, les documents appropriés pour les SERP sont donc déterminés. Les attributs d'entité peuvent être inclus dans le processus de sélection via un graphe de requête et un graphe de critères de sélection de contenu.

Dans la requête "rouge stoplight" dans la capture d'écran à gauche, les mots sont dans l'ordre standard – "rouge" décrit "stoplight" , Lorsque l'ordre est inversé, «feu rouge» devient la requête de la main droite, il devient comme s'il s'agissait d'un feu rouge; ici, 'stoplight' devient l'adjectif et 'rouge' devient le nom (un concept).

Identifier et classer les attributs d'entités

Ce brevet de Google, publié en 2015, est sans doute l’un des brevets les plus intéressants sur le sujet. Il décrit comment Google détermine les données de la requête de recherche, les parties descriptives de l'entité et les pièces jointes pour chaque terme de recherche. Ces pièces jointes peuvent par exemple Soyez des attributs. De cette manière, les requêtes de recherche peuvent être analysées pour déterminer les types d'informations que les utilisateurs souhaitent généralement recevoir.

Dans de nombreux cas, les types d'informations qui intéressent un utilisateur pour une entité (telle qu'une personne ou un sujet) sont différents. En analysant les requêtes de recherche, les informations les plus demandées peuvent être identifiées pour une entité donnée. Ensuite, lorsqu'un utilisateur envoie une requête concernant l'entité particulière, les informations les plus demandées peuvent être fournies en réponse à la requête. Par exemple, un bref résumé des faits les plus fréquemment demandés pour l'entité particulière et d'autres entités similaires peut être fourni, tel que: dans un panneau de connaissances ou une carte de connaissances.

Il prend en compte la fréquence à laquelle certaines informations sont recherchées pour l'entité elle-même ainsi qu'en général pour le type d'entité. Si par exemple Basé sur le groupe Phoenix souvent après les albums, les paroles et les dates de tournée, et généralement pour les musiciens après les membres du groupe et les chansons, il en résulte les informations fournies dans le panneau de connaissances.

Méthodes, systèmes et supports d'interprétation de requêtes

Dans ce brevet, Google im Année 2015 diverses méthodes sont décrites comment les moteurs de recherche peuvent interpréter les requêtes de recherche.

Ce brevet décrit le problème de base et les solutions pour faire face aux défis.

Par exemple, en réponse à la requête "film d'action avec Tom Cruise", ces moteurs de recherche peuvent fournir des résultats de recherche non pertinents, tels que "Last Action Hero" et "Tom and Jerry", simplement parce qu'une partie de la requête de recherche est incluse dans la liste. titre des éléments de contenu. En conséquence, une compréhension de la requête de recherche peut produire des résultats de recherche plus significatifs.

Dans la méthode décrite ici, les requêtes de recherche sont décomposées en termes individuels. Pour ces termes, il est vérifié s'ils sont liés à une entité connue. Un score de confiance détermine la proximité des termes par rapport aux entités. Le contexte de la requête de recherche, y compris les termes sans référence directe à une entité, joue également un rôle dans le terme de recherche. Sur la base de l'entité la plus pertinente, une recherche est effectuée en fonction du type d'entité et les résultats de la recherche correspondants sont livrés.

Voici un exemple. Une requête de recherche telle que "Film d'action avec Tom Cruise" serait décomposée en composants "Action", "Film", "Tom" et "Cruise". Le terme action peut être une entité du type entité film, genre ou série. Parmi ces types d’entités, lequel est le plus demandé peut, déterminé par la fréquence ou la popularité d'un score d'entité.

Selon le type de moteur de recherche (recherche d'images, recherche de vidéos …), les formats de média correspondants seront fournis en fonction du type d'entité recherché "Action Film" et de l'entité "Tom Cruise". Le brevet fait référence à une grande variété de recherches telles que, par exemple, Rechercher des requêtes dans une recherche d'image ou via une recherche vocale via un assistant numérique.

Génération de requêtes utilisant la similarité structurelle entre les documents

Ce brevet a été publié dans Septembre 2016 dessiné. Ce qui est excitant à propos de ce brevet, c’est que, parmi les inventeurs impliqués dans Paul Haahr et Yonhui Wu, se trouvaient deux ingénieurs majeurs de l’apprentissage en profondeur. En outre, Yonhui Wu a été l’un des leaders du développement de Rankbrain.

Le brevet décrit une méthode permettant à un moteur de recherche de générer des recherches auxiliaires sur une entité à stocker dans un magasin de requêtes. Ces requêtes de recherche pourraient ensuite être utilisées, par exemple. Requêtes ou réécritures d'un terme de recherche d'origine.

Sur la base de la structure de contenu de documents similaires, les affinements des requêtes de recherche peuvent être résumés. Ainsi, d'un document à l'auteur, la phrase survenue de Joseph Heller "Joseph Heller a écrit le roman influent catch 22 sur un militaire américain au cours de la Seconde Guerre mondiale." La requête "joseph plus brillante" est extraite.

Regroupement d'affinements de requêtes par intention d'utilisateur présumée

Ce brevet a Google dans Mars 2016 d'abord dessiné et redessiné en octobre 2017 sous un nom actualisé. Il existe une méthodologie utilisée par Google pour affiner les requêtes de recherche afin de mieux déterminer ce que recherche réellement l'utilisateur. Ces améliorations sont les requêtes de recherche révisées qui apparaissent sous les résultats de la recherche.

Ces améliorations sont particulièrement importantes en cas de doute sur l’intention de l’utilisateur de lire des résultats plus pertinents et les recherches associées. Pour cela, toutes les recherches possibles sont organisées dans des raffinements de cluster reflétant les différents aspects de la requête d'origine. Ces aspects nécessitent des résultats de recherche différents.

Le regroupement des requêtes de recherche est résolu via une construction graphique. Les relations entre les termes de recherche, dépendantes de la session, ainsi que l'interrogation de documents spécifiques sont prises en compte. Le graphique prend en compte à la fois la similarité basée sur le contenu et la similarité de la cooccurrence de sessions déterminée à partir des journaux de requêtes. En d'autres termes, les dépôts simultanés de recherches consécutives ainsi que le comportement des clics sont analysés.

Dans le graphique, la requête d'origine ainsi que les raffinements et les documents correspondants sont représentés sous forme de nœuds. Des noeuds supplémentaires représentent les requêtes de recherche associées se produisant en session sous forme de co-occurrences intra-session. Tous ces noeuds sont connectés via des bords.

Des groupes d’affinements et de documents de recherche peuvent être créés via le vecteur de probabilité de visite.

En ce qui concerne les recherches associées, le brevet contient un passage intéressant qui décrit comment les requêtes associées sont générées:

Les requêtes associées sont généralement obtenues à partir des journaux de requête en recherchant d'autres requêtes qui se produisent dans des sessions avec la requête d'origine. Plus précisément, les raffinements de requête, un type particulier de requêtes associées, sont obtenus en recherchant les requêtes les plus susceptibles de suivre la requête d'origine dans une session utilisateur. Pour de nombreuses requêtes courantes, il est possible que plusieurs requêtes associées soient extraites des journaux à l'aide de cette méthode. Toutefois, compte tenu de l'espace limité disponible sur une page de résultats de recherche, les moteurs de recherche ne choisissent généralement que d'afficher quelques requêtes connexes.

À cette fin, Google fournit le plus grand nombre possible de requêtes connexes, qui représentent les aspects les plus importants d’une requête de recherche originale diversifiée. Pour la recherche "mars", Google fournit les recherches connexes suivantes:

Les aspects ou entités suivants sont représentés par les requêtes associées:

  • Gottfried Wilhelm Leipzig (philosophe)
  • Université de Leibniz (établissement d'enseignement)
  • Biscuit de Leibniz (nourriture)

Ces entités forment des grappes. Selon les résultats de la recherche, le groupe le plus populaire semble être le philosophe suivi de l'établissement d'enseignement:

SERP pour la requête de recherche "leibniz" en contexte général

Ce sera intéressant si je change le contexte en affinant la requête de recherche pour "leibniz keks".

SERP pour la requête de recherche "leibniz keks"

Dès que vous mettez le focus interne de la session sur l'entité "Clés de Leibniz", les SERPs pour la requête de recherche ci-dessus "leibniz" changent comme suit:

  • Vous ne verrez plus le panneau de connaissance pour le philosophe, mais pour les trois entités "Boîtes de spécifications" (pour en savoir plus ici)
  • En position 1, le résultat est maintenant lié au cookie de Leibniz, tandis que dans la même requête précédente, l'entrée de Wikipédia est remontée jusqu'au philosophe.

SERP pour "leibniz" en fonction du contexte individuel

Le focus de l'entité a changé par rapport à ma session de recherche individuelle. À partir de ce moment, la popularité du cluster ou de l'entité ne compte plus, mais bien mon intention de recherche personnelle et pertinente. (plus sur la pertinence et la pertinence dans la pertinence, la pertinence et l'utilité sur Google).

Passionnant, non?

Réécriture de requêtes sur l'appareil

Ce brevet a Google dans Avril 2016 d'abord dessiné et redessiné en octobre 2017 sous un nom actualisé. Il souhaite une méthode telle que des requêtes de recherche basées sur un modèle affiché sur le client, par exemple. un smartphone est récrit, annoté et attribué à une catégorie.

Le gros avantage de cette méthode est que les faits d’une base de données d’entités telle que Le graphique de connaissance peut en outre être enrichi avec des informations relatives à l'utilisateur individuel, telles que, par exemple, Les données de localisation peuvent être étendues. Cela peut être adapté à la situation individuelle de la réponse de l'utilisateur.

Associer à une entité avec une requête de recherche

Dans ce brevet, Google a été attribué en 2016. Il s'agit de savoir comment une entité peut être reconnue dans une requête de recherche ou comment Google peut voir qu'il s'agit en fait d'une requête de recherche avec une référence à une entité. Il existe également une autre version datant de 2013 pour ce brevet.

Le brevet décrit les étapes de processus suivantes:

    1. Recevoir une requête de recherche
    2. Identifier une entité associée au terme de recherche
    3. Fournissez un résumé de l'entité afin que les résultats correspondants puissent être affichés en réponse à la requête de recherche. Le résumé contient à la fois des informations pertinentes sur l'entité et des requêtes de recherche supplémentaires facultatives.
    4. Identifiez la demande de recherche d'entité facultative et établissez un lien avec l'option sélectionnée. (Plus dans le brevet ….)
    5. Identifier les documents correspondant aux entités ou à l'entité
    6. Identifier d'autres entités à partir des documents sélectionnés
    7. Connecter la ou les entités à la requête de recherche
    8. Déterminer un classement pour les entités

Apprendre des interactions utilisateur dans la recherche de personnel via le paramétrage d'attribut

À partir de 2017, la version scientifique "Tirer des leçons des interactions de l'utilisateur dans la recherche de personnel via le paramétrage d'attributs" est issue de. Voici comment Google pourrait créer des relations d'attributs sémantiques entre les requêtes de recherche et les documents cliqués, et même prendre en charge un algorithme de classement à auto-apprentissage, en analysant le comportement des utilisateurs avec des documents individuels:

"Le cas dans la recherche privée est différent. Les utilisateurs ne partagent généralement pas les documents (par exemple, les courriels ou les fichiers personnels), et donc directement les agrégats. Pour résoudre ce problème, plutôt que d'apprendre directement du comportement de l'utilisateur pour une paire donnée (requête, doc) comme dans la recherche Web, nous avons plutôt choisi d'utiliser des documents et des requêtes utilisant des attributs sémantiquement cohérents qui sont en quelque sorte représentatifs de leur contenu.
Cette approche est également décrite à la figure 2. Les documents et les projets sont projetés dans un espace attributaire agrégé, plutôt que directement. Puisque nous supposons que les attributs sont dans un modèle d’apprentissage au classement. "

Amélioration de la mise en cluster de sujets sémantiques pour les requêtes de recherche avec la co-occurrence de mots et la mise en cluster de graphes bipartites

Un autre article scientifique de Google donne des informations intéressantes sur la manière dont Google divise aujourd'hui probablement les requêtes de recherche en différents domaines thématiques.

Ce document présente deux méthodes que Google utilise pour contextualiser les requêtes de recherche. Les scores de levage jouent un rôle central dans le regroupement de co-occurrences de Word:

Formule de calcul du score de remontée

"Wi" dans la formule désigne tous les termes étroitement liés au mot racine, tels que les fautes d'orthographe, le pluriel, le singulier ou les synonymes.

"A" peut être toute interaction de l'utilisateur, telle que la recherche d'un terme de recherche spécifique ou la visite d'une page spécifique.

Si le score de levage, par exemple 5, la probabilité que "Wi" soit recherché est 5 fois supérieure à celle de "Wi" généralement recherchée.

"Un score élevé nous aide à construire des sujets significatifs plutôt que des mots inintéressants. En pratique, les probabilités peuvent être estimées à l'aide de la fréquence des mots dans l'historique de recherche Google dans une fenêtre temporelle récente. "

De cette façon, les termes peuvent être donnés à des entités particulières, telles que des entités. Mercedes et / ou lors de la recherche de pièces détachées de la classe de contexte thématique "voiture". La classe de contexte et / ou l'entité peuvent ensuite continuer à être associés à des termes qui apparaissent souvent en tant que co-occurrences des termes de recherche. Cela permet de créer rapidement un nuage de termes sur un sujet spécifique. La hauteur du score d'ascenseur détermine l'affinité avec le sujet:

"Nous utilisons le score de levage pour classer les mots en fonction de leur poids et de leur valeur."

Cette méthode peut être utilisée en particulier lorsque "Wi" est déjà connu, par ex. Termes de recherche par marques ou catégories connues. Si "Wi" ne peut pas être clairement défini, étant donné que les termes de recherche du même sujet sont trop différents, Google pourrait utiliser une deuxième méthode – "clustering bigraph pondéré".

Cette méthode repose sur deux hypothèses.

  1. Les utilisateurs partageant les mêmes intentions formulent leurs requêtes de recherche différemment. Néanmoins, les mêmes résultats de recherche sont générés par les moteurs de recherche.
  2. Inversement, des URL similaires sont générées pour une requête de recherche sur les premiers résultats de recherche.

Cette méthode compare les termes de recherche aux URL les mieux classées et crée des paires requête / URL dont la relation est pondérée en fonction des taux de clic et des impressions de l'utilisateur. De cette manière, des similitudes peuvent être faites entre les termes de recherche, qui n'ont pas le même mot racine et forment des clusters sémantiques.

Evaluation des interprétations sémantiques d'une requête de recherche

Ce brevet Google, introduit en juillet 2019, décrit une méthode permettant de déterminer différentes significations sémantiques dans une requête de recherche. Chaque interprétation sémantique est liée à une autre requête de recherche canonique. La requête en cours est modifiée en fonction de cela et du terme de recherche canonique

Semblable au brevet déjà mentionné concernant les annotations sémantiques, les termes de recherche modifiés sont déjà commentés avec un sens sémantique. En comparant les résultats de recherche de la requête de recherche initiale et ceux de la requête de recherche modifiée, les deux significations sémantiques possibles peuvent être validées et pondérées en relation. Le degré de similarité des résultats de la recherche détermine la proximité. Le degré de similarité est basé sur la fréquence d'apparition de certains mots-clés associés à la requête particulière dans les résultats de la recherche modifiés. Eine größere Häufigkeit des Auftretens von Keywords kann beispielsweise darauf hinweisen, dass die geänderte Suchanfrage mit größerer Wahrscheinlichkeit der semantischen Bedeutung entspricht.


In einigen Fällen können andere Daten, wie z. B. die Klickrate des Benutzers, Website-Traffic-Daten oder andere Daten, verwendet werden, um eine wahrscheinliche semantische Interpretation zu interpretieren.

Query Suggestions based on entity collections of one or more past queries

Ein weiteres Google Patent aus dem Juli 2019 beschreibt eine Methode, wie Google Suggest Vorschläge aus vergangenen Suchanfragen generieren kann. Auch hier spielen Entitäten eine Rolle. Entitäten, die in Beziehung zu den in den bisherigen Suggest-Vorschlägen vorkommenden Entitäten oder in der Vergangenheit gesuchten Entitäten in Beziehung stehen sind die Basis für die Bestimmung einer Ähnlichkeits-Messzahl für die Bestimmung neuer Suggest-Vorschläge.

Weitere Google-Patente für die Entitäten-basierte Interpretation von Suchanfragen

Rankbrain ist ein Entitäten-basierter Search Query Processor

Als Google im Jahr 2015 die Einführung von Rankbrain für die bessere Interpretation von Suchanfragen bekannt gegeben hat gab es eine Vielzahl von Vermutungen und Meinungen aus der SEO-Branche. Es wurde z.B. von der Geburtsstunde von Machine Learning bzw. KI bei Google gesprochen. Wie in meinem Beitrag Bedeutung von Machine Learning, AI & Rankbrain für SEO & Google erläutert beschäftigt sich Google bereits seit 2011 im Rahmen des Projekts Google Brain intensiv mit Deep Learning. Rankbrain war allerdings die erste offizielle Bestätigung seitens Google, dass Machine Learning auch in der Google Suche eingesetzt wird.

Die wohl präzisesten Informationen von Google zu Rankbrain bisher gab es im Bloomberg Interview  aus Oktober 2015.

Eine Aussage in dem Interview sorgte für viele Missverständnisse um Rankbrain.

RankBrain is one of the “hundreds” of signals that go into an algorithm that determines what results appear on a Google search page and where they are ranked. In the few months it has been deployed, RankBrain has become the third-most important signal contributing to the result of a search query.

Viele SEO-Medien haben die Aussage so interpretiert, dass Rankbrain einer der drei wichtigsten Rankingfaktoren ist. Aber ein Signal ist kein Faktor. Rankbrain hat einen großen Einfluss darauf wie die Suchergebnisse ausgewählt und geordnet werden ist aber kein Faktor wie z.B. bestimmte Bestandteile eines Inhalts oder Links.

In diesem Interview gibt es eine weitere interessante Aussage:

RankBrain uses artificial intelligence to embed vast amounts of written language into mathematical entities — called vectors — that the computer can understand. If RankBrain sees a word or phrase it isn’t familiar with, the machine can make a guess as to what words or phrases might have a similar meaning and filter the result accordingly, making it more effective at handling never-before-seen search queries.

Bei Rankbrain werden Entitäten in einer Suchanfrage identifiziert und mit den Fakten aus dem Knowledge Graph abgeglichen. Insofern die Begriffe mehrdeutig sind findet Google über Vektorraumanalysen heraus welche der möglichen Entitäten am besten zum Begriff passen. Dabei sind die umliegenden Wörter im Suchterm ein erstes Indiz für die Ermittlung des Kontext. Das mag auch auch ein Grund sein warum Rankbrain u.a. für Longtail-Suchanfragen zum Einsatz kommt.

Das Problem  in der Pre-Rankbrain-Zeit war die fehlende Skalierbarkeit bei der Identifikation und Anlage von Entitäten im Knowledge Graph. Der Knowledge Graph basiert aktuell noch in erster Linie aus Informationen aus Wikidata, die durch Wikipedia-Entitäten verifiziert werden und Wikipedia selbst – also  manuell gepflegte und dadurch eher statisches und damit nicht skalierbares System.

“Wikipedia is often used as a benchmark for entity mapping systems . As described in Subsection 3.5 this leads to sufficiently good results, and we argue it would be surprising if further effort in this area would lead to reasonable gains.”
Quelle: From Freebase to Wikidata – The Great Migration

Mehr dazu findest Du in den anderen Teilen der Beitragsreihe:

Eine weitere sehr zu empfehlende Quelle für Informationen zur Funktionsweise der Google-Suche aus erster Hand ist der bereits in einem anderen Beitrag erwähnte Vortrag von Paul Haahr auf der SMX West 2016.


Danny Sullivan fragte Jeff in der Q&A, wie RankBrain funktionieren könnte, um die Dokumentqualität oder -autorität festzustellen. Seine Antwort:

This is all a function of the training data that it gets. It sees not just web pages but it sees queries and other signals so it can judge based on stuff like that.

Das spannende an dieser Aussage ist, dass sie implizit ausdrückt, dass Rankbrain erst nach der Auswahl eines ersten Sets an Suchergebnissen eingreift.
Das ist eine wichtige Erkenntnis, da RankBrain die Suchanfrage nicht verfeinert, bevor Google nach Ergebnissen sucht, sondern erst danach.

Dann kann RankBrain die Abfrage möglicherweise verfeinern oder anders interpretieren, um die Ergebnisse für diese Abfrage auszuwählen und neu zu ordnen. Hier können wir den Bogen zu den bereits erwähnten Google-Patenten zur Verfeinerung der Suchanfragen ziehen, die höchstwahrscheinlich mit Rankbrain in Verbindung stehen.

En résumé: RankBrain ist ein Algorithmus basierend auf Deep Learning, der nach der Auswahl eines ersten Subsets an Suchergebnissen zum Einsatz kommt und sich auf Textvektoren  und andere Signale stützt, um komplexe Suchanfragen über Natural Language Processing besser zu verstehen.

Das Zusammenspiel aus Rankbrain, Hummingbird und Knowledge Graph

Ich denke, es wird klar, dass Google sich immer mehr zur Ad-hoc-Antwort-Maschine entwickelt und deswegen die Bedeutung einer Suchanfrage immer wichtiger wird als die rein termbasierte Interpretation von Suchanfragen.

Bisherige Information Retrieval Methoden beschränken sich auf die in der Suchanfrage vorkommenden Begriffe und gleichen diese mit Inhalten ab in denen die einzelnen Begriffe vorkommen, ohne über eine Kontextuelle Verbindung der Begriffe zueinander zu berücksichtigen und darüber die eigentliche Bedeutung festzustellen.

Durch Innovationen wie Hummingbird und Rankbrain geht es im Kern darum gesuchte Entitäten über einen Abgleich mit einer Entitäten-Datenbank (Knowledge Graph) zu identifizieren, über die Beziehung der relevanten Entitäten zueinander einen Kontext und darüber die Bedeutung von Suchanfragen und Dokumenten zu erkennen.

Dieses Umdenken im Information Retrieval bei Google war der Grund für die Einführung des Knowledge Graph, das Hummingbird Update im Jahr 2013 und Rankbrain im  Jahr 2015. Diese Reihe von Innovationen stehen im direkten Zusammenhang miteinander bzw. greifen prozessual ineinander.

  • Rankbrain ist für die Interpretation von Suchanfragen hinsichtlich Synonymität, Ambiguität, Sinn (Intention) und Bedeutung (Extension) zuständig. Gerade mit Blick auf neue Suchanfragen, Long Tail Keywords, mehrdeutige Begriffe sowie Abwicklung von Prozessen im Rahmen von Voice Search und digitalen Assistenten ist Rankbrain das zentrale Element im Query Processing.
  • Die im Knowledge Graph erfassten Entitäten und Fakten wie Attribute und Beziehungen der Entitäten untereinander können sowohl bei der Relevanzbestimmung von Ergebnissen als auch bei der Verarbeitung von Suchanfragen (Query Processing) genutzt werden, um z.B. Dokumente und Suchanfragen über Kommentare (Annotations) mit Fakten aus dem Knowledge Graph anzureichern. Dadurch kann die Bedeutung von Suchanfragen als auch Dokumenten bzw. von einzelnen Absätzen und Sätzen in Inhalten besser interpretiert werden.
  • Der Hummingbird-Algorithmus ist für das Clustering von Inhalten je nach Bedeutung sowie Zweck in unterschiedliche Korpusse und  für die Bewertung bzw. das Scoring der Ergebnisse hinsichtlich Relevanz also das Ranking zuständig.

Das verbindende Element bei allen drei Modulen sind Entitäten. Sie sind kleinste gemeinsame Nenner. Sowohl bei Rankbrain also auch Hummingbird spielen Vektorraumanalysen bzw. Word Embeddings als auch Natural Language Processing eine zentrale Rolle. Durch die Fortschritte in Sachen Machine Learning kann Google diese Methoden immer performanter nutzen, um sich  von einer rein textbasierten Suchmaschine zu einer semantischen Suchmaschine zu entwickeln.

Things not strings!

Google CDN – Turbo pour votre site web

Un design réactif, des images nettes et l'incorporation de polices spéciales ne sont que quelques-unes des exigences imposées aux sites Web modernes. Cependant, cela entraîne souvent de longs temps de chargement pour les visiteurs.

La volonté de cliquer sur d'autres pages du projet disparaît. Les réseaux de diffusion de contenu sont un excellent moyen de réduire les temps d'attente pour vos visiteurs. Dans cet article, vous apprendrez à utiliser le CDN (réseau de diffusion de contenu) de Google en tant que turbo pour votre site Web.

CD … quoi?

Imaginez que vous allez avoir des gâteaux le matin. Il y a cinq back-shops dans une chaîne dans votre ville. Tous les rouleaux ont le même goût. Où allez-vous? À moins que vous n'aimiez les longues marches matinales, vous prendrez probablement celle qui vous est la plus proche. C'est le principe des réseaux de diffusion de contenu. Un serveur a le contenu original et actuel. Les autres serveurs répartis dans le monde tirent leurs données de ce serveur. Ils les reflètent et vérifient périodiquement les fichiers nouveaux ou mis à jour. Le visiteur du site Web obtient automatiquement les données du serveur le plus proche de son emplacement.

content-delivery-network-1 Site Web Turbo Google CDN

Figure 1: Comment fonctionne Content Delivery Network?

Un autre avantage est généré par les serveurs hautes performances des fournisseurs de CDN.

Cet article traite spécifiquement de la possibilité d'utiliser les structures de serveur Google. Les hôtes Web standard ne disposent pas des ressources matérielles nécessaires pour offrir la même vitesse que les serveurs Google.

Quelles données devraient être disponibles dans le CDN?

Les réseaux de distribution de contenu peuvent rendre des fichiers statiques disponibles. Par exemple, des fichiers CSS et JavaScript ou des images. Une fois téléchargés sur le réseau du serveur, ils peuvent être récupérés à partir de fichiers HTML.

exemple de code-cdn Site Web Turbo Google CDN

Figure 2: Exemple d'intégration dans le code source

Tous les fichiers image ne doivent pas être rendus disponibles sur le CDN. Nous recommandons, par exemple, les grands fonds d’écran ou les images liées au design. Laissez des images appartenant au contenu de vos sites Web sur votre propre serveur. Après tout, vous souhaitez apparaître dans les résultats de la recherche d'images ci-dessus.

Combien coûte l'utilisation du réseau de diffusion de contenu Google?

L'utilisation de ce service Google est gratuite pour un maximum de cinq millions de vues par mois. De plus, les demandes sont réglées à l'heure ou au gigaoctet. Cependant, les coûts ne sont que de l'ordre du centime. De plus amples informations sont disponibles dans le tableau des prix.

Google CDN – Enregistrement et configuration pas à pas

Prêt? Parce que maintenant il est temps de commencer! L'inscription se fait via Google App Engine. Là, vous devez vous connecter avec votre compte Google. Cliquez sur le bouton "Créer une application".

registration-google-cdn-1 Site Web Turbo Google CDN

Figure 3: Accueil Google App Engine

Dans l'étape suivante, vous devez créer votre application. Choisissez d'abord un nom. Ce nom sera également disponible en tant que sous-domaine à partir de AppSpot.com (deinname.appspot.com). Le choix du nom peut prendre un certain temps, car la créativité est en demande ici. Chaque nom ne peut exister qu’une seule fois et vous remarquerez bientôt qu’il y en avait déjà un devant vous 🙂 Dans le champ suivant, vous devez donner un titre à votre application. Personne ne verra ce titre dans notre cas, car vous n'utiliserez l'application que comme espace de stockage pour les fichiers statiques de vos pages Web. Confirmez à présent que vous acceptez les conditions d'utilisation en cochant la case correspondante. Vous pouvez maintenant cliquer à nouveau sur le bouton "Créer une application".

google-app-engine-create-application-1 Site Web Turbo Google CDN

Figure 4: Installer une application Google

C'était la première blague et la seconde suit en même temps. Votre application a maintenant été créée avec succès. Vous avez maintenant la possibilité d'afficher le tableau de bord et d'enregistrer de nouveaux administrateurs pour votre espace de stockage.

google-cdn-confirmation-1 Site Web Turbo Google CDN

Figure 5: Enregistrer avec succès une application Google

Maintenant, il est important que vous puissiez également télécharger des fichiers. Cela n'est possible qu'avec GoogleAppEngineLaunchen, qui est bien entendu fourni gratuitement par Google. Accédez à la page de téléchargement et téléchargez le logiciel correspondant à votre système d'exploitation. Ouvrez le programme et installez-le sur votre ordinateur. Cliquez ensuite sur "Fichier -> Nouvelle application". Dans le champ ID de l'application, entrez le nom unique précédemment défini pour votre application. Sous Répertoire d'application, vous pouvez spécifier dans quel dossier de votre ordinateur les fichiers doivent être téléchargés. Cliquez ensuite sur le bouton "Créer".

site web google-new-app Turbo Google CDN

Figure 6: Configurer une nouvelle application dans GoogleAppEngineLauncher

Automatiquement, trois fichiers système seront créés dans le dossier que vous avez défini et un favicon sera déposé.

structure des dossiers Site Web Turbo Google CDN

Figure 7: Fichiers système GoogleAppEngineLauncher

Chaque nouveau dossier que vous souhaitez partager pour la synchronisation, vous devez maintenant vous inscrire une fois dans le fichier "app.yaml" et déposer.

Ouvrez le fichier dans un éditeur de texte. Dans notre exemple, nous avons maintenant enregistré trois dossiers:

Comme vous pouvez le constater, l’inscription d’un nouveau dossier ne nécessite que deux lignes de code qui s’expliquent d’elles-mêmes.

google-cdn-app-yaml Site Web Turbo Google CDN

Figure 8: Enregistrement de nouveaux dossiers dans app.yaml.

Vous êtes maintenant prêt à synchroniser vos fichiers pour la première fois. Ajoutez simplement vos fichiers aux dossiers appropriés, puis cliquez sur "Déployer" dans GoogleAppEngineLauncher. La vue de la console de votre ordinateur s'ouvre et vous pouvez suivre la manière dont les fichiers sont téléchargés sur le serveur.

Site Web de la console du moteur d'applications Google Turbo Google CDN

Figure 9: Vue de la console de GoogleAppEngineLauncher

Bravo, c'est fait!

Modifiez maintenant le code source de votre site Web, comme le montre la figure 1, le référencement des fichiers que vous avez maintenant externalisés sur le serveur ultra-rapide de Google.

Bonus: le réglage des puces pour votre site Web

Les sites Web modernes utilisent de plus en plus des bibliothèques dites JavaScript. Par exemple, jQuery a peut-être déjà entendu l'un ou l'autre. Google fournit ces normes Web sur son serveur pour une utilisation gratuite. Tous les fichiers pris en charge sont disponibles sur Google Hosted Libraries. Déterminez lesquels de ces fichiers seront utilisés sur votre site Web et modifiez la référence à l'emplacement correspondant sur Google. L'avantage ici est que beaucoup de sites Web utilisent ces fichiers. Ainsi, si un visiteur a déjà visité un site Web qui obtient également le fichier jQuery du serveur Google, le fichier se trouve déjà dans la mémoire cache du navigateur de l'utilisateur. Cela rendra votre site web encore plus rapide.

Des visiteurs heureux font des webmasters heureux

Si vos visiteurs sont satisfaits, vous le serez également en tant qu'opérateur de site Web. Le temps de chargement joue ici un rôle important. Parce que les sites Web rapides montrent non seulement à Google qu’ils traitent avec un professionnel, mais également aux visiteurs. Ainsi, les performances des sites Web contribuent également au gain de confiance, augmentent la durée du séjour et, si nécessaire, améliorent les taux de conversion. La semaine prochaine, vous pourrez approfondir la question des réseaux de distribution de contenu dans un article avancé. Encore plus de rapidité pour votre site web, telle est la devise 😉

Influence de l'apprentissage automatique, de l'IA et de Rankbrain sur le référencement et Google

L'apprentissage automatique et l'intelligence artificielle (IA) jouent un rôle de plus en plus important dans la modélisation et la classification des modèles de marketing en ligne. Des entreprises telles que Tesla, Google, Microsoft, Amazon et Facebook mènent de nombreuses recherches dans le domaine de l'intelligence artificielle.

Après l'annonce de Google en novembre 2015, un nouveau signal de classement très important ou un facteur de classement important appelé rang cerveau travaille depuis des mois, l’intérêt pour le sujet est-il Machine Learning enfin arrivé dans la communauté du référencement et du marketing en ligne. Je tiens le sujet Apprentissage machine en particulier dans le contexte numérique, pour des raisons tout aussi incisives et prospectives, comme par exemple: les thèmes du marketing mobile, du big data et du contenu. Comme l'apprentissage machine lié à d'autres mots à la mode récents tels que Intelligence artificielle (Intelligence artificielle), sémantique ou Apprentissage en profondeur Je voudrais expliquer ci-dessous et quels sont les effets de ce développement sur les algorithmes d'autoapprentissage des moteurs de recherche. Je tiens à souligner que je suis le sujet Intelligence artificielle ou Apprentissage machine pourrait considérer que superficiellement. Si vous souhaitez approfondir le sujet, vous trouverez une collection détaillée de vidéos et de liens vers le sujet à la fin de l'article.

Dans cet article, je vais essayer le monde de la machine learning et son influence sur le référencement avec le soutien de précieux collègues nommés Markus Hövener. Sepita Ansari. Christian Kunz. Marcus Tober. Kai Spriestersbach, Sebastian Erlhofer et Marcel Schrepel rendre plus tangible.

Qu'est-ce que l'apprentissage automatique? Signification, définition et méthodologie

L'importance actuelle et surtout future de l'apprentissage automatique doit être classée de la même manière que les thèmes du marketing mobile, du Big Data ou du marketing de contenu dans le contexte numérique. Le nombre de visites sur la couverture médiatique des sujets a également considérablement augmenté depuis 2014, comme le montre l'évolution de Google.

Google Trends: Développement du volume de recherche pour le Big Data, l'apprentissage automatique et le marketing de contenu

Google Trends: développement d'un volume de recherche global pour les mégadonnées (en jaune), l'apprentissage automatique (en bleu) et le marketing de contenu (en rouge)

Comme je l'ai déjà expliqué dans mon article sur le Web sémantique (Web 3.0) en tant que conséquence logique du Web 2.0, les systèmes qui rendent les informations identifiables, catégorisables, évaluables et triables selon le contexte font de l'unique possibilité du flot d'informations et de données basé sur les innovations. devenir le gentleman du Web 2.0. Mais la sémantique pure ne suffit pas ici. C'est pourquoi les portiers numériques ont besoin de plus en plus d'algorithmes fiables pour accomplir cette tâche. Algorithmes d’autoapprentissage basés sur Intelligence artificielle et les méthodes d’apprentissage automatique jouent un rôle de plus en plus important. C’est le seul moyen de garantir la pertinence des résultats ou des dépenses / résultats attendus.

Mais qu'est-ce que l'apprentissage par machine maintenant et comment ça marche?

Apprentissage machine est dans le sujet Intelligence artificielle trop allemand Intelligence artificielle localiser. Le domaine de l'intelligence artificielle est divisé en sous-domaines suivants:

1er raisonnement
2. Représentation des connaissances
3. Planification et ordonnancement automatisés
4. Apprentissage automatique
5. Traitement du langage naturel
6. vision par ordinateur
7. Robotique
8. Intelligence générale ou forte IA

Le terme renseignement s’applique en relation avec Machine Learning Ce n’est pas tout à fait qu’il s’agit moins d’intelligence, mais bien de modèles et de précision reconnaissables par machine ou ordinateur. Apprentissage machine traite du développement automatisé d'algorithmes basés sur des données empiriques ou des données d'apprentissage. L'accent est mis sur l'optimisation des résultats ou l'amélioration des prévisions dues aux processus d'apprentissage.

Intelligence artificielle Le but est de prendre des décisions en fonction des données collectées selon un humain. Cela nécessite plus que des méthodologies d'apprentissage machine. La technologie à l'origine de l'apprentissage automatique s'appelle des réseaux de neurones.

Que sont les réseaux de neurones?

Réseau de neurones trop allemand Réseaux de neurones sont des groupes d'algorithmes construits conformément à un cerveau humain pour reconnaître des modèles récurrents, puis pour les étiqueter ou les étiqueter. Les modèles reconnus sont traduits en vecteurs mathématiques. Toutes les informations du monde réel, telles que les images, le son, le texte ou les séquences temporelles, sont prises en compte.

Les réseaux de neurones aident à classer les nouvelles informations de différents systèmes sur la base de similitudes et à les regrouper en groupes de modèles. Les étiquettes aident à nommer ces groupes. Des exemples d'étiquettes peuvent être: Spam, Pas de spam, Client satisfait, Client insatisfait, Lien acheté, Lien non acheté …

La diapositive suivante d'un exposé de Jeff Dean, de Google, montre que certains modèles, par exemple Grâce à ces modèles récurrents, l'apprentissage automatique peut être utilisé pour interpréter et étiqueter automatiquement l'image d'un lion.

Source: Présentation Jeff Dean / Google

Source: Présentation Jeff Dean / Google

Réseaux de neurones se composent de plusieurs niveaux ou couches qui contribuent en série au raffinement ou à la précision des hypothèses. Si vous êtes plus profondément concerné par le sujet, voici une belle introduction.

types d'apprentissage automatique

Il existe fondamentalement trois types différents d’apprentissage automatique:

  • Apprentissage surveillé
  • Apprentissage non surveillé
  • Renforcement de l'apprentissage

De plus, un extrait de l'allemand Wikpiedia:

  • Apprentissage supervisé apprentissage superviséL'algorithme apprend une fonction à partir de paires d'entrées et de sorties données. Pendant l’apprentissage, un "enseignant" fournit la valeur de fonction correcte pour la saisie. L’objectif de l’apprentissage supervisé est que le réseau soit formé après plusieurs calculs avec différentes entrées et sorties, la possibilité de créer des associations. Un sous-champ du apprentissage supervisé est la classification automatique. Un exemple d'application serait la reconnaissance de l'écriture manuscrite.
  • Apprentissage non surveillé (angl. apprentissage non superviséL'algorithme génère un modèle pour un ensemble donné d'entrées qui décrit les entrées et permet des prédictions. Il existe des méthodes de regroupement qui divisent les données en plusieurs catégories, qui diffèrent les unes des autres par des modèles caractéristiques. Le réseau crée ainsi indépendamment des classificateurs selon lesquels il divise les modèles d’entrée. Un algorithme important dans ce contexte est l'algorithme EM, qui définit de manière itérative les paramètres d'un modèle afin d'expliquer au mieux les données visualisées. Ce faisant, il utilise la présence de catégories non observables et, à son tour, estime l'affiliation des données à l'une des catégories et aux paramètres qui constituent ces catégories. Une application de l'algorithme EM se trouve, par exemple, dans les modèles de Markov cachés (HMM). Autres méthodes d'apprentissage non supervisé, par exemple. B. L'analyse en composantes principales supprime la catégorisation. Ils ont pour objectif de traduire les données observées en une représentation plus simple qui les reproduit le plus fidèlement possible malgré des informations considérablement réduites.
  • Renforcement de l'apprentissage (engl. apprentissage par renforcementL’algorithme apprend par la récompense et la punition une tactique sur la manière d’agir dans des situations susceptibles de se produire afin de maximiser les avantages de l’agent (c’est-à-dire le système auquel appartient la composante d’apprentissage). C'est la forme la plus commune d'apprentissage d'une personne.

J'ai aussi dans cette présentation de Rahul Jain trouvé de bons graphiques. (Lien vers la présentation en fin d'article).

apprentissage supervisé

Processus d'apprentissage automatique: apprentissage supervisé

la Apprentissage surveillé De nombreux travaux préparatoires sont nécessaires car les modèles de modèles doivent être définis et étiquetés au préalable afin de pouvoir identifier les informations entrantes et les affecter à ce groupe de modèles. Cet étiquetage est généralement effectué à la main en raison de l’assurance qualité. En raison de certains modèles récurrents, le système peut alors reconnaître de manière indépendante des informations avec des propriétés de modèle identiques ou similaires à l'avenir et les affecter au groupe de modèles correspondant.

apprentissage non supervisé "width =" 550 "height =" 331 "srcset =" https://www.sem-deutschland.de/wp-content/uploads/2015/12/unüberwachtes-Lernen1.jpg 961w, https: // www.sem-deutschland.de/wp-content/uploads/2015/12/unüberwachtes-Lernen1-300x180.jpg 300w, https://www.sem-deutschland.de/wp-content/uploads/2015/12/unüberwachtes -Learn1-600x361.jpg 600w "data-lazy-values ​​=" (largeur maximale: 550px) 100vw, 550px "/><noscript><img decoding=Processus d'apprentissage automatique: apprentissage non surveillé

Dans le cas d'un apprentissage non supervisé, l'étiquetage avancé n'a pas lieu et les groupes de modèles sont automatiquement formés sur la base de modèles.

Renforcement de l'apprentissage "width =" 550 "height =" 287 "srcset =" https://www.sem-deutschland.de/wp-content/uploads/2015/12/Bestärkendes-Lernen.jpg 973w, https: // www.sem-deutschland.de/wp-content/uploads/2015/12/Bestärkendes-Lernen-300x156.jpg 300w, https://www.sem-deutschland.de/wp-content/uploads/2015/12/Bestärkendes -Learn-600x313.jpg 600w "data-lazy-values ​​=" (largeur maximale: 550px) 100vw, 550px "/><noscript><img decoding=Processus d'apprentissage automatique: renforcer l'apprentissage

Semblable au terme d'intelligence artificielle, le terme d'apprentissage automatique est souvent assimilé à un apprentissage en profondeur et à la sémantique ou appelé dans le même souffle. Vous trouverez ci-dessous une tentative de différenciation.

Différence entre l'apprentissage automatique et l'apprentissage en profondeur

Apprentissage en profondeur est un sous-domaine de l’apprentissage automatique, on pourrait aussi parler de développement. Alors que les algorithmes classiques d’apprentissage automatique reposent sur des groupes de modèles solides pour la reconnaissance et la classification, les algorithmes d’apprentissage approfondi développent indépendamment ces modèles ou créent indépendamment de nouveaux niveaux de modèle au sein des réseaux de neurones. Par conséquent, il n'est pas nécessaire que les modèles pour les nouveaux événements soient développés et implémentés manuellement, comme ce serait le cas avec les algorithmes traditionnels d'apprentissage automatique. Il est donc préférable de répondre aux prévisions d’Algos qui ont un apprentissage en profondeur. En outre, ce graphique (l’Orginaquelle n’est malheureusement plus en ligne. C’est pourquoi nous faisons référence à cet article.)

deep-learning-workflow "width =" 560 "height =" 240 "srcset =" https://www.sem-deutschland.de/wp-content/uploads/2015/12/deep-learning-workflow.jpg 683w, https://www.sem-deutschland.de/wp-content/uploads/2015/12/deep-learning-workflow-300x129.jpg 300w, https://www.sem-deutschland.de/wp-content/uploads /2015/12/deep-learning-workflow-600x257.jpg 600w "data-lazy-tailles =" (largeur max: 560px) 100vw, 560px "/><noscript><img decoding=

Différenciation entre apprentissage automatique et sémantique

La sémantique peut aider à mieux identifier la signification d'un objet grâce à sa classification en tant qu'entité unique et à ses relations avec d'autres entités. Lors de la classification, la sémantique utilise des propriétés similaires aux modèles associés aux groupes de modèles dans l'apprentissage automatique. La principale différence, cependant, est que la sémantique ne poursuit aucun processus d'apprentissage, comme c'est le cas avec l'apprentissage automatique. De ce fait, les systèmes sémantiques sont plutôt statiques et peu capables d’effectuer des prévisions pour de nouvelles situations. Les groupes de modèles et les modèles ou entités doivent être connus.

Apprentissage automatique et algorithmes (moteur de recherche)

La chose intéressante à propos de ce développement est la Machine Learning est que les algorithmes peuvent évoluer et s’adapter à l’avenir. Jusqu'à présent, par exemple Chez Google, l’algorithme de recherche s’est développé comme suit.

Une modification moyenne des algorithmes commence par une idée visant à améliorer la recherche de l’un des développeurs de Google. Ils suivent une approche basée sur les données et toutes les modifications d’algorithme proposées sont testées avant publication dans le cadre d’une évaluation de la qualité complète.

En règle générale, les développeurs partent d'une série d'expériences, optimisent l'une ou l'autre variable et demandent un feedback à leurs collègues. S'ils sont satisfaits du résultat, l'expérience est diffusée à un public plus large.

Développement d'algorithmes chez Google Source: Google

Développement d'algorithmes chez Google Source: Google

Le résultat est un algorithme général statique qui est développé par de nombreuses mises à jour plus petites et plus grandes. Cet algorithme est le même pour chaque situation. Plongez complètement dans de nouvelles situations sans précédent, une fois débordé. La prise en compte de chaque contexte individuel, tel que Emplacement, terminal utilisé … dans lequel un utilisateur est situé doit utiliser cet algorithme. Dans le cas optimal, chaque utilisateur ou au moins groupe d'utilisateurs aurait "gagné" son propre algorithme pour pouvoir être utilisé en fonction du contexte respectif. Ce n'est pas possible avec le précédent algorithme relativement statique.

Il n'est pas possible d'écrire votre propre algorithme pour chaque tâche. Des algorithmes doivent être écrits pour apprendre des observations. L'apprentissage automatique rendrait cela possible et Google va déjà dans cette direction.

En outre, les utilisateurs de Google peuvent utiliser des signaux qui peuvent être utilisés comme indicateurs de réussite dans le processus d'apprentissage:

  • Rapport de clic long à court
  • Proportion de chercheurs effectuant des requêtes de recherche connexes et supplémentaires
  • Mesures d'engagement de l'utilisateur (détectables via Chrome, par exemple)
  • Taux de kick relatif dans les SERPs
  • Contenu partagé
  • Engagement de l'utilisateur sur les sites Web

En combinaison avec les signaux classiques de classement hors page tels que les backlinks, les co-citations et les co-occurrences, ceux-ci peuvent être utilisés comme métriques de succès pour la vérification d'une estimation par l'algorithme.

Une question intéressante est la suivante: où Google obtient-il les données de formation relatives à l'utilisateur pour lancer le processus d'apprentissage automatique?

S'agit-il de véritables données utilisateur ou Google continue-t-il d'utiliser les données fournies par les évaluateurs de recherche? Quality Rater à générer dans un environnement de test?

(Des discussions comme celle-ci dans les commentaires.)

Devenant progressivement obsolète, l'algorithme de développement d'algorithme ci-dessus. En témoignent également les mises à jour de plus en plus fréquentes en temps réel telles que. les mises à jour de pingouin en temps réel ou les mises à jour de "panda" en attente. Auparavant, les mises à jour à venir étaient annoncées volumineuses et par de tels collègues. sistrix documentée. Je pense qu'une telle documentation aura bientôt perdu sa signification. Et aussi des enquêtes et des aperçus des facteurs de classement tels que nous les connaissons jusqu’à présent seront historiques dans quelques années. Mais plus à ce sujet ci-dessous.

Google contient déjà de nombreuses informations provenant de différents niveaux d'indexation et de classement, qui doivent en quelque sorte être prises en compte dans l'algorithme.

  • texte
  • Visuels (images, vidéos)
  • acoustique
  • le comportement des utilisateurs
  • Knowledge Graph (image des relations)

Pendant ce temps, Google peut déjà lire les chiffres et le texte des images, comme mon collègue Philipp le décrira avec brio dans son message de la semaine prochaine.

Plus dans l'article Reconnaissance d'images: Google peut-il lire et reconnaître des textes dans des images?

Si vous examinez à nouveau les différents types d’apprentissage automatique et que vous les transférez au monde des moteurs de recherche, il est logique de penser aux endroits où au moins les approches d’apprentissage automatique sur Google sont déjà utilisées. En termes de recherche, vous pouvez au moins reconnaître les approches de la ML ici:

  • Graphique de connaissances
  • colibri
  • rang cerveau
  • éventuellement pingouin en temps réel

De plus, certains produits Google utilisant des fonctionnalités d'apprentissage en profondeur, tels que: Texte en reconnaissance d'image, reconnaissance vocale, Google Translate …

La grande question est de savoir comment créer des systèmes capables de gérer toutes ces informations.

Et encore une fois, la réponse est que l'apprentissage automatique peut être cela.

Le problème le plus important lié au traitement d’une telle masse de données est celui des performances et de l’évolutivité. Néanmoins, Google souhaite, de toutes ses forces, aller de l'avant vers l'apprentissage automatique. Selon Eric Schmidt, l'apprentissage automatique est le thème dominant de l'avenir de Google, comme il l'a récemment présenté aux étudiants de la TU Berlin:

Le sujet exceptionnel des années à venir selon Schmidt Machine Learning. Ainsi, le développement de machines et d'ordinateurs pouvant apprendre de manière autonome. Schmidt: "Nous n'aurons plus à poser de questions à l'ordinateur à l'avenir, car il a appris ce que nous allons demander. Quelque chose de très grand commence tout juste. "Schmidt fait confiance aux machines. Les ordinateurs sont simplement meilleurs et plus rapides que les humains à bien des égards.

Engagement de Google en matière d'intelligence artificielle et d'apprentissage automatique

Que Google finisse par créer un cerveau artificiel et que, pour Hummingbird et le graphe de Knowldege, ce n’est que le début de ma collègue Svenja il ya deux ans, avec l’article Knowledge Graph: Google construit un cerveau ici, dans le blog. Mais jusqu'à présent, vous ne pouviez que le deviner. En raison des activités supplémentaires de ces dernières années, le tableau devient de plus en plus clair.

Selon Google, depuis 2014, Google a presque quadruplé ses activités d'apprentissage en profondeur, comme le montrent les diapositives de la conférence de Jeff Dean ci-dessous.

Unbenannt13

Source: Présentation Jeff Dean / Google

L'engagement de Google pour les choses Intelligence artificielle et Machine Learning commencé en 2011 avec le lancement de "Google Brain". L'objectif de Google Brain est de créer vos propres réseaux de neurones. Depuis lors, Google développe son propre logiciel d'apprentissage en profondeur DistBelief Continuez à développer vos propres produits d’apprentissage automatique. La deuxième génération de logiciels appelée Flux tensoriel mais est déjà dans les starting-blocks.

En regardant l’investissement et l’engagement dans l’intelligence artificielle au fil du temps, on comprend vite l’importance de Google dans ces domaines:

L'engagement de Google dans l'apprentissage automatique et l'intelligence artificielle

L'engagement de Google dans l'apprentissage automatique et l'intelligence artificielle

Bien que Knowledge Graph et Hummingbird incluent déjà des approches d’apprentissage automatique, l’accent a été mis davantage sur le moteur de recherche sémantique. Au plus tard, avec les investissements de plusieurs centaines de millions de dollars dans diverses entreprises des domaines de l'intelligence artificielle et de l'apprentissage automatique en 2014, il est clair que Google veut vraiment aller.

avec Esprit profond (environ 365 millions de dollars) Google a acheté une société fondée en 2011, spécialisée dans les systèmes autour de l'intelligence artificielle. et al DeepMind est responsable du développement de Google Now. La mission de DeepMind est de comprendre l'intelligence. De plus, DeepMind ne traite pas seulement du développement des réseaux de neurones, mais travaille également sur des modèles beaucoup plus souples, similaires à ceux d’une mémoire à court terme.

Labos Bleu Foncé d'autre part, l'accent est mis sur la reconnaissance et l'interprétation du langage naturel, ainsi que des formats audio.

vision Factory se spécialise dans la reconnaissance et l'interprétation de supports visuels tels que des images ou des vidéos.

Toutefois, lorsqu'il s'agit de textes, Google a une expérience de moteur de recherche basée sur le texte. Dans le domaine de l'audio, de la vidéo et de l'image, ils ont obtenu un soutien professionnel auprès des entreprises mentionnées.

En outre, Google investit depuis des années, selon sa propre déclaration, dans le domaine de l'intelligence artificielle. Ainsi, Google a par exemple investi des dizaines d’heures de travail dans le développement d’une infrastructure de pointe. propres réseaux de neurones investis. En outre, Google utilise des milliers de processeurs et de processeurs graphiques pour tirer des enseignements de milliers de milliards d'enregistrements en parallèle.

En décembre 2015, Google a annoncé qu'il travaillait avec la NASA sur un ordinateur quantique.

Google publie souvent des tâches scientifiques sur des sujets tels que la reconnaissance d'images, la reconnaissance vocale. Plus de 460 publications sur l'intelligence artificielle ont été publiées au cours des deux dernières années. Voir http://research.google.com/pubs/ArtificialIntelligenceandMachineLearning.html.

Et ce n'est pas juste la théorie. Par exemple, Google affirme avoir implémenté l'expérience d'apprentissage en profondeur depuis 2012 dans plus de 47 produits. Voici un extrait:

  • Reconnaissance d'objets en images
  • Détection de type d'objet dans les vidéos
  • reconnaissance vocale
  • Passants pour les voitures autonomes
  • OCR: reconnaissance de texte en images
  • Reconnaissance d'un langage familier
  • Traduction automatique
  • Publicité en ligne

Le système d'apprentissage automatique de l'équipe Expander utilise des ressources naturelles, des images, des vidéos et des requêtes, pour alimenter traduction de la langue, reconnaissance des objets visuels, compréhension du dialogue, etc.

Google reconnaît lui-même que l’apprentissage automatique semi-supervisé (expliqué plus haut dans l’article) est utilisé.

Fondamentalement, la plateforme d'Expander combine l'apprentissage automatique semi-supervisé et l'apprentissage à grande échelle basé sur des graphes en créant une représentation multi-graphes du concept. Le graphique contient généralement des données étiquetées (nœuds associés à une catégorie de sortie connue ou une étiquette) et des données non étiquetées (nœuds pour lesquels aucune étiquette n'a été fournie).

Il est difficile de déterminer qui prend en charge l'étiquetage manuel ou la précognition sur Google. Il se peut que cela soit fait en fonction de la tâche effectuée par Quality-Rater et par un favorable Clickworker.

Pour en savoir plus sur les activités d'intelligence artificielle de Google, je vous recommande l'une des nombreuses conférences de Jeff Dean.

Au plus tard, avec l'introduction de l'extension d'algorithme de Hummingbird nommée Rankbrain, chaque référencement naturel devrait indiquer clairement que le thème de l'apprentissage automatique constituera un facteur de plus en plus important dans le classement.

Avant d’examiner les effets de ces activités sur l’optimisation des moteurs de recherche, je vais approfondir quelques conseils de lecture.

Sources sur l'apprentissage automatique et l'intelligence artificielle

Apprentissage en profondeur vs apprentissage automatique vs reconnaissance de formes

Apprentissage automatique expliqué en mots simples

Wikipedia: Apprentissage automatique

Introduction à l'apprentissage automatique

Rise of the Machines de JAX TV sur Vimeo.

Quel est le rôle de Rankbrain?

Selon Google, Rankbrain a été initialement appliqué principalement à 15-20% des requêtes précédemment non demandées. Rankbrain est appliqué à toutes les requêtes de recherche depuis juin 2016.

Rankbrain est cité par Google comme le troisième facteur de classement en importance. Le facteur de classement du terme Ber est source de confusion. Facteur de classement oui, signal de classement non. Et ici commence pour beaucoup de SEO l'incertitude, qui n'est en partie pas résolue par les déclarations contradictoires de Google.

Il y a deux questions qui occupent les SEO avec Rankbrain

  1. Rankbrain est-il responsable du raffinement de la requête ou de la classification et de l'interprétation des mots-clés, ou du scoring des URL?
  2. Rankbrain utilise-t-il des données utilisateur réelles, des données de formation provenant d’évaluateurs de recherche ou d’évaluateurs de qualité, ni aucun d’eux comme données de formation?

Voici les théories suivantes:

  1. Rankbrain n'est pas un signal de classement mais seulement responsable du raffinement de la requête
  2. Rankbrain est un signal de classement et participe donc à la notation des documents
  3. Outre Rankbrain, d’autres systèmes d’apprentissage automatique sont utilisés chez Hummingbird.

1. Rankbrain n'est pas un signal de classement mais seulement responsable du raffinement de la requête

Rankbrain n'est pas un facteur de classement classique, tel que Titres de page ou backlinks. Rankbrain est plutôt une mise à jour de l'algorithme de Hummingbird sous la forme d'une extension. En raison de la détermination de la proximité thématique par rapport aux termes déjà connus, Rankbrain peut classer les requêtes de recherche précédemment inconnues en contextes thématiques ou, en particulier, décomposer les requêtes complexes plus longues en dénominateurs communs. En conséquence, la signification peut être mieux interprétée et ainsi la requête de recherche inconnue peut être attribuée à des synonymes déjà connus ou à des termes de signification similaire ou identique. Rankbrain, en particulier lors de l’interprétation des requêtes de recherche, peut faire progresser Google.

Par exemple, Rankbrain a été présenté dans la première annonce de Google et Paul Haahr de Google a confirmé cette théorie lors du SMX Advanced 2016 dans cette interview avec Danny Sullivan (à partir de 3h00). Notez que Gary Illyes joue également un rôle de soutien, qui est mentionné ailleurs.

2. Rankbrain est un signal de classement et est donc impliqué dans la notation des documents

Rankbrain est directement impliqué dans l'évaluation du contenu de la page. Ici, certains modèles, le contenu approprié pour une requête particulière, doivent être identifiés à plusieurs reprises et utilisés pour le scoring. Mais il n'y a que quelques déclarations de Google. Il est assez frappant de constater que Gary Illyes, dans le rôle principal joué lors d'une séance de questions-réponses avec Danny Sullivan également au SMX Advanced 2016, a déclaré ce qui suit concernant Rankbrain (à partir de 5:40 minutes):

"C'est moins pour comprendre la requête que pour marquer les résultats …"

Danny Sullivan semblait être plus susceptible de partir de la première théorie qui lui avait été confirmée lors du même événement par son collègue Halyr des Illyes.

Très déroutant ce que Google communique ici.

3. En plus de Rankbrain, d’autres systèmes d’apprentissage automatique sont utilisés chez Hummingbird.

Une autre hypothèse est que, en plus de Rankbrain, d’autres parties de Hummingbird Machine Learning incluent également, par exemple, est utilisé pour la notation de sites Web. Mario Fischer également dans une discussion sur Facebook:

fischer_rankbrain Mario

Mario Fischer confus à propos de Rankbrain dans une discussion sur Facebook du 22.11.2016

J'ai demandé à John Mueller de Google dans le Webmaster Hangout du 01.12.2016 une réponse. Voici son opinion sur le rôle de Rankbrain:

John confirme la première des trois théories selon lesquelles Rankbrain n'est utilisé que pour interpréter les requêtes de recherche. La notation réelle des sites Web, qui assure le tri des résultats de la recherche, a lieu dans l'algorithme de Hummingbird. Indique si les signaux utilisateur sont utilisés ici en tant que données d'apprentissage pour l'interprétation des requêtes de recherche, par ex. être utilisé pour l'enquête n'est pas clair.

Rankbrain pour le raffinement de la requête

Je crois en la première déclaration de Google selon laquelle Rankbrain est utilisé comme moyen de raffinement de la requête, c'est-à-dire sur la page de la requête de recherche. Surtout que Paul Haahr m'a fait dans les deux vidéos l'impression beaucoup plus compétente et que Gary Illyes ne s'est pas produit pour la première fois avec un manque de satisfaction en matière de communication. Mais cela voudrait dire que Rankbrain n’est pas un facteur direct, contrairement à ce que dit Gary Illyes.

Je pense aussi qu’en plus de Rankbrain, d’autres systèmes d’apprentissage automatique, par exemple utilisé pour marquer les sites Web. Si ce n'est pas maintenant, alors à l'avenir. Je suis également convaincu que Google utilise également l'apprentissage automatique pour déterminer l'intention de recherche, y compris l'inclusion de données d'utilisateur réelles. Mais presque tout est spéculation ou acceptation à ce jour.

Rankbrain en tant que médiateur entre la requête de recherche et Hummingbird

Voyons comment fonctionne le moteur de recherche de Google.

La fonctionnalité de Google est divisée en gros dans les domaines suivants:

  • Ramper et indexer
  • Comprendre et développer les requêtes de recherche (y compris Rankbrain)
  • Récupération et notation (Hummingbird / Knowledge Graph)
  • Ajustements post-récupération (y compris Panda, Penguin)

Pour l'évaluation, l'évaluation de documents individuels indépendamment de la requête de recherche est par conséquent non pas Rankbrain responsable, mais l'algorithme de Hummingbird. Rankbrain n'interprète que les requêtes de recherche.

C'est ainsi que Google pourrait fonctionner aujourd'hui

Si on interprète déjà Gary Illyes presque un peu ennuyé et que sa réponse aux demandes de Rand Fishkins pourrait être utilisée, Rankbrain pourrait être utilisé pour pondérer différemment les facteurs de classement en fonction de l’intention de recherche. Cela influencerait donc le classement des documents.

Réclamez maintenant certains SEO qu'au moins dans la détermination de l'intention de recherche de Rankbrain Google sur des signaux d'utilisateur réels. Ich bin zuerst auch davon ausgegangen, aber laut Aussage von Gary Illyes scheint es nicht so. Zumindest keine Nutzersignale in der freien Online-Wildbahn.

It’s an offline learning algorithm. It’s refreshed every now and then with new training data.

Wenn man zwischen den Zeilen liest gibt es zwei Möglichkeiten:

  1. Google könnte Nutzersignale ihrer Such-Evaluatoren nutzen um auch die Suchintention zu ermitteln bzw. Keyword-Modellgruppen bezogen auf die Suchintention zu bilden.
  2. Google könnte Nutzersignale erfassen und als Trainingsdaten in das Offline Machine-Learning-System von Rankbrain einfließen lassen.

Aber alles pure Spekulation.

Kommen wir zum eigentlichen Scoring der Dokumente über Hummingbird.  Ich versuche, das mal mit Hilfe von Paul Haahrs Vortrag von der SMX West 2016 zu erklären, ohne es genau zu wissen.

Google klassifiziert laut Paul Haahr (Video weiter unten) Dokumente und Websites in sogenannte Shards innerhalb des Index. Laut Haahr gibt es tausende von verschiedenen Shards. Ich könnte mir vorstellen diese Shards sind nach Zweck des Dokuments und/oder Themenbereich im Index klassifiziert. Das für das Ranking relevante Gesamt-Scoring findet dann aus dem allgemeinen Scoring des Dokuments im Abgleich mit der über Rankbrain identifizierten Suchintention der Suchanfrage statt.

Paul Haahr zum Thema Scoring

Zu weiteren Theorien, zu was Rankbrain noch genutzt werden könnte empfehle ich die Präsentation von Kai Spriestersbach von der SEOkomm 2016. Die Einschätzung zum Einfluss der Engagement-Daten wie Absprungrate und CTR auf Rankbrain teile ich allerdings nicht voll und ganz.

Wir sollten bei Kais Präsentation vielleicht eher von Machine Learning bei Google und nicht explizit von Rankbrain sprechen.

Wer sich mit dem Thema beschäftigt sollte sich auch diese Keynote von Marcus Tandler ansehen:
Marcus Tandler Vortrag, Rise of the Machines

Welche Auswirkung kann Machine-Learning zukünftig auf das Ranking haben?

Ich denke, dass Machine Learning Funktionalitäten nicht erst bei Rankbrain, sondern bereits bei Hummingbird und der stetigen Weiterentwicklung bzw. Vergrößerung und Strukturierung des Knowledge Graph im Einsatz sind. Dass Machine Learning zur Spam-Bekämpfung z.B. im Rahmen des Pinguin-Algos zum Einsatz kommt wurde inzwischen durch eine Aussage von Google bzw. Gary Illyes wiedersprochen. Ich hoffe hier bleibt es auch bei dieser eindeutigen Aussage.

Ob Google jetzt schon Machine Learning für die Bewertung von Websites nutzt kann aufgrund der widersprüchlichen Aussagen aus dem Hause Google nicht beantwortet werden. Sinn würde es für die Zukunft machen.

Ich denke, dass Machine Learning bereits schon seit längerem zur Kategorisierung von Suchanfragen, Inhalten aber auch Entitäten ( Mehr zum Thema Semantik und Entitäten)  eingesetzt wird. Es muss ja nicht zwangsläufigüber Rankbrain sein. Die ein oder andere Prise Machine Learning könnte auch schon in den Hummingbird-Algo direkt eingeflossen sein.

Gerade in Kombination mit dem Knowledge Graph als semantische Datenbank hätte Google zwei mächtige Werkzeug an der Hand.

Hilfreich könnte hierfür auch ein  Google-Patent zur Nutzung von Knowledge Base Kategorien sein, über das man im Beitrag How Google Might Make Better Synonym Substitutions Using Knowledge Base Categories mehr erfahren kann.

Dafür, dass Google Suchanfragen bereits zu verschiedenen Kategorien zuordnet gibt es klare Anzeichen wie z.B. die Beobachtungen von Ross Hudgens zeigen.

google-disambiguation-1" width="500" height="381" srcset="https://www.sem-deutschland.de/wp-content/uploads/2016/01/google-disambiguation-1-e1451918253183.png 500w, https://www.sem-deutschland.de/wp-content/uploads/2016/01/google-disambiguation-1-e1451918253183-300x229.png 300w" data-lazy-sizes="(max-width: 500px) 100vw, 500px"/><noscript><img decoding=Entitäten-Katgeorien in Google Suggest: Quelle siehe obigen Link zu The SEM Post

Google versucht hier zwecks Eindeutigkeit Begriffe insbesondere Entitäten mit mehreren Bedeutungen je nach Kontext über Kategorisierung voneinander abzugrenzen. Auch in Google Trends kategorisiert Google Begriffe bereits nach Kategorien:

google-trends_apple" width="550" height="119" srcset="https://www.sem-deutschland.de/wp-content/uploads/2016/01/google-trends_apple-e1451919146467.png 550w, https://www.sem-deutschland.de/wp-content/uploads/2016/01/google-trends_apple-e1451919146467-300x65.png 300w" data-lazy-sizes="(max-width: 550px) 100vw, 550px"/><noscript><img decoding=Bestärkendes-Lernen" width="570" height="297" srcset="https://www.sem-deutschland.de/wp-content/uploads/2015/12/Bestärkendes-Lernen.jpg 973w, https://www.sem-deutschland.de/wp-content/uploads/2015/12/Bestärkendes-Lernen-300x156.jpg 300w, https://www.sem-deutschland.de/wp-content/uploads/2015/12/Bestärkendes-Lernen-600x313.jpg 600w" data-lazy-sizes="(max-width: 570px) 100vw, 570px"/><noscript><img decoding=Machine-Learning-Pozess: Bestärkendes Lernen / Quelle: http://www.slideshare.net/rahuldausa/introduction-to-machine-learning-38791937

Ob nun die Nutzerdaten oder das Feedback der Such-Evaluatoren bzw. Quality-Rater oder sogar beide Gruppen das bestärkende Element für den Algorithmus sind kann man nur erraten…

Das alles ist reichhaltiges Futter für die selbst lernende Weiterentwicklung der Ranking-Algorithmen und dadurch teils sehr individuelle Suchergebnisse pro Nutzer.

Ich glaube, dass die bisherigen Einsatzgebiete für Machine Learning bei Google nur der Anfang sind. So könnten theoretisch selbstlernende Algorithmen auch für alle vorkommenden Suchanfragen angewandt werden, nicht nur wie bei Rankbrain auf die bisher unbekannten Suchwörter.  Doch welche Auswirkungen hätte das Ganze für SEOs?

Welche Auswirkung haben selbst lernende Algorithmen auf  SEO?

Machine Learning als Teil des  Ranking-Algorithmus könnte dafür sorgen, dass Google zukünftig auf die Optimierung von statischen Rankingsignalen durch Webmaster und SEOs nicht mehr angewiesen ist.

Die Implementierung von strukturierten Daten in Form von Mark-Ups hat in der Vergangenheit nur sehr schleppend stattgefunden. So hat eine Untersuchung des Tool-Anbieters Searchmetrics aus dem Jahr 2014 ergeben, dass nur 0,3% der untersuchten Websites auf Schema.org Mark Ups setzen. Die Daten stammen aus Herbst 2013 und es ist anzunehmen. dass sich hier inzwischen etwas getan hat. Ich denke, aber das Google lieber auch ohne der technischen Mithilfe von Webmastern, Redakteuren und SEOs erkennen möchte, was sich hinter einem Inhaltsbaustein verbirgt. Die meisten Inhalts-Verantwortlichen kennen sich mit Mark-Ups nicht aus und wollen sich auch zukünftig nicht damit beschäftigen. Deswegen ist es für Google umso wichtiger Inhaltselemente auch ohne die Ausweisung strukturierter Daten zu interpretieren.

Auch was Optimierungen der Seitentitel, Alt-Tags von Bildern, etc. angeht haben viele Websites immer noch Nachholbedarf.

Anhand selbst lernender pro Nutzer individueller Such-Algorithmen kann Google alle Dimensionen bezogen auf den situativen Kontexts des jeweiligen Nutzers berücksichtigen. Jeder Nutzer hätte damit komplett eigene Suchergebnisse. Das wäre der letzte Schritt von Google zur Entmanipulierung ihrer Suchergebnisse.

Die Folgen für SEOs noch einmal kurz zusammengefasst:

  • Noch personalisiertere Suchergebnisse als bisher nach Kontext des Nutzers
  • Nur noch bedingte Mithilfe durch SEOs bzw. Webmaster für Google notwendig
  • Manipulierung der Suchergebnisse quasi nicht mehr möglich
  • Einfluss statischer Rankingfaktoren wie Seitentitel, Backlinks, Nutzung von Keywords, Alt-Tags für Bilder … nimmt weiter ab
  • Aktive Optimierung  nur für Suchmaschinen verliert noch mehr an Wichtigkeit

Das Ganze ist natürlich Zukunftsmusik und wann und ob überhaupt Google das Ranking komplett selbst lernenden Algorithmen übergibt bleibt abzuwarten. Dies würde mit einem nahezu kompletten Kontrollverlust durch Google einhergehen. Somit könnte Google überhaupt nicht mehr nachvollziehen, warum Rankings für den einen Nutzer so und für den anderen Nutzer so aussehen. Laut Aussage von John Mueller scheint der anarchistische Algorithmus auch bisher nicht angedacht, wie aus seiner Aussage aus dem Webmaster Hangout Anfang Dezember zu entnehmen ist:

Wir machen viel mit Machine Leraning, das ist ein faszinierendes Feld. Manchmal ist es spannend, dass die maschinellen Algorithmen auf etwas kommen, an das wir sonst nicht gedacht hätten. Dann versuchen wir herauszufinden, wie die Algorithmen darauf gekommen sind.

Es ist jedoch oft schwer, in dieser Umgebung die Fehler zu finden. Wenn wir also einen nur maschinell lernenden Algorithmus hätten, der alles macht, dann würde es sehrschwerwerden potentielle Fehler zu finden und zu beheben.

Man muss also die richtige Balancezwischen den verschiedenen Algorithmen finden. Alles muss reproduzierbar und verständlich sein, aber es muss auch Raum für Neuerungen geben.

Google scheint hier selbst noch nicht sicher zu sein wie viel  Kontrolle sie an selbst lernende Algorithmen abgeben wollen. Wir werden es in Zukunft sehen oder auch nicht …

Mehr zum Thema Semantik und Machine Learning kann man hier bei uns im Blog lesen >>>

Expertenstimmen zum Einfluss von Machine Learning auf SEO

Hier einige weitere exklusive Stimmen von geschätzten Kollegen und SEO-Experten zu der Thematik Machine Learning und SEO:

Christian_KunzChristian Kunz:  Christian ist Inhaber der Webseite SEO Südwest und Senior Project Manager Search bei 1&1. Dort ist er unter anderem für die Suche-Projekte der Marken WEB.DE und GMX verantwortlich.

Für die SEOs wird sich nur wenig ändern. Pourquoi? Dazu muss man sich den Wirkungskreislauf von SEO-Maßnahmen, Nutzersignalen und den durch maschinelles Lernen angepassten Rankingfaktoren ansehen. Gehen wir aus vom wichtigsten Indikator, den eine Webseite an Google sendet: den Nutzersignalen. Dazu gehören zum Beispiel die Verweildauer, die Absprungrate, aber auch die Gesamtzahl der Besuche und der Page Impressions. Anhand dieser Nutzersignale kann Google erkennen, ob eine Webseite den Bedürfnissen der Besucher entspricht. Wird die Seite häufig besucht, gibt es viele wiederkehrende Besucher und bleiben diese länger auf der Seite, dann kann davon ausgegangen werden, dass die Inhalte der Seite den Besuchern gefallen.

Google verwendet die besonders beliebten Seiten (und damit meine ich nicht nur die großen Webseiten, sondern zum Beispiel auch kleine Nischenseiten zu speziellen Themen) und analysiert deren Aufbau. Dabei werden nicht nur die Inhalte bewertet, sondern zum Beispiel auch die Navigation, die Seitenstruktur, das Verhältnis von Text zu Bildern und so weiter. Natürlich weiß außer einem kleinen Kreis von Google-Mitarbeitern niemand genau, wie genau diese Analyse abläuft und welche Faktoren betrachtet werden. Man kann aber mit ziemlicher Sicherheit davon ausgehen, dass die beliebten Seiten als Blaupause für die Bewertung weiterer Webseiten genutzt werden. Dabei können sich die Rankingfaktoren und deren Gewichtung immer wieder ändern. Umso mehr eine Webseite dem jeweiligen Idealbild entspricht, desto besser die Rankingchancen der Seite.

Hier kommt die Suchmaschinenoptimierung ins Spiel: Aufgabe der SEOs ist es, die Webseiten ihrer Kunden an die jeweils aktuellen Rankingfaktoren anzupassen. Wenn zum Beispiel gerade das Thema Mobilfreundlichkeit wichtig ist, dann muss dafür gesorgt werden, die Webseite des Kunden für die Darstellung auf Smartphones zu optimieren. Geht es um sichere Datenübertragung, muss die Webseite auf TLS und idealerweise auf HTTP/2 portiert werden und so weiter.

Die SEO-Maßnahmen wirken sich wiederum auf die Nutzersignale aus, die dann zur weiteren Anpassung der Rankingfaktoren führen können – ein sich fortsetzender Kreislauf also.

Die Arbeit der SEOs ändert sich im Vergleich zu früher nicht viel, denn sie sind weiterhin im Unklaren darüber, welche Rankingfaktoren mit welchem Gewicht wirken. Sie können nur spekulieren. Der Unterschied zum alten Vorgehen besteht in zwei Dingen: Erstens werden sich die Rankingfaktoren zukünftig schneller ändern, denn maschinelles Lernen wird Anpassungen nahezu in Echtzeit ermöglichen. Zweitens werden Nutzersignale wie die Verweildauer oder die Absprungrate noch wichtiger als schon in der Vergangenheit, denn sie werden die Hauptindikatoren für Google zur Bewertung der Webseitenqualität sein.

Bei alldem darf natürlich nicht vergessen werden, dass es neben dem beschriebenen Mechanismus weiterhin auch andere Rankingfaktoren geben wird, die konstant bleiben. Die Relevanz der Inhalte auf einer Webseite zur jeweiligen Suchanfrage wird genauso einfließen wie die Autorität der Webseite, gemessen an Backlinks und Signalen aus den sozialen Netzwerken.

markus-HoevenerMarkus Hövener: Markus ist Gründer und Head of SEO der auf SEO und SEM spezialisierten Online-Marketing-Agentur Bloofusion (www.bloofusion.de). Als geschäftsführender Gesellschafter von Bloofusion Germany ist er verantwortlich für alle Aktivitäten in Deutschland, Österreich und der Schweiz. Markus Hövener ist Chefredakteur des Magazins suchradar (www.suchradar.de) und Blogger bei den Internetkapitänen (www.internetkapitaene.de). Außerdem ist er Autor vieler Artikel und Studien rund um SEO und SEM und spricht auf vielen Online-Marketing-Konferenzen.

Grundsätzlich ist Machine Learning für Google ja nichts neues. Die haben zwar erst vor einigen Wochen TensorFlow („Open Source Software Library for Machine Intelligence“) veröffentlicht, aber das Thema verfolgt Google ja schon seit langem. So basiert ja schon das Panda-Update auf dem, was Googles Maschinen aus guten und schlechten Websites lernen konnten.

Für Google ist Machine Learning wahnsinnig wichtig, da sie so effizient arbeiten können und aus den gewaltigen Datenmengen Sinn machen können. Für klassisches SEO ist das natürlich der Exodus: Man kann Google halt nicht mehr mit einfachen Mitteln reinlegen und etwas mit geringer Qualität in etwas verwandeln, das Google trotzdem mag.

Für SEOs ergibt sich also ein Nachteil – aber zeitgleich auch ein Vorteil, denn es geht ja schon lange nicht mehr darum, eine bestimmte Keyword-Dichte einzuhalten. Es geht für uns als Agentur wirklich darum, den Kunden dahin zu bringen, eine erstklassige Website mit herausragenden Inhalten zu haben.

Marcus-ToberMarcus Tober: Marcus  ist nicht nur als Gründer, Geschäftsführer und treibende Kraft von Searchmetrics über einschlägige SEO Kreise hinaus bekannt, sondern auch als Impulsgeber und Experte auf vielen internationalen Bühnen: Der „Big Data und Statistik-Freak“ (Tober über Tober) ist bei Kongressen, Symposien und Think Tanks weltweit ein gefragter Gast und Keynote Speaker.

In 2016 wird für den SEO explizites Analysieren oder Anwenden von Machine Learning Funktionen nicht Bestandteil der Arbeit sein. Auch wenn Machine Learning längst allgegenwärtig ist und die Grundlage für zig Updates die Suchmaschinen in den letzten Jahren gemacht haben. Was bedeutet das? Suchmaschinen benutzen schon seit vielen Jahren die gelernten Daten aus vorherigen Updates (Panda 1,2,3 etc, Penguin) und mache täglich Tests aus denen sie wiederum Anpassungen vornehmen die zu weiteren Updates führen. Bei Google ist der ständige Everflux, quasi die andauernde Bewegung der Ergebnisse.

Userdaten dienen mindestens dazu zu bewerten ob die Features die Google eingebaut oder geändert zu Verbesserungen geführt hat. Für uns SEOs heißt das ingesamt dass die abhängig von guten Ergebnissen (Rankings) weniger von nur ein paar Faktoren abhängt. Vielmehr müssen SEOs immer den Kontext berücksichtigen. Sprich die Faktoren warum eine Page erfolgreich ist können stark abweichen wenn man verschiedene Branchen oder Keywords zwischen Shorthead und Longtail betrachtet. 2016 wird sich also der Trend fortsetzen dass sich SEO je nach Webseite, Branche und natürlich Gerät (Desktop, Mobile) ändern wird und man unterschiedliche Strategien braucht um holistisch erfolgreich zu werden.

sebastian-erlhofer_mindshapeSebastian Erlhofer: Sebastian  ist geschäftsführender Gesellschafter der mindshape GmbH aus Köln und Bestsellerautor des Buches „Suchmaschinen-Optimierung“. Er betreibt SEO seit 2002 und freut sich auf die nächste SEO-Dekade

Als Suchmaschinen-Optimierer ist man ja gewohnt, regelmäßig sich mit neuen Technologien und Bewertungsmechanismen auseinander zu setzen. Vor 10 Jahren waren es noch ganz einfache statistische Verfahren, die ein Dokumententreffer und ein Ranking ausmachten: Wenn ein bestimmtes Keyword in der Meta-Beschreibung stand, dann kam das Dokument in die Treffermenge. Und wenn das Keyword noch häufig vorkam im Dokument, dann wurde dieses auch gut geranked. Heute ist – wie jeder SEO weiß – die ganze Geschichte etwas vielfältiger. Nach der Keyworddichte kam WDF*IDF und mittlerweile geht es um holistische, verständliche und nutzerorientierte Texte, die möglichst multimodal mit Videos, Infografiken und Co aufbereitet sein sollen. Links verlieren stetig an Bedeutung bzw. die Qualität der Links ist immer wichtiger. Soweit so klar.
Was verändert maschinelles Lernen dann eigentlich? Meiner Meinung nach ist das eine weitere Stufe in der Suchmaschinen-Optimierung. Mit zunehmender Rechnerkapazität und verstärkter Forschung werden Computerprogramme immer besser darin, bestimmte Entitäten zu verstehen, zu klassifizieren und letztendlich Rankings zu generieren. Irgendwann – aber das ist meiner Meinung nach noch Jahre entfernt – wird maschinelles Lernen eingesetzt werden können, damit Algorithmen sich selbst optimieren und verbessern. Hier sind wir dann im Bereich der künstlichen Intelligenz oder vielleicht sogar von künstlichen Lebensformen. Die Einflüsse des maschinellen Lernens auf SEO sind schleichend. RankBrain und Co. kommen Stück für Stück und die Forschungsergebnisse von den schlausten Forschern, die sich Google weltweit kaufen kann, werden über die nächsten Jahre spannende „Rankingfaktoren“ produzieren.

Ich denke nicht, dass wir in den nächsten zwei bis drei Jahren signifikante Auswirkungen auf unsere Arbeit als SEOs spüren werden – nicht anders als sonst auch: Es werden neue Verfahren kommen und wir werden versuchen, sie zu verstehen und zu optimieren. Im Vergleich zu Beispielen aus der Vergangenheit, etwa WDF*IDF, werden allerdings noch mehr SEOs thematisch aussteigen. Heute schon können viele SEOs kaum die Hintergründe von WDF*IDF korrekt und vollständig erklären. Man nutzt die Tools und gut ist. Das reicht auch, um hier und da gut zu optimieren und Dienstleistungen zu verkaufen. Der Einäugige ist unter den Blinden immer der Sehende. Aber maschinelles Lernen mit neuronalen Netzen, Entscheidungsalgorithmen und anderen Dingen sind nicht für Laien verständlich – ich habe selbst im Informatikstudium mich alleine nur mit den Grundlagen beschäftigt (d.h. vor allem viel Mathematik die dahinter steckt) und es ist wahnsinnig komplex. Seit mittlerweile Generationen beschäftigen sich Forscher damit, Computerprogrammen das Lesen und Verstehen von Texten beizubringen. Wir sollten als SEOs nicht den Anspruch haben, das verstehen zu können oder zu wollen.

Wir sollten trotz des Fortschritts auf technischer Seite das im Fokus behalten, was unsere Arbeit ausmacht: Produkte und Dienstleistungen von unseren Kunden in den Suchergebnissen sichtbarer machen (um SEO einmal ganz klassisch zu definieren). Wir müssen Abschied nehmen von Glaubenssätzen wie „das hat bei anderen Sites auch so funktioniert“ und wir müssen uns verabschieden von den Tipps und Tricks, den Abkürzungen, die es früher gab, um schneller zu optimieren. Ich freue mich auf das jetzige und zukünftige SEO, weil es gezwungen nachhaltiger wird und damit zwingend auf den Menschen fokussiert werden muss. Nicht mehr auf Google. Denn spätestens wenn in ein paar Jahren maschinelles Lernen große Teile im Algorithmus ausmacht, und daran glaube ich definitiv, wird auch kein Ingenieur bei Google mehr irgendwelche logischen Zusammenhänge erklären können. Das können Sie heute im Prinzip schon nicht mehr. Am Ende können wir alle dann nur noch versuchen, die Entscheidungen des Rankalgorithmus nachzuvollziehen. Eben genau so, wie wir Entscheidungen von Mitmenschen nicht immer detailliert in ihre Bestandteile sezieren können, aber wir können sie nachvollziehen. Ich freu mich drauf!

marcel-schrepelMarcel Schrepel: Marcel  ist Geschäftsführer und Gründer der Onlinemarketing-Agentur trust in time in Berlin. Die fachlichen Schwerpunkte der Agentur liegen im Suchmaschinenmarketing für D-A-CH und Russland (Yandex). Marcel ist überzeugter Slow-Blogger und schreibt Fachartikel über Suchmaschinenoptimierung (SEO), Google und die moderne Welt des Web 2.0.  Er beschäftigt sich gerne mit Strategieentwicklung und Kommunikationswissenschaft und ist nebenbei als Lehrbeauftragter tätig.

Durch die Digitale Revolution und die Computerisierung unserer Gesellschaft, haben sich Kommunikations- und Informationsprozesse seit der Jahrtausendwende gewaltig geändert. Fast alles ist digitalisiert und Nutzer- sowie Nutzerverhalten lassen sich immer besser in Form von Daten darstellen. Durch die zunehmende mobile Nutzung lässt sich das Nutzungsverhalten von Menschen auf immer mehr Ebenen messen und algorithmisch aus- und verwerten.
Maschinelles Lernen gibt es nicht erst seit gestern. Das Finden von Gesetzmäßigkeiten in Daten ist meiner Meinung nach die Kernfunktion von Google (Information Retrieval System).

Man sollte meinen, dass man aus all diesen Modellen, da stark datengetrieben, SEO relevante Muster und Daten generieren kann, die man strategisch einsetzen kann. Viele verwechseln das immer noch mit Korrelationen. Man vergisst gerne schnell die Komplexität, mit der Algorithmen heutzutage arbeiten. Google-Algorithmen, KI-Modelle und erhobene Daten – das sind alles Variablen in einer „SEO-Rechnung“, die wir nicht kennen, auch wenn das vor 10 Jahren vielleicht noch anders war.

Menschen sind launisch und verändern ihre Gewohnheiten. Lebenslagen und Jobs wechseln. Krankheit, Heirat, Kinder sind einschlägige Ereignisse. Algorithmen werden von diesen Veränderungen lernen, inwiefern sich ein Nutzer anders im Netz bewegt.

„Emotionale Intelligenz“ ist das Stichwort.

Suchmaschinen wie Google wollen auch genau das lernen, damit der Algorithmus eine gewisse Flexibilität besitzt. Durch Machine Learning bedarf es keiner ständigen Einspielung separater Algorithmen oder Algorithmus-Updates – durch Machine Learning selbst wird ein Algorithmus erst flexibel und erweitert sein „Wissen“ auf selbstständige Art und Weise – dauerhaft und zeitgemäß.

Google wird in nicht allzu ferner Zukunft in der Lage sein, Menschen zu verstehen, sie kennen zu lernen und zu erahnen, was sie als nächstes tun werden. Aktuell arbeitet Google schon mit Mustern, z.B. die personalisierte Suche oder Hummingbird.

Dem ein oder anderen dürfte vielleicht das „Google Opinion Reward“ – Programm etwas sagen.

https://www.google.com/insights/consumersurveys/google_opinion_rewards

Auf den ersten Blick scheint dies wie ein Tool für Marktforscher zu wirken. Denkt man das Ganze aber etwas utopischer in die Höhe, so könnte Google theoretisch mit solchen Umfragen auch wertvolle Zusatzdaten über einen Nutzer generieren. Daten, die sich nicht aus dem normalen Sucherverhalten schöpfen lassen, die aber zur Erstellung von Lern-Modellen unbedingt benötigt werden. Quasi ein Vorzeigedatensatz zur Referenzierung in den Lern-Algorithmen.
Das Gleiche unterstelle ich Facebook mit dem Kauf von WhatsApp.

Ich denke, dass sich SEO weiterhin in eine empathiegetriebene, zielgruppenorientierte Richtung entwickeln wird, was ja einige SEO´s schon länger praktizieren. Alleine deswegen, weil SEO längst nicht mehr rein datengetrieben funktioniert. Conversion Prozesse sind längst nicht mehr einzig und allein an die Auffindbarkeit eines Angebots gekoppelt. Traffic allein ist kein Garant für eine Conversion.

Ich denke, dass Machine Learning nur ein Faktor von etlichen ist, der dafür sorgen wird, dass einheitliche Rankings verschwinden werden. Schon jetzt sind die Unterschiede messbar.

ipHPDCE_Kai Spriestersbach: Kai ist Online Strategy Consultant und strategischer Partner der eology GmbH sowie Inhaber der strategischen SEO-Beratung SEARCH ONE. Er berät und begleitet ausgewählte Kunden bei der Positionierung im Internet sowie der Verbesserung ihrer Online-Präsenz mit Blick auf die Sichtbarkeit in den Suchmaschinen. Derzeit forscht und entwickelt er an neuen Ansätzen für Marketing Software sowie Website-Projekten und bereitet sein erstes Buchprojekt vor.

In der näheren Zukunft stehen uns spannende Veränderungen ins Haus. Aber Machine Learning ist nicht neu. Die beiden Updates Panda und Penguin basieren bereits auf Machine Learning Technologie und werden nun zu einem sich kontinuierlich selbst verbessernden System ausgebaut. Anhand der Informationen über das Panda Update, die allesamt sehr vage und auf einem sehr viel abstrakteren Level waren (z.b. Würden Sie dieser Seite Ihre Kreditkarteninformationen anvertrauen) wird klar, dass es in Zukunft noch weniger Informationen von Google über Updates und direkte Rankingfaktoren geben wird.

Zum einen liegt das daran, dass Deep Learning Algorithmen selbst erkennen, welche Metriken relevant sind und die Engineers bei Google keinen Einfluß mehr darauf haben und zum anderen sehr viel mehr Daten in das Ranking einfließen werden. Hier bei ist alles vorstellbar – Googles Mitarbeiter sind sehr kreativ – wieso nicht die (auf den ersten Blick) absurdesten Informationen über Webseiten einfach mal in das System kippen und die Maschine untersuchen zu lassen, was davon sich als Rankingfaktor eignet.

Deutlich wichtiger und auch sehr viel schneller spürbar werden Nutzerdaten in das Ranking einfließen. Eine schlechte Seite wird trotz toller Optimierung und vieler Links alleine durch die Signale unzufriedener Nutzer nach unten rutschen. Das ist zwar bisher schon der Fall, allerdings nur bei sehr großen Suchvolumen und über längere Zeiträume. Hier wird Google sehr viel schneller reagieren können.

Ich betrachte selbst die Entwicklungen als sehr positiv, denn wer sich darauf konzentriert den Nutzern genau das zu bieten, was diese Suchen, wird sehr viel stärker profitieren als bisher.

_DSC7219Sepita Ansari: Sepita, Geschäftsführer der Catbird Seat GmbH, ist einer der anerkanntesten SEO-Experten in Deutschland. Seit 2005 beschäftigt sich Sepita Ansari mit Online Marketing. Der Wirtschafts-und Sozialwissenschaftler war 3 Jahre bei der Scout24-Gruppe tätig und hat dort das JobScout24-Online Team geleitet.

Früher bedienten wir die Technik, heute dient die Technik uns und lernt und interagiert mit uns. Dank zahlreicher Sensoren, ist ein interaktiver Umgang mit Computern möglich geworden, dabei ist das Smartphone zum persönlichen Alltagsmanager geworden. Algorithmen und die künstliche Intelligenz „verstehen“ zunehmend den Bedeutungszusammenhang und liefern relevante Ergebnisse. Diese Maschinen werden uns weiter unterstützen und gar imitieren, ersetzen werden sie uns aber nicht.

Mit Hilfe von Daten können Suchmaschinen (mit stochastischer Wahrscheinlichkeit) das menschliche Suchverhalten vorhersagen, mit Hilfe von Mathematik kann die Suchvergangenheit erklärt werden. Die Zukunft kann jedoch nicht mit 100% Güte prognostiziert werden. Da unser menschliches (Such-)Verhalten auf individuellen Interpretationen und Bewertungen beruht, kann eine Maschine dieses noch schwer vorhersehen, aber sehr gut erklären. Diese Erklärbarkeit der Daten wird auch im SEO zum erfolgsentscheidenden Kriterium: Inhalte müssen individuell ansprechen, strukturiert sein und optimal innerhalb der User Journey auf den verschiedenen Medien und Geräten auf den Nutzer zugeschnitten werden. Damit wird die Datenstruktur, die -transparenz und –validität zu einem wichtigen Faktor innerhalb der Suchmaschinenoptimierung.

(poll id = "2")

Weitere Beiträge zum Thema Machine Learning und SEO

Videos zum Thema Machine Learning und Artificial Intelligence

Guide de pratique des étiquettes canoniques

Avec les balises Canonical, les webmasters et les référenceurs peuvent facilement éviter les doublons. Cependant, il y a quelques points à garder à l’esprit pour ne pas perdre les avantages de la balise.

Dans ce guide, vous apprendrez donc tout ce qui est important à propos du Jour Canonical, quand il peut être utilisé et à quoi vous devriez prêter attention.

Ce que vous devez savoir sur le tag Canonical

En février 2009, Google a fusionné avec les moteurs de recherche de Microsoft et de Yahoo pour prendre en charge le tag Canonical. Dans le blog de la société, cela a également été annoncé comme un soulagement pour les webmasters:

“Carpe diem concerne tout contenu en double: nous prenons désormais en charge un format qui vous permet de spécifier votre version préférée d’une URL.” (Source)

Cet élément est un méta-type qui peut être inséré dans la zone d’en-tête d’un site Web. La balise affiche les moteurs de recherche rel = canoniques sur deux pages identiques avec des URL différentes, l’original. De cette manière, l’URL canonique en double est ignorée et seule l’URL canonique est indexée.

L’élément HTML s’appelle non seulement Canonical Tag, mais aussi Canonical-Link ou simplement “Canonical”. Utilisé correctement, Canonical Tag évite les doublons de contenu et vous aide à optimiser le moteur de recherche.

Les avantages des balises Canonical pour l’optimisation des moteurs de recherche

Si vous incluez une URL canonique spécifique en tant que balise dans le code source, vous aiderez les moteurs de recherche à gérer votre site Web. En effet, les moteurs de recherche apprennent que ce n’est pas l’exploration en cours, mais que l’URL référencée doit être indexée. Si les liens font déjà référence aux doublons, leur puissance de lien est transférée à l’URL canonique grâce à Canonical. Dans le même temps, vous évitez que Google sélectionne une URL à indexer sur plusieurs URL similaires, comme une URL utilisant http au lieu de https.

Comment une balise Canonical est-elle implémentée correctement?

Vous pouvez spécifier une URL canonique de deux manières différentes. C’est ainsi que la journée peut être passée dans laSection du document HTML ou dans l’en-tête http. Cependant, une implémentation dans l’en-tête HTML est recommandée. D’une part, car il est techniquement très facile à mettre en œuvre là-bas. D’autre part, parce que Google la journée dans d’autres domaines, tels que dans le

, ignoré. De nombreux systèmes de gestion de contenu offrent la possibilité de connecter Canonicals à l’en-tête HTML.

Dans certains documents, toutefois, la balise canonique ne peut pas être placée en HTML. Par exemple, les documents PDF ne sont pas HTML, les balises Canonical ne peuvent donc pas être utilisées dessus.Les zones sont placées. Ici, vous devez inévitablement être utilisé sur l’en-tête http.

exemple:

Supposons que votre page Web comporte deux URL différentes qui ont presque exactement le même contenu. Peut-être sont-ils simplement différents d’un autre menu ou d’un bouton. Il y a déjà des liens des deux côtés. Au lieu de laisser à Google le choix de l’une de ces deux URL à afficher dans les SERP, vous pouvez désormais choisir une URL canonique.

Supposons que les deux URL ressemblent à ceci:

1. http://meineseite.de/seotipps

2. http://myeseite.de/seotipps-aktuell

Nous décidons maintenant que la première URL devrait être l’URL canonique. En pratique, vous devez choisir la page la plus pertinente, la page avec l’URL la plus courte ou la page contenant le plus de liens en tant qu’URL canonique.

Maintenant, vous ajoutez le rel = canonique sur le duplicata dansRégion. Cela ressemble à ceci:

Google et les autres moteurs de recherche “savent maintenant” qu’il existe une version canonique de ce site à considérer lors de l’indexation. Les liens vers les deux URL comptent alors pour l’URL canonique. Vous avez donc mis en place une sorte de “redirection en douceur” sans rediriger l’utilisateur.

Coller l’étiquette canonique dans l’en-tête http

Si votre ressource est un document PDF ou un autre type de document pris en charge par Google, la balise Canonical sera implémentée dans l’en-tête http. Vous devez considérer une syntaxe différente.

Reprenons l’exemple ci-dessus, mais cette fois le deuxième document est une source PDF:

1. http://meineseite.de/seotipps

2. http://myeseite.de/seotipps-aktuell.pdf

La ligne suivante est insérée dans l’en-tête http du document PDF:

lien: ; rel = “canonical”

Google prend actuellement en charge les balises Canonical dans l’en-tête http uniquement dans les recherches sur le Web.

Quatre exemples d’application pour les balises Canonical

1. Référence à vous-même

Fondamentalement, il est recommandé que chaque site Web se réfère à lui-même par Canonical, sauf s’il en existe un duplicata. Les balises canoniques sont évidentes lorsqu’une sous-page sur différentes variantes de la même URL est disponible – cela comprend les identifiants de session et d’affilié, les adresses http ou https et les URL avec ou sans www.

Par exemple, les systèmes canoniques auto-référentiels peuvent empêcher le moteur de recherche d’ajouter une URL de campagne à l’index. Cela permet également de protéger votre site contre les attaques de référencement négatives et les pertes de classement associées. Notamment pour cette raison, Google recommande également cette approche.

2. Un produit dans une boutique en ligne est accessible via plusieurs catégories

Les boutiques en ligne rencontrent souvent des problèmes de duplication de contenu. Ces problèmes surviennent généralement lorsque le même produit est disponible dans différentes catégories via différentes URL.

Prenons l’exemple d’une boutique en ligne de baskets. Le modèle en rouge est disponible pour les hommes et les femmes et en même temps dans la catégorie “chaussures de sport” classée. Cela donne quatre URL avec le même contenu:

1. http://www.schuhu.de/sneaker-red

2. http://www.schuhu.de/herren/sneaker-rot

3. http://www.schuhu.de/damen/sneaker-rot

4. http://www.schuhu.de/freizeitschuhe/sneaker-rot

Pour répartir au mieux le lien vers une URL tout en évitant les doublons, vous choisissez la première URL en tant qu’URL canonique. Dans ce cas, vous ajoutez dansGamme des trois autres URL du Canonical:

De nombreux systèmes de magasin utilisent déjà l’automatisation de Canonicals. Généralement, la balise Canonical est placée sur la page principale du produit.

3. Avoir des versions imprimées des URL référencées à la version canonique

Le contenu peut souvent être converti en version imprimée non seulement dans les boutiques en ligne, mais également sur les sites Web d’actualités ou sur les sites Web de grandes entreprises. Certains CMS peuvent créer une telle version imprimée en cliquant sur. Cette transformation crée généralement sa propre URL, qui dans le pire des cas est référencée dans l’index des moteurs de recherche. De cette manière, toutefois, un contenu dupliqué est généré, ce qui peut également entraîner une restriction non désirable de la convivialité en même temps. Par exemple, si un utilisateur ouvre un fichier PDF indexé, il ne pourra pas naviguer dans ce fichier ou ne reviendra pas sur votre site Web.

Dans ce cas, une balise Canonical dans l’en-tête http du fichier d’impression ou PDF peut apporter une solution. La balise pointe ensuite sur l’URL d’origine, qui sera éventuellement indexée.

Astuce: Si vous modifiez la structure des URL de votre site Web, vous devez dans ce cas non seulement rediriger, mais toujours vérifier les balises Canonical existantes. Incidemment, cela s’applique également lorsque le protocole est modifié, par exemple lors du passage de http à https.

4. Canoniques pour la liaison de domaines croisés

Une balise canonique peut également être utilisée pour désigner l’auteur d’un article ou d’un message original. Par exemple, il est possible qu’une publication dans le magazine OnPage soit utilisée sur une autre page pour une nouvelle publication. Pour que Google et les autres moteurs de recherche soient référés à l’original, le republisher définit un lien canonique vers le magazine OnPage.

Dans ce cas, les autres utilisateurs peuvent lire l’article original sur d’autres sites Web. Dans l’index des moteurs de recherche, seul l’article principal apparaîtra.

5. rel = canonique en combinaison avec hreflang

Si vous marquez votre site Web avec hreflang pour indiquer les versions de pays et de langue pour les moteurs de recherche, vous devez utiliser rel = canonical. Chaque version linguistique se réfère à elle-même par Canonical.

Erreurs courantes lors de l’utilisation d’étiquettes canoniques

Il existe de nombreux cas où l’utilisation abusive de rel = canonique peut entraîner de réels problèmes. Par exemple, une définition incorrecte de Canonical peut entraîner la disparition involontaire d’une URL de l’index Google et la disparition de son itinérance.

Pour cette raison, vous devriez éviter les erreurs suivantes.

    • Lien relatif: Utilisez toujours l’URL complète si vous mettez une balise Canonical. De nombreux CMS utilisent des liens relatifs pour les liens internes. Mais Google ne peut pas gérer ce lien et ignore ensuite les Canonicals.

 

    • Utilisation multiple de Canonicals sur une seule page: Utilisez une seule balise canonique sur chaque page. Si plusieurs Canonicals existent, les moteurs de recherche ne comprennent plus l’instruction. Cela peut mener au chaos et à des résultats indésirables. Dans le pire des cas, les pages censées être classées ne seront plus indexées.

 

    • Balises canoniques sur un déplacement de domaine: N’utilisez pas de balises canoniques lors du déplacement vers un nouveau domaine. Utilisez plutôt les redirections 301. Si la “redirection” se produit uniquement via Canonical, les moteurs de recherche risquent d’être confus. Dans le pire des cas, les URL de l’ancien et du nouveau domaine de l’index. Pour les utilisateurs, cette confusion est encore plus grave car ils peuvent toujours invoquer l’ancienne URL sans être redirigés vers la nouvelle.

 

    • normes URL: Lorsque vous définissez des tags Canonical, veillez à utiliser l’orthographe exacte de l’URL. Définissez les barres obliques de fin, si elles existent, et spécifiez l’URL exactement avec ou sans www, comme elle est généralement accessible. Par exemple, si vous faites référence depuis une page www à une page non www avec un nom canonique, ce pointeur de moteur de recherche ne sera pas utile si la page cible est déjà redirigée vers la version www avec une redirection 301. Google ignore généralement la déclaration et continue d’indexer toutes les pages.

 

  • Mélange avec noindex, nofollow ou rejeter: L’utilisation d’une balise canonique et de la balise noindex sur une page à la fois peut entraîner le transfert de la fonction de la balise noindex vers le côté canonique. John Müller de Google a souligné ce danger dans un Hangout 2012. Les attributs nofollow et interdit dans robots.txt désactivent l’algorithme et entrent en conflit avec la fonction de Canonical. En particulier, les commandes d’exclusion de robots.txt refusent à Google l’accès au code HTML, ce qui signifie que le moteur de recherche ne peut même pas lire la commande Canonical, encore moins le suivre.

Devrais-je utiliser une redirection 301 ou une balise canonique?

Cette question n’est pas une réponse aussi générale. Après tout, cela dépend toujours du cas individuel, qu’une canonique ou une redirection soit plus utile. Si vous avez le choix entre une redirection 301 et une canonique, vous devriez toujours opter pour une redirection 301. Si vous ne pouvez pas utiliser une redirection 301 pour des raisons techniques ou en raison d’une restriction éventuelle de l’utilisabilité, la balise canonique constitue une alternative judicieuse.

Un exemple: si plusieurs URL de votre boutique en ligne font référence au même produit, une balise Canonical est recommandée. D’une part, la solution est techniquement plus simple et, d’autre part, vos utilisateurs devraient pouvoir appeler l’URL correspondante.

Si vous souhaitez rediriger directement une URL, seule la redirection est possible car la balise canonique ne redirige pas activement les URL, mais constitue simplement un indice pour les moteurs de recherche.

Tags canoniques sur Twitter et Facebook

Facebook et Twitter peuvent également lire et implémenter rel = canonique. Si vous partagez maintenant une URL dans ces réseaux sociaux qui fait référence à une autre URL avec un Canonical, les informations de l’URL canonique seront lues. En cas de fuite de la publication avec cette URL, ces j’aime comptent pour l’URL canonique.

Que puis-je faire si aucun Canonical ne peut être défini?

Si vous ne pouvez pas utiliser rel = canonique, vous avez toujours la possibilité de stocker uniquement les URL indexables qui émettent un code d’état 200 OK dans un sitemap. Vous pouvez envoyer ce sitemap à Google via la console de recherche Google. De cette manière, vous garantissez le faible risque que Google indexe uniquement les pages transmises via le plan du site. Cependant, il ne s’agit que d’une option pour les sites Web nouvellement créés, l’indexation des sites Web existants pouvant difficilement être influencée de cette manière. Si, en fait, aucune balise canonique ne peut être définie, essayez au moins de préciser aux moteurs de recherche via le lien interne quelle URL est la plus importante. Par exemple, si vous avez un article de presse et une version imprimée de cet article, tous les liens internes doivent aller à l’article lui-même, et un seul lien de cet article à la version imprimée.

Si les URL de votre site Web utilisent de nombreuses variables ou paramètres et qu’il n’est pas toujours facile de travailler avec un Canonical, vous pouvez également utiliser la console de recherche. Vous y indiquez comment Google doit traiter certains paramètres dans les URL.

conclusion

Les balises canoniques sont un outil puissant pour les référenceurs et les webmasters, afin d’éviter les doublons de contenu et de mieux distribuer les liens. L’implémentation est techniquement très simple même sans plugins.

Cependant, il y a des pièges que nous vous avons montrés ici. Si l’implémentation de Canonical est incorrecte, le méta-élément peut également causer des dommages et, par exemple, exclure des sous-pages importantes du classement. D’autre part, si vous considérez les règles ci-dessus pour la configuration de rel = canonical, votre site peut bénéficier de la balise.

Optimisation du suivi pour les boutiques en ligne – Partie 6

La sixième partie de la série de blogs d'experts porte sur le thème "Optimisation du suivi des boutiques en ligne". Timo Aden explique comment effectuer correctement des analyses Web et découvrir le potentiel d'optimisation du suivi d'une page Web. L'expert en suivi donne également des conseils sur la manière de travailler et bien plus encore.

authors_timo site web suivi tracking optimisation de la boutique boutiques en ligne analyse des boutiques en ligne

Cadre d'analyse numérique

Après tous les précieux conseils de l’article précédent sur les potentiels d’optimisation des sites Web (absolument important et absolument nécessaire – "test or the die"), il s’agit maintenant du sujet poursuite, Tous les lecteurs de cet article doivent utiliser un outil d'analyse Web. La grande majorité utilisera probablement Google Analytics – mais je suppose que les possibilités offertes à la fois par l'outil et l'analyse numérique en général ne sont pas épuisées. Pourquoi ça? Dans les points suivants, je présenterai quelques obstacles, obstacles, problèmes et défis, ainsi que des solutions pour les résoudre.

Mise en œuvre suce

Dans la plupart des cas, la mise en œuvre est loin d'être satisfaisante. Il existe donc toute une série de sociétés, certaines avec des budgets publicitaires très importants qui sont incapables de distinguer le trafic de moteur de recherche organique du trafic de moteur de recherche payé (malade!). Il existe des sociétés dans lesquelles les campagnes ne peuvent pas être dûment levées et ne peuvent donc pas être évaluées en termes de succès.

Dans le même temps, cependant, des modèles d'attribution philosophiques sont en train d'être philosophés sans même avoir la base de la fonctionnalité de ces modèles. Certaines entreprises ne travaillent pas délibérément avec l'outil d'analyse Web mis en œuvre, car certaines mesures divergent de leurs propres fichiers journaux ou, globalement, la précision des données est mise en doute. En partie, ce processus prend des années, apparemment des années de stagnation. Temps perdu.

Et seulement parce que personne n’a traité le sujet de manière intensive, parce que personne n’a jamais pris entre mille et mille euros pour embaucher une société de conseil qui le mettra en place correctement pour créer une bonne base, Non suivis et donc indétectables, l’argent est dépensé pour toutes les mesures en ligne et hors ligne au lieu de collecter des données, d’étalonner les performances et d’allouer des budgets en fonction de données.

Timo-Aden-Suivi-Mise en oeuvre-Chaîne Suivi de la page Web Suivi de la boutique Optimisation des boutiques en ligne Analyse des boutiques en ligne Analyse des boutiques en ligne

Figure 1: Chaîne de mise en œuvre

Malheureusement, cela n'aide en rien – vous devez passer par la mise en œuvre. Dans l’ensemble du sujet d’analyse Web, la mise en œuvre est certainement la partie la moins sexy. Cependant, une fois que vous avez franchi cette étape, la beauté des données se dévoile. Des phrases intelligentes à la fin: Pas de fondation, pas de maison raisonnable, pas de pneus, pas de conduite raisonnable, pas de bonne connexion Internet, pas de surf raisonnable – pas de bonne analyse web sans une bonne implémentation! Obtenez la mise en œuvre terminée! Cela ne fonctionne pas sans elle. Ce n'est pas toujours facile. Mais quand même: faites-le!

90-60-90 ou 90-10 ou 10-90 ou 15-15-70 ou comment?

De nombreuses règles suggèrent que vous réussissez automatiquement si vous les conservez. Habituellement, le monde n’est pas aussi simple que le suggèrent ces règles. Cependant, lorsqu'elles sont correctement appliquées, ces règles peuvent augmenter les chances d'atteindre certains objectifs. 90-60-90 ne signifie pas qu'une femme avec une telle figure trouve le mari de ses rêves. Les chances, cependant, sont meilleures que si c'était un ratio inversé. Il en va de même pour les règles d'analyse Web 90-10 et 10-90.

10-90

La règle bien connue des 10 à 90 stipule que si vous disposez d’un budget de 100 euros (ou de 1 000 euros ou de 10 000 euros ou de 1 000 000 euros) pour l’analyse Web disponible, un maximum de 10 euros Outil et au moins 90 euros (plus correspondant à des budgets plus élevés) chez la personne qui travaille avec cet outil devrait investir. Cette hypothèse est valable depuis longtemps et reste correcte en principe. Il est basé sur la prise de conscience qu'un outil, quel qu'il soit, ne commence pas à ajouter de la valeur s'il n'y a pas de personnel raisonnable pour le servir. Opération ne signifie pas seulement une application pure de l'outil, mais surtout une interprétation et une analyse significatives et orientées métier des données obtenues dans le but de mieux comprendre et d'améliorer les choses.

90-10

En tout cas le Répartition du budget d'analyse web est faite – une allocation significative des ressources en mettant l’accent sur les ressources humaines sera un succès à long terme. Supposons que la mise en œuvre a parfaitement réussi. Félicitations. Supposons que la règle 10-90 soit presque parfaitement respectée, de sorte que plusieurs analystes Web ont été embauchés pour travailler avec l'outil d'analyse Web parfaitement mis en œuvre. Bravo! Et maintenant? Que font tous les analystes Web dans les entreprises? Compte-rendu!

Dans la plupart des organisations, les analystes Web sont généralement occupés à reconstituer des données de sources de données disparates dans de grandes feuilles de calcul Excel. Souvent, 100% du temps de travail est utilisé pour générer des rapports. Combien de temps reste-t-il pour l'analyse? Si vous travaillez selon ce modèle et que, parallèlement, Web Analyst appelle un peu, c'est un peu faux. Cela a peu à voir avec l'analyse Web: le fait de pouvoir utiliser différents outils et de transformer leurs données en Excel ne qualifie pas les analystes Web. Mais quelle devrait être la répartition du temps de travail?

En tant qu'analyste Web, vous ne pouvez pas contourner les rapports – un seul devrait essayer de maintenir cet effort aussi bas que possible ou de l'automatiser. que un peu de rapport fait toujours partie du travail, mais ne devrait pas être la partie principale. Le travail des analystes Web qui ajoute de la valeur est l'analyse. L'interprétation des données, l'élaboration de recommandations d'action dans le but d'influencer de manière positive le succès de l'entreprise. Cela devrait être utilisé la plupart du temps. La répartition idéale est la suivante: 90% du temps de travail devrait être utilisé pour l'interprétation et l'analyse des données. 10% du temps de travail devrait être utilisé pour les rapports.

15-15-70

Il existe donc une règle 90-10. Mais cela correspond-il à la réalité? Au cours de la phase d'analyse, vous constaterez souvent que la mise en œuvre existante n'est pas encore suffisante et qu'il peut être nécessaire de la modifier, ou que des sources de données supplémentaires doivent être incluses ou intégrées. que L’optimisation et l’adaptation de la collecte de données doivent inévitablement également faire partie du travail d’un analyste Web. Ainsi, le cadre suivant (EER de Web Analysts Work) pour l’utilisation du temps de travail en résulterait: 15% – e15% – R70% des importations – Analyse

Timo-Aden-Tracking-ERA-de-Web-Analyts-Work suivi de page Web suivi de suivi optimisation de boutique en ligne magasins d'analyse en ligne analyse de magasin

Figure 2: Description de l'ERA

Garder la règle ne promet pas automatiquement le succès – Si la distribution du temps de travail se rapproche de cette distribution, vous êtes sur le point de disposer au minimum des bases pour une bonne analyse Web. Des phrases intelligentes à la fin: L'analyse Web sans les bonnes personnes ne fonctionnera pas en 2014 non plus. L'implémentation est nulle. Le rapport est nul. L'analyse est amusante! Si vous déclarez déjà, alors automatisé!

Individualiser et segmenter

Chaque outil d'analyse Web offre des rapports incroyablement bons. La plupart des outils d’analyse Web ont fait de leur mieux pour offrir de belles présentations (mais certains n’ont fait aucun effort – ou ils ont fait un effort et cela n’a toujours pas fonctionné). Et comme la multitude de rapports différents qui sont déjà proposés par défaut dans un outil est si grande (et ils peuvent également sembler intelligents et colorés), beaucoup pensent qu'il est tout à fait suffisant de travailler avec ces rapports donnés. C'est malheureusement une erreur. Les rapports standard sont standard – comme leur nom l'indique. Ils ne sont pas individualisés, ne sont pas adaptés aux besoins de l'entreprise, mais représentent simplement des données collectées.

Les questions concrètes sont rarement traitées avec les rapports standard existants. Celles-ci ne donnent généralement qu'un premier aperçu approximatif. Qui aime être standard? Right Web Analysts personnalisent les rapports. Cela commence par la modification des graphiques, l'ajout de plus de données, la réduction des données à l'aide de filtres ou la combinaison de données avec d'autres données. Ceci est souvent possible dans l'outil d'analyse Web utilisé, mais nécessite parfois aussi une exportation des données et un traitement ultérieur (et un affinement) des données dans un autre outil (par exemple, BigQuery, Excel, l'outil de BI, etc.).

Timo-Aden-Tracking-Datenweiterverarbeitungstool suivi de page suivi de suivi optimisation de boutique en ligne boutiques en ligne analyse des boutiques en ligne

Figure 3: Exemple de rapport individualisé

Jouer est amusant! Si vous ne vous contentez pas de l'existant, commencez à vous interroger sur les possibilités et à jouer avec les données, le vrai plaisir de l'analyse Web commence. Un autre facteur qui joue dans ceci est la segmentation. Les données autonomes agrégées sans contexte sont des rapports maximaux, en aucun cas des analyses Web. Qu'il s'agisse de visites, de taux de rebond, de taux de conversion ou de durée de séjour, toutes ces données ne sont intéressantes que si elles sont associées à d'autres données.

  • Quels canaux de marketing ont été utilisés pour le plus grand nombre de visites, lesquels avaient en même temps un taux de rebond supérieur à la moyenne? – Potentiel d'optimisation!
  • Quelle campagne a un taux de conversion élevé, mais en même temps moins de visites par rapport à d’autres mesures? – Potentiel d'apprentissage et d'optimisation!
  • Quel est le rapport entre la durée du séjour et la conversion? – Potentiel d'apprentissage et d'optimisation!
  • Dans quelle région, quel genre a le mieux fonctionné par rapport à quelle mesure de marketing? – Potentiel d'apprentissage et d'optimisation!

Timo Aden Suivi des sources de trafic Site Web du suivi Suivi de l'optimisation de la boutique Boutiques en ligne Analyse en ligne de la boutique

Figure 4: Exemple de segmentation des sources de trafic

Peu de gens aiment être seuls à long terme – pas même les indicateurs et les dimensions. Les analystes Web peuvent aider à rendre les données heureuses en trouvant les bons partenaires. Le taux de rebond global n’est pas intéressant – avec les sources de trafic, les régions géographiques, etc., le nombre est plus intéressant. Le taux de conversion global n'est pas intéressant. Avec des partenaires tels que campagnes, données démographiques, nombre de visites à la conversion, etc., le taux de conversion n’est qu’intéressant (et heureux). Des phrases intelligentes À la fin: Data et ses partenaires – faites d'abord plaisir à vos données, puis à tout le monde. La segmentation est le seul moyen de trouver des informations intéressantes dans les données existantes.

À venir ensuite …

Bientôt, nous continuerons avec le prochain article détaillé. Tanja Scherm, Concepteur d’expérience utilisateur senior pour le Web et le mobile, vous expliquera toutes les choses importantes à propos de «l’optimisation de l’expérience utilisateur dans les magasins en ligne» et donnera des conseils à votre expert personnel.

dmexco Recap 2014

Pour la deuxième fois, OnPage.org était représenté au dmexco, le plus grand salon du marketing numérique à Cologne. Nous aimerions partager avec vous certaines impressions du salon international, nos propres impressions et quelques conseils aux exposants.

Cultivé avec la foire

Cette année, à Cologne, dmexco 2014 a été une nouvelle fois un grand succès pour dmexco et OnPage.org. Alors que la dmexco avait battu le record de fréquentation de l’année dernière et des deux jours 10 et 11 septembre 2014 Plus de 31 900 visiteurs professionnels (+ 21% par rapport à 2013) sur 66 000 m² d'exposition, notre stand a bénéficié du flux constant de visiteurs. La dmexco est le salon international et la conférence sur l’économie numérique. L'accent est mis sur le marketing numérique, les médias, la publicité et la technologie numériques tournés vers l'avenir. Nous n’avons pas manqué de présenter nos outils novateurs au populaire salon du marketing numérique et du commerce électronique. Pendant ce temps, nous exposions pour la deuxième fois à dmexco Hall 6 (stand A011-A013) sur place. Notre espace d’exposition était non seulement plus grand cette année, mais les 20 membres de l’équipe, activement soutenus par huit hôtesse, étaient constamment en pourparlers avec les partenaires commerciaux, les parties intéressées et les clients existants. Beaucoup sont venus voir la nouvelle version améliorée du logiciel, beaucoup de clients ont voulu se débarrasser de leurs désirs ou simplement prendre un café avec nous. Nous avons été très heureux de chaque visiteur – merci!

Team2 Recap 2014 dmexco Recap

Figure 1: L'équipe OnPage.org de dmexco 2014

Conseils pour l'organisation et les exposants

Sur le plan organisationnel, une telle foire est tout sauf facile à maîtriser. Cela nécessite une très longue préparation et une conception parfaite. En règle générale, la tâche la plus difficile est la coordination des fournisseurs afin que tout soit disponible au bon endroit et au bon moment. Nous pouvons ici donner un bon conseil à tous les futurs exposants: plus tôt vous commencerez avec l’organisation, mieux ce sera. Crée des listes de fournisseurs et de tâches et fixe les délais finaux. Et un autre conseil pour lequel nous avons été très reconnaissants cette année: réservez à l’avance les chambres d'hôtel nécessaires pour l'année prochaine. Parce qu'après le dmexco est devant le dmexco!

wurst_overload Recap 2014 dmexco Recap

Figure 2: Tout vient moins mal quand on compte sur tout.

Le trajet a pris un peu plus de temps pour nous Munich (parfois jusqu'à 6 heures de route), mais cela a été très amusant avec toute l'équipe.

team1 Recap 2014 dmexco Recap

Figure 3: L'équipe 2 de OnPage.org en route pour le dmexco à Cologne

Nous avons donc commencé assez tôt avec la préparation de la foire. Environ six mois avant la date réelle de dmexco, nous avons réfléchi à l’apparence possible de notre stand et de son organisation. Avec le constructeur d’exposition Bruns, qui nous a activement soutenus au cours de la dernière année, nous avons réussi à moderniser le concept de l’année dernière, à le peaufiner et à établir de nouvelles normes. Avec la nouvelle tête de lit de 5 mètres de long et plus d'espace, nous avons rencontré les visiteurs directement à l'entrée du hall 6. Le capitaine OnPage se présentait pour la première fois "corporellement" Figurine tridimensionnelle en taille originale à l’avant et complétant l’apparence du stand. Un grand merci à notre designer Julia et à notre illustratrice Tatjana, qui ont tant investi cœur et âme pour donner vie au stand.

stand Recap 2014 dmexco Recap

Figure 4: Stand OnPage.org: Le calme avant la tempête.

Les jours de dmexco

Le premier jour, tout s'est bien passé. Juste à temps, à 9 h 30, le dmexco a ouvert ses portes et nous avions un kiosque très fréquenté depuis le début. Les deux jours, nos consultants ont assisté à la présentation du logiciel sans interruption, en se divertissant et en continuant à parler d'affaires.

OnPage.org & t3n Go-West Bash

Le tant attendu et déjà annoncé sur Facebook et Xing OnPage.org & t3n La fête sur le stand a été un franc succès et a rassemblé plus de 600 invités. Déjà avant 18 heures, notre stand était rempli de fêtards joyeux et fêtards pour boire confortablement une bonne bière bavaroise Tegernseer et pour déguster de délicieux beignets. DJ KidCut a quant à lui fourni la bonne musique de fête pour un échauffement réussi de l’OMClub, qui a eu lieu plus tard dans la soirée. Pour avoir une idée du nombre de visiteurs présents à la fête, voici une petite liste du rendement de la fête:

  • Caisses de bière: 105
  • Beignes et hot-dogs: 600
  • 40 bouteilles de prosecco

Pas mal non? 🙂 La visite surprise de la Stormtroopers et Dark Vador personnellement, a laissé une impression durable sur les invités de la fête. Tant de selfies avec les guerriers clones et Lord Dark Vader.

darth Recap 2014 dmexco Recap

Figure 5: Le groupe de personnalités sur OnPage.org s'est étendu à d'autres galaxies: Stormtroopers et Darth Vader

Le parti officiel dmexco d'IN: The OMClub

Après un bref nettoyage à l’aspirateur et une action de nettoyage, nous nous sommes directement dirigés vers le parti non officiel dmexco, le hourra! OMClub. Un grand merci à Randolf pour la qualité de son organisation, ses DJs fous et son emplacement impressionnant. Toute l'équipe a passé un bon moment jusqu'à l'aube. La fête vient de basculer incroyablement!

partie récapitulation 2014 dmexco Recap

Figure 6: Rock'n'Roll sur le hourra! OMClub – le parti non officiel de dmexco

Bonnes impressions et à la prochaine fois

Jetez un coup d'œil à la fin d'un petit film de foire et passez avec nous Revue. Pour ceux qui n’ont pas pu visiter dmexco cette année, vous pouvez vous faire une idée de notre stand et de sa fête.

(Intégré) https://www.youtube.com/watch?v=j5wOr0heSsk (/ embed)

Les retours sur l’apparition de la foire jusqu’à présent étaient accablants – il a été tweeté à ce sujet, blogué et publié sans fin. Voici quelques perles sociales qui font que nos cœurs battent plus vite:

fb1 Recap 2014 dmexco Recap

fb2 Recap 2014 dmexco Recap

Figure 7: Tweets et messages des visiteurs de notre stand ♥

Maintenant, bien que nous soyons tous un peu épuisés, mais très satisfaits, nous pourrions gagner de nouveaux clients et continuer à convaincre les clients existants avec notre logiciel. Nous avons également trouvé très intéressant que nos clients s’arrêtent pour donner encore plus d’informations et parler de leur utilisation quotidienne des outils. Merci beaucoup pour les éloges, les critiques, les demandes de fonctionnalités et les bugs trouvés. Sans vous, le logiciel ne serait pas là où il est maintenant. Rendez-vous l'année prochaine @ dmexco 2015 et continue d'optimiser!

Matt Cutts: plus de règle de la gauche

Dans la vidéo récemment publiée, Matt Cutts répond à la question d’un webmaster londonien. Il veut savoir s'il existe une limite pour les liens sortants sur des pages individuelles.

1234 Matt Cutts à gauche

Matt Cutts explique que Google Bot a déjà parcouru environ 100 000 pages secondaires. Si un site Web était plus grand, les sous-pages restantes n'étaient plus indexées. Jusqu'en 2008, il existait une règle dite de 100 gauches dans les lignes directrices pour les webmasters, d. h. Au mieux, chaque page ne devrait pas comporter plus de 100 liens par sous-page, selon Google.

Pendant ce temps, les sites Web sont devenus beaucoup plus grands et plus étendus. L’inclusion d’éléments rich media a été l’une des raisons du nombre plus élevé de liens par sous-page. Même Google est maintenant en mesure de consulter de nombreuses pages et un plus grand nombre de liens.

La règle des 100 pour cent laissée ensuite par les directives aux webmasters est donc obsolète. Une sous-page n'est donc pas nécessairement considérée comme un spam si elle contient plus de 100 liens.

(Intégré) https://www.youtube.com/watch?v=QHG6BkmzDEM (/ embed)

Cependant, selon Matt Cutts, les webmasters doivent garder à l’esprit que le classement des pages sera partagé entre tous les liens sortants. que avec 5 liens sortants, le PR est divisé par 5 et hérité.

Capture d'écran 2013-11-26 à 2.11.43 PM Matt Cutts left rule

Si un côté a par exemple 1000 liens sortants, la partie héritée par page est très faible.

Google identifie non seulement les pages de spam en fonction du nombre de liens, mais réagit, si les pages Web sont "spammées". Pour éviter cela, le responsable de l'équipe Google Anti-Spam recommande d'effectuer des tests utilisateur courants. Si les utilisateurs ne perçoivent pas une page comme étant du spam, il n’ya généralement aucune raison de s’inquiéter. Il n'est donc pas nécessaire de suivre les 100 liens par page. Il est maintenant tout à fait légitime qu'une page ait 200 à 500 liens sortants. Cependant, la condition préalable est qu’ils offrent une valeur ajoutée et fournissent aux utilisateurs un contenu précieux et utile.

Indexation d'applications

Laurence Chang, chef de produit Google, a récemment introduit une nouvelle fonctionnalité intéressante dans le blog Webmaster Central. Dans la recherche mobile, l'utilisateur peut à l'avenir choisir si le contenu est affiché directement dans une application ou sur un site Web.

Dans quelques semaines, les propriétaires de smartphones dotés du système d'exploitation Android de Google pourront utiliser les résultats de la recherche, enrichis par des applications et des liens profonds. À l’origine, toutefois, cette fonctionnalité n’est disponible que pour les utilisateurs aux États-Unis. L'application Google Search (version 2.8 ou ultérieure) ou les smartphones dotés d'Android 4.1 ou d'une version plus récente sont indispensables à l'indexation. De plus, l'utilisation dans tous les navigateurs mobiles est possible dès que l'utilisateur est connecté avec son compte Google. Dans les résultats de la recherche sur mobile, une application existante comportant un Bouton "Ouvrir dans l'application" reconnaissable.

Trulia indexation des applications indexation des applications

Source: blog Google Webmaster Central

En appuyant sur le bouton, l'application s'ouvre et l'utilisateur est redirigé directement vers la page de l'application avec les informations souhaitées. Un effet positif de cette innovation serait que, chaque fois qu'un résultat de recherche est appelé, une fenêtre contextuelle apparaît, dans laquelle l'utilisateur doit choisir entre une application et un site Web mobile.

screenshot_android indexation indexation d'applications

Source: site web Süddeutsche Zeitung

L'utilisateur doit maintenant choisir entre une page Web ou une vue Web et bénéficier ainsi d'une meilleure expérience utilisateur. Comme avec un site Web jusqu'à présent, chaque webmaster peut utiliser le plan du site ou à l'avenir également via les outils pour les webmasters de Google pour déterminer le contenu d'applications devant être indexé. Les conditions exactes d’indexation sont décrites ci-dessous. developers.google.com. Vous y trouverez une explication détaillée des liens techniques entre le site Web et l'application, ainsi que leur implémentation à l'aide d'exemples de code. Google travaille actuellement sur l'intégration de l'indexation des applications dans les outils pour les webmasters. Les webmasters devraient pouvoir vérifier à l'avenir si l'application peut être indexée correctement et / ou si des erreurs se sont produites. Après l'intégration, les webmasters recevront un message correspondant dans les outils pour les webmasters. Selon Google, l'indexation des applications n'influence pas le classement. Seule la présentation des résultats de la recherche est prolongée par le bouton "Ouvrir dans l'application".

Screenshot-2013-11-06-at-14.55.47 Indexation de l'indexation d'une application

Source: blog Google Webmaster Central

L'exploration se comporte selon les informations de Google, comme un site Web. Actuellement, l'indexation des applications est testée de manière approfondie par différents développeurs. Les parties intéressées peuvent entrer dans la liste suivante pour participer au test bêta: Indexation des applications – Manifestation d'intérêt Une déclaration indiquant si et quand l'indexation des applications sera également utilisée en dehors des États-Unis, ainsi que l'extension de la fonction aux appareils iOS, n'existe pas encore. Vous trouverez des informations supplémentaires dans notre Wikipeitrag pour l’indexation des applications.

Toute la vérité sur la mise à jour de Hummingbird

Depuis la fin du mois de septembre, c'est officiel – Google a encore changé son algorithme. Juste à temps pour le quinzième anniversaire du géant des moteurs de recherche, le vice-président de Google, Amit Singhal, a annoncé une nouvelle mise à jour de l'infrastructure dans le garage fondateur qui n'a pas été remarquée depuis le mois d'août, améliorant ainsi les résultats de recherche: la mise à jour de Hummingbird.

Le secret de la mise à jour de Hummingbird

Cette mise à jour est le plus gros changement après la mise à jour de la caféine en juin 2010 et selon Singhal. affecte environ 90% de toutes les recherches dans le monde, Caffeine Update a créé une nouvelle infrastructure pour analyser et indexer de grandes quantités de données. (embed) https://www.youtube.com/watch?v=GDApdVcCQ9A (/ embed) Actuellement, la nature des requêtes de recherche évolue en raison de l'utilisation croissante de la recherche vocale sur les appareils mobiles. Ainsi, les demandes sont formulées en langage naturel ("Où puis-je acheter des DVD à Munich?"), La recherche par mots clés ("DVD de Munich") passe lentement au second plan. Pour répondre à cela, Google tente

  • mieux interpréter les requêtes de recherche complexes
  • Reconnaître les liens entre les mots et
  • ce qui permet d'obtenir de meilleurs résultats dans les SERP.

Si Google avait l'habitude de filtrer les termes importants de la requête de recherche (les mots vides tels que "et" étaient ignorés), tous les mots de la requête de recherche seraient pris en compte. Google essaie de comprendre le contexte et le sens des requêtes et de fournir ainsi des résultats vraiment utiles. Avec la mise à jour de Hummingbird, Google veut aussi Faire des références entre les requêtes de recherche individuelles, Cela pourrait ressembler à ceci: Nom Colibri Mettre à jour le colibri   Mike-Myers Hummingbird Mettre à jour le colibri   Fig. 1: première recherche Ancienne mise à jour du colibri   Mise à jour sur le colibri 50 ans   Fig. 2: demande de recherche ultérieure Google reconnaît que le pronom personnel "il" fait référence à l'acteur principal d'Austin Powers et peut donc répondre à la demande. Ainsi, à l'avenir, il sera possible d'avoir de bonnes conversations avec le moteur de recherche et de trouver des solutions pas à pas aux problèmes et des réponses à ses questions. Mais comment est-ce possible? Google s'appuie sur le concept de Reconnaissance de synonymes basée sur des termes cohérents, Recherches relationnelles Colibri met à jour le colibri   Fig. 3: Reconnaissance de synonymes sur la base de termes cohérents – Partie 1 Les requêtes de recherche sont d'abord transférées au "Moteur de révision de requête". Cela apporte des corrections à la requête de recherche. À l'étape suivante, la demande de recherche est transmise au "Moteur de synonymes". Cela suggère des synonymes pour les mots de la requête de recherche. Le "Moteur de synonymes" accède aux requêtes de recherche précédentes, aux règles de synonymes et au contexte. En utilisant les requêtes de recherche précédentes, il est possible d'établir la relation entre les requêtes de recherche et donc la relation entre "l'acteur principal d'Austin Powers" et "il". Brevet de Colibri Hummingbird met à jour le Colibri   Fig. 4: Reconnaissance de synonymes basée sur des termes cohérents – Partie 2 Dans l'exemple ci-dessus, Google affiche même les réponses directement dans les résultats de la recherche. Les zones marquées en rouge sont générées par le graphe de connaissances. Ces nouvelles fonctionnalités de l'algorithme sont possibles car Google interprète chaque mot en tant qu'entités et attributs.

Existe-t-il un lien avec le graphe de connaissances?

L'utilisation d'enities et d'attributs pour comprendre les requêtes de recherche a déjà été utilisée pour le graphe de connaissances de Google. à cet égard Google collecte des informations par exemple, les gens et lié ces ensemble, Pour les recherches appropriées, les collectés Informations dans des boîtes affiché au-dessus des résultats de la recherche. L'acteur Colibri met à jour le Colibri   Fig. 5: Données du graphe de connaissances dans les résultats de la recherche Relation entre Hummingbird et le graphe de connaissances est en effet non confirméCependant, on peut s’attendre à ce que les données de Knowledge Graph apparaissent plus fréquemment dans le contexte de meilleurs résultats.

Colibri et la longue queue recherche

Aussi de la part de l'utilisateur a beaucoup fait ces derniers temps. Pour obtenir des résultats de recherche meilleurs et plus ciblés, ils ont appris non seulement à rechercher des mots-clés individuels, mais également à requêtes complexes au moteur de recherche demander. colibri à demande courte mettre à jour le colibri   Fig. 6: Recherche il y a quelques années demande complexe Colibri mettre à jour le colibri   Fig. 7: Requête de recherche plus récente Avec Hummingbird, l'algorithme de Google a été modifié de sorte que non seulement le nombre de mots-clés pour la pertinence d'une page soit crucial. Google tente maintenant de comprendre les requêtes des utilisateurs et de fournir des résultats précis. Il ne s'agit plus seulement de savoir si une page est pertinente pour certains mots, mais bien de savoir si la page est pertinente ou non. Le contenu de la page résout un problème ou répond à une question, Mais comment optimiser vos pages pour le moteur de recherche? Mots-clés longue queue peuvent aider, Lorsque vous recherchez des mots-clés, réfléchissez bien à ce que les utilisateurs recherchent réellement. Qu'est-ce que l'utilisateur entre s'il veut acheter la première partie de la série Austin Powers? Ce serait concevable: Achetez Colibri mettre à jour le Colibri   Fig. 8: Requête longue queue Sur une requête aussi précise, vous devez aligner votre contenu. Il est important d'écrire un texte naturel, il ne s'agit pas de cette phrase aussi souvent que possible. la Le texte doit répondre à cette demande et indiquez clairement que ce film est disponible sur le site Internet sous forme de DVD. Découvrez donc ce que vos utilisateurs potentiels recherchent et accédez directement à votre site Web.

Comment Hummingbird change la recherche

Hummingbird affecte les chercheurs, les propriétaires de sites Web et les détaillants en ligne. L’utilisateur doit obtenir de meilleurs résultats lors de ses enquêtes, les exploitants de sites Web doivent repenser l’optimisation de leur site Web et Google reconnaît mieux les pages de spam. Il s'agit plus d'un contenu de qualité que jamais auparavant. aussi Les données structurées et les extraits enrichis qui en résultent deviennent beaucoup plus importants pour les exploitants de sites Web., Après tout, il est maintenant important de détourner l'attention des utilisateurs des résultats du graphe de connaissances vers leur propre extrait de code. Gagner une place au-dessus du repli dans les résultats devient plus difficile avec les propres résultats de recherche de Google. Des sites Web et des boutiques en ligne particulièrement petits peuvent donc être amenés à prendre en compte les pertes de trafic en termes de recherche très compétitifs. Il sera intéressant de voir comment les résultats de la recherche changeront à l'avenir.

Récapitulation SEOkomm 2013

La conférence SEOkomm de cette année aura lieu pour la quatrième fois à Salzbourg. L'équipe OnPage.org était sur place pour rendre compte de chaque activité du panel et de la conférence.

L'équipe d'OnPage.org se rend sur SEOkomm

Cette année, SEOkomm a eu lieu à Salzbourg pour la 4ème fois. L'équipe d'OnPage.org était également présente pour écouter les discussions passionnantes et rencontrer des connaissances et des amis de l'industrie du référencement. Nous sommes donc allés à Salzbourg vendredi à 6h30. À 9 heures, les conférences ont commencé – nous étions curieux. Nous avions également préparé des surprises pour les visiteurs. OnPage.org a fourni au SEOkomm du vin chaud et du punch tout au long de la journée. En guise d'introduction à la saison de Noël, il y avait une boule de Noël OnPage.org pour chaque visiteur.

Le discours de Marcus Tandler

la SEOkomm a commencé avec l'inspirant note dominante de Marcus Tandler, fondateur de OnPage.org, également connu sous le nom de Mediadonis. IMG_61391 SEOkomm 2013 seokomm   Marcus a relaté dans sa manière toujours passionnante, dynamique et spirituelle, le passé et en particulier l’avenir de la recherche Web. En 50 minutes et 406 diapositives, il a donné au public un aperçu passionnant du contexte des activités de Google. Les leçons les plus importantes tirées du discours captivant de Marcus sont les suivantes:

  • Google fait tout pour que ses utilisateurs puissent utiliser la recherche sur le Web à tout moment.
  • Le comportement de recherche, les besoins et les attentes des chercheurs ont changé. En conséquence, les résultats récents et les réponses aux requêtes de recherche complexes sont devenus plus importants pour Google.
  • Les données structurées deviennent de plus en plus importantes car Google pourra bientôt lire et comprendre les textes, selon Matt Cutts.
  • Actuellement, les questions complexes de Google ne peuvent pas encore être répondues de manière satisfaisante.
  • Le référencement a changé. Les optimiseurs de moteurs de recherche devraient s'éloigner des techniques de manipulation et se concentrer davantage sur le marketing créatif et l'optimisation de l'expérience de recherche.

Etude de cas: SEO pour les grandes marques

Michael Felis est responsable des nouvelles activités de référencement et de marketing en ligne chez Sixt AG à Munich. IMG_62221 SEOkomm 2013 seokomm   Dans sa présentation, selon leur propre première apparition majeure, il devrait aller à l'optimisation des moteurs de recherche pour les grandes marques ou dans les grandes entreprises. Dans sa conférence, Felix a partagé ses expériences avec l'audience et a donné des conseils à toutes les personnes impliquées. SEO pour les grandes marques embaucher ou avoir à traiter dans le futur. Il a souligné qu'il était parfois difficile de s'intégrer aux processus existants et d'avoir son mot à dire. Il s'agit davantage d'une optimisation de moteur de recherche réussie que d'un simple service de référencement. Les apprentissages les plus importants:

  • communication régulière avec les départements coopérants
  • La formation aide à comprendre les avantages du référencement pour les autres départements. Soyez créatif et prouvez la persévérance

Content Marketing – de l'idée à l'ensemencement chez Quelle.de

Klaus Arent est responsable SEO / SEM chez UNITO Versand- und Dienstleistungs GmbH. Là, il s'occupe de clients tels que Quelle.de et Universal.at. Klaus a parlé de marketing de contenu dans son discours. Il a commencé à la Création du contenu et ensuite décrit comment procéder avec l'ensemencement. IMG_62281 SEOkomm 2013 seokomm   Les points clés de la présentation étaient:

  • Description de l'approche du marketing de contenu
  • Points importants pour la création de contenu
  • Quelques idées exemplaires pour semer le contenu
  • Un exemple des coûts du marketing de contenu interne ou externe

Après la conférence un petit s'est développé discussion pour savoir si vous pouvez vraiment (seulement) écrire le meilleur contenu sur un sujet avec seulement un budget de 500 euros et comment les mesures présentées par Klaus Arent ont eu un impact sur le classement. Cela a finalement montré un béton Exemple de page de destination terminée avec contenu associé,

Donc ça marche vraiment avec le bon contenu

Eric Kubitz est fondateur de CONTENTmanufaktur et spécialiste de la Contenu du sujet, Bien sûr, dans sa conférence SEOkomm, il a également traité exactement de ce sujet et a donné aux auditeurs Conseils pour un meilleur contenu sur la main. IMG_62761 SEOkomm 2013 seokomm   Il monta 11 étapes celui qui prise en compte lors de la création du contenu devrait être:

  • A quelle question faut-il répondre?
  • Quelle motivation de recherche?
  • Quel contenu correspond?
  • planification
  • Analyse WDF * IDF
  • Écris-le toi-même
  • production
  • Briefing à l'agence
  • rédaction
  • publier
  • analyse

L'un des conseils les plus accrocheurs d'Eric aux visiteurs de SEOkomm était le suivant: "Soyez gentil avec votre contenu!".

Belles vrilles

Le nom Karl Kratz est connu de presque tous les optimiseurs de moteurs de recherche. Par conséquent, il n’était pas surprenant qu’il ait été reçu sur scène avec des applaudissements et des acclamations. IMG_62901 SEOkomm 2013 seokomm   Aujourd'hui, Karl n'a pas voulu présenter de formules, mais une Regarder vers l'avenir risque. Il devrait s'agir d'impulsions et de nouvelles idées. Une des premières questions était: "Qui parle avec son téléphone portable". Spontanément, il a provoqué le commentaire de Mario Fischer selon lequel il était gay. Mais c'est l'avenir. Entre autres choses, Karl a traité avec la jeune génération ces derniers temps. Cette génération aura encore plus d’occasions d’utiliser les moteurs de recherche. Auparavant, il n'y avait que le PC. Aujourd'hui, nous utilisons des smartphones, des tablettes et plus récemment des lunettes. Dans un avenir prévisible, même des montres ou même des sonneries pourraient bouleverser le cercle des appareils mobiles. Même la saisie de phrases complètes ou de questions passe de plus en plus au premier plan.

  • Jusqu'à la conversion, votre trafic de référencement ne vaut rien.
  • Pensez à un design réactif non seulement sur le design, mais aussi sur le contenu.
  • Rendre le contenu divisible en ligne – N'utilisez pas de boutons similaires et préférez partager.
  • Formule courte et nette – le contenu est donc plus facile à remarquer.
  • Créer une confiance – merci d'avoir choisi OnPage.org comme exemple de démonstration
  • Le référencement n'est pas mort! C'est juste pour commencer!

365 jours de la Saint-Valentin: voici comment les entreprises trouvent la bonne agence pour la vie

Markus Hövener de l'agence BLOOFUSION a préparé le sujet "Comment trouver des entreprises agence appropriée pour la vie"Comme une histoire d'amour. IMG_63001 SEOkomm 2013 seokomm   Il a décrit dans 4 phasesquelles mesures devraient être prises. Dans la phase 1: Rencontres, il a expliqué comment procéder dans la recherche d’agences potentielles. Dans la phase 2: tomber amoureux, il a mis en garde contre le fait de s’engager aveuglément dans une agence. Phase 3: Le mariage est atteint lorsque vous avez choisi une agence et, dans le pire des cas, il s'agit de la phase 4: le divorce. Markus a brièvement résumé les points les plus importants en 6 faits:

  • Le "coup de foudre" n'est généralement pas disponible pour les agences.
  • Mieux vaut penser à l’avance que d’être déçu par la suite: mettez beaucoup d’énergie dans la sélection et écrivez correctement l’agence.
  • Ne vous penchez pas en arrière: le client et l’agence doivent s’impliquer dans leur travail.
  • Regarder le partenaire sur les doigts: en particulier dans la construction de liens.
  • La boîte noire ne fonctionne pas: ce serait le cas si l'agence travaillait complètement détachée du client.
  • Quelque chose ne va pas aussi: ne pas diviser sur la première erreur de l'agence. Essayez d'apprendre des erreurs et d'améliorer la coopération.

Linkkauf – parlons Tacheles!

Dans son exposé sur le renforcement des liens, Oliver Hauser a donné un aperçu de la pratique du renforcement des liens, et en particulier de l’achat de liens. IMG_63741 SEOkomm 2013 seokomm   Au début, Oliver a demandé à tous les auditeurs de ne pas publier de chiffres et d'exemples concrets. Donc seulement beaucoup:

  • Linkkauf est officiellement contre les directives de Google. Néanmoins, cela est souvent utilisé dans la pratique.
  • Selon Oliver, après la mise à jour de Penguin, les ventes par lien ont chuté rapidement. Cependant, peu de temps après, plus d’argent a été dépensé pour l’achat de liens.
  • Les liens peuvent être achetés auprès des exploitants de sites Web, des portails ou des courtiers.
  • Le coût des liens varie grandement. C'est parce que chaque courtier fait des marges bénéficiaires. Ainsi, le prix du site Web augmente directement par l’intermédiaire de chaque courtier.
  • Les liens achetés sont partiellement masqués de Google par diverses techniques. Par conséquent, les liens achetés doivent nécessairement être vérifiés encore et encore!

Étude de cas: SEO mobile et optimisation de l'App Store – Meilleures pratiques

Florian Lehwald est fondateur et PDG de KissMyAds. Il est actif dans le marketing en ligne depuis 1996 et a travaillé comme consultant chez StudiVZ, Booming et Financescout24. Il était content de sortir du référencement. Donc sa conclusion après la conférence de Karl Kratz. C'était trop compliqué pour lui :-). IMG_63881 SEOkomm 2013 seokomm   Au début, Florian s'est aventuré dans l'avenir et a profité de l'application native pendant une vie d'environ 10 ans. Après cela, les applications Web vont dominer les magasins d'applications. Mais aujourd'hui, tout est une question d'optimisation dans l'Apple App Store. Il ne faut pas présumer que la recherche dans l'Apple App Store ou le Google Play Store fonctionne aussi bien que dans Google Web Search. Jusqu'à présent, il n'y a pas de recherche sémantique ni de correction de voiture dans les magasins d'applications. Si vous n'entrez pas le nom de l'application ou le fabricant avec précision, vous obtiendrez des résultats inexistants ou erronés. Florian a appelé le Optimisation App Store comme une sorte d'optimisation de la conversion. Plus une application est téléchargée, plus elle se situe dans les graphiques. L'optimisation doit inclure la localisation (personnalisation de l'application dans les magasins d'applications spécifiques à un pays) et la verticalisation (telle que Runtastic pour les sit-ups, MTB, exécution) de l'application. Une question intéressante d'un auditeur à la fin. "Combien de téléchargements une application doit-elle figurer dans les 20 meilleurs graphiques? Florian a jeté environ 2 000 à 3 000 téléchargements dans la salle. Les apprentissages les plus importants:

  • Informez-vous sur le groupe cible
  • Utilisez le nom, le mot clé et la description
  • La description n'est pas un facteur de classement dans l'App Store. Cependant, si l'application est affichée dans la recherche Google, la description apparaît.
  • La localisation des applications est payante

Lien Qualité et gestion des risques: Que faire pour me garder en mouvement?

Lien qualité et gestion des risques était le titre de la session de Bastian Grimm. IMG_64091 SEOkomm 2013 seokomm   Il a expliqué pourquoi la gestion des liens est importante. Les raisons les plus importantes sont bruyantes Bastian la mise à jour de Google Penguin, les filtres algorithmiques, les termes de qualité de la recherche et la reconnaissance du référencement négatif. En outre, Bastian a décrit:

  • Comment filtrer les liens nuisibles à l'aide d'outils tels que Link Research Tools.
  • Vous devez vous assurer d’obtenir tous les liens, car dans Webmaster Tools, tous les liens ayant un domaine ne sont pas affichés.
  • Comment le gérer.

Vous devriez d'abord essayer ceci Supprimer manuellement à laisser Si ce n'est pas possible, vous pouvez accéder à l'outil Google Link Disavow. Ensuite, vous soumettez ensuite une demande de réexamen du site Web. Ce sera répondu après environ 5-10 jours. En fonction de la réponse, vous continuez ensuite.

Vérification de la technologie de référencement: cloud, big data et autres mots à la mode

Ralf Schwoebel est fondateur et PDG de Tradebit AG à Francfort et aujourd'hui pour la deuxième fois en tant que conférencier à SEOkomm. Depuis 1989, il a principalement traité avec Coden avant de se découvrir le commerce électronique. IMG_63961 SEOkomm 2013 seokomm   Le contenu de la conférence devrait être constitué de trois grands blocs de construction. Ralf a commencé avec "Cloud and SEO?". Outre tous les avantages offerts par les solutions Cloud, il convient de déterminer si une solution avec un serveur dédié est plus viable sur le plan économique. Même jusqu'à certaines tailles, un serveur dédié est plus rapide et moins cher qu'une solution cloud. Surtout dans les pays germanophones, un serveur dédié suffit encore. Il a continué avec le Sujet Big Data, Selon Ralf Schwoebel, vous n'avez même pas besoin de parler de données massives avant 10 000 visites par jour. Voulez-vous passer votre temps avec les évaluations Big Data ou existe-t-il d'autres domaines dans lesquels le temps devrait être investi? En matière de référencement, le contenu dynamique et le nombre croissant de données d’analyse disponibles sont très intéressants. En ce qui concerne la conception et la mise en page, Ralf représente le même avis que l'orateur précédent. Le design réactif devient plus important. Toute personne qui n'a pas encore commencé à optimiser son site pour les appareils mobiles devrait le faire dès que possible. Le principal apprentissage:

  • En particulier, avec une utilisation élevée en permanence, l'utilisation de matériel dédié peut avoir plus de sens.
  • Si nécessaire, les fournisseurs de cloud connus (Amazon, Google, Microsoft) sont bien adaptés pour créer un CDN.
  • Des connaissances en HTML5, CommonJS et CSS3 sont maintenant requises et des connaissances de base pour les développeurs

Après 30 minutes, 20 liens supplémentaires!

Dans ce panel très rapide, cinq experts en renforcement de liens ont révélé un total de 20 astuces pour des liens intéressants. Andi Bruckschlögl, fondateur d'OnPage.org, était l'un des fans, de même que Bastian Grimm, Oliver Hauser, Julian Dziki et Dominik Wojcik. IMG_64701 SEOkomm 2013 seokomm   En seulement 30 minutes, vous pouvez ici précieuses suggestions recueillir. Le public était enthousiaste et a même demandé un rappel.

Avec la vidéo SEO, les serps dominent

Christian Tembrink est un professionnel YouTube de Cologne. Marco Janck a lancé la présentation avec la phrase "Les vidéos sont le futur". IMG_64291 SEOkomm 2013 seokomm   Christian a partagé dans sa présentation la mesures d'optimisation pertinentes avec ses auditeurs. Pour un exemple concret, il a brièvement filmé les personnes présentes et aimerait mettre la vidéo en ligne pour classer SEOkomm dans les SERP. La vidéo enregistrée est disponible sur la chaîne YouTube de Chrsitan Tembrink. À l'avenir, il est concevable que des éléments présentés dans des vidéos, par exemple Les vêtements sont proposés au moyen de bannières, afin d'encourager les utilisateurs à acheter l'article consulté.

  • Il y a encore un potentiel important en optimisation vidéo
  • La vraie vie devient de plus en plus numérisée via des vidéos
  • La publicité télévisée devient de plus en plus insignifiante
  • Google va révolutionner l'utilisation des médias avec YouTube
  • Google pousse les hits YouTube: les vidéos dominent la recherche universelle

Christoph Cemper en tant qu'organisateur

Malheureusement, à la fin, il y a eu une nouvelle inattendue et un peu triste. Christoph a annoncé qu'il n'organiserait pas SEOkomm l'année prochaine. Nous pensons que c'est dommage et remercions Christoph pour le 4ème grand événement en Autriche. Cependant, Oliver Hauser et son épouse Uschi continueront à brandir le drapeau de SEOkomm. Nous attendons avec impatience le SEOkomm en 2014 dans la belle ville de Salzbourg!

Venez à la soirée SEOkomm Aftershow

Le SEOkomm était encore cette année un événement très réussi. Un grand merci à tous les intervenants qui ont partagé leurs connaissances avec nous et pour les excellentes conférences. Également un grand compliment aux organisateurs de la conférence de référencement autrichienne. Maintenant, la soirée après-spectacle nous attend, ce que l'équipe d'OnPage.org ne manquera bien sûr pas. Des liens, des liens importants et d'autres photos suivront dans les prochains jours 😉 supplément: Sur le SEOkomm Aftershow Party au GUWE ont ensuite trouvé ensemble des référenceurs férus de fête. Pour nous, l'événement a été un grand succès, avec de nombreuses discussions, des boissons délicieuses et des aliments volants. L'équipe OnPage.org, qui a toujours faim, aimerait bien doubler 🙂 En tant que coéquipier, Jochen Schweizer a mis en place un stand de tir à l'arc permettant de vivre ses instincts de chasseur. , Étonnamment, en plus de l'optimisation de sites Web, de nombreux référenceurs peuvent également faire du bon tir à l'arc – c'était incroyable 🙂

Plus de récapitulatifs de SEOkomm

Vera et Patrick

Web Review similaire: une comparaison avec les données Google Analytics

Quand j'ai fait mes premières expériences avec l'outil Web similaire et les données il y a moins d'un an, la base de données n'était pas très bonne en ce qui concerne la validité. Raison suffisante que, environ un an plus tard, je reprenne les données à la loupe.

screenshot "width =" 299 "height =" 592 "srcset =" https://www.sem-deutschland.de/wp-content/uploads/2014/09/screenshot.jpg 499w, https: //www.sem- deutschland.de/wp-content/uploads/2014/09/screenshot-152x300.jpg 152w, https://www.sem-deutschland.de/wp-content/uploads/2014/09/screenshot-300x593.jpg 300w " data-lazy-size = "(max-width: 299px) 100vw, 299px" /><noscript><img decoding=Quelle est l'utilité des données de l'outil Web similaire?

De plus en plus souvent les données de l'outil Web similaire présenté lors de présentations et de conférences. Mais dans quelle mesure ces données sont-elles valables ou réalistes? Il utilise le fournisseur israélien Groupe similaire non seulement des méthodes légales, telles que des enquêtes et des panels pour la collecte de données, mais également des modules complémentaires de navigateur partiellement spécialement développés, anonymes, qui enregistrent le Sufverhalten des utilisateurs. Hormis les doutes juridiques et éthiques et moraux de la collecte de données, la question de savoir si les données sont utiles reste à déterminer. Pour cela le test suivant.

Un examen / test

Dans une petite enquête, j'ai des données sur cinq domaines différents sur Web similaire interrogé. Afin de vérifier le réalisme des données Web similaires, nous avons comparé ces chiffres avec les données Google Analytics du domaine respectif. Ils ont examiné les domaines qui comptent entre 6000 et plus d'un million de visiteurs par mois. Les exploitants du site viennent d’Allemagne et de Suisse. Pour l'enquête, j'ai sélectionné les chiffres clés suivants:

  • Partager le trafic de recherche
  • Partager Rechercher Organic Traffic
  • Partager Rechercher Trafic Payé
  • Partager le trafic de référence
  • Part du trafic direct
  • Partager le trafic social
  • durée moyenne de séjour
  • taux de rebond
  • pages vues
  • Part du trafic par pays (Top 5 pays)

Comme pour les données similaires sur le Web, pour certains chiffres clés, j’ai examiné la période du dernier mois, c’est-à-dire août, ou des trois derniers mois.

Les résultats du test

Voici les résultats du test de mon petit examen sous forme de tableau:

test-results-similar-web1 "width =" 435 "height =" 617 "srcset =" https://www.sem-deutschland.de/wp-content/uploads/2014/09/testergebnisse-similar-web11.jpg 483w, https://www.sem-deutschland.de/wp-content/uploads/2014/09/testergebnisse-similar-web11-211x300.jpg 211w, https://www.sem-deutschland.de/wp-content/uploads /2014/09/testergebnisse-similar-web11-300x426.jpg 300w "data-lazy-tailles =" (max-width: 435px) 100vw, 435px "/><noscript><img decoding=test-results-similar-web3 "width =" 441 "height =" 321 "srcset =" https://www.sem-deutschland.de/wp-content/uploads/2014/09/testergebnisse-similar-web3.jpg 490w, https://www.sem-deutschland.de/wp-content/uploads/2014/09/testergebnisse-similar-web3-300x219.jpg 300w "data-lazy-tailles =" (largeur maximale: 441px) 100vw, 441px « /><noscript><img decoding=Conclusion: les données en quantité ne sont pas disponibles mais sont partiellement utiles pour la comparaison

Les résultats de la comparaison de données Web similaires avec les chiffres de Google Analytics ont fait réfléchir. L’espoir que Similar Web serve les données d’analyse Web de la concurrence sur le plateau d’argent ne devrait pas être fait. Les écarts de trafic pouvant atteindre 50% par rapport aux chiffres de Google Analytics, notamment en ce qui concerne la répartition du trafic sur les différents canaux. De plus, avec le nombre de visiteurs mensuel, je pourrais trouver de grandes différences. Un peu un mystère était les données de mot-clé, organiques et payées. Ici, à part quelques termes de marque, e a donné peu de similitude entre les données du site Web similaire et de Google Analytics. Surtout avec les mots-clés organiques, je voudrais savoir si Similar Web ici a des options pour contourner le cryptage SSL ou à quelle autre base de données il fait référence ici.

Dans le cas de la durée du séjour, il y avait une approximation des données pour les cinq domaines de test, à une exception près. Même avec les proportions entre les différents canaux de trafic, il était possible de trouver des similitudes dans les domaines de test. Cependant, pour un repère direct, je me méfierais du nombre de sites Web similaires. Il y avait déjà trop d'écarts dans cette quantité de données gérable. Par conséquent, si les coûts mensuels de la version Pro doivent être rentables, chacun décidera par lui-même.

Récapitulatif dmexco 2013

Le salon dmexco de Cologne est l’un des principaux salons de l’économie numérique, où toutes les grandes marques et les représentants du marketing en ligne présentent leurs produits et leurs innovations.

Les 18 et 19 septembre 2013 a été OnPage.org également en tant qu'exposant sur le site et a présenté son premier stand, Dans le style habituel d'OnPage.org et avec une grande figurine murale de Captain OnPage, le stand de près de 70 mètres carrés situé dans le hall 6 constituait un point de contact pour les parties intéressées, les clients et les amis. Stand-empty1 Recap 2013 dmexco   Les journées de spectacles ont été une période passionnante et éducative pour l’équipe de OnPage.org, dont on se souviendra longtemps. Voici quelques impressions sur la façon dont nous avons vécu le dmexco. (embed) https://www.youtube.com/watch?v=OYck-z2f5cg (/ embed) Vous pouvez trouver encore plus d'impressions du dmexco sur notre page Facebook.

L'organisation est tout!

Une partie de l’équipe d’OnPage.org est partie lundi pour se préparer à Cologne. Complètement chargée de boîtes de contenu varié et de nombreux cadeaux, l’équipe a tout mis en sécurité dans la ville de la cathédrale. IMG_19941 Recap 2013 dmexco   La deuxième partie de l'équipe de l'exposition OnPage.org a démarré le lendemain avec beaucoup d'énergie. Dans une fourgonnette confortable, la conduite était amusante, car c’était le classement du facteur de classement qui jouissait également d’une grande approbation sur Facebook. Team21 Recap 2013 dmexco   La veille de la foire, toute l'équipe a travaillé dur pour préparer les derniers préparatifs sur le stand. Construction de stands1 Recap 2013 dmexco   Les préparatifs étaient terminés et chaque membre de l'équipe attendait avec impatience le premier jour de la foire, Mais avant cela, nous pouvions profiter de la soirée en compagnie de currywurst et de Kölsch traditionnels. Performance Night par metapeople décider. Dans le château en nuage au centre de Cologne, il y avait non seulement de la bonne nourriture, mais aussi des invités intéressants, du temps pour nouer des contacts et de premières discussions passionnantes. Merci pour la grande fête de réchauffement de dmexco! Nous nous sommes beaucoup amusés avec vous.

Jour 1 chez dmexco – nous sommes prêts

Mercredi cela a finalement commencé – la dmexco a ouvert ses portes! Toute l'équipe était très enthousiasmée par les deux prochains jours et attendait avec impatience toutes les parties et visiteurs intéressés. Team1 Recap 2013 dmexco   Il y avait beaucoup de monde sur notre stand toute la journée, ce qui nous rendait vraiment heureux. Nous étions submergé par le grand intérêt et les commentaires positifs sur notre outil. Am-Stand1 Recap 2013 dmexco   Am-Stand21 Recap 2013 dmexco

Start-Up of the Year Bash – la fête sur le stand

Vers 17 heures déjà, les premiers invités attendaient l'annonce annoncée Start-Up of the Year Bash avec le magazine t3n, Et bien que notre stand ait été complètement occupé de toute façon, de plus en plus d’invités sont venus et ont rempli le stand d’exposition et la zone devant lui, de sorte que le hall 6 se détache de 18h30. Comme point culminant, le Gâteau d'anniversaire OnPage.org et fait pour une fin délicieuse à l'événement. Cake1 Recap 2013 dmexco   Bien que nous ne puissions pas compter les visiteurs avant l'émeute du bâtiment, la foule était visible et surprenante. 60 boîtes Tegernseer, 30 boîtes Kölsch, une cargaison Hugo et tous les Mexicains mis par le t3n ont été vidés. Plus tard, la fête était finie pour le début de l’OMClub. À la place, un grand merci à tous les aides qui ont apporté les boîtes au stand, aux DJ et au t3n pour avoir co-organisé l’une des soirées les plus cool sur le stand. Un grand merci à tous ceux qui sont venus nous voir et qui ont célébré avec nous! Stand Party21 Recap 2013 dmexco   Stand Party31 Recap 2013 dmexco

OMClub – le parti non officiel de dmexco

Après la fête, nous avons continué à travailler pour nous. OMClub populaire dans la Lanxess Arena, Un grand merci à Randolf pour cette incroyable fête et pour l'organisation! Il y avait vraiment beaucoup de points forts, y compris des DJs sympas, des numéros de spectacle et même une auto-tamponneuse au milieu de la salle. Nous, et certainement tous les autres invités, avons passé une soirée extraordinaire avec des collègues, des amis et des connaissances de la scène SEO. OMClub1 Recap 2013 dmexco

Jour 2 chez dmexco – OnPage.org continue de vibrer

Toujours fatigué par la fête avant, nous avons continué jeudi à partir de 9h30. Encore une fois, il y a eu de bonnes conversations et des retours intéressants pour nous autour de l'outil. Nous avons pu nouer de nombreux contacts, rencontrer enfin des clients en personne et rencontrer de nouvelles personnes. L’intérêt pour l’outil était écrasant, alors nous avons même le jeudi à 18h00 horloge encore des discussions passionnantes pourrait conduire. IMG_45321 Résumé 2013 dmexco   Dans la soirée, après les impressionnantes journées passées au dmexco pour l'équipe, le long voyage de retour a commencé dans la grotte OnPage.org de Munich. Cette année, dmexco était non seulement une première pour nous en tant qu’exposant, mais a également apporté de nombreuses surprises. Les retours impressionnants de nos clients et l’intérêt des visiteurs du salon nous ont montré que encore beaucoup de potentiel dans l'optimisation de site Web et nous faisons quelque chose de bien pour les webmasters avec notre outil. Nous avons pu prendre part à de nombreuses conversations et recueillir de bons retours et critiques. Nous sommes heureux de tous les visiteurs qui se sont approchés du stand. Nous n'avons pas beaucoup remarqué le salon lui-même cette année, car notre stand était toujours rempli de visiteurs, de clients et de personnes intéressées, de sorte que seuls quelques-uns ont réussi à parcourir les halls d'exposition à quelques reprises et à prendre rendez-vous à l'étranger. Nous vous remercions pour les bonnes conversations, tous les visiteurs et amis qui nous ont soutenu. Un grand merci aux DJs Jens et Bosko, au magazine t3n et au site web Boosting. Un merci tout particulier à l’ensemble de l’équipe Fair Superhero de OnPage.org. Nous attendons avec impatience le prochain dmexco 2014!

Création de marque numérique: pourquoi la stratégie de marque est-elle si importante pour le marketing en ligne?

La stratégie de marque numérique est l'un des thèmes centraux du marketing en ligne. En particulier dans le secteur B2B, le facteur de succès le plus important pour une entreprise sera la marque et sa perception sur Internet, à la fois parmi les groupes cibles et le principal gardien Google. Vous trouverez ci-dessous davantage d'informations sur la signification et les caractéristiques d'une marque (numérique) et sur la manière de mesurer la construction d'une marque. À la fin de l'article, je partagerai un tableau de bord de surveillance de la marque Google Analytics que j'ai créé gratuitement.

Marketing en ligne en transition du Web 1.0 au Web 3.0

Le marketing en ligne a continué d'évoluer depuis le tournant du millénaire, parallèlement à l'évolution du Web. Les deux gardiens les plus importants, par exemple Google, Facebook, Twitter, Amazon … ainsi que le développement de Web 1.0 via Web 2.0 à Web 3.0 étaient responsables.

Web 1.0:

Seuls quelques-uns ont pu publier du contenu statique sur le réseau et le mettre à la disposition de nombreux lecteurs. (un-à-plusieurs) Une publication indépendante de son propre contenu ou offres ou un dialogue n'a pas été facile. Les supports publicitaires en ligne courants étaient donc des formats de publicité push tels que, par exemple, bannières d'affichage. Grâce à la mise en place de systèmes de gestion de contenu (CMS), il était théoriquement possible pour quiconque de publier du contenu sans connaissances en programmation sur le net. Ce développement a été la transition vers le Web 2.0. En raison de l'augmentation rapide du nombre de contenus ou d'offres en ligne sur Internet et de diverses plates-formes, les nœuds ou les opérateurs de contrôle, facilitant la navigation et la localisation de ces contenus sur le réseau, sont devenus de plus en plus importants. Le grand moment des moteurs de recherche et du marketing par moteur de recherche avait commencé.

Web 2.0:

Les possibilités de participer en tant que prosommateur au réseau avec contenu ont été étendues de manière exponentielle uniquement par le biais de forums et à partir de 2005 environ par le nombre sans cesse croissant de réseaux sociaux. En utilisant Myspace, Facebook & Co., chacun peut créer son propre profil de la manière la plus simple, publier du contenu en ligne, communiquer publiquement ou dialoguer. Cela a ouvert de nouvelles perspectives pour les relations publiques et le marketing en ligne sous forme de marketing de bouche à oreille, viral et buzz.

Parallèlement à ce développement, de plus en plus de systèmes d’analyse et de suivi Web gagnent du terrain, ce qui permet de contrôler les campagnes et d’optimiser les conversions. Le marketing à la performance est devenu la tendance dominante du marketing en ligne.

Le sujet du marketing de contenu est devenu étonnamment tardif au cours des dernières années. Invités par les mises à jour de spam de Google, telles que Penguin ou Panda, l’intérêt pour le marketing de contenu n’a que fortement augmenté depuis environ 2012, bien que la publication de contenu en ligne soit également relativement facile à commercialiser depuis la mise en place de systèmes de gestion de contenu.

content-marketing_trend "width =" 700 "height =" 233 "srcset =" https://www.sem-deutschland.de/wp-content/uploads/2015/01/content-marketing_trend.jpg 868w, https: // 300w, https://www.sem-deutschland.de/wp-content/uploads/2015/01/content -marketing_trend-600x200.jpg 600w "data-lazy-tailles =" (max-width: 700px) 100vw, 700px "/><noscript><img decoding=Source: Google Trends

Web 3.0

Nous sommes actuellement en phase de transition vers le Web 3.0 ou le Web sémantique.

la Web sémantique étend que Web pour rendre les données entre ordinateurs plus faciles à échanger et à exploiter pour eux … Tous les objets d’intérêt sont identifiés et dotés d’une adresse unique créée en tant que nœuds, lesquels sont à leur tour connectés par des bords (chacun clairement nommé). Les documents individuels sur le Web décrivent ensuite une série d'arêtes et la somme de toutes ces arêtes correspond au graphe global.

Source: Wikipedia

De plus en plus de systèmes reposent sur le traitement structuré de données ou de contenu dans des graphiques tels que. Google avec Knowledge Graph ou Facebook avec Social Graph. De plus, Google a mis à jour en 2013 avec Hummingbird l’algorithme de recherche complet appelé «recherche sémantique».

Quelles conséquences ce développement a-t-il sur le marketing en ligne? J'aimerais expliquer plus en détail ci-dessous.

C'est pourquoi il est encore plus important que les données et les informations soient identifiables, catégorisables et triables en fonction du contexte. C'est la seule façon de gérer le flot de données. Et ici, le Web 3.0 avec sa structure sémantique joue la conséquence logique du Web 2.0. Nous sommes actuellement dans une sorte de transition vers le Web 3.0. Vous pourriez l'appeler Web 2.5. Les grands portiers Google et Facebook utilisent déjà des fonctionnalités sémantiques, comme je le montrerai plus tard.

Le Web 3.0 comme conséquence logique du Web 2.0

Grâce au Web 2.0 et à ses possibilités techniques, presque tout le monde peut publier du contenu en ligne via son propre site Web, son blog et son profil de réseau social. Cela entraîne inévitablement une inondation d'informations et de données sur le réseau, comme le montre de manière impressionnante l'infographie suivante.

ce qui-se-in-the-internet par minute-300dpi-e1436188320789

Pourquoi la marque numérique joue un rôle central dans le marketing en ligne

Le renforcement de la marque numérique jouera un rôle central dans le marketing en ligne à l'avenir pour deux raisons.

  • La situation du marché dans de nombreuses industries
  • L'évolution du gatekeeper principal vers le Web sémantique 3.0

La situation du marché

Les entreprises qui, par le passé, se concentraient uniquement sur le marketing de la performance et ignoraient la stratégie de marque auront des difficultés à prétendre avoir du succès sur Internet dans de nombreux domaines, alors que les optimiseurs de performance purs deviennent de plus en plus minces. Cela est dû à la pression concurrentielle croissante au fil des ans et à l’augmentation plus large du savoir-faire et des ressources en termes de marketing à la performance.

Le marketing à la performance n'est pas durable et ne paie pas à long terme pour la marque d'une entreprise. Mais la marque crée des avantages concurrentiels à long terme.

Une marque forte peut rendre le marketing en ligne crucial pour le succès.

  • Une marque forte peut meilleurs taux d'achèvement ou de conversion parce que la confiance dans une marque bien connue est plus grande.
  • La plus grande confiance peut être aussi taux de clic amélioré dans le SERPs plomb, ce qui est bénéfique pour le Classement Google
  • Les marques établies y mènentune plus grande fidélité des clients, résultant en plus visiteurs et visiteurs du site Web peut affecter.
  • Les chances de références et de partages sociaux sont plus grandes, en tant que marques numériques fortes, en raison de la fiabilitéplutôt lié par des multiplicateurs, un contenu référencé ou partagé Cela conduit à une plus grande portée et un meilleur classement, Le marketing de contenu, le référencement et les relations publiques seront plus faciles,
  • Les marques qui ont acquis une autorité sur le domaine dans un ou plusieurs domaines thématiques,se trouvent avec du contenu plutôt sur Google en tant que domaines non établis.
  • Les marques fortes bénéficient également de meilleurs taux de clics pour la publicité sur les moteurs de recherche (SEA) en raison de leur popularité, ce qui entraîne une amélioration des facteurs de qualité et une baisse des prix des clics.

En outre, le trafic de la marque est, par exemple, de Via un accès direct ou des requêtes de recherche pour la marque dans les moteurs de recherche ainsi que pour les visiteurs qui reviennent au trafic le plus précieux.

le trafic de la marque "width =" 650 "height =" 390 "srcset =" https://www.sem-deutschland.de/wp-content/uploads/2015/01/markentraffic.jpg 760w, https: //www.sem- deutschland.de/wp-content/uploads/2015/01/markentraffic-300x180.jpg 300w, https://www.sem-deutschland.de/wp-content/uploads/2015/01/markentraffic-600x360.jpg 600w " data-lazy-size = "(max-width: 650px) 100vw, 650px" /><noscript><img decoding=

Le Web 3.0 et la marque numérique

Les nœuds ou les gardiens du réseau tels que Google et Facebook veulent et peuvent identifier ces marques et autorités du réseau. Tout d’abord, peu importe que vous ayez déjà établi une marque en mode hors connexion ou non. Les entités jouent un rôle important dans cette considération.

En sémantique est un entité identifié de manière unique par un identifiant et des propriétés spécifiques. ils font dans la plupart des cas une ontologie et peuvent personnes. Ouvrages d'art. société etc. représentent. ontologies décrire l'environnement dans lequel se trouvent les entités.

Entité ontologie e1436188425320

ontologie "width =" 693 "height =" 445 "srcset =" https://www.sem-deutschland.de/wp-content/uploads/2015/01/ontologie.jpg 693w, https: //www.sem- deutschland.de/wp-content/uploads/2015/01/ontologie-300x193.jpg 300w, https://www.sem-deutschland.de/wp-content/uploads/2015/01/ontologie-600x385.jpg 600w " data-lazy-size = "(max-width: 693px) 100vw, 693px" /></p>
<p><noscript><img decoding=Caractéristiques et chiffres clés d'une marque numérique ou d'une autorisation

Transféré sur Internet, vous pouvez attribuer des sites ou des domaines en tant qu’image numérique centralisée des caractéristiques importantes d’une marque. Une marque numérique peut être reconnue par la plus grande popularité du site Web de la marque dans le domaine / l'industrie par rapport à la moyenne des autres sites. Les chiffres clés pour la popularité supérieure à la moyenne peuvent par exemple être le suivant:

  • présence
  • Nombre de nouveaux visiteurs
  • Volume de recherche selon les termes de la marque
  • Volume de recherche de termes de recherche liés à la navigation liés au domaine et à la marque
  • Social Spread, Social Buzz, Visibilité des réseaux sociaux

La fidélisation de la clientèle est une autre caractéristique importante des marques et des autorités. Les mesures de fidélité peuvent être:

  • durée moyenne de séjour
  • taux de rebond
  • Proportion de visiteurs revenant

La propriété la plus importante d'une marque et d'une autorité est probablement le prestige et la confiance qui peuvent être évalués sur la base des indicateurs de réputation externes suivants:

  • Cooccurrences et co-citations
  • Noms de marque et liens

Un autre signe de confiance dans une marque ou un site Web est constitué de paramètres indiquant le niveau d'interaction. Les chiffres clés d’engagement suivants peuvent être utilisés à cet effet:

  • taux d'achèvement
  • plus d'interactions avec le site telles que téléchargements, commentaires …
  • Relation avec d'autres marques, autorités et influenceurs
  • Nombre de pages vues (impressions de pages)

Bien sûr, les taux d'achèvement ont également quelque chose à voir avec l'optimisation de la conversion et de la convivialité, mais l'engagement a toujours quelque chose à voir avec la confiance dans un site Web, et donc la marque.

Vieux vin dans de nouveaux tubes de marketing? Oui et non!

Maintenant, certains vont certainement dire. Oui, rien n’est nouveau, marketing ou image de marque. Ce n'est pas tout à fait vrai. Le marketing et en particulier la stratégie de marque dans le marketing en ligne acquièrent un nouveau poids en raison des développements récents et des possibilités de mesurer la force de la marque.

Le développement d'une marque numérique devient un facteur de succès essentiel et se positionne au centre du marketing en ligne, où se limitait jusqu'alors le marketing à la performance. Je ne veux pas aller plus loin ici sur l'effet de marque des bannières d'affichage, de la publicité télévisée et imprimée et sur l'importance du marketing de contenu pour la construction de la marque. Je le sais depuis deux ou trois ans, par exemple. dans le post marketing de contenu n'est pas le renforcement des liens et le référencement! Un appel aux agences et entreprises déjà largement omis. Plus d'informations sur la création d'une marque numérique seront publiées ici dans le blog dans les prochaines semaines. J'attends avec impatience les commentaires sur les commentaires et les charges d'autres signaux pour une marque …. 😉

Tout ce qui a été couvert ici et plus sera expliqué dans ma conférence au CeBIT 2015:

La création de marques numériques au centre du marketing en ligne moderne

Je suis sûr que la création de marque ou la stratégie de marque deviendront le thème central du marketing en ligne. En particulier dans le secteur B2B, le facteur de succès le plus important pour une entreprise sera la marque et sa perception sur Internet, à la fois parmi les groupes cibles et le plus important gardien Google.

D'abord et avant tout, la création d'une marque numérique ou d'une marque en ligne ne fonctionne plus comme par le passé grâce à la publicité poussée ciblée. La "notoriété" de cette forme de marketing a diminué, en particulier sur Internet. Le marketing de contenu associé à une fourchette supérieure à la moyenne, le référencement, le marketing sur les réseaux sociaux et l'optimisation de la convivialité font connaître une marque aujourd'hui. Le marketing et en particulier la stratégie de marque dans le marketing en ligne acquièrent un nouveau poids en raison des développements décrits et des possibilités de mesurer la force de la marque.

Le développement d'une marque numérique devient un facteur de succès essentiel et se positionne au centre du marketing en ligne, où se limitait jusqu'alors le marketing à la performance.

Tableau de bord de surveillance de la marque Google Analytics

Pendant votre temps libre, j’ai créé un tableau de bord Google Analytics ci-dessous, qui reflète la plupart des chiffres ci-dessus, principalement en évolution temporelle. Vous avez donc accès à de nombreuses caractéristiques importantes de la marque.

Tableau de bord Analytics Brand Monitoring "width =" 500 "height =" 313 "srcset =" https://www.sem-deutschland.de/wp-content/uploads/2015/01/Analytics-Brand-Monitoring-Dashboard .jpg 1217w, https://www.sem-deutschland.de/wp-content/uploads/2015/01/Analytics-Brand-Monitoring-Dashboard-300x188.jpg 300w, https://www.sem-deutschland.de /wp-content/uploads/2015/01/Analytics-Brand-Monitoring-Dashboard-1024x642.jpg 1024w, https://www.sem-deutschland.de/wp-content/uploads/2015/01/Analytics-Brand- Monitoring-Dashboard-600x376.jpg 600w, https://www.sem-deutschland.de/wp-content/uploads/2015/01/Analytics-Brand-Monitoring-Dashboard-252x159.jpg 252w "data-lazy-tailles = "(largeur maximale: 500px) 100vw, 500px" /><noscript><img decoding=

Référencement Campixx 2013 sur OnPage.org

Le référencement Campixx est un événement SEO d'un type différent et reste un must pour tout optimiseur de moteur de recherche sérieux.

Aussi cette année, Marco Janck de Sumago a réuni tous les SEO et les spécialistes du marketing en ligne de toute l'Allemagne sous le même toit. Hôtel Müggelsee à Berlin, L’équipage de Campixx a rendu possible la soi-disant Un-conference depuis 2008, comme toujours sous une grande devise. Ce fut un autre honneur pour l'équipe d'OnPage.org d'être là. Nous avons l'esprit!

Pré-conférence

Après six heures de route de Munich à Berlin, l’équipe OnPage.org est arrivée à Mügelsee vers 18 heures le soir de la conférence, puis tout est allé droit au but. pour la mise en réseau au célèbre hôtel Müggelsee Bar. Dans la grande salle, une partie des participants à Campixx se sont retrouvés "Jeopardy SEO" par Kai Spriesterbach et Tom Zeithaml. C'est devenu un mélange de questions sur le référencement qui ont été posées de manière très agréable et amusante et auxquelles on a répondu assez rapidement. Après de nombreuses conversations avec d'anciennes et de nouvelles connaissances, la première journée de la conférence était pleine d'énergie.

SEOCampixx – Jour 1

La bienvenue a commencé avec Marco comme "esprit de Campixx" et chaleureusement avec la vidéo de rap officielle. Le programme d'initiation avec le Artiste de ballon Tobi van Deisner était très amusant et particulièrement attrayant pour nous car il était question de jouer à Star Wars. Ensuite, les séances ont eu lieu directement dans les différentes salles de conférence. Le programme du panel était avec plus de 120 conférences Un éventail de sujets très restreint, mais toujours très étendu: de la création de liens au grattage en passant par les sujets d'affaires généraux Surtout que Réseautage sur le référencement Campixx était comme toujours très éclairant pour nous. Nous avons eu un nombre incroyable de bonnes discussions. Grâce à l'échange et aux discussions approfondies, nous pourrions en prendre beaucoup pour nous en tant qu'équipe et pour le produit. Nous avons été heureux d’entendre les demandes de fonctionnalités, les critiques, les commentaires et les suggestions de nos clients. Nous avons été particulièrement heureux de rencontrer l'un ou l'autre client en personne. Après une journée bien remplie, avec beaucoup d’apports, des activités cérébrales et intellectuelles, la première journée du Campixx s’est terminée et a pris fin avec un repas traditionnel à base de poulet. Ensuite, il y avait plus, cette fois un peu de discussions gaies sous l'influence de boissons alcoolisées;) Le programme d'animation Quatre unis était un point fort spécial et fourni une atmosphère rocking le soir.

SEOCampixx – Jour 2

Le deuxième jour est, selon l'expérience, un peu plus épuisant que le premier. Et les séances n'ont pas été très fréquentées. (nous ne savons pas ce que cela signifie);) Néanmoins, il y avait une possibilité pour nous de recevoir beaucoup de commentaires et de parler facilement avec d'autres visiteurs de SEO Campixx. Et comme nous devions conduire de Berlin à Munich pendant quelques heures, il était déjà 15 heures. #Vollgas Retournez vers la grotte OnPage.

Notre conclusion – Campixx 2013

Bien sûr, nous avons du mal à rendre compte de chaque session car nous voyagions avec six membres d’équipe et avons principalement entendu différentes sessions. Mais ce que nous avons vu montre que La scène du référencement en Allemagne continue de croître, obtient toujours un nouvel accès et continue à faire du bon travail. Parmi les nombreuses conversations que vous avez remarquées – cela se produit! Non seulement dans le paysage des outils, mais également dans le domaine du conseil et du marketing de contenu. L’industrie est devenue très professionnelle et a encore beaucoup de potentiel. Même sur le plan personnel, nous n'avons pas d'industrie comparable. Nous rencontrons des personnes qui nous donnent simplement des commentaires honnêtes et qui se soutiennent mutuellement. L'échange de savoir-faire en matière de référencement est un atout précieux qui ne manquait pas au SEO Campixx 2013. Nous tenons à remercier les participants et les organisateurs et, bien sûr, Marco pour le 5ème Campixx SEO et nous attendons avec impatience le Müggelsee en mars 2014.

SEO sur le Campixx 2013:

Lisez ici, qui d'autre était là et comment ils ont vécu le Campixx.

Comment créer des personas pour le marketing en ligne?

Lors de l'élaboration d'une stratégie ou d'une campagne de marketing en ligne, il est important d'interagir avec les groupes cibles, les personnalités, leurs besoins et les événements qui les concernent. Mais le personnage classique n'est pas conçu de manière optimale pour les besoins du marketing en ligne et de ses canaux. Voici quelques réflexions sur la façon de transformer un personnage classique en un personnage marketing en ligne.

Classification des groupes cibles

Pour les publics de marketing en ligne, on pense toujours avant tout aux clients potentiels, mais le public cible comprend toutes les personnes pouvant être liées de quelque manière que ce soit à la société et à ses offres. Que ce soit en tant que client, multiplicateur, faiseur d'opinion / influenceur ou employé.

Pour résumer, j'ai résumé les groupes cibles les plus importants pour le marketing (numérique).

En particulier pour le développement (numérique) d'une marque, non seulement les clients (potentiels) sont importants. Les clients satisfaits existants, tels que les influenceurs, sont bien plus importants. les gens populaires, les rédacteurs en chef, les journalistes, mais aussi des experts de l'industrie. Marque = popularité + réputation / confiance. En particulier, la réputation ou la confiance dans une marque est fortement influencée par des influenceurs indépendants, des journalistes, des experts indépendants, des clients existants …

Pour les clients potentiels, vous devez accorder une attention particulière aux groupes de besoins. Ils constituent la partie la plus importante du groupe de clients potentiels. À savoir cette partie où les deux besoinqui la volonté d'agir et le le pouvoir d'action sont présents. (plus à ce sujet voir ici par le collègue Karl Kratz)

Un exemple:

Ils planifient actuellement une campagne de marketing de contenu axée sur la création de liens retour à partir de sources pertinentes. Un soi-disant linkbait. Le public cible du contenu est constitué de toutes les personnes intéressées par le sujet du contenu, mais seuls les éditeurs, les blogueurs ou les autres personnes pouvant placer des liens ont le pouvoir de créer des liens vers le contenu.

Par conséquent, la définition du groupe de besoins devrait toujours se concentrer sur l'objectif principal de l'action.

Si l'objectif principal de la campagne est d'attirer de nouveaux clients à long terme (10 à 20 ans) et de développer la marque ou le produit afin de créer des groupes cibles pour les futurs groupes de demande, cette campagne a également du sens pour cibler des groupes au-delà des groupes de besoins. En ce qui concerne les ventes en temps opportun, l'accent devrait être mis sur les groupes de demande.

Le groupe de demandes comprend toutes les personnes pouvant interagir actuellement avec un objectif particulier.

C'est pourquoi vous devez leur accorder une attention particulière, notamment dans l'optimisation de la conversion.

Qu'est-ce qu'un personnage?

Un personnage est un modèle utilisateur exemplaire ou un modèle de client ou de partenaire potentiel. Certaines caractéristiques et propriétés sont affectées à ce modèle utilisateur. Pour la conception et la création de produits, de contenus, de matériel publicitaire et de pages de destination, un profil Persona constitue une aide précieuse pour le contenu et la conception visuelle.

Le modèle de personnage classique

La création de profils de personnalités est une méthode souvent utilisée dans l’UX, le marketing classique ou le secteur des communications. Il est utilisé pour visualiser un groupe cible basé sur un personnage concret avec son nom, son apparence, son âge, diverses caractéristiques sociodémographiques … Pour la description d'un personnage, des modèles tels que le modèle de Sinus-Millieus ou de la carte limbique selon Hans Georg Häusel sont souvent consultés.

Sinus Millieus Allemagne, Source: http://www.sinus-institut.de/sinus-loesungen/sinus-milieus-deutschland/

Source: Hans-Georg Häusel: Fondements scientifiques de l'approche Limbic®, 2011¸S. 48

Un collègue apprécié, Mirko Lange, utilise également la carte Limbic comme base de ses approches en matière de marketing de contenu (voir, par exemple, sa présentation ici). Je ne voudrais pas développer ces modèles en détail, mais plutôt me référer aux sources d'origine suivantes pour une lecture plus approfondie:

Sur la scène de démarrage, il existe un bon résumé sur la façon de créer une personne classique. Par conséquent, vous devez affecter les propriétés Personas dans les catégories suivantes:

  • Caractéristiques telles que l'information sur la démographie, la personnalité, l'expertise et les capacités
  • Objectifs et tâches telles que loisirs, tâches spéciales, objectifs de vie
  • Motivation telle que facteurs positifs / négatifs pour la décision d'achat, modèles
  • Exigences et besoins tels que sources d'information, acheteurs d'impulsion ou de ratio, besoins, besoins de sécurité

Je ne veux pas aborder le sujet de la création de personnages classiques ici. Il y a déjà beaucoup d'autres sources lisibles. À la fin de cet article, vous en trouverez quelques-uns. Dans ce qui suit, je souhaiterais mettre l’accent sur les spécificités du marketing en ligne. Tout d'abord, une brève explication des différents points de vue des personnes en communication et marketing et des spécialistes du marketing en ligne, que je rencontre encore et encore lorsque je travaille avec des agences de création et de communication.

Personas: Communication classique vs. Le marketing en ligne

Le marketing et la communication classique considèrent les campagnes et les groupes cibles principalement du point de vue de la création et de la conception visuelle. C'est une différence cruciale pour la réflexion et la perspective d'un spécialiste du marketing en ligne. Les spécialistes du marketing en ligne commencent souvent à concevoir des campagnes de "l'autre côté". Je l'appelle maintenant du point de vue fonctionnel et conceptuel.

Un bon spécialiste du marketing en ligne connaît assez bien les caractéristiques et les fonctionnalités des canaux de marketing en ligne. Il sait quels groupes cibles il peut atteindre via quel canal avec quelles fonctionnalités de ciblage. En outre, il traite également beaucoup de mesures d'optimisation après le lancement effectif des campagnes.

C'est une différence cruciale par rapport aux campagnes marketing conçues par des professionnels de la communication. Ils sont plus créatifs centrés sur le développement de campagnes. Pour vous, l'objectif principal est d'utiliser du matériel publicitaire, des sites Web et des pages de destination principalement pour attirer l'attention du client potentiel par le biais de la visualité. L'accent est mis sur les moyens visuels de traiter du matériel publicitaire et sous la forme de différents supports publicitaires. Après avoir conçu, produit, planifié et lancé une campagne, le marketing consiste principalement à i.d.R. fait. Au mieux, il existe encore des moyens de mesurer le succès des campagnes.

Cependant, de nombreux canaux de marketing en ligne offrent des options de contrôle pour optimiser les campagnes même après le début. Et surtout, ils offrent des options de contrôle beaucoup plus précises pour minimiser les pertes de diffusion. Ceci n’est que très rudimentaire, voire impossible, avec les canaux de marketing classiques tels que l’imprimé, la télévision et la radio.

Ce graphique illustre la différence entre l’état d’esprit plus centré sur les fonctions des spécialistes du marketing en ligne et la perspective axée sur les créateurs des spécialistes du marketing dans les campagnes numériques.

Perspective de communication centrée sur la création vs. Etat d'esprit du marketing en ligne centré sur les fonctions

D'après mon expérience, ces différentes perspectives sont souvent la difficulté lorsque les spécialistes du marketing en ligne avec les spécialistes du marketing et vice-versa ont à faire avec les autres. Mais cela explique aussi pourquoi, par exemple Le contenu produit par les référenceurs est souvent de la merde et les campagnes marketing en ligne initiées par des professionnels de la communication sont souvent inefficaces. Une fois que vous réalisez que les deux parties font partie du jeu marketing, il en sort souvent quelque chose de bien mieux. Aussi lors de la création de personas.

Création de personas pour le marketing en ligne

La création de profils personnels uniquement du point de vue de la création n’aide pas davantage le marketing en ligne.

En plus des propriétés déjà mentionnées des personnages du modèle personnel classique, il est judicieux de compléter les caractéristiques permettant de déduire directement des mesures de ciblage dans les canaux de marketing en ligne pertinents pour chaque personne. La classification selon Limbic Map ou Sinus Millieu ne fournit qu'une petite quantité d'informations pouvant être directement transférées vers le ciblage dans les différents canaux de marketing en ligne.

Les informations selon lesquelles une personne est un type de dominance et recherche le pouvoir, la liberté et la richesse peuvent être des informations précieuses pour la création de pages de destination, de contenus et de supports publicitaires, mais ne permettent pas de dériver pour le ciblage. Seulement avec cette information est là une impasse en termes de marketing en ligne. On définit un type dominant, créé pour celle-ci, le contenu et le matériel publicitaire. Mais comment pouvez-vous fournir exactement à ce groupe cible du matériel publicitaire, du contenu et la page de destination appropriée? Il a investi beaucoup de temps et d’argent dans la création et la production et il est à présent évident que ce type de Persona n’est pas accessible via les fonctionnalités de ciblage habituelles. On a fait le calcul sans l'hôte ou sans les canaux de distribution.

Dans le pire des cas, les campagnes démarrent quand même et un type de solde est maintenant faussement livré avec une annonce ou une page de destination pour le personnage de dominance. Le résultat est exactement le contraire de ce que vous vouliez atteindre. Taux de rebond élevés sur les pages de destination, taux de clic faible sur le matériel publicitaire.

Par conséquent, lors de la création de personas pour le marketing en ligne, il est important de garder un œil sur la fonctionnalité de ciblage des canaux de distribution pertinents afin de fournir du matériel publicitaire, des pages de destination et du contenu.

Ciblage des opportunités des canaux de marketing en ligne

Par exemple, vous pouvez être sûr de savoir qui vous avez devant vous. Fournissez du contenu dynamique à des audiences Persona plus spécifiques par le biais de systèmes de reciblage ou de comportement sur la page de destination.

Dans la définition ou la classification du groupe cible, il faut toujours faire attention au préalable aux possibilités d’alignement, par exemple. Systèmes PPC ou autres canaux de distribution tels que, par exemple, Facebook Ads, le Réseau Display de Google. Outbrain. Google AdWords, référencement … sont possibles. Les approches personnalisées classiques sont souvent trop fines pour que vous puissiez les contrôler en conséquence via les canaux de marketing en ligne habituels. C'est pourquoi les définitions de personnalités plus grossières ont plus de sens pour le marketing en ligne.

Les possibilités de contrôle des affichages dans les différents systèmes varient considérablement. Alors que seules quelques orientations sociodémographiques et thématiques rudimentaires sont possibles dans certains systèmes PPC, des systèmes tels que, par exemple, Les publicités Facebook ou le Réseau Display de Google permettent une modulation très délicate. Très peu de systèmes PPC tels que, par exemple, les publicités XING et Facebook vous permettent de contrôler certains groupes professionnels. Voici un bref aperçu superficiel des différentes options de ciblage des systèmes PPC les plus importants:

  • SEA / AdWords: Mots-clés, Emplacement, Remarketing
  • SEO: Mots-clés
  • Google GDN: Contextuel, âge, sexe, lieu, revenu, sujet, intérêts, intérêt, remarketing
  • Facebook Ads: Intérêts, Âge, Sexe, Lieu, Profession, Formation, Employeur, Interaction avec le site web et la fanpage, Activités numériques, Sosie, Retargeting
  • plista; Outbrain: Sujet, intérêt, âge, genre
  • XING / LinkedIn: Lieu, âge, sexe, profession, secteur d'activité, employeur / entreprise

Pour obtenir des informations plus détaillées et à jour sur les différentes fonctions de ciblage, il convient de consulter les sites Web respectifs des fournisseurs.

Même pour l'optimisation des moteurs de recherche, les définitions de personnage à petite échelle n'ont pas beaucoup de sens, car les mots-clés, en tant que seule option de ciblage, constituent souvent une déclaration sur l'intention de recherche et la phase du parcours du client.

Les groupes cibles devraient donc être définis pour le marketing en ligne en ce qui concerne les fonctionnalités de ciblage possibles.

Voici à quoi pourrait ressembler un personnage de marketing en ligne:

___________________________________________________________________

Nina

Age: 25-35 ans

Education / Profession: Etudiant en graphisme

Industrie: Graphisme / Design

Position dans l'entreprise: –

Employeurs / services potentiels: agences de marketing, agences de publicité, département graphisme, conception de produits

Etat civil: célibataire, sans enfant, veut d'abord avoir un emploi stable avant de fonder une famille

Genre: femme

Résidence: Berlin

Langage / Croyances: "Un esprit sain habite un corps sain", "La connaissance, c'est le pouvoir", "Rien n'est impossible si vous le voulez, vivez chaque jour comme si c'était votre dernier."

Attentes: Elle veut trouver des produits qui l’aident à rester en bonne santé et mince. Les produits doivent correspondre à leur sens de l'esthétique ou avoir un look à la mode. Elle souhaite recevoir des informations et des conseils sur le sport et la nutrition. Je veux être en forme.

Appareils: la plupart des utilisateurs privés aiment leur marque de smartphone Apple I-Phone pour surfer sur le net. Fonctionne depuis son Mac.

Intérêts: fitness, voyages, lecture, mode, décoration de la maison, santé, graphisme, art

Sinus-Millieu: intellectuels libéraux

Propriétés Limbic-Map: type de stimulant (créativité, légèreté, curiosité, art)

Gathering Information / Tochpoints: Blogs sur la mode, le fitness et la nutrition, Google, Youtube, Facebook, groupes LinkedIn

Informations approfondies: vous souhaitez des informations détaillées et une expertise sur les thèmes du graphisme et de l'art. En matière de santé, de sport et de fitness, vous souhaitez des astuces simples et rapides.

Comportement du consommateur: est un acheteur impulsif. Nécessite en moyenne deux à un à sept jours pour effectuer un achat. Obtenir des informations de 1-2 sources avant d'acheter.

Situation de vie. Des vies à louer

Génération: X / Y

Habitudes de voyage: Voyage 2-3 par an

__________________________________________________________________

À partir des propriétés de personnage affichées en vert, des informations pour le marketing en ligne et le ciblage peuvent être directement dérivées. Les propriétés non vertes sont plus appropriées pour la création.

Déterminer les événements par personne

Les profils de Persona seuls, cependant, n’aident que partiellement. En particulier pour le marketing de contenu, il est important que les événements personnels à identifier, qui peuvent déclencher l’entrée dans le processus de recherche ou le parcours du client.

Cela a du sens, surtout s’il est improbable que la première étape consiste à attirer l’attention du groupe de la demande par le biais de la publicité push. Il est important de reconnaître ces événements par des mesures marketing telles que: Concevez et placez le marketing de contenu de manière à ce qu'il soit découvert par le chercheur dans le bon contexte de contenu, au bon moment et au bon endroit.

Si vous souhaitez vendre des chaussures de course comme ceci:

Martin a dans la mi-trentaine et remarque un matin de janvier qu'il ne peut plus obtenir le bouton du haut de son pantalon préféré. Après être monté sur la balance, il réalise qu'il doit perdre du poids et commence à chercher des solutions pour perdre du poids le plus rapidement possible et de manière durable.

Dans ce cas, l'événement déclencheur, la montée sur la balance ou le fait que Martin ne puisse plus avoir le bouton de son pantalon. Un autre événement déclencheur pourrait être:

Son médecin de famille conseille à Martin de perdre quelques kilos afin de préserver ses articulations et son système cardiovasculaire.

Les deux scénarios pourraient être des événements importants dans le parcours du client pour la vente de chaussures de course. Ils pourraient être utilisés pour cibler du contenu, du matériel publicitaire et des pages de destination.

Le marketing en ligne nécessite une création de personnage adaptée

Pour pouvoir utiliser les profils Persona également dans le cadre de mesures de marketing en ligne, il faut plus que le modèle de personnage classique. Lors de la création des personas, vous devez penser dès le départ aux canaux de distribution numériques possibles et à leurs propriétés ou à la fonctionnalité de ciblage.

Autres conseils de lecture utiles pour la création de personnages et le travail avec des personnages

Aide Google sur les attaques de hackers

La conception d'horreur de chaque opérateur de site Web est une attaque de hackers réussie. Un article a été écrit sur le blog officiel de Google pour les webmasters pour vous aider à détecter le problème rapidement, à réagir correctement en cas d'attaque de hackers et à vous fournir de nombreux conseils pour vous aider à prévenir des attaques dangereuses.

Google fournit une vue d'ensemble qui explique pas à pas aux webmasters comment les comprendre. cyberattaque réagir.

Au total huit étapes il existe un soutien sous forme d'articles et de vidéos. Au départ, il s'agit d'obtenir une vue d'ensemble, de mettre en place une équipe de support et de mettre en quarantaine la page affectée.

Ceci est suivi d'une discussion à l'aide de la console de recherche. Ce n’est qu’alors que l’évaluation des dommages en résultant est possible, Google proposant ici une aide sur les dommages causés par le spam, ainsi que par les logiciels malveillants. Trois étapes importantes sont nécessaires:

  • identification de la vulnérabilité,
  • le nettoyage de la page,
  • Demande de révision adressée à Google.

Non seulement les vidéos fournissent des indications, mais elles vous aident également à comprendre le fait et la raison d’une attaque.

Google a également écrit dans son billet de blog que personne ne pouvait suivre cette procédure, car cela nécessitait une certaine compréhension, des connaissances administratives avancées et une expérience du code source. Merci aux contributeurs, Google fait ici référence au Webmaster Forum, où tout le monde peut obtenir de l’aide, même pour résoudre les problèmes délicats des attaques de pirates informatiques.

Éviter les attaques

Google – et bien sûr l'équipe de SEO Expertise – est heureux si vous ne devez jamais utiliser cette aide. Par conséquent, Google souligne la publication de ses nouvelles pages d’aide avec quelques astuces pour se protéger en tant que webmaster des attaques correspondantes. Si vous exploitez un site Web, vous accordez une attention particulière à la convivialité des visiteurs et à l'optimisation des moteurs de recherche, mais la sécurité est tout aussi importante. Les pirates persistants découvrent toutes les vulnérabilités. C'est pourquoi Google recommande aux utilisateurs les recommandations suivantes:

  • Le logiciel utilisé doit être mis à jour.
  • Avant que des logiciels ou des plug-ins tiers ne soient utilisés, leurs mécanismes de sécurité doivent être compris, car même les points faibles de ce point autorisent l'accès non autorisé à une page.
  • Les logiciels non utilisés doivent être supprimés.
  • Tous les accès au serveur doivent être protégés par des mots de passe forts.
  • Tous les appareils ayant accès au serveur doivent être sécurisés. Google donne comme exemple les mises à jour du système d'exploitation et du navigateur.
  • La dernière recommandation est l'exécution de sauvegardes automatiques et régulières de la page.

En tant qu'exploitant de site Web, vous avez la sécurité de votre côté sous contrôle. Cela mérite beaucoup d'attention et devrait toujours être surveillé.

Comment attribuez-vous du contenu à votre stratégie de contenu?

Afin de garder une trace de la jungle du contenu, il est important de classer le contenu. L'attribution permet de maintenir l'ordre dans vos propres contenus ainsi que de mieux planifier la distribution du contenu. Cet article vous montrera quelques possibilités pour classer le contenu en fonction d'attributs spécifiques afin de préparer votre contenu pour les audits, de classer le contenu de manière optimale dans le parcours du client, de mieux identifier le contenu avec des métriques de performance et de préparer l'automatisation du marketing. Amusez-vous à lire!

Attribution de contenu dans le processus de marketing de contenu

En examinant les différentes phases du processus de marketing de contenu, la classification du contenu en fonction d'attributs spécifiques est une sous-tâche de la phase de conception ou d'analyse. Comme la classification dans les types de contenu est à la fois un rôle pour le Planifier un nouveau contenu, ainsi qu’une partie d’un inventaire de contenu de contenu existant dans le contexte d’un audit de contenu peut être l’on devrait procéder à la classification dans l’audit de contenu et / ou après le développement de l’idée.

Les sous-étapes supplémentaires suivantes sur lesquelles la classification du contenu a une influence sont les suivantes:

Classification du contenu dans le processus de marketing de contenu

Classification du contenu dans le processus de marketing de contenu

Ainsi, la classification du contenu joue un rôle fondamental dans le développement systématique d'une stratégie de contenu.

Dans ce qui suit, je discuterai des formes d'attribution possibles pour la classification du contenu des types de contenu.

Types de contenu et classes

Les types de contenu sont différentes formes de contenu pouvant être classées en fonction de caractéristiques spécifiques.

Voici quelques idées sur lesquelles les classes d'attributs peuvent classer le contenu:

  • thème
  • groupe cible
  • Formats de média / types de contenu: Quel est le format de support du contenu?
  • Format contenu
  • Diffuser et / ou extraire du contenu: le client (potentiel) s'oriente-t-il activement vers le contenu ou le contenu fournit-il une réponse à quelque chose qu'il recherche ou doit-il signaler un élément important pour lui?
  • But / but: quel est le but du contenu pour moi en tant qu'entreprise et quels objectifs mesurables peuvent en être dérivés?
  • Avantages: Quelle utilisation le contenu a-t-il pour le consommateur?
  • KPI pour mesurer le succès du contenu

Ici encore, sous forme visuelle du cube de classe d'attributs de contenu. Cela peut être ajouté à plus tard. Si vous avez des idées, n'hésitez pas à laisser un commentaire!

Classes d'attributs de dés

Attribution pour le format des médias

Il y a types de contenu et formats de médias,

Par types de contenu, on entend une attribution plus technique de documents. Ceci n'est que partiellement associé au marketing de contenu. C'est pourquoi je veux juste en parler ici.

Pour le contenu numérique, il existe plusieurs normes relatives aux types de contenu. Les normes communes pour les types de contenu sont le "Type de média Internet" ou une balise méta pouvant être utilisée dans l'en-tête d'un document à attribuer. Le "type de média Internet" est également composé de deux déclarations. Le type de support et une sous-catégorie basée sur le format du support.

Types de supports:

  • applicationRemarque: il s’agit de fichiers pouvant, par exemple, être utilisés par une application particulière ou qui ne peuvent pas être attribués de manière unique.
  • acoustique: Cette information fait référence aux fichiers audio contenus dans un document.
  • exemple: Si un document est ainsi distingué, il contient des exemples de formats de fichiers spécifiques.
  • image: Cela fait référence aux images et aux fichiers graphiques.
  • message: Indique qu'il s'agit d'un message, tel qu'un courrier électronique.
  • modèle: Désigne les données à structure multidimensionnelle.
  • multipart: Ce type fait allusion à des fichiers composés de plusieurs parties.
  • texte: Le type de média Internet pour les fichiers texte.
  • vidéo: Utilisé pour les fichiers vidéo.

Les sous-catégories peuvent être:

  • image / jpeg: Fichier image JPEG
  • image / tiff: Fichier image TIFF
  • text / plain: Fichier TXT (texte brut)
  • video / mpeg: Fichiers MP2, MPA, MPE, MPEG, MPG
  • audio / mpeg: Fichiers MP3
  • audio / x-wav: fichiers WAV

En ce qui concerne le marketing de contenu, je ne veux pas entrer dans cette attribution plus technique, mais me référer à la contribution des collègues de SEO Expertise.

Mieux vaut une attribution selon les formats de média suivants:

  • texte
  • acoustique
  • visuellement
  • Face à face / événement
Formats de média dans la vue d'ensemble

Formats de média dans la vue d'ensemble

On devrait essayer de développer autant de formats de médias dans le développement d’idées de thèmes, ainsi que dans le concept de design de contenu. En raison des préférences des consommateurs, certaines personnes préfèrent lire un texte, d’autres préfèrent visionner une vidéo, d’autres préfèrent visionner un graphique, etc. Pour rencontrer tous les types de personnes, vous devez pouvoir cartographier le plus grand nombre possible de formats avec une idée de contenu.

En outre, le niveau émotionnel peut être mieux traité via des formats de supports personnels tels que Eye to Eye ou Audio and Visual Media, en plus du niveau de ratio lié au contenu. Vous pouvez entendre la voix, voir un humain ou une silhouette. Cela peut conduire à la sympathie. Cependant, il y a aussi le danger d'être perçu comme antipathique. Vous devez être conscient de cela. Avec le format de média neutre "texte", il est possible de créer des émotions par le biais de la narration, du style d'écriture … mais il est beaucoup plus difficile d'utiliser les deux niveaux.

Classification du contenu après push and pull

La classification du contenu par push ou pull est importante car elle détermine si nous devons nous fier aux canaux push ou pull pour une distribution ultérieure. Un sujet que personne ne recherche est est relativement peu pertinent pour le référencement et nécessite donc des canaux push, par ex. Médias sociaux ou promotion de contenu pour créer les premiers points de contact. Un contenu qui fournit une solution concrète pour, par exemple, sur le moteur de recherche, une question implicite ou explicite (mot-clé) offre toutefois un caractère attractif. SEO et SEA sont les principaux canaux de distribution ici.

Attribution de contenu par format de contenu

Le format de contenu décrit l'emplacement et donc le rôle d'un contenu dans sa propre structure d'information. Les formats de contenu possibles sont

  • Lexique ou contribution au glossaire
  • Blog post
  • pages produit
  • Catégories Page
  • Page des thèmes holistiques
  • articles de presse
  • recette
  • Entretien via Earned Media
  • Article de spécialiste via Earned Media
  • Podcast
  • Vodcast

Dans le graphique suivant, j'ai résumé un aperçu des différents formats de contenu et des différents canaux de distribution sans prétendre être complet:

Vous pouvez télécharger la présentation ci-dessus de la distribution de contenu ici dans une meilleure résolution contre le partage sur XING, LinkedIn, Facebook ou Twitter.

Classification en fonction du bénéfice du contenu pour le consommateur

En général, il convient de distinguer l'objectif et l'avantage d'un contenu en fonction de la perspective respective du consommateur et de l'auteur, respectivement de la société. Comme avantage, je définis ce que le contenu du point de vue du consommateur devrait causer.

Les avantages possibles d'un contenu peuvent en principe être décrits par les attributs suivants:

  • Le maintien (émotionnelle)
  • Aider / Rendre efficace (rationnel)
  • Construire une relation (émotionnelle)
  • Soutenir la décision d'achat
  • Navigation / Orientation (rationnelle)

Il peut arriver que plusieurs attributs s'appliquent à un contenu. Un texte informatif peut également être divertissant ou vendu, et inversement. Néanmoins, il est logique d'attribuer le contenu à l'un des principaux avantages, notamment en ce qui concerne les indicateurs de performance clés à mesurer. Même en ce qui concerne les mots-clés pour lesquels le contenu doit être classé, il est difficile de faire cette classification. Mot clé: intention de recherche.

Souvent, le contenu des mots clés orientés informations de Google est une propriété de "construction de relations" ou "enseignement / aide". Inversement, le contenu trouvé pour des mots clés commerciaux ou transactionnels offre souvent l'avantage d'informer sur les produits.

En savoir plus sur l'intention de recherche dans l'article Types de mots-clés, Intention de recherche, Identification Intention de l'utilisateur, etc.

Attribution selon le but / le but de l'entreprise

Bien entendu, derrière chaque contenu, la maison d'édition devrait également avoir une raison d'être. Alors la question. Que doit faire le contenu? Cette différenciation est importante, car ce n’est qu’après cet objectif que les chiffres clés pour la mesure et l’évaluation ultérieures des performances dans le contexte d’un audit de contenu peuvent être dérivés.

Les objectifs suivants peuvent suivre le contenu:

  • Créer une plage
  • lier
  • Construire la confiance
  • vendre

Objet du contenu pour les entreprises

Outil: la matrice utilitaire / objectif

Afin de mieux relier le contenu au but et à la fin du produit ou de la fourniture, j'ai créé une matrice utilitaire / objectif dans laquelle le contenu peut être classé en fonction de ses caractéristiques (une version vierge pour votre propre usage). Vous me demandez à propos de kopp (at) aufgesang.de.

Sur la base de cette matrice, les contenus individuels ou les formes de contenu peuvent être classés en fonction de leur objectif. Voici un exemple:

Dans cet exemple, j'ai classé les styles de contenu en quadrants. Bien sûr, vous pouvez aussi, par exemple Entrez les identifiants pour le contenu (dans ce cas).

Selon le quadrant dans lequel se trouve le contenu, ces ratios peuvent être affectés au contenu. Selon la manière dont le contenu est ensuite distribué dans les différents quadrants de la matrice, il est possible, dans le cadre d’un audit, de brosser un tableau de l’état actuel ou futur du statu quo. Toujours faire référence aux avantages pour le consommateur, le but pour moi, ainsi que l'émotivité vs Rationalité. Étant donné que chaque audience de contenu peut cocher différemment, vous devez créer la matrice par audience et le contenu correspondant.

Téléchargez la matrice d’utilités (ouvrez le fichier .ppt à utiliser par vous-même)

Cliquez simplement sur l'image et téléchargez le fichier .ppt ouvert contre des éléments sur Facebook, Twitter, LinkedIn ou XING.

Cliquez sur l'image pour télécharger

Pourquoi le tout?

Maintenant, l’un ou l’autre demandera ce que cette approche théorique a du sens. Je vous le dis

Une telle attribution a du sens pour diverses sous-tâches dans le processus de marketing de contenu, que je traiterai en détail ci-dessous.

  • Audit de contenu (analyse de contenu)
  • Base de la cartographie du contenu dans le parcours du client (concept de contenu)
  • Segmentation par groupe cible, par ex. pour le reciblage (Google Remarketing, audiences personnalisées Facebook …) (distribution de contenu)
  • Préparation à l'automatisation du marketing (distribution de contenu)
  • Rend l'analyse Web segmentée meilleure possible (Évaluation du contenu)
  • Détermination des indicateurs de performance clés (évaluation du contenu)
  • Meilleure vue d'ensemble des contenus existants
  • Base améliorée pour optimiser l'architecture de l'information d'un site Web

Attribution de contenu pour l'audit de contenu

Lors de la réalisation d'audits de contenu, nous classons avec situé Sang Contenu après attributs suivants:

  • Pousser / tirer
  • phase de parcours client
  • Avantages pour le consommateur
  • But pour l'entreprise
  • format média

Nous effectuons cette classification manuellement et complétons ces classifications par d'autres indicateurs de performance, tels que Visibilité du document sur Google. visiteurs. taux de rebond. liens entrantscela Relation entre les mots clés de marque et les mots clés génériques pour lequel le contenu se classe …

comment Miriam Löffler Dans ContentCompass Episode 5, vous pouvez également exécuter un audit de contenu en effectuant des vérifications supplémentaires, telles que: compléter la lisibilité.

Je ne veux pas entrer dans les détails ici sur l'exécution d'un audit de contenu. Carsten Koller ici, Robert Weller ici et Babak Zand l’ont déjà expliqué en détail. J'aimerais plutôt compléter les approches développées par mes collègues avec celles mentionnées ci-dessus. D'une part, l'avantage d'un audit de contenu peut être d'évaluer le contenu par rapport à certains chiffres clés.

Ou on utilise un audit de contenu pour se faire une idée du statu quo des différents contenus publiés et de leurs propriétés. Pour cela, on peut utiliser la matrice utilitaire / objectif présentée ici. Cela vous donne un bon aperçu de la focalisation actuelle du contenu en termes d'objectifs et d'avantages. En comparaison avec les groupes cibles, on peut reconnaître si l’intérêt actuel du contenu publié est adapté. Il faut donc utiliser chaque groupe cible et son contenu avec sa propre matrice d’utilité / objectif.

Intéressé par un audit de contenu ou le développement en collaboration d'une stratégie de contenu pour votre entreprise?

Classes d'attributs en relation avec le parcours client

Avec vue sur le Parcours client Il est important de comprendre que les clients potentiels veulent du contenu au bon moment et au bon endroit. Par conséquent, il faut bien réfléchir quand et où l'attribut de contenu est approprié.

Nous prenons toujours des décisions fondées sur des raisons rationnelles et émotionnelles. Les contenus avec les attributs de bénéfice "divertir" et "construire une relation" sont souvent capables de déclencher des émotions telles que la sympathie, la joie, la peur, l'antipathie … chez le consommateur. Ceci est promu comme déjà décrit par le format média. Ce contenu peut être utilisé comme "brise-glace" ou comme points de contact obligatoires lors du voyage du client.

Aider les informations fonctionne i.d.R. plutôt le ratio d'un client potentiel. Au cours de la définition du groupe cible ou de la création de personnage, il convient donc de préciser si ce groupe cible prend des décisions plus rationnelles ou émotionnelles.

Lors de l'élaboration d'une stratégie de contenu, il est important de connaître les différentes caractéristiques du contenu. Il est important de satisfaire les différents besoins des groupes cibles de contenu en fonction de la phase de parcours du client et de générer autant de points de contact positifs que possible.

Contenu tout au long du parcours client

L’interaction avec certaines classes d’attributs permet de définir la phase de parcours client correspondante

Cela augmente les chances dans la phase de préférence d'appartenir à l'ensemble pertinent du client potentiel et de construire une marque en plus de la vente.

Tout au long du parcours client, les besoins évoluent en fonction du niveau de connaissance du groupe cible. Donc, on préférerait être diverti dans la phase de pré-sensibilisation. Les informations produit rationnelles ne retiendront généralement que peu d'attention à ce stade. Dans la phase de sensibilisation, le contenu qui fournit des solutions à un problème, tel que How Tos, des tutoriels …. significative. Encore une fois, les informations sur les produits ne sont pas le moyen d’atteindre un but. Dans la phase de considération, les informations objectives sur les produits qui aident à trouver les bonnes offres, telles que les comparaisons, les tests et les témoignages, sont ciblées. Encore une fois, les offres concrètes ne sont pas encore au point.

En savoir plus sur les stratégies de distribution de contenu et de marketing en ligne tout au long du parcours client dans les contributions Comment développer une stratégie de marketing en ligne multi-niveaux centrée sur l'utilisateur et la distribution de contenu: l'art de distribuer systématiquement du contenu dans le marketing de contenu

Enfin, je voudrais vous présenter d’autres options de classification du contenu qui m’ont inspiré en partie à mes idées précédentes.

Types de contenu en vue de mesurer le succès

Comme déjà mentionné, la classification du contenu joue également dans cet esprit Content-contrôle un rôle important. Les mêmes chiffres clés pour mesurer le succès ne doivent pas être créés pour chaque contenu.

Selon ces différentes attentes, en fonction de la définition de l'objectif, il est possible d'affecter à chaque contenu différentes mesures de performance.

Chiffres clés possibles pour l'objectif "vendre"Peut être:

  • Nombre de commandes
  • Demande / taux contractuel
  • Nombre de commandes

Les chiffres clés possibles pour "établir le contact" peuvent être:

  • Nombre de leads
  • Taux de plomb
  • Nombre de téléchargements par rapport aux informations de contact
  • taux de téléchargement

Les métriques possibles pour "bind" peuvent être:

  • Nombre de visiteurs revenant
  • taux de rebond
  • durée du séjour
  • Impressions de page
  • Défilement profondeur
  • commentaires
  • Abonnés à la newsletter reçus
  • Nombre de nouveaux amis sur Facebook
  • Nouveaux adeptes sur Twitter

Les mesures possibles pour "atteindre" peuvent être:

  • Nombre d'actions sociales
  • Nombre de backlinks
  • Nombre de visiteurs

Attribution en tant que travail préliminaire pour l'automatisation du marketing

L'approche d'attribution de contenu que j'ai décrite ci-dessus peut constituer un prélude précieux à l'utilisation de solutions d'automatisation du marketing pendant la phase de distribution du processus de marketing de contenu. En classant le contenu, le contenu peut être attribué aux entonnoirs principaux des groupes cibles respectifs et mis en ordre ou en contexte.

Autres modèles de classification par types de contenu

Sans être exhaustif, je voudrais terminer en présentant quelques modèles de collègues qui m'ont inspiré en partie. Depuis que je travaille intensément sur le marketing de contenu dans le parcours client depuis un certain temps, j'ai toujours manqué le lien direct avec le parcours client avec ces modèles. J'ai donc tiré certaines approches des modèles suivants et les ai incluses dans ma classification décrite ci-dessus en partie.

Feu de signalisation de contenu par Kerstin Hoffmann

Kerstin Hoffmann est l'un des premiers experts à avoir traité du contenu et du marketing entrant en Allemagne. Le voyant de contenu de Kerstin décrit le contenu dans les catégories suivantes: pertinence, timing, émotion, relation, histoire, bénéfice et interaction. Aussi très excitant.

Le feu de signalisation de contenu de Kerstin Hoffmann

Vous pouvez trouver une explication détaillée de leur approche ici et ici, vous pouvez demander ou télécharger le contenu de la matrice de feux de circulation sous forme imprimée à partir de Kerstin zur Rückumschlag.

Content Radar de Mirko Lange

Mirko Lange a été l’un des pionniers du marketing de contenu en Allemagne avec le modèle FISH et ça radar contenu développé deux modèles, que je voudrais présenter brièvement.

radar contenu

Le classement des radars de contenu a été la source d'inspiration pour mes propres idées de classification de contenu. Ici, la classification vise la nécessité d'être satisfait. À partir du radar de contenu, j'ai obtenu ma classification pour connaissances / activation ("j'ai appris quelque chose"), mises à jour ("je sais"), relation / signification ("ça me bouge") et conversation ("je l'apprécie") dérivée. Cependant, il me manquait les informations de produit de type attribut, que j'avais ajoutées en tant que cinquième classe.

Si vous voulez en savoir plus sur ces deux modèles, vous pouvez devenir intelligent dans l'article détaillé de Mirko.

Classé selon le modèle FISH par Mirko Lange

J'aimerais également inclure les classifications selon le modèle FISH de Mirko Lange, qui est en corrélation étroite avec l'approche objectif / objectif du point précédent.

  • Suivre le contenu> Lier
  • Contenu entrant> Établir un contact
  • Contenu de vente> Vendre
  • Surligner le contenu> Établir un contact

De cette attribution, les approches de distribution respectives peuvent être déduites

Modèle FISH de Mirko Lange, source: Talkabout

Je ne suis pas tout à fait dans le terme de contenu de recherche de Mirko, car le moteur de recherche en tant que canal de distribution, en fonction du sujet et de ses mots-clés, peut être pertinent pour le modèle FISH en plus du contenu vendu. À quiconque souhaite aborder le sujet de la classification du contenu, je recommande l'article classique de Mirko.

5 facteurs OnPage: en bref

En période de nombreuses mises à jour de Google, telles que la mise à jour Penguin ou la mise à jour Panda, il est parfois judicieux de regarder de plus près vos propres pages et de les vérifier pour les facteurs OnPage.

5 tels facile à influencer Facteurs onPage nous avons mis en place pour vous. Nous avons non seulement le dernier conseil d'optimisation à vous proposer, mais également un conseil sur ce que vous devriez éviter.

1er méta-titre

Le méta-titre est généralement spécifié dans l'en-tête d'une page et ressemble à ceci dans le code source:

meta name = "title" content = "Le titre de la page"

Fais le

Il est préférable de formuler le méta-titre comme un titre significatif pour chaque document HTML. Idéalement, votre titre parle de 65 caractères longtemps et répond exactement au thème de cette page. Formulez le titre de sorte que l'utilisateur sache au premier coup d'œil quel est le sujet sur la page. Supposons que vous disposiez d'une page sur laquelle vous pouvez proposer à vos clients un livre électronique à télécharger. Méta-titre possible ici: Livre électronique sur XYZ à télécharger

Laissez le

Ne laissez pas votre méta-titre vide, vous quittez donc partiellement le moteur de recherche pour interpréter l'interprétation sinon votre page pourrait être moins performante en raison du méta-titre manquant. Évitez une description trop détaillée car le moteur de recherche la raccourcira probablement.

2. Contenu

Le contenu désigne non seulement le texte lu par l'utilisateur, mais également tout le contenu attaché à votre site Web.

Fais le

La textualité unique est l'alpha et l'oméga d'un bon contenu. Essayez l'utilisateur nouveau contenu intéressant offrir et en aucun cas copier le contenu des autres sites. Incluez des éléments rich media dans votre contenu. Ceci est particulièrement important pour les webmasters et fait de votre site Web une page descriptive de haute qualité. Votez vos titres sur le contenu pour que le corps du texte reçoive un cadre. Cela aide également les moteurs de recherche à structurer et à interpréter votre contenu de manière significative.

Laissez le

Ne copiez aucun texte! S'il existe un contenu en double, cela peut signifier une exclusion de Googleindex ou même une violation du droit d'auteur ayant des conséquences pénales. Évitez les pages de contenu vides avec beaucoup de liens et peu de contenu. Incluez des textes et du contenu pertinents où l'utilisateur peut les utiliser. Si le contenu est utile, il est généralement partagé et partagé avec d'autres utilisateurs, tels que les réseaux sociaux tels que Facebook et Twitter, qui pourraient constituer des signaux de classement précieux pour le moteur de recherche.

3. Pages orphelines

Les pages orphelines sont comprises dans les pages d’optimisation des moteurs de recherche qui n’ont aucune relation avec les autres pages d’un domaine (plus). Ces pages ne contiennent généralement pas de liens entrants externes ou internes.

Fais le

Votre site web devrait être un structure de lien intacte et ne contiennent pas de redirections erronées. Assurez-vous de savoir pourquoi le robot a trouvé des pages orphelines et si le bogue se trouve dans l'ancienne page ou si la nouvelle page est incohérente et doit être reconstruite. Faites en sorte que le moteur de recherche du moteur de recherche soit aussi facile que possible, de sorte qu'il n'ait pas à quitter et à recommencer sa recherche.

Laissez le

Ne négligez pas votre structure de lien interne. C'est un facteur important dans votre classement. En négligeant les liens internes entrants et sortants, vous pouvez isoler de nombreuses pages et les laisser orphelines. Les pages orphelines ne seront probablement pas pertinentes pour le moteur de recherche.

4. Tags canoniques

Avec la balise Canonical, une page Web indique la source réelle de son contenu. Il est placé à l'intérieur de la tête et peut ressembler à ceci: lien rel = "canonical" href = "http://www.domain.de/index.html

Fais le

Définissez les balises Canonical chaque fois que vous avez des pages avec un contenu en double ou similaire. Ceci est particulièrement important si votre site Web est accessible via différentes URL ou s'il est accessible via plusieurs variantes de l'adresse. L'insertion de balises Canonical est également importante dans les sous-pages du site Web, de sorte que chaque site Web sur toi même lien. Cela corrige les erreurs indésirables et les liens incorrects.

Laissez le

Je veux dire, ajouter des tags Canonical n’est pas très bon, parce que trop, c’est trop. Par exemple, si vous l'utilisez à l'échelle de la page, il se peut que tout le site Web soit retiré de l'index.

5. Temps de réponse du serveur

Le temps de réponse du serveur est le temps nécessaire pour obtenir une réponse à la demande envoyée au serveur. La vitesse du site est un critère important pour les moteurs de recherche et peut être cruciale pour le classement d'une page. Les pages lentes sont généralement peu attrayantes pour les utilisateurs et peuvent être la raison d'un rebond.

Fais le

Assurez-vous que le vôtre est Répondre aux demandes du serveur facilement peut. Les temps de réponse doivent toujours être compris entre 0 et 2 secondes.

Laissez le

Vous ne devriez pas laisser l'utilisateur attendre. Ainsi, vous ne devez pas négliger les temps de réponse du serveur. Évitez les retards en surveillant les performances de votre serveur.

Découvrez cet article pour savoir comment optimiser la vitesse de traitement des pages de votre site web!

Tâches de référencement: Que fait un responsable de référencement?

L'optimisation des moteurs de recherche a considérablement changé ces dernières années. Cela facilite également le travail des responsables de référencement et des responsables de référencement. Dans cet article, j'aimerais donner un aperçu des tâches les plus importantes d'un (e) responsable SEO dans l'optimisation des moteurs de recherche tactique et stratégique. À la fin de l'article, je vous fournirai une liste des tâches de référencement les plus importantes avec plus de 100 astuces de lecture supplémentaires à télécharger.

Les défis pour un responsable SEO

Probablement le plus grand défi pour un responsable SEO, tant au sein de l’agence qu’en interne, est d’interfacer entre gestion. IT. Web Design. rédaction. commercialisation. PR et graphique se déplacer de manière proactive. Il est toujours important de garder un œil sur les différents intérêts de ces parties prenantes. En tant que SEO, vous dépendez toujours de la coopération de collègues des différents départements, car une grande partie de la mise en œuvre n'est pas effectuée par le responsable SEO.

Les responsables SEO passent une grande partie de leur travail à analyser et formuler des recommandations de politique pour les différents "traducteurs". Si vous n'avez pas ces partis de votre côté, il y a un problème. Cela nécessite diplomatie et empathie. Si l'on se sent trop loin sur le territoire de la région concernée, il faut compter avec résistance.

Beaucoup de SEO que j'ai appris à connaître sont des combattants isolés. De tels types auront toujours du mal à se frayer un chemin dans la hiérarchie et la politique du sous-public.

Les directeurs de référencement internes, qui sont nouveaux dans une entreprise, sont au début occupés à identifier, éduquer ou construire des ponts d'intérêt.

Les tâches suivantes d'un responsable SEO sont les plus importantes de mon expérience. De plus, je les ai listés sur les différents "convertisseurs".

Tâche de référencement: assurer l'accessibilité

L'accessibilité à un site Web ou à un document est la condition préalable de base pour l'indexation, ainsi que pour la satisfaction de l'intention de l'utilisateur. Par conséquent, les sites Web doivent toujours être accessibles et émettre un code de statut 200 ou, si nécessaire, 301. Des services tels que Cloudflare garantir une disponibilité de 100% même avec des temps d'arrêt serveur courts.

la mise en œuvre: L'accessibilité est assurée par l'informatique.

Tâche SEO: Optimisation des extraits, Titres de page et descriptions

Le titre de la page d’extraits ou de méta-détails et la description sont les teasers de notre Ihalte dans les moteurs de recherche. Ils suscitent une attente que le contenu associé devrait remplir. Il est donc important de rendre le titre et la description de la page attrayants.

SERP-Snippt

extrait de SERP

  • Chaque URL doit avoir un titre de page ou un titre
  • chaque URL doit avoir un titre de page différent / unique
  • Le mot clé sur lequel l'URL est principalement classé doit figurer dans le titre de la page.
  • Le mot clé principal doit figurer en premier dans le titre
  • le titre ne doit pas dépasser 55 caractères ou 600 pixels de large
  • la méta-description ne doit pas dépasser 139 caractères ou une largeur d'environ 500 pixels
  • le titre de la page et la méta-description doivent être optimisés pour l'utilisateur (offrir une valeur ajoutée, animer pour cliquer)

L’optimisation des extraits de code inclut également certains types d’étiquetage basés sur des données structurées, par ex. pour les revues, les tableaux, les informations sur les produits tels que Prix.

la mise en œuvre: Les méta-informations peuvent être conservées dans le système de gestion de contenu populaire des référenceurs. La mise en œuvre de données structurées nécessite l'inclusion de la conception informatique et / ou Web. Si des goulots d'étranglement se produisent, le référencement peut même marquer les données structurées dans la console de recherche avec l'outil de marquage lui-même.

Tâche de référencement: vitesse de la page d'optimisation ou temps de chargement

Face au rôle de plus en plus important des appareils mobiles, Google a confirmé il y a quelques années que la vitesse de chargement était un facteur de classement. Mais apparemment pas très gros, comme nous l'ont montré nos propres enquêtes. Plus dans l'article Vitesse de la page: Quelle est l'importance des temps de chargement en tant que facteur de classement pour le référencement?

Mais combien d'effort faut-il faire si l'on veut rendre son site plus rapide? Ici, il faut d'abord poser la question pour laquelle je veux faire l'effort. Pour les moteurs de recherche ou le classement ou pour que l'utilisateur se sente à l'aise sur le site?

Je recommanderais toujours à l'utilisateur d'optimiser toujours la vitesse de chargement.

Cependant, certains leviers simples ont un impact important sur les performances des sites Web. Avant de traiter avec des sprites CSS ou d’autres mesures similaires d’optimisation de la vitesse des pages, tenez compte des points suivants, qui sont souvent les freins les plus importants:

  • images compression
  • Le cache du navigateur
  • Requêtes inutiles, par exemple Réduire au strict minimum via Java Script à partir de sources externes

la mise en œuvre: Pour la compression d'image, les graphiques doivent être intégrés. L'informatique et la conception Web sont responsables de toutes les mesures ultérieures.

Tâche SEO: Optimisation du contenu

Je vois la tâche principale des SEO dans le contenu d'optimisation de contenu.

L’optimisation du contenu consiste à optimiser le contenu en termes de contenu

  • WDF * IDF / TF-IDF
  • titres
  • lisibilité
  • structure
  • La diversité des médias
  • images optimisation

L'objectif est d'améliorer la pertinence du document lui-même via le composant de contenu pour les utilisateurs en tant que moteurs de recherche.

la mise en œuvre: L’optimisation du contenu peut être réalisée par les référenceurs. Cependant, il est plus logique de former les éditeurs en conséquence et de leur permettre ainsi de créer un contenu convivial pour les moteurs de recherche.

Excursus: SEO vs. marketing de contenu

Je vois le sujet du marketing de contenu davantage comme un domaine de la communication d’entreprise et non comme une tâche de SEO. Les optimiseurs de moteurs de recherche doivent néanmoins porter une attention particulière aux moteurs de recherche et à la conception de contenu conviviale, et donc participer au processus de conception et de production du contenu. La conception du contenu, je vois encore plus dans les professionnels de la communication. Pour plus de responsabilité dans le poste: Qui fait ce marketing de contenu maintenant? ,

L'objectif principal de Google est-il de publier un article de blog somptueux destiné aux utilisateurs ou de publier un guide? De nombreux référenceurs répondraient à cette question par "oui". Je dirais non. Produire et publier du contenu pour moi, c'est du marketing sur le contenu. De plus, nous produisons le contenu tel que revendiqué par tous les référenceurs: oui pour les utilisateurs et non pour les moteurs de recherche. Droit?

Pourquoi ce n’est pas du SEO pour moi mais de la communication d’entreprise ou du marketing que j’ai déjà dans le marketing de contenu, aucun renforcement de liens ou référencement n’est expliqué en détail. Voici un autre résumé des objectifs de marketing de contenu à court, moyen et long terme:

Aperçu des objectifs de marketing par contenu dans le temps

Aperçu des objectifs de marketing par contenu dans le temps

La lettre de motivation et la diffusion de ce contenu via des influenceurs, des médias sociaux, etc., constituent-elles une activité dans le contexte de l'optimisation des moteurs de recherche? Non, il s’agit de relations publiques ou de marketing de médias sociaux ou dans le cadre de la promotion de contenu via la publicité Payée au PPC.

SEO: Recherche et analyse de mots-clés

Avant la production de contenu, le contenu extrait (plus d'informations sur le contenu extrait et d'autres types de contenu) doit toujours faire l'objet d'une recherche et d'une analyse de mots clés. C'est la base d'une bonne visibilité du contenu.

L'objectif de la recherche par mot clé est d'identifier les termes de recherche / les termes de recherche entrés par mes groupes cibles dans les moteurs de recherche qui sont pertinents pour mon modèle d'entreprise.

L'analyse des mots clés consiste à analyser la première page de résultats de recherche pour les mots clés que vous avez recherchés.

  • Résultats visibles supplémentaires des autres index verticaux (Universal Search)
  • Intention de recherche des mots clés (plus d'informations sur l'intention de recherche)
  • Phase de parcours client des termes de recherche
  • Force concurrentielle dans les termes de recherche pertinents

Dans le cadre de nos concepts de stratégie de référencement à Aufgesang, nous complétons la recherche et l'analyse de mots-clés par des recherches de thèmes, dans lesquelles nous recherchons des questions du (des) groupe (s) cible (s) pour y répondre dans le contenu.

la mise en œuvre: Ce travail est l’un des rares pour lesquels le responsable SEO est seul responsable.

Tâche de référencement: optimiser la présentation mobile

Selon l'étude Consumer Barometer Study 2017, plus de 50% des utilisateurs du monde entier accèdent à Internet via des appareils mobiles. En Allemagne, il est maintenant de 73%.

Le plus souvent, ces utilisateurs accèdent aux moteurs de recherche, aux médias sociaux et aux vidéos via leur smartphone. En conséquence, vous devriez mettre un accent particulier sur la convivialité mobile de votre propre site Web.

Il existe les moyens suivants pour créer des sites Web conviviaux pour mobiles.

  1. Web design réactif
  2. Déploiement dynamique
  3. Propre version mobile du site Web avec ses propres URL

Google lui-même et son agence recommandent la première option, car les efforts et les pièges possibles sont minimisés par un site Web réactif.

Les problèmes les plus courants liés à l’utilisation de sites Web via des appareils mobiles sont les suivants:

  • temps de chargement trop longs
  • police trop petite
  • Liens et autres éléments de navigation pouvant être mal utilisés sur les écrans des appareils mobiles.
  • ressources volées par le fichier robots.txt telles que CSS, Java Script, Ajax et les images.
  • Utilisation de technologies adaptées aux mobiles, telles que le flash, par exemple. pour les vidéos.
  • Des pop-ups ou autres bannières qui cachent le contenu réel et rendent la fermeture difficile.

Pour vérifier la convivialité d'un outil de site Web tels. Google pour tester la mobilité de leur propre site web.

Plus d'informations sur le référencement pour les appareils mobiles sont disponibles directement à partir de Google u.a. ici et ici.

la mise en œuvre: Avec cette tâche, le responsable SEO n’a que peu à faire, à part quelques petites analyses et recommandations d’action correspondantes. La mise en œuvre se fait principalement par le biais de la conception Web ou informatique.

Mesure de référencement 7: établissement de liens ou établissement de liens

La création de liens est une mesure de référencement tactique. La construction de liens concerne la configuration de backlink mise à l’échelle via liens propriété. Liens auto-Placés. Liens payants et le renforcement des liens brisé, Liens gagnés font partie du bâtiment du lien stratégique.

Le renforcement des liens joue un rôle important à deux niveaux.

D'une part, il s'agit de la transmission du PageRank et de la confiance des domaines de liaison. Les liens ici semblent être des recommandations dans le monde réel. Plus une source référente ou digne de confiance est digne de confiance, plus le backlink ou la recommandation est précieux.

Ici, le nombre de domaines de liaison différents, appelé popularité de domaine, joue un rôle. Moins le nombre de liens en soi (popularité de lien).

Le deuxième niveau est le niveau de relation thématique. Les liens représentent toujours les relations entre les documents et leurs sujets, traduits en sémantique ou en théorie des graphes, les liens sont les limites entre les nœuds ou les entités.

Formes de renforcement des liens

strategische_Suchmaschinenoptimierung "width =" 600 "height =" 380 "srcset =" https://www.sem-deutschland.de/wp-content/uploads/2015/02/strategische_Suchmaschinenoptimierung-1.jpg 950w, https: // www. sem-deutschland.de/wp-content/uploads/2015/02/strategische_Suchmaschinenoptimierung-1-300x190.jpg 300w, https://www.sem-deutschland.de/wp-content/uploads/2015/02/strategische_Suchmaschinenoptimierier-1 -600x380.jpg 600w, https://www.sem-deutschland.de/wp-content/uploads/2015/02/strategische_Suchmaschinenoptimierung-1-252x159.jpg 252w "data-lazy-values ​​=" (max-width: 600px ) 100vw, 600px "/><noscript><img decoding=Linkbuilding_Entity Education "width =" 600 "height =" 261 "srcset =" https://www.sem-deutschland.de/wp-content/uploads/2009/12/Linkaufbau_Entitäten-Bildung.jpg 836w, https: // www.sem-deutschland.de/wp-content/uploads/2009/12/Linkaufbau_Entitäten-Bildung-300x131.jpg 300w, https://www.sem-deutschland.de/wp-content/uploads/2009/12/Linkaufbau_Entitäten Formation-600x261.jpg 600w "données-lazy-tailles =" (largeur maximale: 600px) 100vw, 600px "/><noscript><img decoding=Possédé & auto-placé Liens vers l'identification de l'entité

Aufgesang est basé sur un concept de liaison sémantique.Lire la suite de l’article dans la rubrique Recherche sémantique: Comment identifier les mots-clés sémantiquement liés? ,

la mise en œuvre: Ici, le responsable SEO (in) assume à nouveau un rôle de conseil. Selon que vous optiez pour un bâtiment de lien évolutif actif ou un lien de construction organique via le marketing de contenu. Dans la seconde variante "propre", le responsable SEO accompagne les campagnes de relations publiques et le marketing (contenu) dans leurs campagnes ou stratégies.

Action de référencement 8: Optimiser les liens rompus

Les liens externes sont, comme déjà mentionné, un facteur de classement important. Par conséquent, une attention particulière devrait être accordée aux liens internes et externes. La suppression d’URL peut entraîner l’absence de liens externes et internes. L'utilisateur ne voit alors pas le contenu lorsqu'il clique sur ces liens rompus ou affiche généralement une page d'erreur 404. C'est mauvais pour les utilisateurs ainsi que pour les robots des moteurs de recherche.

De plus, dans le cas de liens rompus, le lien ou le classement de page du site de liaison n’est pas hérité. Ces pages apparaissent également comme des erreurs 404 dans la console de recherche. Les pages d'erreur 404 avec des liens internes et externes entrants doivent être transmises par le code d'état 301 à des URL correspondantes par thème.

Il faut donc régulièrement posséder un site Web avec des outils de backlink tels. ahref pour les liens externes ou les robots d'exploration de la page, tels que Screaming Frog pour les liens internes après vérification des liens brisés.

la mise en œuvre:Ici, le CMS utilisé est à nouveau crucial. Dans la mesure où le responsable du référencement (lui-même) peut mettre en place des baux supplémentaires de certaines URL, cette implémentation est autonome. Si l'informatique doit être activée, il ne reste que les analyses préparatoires et le concept de transmission.

Tâche de référencement: Optimisation des liens internes et de l'architecture de l'information

Outre l'optimisation des liens, l'optimisation de la liaison interne, de la structure de navigation et de l'architecture de l'information est la tâche la plus importante du référencement sémantique. En outre, il existe des tâches importantes pour améliorer l'expérience utilisateur et la convivialité du site Web.

Dans les liens internes, il incombe à Google et aux autres moteurs de recherche de montrer que vous fournissez du contenu au sein du domaine via une structure d'information sémantique et conforme aux attentes de l'utilisateur. Cela devrait également rendre les documents de base sémantiques clairement identifiables.

Plus un document de base, mais aussi un domaine complet, est meilleur dans une relation sémantique avec d'autres documents liés sémantiquement, plus le document lui-même est pertinent, ce qui inclut d'ailleurs non seulement des liens approfondis, mais également des liens sortants.

En émanant du document principal, les références à d’autres documents liés sémantiquement dans le domaine peuvent également renforcer l’autorité de tout le domaine dans l’ontologie / le sujet correspondant. Plus j'écris sur un sujet et plus on décrit ou considère de manière holistique des sujets sur son propre site web, mieux c'est. Que vous fassiez cela sur un seul document détaillé ou sur différentes URL du domaine, je ne pense pas que ce soit si important. Ceci n’est à mon avis qu’une question de convivialité ou de goût personnel.

Plus sur ce sujet dans l'article Sujets sémantiques: comment identifier des mots-clés liés sémantiquement?

Outre l’optimisation du lien, il s’agit également de garantir la Cohérence des textes de liens et leurs pages de destination. Les mots clés et leurs synonymes doivent toujours être liés à une même page d'arrivée. Si ce n'est pas le cas, l'unicité est manquante.

la mise en œuvre: Les analyses préliminaires des liens internes se font chez / par le SEO Manager (en). Que la mise en œuvre des recommandations d'action soit régie par le ou les responsables du référencement, par les éditeurs ou de manière semi-automatique via des scripts, elle doit être décidée individuellement.

Tâche de référencement: Supprimer le contenu sans valeur / les URL

Un site Web est une construction dynamique qui cherche à être complétée par un nouveau contenu. C'est pourquoi souvent, au fil des années, des monstres au contenu incertain se présentent.

Grâce à la prolifération du marketing de contenu en tant qu'outil de communication, de nombreuses entreprises accumulent, au fil du temps, une multitude de contenus sur leurs propres sites Web qui perdent rapidement la trace de leur contenu.

Cela rend difficile pour Google de se concentrer sur le contenu très important et peut ralentir son exploration et sa (ré) indexation.

C'est pourquoi vous devez effectuer des audits de contenu réguliers pour libérer votre site Web de tout contenu inutile.

Ici, vous devriez poser les questions suivantes:

  1. Le contenu est-il toujours pertinent pour moi et les utilisateurs ou peut-il être supprimé?
  2. Est-il possible de combiner différents contenus sur le même sujet?
  3. Le contenu devrait-il être retravaillé pour ajouter de la valeur?

la mise en œuvre: Ici, le (s) responsable (s) du référencement doit (doivent) être en étroite coordination avec les éditeurs, UX & CRO, les relations publiques et le marketing. Ces départements sont généralement responsables du contenu et doivent décider à la fin quel contenu a du sens du point de vue de la communication d'entreprise.

Tâche de référencement: éviter le contenu en double

Le contenu dupliqué ou dupliqué peut devenir un problème de classement. Ce n'est pas parce que Google les punit, comme on le dit souvent, mais parce que les doublons ou un contenu similaire empêchent les moteurs de recherche d'identifier le contenu / les documents les plus pertinents au sein d'un domaine. En outre, la duplication de contenu sur de très grands sites peut conduire à des barrières d’exploration et donc à des problèmes d’indexation. Par conséquent, les contenus et les titres de page en double ou similaires doivent être évités et le ciblage par sujet ou par mot clé associé doit toujours être clair.

Pour en savoir plus sur les solutions de duplication de contenu et de duplication de contenu dans Contenu dupliqué: Définition du contenu dupliqué et solutions.

la mise en œuvre: Ici, le ou les responsables SEO doivent travailler en étroite collaboration avec les propriétaires de contenu. Pour la mise en œuvre de mesures d'exploration et d'indexation, telles que l'adaptation de l'instruction meta-robots, de commandes robots.txt ou de balises canoniques, les recommandations sont adressées au service informatique.

Tâche de référencement: Optimisation du comportement de l'utilisateur

L’optimisation du comportement des utilisateurs inclut toutes les mesures susceptibles d’améliorer les signaux communs des utilisateurs. Par exemple

  • optimisation du temps de chargement
  • optimisation de l'utilisabilité
  • Optimisation de la conversion
  • optimisation du terminal

la mise en œuvre: Dans ce cas, le ou les responsables du référencement devraient travailler en étroite collaboration avec les agents UX et CRO. Ils sont les pros. S'il n'y a personne responsable, le responsable SEO devrait se consacrer de manière proactive à ce sujet. La mise en œuvre se fait alors souvent par le biais de la conception informatique et / ou Web.

Digression: les signaux d'utilisateur sont-ils un facteur de classement?

Optimiser le comportement des utilisateurs a longtemps été considéré comme le graal de la SEO. Mais cela a été relativisé par diverses déclarations de Google. Selon Google, les signaux des utilisateurs ne constituent pas un facteur de classement direct utilisé pour évaluer des sites Web individuels. Voici un exemple de déclaration de John Müller de Google.

question: "Quelle est l'importance des signaux des utilisateurs pour le classement? Alors, le taux de rebond, la durée du séjour, etc.? "

Réponse: "Difficile à dire. Je pense que ce sont des effets indirects que vous verriez, pas des effets directs. Par exemple, nous n'utilisons pas du tout Google Analytics pour le classement. Ce sont des systèmes complètement séparés de notre point de vue. Et nous utiliserons plus de signaux si nous jugeons les algorithmes en général. Lorsque nous faisons des tests, nous disons généralement que nous testons maintenant nos algorithmes de différentes manières. Nous le faisons régulièrement, plusieurs milliers de fois par an. Et ensuite, regardez comment les utilisateurs réagissent à ces différents résultats de test. Qu'ils aient tendance à trouver le contenu dont ils ont besoin, ou peut-être qu'ils soient plus confus avec ces ajustements d'algorithmes. Et puis on le regarde dans l'avion. Donc, ce n'est pas comme si nous examinions chaque page: 7 utilisateurs y sont allés et 7 utilisateurs y sont allés – mais c'est ce que nous testons par algorithme en soi. "

Source: Annuaire référencement

Il existe des preuves que le taux de clics ou le rebond au taux de SERP par rapport à long. Les clics courts ont un impact sur les classements. Cela a été confirmé par Google mais jusqu'à présent uniquement pour des expériences dans le cadre du développement d'algorithmes de classement.

Un aperçu de l'état actuel du sujet Signaux d'utilisateur en tant que facteur de classement dans l'article constamment mis à jour Les signaux d'utilisateur et le facteur de classement de comportement d'utilisateur?

SEO: Optimisation stratégique des moteurs de recherche

L’optimisation stratégique des moteurs de recherche implique d’établir le domaine en tant qu’image numérique de la marque d’entreprise et de développer une autorité dans un ou plusieurs domaines (voir aussi The Digital Brand / Authority: Importance du référencement, du marketing en ligne et des chiffres clés). Depuis que Google a introduit l'algorithme Hummingbird et Knowledge Graph, Google tente de travailler sur la sémantique. En savoir plus dans les articles Optimisation sémantique sur Google: de l'entité à la marque et à la recherche sémantique: Google s'intéresse maintenant aux valeurs intérieures.

Les tâches d'optimisation de domaine sont, par exemple, suivant:

  • formation entité
  • Devoir d'ontologie (classification thématique)
  • Construction de mondes thématiques sémantiques
  • Optimisation de la pertinence du domaine

entités Education

L'éducation des entités consiste principalement à générer des signaux Google identifiant le nom de l'entreprise ou sa marque en tant qu'entité et le domaine en tant qu'image numérique d'une entité.

Devoir d'ontologie (classification thématique)

Dans l’affectation d’ontologies, il s’agit donc du domaine propre en tant qu’image de l’entité contextuelle, par exemple. en branches, domaines … Celles-ci sont générées d'une part via des signaux hors page et le contenu du site Web lui-même.

Construction de mondes thématiques sémantiques

La structure des mondes thématiques sémantiques simplifie d'une part Google, la classification des domaines et des documents dans des thèmes spécifiques. De plus, le degré de Hollistik de ces mondes thématiques accroît l’autorité d’un domaine. Les activités suivantes aident à la planification des mondes thématiques sémantiques:

  • Recherche de mots-clés et de sujets en vue de la production de contenu
  • Détermination de l'intention de recherche par terme de recherche
  • Recherche de discussion
  • Analyse conceptuelle sémantique
  • Création de mappages de mots clés et de sujets
  • Conception et mise en place de liens internes

Optimisation de la pertinence

L'optimisation de la pertinence a lieu en premier lieu hors page donc externe au domaine. Il dessert le domaine par des signaux externes adressés à une autorité "recommandée". Cela se produit principalement par le biais de backlinks, de co-occurrences de marque et de termes du sujet respectif et de la promotion de certains modèles de recherche. La pertinence de l'entité est déterminée par Google dans le cadre du graphique de connaissances.

Knowled-Graph

Cliquez sur l'image pour l'agrandir

Objectifs de référencement stratégique

Les trois objectifs les plus importants de l'optimisation des moteurs de recherche stratégiques sont les suivants:

  1. Devenir une entité reconnaissable par Google
  2. Pour Google devenir une entité numérique dans certaines ontologies (rubriques)
  3. Devenir l'une des autorités / marques les plus importantes ou les plus importantes dans un ou plusieurs domaines

la mise en œuvre: Ce domaine est probablement le plus complexe de tous, car presque toutes les personnes impliquées doivent être impliquées. Gestion des affaires, marketing et relations publiques pour le positionnement général de l'entreprise et la création de contenu. Ainsi que l'informatique pour la création d'une structure d'informations techniques correspondante. Le responsable SEO n’est ici qu’une unité de l’équipe qui donne son avis sur le référencement et donne une vision plus précise de l’important moteur de recherche du canal de distribution.

Quelles sont les tâches de référencement les plus importantes?

Quelles sont maintenant les tâches de référencement les plus importantes dans le domaine stratégique et tactique, il reste à en spéculer. Si vous croyez en Google, les signaux de classement les plus importants sont Content, Links et Rankbrain. Rankbrain ne peut pas être influencé directement. Cela laisse du contenu et des liens. C'est pourquoi je recommanderais l'optimisation du contenu et la création de liens dans tous les cas dans le domaine tactique. En outre, il faut éviter de dupliquer le contenu, la cannibalisation des sujets ou des mots clés et l'optimisation des titres de page. Ainsi, les exploitants de sites Web de petite et moyenne taille auraient dû faire les devoirs de référencement dans le domaine tactique autant que possible.

Plus les sites Web sont grands, plus l'optimisation des moteurs de recherche techniques pour le contrôle de l'indexation et de l'analyse est importante. Pour la plupart des sites Web, cependant, je pense que ces mesures ne sont pas si cruciales pour la guerre, sauf pour éviter le contenu en double. Le budget d'exploration est suffisant pour que la plupart des sites Web indexent le contenu pertinent.

Dans l'optimisation des moteurs de recherche stratégiques, les tâches les plus importantes sont l'optimisation de la structure interne des liens et de l'information, ainsi que la création d'une autorité ou d'une marque au niveau du domaine. Plus dans l'article The Digital Brand / Authority: Importance pour le référencement et le marketing en ligne.

Markensignale_Links_Content_Suchmuster

Si vous me demandez quelles sont les tâches les plus importantes pour améliorer les classements à l'avenir, ma réponse est la suivante:

  • Recherche et analyse de mots clés et de sujets en vue de la production de contenu
  • Création de contenu en fonction de l'intention de recherche
  • Optimisation du titre et de la description de la page
  • Création de documents de base sémantiques / optimisation du contenu sémantique
  • Optimisation de la structure de navigation et d'information du site

En outre, il convient de demander aux bons spécialistes du marketing (contenu), du marketing, des relations sociales et des ORC de travailler ensemble pour améliorer les chiffres les plus importants en matière d'autorité et de force de la marque.

  • présence
  • Nombre de nouveaux visiteurs
  • Volume de recherche selon les termes de la marque
  • Volume de recherche de termes de recherche liés à la navigation liés au domaine et à la marque
  • Social Spread, Social Buzz, Visibilité des réseaux sociaux

La fidélisation de la clientèle est une autre caractéristique importante des marques et des autorités. Les mesures de fidélité peuvent être:

  • durée moyenne de séjour
  • taux de rebond
  • Proportion de visiteurs revenant

La propriété la plus importante d'une marque et d'une autorité est probablement le prestige et la confiance qui peuvent être évalués sur la base des indicateurs de réputation externes suivants:

  • Co-compétitions et co-citations
  • Noms de marque et liens

Un autre signe de confiance dans une marque ou un site Web est constitué de paramètres indiquant le niveau d'interaction. Les chiffres clés d’engagement suivants peuvent être utilisés à cet effet:

  • taux d'achèvement
  • plus d'interactions avec le site telles que téléchargements, commentaires …
  • Relation avec d'autres marques, autorités et influenceurs
  • Nombre de pages vues (impressions de pages)

Un tableau de bord de surveillance de marque gratuit pour Google Analytics et d'autres informations sur ce sujet dans l'article La marque / autorité numérique: importance pour le référencement, le marketing en ligne et les données clés (y compris le tableau de bord de surveillance de la marque).

C'est mon opinion et ne correspond pas à tous égards à l'opinion des autres spécialistes du marketing en ligne / SEO. Par conséquent, la référence aux études factorielles de classement annuel de MOZ et de Searchmetrics.

Mot de la fin: ce qu'un responsable de référencement ne devrait pas faire

Les activités qui contribuent au renforcement de la marque et de l'autorité au niveau du domaine ne sont généralement pas des mesures menées principalement pour le classement. Par conséquent, un responsable SEO devrait s'abstenir de le faire et conseiller uniquement. Ce n'est tout simplement pas sa compétence principale. Ainsi que la création de contenu.

Une exception pourrait être les backlinks de sujet. Les backlinks organiques sont le résultat d'un bon marketing (contenu) et non de SEO. Cependant, il n'y a pas d'évolutivité en termes de nombre et de qualité des backlinks. Pour ce faire, il est toujours possible, bien entendu, d’acheter des backlinks pour une campagne marketing de manière inorganique. (Plus de réflexions à ce sujet, je les laisse à chacun de moi …) À partir de ce moment, c’est encore une mesure de l’optimisation des moteurs de recherche, puisque je sélectionne ces sources de liens pour certaines statistiques de référencement (SEO) et qu’il ne s’agit surtout pas du marketing, mais d’améliorer le classement.

Si nous nous en tenons à toutes les activités susceptibles d’améliorer le classement, le label SEO vous empêtrera de diluer vos propres compétences, de créer une confusion en termes de responsabilités et de déclencher des luttes de tranchée avec les industries voisines telles que les relations publiques, le marketing, l’optimisation de la conversion …

La confusion dans le secteur du marketing est déjà assez grande. Tant de publications comme "Pourquoi CRO est le meilleur référencement …"Continuez simplement cette confusion. Même dans le secteur des relations publiques, des produits tels que SEO PR annoncé, ce qui est juste un non-sens.

Je sais que cette attaque sur votre propre territoire a heurté la plupart des SEO par le passé. Genauso fühlt sich ein PRler oder Marketer wenn plötzlich SEOs sich in ihren bisherigen Verantwortungsbereich einmischen und diese Dienstleistungen als Suchmaschinenoptimierung angepriesen wird.

Ein(e) SEO-Manager(in) tut sich keinen gefallen wie die Axt im Walde in andere Bereiche einzudringen, sondern die Interessen der jeweiligen Interessensgruppen zu wahren. Ein Perspektiv-Wechsel bzw. Blick aus der Vogelperspektive tut hier gut.

Ich bin der Meinung viele Köche verderben den Brei und jeder sollte in seinem Bereich dazu beitragen die Auffindbarkeit in den Suchmaschinen zu verbessern und nicht in den Aufgabenbereichen anderer besser ausgebildeter Fachleuten herumfuhrwerken… Die Suchmaschinen Rankings liegen nicht mehr in alleiniger Hand der SEOs, (mehr dazu Branding & das neue Google Ranking: Warum SEO nicht mehr reicht… )

SEO-Maßnahmen-Katalog inkl. Quellenverzeichnis

Nach der schweren Kost stelle ich zum Abschluss ich einen kostenlosen Maßnahmen-Katalog der wichtigsten SEO-Aufgaben bereit, die mit über 100 nützliche Info-Quellen aus der deutsch und englischsprachigen SEO-Branche ergänzt habe. Ich habe hierzu über 50 nützliche Quellen zusammengetragen und den Aufgaben zugeordnet. et al dabei sind

Das PDF gibt es gegen einen Tweet. Google+ oder Shares bei LinkedIn. Xing ou Facebook dieses Beitrags kostenlos zum Download. Dazu einfach auf das folgende Bild klicken (Wer den Dienst nicht nutzen möchte kann uns den Share auch als Screenshot an seo(at)aufgesang.de schicken. Im Gegenzug schicken wir den Download-Link) >>>

Durch Klick auf dieses Bild über Info-Quellen für die Suchmaschinenoptimierung downloaden!

Durch Klick auf dieses Bild über 100 nützliche  Info-Quellen für die Suchmaschinenoptimierung downloaden!

Récapitulatif du SEOKomm 2012 à Salzbourg

Pour la troisième fois, les membres de Levelseven ont organisé la conférence autrichienne sur l'optimisation des moteurs de recherche – le SEOkomm 2012. L'événement réservé a réuni près de 600 participants. L'équipe OnPage.org et le capitaine OnPage lui-même ont également participé à l'événement et sont vraiment enthousiastes (même avant la soirée).

Organisation et cordialité

L’équipage d’OnPage est arrivé plus tôt le jour de la conférence. La raison: le capitaine devait être correctement préparé et stylé pour son apparence, de même que les invités recevaient un délicieux café. Déjà pendant la préparation, nous avons immédiatement remarqué la longue file d'attente lors de l'enregistrement. Mais les invités enregistrés ont immédiatement reçu des collations et du café, le service ne laissant personne assoiffé ou affamé. La mise en page était très bien organisée, avec le temps elle fonctionnait parfaitement et les modérateurs des panneaux faisaient en sorte que les haut-parleurs puissent être changés sans heurts. Un événement tout simplement bien organisé que vous aimez vraiment visiter. Respect à l'équipe de SEOkomm pour une excellente organisation. Mais revenons d'abord à nos points saillants de la conférence de fond d'aujourd'hui:

  • Keynote: la prochaine grande chose! Marcus Tandler Le discours énergique de Marcus a été le signal de départ de SEOkomm avec 429 diapositives. Lors d'un changement de diapositives excitant, Marcus a réveillé l'auditoire et lui a montré des exemples de ce qui est particulièrement important pour réussir dans le domaine de la recherche, en particulier: Trafic!
  • OnPage – SEO – malheureusement génial! Karl scratch SEOKratzes, comme nous l'appelons affectueusement Karl Kratz, a encore une fois confondu certains participants à la conférence avec des formules mathématiques et expliqué la signification du terme pondération à l'aide de la formule WDF * IDF. Le conseil de Karl: Si vous effectuez l'évaluation avec les outils offrant ce calcul, vous devez vous demander si la cote est vraiment correcte.
  • Social SEO – une évolution du référencement. Marcus Tober Marcus Tober de Searchmetrics a parlé de l'importance des signaux sociaux pour l'indexation des pages. Marcus a utilisé un test pour montrer quels signaux sociaux fonctionnaient et depuis quelle plate-forme ils étaient les plus efficaces pour le classement. La réponse était évidente et a été confirmée par le test: les sites qui utilisent Google Plus ont un rang comparativement meilleur. Astuce de Marcus: Bien que Matt Cutts assure que les signaux sociaux ne sont pas inclus dans l'évaluation du classement, il n'est pas nécessaire être comme ça.
  • Marco Janck – Questions récurrentes sur l'optimisation de la boutique en ligne La présentation de Marco était axée sur l'optimisation des boutiques en ligne. Cependant, son message selon lequel il fallait mettre beaucoup de passion et d’amour dans un projet était bien plus important. Astuces pour les boutiques en ligne, Marco cible les groupes cibles, l'optimisation de la plage de plis ci-dessus et la sécurisation des sources de confiance pour les liens. Le conseil de Marco: oubliez les numéros 1 et 01! Avec passion, il se passe beaucoup plus de choses et les marques sont créées par enthousiasme.
  • Après 30 minutes, 20 liens supplémentaires Le groupe mixte composé de Bastian Grimm, de Dominik Wojcik, d'Oliver Hauser et d'Andy Bruckschlögl a constitué un moment fort. Les experts en matière de création de liens ont donné aux auditeurs une alternance de conseils utiles sur les liens pouvant être obtenus avec des moyens simples. Malheureusement, les conseils ne peuvent pas être écrits.

Le reste du temps a fait appel à l’équipe OnPage pour Mise en réseauprendre des photos et prendre un café avec vous. Nous avons été particulièrement heureux des nombreux visiteurs sur notre stand et avons trouvé les discussions agréables et enrichissantes entre les deux. Un grand merci à tous ceux qui ont participé. La preuve de photo est les prochains jours sur Facebook et Flickr, mais seulement après la fête! En ce sens, une conférence réussie. La fête approche … ufff … Nous ferons rapport à l'addenda des faits saillants de la fête du SEOkomm. Ces dernières années, il a été démontré que les parties SEOKomm ont toujours des surprises spéciales. Faisons-nous simplement la surprise. PS: Nous avons pris plus de 150 photos, toutes accessibles sur Facebook.

Autres récapitulatifs

Pour modifier le taux de rebond d'Analytics par Scroll & Duration à l'aide de Google Tag Manager

Frustré par votre propre taux de rebond? Je pense que beaucoup veulent un taux de rebond inférieur sur leurs pages. Mais que se passe-t-il si Google Analytics ne fournit pas de chiffres significatifs et que le taux de rebond est bien meilleur? Cet article explique ce qu'est le gestionnaire de balises de Google et comment obtenir des données de rebond plus fiables.

Trucs et astuces

© Coloures-pic – Fotolia.com

Tout d'abord, une brève explication du taux de rebond ou du taux de rebond. Ceci est indiqué sur la page de support officielle de Google

"Le taux de rebond est le pourcentage de visiteurs qui ne voient qu'une page lors d'une visite sur votre site."


Cela signifie donc qu'un utilisateur lit un article de blog de manière intensive et reste sur la page pendant plusieurs minutes, puis rebondi s'il ne visite pas une autre page. Il s’agit bien entendu d’une information erronée sur Analytics.

Google Tag Manager facilite la gestion de différents tags. L'insertion de codes de suivi est grandement simplifiée. Vous pouvez non seulement intégrer ici des codes de suivi internes tels que Google Analytics, mais également des codes externes tels que ClickTale, etc. Ce code fonctionne alors comme un conteneur. Toute modification ultérieure est modifiée dans le gestionnaire de balises et non dans le code source de la page. La condition préalable est Google Analytics Universal.

La durée du séjour en tant que critère du taux de rebond

Tag Manager a pour objectif d'insérer des événements indiquant un type de taux de rebond ajusté et optimisé. Rappelez-vous que la méthode traditionnelle d’enquête sur le taux de rebond est l’utilisation unique / nombre total de visites. En raison de l’événement supplémentaire, les utilisateurs qui ont une certaine durée de séjour sur une page ne doivent plus être considérés comme un rebond simplement parce qu’ils ne visitent pas une autre page. Comment ça marche?

Commencez par créer une balise personnalisée appelée "durée de la visite" (ou similaire). En tant que type, définissez la "balise HTML personnalisée" et insérez le code suivant dans le champ:

Dernier taux de rebond

Code HTML pour utiliser la durée du taux de rebond

Une fois le code inséré, vous devez toujours définir {{event}} égal à gtm.dom en tant que règle afin que le compteur de secondes ne commence à compter que lorsque le DOM est chargé. Enregistrez ensuite le tag et le conteneur complet et publiez le tout. Déjà, le taux de rebond est comptabilisé en fonction de la durée du séjour et non selon la méthode traditionnelle.

Une autre façon d’optimiser le taux de rebond que je voudrais vous montrer maintenant.

Défilement de l'utilisateur comme indice du taux de rebond

Oui, vous avez bien entendu. Après tout, utilisez votre taux de rebond après la "piste défilée". Cela vous donnera un bien meilleur aperçu de qui, par exemple, a complètement lu votre dernier article de blog.

Pour créer la balise, vous suivez essentiellement la même procédure que dans l'exemple précédent.
Tout d’abord, créez une nouvelle balise nommée "Défilement de page". Créez ensuite à nouveau une balise HTML personnalisée et entrez le code suivant.

Code de taux de rebond à défilement

Code HTML pour utiliser le défilement du taux de rebond

Définissez maintenant {{event}} égal à gtm.dom comme règle, enregistrez balise et conteneur, et vous pourrez filtrer le défilement en termes de taux de rebond.

Si le défilement est maintenant sur la page, un événement est déclenché et compté comme un non-rebond. Incidemment, l'événement n'est pas déclenché à chaque défilement afin de ne pas créer plusieurs centaines d'événements par page.

A quoi ça sert pour vous?

Les événements que vous avez créés dans Google Tag Manager vous permettent désormais de suivre différents événements à votre guise et d'obtenir des résultats plus précis. Comme vous pouvez le constater, la gestion des événements avec Google Tag Manager est très simple et vous n’avez pas à travailler directement sur le code source du projet.

Bien entendu, il est également possible de créer ou d'affiner de nombreux autres critères. Par exemple, vous pouvez toujours afficher le défilement de l'utilisateur avec suffisamment de précision pour qu'un événement déclenche une page défilée après un certain pourcentage. Il est donc très facile de déterminer qui lit seulement 30% ou 60% d’une page et réagit en conséquence.

Au final, cependant, il faut toujours déterminer si la création d'objectifs est proportionnelle à la page et à ce que vous voulez mesurer avec précision. Pour les blogs, les deux méthodes ci-dessus sont très bonnes. Lier les deux méthodes à un "événement de défilement temporel" vous donne un taux de rebond très précis sur votre page.

Comment les sous-domaines de Google évaluent-ils les sous-répertoires?

À l’Halloween, Google a publié un autre message de Matt Cutts sur sa chaîne Youtube WebmasterHelp. Il répond à la question de Bob de Somerville, qui souhaitait savoir si Google évaluait les sites Web différemment s’ils utilisaient des sous-domaines ou des sous-répertoires.

Matt Cutts répond à la question en disant que, fondamentalement, les deux variantes sont égales. Cependant, la décision devrait dépendre de ce que l’on peut manipuler ou travailler plus facilement.

Cela commence par la configuration et le choix du système de gestion de contenu (CMS).

Par exemple, Matt appelle son propre blog http://www.mattcutts.com/blog, il utilise un sous-répertoire car il est plus facile d'inclure du contenu.

Contrairement aux sous-domaines, les sous-répertoires nécessitent pas de DNS Et c'est plus facile si vous voulez changer le domaine d'un blog. À une changement de domaine non seulement un nouveau domaine, mais aussi un nouveau sous-domaine devrait être acheté.

Par ailleurs, il est plus pratique pour certains utilisateurs d’utiliser un sous-domaine s’ils souhaitent utiliser différentes technologies sur un domaine pour exécuter leur blog. Ce sont des produits comme tumblr ou WordPress.

Le contexte historique rend l’utilisation de sous-domaines ou de sous-répertoires pertinente. Google autorisé deux résultats par hôte dans les SERPs. Dans ce cas, selon l'explication de Matt, un hôte est fondamentalement un sous-domaine. Dans cette constellation, il est logique d’avoir plusieurs sous-domaines, car vous obtiendriez deux résultats d’un sous-domaine et deux résultats d’un autre sous-domaine, etc. Cela peut être répété, et Google a observé que cela avait été instrumentalisé pour créer un grand nombre de sous-domaines. qui a reçu de nombreuses entrées dans les SERPs. À titre d'exemple, eBay a utilisé cette méthode pour dominer les premières pages de SERP.

En conséquence, Google a modifié la classification des sous-domaines. Pendant ce temps, un grand nombre de sous-domaines sont résumés dans l'évaluation. Leurs sous-domaines résumés devraient être les leurs distinction conservés, ou pas tous les sous-domaines d’un domaine doivent être classés avec un classement identique. Pour les trois premières entrées, il est donc plus facile de figurer dans les résultats de la recherche que pour la quatrième ou la cinquième entrée.

Les arguments du passé, pour lesquels vous devriez utiliser un sous-domaine, ne sont donc pas vrais.

Matt souligne à la fin de la vidéo que les deux variantes sont équivalentes et que préférences personnelles de l'utilisateur.

La vidéo complète peut être trouvée ici:

Le coup d’envoi de données: utilisez Analytics & Search Console dans AdWords.

"Chuck Norris peut faire le tour avec ses jambes droite et gauche, en même temps."

Ok, je ne veux pas trop promettre, malheureusement nous ne serons jamais aussi flagrants, mais avec quelques leviers nous pouvons au moins être utiles Importer des données à partir de Google Analytics et de la console de recherche (anciennement Webmaster Tools) dans AdWords et utiliser ces données contre nos concurrents en même temps. N'est pas égal à la nouvelle Chuck-Norris-Move (n'est pas pair), mais au moins une valeur ajoutée à ne pas sous-estimer dans la lutte pour le plus de conversion.

Mon article suivant devrait mettre en évidence les éléments suivants: La liaison des outils Google cités apporte à l'internaute incliné AdWords plus de données, en particulier dans le domaine de l'utilisation de sites Web, mais également des informations intéressantes. applications, comme je le montrerai ci-dessous.

AdWords_Analytics_Search-Co "width =" 520 "height =" 272 "srcset =" https://www.sem-deutschland.de/wp-content/uploads/2016/02/AdWords_Analytics_Search-Co.jpg 520w, https: // www.sem-deutschland.de/wp-content/uploads/2016/02/AdWords_Analytics_Search-Co-300x157.jpg 300w "data-lazy-tailles =" (largeur maximale: 520px) 100vw, 520px "/><noscript><img decoding=Battre les arguments pour plus de données: rapprocher l’intention de recherche, les annonces et la page de destination / offre

Si vous savez gérer correctement AdWords, vous pouvez interpréter une chose avant toute autre chose – et l'utiliser à votre avantage en termes d'objectifs de campagne.
D'un autre côté, si vous aimez vraiment Roundhousekickt comme le grand Chuck, c'est l'essentiel: le distribuer correctement! La similitude des deux activités attire immédiatement le regard.

Dans l'utilisation quotidienne avec AdWords, les routines d'optimisation récurrentes, les bons textes d'annonce et les enchères habiles peuvent souvent représenter la moitié du combat, mais une chose est toujours au premier plan: Faites correspondre l'objectif de recherche aussi étroitement que possible avec le contenu ou le produit proposé et garantissez une expérience utilisateur positive, Fondamentalement, vous ne pouvez jamais suroptimiser et devriez toujours rester sur la balle.

Dans le cas idéal d'application, cela réussit en interceptant l'intention du chercheur avec une publicité appropriée et une page de renvoi tout aussi appropriée et, en raison de son produit sans aucun doute grandiose, il est pratiquement obligé de le convertir!

Restons donc dans l’allégorie: comment le Roundhousekick, s’il est exécuté proprement, idéalement, aussi près que possible de réconcilier son propre pied avec la pommette du contraire et sur la base de cet argument frappant, amical mais déterminé à convaincre, devrait également pour convaincre nos annonces en même temps que les différentes étapes de l’entonnoir de conversion.

Tout comme le Roundhouskick nécessite beaucoup de pratique et de connaissances chez les mortels, le Optimiser l'entonnoir de conversion AdWords beaucoup de connaissances et de fondamentaux.

Bien qu'AdWords fournisse lui-même des données importantes sur les performances du compte ou des campagnes en général, outre le facteur qualité, vous ne disposez pas d'informations supplémentaires sur la qualité et la quantité réelles des pages de destination en termes de publicité et de trafic entrant. Sans effort, vous devez les assembler vous-même en utilisant les autres outils. Regardons les choses en face, qui fait cela ou a le temps?

Et c'est exactement d'où ça vient Valeur ajoutée de la liaison à Analytics et à la console de recherche dans le jeu:

Fini le temps où je devais faire appel à une analyse supplémentaire pour voir le taux de rebond de ma page de destination. Bang!
Fini l'époque où je devais chercher et explorer Search Console pour voir combien de requêtes de recherche étaient réellement traitées de manière organique et combien avaient été payées. KaPoww!

"Chuck Norris ne fait pas le lien – il unit"

Dans la traduction métaphorique de Roundhousekick: Avant, je ne savais que la taille de ma chaussure et à quelle hauteur je pouvais étirer ma jambe fragile sous un visage douloureux. Je sais maintenant comment je dois me détourner de mon quotidien au bureau – Maintenant, nous `parlons!

Le coup de pied rond dans le cas d'application

Le coup de pied rond dans le cas d'application

Associez Google Analytics et la console de recherche Google à AdWords – voilà comment cela fonctionne

Le principe est similaire dans les deux cas. Comme condition de base, nous devons avoir les droits d’administrateur pour les comptes ou les obtenir. Bien entendu, vos sites Web / domaines doivent déjà être confirmés pour les comptes respectifs – sinon, il n'y a pas de données. Idéalement, pour des raisons pratiques, nous utilisons un compte Google pour toutes les applications. Vous devez également vous assurer que vous disposez du partage de données pour les services et produits Google dans chaque compte.

Lier Analytics à AdWords:

Allons en haut du compte "Gérer". Sous Propriétés, cliquez sur le point "Lien AdWords" (voir illustration). Dans ce cas, si nous en avons la permission, il suffit de sélectionner le compte AdWords et de choisir la vue à associer.
Un lien créé avec succès dans AdWords se trouve ensuite dans la rubrique "Mon compte" – "Comptes associés".

Lier AdWords à Google Analytics

Lier AdWords à Google Analytics

Lier la console de recherche (anciennement outils pour les webmasters) à AdWords:

Si nous utilisons déjà un site ou un domaine dans la console de recherche, il est plus simple de créer un lien via AdWords.
Passons au compte AdWords sur l'icône, puis "Comptes liés". Cela nous amène au sous-élément "Console de recherche" (ou "Analytics").

Liaisons AdWords dans Analytics

Possibilité de créer des liens vers des comptes AdWords

Tout ce que vous avez à faire est d'aller dans "Afficher les détails" et entrez l'URL du domaine déjà utilisé par Search Console. Ensuite, vous devez vérifier à nouveau le tout dans la console de recherche et éventuellement également le confirmer.

Utiliser les données Google Analytics dans AdWords

Nous ajouterons les statistiques suivantes au compte AdWords en créant un lien vers Analytics:

  • taux de rebond
  • Pages par session
  • Moy. Durée de la visite
  • % nouvelles sessions

Celles-ci ne figurent pas automatiquement dans l'aperçu des colonnes, mais doivent d'abord être ajustées dans les colonnes (voir capture d'écran).

Ajouter des colonnes de Google Analytics à AdWords

Ajouter des colonnes de Google Analytics à AdWords

Qu'est-ce que ces valeurs m'apportent?

Les nouvelles valeurs du compte AdWords ont du sens, notamment en termes de page de destination potentielle et d’optimisation de la conversion.
Maintenant, je peux voyez que la page de destination, qui assure peu de conversions, a également généralement un taux de rebond élevé. Donc, peut-être que mon ensemble de mots clés n'est pas du tout inapproprié ou que mon responsable de compte est incapable de cette agence bizarre, mais peut-être que le site ne prend tout simplement pas en charge le comportement d'achat en raison de la convivialité?
Pour les domaines pilotés par l’information, il peut toutefois être utile de savoir combien de pages sont visualisées par session. Là encore, je peux examiner la question en ce qui concerne le canal SEA et tirer mes conclusions.

Vous remarquez vous-même, lentement mais sûrement, nous comprenons. Lentement de la fente ennuyeuse, que je peux encore du cours de danse standard, un vrai coup de pied rond! Il ne nous reste plus qu'à nous lever et atteindre notre destination. Kapääng!

Avec le but et le type de côté également, les possibilités varient pour regarder les données et en tirer des conclusions – il n’existe cependant pas de recette standard: Soyez créatif.

Vous trouverez plus d'informations sur l'optimisation d'AdWords avec Analytics dans l'article détaillé d'Olaf.

Importer des objectifs d'analyse dans AdWords

Un de mes points forts personnels du mariage AdWords et Analytics: les objectifs créés dans Analytics sont automatiquement transmis à AdWords (mais doivent néanmoins être activés en tant que tels).
Je trouve cela extrêmement agréable dans le travail quotidien d'une agence. D'une part, il n'est pas nécessaire de stocker un pixel de conversion partout, car le code Analytics figure de toutes façons sur toutes les pages et des objectifs de types très différents (événements, par exemple) peuvent être facilement définis en tant que projet cible et donc en tant que conversion AdWords. , Saustark!

Utiliser des listes de remarketing à partir d'Analytics dans AdWords

Mon avis personnel: Vouloir faire du remarketing AdWords sans l'aide d’Analytics, c’est comme s’habiller en Chuck Norris, mais oublier sa barbe.
La création d’analyses de refonte de listes, puis leur importation dans AdWords offrent tellement plus de potentiel que je ne peux pas (m'en passerai). Quelques idées et options de listes possibles pour vous donner une idée:

  • Listes de remarketing par durée de séjour
  • Seulement nouvelle utilisation ou utilisateurs déjà existants
  • Les utilisateurs ont terminé les transactions

Ahhh, le cœur de chaque responsable marketing bat plus vite. Je le sens carrément. Vous le sentez aussi?
Petite astuce sur le bord: Incidemment, les critères des listes peuvent également être combinés.

Afficher les campagnes AdWords dans Analytics

Une autre valeur ajoutée est que nous pouvons utiliser AdWords et Analytics pour inverser les mêmes données: notre affichage de données Analytics utilise également les données d'AdWords et peut être segmenté de différentes manières.
Un gestionnaire de compte astucieux apportera désormais un tableau de bord de marketing en ligne individualisé à la prochaine grande réunion du conseil d'administration, où il pourra désormais comparer les données de recherche payées avec d'autres départements de la maison. Voyons voir qui a le pantalon maintenant!

Afficher les données AdWords dans Analytics

Afficher les données AdWords dans Analytics

Utiliser les données de la console de recherche Google dans AdWords

Imaginez que nous ayons lu tous les livres sur le Kung Fu, Bruce Lee et le gros mandrin et que nous nous sentions si "prêts" – si nous pouvons vraiment atteindre notre cible avec le rayon et la hauteur de nos coups de pied et ne montrera inévitablement que le cas d'utilisation.
Imaginez que vous ayez effectué une recherche par mot clé à grande échelle, sur plusieurs plates-formes et parfaitement exécutée, qui le possède réellement, tout comme nous le faisons avec nous au sein de l'agence. Cependant, ce qui est réellement exécuté est toujours le cas de l'application.
Mais que se passerait-il si je pouvais facilement savoir dans AdWords quels mots clés étaient payants et quels artistes organiques et quels mots je n'avais pas à l'écran pour AdWords? Ou lequel préférerais-je utiliser pour ma stratégie de référencement?
C’est exactement ce que vous pouvez faire avec un Lier AdWords à la console de recherche facilite les choses!

Rapport: Recherche payée et biologique

Le rapport correspondant s'appelle "Recherche payée et organique" et peut être visualisé facilement après un lien réussi et la base de données correspondante via la colonne "Dimensions" et sous "Afficher" (voir la capture d'écran).

Rapport payé et recherche organique

Afficher le rapport de recherche organique et payante dans AdWords

Le coup de pied rond de données dans l'application

Nous avons maintenant créé une base de données assez ronde grâce au lien relativement simple mais efficace des différents outils pouvant vous aider à tirer le meilleur parti de vos campagnes!

Incidemment, vous devez également intégrer les données acquises à d’autres canaux de marketing et penser de manière stratégique.

Simple et efficace doit maintenant être la propre exécution, en ce qui concerne les coups de pied Roundhouse je veux dire. Passez maintenant à la mise en œuvre pratique, essayez d'appliquer les connaissances acquises sur la route à leurs homologues: concentrez-vous sur votre objectif et montrez que vous savez comment une fois que le grand Chuck Norris – Faites-moi confiance, vous ferez attention à vous!

Mais maintenant, à vous de jouer, car comme disait Morpheus à Neo dans Matrix:

"Je ne peux que vous montrer la porte. Tu dois passer seul".

À Artur

Artur a rejoint Inbound Marketing de 2014 à 2016 et a travaillé en tant que responsable SEM dans les domaines de AdWords et de l'optimisation des moteurs de recherche, ainsi que de la production vidéo. Il a étudié la philosophie et les médias à Hildesheim, Dublin et Bonn et a précédemment travaillé dans la salle de presse en ligne de la chaîne d'information Phoenix.

"Disavow Link Tool" de Google

L’outil Disavow Link a été présenté personnellement par Matt Cutts lors du discours liminaire prononcé au Pubcon à Las Vegas le 16/10/2012.

L'outil est maintenant disponible ici. Le message de lancement a été publié sur le blog Google Webmaster Central après l’annonce. Au début de 2012, Bing a également lancé un outil qui pourrait invalider les liens sur une page Web. Matt Cutts a prévenu le conférencier avant d'utiliser l'outil Bing. Il a également souligné que les propriétaires de sites Web devraient d'abord essayer de supprimer les mauvais liens par d'autres moyens, tels que contacter d'autres propriétaires de sites Web ou des vendeurs de liens avant d'invalider les liens sur Bing ou Google.

Surtout, Cutts a mis en garde contre l'utilisation négligente de l'outil:

    "C’est une fonctionnalité avancée qui doit être utilisée avec prudence. Une utilisation incorrecte peut nuire aux performances de votre site sur les résultats de recherche de Google. Vous ne devez invalider une référence que si vous pensez qu'il existe un nombre important de liens de spam, de liens artificiels ou de liens de qualité inférieure vers votre site et si vous êtes certain qu'ils vous poseront des problèmes. "

Comment invalider des liens

Dans l'outil Lien de désavantage, vous pouvez télécharger un fichier texte dans lequel toutes les adresses URL sont répertoriées individuellement ou vous pouvez les extraire d'une page comme suit: domaine: google.com domaine: yahoo.com domaine: facebook.com Les deux possibilités peuvent être combinées dans un seul fichier être. L'exemple ci-dessous montre comment utiliser les balises de hachage # pour ajouter des commentaires spécifiques. Donc, s'il y a une balise de hachage avant la ligne du document, Google l'ignorera. Les URL répertoriées dans le fichier texte sont déclarées indésirables et non valides.

Une fois le fichier créé, l'accès à l'outil de lien est fourni via Google Webmaster Central. Vous recevez ensuite un message indiquant que les liens soumis devraient être invalidés dans quelques semaines.

Notification Center 1-1 Outil de liaison Google Disavow

Révision par Google

Cependant, le processus de révision de Google ne commence pas immédiatement. Matt Cutts dit qu'il faudra peut-être des semaines avant que les propositions entrent en vigueur. Google examine attentivement les soumissions et se réserve le droit de se faire son propre jugement sur les liens proposés. Le fichier texte soumis peut avoir une taille maximale de 2 Mo. Si le traitement prend trop de temps, on peut supposer qu’une erreur de soumission s’est produite. Les points suivants doivent être notés:

  • Télécharger le fichier actuel avec les URL répertoriées
  • N'utilisez que les liens que vous souhaitez vraiment invalider
  • Soyez patient, car le traitement peut prendre plusieurs semaines

Qui devrait utiliser l'outil?

Cet outil est particulièrement recommandé aux personnes affectées par la mise à jour Penguin. Les sites Web avec des liens achetés ou des liens de spam ont été soit pénalisés, soit déclassés dans le classement. Avec l’aide de Disavow Link Tool, les webmasters qui ont reçu de nombreux liens de spam, dont la plupart sont innocents, peuvent signaler les domaines de spam correspondants à Google afin qu’ils puissent être supprimés.

Vidéo: Matt Cutts sur l'outil de désaveu de lien

Dans une vidéo de dix minutes, Matt Cutts explique plus en détail le contexte du développement de l'outil et son utilisation:

(Intégré) https://www.youtube.com/watch?v=393nmCYFRtA (/ embed)

Plus d'informations sur ce sujet ici.
Mise à jour de l'article: 10.01.2019

Vérifiez, analysez et optimisez les facteurs de succès essentiels de votre site Web avec un seul outil: la suite logicielle SEO Expertise.

Commencez maintenant gratuitement

Différence entre campagne de marketing de contenu et stratégie de marketing de contenu

"Le marketing de contenu a besoin d'une stratégie". Vous pouvez lire cela partout et des collègues du monde du marketing de contenu comme Mirko Lange. Robert Weller. Mael Roth. Babak Zand. Klaus Eck ou Kerstin Hoffmann Priez la nécessité d'une stratégie de contenu de haut en bas. Mais vous entendez encore et encore que le marketing de contenu ne peut pas être pensé dans les campagnes. Mais je pense que le marketing de contenu peut également être pensé et réalisé dans des campagnes. Surtout, les termes ne sont pas incohérents. Voici mes pensées.

Content Marketing: stratégie ou campagne?

Afin de faire la différence entre stratégie de marketing de contenu et campagne de marketing de contenu, une brève définition de la stratégie et de la campagne est nécessaire.

Définition de la stratégie

La définition initiale de la stratégie inclut un objectif à long terme (voir Wikipedia)

dessous stratégie Dans l'économie, le comportement planifié classique (généralement à long terme) des entreprises est compris afin d'atteindre leurs objectifs. En ce sens, les spectacles stratégie d'entreprise en gestion d'entreprise, de quelle manière un objectif commercial à moyen terme (environ 2-4 ans) ou à long terme (environ 4-8 ans) devrait-il être atteint … Premièrement, une stratégie doit exister, qui doit être pleinement intégrée dans le Act est mis en œuvre (stratégie réalisée). Donc, aucune partie de la stratégie n'est restée non réalisée, aucune activité supplémentaire n'est nécessaire.

En outre, Mintzberg distingue les formes stratégiques suivantes:

  • stratégie entrepreneuriale
  • stratégie idéologique
  • Stratégie d'écran
  • Stratégie de processus
  • Stratégie non connectée
  • stratégie de consensus

Sans entrer dans les formes de stratégies individuelles, on peut dire que les stratégies ont tendance à suivre des objectifs ou même des visions créatrices de valeur et à long terme. Ces objectifs ne peuvent être que partiellement compris en chiffres clairs ou plutôt abstraits. Ces objectifs pourraient être:

  • Positionnement sur le marché
  • Création de marque / image de marque / popularité croissante de la marque
  • Développement de nouveaux produits
  • Expansion des parts de marché
  • Ouvrir de nouveaux marchés

Les objectifs stratégiques ont également tendance à avoir un impact plus global ou sont plus susceptibles d'être des méta-objectifs.

Définition de campagne

Selon Wikipedia, une campagne est définie comme suit:

un campagne est une action temporaire avec un objectif défini, qui est tentée par une interaction planifiée et coordonnée de plusieurs personnes ou acteurs.

Les campagnes ont tendance à être des objectifs tactiques / opérationnels ou à court ou moyen terme, i.d.R. mieux détectés concrètement que les objectifs stratégiques.

Les campagnes sont considérées comme faisant partie de la stratégie

En conséquence, stratégie et campagne ne sont pas du tout contradictoires. La mise en œuvre d'une campagne nécessite également une stratégie de processus. Les principales différences entre campagne et stratégie sont la durée et les objectifs à atteindre.

  • Les campagnes ont tendance à être à court et à moyen terme et suivent des objectifs mesurables tactiques et opérationnels. Les objectifs d'une campagne à court et à moyen terme doivent être considérés comme des objectifs intermédiaires pour atteindre les objectifs stratégiques à long terme.
  • Une stratégie est plutôt à long terme et suit des objectifs globaux plutôt abstraits

On peut en déduire les définitions suivantes pour le monde du marketing de contenu.

Quels sont les objectifs du marketing de contenu?

Comme expliqué précédemment, il convient de prêter attention à la différenciation entre campagne de marketing de contenu et stratégie de marketing de contenu, d’une part sur la composante temporelle ainsi que sur les objectifs à atteindre.

Lorsque vous considérez les objectifs du marketing de contenu, il est judicieux de faire la distinction entre les objectifs à court terme et les objectifs à long terme. Les campagnes de marketing de contenu poursuivent principalement des objectifs à court terme. Une stratégie de contenu à long terme.

Les objectifs de marketing de contenu à court terme / opérationnels sont les suivants:

  • Générer de la portée via la distribution de contenu via les médias sociaux / le bouche à oreille
  • Génération de buzz social
  • Création de co-occurrences, co-citations et backlinks
  • Nouveaux visiteurs

Les objectifs de marketing de contenu tactique à moyen terme sont, par exemple, les suivants:

  • bâtiment communautaire
  • Créer la confiance / réputation
  • Amélioration des taux d'achèvement
  • Findabilité dans les moteurs de recherche
  • Visiteurs récurrents
  • Lecteurs réguliers ou visiteurs
  • Amélioration des taux d'achèvement
  • Reliure des influenceurs

Une stratégie de marketing de contenu a pour objectif principal des objectifs stratégiques à long terme:

  • Structure du système de communication propre (par exemple, selon "Welcome to the System" de Karl)
  • Construire une marque / autorité
  • Structure des médias possédés / propres canaux de communication
  • Relation client fidèle à long terme
  • Positionnement en expert

Les objectifs à long terme doivent toujours être au centre de l'attention, conformément à la devise du creux continuellement dégoulinant de la pierre. Et nous parlons ici par périodes de trois à huit ans et non par mois. Revenons ensuite au mot merveilleux «durabilité» en jeu. Cela signifie que vous devez vous lancer dans le préinvestissement et parfois attendre longtemps que les succursales portent leurs fruits. (En savoir plus sur le marketing de contenu en général: marketing de contenu: définition, aperçu, informations)

En plus aussi le schéma suivant:

Objectifs de marketing de contenu Strategy_ Campaign "width =" 550 "height =" 298 "srcset =" https://www.sem-deutschland.de/wp-content/uploads/2015/10/Content-Marketing-Goal-Strategy_Campaign .jpg 837w, https://www.sem-deutschland.de/wp-content/uploads/2015/10/Content-Marketing-Ziele-Strategie_Kampagne-300x162.jpg 300w, https://www.sem-deutschland.de /wp-content/uploads/2015/10/Content-Marketing-Goal-strategy_campaign-600x325.jpg 600w "data-lazy-tailles =" (largeur maximale: 550px) 100vw, 550px "/><noscript><img decoding=Objectifs de marketing de contenu par stratégie et campagne

Qu'est-ce qu'une stratégie de marketing de contenu?

Une stratégie de marketing de contenu poursuit en particulier les trois principaux objectifs globaux de l'entreprise

  1. Construire une marque
  2. Création de votre propre média pertinent de grande portée ou de vos propres canaux de communication
  3. Relation client fidèle à long terme

Ces objectifs sont des méta-objectifs qui affectent l’ensemble de l’entreprise, quel que soit le département.

Pour atteindre ces objectifs, il est nécessaire de publier plus ou moins régulièrement du contenu via Owned Media, Earned Media et éventuellement aussi Média payant. Aujourd'hui et à l'avenir, je ne vois pas d'autre moyen pour la plupart des industries que d'atteindre ces objectifs grâce à une stratégie de marketing de contenu à long terme.

Avant d’aller plus loin dans la stratégie de contenu ou la stratégie de marketing de contenu, je préfère me référer aux collègues estimés ci-dessus, qui se sont déjà largement répandus:

Blog Talkabout de Mirko Lange sur la stratégie de contenu

Contributions de Kerstin Hoffmann sur le thème de la stratégie de contenu

Contribution aux blogueurs de relations publiques: quelle est l'importance d'une stratégie de contenu pour le marketing de contenu?

Contribution de Mael Roth: Les bénéfices à long terme fascinent à court terme. Pourquoi le marketing de contenu est plus qu'une campagne cool

Contribution de Babak Zand: Comment développer une stratégie de contenu?

Mais comment définissez-vous une campagne de marketing de contenu?

Qu'est-ce qu'une campagne de marketing de contenu?

Les campagnes de marketing de contenu reposent sur un contenu autonome pouvant être publié indépendamment de la plate-forme de contenu pour sa valeur et son objectif. Aufgesang appelle le contenu produit pour une campagne de marketing de contenu en résumé.

Les points forts du contenu sont pour nous, par exemple. Etudes, livres électroniques, guides, livres blancs, également disponibles séparément, p. Ex. peut avoir lieu indépendamment de votre propre blog, magazine … ou média appartenant. Voici quelques exemples du Aufgesang-Welt:

Etude e-commerce 2014

Téléchargez le guide en un clic sur la couverture

Etude e-commerce 2014

Téléchargez l'étude 2014 en cliquant sur la couverture

Situé Sang-Shop Studie2012-finale-1

Cliquez sur la couverture pour le livre électronique

Situé Sang-Shop Studie2012-finale-1

Cliquez sur la couverture pour l'étude 2015

Dérivée de la définition ci-dessus d'une campagne, une campagne de marketing par le contenu est une mesure limitée dans le temps qui poursuit des objectifs à court ou à moyen terme ou des objectifs tactiques et opérationnels. Ces objectifs ont également différentes parties prenantes au sein des entreprises. Vous pouvez ainsi distinguer les objectifs des relations publiques, des médias sociaux, du référencement, des ventes et du marketing.

Objectifs de relations publiques tactiques / opérationnels:

  • Améliorer la réputation et la confiance du marché
  • Meilleur positionnement sur le marché

objectifs des médias sociaux:

objectifs SEO:

Objectifs marketing tactiques / opérationnels:

  • Augmenter le nombre de visiteurs sur le site
  • abonnés à la newsletter
  • Amélioration des interactions utilisateur (taux de rebond, durée du séjour, profondeur de défilement …)

Tous ces objectifs sont des objectifs intermédiaires pour atteindre les objectifs généraux à long terme, tels que Création de marque / branding.

Marketing de contenu en fonction de la cible

Marketing de contenu en fonction de la cible

Une campagne de marketing de contenu nécessite également une stratégie et un processus basés sur celle-ci. Appelons cela micro-stratégie pour défendre la stratégie de marketing de contenu. Ici aussi, il est également très clair que le marketing de contenu et le marketing entrant sont une méta-discipline ayant des intérêts et des responsabilités interservices.

Comment menez-vous une campagne de marketing de contenu?

Une campagne de marketing de contenu peut être décomposée en plusieurs étapes:

  • Recherche d'objectifs / de stratégies
  • Conception et planification du contenu
  • La production de contenu
  • Promotion du contenu / diffusion du contenu
  • Surveillance / Contrôle des performances
processus de marketing de contenu

Processus de marketing de contenu pour mener une campagne de marketing de contenu

Lors de la définition des objectifs, il est important de définir des objectifs tactiques opérationnels clairs et des groupes cibles. Se concentrer sur les objectifs de SEO signifie conceptualiser un contenu qui plaira à ceux qui sont même capables de créer des liens (linkeratis), tels que: Éditeurs, journalistes, blogueurs, webmasters … Le contenu des objectifs de médias sociaux peut rester très différent. Alors que par exemple une vidéo est plus appropriée pour le buzz social, une étude est plus appropriée pour adresser linkeratis.

publics marketing de contenu

publics marketing de contenu

Bien qu'une stratégie de marketing de contenu rende plus difficile la quantification et la quantification d'objectifs stratégiques, une campagne de marketing de contenu peut cibler des objectifs opérationnels / tactiques. Cependant, l’influence des campagnes individuelles de marketing de contenu sur les objectifs stratégiques de l’entreprise ne peut être ignorée. Par conséquent, dans le meilleur des cas, les campagnes de marketing de contenu sont toujours intégrées dans une stratégie de marketing de contenu holistique.

Campagnes de marketing de contenu dans le cadre de la stratégie de marketing de contenu

Avant de passer au crible monde du marketing de contenu, je voudrais rappeler que l’intégration de faits saillants sur le contenu ou de campagnes de marketing de contenu dans une stratégie de marketing de contenu holistique est la meilleure voie à suivre. Cependant, les campagnes de marketing de contenu peuvent être le sel dans la soupe, la cerise sur le gâteau pour atteindre des objectifs commerciaux stratégiques. Vous avez i.d.R. plus de potentiel via les médias acquis pour atteindre des objectifs opérationnels / tactiques tels que des liens, de nouveaux visiteurs, atteindre … Les chances de succès avec une sensibilisation active sont plus grandes qu'avec les articles de blog ordinaires. Combinées au développement constant d'une marque et à ses propres canaux de communication, les chances de succès augmentent encore.

Éléments d'une stratégie de marketing de contenu

Éléments d'une stratégie de marketing de contenu

Que pensez-vous des campagnes en marketing de contenu?

Lancement d'OnPage.org

Ce qui dure longtemps finit par être bon: Aujourd'hui, l'heure est venue – après la phase bêta sensationnelle et excitante, l'outil d'analyse SEO OnPage.org commence aujourd'hui et est maintenant disponible à toutes les parties intéressées.

À propos d'OnPage.org

OnPage.org est un logiciel d'analyse de référencement débutant et avancé qui vous aide à examiner votre site Web pour identifier les facteurs importants liés aux moteurs de recherche pour un moteur de recherche performant. Optimisation OnPage, Non seulement l'architecture latérale est testée pour le cœur et les reins, mais elle corrige également les erreurs critiques du code. De nombreuses fonctionnalités vous aident à optimiser votre site et à augmenter votre trafic, ainsi que vos conversions.

Au cours des dernières semaines, nous avons exercé des pressions sur les fonctionnalités, la conception et les fonctionnalités. Deux mises à jour importantes ayant été effectuées au cours de la phase bêta, OnPage.org se présente sous un nouveau jour. Avec la mise à jour Hydra, de nouvelles fonctionnalités telles que l'optimisation du CTR et les classements multiples sont désormais disponibles. La mise à jour de Zyklop complète OnPage.org, entre autres choses, avec des performances de classement et une option étrangère avec vos mots clés. Également vos commentaires de la phase de bêta ouverte, nous avons pris à coeur et perfectionné à la fois l'interface utilisateur, la conception et la rapidité. Laissez-vous convaincre par OnPage.org et inscrivez-vous maintenant.

L'enregistrement

Que devez-vous considérer lors de votre inscription? En fait, c'est facile. Déjà sur la page d'accueil, vous avez la possibilité directement dans le processus de réservation,

Vous obtiendrez un aperçu des fonctionnalités de votre compte à l'avance. Vous avez essentiellement deux options de réservation: Compte standard: 1 domaine, 100 mots clés observables par domaine, pour 99,00 € par mois, chaque domaine supplémentaire peut être réservé (max. 5 domaines) Pro-Account – Mise à niveau de l’agence: 5 domaines, 100 mots clés observables par Domaine, connexions multiples possibles, fonction de segmentation Le paiement peut être effectué par carte de crédit ou prélèvement automatique.

Après inscription

Vous êtes déjà inscrit? Cela nous rend heureux – en quelques heures, vous pouvez déjà optimiser votre site. Tout d'abord, votre page sera minutieusement vérifiée et explorée. Cela peut prendre un certain temps, selon le site Web, mais pas plus de huit heures. Pendant que l'analyse est en cours d'exécution, vous pouvez vous familiariser avec l'outil et clarifier vos questions à l'avance. Pour cela, vous avez un wiki, une FAQ et des explications directement dans l'outil.

Services OnPage.org

OnPage.org vérifie les erreurs sur votre site, surveille votre classement et examine également votre serveur. Vous n'avez pas besoin d'outils supplémentaires pour vérifier tous les critères, vous avez tout "sous un même toit". Voici un petit extrait de ce qui est possible avec OnPage.org en détail:

  • surveillance classement
  • surveillance du serveur
  • Importation de mots clés directement à partir des outils pour les webmasters
  • Mot-clé et exportation de données
  • vérification des URL
  • Examen de contenu unique
  • Optimisation des extraits CTR
  • analyse de la concurrence
  • Analyse propres ensembles de mots clés
  • Et beaucoup plus

OnPage.org facilite votre travail quotidien, vous évitant ainsi de nombreuses évaluations manuelles et une préparation des données fastidieuse. Sur OnPage.org, vous pouvez intégrer des graphiques et des graphiques directement dans vos présentations, car les éléments visuels sont déjà disponibles partout. Ainsi, l'analyse sur page de référencement est très compréhensible, même pour un profane. Vous gagnez du temps et pouvez vous concentrer sur des choses essentielles, telles que Correction de bugs et implémentation d'importantes mesures de référencement.

Fun avec dépannage

Nous n'avons pas toujours essayé mortellement sérieux être – l'optimisation SEO doit aussi être amusant. Obtenez l'assistance de Captain OnPage qui vous aidera toujours à résoudre les problèmes avec un sortilège sur vos lèvres. Trouvez beaucoup d'œufs de Pâques que nous avons cachés et laissez le professeur Mario Serpino vous apprendre à développer votre savoir-faire en matière de référencement. Mais assez de conversation, allez à la Weißwurst et à Happy Optimizing!

Votre équipe OnPage.org