Comment utiliser les expressions XPath pour améliorer votre stratégie de référencement et de contenu ?

Agence SEO Quimper : Recherche, stratégies et automatisation SEO

Comment utiliser les expressions XPath pour améliorer votre stratégie de référencement et de contenu ?

Résumé de 30 secondes :

  • Comme Google favorise de plus en plus les sites dont le contenu dégage de l’expertise, de l’autorité et de la fiabilité (E-A-T), il est impératif que les référenceurs et les spécialistes du marketing produisent un contenu qui n’est pas seulement bien écrit, mais qui démontre également une expertise.
  • Comment comprenez-vous les sujets et les préoccupations qui importent le plus à votre clientèle ?
  • Pouvez-vous utiliser les questions et réponses pour élaborer des stratégies de contenu ?
  • Les notations XPath peuvent être votre trésor.
  • Brad McCourt, responsable de la recherche organique chez Catalyst, partage un guide détaillé sur l’utilisation des notations XPath et de votre crawler préféré pour obtenir rapidement les questions et réponses dans un format simple et digeste.

Google privilégie de plus en plus les sites dont le contenu dégage de l’expertise, de l’autorité et de la fiabilité (E-A-T). Il est donc impératif que les référenceurs et les spécialistes du marketing produisent un contenu qui n’est pas seulement bien écrit, mais qui démontre également leur expertise. Une façon de démontrer son expertise sur un sujet ou un produit est de répondre aux questions courantes des clients directement dans votre contenu.

Mais comment identifier ces questions ? Comment comprendre les sujets et les préoccupations les plus importants ?

La bonne nouvelle est qu’ils se cachent à la vue de tous. Il y a de fortes chances pour que vos consommateurs aient crié à tue-tête dans les sections Questions/Réponses de sites comme Amazon.

XPath et comment trouver les questions et préférences des clients

Ces sections sont une mine de questions (généralement) sérieuses posées par de vrais clients sur les produits que vous vendez.

Comment utiliser ces questions et réponses pour élaborer des stratégies de contenu ? La notation XPath est votre réponse.

Vous pouvez utiliser les notations XPath et votre robot d’exploration préféré pour obtenir rapidement les questions et réponses dans un format simple et digeste. XPath vous évite de cliquer sur des écrans interminables de questions en automatisant la collecte d’informations importantes pour votre stratégie de contenu.

Qu’est-ce que XPath ?

XML Path (XPath) est un langage d’interrogation développé par W3 pour naviguer dans les documents XML et sélectionner les nœuds de données spécifiés.

La notation utilisée par XPath est appelée « expressions ». À l’aide de ces expressions, vous pouvez effectivement extraire toutes les données dont vous avez besoin d’un site Web, à condition qu’il existe une structure cohérente entre les pages Web.

Cela signifie que vous pouvez utiliser ce langage pour extraire n’importe quelle donnée publiquement disponible dans le code source, y compris les questions d’une sélection de pages de questions et réponses d’Amazon.

Cet article n’a pas pour but d’être un tutoriel complet sur XPath. Pour cela, il existe de nombreuses ressources du W3. Cependant, XPath est assez facile à apprendre en ne connaissant que la structure des documents XML et HTML. C’est ce qui en fait un outil si puissant pour les référenceurs, quelles que soient leurs prouesses en matière de codage.

Parcourons un exemple pour vous montrer comment…

Utilisation de XPath pour extraire les questions des clients d’Amazon

Pré-requis : Choisissez votre robot d’exploration du Web

Bien que la plupart des grands noms de l’exploration du Web – Botify, DeepCrawl, OnCrawl – offrent tous la possibilité d’extraire des données du code source, je vais utiliser ScreamingFrog dans l’exemple ci-dessous.

ScreamingFrog est de loin l’option la plus rentable, vous permettant de crawler jusqu’à 500 URL sans acheter de licence. Pour les projets plus importants, vous pouvez acheter une licence. Cela vous permettra d’explorer autant d’URL que votre mémoire vive le permet.

Première étape : Collectez les URLs à crawler

Pour notre exemple, supposons que nous fassions des recherches sur les sujets que nous devrions inclure dans nos pages de produits et nos listes pour les microspikes. Pour ceux qui ne le savent pas, les micro-pointes sont un accessoire pour vos bottes ou vos chaussures. Ils vous donnent une adhérence supplémentaire dans des conditions hivernales, et sont donc particulièrement populaires parmi les randonneurs et les coureurs par temps froid.

Exemple de recherche de détails avec Amazon

Source : https://www.amazon.com/s?k=microspikes

Nous avons ici une liste de 13 pages de questions et réponses pour les meilleures pages de microspikes sur Amazon.com. Malheureusement, la création de cette liste a nécessité un certain travail manuel.

Liste de questions - XPath et création de contenu

La méthode la plus simple consiste à effectuer une recherche sur le sujet (c’est-à-dire les microspikes) et à extraire les liens vers les principaux produits répertoriés. Si vous disposez de l’ASIN (Amazon Standard Identification Number) du produit, vous pouvez également générer les URL en utilisant le format ci-dessus, mais en remplaçant l’ASIN.

Deuxième étape : Déterminez le XPath

A partir de là, nous devons déterminer le XPath.

Afin de déterminer la notation XPath appropriée à utiliser pour extraire le texte souhaité, nous avons deux options principales :

  1. Voir le code sourceDéterminer le XPath
  2. Affichez le code source rendu et copiez le XPath directement à partir de l’outil Inspecter l’élément de Chrome.

Copier XPath

Vous constaterez que l’expression nécessaire pour localiser toutes les questions d’une page de questions-réponses Amazon est la suivante :

//span[@class=”a-declarative”]

Voici la notation XPath décomposée :

  • // est utilisé pour localiser toutes les instances de l’expression suivante.
  • Portée est la balise spécifique que nous essayons de localiser. //span localisera chaque balise <span&gt ; dans le code source. Il y en a plus de 300, nous devrons donc être plus précis.
  • @classe spécifie que //span[@class] assurera la localisation de toutes les balises <span&gt ; avec un attribut class assigné.
  • @class= »a-declarative » dicte que //span[@class=”a-declarative”] localise uniquement les balises <span&gt ; dont l’attribut class est défini sur « a-declarative », c’est-à-dire, <span class= »a-declarative »&gt ;

Il y a une étape supplémentaire pour renvoyer le texte interne de la balise spécifiée qui est localisée, mais ScreamingFrog fait le gros du travail pour nous.

Il est important de noter que cela ne fonctionne que pour les pages de questions et réponses d’Amazon. Si vous vouliez extraire des questions de, disons, Quora, TripAdvisor, ou tout autre site, l’expression devrait être ajustée pour localiser l’entité spécifique que vous souhaitez collecter sur un crawl.

Troisième étape : Configurez votre robot d’exploration

Une fois que vous avez tout configuré, vous pouvez aller dans ScreamingFrog.

Configuration -&gt ; Personnalisé -&gt ; Extraction

Configuration de votre robot d'extraction

Vous accédez alors à l’écran Extraction personnalisée.

Écran d'extraction personnalisée

C’est ici que vous pouvez :

  • Donner un nom à l’extraction pour la retrouver plus facilement après l’exploration, surtout si vous extrayez plusieurs entités. ScreamingFrog vous permet d’extraire plusieurs entités au cours d’un seul crawl.
  • Vous pouvez ensuite choisir la méthode d’extraction. Dans cet article, il est question de XPath, mais vous avez également la possibilité d’extraire des données via CSSPath et la notation REGEX.
  • Placez l’expression XPath souhaitée dans le champ  » Enter XPath « . ScreamingFrog vérifiera même votre syntaxe pour vous, en vous fournissant une coche verte si tout est correct.
  • Vous avez ensuite la possibilité de sélectionner ce que vous voulez extraire, que ce soit l’élément HTML complet ou le HTML trouvé dans la balise localisée. Dans notre exemple, nous voulons extraire le texte qui se trouve entre les balises <span&gt ; dont l’attribut class est défini sur « a-declarative » ; nous sélectionnons donc « extraire le texte ».

Nous pouvons ensuite cliquer sur OK.

Quatrième étape : Recherchez les URLs désirés

Il est maintenant temps d’explorer notre liste de pages de questions/réponses Amazon pour les microspikes.

D’abord, nous devons changer le mode de ScreamingFrog de « Spider » à « Liste ».

Ensuite, nous pouvons soit ajouter notre ensemble d’URL manuellement, soit les télécharger à partir d’un fichier Excel ou d’un autre format pris en charge.

Après avoir confirmé la liste, ScreamingFrog explorera chaque URL fournie, en extrayant le texte entre toutes les balises <span&gt ; contenant l’attribut class défini sur « a-declarative ».

Pour voir les données collectées, il suffit de sélectionner « Extraction personnalisée » dans ScreamingFrog.

Exécutez les URLs souhaitées

À première vue, le résultat n’a pas l’air très intéressant.

Cependant, cela est dû au fait qu’une grande quantité d’espace inutile est incluse dans les données. Il se peut donc que certaines colonnes apparaissent vides si elles ne sont pas développées pour afficher complètement le contenu.

Une fois que vous avez copié et collé les données dans Excel ou dans le tableur de votre choix, vous pouvez enfin voir les données qui ont été extraites. Après quelques nettoyages, vous obtenez le résultat final :

Liste finale des questions créées à l'aide de XPath

Vous obtenez ainsi 118 questions que de vrais clients ont posées sur les microspikes, dans un format facilement accessible. Avec ces données à portée de main, vous êtes maintenant prêt à intégrer cette recherche dans votre stratégie de contenu.

Stratégies de contenu

Avant de plonger dans les stratégies de contenu, un petit conseil : vous ne pouvez pas vous contenter de ramper, de gratter et de publier le contenu d’un autre site, même s’il est accessible au public.

Tout d’abord, ce serait du plagiat et il faut s’attendre à recevoir une amende de 10 000 euros. DMCA notice. Deuxièmement, vous ne trompez pas Google. Google connaît la source originale du contenu et il est extrêmement peu probable que votre contenu soit bien classé, ce qui va à l’encontre de l’objectif de toute cette stratégie.

Au contraire, ces données peuvent être utilisées pour informer votre stratégie et vous aider à produire un contenu de haute qualité, unique le contenu que les utilisateurs recherchent.

Maintenant, comment commencer votre analyse ?

Je recommande d’abord de catégoriser les questions. Pour notre exemple, il y avait beaucoup de questions sur :

  • La taille : Quelle taille de microspikes est nécessaire pour des tailles de chaussures/bottes spécifiques ?
  • Utilisation appropriée : Les microspikes peuvent-elles être utilisées dans les magasins, sur les toits glissants, pendant la pêche, pour tondre les pelouses ou pour marcher sur du plâtre ?
  • Caractéristiques : Sont-ils réglables, type de matériau, sont-ils livrés avec un étui de transport ?
  • Préoccupations : Sont-elles confortables, endommagent-elles vos chaussures, endommagent-elles le type de sol sur lequel vous vous trouvez, durabilité ?

C’est un aperçu étonnant des préoccupations potentielles des clients avant d’acheter des microspikes.

A partir de là, vous pouvez utiliser ces informations pour :

1. Améliorer le contenu existant sur vos pages de produits et de catégories.

Incorporez les sujets dans les descriptions des produits ou des catégories, en répondant de manière préventive aux questions que les acheteurs pourraient se poser.

Dans notre exemple, nous pourrions vouloir expliquer clairement le fonctionnement des tailles, en incluant un tableau des tailles et en mentionnant spécifiquement les types de chaussures avec lesquelles le produit peut ou ne peut pas être compatible.

2. Créez une courte section FAQ sur la page avec du contenu original, répondant aux questions les plus courantes.

Assurez-vous de mettre en œuvre Balisage Schema.org de la FAQPage pour avoir plus de chances d’apparaître dans des listes telles que les sections People Also Ask, qui occupent de plus en plus de place dans les résultats de recherche.

Dans notre exemple, nous pouvons répondre aux questions fréquemment posées sur le confort, les dommages causés aux chaussures, la durabilité et l’ajustabilité. Nous pourrions également indiquer si le produit est livré avec une housse de transport et comment le ranger au mieux pour les voyages.

3. Produire un guide de produit, incorporant des réponses aux questions populaires concernant un produit ou une catégorie.

Une autre stratégie consiste à produire un guide produit complet et unique présentant des cas d’utilisation, des tailles, des limites et des caractéristiques spécifiques. Dans notre exemple, nous pourrions créer un contenu spécifique pour chaque cas d’utilisation, comme la randonnée, la course dans des conditions glaciales, etc.

Mieux encore, incorporez des vidéos, des images, des graphiques et des produits vedettes avec un chemin d’achat clair.

En utilisant cette approche, votre produit final sera un contenu qui démontre l’expertise, l’autorité sur un sujet, et surtout, qui répond aux préoccupations et aux questions des clients avant même qu’ils ne pensent à les poser. Cela évitera à vos clients d’avoir à faire des recherches supplémentaires ou à contacter le service clientèle. Grâce à votre contenu informatif et utile, ils seront davantage prêts à effectuer un achat.

En outre, cette approche a également le potentiel de réduire les taux de retour de produits. Des clients informés sont moins susceptibles d’acheter le mauvais produit sur la base de connaissances supposées ou incomplètes.

Conclusion

Amazon n’est que la partie émergée de l’iceberg. Vous pouvez appliquer cette stratégie à n’importe quel site dont vous pouvez extraire des données accessibles au public, qu’il s’agisse de questions posées sur Quora à propos d’une catégorie de produits, d’avis de Trip Advisor sur des hôtels, des lieux musicaux et des attractions, ou même de discussions sur Reddit.

Plus vous êtes informé sur les attentes de vos clients lorsqu’ils visitent votre site, mieux vous pouvez répondre à ces attentes, motiver les achats, réduire les rebonds et améliorer les performances de recherche organique.

Brad McCourt est responsable de la recherche organique au bureau de Catalyst à Boston.