S’il est bien un secteur où rien n’est figé, c’est le SEO. Les règles du jeu évoluent constamment. Certains critères prédominants perdent de leur importance au profit d’autres. Les moteurs de recherche ajustent leurs algorithmes régulièrement. Une simple mise à jour peut provoquer de sérieux mouvements dans les serps. Mais une tendance générale se dégage depuis plusieurs années : la prise en compte de l’UX, c’est-à-dire l’expérience utilisateur. L’optimisation d’un site ou d’une page ne doit plus être faite uniquement pour les robots des moteurs de recherche mais également pour améliorer l’expérience utilisateur. C’est ainsi que le SXO (search experience optimization) a pris une place de plus en plus importante dans les stratégies de référencement. Mais attention, le SXO ne se substitut nullement au SEO. Il ne s’agit que d’une facette de ce dernier qui doit interagir avec les autres techniques de référencement.
L’expérience utilisateur (UX) : un critère de plus en plus présent
Déjà abordée dans notre précédent article relatif à la mise à jour Google Bert, la place de l’expérience utilisateur au sein de l’algorithme des moteurs de recherche est croissante. Les évolutions de ce dernier portent sur une meilleure prise en compte et compréhension des recherches des internautes afin de leur fournir des résultats plus pertinents.
Mais comment des robots peuvent-ils évaluer l’expérience d’un utilisateur sur un site ? Le machine learning est l’un des piliers sur lesquels se reposent les moteurs de recherche. Il va permettre aux robots d’affiner leur analyse, de mieux comprendre les requêtes, de saisir les subtilités linguistiques. Déjà fondamental pour un bon positionnement, le contenu d’un site internet voit sa force encore augmenter. Sa richesse sémantique, le choix de mots-clés cohérents, des liens internes pertinents sont autant d’éléments qui doivent être travaillés pour répondre aux exigences de qualité imposées par les moteurs de recherche.
Ce faisant, les éditeurs de site vont également gagner en crédibilité vis-à-vis des internautes qui trouveront des informations pertinentes et auront tendance à cliquer sur des liens sponsorisés, à acheter des produits en vente sur le site ou à faire appel aux services proposés.
Le SXO ne porte pas uniquement sur le contenu en lui-même, mais aussi sur la structure de la page (ou du site), le temps de chargement, les balises des images, l’adaptabilité aux appareils mobiles, etc. La navigation doit être fluide. Des indicateurs comme le taux de rebond peuvent permettre d’appréhender les difficultés que peuvent rencontrer les internautes et ainsi les améliorer.
Le SXO, simple facette du SEO
Mais toutes ces bonnes pratiques liées à l’expérience utilisateur ne se suffisent pas toujours à elles-mêmes pour positionner des sites, notamment dans des secteurs concurrentiels. L’optimisation on-site ainsi que les backlinks de qualité restent essentiels. Bien entendu, l’époque où on plaçait des liens entrants à la pelle est révolue. Mais ces derniers restent un élément prépondérant pour apporter de la crédibilité et une certaine autorité au site.
La prise en compte croissante de l’expérience utilisateur ne doit pas faire oublier les techniques de base du référencement qui ont fait et qui continuent de faire leurs preuves. D’ailleurs, le temps de chargement d’un site a toujours été un facteur important dans le SEO. Il en est de même du caractère responsive. Ce ne sont pas des critères propres au SXO.
Ainsi, une approche cohérente qui vise à proposer un site avec un contenu de qualité et à utiliser des techniques traditionnelles de SEO (sans tomber dans la suroptimisation) permet d’appréhender assez sereinement les mises à jour des algorithmes. Pour preuve, alors qu’elle était redoutée, la mise à jour Google Bert n’a fait que très peu de dégâts dès lors que les sites respectaient les bonnes pratiques du seo.
Laisser un commentaire