IA et SEO : la révolution silencieuse qui bouscule vos offres d’emploi

A- A+
lu
.

Quand on a un site web, on rêve de travailler avec une entreprise qui comprend à la fois la technique, la stratégie… et l’humain. Percumédia, c’est exactement ça. Robert Leroux, son fondateur, a conçu et gère notre site internet avec une réactivité qui frôle l’instantané, et une curiosité insatiable pour tout ce qui bouge dans le monde numérique. 

J'ai mentionné à plusieurs reprises dans nos derniers articles l'impact du changement du SEO sur la visibilité des offres d'emploi sur le web. J’ai voulu recueillir sa vision sur la manière dont cette transformation redéfinit la recherche d’information… et ce que cela change pour les recruteurs et les entreprises qui veulent rester visibles.Dans cet échange, il nous partage sa vision sur la façon dont l’IA générative est en train de transformer en profondeur la recherche d’information… et ce que cela implique pour les recruteurs et les entreprises qui veulent rester visibles.

Robert, peux-tu te présenter ?

Je suis actuellement président de Percumédia, un petit studio de développement web que j’ai monté avec une de mes filles en 2017. Personnellement, je développe des sites web depuis une vingtaine d’années. Mais mon parcours professionnel a été beaucoup plus éclaté.

J’ai été formé à l’Université de Montréal et à McGill comme musicien percussionniste et j’ai fait carrière professionnellement pendant une vingtaine d’années, tant en musique classique et contemporaine qu’en studios d’enregistrement.

Parallèlement à cela, j’ai été professeur de musique à la Faculté de musique de l’Université de Montréal, où je me suis impliqué, notamment dans la création de programmes. Ceci m’a mené à un poste de vice-doyen et éventuellement de doyen à la Faculté de musique d’abord et à la Faculté d’éducation permanente ensuite.

Après un court détour dans une boîte privée de formation en ligne pour les gestionnaires, et au cours de laquelle je me suis initié au développement web, je suis revenu en musique, tout en continuant à faire du développement web pour différents artistes et organismes culturels.

Un parcours un peu atypique, peut-être, mais pas tant en cette époque où les diplômés universitaires font de moins en moins carrière dans leur secteur de formation initiale.

Peux-tu nous expliquer en quoi l’IA générative, comme ChatGPT ou Perplexity, est en train de transformer notre façon de chercher de l’information, en comparaison à Google ?

Effectivement avec ces outils, et même chez Google plus récemment avec les AI overviews, la recherche d’information est en train de se transformer. En résumé, lorsqu’un utilisateur fait une requête informationnelle de recherche, les moteurs livrent maintenant d’abord une réponse, et ensuite, parfois, une liste d’adresses de sites web pertinents à sa requête.

Ceci a pour effet que les visites de sites web issus de résultats de recherche ont commencé à diminuer, dans certains cas jusqu’à 50%, ce qui n’est pas sans effet sur leur visibilité.

Pour émettre leurs réponses, ces moteurs de recherche propulsés par l’IA, moissonnent des informations pertinentes sur tout le web, parfois en ne donnant pas leurs sources, pour fournir des réponses pertinentes et complètes.  Certaines organisations se basent beaucoup sur le trafic de leur site web et l'engagement de leurs visiteurs pour mesurer leur succès. Mais maintenant, elles doivent complètement repenser leur stratégie. Au lieu de se concentrer sur être bien classées dans Google, elles feraient mieux de s'assurer que les intelligences artificielles peuvent facilement récupérer et utiliser leur contenu.

Qu’est-ce que ça change concrètement pour le SEO classique, notamment en recrutement ?

Étant moins familier avec les processus techniques précis liés au recrutement, je ne peux répondre directement à cette question. De manière générale, je peux cependant dire que certains des paramètres SEO qui affectaient directement notre position dans les résultats de recherche, comme le travail de recherche et d’intégration de mots-clés, les fameux backlinks et d’autres critères disons classiques, perdent proportionnellement de leur importance au profit d’autres critères liés à la crédibilité de l’information que nous publions.

À cet effet, le critère EEAT de Google (experience, expertise, authority, trustworthiness) qui est basé sur une approche plus holistique des contenus, et qui s’applique d’ailleurs toujours aussi au SEO classique, prend une nouvelle importance dans le contexte des IA génératives. Les organisations qui publient des contenus doivent démontrer qu’elles possèdent les compétences et l’autorité dans leur domaine, et susciter un degré suffisant de confiance pour être considérées comme valables par les IA. Ceci s’applique non seulement aux contenus eux-mêmes, mais aussi à tout leur contexte (bios des auteurs, réputation de la marque, sécurité des sites, politiques de confidentialité, citations, références, etc.). Des contenus valables et vérifiables qui répondent avec pertinence aux questions posées par des utilisateurs sont privilégiés dans ce contexte.

Mais ça peut aller plus loin encore. Avec les agents IA, on pourra les configurer pour que, lorsqu’on veut acheter un produit, par exemple, l’IA fasse la recherche, compare les prix, les caractéristiques, les évaluations, propose le meilleur achat et vous offre de l’acheter pour vous et même d’organiser la date et l’heure de livraison selon vos disponibilités.

On peut très bien imaginer comment ce type de démarche pourrait affecter les processus de recrutement et de recherche d’emploi.

Aujourd’hui, est-ce qu’une offre d’emploi ou une page carrière bien référencée sur Google risque de ne plus l’être sur ces nouvelles interfaces IA ? Pourquoi ?

De manière générale, non. Les critères qui s’appliquent au SEO classique en matière de référencement vont continuer à s’appliquer dans le contexte de l’IA, mais leur pondération pourrait être différente.

Une étude toute récente de Ahref révèle que 76% des citations contenues dans les AI overviews de Google provenaient de pages faisant partie du top 10 des résultats de recherche.

Il faut voir les principes du SEO classique comme la base de la pyramide du référencement propulsé par l’IA.

Qu’est-ce qu’un recruteur ou une entreprise devrait faire concrètement pour s’assurer que ses contenus RH soient “trouvables” par ces nouveaux moteurs ?

Comme je l’ai dit précédemment, appliquer dans un premier temps les mesures du SEO classique, mais en mettant une emphase sur le fameux EEAT des contenus, faisant en sorte que les IA génératives aient « envie » de lews citer comme source fiable.

L’ajout des métadonnées sémantiques ou structurées selon le vocabulaire de schema.org est également un atout important. Ces métadonnées, qui prennent la forme de balises dans le code informatique de vos pages web, invisibles aux visiteurs, font en sorte que vos contenus sont facilement lisibles et de manière structurée par les machines. Le vocabulaire schema.org a été établi par un consortium regroupant les principaux moteurs re recherche.

Aussi, la présence des contenus, ou annonces, dans des listes reconnues - compilations, classements ou sélections publiés par des sources faisant autorité – constitue un bon signal de confiance dans l’écosystème numérique.

D’autres facteurs peuvent contribuer à la visibilité dans ces nouveaux moteurs. Nous avons récemment publié une série de trois articles sur la découvrabilité des contenus. Le second de ceux-ci porte précisément sur la visibilité dans les réponses des IA: Comprendre le GEO : devenir visible dans les réponses des intelligences artificielles

Est-ce que les IA génératives privilégient certains formats, certaines structures ou certains types de contenus dans leurs réponses ?

Tout ce qui permet à l’IA de bien répondre aux questions qui lui sont posées.  Par exemple, l’inclusion de citations et de statistiques vérifiables renforcera la crédibilité des contenus sur les IA.

L’ajout de foires aux questions (FAQ) aux sites web est également très efficace. Imaginer les questions que peuvent se poser les utilisateurs de moteurs IA et y répondre de manière précise et rigoureuse peut certainement aider.

Aussi, bien structurer les contenus peut contribuer à de meilleurs résultats : hiérarchie de titres et sous-titres très claire, questions explicites, sections d’informations en listes (bullet-lists), contenus citables prêts à être intégrés dans des réponses des IA.

Quelles sont, selon toi, les erreurs fréquentes que font les entreprises en matière de référencement de leurs contenus RH ?

Ce que je remarque souvent en faisant des analyses techniques, ce sont des erreurs de métadonnées générales : titres et descriptions de pages trop longs ou trop courts, contenus plus ou moins bien structurés (titres, sous-titres, etc,), images non optimisées pour se charger et s’afficher rapidement et absence de descriptions d’images (« alt text »).

Sur le plan rédactionnel, je vois aussi des titres de postes un peu trop créatifs ou avec un langage interne ne collant pas aux recherches des candidats. Je pense qu’on oublie souvent de considérer quelle peut être l’intention de recherche d’un utilisateur pour une page donnée.

Sur la marque employeur : peu de contenu optimisé, ou portant sur la culture d’entreprise. Je vois aussi très peu de métadonnées structurées, alors qu’il s’agit d’un moyen de prédilection pour contrôler le sens des contenus et l’image qu’une marque veut proactivement projeter.

Une autre erreur fréquente consiste à reprendre du contenu déjà publié ailleurs sur le site ou sur d’autres sites… Les moteurs de recherche ont besoin de savoir quelle est la source originale (canonique) des contenus et peuvent conséquemment pénaliser les redites…

Finalement, plusieurs organisations sous-estiment l’importance de la rapidité de chargement de leur web et de la conformité à des critères minimum d’accessibilité. Voilà quelques erreurs qui peuvent pénaliser ces organisations dans les résultats de recherche.

Comment imagines-tu l’évolution du référencement en recrutement dans les prochaines années ?

Difficile de prévoir, tout évolue tellement rapidement de semaine en semaine! J’entrevois tout de même une tendance vers une utilisation du web concentrée autour des LLM (ChatGPT, Claude.ai, Perplexity, etc.) et des agents IA. Si à terme les utilisateurs trouvent l’information dont ils ont besoin sur ces outils, et qu’ils ne visitent donc plus les pages web des site web, on devra alors considérer les contenus de nos sites comme des sources « canoniques » de données auxquelles « s’abreuveront » les robots d’IA plutôt que comme des fenêtres visuelles attrayantes.

À lire aussi: What is GEO and AEO for Recruitment? The Ultimate Guide to Optimizing Your Jobs and Employer Brand for AI Search 

Ajouter un commentaire

Le contenu de ce champ sera maintenu privé et ne sera pas affiché publiquement.

HTML restreint

  • Balises HTML autorisées : <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type> <li> <dl> <dt> <dd> <h2 id> <h3 id> <h4 id> <h5 id> <h6 id>
  • Les lignes et les paragraphes vont à la ligne automatiquement.
  • Les adresses de pages web et les adresses courriel se transforment en liens automatiquement.