Passer au contenu

Optimiser les sites web pour les moteurs de recherche

Pour favoriser le référencement par les moteurs de recherche, il existe des pratiques ” propres “, d’autres abusives.

Une présence sur le web donne à une entreprise le moyen d’être visible aux yeux d’un public large. C’est vrai en théorie. Dans la pratique, la visibilité réelle d’un site peu connu est souvent bien moindre que celle espérée. Ne serait-ce que parce qu’à moins de connaître l’entreprise et l’adresse de son site (par bouche à oreille, portail spécialisé, etc. ), les chances de tomber dessus sont relativement faibles. Sur les quelque cinq cent cinquante milliards de pages théoriquement accessibles sur le web, seuls trois milliards sont référencées dans des moteurs de recherche, et les meilleurs n’indexent qu’environ un milliard de pages. De plus, si un site n’apparaît pas vers le début du résultat d’une recherche, peu d’internautes le verront.Pour grimper en tête de liste, certains sites pratiquent donc le ” cloaking ” (masquage). Cette technique (souvent utilisée, par ailleurs, pour la sélection automatique de la langue d’affichage) consiste à présenter des informations différentes selon le demandeur. Si ce dernier est un moteur de recherche, les mots-clés sont, par exemple, multipliés. Une autre technique consiste à inclure des mots-clés invisibles (même couleur pour le texte et le fond). Ces pratiques sont traquées par les moteurs de recherche, car elles favorisent un référencement erroné, portant sur un contenu fictif, qui décrédibilise les moteurs aux yeux des internautes.

Transformer les pages dynamiques en pages statiques

utre problématique du référencement : les pages indexées ne sont pas toujours les plus pertinentes en terme de contenu. Une grande partie des pages web sont générées dynamiquement (par exemple, à partir d’une base de données, en ce qui concerne les sites marchands) et ne peuvent donc être indexées. De nombreux sites américains ont contourné le problème en créant des pages statiques dans lesquelles sont copiées toutes ces informations. Mais cela doit être prévu dès la création du site. Sinon, son adaptation revient pratiquement à sa reconstruction.Qu’en est-il des sites existants ? Pour eux, la jeune société française @position a développé un logiciel, Dyn@mo, qui fait office de traducteur simultané : il transforme les requêtes dynamiques en requêtes statiques. Cette solution n’est en fait qu’une brique entrant dans la composition d’un service complet de référencement d’un site, avec option de suivi dans le temps. Dans le contexte du commerce électronique, il est nécessaire d’être constamment “mieux référencé” que ne le sont ses concurrents.

Suivre l’évolution du référencement dans le temps

ans cette optique, @position se sert d’automates qui simulent le comportement des internautes et rapatrient les informations concernant un client et ses rivaux. L’analyse des résultats permet, dans un premier temps, de définir avec précision la sémantique liée au domaine d’activité du client (vocabulaire utilisé), et ensuite de suivre sa visibilité sur le web de manière granulaire. Un loueur de voitures pourra, par exemple, découvrir que son activité de location grand public est bien référencée, mais pas son offre de flotte d’entreprise. Le client consulte ces informations – sa visibilité et celle de ses concurrents -, ainsi que leur évolution dans le temps, grâce à un module de reporting accessible via le web. “Aujourd’hui, les automates simulent un comportement général, mais demain, ils utiliseront des bases de données d’internautes types “, prévoit Stéphane Chauvin, l’un des cinq fondateurs d’@position. L’analyse ira aussi plus loin que les sites web : “On inclura le contenu des forums et des newsgroups “, précise-t-il.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Annabelle Bouard