Passer au contenu

Comment optimiser le référencement de son site Web

Tout concepteur de sites Web doit s’assurer que son propre site sera correctement référencé. Ainsi, Apache, utilisé à bon escient, permettra d’augmenter notablement la visibilité d’un site dans les moteurs de recherche.

Les moteurs de recherche sont un passage obligé pour l’internaute en quête d’informations. Or, la plupart des utilisateurs ne vont pas au-delà de la deuxième ou troisième page de résultats. Etre parmi les dix premiers sites, c’est l’assurance d’une excellente visibilité et, donc, d’un trafic abondant, ciblé, et totalement gratuit. Les webmasters ont donc intérêt à améliorer le référencement de leurs pages. La sensibilité des moteurs de recherche s’étant accrue, l’optimisation de pages Web est devenue une spécialité à part entière, et les prestataires proposant ce type de service sont désormais légion. L’offre est assez large, puisqu’elle va de la simple définition des mots clés sur lesquels l’entreprise veut se positionner à la réalisation effective de la page. Certains comme WebPosition proposent même des suites logicielles intégrant un éditeur HTML et des outils d’aide à l’optimisation, mais on peut s’interroger sur leur efficacité réelle, tant le fonctionnement interne des moteurs est complexe et changeant.

Des classements différents selon les moteurs de recherche

les moteurs de recherche Il existe un certain nombre de points que le concepteur de paramètres Web doit prendre en compte. Il faut déjà bien faire la distinction entre les moteurs de type Yahoo! (aussi appelés répertoires) et les autres, tel AltaVista. Les premiers font appel à un éditeur (humain) qui sélectionne un à un des sites intéressants et les classe. En réponse à une recherche, les sites correspondant sont affichés en général par catégories et par ordre alphabétique. Par conséquent, il est impossible d’agir sur la position d’un site dans ce type de moteur. A l’inverse, les seconds moteurs sont complètement automa-tisés et permettent donc un certain niveau d’optimisation. Ceux-ci font appel à un logiciel (le robot, ou spider) qui ” arpente ” le Web en suivant les hyperliens et stocke les pages dans une base de données. Lorsqu’un internaute effectue une recherche, les résultats sont ordonnés selon certains critères de pertinence par rapport à la recherche. D’une façon générale, les moteurs classent les documents suivant la fréquence des termes recherchés dans les pages. Cependant, la position des mots clés dans celle-ci est également déterminante. Le titre est entouré par les balises et . Il doit bien sûr contenir le maximum de mots clés. Le Meta-tag est une balise HTML qui permet d’inclure, dans une page, des données décrivant succinctement cette dernière et son contenu. Les Meta-tags qui nous intéressent sont les tags keywords et description. Ils sont introduits de la façon suivante : …Titre du document

La place des mots clés est essentielle

Il ne faut surtout pas hésiter à inclure dans les mots clés (keywords) le plus grand nombre de termes possible, avec éventuellement leurs synonymes. Quant à la description, elle doit également en comprendre un maximum. Très souvent, elle sert à décrire brièvement le document dans les pages de résultats des moteurs. Le corps du document est encadré par les balises et Les mots clés doivent apparaître de façon assez fréquente dans le texte. Certains moteurs prennent même en compte le contexte dans lequel ils sont utilisés. Par exemple, un mot employé dans un titre principal (encadré par les balises

et

) aura plus d’impact que dans du texte courant. De même, la description des images (paramètre ALT) entre parfois en considération : Description de limage. Les moteurs de recherche semblent aussi tenir compte de la place des mots clés à l’intérieur de la page. Dans ce cas, plus un terme est proche du début du document et plus il sera considéré comme important.

Tromper les moteurs de recherche, en camouflant les scripts CGI

De plus, il est impératif de garder à l’esprit que les robots voient les pages Web d’une façon beaucoup plus rudimentaire qu’un observateur humain. Non seulement le JavaScript et les autres applets Java passent à la trappe, mais certains robots ne reconnaissent même pas les images maps (construction HTML autorisant à créer des hyperliens à partir de portions d’une même image) ou les frames. Le problème est encore plus épineux en ce qui concerne les tableaux, ceux-ci n’étant pas non plus reconnus par les robots. La méthode la plus poussée consiste à montrer aux spiders une page différente de celle que voient les utilisateurs. Libérée des impératifs esthétiques et liés au contenu, cette page factice peut être optimisée autant que l’on veut, pour peu que l’on dispose d’un minimum de connaissances en programmation CGI (Common gateway interface) et en administration de serveurs Web. Le principe général est l’identification de l’origine de chaque requête, afin de renvoyer le contenu adéquat. Cela peut se faire par user-agents ou par adresses IP (lire l’encadré). Il suffit ensuite de renvoyer la page optimisée si l’on a identifié un spider, et la vraie page dans tous les autres cas. On peut même simplement ré-aiguiller les internautes vers la page Web réelle, ce qui permet de conserver son an-cienne page. L’utilisation de scripts CGI pour mettre en place ce système nécessite quelques précautions. Le spider ne doit pas s’apercevoir que le document qu’il analyse est le résultat d’un script CGI. D’abord, il convient d’autoriser l’exécution de scripts hors du répertoire usuel /cgi-bin. Ensuite, il s’agit de camoufler les scripts CGI en changeant leur extension (par exemple, .html au lieu de .cgi ou .pl). Avec Apache, il faut placer dans le fichier de configuration (en général, httpd.conf) la directive AddHandler cgi-script html. Les spiders ne verront que du feu à ce subterfuge. On peut cependant se passer de scripts CGI en utilisant le logiciel Open source Apache conjugué au module mod_rewrite (http:// www. apache.org/docs/mod/mod_rewrite.html). Ce dernier accepte de rediriger à la volée une requête vers une URL (Uniform resource locator) différente.

De nouveaux procédés qui pourraient rendre toute optimisation vaine

Moyennant quelques ajouts au fichier de configuration d’Apache, on peut définir quelles adresses IP on veut duper ainsi que les documents que l’on désire leur montrer. Néanmoins, les moteurs de recherche ne voient pas d’un très bon ?”il la généralisation de ce type de ” dopage “, et des méthodes radicalement différentes sont apparues, qui pourraient bien remettre en cause ces manipulations. Certains ont mis aux enchères les premières places du classement, pour une combinaison de mots clés donnée. GoTo.com a été le premier à utiliser ce système de façon généralisée, alors que l’expérience a rapidement tourné court pour AltaVista, qui avait inclus dans ses résultats des liens payés.
L’autre nouveauté est de faire intervenir la popularité du site en fonction du nombre de liens et de visites. La première solution consiste à comptabiliser le nombre des hyperliens pointant vers une page, et à utiliser cette information comme miroir de la popularité de la page. Google.com va plus loin en prenant également en compte l’importance des sites qui proposent les liens. La seconde solution, principalement employée par Direct Hit, use de résultats fournis par d’autres moteurs de recherche et les pondère selon le nombre de visites reçues par chaque site. Ces procédés de classement pourraient, à court terme, rendre inutile toute tentative d’optimisation.
En attendant, il reste assez difficile de tirer son épingle du jeu sur Internet sans passer par l’adaptation de son site aux critères de positionnement des moteurs de recherche. ;

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


par Romain Critton