Passer au contenu

Inktomi Search se fortifie sous l’ombre de Google

Inktomi, leader de la recherche d’informations Internet sous marque blanche, procède à une mise à jour importante de son robot d’indexation Inktomi Search/Web Service. Les principales évolutions portent sur une indexation intelligente des contenus et un meilleur rafraîchissement.

” Nous estimons que le Web compte aujourd’hui de 5 à 6 milliards de documents. La troisième génération d’Inktomi Search/Web Service permet d’établir une classification intelligente, après élimination des pages générées par des robots, des documents familiaux comme des photos de vacances et des images pornographiques. Au final, nous proposons un index pertinent de 1,6 milliard de pages “, explique Henrik Hansen, directeur du marketing d’Inktomi Limited.

Une indexation intelligente inspirée par Google

Par intelligence, Inktomi entend une amélioration de la pertinence et de la catégorisation automatique des documents, des recettes qui ont contribué au succès de l’incontournable robot-annuaire Google.Pour définir le niveau de pertinence, Inktomi Search/Web Service intègre aujourd’hui des algorithmes qui analysent les liens reliant entre elles les pages référencées dans sa base d’index. Ce premier traitement est complété par une mesure des liens les plus populaires, c’est-à-dire par une analyse des clics pratiqués par les internautes. Suivent ensuite des analyses de formats chargées de déterminer le type de document indexé.Etape suivante, les documents sont triés dans six référentiels : Media, Best of Web, Euro Index, Gen 3 Index, Japan et Korea. Ils rassemblent aujourd’hui 1,6 milliard de documents, un accroissement de 40 % par rapport à la génération précédente.

Des possibilités d’exploration continue

” La précédente version de notre robot ne permettait de rafraîchir un index volumineux que toutes les vingt semaines. Aujourd’hui, cette mise à jour peut s’effectuer toutes les huit ou trois semaines. Le robot peut également être paramétré en mode réindexation. Cela permet en particulier un rafraîchissement continu des pages “, poursuit Henrik Hansen.D’après l’éditeur, cette fonction permettrait de rafraîchir la totalité de l’index en une semaine.

Des résultats de recherche modifiables selon le modèle économique

Cerise sur le gâteau, des tests régressifs font leur apparition. Ils autorisent la qualification d’un rendu de résultat de recherche et, donc, son adaptation au modèle économique de l’entreprise qui utilise le produit.A titre d’exemple, un site littéraire donnera la primeur aux documents textuels, un guide de sites Web préférera un classement des sites les plus populaires, une entreprise un mélange de données Web et intranet… Pour l’instant administré par des ingénieurs maison, ce mixage de contenus pourra se faire fin 2001 à partir d’un frontal d’administration visuel destiné aux professionnels du marketing.Un mixage qui peut également toucher les sites d’éditeurs professionnels ou les intranet. Inktomi travaille en effet avec 250 éditeurs professionnels qui lui permettent de compléter ce panachage (FT.com, CNN, MSN…).Le serveur de cache d’Inktomi n’a pas fait l’objet de mises à jour particulières. Le rachat de FastForward Networks et un partenariat avec Reliacast semblent suffire à l’éditeur pour tenir tête à Akamai.En revanche, Inktomi se devait d’intégrer rapidement les recettes qui ont fait le succès de Google, un concurrent devenu une menace réelle sur le marché de la recherche d’informations Web. Une tendance redoutée, que Yahoo! a illustré en juin 2000, en décidant d’opter pour la technologie du challenger Google, contre celle d’Inktomi.Aujourd’hui, Inktomi réalise 50 % de son chiffre d’affaires sur le marché des intranet, 30 % sur le Web et 20 % sur le terrain des services. Pour l’heure, seuls quelques sites comme MSN.com ou AOL.com bénéficient des fonctions de ce nouveau robot.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Francisco Villacampa