Passer au contenu

Recherche d’images : les nouveaux moteurs arrivent

Fondés sur l’analyse des images, les nouveaux moteurs de recherche restent peu employés en France. Les premiers utilisateurs leur trouvent de l’intérêt même si leurs résultats sont encore à peaufiner.

“Il n’y a pas de bon site web sans bon moteur de recherche.” Cette réflexion d’internaute prend tout son sens lorsque l’on parle de sites web ?” ou d’intranets ?” riches en contenu : sites marchands, banques d’images en ligne, etc. Mais les moteurs de recherche sémantique, acceptant le langage naturel, deviennent inefficaces avec des images. Impossible pour eux de traduire et donc d’indexer toute la richesse d’une image. Les moteurs conçus pour l’analyse d’image sont censés résoudre ce problème. Dès 1993, IBM a ouvert la voie avec son logiciel QBIC (Query By Image Content), suivi par l’Inria (projet Imedia, racheté par LTU Technologies) et, au fur et à mesure, par d’autres entreprises. Dans le désordre : Excalibur (dont la technologie a été rachetée par Convera), Cobion, eVision, EasyGlider, Virage, etc. L’emploi de leurs moteurs d’indexation et de recherche reste toutefois confidentielle en France. Leurs utilisateurs ou testeurs semblent pourtant convaincus de leur intérêt. Ainsi, iBazar ?” rachetée récemment par eBay ?”, a utilisé Image-Seeker de LTU Technologies durant quelques mois. “Ce moteur de recherche nous permettait de stimuler nos internautes, de les ouvrir à d’autres catégories d’enchères, en effectuant des recherches de produits par comparaison d’images. C’était un excellent moyen de dynamiser la navigation”, explique Henri Moissinac, directeur technique d’iBazar, qui a abandonné cette technologie en raison du rachat de leur société par eBay. De même, l’Inpi (Institut national de la propriété industrielle), qui utilise également les services de LTU Technologies, insiste sur les problèmes de recherche rencontrés avec des moteurs traditionnels. “Il est très compliqué d’accéder aux dessins et aux modèles déposés avec de simples mots-clés. Une situation que nous souhaitons changer en intégrant la technologie développée par LTU Technologies sur notre site Internet”, commente Isabelle Leclercq, responsable marketing de l’Inpi. Dans le cadre de ce projet, baptisé Plutarque, et dont le site www.plutarque.com devrait être ouvert courant décembre, le moteur de recherche permettra d’identifier les modèles et les dessins identiques ou ressemblant à une image donnée. La fondation Fredi (Fondation pour la recherche d’enfants disparus par Internet) utilise, elle, la technologie de Cobion. “Chaque année, nous leur envoyons neuf photos d’enfants disparus. Ils se chargent de les rechercher sur tous les sites possibles”, déclare Diane Burgy, vice-présidente de la fondation. “Nous n’avons pas besoin d’avoir des résultats précis et exhaustifs, intervient Henri Moissinac d’iBazar, au contraire, dans notre cas, nous avons ouvert le champ de recherche de manière à trouver les objets similaires, mais aussi d’autres appartenant à des catégories proches. Pour une recherche de voiture, par exemple, les petites voitures de collection seront également présentées à l’internaute. Notre objectif est avant tout de l’inciter à continuer et à élargir sa visite.” Une démarche absolument opposée à celle de l’Inpi, pour qui la liste de réponses doit être exhaustive et classée du plus ressemblant au moins ressemblant. “Le sérieux de notre institut est en jeu. Si on soumet à comparaison une image identique à celle déposée auprès de l’Inpi et que cette dernière n’arrive pas en première position de notre liste, cela pose un problème, confirme Isabelle Leclercq. Nous avons dû beaucoup travailler avec LTU Technologies pour régler la pertinence de classement et d’exhaustivité.”

Un fonctionnement fondé sur les réseaux neuronaux

Comment marchent ces moteurs de recherche ? Lorsqu’une image est soumise au moteur, elle est analysée en temps réel en fonction de plusieurs critères : couleurs dominantes, forme des objets, textures, etc. Ces critères définissent une signature numérique de l’image, appelée parfois ADN image (visual DNA extraction) ou encore empreinte visuelle (visual fingerprinting). Réseaux neuronaux et réseaux bayésiens entrent alors en jeu pour analyser les signatures numériques, les corréler, étudier différentes réponses possibles, leurs probabilités, mais également enrichir les systèmes experts. Ces derniers combineront les résultats obtenus pour en déduire de nouvelles règles d’analyse et ainsi améliorer les résultats (et leur classement) au fur et à mesure des requêtes. La qualité des résultats serait donc directement proportionnelle à la qualité des images fournies, définition, netteté, “bruit“. Un postulat que tempère Christophe Langlois, directeur général de Maulde Technologies : “Les résultats sont plus sensibles à “l’état d’esprit” des images qu’à leur qualité intrinsèque. Même s’il est certain que meilleure est l’image plus fine sera sa signature numérique et donc son indexation.” L’éditeur de solutions de gestion de contenu a choisi d’intégrer à son offre s@tin le moteur de Convera, Visual RetrievalWare, fondé sur la technologie APRP (Adaptive Pattern Recognition Processing), pour la recherche visuelle. “Nous conseillons donc de présenter les objets dans une même position, de respecter une sorte de charte de l’image”, poursuit le di-recteur. Une charte évidemment impossible à respecter pour un site comme ceux d’iBazar, de l’Inpi, ou de l’association Fredi. “Cobion nous demande cinq à six photos de chaque enfant dans des postures différentes, de manière à augmenter les chances de reconnaissance”, confirme Diane Burgy. Plus la base d’images à comparer est importante, plus les ressources nécessaires en ce qui concerne le matériel grossissent. Les éditeurs proposent donc ces solutions en mode FAH (fourniture d’applications hébergées), lorsqu’elles ne sont pas intégrées à d’autres applications.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Stéphanie Renault