Laspirateur de sites, précieux pour la veille en ligne

Les logiciels de capture de sites, peu chers voire même gratuits, optimisent la navigation sur le Web. Ils se révèlent aussi très utiles pour rapatrier sélectivement des données.
Longtemps méconnus, comme beaucoup d'utilitaires très spécialisés, les logiciels de capture de sites Web - fort justement surnommés les aspirateurs du Web - rallient de plus en plus d'utilisateurs. Ces outils de navigation hors ligne visent en effet à minimiser les coûts de communication. Le premier public concerné est, bien entendu, les internautes qui accèdent au réseau par une liaison téléphonique. Mais tous les internautes peuvent tirer profit de ces produits. L'apparition de fonctions de capture de sites dans la version 5 d'Internet Explorer prouve d'ailleurs l'existence d'un besoin.Les aspirateurs sont éminemment pratiques. Ils permettent, par exemple, de programmer à des heures de moindre trafic la récupération, puis le stockage sur disque dur de tout ou partie de l'arborescence d'un site Web. Les données pourront ensuite être consultées très rapidement sur le PC, mises à disposition de plusieurs utilisateurs sur un réseau local ou copiées sur un portable pour une consultation nomade.Les logiciels de capture sont aussi très utiles pour organiser l'impression des pages. Tous les produits offrent de nombreuses possibilités de paramétrage. A partir de l'adresse d'une page, il est possible de préciser la profondeur des liens à explorer (avec ou sans suivi de liens vers d'autres sites), d'imposer des limitations (taille, nombre de fichiers capturés) et de définir le type de documents à rapatrier ou à exclure. Habilement détournée, cette dernière fonction transforme l'aspirateur en outil très puissant de recherche et de téléchargement de fichiers.