Gérez les fichiers trop gros pour être défragmentés

Les gros fichiers sont un véritable casse-tête pour la défragmentation. Voici une astuce qui vous permettra de couper la poire en deux et d'améliorer un peu les performances de votre ordinateur : mettre les fichiers à la fin du disque.
De nombreux programmes constituent des fichiers de plusieurs gigas, des fichiers de stockage Outlook (PST et ODB), les fichiers vidéo (MKV, AVI, etc.) ou encore certains jeux (MPQ pour World of Warcraft par exemple).
Pour améliorer les performances de votre ordinateur, faites appel à Defraggler : il permet de mettre les fichiers trop gros en fin de disque.
Etape 1

Si ce n'est pas déjà fait, téléchargez Defraggler et installez-le. Une fois le logiciel lancé, rendez-vous dans Paramètres, puis Options.
Dans le menu qui apparaît, cliquez sur l'onglet Défragmentation.
Vérifier que les options suivantes sont cochées :
- Déplacer les plus gros fichiers à la fin du disque pendant la défragmentation complète.
- Déplacer uniquement les types de fichiers sélectionnés.
La valeur par défaut de la Taille minimum des fichiers est réglée sur 250 Mo ce qui constitue un paramètre par défaut raisonnable, libre à vous de l'ajuster selon vos besoins.
Etape 2

Cliquez sur Ajouter, puis donner un nom au type de fichier sélectionné, Outlook par exemple, pour des fichiers de stockage d'e-mail, puis dans le deuxième champ indiquez *.XXX ou XXX représente le type de fichier à placer en fin de disque. Le caractère * placé avant signifie que tous les fichiers de ce type seront placés à la fin du disque. Pour sélectionner un fichier précis, entrez directement le nom du fichier Ex : Mail_boulot.pst
Validez le type de fichier en cliquant sur Appliquer, puis fermer le menu en cliquant sur OK. Il ne vous reste plus qu'à lancer la défragmentation.
-
LeCousinDeMaCousine
Pour ceux qui ont connu d'anciens Windows,
il existait une key de registre "continius allocation" qui quand elle était activée faisait qu'avant d'écrire Windows cherchait dans master allocation table un espace assez grand sur le disque pour l'écrire d'un seul tenant.
Si çà n'existe plus c'est qu'on a jugé que les disques actuels n'en avait plus besoin.... -
LeCousinDeMaCousine
95% des écritures sur disque sont dues à la défragmentation: on recopie toutes ses données une fois par jour, par semaine ou mois: C'est du gâchis...Quand vous sauvez un fichier texte c'est 3 à 15 k qui s'écrivent, là c'est le tétra qui se déplace... Deux petites choses encore d'abord il existe une version technicien de ce logiciel ce qui laisse penser que cette version n'est pas la meilleure... ensuite quand vous recharger votre fichier texte de 3k votre cache disque se rempli de 2 à 32 mo selon le modèle : faut pas pinailler
-
C23
il ya deux façons de voir cet article :
- soit le mec qui a developpé cette application est un imposteur
- soit c'est le journaliste
car au moins un des deux n'a rien compris à la fragmentation des fichiers et son impact sur les performances.
Deux idées reçus à expliquer :
- "mettre les fichiers à fin du disque" : déjà sur un SSD, ca ne veut strictement plus rien dire, mais soit.
Sur un disque physique, la vitesse lineaire est forcement meilleure a l'extérieur qu'au centre, ca je suis d'accord, mais qd on voir que l'article porte sur les gros fichiere genre divx et compagnie, on se demande plutot l'interet : vous regardez souvent un film à la vitesse maximale d'un disque? Vous lisez souvent l'intégralité de votre fichier PST Outlook? Vos fichiers ISO/BIN sont souvent accédés à une vitesse faramineuse? Meme si vous les partagez en réseau, il ya 99,99% de chances que votre débit réseau soit 10 fois inférieur au débit de votre disque.
µIl n'y a donc aucun interet à optimiser la vitesse de lecture des gros fichiers! Mieux vaut optimiser l'endroit du swap. Meme les fichiers de l'OS n'auront rien à faire en fin de disque à cause de l'idée reçue numéro deux :
- "defragmenter, ca permet de ne pas déplacer les tetes de lecture pour rien, car le fichier est contigu et peut etre lu en un seul bloc" : ouais enfin faut pas oublier que si je coupe un DIVX de 700Mo (ou 4Go c pareil) en deux, avec chq partie a chq extremité du disque, c pas les pauvres 10 ms de temps d'accès qui vont changer grand chose devant le temps nécéssaire à lire l'intégralité du fichier (au moins 7 secondes pour 700Mo si on considere que le disque peut suivre à 100Mo/s...).
Meme si je charcute le meme fichier en 100 parties, ca fait 10ms x 100 = 1seconde. Comparé à 7 secondes, oulala, mais quel gain enorme! C'est probablement le temps qu'il vous faut pour vous gratter la tete.
De plus, que celui qui arrive à charcuter un gros fichier en 100 morceaux sans faire expres me jette la 1ere pierre. Generalement, un gros fichier, qd il vient sur votre disque, le systeme est pas con et alloue plutot des blocs contigus pour justement eviter la fragmentation.
Meme si vous ouvrez/modifiez/enregistrez, et repétez cette operation 1000 fois, votre OS va généralement réecrire par dessus le meme fichier ou bien en créera un autre avec des blocs contigus aussi. Donc aucun gain n'est à esperer de la defragmentation.
C'est un vieux mythe tenace, qui avait le mérite d'exister dans les années 1990-2000, qd les fichiers étaient bcp plus petits, et où la probabilité de fragmentation était plus grande : la taille des fichiers se rapprochant bcp plus de la taille des clusters d'un disque.
Sur des systemes d'entreprise type SAN, ou NAS, plus personne se préoccupe de la defrag. Pour moi, c'est devenu un joke pour se foutre de la gueule des pseudo informaticiens, ou bien un test pour savoir si un stagiaire se fout pas de ma gueule.
Votre opinion