En poursuivant votre navigation sur ce site, vous acceptez nos CGU et l'utilisation de cookies afin de réaliser des statistiques d'audiences et vous proposer une navigation optimale, la possibilité de partager des contenus sur des réseaux sociaux ainsi que des services et offres adaptés à vos centres d'intérêts.
Pour en savoir plus et paramétrer les cookies...

Gérez les fichiers trop gros pour être défragmentés

Gérez les fichiers trop gros pour être défragmentés
 

Les gros fichiers sont un véritable casse-tête pour la défragmentation. Voici une astuce qui vous permettra de couper la poire en deux et d'améliorer un peu les performances de votre ordinateur : mettre les fichiers à la fin du disque.

A voir aussi

Votre opinion

Postez un commentaire

3 opinions
  • LeCousinDeMaCousine
    LeCousinDeMaCousine     

    Pour ceux qui ont connu d'anciens Windows,
    il existait une key de registre "continius allocation" qui quand elle était activée faisait qu'avant d'écrire Windows cherchait dans master allocation table un espace assez grand sur le disque pour l'écrire d'un seul tenant.
    Si çà n'existe plus c'est qu'on a jugé que les disques actuels n'en avait plus besoin....

  • LeCousinDeMaCousine
    LeCousinDeMaCousine     

    95% des écritures sur disque sont dues à la défragmentation: on recopie toutes ses données une fois par jour, par semaine ou mois: C'est du gâchis...Quand vous sauvez un fichier texte c'est 3 à 15 k qui s'écrivent, là c'est le tétra qui se déplace... Deux petites choses encore d'abord il existe une version technicien de ce logiciel ce qui laisse penser que cette version n'est pas la meilleure... ensuite quand vous recharger votre fichier texte de 3k votre cache disque se rempli de 2 à 32 mo selon le modèle : faut pas pinailler

  • C23
    C23     

    il ya deux façons de voir cet article :

    - soit le mec qui a developpé cette application est un imposteur
    - soit c'est le journaliste

    car au moins un des deux n'a rien compris à la fragmentation des fichiers et son impact sur les performances.

    Deux idées reçus à expliquer :

    - "mettre les fichiers à fin du disque" : déjà sur un SSD, ca ne veut strictement plus rien dire, mais soit.
    Sur un disque physique, la vitesse lineaire est forcement meilleure a l'extérieur qu'au centre, ca je suis d'accord, mais qd on voir que l'article porte sur les gros fichiere genre divx et compagnie, on se demande plutot l'interet : vous regardez souvent un film à la vitesse maximale d'un disque? Vous lisez souvent l'intégralité de votre fichier PST Outlook? Vos fichiers ISO/BIN sont souvent accédés à une vitesse faramineuse? Meme si vous les partagez en réseau, il ya 99,99% de chances que votre débit réseau soit 10 fois inférieur au débit de votre disque.
    µIl n'y a donc aucun interet à optimiser la vitesse de lecture des gros fichiers! Mieux vaut optimiser l'endroit du swap. Meme les fichiers de l'OS n'auront rien à faire en fin de disque à cause de l'idée reçue numéro deux :

    - "defragmenter, ca permet de ne pas déplacer les tetes de lecture pour rien, car le fichier est contigu et peut etre lu en un seul bloc" : ouais enfin faut pas oublier que si je coupe un DIVX de 700Mo (ou 4Go c pareil) en deux, avec chq partie a chq extremité du disque, c pas les pauvres 10 ms de temps d'accès qui vont changer grand chose devant le temps nécéssaire à lire l'intégralité du fichier (au moins 7 secondes pour 700Mo si on considere que le disque peut suivre à 100Mo/s...).

    Meme si je charcute le meme fichier en 100 parties, ca fait 10ms x 100 = 1seconde. Comparé à 7 secondes, oulala, mais quel gain enorme! C'est probablement le temps qu'il vous faut pour vous gratter la tete.

    De plus, que celui qui arrive à charcuter un gros fichier en 100 morceaux sans faire expres me jette la 1ere pierre. Generalement, un gros fichier, qd il vient sur votre disque, le systeme est pas con et alloue plutot des blocs contigus pour justement eviter la fragmentation.

    Meme si vous ouvrez/modifiez/enregistrez, et repétez cette operation 1000 fois, votre OS va généralement réecrire par dessus le meme fichier ou bien en créera un autre avec des blocs contigus aussi. Donc aucun gain n'est à esperer de la defragmentation.

    C'est un vieux mythe tenace, qui avait le mérite d'exister dans les années 1990-2000, qd les fichiers étaient bcp plus petits, et où la probabilité de fragmentation était plus grande : la taille des fichiers se rapprochant bcp plus de la taille des clusters d'un disque.

    Sur des systemes d'entreprise type SAN, ou NAS, plus personne se préoccupe de la defrag. Pour moi, c'est devenu un joke pour se foutre de la gueule des pseudo informaticiens, ou bien un test pour savoir si un stagiaire se fout pas de ma gueule.

Votre réponse
Postez un commentaire