Defragmentierungstool Gutes Defragmentierungstool gesucht
#16
geschrieben 30. Juni 2005 - 12:45
Anzeige
#17
geschrieben 30. Juni 2005 - 12:51
dante
#18
geschrieben 30. Juni 2005 - 12:52
hab das hier gefunden... bei google, is das was du meintest?
EDIT:
Danke wieder was neues
Dieser Beitrag wurde von Kurian bearbeitet: 30. Juni 2005 - 12:52
#20
geschrieben 30. Juni 2005 - 13:31
Zu den wichtigen Sachen gehören: Auslagerungsdatei (das allerwichtigste!), die Dateien, die die Registry bilden, sowie evtl. noch das Ereignisprotokoll.
Zur Defragmentierung dieser Dinge bei jedem Booten (im Betrieb gehts nicht, weil die Dateien immer in Benutzung sind), PageDefrag von www.sysinternals.com draufschmeissen, kost nix.
Bei Fileservern mag es auch noch was bringen, tatsächlich Dateien zu defragmentieren, aber ansonsten: lasst euch net von O&O, Executive Software oder wem auch immer diese Sprüche von wegen Performance & Co. aufdrücken.
#21
geschrieben 02. Juli 2005 - 06:34
ich empfehle doch, zuerst einmal zu checken, ob das Dateisystem wirklich so stark defragmentiert ist, wie man meint.
NTFS fragmentiert lange nicht so stark wie z.B. FAT16/FAT32. Wenn man wirklich alle paar Wochen/Monate mal defragmentieren muß/will, reicht dann nicht das WXP-eigene Defragmentierungstool?
#22
geschrieben 02. Juli 2005 - 11:13
Zitat
Wenn man normale Daten-Dateien defragmentieren will, reicht das vollkommen aus, ja. Für die wichtigen Dateien das kostenlose PageDefrag verwenden - s. meine Antwort darüber ...
#23
geschrieben 02. Juli 2005 - 16:13
Mit "Defrag 1.8" hat die deutsche Softwareschmiede mst Software http://www.mstsoftware.com laut eigenen Angaben die weltweit erste proaktive Defragmentierungslösung vorgestellt. "Defrag" arbeitet gänzlich im Hintergrund und soll die Arbeit des Users in keiner Weise beinträchtigen.
Das Tool bekämpft laut mst Performanceengpässe und löst Stabilitätsprobleme direkt bei der Entstehung. In der Version 1.8 verfügt "Defrag" über eine mehrfache Clusteranzeige, einen "IO-Guard" zur besseren Steuerung des Lastenverhaltens, eine optionale Fehlerüberprüfung für Notebooks und Server und einen System-Tray-Icon.
Die Defragmentierungs-Engine erlaubt eine Performancesteigerung von lokalen Datenträgern als auch die Defragmentierung von Computern im Netzwerk. Hierzu steht eine Clientsoftware für Workstations und eine Server-Lösung zur Verfügung. "Defrag 1.8" defragmentiert unter Windows 2000, 2003 und XP, ist ab sofort verfügbar und geht in der Home-Edition um rund neun Euro über den Ladentisch. Die Workstation-Lizenz kostet rund 30 Euro, die Server-Edition 85 Euro.
Download: http://www.mstsoftware.com/
512GB SSD M.2 - 1TB DatenHDD - Windows11 Prof. x64 23H2, Microsoft 365
seit 1999 (TechNetAbo, beta und connect.microsoft.com/insider.windows.com)
#24
geschrieben 02. Juli 2005 - 17:43
Zitat (Lofote: 02.07.2005, 12:13)
<{POST_SNAPBACK}>
Ob wichtig oder unwichtig - spielt doch beim Defragmentieren wirklich keine Rolle.
#25
geschrieben 02. Juli 2005 - 23:26
Zitat
Doch! Es spielt eine sehr grosse Rolle. Die Auslagerungsdatei und ähnliche (lies mein Posting oben!) schlucken Performance, wenn sie fragmentiert sind, die anderen NICHT - oder so wenig, dass du es null feststellen willst. Du wirfst also unnötig Zeit weg und belastest die HDD unnötig, wenn du den Rest defragmentierst, hast aber in 99% aller Fälle absolut null Vorteil davon. Also defragmentiert man das, was Performanceschub bringt, wozu sonst defragmentiert man? (Es gibt noch den Fall, dass man defragmentiert, um hinten auf der Platte Platz zu bekommen, um die Partition zu verkleinern, das ist natürlich was anderes, aber in diesem Posting geht es allein um Performance. Das nur der Vollständigkeit halber)
#26
geschrieben 03. Juli 2005 - 05:52
Zitat (Lofote: 03.07.2005, 00:26)
<{POST_SNAPBACK}>
ok, dann sag mir doch mal bitte den Performancevorteil(relativ oder absolut) von einer Auslagerungsdatei mit - ich nehme mal ein praktisches Beispiel- 10 Fragmenten und einer mit einem Fragment. Ich sags gerne nochmal: unter NTFS wird nicht mehr so stark fragmentiert wie mit früheren Filesystemen.
#27
geschrieben 03. Juli 2005 - 15:01
NTFS fragmentiert genauso stark wie FAT früher. Warum? Das hat nichts mit dem Filesystem sondern mit der Art, wie Dateien erstellt werden zu tun. Wenn du eine neue Datei öffnest und in ihr schreibst, sagst ihr "Hallo, ich will die Datei soundso in demunddem Verzeichnis" und dann pumpst du diese Datei ne Weile lang mit deinen Daten voll und schliesst sie am Schluss. Da aber du beim Öffnen dem System nicht VORHER sagst, wie gross die Datei werden wird, hat das Filesystem KEINE Chance, ein gross genuges Stück für die neue Datei auszusuchen und zu reservieren. Vergleiche das mit einem Lager, dass du verwalten musst und du hast in verschiedenen Regalen was frei und bekommst nun nach und nach Lieferungen von mehreren zusammengehörigen Paketen, weisst aber vorher nicht, wieviel Platz du insgesamt brauchst. Nichts anderes passiert bei der Fragmentierung eines Dateisystems...
So lange sich das nicht ändert, wird es immer fragmentierte Dateisysteme geben. Ob NTFS nun ein bisschen weniger fragmentiert oder nicht, spielt keinerlei Rolle - die Problematik besteht.
Nur, wenn du nun eine Word-Datei mit 1000 Fragmenten hast, passiert nicht viel: Sie wird i.d.R. einmal am Stück gelesen, d.h. du merkst nicht viel von der Zugriffszeit zwischen den Fragmenten, denn die 1000 Sprünge einmalig machen nicht viel aus. Aber auf die Auslagerungsdatei hast du einen *permanenten* Zugriff, sobald du ein bisschen was mit dem System machst. D.h. die Platte macht durchaus mal 50.000 Sprünge auf der Platte in der Minute, und das ist sehr spürbar, vor allem wenn es permanent ist.
Wenn du wissen willst, wie fragmentiert deine AUslagerungsdatei zur Zeit ist, lade dir genanntes PageDefrag von SysInternals runter. Das zeigt dir zunächst mal auch an, aus wievielen Fragmenten die genannten wichtigen Dateien bestehen. Wenn es unter 20 sind, wirst du tatsächlich wohl nicht viel Performancegewinn nach einer Defragmentierung derselben spüren. Aber spätestens sobald es in den dreistelligen Bereich geht, wirste schnell was merken. Probier es aus ...
#28
geschrieben 03. Juli 2005 - 16:46
@Lafote
NTFS Fragmentierung
schau' doch mal bitte in diesen Link. Dort und in vielen seriösen Quellen wird gesagt, daß NTFS nicht so stark fragmentiert. Ich erspare es mir, die Gründe nochmals abzuschreiben.
Zitat
Sorry Lafote - nichts für ungut. Aber so wie Du beschrieben hast werden Dateien wirklich nicht erstellt, bzw. auf Platte geschrieben.
Da ich keinen Streit vom Zaune brechen will, klinke ich mich aus dieser Diskussion aus.
Dieser Beitrag wurde von _solon_ bearbeitet: 03. Juli 2005 - 16:47
#29
geschrieben 03. Juli 2005 - 16:59
habe es lange getestet und finde es einfach genial.
#30
geschrieben 03. Juli 2005 - 17:07