Zitat
Doch, denn in jeder mir bekannten Programmiersprache wird eine Datei mit einer Art "Open()"-Befehl erstellt - aber ohne Angabe der Endgrösse.
Zum Artikel muss ich sagen, dass ich dem nicht arg Glauben schenken kann, zumindest nicht dass es so effizient ist, wie es dargestellt wird. Als Serveradmin sehe ich ruckzuck überall die Dateien fragmentieren, so gut kann es also gar nicht sein. Gerade die Auslagerungsdatei, wo das Dateisystem ja intelligent genug sein *sollte*, die möglichst nicht fragmentieren zu lassen, quetscht Windows gnadenlos in jede noch so kleine Lücke im Dateisystem, so dass auch ja viele Fragmente entstehen.
Zu allerletzt zeigt mir der Artikel, dass der Autor offensichtlich nicht viel Ahnung hat. Nicht nur dass keinerlei Hintergrundlinks mit technischen Infos angegeben wird. Nein, das allerwichtigste geile Feature, nämlich die Indexierung der Verzeichnisse (grob gesagt heisst dass, dass wenn das System z.B. nach der Datei mfc42.dll im SYSTEM32-Verzeichnis sucht, was meistens ca. 2000-4000 Dateien enthält, sehr schnell findet, weil die Verzeichnisse alphabetisch geordnet werden vom System - es findet es also wesentlich schneller, vergleiche die manuelle Suche nach Nachnamen im Telefonbuch gegenüber Suche nach z.B: Strassennamen), das erwähnt der Artikel mit keinem Wort - zudem ist das der eine von zwei Gründen, warum *schreiben* langsamer ist als bei FAT, weil der Index aktuell gehalten werden muss ... (Der zweite ist das Journaling, das zu beschreiben sprengt jetzt den Rahmen wirklich).
Darfst nicht immer alles glauben, vor allem nicht von solchen Tip-Seiten ... Fazit: Das NTFS weniger defragmentiert als FAT kann sein, aber so effizient wie der Artikel es glauben magen will, ist es auf gar keinen Fall - überzeug dich selber mit einem Defragmentiertool deiner Wahl ...