Hallo Leute,
ich habe folgendes Problem:
Ich habe mir einen PC zusammengestellt der quasi als Homeserver dienen soll und habe darauf ein Windows 10Pro installiert. Dort nutze ich den sogenannten Speicherpool mit NTFS. Jetzt bekomme ich die Meldung, dass ich die maximale Anzahl der Cluster erreicht habe und keine weitere Festplatte mehr hinzufügen kann (über 16tb). Jetzt meine Fragen:
Wenn ich einen neuen Pool erstelle wo kann ich da den Cluster ändern?
Kann das Dateisystem "REFS" auf anhieb mehr als 16 TB?
Oder sollte ich lieber auf Windows Server umsteigen?
Falls es so ein Thema schon gibt, dann sry, ich habe nichts gefunden.
Vielen Dank
Gruß
Maluson
Seite 1 von 1
Speicherpool: Maximale Cluster erreicht
Anzeige
#2
geschrieben 11. April 2017 - 08:31
Zitat (Maluson: 11. April 2017 - 07:06)
Kann das Dateisystem "REFS" auf anhieb mehr als 16 TB?
NTFS sollte bis zu 256 TB schaffen. Warum der Speicherpool bei 16TB voll ist, musst du MS fragen. ReFS kann bis zu 16 EB. (Exabyte)
Dieser Beitrag wurde von Gispelmob bearbeitet: 11. April 2017 - 08:34
AMD Ryzen 9 5950X, Asus ROG Strix X570-F Gaming, 32GB Corsair DDR4-3200, Asus Geforce GTX 3060 12GB, Creative Sound Blaster AE-7, 240GB SSD, 500GB SSD, 3x 1TB SSD, Win11 Home, 4x Acer G246HL Bbid, Logitech MX518 Gaming Mouse, Logitech G440 Mousepad, Logitech K120 Keyboard, Razer Tiamat 7.1 V2 Headset, Creative Inspire 5.1 5300 Soundsystem
#3
geschrieben 11. April 2017 - 08:45
Das mit den 16TB liegt an der Cluster-Grösse. Wenn man da 64kb auswählt, dann ist das Problem gelöst.
#4
geschrieben 11. April 2017 - 08:46
Das hat nix mit Microsoft zu tun, sondern mit dem, was da schon im Thread-Titel steht.
NTFS verwendet standardmäßig 4kB große Cluster und unterstützt ein Maximum an Clustern (=> quantitativ); und für 4kB große Cluster resultiert das dann in 16TB (binär) minus 4kB (also minus 1 Cluster).
- Option 1: Daten alle runter, Storage spaces reformatieren mit größeren Clustern, Daten wieder rauf.
- Option 2: Nachforschen, wie es mit Tools aussieht, die ggf. Clustergrößen on-the-fly verändern können. Note: Dieser Vorgang wird zwangsläufig gefühlte Ewigkeiten dauern UND ein gewisses Verlustrisiko einschließen.
NTFS verwendet standardmäßig 4kB große Cluster und unterstützt ein Maximum an Clustern (=> quantitativ); und für 4kB große Cluster resultiert das dann in 16TB (binär) minus 4kB (also minus 1 Cluster).
- Option 1: Daten alle runter, Storage spaces reformatieren mit größeren Clustern, Daten wieder rauf.
- Option 2: Nachforschen, wie es mit Tools aussieht, die ggf. Clustergrößen on-the-fly verändern können. Note: Dieser Vorgang wird zwangsläufig gefühlte Ewigkeiten dauern UND ein gewisses Verlustrisiko einschließen.
#5
geschrieben 11. April 2017 - 09:14
erstmal vielen Dank für die schnellen Antworten.
Wenn ich das dann in der Verwaltung ändere, dann habe ich doch das gleiche Problem, wenn ich noch weitere Festplatten hinzufügen will oder? Dann wären ja nur die Festplatten die dann "reformatiert" wurden mit einem größeren Cluster und die neuen dann nicht - oder habe ich da gerade einen Denkfehler?
Zitat
- Option 1: Daten alle runter, Storage spaces reformatieren mit größeren Clustern, Daten wieder rauf.
Wenn ich das dann in der Verwaltung ändere, dann habe ich doch das gleiche Problem, wenn ich noch weitere Festplatten hinzufügen will oder? Dann wären ja nur die Festplatten die dann "reformatiert" wurden mit einem größeren Cluster und die neuen dann nicht - oder habe ich da gerade einen Denkfehler?
#6
geschrieben 11. April 2017 - 09:24
Nicht die Festplatten, die haben fixe Clustergrößen.
Das bzw die Volumes, welche(s) sich auf den storage spaces befinden.
Das bzw die Volumes, welche(s) sich auf den storage spaces befinden.
#7
geschrieben 11. April 2017 - 09:40
Da mir im Pool nur noch ein Volume angezeigt wird, müsste ich jedesmal alle Daten runter packen und dann das komplette Volume (bisher 16tb) mit einem neuen Cluster belegen wenn ich den Pool erweitere richtig?
Dieser Beitrag wurde von Maluson bearbeitet: 11. April 2017 - 09:43
#8
geschrieben 11. April 2017 - 09:51
Nein, das sollte nicht mehr nötig sein, da das Volume dann ja schon die richtige Cluster-Grösse hat und nur erweitert wird.
#9
geschrieben 11. April 2017 - 17:11
Vielleicht paßt ja mein Problem von damals hier nicht wirklich rein, aber ich fand die Spaces erstmal total interessant, aber in der Praxis wie bei mir auch ab 10TB aufwärts, totaler Mist. Performance fand ich sehr übel in allen Szenarien, Handhabung und Erweiterbarkeit waren für mich unbefriedigend. Weshalb ich vielleicht unnötigerweise zu einer etwas veralteten Methode wieder zurückreife, der Datenträgerverwaltung im Stripe und der Redundanz in den Externen Platten.
Mit den Spaces hatte ich 0.05% Fehler bei meinen mkvs ab 1GB, klingt zwar nicht viel, aber die Datei wäre für mich dabei unwiederbringlich verloren gewesen, da der Krempel der Filme eben meiner Aufnahmen entsprang und in der Form nicht im Internet einfach so wieder ladbar wäre.
Mit den Spaces hatte ich 0.05% Fehler bei meinen mkvs ab 1GB, klingt zwar nicht viel, aber die Datei wäre für mich dabei unwiederbringlich verloren gewesen, da der Krempel der Filme eben meiner Aufnahmen entsprang und in der Form nicht im Internet einfach so wieder ladbar wäre.
Dieser Beitrag wurde von Candlebox bearbeitet: 11. April 2017 - 17:11
»Man kann die Realität ignorieren, aber man kann nicht die Konsequenzen der ignorierten Realität ignorieren.« ~Ayn Rand
Thema verteilen:
Seite 1 von 1