Hallo,
ich wollte mir eigentlich eine 3TB Platte zulegen. Bin dann aber darauf gestoßen, dass es bei diesen Platten oft zu Problemen kommt, sodass man nicht die gesamte Kapazität nutzen kann.
Wie kann dem vorgebeugt werden, oder sind dies nur vereinzelte Probleme mancher Nutzer?
Seite 1 von 1
Festplatten >= 3TB in Windows
#1
geschrieben 31. Dezember 2015 - 13:40
Ein(e) Danke(positive Bewertung) für einen guten Beitrag kann nicht schaden ;-) Danke!j Dateien und Ordner Verwaltung by Future010
Anzeige
#2
geschrieben 31. Dezember 2015 - 13:44
Der einzige Grund, nicht vollständig zugreifen zu können, wäre der, wenn man die Festplatte mit 512B-Sektoren auf MBR auslegt. Der kann dann nämlich nur 2TB (binär) adressieren.
Alles andere ist ganz problemlos. Heutzutage kannst Du genausogut eine 8TB-Platte greifen. Da gilt dann natürlich dasselbe.
Alles andere ist ganz problemlos. Heutzutage kannst Du genausogut eine 8TB-Platte greifen. Da gilt dann natürlich dasselbe.
#3
geschrieben 31. Dezember 2015 - 13:48
Danke dir Ralph, mathematisch fundiert und logisch ist es auch. Hab ich garnicht dran gedacht (Sektoren). Aber ja hast recht!
Dann würde ich mir sogar eine 3 bis 4TB kaufen wollen, was kann man dort empfehlen?
Ich hatte zunächst an eine Toshiba DT01ACA300 3000GB gedacht
Dann würde ich mir sogar eine 3 bis 4TB kaufen wollen, was kann man dort empfehlen?
Ich hatte zunächst an eine Toshiba DT01ACA300 3000GB gedacht
Dieser Beitrag wurde von Future010 bearbeitet: 31. Dezember 2015 - 13:53
Ein(e) Danke(positive Bewertung) für einen guten Beitrag kann nicht schaden ;-) Danke!j Dateien und Ordner Verwaltung by Future010
#4
geschrieben 31. Dezember 2015 - 14:09
Wobei noch anzumerken wäre, dass die meisten Platten mit >2TB intern zwar 4K Sektoren verwenden, nach außen hin aber eine 512 Byte verwenden. Die Toschiba ist da auch so eine sog. 512e Platte. Platten welche nach außen die 4K Sektoren durchreichen (4Kn), sind mir derzeiz keine bekannt. Gibt es wohl für den Enterprise Sektor, aber im Einzelhandel findet man eigentlich nur 512e Platten.
Bedeutet in der Praxis, dass man die volle Kapazität nur mit dem GPT Schema erreichen kann und wenn man sie als Bootlaufwerk unter Windows verwenden will um UEFI nicht drum herumkommen wird.
Ansonsten sind aber i.d.R. keine Probleme mit solchen Platten zu erwarten, sofern man nicht uralt Hardware verwendet.
Bedeutet in der Praxis, dass man die volle Kapazität nur mit dem GPT Schema erreichen kann und wenn man sie als Bootlaufwerk unter Windows verwenden will um UEFI nicht drum herumkommen wird.
Ansonsten sind aber i.d.R. keine Probleme mit solchen Platten zu erwarten, sofern man nicht uralt Hardware verwendet.
Ich bin kein Toilettenpapier-Hamster.
---
Ich bin ein kleiner, schnickeldischnuckeliger Tiger aus dem Schwarzwald.
Alle haben mich ganz dolle lila lieb.
---
Ich bin ein kleiner, schnickeldischnuckeliger Tiger aus dem Schwarzwald.
Alle haben mich ganz dolle lila lieb.
#5
geschrieben 31. Dezember 2015 - 14:24
Dort macht es doch dann keinen Unterschied ob externe oder interne Platte oder?
Ein(e) Danke(positive Bewertung) für einen guten Beitrag kann nicht schaden ;-) Danke!j Dateien und Ordner Verwaltung by Future010
#6
geschrieben 31. Dezember 2015 - 14:29
Wollt grad schreiben, klar gibt's die 4Kn.
- Wobei die ganze Sache insgesamt betrachtet nicht soo kritisch ist. Denn die großen Platten (2TB+) sind im allgemeinen suboptimal als Systemfestplatte, da vergleichsweise langsam und träge (Zugriffszeiten, Cache, etc etc). SSD als Systemlaufwerk ist sowieso das Optimum, aber auch wenn man das nicht will, ist die kleinere Festplatte mit dem anteilig größeren Cache und der höheren Drehzahl (> kürzeren Zugriffszeiten) die bessere Option.
- Stichwort "welche Festplatte", mh, ich denke insbesondere privat ist das relativ egal heutzutage. Gibt ja eh nur, was, drei Hersteller oder so. Solange die Festplatte als Systemfestplatte von den Spezifikationen her gut geeignet ist, diese auch erfüllt und nicht grad nach dem dritten Schreibvorgang auseinanderfällt, ist der Rest wohl eher persönliche Präferenz (und eine Frage des Geldbeutels).
- Wobei die ganze Sache insgesamt betrachtet nicht soo kritisch ist. Denn die großen Platten (2TB+) sind im allgemeinen suboptimal als Systemfestplatte, da vergleichsweise langsam und träge (Zugriffszeiten, Cache, etc etc). SSD als Systemlaufwerk ist sowieso das Optimum, aber auch wenn man das nicht will, ist die kleinere Festplatte mit dem anteilig größeren Cache und der höheren Drehzahl (> kürzeren Zugriffszeiten) die bessere Option.
- Stichwort "welche Festplatte", mh, ich denke insbesondere privat ist das relativ egal heutzutage. Gibt ja eh nur, was, drei Hersteller oder so. Solange die Festplatte als Systemfestplatte von den Spezifikationen her gut geeignet ist, diese auch erfüllt und nicht grad nach dem dritten Schreibvorgang auseinanderfällt, ist der Rest wohl eher persönliche Präferenz (und eine Frage des Geldbeutels).
#7
geschrieben 31. Dezember 2015 - 14:39
Okay ich tendiere jetzt zwischen: Western Digital WD30EZRX und Toshiba DT01ACA300
Ein(e) Danke(positive Bewertung) für einen guten Beitrag kann nicht schaden ;-) Danke!j Dateien und Ordner Verwaltung by Future010
#8
geschrieben 31. Dezember 2015 - 14:45
Huh? Ich dachte bisher immer das bei Platten einer Baureihe die größere immer schneller ist, aufgrund der höheren Datendichte bzw. der Mehrzahl der internen Platten?
Sieht man ja sogar teilweise bei SSD's, das grössere Platten eine höhere Schreib- und Lesegeschwindigkeit erreichen?
Ich mein ok, 32MB Cache sind prozentual bei einer 120GB-FP mehr als bei einer 4 TB-Platte. Aber fällt das denn so sehr ins Gewicht?
Sieht man ja sogar teilweise bei SSD's, das grössere Platten eine höhere Schreib- und Lesegeschwindigkeit erreichen?
Ich mein ok, 32MB Cache sind prozentual bei einer 120GB-FP mehr als bei einer 4 TB-Platte. Aber fällt das denn so sehr ins Gewicht?
#9
geschrieben 31. Dezember 2015 - 15:51
SSDs sind keine Festplatten
SSDs werden schneller, weil größere SSD = mehr Speicher, der irgendwie zusammengeschaltet werden kann. Die Dinger werden auch intern schon gestreift (wie RAID0), soweit das möglich ist - gibt's nur einen Chip, geht das schlecht; gibt es mehrere, geht es gut.
Schneller werden Festplatten jedenfalls nicht mit höherer Datendichte. Eher andersherum müssen die Festplatten intern schneller werden, um mit steigender Größe die externe Geschwindigkeit halten zu können.
Und was den Cache betrifft, so ist der für Datenplatten eher uninteressant; aber für Systemplatten, also da wo das Betriebssystem drauf läuft und ständig Festplattenaktivität da ist, macht sich der größere Cache bemerkbar und je größer die Platte wird, desto mehr muß der Cache abfedern können, weil ja die Suchvorgänge viel komplexer werden mit steigender Datendichte und steigenden Kapazitäten. Wenn man also zB eine 4TB-Platte hätte mit einem MB Cache, dann wäre dieser sozusagen schon voll, bevor die Platte überhaupt erstmal mit Suchen angefangen hat.
Denn der Cache ist sozusagen der Zwischenspeicher in der Platte. Wenn die Platte in der Lage ist, schnell (im Sinne von "schneller als Interface-Geschwindigkeit") Daten zu holen, dann wandern die in den Cache und können dort in einem Rutsch abgeholt werden. Dazu müssen sie aber erstmal da reinpassen. Tun sie es nicht, wird die Festplatte halt genötigt, wegen "Cache voll" diesen erstmal leerzuräumen (oder zu invalidieren) damit sie weitersuchen kann.
Wie gesagt, für stetige Datenströme, die am Stück gelesen und geschrieben werden - also große Dateien auf Datnplatten, vor allem wenn das nicht ständig passiert -- dann ist der Cache relativ uninteressant, weil eh durchgeschrieben werden kann. Aber wenn es viele kleine Dateien sind, die sozusagen von überallher zusammengesucht werden müssen und das auch relativ ständig passiert, dann wird der Cache irgendwann kritisch.
SSDs werden schneller, weil größere SSD = mehr Speicher, der irgendwie zusammengeschaltet werden kann. Die Dinger werden auch intern schon gestreift (wie RAID0), soweit das möglich ist - gibt's nur einen Chip, geht das schlecht; gibt es mehrere, geht es gut.
Schneller werden Festplatten jedenfalls nicht mit höherer Datendichte. Eher andersherum müssen die Festplatten intern schneller werden, um mit steigender Größe die externe Geschwindigkeit halten zu können.
Und was den Cache betrifft, so ist der für Datenplatten eher uninteressant; aber für Systemplatten, also da wo das Betriebssystem drauf läuft und ständig Festplattenaktivität da ist, macht sich der größere Cache bemerkbar und je größer die Platte wird, desto mehr muß der Cache abfedern können, weil ja die Suchvorgänge viel komplexer werden mit steigender Datendichte und steigenden Kapazitäten. Wenn man also zB eine 4TB-Platte hätte mit einem MB Cache, dann wäre dieser sozusagen schon voll, bevor die Platte überhaupt erstmal mit Suchen angefangen hat.
Denn der Cache ist sozusagen der Zwischenspeicher in der Platte. Wenn die Platte in der Lage ist, schnell (im Sinne von "schneller als Interface-Geschwindigkeit") Daten zu holen, dann wandern die in den Cache und können dort in einem Rutsch abgeholt werden. Dazu müssen sie aber erstmal da reinpassen. Tun sie es nicht, wird die Festplatte halt genötigt, wegen "Cache voll" diesen erstmal leerzuräumen (oder zu invalidieren) damit sie weitersuchen kann.
Wie gesagt, für stetige Datenströme, die am Stück gelesen und geschrieben werden - also große Dateien auf Datnplatten, vor allem wenn das nicht ständig passiert -- dann ist der Cache relativ uninteressant, weil eh durchgeschrieben werden kann. Aber wenn es viele kleine Dateien sind, die sozusagen von überallher zusammengesucht werden müssen und das auch relativ ständig passiert, dann wird der Cache irgendwann kritisch.
Dieser Beitrag wurde von RalphS bearbeitet: 31. Dezember 2015 - 15:53
- ← Beim Herunterfahren memory Managment Bluesreen
- Hardware & Treiber - Windows 10
- Win10 pro fährt nicht automatisch in den Energiesparmodus →
Thema verteilen:
Seite 1 von 1