WinFuture-Forum.de: 4TB HDD nicht mehr zugreifbar, Checkdisk versagt - WinFuture-Forum.de

Zum Inhalt wechseln

Nachrichten zum Thema: Prozessoren & Speicher
  • 4 Seiten +
  • 1
  • 2
  • 3
  • 4

4TB HDD nicht mehr zugreifbar, Checkdisk versagt


#1 Mitglied ist offline   Strom 

  • Gruppe: aktive Mitglieder
  • Beiträge: 558
  • Beigetreten: 21. Februar 09
  • Reputation: 0
  • Geschlecht:Männlich

geschrieben 06. Mai 2013 - 18:16

Hallo zusammen,

gleich vorweg: Ich habe keine Daten verloren, und will auch keine Daten wiederherstellen!

Vorwort:
Meine alte 2TB HDD war zum Brechen voll, daher habe ich mir eine neue 4TB Festplatte gegönnt:
Seagate Backup Plus Desktop STCA4000200
Da mein Notebook nur USB2.0 unterstützt, dafür aber eine ESATA-Schnittstelle besitzt, nutze ich schon seit 2009 immer ESATA für meine externen Festplatten.
Leider gab es die 4TB Festplatte nur mit USB3.0. Daher habe ich sie in folgendes Gehäuse umgebaut:
Fantec DB-ALU3e
Meine restliche Soft- und Hardware steht in meiner Signatur.

Problem:
Ich habe meine knapp über 2TB Daten auf die Festplatte kopiert, ohne Probleme.
Nach etwa 5mal an und abstecken der Festplatte (gewöhnliche Nutzung) konnte ich plötzlich nicht mehr auf einen Ordner zugreifen. Kurz danach auch auf die restlichen Ordner nicht mehr. Dann auf die ganze Platte nicht mehr:
Angehängtes Bild: Fehlermeldung.png
Selbstverständlich habe ich es gleich mit Checkdisk versucht, auch, als es noch ein Ordner war, der nicht ansprechbar ist. Das Problem ist, das sich Checkdisk aufhängt. Ich habe es schon eine nacht durchlaufen lassen, aber es bleibt immer stehen.
Ich habe dann nochmal die Festplatte beim Bootvorgang checken lassen, weil man da mehr sieht.
Da wird mir in etwa folgendes angezeigt:
Im Index "$I30" für die Datei "5" wurde ein Fehler gefunden.
Der Fehler in Datei ... wird behoben.

Weiter kommt Checkdisk aber nicht!

Mit der Freeware CheckDisk 1.3 erhalte ich folgende Ausgabe:
checkDisk will work now with drive: F:
F:\ Volume Label: JB-EXT4TB, File System: NTFS
Die Volumebezeichnung lautet JB-EXT4TB.
CHKDSK überprüft Dateien (Phase 1 von 3)...
241920 Datensätze verarbeitet.
Dateiüberprüfung beendet.
0 große Datensätze verarbeitet.
0 ungültige Datensätze verarbeitet.
0 E/A-Datensätze verarbeitet.
0 Analysedatensätze verarbeitet.
CHKDSK überprüft Indizes (Phase 2 von 3)...
Im Index "$I30" für die Datei "5" wurde ein Fehler gefunden.
Im Index "$I30" für die Datei "5" wurde ein Fehler gefunden.
Im Index "$I30" für die Datei "240299" wurde ein Fehler gefunden.
Im Index "$I30" für die Datei "240299" wurde ein Fehler gefunden.
[~~~usw~~~]
Im Index "$I30" für die Datei "241852" wurde ein Fehler gefunden.
Im Index "$I30" für die Datei "241852" wurde ein Fehler gefunden.
263198 Indexeinträge verarbeitet.
Indexüberprüfung beendet.
Fehler gefunden. CHKDSK kann im schreibgeschützten Modus nicht
fortgesetzt werden.
Check Disk Callback: 32
Check Disk: Unable to Finish
Laufwerk kann nicht überprüft werden, wiederholen


Fehler mit Laufwerk: F


Ich habe jetzt etwa zum 5. mal meine Daten auf die Festplatte kopiert, aber jedes mal, nachdem ich alle Daten drauf hatte, und sie gerade anfange normal zu nutzen, kommt es wieder zu diesem Fehler.
Da Checkdisk sich aufhängt, bleibt mir nur eine Neuformatierung.

Zur Festplatte:
- 4TB NTFS Partition
- GPT
- 16k Cluster
- Cache aktiv, da ohne die Festplatte deutlich langsamer ist, auch bei große Dateien.
- Betrieben über ESATA
- Das Externe Gehäuse überträgt die Daten per ESATA direkt, Im Gerätemanager wird die Festplatte, und nicht das Gehäuse erkannt, der Datentransfer wird nicht per LED am externen Festplattengehäuse angezeigt. Daher halte ich das Gehäuse als Ursache, für sehr unwahrscheinlich. Trotzdem versuche ich es jetzt noch einmal mit einem anderen Gehäuse.


Was ich bis jetzt versucht habe:
- Festplatte umgetauscht, neue macht wieder die gleichen Probleme
- 4kB und 16kB Cluster
- zwei Partitionen mit je unter 2TiB

Was ich noch versuchen will (es dauert immer ein paar Tage, die Daten neu aufzuspielen)
- anderes externes Gehäuse verwenden (wohl wenig Aussicht auf Erfolg)


Was ich von euch will :D
- Gründe und Ursachen
- Lösungen


Nachwort:
Ja, ich melde meine Festplatten nicht immer mit "Hardware sicher entfernen ab". Allerdings habe ich das noch nie gemacht, auch nicht mit meinen anderen Festplatten mit größen bis 2TB, und nie gab es solche Probleme. Es macht auch keinen Sinn in Zukunft darauf zu achten, denn irgendwann vergesse ich es doch, bewusst, oder unbewusst. Und dann ist die Kacke am Dampfen, wenn ich dann tatsächlich Daten drauf hatte, die ich noch nicht woanders gesichert hatte. Ich muss mich darauf verlassen können, dass meine Daten sicher auf der Festplatte sind.


Grüße
Strom
Computer sind dazu da, uns die Arbeit zu erleichtern, die wir ohne sie gar nicht hätten.
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
Mein Notebook: Alienware 17 R3
OS: Win10 Pro x64 CPU: Intel Core I7 6700HQ Graka: GeForce GTX970M Ram: 4x4GB
SSD: Samsung 950Pro
0

Anzeige



#2 Mitglied ist online   DK2000 

  • Gruppe: Administration
  • Beiträge: 19.797
  • Beigetreten: 19. August 04
  • Reputation: 1.434
  • Geschlecht:Männlich
  • Wohnort:Oben auf dem Berg
  • Interessen:Essen, PC, Filme, TV Serien...

geschrieben 06. Mai 2013 - 18:59

Wenn der Cache aktiviert ist, muss Du schon de Platte über "Sicher entfernen" trennen, damit sicher gestellt wird, dass der Write Cache geschrieben wird. Ansonsten musst Du den Write Cache deaktivieren.

Aber ob das jetzt mit dem Problem zusammen hängt? Auf jeden Fall gibt es da ein Problem mit dem Index für Verzeichnisse.

Ich würde ja chkdsk mit /r /x /f ausführen. Aber bei der Größe dauert das ein paar Tage, bis das fertig ist. Aber das bringt in sofern nur Erkenntnisse, ob alle Sektoren funktionieren.

Wenn der Fehler immer wieder kommt? Gute Frage. Irgend etwas zerschießt da den Index $I30.

Windows ist aber soweit aktuell upgedatet?
Ich bin kein Toilettenpapier-Hamster.
---
Ich bin ein kleiner, schnickeldischnuckeliger Tiger aus dem Schwarzwald.
Alle haben mich ganz dolle lila lieb.
0

#3 Mitglied ist offline   Strom 

  • Gruppe: aktive Mitglieder
  • Beiträge: 558
  • Beigetreten: 21. Februar 09
  • Reputation: 0
  • Geschlecht:Männlich

geschrieben 06. Mai 2013 - 19:17

Hallo DK2000,

danke für deine Antwort.
Grundsätzlich gebe ich dir recht mit dem Cache. Aber ohne Cache wird die Festplatte echt langsam. Bei meinen anderen Festplatten habe ich den Cache auch aktiviert, ohne das das zu problemen führt. Ich warte natürlich, bis alles geschrieben ist, soweit ich das beurteilen kann. Falls manche Sachen im Cache länger verweilen sollten, obwohl die HDD eigentlich Zeit hätte, diese auf die Disk zu schreiben, dann könnte dies natürlich das Problem sein. Gibt es sowas? Warum passiert das dann aber immer nur bei der 4TB HDD.

Chkdsk habe ich auch schon mit /r /x /f durchlaufen lassen, ohne Erfolg.

Windows ist aktuell.

Irgendwie scheint mir fast, die Probleme kommen erst, wenn ich mehr als 2 oder 2,2 TiB an Daten auf der Festplatte habe, aber das kann ich nicht sicher sagen.


Gruß
Strom

[edit]

Google findet bei:
mft Index "$I30"
einige Einträge. Ersetze ich die 30 durch eine andere Zahl, wird nichts gefunden. Ist es vielleicht doch ein spezielles Problem, was öfters vorkommt?

Dieser Beitrag wurde von Strom bearbeitet: 06. Mai 2013 - 19:31

Computer sind dazu da, uns die Arbeit zu erleichtern, die wir ohne sie gar nicht hätten.
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
Mein Notebook: Alienware 17 R3
OS: Win10 Pro x64 CPU: Intel Core I7 6700HQ Graka: GeForce GTX970M Ram: 4x4GB
SSD: Samsung 950Pro
0

#4 Mitglied ist offline   Sturmovik 

  • Gruppe: aktive Mitglieder
  • Beiträge: 3.776
  • Beigetreten: 10. Januar 08
  • Reputation: 445
  • Geschlecht:unbekannt
  • Wohnort:In Reichweite der Kaffeemaschine
  • Interessen:IT, Luftfahrt, historische Technik

geschrieben 06. Mai 2013 - 19:26

Es gibt eine einfache Möglichkeit das zu testen. Deaktiviere den Schreibcache oder gewöhn dir an, sicher zu entfernen. Ich habs schon häufig erlebt, dass Platten und USB-Sticks abgezogen wurden, bevor der Cache geschrieben wurde, und wann das passiert kann man nie wissen.
Ergebnis: Langes GEsicht bei Präsentationen, weil die Powerpoint Datei noch im Cache war, der Stick aber schon woanders, und ähnliche Dinge.

Es sind zwei Klicks, die das verhindern können.

Edit: Da Checkdisk nichts gefunden hat, wird die Platte wohl in Ordnung sein. Hast du sie auch mal im Originalgehäuse betrieben?
Eventuell gibt es auch Probleme mit der Stromversorgung des Plattengehäuses.

Dieser Beitrag wurde von Sturmovik bearbeitet: 06. Mai 2013 - 19:28

«Geschichte wiederholt sich nicht, aber sie reimt sich» (Mark Twain)

Unix won't hold your hand. You wanna shoot your foot, Unix reliably delivers the shot.

True Cloudstorage
0

#5 Mitglied ist online   DK2000 

  • Gruppe: Administration
  • Beiträge: 19.797
  • Beigetreten: 19. August 04
  • Reputation: 1.434
  • Geschlecht:Männlich
  • Wohnort:Oben auf dem Berg
  • Interessen:Essen, PC, Filme, TV Serien...

geschrieben 06. Mai 2013 - 19:30

Beitrag anzeigenZitat (Strom: 06. Mai 2013 - 19:17)

Irgendwie scheint mir fast, die Probleme kommen erst, wenn ich mehr als 2 oder 2,2 TiB an Daten auf der Festplatte habe, aber das kann ich nicht sicher sagen.

Das würde aber in die Richtung MBR anstelle von GPT gehen oder die GPT Partitionierung ist Fehlerhaft. Da erscheint dann diese Grenze bei ~2.2TB.

Beitrag anzeigenZitat (Strom: 06. Mai 2013 - 19:17)

Google findet bei: mft Index "$I30" einige Einträge. Ersetze ich die 30 durch eine andere Zahl, wird nichts gefunden. Ist es vielleicht doch ein spezielles Problem, was öfters vorkommt?

Die Zahl kann man auch nicht ersetzen, weil diese $I30 Dateien spezielle Dateien sind. Diese werden von Ordnern als Verzeichnisdatei verwendet. Wenn die $I30 komplett kaputt geht, findet der entsprechende Ordner sein Inhalt mehr. Wenn sie nur teilweise kaputt ist, fehlen halt ein paar Dateien im Ordner. Also im Prinzip genau das Problem, was Du hast. Die Frage ist halt bloß, warum das bei Dir so regelmäßig passiert.

Dieser Beitrag wurde von DK2000 bearbeitet: 06. Mai 2013 - 19:54

Ich bin kein Toilettenpapier-Hamster.
---
Ich bin ein kleiner, schnickeldischnuckeliger Tiger aus dem Schwarzwald.
Alle haben mich ganz dolle lila lieb.
0

#6 Mitglied ist offline   Strom 

  • Gruppe: aktive Mitglieder
  • Beiträge: 558
  • Beigetreten: 21. Februar 09
  • Reputation: 0
  • Geschlecht:Männlich

geschrieben 06. Mai 2013 - 20:15

Hallo zusammen,

@ Sturmovik,

ich weiß, mein Anfangspost ist sehr lange. Er beihaltet aber nur wichtige Informationen. Bitte alles lesen und richtig lesen. Ansonsten nützt das nicht.

Den Cache abzustellen ist für mich keine Option. Genausowenig, wie immer "Hardware sicher entfernen" zu nutzen. Das mit den Sticks kenne ich auch, aber so etwas passiert eigentlich nur, wenn man nicht lange genug mit dem Abzeihen gewartet hat, erst recht, da bei Sticks kein Cache existiert.

Checkdisk ist nicht erfolgreich durchgelaufen!

@ DK2000

Zitat

Das würde aber in die Richtung MBR anstelle von GPT gehen oder die GPT Partitionierung ist Fehlerhaft. Da erscheint dann diese Grenze bei ~2.2TB.

Ja genau. Allerdings nutze ich ja GPT. Keine Ahnung. Vielleicht war es auch nur Zufall, weil ich in etwa diese Datenmenge besitze.

Zitat

Die Zahl kann man auch nicht ersetzen, weil diese $I30 Dateien spezielle Dateien sind. Diese werden von Ordnern als Verzeichnisdatei verwendet. Wenn die $I30 komplett kaputt geht, findet der entsprechende Ordner sein Inhalt mehr. Wenn sie nur teilweise kaputt ist, fehlen halt ein paar Dateien im Ordner. Also im Prinzip genau das Problem, was Du hast. Die Frage ist halt bloß, warum das bei Dir so regelmäßig passiert.

Sehr interessant, so etwas habe ich schon vermutet.
Es passiert bei mir glücklicherweise wirklich regelmäßig, sodass ich sehr schnell feststelle, ob es funktioniert, oder nicht. Heute Abend werde ich die Platte wieder formatieren und die Dateien neu kopieren.

Ich habe die Platte übrigens noch nie normal Formatiert, sondern immer schnell. Allerdings ist es ja auch mit der zweiten, neuen Platte das gleiche. Ich denke, die Schnellformatierung sollte reichen, oder? Eine richtige Formatierung würde wahrscheinlich einen Tag dauern, und ich brauche mein Notebook Tagsüber zum Arbeiten. Daher könnte ich diese Aktion nur am Wochenende durchziehen.
Computer sind dazu da, uns die Arbeit zu erleichtern, die wir ohne sie gar nicht hätten.
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
Mein Notebook: Alienware 17 R3
OS: Win10 Pro x64 CPU: Intel Core I7 6700HQ Graka: GeForce GTX970M Ram: 4x4GB
SSD: Samsung 950Pro
0

#7 Mitglied ist offline   RalphS 

  • Gruppe: VIP Mitglieder
  • Beiträge: 8.895
  • Beigetreten: 20. Juli 07
  • Reputation: 1.126
  • Geschlecht:Männlich
  • Wohnort:Zuhause
  • Interessen:Ja

geschrieben 06. Mai 2013 - 21:10

So wie ich das einschätze, hängt sich chkdsk NICHT auf. Es braucht nur lange wegen der viele gefundenen Fehler.

Ich muß einfach mal fragen: WELCHER Cache ist aktiv? Lese- oder Schreibcache? Oder beide? Wenn der Schreibcache gemeint ist, kann es daran liegen.


Du schreibst, Du möchtest keine Dateien wiederherstellen - ich entnehme daraus, daß Dir die Integrität dieser Daten nicht so am Herzen liegt (vermutlich, weil Du sie noch woanders hast).

Wenn dem so sein sollte:
* Auf erwartungsgemäß langandauernde Reparaturen verzichten, Partition(en) wegschmeißen und von vorne anfangen.
* Ggf. überlegen, ob mehrere Partitionen eine Option wären - dann sind in Fällen wie diesem weniger Daten betroffen.
* Quickformat reicht eigentlich immer aus. "Normal" Formatierung bringt nur was, wenn die Integrität der Platte selbst unklar ist (lies: Hardwareproblem).

Und: SMART-Daten prüfen. Vermutlich ist da alles sauber - aber man weiß ja nie. :)
"If you give a man a fish he is hungry again in an hour. If you teach him to catch a fish you do him a good turn."-- Anne Isabella Thackeray Ritchie

Eingefügtes Bild
Eingefügtes Bild
0

#8 Mitglied ist offline   Strom 

  • Gruppe: aktive Mitglieder
  • Beiträge: 558
  • Beigetreten: 21. Februar 09
  • Reputation: 0
  • Geschlecht:Männlich

geschrieben 06. Mai 2013 - 21:27

Hallo RalphS,

neija, wenn Checkdisk genauso lange braucht, wie das neukopieren der Dateien, dann hilft mir das auch nicht, könnt natürlich aber sein.

Der Schreibcache ist aktiv.
Ja, die Daten habe ich noch woanders.
Ich habe das Problem innerhalb von ca. 3 Wochen zum 5. mal. Ich habe immer wieder die Partition gelöscht, oder zumindest formatiert.
Ich hatte auch schon zwei Partitionen drauf. Die waren beide nach kurzer Zeit Schrott, wobei eine entsprechend zuerst kaputt war.
Smart Daten sind in Ordnung.

Im Allgemeinen ist mir bewusst, dass es natürlich gefährlich ist, den Schreibcache zu aktivieren, und nicht mit "Hardware sicher entfernen" die Festplatte zu entfernen. Allerding hatte und habe ich mit damit mit meinen anderen Festplatten nirgends ein Problem, nur mit der 4TB Festplatte.

Mit deaktiviertem Cache ist die Festplatte leider nur halb so schnell bei großen Dateien (warum auch immer). Bei kleinen Dateien will ich es garnicht erst wissen.

Grüße
Strom

Dieser Beitrag wurde von Strom bearbeitet: 06. Mai 2013 - 21:29

Computer sind dazu da, uns die Arbeit zu erleichtern, die wir ohne sie gar nicht hätten.
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
Mein Notebook: Alienware 17 R3
OS: Win10 Pro x64 CPU: Intel Core I7 6700HQ Graka: GeForce GTX970M Ram: 4x4GB
SSD: Samsung 950Pro
0

#9 Mitglied ist offline   Sturmovik 

  • Gruppe: aktive Mitglieder
  • Beiträge: 3.776
  • Beigetreten: 10. Januar 08
  • Reputation: 445
  • Geschlecht:unbekannt
  • Wohnort:In Reichweite der Kaffeemaschine
  • Interessen:IT, Luftfahrt, historische Technik

geschrieben 06. Mai 2013 - 21:35

Wenn Checkdisk die Platte richtig prüfen soll, muss halt jeder Sektor geschrieben un dgelesen werden und das dauert naturgemäß.
Warum lässt du das chkdsk nicht mal laufen, während du das Notebook zum Arbeiten nutzt?

Ich hatte vorhin deinen Satz in Posting#3
"Chkdsk habe ich auch schon mit /r /x /f durchlaufen lassen, ohne Erfolg."
so interpretiert, dass es DURCHgelaufen sei, aber ohne Diagnose.

Was mich wundert, du willst eine Garantie auf Datenintegrität, aber gleichzeitig "unsicheres" Entfernen bei aktiviertem Schreibcache. Das kann nicht funktionieren, egal ob der Schreibcache in der Festplatte sitzt oder wie bei USB-Sticks noch vor dem USB-Anschluss sitzt.

Auf meine NAchfrage nach einem TEst mit dem Originalgehäuse bist du ja gar nicht eingegangen. Es kann nämlich, auch wenn SATA direkt an die Platte durchgereicht wird, Probleme mit dem Gehäuse geben. (Stromversorgung, Kontaktprobleme in der SATA-Strecke)

Wenn es vermehrt ab 2.2TB auftritt, teste es erneut mit 2 Partitionen à 2TB, wie RalphS schon schrieb.

Dieser Beitrag wurde von Sturmovik bearbeitet: 06. Mai 2013 - 21:37

«Geschichte wiederholt sich nicht, aber sie reimt sich» (Mark Twain)

Unix won't hold your hand. You wanna shoot your foot, Unix reliably delivers the shot.

True Cloudstorage
0

#10 Mitglied ist offline   RalphS 

  • Gruppe: VIP Mitglieder
  • Beiträge: 8.895
  • Beigetreten: 20. Juli 07
  • Reputation: 1.126
  • Geschlecht:Männlich
  • Wohnort:Zuhause
  • Interessen:Ja

geschrieben 06. Mai 2013 - 21:38

Kommt halt auch darauf an, wie's mit dem Cache der Festplatte aussieht. Der wird ja (normalerweise) mit Plattengröße auch größer - wenn da 64MB drin stehen und das verfällt, weil noch nicht auf die Platten geschrieben und Strom weg...

Nur so eine Idee.


Was man da machen kann, *ohne* Gewohntes zu ändern... :unsure:

Zumindest *testweise* könntest Du Folgendes versuchen:

- Schreibcache DEaktivieren
(oder)
- Von Sysinternals das "SYNC" Programm holen und zwischen Schreiben und Ausstöpseln ausführen (Kommandozeile, kann man aber auch einfach vom Desktop starten)

und dann schauen, ob es zumindest kurzfristig was bringt.


Das Einfachste ist wohl, die Platte in Partitionen aufzuteilen und diese dann in Unterverzeichnisse einzubinden. Dann muß man sich nichts weiter merken. Nachteil wäre gegebenenfalls, daß die "Unterverzeichnisse" dann nur maximal so groß werden können, wie die Partitionen dahinter (statt maximal jeweils 4TB). Vorteil wäre, daß beim Abstöpseln potentiell nur die Daten auf jenen Partitionen betroffen wären, auf die Du geschrieben hast... und chkdsk würde auch entsprechend schneller gehen, da kleinere Dateisysteme geprüft werden würden.

Von der Größe her schweben mir grad 4 Partitionen zu jeweils 1TB vor. Ggf. auch mehr (kleinere) Partitionen. Aber das hängt natürlich insbesondere davon ab, wie Deine Daten verteilt sind und ob Deine Ordnergrößen stark schwanken oder nicht.

Dieser Beitrag wurde von RalphS bearbeitet: 06. Mai 2013 - 21:39

"If you give a man a fish he is hungry again in an hour. If you teach him to catch a fish you do him a good turn."-- Anne Isabella Thackeray Ritchie

Eingefügtes Bild
Eingefügtes Bild
0

#11 Mitglied ist online   DK2000 

  • Gruppe: Administration
  • Beiträge: 19.797
  • Beigetreten: 19. August 04
  • Reputation: 1.434
  • Geschlecht:Männlich
  • Wohnort:Oben auf dem Berg
  • Interessen:Essen, PC, Filme, TV Serien...

geschrieben 06. Mai 2013 - 21:57

Oder existier da mal wieder eine Inkompatibilität mit Windows und 4TB Platten mit 4k Sektoren?
Ich bin kein Toilettenpapier-Hamster.
---
Ich bin ein kleiner, schnickeldischnuckeliger Tiger aus dem Schwarzwald.
Alle haben mich ganz dolle lila lieb.
0

#12 Mitglied ist offline   Strom 

  • Gruppe: aktive Mitglieder
  • Beiträge: 558
  • Beigetreten: 21. Februar 09
  • Reputation: 0
  • Geschlecht:Männlich

geschrieben 06. Mai 2013 - 21:58

@ Sturmovik,

Zitat

Warum lässt du das chkdsk nicht mal laufen, während du das Notebook zum Arbeiten nutzt?


Ich nehme mein Notebook mit auf die Arbeit, deswegen geht das nicht.

Es hilft mir auch nicht wirklich, wenn ich alle drei Tage 2 Tage lang Checkdisk laufen lassen muss ;D

Zitat

Ich hatte vorhin deinen Satz in Posting#3
"Chkdsk habe ich auch schon mit /r /x /f durchlaufen lassen, ohne Erfolg."
so interpretiert, dass es DURCHgelaufen sei, aber ohne Diagnose.


Missverständniss :-)

Zitat

Was mich wundert, du willst eine Garantie auf Datenintegrität, aber gleichzeitig "unsicheres" Entfernen bei aktiviertem Schreibcache. Das kann nicht funktionieren, egal ob der Schreibcache in der Festplatte sitzt oder wie bei USB-Sticks noch vor dem USB-Anschluss sitzt.

Ich kann mich da echt nur wiederholen: Bei meinen anderen Festplatten funktioniert das ohne Probleme.

Zitat

Auf meine NAchfrage nach einem TEst mit dem Originalgehäuse bist du ja gar nicht eingegangen. Es kann nämlich, auch wenn SATA direkt an die Platte durchgereicht wird, Probleme mit dem Gehäuse geben. (Stromversorgung, Kontaktprobleme in der SATA-Strecke)


Sorry, das habe ich überlesen. Ich habe ja auch schon geschrieben, dass ich das noch nicht gemacht habe, aber ich werde es noch machen, nur dauert das halt immer. Deswegen wollte ich erst einmal Ideen sammeln.

Zitat

Wenn es vermehrt ab 2.2TB auftritt, teste es erneut mit 2 Partitionen à 2TB, wie RalphS schon schrieb.

Wie schon in meinem ersten, zugegebenermaßen langen Post, habe ich das schon versucht.

Es ist für mich allerdings kein Vorteil, nur die hälfte der Daten hzu verlieren. Solange ich diese Probleme mit der Festplatte habe, und sei es nur ein 100MB großer Ordner, kann ich die Festplatte nicht nutzen.

Danke für deine Vorschläge.







@ RalphS,

ich werde wohl noch eine weitere Testreihe, mit deaktiviertem Cache machen. Alledings ist das für mich eigentlich keine Lösung.

Zitat

Das Einfachste ist wohl, die Platte in Partitionen aufzuteilen und diese dann in Unterverzeichnisse einzubinden. Dann muß man sich nichts weiter merken. Nachteil wäre gegebenenfalls, daß die "Unterverzeichnisse" dann nur maximal so groß werden können, wie die Partitionen dahinter (statt maximal jeweils 4TB). Vorteil wäre, daß beim Abstöpseln potentiell nur die Daten auf jenen Partitionen betroffen wären, auf die Du geschrieben hast... und chkdsk würde auch entsprechend schneller gehen, da kleinere Dateisysteme geprüft werden würden.


Das ist echt eine interessante Idee. Allerdings würde ich gern das Problem an den Wurzeln packen, und nicht nur einfach den möglichen Schaden minimieren. Davon mal abgesehen habe ich Tatsächlich Ordner, die über 1TB groß sind.


Grüße
Strom



[edit]

Zitat

Oder existier da mal wieder eine Inkompatibilität mit Windows und 4TB Platten mit 4k Sektoren?

Das Problem tritt, soweit ich gelesen habe, nur mit 512B Sektoren auf. Mit 4k Sektoren kann man wohl bis zu 16TB ansprechen. Davon mal abgesehen habe ich schon seit dem 2. Versuch aus genau diesem Grund 16k Sektoren.

Dieser Beitrag wurde von Strom bearbeitet: 06. Mai 2013 - 22:03

Computer sind dazu da, uns die Arbeit zu erleichtern, die wir ohne sie gar nicht hätten.
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
Mein Notebook: Alienware 17 R3
OS: Win10 Pro x64 CPU: Intel Core I7 6700HQ Graka: GeForce GTX970M Ram: 4x4GB
SSD: Samsung 950Pro
0

#13 Mitglied ist online   DK2000 

  • Gruppe: Administration
  • Beiträge: 19.797
  • Beigetreten: 19. August 04
  • Reputation: 1.434
  • Geschlecht:Männlich
  • Wohnort:Oben auf dem Berg
  • Interessen:Essen, PC, Filme, TV Serien...

geschrieben 06. Mai 2013 - 22:08

Ne, das ist ein Missverständnis. Du kannst nur die Custergröße ändern, welche das NTFS nutzt. Ein Cluster fasst dabei mehrere Sektoren zusammen. An der Sektorengröße kann man nichts ändern. Die ist von der Platte vorgegeben.

Da die Platte ja 4k Sektoren verwendet ist jetzt die Frage, ob diese Größe nach außen weiter gegeben wird oder ob diese sich dennoch mit "nur" 512 Byte Sektoren meldet. Da bin ich noch nicht so ganz bei Seagate durchgestiegen.

Dieser Beitrag wurde von DK2000 bearbeitet: 06. Mai 2013 - 22:09

Ich bin kein Toilettenpapier-Hamster.
---
Ich bin ein kleiner, schnickeldischnuckeliger Tiger aus dem Schwarzwald.
Alle haben mich ganz dolle lila lieb.
0

#14 Mitglied ist offline   RalphS 

  • Gruppe: VIP Mitglieder
  • Beiträge: 8.895
  • Beigetreten: 20. Juli 07
  • Reputation: 1.126
  • Geschlecht:Männlich
  • Wohnort:Zuhause
  • Interessen:Ja

geschrieben 06. Mai 2013 - 22:21

Mh, habe mit meinen AF-Platten eigentlich keine Probleme...

Normal werden da 512-Byte-Sektoren gemeldet.

@Strom: ja, ich hab schon verstanden, daß das für Dich keine Lösung ist. Mir geht's einfach darum (wie Dir ja auch) das Problem an der Wurzel zu fassen: sind die Probleme mit deaktiviertem Cache weg, lag es wohl daran; wenn nicht, müssen wir woanders gucken.

Dieser Beitrag wurde von RalphS bearbeitet: 06. Mai 2013 - 22:21

"If you give a man a fish he is hungry again in an hour. If you teach him to catch a fish you do him a good turn."-- Anne Isabella Thackeray Ritchie

Eingefügtes Bild
Eingefügtes Bild
0

#15 Mitglied ist online   DK2000 

  • Gruppe: Administration
  • Beiträge: 19.797
  • Beigetreten: 19. August 04
  • Reputation: 1.434
  • Geschlecht:Männlich
  • Wohnort:Oben auf dem Berg
  • Interessen:Essen, PC, Filme, TV Serien...

geschrieben 06. Mai 2013 - 22:39

Mit meinen AF-Platten Platten habe ich da auch keine Probleme.
Allerdings ist die größte "nur" 2TB.

Von daher habe ich da keine Ahnung, wie sich Windows mit einer 4TB Platte verhält, welche nicht einzeln gekauft wurde, sondern aus einem Fertiggehäuse ausgebaut wurde.

So wirklich eine Idee habe ich da im Moment nicht, warum sich da immer so regelmäßig die Index Datei zerbröselt.

Dieser Beitrag wurde von DK2000 bearbeitet: 06. Mai 2013 - 22:41

Ich bin kein Toilettenpapier-Hamster.
---
Ich bin ein kleiner, schnickeldischnuckeliger Tiger aus dem Schwarzwald.
Alle haben mich ganz dolle lila lieb.
0

Thema verteilen:


  • 4 Seiten +
  • 1
  • 2
  • 3
  • 4

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0