WinFuture-Forum.de: SSD defragmentieren - WinFuture-Forum.de

Zum Inhalt wechseln

Nachrichten zum Thema: Hardware
  • 2 Seiten +
  • 1
  • 2

SSD defragmentieren

#16 Mitglied ist offline   Doodle 

  • Gruppe: aktive Mitglieder
  • Beiträge: 2.997
  • Beigetreten: 09. Februar 12
  • Reputation: 293

geschrieben 03. November 2018 - 17:59

Hier kann man dazu was lesen. Mit dem herkömmlichen Defragmentieren hat das anscheinend nicht viel gemeinsam. Gehört habe ich von der Methode allerdings bislang auch noch nichts. Es sollen weniger Speicherzellen ausgelesen und beim Ändern der Datei neu beschrieben werden müssen, was ja zunächst mal vernünftig klingt. Ich bin da aber etwas skeptisch, ob das alles wirklich so Vorteile bringt.

Edit: War oben jemand schneller mit dem Link. :P

Dieser Beitrag wurde von Doodle bearbeitet: 03. November 2018 - 18:01

0

Anzeige



#17 Mitglied ist offline   RalphS 

  • Gruppe: VIP Mitglieder
  • Beiträge: 8.356
  • Beigetreten: 20. Juli 07
  • Reputation: 975

geschrieben 03. November 2018 - 18:24

Ich sag mal so, von der Theorie könnte das schon passen, was da geschrieben steht.


Allerdings hängt da nochmal der Controller der SSD dazwischen - Stichwort Wear Levelling.

Nach meinem Verständnis sind moderne Controller auch in der Lage, Daten vorm Schreiben zu optimieren, sodaß eben nicht n viele NTFS-Cluster in ebensoviele SSD-Blöcke geschrieben werden.


Ich bin ja langer Freund von O&O, schon seitdem die in direkter Konkurrenz zu den Norton Utilities standen -- lange isses her.

Aber, seit diesem "Shutup" Tool geht es mit denen gefühlt bergab. Gut, ich mein, ist schon irgendwo nachvollziehbar: die wollen ihren Kram loswerden und da Anwender im Laufe der Zeit "SSD plus evtl ne HDD dazu" einsetzen statt "hauptsächlich" oder sogar "ausschließlich HDD", naja, da müssen sie wohl sehen, wie sie ihr Defrag-Tool loswerden. Hm? Vielleicht wäre eine Abkehr davon sinnvoller.... :unsure: ist ja nicht so, als ob die nicht noch genug anderes in ihrer Produktpalette hätten.



Nope, in diesem Fall reden wir wirklich von Schlangenöl.
"If you give a man a fish he is hungry again in an hour. If you teach him to catch a fish you do him a good turn."-- Anne Isabella Thackeray Ritchie

Eingefügtes Bild
Eingefügtes Bild
1

#18 Mitglied ist offline   Sturmovik 

  • Gruppe: aktive Mitglieder
  • Beiträge: 3.763
  • Beigetreten: 10. Januar 08
  • Reputation: 441

geschrieben 03. November 2018 - 18:49

Diese SOLID-MEthode verspricht, dass weniger Speicherzellen belegt werden und damit weniger Zellen gelesen werden muessen und damit schneller gelesen werden kann und die SSD weniger belastet wird. So zumindest das Marketing.

Schaun wir uns das mal naeher an:
1. Lesezugriffe belasten die Lebensdauer der Zellen nicht.
2. Der Flaschenhals ist meist noch die SATA3-Anbindung bzw. die begrenzt verfuegbaren PCIe-Lanes.
3. Nach meinem Wissensstand ist die Groesse einer Zelle in der Naehe eines Bit (TLC-Speicher kann drei Zustaende ausser Null speichern), daher sehe ich hier kein Potential fuer eine Optimierung durch irgendwelche Tools.
Aber evtl ist hier mein Wissensstand etwas daneben.

Was vielleicht gemeint ist:
SSD-Controller verteilen Daten beim Schreiben auf mehrere Chips. Diese werden allerdings parallel beschrieben/gelesen, sodass die Performance steigt, je MEHR davon gleichzeitig genutzt werden. Damit waere diese ominoese SOLID-Methode sogar kontraproduktiv.

Und zu guter Letzt: Neuorganisation der Daten auf andere Zellen bedeutet eine Menge Schreibzugriffe.

Daher mein bescheidenes Urteil: Bullshit-Software.

Dieser Beitrag wurde von Sturmovik bearbeitet: 03. November 2018 - 18:51

«Geschichte wiederholt sich nicht, aber sie reimt sich» (Mark Twain)

Unix won't hold your hand. You wanna shoot your foot, Unix reliably delivers the shot.

True Cloudstorage
2

#19 Mitglied ist offline   RalphS 

  • Gruppe: VIP Mitglieder
  • Beiträge: 8.356
  • Beigetreten: 20. Juli 07
  • Reputation: 975

geschrieben 03. November 2018 - 20:19

Es gibt eigentlich nur eine Möglichkeit, bei Zugriffsgeschwindigkeiten und Lebensdauer nachzuhelfen (im positiven Sinne) und das ist, wenn man (logisch) aufeinanderfolgende Dateicluster (aus dem Dateisystem) in einzelne SSD-Seiten einlagert.

Sprich, ich hab eine Datei, die ist 1 (binäres) Megabyte groß und paßt genau in eine Speicherseite auf der SSD, also schreib ich die in genau eine Speicherseite. (Als Hausnummer, nicht daß mir wieder wer mit "aber die schreiben doch in dreiviertel-K" kommt).


SSDs funktionieren wie RAM: ich kann nicht auf einzelne Bits zugreifen und wenn ich schreiben will, muß ich erst lesen. Ergo kann ich hergehen und kann RAM-Optimierungstechnologien auf SSDs anwenden, muß aber dran denken, daß Schreibzugriffe noch teurer sind als bei RAM.

Wenn ich also dafür sorgen kann, möglichst wenig lesen zu müssen, um eine Speicherwseite schreiben zu können, dann hab ich optimiert. Und wenn ich dafür sorgen kann, daß Dinge, die in eine Speicherseite passen würden, nicht auf mehr-als-eine verteilt werden, dann hab ich ebenfalls optimiert.


ABER das ist Aufgabe des Controllers, denn DER trennt die logischen Zugriffe (alles was von außen in die SSD rein will) von den physischen (alles was zwischen Controller und Flash-Speicher passiert).

Software hat darauf (bisher) keinen Zugriff und soll den auch nicht haben, sonst müßte nämlich das jeweilige OS den Überblick über die einzelnen Speicherzellen behalten: wie viele, wie alt ist jede, wie voll sind die, etc etc etc.


Sprich, egal was O&O Irgendwas™ macht... spätestens nach dem SSD-Controller ist die ganze Arbeit umsonst gewesen, AUßER natürlich O&O arbeitet mit den Controllerherstellern zusammen und die lassen O&O auf Controllerfunktionen von außen zugreifen.

Nicht wahrscheinlich... aber ich schätze mal, auch nicht vollends ausgeschlossen.
"If you give a man a fish he is hungry again in an hour. If you teach him to catch a fish you do him a good turn."-- Anne Isabella Thackeray Ritchie

Eingefügtes Bild
Eingefügtes Bild
1

#20 Mitglied ist offline   Reteibeg 

  • Gruppe: aktive Mitglieder
  • Beiträge: 39
  • Beigetreten: 24. November 14
  • Reputation: 3

geschrieben 03. November 2018 - 20:33

Es gibt dast Programm "Smart Defrag". Dieses hat für SSDs eine Trimmfunktion.
0

#21 Mitglied ist offline   Sturmovik 

  • Gruppe: aktive Mitglieder
  • Beiträge: 3.763
  • Beigetreten: 10. Januar 08
  • Reputation: 441

geschrieben 03. November 2018 - 22:35

Fuer TRIM brauchst du kein "Smart Defrag" oder sonst irgendeine Schlangenoelsoftware, das kann Windows von Haus aus. :rolleyes:
«Geschichte wiederholt sich nicht, aber sie reimt sich» (Mark Twain)

Unix won't hold your hand. You wanna shoot your foot, Unix reliably delivers the shot.

True Cloudstorage
2

#22 Mitglied ist offline   Ler-Khun 

  • Gruppe: aktive Mitglieder
  • Beiträge: 2.535
  • Beigetreten: 16. Dezember 06
  • Reputation: 147

geschrieben 04. November 2018 - 14:45

Beitrag anzeigenZitat (Sturmovik: 03. November 2018 - 18:49)


Schaun wir uns das mal naeher an:
1. Lesezugriffe belasten die Lebensdauer der Zellen nicht.


Nope. Auch bei SSDs trifft diese Aussage genauso wenig zu, wie es seit Jahren schon für HDDs gerne behauptet wird.
Das NT-Filessystem dokumumentiert das bloße Aufrufen einer Datei -außer man stellt es explizit händisch ab. Es werden werden für jede Datei 64 Bit geschrieben.

Ergo sind Festplatten, oder Flashspeicher "theoretisch" sogar kaputtlesbar sozusagen -zumindest unter Ntfs.

Via Tapatalk

Dieser Beitrag wurde von Ler-Khun bearbeitet: 04. November 2018 - 14:47

MfG


Niemand hat dich gefragt, ob du leben willst. Also hat dir auch niemand zu sagen, wie du leben sollst!
0

#23 Mitglied ist offline   RalphS 

  • Gruppe: VIP Mitglieder
  • Beiträge: 8.356
  • Beigetreten: 20. Juli 07
  • Reputation: 975

geschrieben 04. November 2018 - 17:46

Und jetzt? Es ging um Lesezugriff auf die Zellen, nicht um Lesezugriff auf Dateien oder sonstwas.
"If you give a man a fish he is hungry again in an hour. If you teach him to catch a fish you do him a good turn."-- Anne Isabella Thackeray Ritchie

Eingefügtes Bild
Eingefügtes Bild
0

#24 Mitglied ist offline   Ler-Khun 

  • Gruppe: aktive Mitglieder
  • Beiträge: 2.535
  • Beigetreten: 16. Dezember 06
  • Reputation: 147

geschrieben 04. November 2018 - 20:20

Und jetzt? Topic/Ausgangspost nicht verstanden?

Via Tapatalk
MfG


Niemand hat dich gefragt, ob du leben willst. Also hat dir auch niemand zu sagen, wie du leben sollst!
0

#25 Mitglied ist offline   Sturmovik 

  • Gruppe: aktive Mitglieder
  • Beiträge: 3.763
  • Beigetreten: 10. Januar 08
  • Reputation: 441

geschrieben 04. November 2018 - 20:51

Das Aktualisieren der access-time tritt in jedem Fall auf, ob "SOLID-Defragmentiert" oder nicht und kuerzt sich daher aus der Gleichung raus.
«Geschichte wiederholt sich nicht, aber sie reimt sich» (Mark Twain)

Unix won't hold your hand. You wanna shoot your foot, Unix reliably delivers the shot.

True Cloudstorage
0

#26 Mitglied ist offline   RalphS 

  • Gruppe: VIP Mitglieder
  • Beiträge: 8.356
  • Beigetreten: 20. Juli 07
  • Reputation: 975

geschrieben 04. November 2018 - 21:22

Wo steht im Ausgangspost was von accesstimes? :veryangry: Erstmal selber lesen und verstehen und dann über andere aufregen.


Es ging darum, daß DER LESEVORGANG auf einer Speicherzelle nondestruktiv ist. Ich kann einfach lesen. Passiert nichts. Bei RAM müßte ich jetzt einen Refresh machen, damit der Inhalt der Speicherseite nicht verloren geht - das wäre destruktiv.

Daß man außer Lesen auch noch schreiben kann, sollte auf der Hand liegen. Windows schreibt auf jedem Datenträger rum, nicht nur in den accesstimes; auch der MFT wird reorganisiert wenn nötig, Indices werden aktualisiert, gibt genug Dinge, die da im Hintergrund passieren (können).


All das ändert nichts an der Tatsache, daß ein einfacher Lesevorgang nondestruktiv ist.

Es hat noch nichtmal was damit zu tun.


Was das für einen EINFLUß hat auf die Lebensdauer der SSD ist AUSSCHLIEßLICH Sache des Controllers. Der muß nämlich "überlegen" bzw "entscheiden" ob er alles was am Hostinterface ankommt blindlings durchgeschrieben wird oder ob vorher eine gewisse Reorganisation stattfindet.

Wenn die Daten erstmal auf der SSD *SIND*, dann ist das ohnehin scheißegal. Denn die SSD kann nicht einfach mal fünf Bytes lesen, sondern immer noch nur die Speicherseite. Der Aufwand, aus der Speicherseite die richtige Information zu extrahieren, bleibt höher als der potentielle Nutzwert, Daten so anzuordnen, daß *irgenwelche* Daten absichtlich zusammengelegt werden.

Was nicht mal funktioniert wegen Wear Levelling.

Software kann da nicht optimieren. Die bekommt keinen Zugriff. Und entweder schreibt der SSD-Controller für jede accesstime-Aktualisierung eine neue Speicherseite -- dann ist das ein Scheißcontroller und man sollte sich ne neue SSD mit einem anderen Controller besorgen. Oder er tut es nicht und dann ist das egal.

Dieser Beitrag wurde von RalphS bearbeitet: 04. November 2018 - 21:29

"If you give a man a fish he is hungry again in an hour. If you teach him to catch a fish you do him a good turn."-- Anne Isabella Thackeray Ritchie

Eingefügtes Bild
Eingefügtes Bild
0

Thema verteilen:


  • 2 Seiten +
  • 1
  • 2

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0