Auslagerungsdatei abstellen?
#46
geschrieben 16. März 2017 - 19:11
Ergo, entweder SSD oder defragmentierte hiberfil.sys (soweit das wie Ruhezustand abgehandelt wird) oder sonst irgendeine Form von Layout auf der Festplatte (HDD) wo möglichst wenig SEEKs anfallen. Die sind nämlich schweinelangsam.
Wo jetzt das Problem ist, seine RAM-Ausrüstung am realen Bedarf zu orientieren und außerdem eine SSD zu haben wo die Auslagerungsdatei insbesondere RAUF gepackt wird, will sich mir grad nicht erschließen, aber meh.
Ob wir wohl hier im Forum für neue Threads in den Supportforen eine pauschale Vor-Umfrage einbauen sollten? Damit man schonmal ein standardisiertes Format der Problemstellung hätte. Und wenn man dort "Auslagerungsdateistatus" mit eintragen würde... täte mich persönlich sehr interessieren, wie das a) anteilig bezogen auf die Masse aussieht und b) ob und ggf was für Korrelationen sich zwischen "Auslagerungsdatei aus" und irgendwelchen Problemfeldern zeigen.
Ich mein, wie schon gesagt, wer das ausmachen will soll es ausmachen -- wies wieder angeht hab ich ja weiter oben schrieben --- und dann soll das jeder an seiner eigenen Konfiguration entscheiden, und dann wäre das Ergebnis DAVON dann daß die einen dreimal mehr Performance haben und die anderen eben dreimal mehr Bluescreens und dann kann da jeder schön individuell ohne groß rumzukriegen sein eigen Ding machen.
Anzeige
#47
geschrieben 16. März 2017 - 20:36
#48
geschrieben 16. März 2017 - 20:54
Zitat (IXS: 16. März 2017 - 18:23)
Optimal wäre heutzutage 32GB RAM und davon 4GB für die Ramdisk abzuzweigen und da eine miniatur Auslagerung einsetzen. Aber keinesfalls die standard Temp Ordner in die Ramdisk, weil das zu Updateproblemen führen kann.
Du widersprichst dir meinen deinen Argumenten doch selbst.
Hier empfiehlst du Unmengen an RAM, die heutzutage fast keiner braucht um eine RAM-Disk für die Auslagerungsdatei einzurichten. Andererseits behauptest du, dass das System ohne Auslagerungsdatei sogar bis zu 3 mal so schnell ist.
Die windowseigene Speicherverwaltung ist immer noch die beste Lösung.
#49
geschrieben 16. März 2017 - 20:58
#50
geschrieben 16. März 2017 - 21:03
Zitat (Holger_N: 16. März 2017 - 20:58)
Hey, das klappt ja wirklich.
Ich verkaufe jetzt meinen aktuellen Rechner und hole wieder den alten aus dem Keller.
Ist dann ja gleich schnell.
Muss da jetzt nur noch 32GB RAM reinbekommen, eine RAM-Disk erstellen, die Auslagerungsdatei da drauf packen und dann abschalten.
Dieser Beitrag wurde von Langi bearbeitet: 16. März 2017 - 21:08
#51
geschrieben 16. März 2017 - 21:10
Zitat (Langi: 16. März 2017 - 20:54)
Hier empfiehlst du Unmengen an RAM, die heutzutage fast keiner braucht um eine RAM-Disk für die Auslagerungsdatei einzurichten. Andererseits behauptest du, dass das System ohne Auslagerungsdatei sogar bis zu 3 mal so schnell ist.
Die windowseigene Speicherverwaltung ist immer noch die beste Lösung.
Kennst Du dich überhaupt mit PCs aus? Oder mit Computerhardware und der Funktionsweise?
Lies erst einmal ein paar Bücher. Dann verstehst Du vielleicht, was ich schreibe und kannst das differenzieren ohne Widersprüchlichkeiten darin zu sehen.
16GB RAM sind auch ausreichend. Man kann nur schlecht argumentieren, wenn man auf der anderen Seite Leute vereint sieht, die Arschbacken und Kuchen backen vergleichen neben Power Usern und zwischendrin PC Prolls .... , die zusammen argumentieren. Aber keiner davon, weiß wovon er schreibt. Da kann man nur eine Andeutung machen. Nun, man kann auch hoffen, dass diese Anmerkung richtig verstanden wird. Aber, wie man so durch's Internet surft, finden sich da auch Leute, die meinen es sei Nacht, weil um 12 Uhr Mittag dichte Wolken die Sonne verhängen
#52
geschrieben 16. März 2017 - 21:23
Das mit den Büchern habe ich probiert, aber seit ich deine Tipps befolgt habe, laufen meine E-Books so schnell, dass ich nichts mehr mitbekomme.
#53
geschrieben 16. März 2017 - 21:26
Also eigentlich solls ja auch was bei SSD bringen oder doch nicht?
Bei HDD bringts 3 fache Performance.
Wenn man genug Arbeitsspeicher hat, aber eher nen Einsteiger PC?
Ich weiß es auch nicht so recht.
Dieser Beitrag wurde von Grenor bearbeitet: 16. März 2017 - 21:30
#54
geschrieben 17. März 2017 - 01:12
Zitat (IXS: 16. März 2017 - 20:36)
.... Was mach ich mir eigentlich die Mühe und versuche den Thread so bissel zu moderieren?
Here's the deal. Wenn man der Meinung ist, 'Auslagerungsdatei abschalten' gibt 300% Performance, dann sollte man VIELLEICHT mal nachschauen ob das daran liegen KÖNNTE daß besagte Auslagerungsdatei auf © liegt, wo sie anteilig viel viel Platz wegnimmt, außerdem dynamisch erweiterbar konfiguriert ist UND aus drei Millionen ein fünftel Fragmenten besteht?
Auf einer SSD interessiert das keinen, aber außer Auslagerungsdateien merkt man bei stinknormalen 'größeren' Dateien (sagen wir, 5GB oder mehr) daß wenn man die kopiert und die aus zu vielen Fragmenten bestehen, wie sich da dann die Kopiergeschwindigkeit irgendwo bei drei kB die Sekunde bewegt. Bei Swapfiles ist das nicht anders, die sind schließlich auch nur Dateien.
Und wenn ein System NICHT mit BCC OUT_OF_MEMORY aussteigt, dann liegt das bei deaktivierter Swapfile nur daran, daß (A) man insoweit Glück hat, daß der Startprozeß nicht sooo viele Resourcen braucht (kann allerdings Glückssache sein) oder aber (B) daß Microsoft für solche Fälle den ach so kompetenten Swapfiledeaktivierer vor sich selber beschützt und hinter seinem Rücken DOCH wieder auslagert.
Denn wenn der RAM überläuft, weil er voll ist, dann hat das System keine andere Option als mit BSOD auszusteigen. Was soll es denn tun? 2^33 oder so Bytes an RAM sind verbaut, davon sind (2^33)-3 Bytes zugewiesen, 16 Bytes sollen von irgendeiner Seite reingeschrieben werden und -- ja -- WOHIN DENN?
Und wenn man so ein bissel Ahnung hätte vom Startprozeß dann würde man wissen daß dabei der weitaus größte Ressourcenhunger anfällt, wenn man mal von explizit selber gestarteten hungrigen Anwendungen absieht. Denn hier wird initialisiert, und das hochgradig parallelisiert, und wenn irgendein Dienst oder Treiber gestartet wird,dann ist das erste was da passiert daß dort geschaut wird was überhaupt los ist, und entsprechend erfordert jedes einzelne Stück Software bei ihrem Start MEHR als zur 'regulären' Laufzeit; ergo wenn ich zB explorer.exe starte und ich eine Hausnummer nehme dann wär es alles andere als abwegig daß das Ding zur Initialisierung fünf GB RAM benötigt und zur Laufzeit aber nur fünfzig MB; und dann kommt man natürlich mit 4GB verbautem RAM aus, aber wenn man den PC ANMACHT und die Auslagerungsdatei AUS MACHT ja was meinst Du wohl was da losgeht? Besonders, daß auch noch andere Anwendungen zur selben Zeit starten.
Ja, man kann Swapfiles ausmachen; die Option ist ja schließlich da, muß man nicht mal groß suchen, und es ist nicht das Problem des Anwenders wenn MS das "eigentlich" so gemeint hatte, daß man natürlich Swapping auf C: ausmachen kann wenn man stattdessen Swapping auf D: bis Z: irgendwo AN hat.
Aber es ist ein Risiko, und man riskiert viel mehr, als daß man gewinnt. Auch deswegen, weil ohne Swapping Crashdumps nicht funktionieren.
Warum? Weil Crashdumping selbst auch eine Anwendung ist, und um den Arbeitsspeicher-Inhalt auf Disk zu schreiben, benötige ich RAM; und wenn ich aber 100% RAM schreiben will, dann brauche ich zwangsläufig MEHR als 100% RAM dafür, damit das funktioniert.
Ergo, schalte ich Swapping aus, dann war es das mit aussagekräftigen Crashdumps; und das Ergebnis DAVON ist dann auch nur wieder, daß einem hier Forum nicht geholfen werden WIRD. Wie auch.
#55
geschrieben 17. März 2017 - 09:47
---
Ich bin ein kleiner, schnickeldischnuckeliger Tiger aus dem Schwarzwald.
Alle haben mich ganz dolle lila lieb.
#56
geschrieben 17. März 2017 - 18:58
#57
geschrieben 17. März 2017 - 19:12
Was, wird jetzt gekrümelkackert weil die Argumente ausgehen? Es ist bekannt, daß Swapping und Paging gerne mal synonym verwendet werden, nicht nur von mir, und wenn man bissel reinschaut wird man feststellen daß eins davon mit Auslagerungsdateien nicht soo viel zu tun hat, also im Sinne der Argumentation eh raus fällt. Klar kann man dann immer noch argumentieren, daß Paging mit dem bezeichneten Vorgang nicht viel zu tun hat... aber, ableiten kann man aus demselben Grund ebenfalls nichts daraus.
Mir ist das immer noch schweinewumpe. Lieber hab ich 32GB RAM und 16GB Auslagerungsdatei fix wo ich mit rechnen kann und weiß was wann wie wo sich verhalten wird und insbesondere wo wie wer und warum es knapp werden könnte als daß ich die Kiste remote neu starte und fünf von sechs VMs, die zur Bootzeit mit dem Host starten sollten dann doch nicht starten weil der verwaltbare Arbeitsspeicher nicht reicht als daß ich mich dran aufgeile daß es mit ohne Swapspace um ein Viertelprozent schneller ging (nicht daß das ein Wunder wäre, wenn die vorgesehenen Startprozesse erst gar nicht starten KÖNNEN wegen RAM-Mangel.
Ob der Spaß dann jetzt linear nach Prozeß getrennt im RAM steht oder ob das analog HDD-Verwaltung in Seiten aufgeteilt ist ist da nur insoweit relevant, daß es *ohne* die Seiten noch viel schneller crashen würde und wie weiter oben erwähnt hatte ich mich da auf "Problem weil mehr als 100% RAM beschrieben werden sollen" berufen und nicht auf "aber es gibt nen Prozeß der fünf GB belegt und es gibt nen Prozeß der 1GB belegt und die stehen so scheiße im RAM daß da effektiv kein Platz mehr für andere Software ist", weil DANN könnten wir jetzt mit QEMM für DOS kommen.
#58
geschrieben 17. März 2017 - 19:15
#59
geschrieben 17. März 2017 - 21:12
Zitat (RalphS: 17. März 2017 - 19:12)
Aber von Dir hätte ich da schon erwartet, dass Du das richtig verwendest, zumal ab Windows 8 ja beides verwendet wird. Daher sollte man das schon differenzieren.
Und was meinst Du mit 'BCC OUT_OF_MEMORY'? Ich habe da auch schon lange ohne Auslagerungsdatei gearbeitet (jetzt mit SSD ist mir das egal), aber irgendwelche Probleme sind mir da nie untergekommen, obwohl nur 8GB installiert waren. Und ein 'BCC OUT_OF_MEMORY' habe ich da wirklich nie gesehen. Selbst bei Google finde ich nichts gescheites dazu.
Aber wie auch immer. Das Thema Auslagerungsdatei scheint da immer noch ein sehr brisantes Thema zu sein.
---
Ich bin ein kleiner, schnickeldischnuckeliger Tiger aus dem Schwarzwald.
Alle haben mich ganz dolle lila lieb.
#60
geschrieben 17. März 2017 - 22:30
Zitat (DK2000: 17. März 2017 - 21:12)
Wenn seine Beiträge nicht immer wie "copy und paste" aussehen würden....
Zitat
Und was meinst Du mit 'BCC OUT_OF_MEMORY'? Ich habe da auch schon lange ohne Auslagerungsdatei gearbeitet (jetzt mit SSD ist mir das egal), aber irgendwelche Probleme sind mir da nie untergekommen, obwohl nur 8GB installiert waren. Und ein 'BCC OUT_OF_MEMORY' habe ich da wirklich nie gesehen. Selbst bei Google finde ich nichts gescheites dazu.
Die Logik ist dabei noch, dass bei ausgeschalteter Auslagerung der RAM mehr genutzt wird. Also, fehlerhafter Speicher, sowie fehlerhafte Software, fällt eher auf und kann Bluescreen produzieren. Wenn der PC aber in Ordnung ist, gibt es nie Bluescreens. Programme, die nicht genügend Speicher bekommen, laufen einfach nicht , und gut.
Zitat
Aber wie auch immer. Das Thema Auslagerungsdatei scheint da immer noch ein sehr brisantes Thema zu sein.
Brisant ist nur das Unverständnis. Man muss sich eben überlegen, was man mit seinem PC machen will und kann so ECHTE Optimierungen vornehmen. Dabei ist es egal, ob langsame Netbooks im Systemverhalten 3 mal schneller werden, oder ob man die effektive Lebensdauer seines PCs erhöhen will.
- ← windows zurückgesetzt meldung "lizenz läuft bald ab"
- System & Software - Windows 10
- installationsstick für win10 und win7 →