WinFuture-Forum.de: Mainboard + CPU + Arbeitsspeicher - WinFuture-Forum.de

Zum Inhalt wechseln

  • 2 Seiten +
  • 1
  • 2

Mainboard + CPU + Arbeitsspeicher

#16 Mitglied ist offline   Mr. Floppy 

  • Gruppe: VIP Mitglieder
  • Beiträge: 4.126
  • Beigetreten: 01. Juli 08
  • Reputation: 271
  • Geschlecht:Männlich

geschrieben 21. Oktober 2011 - 10:18

Beitrag anzeigenZitat (Sopho: 20. Oktober 2011 - 22:23)

Ich möchte aber mnicht, wenn ich mir noch ne 2. karte gönne., ein neues Board kaufen müssen!!!!!
Man will Dich hier nur davor bewahren, unnötig Geld zum Fenster hinaus zu werfen. Wenn Du nicht gerade auf mehreren FHD+ Monitoren spielst, reicht auch eine Grafikkarte völlig aus. Und wie wahrscheinlich ist es, daß Du Dir in Zukunft eine weitere, dann veraltete, 460 GTX kaufst, wenn es fürs selbe Geld eine doppelt so schnelle Einzelkarte gibt? Von den anderen Nachteilen (Stromverbrauch, Lärm, Hitze, Mikroruckler) will ich gar nicht erst anfangen. Na ja, mußt Du selbst wissen.

Beitrag anzeigenZitat (Sopho: 20. Oktober 2011 - 22:23)

SSD caching fand ich eigentlich gut, da braucht man nur eine ganz kleine SSD (20 GB).
Davon halte ich ehrlich gesagt nicht viel. Gerade SSDs, die nicht im Sweet Spot von z.Zt. 120 GB liegen, sind unverhältnismäßig teuer. Bei den kleineren kommt hinzu, daß sie auch nicht gerade schnell im Vergleich zu ihren größeren Brüdern sind. Wenn man eine SSD einsetzt, dann am besten direkt. Ich frage mich auch, wie die Daten auf der HDD konsistent gehalten werden. Was passiert z.B. bei einem Stromausfall oder Absturz des Rechners? Mit einem Transaktionskonzept könnte man dem zwar entgegenwirken, aber ich sehe immer noch Möglichkeiten für einen Datenverlust.

Beitrag anzeigenZitat (Sopho: 21. Oktober 2011 - 07:49)

Ich habe gelesen, dass man bei Z Bords, ich glaube ich habe es im Zusammenhang mit Gigabyte Boards gelesen, im Destopbetrieb die Intelgrafik benutzen kann und zum Spielen die Grafikkarte. Wie Bei Notebooks.
Du meinst bestimmt Lucid Virtu. Prinzipiell kann man zwar beide Grafikchips verwenden, aber es bringt keinerlei Stromersparnis. Im Gegensatz zu einem Notebook kann man die Grafikkarte nämlich nicht abschalten. Die dedizierte Karte läuft also ganz normal im Idle weiter. Einen Vorteil hat dieser Mischbetrieb nur in sehr wenigen Situationen. So reicht die integrierte Grafik z.B. für Videos aus und die große Grafikkarte muß nicht hochtakten, was sie im Videobetrieb oft unsinnigerweise tut. Auf der anderen Seite hat man einen weiteren Treiber, der ein wenig an der Performance zieht und, viel schlimmer, für Probleme sorgen kann.
0

Anzeige



#17 Mitglied ist offline   sermon 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.181
  • Beigetreten: 12. März 08
  • Reputation: 162
  • Geschlecht:Männlich
  • Wohnort:Bielefeld

geschrieben 21. Oktober 2011 - 10:20

Anscheinend hast du ein persönlich Problem mit mir...

Nun ja, vielleicht will ich dich fragend auf einen bestimmten Weg bringen, denn du selbst erkennen könntest.
btw. von dir habe ich immer noch nicht eine Antwort auf meine Frage bezüglich des Einsatzgebietes gehört.

Und was soll ich Vorschlagen. Die relevanten Boards wurden vorgeschlagen. Ich an deiner Stelle würde um Gigabyte einen großen Bogen machen. Den derzeit sind diese nicht wirklich berauschend. Lieber ASUS oder die Tochterfirma ASrock. Von beiden Firmen wurde schon was vorgeschlagen.
Ich tendiere aber weiterhin zu einem P67 Board. Logischerweise das ASUS P8P67 Rev. 3.0 Das hat alles was man braucht. Sogar SLI/X-fire fähig. IMHO das beste P/L-Verhältnis.

Außerdem glaube ich, dass die dedizierte Grafikkarte bei dir stark genug runtertakten wird im IDLE, so dass sich das nicht viel nimmt mit der integrierten GPU...
Eingefügtes Bild
Eingefügtes Bild
0

#18 Mitglied ist offline   Mr. Floppy 

  • Gruppe: VIP Mitglieder
  • Beiträge: 4.126
  • Beigetreten: 01. Juli 08
  • Reputation: 271
  • Geschlecht:Männlich

geschrieben 21. Oktober 2011 - 10:35

Beitrag anzeigenZitat (sermon: 21. Oktober 2011 - 10:20)

Außerdem glaube ich, dass die dedizierte Grafikkarte bei dir stark genug runtertakten wird im IDLE, so dass sich das nicht viel nimmt mit der integrierten GPU...
Na ja, die GTX 460 gönnt sich im Idle um die 15 W (klick). Das ist zwar gut, aber sehr viel mehr als der IGP, dessen TDP wahrscheinlich nicht mal so hoch liegt. Ändern kann man daran aus o.g. Gründen momentan aber leider nichts. Ich habe ja die Hoffnung, daß die Grafikkarte in Zukunft auch in Desktops nahezu stromlos geschaltet werden kann. Im Prinzip steckt ja in allen gängigen CPUs oder Chipsätzen eine integrierte Grafik, auf die man dann wechseln kann. Bei den ganzen Stromsparmechanismen eigentlich verwunderlich, daß das nicht längst der Fall ist.

Dieser Beitrag wurde von Mr. Floppy bearbeitet: 21. Oktober 2011 - 10:37

0

#19 Mitglied ist offline   sermon 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.181
  • Beigetreten: 12. März 08
  • Reputation: 162
  • Geschlecht:Männlich
  • Wohnort:Bielefeld

geschrieben 21. Oktober 2011 - 11:13

Im Idle zieht der Core i5-2500K 36 Watt (Klick) die GTX 460 dazu, macht 51 Watt. Tun diese 15 Watt wirklich so sehr weh? Ich bezweifel das mal stark :)
Zumal du ja eh sagst, dass die Graka trotzdem im IDLE mitläuft trotz switchen zwischen IGP und dedizierte Grafik.

Dieser Beitrag wurde von sermon bearbeitet: 21. Oktober 2011 - 11:14

Eingefügtes Bild
Eingefügtes Bild
0

#20 Mitglied ist offline   Leshrac 

  • Gruppe: VIP Mitglieder
  • Beiträge: 1.521
  • Beigetreten: 14. November 05
  • Reputation: 140
  • Geschlecht:Männlich
  • Wohnort:Whangaroa (NZ)

geschrieben 21. Oktober 2011 - 11:27

Beitrag anzeigenZitat (sermon: 21. Oktober 2011 - 10:20)

Anscheinend hast du ein persönliches Problem mit mir...

So hat er das wohl nicht, nur folgen deine beitraege immer dem gleichen schema: Du schreibst viel mit wenig produktivem inhalt. Der grossteil ist trivial, und ein kleiner teil ist oft schlicht faktisch falsch oder mit gefaehrlichem halbwissen durchsetzt. Wobei, schon einmal ueber eine karriere in der politik nachgedacht? :lol:

Beitrag anzeigenZitat (Mr. Floppy: 21. Oktober 2011 - 10:18)

Mikroruckler

Aber Floppy, das weisst du doch besser ;)
Das gehoert schon lange der vergangenheit an, dennoch haelt sich dieser mythos hartnaeckig. AFR2 mit Vsync und triple buffering = smoothness vom feinsten.
Der kommende Nvidia treiber wird sogar einen nativen frame-limiter beinhalten, der Vsync ueberfluessig machen wird und dennoch tearing effektiv vermeidet.

#just sayin'...
0

#21 Mitglied ist offline   Mr. Floppy 

  • Gruppe: VIP Mitglieder
  • Beiträge: 4.126
  • Beigetreten: 01. Juli 08
  • Reputation: 271
  • Geschlecht:Männlich

geschrieben 21. Oktober 2011 - 12:13

Beitrag anzeigenZitat (sermon: 21. Oktober 2011 - 11:13)

Im Idle zieht der Core i5-2500K 36 Watt (Klick) die GTX 460 dazu, macht 51 Watt.
Da wurde, wie fast überall, das Gesamtsystem gemessen.

Beitrag anzeigenZitat (sermon: 21. Oktober 2011 - 11:13)

Tun diese 15 Watt wirklich so sehr weh?
Sie müßten halt nicht sein. Mit 15 W kann man einen kompletten Rechner im Idle betreiben!

Beitrag anzeigenZitat (Leshrac: 21. Oktober 2011 - 11:27)

Aber Floppy, das weisst du doch besser ;)
Ehrlich gesagt, nein. Ich hatte noch nie ein SLI-System im Einsatz und spiele eigentlich seit Jahren nicht mehr, jedenfalls nichts Aufwendiges. Das mit den Rucklern geisterte noch in meinem Kopf herum. Wenn das inzwischen gelöst wurde, umso besser. Trotzdem stehe ich SLI, Crossfire oder wie es sich auch schimpfen mag, skeptisch gegenüber. Aus eigener Erfahrung weiß ich, daß sich nicht alles so schön parallelisieren läßt. Da würde es mich schon ärgern, wenn ich 200% bezahle aber nur 150% bekomme.

#just replyin'...
0

#22 Mitglied ist offline   sermon 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.181
  • Beigetreten: 12. März 08
  • Reputation: 162
  • Geschlecht:Männlich
  • Wohnort:Bielefeld

geschrieben 21. Oktober 2011 - 12:30

Beitrag anzeigenZitat (Mr. Floppy: 21. Oktober 2011 - 12:13)

Sie müßten halt nicht sein. Mit 15 W kann man einen kompletten Rechner im Idle betreiben!

Ich finde, wer in ein "Gaming" Rechner investiert, denn dafür werden wahrscheinlich die beiden Grafikkarten genutzt werden, der sollte nicht wegen 15 Watt mosern...
Aber gut, soll sich der TO zu Wort melden.
Auf das Einsatzgebiet bin ich immer noch gespannt. Derzeit stelle ich nur Spekulationen an.
Eingefügtes Bild
Eingefügtes Bild
0

#23 _Dr Bakterius_

  • Gruppe: Gäste

geschrieben 21. Oktober 2011 - 12:53

Bis auf die IGP sind die anderen Features des Z Boardes vernachlässigbar, gut bei baugleichen Boards fällt der Preis kaum ins Gewicht. Es würde sich zb das ASRock Z68 Extreme3 Gen3 und dieser TeamGroup Elite DIMM Kit 8GB anbieten. Als CPU dürfte der i5 2500k reichen für das zocken, und solange man kein OC betreibt reicht der Boxed Kühler.
0

#24 Mitglied ist offline   Sopho 

  • Gruppe: aktive Mitglieder
  • Beiträge: 22
  • Beigetreten: 11. Oktober 11
  • Reputation: 1

geschrieben 21. Oktober 2011 - 15:36

Beitrag anzeigenZitat (Dr Bakterius: 21. Oktober 2011 - 12:53)

Bis auf die IGP sind die anderen Features des Z Boardes vernachlässigbar, gut bei baugleichen Boards fällt der Preis kaum ins Gewicht. Es würde sich zb das ASRock Z68 Extreme3 Gen3 und dieser TeamGroup Elite DIMM Kit 8GB anbieten. Als CPU dürfte der i5 2500k reichen für das zocken, und solange man kein OC betreibt reicht der Boxed Kühler.

Ich glaube das werd ich nehmen, hört sich gut an.
Ich will noch kein SLI einsetzen,aber ich möchte es können, ist das so schwer zu verstehen!
Einsatzgebiete: Spielen ( Metro, BF2 u 3, Cysis2 u.s.w)
0

#25 Mitglied ist offline   Daniel 

  • Gruppe: aktive Mitglieder
  • Beiträge: 6.565
  • Beigetreten: 24. Mai 06
  • Reputation: 14
  • Geschlecht:Männlich

geschrieben 21. Oktober 2011 - 17:42

Zitat

Der kommende Nvidia treiber wird sogar einen nativen frame-limiter beinhalten, der Vsync ueberfluessig machen wird und dennoch tearing effektiv vermeidet

Wieso "und dennoch"? Wenn die frames tatsächlich unter den Wert der Bildwiederholfrequenz limitiert werden, dann kann sowieso kein tearing auftreten. Ich bin mir zumindest relativ sicher. Außerdem interessiert mich wo du das her hast, weil ich da gerne mehr drüber lesen würde.
Eingefügtes Bild
0

#26 Mitglied ist offline   Leshrac 

  • Gruppe: VIP Mitglieder
  • Beiträge: 1.521
  • Beigetreten: 14. November 05
  • Reputation: 140
  • Geschlecht:Männlich
  • Wohnort:Whangaroa (NZ)

geschrieben 22. Oktober 2011 - 08:40

@Floppy, auch das hat sich sehr zum positiven entwickelt. Eine 90%+ steigerung laesst sich nicht mehr selten erreichen, CUDA kommt nahe an die 100% heran.

@Daniel, e.g. direkt hier aus dem NVidia forum.
Das "dennoch" insofern, dass hierbei eben ein natives capping auf die genaue framezahl stattfinded, es laesst sich also exact die framerate einstellen, die auch der monitor wiedergeben kann. Mit bisherigen dritt-tools wie etwa d3doverrider o.a. war das so bislang nicht moeglich, den ein oder anderen framespike hatte man so immer einmal wieder zwischendurch dabei, verbunden mit dem laestigen tearing.
Und Vsync + triple buffer geht eben auch immer gering zu lasten der performance, daher ist diese frame-limiter loesung eine win-win sache.
0

#27 Mitglied ist offline   Daniel 

  • Gruppe: aktive Mitglieder
  • Beiträge: 6.565
  • Beigetreten: 24. Mai 06
  • Reputation: 14
  • Geschlecht:Männlich

geschrieben 22. Oktober 2011 - 13:49

Okay danke dafür... übrigens du solltest mal wieder Urlaub in Deutschland machen. Man siehts deiner Schreibweise echt an..."stattfinded"..."exact"...lol
Eingefügtes Bild
0

#28 Mitglied ist offline   Leshrac 

  • Gruppe: VIP Mitglieder
  • Beiträge: 1.521
  • Beigetreten: 14. November 05
  • Reputation: 140
  • Geschlecht:Männlich
  • Wohnort:Whangaroa (NZ)

geschrieben 24. Oktober 2011 - 10:48

Urlaub in Deutschland? Ne wer's mag... :D
Was der spellcheck nicht direkt ankreidet, bleibt eben "anglizisiert" :P

Bin auch gespannt, wie gut oder schlecht das in diesem treiber implementiert wird. In der theorie klingt das ja schon genial, wenn die umsetzung genau wie gedacht statt findet (besser? :D), wird dieser kommende treiber wohl ein richtiger meilenstein.
0

Thema verteilen:


  • 2 Seiten +
  • 1
  • 2

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0