ich verstehe es einfach nicht mehr, muss ich sagen. Seit Jahren schraube ich gerne an Rechnern und rüste meinen nur zu gerne hier und da wieder auf. Aber was die Grafikkartenhersteller gerade mit uns abziehen, ist doch eine bodenlose Frechheit, oder?
Angefangen hat alles mit "wir müssen schneller werden". Das ist an sich nicht verkehrt.
Darauf folgte "wir dürfen im Leerlauf nicht so sinnlos viel Strom verbraten". Eingeführt war ein dynamisches Takten der Grafikkarte, später noch mit feineren Abstufungen zur Media Beschleunigung, um für jeden Anwendungsbereich im Rahmen bleibend möglichst effizient zu rechnen.
Darauf kamen die Hersteller auf die Idee "wir könnten, solange es im Rahmen der TDP bleibt, einen Boost entwickeln, der die Grafikkarte noch einmal höher taktet, wenn Reserven verfügbar sind". Auch das ist grundsätzlich keine falsche Idee. Hier kann ich aber auch schon langsam die Diskussion anfangen lassen. Angenommen die Karte ist nicht in allen Bereichen beim Rendern ausgelastet (scheint also für die Aufgabe schnell genug zu sein), warum brauche ich in einer Rechenphase, bei der sich Teile der Graka langweilen, noch mehr Takt? Muss ich aus 100 fps dann 103 fps machen und noch mal extra Strom verbrauchen? Es gibt sicher ein zwei Spezialfälle wo aus 22 fps dann vllt. doch 24 fps werden... aber man bedient mit dem "Feature" nun mal nicht ein zwei Leute oder Fälle, sondern ALLE
Jetzt kommt der Oberhammer (und damit auch mein Frust, der mich motiviert das hier mal zur Sprache zu bringen).
Sie verkaufen uns ernsthaft als Feature, dass die Karte so schnell ist, dass sie es nicht aushält, sich z.B. herunter taktet oder alternativ höllisch laut wird (in Referenzmodell-Fällen wohl auch ab und an mal beides) wenn die TDP oder Temperatur überschritten werden. Geht's noch? Wenn ich Auflösung und Details in einem Spiel anpasse, dass es in allen Situationen flüssig spielbar ist, dann würde ich gerne von einer konstanten Leistung ausgehen können, die meine Karte bringt.
Findet ihr das nicht auch bescheuert? Sollte man sich nicht mal zusammen schließen und den Herstellern irgendwie verklickern, dass wir so etwas eigentlich nicht wollen? Bei CPUs ist es zum Glück noch nicht so weit gekommen, dort ist der Turbo einfach nur ein netter Zusatz, der einen Core etwas schneller macht, wenn die anderen nicht gebraucht werden. Dass mehr Strom verbraucht wird oder weniger Leistung zur Verfügung steht ist dadurch beides nicht gegeben. Warum kann das bei den Grafikkarten nicht einfach auch wieder so werden?
Mit der HD7970 Ghz Edition von AMD kratze ich bei dem letzten Punkt wohl noch recht nahe an der Oberfläche. Was AMD in Folge mit der R9 290x abliefert, empfinde ich als bodenlose Frechheit. Genau schlau gemacht, habe ich mich im Hause Nvidia bisher nicht, vermute aber, dass deren High End Karten ähnliches Drossel-Können beweisen.
mfg
SFFox
Dieser Beitrag wurde von SFFox bearbeitet: 03. Februar 2014 - 18:11