Fermi & Cypress
#46
geschrieben 20. Februar 2010 - 14:06
Anzeige
#47
geschrieben 20. Februar 2010 - 20:52
Zitat
Hot, slow, late and unmanufacturable
by Charlie Demerjian
February 17, 2010
wer jetzt über den kauf einer neuen, leistungsstarken grafikkarte nachdenkt, sollte vielleicht besser auf FERMI II warten
aber mal im ernst:
wir werden uns auf relativ traurige zeiten gefasst machen müssen. billiger wird grafik vorerst mal nicht werden, spielers fluch und segen liegt 2010 in der hand eines einzigen herstellers.
nvidias leidlich versteckter hinweis qua finanzquartal auf die abermalige verschiebung der fermi-karten, die behauptung jen hsun huangs zur 'massenproduktion' in einer phase, in der die ausbeute ein- bis niedrige zweistellige stückzahlen (sic!, nicht prozent!) an verwertbaren chips betrug, das fermi-fake, die zusammengemogelten benchmarks und und und - ich halte die unschönste option aller bisherigen spekulationen mittlerweile für die realistischste:
Fermi ist tot. das ding ist vor die wand gefahren und es wird nie in erwähnenswerten stückzahlen als leistungsfähiger chip auf den markt kommen. schlagt mich tot oder beschimpft mich, werft tomaten und flaschen nach mir, aber lasst uns im mai noch mal drüber sprechen.
wer hält die wette?
Dieser Beitrag wurde von klawitter bearbeitet: 20. Februar 2010 - 21:15
#48
geschrieben 20. Februar 2010 - 21:11
#49
geschrieben 20. Februar 2010 - 22:26
Zitat
So geschehen Anno 2007.
Dieser Beitrag wurde von ...but alive bearbeitet: 20. Februar 2010 - 22:41
#50 _Dr Bakterius_
geschrieben 20. Februar 2010 - 22:44
Dieser Beitrag wurde von Dr Bakterius bearbeitet: 21. Februar 2010 - 21:37
#51
geschrieben 20. Februar 2010 - 22:47
Eine HD5850 hat im direkten Vergleich zu einer HD4850 sehr viel niedrigere Idle-Leistungsaufnahme und auch unter Last ist das Ding bei stark gestiegener Leistung als effizienter zu bewerten:
http://www.computerbase.de/artikel/hardwar...istungsaufnahme
Dieser Beitrag wurde von ...but alive bearbeitet: 20. Februar 2010 - 22:49
#52
geschrieben 20. Februar 2010 - 22:58
da biegst du dir aber gerade gewaltig was zurecht. die karten, die am markt sind, und das sind die ati-karten, verbrauchen wesentlich weniger strom als alle vorgänger. das 'wettrüsten' hat es schon immer gegeben. aber es ist auch bitter nötig, denn aus technischer sicht sind gpus auch heute noch mehr notbehelfe als als bilderzauberer. das wird sich erst mit techniken wie raytracing wirklich ändern.
die steigende leistung eröffnet auch neue möglichkeiten. ich für meinen teil bin z.b. über eyefinity richtig glücklich. und damit wieder bei 'alten' frameraten. bei weniger verbrauch und dreifacher monitorfläche, wohlgemerkt...
ob es soweit kommt (raytracing), ist eine andere frage. denn viel spieleentwickler und (konsolen)kunden geben sich leider mit viel viel weniger zufrieden, als eigentlich möglich wäre.
EDIT:
ebbes neues, abermals vom gewissenlosen schergen des freien journalismaus ohne ehrfurcht vor pr-strategien:
Zitat
Zitat
Zitat
komplett nachzulesen hier
Dieser Beitrag wurde von klawitter bearbeitet: 20. Februar 2010 - 23:15
#53
geschrieben 21. Februar 2010 - 00:50
Nvidia hätte gut daran getan wenn sie zwei chips entwickelt hätten. Einen der für den Spielemarkt (2-2,5milliarden Transistoren) gedacht ist und einen für Professionelle Anwendungen, letzterer wäre dann der fermi. (3Mill Transistoren.)
Das Design von ATI scheint von anfang an dafür ausgelegt worden zu sein, das es sich leicht skalieren lässt.
Man kann damit vom ganz kleinen Chip bis hin zu Highend alles bauen.
http://de.wikipedia....n-HD-5000-Serie
#54
geschrieben 21. Februar 2010 - 02:02
was wird das wohl sein, was nvidia uns am montag um 9:00h pacific standard time bescheren will? (müsste 18:00h abends bei uns sein.. unsure- schaut einfach mal nach)
ich geb nen tip ab, und ihr könnt ja mittippen.
1: wir werden eine fertige 480 sehen, hi-res.
2: wir werden einen benchmark sehen, in dem die gtx480 um 40-70% schneller rechnet als die 5870.
allein: der benchmark wird sich auf ein 'main feature of DX11' beziehen, genaugenommen tesselation. DX11 wird auf jeden fall ganz gross geschieben sein. DX10.0 (in worten: DX10punkt null) haben ja nur noch schnarchbacken, uuuuaaaah...)
nur einen kleinen haken wird die sache haben: der benchmark testet ausschliesslich/wesentlich die tesselation-leistung der karte. hier kann die 480 alles voll ins gefecht werfen, was sie hat - solang sie nichts anderes zu tun hat. der RV800 hat weniger einheiten, die tesselation berechnen und sieht entsprechend schlechter aus. nur bei der nvidia sind die recheneinheiten, die tesselation pumpen, auch gleichzeitig für fast alles andere zum spielen notwendige zuständig. in der praxis wird also nichts von dieser leistung übrig bleiben.
die rechnung: fanbois, die ihre omi für einen neue grafikkarte beklauen, könnte es ausreichend zum geldausgeben motivieren.
meine befürchtung: das wird funktionieren (aka: ohne physX iss eh schrott..)
was denkt ihr?
Dieser Beitrag wurde von klawitter bearbeitet: 21. Februar 2010 - 02:09
#55
geschrieben 21. Februar 2010 - 10:44
http://www.pcgameshardware.de/aid,698039/U...afikkarte/Test/
Das ist ein ähnlich entäuschendes Ergebnis wie seinerzeit bei der Einführung von Antialiasing.
20FPS weniger durch Tessellation, immerhin ist schon 4xAA und eine recht hohe Auflösung eingestellt.
Ich bin gespannt wie sich die Nvidia hier in einem ähnlichen Scenario schlägt, bei gleichzeitig hoher Belastung von Grafik und Tessellationeinheit.
Sollte die Grafik ähnlich stark sein wie die der HD5870 und wirklich mit für Tessellation herangezogen werden, dann siehts eher schlecht aus mit NVIDIA. Allerdings hat Nvidia 1Mrd mehr Transistoren und ich glaube kaum das die nur für den Cache verwendet werden.
PS: Auf Spielereien wie PhysX kann ich verzichten, die Engine bringt immer noch recht unrealistische Effekte. Da ist die Euphoria Physic Engine deutlich besser, allerdings mutithreaden CPU gebunden. (GTA4)
http://dispatchevent.org/mims/gta-4-to-use...physics-engine/
http://www.youtube.c...h?v=q0yvs6RJVVY
Dieser Beitrag wurde von X2-3800 bearbeitet: 21. Februar 2010 - 11:11
#56
geschrieben 21. Februar 2010 - 10:56
Zitat
Ne, die sind für GPGPU da...und das interessiert Spieler reichlich wenig...zudem ist die Anzahl Transistoren ja nicht ausschlaggebend für die Leistung...
Dieser Beitrag wurde von bluefisch200 bearbeitet: 21. Februar 2010 - 10:57
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
#57
geschrieben 21. Februar 2010 - 11:10
Zitat (bluefisch200: 21.02.2010, 11:56)
Das wird sich herausstellen wenn die Karte vorgestellt wird, zumal die GPGPU Einheiten vieleicht auch zur Unterstützung von Tessellation und PhysX verwendet werden könnten. Ich würde da nicht so voreilig sein.
#58
geschrieben 21. Februar 2010 - 11:12
Zitat (X2-3800: 21.02.2010, 11:10)
Wie gesagt, nach den Informationen die man bis jetzt hat wird der Fermi I wohl eher eine R600...riesig, teuer und schwach...
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
#59
geschrieben 21. Februar 2010 - 11:22
Zitat (bluefisch200: 21.02.2010, 12:12)
Schwach würde ich nicht unbedingt sagen aber riesig und immens teuer schon. :-)
Ich denke der Ansatz von ATI ist insgesamt wesentlich besser. Nicht zu groß und nicht zu klein, gutes Preisleistungsverhältnis, gute Skalierbarkeit des Chipdesigns um auch den HTPC Markt beliefern zu können als auch den Mobilbereich. Der Fermi wird wohl nur den Profibereich mächtig aufmischen. Sprich alles was mit Simulationen, Videobearbeitung und Co zu tun hat. Der Chip ist einfach zu monolitisch, Man kann ihn wohl nicht einfach durch 2 teilen um ihn für schwächere Grafikkarten zu verwenden. Bin gespannt ob die Technik des Fermi jemals in kleinere kostengünstigere Chips einfließt oder ob Nvidia weiterhin fleißig seine alten Chips umlabelt um überhaupt etwas für die kleineren Preisklassen zu haben.
#60
geschrieben 21. Februar 2010 - 11:25
Der Rest passt wohl, GTX400 = HighEnd Fermi und GTX300 = MidiRange und LowEnd (also umgelabelte G92)
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540

Hilfe
Neues Thema
Antworten

Nach oben




