WinFuture-Forum.de: Fermi & Cypress - WinFuture-Forum.de

Zum Inhalt wechseln

Nachrichten zum Thema: Grafikkarten
  • 15 Seiten +
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • Letzte »

Fermi & Cypress

#46 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.409
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 20. Februar 2010 - 14:06

G92 reloaded ;)
Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

Anzeige



#47 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.409
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 20. Februar 2010 - 20:52

nvidias staatsfeind nr.1, charlie demerjian, hat mal wieder gelauscht und nachgerechnet und kommt zu seinem vorläüfigen ergebnis:

Zitat

Nvidia's Fermi GTX480 is broken and unfixable
Hot, slow, late and unmanufacturable
by Charlie Demerjian

February 17, 2010


wer jetzt über den kauf einer neuen, leistungsstarken grafikkarte nachdenkt, sollte vielleicht besser auf FERMI II warten :imao:


aber mal im ernst:

wir werden uns auf relativ traurige zeiten gefasst machen müssen. billiger wird grafik vorerst mal nicht werden, spielers fluch und segen liegt 2010 in der hand eines einzigen herstellers.

nvidias leidlich versteckter hinweis qua finanzquartal auf die abermalige verschiebung der fermi-karten, die behauptung jen hsun huangs zur 'massenproduktion' in einer phase, in der die ausbeute ein- bis niedrige zweistellige stückzahlen (sic!, nicht prozent!) an verwertbaren chips betrug, das fermi-fake, die zusammengemogelten benchmarks und und und - ich halte die unschönste option aller bisherigen spekulationen mittlerweile für die realistischste:

Fermi ist tot. das ding ist vor die wand gefahren und es wird nie in erwähnenswerten stückzahlen als leistungsfähiger chip auf den markt kommen. schlagt mich tot oder beschimpft mich, werft tomaten und flaschen nach mir, aber lasst uns im mai noch mal drüber sprechen.

wer hält die wette?

Dieser Beitrag wurde von klawitter bearbeitet: 20. Februar 2010 - 21:15

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#48 Mitglied ist offline   Leshrac 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.540
  • Beigetreten: 14. November 05
  • Reputation: 140
  • Geschlecht:Männlich
  • Wohnort:Whangaroa (NZ)

geschrieben 20. Februar 2010 - 21:11

Beitrag anzeigenZitat (klawitter: 20.02.2010, 23:52)

wer hält die wette?

Schliesse mich dir da an, eine ziemliche farce das ganze.
Wird es wohl seit langem endlich einmal wieder eine ATI werden, diesmal hoffentlich weniger enttaeuschend als zuletzt.
0

#49 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 844
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 20. Februar 2010 - 22:26

Jede Firma hat irgendwann mal eine Voodoo 5500 / Geforce FX5800 / Radeon HD2900XT... :imao:


Zitat

Die G80-GPU in Form der GeForce-8800-Serie konnte sich nun mehr als ein halbes Jahr ohne Konkurrenz austoben und tat dies eindrucksvoll. AMDs Grafikkartensparte ATi hatte nur noch wenig zu sagen und lag in allen Bereichen stark zurück, ohne in irgendeiner Disziplin Argumente setzen zu können.

So geschehen Anno 2007.

Dieser Beitrag wurde von ...but alive bearbeitet: 20. Februar 2010 - 22:41

0

#50 _Dr Bakterius_

  • Gruppe: Gäste

geschrieben 20. Februar 2010 - 22:44

:imao: ;D :D

Dieser Beitrag wurde von Dr Bakterius bearbeitet: 21. Februar 2010 - 21:37

0

#51 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 844
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 20. Februar 2010 - 22:47

Wovon redest Du?
Eine HD5850 hat im direkten Vergleich zu einer HD4850 sehr viel niedrigere Idle-Leistungsaufnahme und auch unter Last ist das Ding bei stark gestiegener Leistung als effizienter zu bewerten:
http://www.computerbase.de/artikel/hardwar...istungsaufnahme

Dieser Beitrag wurde von ...but alive bearbeitet: 20. Februar 2010 - 22:49

0

#52 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.409
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 20. Februar 2010 - 22:58

@ dr bakterius

da biegst du dir aber gerade gewaltig was zurecht. die karten, die am markt sind, und das sind die ati-karten, verbrauchen wesentlich weniger strom als alle vorgänger. das 'wettrüsten' hat es schon immer gegeben. aber es ist auch bitter nötig, denn aus technischer sicht sind gpus auch heute noch mehr notbehelfe als als bilderzauberer. das wird sich erst mit techniken wie raytracing wirklich ändern.

die steigende leistung eröffnet auch neue möglichkeiten. ich für meinen teil bin z.b. über eyefinity richtig glücklich. und damit wieder bei 'alten' frameraten. bei weniger verbrauch und dreifacher monitorfläche, wohlgemerkt...

ob es soweit kommt (raytracing), ist eine andere frage. denn viel spieleentwickler und (konsolen)kunden geben sich leider mit viel viel weniger zufrieden, als eigentlich möglich wäre.


EDIT:

ebbes neues, abermals vom gewissenlosen schergen des freien journalismaus ohne ehrfurcht vor pr-strategien:

Zitat

NVIDIA HAS BEEN hinting about the performance of their upcoming GTX480 cards, and several of our moles got a lot of hands on time with a few cards recently. If you are waiting for killer results from the 'puppy', prepare for severe disappointment.



Zitat

The GTX480 with 512 shaders running at full speed, 600 or 625MHz depending on which source, ran on average 5% faster than a Cypress/HD5870, plus or minus a little bit.



Zitat

The end result is that the GTX480 is simply not enough for a resounding win in anything but the most contrived benchmark scenarios. It is well within range of a mildly upclocked HD5870, something ATI can do pretty much on a whim. The GTX480 can barely beat the second fastest ATI card, and doesn't have a chance at the top.


komplett nachzulesen hier

Dieser Beitrag wurde von klawitter bearbeitet: 20. Februar 2010 - 23:15

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#53 Mitglied ist offline   X2-3800 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.113
  • Beigetreten: 03. August 07
  • Reputation: 2

geschrieben 21. Februar 2010 - 00:50

Schaut so aus als wäre fermi genau das was schon befürchtet wurde, groß , laut stromfressend und überwiegend auf GPU Berechnungen ausgelegt. Bei Spielen nicht gerade weltbewegend im Vergleich zur konkurenz. Etwas ähnliches hatte ATI schon lange behauptet. Sollten die infos korrekt sein hat sich das nun bewahrheitet.

Nvidia hätte gut daran getan wenn sie zwei chips entwickelt hätten. Einen der für den Spielemarkt (2-2,5milliarden Transistoren) gedacht ist und einen für Professionelle Anwendungen, letzterer wäre dann der fermi. (3Mill Transistoren.)

Das Design von ATI scheint von anfang an dafür ausgelegt worden zu sein, das es sich leicht skalieren lässt.
Man kann damit vom ganz kleinen Chip bis hin zu Highend alles bauen.

http://de.wikipedia....n-HD-5000-Serie
0

#54 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.409
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 21. Februar 2010 - 02:02

ich hab da noch was für einen vergnüglichen sonntag:

was wird das wohl sein, was nvidia uns am montag um 9:00h pacific standard time bescheren will? (müsste 18:00h abends bei uns sein.. unsure- schaut einfach mal nach)

ich geb nen tip ab, und ihr könnt ja mittippen.

1: wir werden eine fertige 480 sehen, hi-res.
2: wir werden einen benchmark sehen, in dem die gtx480 um 40-70% schneller rechnet als die 5870.

allein: der benchmark wird sich auf ein 'main feature of DX11' beziehen, genaugenommen tesselation. DX11 wird auf jeden fall ganz gross geschieben sein. DX10.0 (in worten: DX10punkt null) haben ja nur noch schnarchbacken, uuuuaaaah...)

nur einen kleinen haken wird die sache haben: der benchmark testet ausschliesslich/wesentlich die tesselation-leistung der karte. hier kann die 480 alles voll ins gefecht werfen, was sie hat - solang sie nichts anderes zu tun hat. der RV800 hat weniger einheiten, die tesselation berechnen und sieht entsprechend schlechter aus. nur bei der nvidia sind die recheneinheiten, die tesselation pumpen, auch gleichzeitig für fast alles andere zum spielen notwendige zuständig. in der praxis wird also nichts von dieser leistung übrig bleiben.

die rechnung: fanbois, die ihre omi für einen neue grafikkarte beklauen, könnte es ausreichend zum geldausgeben motivieren.

meine befürchtung: das wird funktionieren (aka: ohne physX iss eh schrott..)

was denkt ihr?

Dieser Beitrag wurde von klawitter bearbeitet: 21. Februar 2010 - 02:09

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#55 Mitglied ist offline   X2-3800 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.113
  • Beigetreten: 03. August 07
  • Reputation: 2

geschrieben 21. Februar 2010 - 10:44

Naja, die Tessellationeiheit der Hd5870 hätte wirklich ein wenig stärker ausfallen können. Bei einem Test mit Unigine hat Tessellation schon mächtig die Frameraten gedrückt, wenn ich mich recht erinnere. Werd mal schauen ob ich den Test finde. Aber es scheint so das tessellation die Grafik ausbremst und das ist nicht wirklich akzeptabel für einen massiven Einsatz dieser Technik.

http://www.pcgameshardware.de/aid,698039/U...afikkarte/Test/

Das ist ein ähnlich entäuschendes Ergebnis wie seinerzeit bei der Einführung von Antialiasing.

20FPS weniger durch Tessellation, immerhin ist schon 4xAA und eine recht hohe Auflösung eingestellt.

Ich bin gespannt wie sich die Nvidia hier in einem ähnlichen Scenario schlägt, bei gleichzeitig hoher Belastung von Grafik und Tessellationeinheit.

Sollte die Grafik ähnlich stark sein wie die der HD5870 und wirklich mit für Tessellation herangezogen werden, dann siehts eher schlecht aus mit NVIDIA. Allerdings hat Nvidia 1Mrd mehr Transistoren und ich glaube kaum das die nur für den Cache verwendet werden.

PS: Auf Spielereien wie PhysX kann ich verzichten, die Engine bringt immer noch recht unrealistische Effekte. Da ist die Euphoria Physic Engine deutlich besser, allerdings mutithreaden CPU gebunden. (GTA4)

http://dispatchevent.org/mims/gta-4-to-use...physics-engine/

http://www.youtube.c...h?v=q0yvs6RJVVY


Dieser Beitrag wurde von X2-3800 bearbeitet: 21. Februar 2010 - 11:11

0

#56 Mitglied ist offline   bluefisch200 

  • Gruppe: aktive Mitglieder
  • Beiträge: 708
  • Beigetreten: 28. Januar 07
  • Reputation: 0

geschrieben 21. Februar 2010 - 10:56

Zitat

Allerdings hat Nvidia 1Mrd mehr Transistoren und ich glaube kaum das die nur für den Cache verwendet werden.

Ne, die sind für GPGPU da...und das interessiert Spieler reichlich wenig...zudem ist die Anzahl Transistoren ja nicht ausschlaggebend für die Leistung...

Dieser Beitrag wurde von bluefisch200 bearbeitet: 21. Februar 2010 - 10:57

Laptop: Apple Macbook / Intel Core 2 Duo 2.26 Ghz / 2 GB DDR3 / 250 GB HDD / nVidia 9400GT
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
0

#57 Mitglied ist offline   X2-3800 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.113
  • Beigetreten: 03. August 07
  • Reputation: 2

geschrieben 21. Februar 2010 - 11:10

Beitrag anzeigenZitat (bluefisch200: 21.02.2010, 11:56)

Ne, die sind für GPGPU da...und das interessiert Spieler reichlich wenig...zudem ist die Anzahl Transistoren ja nicht ausschlaggebend für die Leistung...



Das wird sich herausstellen wenn die Karte vorgestellt wird, zumal die GPGPU Einheiten vieleicht auch zur Unterstützung von Tessellation und PhysX verwendet werden könnten. Ich würde da nicht so voreilig sein.
0

#58 Mitglied ist offline   bluefisch200 

  • Gruppe: aktive Mitglieder
  • Beiträge: 708
  • Beigetreten: 28. Januar 07
  • Reputation: 0

geschrieben 21. Februar 2010 - 11:12

Beitrag anzeigenZitat (X2-3800: 21.02.2010, 11:10)

Das wird sich herausstellen wenn die Karte vorgestellt wird, zumal die GPGPU Einheiten vieleicht auch zur Unterstützung von Tessellation und PhysX verwendet werden könnten. Ich würde da nicht so voreilig sein.


Wie gesagt, nach den Informationen die man bis jetzt hat wird der Fermi I wohl eher eine R600...riesig, teuer und schwach...
Laptop: Apple Macbook / Intel Core 2 Duo 2.26 Ghz / 2 GB DDR3 / 250 GB HDD / nVidia 9400GT
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
0

#59 Mitglied ist offline   X2-3800 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.113
  • Beigetreten: 03. August 07
  • Reputation: 2

geschrieben 21. Februar 2010 - 11:22

Beitrag anzeigenZitat (bluefisch200: 21.02.2010, 12:12)

Wie gesagt, nach den Informationen die man bis jetzt hat wird der Fermi I wohl eher eine R600...riesig, teuer und schwach...



Schwach würde ich nicht unbedingt sagen aber riesig und immens teuer schon. :-)

Ich denke der Ansatz von ATI ist insgesamt wesentlich besser. Nicht zu groß und nicht zu klein, gutes Preisleistungsverhältnis, gute Skalierbarkeit des Chipdesigns um auch den HTPC Markt beliefern zu können als auch den Mobilbereich. Der Fermi wird wohl nur den Profibereich mächtig aufmischen. Sprich alles was mit Simulationen, Videobearbeitung und Co zu tun hat. Der Chip ist einfach zu monolitisch, Man kann ihn wohl nicht einfach durch 2 teilen um ihn für schwächere Grafikkarten zu verwenden. Bin gespannt ob die Technik des Fermi jemals in kleinere kostengünstigere Chips einfließt oder ob Nvidia weiterhin fleißig seine alten Chips umlabelt um überhaupt etwas für die kleineren Preisklassen zu haben.
0

#60 Mitglied ist offline   bluefisch200 

  • Gruppe: aktive Mitglieder
  • Beiträge: 708
  • Beigetreten: 28. Januar 07
  • Reputation: 0

geschrieben 21. Februar 2010 - 11:25

Schwach in Verhältnis zu der vermutlichen Rohleistung...:imao:
Der Rest passt wohl, GTX400 = HighEnd Fermi und GTX300 = MidiRange und LowEnd (also umgelabelte G92)
Laptop: Apple Macbook / Intel Core 2 Duo 2.26 Ghz / 2 GB DDR3 / 250 GB HDD / nVidia 9400GT
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
0

Thema verteilen:


  • 15 Seiten +
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • Letzte »

2 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 2, unsichtbare Mitglieder: 0