WinFuture-Forum.de: Fermi & Cypress - WinFuture-Forum.de

Zum Inhalt wechseln

Nachrichten zum Thema: Grafikkarten
  • 15 Seiten +
  • « Erste
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • Letzte »

Fermi & Cypress

#136 Mitglied ist offline   bluefisch200 

  • Gruppe: aktive Mitglieder
  • Beiträge: 708
  • Beigetreten: 28. Januar 07
  • Reputation: 0

geschrieben 27. März 2010 - 00:26

Beitrag anzeigenZitat (XiLeeN2004: 27.03.2010, 00:09)

Bischen Lesestoff auf Gamestar und PC Games Hardware...


Wie schon vorhergehend vermutet wurde so sieht es anscheinend auch in der Realität aus...bis auf einzelne Spiele meist 0-10% schneller und dafür braucht sie (GTX480) mehr als ein HD5850 Crossfire System und ist anscheinend auch noch laut...für mehr als ein halbes Jahr einfach zu schwach...ATI steht bald mit der HD6000 da und nVidia steht aktuell nur knapp vor der HD5000.
Das grössere Problem scheint mir die Wärmeentwicklung zu sein...wie sie da noch mehr Performance raus holen wollen ohne das GPU Design erneut komplett um zubauen ist mir schleierhaft...
Laptop: Apple Macbook / Intel Core 2 Duo 2.26 Ghz / 2 GB DDR3 / 250 GB HDD / nVidia 9400GT
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
0

Anzeige



#137 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.409
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 27. März 2010 - 00:38

150 Watt unter Last mehr als die HD 5870... Das ist echt ein Wort, meine Shice...

aber so 15-20% schafft die 480 schon auf die 5870... habs aber auch noch nicht alles gelesen etc...
Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#138 Mitglied ist offline   XiLeeN2004 

  • Gruppe: aktive Mitglieder
  • Beiträge: 577
  • Beigetreten: 16. Juni 04
  • Reputation: 50
  • Geschlecht:Männlich
  • Wohnort:Ahrensburg
  • Interessen:Aikidō (Godan), Schwimmen, Motorradfahren ('35er Indian Four, noch von meinem Vater), Dampfmodellbau, Kino

geschrieben 27. März 2010 - 00:42

Beitrag anzeigenZitat (bluefisch200: 27.03.2010, 00:26)

...wie sie da noch mehr Performance raus holen wollen ohne das GPU Design erneut komplett um zubauen ist mir schleierhaft...

Gar nicht... Ich denke intern ist der Drops schon gelutscht. Vermutlich hat der Fermi die bisher kürzeste Halbwertzeit in der Geschichte von nVidia. Würde mich nicht wundern, wenn bereits in ein paar Monaten ein neuer Chip das Licht der Welt erblickt. Der Druck wurde zu groß, man musste um's Verrecken was auf den Markt werfen, genau so sehen die Karten aus, sonst hätte man bestimmt noch an einer besseren Kühlung gearbeitet...
Eingefügtes Bild
0

#139 Mitglied ist offline   bluefisch200 

  • Gruppe: aktive Mitglieder
  • Beiträge: 708
  • Beigetreten: 28. Januar 07
  • Reputation: 0

geschrieben 27. März 2010 - 00:56

Beitrag anzeigenZitat (XiLeeN2004: 27.03.2010, 00:42)

Gar nicht... Ich denke intern ist der Drops schon gelutscht. Vermutlich hat der Fermi die bisher kürzeste Halbwertzeit in der Geschichte von nVidia. Würde mich nicht wundern, wenn bereits in ein paar Monaten ein neuer Chip das Licht der Welt erblickt. Der Druck wurde zu groß, man musste um's Verrecken was auf den Markt werfen, genau so sehen die Karten aus, sonst hätte man bestimmt noch an einer besseren Kühlung gearbeitet...

Fermi war ja eigentlich schon ein redesign...und sollte die grosse Revolution werden...daher denke ich nicht dass sie etwas in der Hinterhand haben...ja sie können das Ding wiederum verkleinern (nur hatten sie da doch schon bei 40nm extrem viele Probleme)...wird spannend werden was mit nVidia passiert in den nächsten paar Monaten...
Laptop: Apple Macbook / Intel Core 2 Duo 2.26 Ghz / 2 GB DDR3 / 250 GB HDD / nVidia 9400GT
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
0

#140 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.409
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 27. März 2010 - 01:22

Die ersten Ergebnisse lesen sich ja durch aus differenziert. Wirklich gute Leistung in DX11, richtiggehend enttäuschend unter DX 9.

Für mich sind die Temperaturen, die Lautstärke und die exorbitante Leistungsaufnahme in dem gebotenen Ausmass No-Gos, viele Nvidia-Freaks werden aber vielleicht darüber hinwegsehen.

Klar ist, dass es keine Dual-Karte geben können wird, und klar ist auch, dass der Spielraum um nachzukarten für ATI von Nvidia grosszügig angelegt wurde.
Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#141 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 844
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 27. März 2010 - 08:19

Um aus dem wegweisenden HD2900 eine akzeptable Karte zu machen, bedurfte es eines Die-Shrinks.
Heraus kam die HD3870 - die Karte, ohne die es die 8800GT niemals gegeben hätte und uns die niedrigen Preise bescherte, die wir jetzt schon etliche Jahre gewöhnt sind.

Nebenbei: Es schmeichelt dem Ego, wenn man richtig liegt ;)

Nvidias Position ist gar nicht so schlecht.
Sie haben momentan eine HD2900v2.
Wenn es ihnen innerhalb der nächsten Monate gelingt das Teil zu schrumpfen und GDDR5 in den Griff zu bekommen, haben wir eine Karte, gegen die die ATi kein Land mehr sieht... insbesondere in DirectX11-Titeln (s. Metro 2033). Ich schätze, dass Tesselation in Zukunft ein Standard-Feature ALLER Spiele wird, so wie es damals HDRR war - da kräht heutzutage kein Hahn mehr nach, weil es eben JEDES Spiel irgendwie implementiert...
Die restlichen Probleme (Lautstärke, Wärme, Leistungsaufnahme) erledigen sich mit dem Schrumpf praktisch von selbst und außerdem sollte mehr Leistung drin sein, weil dann 512 SPs anstelle der beschnittenen 480 funktionsfähig wären. Wie gesagt: Alles, was sie tun müssten, ist das Teil schrumpfen und mit GDDR5 vertraut werden. ATi hatte jetzt 2 Jahre Erfahrung, Nvidia erst seit der GT240...

Zitat

This is a card that bets on the future and we don’t have our crystal ball.

Dieser Beitrag wurde von ...but alive bearbeitet: 27. März 2010 - 09:37

0

#142 Mitglied ist offline   bluefisch200 

  • Gruppe: aktive Mitglieder
  • Beiträge: 708
  • Beigetreten: 28. Januar 07
  • Reputation: 0

geschrieben 27. März 2010 - 09:48

Ein Die-Shrink muss nicht immer etwas bringen, siehe Conroe vs. Yorkfield...in wie weit nVidia hier die Lösung sehen kann ist eher fraglich. Weiter bringt ein Die-Shrink nicht zwingend mehr Leistung (dies natürlich aufgrund des niedrigen Verbrauchs und der Hitzeentwicklung).

Daher steht nVidia vor Bergen von Arbeit:
- Mühe mit der aktuellen Baugrösse
- Mühe mit GDDR5
- Mühe mit der Hitzeentwicklung, nein ein Die-Shrink ist nicht unbedingt die Lösung
- Mühe mit dem Verbrauch, nein ein Die-Shrink ist nicht unbedingt die Lösung
- Mehr als ein halbes Jahr hinter der Konkurrenz zurück

Dass hier der Fermi 2 dem R900 davon schwimmt ist wohl nur Wunschdenken...der Fermi hat in etwa einen Vorsprung dem R800 gegenüber welcher dieser Problemlos mit einem Refresh weg machen kann. Weiter baut ATI GPUs welche für den Dual/Quad GPU Betrieb ausgelegt (dass man hier mit einer auf SingleGPU Betrieb ausgelegten Karte nicht mit der X2 Version des R800 mithalten kann ist schon sehr schlecht) sind und ich würde über eine HD6870 X4 nicht staunen...ATI senkt den Verbrauch und die Hitzeentwicklung ihrer GPU immer wieder und erreicht trotzdem erheblich höhere Geschwindigkeiten. Für nVidia sehe ich hier leider schwarz, ein Die-Shrink hilft nur je nach Situation etwas.

Dieser Beitrag wurde von bluefisch200 bearbeitet: 27. März 2010 - 09:49

Laptop: Apple Macbook / Intel Core 2 Duo 2.26 Ghz / 2 GB DDR3 / 250 GB HDD / nVidia 9400GT
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
0

#143 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.409
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 27. März 2010 - 11:15

Ich denke, allein die Zukunft wird weisen, ob Nvidia in der Hinterhand bereits den Fermi2 in 28Nm forciert oder seine Ressourcen damit gebunden waren, dieses Kalb endlich auf die Welt zu bringen.
Auf jeden Fall ist die neue Karte deutlich 'zukunftsgerichteter' als die aktuellen Atis. Ob ich die ganzen Pferdefüsse in Kaufnehmen will, um meine geliebten DX9-Spiele teuer bezahlt, mit Hitze und Lärm in eher durchschittlicher Qualität zu spielen: das muss jeder für sich entscheiden.

Auch die Herstellerspezifischen Features kann jeder nur für sich abwägen: Ati bietet Supersampling und Eyefinity, Nvidia den ganzen Cuda/Physix-Kram.

Für mich gibt es ein persönliches Fazit:

Am Ende des Tages steht für mich fest, dass ich das beste getan habe, was ich tun konnte, als ich im Dezember zwei HD5770 mit zwei DX11-Titeln inklusive für 280,-€, die Spiele rausgerechnet sogar für nur 200,-€ gekauft habe.

Die Leistung einer HD5870, durch die jüngsten CF-Verbesserungen der Treiber mittlerweile sogar bis zu 10% schneller als diese - ergo in DX9 schneller und DX10 auf Augenhöhe mit einer GTX480!!
Zocken auf drei Monitoren (Was von x-fach mehr Spielen unterstützt wird als z.B die 5 oder 6 interessanten GPU-PhysiX Titel)
22W idle (durch endlich auch im CF funktionierendes PowerPlay)
185W Full Load
leise (Eierkühler) auch unter Last, kühl (30-35/65-75°C)

Das alles für 200,- Ötten. Ich freu mir jetzt einfach mal 'n zweites Loch wohin... ;)

Und da meine Frau mit den Kindern grad für eine Woche ab zum Skifahren ist, mach ich jetzt erst mal ein WO-E DirtII und GT-Legends Hardcore. ;)
Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#144 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 844
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 27. März 2010 - 12:01

Zitat

Ein Die-Shrink muss nicht immer etwas bringen, siehe Conroe vs. Yorkfield...

Das sind CPUs.

Zitat

Weiter bringt ein Die-Shrink nicht zwingend mehr Leistung (dies natürlich aufgrund des niedrigen Verbrauchs und der Hitzeentwicklung).

Richtig. Im Falle der GF100 muss sie aber auch nicht mehr Leistung bringen.
Die Frage lautete dann nämlich: Für welche Spiele bitte?
Für Konsolenports, die jetzt schon total besch...eiden auf Xbox360 und PS3 laufen und für die eine GPU aus dem Jahre 2008 spielend ausreicht? (haha, Wortwitz)

Pathetisch!
Der Spielemarkt stagniert. Weiter gehts, wenn in 1-2 Jahren die neuen Konsolen raus sind.

Zitat

Daher steht nVidia vor Bergen von Arbeit:

...ich hab nicht gesagt, dass es einfach ist ;)

Zitat

- Mühe mit der aktuellen Baugrösse

-> Shrink!

Zitat

- Mühe mit GDDR5

Tja, Nvidia hat die Spezifikationen für GDDR5 mitentwickelt... irgendwie merkt man das nun (5GHz vs. 3.8GHz?)

Zitat

- Mühe mit der Hitzeentwicklung, nein ein Die-Shrink ist nicht unbedingt die Lösung

Doch.

Zitat

- Mühe mit dem Verbrauch, nein ein Die-Shrink ist nicht unbedingt die Lösung

Aber sicher.

Zitat

- Mehr als ein halbes Jahr hinter der Konkurrenz zurück

War der HD2900 auch. Ein Schuss in den Ofen. Zu spät, zu laut, zu hungrig. Und?
Wenn man sich auf die Fresse legt, denkt man halt nach und steht wieder auf.

Zitat

Dass hier der Fermi2 dem R900 davonschwimmt ist wohl nur Wunschdenken...

Der GF100 ist die Zukunft. Sobald diese eintrifft, bedeutet das OpenGL 4.0 und DirectX11 mit massiver Tesselation - und das kann das Ding einfach mal besser.
Rückblick: Der HD2900 konnte bereits Tesselation - hat keiner eingesetzt (okay, der Chip für die Xbox ist ne andere Geschichte). Dann kam ATi mit DirectX 10.1 - hat keiner eingesetzt (mit "keiner" lassen sich die 2,5 Spiele recht gut zusammenfassen). Alldieweil waren Nvidias tesselationfreie DirectX 10.0-Karten immer gut genug (die schnitten nämlich super in DirectX 9 ab). Heute sind die DirectX11-Fähigkeiten von Cypress gut genug... in Zukunft heisst es dann Tesselation oder stirb, weil es dann ein Standardfeature wird so wie HDRR heutzutage.

Zitat

Weiter baut ATI GPUs welche für den Dual/Quad GPU Betrieb ausgelegt (dass man hier mit einer auf SingleGPU Betrieb ausgelegten Karte nicht mit der X2 Version des R800 mithalten kann ist schon sehr schlecht) sind und ich würde über eine HD6870 X4 nicht staunen...

Sry, wer kauft so einen Hi-End-Schrott?
Um bitte was damit zu erreichen? Left 4 Dead mit 200fps? Ich schaudere, ich schaudere...

Zitat

Für nVidia sehe ich hier leider schwarz, ein Die-Shrink hilft nur je nach Situation etwas.

Nochmal: Nehmen wir den Schritt von HD2900 zu HD3870.
Die HD3870 war sogar ein wenig langsamer als die HD2900 (sic!), aber sie bügelte alle Mängel des Vorgänger glänzend aus!

Spielehersteller (solange sie nicht so dämlich sind wie CryTech), müssen sich danach richten, was beim größten Teil des Marktes läuft... da ist es schön, wenn es 999€ Quad-GPUs gibt - nur besitzen vielleicht 0,5% aller Spieler diese Karten... soll das Spiel also auf 99,5% aller Rechner nicht laufen? Doch wohl nicht... also greift man irgendwo in die goldene Mitte...

Faktisch sind die erfolgreichsten Spiele aller Zeiten grafisch gesehen absolute "Underachiever" - und zwar mit ABSICHT! Denken wir an:
- World of WarCraft
- (eigentlich so ziemlich alles von Blizzard)
- sämtliche Source-Engine-Spiele
- Die Sims
- etc. etc. etc.

Warum ist das wohl so?

Dieser Beitrag wurde von ...but alive bearbeitet: 27. März 2010 - 12:20

0

#145 Mitglied ist offline   bluefisch200 

  • Gruppe: aktive Mitglieder
  • Beiträge: 708
  • Beigetreten: 28. Januar 07
  • Reputation: 0

geschrieben 27. März 2010 - 12:08

Zitat

Das sind CPUs.

Die benutzen das selbe Halbmetall

Zitat

Die HD3870 war sogar ein wenig langsamer als die HD2900 (sic!), aber sie bügelte alle Mängel des Vorgänger glänzend aus!

Dann KANN der Fermi 2 dem R900 ja gar nicht weglaufen...

Zitat

nur besitzen vielleicht 0,5% aller Spieler diese Karten... soll das Spiel also auf 99,5% aller Rechner nicht laufen? Doch wohl nicht... also greift man irgendwo in die goldene Mitte...

Deshalb gibt es ein Menü wo du Texturen, AA, AF usw. einstellen kannst...

Dieser Beitrag wurde von bluefisch200 bearbeitet: 27. März 2010 - 12:09

Laptop: Apple Macbook / Intel Core 2 Duo 2.26 Ghz / 2 GB DDR3 / 250 GB HDD / nVidia 9400GT
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
0

#146 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 844
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 27. März 2010 - 12:09

Zitat

Die benutzen das selbe Halbmetalle

Jetzt fehlt als gemeinsames Merkmal nur noch, dass beide Chips beschriftet sind und glänzen..

Zitat

Dann KANN der Fermi 2 dem R900 ja gar nicht weglaufen...

Hättest Du mein Posting gelesen, wäre daraus hervorgegangen, dass er das auch nicht muss.
Die HD2900 war bestenfalls für ATioten interessant, die HD3870 war eine ernstzunehmende Konkurrenz für die 8800GT und setzte eine Preisspirale in Gang, von der alle Käufer profitierten...

Dieser Beitrag wurde von ...but alive bearbeitet: 27. März 2010 - 12:21

0

#147 Mitglied ist offline   bluefisch200 

  • Gruppe: aktive Mitglieder
  • Beiträge: 708
  • Beigetreten: 28. Januar 07
  • Reputation: 0

geschrieben 27. März 2010 - 12:25

Zitat

Jetzt fehlt als gemeinsames Merkmal nur noch, dass beide Chips glänzen und eine Beschriftung haben...


hahahaha... ;)
Bis auf die andere Architektur und das andere Instruction Set sind es einfach nur prozessing unites...nichts anderes...

Zitat

Hättest Du mein Posting gelesen, wäre daraus hervorgegangen, dass er das auch nicht muss.

Doch, denn ATI hat nicht alleine durch diesen Punkt Vorteile raus gezogen, ihre GPU ist komplett auf ein anderes Marktsegment ausgerichtet:

Zitat

Building a GPU for the Masses

AMD put up this graph at its recent Financial Analyst Day:

http://images.anandtech.com/reviews/video/...marketshare.jpg

The performance segment of the desktop CPU market is only about 7% of the pie and although it generates a disproportionately large amount of revenue it’s neither the biggest segment nor the biggest revenue generator in the market. That would be the mainstream segment.

ATI realized much of the same thing back in 2005. These high end GPUs were getting more and more expensive, while R300 tipped the scales at $399 over the coming years we’d see GPUs hit $499, $599 and go north of $600 at launch. The higher prices were due to increasing die sizes and techniques such as harvesting, ensuring that regardless of how big the GPU, revenues were protected.
.

Zitat

Much like the R300 days, the success of the RV770 was partially ensured by NVIDIA’s failure. Unlike NV30 however, GT200 wasn’t delayed nor was it terribly underperforming - it was simply overpriced. ATI got very lucky with RV770, NVIDIA was tied up making a huge chip and avoided two major risks: 55nm and GDDR5, both of which ATI capitalized on.


nVidia muss aus dem Fermi eine Mainstream GPU basteln...und das geht NICHT so einfach...

Dieser Beitrag wurde von bluefisch200 bearbeitet: 27. März 2010 - 12:28

Laptop: Apple Macbook / Intel Core 2 Duo 2.26 Ghz / 2 GB DDR3 / 250 GB HDD / nVidia 9400GT
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
0

#148 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 844
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 27. März 2010 - 12:53

Die HD2900 war absolutes Hi-End.
Mit einem Die-Shrink bekam man dieselbe Leistung ein paar Monate später für irgendwas um die 150€-200€.. ab dem Zeitpunkt kann man sagen, dass über Nacht das alte Hi-End zum neuen Midrange wurde. HD3870 und 8800GT fanden reißenden Absatz und sind noch heute in den Steamcharts häufiger vertreten als z.B. die GTX260...

Warum sollte sich so etwas nicht wiederholen?
Wieviel kleiner ist ein Fermi in 28nm?
Kann er dann immer noch so fehleranfällig sein? Nein, denn die Fehlerquote skaliert mit der Fläche. Man müsste ihn also nicht mehr künstlich beschneiden, weil er zu groß ist und hätte die Leistung, die ursprünglich geplant war. (Momentan verkauft Nvidia mit jedem GF100 tote Chipfläche - das ist mehr als nur dumm gelaufen).
Kann er dann immer noch so heiß sein und soviel Strom fressen? Nein.

Mit dem GT200 war das doch dieselbe Geschichte:
Nvidia dachte sich, sie könnten das Monster auf 65nm rausbringen - als das Teil dann auf 55nm geschrumpft war, kamen solche Geschichten wie die GTX260SP216 raus... eine verdammt gute Karte und ich wage an dieser Stelle einmal an die "Stromspartechnik" des RV770 zu erinnern... diese war praktisch nicht existent! Jetzt, mit GDDR5, haben sie genau das zu erwartenden Mittelding zwischen den alten GT200ern und der HD4870 im Idle-Verbrauch..

Nun muss Nvidia halt die Suppe auslöffeln, dass sie jahrelang auf GDDR3 hockengeblieben sind (bereits die HD3870 setzte auf GDDR4) und keine hinreichenden Vorerfahrungen zu 40nm (wie ATi mit der HD4770) gesammelt haben...

Nun, dann sammeln sie die eben jetzt. Auf die harte Tour.
Als ATi mit der HD2900 zu spät kam, hat sich Nvidia dumm&dämlich verkauft. Der komplette Markt war grün...

Die Bauchlandung ist aus dem Haus und sie können sich daransetzen, das bestehende Design zu verbessern. Das ist immer einfacher, als etwas völlig Neues aus dem Boden zu stampfen.

Ein bisschen Spaß muss sein:
http://www.hardocp.com/article/2010/03/26/...80_sli_review/7 -> GTX480 Video gucken
http://www.youtube.c...h?v=K3_HHZFi0As -> im Anschluss dieses Video sehen ;)

Dieser Beitrag wurde von klawitter bearbeitet: 27. März 2010 - 13:46
Änderungsgrund: zsammbappt.

0

#149 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.409
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 27. März 2010 - 13:48

The Fön is back ;)
Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#150 Mitglied ist offline   XiLeeN2004 

  • Gruppe: aktive Mitglieder
  • Beiträge: 577
  • Beigetreten: 16. Juni 04
  • Reputation: 50
  • Geschlecht:Männlich
  • Wohnort:Ahrensburg
  • Interessen:Aikidō (Godan), Schwimmen, Motorradfahren ('35er Indian Four, noch von meinem Vater), Dampfmodellbau, Kino

geschrieben 27. März 2010 - 14:25

Die-Shrink bedeutet auch immer eine höhere Ausbeute, das allein geht schon in Richtung Mainstream... Aber ich behaupte einfach mal, das will nVidia gar nicht, bzw. kann es auch nicht. Das Design des Fermi war von Anfang an nicht nur auf Grafik-Anwendungen ausgelegt, sondern auch (wirklich zukunftsweisend) für anspruchsvolle GPGPU-Anwendungen. Schon vom Konzept her ist der Fermi somit für den Mainstream nicht gedacht und nicht geeignet. Man munkelt ja, der Fermi sei ursprünglich, also vor dem Redesign, als reiner Rechenknecht entwickelt und aus Wettbewerbs- und Zeitgründen sehr kurzfristig zum Grafikprozessor mutiert. Sollte das wirklich zutreffen, dann hat nVidia mit Sicherheit eine weit fortgeschrittene, alternative Entwicklung am laufen, welche dann auch den Massenmarkt bedient.
Eingefügtes Bild
0

Thema verteilen:


  • 15 Seiten +
  • « Erste
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0