WinFuture-Forum.de: Fermi & Cypress - WinFuture-Forum.de

Zum Inhalt wechseln

Nachrichten zum Thema: Grafikkarten
  • 15 Seiten +
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • Letzte »

Fermi & Cypress

#31 Mitglied ist offline   netslyce 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.145
  • Beigetreten: 03. Januar 04
  • Reputation: 0
  • Wohnort:Sachsen/Zwickau

geschrieben 06. Februar 2010 - 17:25

Beitrag anzeigenZitat (Scarecrow: 04.02.2010, 16:23)

Muss bluefish200 zustimmen: Ein Monopol von ATi wäre für uns als Verbraucher wohl das Schlimmste.


Mal verliert man und Mal gewinnen die anderen...

Nein, Spaß beiseite.

Es gab Zeiten da stand es schlecht um ATI, jetzt sind es halt Zeiten in denen NV bißchen zu knaubeln hat.

Selbst wenn FERMI "floppen" sollte, bleibt die Entwicklung ja nicht stehen. Dann würde sicherlich die nächste Generation wieder anständig konkurrenzfähig (aus Fehlern lernt man ja angeblich).

Ich selbst warte aber erstmal auf greifbare Ergebnisse des Chips bevor ich mir ein wirkliches Urteil erlaube.

Beitrag anzeigenZitat (...but alive: 06.02.2010, 12:31)

Hinzu kommt, dass ATi vor Entwicklung des RV770 eine (von mir fast schon todzitierte) Marktanalyse angestellt hat. Dort kam heraus, dass "Enthusiast"-GPUs gerade einmal 20% (!) des Marktes ausmachen.
Zum Mitschreiben: Gerade einmal EIN dürftiges FÜNFTEL interessiert sich überhaupt für GTX285 & Co.
Die restlichen 80% des Marktes werden von Midrange und Low-End dominiert.. go figure...
Wenn man also maximalen Gewinn machen will, was für einen Chip entwickelt man dann primär? Welchen Teil des Marktes spricht man bevorzugt an?



Ist doch jetzt nichts wirklich überraschendes...

Wieviel % aller PCs sind denn in Benutzung zum "zocken" bzw. für graphisch aufwändige Anwendungen (Videokram etc.) und haben damit den Bedarf einer solchen High-End-Lösung?

Selbst wenn man alle CAD-Rechner etc. dazu nimmt, ist es anteilig ein Bruchteil aller normalen Office PCs für Call-Center, Büros, etc. etc. welchen schon eine Onboard Lösung ausreicht.

Und ja, na klar. Wenn man Geld machen will, und darum gehts ja im Kapitalismus, dann konzentriert man sich auf das große Volumen.

Nur oft ist es doch so, dass man die Leistungsfähigsten "Geräte" als Zugpferd zuerst entwickelt, und daraus dann die Low-und Mid-Segment Geräte ableitet (nicht nur im PC-Segment, siehe F1 etc.).

Die High-End Schiene muss laufen um kostengünstig und effizient "kleinere" Chips produzieren zu können.

Dieser Beitrag wurde von netslyce bearbeitet: 06. Februar 2010 - 17:36

Mein System:

Eingefügtes Bild

Nethands: Klick!
0

Anzeige



#32 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 844
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 06. Februar 2010 - 20:24

Es geht um den Brennpunkt, den Fokus, auf den man seine Anstrengungen richtet.
Der RV670 (aka 2900XT) war so ein Monster wie der Fermi: Zu groß, zu laut, zu saufend und: zu spät.
Der Die-Shrink (immer noch RV670, allerdings HD3870) hat uns die geniale 8800GT beschert. Hätte ich zu dem Zeitpunkt eine Grafikkarte gebraucht, ich hätte nicht nachdenken müssen, welche ich kaufen soll...

ATi ist nun seit dem RV770 ausgeschert. Der Kern der Bemühungen liegt im Midrange. Ich bin ja nun wahrlich kein GPU-Ingenieur, aber ich kann mir vorstellen, dass es ganz schön schwierig ist einen Monster-Chip, der für das absolute Hi-End konzipiert wurde 2x (!) zu schrumpfen: 1x für Midrange und 1x für Low-End...

Natürlich könnte man parallel gleich 3 Architekturen für die 3 Marktsegmente entwickeln, aber wer soll das denn bitte vorstrecken? ATi macht das recht clever: 2x Midrange (HD5870) = 1x Hi-End (HD5970)...
Die 500€+Prolos sind zufrieden, weil sie meinen, dass Grafikkarten, die weniger kosten nichts bringen und ATi bedient so auch diese paar Prozent des Marktes...

Dergleichen Umdenken kann ich bei Nvidia mit dem Fermi nicht wirklich feststellen - im Gegenteil, sie schießen sogar noch über das High-End hinaus auf den HPTC-Markt (aka Supercomputing für Mediziner, Meterologen, Geologen und Militärs...) und ich fürchte, dass dieser Schuss im eigenen Bein landen wird...

Nehmen wir als Beispiel das Feature ECC. Fehlerkorrektur - ein must-have für Supercomputing - das blöde ist nur, dass das dem Spieler überhaupt nichts bringt, der will nämlich nur viele fps sehen und wenn da mal ein Pixel bei einer Auflösung von 2560xsonstnochwas aufgrund eines winzigen Fehlerchens schwarz bleibt, juckt das keine Sau. Das Problem ist jetzt, dass das Feature ECC Leistung kostet und deswegen für die Desktopkarten abgeschaltet wird. Der Chip ist jedoch daraufhin designt - wir haben also "tote" Transistoren, verschwendete Fläche, die zwar mühsam & teuer mit hergestellt werden muss, aber keinen Nutzen für den 08/15-Konsumenten hat...

Dieser Beitrag wurde von ...but alive bearbeitet: 06. Februar 2010 - 20:28

0

#33 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 844
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 14. Februar 2010 - 11:41

Klasse!
Anand hat einen Insider/Hintergrund-Artikel zum RV870 veröffentlicht:
Unbedingt lesen.

Zitat

Carrell didn’t believe in building big chips anymore. It wasn’t that it was too difficult, it’s that it took too long for a $600 GPU to turn into a $200 GPU. AMD believed that the most important market was the larger (both in quantity and revenue) performance mainstream segment.


Zitat

The risk in RV770 was architecture and memory technology. The risk in RV870 was architecture and manufacturing process


Zitat

Early on Carrell believed that TSMC’s 40nm wasn’t mature enough and that when it was ready, its cost was going to be much higher than expected.


Zitat

You have to understand, changing a chip configuration that late in the game, 1.5 years before launch, screws everything up. By the time RV770 came out, 870 was set in stone.


Zitat

at some point, NVIDIA made a conscious decision to be late with Fermi. ATI wasn’t the only one to know when DX11/Windows 7 were coming. NVIDIA was well aware and prioritized features that delayed Fermi rather than align with this market bulge. GPUs don’t get delayed without forewarning. AMD risked being late in order to make a smaller chip, NVIDIA risked being late to make a bigger one. These two companies are diverging.


Zitat

Remember that Carrell’s beef with building the biggest GPU possible is that it takes too long for the majority of customers to get access to derivatives of that GPU. Look at how long it took G80 or GT200 to scale down. And who knows when we’ll see $150 Fermi/GF100 derivatives.


Zitat

Ever since NV30 (GeForce FX), NVIDIA hasn’t been first to transition to any new manufacturing process. Instead of dedicating engineers to process technology, NVIDIA chooses to put more of its resources into architecture design. The flipside is true at ATI. ATI is much less afraid of new process nodes and thus devotes more engineering resources to manufacturing. Neither approach is the right one, they both have their tradeoffs.


Zitat

Engineering eventually figured a way to fix most of the leakage problem through some changes to the RV740 design. The performance was still a problem and the RV740 was mostly lost as a product because of the length of time it took to fix all of this stuff. But it served a much larger role within ATI. It was the pipe cleaner product that paved the way for Cypress and the rest of the Evergreen line.

As for how all of this applies to NVIDIA, it’s impossible to say for sure. But the rumors all seem to support that NVIDIA simply didn’t have the 40nm experience that ATI did.

The rumors surrounding Fermi also point at the same problems ATI encountered with the RV740. Low yields, the chips run hotter than expected, and the clock speeds are lower than their original targets. Granted we haven’t seen any GF100s ship yet, so we don’t know any of it for sure.

Dieser Beitrag wurde von ...but alive bearbeitet: 14. Februar 2010 - 12:59

0

#34 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.409
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 14. Februar 2010 - 13:30

annother little dramolet by anand. :huh:

aber das ganze liesst sich, wenn man seine rv-770 retrospektive gelesen hat, stringend und logisch. allerdings wird auch immer wieder klar, wie viel glück (des fleissigen und mutigen) dazugehört. der erfolg der aktuellen produktlinie kommt ergo nicht von ungefähr. das ganze hat schon was vom schuster und seinen leisten.

nvidia wird sich diesbezüglich mit dem nachfolger des fermi völlig neu aufstellen müssen.


btw, zu der diskussion, ob es bei der stagnation in der spieleentwicklung überhaupt noch sinn macht, immer stärkere gpus zu entwicklen: ich bin auf die neue generation (von einer HD4890 aus) umgestiegen, weil ich rattenscharf auf eyefinity war. um das nutzen zu können, dürfen einige spieleengines erst mal nicht wirklich anspruchsvoller werden! :imao: .
und was ati da als fernziel plant, ist ja nur genial...

scotty, aufs holodeck bitte!

(wobei ich sicher bin: die technologie zum beamen wird von nvidia kommen. die technisch weniger anspruchsvollen, aber deutlich kostengünstigeren alternativen 'tür' und 'treppe' bleiben opensource und werden von ati unterstützt :wink: )

Dieser Beitrag wurde von klawitter bearbeitet: 14. Februar 2010 - 13:35

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#35 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 844
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 14. Februar 2010 - 16:51

stringend™ - anstrengend und stringent!


Spaß beiseite:
- Ich fand es erstaunlich wieviele Spekulationen zutreffen.
- Interessant, dass ich danebengelegen habe: RV870 ist größer geworden. Sie konnten ihn zwar nochmal zusammenstreichen, aber primäre Ausrichtung ist das Einhalten der Marktbewegungen (neues DX, neues Windows, Quartal IV aka Weihnachten)
- Anand meint, ATi hätte die neue Strategie zuerst die Marktmitte zu bedienen mit RV870 wieder zu den Akten gelegt, weil der Chip größer geworden sei.. nun, größer geworden ist er ja schon, aber die Strategie ist doch dieselbe geblieben - dass man einen großen Chip (RV870) nicht für den Preis eines kleinen (RV770) verkaufen kann, ergibt sich doch eigentlich von selbst... Es sollte doch wohl einen Riesenunterschied machen, ob ich top-down designe und dann auf Teufel komm raus 2-3 mal Architekturshrinks durchziehen muss oder ob ich für den oberen Mainstream designe und dann nach oben UND unten weiterentwickle... 4 Architekturen in 4 Monaten ist ja mal keine schlechte Vorgabe
- und dann hab ich mit der Prototypen- und Vorreiterrolle des RV740 (HD4770) richtiggelegen *selbst auf die Schulter klopf*

Wenn der Prototyp eines Holodecks die 25fache Pixelzahl eines 30-Zoll-Bildschirms aufweist, DANN ist selbst eine HD5970 CF "zu schwach".

Was mich jedoch momentan am meisten wurmt, z.B. in Mass Effect 2, ist die Tatsache, dass man mit simpelsten Mitteln die größten Effekte erzielen könnte. Ich finde da grafisch alles soweit ganz klasse - sicherlich wär das schöner, wenn z.B. Wasser noch physikalischer genauer animiert würde, aber ein Fehler ist strunzeinfach zu beheben: Und das sind die zu niedrig aufgelösten Texturen der Uniformen. DIE schau ich nämlich die ganze Zeit an. Dafür bräuchte es weder DX11 noch Tesselation - mit dem Rest bin ich eh zufrieden. Die Pointe besteht darin, dass ME2 sogar schneller läuft als ME1, OBWOHL es grafisch gesehen ein Unterschied ist wie ein leerer, kahler Raum (ME1) zu einem voll ausgestatteten mit 3D-Gegenständen vollgepflasterten Raum (ME2).

Dieser Beitrag wurde von ...but alive bearbeitet: 14. Februar 2010 - 17:07

0

#36 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.409
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 14. Februar 2010 - 21:30

die sache mit zu niedrig aufgelösten texturen an 'menschenbildern' scheint aber niemanden wirklich zu interessieren. da ergeht sich pcgh in seitenlangen vergleichs-screenshots ob der herrausragenden qualität von reifenspuren mit 38 mal gedoppeltem super-iso-lightning-sample-downalias-haste-was, die hackfressen der protagonisten bleiben aber das alte origami.

solange sich das nicht grundlegend ändert, ist für mich jede spielegrafik nach wie vor maximal 'mässig'.

das mit den spekulationen: hmm, so wirklich überrascht hat das imho nicht. jede gleichung, spätestens, wenn das ergebnis bekannt ist, lässt sich rückwärts auflösen. die überraschendendere und spannendere story finde ich da immer noch rv770 und gddr5.

was ich an dem artikel interessant finde, sind die erfahrungen mit den leiterbahn-toleranzen im 40 nm -prozess. das ist wohl der 'missing link' zu nvidias problemen. interessanterweise hat anand dazu auch nicht wirklich viel zu berichten. wer wollte schon, das nvidia die lösung dazu auf anantech nachlesen kann... :cool: ergo hats ihm wohl auch keiner erzählt, wie es denn funktioniert hat...

Zitat

Engineering went to work, tearing the chips apart, looking at them one by one. It didn’t take long to figure out that transistor channel length varied much more than the initial tolerance specs. If you get a certain degree of channel length variance some parts will run slower than expected, while others would leak tons of current.

Engineering eventually figured a way to fix most of the leakage problem through some changes to the RV740 design.


kein detail, keine abschweifung. etwas unüblich bei anand, oder?

und hand aufs herz: wieviel ingenieur muss man sein, um aus der besonderen sparsamkeit der evergreens und der suffneigung der fermis angesichts dieser beschriebenen problematik herauszulöten, was atis aktuelles geheimnis / vorsprung ist?

eher nicht soo viel, oder?

Dieser Beitrag wurde von klawitter bearbeitet: 14. Februar 2010 - 21:34

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#37 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 844
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 14. Februar 2010 - 22:40

Eine Insiderstory zum GT200 hat es leider nie gegeben :cool:
Wäre natürlich klasse, wenn da jetzt was käme, aber da scheinen 2 vollkommen verschiedene Unternehmensphilosophien am Werk zu sein. Und wenn Nvidia etwas beherrscht, dann ist das immer noch Marketing... nur leider interessieren mich die Talking Points der Business-Dampfplauderer nicht die Bohne...

Ein Fermi-Ingenieur-Interview à la RV770 käme bei mir sofort in die Lesezeichen...
0

#38 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.409
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 14. Februar 2010 - 22:45

Beitrag anzeigenZitat (...but alive: 14.02.2010, 22:40)

Eine Insiderstory zum GT200 hat es leider nie gegeben :cool:


das wäre denen auch sicher peinlich gewesen. sie hätte ja das gleiche wie zum g92 erzählen müssen... <_<

Dieser Beitrag wurde von klawitter bearbeitet: 14. Februar 2010 - 22:45

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#39 Mitglied ist offline   bluefisch200 

  • Gruppe: aktive Mitglieder
  • Beiträge: 708
  • Beigetreten: 28. Januar 07
  • Reputation: 0

geschrieben 14. Februar 2010 - 23:59

Ich denke um nVidias Problem besser zu verstehen wäre die Geschichte des RV770 doch angebrachter als die zum RV870.

Ich will mal ein paar interessante Stellen hervor heben:


Zitat

With everyone at ATI thinking that they had to make the fastest GPU in the world in order to beat NVIDIA, the successor to the Radeon 8500 was going to be a big GPU. The Radeon 8500 was built on a 0.15-micron manufacturing process and had around 60M transistors; R300 was going to be built on the same process, but with 110M transistors - nearly twice that of the 8500 without a die shrink.


Zitat

The success with R300 solidified ATI’s strategy: in order to beat NVIDIA, it had to keep pushing the envelope for chip size. Each subsequent GPU would have to be bigger and faster at the high end. Begun these GPU wars had.


Zitat

ATI asserted that a very large GPU, without the use of repair structures or harvesting (two techniques I’ll describe in a bit) may only have a 30% yield. That means for every 100 GPUs produced on a single wafer, only 30% of them would be fully functional and could be sold as advertised. Manufacturing these complex circuits is particularly expensive, those fab plants easily cost a couple of billion dollars to build and thus having most of your wafer go to waste isn’t really a good way of running a business.


Zitat

Thankfully there are ways to improve that crappy 30% yield to a value north of 90%. The first is a technique generally known as repairability. The idea behind repairability is simple: build redundancy into your design. If you have a unit with 10 shader processors, actually build 11 but use one as a spare should there be a defect in any of the remaining processors.


Zitat

Harvesting is another technique that all of you are quite familiar with, although its street name is feature binning. The idea here is that you assume that only a small percentage of the die on a wafer will be completely functional, but instead of throwing away the ones that aren’t fully functional, you disable features and sell them as a lower end part. For example, if your target architecture has 10 shader processors but only 30% of your production will have 10 working shader processors but 50% of the production will have 8 working units you’d sell a model with 10 SPs and a model with 8 SPs, the latter being at a reduced cost. This way instead of throwing away 70% of the wafer, you only throw away 20% - and if possible you could make a third SKU with fewer number of functional SPs and use close to 100% of the wafer.


Zitat

The most recent public example of die harvesting was actually with NVIDIA’s GT200. The GeForce GTX 260 was simply a harvested version of the GTX 280 with 192 SPs vs. 240. As yields improved, NVIDIA introduced the GeForce GTX 260 Core 216 with 216 SPs. Note that NVIDIA didn’t use any repairability for the shader processors on GT200 there are no more than 240 functional SPs on a GT200 die, but that’s because NVIDIA would rely on harvesting anyway - if any of the 240 SPs didn’t work the chip would be branded as a GTX 260 or Core 216.

Zitat

This is in stark contrast to RV770 where both versions of the GPU were functionally identical, the only differences were clock speeds and power requirements.


Zitat

With the GeForce GTX 280 launching at $600, for it to take 9 months to make a $200 derivative is doing the market a disservice in ATI’s eyes.


Um die Spitze des Eisberges von Seiten ATI anzutreffen ist natürlich der R600 sehr interessant und jeder kennt das Desaster:

Zitat

ATI was planning the R600 at the time and knew it was going to be big; it started at 18mm x 18mm, then 19, then 20. Engineers kept asking Carrell, “do you think their chip is going to be bigger than this?”. “Definitely! They aren’t going to lose, after the 580 they aren’t going to lose”. Whether or not G80’s size and power was a direct result of ATI getting too good with R580 is up for debate, I’m sure NVIDIA will argue that it was by design and had nothing to do with ATI, and obviously we know where ATI stands, but the fact of the matter is that Carrell’s prediction was correct - the next generation after G70 was going to be a huge chip.

If ATI was responsible, even in part, for NVIDIA’s G80 (GeForce 8800 GTX) being as good as it was then ATI ensured its own demise. Not only was G80 good, but R600 was late, very late. Still impacted by the R520 delay, R600 had a serious problem with its AA resolve hardware that took a while to work through and ended up being a part that wasn’t very competitive. Not only was G80 very good, but without AA resolve hardware the R600 had an even tougher time competing. ATI had lost the halo, ATI’s biggest chip ever couldn’t compete with NVIDIA’s big chip and for the next year ATI’s revenues and marketshare would suffer. While this was going on, Carrell was still trying to convince everyone working on the RV770 that they were doing the right thing, that winning the halo didn’t matter...just as ATI was suffering from not winning the halo. He must’ve sounded like a lunatic at the time.
ATI admitted to making a key manufacturing mistake with R600. The transistor technology selected for R600 was performance focused, designed to reach high clock speeds and yielded a part that didn’t have good performance per watt


Und so weit ist nVidia Heute immer noch...sie haben nichts aus der ATI Geschichte gelernt und
ATI hat ihnen die Lösung eigentlich vorgelegt:

Zitat

ATI didn’t want to build a GPU that would rely on excessive repair and harvesting to keep yields high. And then came the killer argument: building such a GPU was no longer in the best interests of its customers.

Zitat

The entire RV770 design took around three years, which means that while we were beating ATI up over the failure that was R600, those very engineers had to go into work and be positive about RV770. And it was tough to, after all ATI had just completely lost the crown with R600 and Carrell, Rick Bergman and others were asking the team to ignore what happened with R600, ignore the fact that they lost the halo, and try to build a GPU that aimed at a lower market segment.

Wie sie es ganz genau geschafft haben kann man im verlinkten Artikel sehr gut nachlesen...

Wieso beraubte ich eigentlich dass nVidia auch dieses Problem hat? Es ist offensichtlich...

Zitat

Just as Intel bumped into the power wall when it tried to ramp Pentium 4 clock speeds to ridiculous levels, ATI was noticing that GPUs were getting a little too big for comfort. Design cycles were getting longer, die size was growing and financially there were some things that didn’t quite make sense when it came to making these large GPUs.

Dieser Beitrag wurde von bluefisch200 bearbeitet: 15. Februar 2010 - 00:08

Laptop: Apple Macbook / Intel Core 2 Duo 2.26 Ghz / 2 GB DDR3 / 250 GB HDD / nVidia 9400GT
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
0

#40 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.409
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 15. Februar 2010 - 00:11

Zitat

Ich denke um nVidias Problem besser zu verstehen wäre die Geschichte des RV770 doch angebrachter als die zum RV870.


deshalb zerreissen wir uns hier und woanders ja seit wochen das maul zum entsetzen der grünen fraktion. mit atis geschichte seit rv5xx im hintergrund war der fermi ein besonderes thema. und eben von anfang an ob der ehrgeizigen ziehle und der damit zu überwindenden hürden ein superspannendes thema. ausgang immer noch offen, aber alle bauchschmerzen haben sich bislang konsequent bewahrheitet...

Dieser Beitrag wurde von klawitter bearbeitet: 15. Februar 2010 - 00:20

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#41 Mitglied ist offline   bluefisch200 

  • Gruppe: aktive Mitglieder
  • Beiträge: 708
  • Beigetreten: 28. Januar 07
  • Reputation: 0

geschrieben 15. Februar 2010 - 08:41

Wieso nVidia als erstes zwei High-End Karten bringen wird passt jetzt irgendwie auch wie die Faust aufs Auge...irgendwie beginnt das Spass zu machen :cool:
Laptop: Apple Macbook / Intel Core 2 Duo 2.26 Ghz / 2 GB DDR3 / 250 GB HDD / nVidia 9400GT
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
0

#42 Mitglied ist offline   HeyHey 

  • Gruppe: aktive Mitglieder
  • Beiträge: 2.197
  • Beigetreten: 31. August 07
  • Reputation: 0

geschrieben 15. Februar 2010 - 17:47

ich bin nur gespannt ob noch ne verbesserte Variante des GF100 kommt, gibt ja schon Gerüchte darüber.
0

#43 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.409
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 20. Februar 2010 - 11:56

und wieder neue lustigkeiten von jen-hsun huang: die produktion wird erst im mai starten.

interessant dabei: vor wochen hatte er bereits verkündet, man sei bereits in der massenproduktion.

aha!? aber das muss ja auch nicht jeder 08/15-user verstehen.

zum anderen, setzen bitte, trommelwirbel: obacht und achtung!

mal sehen, ob's diesmal kracht oder wieder nur pffffft macht...


mal ehrlich: gabs eine solche peinliche vorstellung schon mal in der branche? dicke sprüche und dann kam nix, das gabs schon oft genug. aber in dieser ausdauer und wiederholfrequenz?

Dieser Beitrag wurde von klawitter bearbeitet: 20. Februar 2010 - 12:16

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#44 Mitglied ist offline   bluefisch200 

  • Gruppe: aktive Mitglieder
  • Beiträge: 708
  • Beigetreten: 28. Januar 07
  • Reputation: 0

geschrieben 20. Februar 2010 - 12:10

Hinhaltetaktik, da wird kaum was kommen...zumindest nichts Weltbewegendes.

Die Yieldrate die nVidia aktuell erreicht ist ja mehr als erbärmlich, das kann nicht gut raus kommen...aber was will man bei so einer GPU erwarten...
Laptop: Apple Macbook / Intel Core 2 Duo 2.26 Ghz / 2 GB DDR3 / 250 GB HDD / nVidia 9400GT
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
0

#45 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 844
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 20. Februar 2010 - 12:19

Das erinnert mich an ein Konzert, bei dem jeder an der Wand lehnt und sich schützend was zu Trinken vor die Brust hält und der Sänger versuchts rauszureißen, indem er schreit:
"ARE YOU READY?"

Ich tippe auf die Ankündigung einer Ankündigung für die Ankündigung, dass es im Quartal II soweit sein könnte... so etwas muss natürlich entsprechend angekündigt werden.


PS: Grade veröffentlicht! Auf youtube gibt es ein geleaktes Insider-Video, in dem wir erstmalig den GT300 in Aktion sehen können!

Dieser Beitrag wurde von ...but alive bearbeitet: 20. Februar 2010 - 12:20

0

Thema verteilen:


  • 15 Seiten +
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • Letzte »

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0