Fermi & Cypress
#151
geschrieben 27. März 2010 - 14:59
Die spannende Frage ist dann ja auch wann dieser Shrink überhaupt möglich sein wird. Wenn TSMC frühestens Ende September mit der Testproduktion in 28nm HKMG beginnt und von da noch einige weitere Monate bis zur wirklichen Produktion / Massenproduktion vergehen werden (Selbst wenn es besser laufen sollte als mit 40nm), dann wird es wohl nichts vor 2011
Anzeige
#152
geschrieben 27. März 2010 - 15:47
@Patata:
Brauchen wir das vor 2011?
Alle Konsolenspiele müssen mit uralter Hardware auskommen - wenn das Spiel auf Xbox-Hardware läuft, dann läuft es schon lange auf GPUs der letzten Generation...
@Xileen:
Öhm, "Fermi" ist bereits der Name für das HPC-Modell, das den Tesla ablöst.
Das Massenmarktmodell (i.e. GTX480 & Co.) nennt sich "GF100".
Nvidia hat einen Big Chip entwickelt. Alles was sie jetzt noch sinnvollerweise machen können, ist aus dem Big ein Medium zu machen... und GDDR5 fixen... und OEM zumüllen... und Notebook-GPUs verkaufen... und ION2 pushen... und Grafiklösungen für Smartphones anbieten... und Fermi an Großrechenzentren verkaufen, weil der nämlich ECC kann...
Nur die armen reichen Desktopspieler kriegen keine effiziente GPU mit ordentlich überschüssiger Leistung.
PS: "Naaah! Ship it!"
Brauchen wir das vor 2011?
Alle Konsolenspiele müssen mit uralter Hardware auskommen - wenn das Spiel auf Xbox-Hardware läuft, dann läuft es schon lange auf GPUs der letzten Generation...
@Xileen:
Öhm, "Fermi" ist bereits der Name für das HPC-Modell, das den Tesla ablöst.
Das Massenmarktmodell (i.e. GTX480 & Co.) nennt sich "GF100".
Nvidia hat einen Big Chip entwickelt. Alles was sie jetzt noch sinnvollerweise machen können, ist aus dem Big ein Medium zu machen... und GDDR5 fixen... und OEM zumüllen... und Notebook-GPUs verkaufen... und ION2 pushen... und Grafiklösungen für Smartphones anbieten... und Fermi an Großrechenzentren verkaufen, weil der nämlich ECC kann...
Nur die armen reichen Desktopspieler kriegen keine effiziente GPU mit ordentlich überschüssiger Leistung.
PS: "Naaah! Ship it!"
Dieser Beitrag wurde von ...but alive bearbeitet: 27. März 2010 - 15:48
#153
geschrieben 27. März 2010 - 15:58
Denke da kommt aber noch die verwertbare "Ausschußware" in's Spiel. Frage ist nur, inwieweit die dann mit dem wichtigsten Modell, der 5770, konkurrieren kann...
#154
geschrieben 27. März 2010 - 16:07
Ja, die "verwertbare Ausschussware" nennt sich GTX470.
Bluefisch hat zitiert, was ich vor Monaten schon gepredigt habe:
ATi hat seit der HD3870 ein Medium->Top / Medium->Down Modell für GPUs entwickelt.
Verdammt erfolgreich.
Nvidia hängt immer noch beim alten Top->Medium->Down Modell, das alles daran setzt den dicksten Chip zu entwickeln, der dann mühsam geschrumpft werden muss.
Vielleicht gelingt dies aufgrund der modularen Bauweise diesmal leichter.
ATi geht da ja ähnlich vor, wenn man sich die Cypress-Derivate ansieht, die durch "simple" Halbierungen entstehen (man werfe einen Blick in die Hardware Specs)..
Meiner Meinung nach gibt es eh zuviele Modelle...
Bluefisch hat zitiert, was ich vor Monaten schon gepredigt habe:
ATi hat seit der HD3870 ein Medium->Top / Medium->Down Modell für GPUs entwickelt.
Verdammt erfolgreich.
Nvidia hängt immer noch beim alten Top->Medium->Down Modell, das alles daran setzt den dicksten Chip zu entwickeln, der dann mühsam geschrumpft werden muss.
Vielleicht gelingt dies aufgrund der modularen Bauweise diesmal leichter.
ATi geht da ja ähnlich vor, wenn man sich die Cypress-Derivate ansieht, die durch "simple" Halbierungen entstehen (man werfe einen Blick in die Hardware Specs)..
Meiner Meinung nach gibt es eh zuviele Modelle...
Dieser Beitrag wurde von ...but alive bearbeitet: 27. März 2010 - 16:39
#155
geschrieben 27. März 2010 - 16:48
Ist ja schon lustig. Jetzt haben wir verwertbare Fakten auf dem Tisch, jo, die werden kurz durchgehechelt und -zack- sind die nächsten Spekulationsopfer gefunden
Für mich ist das Therma jetzt erst mal durch, denn das grosse Wunder ist nicht passiert und die Welt dreht sich trotzdem weiter.
Erst mal werden die kommenden Wochen entscheiden, welche Wirkung das GTX4xx -Release überhaupt am Markt auslösen wird: Gibt's genug davon, wie reagiert ATI (denn die können nachlegen), und wie reagieren die Consumer.
Danach wird sich der Augenmerk auf 28nm richten, und da sind die GlobalFoundries 'closer to' als Tscm. Bis dahin wird wenig wirklich Spannendes passieren, Big Bang hat 'puff' gemacht und jetzt wird erst mal aufgegessen.
Mein Interesse für die nächste Zeit haben stärker die Hexa-Cores geweckt, in Grafik werde ich vorraussichtlich so bald nicht investieren. Aber für einen 'Thuban-Spekulations-Thread' ist es leider zu spät
Für mich ist das Therma jetzt erst mal durch, denn das grosse Wunder ist nicht passiert und die Welt dreht sich trotzdem weiter.
Erst mal werden die kommenden Wochen entscheiden, welche Wirkung das GTX4xx -Release überhaupt am Markt auslösen wird: Gibt's genug davon, wie reagiert ATI (denn die können nachlegen), und wie reagieren die Consumer.
Danach wird sich der Augenmerk auf 28nm richten, und da sind die GlobalFoundries 'closer to' als Tscm. Bis dahin wird wenig wirklich Spannendes passieren, Big Bang hat 'puff' gemacht und jetzt wird erst mal aufgegessen.
Mein Interesse für die nächste Zeit haben stärker die Hexa-Cores geweckt, in Grafik werde ich vorraussichtlich so bald nicht investieren. Aber für einen 'Thuban-Spekulations-Thread' ist es leider zu spät
Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
#156
geschrieben 27. März 2010 - 17:07
Zitat
Aber für einen 'Thuban-Spekulations-Thread' ist es leider zu spät
Mach einen "Bulldozer-Spekulations-Thread" auf
Laptop: Apple Macbook / Intel Core 2 Duo 2.26 Ghz / 2 GB DDR3 / 250 GB HDD / nVidia 9400GT
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
#157
geschrieben 29. März 2010 - 15:52
Bei Alternate scheinen die User ja eindeutig zu wissen, was sie wollen!
Scheint wohl ne Menge Vorbestellungen für die GTX zu geben!
Scheint wohl ne Menge Vorbestellungen für die GTX zu geben!
#158
geschrieben 29. März 2010 - 15:57
Zitat
Scheint wohl ne Menge Vorbestellungen für die GTX zu geben!
Da sollte man sich echt fragen...da kann man sich auch gleich ne 5970 rein stopfen...vor allem ist es komisch da der eigentlich erheblich grössere Midi-Range Markt die 5870 beinhaltet und hier klar an der Spitze liegen müsste...
Laptop: Apple Macbook / Intel Core 2 Duo 2.26 Ghz / 2 GB DDR3 / 250 GB HDD / nVidia 9400GT
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
#159
geschrieben 29. März 2010 - 18:18
jetzt müssten die nur noch den Stromverbrauch in Griff kriegen, dann würd ich mir auch eine kaufen.
weiß jemand warum die TMUs nicht mit Shadertakt arbeiten, sondern mit GPU Takt, das wollte NVidia doch mit dem Fermi ändern
weiß jemand warum die TMUs nicht mit Shadertakt arbeiten, sondern mit GPU Takt, das wollte NVidia doch mit dem Fermi ändern
#160
geschrieben 29. März 2010 - 18:27
#161
geschrieben 29. März 2010 - 18:34
Tja, die Freuden eines Papierstarts...
Euch ist bewusst, dass einige (nicht näher spezifierte) 10.000 Einheiten weltweit erst Mitte April verfügbar sein sollen?
Euch ist bewusst, dass einige (nicht näher spezifierte) 10.000 Einheiten weltweit erst Mitte April verfügbar sein sollen?
#162
geschrieben 29. März 2010 - 18:45
Sagt doch auch keiner was. Wirklich verfügbar werden die Dinger doch eh erst in Monaten sein. Warum solls da anders sein als bei ATI.
#163
geschrieben 29. März 2010 - 18:47
Ich verstehe nicht wirklich, wer sich so ein Zeug kauft. Aber gut, es soll auch rosa iPhones geben...
Die GTX480 ist doch wirklich absolut sinnfrei. Selbst die GTX470 ist schon schneller, als man es überhaupt braucht in den meisten Fällen - die GTX480 macht aber einfach keinen Sinn aus heutiger Sicht.
Die GTX480 ist doch wirklich absolut sinnfrei. Selbst die GTX470 ist schon schneller, als man es überhaupt braucht in den meisten Fällen - die GTX480 macht aber einfach keinen Sinn aus heutiger Sicht.
#164
geschrieben 29. März 2010 - 18:50
Ich bin jetz grad an einem anderen Rechner, kann deshalb nicht die Links aus der Hosentasche zaubern, aber: Zu dem verzögerten Verkaufsstart (sind die versprochenen 10.000 Einheiten zum Paperlaunch eig. inzwischen irgendwo aufgetaucht? ) bestehen seitens verschiedener Boardpartner noch Bedenken, diesen Termin per se halten zu können, da die TDP- und Verbrauchsspezifikationen von Nvidia sehr kurzfristig auf die jetzt veröffentlichten Werte angehoben wurden. Einige Boardpartner sind schlicht stinksauer, weil sie so von Nvidia zu einem kompletten Re-Desigen gezwungen wurde.
Der Termin für die breite Verfügbarkeit richtet sich vorerst nach der von TSCM bis dahin lieferbaren Chip-Menge. Ob die Hersteller bis dahin fertige Karten produziert haben können, steht durchaus noch in den Sternen. Ein grösserer Hertseller hat wohl geäussert, dass die verbleibende Zeit allein für den Schiffstransport schon draufgehen würde.
Der Termin für die breite Verfügbarkeit richtet sich vorerst nach der von TSCM bis dahin lieferbaren Chip-Menge. Ob die Hersteller bis dahin fertige Karten produziert haben können, steht durchaus noch in den Sternen. Ein grösserer Hertseller hat wohl geäussert, dass die verbleibende Zeit allein für den Schiffstransport schon draufgehen würde.
Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
#165
geschrieben 30. März 2010 - 08:40
weiß jemand warum NVidia die TMUs nur auf GPU Takt und nicht wie geplant auf Shadertakt arbeiten lässt, das war ja eigentlich der Hauptgrund, warum NVidia nur 64 beziehungsweise jetzt 60 verbaut hat