WinFuture-Forum.de: Nvidia 300 Gpu Serie - WinFuture-Forum.de

Zum Inhalt wechseln

Nachrichten zum Thema: Grafikkarten
Seite 1 von 1

Nvidia 300 Gpu Serie Details zu Modellnamen


#1 Mitglied ist offline   evil.baschdi 

  • Gruppe: aktive Mitglieder
  • Beiträge: 3.669
  • Beigetreten: 11. Februar 07
  • Reputation: 56
  • Geschlecht:unbekannt

geschrieben 08. Dezember 2009 - 07:20

Zitat

Just discovered Forceware 190.73 over at MSUpdate.
In here are some new GPU's to ponder over.

Here are the known 300 Series GPU's:

Desktop
NVIDIA_DEV.0A22.01 = "NVIDIA GeForce 315"
NVIDIA_DEV.0A63.01 = "NVIDIA GeForce 310"
NVIDIA_DEV.0A66.01 = "NVIDIA GeForce 310 "
NVIDIA_DEV.0A78.01 = "NVIDIA Quadro FX 380 LP"
NVIDIA_DEV.0CA0.01 = "NVIDIA GeForce GT 330"
NVIDIA_DEV.0CA2.01 = "NVIDIA GeForce GT 320"
NVIDIA_DEV.0CA7.01 = "NVIDIA GeForce GT 330 "

Mobile
NVIDIA_DEV.0A29.01 = "NVIDIA GeForce GT 330M"
NVIDIA_DEV.0A2B.01 = "NVIDIA GeForce GT 330M "
NVIDIA_DEV.0A3C.01 = "NVIDIA Quadro FX 880M"
NVIDIA_DEV.0A6C.01 = "NVIDIA Quadro NVS 170M"
NVIDIA_DEV.0A6E.01 = "NVIDIA GeForce 305M"
NVIDIA_DEV.0A75.01 = "NVIDIA GeForce 310M"
NVIDIA_DEV.0A7C.01 = "NVIDIA Quadro FX 380M"
NVIDIA_DEV.0CAF.01 = "NVIDIA GeForce GT 335M"
NVIDIA_DEV.0CB0.01 = "NVIDIA GeForce GTS 350M"
NVIDIA_DEV.0CB1.01 = "NVIDIA GeForce GTS 360M"
NVIDIA_DEV.0CBC.01 = "NVIDIA Quadro FX 1800M"

These should be true 300 series GPU's
Entry level and middle performance GPU's.
Wonder if these will support DX11 or just DX10.1 ?
So many Questions, not many answers yet, with the inclusion of Desktop 300's hopefully these will be out very soon.


Quelle: http://www.laptopvideo2go.com/
0

Anzeige



#2 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.423
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 08. Dezember 2009 - 07:58

max 330 gt... gut hört sich das nicht an...
Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#3 Mitglied ist offline   evil.baschdi 

  • Gruppe: aktive Mitglieder
  • Beiträge: 3.669
  • Beigetreten: 11. Februar 07
  • Reputation: 56
  • Geschlecht:unbekannt

geschrieben 08. Dezember 2009 - 08:06

Quelle schreibt ja, dass es vermutlich noch 10.1 Karten sind
0

#4 _max._

  • Gruppe: Gäste

geschrieben 08. Dezember 2009 - 08:25

D.h. wieder nichts Neues sondern höchstwahrscheinlich wieder nur Umbenennungen à la GT210 wird zu GT310.... :veryangry:
0

#5 Mitglied ist offline   evil.baschdi 

  • Gruppe: aktive Mitglieder
  • Beiträge: 3.669
  • Beigetreten: 11. Februar 07
  • Reputation: 56
  • Geschlecht:unbekannt

geschrieben 08. Dezember 2009 - 09:45

Das mit der Umbenennung wurde auf heise.de sogar schon Thematisiert und mehr oder weniger bestätigt, find nur grad mal wieder den Artikel nicht
0

#6 Mitglied ist offline   bluefisch200 

  • Gruppe: aktive Mitglieder
  • Beiträge: 718
  • Beigetreten: 28. Januar 07
  • Reputation: 0

geschrieben 08. Dezember 2009 - 09:48

Wenn die Dinger schon wieder auf der 8000er Serie basieren hat es nVidia ganz klar zu weit getrieben...wobei die besseren doch schon GT200 Chips haben könnten...
Laptop: Apple Macbook / Intel Core 2 Duo 2.26 Ghz / 2 GB DDR3 / 250 GB HDD / nVidia 9400GT
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
0

#7 _max._

  • Gruppe: Gäste

geschrieben 08. Dezember 2009 - 10:21

Basieren tun sie aber auf den alten Modellen, trotz GT2xx Chipsatz. Als wohl berühmtestes Bsp.: 8800GT wurde zu 9800GTX und die wiederum zur GTS 250. Oder wie das in meinen Augen der Fall ist bei der GT240, die zwar auf dem GT215 Chip basiert, GDDR5 und in 40nm gefertigt wurde, jedoch langsamer ist als der Vorläufer (die 9600GT)- hier ist irgendwas in der Firmenpolitik schief gelaufen. Und das wird nVidia das Genick brechen, vorallem wenn Fermi nicht mithalten kann mit mit der P/L Verhältnis von ATI/AMD... Schade eigentlich :veryangry:
0

#8 Mitglied ist offline   Heto 

  • Gruppe: aktive Mitglieder
  • Beiträge: 2.797
  • Beigetreten: 20. Juni 08
  • Reputation: 12
  • Geschlecht:Männlich
  • Wohnort:Ciudad de las Gauchas

geschrieben 08. Dezember 2009 - 10:36

Eine wirkliche Neuheit sind die Karten ja nicht, da die meisten einfach umbenannt wurden! <_<

Was Nvidia damit erreichen will? :veryangry:

mfg heto
Eingefügtes Bild

Seien Sie vorsichtig mit Gesundheitsbüchern - Sie könnten an einem Druckfehler sterben.
0

#9 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.423
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 08. Dezember 2009 - 11:06

ich glaube, man hat sich bei nvidia zu sehr auf cuda und physX etc. (wie gedopte vantage-treiber) verlassen (->wir sind eine softwarefirma), das, was ati genaugenommen zu sehr vernachlässigt bzw damit nur schleppend vorankommt.

DX11 und openCL werden dem aber über kurz oder lang einen strich durch die rechnung machen. auch dass man bei nvidia so überzeugt von seinen software-implementierungen war, dass man glaubte, es dem rest der welt (ati-user) vorenthalten zu können. hätten sie lieber mal bewiesen, dass sie's besser können...


richtig doof wird es für die user natürlich, sollte nvidia den anschluss verlieren wie ehedem sis, matrox etc. intel muss den larrabee als dedizierte gpu auch erst mal auf die lange bank schieben. wie lange ati dann noch gewillt ist, das preisniveau unten zu halten und was weiterentwicklungen 'ohne druck' angeht -?-

immerhin stünde als nächster milestone eine grundlegende, radikale veränderung des echtzeitrenderings an (abschied von polygonen, raytracing oder entspr. derivat). tesselation lässt sich zwar sicherlich noch weiter ausbauen, ist aber doch 'nur' die deklination eines bekannten themas. eine grundlegende erneuerung einer technologie fordert mut, viel geld und entschlossenheit, was keiner ohne entsprechenden druck gerne aufbringt.

ich hoffe, dass wir schlimmstenfalls etwas erleben wie zu zeiten von atis R600, und dass nvidia sich vlt. wieder etwas mehr öffnet und seine bockige 'ihr-seid-doch-alle-doof' haltung aufgibt.

diese '300'er-karten sind auf jeden fall schon mal ein riesengrosser sargnagel.

Dieser Beitrag wurde von klawitter bearbeitet: 08. Dezember 2009 - 12:27

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#10 _max._

  • Gruppe: Gäste

geschrieben 08. Dezember 2009 - 11:25

Cuda oder physX sind auch geniale Ideen und letztere gab nVidia einen klaren Vorsprung bei vielen Spielen in den letzten Jahren. DX11 ist die Frage ob es ihnen wirklich das Genick brechen wird, ich denke eher, dass die Methode "Umbenennen statt Neuentwickeln" dazu führen wird. Zu DX11: Auf dem Papier ist die Fermi stark genug Cypress (RV870) Parole zu bieten. Den Start hat nVidia klar verloren, wobei verloren -sie sind nichtmal angetreten... Aber evtl. wird sich das normalisieren im Laufe der nächsten Quartale, was sich jeder und damit meine ich auch die ATI-Fanboys :veryangry: , wünschen sollte.
0

#11 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.423
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 08. Dezember 2009 - 12:03

Beitrag anzeigenZitat (max.: 08.12.2009, 11:25)

Cuda oder physX sind auch geniale Ideen und letztere gab nVidia einen klaren Vorsprung bei vielen Spielen in den letzten Jahren.


kann man so sehen, muss man aber nicht wirklich.

Zitat

DX11 ist die Frage ob es ihnen wirklich das Genick brechen wird, ich denke eher, dass die Methode "Umbenennen statt Neuentwickeln" dazu führen wird. Zu DX11: Auf dem Papier ist die Fermi stark genug Cypress (RV870) Parole zu bieten.


papier rechnet aber nicht. das layout des chips und der fertigungstechnische stand von nvidia stellen imho das viel grössere problem dar. der riesige chip ist zwar modular aufgebaut, aber entweder produziert nvidia dann im consumerbereich mit einer miserablen yieldrate, was angesichts der grundlegenden probleme im 40nm-prozess doppelt zu buche schlüge, oder man produziert letztendlich unterschiedliche chips, was auf der anderen seite wieder kosten für unterschiedliche matritzen und fertigungsschienen verursacht und die ausbeute wiederum einschränkt.

an der leistung des fermi-chips gibt es erst mal nichts zu zweifeln, die fragen sind: wann, wie teuer, und wieviele abgeschaltete (tesla-)einheiten fressen heimlich strom.

hinzukommt, dass nvidia derzeit seine wirklich guten produkte wie den ion-chip nur sehr eingeschränkt am markt unterbringen kann (so 775, atom): für intel kann man keine neuen chips produzieren (dmi-lizenz) und bzgl amd will man nicht aus der schmollecke raus.

Zitat

ATI-Fanboys :veryangry:

könnte man doch auch einfach weglassen, oder?

Dieser Beitrag wurde von klawitter bearbeitet: 08. Dezember 2009 - 12:04

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#12 _max._

  • Gruppe: Gäste

geschrieben 09. Dezember 2009 - 08:38

Zitat

kann man so sehen, muss man aber nicht wirklich.

Die Idee GPUs, welche ein Vielfaches der CPU-Rechenleistung erbringen können, zur Berechnung von nicht grafischen Sachen herzunehmen (Bsp.: BOINC) ist genial! Und physX brachte Nvidia gravierende Vorteile u.a. bei Cryostasis, Batman Arkham Asylum oder Mirror’s Edge. Also ich denke die Option – „muss man nicht wirklich so sehen“ ist hier nicht vorhanden.

Zitat

papier rechnet aber nicht.

Da hast du Recht, jedoch kann man im Moment nicht sonderlich viel mehr über die Fermi sagen, sicherlich wir haben Produktionsprobleme, wir haben Bilder von der GF100 wir haben Bilder der Fermi im SLI, Bilder wie sie Unigine Heaven rendert…. Aber sonst nichts – folglich müssen wir uns bei ihr auf das Papier verlassen – vorerst.

Zitat

an der leistung des fermi-chips gibt es erst mal nichts zu zweifeln, die fragen sind: wann, wie teuer, und wieviele abgeschaltete (tesla-)einheiten fressen heimlich strom.

Wann: Q1 2010 d.h. März :blink:, was problematisch werden dürfte wenn ATI die 1. überarbeitete Version in den Ring schicken kann und nvidia erst mal Fuß fassen muss. Wie teuer bzw. welches P/L Verhältnis ist wichtiger – oder aber – wird nvidia Gewinn machen trotz evtl. höher Absatz zahlen, da sie den Preis senken müssen?
Nvidias Chipgeschäft ist – status quo vorbei. Die Gründe dafür hast du ja genannt. Ich persönlich finde es schade, da somit wieder ein Konkurrent weniger auf dem Markt ist.

Zitat

könnte man doch auch einfach weglassen, oder?

Leider nicht, da es sehr viele Personen gibt, die ATI wohlgesonnen sind und nicht realisieren dass eine ATI-Markt-Übermacht oder ein Untergang von nvidia katastrophal sein würde für Preis, Innovation etc. eben den gesamten Wettbewerb.

Gruß max.
0

#13 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 846
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 09. Dezember 2009 - 09:35

Zitat

kann man im Moment nicht sonderlich viel mehr über die Fermi sagen, sicherlich wir haben Produktionsprobleme, wir haben Bilder von der GF100 wir haben Bilder der Fermi im SLI, Bilder wie sie Unigine Heaven rendert…. Aber sonst nichts – folglich müssen wir uns bei ihr auf das Papier verlassen – vorerst.


*guckt in den Hinterhof*
Also meine , sry, unsere Chipproduktion läuft ganz gut...

Oder arbeitest Du etwa bei Nvidia?

Dieser Beitrag wurde von ...but alive bearbeitet: 09. Dezember 2009 - 09:36

0

#14 _max._

  • Gruppe: Gäste

geschrieben 09. Dezember 2009 - 10:45

Für dich verständlicher formuliert :ph34r:

Zitat

kann man im Moment nicht sonderlich viel mehr über die Fermi sagen, sicherlich wir haben Informationen über Produktionsprobleme vorliegen, wir haben Bilder von der GF100 und Bilder der Fermi im SLI auf Facebook gesehen, Bilder wie sie Unigine Heaven rendert…. Aber sonst nichts – folglich müssen wir uns bei ihr auf das Papier verlassen – vorerst.


Ich hoffe deine sprachlichen Verständnisprobleme wurden hiermit beseitigt^^ Spaß beiseite - war in der Tat etwas missverständlich, wenn man es denn so interpretieren wollte :blink:
0

#15 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.423
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 09. Dezember 2009 - 15:15

Beitrag anzeigenZitat (max.: 09.12.2009, 08:38)

Leider nicht, da es sehr viele Personen gibt, die ATI wohlgesonnen sind und nicht realisieren dass eine ATI-Markt-Übermacht oder ein Untergang von nvidia katastrophal sein würde für Preis, Innovation etc. eben den gesamten Wettbewerb.


sicher. aber mit solchen leuten spricht man in unserer chipproduktion nicht :wink:

weshalb ich aber poste:

mir ging das nicht aus dem sinn, wie nvidia zu halbwegs sozialverträglicher ausbeute kommen will, wenn sie die chipproduktion in tesla und consumer aufteilen. ich kann mir vorstellen, sie tun es, denn 250mm² abgeschaltete chipfläche kann sich keiner leisten. aber sie müssen irgendwie zu einer vernünftigen yieldrate in der tesla-produktion kommen:

also werden alle teildefekten tesla-fermis, die noch als consumer-chip taugen, auch verbaut. in folge gibt es zwei varianten der z.b. gtx 380, wohlgemerkt ohne unterschied in der bezeichnung:
die mit 2*6pcie-steckern, super karte, sparsam etc...
- und die mit 6+ 8 Pcie-steckern: auch ne super karte, aber mit lautem lüfter und 40 watt mehrverbrauch.

hach, spekulatius passt einfach zur vorweihnachtszeit. :)

Dieser Beitrag wurde von klawitter bearbeitet: 09. Dezember 2009 - 15:16

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

Thema verteilen:


Seite 1 von 1

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0