WinFuture-Forum.de: Fermi & Cypress - WinFuture-Forum.de

Zum Inhalt wechseln

Nachrichten zum Thema: Grafikkarten
  • 15 Seiten +
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • Letzte »

Fermi & Cypress

#16 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.423
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 04. Februar 2010 - 10:28

Beitrag anzeigenZitat (The Grim Reaper: 03.02.2010, 22:27)

und dann ist Fermi auch nichtmehr "so" schnell wie man es jetzt betrachten mag.


die entscheidende frage ist, ob er es jemals überhaupt sein wird! wie ich ein paar posts weiter oben schon geschrieben habe, funktionieren die chips keineswegs so, wie sie spezifiziert wurden. ein gigantisches problem für nvidia ist die leistungsaufnahme mit allen damit verbunden folgen. die sitzen richtig in der klemme: auf der einen seite müssen sie den chip 'unterversorgen', um nicht alle massstäbe zu sprengen, auf der anderen seite geht ihnen dadurch die spitzenleistung flöten.

nach allem, was ich gelesen habe, gibt es zwar die theoretische hohe leistung. das paket aber, das sich als fertige grafikkarte nach den anforderungen der pci-e spezifikationen richten muss und mit einer 'handelsüblichen' kühllösung auskommen muss (und dabei dennoch fast 100 watt mehr verbrät als eine HD4890!!), wird nicht in dem masse funktionieren.

cuda und physX als snobistisch geschlossen gehaltene standards liegen mittelfristig eh auf dem sterbebett. da beisst die maus kein faden ab.

die ultimative krücke aber werden die etwa 4-fachen produktionskosten ggü dem RV 870 allein für den chip sein. das bedeuted eine marke von 200,- $! für das gleiche geld bekommt ein grosshändler eine komplette HD 5850 von ati...


natürlich sind das alles spekulationen. aber sie sind nicht aus der luft gegriffen. das schweigen von nvidia und die 'exklusiven' benches tun ihr übriges.
Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

Anzeige



#17 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 846
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 04. Februar 2010 - 13:42

Pluspunkt: Für HPTCs interessant.
0

#18 Mitglied ist offline   bluefisch200 

  • Gruppe: aktive Mitglieder
  • Beiträge: 718
  • Beigetreten: 28. Januar 07
  • Reputation: 0

geschrieben 04. Februar 2010 - 13:51

Auch wenn ich es ATI gönne und selbst ein ATI (ja doch kann man so sagen) Fanboy bin...nVidia darf NICHT gegen ATI verlieren. Das wäre eine Katastrophe für den Markt...ich hoffe nur Fermi kann es dem Cypress zeigen und wird ATI unter Druck bringen...
Laptop: Apple Macbook / Intel Core 2 Duo 2.26 Ghz / 2 GB DDR3 / 250 GB HDD / nVidia 9400GT
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
0

#19 Mitglied ist offline   Scarecrow 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.186
  • Beigetreten: 25. Dezember 07
  • Reputation: 7
  • Geschlecht:Männlich
  • Wohnort:RV

geschrieben 04. Februar 2010 - 15:23

Beitrag anzeigenZitat (...but alive: 04.02.2010, 13:42)

Pluspunkt: Für HPTCs interessant.



wegen?

Die neue kleine ATi ist dafür wohl mehr als perfekt: ATi 5450 unter 50€

denke nicht dass da Nvidia P/L-Technisch mithalten kann.


Muss bluefish200 zustimmen: Ein Monopol von ATi wäre für uns als Verbraucher wohl das Schlimmste.
Eingefügtes Bild --- Desktop
Eingefügtes Bild --- Laptop
______
Xeon E3 1230, 16GB DDR3, H87-HD3, Nvidia 770 GTX 2GB, 128GB Samsung 830, 500GB HDD, 1TB HDD, NAS Synology 2x4TB
______
"Denn nur ich, ich bin in Ordnung und den Rest könnt ihr vergessen, ich gehöre zu den Besten, ich bin Teil einer Elite, bin der Retter der Nation." - Frei.Wild
0

#20 _EDDP_

  • Gruppe: Gäste

geschrieben 04. Februar 2010 - 15:28

Aber was soll man 50€ für 'ne HD5450 ausgeben, wenn man für die Hälfte 'ne HD4350 bekommt. Die DX11-Unterstützung nutzt einem angesichts der Leistungsfähigkeit eh nichts. Im übrigen bekäme man für knapp über 50€ bereits 'ne spieletaugliche HD4670. Die Konkurrenz ist also im eigenen Haus...:P

Dieser Beitrag wurde von EDDP bearbeitet: 04. Februar 2010 - 15:29

0

#21 Mitglied ist offline   Scarecrow 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.186
  • Beigetreten: 25. Dezember 07
  • Reputation: 7
  • Geschlecht:Männlich
  • Wohnort:RV

geschrieben 04. Februar 2010 - 15:42

@EDDP: das ist richtig, aber ich hätte gern ne Begründung für ...but alives Kommentar :P
Eingefügtes Bild --- Desktop
Eingefügtes Bild --- Laptop
______
Xeon E3 1230, 16GB DDR3, H87-HD3, Nvidia 770 GTX 2GB, 128GB Samsung 830, 500GB HDD, 1TB HDD, NAS Synology 2x4TB
______
"Denn nur ich, ich bin in Ordnung und den Rest könnt ihr vergessen, ich gehöre zu den Besten, ich bin Teil einer Elite, bin der Retter der Nation." - Frei.Wild
0

#22 Mitglied ist offline   Mr. Floppy 

  • Gruppe: VIP Mitglieder
  • Beiträge: 4.126
  • Beigetreten: 01. Juli 08
  • Reputation: 271
  • Geschlecht:Männlich

geschrieben 04. Februar 2010 - 15:58

Beitrag anzeigenZitat (klawitter: 04.02.2010, 10:28)

die entscheidende frage ist, ob er es jemals überhaupt sein wird! wie ich ein paar posts weiter oben schon geschrieben habe, funktionieren die chips keineswegs so, wie sie spezifiziert wurden. ein gigantisches problem für nvidia ist die leistungsaufnahme mit allen damit verbunden folgen. die sitzen richtig in der klemme: auf der einen seite müssen sie den chip 'unterversorgen', um nicht alle massstäbe zu sprengen, auf der anderen seite geht ihnen dadurch die spitzenleistung flöten.

Dazu gab's 'nen schönen Artikel bei SemiAccurate, den vielleicht schon der ein oder andere kennt. Fermi ist zwar auf dem Papier schneller, aber das bezieht sich eben nur auf die reine Rechenpower. Während ATI auf Hardware setzt, wird bei NVIDIA einiges softwaremäßig per Shader erledigt, die dann für andere Berechnungen fehlen. Das ATI-Design skaliert also wesentlich besser und hat vor allem noch Luft nach oben.

Wenn man den Gerüchten glauben darf, wird der Fermi zumindest im Spielebereich zu einem enormen Flop. Wirtschaftlich ist er das sicher jetzt schon. Wer auf Numbercrunching steht, greift zu Fermi, wer nur spielen will, zu einer Karte, die auch dafür gemacht wurde, und die kommt halt von ATI/AMD.

EDIT:
Link korrigiert

Dieser Beitrag wurde von Mr. Floppy bearbeitet: 04. Februar 2010 - 16:10

0

#23 Mitglied ist offline   SFFox 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.338
  • Beigetreten: 19. August 04
  • Reputation: 4
  • Geschlecht:Männlich
  • Wohnort:Bonn

geschrieben 04. Februar 2010 - 16:04

Beitrag anzeigenZitat (EDDP: 04.02.2010, 15:28)

Aber was soll man 50€ für 'ne HD5450 ausgeben, wenn man für die Hälfte 'ne HD4350 bekommt. Die DX11-Unterstützung nutzt einem angesichts der Leistungsfähigkeit eh nichts. Im übrigen bekäme man für knapp über 50€ bereits 'ne spieletaugliche HD4670. Die Konkurrenz ist also im eigenen Haus...:P

Na malt mal nicht den Teufel an die Wand, es war ständig ein großes Auf und Ab.

Die 9x00er Serive von Ati war schneller und featurereicher als die GF4 Reihe von Nvidia, die GF5er Reihe hats auch nicht besser gemacht. Die GF6 Reihe hingegen war marginal schneller und hatte im Gegenzug zu ATIs X800er Reihe volle SM3.0 Unterstützung und so weiter. Ein Auf und Ab für beide, das ist schon gut so und hält den Markt in einer guten Balance denke ich ;(

mfg
SFFox
0

#24 _EDDP_

  • Gruppe: Gäste

geschrieben 04. Februar 2010 - 16:14

Aber man sollte schon mal erwähnen dürfen, wenn ATI versucht seine eigene Kundschaft für dumm zu verkaufen...:P

Dieser Beitrag wurde von EDDP bearbeitet: 04. Februar 2010 - 16:18

0

#25 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 846
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 04. Februar 2010 - 18:40

Scarecrow:
Keine Sorge, hier kommt er:
Du hast HTPC mit HPTC verwechselt :wink:
Ich redete von High Performance Technical Computing, Du von Home Theater PCs.

Nvidia hat vorgerechnet wie man mit Fermi für einen Bruchteil der bisherigen Kosten wissenschaftliche und militärische Großrechenlösungen ersetzen kann. Deswegen kann Fermi auch ECC...

Zitat

NVIDIA loves to cite examples of where algorithms ported to GPUs work so much better than CPUs. One such example is a seismic processing application that HESS found ran very well on NVIDIA GPUs. It migrated a cluster of 2000 servers to 32 Tesla S1070s, bringing total costs down from $8M to $400K, and total power from 1200kW down to 45kW.

http://www.anandtech...aspx?i=3651&p=2

Seismic: $300M
Supercomputing $200M
Universities $150M
Defence $250M
Finance $230M

...definitiv ein Markt - nur juckt der Desktopzockkinder nicht.

Zitat

If NVIDIA met its goals here, the Tesla business could be bigger than the GeForce one. There's just one problem:

As you'll soon see, many of the architectural features of Fermi are targeted specifically for Tesla markets. The same could be said about GT200, albeit to a lesser degree. Yet Tesla accounted for less than 1.3% of NVIDIA's total revenue last quarter.

Given these numbers it looks like NVIDIA is building GPUs for a world that doesn't exist. NVIDIA doesn't agree.

Dieser Beitrag wurde von ...but alive bearbeitet: 04. Februar 2010 - 20:39

0

#26 Mitglied ist offline   Scarecrow 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.186
  • Beigetreten: 25. Dezember 07
  • Reputation: 7
  • Geschlecht:Männlich
  • Wohnort:RV

geschrieben 04. Februar 2010 - 20:28

@..but alive: achso. hab schon gedacht du hattest da ein Tippfehler drin.
Eingefügtes Bild --- Desktop
Eingefügtes Bild --- Laptop
______
Xeon E3 1230, 16GB DDR3, H87-HD3, Nvidia 770 GTX 2GB, 128GB Samsung 830, 500GB HDD, 1TB HDD, NAS Synology 2x4TB
______
"Denn nur ich, ich bin in Ordnung und den Rest könnt ihr vergessen, ich gehöre zu den Besten, ich bin Teil einer Elite, bin der Retter der Nation." - Frei.Wild
0

#27 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.423
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 04. Februar 2010 - 22:30

@ scarecrow: das mit dem htpc und hptc macht er nur, damit er es auf nachfrage noch ein wenig eingehender ausführen kann... :wink:

@ SFFox:

du hast recht, ein wirkliches scheitern von ati oder nvidia wäre fatal: keine konkurrenz, keine entwicklung, preisdiktate etc...

andererseits: die jetzige situation von nvidia ist schon sehr speziell. das liegt an den gesteckten zielen, eine gewissen hybris (man könnte es auch sturheit nennen) und nicht zuletz an der art, wie nvidia sich in jüngerer vergangenheit über mitbewerber und partner zu äussern pflegt.

letztlich muss sich fermi aka gf100 wohl nicht an seiner leistung, sondern an den sprüchen von Jen-Hsun Huang messen lassen...
Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#28 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 846
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 06. Februar 2010 - 02:31

Hier weiß einer ALLES über den Fermi, wir können den Thread dicht machen!
Ich musste beim Lesen unwillkürlich an jenes UFO-Poster denken...

Ernsthaft: Hat irgendjemand das Gefühl, dass er (oder irgendjemand im Forum) versteht, was er da vor sich hinplappert?

Zitat

Am ungewöhnlichsten ist jedoch, dass Nvidia diesmal nicht dem Hase-und-Igel-Spiel mit ATi folgt. Während die ATI-Marketing-Maschine ausspielt, dass Nvidia seinen DirectX-11-Chip nur auf dem Papier zu bieten hat und ATi mit echten Produkten aufwarten kann, wirken die Produktmanager von Nvidia relativ relaxed.

*liegt unter'm Tisch und rappelt sich unter Lachkrämpfen wieder hoch*
Richtig gelesen: Nvidia hat sich aus freien Stücken und völlig relaxed dafür entschieden, das Rennen durch Nicht-Aufkreuzen zu verlieren.. ist ja auch mal total crazy, dieses Hase-und-Igel-Spiel..
Relax! -> Pokerface

Erwähnte ich bereits, dass besagter Poster ALLES über Fermi weiß?

Zitat

[...]nun erste Preisangaben.

Demnach müssen Käufer einer GTX 480 550 Euro hinlegen. Käufer einer GTX 470 hingegen "nur" 450 Euro. [sic!] Beide bekommen für den Preis die beiden schnellsten Desktop Single GPUs auf Mutter Erde, mit aber auch wohl der höchsten TDP aller Single GPUs.

Damit ist Fermi nochmals teurer wie [knapp 20.000 Beiträge & sic!] eine HD 5870, aber auch nochmal schneller.

..was der nicht alles weiß. Wir sollten ihm mal einen Besuch abstatten, hat er doch offensichtlich schon exklusive Fermi-Prototypen im heimischen Propaganda-PC...

Zitat

Offiziell bestätigt ist das noch nicht!

Hey, das hat noch niemanden daran gehindert Blech zu reden.. whoops! *Hand vor den Mund*

Zu RV770 und Cypress haben wir natürlich auch eine Meinung:

Zitat

Ganz ehrlich: ATI sollte man lieber 500 Euro Karten wieder bringen.
Aus Gewinnsicht.

Klar - das überzeugt garantiert JEDEN sofort 'nen halben Riesen lockerzumachen...
Ich habs! Wie wärs mit einer vergoldeten Special Celebrity-Version mit Vollkupferkühler und einer neckischen Verzierung durch Rohdiamanten? --> HD5870 VIPower Edition

Zitat

Zwar macht ATI mit HD4 und 5 Gewinne, aber minimal, weil absichtlich einkalkuliert.

Scheisse! Das hatte ich schon die ganze Zeit im Urin, dass die das absichtlich machen: da werden über Monate hinweg Millionen in die Planung, Erforschung und Entwicklung einer neuen GPU gesteckt - und jetzt stellt sich heraus, dass diese Füchse bei ATi das absichtlich machen, um Gewinne einzufahren - jetzt wo er's sagt, ergibt das auf einmal alles einen Sinn..

Zitat

Aber mit mehr Gewinnen kann die Firma noch mehr wachsen. Zwar hat ATI noch AMD ,aber deren liquide Mittel sind begrenzt und zudem meist für Prozessoren reserviert, dem eigentlich Gebiet AMDs.

Ich weiß zwar nicht, inwiefern Dreisatzrechnung jemanden überfordern kann, aber wann mache ich mehr Gewinn? Wenn ich 800.000 Midrangekarten mit einem Gewinn von jeweils 50€ absetze oder 10.000 Hi-Endkarten mit einem Gewinn von 150€?

Zitat

Ich kann ja verstehen das so billig, aber, wann konnte denn man mal behaupten, ich habe ne gute 500 Euro+ ATI Karte im System. Hm, mal überlegen, das war lange her. Radeon 9700 pro, 9800 pro, 9800 XT und X800 XT PE sowie X1800 XT PE und X1950 XTX.

Ah, eine Karte kann nur gut sein, wenn sie mindestens 500€ gekostet hat - sonst taugt sie ja auch nicht als Prolo-Nerd-Version zur Hi-End-Penisverlängerung, richtig?

Zitat

Das waren alles gute Karten und deswegen teuer. AMD sollte lieber hingehen, nen Refresh Chip bringen, der vielleicht sogar schneller ist wie [sic!] Fermi und dafür mal 500 Euro verlangen.

Komisch, genau dann wäre Nvidia wieder konkurrenzfähig...
Dürfen wir etwa einen überzeugten Nvidioten hinter dieser Aussage vermuten?

Zitat

Ich sage das nicht wegen irgendwelchen NV Gründen oder Vorteile, nein keine angst.

Puh, und ich dachte schon...

Zitat

Es waren nun mal Standardpreise und zeigt eine gewisse Machtstellung an. Der hohe Preis hätte also nicht nur Nachteile, nein auch Vorteile, genauso wie der billigere Preis, nur umgekehrt.

Hey, ergibt zwar keinen Sinn, aber Denken ist ja bekanntlich, wenn man's trotzdem mal versucht hat...

Dieser Beitrag wurde von ...but alive bearbeitet: 06. Februar 2010 - 03:58

0

#29 Mitglied ist offline   bluefisch200 

  • Gruppe: aktive Mitglieder
  • Beiträge: 718
  • Beigetreten: 28. Januar 07
  • Reputation: 0

geschrieben 06. Februar 2010 - 10:44

@...but alive
Ich danke dir für diesen traumhaft sarkastischen Beitrag...

Ich habe irgendwie das Gefühl dass der Typ Qualität im Preise des Produktes sucht, nun das hast du ja auch schön hervor gehoben :grin:

Btw. ich verkaufe meine alte HD4870 für 500 Euro...will wer? Sie ist TEUER !

Zum minimalen Gewinn zurück...ich dachte eigentlich dass ATI seit dem R600 auf eine schwächere und dafür günstige und sparsame (vom Verbrauch her) GPU setzt und deshalb auch immer ein X2 Modell bringen kann...die Gewinnspanne wird also dementsprechend genug hoch liegen...wobei das dem Kunden so ziemlich egal sein kann.
Laptop: Apple Macbook / Intel Core 2 Duo 2.26 Ghz / 2 GB DDR3 / 250 GB HDD / nVidia 9400GT
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
0

#30 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 846
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 06. Februar 2010 - 11:31

Ich halte es für keinen Zufall, dass die meistverbaute (= beliebteste) Grafikkarte unter Spielern immer noch unangefochten die 8800GT ist (siehe oben, Steam Hardware Survey).

Sie ist nämlich das Paradebeispiel für den Trend, der mit der HD3870 (und natürlich der 8800GT) einsetzte, dass man auf einmal satte Leistung um den magischen Preispunkt von ca. 150€ bekam.. auch bekannt als: "Noch nie bekommst Du soviel Grafik für's Geld"

ATi peilte mit der HD4850/4830/4770 exakt diesen Punkt an und das scheint offensichtlich prima zu funktionieren, Nvidia schoss mit der GTX260 (nicht ganz zufällig die beliebteste Karte der letzten Generation) leicht darüber hinaus und wird mit dem Fermi - falls nur die Hälfte von dem wahr ist, was bisher so an Gerüchten umläuft - noch sehr viel mächtiger drüber hinausschießen.

Deswegen interessiert mich die GTX480 auch sehr viel weniger als das Fermi-Derivat der aktuellen GTX260..


Hinzu kommt, dass ATi vor Entwicklung des RV770 eine (von mir fast schon todzitierte) Marktanalyse angestellt hat. Dort kam heraus, dass "Enthusiast"-GPUs gerade einmal 20% (!) des Marktes ausmachen.
Zum Mitschreiben: Gerade einmal EIN dürftiges FÜNFTEL interessiert sich überhaupt für GTX285 & Co.
Die restlichen 80% des Marktes werden von Midrange und Low-End dominiert.. go figure...
Wenn man also maximalen Gewinn machen will, was für einen Chip entwickelt man dann primär? Welchen Teil des Marktes spricht man bevorzugt an?

Wenn Du eine GPU für die Massen verkaufen willst, verbietet sich ein Preisschild ab 300€ aufwärts praktisch von selbst. Bis zum RV770 hieß das Spielchen: "Wer gelingt es den dickeren Fermi zu bauen?" - aber ATi hat den Markt analysiert, nachgedacht und sich umgestellt, um die 80%ige Mehrheit zu bedienen.
Das scheint zu funktionieren... der RV770 belegt in der Beliebheitsskala nämlich Platz #2 - und weder HD4870, noch HD4890 kamen an die Leistung einer GTX285 ran - sollten sie auch gar nicht - dieser Markt wird ab jetzt dadurch bedient, dass man ihm eine Dual-GPU vorsetzt...

Dieser Beitrag wurde von ...but alive bearbeitet: 06. Februar 2010 - 11:42

0

Thema verteilen:


  • 15 Seiten +
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • Letzte »

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0