WinFuture-Forum.de: Fermi & Cypress - WinFuture-Forum.de

Zum Inhalt wechseln

Nachrichten zum Thema: Grafikkarten
  • 15 Seiten +
  • « Erste
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • Letzte »

Fermi & Cypress

#61 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.409
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 21. Februar 2010 - 13:26

das ist ja nun alles hinlänglich klar und die grosse überraschung wird nicht mehr kommen.

selbst wenn die gtx480 doch einiges schneller sein sollte als bei semiaccurate gemunkelt, wäre es für die zeitspanne von 8 monaten zwischen den launches von ati (09/09) und nvidia (05/10) zu wenig.

das wird aber nicht der fall sein, es gibt reihenweise argumente, die dagegen sprechen (und das schon vor monaten taten).

und da kommen wir auch auf einen ganz wesentlichen punkt: lassen wir mal stromverbrauch und abwärme für brachial-leistung einfach aussen vor, dann sind deren grenzen nur durch die pci-e spezifikationen (300W max) und die kühllösung beschränkt.

aber selbst so stösst der fermi zu schnell an seine grenzen. der grund ist hinlänglich bekannt und das gleiche problem hatte ati auch:
die exakte bestimmung von leiterlängen wird, je kleiner die struktur, umso schwieriger /ungenauer. es läst sich nicht einfach das design eines 55nm-chips verkleinern. durch die grösseren toleranzen /unterschiede entstehen potentiell mehr und höhere leckströme.

so waren die ersten HD4770 von ati auch nicht das, was man sich diesbezüglich versprach.

was hat ati gemacht? aus dieser erfahrung heraus wurden nochmal massive eingriffe in das design des RV800 vorgenommen, um das problem in den griff zu bekommen. das ergebnis? bekannt: die niedrige leistungs aufnahme des RV800.

nvidia hat diese problem auch, mit den ersten chips im september muss das bereits klar gewesen sein.

aber nvidias erster 40nm-chip war keine kleine, relativ 'unwichtige' karte wie die HD4770, sondern nicht weniger als die reputation des unternehmens für die kommenden zwei jahre.
gleichzeitig hat nvidia eine vielzahl an baustellen gehabt, die ati geschickt vermieden bzw nacheinander angegangen ist.

- die chipgrösse steigert die ausfallraten in der produktion
- die komplexere architektur macht designänderungen 'on the fly' binnen weniger monate unmöglich
- die so nicht korrigierbaren fehler des designs potentieren die ausfallrate abermals
- es passen von vornherein weniger chips auf einen wafer wie beim 'kleinen' RV800'
- die vorstellung, der fermi sein besonders skalierbar, musste fallengelassen werden. bislang gibt es ihn nur in 'vollausstattung' und als etwas beschnittenes mängelexemplar. die massiven leckströme lassen keine verlässliche konfiguration zu.
- die kosten pro chip machen die verwendung in anderen leistungsklassen als dem absoluten highend unmöglich. nvidia hat aber keinen chip für eine karte die den gtx260/275 nachfolgen könnte. bis zum lower highend wird nvidia mit dem G92 weiterarbeiten müssen!
- die leckstrom-problematik beschneidet massiv die theoretische leistungsfähigkeit des chips. die erreichbaren taktraten leigen deutlich unter den spezifizierten zielen.


diese und noch viele weitere mängel liegen im design und der architektur begründet und sind irreversibel. und genau das war es, was ich von anfang an so spannend fand: wie wollen die das hinkriegen, was sie da vorhaben?

jetzt wissen wir's: garnicht, die lösung kann nur ein neuer chip bieten.

ati hingegen hat durch die eigenschaften des RV800 reichlich luft nach oben und unten. sollte die gtx480 die HD5870 evident schlagen, ist es im handumdrehen möglich, mit einer HD5890 zu kontern. und das immer noch sparsamer und billiger.

der vorsprung des fermi/gtx480 hätte mindestens 30% im durchschnitt, wenn nicht noch deutlich mehr, betragen müssen. dann hätte man ati bis zur nächsten generation mit einem entwicklungsunfähigen chip im zaume halten können.

die letzen drei grossen, unlösbaren fermi-probleme:
- wer keine 600,-€ ausgeben möchte, wird nur einen auf DX10.1 gehievten G92 bekommen.
- nvidia wird bei der gtx480 a) gewaltig drauflegen udn b) nie nennenswerte stückzahlen erreichen.
- in der preislage des gtx480 bietet ati mit der HD5970 eine karte an, die um welten schneller ist.

ach, und noch was: warum gab es bislang wohl ausschliesslich unigine-bechmarks?
uuuund noch einen: woran arbeiten ati momentan mit nachdruck? nein, nicht am RV900, das tun sie sicher schon länger. nein, an den treibern. scheint, denen ist ein licht aufgegangen...

ok, den auch noch: mit den meriten, die man sich im highend verdient, verkauft man die stückzahlen im low- und midrange. wenn man da nur was im angebot hätte...

Dieser Beitrag wurde von klawitter bearbeitet: 21. Februar 2010 - 13:39

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

Anzeige



#62 Mitglied ist offline   Internetkopfgeldjäger 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.640
  • Beigetreten: 29. Januar 04
  • Reputation: 1
  • Geschlecht:Männlich
  • Interessen::-)

geschrieben 21. Februar 2010 - 16:05

Beitrag anzeigenZitat (klawitter: 21.02.2010, 13:26)

aber nvidias erster 40nm-chip war keine kleine, relativ 'unwichtige' karte


Die längst erhätllichen 40 nm Nvidia GT 240 sind "kleine" Grafikkarten aus Sicht derjenigen,
die nach maximaler Grafikleistung zum zocken schauen.
Also die Zocker werden die längst erhältliche 40 nm Nvidia GT 240 wahrscheinlich als "unwichtig" einschätzen.
Vom Preisgefüge sind das aber Brot und Butter Produkte (unter 100 Euro) für die Massen,
mit denen man einen leisen und kühlen und beim Stromverbrauch genügsamen Rechner
haben kann, mit dem sich hin und wieder für Gelegenheitspieler
auch mal ein kleines Spielchen spielen lässt.

Ein solches Anforderungsprofil dürfte sich für die Massen gut verkaufen lassen
womit dann schlussendlich hoher Umsatz gemacht wird.
Die super-duper "ich hab' den größten" Grafikkarte wird aufgrund ihrer überzogenen
Preise ganz egal ob Ati oder Nvidia draufsteht,
sich doch ohnehin nur in viel kleineren Stückzahlen verkaufen lassen.

Übrigens gibt es die Nvidia GT 240 Grafikkarten mit GPU in 40 nm Fertigung
nicht nur mit DDR 3 Speicher sondern auch mit DDR 5 Speicher.
Plus den großen Vorteil dank den vorzüglichen Nvidia Treibern,
die es auch für Workstations mit Solaris und FreeBSD gibt
und für die Mainstream Betriebssysteme Windows und Linux sowieso.
0

#63 Mitglied ist offline   bluefisch200 

  • Gruppe: aktive Mitglieder
  • Beiträge: 708
  • Beigetreten: 28. Januar 07
  • Reputation: 0

geschrieben 21. Februar 2010 - 16:50

Zitat

Solaris oder FreeBSD

Was will ich damit? Die ATI Treiber für Windows sie gut und laufen sehr sparsam...keine Ahnung wieso ich mir da eine GT240 antun sollte...
Laptop: Apple Macbook / Intel Core 2 Duo 2.26 Ghz / 2 GB DDR3 / 250 GB HDD / nVidia 9400GT
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
0

#64 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 844
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 21. Februar 2010 - 19:03

Zitat

- die chipgrösse steigert die ausfallraten in der produktion

-> das ist der Kern des semi-akkuraten Artikels... Fehler treten immer an nicht-vorhersagbaren, sprich: zufälligen Stellen auf, je größer die Chipfläche, desto größer die Katastrophe...
Bis zu einem gewissen Maß lässt sich ein derartiger Chip immer noch als Phenom X3 oder HD5850 verkaufen... ab einer gewissen Größe nicht mehr, weil, wie ebenfalls gesagt wurde, Fermi in Funktionscluster à 32 Einheiten aufgeteilt ist. Wenn also auf einem Cluster ein Fehler auftritt, sind 32 auf einmal fällig...

Zitat

- die komplexere architektur macht designänderungen 'on the fly' binnen weniger monate unmöglich

Ja. RV800 begann auch schon, als RV700 gerade einmal auf dem Markt erschien. Unsere Aufmerksamkeitsspannen sind TV-induziert und werden immer kleiner, aber ganz offensichtlich designt sich etwas derartig Komplexes nicht "mal eben in der Kaffeepause"...

Zitat

- die so nicht korrigierbaren fehler des designs potentieren die ausfallrate abermals
- es passen von vornherein weniger chips auf einen wafer wie beim 'kleinen' RV800'

s.o.

Zitat

- die vorstellung, der fermi sein besonders skalierbar, musste fallengelassen werden. bislang gibt es ihn nur in 'vollausstattung' und als etwas beschnittenes mängelexemplar. die massiven leckströme lassen keine verlässliche konfiguration zu.

Schauen wir uns HD5870 und HD5770 an, stellen wir fest, dass letzterer simpel gesprochen ein glatt halbierter HD5870 ist.

Zitat

- die kosten pro chip machen die verwendung in anderen leistungsklassen als dem absoluten highend unmöglich. nvidia hat aber keinen chip für eine karte die den gtx260/275 nachfolgen könnte. bis zum lower highend wird nvidia mit dem G92 weiterarbeiten müssen!

Selbst das beste Design ist irgendwann mal fällig. Die Zeit des G92 ist abgelaufen.

Zitat

- die leckstrom-problematik beschneidet massiv die theoretische leistungsfähigkeit des chips. die erreichbaren taktraten leigen deutlich unter den spezifizierten zielen.

Weil die TDP eingehalten werden muss. Nördlich von 300W bewahrheitet sich der Spielerwitz vom eigenen Kernkraftwerk...

Ich füge die folgenden Punkte hinzu:
+ Nvidia hat seine Hausaufgaben nicht gemacht (diese bestehen aus: DX11, GDDR5 und 40nm-Fertigung - alles Dinge, die ATi in Form des R600 (Tesselation -> DX10.1 und dann DX11), R600/R670 (GDDR4), R700 (GDDR5) und R740 (40nm) abgefrühstückt hat. Ich habe einmal auf einen Artikel verlinkt, in dem beschrieben wird, dass sich GDDR5 fundamental von GDDR3 unterscheidet - und ATi hat entscheidend beim Aufstellen der Spezifikationen mitgewirkt... das kommt ihnen jetzt ganz gewiss zugute...

+ ATis "Fermivorläufer" (aka R600) war im Prinzip genau das, was Fermi jetzt ist: Er beherrschte Hardware-Tesselation, die niemand nutzen konnte, weil Nvidia und Microsoft den Daumen draufgehalten haben, bis heute (= Erscheinen von DX11, der Zeitpunkt für Hardware-Tesselation ist endlich gekommen - und wieviele Spiele haben wir?)

+ Wenn das stimmt, was Semiaccurate schreibt, dann kommen zu den vielen folgenschweren Fehlentscheidungen auch noch schlechtes Management... die Ingenieure anschreien sorgt nicht gerade dafür, dass sie Spitzenleistungen bringen, wenn von jeder Stunde am Arbeitsplatz eine halbe Stunde für Versagensängste, Jobverlustdrohungen und Zukunftssorgen draufgeht - knorke Arbeitsklima!

Zitat

Nvidia on the other hand did not do their homework at all. In its usual 'bull in a china shop' way, SemiAccurate was told several times that the officially blessed Nvidia solution to the problem was engineering by screaming at people. Needless to say, while cathartic, it does not change chip design or the laws of physics. It doesn't make you friends either.

GPUs werden immer noch von Menschen gemacht..



PS: Aliens vs. Predator deinstalliert sich nach 5min praktisch von selbst.
Selbiges gilt für Stalker (weil ich nicht die Lust habe, mit der Lupe nach DX11 zu suchen). Man läuft ein paar Meter bis zum gestrandeten Flugzeugträger, lässt sich mit Errand-Boy-Aufträgen zuschütten, während der Blick bereits auf den Terminkalender abschweift. Ernsthaft: 10min mit diesem Spiel und man vermisst richtige, monotone Arbeit!
Einzig Dirt2 würde ich als gelungenes DX11-Spiel stehenlassen. Vor allem eines, mit dem man Werbung für DX11 machen kann... mit dieser blutigen Trophy-Kill-Scheiße aus AvP ist das nur schwer vorstellbar... Wer ist da eigentlich die Zielgruppe? Einfach erregbare Hunde, sry, Teenager? Revolution sollten auf dem Karton eine Pappfigur anbringen (so ähnlich wie beim Jahrmarkt vor den Karussells): Dein IQ muss mindestens SO niedrig sein, damit dieses Spiel von Dir als "Voll Obahamma" empfunden wird "Alda, ey!"... (und die Figur zeigt dann auf eine fluoreszierende "50" neben der ein Affe abgebildet ist, der gerade eine Banane schält)...

Dieser Beitrag wurde von ...but alive bearbeitet: 21. Februar 2010 - 21:43

0

#65 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.409
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 21. Februar 2010 - 19:49

@ IKGJ

du solltest bei der gt240 vielleicht einen blick auf des erscheinungsdatum, den technischen stand und das preis-leistungsgefüge sowie das der konkurrenz werfen und in einem windowsforum die perspektiven dieses OS nicht ganz ausser acht lassen. deine unix-etc-feldzüge in allen ehren, aber wo bitte interessiert das im consumerbereich? und komischerweise hat gerade diese karte den ruf der überflüssigsten und unwichtigsten karte aller zeiten bereits weg.

ich gebe zu, ich habe sie schlicht vergessen und dreist fermi als nvidias ersten 40nm-chip bezeichnet.

auch geht die diskussion nicht um grössenangaben für die signatur, sondern um die frage, ob ein technisches husarenstück ge- oder misslungen ist und warum.


es macht doch keinen sinn, an einem sportwagen die mangelnde geländetauglichkeit zu benörgeln oder beim motorrad über die vorzüge von omnibussen zu schwadronieren.
Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#66 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 844
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 21. Februar 2010 - 21:36

Zitat

Dazu müsste erstmal das Produkt, über das hier geschwätzt wird, bei den Kunden
in Benutzung
sein


Oh, reden wir gerade über die Relevanz von Linux auf dem Desktopmarkt oder Fermi? SCNR

Nein, ernsthaft:
Ja, wir reden hier von Cypress und Fermi - und zwar aus Sicht der Konsumenten, sprich: Leute, die in DX11-Titeln sehen wollen, was da alles Neues geht... 2D-Performance, HPTC-Eignung und Supercomputing und die beste Workstation-GPU interessieren mich alle nicht...
Warum? Weil DirectX11 nicht unter Linux läuft.
Und weil ich als Nicht-Spieler keine Hi-End-GPU kaufe.

Warum also Linuxtreiber in eine Diskussion um (teure) Konsumenten-GPUs der nächsten Generation bringen?

Dieser Beitrag wurde von ...but alive bearbeitet: 21. Februar 2010 - 22:15

0

#67 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.409
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 21. Februar 2010 - 21:56

Beitrag anzeigenZitat (Internetkopfgeldjäger: 21.02.2010, 20:21)

Dazu müsste erstmal das Produkt, über das hier geschwätzt wird, bei den Kunden
in Benutzung sein, um darüber ein Urteil zu fällen.



du teilst dich gerne als latent von der dummheit der menschheit genervter konsolennerd mit. hab ich auch schon mal bemerkt. aber umsomehr verwundern mich manche deiner beiträge (und noch mehr die, die bei wirklich schwierigen fragen und problemen fehlen...).

pläne, konzepte und strukturen kann man lesen und und ganz prima beurteilen.
warum gelingt dir das nicht? jemand mit deinen fähigkeiten müsste doch gerade dahingehend eine besondere begabung haben!?

Zitat

Ansonsten ist es einfach nur schwadronieren und wildes vermuten.


interessanterweise trifft ein haufen meiner 'schwadroniererei' und 'wilden vermutungen' der letzten monate erschreckend präzise zu.

na, was hab ich da aber auch für ein glück gehabt...



btw: worum gehts dir jetzt eigentlich?

und was soll uns der verstaubte link sagen?


a propos ->schwadroniererei, die

Dieser Beitrag wurde von klawitter bearbeitet: 21. Februar 2010 - 22:10

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#68 Mitglied ist offline   Internetkopfgeldjäger 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.640
  • Beigetreten: 29. Januar 04
  • Reputation: 1
  • Geschlecht:Männlich
  • Interessen::-)

geschrieben 21. Februar 2010 - 23:05

Beitrag anzeigenZitat (klawitter: 21.02.2010, 22:42)

möchtest du dir nicht bitte einen anderen thread zum spielen suchen?
dir scheint das taschengeld zu fehlen, um dir mal einen neuen beitrag zulegen zu können. dein geschick, den immer gleichen inhalts- und ahnungsfreien unfug in beliebigen threads unterzubringen, ist bemerkenswert.

bemerkenswert nervend.

danke.


Also ich wusste im Gegensatz zu Dir, dass längst Nvidia GPUs mit 40 nm verkauft werden.
Genauso wie ich sehr schnell erkannt habe, dass Windows 7 noch lange
nicht zuverlässig genug ist und an jeder Menge Unzulänglichkeiten krankt,
die im Windows 7 Unterforum bejammert werden.
(Windows 7 Bluescreen, Widnows 7 Fehler im Ernergiemanagement, die zum Beispiel bei USB auffallen usw.)

Aber auch da heißt es ganz gemütlich abwarten.
Abwarten bis das Servicepack für Windows 7 raus ist,
genauso wie es erstmal abzuwarten gilt, bis die Nvidia Fermi Grafikkarten tatsächlich
in den Kisten bei den Usern eingebaut sind und im Alltagsbetrieb und bei
Spielen benutzt werden.
Dann kann man schauen, welche Grafikkarte den problemfreieren Betrieb ermöglicht.
0

#69 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 844
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 21. Februar 2010 - 23:15

Zitat

Lang lebe Windows XP für den Daddelkram.
Ich teile nämlich durchaus das beliebte Laster,
gerne mal ein Spielchen auf dem PC zu spielen.


Nachdem wir eingesehen haben, dass Linux + DX11 nicht so der Bringer ist,
kommen wir mit XP + DX11 um die Ecke..
Klasse! Wie sinnvoll ist es bitte eine 500€+ DX11-fähige GPU mit Windows XP zu paaren?

Auch ohne Fermi-Hardware kann ich Dir bereits mit Hilfe von Cypress prophezeien, dass DX11-Features in absehbarer Zukunft weder auf Linux-Derivaten, noch Windows XP laufen werden.

So langsam aber sicher gleitet das hier in Richtung Realsatire ab..

Dieser Beitrag wurde von ...but alive bearbeitet: 21. Februar 2010 - 23:18

0

#70 Mitglied ist offline   Summerboy1986 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.361
  • Beigetreten: 22. Juli 05
  • Reputation: 19
  • Geschlecht:Männlich
  • Wohnort:Dortmund

  geschrieben 22. Februar 2010 - 19:08

So, ich habe hier mal ein kleinen bisschen Aufgeräumt, und möchte euch die Chance geben die Diskussion weiter zu führen.
Für etwaige Unannehmlichkeiten möchte ich mich entschuldigen, aber ich denke die kurze Pause hat ihren Zweck erfüllt.
Jede Person,
die einer Straftat angeklagt ist,
gilt bis zum gesetzlichen Beweis ihrer UnSchuld als unschuldig.

PC-Laden-Blog | Geschichten aus dem wahren Leben
0

#71 Mitglied ist offline   Paria 

  • Gruppe: aktive Mitglieder
  • Beiträge: 742
  • Beigetreten: 23. September 08
  • Reputation: 0
  • Geschlecht:Männlich
  • Wohnort:Tötensen
  • Interessen:Autos, Motorsport, PC, Zocken, Fotografieren, das Sammeln diverser Medien und das Konsumieren derer Inhalte

geschrieben 22. Februar 2010 - 19:19

Na dann kanns ja weitergehen.

Line up, Fanboys! :D
time made dogs of us

Google? Ixquick!
0

#72 Mitglied ist offline   bluefisch200 

  • Gruppe: aktive Mitglieder
  • Beiträge: 708
  • Beigetreten: 28. Januar 07
  • Reputation: 0

geschrieben 22. Februar 2010 - 19:24

Beitrag anzeigenZitat (Paria: 22.02.2010, 19:19)

Na dann kanns ja weitergehen.

Line up, Fanboys! :D

Genau daran sind wir ja eigentlich hier nicht interessiert...es ging mal um bis jetzt erhältliche Infos zu Fermi...

btw. hat nVidia ihre Nachricht auf Twitter veröffentlicht:

Zitat

The wait is almost over! The world's fastest PC graphics gaming technology will be unveiled at PAX 2010. Visit: www.nvidia.com/paxeast.

Es war also wie vermutet die Ankündigung der Ankündigung...schade eigentlich denn ich hoffe immer noch auf günstigere HD5870 :D

Dieser Beitrag wurde von bluefisch200 bearbeitet: 22. Februar 2010 - 19:44

Laptop: Apple Macbook / Intel Core 2 Duo 2.26 Ghz / 2 GB DDR3 / 250 GB HDD / nVidia 9400GT
Desktop: AMD "Dragon" / Phenom X4 955BE 3.2 Ghz / 8 GB DDR3 / 1 TB HDD + Intel X25 SSD / ATI 4870
Smartphone: SGS / Samsung Hummingbird 1 Ghz / 512 MB RAM / 2 GB Internal + 10 GB SD / SGX540
0

#73 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.409
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 22. Februar 2010 - 20:18

und nu?

ich habe mich völlig verspekuliert!

Zitat

was wird das wohl sein, was nvidia uns am montag um 9:00h pacific standard time bescheren will?
(...)
ich geb nen tip ab, und ihr könnt ja mittippen.

1: wir werden eine fertige 480 sehen, hi-res.
2: wir werden einen benchmark sehen, in dem die gtx480 um 40-70% schneller rechnet als die 5870.


und wer hats erfunden?

..but alive hatte recht: die ankündigung einer ankündigung. (der link dort ist immer noch tot)

die frage: was wird uns da gesagt?
die antwort: "auch zur CeBIT schaffen wirs nicht". nur irgendwie so, dass es nicht so auffällt.
bloss kein zweites 'woodscrewtergate'

Eingefügtes Bild
link zur bildquelle

derweil tauchen duie ersten preise im handel auf. der amerikanische versender SabrePC ruft für die gtx480 679,-US$ auf.

Dieser Beitrag wurde von klawitter bearbeitet: 22. Februar 2010 - 20:21

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#74 Mitglied ist offline   Request 

  • Gruppe: Mitglieder
  • Beiträge: 13
  • Beigetreten: 22. Februar 10
  • Reputation: 0

geschrieben 22. Februar 2010 - 20:43

Zitat

(der link dort ist immer noch tot)

Mach den Punkt dahinter weg...
0

#75 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.409
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 22. Februar 2010 - 21:12

Beitrag anzeigenZitat (Request: 22.02.2010, 20:43)

Mach den Punkt dahinter weg...


yo, habs irgendwann auch entdeckt. naja...


auf jeden fall ist ende märz wohl doch deadline. ich habe das gefühl, nvidia pusht jetzt noch mal gewaltig.
es werden sogar karten zum kauf auf der messe in aussicht gestellt. dann dürfte bis dahin auch die 'schweigepflicht' gefallen sein.

irgendwoanders habe ich gerade in vorüberstreifen gelesen, die karten von xfx bekämen derzeit neue, überarbeitete pcbs und überarbeitete kühler. ich geh dem noch mal nach...

was man alles so aufschnappt: lest selber, was da steht :D

Dieser Beitrag wurde von klawitter bearbeitet: 22. Februar 2010 - 21:16

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

Thema verteilen:


  • 15 Seiten +
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • Letzte »

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0