WinFuture-Forum.de: Die Ati Hd5870 Und Nvidia Gtx295 Suche^^ - WinFuture-Forum.de

Zum Inhalt wechseln

Nachrichten zum Thema: Grafikkarten
  • 11 Seiten +
  • « Erste
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

Die Ati Hd5870 Und Nvidia Gtx295 Suche^^

#136 Mitglied ist offline   Internetkopfgeldjäger 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.640
  • Beigetreten: 29. Januar 04
  • Reputation: 1
  • Geschlecht:Männlich
  • Interessen::-)

geschrieben 01. Januar 2010 - 22:52

Beitrag anzeigenZitat (klawitter: 01.01.2010, 22:10)

des weiteren riecht es langsam


Also ich war es nicht gewesen, der den Thread in dem es ursprünglich
um Beschaffungsmöglichkeiten für die gerade aktuellen Top Modelle von ATI und Nvidia ging,
in eine rituellen Rant "ATI vs. Nvidia" ausarten ließ. :)
Habe nur aufgezeigt, das es da einen Pferdefuß bei ATI Grafikkarten gibt
die desolate Treiberlage, die an Creative bei den Soundkarten erinnert,
nachdem über noch gar nicht auf dem Markt befindliche Produkte von Nvidia
spekulativ hergezogen wurde. Was mich irgendwie an 10-Jährige erinnerte
die ein Kartenspiel haben, worauf irgendwelche Autos mit den Fahrzeugdaten aufgedruckt sind
und darum spielen, wer mehr Km/h, PS usw. hat, auch wenn der Führerschein
noch in weiter ferne ist. Ich erinnere mich da an Kindertage.

Der Threat Eröffner wollte doch bloß wissen, wo er entweder eine ATI HD 5870
oder eine Nvidia GTX 295 herbekommen kann:
Die Ati Hd5870 Und Nvidia Gtx295 Suche^^
Da ist aber der Thread schon auf der ersten Seite in den rituellen ATI vs. Nvidia Rant abgerutscht.
Tja, was also die Liefermöglichkeiten angeht, ich selbst habe mich dann einfach
mit einer Nvidia GTX 260 begnügt, nachdem ich nichts dickeres bekommen habe.
0

Anzeige



#137 Mitglied ist offline   Levellord 

  • Gruppe: aktive Mitglieder
  • Beiträge: 2.582
  • Beigetreten: 13. März 07
  • Reputation: 90
  • Geschlecht:Männlich
  • Wohnort:Köln Stadtbezirk 4
  • Interessen:ja

geschrieben 01. Januar 2010 - 23:04

Beitrag anzeigenZitat (Internetkopfgeldjäger: 01.01.2010, 21:41)

Was aber das Spielen betrifft, unter Windows, denn ja, auch ich fröne hin und wieder
gerne noch mal diesem alten Laster mit Genuss, da fährt man mit Nvidia einfach nur vorzüglich.

Das ist ja auch so nicht falsch, ist aber mit ATI nicht anders.

Beitrag anzeigenZitat (Internetkopfgeldjäger: 01.01.2010, 21:41)

Freunde von mir, die übrigens trotz fortgeschrittenen Alters immer noch völlig dem Daddelkram
unter Windows verfallen sind, hatten es schon mal mit ATI versucht und haben ein vernichtendes Urteil gefällt.

Dann haben die aber irgendwas ganz gewaltig falsch gemacht.

Beitrag anzeigenZitat (Internetkopfgeldjäger: 01.01.2010, 21:41)

Die sind sind dann schleunigst wieder reuig zu Nvidia zurückgekehrt,

Die haben aber nicht dabei geweint, oder?

Beitrag anzeigenZitat (Internetkopfgeldjäger: 01.01.2010, 21:41)

da die Nvidia Grafikkarten einfach viel unproblematischer
die Spiele zum rennen brachten, als die ATI Grafikkarten.

Seit der Radeon 9800pro nutze ich nur noch ATI und hatte nicht mal ansatzweise irgendwelche Probleme bei was auch auch immer für Spielen gehabt. Ich kann ATI ohne Einschränkungen weiter empfehlen.



Nur ist das ganze :)
0

#138 Mitglied ist offline   Internetkopfgeldjäger 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.640
  • Beigetreten: 29. Januar 04
  • Reputation: 1
  • Geschlecht:Männlich
  • Interessen::-)

geschrieben 01. Januar 2010 - 23:26

Beitrag anzeigenZitat (Levellord: 01.01.2010, 23:04)

Zitat

Die sind sind dann schleunigst wieder reuig zu Nvidia zurückgekehrt,

Die haben aber nicht dabei geweint, oder?


Nein, das nicht, nur über die doppelte Geldausgabe und die Zeitverschwendung
waren die nicht so ganz glücklich. Für mich wäre auch damals schon gar kein ATI
in Frage gekommen, denn die ATI Treibersituation war damals sogar viel schlimmer
als sie jetzt immer noch ist.
Ich war damals eher erstaunt, dass die als reine Windowsnutzer derart schlechtes
über ATI berichteten. "Damals" war so irgendwo um 2003/2004 herum.

Als ich meinen ersten PC im Eigenbau zusammenstellen wollte,
haben die mir sogar im Laden von ATI abgeraten, wegen Kompatibilitätsproblemen
bei Spielen. Das ist aber noch viel, sehr viel länger her,
so das ich zwischenzeitlich eigentlich davon ausgegangen war, das es irrelevant sei.
Wurde damals dann eine Nvidia Grafikkarte und da war fett auf der Verpackung gleich aufgedruckt,
das die auch mit Linux rennt.

Ich gebe dann mal wieder zurück an Topic.
falls es noch irgendjemand überhaupt interessiert,
wo man eine ATI HD 5870 oder eine Nvidia GTX 295 herbekommen kann.
0

#139 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.334
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 01. Januar 2010 - 23:50

Beitrag anzeigenZitat (Internetkopfgeldjäger: 01.01.2010, 22:52)

nachdem über noch gar nicht auf dem Markt befindliche Produkte von Nvidia
spekulativ hergezogen wurde. Was mich irgendwie an 10-Jährige erinnerte
die ein Kartenspiel haben, worauf irgendwelche Autos mit den Fahrzeugdaten aufgedruckt sind
und darum spielen, wer mehr Km/h, PS usw. hat, auch wenn der Führerschein
noch in weiter ferne ist. Ich erinnere mich da an Kindertage.

Der Threat Eröffner wollte doch bloß wissen, wo er entweder eine ATI HD 5870
oder eine Nvidia GTX 295 herbekommen kann:



o.k, akzeptiert (letzter satz! :) ). nur hat sich der thread ob der fage halt weiterentwickelt. insofern 1:0 für dich, mea culpa, auch weitere aspekte sind dann natürlich zulässig.

als mensch, der sich täglich mit idee, konzeption und schliesslich realisierung von ingenieursleistungen beschäftigt bzw sie erbringt, habe ich zumindest ein 'naturgegebenes' interesse an neuem und an entwicklung, ebeen auch wie sie von statten geht und nicht nur, was hinten rauskommt. und wenn man sich mit ein wenig basiswissen in die thematik eingelesen hat, konnte man bzgl des fermi schon beizeiten latente zahnschmerzen bekommen. umso interessanter war das thama auch, da immerhin nvidia da herumlaboriert. so gesehen hat das mit ati ohnehin nichts zu tun.

und ich kann immerhin behaupten, dass die von mir ausgeführten bedenken z.b. zu skalierbarkeit, produktionsumständen und zum energiebverbrauch des chips sich mittlkerweile handfest bewahreiten. siehs also einfach als gedanken eines ingenieurs und nicht als spekulation eines kids, das macht es vlt einfacher, sich drauf einzulassen.

und ich hab einfach schwierigkeiten mit kategorismen. ist vlt auch ne berufskrankheit, aber in diesem fall kann man einfach je nach perspektive zu unterschiedlichen ergebnissen kommen. und hier wurde die implizite perspektive dieses forums zur betrachtung 'herangezogen', was imho so auch sinnvoll ist.

und von der einen seite aus kann man halt nicht immer auf die antipode rückschliessen.

Dieser Beitrag wurde von klawitter bearbeitet: 01. Januar 2010 - 23:51

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#140 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 844
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 02. Januar 2010 - 11:10

[Kostenloses Trollfutter eigenhändig entfernt]

Unsere Diskussion drehte sich um den GT300 und ja, auch um GPU-Geschichte (3DFXs Voodoo-Untergang, der Aufstieg Nvidias aufgrund der besseren Designphilosophie im Mainstream-Markt, die Tatsache, dass sie das aktuell wohl vergessen haben und die neue Design-Philosophie ATis ab Einführung des RV770, die dem alten Erfolgsmodell Nvidias doch ziemlich gleicht... dies in Verbindung mit der aktuellen Tatsache, dass der RV870 kaufbar ist, während der GT300 laufend verschoben wird + alles, was wir an technischen Spezifikationen dazu aufgreifen können. Bei anandtech liest man, dass sich Nvidia ziemlich abfällig über den Consumer-Markt geäußert hat und der Meinung ist, mit dem Fermi das HPTC-Wunder geschaffen zu haben, welches angeblich eine viel höhere Rendite verspricht... nur erledigen rosige Versprechungen leider keine Rechen-Arbeit.
http://www.anandtech...aspx?i=3651&p=2

Wir reden hier über GPU-Geschichte und -zukunft und das ist kein faktenloses Meinungspingpong, bei dem derjenige mit dem haarsträubenderem Vorurteil gewinnt...

Weiterführend (hab endlich den Artikel zum Fermi wiedergefunden, den ich so lange gesucht habe):
Nvidia orientiert sich weiterhin am antiquierten Designmodell, das mit einem riesigen monolithischen Chip versucht, den Hi-End-Markt/HPTC-Markt zu bedienen (der ~20% des Marktes ausmacht) und dann erst Mainstream und Value abdeckt (sprich: die restlichen 80%).

Eingefügtes Bild

Zitat

The price is a valid concern. Fermi is a 40nm GPU just like RV870 but it has a 40% higher transistor count. Both are built at TSMC, so you can expect that Fermi will cost NVIDIA more to make than ATI's Radeon HD 5870.

ATi hat erkannt, dass 66% des Umsatzes aber im Mainstream liegen und designt deswegen mit Priorität einen mittelgroßen Chip, der speziell in dieses Preis- und Leistungssegment fällt. Dies erkennt man sehr schön an den Chipgrößen.

Zum Nachlesen:
http://www.anandtech...aspx?i=3651&p=7

Dieser Beitrag wurde von ...but alive bearbeitet: 03. Januar 2010 - 22:26

0

#141 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.334
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 02. Januar 2010 - 15:03

hab die glaskugel frisch poliert und mal nach dem warum befragt.

eine imho sinnvolle erklärung ergibt sich aus der betrachtung, zu welchen märkten nvidia derzeit überhaupt zugang hat. amd schauen die californier nicht mal mehr mit dem popo an, zu der integration von intels dmi hat man sich bis heute nicht einigen können, ausschliesslich der ion ist in der chipsatzsparte noch erwähnenswert, ist aber auf den atom und den veralteten sockel 775 begrenzt. (dabei: was für ein markt wären e-athlons+ion!).

diese thematik kann ich nur unter kindergarten ablegen, was anderes fällt mir dazu nicht ein.

der chipsatzmarkt ist also quasi nicht mehr existent.


dann kommt intel mit dem larrabee. mittlerweile stark in engangement reduziert und die dedizierte intel-gpu erst mal vom tisch, war es dennoch ein aufbruch von intel in ein segment, dass sich nvidia ausgeguckt hatte (und das nvidia auch durchaus zuzuschreiben/zuzutrauen ist): hochintegrierte rechenknechte, die die strickte trennung zwischen cpu und gpu auflösen und die massive parallele rechenkraft von chips im gpu-design breiter zugänglich machen.

ich denke, dass zu diesem zeitpunkt die endgültige entscheidung bei nvidia gefallen ist, einen chip wie den fermi zu konstruieren. (man denke nur an die gerüchte zu einer nvidia-cpu). diesen künftigen markt wollte man nicht an intel verlieren, sondern selbst beherrschen. alle voraussetzungen, dieses ziel zu erreichen, schienen ja durchaus gegeben.

diese entscheidung an sich war nicht fatal. aber die summe aller entscheidungen mit denen man die wichtigkeit aller anderen geschäftsfelder dieser idee gegenüber so sehr in den hintergrund gestellt hat.
durch die schmoll-haltung gegenüber der konkurrenz und eigentlich nowendigen partnern reduziert sich nvidias abhängigkeit auf dieses spektrum, auch wenn dort die fettesten gewinne zu erwarten sind. dieser fokus verengt sich zusätzlich dadurch, dass man auch durch die technische konzeption des vorhabens bzgl. der 'grundversorgung' in eine höchst prekäre lage geratern ist. es stellt sich wirklich die frage, ob nvidia den consumermarkt ohne verluste bedienen können wird. das preisdiktat atis ist das letzte, was nvidia dort brauchen kann...

eine 'und-alles-wird-gut'-lösung wäre natürlich eine überragende performance, die der fermi im pro-segment allein aufgrund der einzigartigkeit seiner architektur sicher erzielen wird, im consumerbereich jedoch ist diese zugabe, die über die preise der konkurrenz hinwegsehen liesse, mittlerweile fraglich.

sicher werden die nächsten geforce-karten keine schlechten sein. ein desaster wie atis HD29xx werden sie wohl nicht. die zurückeroberung der one-chip-performancekrone wäre auch keine überraschung. aber so wie es aussieht, wird sie zu knapp, zu spät und mit zu vielen nachteilen behaftet sein. damit wäre nvidia nicht in der lage, seine preise frei gestalten zu können.

ein dritter punkt ist das oem-geschäft. hier kann nvidia im segment der lowrange-pcs mit igp nichts aktuelles mehr bieten. diese situation erschliesst auch die entscheidung, zuerst die dedizierten low-und midrange karten an den markt zu bringen, es muss möglichst bald wieder geld in die kasse. und neben hp-computing ist es genau da zu holen. allerdings - dazu braucht es masse. und diesem faktor stehen die nach wie vor nur unzureichend gelösten produktionsprobleme entgegen.

ergo quo vadis nvidia? das erschreckende an der aktuellen situation ist, wie viele türen nvidia in einer imho emotionalen hysterie gepaart mit hybris zugeschlagen hat, die jetzt als stricke um den hals liegen.

die frage ist doch, ob nvidia das HPC-land, wo milch und honig fliessen (sollen), noch aufrecht gehend erreichen wird -?- oder mit hilfe eines rollators mit der aufschrift: intel inside?...

(ich bin mir sicher, dass bei intel die möglichen szenarien nach verschiedenen entwicklungsmodellen bereits durchgerechnent werden...)

Dieser Beitrag wurde von klawitter bearbeitet: 02. Januar 2010 - 15:12

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#142 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 844
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 04. Januar 2010 - 00:00

Beitrag anzeigenZitat (klawitter: 02.01.2010, 15:03)

eine imho sinnvolle erklärung ergibt sich aus der betrachtung, zu welchen märkten nvidia derzeit überhaupt zugang hat. amd schauen die californier nicht mal mehr mit dem popo an, zu der integration von intels dmi hat man sich bis heute nicht einigen können, ausschliesslich der ion ist in der chipsatzsparte noch erwähnenswert, ist aber auf den atom und den veralteten sockel 775 begrenzt.


Jetzt die Pointe zum Witz:
Intels übereifriger Larrabee-Manager hat das Ganze wohl damals vom Zaun gebrochen, als er Nvidia im vollen Schwange der Selbstüberschätzung als irrelevant bezeichnet hat ("The GPU is dead!"), was bei Nvidias Jen-Hsun Huang überhaupt nicht gut ankam und sogleich auf die entsprechenden Sanktionen hinauslief: "Kriegt ihr eben keine Lizenz mehr für SLI-Chipsätze! Bätsch!"
Intels Antwort ist in Deinem obigen Beitrag enthalten... sie haben Nvidia den Weg zum Atom versperrt...

Zitat

In the spring of last year, a certain Intel engineer stated that the "GPU is dead", a statement which was reiterated by now former Intel exec, Pat Gelsinger at IDF Spring 2008, happening in the city of Shanghai. Pat took charge of Larrabee and was certain that this architecture was the future of Intel. We agree 100% with Pat that the future of not just Intel, but AMD as well, as Larrabee is a merger between the CPU and the GPU. This applies for nVidia as well, but that's another topic.

The only problem is, Intel sparked a war with nVidia without even having working silicon [ok, silicon capable of displaying a picture]. And that was a big mistake. The moment Jen-Hsun saw the comments made by Intel engineers and later statements by Intel execs at IDF Spring 2008 in Shanghai, Jen-Hsun "opened a can of whoop-ass" on Intel. Luckily for Intel, Jen-Hsun didn't have the GT300 silicon either, but GT200 was at the gates.
The strained relationship between the two got into a state of war when Intel started talking to OEMs and claiming that nVidia does not have the right to create chipsets for Nehalem [QPI - Quick Path Interface] and Lynnfield [DMI - Digital Multimedia Interface]. Upon request, we were shown a cross-license deal between Intel and nVidia. I am not going to disclose which side showed it to me, since technically - the source did something it wasn't supposed to do.

The wording in the original document, as far as my laic understanding, does not bar nVidia from making chipsets for Intel even after Front Side Bus is dead, because both QPI and DMI qualify as a "processor interconnect", regardless of what either party is saying.

Intel filed a suit against nVidia in Delaware court [naturally, since both companies are incorporated in the "Venture Capital of the World" state], claiming that nVidia doesn't hold the license for CPUs that have integrated memory controller. nVidia didn't stand back, but pulled a counter-suit, but this time around, nVidia wanted the cross-license deal annulled and to stop Intel from shipping products that use nVidia patents.

If you wonder why this cross-license agreement is of key importance for Larrabee, the reason is simple: without nVidia patents, there is no Larrabee. There are no integrated chipsets either, since they would infringe nVidia's patents as well. Yes, you've read that correctly. The Larrabee architecture uses some patents from both ATI and nVidia, just like every graphics chip in the industry. You cannot invent a chip without infringing on patents set by other companies, thus everything is handled in a civil matter - with agreements. We heard a figure of around several dozen patents, touching Larrabee from the way how frame buffer is created to the "deep dive" called memory controller. If you end up in court, that means you pulled a very wrong move, or the pursuing company is out to get you. If a judge would side with nVidia, Larrabee could not come to market and well can you say - Houston, we have a problem?

Intel had the luck of AMD snatching ATI - Intel and AMD have a cross-license agreement that allows for technology to transfer both ways - Intel had no problems getting a license for Yamhill i.e. AMD64, 64-bit extensions for their CPU architecture and equally should have no issues of using ATI patent portfolio [ATI and Intel already had an agreement]. My personal two cents would be going on Intel giving an x86 license to nVidia in exchange for cross-license patent, but only time will tell how the situation will develop. However, there is a reason why Bruce Sewell "retired" from arguably the best or second best legal post in the industry [IBM or Intel, we'll leave you to pick] and then show up at Apple two days after that "retiring" e-mail.

All that this unnecessary war created was additional pressure on engineers, who had to check and re-check their every move with Larrabee, causing further delays to the program. We completely understand these people - these chips are their babies. But the additional legal pressure caused some people to leave. This is nothing weird - with projects of this size, people come and go.

But Larrabee was coming, and it was coming without the "it works" component.

http://www.brightsideofnews.com/news/2009/...d.aspx?pageid=2

Zitat

(dabei: was für ein markt wären e-athlons+ion!).

Ziemlich rosa -> Eingefügtes Bild
Für Netbooks taugen sie leider nicht :/
http://www.anandtech...doc.aspx?i=3703

Zitat

diese thematik kann ich nur unter kindergarten ablegen, was anderes fällt mir dazu nicht ein.
der chipsatzmarkt ist also quasi nicht mehr existent.

Exakt, aber so ist es. AMDs erste Reaktion auf Larrabee soll übrigens das Überdenken einer Partnerschaft mit Nvidia gewesen sein (sic!)

Zitat

sicher werden die nächsten geforce-karten keine schlechten sein. ein desaster wie atis HD29xx werden sie wohl nicht. die zurückeroberung der one-chip-performancekrone wäre auch keine überraschung. aber so wie es aussieht, wird sie zu knapp, zu spät und mit zu vielen nachteilen behaftet sein. damit wäre nvidia nicht in der lage, seine preise frei gestalten zu können.


Schneller als RV870: bestimmt.
Teurer als RV870: geradezu zwingend.
Einzig und allein für den Hi-End-Käufer interessant: zwangsläufig.
Warum? Deswegen ->

Eingefügtes Bild

Zitat

ein dritter punkt ist das oem-geschäft. hier kann nvidia im segment der lowrange-pcs mit igp nichts aktuelles mehr bieten. diese situation erschliesst auch die entscheidung, zuerst die dedizierten low-und midrange karten an den markt zu bringen, es muss möglichst bald wieder geld in die kasse.

Darf man diese Dinger überhaupt lowrange-Karten nennen? Sie basieren doch überhaupt nicht auf dem Fermi. Wer kauft diesen Schrott?
Die beherrschen gerade einmal DX10 - sobald ATi in den kommenden paar Wochen mit DX11-Lowend nachsetzt, bleibt da kein Grund eine dieser schrecklich abschneidenden GT240 oder kleineren Konsorten zu kaufen...
http://www.techpowerup.com/reviews/Axle/Ge..._GT_240/34.html
Die kriegen nichtmal die Akustik hin --> "Noisy fan" (sic!)

Oder werden, hier aus einem Review einer GT 220 zitiert, von einer über ein Jahr älteren Karte (der HD4670) geschlagen. Wie peinlich ist das denn?

Zitat

When compared to the one-year old Radeon HD 4670, which sits at an even lower price point, the HD 4670 wins in Performance, Price, Perf/Watt, Perf/Dollar. Out of these criteria for a low-end card the most important is price. Just price, not price/performance - 3D performance doesn't matter for 2D/Aero desktop. Right now the GT 220 cards are going for $70-$80, which is clearly too high. Thanks to the 40 nm process NVIDIA can make those GPUs really, really cheap. This, in my opinion, is the whole point of this product: cheaper GPUs for NVIDIA, better margins. In order to be able to compete in the retail market, the price of these cards has to go down to the $50 region.

http://www.techpowerup.com/reviews/Palit/G..._GT_220/34.html

Dieser Beitrag wurde von ...but alive bearbeitet: 04. Januar 2010 - 00:13

0

#143 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.334
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 04. Januar 2010 - 10:52

Beitrag anzeigenZitat (...but alive: 04.01.2010, 00:00)

Ziemlich rosa -> Eingefügtes Bild
Für Netbooks taugen sie leider nicht :/
http://www.anandtech...doc.aspx?i=3703



den artikel kenne ich, un dich weiss nicht ob ich dich jetzt recht verstanden habe, aber :


Zitat

The Dell zino HD uses an ATI Mobility Radeon HD 3200


ein kreuzweiser vergleich e-athlon/mobility radeon vs atom/ion sind eh etwas schwierig, weil der atom330 beim multithreading überdurchschnittlich gut abschneidet, bei singlethreads aber völlig einbricht. die grafik daraus gesonders zu betrachten ist imho eher heikel. auch wenn anand lai shimpi zu einem klaren ergebnis kommt.


zu nvidias low-end karten:

stell dich mal bei conrad vor ein regal mit grafikkarten. ich hab das im dezember ein paar mal gemacht, weil da etwa 10 tage lang mehrere HD5770 full retail für je 139,-€ standen. da kommen reihenweise 14-17-jährige mit ihrer mutter vorbei, die ihnen eine neue graka spendiert. dabei fallen sätze wie: 'das ist die neue ati, die sollen ganz gut sein, aber ich will lieber ne nvidia, die sind einfach besser'. und kaufen dann ne gt9600. wenigstens 2 mal so bzw. ähnlich erlebt.

die letzen zwei karten hab ich dann nach ein wenig ringen mit mir selbst gekauft, weil sich auch die preisentwicklung richtung 160-200,-€ abzeichnete (derweil das fach mit den gt 9600 wahrscheinlich 10x nachgefüllt worden ist).

nvidia wird seinen schnitt mit den karten machen. zu erklären wird das nicht wirklich sein, aber die werden die dinger verkaufen.

Dieser Beitrag wurde von klawitter bearbeitet: 04. Januar 2010 - 10:54

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#144 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 844
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 04. Januar 2010 - 20:02

Wie war das nochmal?

Über Musik schreiben ist wie
Zu Architektur tanzen

Das ist immer noch besser als nichts
Auch wenn es halt nichts ist

[Ein sozialkritisches Schlagzeugsolo später]

Dieser Beitrag wurde von ...but alive bearbeitet: 04. Januar 2010 - 20:03

0

#145 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.334
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 05. Januar 2010 - 12:46

wobei tanz die räumliche interpretation von musik ist und somit die beschreibund oder definition von räumen mit der architektur teilt. jenseits rein akademischer betrachtung hat das bauhaus das thematisiert.

<hurz> :unsure:
Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#146 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 844
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 05. Januar 2010 - 18:26

Mir kam es auf die inhärente Inkommensurabilität im Kommunikationsprozess zwischen 14-jährigem Subjekt A und ka-wie-altem Familiendude B an:
Du kannst Dich diesen Kreaturen nicht mitteilen - sie raffen das nicht, es interessiert sie wahrscheinlich auch nicht.. zumindest spricht einiges für diese Skepsis, wenn man sie Grafikkarten nach dem Bildchen auf dem bedruckten Pappkarton auswählen sieht...

Selbst wenn Du argumentierst, kommst Du niemals gegen Unwissenheit, basierend auf Vorurteilen an, denn jedes Argument pro Produkt XY, das eine Begründung a beinhaltet, zieht sofort eine Frage a2 nach ebendieser Sache nach sich, was zu einer Erklärung b des Arguments a pro XY führt, die wiederum eine Frage b2 nach sich zieht... ad infinitum.

Wenn ich "HD4850" sage, dann weisst Du sofort, welche schneller und welche langsamer sind, dass sie GDDR3 hat, kein DirectX11 kann, kein PhysX undsoweiterundsofort,
wenn Du dagegen mit dem kleinen Counterstrike-Rul0r redest, dann ist "HD4850" für ihn bloß eine arbiträre Abfolge von Buchstaben und Zahlen, mit der er rein gar nichts verbinden kann, wenn Du dann zu Stütz- und Feature-Erklärungen ansetzt, wird's bloß noch verwirrender.


...es sei denn natürlich, Du stehst darauf, mehrmals am Tag auf Knopfdruck eine Überblicksvorlesung Grafikkarten abzuhalten :(

*drückt auf den Knopf*

Dieser Beitrag wurde von ...but alive bearbeitet: 05. Januar 2010 - 18:45

0

#147 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.334
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 06. Januar 2010 - 01:54

ich bin eines latenten persönlichkeitsdefekts meinerseits gewiss.
(habe mich damt aber komfortabel eingerichtet, selbstbezogene altersmilde quasi)

nochwas? - back to topic

fazit: geht nicht, die nachrichtenlage ist derzeit so hohl wie jen-hsun huangs fermi-sample.
Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#148 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 844
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 08. Januar 2010 - 00:29

Eingefügtes Bild

Zitat

This year alone NVIDIA estimates that there's around a $4B market for Tegra. Next year it grows to $6B. By 2013 the total available market for NVIDIA's Tegra SoC reaches over $10B. That's more money than NVIDIA ever made from the PC market.

Man mag es kaum glauben...
Wenn das wahr ist, setzt Nvidia auf's richtige Pferd, denn ganz offensichtlich gibt es sehr viel mehr Handynutzer als PC-Spieler - die Frage ist nur, ob der komplette Markt dann vom Tegra ausgefüllt werden wird? Doch wohl eher nicht...

Dieser Beitrag wurde von ...but alive bearbeitet: 08. Januar 2010 - 00:30

0

#149 Mitglied ist offline   Levellord 

  • Gruppe: aktive Mitglieder
  • Beiträge: 2.582
  • Beigetreten: 13. März 07
  • Reputation: 90
  • Geschlecht:Männlich
  • Wohnort:Köln Stadtbezirk 4
  • Interessen:ja

geschrieben 08. Januar 2010 - 01:58

So langsam wird es hier richtig

:)
0

#150 Mitglied ist offline   Paria 

  • Gruppe: aktive Mitglieder
  • Beiträge: 742
  • Beigetreten: 23. September 08
  • Reputation: 0
  • Geschlecht:Männlich
  • Wohnort:Tötensen
  • Interessen:Autos, Motorsport, PC, Zocken, Fotografieren, das Sammeln diverser Medien und das Konsumieren derer Inhalte

geschrieben 08. Januar 2010 - 02:03

Beitrag anzeigenZitat (Levellord: 08.01.2010, 01:58)

So langsam wird es hier richtig

:)



Denk ich schon so ne ganze Weile! :) Aber sie sind nicht zu stoppen! :)
time made dogs of us

Google? Ixquick!
0

Thema verteilen:


  • 11 Seiten +
  • « Erste
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0