WinFuture-Forum.de: Welcher Grafikchiphersteller Ist Euer Favorit? - WinFuture-Forum.de

Zum Inhalt wechseln

Nachrichten zum Thema: Grafikkarten
  • 9 Seiten +
  • « Erste
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

Welcher Grafikchiphersteller Ist Euer Favorit?

Umfrage: Grafikchiphersteller (131 Mitglieder haben abgestimmt)

Welcher Ist Euer Favorit?

Du kannst das Ergebnis dieser Umfrage nicht sehen, bevor du nicht selbst abgestimmt hast. Bitte melde dich an und gib deine Stimme ab um das Ergebnis zu sehen.
Abstimmen Gäste können nicht abstimmen

#106 Mitglied ist offline   bAssI 

  • Gruppe: aktive Mitglieder
  • Beiträge: 930
  • Beigetreten: 21. Mai 03
  • Reputation: 0
  • Wohnort:Dessau

geschrieben 29. Dezember 2005 - 10:04

Beitrag anzeigenZitat (LoD14: 29.12.2005, 01:52)

Lügen: Karten mit R520 werden mit "14 fach Kantenglättung" ausgeliefert. Blöderweise rechnet ATi bewusst gegen die allgemeinen Regeln zum berechnen der Kantenglättung weswegen richtig berechnet maximal 12 fach drinne ist. -> Bauernfängerei.

Beschissene Treiber: Dazu muss ich nix mehr sagen.

hehehe nu bleib ma aufm teppich und forsch schau erstma bei deinem liebling nvidia, was die erzählt haben um karten zu verkaufen.
wie damals mit der 6800 und shader 3.0! willst mir nich erzählen das irgendeine 6800er die leistung dafür gebracht hatte?! da hat nvidia auch müll erzählt! zudem wird immer schwachsinn erzählt damit der kunde kauft. aber wer darauf reinfällt hat halt pech.
oder die 6150. wird auch mit shader 3.0 geworben.... lol? die hat 2 pixel un 1 vertex pipe.

Beitrag anzeigenZitat (LoD14: 29.12.2005, 01:52)

Erstaunlich, dass der R520 mit so wenig Shaderpipelines (16) doch noch so gut abschneidet. Wenn man denn bedent, dass angeblich der 520 bis zu 24 pipelines verkraftet. Wobei man dass vll sogar als vorteil werten kann, da die Leistung der Karte da erheblich besser genutzt wird. Negativ ist wieder, dass die es einfach nicht auf die reihe kriegen funktionierende 24 pipes zu verbauen.

mehr fällt mir zu dieser späten stunde nicht ein.


bleiben wir bei den pixelpipelines mal sachlich.
nvidia baut nen chip in 110nm mit 24 pipes.
ati in 90nm mit 16 pipes

dennoch sind beide karten von der leistung vergleichbar!
ich frage mich wer da dann doch die bessere arbeit geleistet hat. zudem hat ati noch weitere vorteile geliefert beim R520!
durch die 90nm hat dieser chip weniger stromaufnahme und abwärme. dh, wenn der chip in ordnung ist, kann man ihn noch ein ganzes stück übertakten.
ati bringt noch ne karte mit 24 pipes raus! habt mal keine angst. aber warum solltens sie es jetzt tun wenn die die 16 hat, so schnell is wie die schnellste von nvidia? wenn nvidia wieder was auspackt, dann bringt ati auch wieder was neues! es geht immer ums geld! erst das eine teuer verkaufen und wenn das nich mehr zieht dann das nächste teuer verkaufen.

dann ist da noch die avivo technik für videocodierung was für spiele uninteressant aber für ati doch eine markterweiterung bedeutet, da sie jetzt auch an firmen welche videobearbeitung betreiben, karten verkaufen können! ich wäre ja schön blöd mir für 2000 euro nen rechner zu kaufen wenn einer für 1000 euro das 5 ma schneller kann?!


mfg
bAssI
0

Anzeige



#107 Mitglied ist offline   LoD14 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.931
  • Beigetreten: 04. Mai 03
  • Reputation: 45
  • Wohnort:Hennef bei Köln

geschrieben 29. Dezember 2005 - 12:19

Zitat

Auf die reihe kriegen tut es ati schon aber mehr pipes bedeutet auch automatisch eine größere DIE fläche und selbt bei 90 nm fertigung ist es derzeit nicht möglich noch mehr pipes in den R520/R580 zu quetschen weil bereits jetzt über 320 Mio. transistoren auf dem ding sitzen.


und wie schafft nv das dann mit 24 Pipes auf 110nm?

Zitat

wie damals mit der 6800 und shader 3.0! willst mir nich erzählen das irgendeine 6800er die leistung dafür gebracht hatte?! da hat nvidia auch müll erzählt! zudem wird immer schwachsinn erzählt damit der kunde kauft. aber wer darauf reinfällt hat halt pech.


lol, als ob ati beim vergleichsprodukt X800 auch nur eine spur besser gewesen wäre. Shader 2.1 uuuuuuuuh! wie toll. nvidia hats wenigstens geschafft den 3.0 einzubaun.

Zitat

oder die 6150. wird auch mit shader 3.0 geworben.... lol? die hat 2 pixel un 1 vertex pipe.


wer die kauft, ist es selber schuld. wer die kauft ist ein geforce 4 mx noob, der dachte, wenn die geforce 3 shader 1.3 kann, kanns die 4mx auch. aber es war im endefekt leider nur ne dx7 karte

und nebenbei, die ganzen innovationen kamen von nvidia/3dfx. t&l mit der gf256, ps 1.0 war für den rampage und der 1.3 wurde erstmals von der gf3 verwendet.

Dieser Beitrag wurde von LoD14 bearbeitet: 29. Dezember 2005 - 12:22

0

#108 Mitglied ist offline   bAssI 

  • Gruppe: aktive Mitglieder
  • Beiträge: 930
  • Beigetreten: 21. Mai 03
  • Reputation: 0
  • Wohnort:Dessau

geschrieben 30. Dezember 2005 - 00:05

Beitrag anzeigenZitat (LoD14: 29.12.2005, 12:19)

und wie schafft nv das dann mit 24 Pipes auf 110nm?

110nm sind größer wie 90nm (verständlicherweise)
somit passt da bekanntlich mehr drauf...ati hat eine möglichkeit gefunden 16 pipes effektiver zu nutzen und kann daher in 90 nm produzieren und spart sehr viel geld! kann dadurch die karte theoretisch auch günstiger anbieten.

Beitrag anzeigenZitat (LoD14: 29.12.2005, 12:19)

lol, als ob ati beim vergleichsprodukt X800 auch nur eine spur besser gewesen wäre. Shader 2.1 uuuuuuuuh! wie toll. nvidia hats wenigstens geschafft den 3.0 einzubaun.

sagen wir es mal so...nvidia wirbt nicht direkt mit shader 3.0, das tun die händler.
allerdings ist nvidia ein hersteller der gern neue sachen mit karten rausbringt, welche eigentlich garnet die leistung dafür besitzen. ati könnte auch shader 3.0 bringen, aber ati tuts nicht weil die karten eben noch nicht die leistung haben.
nvidia ist deswegen nicht schlecht hinzustellen aber bei der 6er reihe war shader 3.0 wirklich nur "vorhanden"
nutzen kann man es mit den karten der 6er serie nicht wirklich.
zumindest nicht so, das man sagen könnte das spiel läuft gut :gähn:
bei der 7800 sieht das wieder anderst aus. die hat dann doch langsam die leistung dafür und dann ist shader 3.0 auch wirklich lohnenswert, keine frage!


mfg
bAssI
0

#109 Mitglied ist offline   TTDSnakeBite 

  • Gruppe: aktive Mitglieder
  • Beiträge: 730
  • Beigetreten: 21. August 05
  • Reputation: 0
  • Geschlecht:Männlich
  • Wohnort:Bayern

geschrieben 30. Dezember 2005 - 01:09

der shader sorgt ja nur für mehr leistung und sorgt nicht für neue effekte...
was du meinst wird woll hdr sein, den man durch den pixelshader erst aktivieren kann!?
0

#110 Mitglied ist offline   LoD14 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.931
  • Beigetreten: 04. Mai 03
  • Reputation: 45
  • Wohnort:Hennef bei Köln

geschrieben 30. Dezember 2005 - 14:04

Zitat

der shader sorgt ja nur für mehr leistung und sorgt nicht für neue effekte...
was du meinst wird woll hdr sein, den man durch den pixelshader erst aktivieren kann!?


ärm, nein. spiel mal morrowind auf ner voodoo 5 und mach dann eine GeForce 4Ti rein und schau dir jeweils das wasser an. So, dann nimmst du die GeForce 4 und schaust dir das Wasser in FarCry an und dann tust du eine GeForce 6800 rein und schaust dir nochmal das Wasser an. Dann siehst du schon, dass das Wasser verdammt anders aussehen wird.
0

#111 Mitglied ist offline   TTDSnakeBite 

  • Gruppe: aktive Mitglieder
  • Beiträge: 730
  • Beigetreten: 21. August 05
  • Reputation: 0
  • Geschlecht:Männlich
  • Wohnort:Bayern

geschrieben 30. Dezember 2005 - 19:40

ich hab mich undeutlich ausgedrückt, sorry...

bis zum shader 2.0 wurden effekte verbessert, das stimmt. der unterschied zwischen shader 2 und 3 liegt aber nur in der etwas erhöten performance. man kann aber auch effekte wie hdr integrieren...
0

#112 Mitglied ist offline   Ferax 

  • Gruppe: aktive Mitglieder
  • Beiträge: 2.296
  • Beigetreten: 26. Mai 04
  • Reputation: 0
  • Wohnort:Nähe Marburg
  • Interessen:Fitness (Kraftsport), Tennis, Party ohne Ende, Sonne relaxen, PC usw ;).

geschrieben 02. Januar 2006 - 11:17

Beitrag anzeigenZitat (TTDSnakeBite: 30.12.2005, 19:40)

ich hab mich undeutlich ausgedrückt, sorry...

bis zum shader 2.0 wurden effekte verbessert, das stimmt. der unterschied zwischen shader 2 und 3 liegt aber nur in der etwas erhöten performance. man kann aber auch effekte wie hdr integrieren...


ich will mich ja in eurer schlacht nicht einmischen aber hast dir schon mal aoe 3 mit shader 2 und dann shader 3 angeschaut ? ein unterschied besteht und die leistung nimmt dabei keinesfalls zu :). nu wünsch ich euch noch viel spaß mit dem hin und her ^^.
0

#113 Mitglied ist offline   mampfi 

  • Gruppe: aktive Mitglieder
  • Beiträge: 73
  • Beigetreten: 23. Juni 04
  • Reputation: 0

geschrieben 02. Januar 2006 - 15:51

ATI Radeon X800 GTO hergemodded zu einer X800 XT PE :) Rennt wie Sau!
War aber auch mal Nvidia User. GeForce 1 und 2 :)

Ach ja, das waren noch Zeiten, wo man mit einer Diamond Monster 3D (3DFx) als Zusatzkarte glücklich war :blink:
Wer sich noch erinnern kann :)
0

#114 Mitglied ist offline   Schwabi 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.785
  • Beigetreten: 27. November 05
  • Reputation: 0
  • Wohnort:Walding, Österreich

geschrieben 02. Januar 2006 - 16:40

Das krasse is ja eh das ATI mit 16 pipes mehr leistung zusammenbringt als nVidia mit 24.

Das is hald nVidia, immer schön protzen und nix dahinter. :blink:

Da hat ATI sehrwohl die bessere arbeit abgelifert.

tut mir leid nividia das war nix.

Die GTX 512, da brauch ich wohl ni mehr zu sagen. Es sind nur wenige % der chips, die diese takte schaffen.
0

#115 Mitglied ist offline   Dawn 

  • Gruppe: aktive Mitglieder
  • Beiträge: 3.012
  • Beigetreten: 18. Februar 04
  • Reputation: 2
  • Geschlecht:Männlich
  • Wohnort:Thüringen
  • Interessen:Anime & Manga, PC Hard-/Software, Zocken, Musik hören usw.

geschrieben 02. Januar 2006 - 23:10

Beitrag anzeigenZitat (schwabi: 02.01.2006, 16:40)

Das krasse is ja eh das ATI mit 16 pipes mehr leistung zusammenbringt als nVidia mit 24.

Das is hald nVidia, immer schön protzen und nix dahinter. :)

Du redest puren blödsinn... mehr leistung kann man nicht sagen nV und ATi liegen in etwa gleich auf. Das ATi trotz 16 pipes so gut ist liegt daran, das sie extrem optimiert haben und nen speziellen und sehr schnellen speichercontroller in den R520 integriert haben.

Und bei nV ist es gewiss nicht nur protzen und nichts dahinter. Die Pixelshader leistung beim G70 ist der des R520 überlegen in einem bereich mehr in dem anderen weniger. Das der G70 sich trotzdem öfters dem R520 geschlagen geben muss liegt daran das der G70 seine volle leistung nicht immer ganz ausspielen kann aufgrund einer architektur unterscheidung. So sind beim G70 die Sampling und arithmetischen recheneinheiten in einanderer verzahnt was zu "wartetakten" führt und demzufolge bremst. Wird aber richtig auf den G70 optimiert rennt er auf jeden fall davon. Ich empfehle dir auf jeden fall auf der 3DCenter Website einmal den abschnitt "Die Pixelpipeline" im R520 Architekturartikel durchzulesen weil da alles erklärt ist was R520/G70 im bereich auf die PixelPipeline unterscheidet.

http://www.3dcenter....005/10-05_a.php


Sry wenn ich etwas komisch geschrieben hab aber ich sitz hier gerade nurnoch mit einem offenen Auge vorm rechner ^^' In diesem sinne gn8
Eingefügtes Bild

Eingefügtes Bild

Anime Freak 4 Ever !
0

#116 Mitglied ist offline   TTDSnakeBite 

  • Gruppe: aktive Mitglieder
  • Beiträge: 730
  • Beigetreten: 21. August 05
  • Reputation: 0
  • Geschlecht:Männlich
  • Wohnort:Bayern

geschrieben 02. Januar 2006 - 23:19

@sp!ke 324: hiermit bist du offiziel dabei :)

klar sieht aoe3 dann besser aus, weil dem shader effekte hinzugefügt worden sind. aber ohne hinzugefügten shader3 effekten, srich mit den effekten vom shader2 bringt der der shader3 wesentlich mehr spieleleistung.
besstes beispiel ist painkiller. mit dem 300mb patch nimmt es den shader her OHNE dessen effekten. und siehe da es ist viel schneller auf meiner 6800 geworden! :)
0

#117 Mitglied ist offline   Schwabi 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.785
  • Beigetreten: 27. November 05
  • Reputation: 0
  • Wohnort:Walding, Österreich

geschrieben 02. Januar 2006 - 23:31

Ich kenn den controller von ATI.

Auf was optimiert? würd ich gerne wissen

Naja nvidia kann doch auch ihren speichercontroller optimieren.(tuns sies nicht weil sie nicht wollen oder nicht können?)

Und das die 7800GTX 512 schneller ist als die X1800Xt is klar, ich meine sie dir die takte an, jedoch die "normale" GTX hat keine chance.

Wie du sagtest resultiert daraus dass ATI verdammt gut gearbeitet hat. Nvidia hat vergessen die hausübung zu machen, und ebenfalls so etwas wie ATI auf die beine zu stellen.
0

#118 Mitglied ist offline   Ferax 

  • Gruppe: aktive Mitglieder
  • Beiträge: 2.296
  • Beigetreten: 26. Mai 04
  • Reputation: 0
  • Wohnort:Nähe Marburg
  • Interessen:Fitness (Kraftsport), Tennis, Party ohne Ende, Sonne relaxen, PC usw ;).

geschrieben 03. Januar 2006 - 08:48

schwabi durch den Wald schauen kannst noch vor laute Bäume ?

Die X1800XT ist nicht schneller als eine normale GTX sie nehmen sie rein gar nichts bei der einen Anwendung ist e Ati bei der anderen NV und das gleiche gilt für Hohe und Niedrige Auflösungen. Nachdem das ATI gemerkt hatte brachten Sie die 512MB Variante und daraufhin auch NV. Die Taktraten sind übrigens bei Ati höher als bei Nv in der 512MB und normal sparte.


Nun lass mal ab von deinem Weg du hast ihn schon oft genannt. Wenn jemand so vernarrt in eine Sache ist sollte er es für sich berhalten und nicht andere versuchen mit in den Bann zu ziehen der rein gar nichts positives hat.
0

#119 Mitglied ist offline   Schwabi 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.785
  • Beigetreten: 27. November 05
  • Reputation: 0
  • Wohnort:Walding, Österreich

geschrieben 03. Januar 2006 - 13:17

Der speichertakt der 512er GTX ist sehrwohl höher. Der Chip nich.

In den meisten (spiele)-benches ist die 1800XT aber besser als die nornale GTX, oder nicht?


Is ja auch egal, jedem das seine, oder wie siehst du das?



cya
0

#120 Mitglied ist offline   scream_00 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.187
  • Beigetreten: 30. Januar 05
  • Reputation: 0
  • Wohnort:NRW
  • Interessen:PC-Spielen, Modden, Party, Freunde treffen, Saufen^^, Sport...

geschrieben 03. Januar 2006 - 13:46

Na ja wie auhc imemr ich bin mal gespannt wann ATI die Treiber mal für DualCore´s Optimiert hat^^ *freu* angeblich sind erst 70% leistung aus den Treibern rausgeholt worden...
0

Thema verteilen:


  • 9 Seiten +
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0