WinFuture-Forum.de: Welche Grafikkarte ist Empfehlenswert [2016] - WinFuture-Forum.de

Zum Inhalt wechseln

Nachrichten zum Thema: Grafikkarten
  • 2 Seiten +
  • 1
  • 2

Welche Grafikkarte ist Empfehlenswert [2016]

#16 Mitglied ist offline   RalphS 

  • Gruppe: VIP Mitglieder
  • Beiträge: 8.895
  • Beigetreten: 20. Juli 07
  • Reputation: 1.126
  • Geschlecht:Männlich
  • Wohnort:Zuhause
  • Interessen:Ja

geschrieben 07. Oktober 2016 - 22:29

Mehr VRAM = Platz für größere Texturen. Braucht man für höhere Auflösungen und wenn die Karte zu lahm ist (relativ zur RAM-Ausstattung) dann röchelt die am Flaschenhals GPU rum, bevor "RAM" auch nur annähernd ausgelastet wurde.

Daher, grad für kleinere Auflösungen - und dazu zählt heutzutage FullHD=1080p=1920*1080 auch --- in die Testberichte schauen.

AMD denk ich mal nicht so, aber wie schon erwähnt wär bei nvidia alles oberhalb der 1060er GTX rausgeworfen, wenn eh nur bis 1080p aufgelöst werden *kann* (hauptsächlich deswegen, weil der Monitor einfach nicht mehr hergibt).

Der Rest ist halt immer die Frage: was will ich? Was brauche ich? Was erwarte ich zu brauchen? (Hier wirds schon schwieriger einzuschätzen, aber wenn man zB 1440p oder 2160p *plant*, muß man zwangsläufig weiter oben auf dem Leistungsindex schauen; sonst wäre es aber albern - plus natürlich, wie erwarte ich,daß sich Anforderungen meiner Spiele entwickeln).

Und dann die Frage nach dem Preis dazu. So als Hausnummer, wenn ich jetzt einen 19er Monitor grad erst gekauft hab und der soll so noch halten und mehr Monitore will ich auch nicht, dann würde bei nvidia die Suche bei einer 1060 aufhören, weil Mehrleistung nicht genutzt werden könnte. Will ich einen 1440p anschaffen muß ich bei 1070 schauen. Und wenn ich 4K will, muß ich mich fragen, ob ich a) *nochmal* 200 Euro dazu tun will zum Preis einer 1070 *oder* ob ich willens bin, zumindest bis auf weiteres geringere Auflösungen zu fahren und dann skalieren zu lassen ODER ggf Einbrüche bei den Frameraten hinzunehmen. (Hier würde ich zB sagen, Quantität über Qualität, und 25fps sind dann okay, wenn das Bild stimmt.)

Dies unter der Annahme, daß ich überhaupt erstmal "ordentliche" Grafikanwendungen in 3d - lies, Spiele <_< --- laufen lassen will. Für Solitär wär das ebenso albern wie JAVA- oder browser-basierte Spiele.

Für die Spiele, die Du da anführst?
- 1080 für 4K.
- 1070 für alles andere.
Dies im Sinne eines Optimums mit Schwerpunkt Leistung. Und wenn es mit Schwerpunkt Kosten sein soll, dann halt AMD, bloß da würd ich dann schon drauf achten, die "richtige" Karte zu kriegen für mein Geld. Besonders dann, wenn sich die verschiedenen Chips in bezug auf den Preis effektiv nicht voneinander unterscheiden. Da wäre man schön blöd, dann nicht das für die Situation best-mögliche Teil einzukaufen.

Dieser Beitrag wurde von RalphS bearbeitet: 07. Oktober 2016 - 22:31

"If you give a man a fish he is hungry again in an hour. If you teach him to catch a fish you do him a good turn."-- Anne Isabella Thackeray Ritchie

Eingefügtes Bild
Eingefügtes Bild
1

Anzeige



#17 Mitglied ist offline   test25 

  • Gruppe: aktive Mitglieder
  • Beiträge: 617
  • Beigetreten: 18. Juli 11
  • Reputation: 1

geschrieben 09. Oktober 2016 - 20:39

Danke für die super Antwort.
Nun ist mir klar geworden, entweder die günstige Variante oder gleich die teuerste, so wie du es schon erwähnt hattest. Kommt gut hin, deshalb muss man sich echt fragen ob das einem es wert ist um auch bei 4K oder in der Zukunft gerüstet sein zu wollen.
Was ich aber bei ein paar Testberichte gesehen hatte, dass die RX480 vs der 1080GTX bei 4K (aus meiner Sicht) nicht so schlimm unterscheiden. Bei GTA V waren es bei den durchschnittlichen FPS so: ca. 55fps RX480 und max. 70fps für die GTX1080er. Ich sehe es so eigentlich nicht mal so schlimm.
Monitor wird sicher mal einer mit einer 4K Auflösung kommen, sobald man das Geld auch dafür hat. Andererseits man soll auch wieder nur das kaufen was man gerade auch nutzen kann bzw. braucht.

Andere meinen anstatt die RX480 die GTX970er zu kaufen. Naja alte Modelle sich zu holen... weiß nicht so recht.

Wie meinst du das mit den Chips zum Schluss? Du meinst die verschiedenen Modelle die es gibt wie RX470, RX480...? Es gibt ja generell verschiedene Grafikkartentypen wie von allen Grafikkarten. Da ist es auch für mich noch fraglich wonach man sich da richten soll. Es gibt da keine Liste oder Testberichte die die ganzen Modelle genau testen und die Vor- und Nachteile auflisten. Also die RX480 von Asus, XFX usw.

Wie sieht es mit der Leistung in Zukunft aus bei den Grafikkarten? Kann man da schon sagen, in einem Jahr hat man die Leistung der 1080er um den ähnlichen Preis wie heute und man kann dann wenigstens mit 4K sicher unterwegs sein?

Dieser Beitrag wurde von test25 bearbeitet: 09. Oktober 2016 - 20:40

0

#18 Mitglied ist offline   Samstag 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.023
  • Beigetreten: 14. Juli 07
  • Reputation: 542
  • Geschlecht:unbekannt

geschrieben 09. Oktober 2016 - 20:55

Erfahungsgemäss werden die Preise im ersten Halbjahr des nächsten Jahres purzeln, dann will AMD ja seine Vega-Architektur verkaufen. Angeblich soll das ein Titan-X-Killer werden, näheres dazu erfährt man wohl nächsten Monat auf der SC2016, dann werden die neuen AMD-Grafikkarten, zumindest Gerüchten zufolge, offiziell vorgestellt.
Ob sich das Warten lohnt? Tja, gute Frage. Wenn AMD wirklich den Hammer abliefert und nicht wieder künstlich beschneidet, dann wird Nvidia in absehbarer Zeit wohl nachziehen und die Preise fallen nochmal.
Abgesehen davon dass die Preise mit der Zeit immer fallen werden, ist die Hauptfrage: Wie lange willst bzw. kannst du warten? Noch 6 Monate, bis die AMDs wirklich auf dem Markt sind, um dir dann eine günstigere Nvidia zu kaufen? Oder dann lieber nochmal 3 Monate, bis die neuen Nvidias kommen, um günstig an die aktuellen AMDs zu kommen? Legt AMD dann nochmal eine Schippe drauf, lohnt sich das Warten vielleicht schon wieder. So, und jetzt drehen wir uns im Kreis, du wartest und wartest und bekommst nie neue Hardware.

Dieser Beitrag wurde von Samstag bearbeitet: 09. Oktober 2016 - 21:54

1

#19 Mitglied ist offline   RalphS 

  • Gruppe: VIP Mitglieder
  • Beiträge: 8.895
  • Beigetreten: 20. Juli 07
  • Reputation: 1.126
  • Geschlecht:Männlich
  • Wohnort:Zuhause
  • Interessen:Ja

geschrieben 09. Oktober 2016 - 21:25

Naja, hauptsächlich unterscheiden die sich in der Performance, sodaß man da schon schauen kann bei zB anandtech Bench oder PassMark's Benchmarkseiten oder sonstwo. Aber wenn man jetzt bei einem Hersteller in einer einzelnen Generation schaut, dann gibt es da eher nix, was hier geht und da nicht (im Sinne von Features - im Sinne von Leistungsfähigkeit natürlich durchaus).

Das ist ja auch der Grund, warum man mit 1070 und 80 unter FullHD nicht besonders viel von hat. Die preiswerteren Karten leisten da nämlich ähnlich gut und das Alleinstellungsmerkmal, nämlich "ich kann 1440p oder 2160p flüssig zocken" schlicht nicht greift.

Da gibts so ne nette Grafik bei computerbase.de, die Preise und Leistung von Grafikkarten in Relation zueinander setzen, mit Augenmerk auf 1920x1080 Auflösung.
Die faßt das besser zusammen, als ich das kann. :imao:

Klickst Du hier und scrollst so ungefähr in die Mitte des Dokuments. Da sieht man schon, daß die meisten Karten in etwa stabil in bezug auf Preis, Leistung und Kosten in Relation sind - bis auf ein paar Ausnahmen, nämlich die 970er von NVDIA und die 470er von AMD (vergleichsweise viel Leistung fürs Geld) auf der einen Seite, wenn auch insgesamt eher wenig davon... und die 1080er auf der anderen mit Leistung satt, aber Kosten noch viel satter. Im Neutrum (mittlere Leistung, mittlerer Preis) sieht man da die 1070er und die R9 Fury X, und im etwas grüneren Preis (aber dafür etwas roteren Leistungs)-Bereich dann die RX480 und die GTX1060, sowie halt auch weit abgeschlagen in der tiefgrünen Leistung und tiefrotem Preis die 1080, weit unterm durchschnittlichen PL-Index. Gottseidank sind keine Titan-Karten dabei. ^_^

Aber halt dran denken, daß das in bezug auf Preis und Leistung und FullHD-Auflösung entstanden ist. 1440p oder 2160p würde die Grafik anders aussehen.
"If you give a man a fish he is hungry again in an hour. If you teach him to catch a fish you do him a good turn."-- Anne Isabella Thackeray Ritchie

Eingefügtes Bild
Eingefügtes Bild
1

#20 Mitglied ist offline   test25 

  • Gruppe: aktive Mitglieder
  • Beiträge: 617
  • Beigetreten: 18. Juli 11
  • Reputation: 1

geschrieben 09. Oktober 2016 - 21:30

Danke für die Info.
Das mit dem Warten weiß ich. Nur wenn es in 6 Monate ein besseres Modell einfach gibts, dann kann ich das noch abwarten. Also wenn es nicht mehr so weit ist, kann sich das warten zumindest auf die nächste Generation auszahlen. Anderst wäre es nicht sinnvoll auf was neues zu warten wenn es doch erst in den nächsten Jahren passiert.
0

#21 Mitglied ist offline   Samstag 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.023
  • Beigetreten: 14. Juli 07
  • Reputation: 542
  • Geschlecht:unbekannt

geschrieben 09. Oktober 2016 - 21:55

Ok, also wenns auf ein paar Monate nicht ankommt dann würde ich zumindest auf das SC-Event Mitte November warten.
Wenn dann die neuen Vega-Karten wirklich vorgestellt werden wird sich schon abzeichnen, ob sich das weitere Warten wirklich lohnt, oder es vielleicht sogar doch nur heisse Luft ist, die da kommt.
0

#22 Mitglied ist offline   RalphS 

  • Gruppe: VIP Mitglieder
  • Beiträge: 8.895
  • Beigetreten: 20. Juli 07
  • Reputation: 1.126
  • Geschlecht:Männlich
  • Wohnort:Zuhause
  • Interessen:Ja

geschrieben 09. Oktober 2016 - 22:19

Ich steh den *50er Karten von NV sehr skeptisch gegenüber. Ja, die dürfen sich GTX nennen, aber eigentlich eher nicht zu Recht. Für die *50Ti mag das ja noch gehen, aber mh, wenn ich mir so anschau daß die 1060@3GB schon schwächeln, dann seh ich grad nicht, wo die 50er noch sparen kann, wenn man sie auch noch verwenden will.

Gut, da kann nvidia/AMD nur bedingt was dafür. Wer paßt schon auf den Speicherbedarf auf beim Programmieren. Aber auf die Füße fällt es uns halt als Endanwender.

-- Wobei andererseits derzeit die denkbar schlechteste Zeit für Hardwarekäufe anfängt. Weihnachten? Wer kauft da freiwillig?

-- Daher, entweder möglichst sofort kaufen, oder wenn das nicht geht und/oder "zu plötzlich" ist (was kein Wunder wäre) bis mindestens Ende Dezember, Anfang Januar warten.
"If you give a man a fish he is hungry again in an hour. If you teach him to catch a fish you do him a good turn."-- Anne Isabella Thackeray Ritchie

Eingefügtes Bild
Eingefügtes Bild
0

#23 Mitglied ist offline   CyberMark 

  • Gruppe: Mitglieder
  • Beiträge: 10
  • Beigetreten: 15. Dezember 16
  • Reputation: 0
  • Geschlecht:Männlich
  • Wohnort:Koblenz
  • Interessen:Gaming in UHD :=D

geschrieben 15. Dezember 2016 - 21:02

Eine Grafikkarte anhand uhres VRAMs zu bewerten, ist so als würdest du ein Auto nach der größe seines Tankes bewerten.

Natürlich gilt je höher der Preis, desto stärker die Komponenten, desto mehr Performance ( meißtens), aber der einzige WEg eine Grafikkarte wirklich zu testen ist der Benchmark bzw der Test am Spiel selbst, da sich jede Grafikarte auch anders im jeweiligen PC System verhält.

Es gibt im Netz unzählige Seiten die Grafikakrten vergleichen (zB eher unabhängige Seiten wie grafikkarten-vergleichen.deoder auch größere Seiten wie Chip.de

Da kannst du dann speziell nach Spezifikationen und persönlichen Vorlieben vergleichen
0

#24 Mitglied ist offline   RalphS 

  • Gruppe: VIP Mitglieder
  • Beiträge: 8.895
  • Beigetreten: 20. Juli 07
  • Reputation: 1.126
  • Geschlecht:Männlich
  • Wohnort:Zuhause
  • Interessen:Ja

geschrieben 15. Dezember 2016 - 21:16

Du hast da bedingt Recht. "Theoretisch" ist das nicht so kritisch.

Aber praktisch sprechen die Testberichte aktueller Spiele eine ganz andere Sprache, nicht zuletzt deswegen, weil alle immer besser-schneller-höher auflösen wollen und am liebsten noch 8K-Resolution auf ihrem 10er Tablet haben wollen.

Auflösung frißt massiv Daten. Full HD sind ~ 2 Megapixel (mal 32bit Tiefe). 4K sind schon 8 Megapixel. Und wenn wir dann noch auf 10bit statt 8bit Farbinformation schauen, haben wir nicht mehr 32bit pro Pixel, sondern 40.

Irgendwo muß das ja hin.

-Ich gehe aber soweit mit: wenn man nicht über FullHD *will*, dann hat man aktuell sehr mächtige Grafikkarten, die auch nicht mehr ausgereizt werden können. So eine GTX1080 langweilt sich beispielsweise in einem maximal FullHD-System.

Auf einem 4K-System jedoch, da sieht das anders aus; da fehlen ihr eher Reserven.

Dieser Beitrag wurde von RalphS bearbeitet: 15. Dezember 2016 - 21:19

"If you give a man a fish he is hungry again in an hour. If you teach him to catch a fish you do him a good turn."-- Anne Isabella Thackeray Ritchie

Eingefügtes Bild
Eingefügtes Bild
0

Thema verteilen:


  • 2 Seiten +
  • 1
  • 2

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0