Dieser Beitrag wurde von Linuxer bearbeitet: 14. April 2017 - 08:05
Seite 1 von 1
PCIe-Geschwindigkeit für Grafikkarten
#1
geschrieben 14. April 2017 - 08:04
Laut diesem Bericht beträgt der Leistungsverlust einer Grafikkarte auf dem PCIe 2.0 x4 Slot nur 5 bis 7 %. Kann das wirklich so stimmen wenn man z.B. eine 2GB MSI Radeon R9 270X in den PCIe 2.0 mit nur 4 lanes steckt? Da würde man ja praktisch kaum einen Unterschied merken. Ist das so?
Anzeige
#2
geschrieben 14. April 2017 - 10:59
Ja, ist so.
LG JollyRoger
Oberstleutnant Du Zhaoyu (China)
Kapitänleutnant Jarno Makinen (Finnland)
Major Peata Hess von Kruedener (Kanada)
Major Hans-Peter Lang (Österreich)
gefallen am 25.Juli 2006 in Khiyam/Libanon
Nicht die schlechtesten Männer rafft gerne der Krieg dahin, sondern immer die Besten. (Sophokles)
Win10 Test NB
Oberstleutnant Du Zhaoyu (China)
Kapitänleutnant Jarno Makinen (Finnland)
Major Peata Hess von Kruedener (Kanada)
Major Hans-Peter Lang (Österreich)
gefallen am 25.Juli 2006 in Khiyam/Libanon
Nicht die schlechtesten Männer rafft gerne der Krieg dahin, sondern immer die Besten. (Sophokles)
Win10 Test NB
#3
geschrieben 14. April 2017 - 11:09
Ohne die Aussage in sich in Frage stellen zu wollen:
- Ihr zwein habt schon bedacht, daß die Untersuchung von 2011 stammt?
- Nicht *zwangsläufig*, aber *möglicherweise* sieht das heutzutage anders aus.
- Ihr zwein habt schon bedacht, daß die Untersuchung von 2011 stammt?
- Nicht *zwangsläufig*, aber *möglicherweise* sieht das heutzutage anders aus.
#4
geschrieben 14. April 2017 - 11:14
#5
geschrieben 14. April 2017 - 11:38
Nun, der Unterschied ist sicher messbar und vielleicht ein klein wenig spürbar; mehr nicht. Ob man damit leben kann, muss jeder für sich entscheiden.
Dieser Beitrag wurde von JollyRoger2408 bearbeitet: 14. April 2017 - 11:41
LG JollyRoger
Oberstleutnant Du Zhaoyu (China)
Kapitänleutnant Jarno Makinen (Finnland)
Major Peata Hess von Kruedener (Kanada)
Major Hans-Peter Lang (Österreich)
gefallen am 25.Juli 2006 in Khiyam/Libanon
Nicht die schlechtesten Männer rafft gerne der Krieg dahin, sondern immer die Besten. (Sophokles)
Win10 Test NB
Oberstleutnant Du Zhaoyu (China)
Kapitänleutnant Jarno Makinen (Finnland)
Major Peata Hess von Kruedener (Kanada)
Major Hans-Peter Lang (Österreich)
gefallen am 25.Juli 2006 in Khiyam/Libanon
Nicht die schlechtesten Männer rafft gerne der Krieg dahin, sondern immer die Besten. (Sophokles)
Win10 Test NB
#6
geschrieben 14. April 2017 - 12:11
Zitat (Linuxer: 14. April 2017 - 11:14)
Warum sollte das heute anders sein? Die Anordnung der PCIe mit den lans ist doch geblieben.
Aber theoretisch könnte die Übertragung da heutzutage öfter benötigt werden. Nur weil damals der Durchsatz nicht so relevant war, muß das nicht heißen das das heute auch so ist. Ehrlich gesagt weiß ich aber auch nicht wie da die Anforderungen heutzutage sind.
#7
geschrieben 14. April 2017 - 12:15
So pauschal würde ich das auch nicht sagen, zumal da wohl noch keiner wirklich das Ganze mit jedem Spiel/Anwendung nachvollziehbar getestet hat.
Wenn eine Anwendung/Spiel die Bandbreite von PCIe 2.0 x4 nicht annähernd ausnutzt oder nur ein bisschen darüber ist, ist es egal, ob die Karte mit PCIe 2.0 x4 angebunden ist oder mit PCIe 3.0 x16. Der 'Verlust' ist da vernachlässigbar, kaum bis gar nicht spürbar und allenfalls messbar.
Wenn eine Anwendung/Spiel allerdings PCIe 3.0 x16 ausreißt, dann merkt man da mit Sicherheit schon den Unterschied.
Aber wie schon gesagt, habe da überhaupt keine Informationen darüber, wie viel Bandbreite ein Spiel oder Anwendung wirklich nutzt.
Wenn eine Anwendung/Spiel die Bandbreite von PCIe 2.0 x4 nicht annähernd ausnutzt oder nur ein bisschen darüber ist, ist es egal, ob die Karte mit PCIe 2.0 x4 angebunden ist oder mit PCIe 3.0 x16. Der 'Verlust' ist da vernachlässigbar, kaum bis gar nicht spürbar und allenfalls messbar.
Wenn eine Anwendung/Spiel allerdings PCIe 3.0 x16 ausreißt, dann merkt man da mit Sicherheit schon den Unterschied.
Aber wie schon gesagt, habe da überhaupt keine Informationen darüber, wie viel Bandbreite ein Spiel oder Anwendung wirklich nutzt.
Ich bin kein Toilettenpapier-Hamster.
---
Ich bin ein kleiner, schnickeldischnuckeliger Tiger aus dem Schwarzwald.
Alle haben mich ganz dolle lila lieb.
---
Ich bin ein kleiner, schnickeldischnuckeliger Tiger aus dem Schwarzwald.
Alle haben mich ganz dolle lila lieb.
#8
geschrieben 14. April 2017 - 12:23
Es ging ja in dem Test weniger um die Generation (man hat 2011 im Test 2.0 verwendet) als um die Anbindung (x16 vs x8 vs x4 etc.).
Da ist klar, daß das Unterschiede machen *kann*, und CB (via deren Hardwareperson, Wolfgang Andermahr) hatte halt festgestellt, daß um '11 herum die 16 Lanes nicht annähernd ausgereizt wurden, sondern daß mit x8 faktisch kein und mit x4 ein Verlust von ~6% meßbar war.
Aber das war halt 2011.
Heutzutage haben wir 4K und absurde Anforderungen an Datenraten. Irgendwie, rein vom Gefühl, würde ich zumindest nachtesten wollen wie es mit der genutzten Bandbreite aussieht.
Ob 2.x und 3.x nochmal Unterschiede machen müßte man schaun, aber wenn PCIe v3.x mehr als 8 Lanes auslastet, naja dann merkt man den Unterschied zu 2.x zumindest erwartungsweise. Unterhalb PCIe v3 x8 würde zumindest theoretisch v2.x @x16 'reichen' um das abzubilden... würde aber natürlich auch mehr Lanes belegen.
Da ist klar, daß das Unterschiede machen *kann*, und CB (via deren Hardwareperson, Wolfgang Andermahr) hatte halt festgestellt, daß um '11 herum die 16 Lanes nicht annähernd ausgereizt wurden, sondern daß mit x8 faktisch kein und mit x4 ein Verlust von ~6% meßbar war.
Aber das war halt 2011.
Heutzutage haben wir 4K und absurde Anforderungen an Datenraten. Irgendwie, rein vom Gefühl, würde ich zumindest nachtesten wollen wie es mit der genutzten Bandbreite aussieht.
Ob 2.x und 3.x nochmal Unterschiede machen müßte man schaun, aber wenn PCIe v3.x mehr als 8 Lanes auslastet, naja dann merkt man den Unterschied zu 2.x zumindest erwartungsweise. Unterhalb PCIe v3 x8 würde zumindest theoretisch v2.x @x16 'reichen' um das abzubilden... würde aber natürlich auch mehr Lanes belegen.
#9
geschrieben 14. April 2017 - 14:18
Wenn man die Leistung der heutigen Grafikkarten anschaut, haben die bei ihrem 8-12GB Grafikspeicher solch eine Bandbreite, dass der Test damals mit einer 2GB Grafikkarte gar keine Relevanz mehr haben kann.
Der Test wurde mit einer GTX570 gemacht. Was die heute noch wert ist kann sich jeder selbst denken.
Der Test wurde mit einer GTX570 gemacht. Was die heute noch wert ist kann sich jeder selbst denken.
Dieser Beitrag wurde von Gispelmob bearbeitet: 14. April 2017 - 14:19
AMD Ryzen 9 5950X, Asus ROG Strix X570-F Gaming, 32GB Corsair DDR4-3200, Asus Geforce GTX 3060 12GB, Creative Sound Blaster AE-7, 240GB SSD, 500GB SSD, 3x 1TB SSD, Win11 Home, 4x Acer G246HL Bbid, Logitech MX518 Gaming Mouse, Logitech G440 Mousepad, Logitech K120 Keyboard, Razer Tiamat 7.1 V2 Headset, Creative Inspire 5.1 5300 Soundsystem
#10
geschrieben 14. April 2017 - 16:08
Das hat noch nicht einmal damit etwas zu tun, wie viel Speicher die Grafikkarte hat. Es kommt nur darauf an, ob das Spiel die Bandbreite zw. Host und Karte ausnutzt oder nicht. Was nützen Dir die 12GB auf der Karte, wenn das Speil auch nur Häppchenweise etwas über die Lanes schickt und nie mehr als 2 GB/s in Anspruch nimmt.
So ein Test müsste man dann schon wirklich mit einem anspruchsvollem Speil/Anwendung machen, von dem/der man weiß, dass hier die möglichem 15.754 GB/s ausgereißt werden bzw. wirklich benötigt werden. Das Restliche System muss dann aber auch noch passend dazu sein.
So ein Test müsste man dann schon wirklich mit einem anspruchsvollem Speil/Anwendung machen, von dem/der man weiß, dass hier die möglichem 15.754 GB/s ausgereißt werden bzw. wirklich benötigt werden. Das Restliche System muss dann aber auch noch passend dazu sein.
Ich bin kein Toilettenpapier-Hamster.
---
Ich bin ein kleiner, schnickeldischnuckeliger Tiger aus dem Schwarzwald.
Alle haben mich ganz dolle lila lieb.
---
Ich bin ein kleiner, schnickeldischnuckeliger Tiger aus dem Schwarzwald.
Alle haben mich ganz dolle lila lieb.
- ← CPU Kühlungs Problem Noctua NH-L12
- Mainboards, Prozessoren & RAM
- Audio-Frontanschlüsse an selbstzusammengebauten PC gehen nicht! →
Thema verteilen:
Seite 1 von 1