WinFuture-Forum.de: GPU funktioniert nicht auf Riser Card (1x auf 16x) - WinFuture-Forum.de

Zum Inhalt wechseln

Windows 10: Alle News, der Download sowie zahlreiche Screenshots und Videos zum neuen Betriebssystem von Microsoft. Jetzt im WinFuture Windows 10 - Special informieren!
Seite 1 von 1

GPU funktioniert nicht auf Riser Card (1x auf 16x)


#1 Mitglied ist offline   test25 

  • Gruppe: aktive Mitglieder
  • Beiträge: 617
  • Beigetreten: 18. Juli 11
  • Reputation: 1

geschrieben 25. Juli 2017 - 19:03

Hallo,

habe dieses Modell und die GTX650, HD 5750 gerade hier. Da wollte ich mal testen ob das auch bei mir funktioniert, dass mehrere GPUs so laufen würden.
Leider nicht. Ich bekomme kein Bild rüber über diesen Adapter (egal welche von den zwei GPUs), aber eine USB 3.1 Karte funktioniert problemlos.
Dann hatte ich so probiert, dass eine normal angeschlossen wurde und die zweite über den Riser-Adapter.
Also obwohl die Treiber installiert sind und die Karte so funktioniert wenn ich sie normal ans Motherboard anschließe, schreibt Windows im Geräte-Manager folgendes (in dem Fall war die HD 5750 am Riser-Adaper):

Zitat

Das Gerät "PCI\VEN_1002&DEV_68BE&SUBSYS_E148174B&REV_00\4&11e10cb&0&00E4" erfordert weitere Installationen.



Das Gerät "PCI\VEN_1002&DEV_68BE&SUBSYS_E148174B&REV_00\4&11e10cb&0&00E4" konnte nicht migriert werden.



ID der letzten Geräteinstanz: PCI\VEN_1002&DEV_68BE&SUBSYS_E148174B&REV_00\4&2c42dea8&0&0008
Klassen-GUID: {4D36E968-E325-11CE-BFC1-08002BE10318}
Speicherortpfad:
Migrationsrang: 0xF00000000000F122
Vorhanden: false
Status: 0xC0000719



Der Prozess zum Installieren von Treiber c0310791.inf_amd64_1a41492ddaa53f63\c0310791.inf für Geräteinstanz-ID PCI\VEN_1002&DEV_68BE&SUBSYS_E148174B&REV_00\4&11E10CB&0&00E4 wurde mit folgendem Status beendet: 0x0.


Wo liegt das Problem?


Danke!
0

Anzeige



#2 Mitglied ist offline   Gispelmob 

  • Gruppe: aktive Mitglieder
  • Beiträge: 2.591
  • Beigetreten: 14. August 15
  • Reputation: 392

geschrieben 25. Juli 2017 - 21:11

Mit diesem oder einem ähnlichen Adapter werden doch die Miningcomputer zusammengebaut. Ein Board mit 12 x1 Slots und dann 12 Grafikkarten in einen Rahmen darüber gehangen.


http://www.asrock.co...0BTC+/index.asp
http://www.biostar.c...on.php?S_ID=884

Problem bei dir wird vielleicht sein dass dein Board nVidia und AMD nicht im Parallelbetrieb unterstützt. Da müsstest du mal in das Manual des Mainboards schauen.

Dieser Beitrag wurde von Gispelmob bearbeitet: 25. Juli 2017 - 21:12

AMD Ryzen 9 5950X, Asus ROG Strix X570-F Gaming, 32GB Corsair DDR4-3200, Asus Geforce GTX 3060 12GB, Creative Sound Blaster AE-7, 240GB SSD, 500GB SSD, 3x 1TB SSD, Win11 Home, 4x Acer G246HL Bbid, Logitech MX518 Gaming Mouse, Logitech G440 Mousepad, Logitech K120 Keyboard, Razer Tiamat 7.1 V2 Headset, Creative Inspire 5.1 5300 Soundsystem
0

#3 Mitglied ist offline   test25 

  • Gruppe: aktive Mitglieder
  • Beiträge: 617
  • Beigetreten: 18. Juli 11
  • Reputation: 1

geschrieben 26. Juli 2017 - 18:58

Achso ok, ja das ist schon ganz was anderes. Klingt irgendwie interessant, aber ich wollte jetzt nur mal das testen.
Für mich sind zu wenige Anschlüsse an Ports und das möchte ich halt mit den kleinen PCI E-Slots umgehen sozusagen. Die meisten sind aber 4x und ich habe nur 1x übrig. Das wollte ich mit dem Adapter umgehen.
Dann wollte ich eben testen ob dann darüber GPUs auch funktionieren.
Der PC kann aber beide Grafikkarten ohne dem Adapter normal erkennen, also müsste dieser Parallelbetrieb möglich sein.

Dann ist was anderes daran schuld...
0

#4 Mitglied ist offline   RalphS 

  • Gruppe: VIP Mitglieder
  • Beiträge: 8.895
  • Beigetreten: 20. Juli 07
  • Reputation: 1.126
  • Geschlecht:Männlich
  • Wohnort:Zuhause
  • Interessen:Ja

geschrieben 26. Juli 2017 - 22:54

Nominell sollten Grafikkarten in jeder Anbindung funktionieren. Auch einfach (x1).

Aber einmal ist das ja so'n Mining-mäßiger Adapter und da soll ja gar nicht erst ein Bild rauskommen... womöglich fehlt die Funktion einfach.

Und zweimal sind es halt Grafikkarten, die ja in diesem Sinne "praktisch betrachtet" in einen x16 installiert werden "sollen". Halte es daher für gut möglich, daß entgegen dem Standard in einem x1-Slot nicht genügend Daten übertragen werden (müßte man probieren).


Ansonsten... ist es einfach so, daß PCIe in mehr oder weniger alle Richtungen kompatibel ist (oder sein sollte). Der Standard sieht sogar vor (oder hatte vorgesehen) daß Slots offen sind am Ende. Was für eine Bauform ein PCIe-Slot (mechanisch) hat, "sollte" also niemanden interessieren; es ist halt nur so, daß heutzutage "aus Geldgründen" die Slots hinten meistens zu sind. Ansonsten würde nicht Boardhersteller #1 mit "3 x16 Anschlüssen" werben können und #2 mit fünfen, OBWOHL beide Boards funktional zu 100% identisch sind.


Wenn Du also auf die Jagd gehen solltest nach neuen Mainboards, achte darauf, daß diese entweder elektrische x1 Lanes in mechanischen x16-Slots verpacken oder, wenn Du's finden kannst, Boards findest, welche die Slots hinten offen lassen.

Dann kannst Du da die Grafikkarte(n) direkt reinstecken.


Daß diese dann natürlich nicht die volle Leistung bringen, sollte keiner Erwähnung bedürfen. :wink: Wenn nur 1 Lane da ist, können halt nur ~1GB/s (3.0) bzw ~500MB/s (2.x) über die Leitung statt das 16fache davon.
"If you give a man a fish he is hungry again in an hour. If you teach him to catch a fish you do him a good turn."-- Anne Isabella Thackeray Ritchie

Eingefügtes Bild
Eingefügtes Bild
0

#5 Mitglied ist offline   test25 

  • Gruppe: aktive Mitglieder
  • Beiträge: 617
  • Beigetreten: 18. Juli 11
  • Reputation: 1

geschrieben 27. Juli 2017 - 10:39

Ist PCIe eigentlich Plug & Play fähig? Also wirklich selber und nicht darauf hängende Adapter mit eigenen Chipsätze...

Hab vorhin dem Adapter mit der AMD-GPU auf einem anderen PC probiert und da funktioniert zumindest das Bild. Erkannt wird die GPU nicht, aber solang man kein Game spielt funktioniert es soweit.
Ich denke aber dass dann trotzdem die Funktion für eine GPU fehlt, denn der PC hat alle Treiber für die GPU aber wird über diesen Adapter trotzdem nicht erkannt.

Leider habe ich keinen mechanischen 16x Slot zum testen, aber wenn es wie vorhin überhaupt funktionieren kann, dann zumindest für Standard Anwendungen und nicht fürs gamen.

Wieso denn aus Geldgründen? Da wieder mehr in Stabilität investiert werden müsste oder in bessere Technik die dann mehr auch an diverse PCIe Karten einlesen kann? Denn der Ursprungsgedanke dass es egal ist wo rein, ist gut und man ist flexibler. Denn schön dass man so dann damit werben kann, aber dann ist das ja der gleiche Schwachsinn wie mit dem USB3.0, da gibt es auch "echte" und "unechte" die trotzdem auf den USB2.0-Standard basieren.

Zukünftig werde ich etwas mehr auf die PCIe-Slots achten ja. Wobei wenn man nach den hinten offenen suchen will, es mühsam wird.

Ja das weiß ich, sollte ja auch nicht zum zocken verwendet werden sondern für mehrere HDDs...

Wieso ist man eigentlich mit den (elektrischen) 16x Slots so begrenzt? Warum nicht einfach 5x PCIe und 16x elektrisch?
Jeder Ultra-High-End-Gamer mit 2xGTX1080TI GPUs bräuchte sowas ohne Kompromisse würde ich sagen, egal ob die GPU dass nun auch unbedingt ausnutzt oder nicht.
0

Thema verteilen:


Seite 1 von 1

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0