Hallo, ich habe mir nun einen neuen TFT-LCD Monitor (Samsung SyncMaster 226BW) zugelegt! Diesen wollte ich an meinem Rechner mit einer ATI-x1600 512MB Grafikkarte anschließen! Diese Karte hat ja 2 Ausgänge, 1x D-SUB und 1x DVI.
Schließe ich nun den Monitor an den DVI Ausgang an bootet der Vista-PC zuerst normal, soll heißen ich sehe den Bootscreen und nach ein paar Sekunden nichts mehr und der Moni geht in den Energiesparmodus! Schließe ich nun den Moni an D-SUB an UND lasse den DVI-Stecker im PC drin, ABER am Moni raus ... passiert das Gleiche!
Ziehe ich nun auch den DVI-Stecker aus dem PC und habe nur den D-SUB drin läuft alles normal hoch.
Ich möchte nun aber gerne DVI benutzen ...
Wer kann mir da einen Tipp geben?
Gruß Helmut
Seite 1 von 1
Dvi Port An Der Grafikkarte Ohne Funktion
Anzeige
#2
geschrieben 04. Januar 2008 - 20:53
Lösung a: Ein Treiberproblem. Geh mal ins Catalyst-Control-Center und erzähl dem Treiber in einem der Untermenüs, das du ab sofort ganz gern DVI nutzen würdest. Entweder hat der das noch nicht gerafft, oder:
Lösung b: Geh ins Menü des Monitors und schau da nach, ob DVI irgendwie erst noch aktiviert werden muss.
Lösung b: Geh ins Menü des Monitors und schau da nach, ob DVI irgendwie erst noch aktiviert werden muss.
#3
geschrieben 04. Januar 2008 - 21:06
Beim Monitor müsste eine Treiber-Cd dabei gewesen sein, hast du die installiert?
MfG
MfG
#4
geschrieben 04. Januar 2008 - 21:22
#5
geschrieben 04. Januar 2008 - 22:50
Hallo DanielDuesentrieb
War bei deiner Grafikkarte ein DVI-VGA Adapter dabei?
Dann könntest du den digitalen Anschluss der Grafikkarte mal am analogen Anschluss des Monitors anstecken um einen Hardwaredeffekt der Grafikkarte auszuschließen.
Allerdings glaube ich das Problem liegt bei ATI. Siehe hier
War bei deiner Grafikkarte ein DVI-VGA Adapter dabei?
Dann könntest du den digitalen Anschluss der Grafikkarte mal am analogen Anschluss des Monitors anstecken um einen Hardwaredeffekt der Grafikkarte auszuschließen.
Allerdings glaube ich das Problem liegt bei ATI. Siehe hier
Alle sagten es geht nicht, da kam einer der das nicht wusste und tat es einfach.
#6
geschrieben 05. Januar 2008 - 00:09
Zitat (Samstag: 04.01.2008, 20:53)
Lösung a: Ein Treiberproblem. Geh mal ins Catalyst-Control-Center
Lösung b: Geh ins Menü des Monitors und schau da nach, ob DVI irgendwie erst noch aktiviert werden muss.
Lösung b: Geh ins Menü des Monitors und schau da nach, ob DVI irgendwie erst noch aktiviert werden muss.
Vielen Dank für die Antworten ... Catalyst Control Center habe ich nicht installiert, brauchte ich bis heute nicht, der Monitor erkennt automatisch das ankommende Signal!
Der DVI Port muß ja auch erkannt werden denn im abgesicherten Modus kann ich den PC komplett hochfahren, also wohl doch ein Treiberproblem.
Obwohl Windows doch die Monitortreiber selbstständig installiert, brauchte dafür noch nie einen externen Treiber! Ist das denn bei DVI anders?
Bringt denn DVI wirklich soviel? Habe jetzt den D-SUB angeschlossen und habe ein sehr gutes Bild, kann mir gar nicht vorstellen was da noch besser werden sollte :-)
Gruß Helmut
#7
geschrieben 05. Januar 2008 - 00:20
Zitat (helmut48: 05.01.2008, 00:09)
Bringt denn DVI wirklich soviel? Habe jetzt den D-SUB angeschlossen und habe ein sehr gutes Bild, kann mir gar nicht vorstellen was da noch besser werden sollte :-)
Gruß Helmut
Gruß Helmut
Was ist schneller:
GPU->D/A-Wandler<--Monitorkabel-->A/D-Wandler->Monitor
oder
GPU<--Monitorkabel-->Monitor
greets
around the world
Thema verteilen:
Seite 1 von 1