WinFuture-Forum.de: Kvm Switch -> Dvi Hdmi - WinFuture-Forum.de

Zum Inhalt wechseln

Nachrichten zum Thema: Peripherie & Komplett-PCs
Seite 1 von 1

Kvm Switch -> Dvi Hdmi


#1 _The Grim Reaper_

  • Gruppe: Gäste

geschrieben 18. Februar 2009 - 12:00

Hi,

heute ist mein 2-fach Switch mit VGA und DVI eingetroffen.

Zunächst eine andere Frage: Ist HDMI dabei, DVI abzulösen?

Ich habe einen PC mit Grafik onBoard VGA - welchen ich via Adapter an den DVI Port anschließen kann, da der Monitor nur VGA hat und dieser dann auch via Adapter an den DVI kommt, da der 2. PC nur DVI hat. ich hab auch gennügend Adapter.

Ich hab ein VGA Kabel für den einen PC und benötige somit noch ein weiteres Kabel für den 2. PC - das wäre dann ein normales DVI Kabel, doch habe ich von der Grafikkarte einen DVI -> HDMI Adapter - wenn ich mir also nur ein HDMI Kabel kaufen würde, wär der Betrieb über HDMI auch möglich.

Daher oben die Frage - lohnt DVI noch? Gibbt es einen Unterschied, oder ist das mehr oder weniger eine sinnfreie Einführung, um Geld zu scheffeln?

MfGg TGR
0

Anzeige



#2 Mitglied ist offline   HeyHey 

  • Gruppe: aktive Mitglieder
  • Beiträge: 2.202
  • Beigetreten: 31. August 07
  • Reputation: 0

geschrieben 18. Februar 2009 - 12:21

DVI ist besser als VGA, soviel steht fest, ich weis jetzt nicht, ob bei DVI der Sound direkt mit übertragen wird, bei HDMI passiert das, wenn ich mich richtig erinnere aber gleichzeitig.

das Problem, wenn du aus DVI HDMI machst, hast du auch verluste, das taugts also nicht, jetzt extra nochmal das ganze auf HDMI zu legen, ich würds bei DVI belassen

Dieser Beitrag wurde von HeyHey bearbeitet: 18. Februar 2009 - 12:21

0

#3 Mitglied ist offline   Django2 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.331
  • Beigetreten: 09. Dezember 08
  • Reputation: 9
  • Geschlecht:Männlich

geschrieben 18. Februar 2009 - 12:27

Zitat

ob bei DVI der Sound direkt mit übertragen wird

nee

Zitat

das Problem, wenn du aus DVI HDMI machst, hast du auch verluste

Auch nicht, beides ist digital also keine Verluste beim Anschluss eines Adapters

Zitat

Daher oben die Frage - lohnt DVI noch?

Auf jeden fall werden PC Monitore die nächsten Jahre noch DVI haben. LCD Fernseher eher HDMI wegen dem Ton und Kopierschutz
0

#4 _The Grim Reaper_

  • Gruppe: Gäste

geschrieben 18. Februar 2009 - 15:02

Hm ich glaub dann nehm ich doch lieber DVI - ist billiger - mit Adaptern kann ich ja daraus ein HDMI machen.

Gibt es da Probleme mit der Erkennung des Kopierschutzes?
0

#5 Mitglied ist offline   HeyHey 

  • Gruppe: aktive Mitglieder
  • Beiträge: 2.202
  • Beigetreten: 31. August 07
  • Reputation: 0

geschrieben 18. Februar 2009 - 15:06

Theoretisch

das Protokoll kannste eigentlich über DVI auch übertragen, aber wenn du HDMI über DVI übertragen willst, kanns passieren, dass das empfängergerät, das nicht entschlüssen will. Glaub ich aber nicht, dasses passiert, dazu ist ja der Adapter dran

Dieser Beitrag wurde von HeyHey bearbeitet: 18. Februar 2009 - 15:07

0

#6 Mitglied ist offline   Django2 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.331
  • Beigetreten: 09. Dezember 08
  • Reputation: 9
  • Geschlecht:Männlich

geschrieben 19. Februar 2009 - 06:15

Zitat

Gibt es da Probleme mit der Erkennung des Kopierschutzes?

HDCP verschlüsselte Streams wirst du nur über HDMI schauen können, mit DVI wird das nicht gehen. Macht nix, wird das Zeugs halt vom Kopierschutz befreit :rofl:
0

#7 Mitglied ist offline   DK2000 

  • Gruppe: Administration
  • Beiträge: 19.795
  • Beigetreten: 19. August 04
  • Reputation: 1.434
  • Geschlecht:Männlich
  • Wohnort:Oben auf dem Berg
  • Interessen:Essen, PC, Filme, TV Serien...

geschrieben 19. Februar 2009 - 07:17

@Django2:

Audio kann man schon über DVI übertragen. Entsprechende ATI Grafikkarten haben dafür einen Realtek Audiochip integriert und bei den nVidia Karten wird die Karte mit einem Kabel an die Soundkarte angeschlossen. HDCP wird ebenfalls problemlos über DVI übertragen.

HDMI und DVI ist im Grunde genommen eh das Selbe. Ein DVI->HDMI Adapter ordnet eigentlich nur die Pins anders an. Am Signal an sich wird nichts verändert. Beide Standards verwenden die selben Protokolle zur Datenübertragung.

Zitat

Macht nix, wird das Zeugs halt vom Kopierschutz befreit
Das funktionier bei HDCP nicht in jedem Falle, da HDCP direkt in der Hardware implementiert ist. Je aggressiver die Implementation erfolgt ist, desto schwieriger lässt sich das über Software aushebeln. Vor allem beim TV wird es problematisch. Wenn dieser den Handshake der Grafikkarte nicht akzeptiert und auch keine Ausnahmen zulässt, schaltet er den HDMI Port einfach ab.

@The Grim Reaper:

Zitat

heute ist mein 2-fach Switch mit VGA und DVI eingetroffen
Welches Modell genau?

Das mit Deinen Adaptern habe ich da nicht so ganz begriffen:

Zitat

Ich habe einen PC mit Grafik onBoard VGA - welchen ich via Adapter an den DVI Port anschließen kann [...]
Wie meinst Du das jetzt? VGA->DVI? Hast Du das schon getestet, ob das bei Deinem Gerät geht? Normaler Weise geht das nicht, da es nur sehr wenige Monitore mit DVI-I Eingang haben. Die Meisten haben nur DVI-D Eingänge. Diese akzeptieren keine Analogsignale an dem Eingang. Das Selbe würde auch für den Switch gelten. Nur wenn dieser über DVI-I Ein- und Ausgänge verfügt, können damit VGA Signale geschaltet werden.

Was das HDCP bein Switch angeht, ist das noch schwerer zu sagen. Da kommt es darauf an, wie das Gerät intern arbeitet (einfacher mechanischer Schalter oder digitale Schaltung). Kann sein, dass der Switch die HDCP Kette unterbricht, so wie es leider einige Receiver mit HDMI Switch machen.

Dieser Beitrag wurde von DK2000 bearbeitet: 19. Februar 2009 - 07:20

Ich bin kein Toilettenpapier-Hamster.
---
Ich bin ein kleiner, schnickeldischnuckeliger Tiger aus dem Schwarzwald.
Alle haben mich ganz dolle lila lieb.
0

#8 Mitglied ist offline   Lofote 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.526
  • Beigetreten: 24. August 04
  • Reputation: 1

geschrieben 19. Februar 2009 - 08:27

O Gott, selten soviel Halbwissen auf einem Haufen gehört. Leute, bitte INFORMIERT euch doch VORHER, bevor ihr (nett gemeinte) Ratschläge gebt!!

Also, Fakten:

1. HDMI und DVI-D sind elektrisch gleich. Sprich: Es sind einfach andere Stecker, bei HDMI ist noch ein standardisierter digitaler Audio-Kanal dabei, sowie HDMI ist besser auf längere Kabelstrecken ausgelegt, dafür fehlt das analoge Signal vollständig (bei DVI gibts das als DVI-A). HDMI ist zudem für höhere Geschwindigkeit ausgelegt, wo man sehr große Auflösungen (>FullHD) realisierne kann, was im Moment aber eigentlich nur in Spezialfällen genutzt wird (z.B. Public Displays)

2. HDCP ist ein Kopierschutz auf Datenebene, nicht auf elektrischer Ebene. Somit ist HDCP auch auf DVI verwendbar, und das ohne Einschränkung. Wichtig ist nur, dass Sender (=Grafikkarte) und Empfänger (=Bildschirm) HDCP können.

3. Adaptieren von HDMI auf DVI-D und umgekehrt ist ohne jeden Qualitätsverlust machbar. Um Fehlerquellen (zusätzliche Kontakte können ausleihern, schon allein durch das Eigengewicht des Adapters etc.) aber zu vermeiden empfehle ich bei dauerhaften Einsatz den Einsatz eines Adapterkabels, dass also direkt von DVI am einen Kabelende auf HDMI am anderen steckt.

4. Der Grund, warum LCD-Fernseher eher HDMI als DVI haben, sollte nun ersichtlich sein: a) Ton wird mit übertragen - ein Kabel weniger. b) Längere Kabellängen möglich. c) Wesentlich kleinerer Stecker (dafür leider nicht schraubbar). d) Stabilerer Stecker (man kann nicht so einfach Pins aus Versehen abknicken).

Noch Fragen?

Dieser Beitrag wurde von Lofote bearbeitet: 19. Februar 2009 - 10:27

0

#9 Mitglied ist offline   DK2000 

  • Gruppe: Administration
  • Beiträge: 19.795
  • Beigetreten: 19. August 04
  • Reputation: 1.434
  • Geschlecht:Männlich
  • Wohnort:Oben auf dem Berg
  • Interessen:Essen, PC, Filme, TV Serien...

geschrieben 19. Februar 2009 - 09:47

@Lofote:

Zitat

bei HDMI ist noch ein standardisierter digitaler Audio-Kanal dabei, sowie HDMI ist besser auf längere Kabelstrecken ausgelegt,
Diesen standardisierten digitalen Audio-Kanal besitzen auch die entsprechenden Grafikkarten, welche Audio über DVI ausgeben können.

Und was die Kabellänge angeht, so nimmt sich DVI und HDMI nichts. Keine der beiden Spezifikationen gehen darauf wirklich ein bzw. geben verbindlich eine maximale Kabellänge an. Es wird nur darauf hingewiesen, dass die maximale Länge letztendlich von der Kabelqualität und den Geräten abhängig. Nicht alle Kombinationen von Geräten und Kabeln >10m funktionieren. Einige machen schon bei 5m schlapp und andere funktionieren auch noch mit 20m ohne Tricks (wobei es dabei egal ist, ob es ein DVI-DVI, HDMI-HDMI oder DVI-HDMI Kabel ist).
Ich bin kein Toilettenpapier-Hamster.
---
Ich bin ein kleiner, schnickeldischnuckeliger Tiger aus dem Schwarzwald.
Alle haben mich ganz dolle lila lieb.
0

#10 Mitglied ist offline   Lofote 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.526
  • Beigetreten: 24. August 04
  • Reputation: 1

geschrieben 19. Februar 2009 - 10:27

DVI ist auf 5m beschränkt, darüber hinaus ist ein Repeater erforderlich. Dieser verstärkt nicht das elektrische Signal, sondern synchronisiert die RGB-Kanäle aufeinander, da sonst -plump gesagt- z.B. der Grünwert eines Pixel wesentlich früher ankommen kann als der Blauwert. Nach dem Repeter dürfen max. wieder nur 5m zum Bildschirm Kabel verlegt werden. Davor darf jedoch ein längeres verwendet werden, wir verwenden hier 20m-Kabel für die Verkabelung von Workstation in einem Serverraum zu einem Seminarraum.

Bei HDMI ist von der HDMI-Organisation max. 15m vorgesehen.

Das bedeutet natürlich nicht, dass es mit jedem Kabel auch genauso funktioniert. Schlechtere Kabel können natürlich schon früher Probleme bereiten.

Der Audiokanal auf DVI ist möglich, dass weiss ich, aber meines Wissens nicht standardisiert.
0

#11 Mitglied ist offline   DK2000 

  • Gruppe: Administration
  • Beiträge: 19.795
  • Beigetreten: 19. August 04
  • Reputation: 1.434
  • Geschlecht:Männlich
  • Wohnort:Oben auf dem Berg
  • Interessen:Essen, PC, Filme, TV Serien...

geschrieben 19. Februar 2009 - 10:48

Nochmal nein. Weder DVI noch HDMI haben eine vorgeschriebene maximale Kabellänge. Für DVI habe ich es gerade nicht griffbereit, aber für HDMI steht das in der offiziellen FAQ der HDMI Licensing, LLC:

Zitat

HDMI specifies the required performance of a cable but does not specify a maximum cable length. We have seen cables pass "Standard Cable" HDMI compliance testing at lengths of up to a maximum of 10 meters without the use of a repeater. It is not only the cable that factors into how long a cable can successfully carry an HDMI signal, the receiver chip inside the TV or projector also plays a major factor. Receiver chips that include a feature called "cable equalization" are able to compensate for weaker signals thereby extending the potential length of any cable that is used with that device.

In der DVI Spezifikation steht sinngemäß das Selbe. Es gibt offiziell keine Längenbeschränkung.

Und das Audio ist standardisiert. Wäre das nicht der Fall, würde der Empfänger den Audiostream nicht verstehen (bei DVI-HDMI Adapter). Außerdem wäre das auch ein Regelverstoß, was HDCP angeht, wenn Audio unverschlüsselt über ein zweites Kabel übertragen wird.

Dieser Beitrag wurde von DK2000 bearbeitet: 19. Februar 2009 - 11:13

Ich bin kein Toilettenpapier-Hamster.
---
Ich bin ein kleiner, schnickeldischnuckeliger Tiger aus dem Schwarzwald.
Alle haben mich ganz dolle lila lieb.
0

#12 _The Grim Reaper_

  • Gruppe: Gäste

geschrieben 19. Februar 2009 - 15:27

Switch ist ein Xystec siehe hier: http://www.pearl.de/...shtml?query=kvm

Preis/Leistung das beste, was ich gefunden hab.

Mein ITX hat VGA onboard - da hab ich ein VGA Kabel angeschlossen - da andere Ende mit einem DVI Adapter und dann an den DVI Port des Switches.

Mein zweiter Rechner der dran soll, hat nur DVI - also jetzt DVI-D Kabel gekauft und an die Graka und dann an den Switch.

Da der Bildschirm nur VGA hat, hab ich diesen mit einem DVI Adapter an den Switch geklemmt. Mischbetrieb aus VGA und DVI funktioniert nicht, da VGA und DVI an dem Switch getrennt sind.

EDIT: So probiert und die Sache mit dem DVI Kabel funzt nicht :-(.

Alles analoge mit Adapter funktioniert. Ich hab ein 24+1 DVI-D Kabel gekauft. Der einzige Unterschied zum Adapter ist der, dass nach dem ganzen Feld voller Pins, wo dann ein einzelner längerer sitzt (+1) keine 4 weitere Pins um diesen sind, so wie es bei den Adaptern der Fall ist und das wird das Problem sein. Doch es gibt kein DVI Kabel, wo das der Fall ist.

Jetzt muss ich wohl doch ganz auf analog umstellen?

Dieser Beitrag wurde von The Grim Reaper bearbeitet: 19. Februar 2009 - 20:32

0

#13 Mitglied ist offline   DK2000 

  • Gruppe: Administration
  • Beiträge: 19.795
  • Beigetreten: 19. August 04
  • Reputation: 1.434
  • Geschlecht:Männlich
  • Wohnort:Oben auf dem Berg
  • Interessen:Essen, PC, Filme, TV Serien...

geschrieben 19. Februar 2009 - 20:46

Als Kabel bräuchtest Du also ein DVI-I - DVI-I oder VGA - DVI-I Kabel. Solche Kabel gibt es, nur halt hat die nicht jeder. Ein VGA - DVI-A Kabel würde auch noch gehen, aber die findet man noch seltener. Musste nach den Teilen auch erst einmal suchen. Die habe ich schon lange nicht mehr gesehen.

Alle DVI-D Kabel und Komponenten unterstützen keine analogen VGA Signale. Und da ist halt auch noch das Problem mit dem Switch. Ich konnte leider nicht ermitteln, ob das Gerät über DVI-I oder DVI-D Ein- und Ausgänge verfügt. Leider ist es so, das einige Hersteller DVI-I Buchsen verwenden, elektrisch aber nur als DVI-D angeschlossen sind.

Dieser Beitrag wurde von DK2000 bearbeitet: 19. Februar 2009 - 20:54

Ich bin kein Toilettenpapier-Hamster.
---
Ich bin ein kleiner, schnickeldischnuckeliger Tiger aus dem Schwarzwald.
Alle haben mich ganz dolle lila lieb.
0

#14 _The Grim Reaper_

  • Gruppe: Gäste

geschrieben 19. Februar 2009 - 20:54

Also der Switch macht definitiv DVI-I mit, da die ananlogen Geräte ja mittelns DVI-I Adapter am DVI Port des Switches benutzt werden können.

OK dann hab ich ein falsches Kable und der Typ von Winner keinen Plan, da ich ihm mein Problem erklärt habe und er mir dieses Kabel verkauft hat.

Ja genau so ein Kabel brauch ich - 24+5 also DVI-I.

Vielen Dank für die Hilfe - jetzt muss ich nurnoch einen Shop finden, der so ein Kabel verkauft - Winner leider nicht.

Hm der Shop, auf den du verlinkt hast, ist ja auch noch richtig günstig - da hab ich inkl. Versand den gleichen Preis, den ich hier gezahlt habe -> gleich ein Kabel bestellt! Super!!!

Dieser Beitrag wurde von The Grim Reaper bearbeitet: 19. Februar 2009 - 21:06

0

#15 Mitglied ist offline   DK2000 

  • Gruppe: Administration
  • Beiträge: 19.795
  • Beigetreten: 19. August 04
  • Reputation: 1.434
  • Geschlecht:Männlich
  • Wohnort:Oben auf dem Berg
  • Interessen:Essen, PC, Filme, TV Serien...

geschrieben 19. Februar 2009 - 20:59

Gut, wenn Du das mit dem Switch schon soweit getestet hast, dass er DVI-I unterstützt, dann passt das. Lag jetzt halt nur am DVI-D Kabel. Dann sehe ich im Moment keine weiteren Probleme bei Deinem Vorhaben.

Dieser Beitrag wurde von DK2000 bearbeitet: 19. Februar 2009 - 21:00

Ich bin kein Toilettenpapier-Hamster.
---
Ich bin ein kleiner, schnickeldischnuckeliger Tiger aus dem Schwarzwald.
Alle haben mich ganz dolle lila lieb.
0

Thema verteilen:


Seite 1 von 1

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0