WinFuture-Forum.de: Hdmi Oder Vga - WinFuture-Forum.de

Zum Inhalt wechseln

Nachrichten zum Thema: Multimedia-Software
  • 2 Seiten +
  • 1
  • 2

Hdmi Oder Vga was für monitor?

#16 Mitglied ist offline   DK2000 

  • Gruppe: Administration
  • Beiträge: 19.701
  • Beigetreten: 19. August 04
  • Reputation: 1.436
  • Geschlecht:Männlich
  • Wohnort:Oben auf dem Berg
  • Interessen:Essen, PC, Filme, TV Serien...

geschrieben 12. November 2008 - 16:50

DVI besitzt keinen Kopierschutz. Das ist mehr eine schwachsinnige Implementation, die weder zum DVI Standard noch zum HDMI Standard wirklich passt, weswegen dieses DVI HDCP eigentlich nur noch bei Verwendung des DVI/HDMI Adapters aktiviert wird. Und der Verschlüsselung (HDCP) bei HDMI ist immer aktiv und fällt eigentlich nur dann auf, wenn eines der angeschlossenen Geräte keinen HDCP unterstützt. In dem Falle kann das HDCP fähige Gerät den HDMI Anschuss abschalten oder auf eine niedrigere Auflösung gehen. Kommt darauf an, was der abzuspielende Titel so erlaubt.

Und das der LCD TV bei HDMI nur 1280x720 arbeiten möchte, liegt eigentlich daran, dass das die richtige Auflösung für das 720i bzw. 720p Format ist. Die Displays mit 1366x768 entsprechen keinem HD Standard, da sie entweder das Bild vergößern oder verkleinern müssen. Die 1366x768 Auflösung liegt zwischen den Standards. Zwar kann man das mit den Treibereinstellungen übergehen, aber es ist dann halt kein HD Standard mehr.

Dieser Beitrag wurde von DK2000 bearbeitet: 12. November 2008 - 16:55

Ich bin kein Toilettenpapier-Hamster.
---
Ich bin ein kleiner, schnickeldischnuckeliger Tiger aus dem Schwarzwald.
Alle haben mich ganz dolle lila lieb.
0

Anzeige



#17 Mitglied ist offline   Lofote 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.522
  • Beigetreten: 24. August 04
  • Reputation: 1

geschrieben 12. November 2008 - 17:16

Zitat

DVI besitzt keinen Kopierschutz. Das ist mehr eine schwachsinnige Implementation, die weder zum DVI Standard noch zum HDMI Standard wirklich passt, weswegen dieses DVI HDCP eigentlich nur noch bei Verwendung des DVI/HDMI Adapters aktiviert wird. Und der Verschlüsselung (HDCP) bei HDMI ist immer aktiv und fällt eigentlich nur dann auf, wenn eines der angeschlossenen Geräte keinen HDCP unterstützt. In dem Falle kann das HDCP fähige Gerät den HDMI Anschuss abschalten oder auf eine niedrigere Auflösung gehen. Kommt darauf an, was der abzuspielende Titel so erlaubt.


Sorry, aber diese Information ist falsch. HDCP ist eine Verschlüsselung auf Datenebene und ist sowohl bei DVI als auch bei HDMI möglich und auch unabhängig. HDMI und DVI sind physikalisch eh kompatibel, sprich der von dir angesprochene Adapter ist ein reiner mechanischer, d.h. kein aktiver mit Elektronik drin.

http://de.wikipedia.org/wiki/HDCP
0

#18 Mitglied ist offline   DK2000 

  • Gruppe: Administration
  • Beiträge: 19.701
  • Beigetreten: 19. August 04
  • Reputation: 1.436
  • Geschlecht:Männlich
  • Wohnort:Oben auf dem Berg
  • Interessen:Essen, PC, Filme, TV Serien...

geschrieben 12. November 2008 - 17:47

Das Problem ist nur, dass die DVI Spezifikation kein HDCP vorsieht. DVI und HDMI verwenden zwar die selben Protokolle, weswegen HDCP implementieren lässt, aber es ist so nicht vorgesehen gewesen und es ist auch keineswegs sicher, dass die HDCP Implemantation wirklich Regelkonform ist. Momentan wird das ganze noch relativ locker gehandhabt, da die Medienindustrie eine "Grace Periode" eingeräumt hat. Irgend wann werden aber diese Abspielkontrollen aber vollständig aktiviert werden und nur Geräte, die sich 100% an die Regeln halten, werden noch in vollem Umfang funktionieren. Deswegen ist es auch schwer zu sagen, wie sich die Geräte zukünftig verhalten werden, vorallem bei Grafikkarten, welche kein Audio über DVI mit HDCP ausgeben können.
Ich bin kein Toilettenpapier-Hamster.
---
Ich bin ein kleiner, schnickeldischnuckeliger Tiger aus dem Schwarzwald.
Alle haben mich ganz dolle lila lieb.
0

#19 Mitglied ist offline   Lofote 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.522
  • Beigetreten: 24. August 04
  • Reputation: 1

geschrieben 12. November 2008 - 18:44

Na wenn der Hersteller angibt, er unterstützt HDCP, dann muss das Gerät es auch regelkonform sein. Ansonsten Gerät zurückgeben und fertig. Das kann dir aber überall passieren :(...
0

#20 Mitglied ist offline   bartii 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.136
  • Beigetreten: 02. August 05
  • Reputation: 1
  • Geschlecht:Männlich

geschrieben 12. November 2008 - 18:57

Beitrag anzeigenZitat (DK2000: 12.11.2008, 17:47)

Das Problem ist nur, dass die DVI Spezifikation kein HDCP vorsieht.

Das ist schon so richtig, sonst könnte man mit jeder XY Karte die einen DVI-Ausgang hat gucken.
Software is like sex. It is better when it's free.. (Linus Torvalds)
0

#21 Mitglied ist offline   Overflow 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.399
  • Beigetreten: 13. Dezember 04
  • Reputation: 0

geschrieben 12. November 2008 - 22:12

Beitrag anzeigenZitat (tavoc: 12.11.2008, 15:49)

das sollte man im treiber einstellen können: show unsupported resolutions oder so, dann sollte es gehn...

Nö, der Bildschirm nimmt die Auflösung ja nicht an, die Grafikkarte hat damit ja kein Problem...


Zitat

Aha, warum soll VGA das bessere Bild bringen!?

Weil das Display in seiner nativen Auflösung gefahren wird?!

Zitat

Aha, dann taugt entweder der Bildschirm, die Grafikkarte oder der Treiber nix. Weil das muss auf jeden Fall tun.

Nö, 1366*768 ist kein "HD-Standard" somit muss ein Fernseher diese Auflösung auch nicht per HDMI annehmen.
0

Thema verteilen:


  • 2 Seiten +
  • 1
  • 2

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0