WinFuture-Forum.de: Was Ist Besser Dvi Oder Hdmi? - WinFuture-Forum.de

Zum Inhalt wechseln

Nachrichten zum Thema: Grafikkarten
Seite 1 von 1

Was Ist Besser Dvi Oder Hdmi?


#1 Mitglied ist offline   Wulfpacks 

  • Gruppe: aktive Mitglieder
  • Beiträge: 283
  • Beigetreten: 24. Januar 07
  • Reputation: 0

geschrieben 18. Juni 2009 - 18:30

Hallo

ich hab meine grafikkarte (geforce gtx 260) aktuell per hdmi an mein flach monitor angeschloßen
es ist aber nicht direkt per hdmi verbunden sondern am pc mit ein adapter von dvi auf hdmi

meine frage ist was ist den besser (besseres bild) hdmi per adapter oder direkt digital mit dvi?

mfg sascha
0

Anzeige



#2 Mitglied ist offline   Computer 

  • Gruppe: aktive Mitglieder
  • Beiträge: 3.127
  • Beigetreten: 27. Januar 07
  • Reputation: 58
  • Geschlecht:unbekannt

geschrieben 18. Juni 2009 - 18:39

Für die normale Computernutzung DVI und für hochauflösendes Fernsehen oder Blue Ray schauen z.B. mit dem Player HDMI.
0

#3 Mitglied ist offline   chrismischler 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.185
  • Beigetreten: 26. Februar 07
  • Reputation: 102
  • Geschlecht:Männlich
  • Interessen:Serien, Filme, Konsolen

geschrieben 18. Juni 2009 - 18:41

Der Unterschied ist eigentlich nur, dass man bei HDMI auch Ton übertragen kann. Die Bildqualität ist gleich gut.
1

#4 Mitglied ist offline   Wulfpacks 

  • Gruppe: aktive Mitglieder
  • Beiträge: 283
  • Beigetreten: 24. Januar 07
  • Reputation: 0

geschrieben 18. Juni 2009 - 18:49

ok thx
0

#5 Mitglied ist offline   Mr_Maniac 

  • Gruppe: aktive Mitglieder
  • Beiträge: 770
  • Beigetreten: 29. Juli 02
  • Reputation: 1
  • Geschlecht:Männlich
  • Interessen:Vieles rund um den Computer
    Musik

geschrieben 18. Juni 2009 - 21:19

Soweit ich weiß, ist HDMI (von der Bildübertragung/dem Protokoll her) nichts anderes als DVI mit anderem Stecker und evtl. "drübergestülpten" HDCP.
Von daher sollte beides das gleiche Ergebnis liefern.
0

#6 Mitglied ist offline   bluelight_germany 

  • Gruppe: aktive Mitglieder
  • Beiträge: 66
  • Beigetreten: 23. Juli 08
  • Reputation: 0
  • Geschlecht:Männlich
  • Wohnort:Erfurt

  geschrieben 18. Juni 2009 - 23:02

Hier haben wir wieder das Problem das die Digitale Übertragung in den meisten Köpfen noch nicht angekommen ist. Bei ANALOG muss man wahrlich auf Kabelqualität achten aber Bei Digital ist es sowas von egal.

Wer Digital SAT hat wird das bestätigen das er auch noch bei schlechtem Wetter Fernsehen kann was bei ANALOG nicht bzw. schlecht möglich ist. 0 und 1 hat einen Signal Pegel in einem Definierten Bereich. Dies kann auch durch DVI auf HDMI Adapter nicht verfälscht werden.
Ich amüsiere mich immer wenn in Elektromärkten HDMI Kabel für 300 EUR verkauft werden. ;-)

Dieser Beitrag wurde von bluelight_germany bearbeitet: 18. Juni 2009 - 23:03

Hardware:

CPU: Intel Core2Quad Q9550 mit Zalman 9700 NT Kühler
Board: ASUS P5Q P45 Chip
RAM: 4 GB Kingston DDR2 800 MHz
NT: Zalman ZM-600 HP
Platten: 1x WD10EADS 1.0 TB
1x WD10EARS 1.0 TB
1x WD 320 GB
Sound: onboard@Creative Inspire T7900
Graka: Gainward GTX 275 @TFT 16:10 HP w2207

0

#7 Mitglied ist offline   Mr_Maniac 

  • Gruppe: aktive Mitglieder
  • Beiträge: 770
  • Beigetreten: 29. Juli 02
  • Reputation: 1
  • Geschlecht:Männlich
  • Interessen:Vieles rund um den Computer
    Musik

geschrieben 19. Juni 2009 - 05:37

Beitrag anzeigenZitat (bluelight_germany: 19.06.2009, 00:02)

Bei ANALOG muss man wahrlich auf Kabelqualität achten aber Bei Digital ist es sowas von egal.

Wer Digital SAT hat wird das bestätigen das er auch noch bei schlechtem Wetter Fernsehen kann was bei ANALOG nicht bzw. schlecht möglich ist.

Im Grunde richtig, aber so 100%ig würde ich das nicht unterschreiben ;-)
Der große Unterschied ist, dass digital funktioniert oder eben NICHT funktioniert. Ein Verlust an Qualität ist in der Regel dazwischen nicht festzustellen. So könnte es, um dein DVB-S-Beispiel aufzugreifen, gut sein, dass jemand mit einer guten, analogen SAT-Anlage bei schlechtem Wetter wenigstens noch ein Bild hat (wenn auch nur schlecht), während jemand mit einer nicht ganz so guten, digitalen SAT-Anlage gleich GAR NICHTS MEHR sieht.
Und bei Kabeln wird das ähnlich sein. Jedoch braucht es hier wesentlich mehr als schlechtes Wetter, um das Signal im Kabel so zu stören. Und in der Regel auch mehr, als die meisten normalen Menschen an Störquellen in ihrer Umgebung haben. Von daher sollten tatsächlich günstige Kabel für die meisten Leute reichen.
Die 300€ HDMI-Kabel könnte man aber wahrscheinlich sogar durch Mikrowellen legen, ohne dass das Signal beeinflusst wird (so SOLLTE es bei dem Preis zumindest sein :unsure: ). Aber wer will/macht sowas schon :D
0

#8 Mitglied ist offline   wiseelisha 

  • Gruppe: Mitglieder
  • Beiträge: 3
  • Beigetreten: 23. Januar 09
  • Reputation: 0

geschrieben 07. November 2013 - 18:07

Alles, was gesagt wurde ist soweit schon richtig, aber ein wichtiges Detail wurde hier vergessen, was ich nun für alle Suchenden noch ergänzen möchte:

Habe einen neuen 27'' Monitor mit 2560 x 1440 Pixeln angeschlossen.
Zuerst per HDMI. Ich dachte: "Die neueste Schnittstelle verspricht auch die beste Leistung."
ABER: Der HDMI-Treiber ist begrenzt auf 1920 x 1080 Pixel.

Wer größere Auflösungen erreichen möchte, sollte sich doch für DVI entscheiden, zumal die Bildqualität identisch ist! Das kann ich hier an einem 5m Kabel(!) nachweisen: Kabelwege oder Längen wirken sich nicht mehr auf die Bildqualität aus, wie beim analogen VGA Kabel. Hier gab es früher Schärfeeinbußen, Schatten oder Rahmenbildungen.

Bei DVI ist das Bild ebenso 100%ig, wie bei HDMI, nur die Auflösung ist bei HDMI manchmal beschränkt, obwohl die HDMI-Spezifikationen dies ermöglichen würden!

"HDMI und Auflösungen oberhalb von Full HD

Ab Version 1.3 ist HDMI in der Lage, Auflösungen oberhalb von 1920×1080 (HDTV 1080p60, bzw. Full HD) und 1920×1200 anzusteuern. Mit dem Aufkommen von Monitoren, die bei einer Bildschirmdiagonale von 27 Zoll (598 mm × 336 mm) Auflösungen von 2560×1440 anbieten, ist das Ansteuern dieser Monitore mit der nativen Auflösung über HDMI möglich. Sowohl neuere Grafikkarten und On-Board-Grafik-Chipsätze wie auch die Empfangsschaltkreise in den Monitoren sind dazu in der Lage.

Das bestehende Problem ist, dass die Monitore als maximale Auflösung 1920×1080 melden und die Grafikkartentreiber daher auch keine höheren Auflösungen anbieten. <_< Werden modifizierte Windows-Treiber[10] eingesetzt oder Grafiktreiber verwendet, die frei programmierbare Videotimings (ModeLine "2560x1440@60" 241.500 2560 2608 2640 2720 1440 1443 1448 1481 +hsync -vsync) erlauben, funktioniert die Nutzung der nativen Auflösung problemlos."

Weitere Infos hier:
Wiki-Link

:8):
0

#9 Mitglied ist offline   nobody is perfect 

  • Gruppe: VIP Mitglieder
  • Beiträge: 5.899
  • Beigetreten: 13. Oktober 06
  • Reputation: 315
  • Geschlecht:Männlich
  • Wohnort:Köln

geschrieben 07. November 2013 - 18:23

wiseelisha nach 4 Jahren ruhen aus dem Keller geholt <_<
0

#10 Mitglied ist offline   Sturmovik 

  • Gruppe: aktive Mitglieder
  • Beiträge: 3.790
  • Beigetreten: 10. Januar 08
  • Reputation: 445
  • Geschlecht:unbekannt
  • Wohnort:In Reichweite der Kaffeemaschine
  • Interessen:IT, Luftfahrt, historische Technik

geschrieben 07. November 2013 - 18:25

Damit hast du wohl den Preis "Totengräber der Woche" verdient.
Und nebenbei auch noch die Hälfte vergessen.

Bei 2560 x 1440 sind sowohl DVI als auch HDMI am Ende ihrer Datenrate angelangt, darüber hinaus wäre dann Displayport in der Revision 1.2 in der Lage 4k-Auflösungen zu bedienen.
«Geschichte wiederholt sich nicht, aber sie reimt sich» (Mark Twain)

Unix won't hold your hand. You wanna shoot your foot, Unix reliably delivers the shot.

True Cloudstorage
0

Thema verteilen:


Seite 1 von 1

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0