WinFuture-Forum.de: Standardaufloesung Bei Grafikkarte - WinFuture-Forum.de

Zum Inhalt wechseln

Nachrichten zum Thema: Grafikkarten
Seite 1 von 1

Standardaufloesung Bei Grafikkarte "Leistungsverlust" beim Hoch/Runterrechnen der Aufloesung im S


#1 _nobido_

  • Gruppe: Gäste

geschrieben 13. Februar 2009 - 19:38

Hiho die Gemeinde,

ich hab da (mal wieder) ne Frage.

Also ich nutze die ATI 3850 AGP mit 512MB GDDR3-Speicher.

Mich interessiert nun zum einen welche Standardaufloesung - wenn man das so nennen kann - hat die Karte? (*Soweit ich mich erinnere gaben die Hersteller frueher sowas wie eine Standardaufloesung an -> bei der die Grafikkarte die tatsaechlich dargestellte Aufloesung also nicht hoch- bzw. runterrechnen muessen. Bsp.: Karte macht Aufloesung von 640x480 bis 1600x1200, wobei die Standardaufloesung mit 1024x768 angegeben wird. ... oder verwechsel ich hier grad was analog zum Thema rauf/runterrechnen von 16/32Bit in 24Bit?*) Bei ati bzw. amd/ati werd ich nicht fuendig. und handbuecher (ach, was waren das noch zeiten) habsch irgendwie auch nicht dafuer.

Zum anderen interessiert mich wie gross der "zusaetzliche" Rechenbedarf, der Leistungsverlust (oder wie auch immer man es nennen mag) ist, wenn ich Grafikintensive Spiele wie z.B. Call of Duty 4/5 oder andere Spiele (jaja, gibt da sicher noch heftigere Spiele) nicht in der "Standardaufloesung" der Grafikkarte ablaufen lasse?

Wobei, der zweite Teil der Frage ist ja fast schon bloed. Dakoennt man ja nen Benchmark laufen lassen ... gruebel ... irgendwie grad keine Lust zu. hum.

Evtl. kann man ja trotzdem den Ersten Teil der Frage beantworten.


joar... Dank an dieser Stelle und nettes WE

greetz
0

Anzeige



#2 Mitglied ist offline   Scarecrow 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.186
  • Beigetreten: 25. Dezember 07
  • Reputation: 7
  • Geschlecht:Männlich
  • Wohnort:RV

geschrieben 14. Februar 2009 - 15:35

Ich würde behaupten der Karte ist egal welche Auflösung. Umso höher desto größer der Rechenaufwand.
Kenne das nur von den Monitoren dass bei zu geringen Auflösungen interpoliert wird (heißt das so?) dann wird das Bild teilweise schwammig.
Von den Graka's selber hab ich sowas noch nie gehört...
Eingefügtes Bild --- Desktop
Eingefügtes Bild --- Laptop
______
Xeon E3 1230, 16GB DDR3, H87-HD3, Nvidia 770 GTX 2GB, 128GB Samsung 830, 500GB HDD, 1TB HDD, NAS Synology 2x4TB
______
"Denn nur ich, ich bin in Ordnung und den Rest könnt ihr vergessen, ich gehöre zu den Besten, ich bin Teil einer Elite, bin der Retter der Nation." - Frei.Wild
0

#3 Mitglied ist offline   Mr. Floppy 

  • Gruppe: VIP Mitglieder
  • Beiträge: 4.115
  • Beigetreten: 01. Juli 08
  • Reputation: 271
  • Geschlecht:Männlich

geschrieben 14. Februar 2009 - 16:32

Hm, Standardauflösung bei Grafikkarten, wäre mir neu. Früher sprach man von EGA, VGA, SVGA-Karten, etc., aber selbst da war immer die maximale Auflösung gemeint. Damals war aber der (teure) Speicher noch der limitierende Faktor.
Ansonsten gilt, je höher die Auflösung, desto höher der Rechenaufwand. Die wenigsten Leute haben aber ein Display das die maximale Auflösung der Grafikkarte nativ unterstützt.
0

Thema verteilen:


Seite 1 von 1

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0