Geforce 6800ultra Und Der Ramdac
#1 _Nixnutz_
geschrieben 11. August 2005 - 18:47
ALBATRON GEFORCE 6800 ULTRA 256MB AGP
Was mich stutzig macht ist, überall wo die Karte verkauft wird steht GPU Takt/Ramdac 400/400
bei dieser Karte steht GPU Takt/Ramdac 400/700 ist die nun schneller da Ramdac ja x2 währe, also 1400 oder muss ich durch 2 teilen, dann wäre Ramdac nur 350 und damit die Karte langsamer als andere 6800Ultra..ich bin wirklich ziemlich verwirrt, vielleicht könnt Ihr mir helfen ?
Anzeige
#2
geschrieben 11. August 2005 - 19:02
sie hat 400 mhz ramdac und gpu takt... also werden wohl die 700 mhz der speichertakt sein.
Dieser Beitrag wurde von RommTromm bearbeitet: 11. August 2005 - 20:41
Mein sys:
X4 965---GIGABYTE GA-MA785GT-UD3H --- XFX 5870
-DATA 4GB DDR3-1333 XPG----22 Zoll TFT Samsung----Epson Sylus R300
LG DVD-RW Logitech G15, Corsair 650 Watt
GNN-Gaming-Nation-Network
#3 _Nixnutz_
geschrieben 11. August 2005 - 19:04
Zitat (RommTromm: 11.08.2005, 20:02)
wenn ich mich nicht irre ist es der GPU takt denn du x2 rechnen kannst also hatte sie nen Speichertakt von 800mhz normal sind aber so was um die 1000-1100MHZ.
was sich wohl auf den preis auswirkt........
<{POST_SNAPBACK}>
Dann ist das wohl eine langsamere Karte, nee Die will ich dann nicht, werde wohl die Annahme verweigern..danke für die Aufklärung...
#4
geschrieben 11. August 2005 - 20:09
Zitat (RommTromm: 11.08.2005, 20:02)
wenn ich mich nicht irre ist es der GPU takt denn du x2 rechnen kannst also hatte sie nen Speichertakt von 800mhz normal sind aber so was um die 1000-1100MHZ.
was sich wohl auf den preis auswirkt........
<{POST_SNAPBACK}>
Eigendlich falsch .
Ram wird x2 genommen bei der GPU wär das was feines stimmt aber nicht .
#5 _Nixnutz_
geschrieben 11. August 2005 - 21:32
Zitat (Sp!ke_324: 11.08.2005, 21:09)
Ram wird x2 genommen bei der GPU wär das was feines stimmt aber nicht .
<{POST_SNAPBACK}>
Jetzt bin ich total von der Rolle, also hat die Karte einen Ramdac von 1400 ? also 400/700 schneller als 400/400 GPU/Ramdac...
Dieser Beitrag wurde von Nixnutz bearbeitet: 11. August 2005 - 21:46
#6
geschrieben 11. August 2005 - 22:06
Zitat
Er enthält neben einem kleinen statischen Speicher, in dem Farbtabellen abgelegt sind, drei D/A-Wandler (für je eine der Grundfarben rot, grün, blau). Jeder dieser D/A-Wandler setzt den digitalen Farbwert für eine Grundfarbe mit Hilfe der Farbtabelle in einen, für den Monitor verständlichen analogen Spannungswert um.
Der RAMDAC ist entweder auf dem Grafikchip oder als externer Baustein realisiert.
Das Leistungsmerkmal des RAMDAC ist die Pixelfrequenz, also die Anzahl der Pixel die der RAMDAC pro Sekunde umwandeln kann. Je höher die Geschwindigkeit des RAMDAC, desto höher kann die Auflösung bzw. die vertikale Bildwiederholfrequenz gewählt werden.
Also hat der Ramdac nicht direkt was mit der geschwindigkeit der karte zu tun! und das mit der annahme verweigern ist eine sauerei! Wenn dann überlege es dir vorher.
#7
geschrieben 11. August 2005 - 22:19
Zitat (RommTromm: 11.08.2005, 20:02)
sie hat 400 mhz ramdac und gpu takt... also werden wohl die 700 mhz der speichertakt sein.
<{POST_SNAPBACK}>
Mein sys:
X4 965---GIGABYTE GA-MA785GT-UD3H --- XFX 5870
-DATA 4GB DDR3-1333 XPG----22 Zoll TFT Samsung----Epson Sylus R300
LG DVD-RW Logitech G15, Corsair 650 Watt
GNN-Gaming-Nation-Network
#8 _Nixnutz_
geschrieben 11. August 2005 - 22:41
Zitat (-=MoRpH=-: 11.08.2005, 23:06)
<{POST_SNAPBACK}>
Ich wüsste nicht wo das eine Sauerei ist, mir wurde das per Mail so empfohlen wenn ich die Karte nicht haben wollte...ich betrüge ja wohl keinen...das die Beschreibung auf der Seite sehr minimalistisch ist, dafür kann ich nichts...ich habe mich vorher Informiert, aber auf der Seite von Albatron gibt es 3 Ultras...auf Nachfrage bei Conrad welche Karte das nun ist, habe ich bisher keine Antwort bekommen..
Sorry ich hab eben nochmal geschaut, die anderen beiden Karten sind PCI Express...meine Schuld in der Aufregung nicht richtig gelesen..
Nur lese ich auf der Seite von Albatron nichts von 700 Ramdac, das verwirrt mich..
Dieser Beitrag wurde von Nixnutz bearbeitet: 11. August 2005 - 22:47
#9 _asterx_
geschrieben 11. August 2005 - 23:08
#10
geschrieben 12. August 2005 - 08:40
es ist alles in Ordnung. Das Teil scheint so viel von Haus aus zu haben. Schau dir mal hier den ersten Händler an.
Wundert mich auch ein wenig das die 1400 hat aber wenns da so steht .
EDIT: ok anscheinend sind die Händler sich da auch nicht ganz einig aber schaden kanns dir nicht mehr Mhz zu haben . Probier mal den Coolbits Trick bei den Nvidia Treibern und schau mal was da für eine Mhz Zahl im 3D Modus angegeben ist dann wissen wir bescheid .
Dieser Beitrag wurde von Sp!ke_324 bearbeitet: 12. August 2005 - 08:42
#11 _asterx_
geschrieben 12. August 2005 - 08:54
AGP Grafikkarte mit nVidia GeForce 6800 Ultra Chipsatz. Features: AGP8x/4x, 256 MB DDR2-RAM (256-bit Speicherinterface), Coretakt 400 MHz, Ramtakt 1200MHz, RAMDAC 400 MHz, 2x DVI (DVI/VGA Adapter im Lieferumfang), TV-Out
Bei Albatron auf der HP stehen die gleichen Werte bis auf dem Speichertakt. Kannst die Karte beruhigt kaufen. Ausserdem heißt es ja immer das für Irrtümer keine Gewähr gibt . So on.
Dieser Beitrag wurde von asterx bearbeitet: 12. August 2005 - 08:58
#12
geschrieben 12. August 2005 - 09:18
das passiert öfter bei den Shops (da wird auch mal gerne Ghz mit GByte verwechselt; z.B. bei Mediamarkt). Deshalb immer auf der Herstellerseite gucken.
In einfache Worte gepackt: der Ramdac ist für die Umwandlung des Videosignals zuständig. Das was die GPU produziert muss ja irgendwie sichtbar gemacht werden, das macht der /die Ramdacs. Die Karte hat 2 davon damit du auch 2 Bildschirme mit unterschiedlicher Auflösung betreiben kannst. Bei den 68er Karten ist der immer 400MHz, alles andere sind Dreckfuhler.
#13 _Nixnutz_
geschrieben 12. August 2005 - 10:29
#15 _Nixnutz_
geschrieben 12. August 2005 - 13:24
Zitat (asterx: 12.08.2005, 13:03)
<{POST_SNAPBACK}>
Ich danke Dir, werd ich sicher haben jetzt brauch ich nur noch meine MSI 6600GT und meine Radeon 9600pro verkaufen, dann kommt sogar noch etwas Kohle rein
Dieser Beitrag wurde von Nixnutz bearbeitet: 12. August 2005 - 13:25