WinFuture-Forum.de: Hd4890 Biosmod - WinFuture-Forum.de

Zum Inhalt wechseln

Nachrichten zum Thema: Grafikkarten
  • 2 Seiten +
  • 1
  • 2

Hd4890 Biosmod ramtakt


#1 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.423
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

  geschrieben 01. August 2009 - 10:06

ich habe mit dem rivatuner und dem vt1165 plugin diverse p-states meiner hd 4890 mal simuliert und (ein wenig) getestet. dem anschein nach lässt sich max. die gpu-spannung von 1,3125V auf unter 1,25V reduzieren, der speicher lässt sich auf 240 mhz runtertakten. weil die modifikationen mit dem rivatuner aber kein powerplay mehr zulassen, wird die gpu-spannung gefixt. so erreicht die karte den idle-wert von 1,05V nicht mehr.

lasse ich sie mit den modifizierten 2D-settings 240/240/1.05V laufen, spare ich runde 30 watt im idle ein.

unter last (furmark burnin) gehen die VRMs nur noch auf etwas üner 100 statt auf über 130°C. die leistungsaufnahme des sys sinkt um fast 70 watt.

soweit alles gute argumente, der karte manieren beizubringen.

tatsächliche p-state modifikationen kann ich ihr am sinnvollsten per bios beibringen, das profilgedönse per rivatuner ist mir doch etwas zu umständlich und ich ich habe auch noch nicht in erfahrung gebracht, ob es überhaupt möglich ist, verscheidene spannungszustände in die profile zu integrieren.

bis dahin.

bevor ich mich jetzt an das modifizieren des bios mache, gehen mir doch ein paar fragen durch den kopf:

- welche p-states sind relevant? es werden von RBE 12 states ausgelesen, allerdings kann ich mir nur (unsinnige?) notebook und UVD p-states markieren.

- wenn es scheinbar so einfach ist, den Vram im 2D langsamer zu takten, und dabei runde 50% verbrauch der karte einzusparen, warum macht ATI das dann nicht?
ich bin sicher, es gibt einen grund. der kann in irgendeiner harmlosen erscheinung liegen, die ati nur wegen thumben 'des iss gabutt'-usern vermeiden will - oder aber er hat einen ernsthaften hintergrund.

ich weis es nicht...

wer hat, wer weiss, wer macht mich schlau?

Dieser Beitrag wurde von klawitter bearbeitet: 01. August 2009 - 10:35

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

Anzeige



#2 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 846
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 01. August 2009 - 10:50

Mein PowerPlay-Lieblingsartikel (und danach hat sich seit gut einem Jahr nichts Wesentliches mehr getan).
http://www.computerbase.de/news/hardware/g...00_stromsparen/

Schau Dir einmal ganz genau die 2. Tabelle an.
Offensichtlich bringt Taktabsenkung bei GDDR5-Speicher (den ja auch die HD4890 hat, weswegen ich von einer Übertragbarkeit der Erkenntnisse ausgehe) fast gar nichts, während der große Jackpot in der Senkung des RAM-Taktes liegt.

Was Computerbase leider "vergisst" zu erwähnen, ist, dass bei jeder Änderung des GDDR5-Taktes das Bild flackert.

Deine Vermutung trifft also zu, dass die ganzen Kartenhersteller die gigantischen Stromsparmöglichkeiten bewusst ausgelassen haben, um zu verhindern dass sich 10.000e Dieter Döspaddels melden, weil der Monitor flackert.

Kannst ja mal berichten, ob Dein Bild dann auch flackert, wenn Deine GPU runterschaltet, das tät mich mal interessieren. Ich hab momentan nur Karten mit GDDR3 hier, weswegen ich das noch nicht aus erster Hand nachprüfen konnte.


Hier noch ein Link zum AMD GPU Clock Tool, für das Herumspielen an den Taktraten:
http://www.techpowerup.com/downloads/1128/...ool_v0.9.8.html

Dieser Beitrag wurde von ...but alive bearbeitet: 01. August 2009 - 10:56

0

#3 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.423
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 01. August 2009 - 11:24

danke für die links und die info. das amd gpu clocktool ist doch eigentlich tot, oder? ich probiers mal...

das mit dem monitorflackern muss ich mal ausprobieren. viele schreiben darüber, viele sagen es trete mit dem rivatuner nicht auf, über modifizierte biose findet sich nur das übliche forumsgeschwafel: jede menge leute meinen dazu was sagen zu müssen, keiner hats getestet...

also., lassen wirs drauf ankommen.

eine frage noch: ich hab noch nie ne graka geflasht. besteht ein risiko, sie nach aufspielen eines modifizierten bios nicht mehr zurückflashen zu können, wegen irgendeinem prüfsummengedöns oder so?
Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#4 Mitglied ist offline   Tim32 

  • Gruppe: aktive Mitglieder
  • Beiträge: 914
  • Beigetreten: 21. Mai 08
  • Reputation: 0
  • Geschlecht:Männlich

geschrieben 01. August 2009 - 12:37

also ich hab vor kurzem meine 4850 mit atiflash geflashed und nach neustart blieb ab windows laden der bildschirm schwarz..aber wenn man mit atiflash unter "dos" flashe dund nicht unter windows dann war es zumindest bei mir kein problem einfach das orginale (voher sichern ist natürlich wichtig) wieder aufzuspielen.
da kanst mal schauen...
http://www.radeon3d....thread-377.html
Mein System /Laptop:
I5 6600k @4,2 / I7 8550u
Zotac GTX1080 AMP extreme /MX150
16Gb DDR4 /16Gb LPDDR3
0

#5 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.423
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 01. August 2009 - 13:20

ok. danke. ich werd es wagen, wobei ich den ram wohl bei 400 mhz belassen werde. scheint mir weniger riskant (auch wenns mit dem rivatuner soweit mit 240 lief)...

zur not habe ich ja erst mal ersatz...
Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#6 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 846
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 01. August 2009 - 17:55

Warum in die Ferne schweifen? Sieh! Das Tutorial liegt so nah (und keiner hat's gelesen feat. Meinereiner - bis JETZT):

http://bios.techpowerup.com/articles//over...g/vidcard/154/5

Ich zitiere *räusper*

Zitat

Please note that the RAM clocks should be the same for all clock infos as on the one hand, decreasing this doesn't save a lot of power and on the other hand, switching the mode (and switching the RAM clocks if they aren't all the same) will cause an annoying flickering of the screen. You understand now that ATI themselves programmed the RAM clocks to all the same values for a reason.
However, at least the GDDR5 RAM the 4870 and some future cards use is reported to consume more power, though. So it's up to you: Save power and lower the clocks or leave the clocks at high rates, waste some power but be free of any flickering on frequency switching.

Dieser Beitrag wurde von ...but alive bearbeitet: 02. August 2009 - 13:16

0

#7 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.423
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 02. August 2009 - 15:45

yo, mittlerweile auch gelesen. ich habe mich heute über die mittagszeit mal drangesetzt, um das alles genauer zu verifizieren bzw. einige tests veritabel durchlaufen zu lassen.

die stromsparmöglichkeiten sind auf jeden fall sehr potent. selbst mit -0.1V läuft die karte noch problemlos (furmark burnin).

ich habe ein paar probleme mit dem usb-dos bootstick gehabt, deshalb (vorsichtshalber) noch nichts geflasht. ich werde es aber auf jeden fall testen, wie sich die speichertaktabsenkung rsp das switchen des ramtakts auswirkt.

zwei dinge vorweg:

die absenkung der gpu-spannung bringt auf jeden fall massive vorteile bei der belastung /temperatur der VRMs (130°C zu 85°C!)). mit ausgeschaltetem AI zieht die karte unter vollast 20-25A mehr als mit AI, mit weiteren AA und AAA-einstellungen sinkt die amperelast weiter (?) noch sind die ergenisse allerdings zu ungenau /verschieden, als dass ich etwas präzise daran festmachen könnte. ich brauch noch einen testdurchlauf mit gesichert identischen bedingungen. teilweise habe ich noch vergleichswerte mit dem catalyst 9.6, wobei mir aufgefallen ist, dass sich offensichtlich die steuerung der p-states unter 9.7 verändert hat (die karte ist viel häufiger im mittleren status als vorher).

im idle bingt die speichertaktabsenkung ordentlich weniger verbrauch (30 watt), unter vollast die gpu-spannung.


irgendwo im vorrübergehen habe ich gelesen, dass mit ATT beim switchen des ramtaktes das flackern per kurzzeitiger spannungserhöhung verhindert werden soll - muss dem auch noch mal nachgehen...

worauf ich gespannt bin: ich habe zum thema flackern nichts handfestes im web gefunden. nur abgeschriebenes oder ohne 'beweisführung' (siehe RBE-tut). es wird sich weisen, obs ein gerücht ist oder ein wenig oder gänzlich der wahrheit entspricht.

für heut ist aber erst mal schluss...


@ but alive: THX bis dahin erstmal :) habe jetzt auch mal den hd4850 thread durchgelesen und TGRs thread mit deinen ganzen tipps, jetzt ist die sache recht rund für mich.

Dieser Beitrag wurde von klawitter bearbeitet: 02. August 2009 - 15:57

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#8 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 846
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 02. August 2009 - 17:07

Zitat

nur abgeschriebenes oder ohne 'beweisführung' (siehe RBE-tut)


Einspruch Euer Ehren. Wenn jemand Ahnung hat, dann sind das die Freaks von techpowerup.com. Sie haben die ausführlichsten Reviews (meistens über ein halbes Dutzend versch. Hersteller eines Graka-Modells) und sind wohl auch die Macher von gpu-z und RBE. Wenn irgendjemand Ahnung hat, dann wohl diese Freaks - zumal die ja auch eine Feedback-Ecke haben für die zukünftigen Versionen.. da sollten sich über das letzte Jahr sicherlich einige Hundert HD4870-Besitzer gemeldet haben..


Du kannst mir mal den Gefallen tun und mir berichten, was die Option "Improved Power-Play" unter "Additional features" bringt. Bei der HD4850 ist die nämlich geghostet.

Dieser Beitrag wurde von ...but alive bearbeitet: 02. August 2009 - 17:12

0

#9 Mitglied ist offline   Strom 

  • Gruppe: aktive Mitglieder
  • Beiträge: 558
  • Beigetreten: 21. Februar 09
  • Reputation: 0
  • Geschlecht:Männlich

geschrieben 02. August 2009 - 23:06

Zitat

mit ausgeschaltetem AI zieht die karte unter vollast 20-25A mehr als mit AI, mit weiteren AA und AAA-einstellungen sinkt die amperelast weiter (?)


@ klawitter
Das lässt sich relativ leicht erklären: Grundsätzlich läuft die GPU bei spielen immer auf 100% (solange die Anzahl der Bilder die pro sekunde berechnet werden, nicht beschränkt wird (vsync)). Von dem vorhergehenden posts vermute ich mal, das das nichts neues für dich ist. Der punkt ist aber, dass die effizienz der berechnungen unterschiedlich hoch ist. Beispiel: Von einer Festplatte kann zb 100mb/s lesen, wenn man aber ganz viele kleine Dateien einließt, dann sinkt die rate auf kb/s. Zuggegeben ein sehr gewagter vergleich. Was ich damit sagen will, ist, dass AA nicht so optimal für die GPU zu berechnen ist, wie andere Sachen, es werden also manche rechenzentren der GPU in dem moment garnicht genutzt, deher verbraucht die grafikkarte letztendlich weniger strom.

Zur Ram-Taktung: es gibt da auch noch das problem, dass sich manchmal der takt des vrams nicht mehr ändern lässt (bis zum nächsten neustart). Dieses problem habe ich mit meiner geforce 8800gts. Allerdings glaube ich, betrifft das die ältere grafikkartengeneration, und ist heutzutage kein problem mehr, meine notebook-grafikkarte kriegts ja schließlich auch hin.

130° ist ja wirklich enorm, bei 170° geht die struktur vom Halbleiter kaputt. Der wird dann quasi zum vollleiter :huh: .

Was mich noch interessieren würde, ist, woher du weist, wieviel strom deine grafikkarte zieht, hat die etwa schon dafür einen sensor? sowas wünsche ich mir auch. Ich habe den stromverbrauch meiner grafikkarte ganz aufwendig analysiert:
- die lüfterdrezahl manuell festgelegt
- die umgebungstemperatur gemessen
- die temperatur des kühlgitters der grafikkarte gemessen
- und dann die einzelnen Komponenten der Grafikkarte hoch und heruntergetaktet
- ziel war es möglichst wenig strom im idle verbrauchen, denn zu über 90% der zeit nutze ich die karte nur für 2D.
- ergebnis: die taktung der vrams ist nicht unentscheidend, denn diese verbrauchen (bei gleichem Takt) im idle annähernd gleich viel, wie unter Last. ganz anders ist da die GPU, die unter last zeigt, wo der Hammer hängt. gleiches gilt logischerweise auch für die shader.
Durch die Untertaktung der Rams auf den minimalwert, der für 2d ohne weiteres ausreicht, spare ich bis zu 25 Watt. An der GPU Spannung kann ich leider nichts drehen, das wäre nur durch ein bios-flash, wie du ihn machen willst, möglich, und da wage ich mich definitiv nicht ran.
Würde ich auch keinem empfehlen, aber du weist ja anscheinend was du machst, und wenn man mit dos klarkommt, dann hat man natürlich auch mehr möglichkeiten.

Ich wünsche dir viel erfolg :D
Computer sind dazu da, uns die Arbeit zu erleichtern, die wir ohne sie gar nicht hätten.
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
Mein Notebook: Alienware 17 R3
OS: Win10 Pro x64 CPU: Intel Core I7 6700HQ Graka: GeForce GTX970M Ram: 4x4GB
SSD: Samsung 950Pro
0

#10 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.423
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 03. August 2009 - 10:10

@ but alive: einspruch sattgegeben. aber ich wollte nicht mangelndes vertrauen ggü den von dir genannten leuten zum ausdruck bringen, ich meinte nur: nirgendwo ein video gefunden resp was meinen die nun genau mit 'flackern' :D

@ strom: die VRM-auslastung kann man bei der HD 4890 sowohl mit gpu-z als auch mit rivatuner + VT1165-plugin auslesen.

was überraschend für mich war, ist, dass die rechenwerke, die für AA etc zuständig sind, offensichtlich sehr sparsam zu werke gehen, denn sonst käme der unterschied von rund 30A zwischen max qualität und rohleistung nicht zustande. die stromaufnahme steht also in indirektem zusammenhang mit der höhe der fps.


und weil ich ein schändlicher ungläubiger bin, habe ich heute morgen geflasht und gefilmt. 'flackern' ist in diesem zusammenhang ein dreister euphemismus... ;)

ma sehn, wie ich das video hier rein bringe...




FAZIT:

bios mit 1.225V max. gpu-spannung (statt 1.3125V: die karten sollen so wohl gut taktbar sein...)
Vram belassen bei 975 mhz
einsparung bei vollast zwischen 30 und 60 watt, je nach anwendung

einsparung im idle:

Vram per ccc overdrive auf min (490 mhz): - 25 Watt. damitlalufen videos etc völlig problemlos. wenn zocken: auf default klicken.
so einfach kann das leben sein... ;)
die oft genannte gpu-ram frequenzabhängigkeit habe ich nicht feststellen können.
die max. mögliche einsparung mit einer Vram-frequenz von 240mhz (rivatuner-profile)war etwas 4-5 watt weniger. also eigentlich vernachlässigbar + der aufwand ist per bios-voltmod+ccc overdrive wesentlich geringer.

furmark burnin läuft auch mit 490mhz ramtakt problemlos, 18avg fps satt 24 bei identischen einstellungen, die stromaufnahme des speichers beträgt 10,5 A statt 20,5A.



Angehängtes Bild: HD4890_1.225V.jpg

Dieser Beitrag wurde von klawitter bearbeitet: 03. August 2009 - 12:02

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#11 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 846
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 03. August 2009 - 12:03

Was mich jetzt allerdings wundert:
Wenn man per BIOS-Einstellung die RAM-Taktrate absenkt, flackerts - AAABER wenn man es via OverDrive macht, nicht? Höh?

Bewirkt "Superior PowerPlay" irgendwas?

Dieser Beitrag wurde von ...but alive bearbeitet: 03. August 2009 - 12:04

0

#12 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.423
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 03. August 2009 - 12:12

Beitrag anzeigenZitat (...but alive: 03.08.2009, 13:03)

Was mich jetzt allerdings wundert:
Wenn man per BIOS-Einstellung die RAM-Taktrate absenkt, flackerts - AAABER wenn man es via OverDrive macht, nicht? Höh?

Bewirkt "Superior PowerPlay" irgendwas?



das flackern kommt durch das umschalten der p-states mit veränderter ram-taktung: da produziert der speichercontroller die aussetzer. ich hatte den ramtakt testweise auf 400/600/975 je nach p-state gesetzt.

wenn du den ramtakt per ccc einstellst, ist er auf diesen wert gefixt. nicht die ramgeschwindigkeit an sich, sondern das umschalten ist das problem.

das mit dem erweiterten powerplay ist bei mir ausgegraut, die hilfe spricht folgendes:

Angehängtes Bild: atipp.JPG

Dieser Beitrag wurde von klawitter bearbeitet: 03. August 2009 - 12:14

Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#13 Mitglied ist offline   Strom 

  • Gruppe: aktive Mitglieder
  • Beiträge: 558
  • Beigetreten: 21. Februar 09
  • Reputation: 0
  • Geschlecht:Männlich

geschrieben 03. August 2009 - 14:46

@ klawitter,
interessante ergebnisse, schade das es nicht gescheit geht. neija meistens haben sich die hersteller schon was dabei gedacht, so meine erfahrungen. Es wäre natürlich eine sehr elegante lösung gewesen, das mit dem manuell umschalten macht auf dauer keinen spass, glaub mir.

Das mit der VRM-auslastung muss die Grafikkarte erstmal unterstützen, schätze ich. Bei mir wird da nichts angezeigt ( dafür aber beim CPU, mit everest ). Neija ich bekomme heute wahrscheinlich sowieso eine neue Grafikkarte
Man gönnt sich ja sonst nichts. ;)
Computer sind dazu da, uns die Arbeit zu erleichtern, die wir ohne sie gar nicht hätten.
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
Mein Notebook: Alienware 17 R3
OS: Win10 Pro x64 CPU: Intel Core I7 6700HQ Graka: GeForce GTX970M Ram: 4x4GB
SSD: Samsung 950Pro
0

#14 Mitglied ist offline   klawitter 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.423
  • Beigetreten: 21. Februar 08
  • Reputation: 67
  • Geschlecht:Männlich

geschrieben 03. August 2009 - 23:02

Beitrag anzeigenZitat (Strom: 03.08.2009, 15:46)

(...)dem manuell umschalten macht auf dauer keinen spass, glaub mir.


das hängt sicher vom userprofil ab. ich spiel z.b. 'relativ' selten bzw 'geplant'. wenn ich mich hinsetze, um zu zocken, habe ich vorher die kinder zu bett gebracht oder einen freien sonntag nachmittag, an dem keiner was von mir will. mal eben so zwischendrin passiert eigentlich nie. insofern wäre das durchaus machbar, zumal man das manuelle umschalten im ccc als hotkey hinterlegen kann: habe ich es vorm spielstart vergessen, kann ich es jederzeit ohne unterbrechung des gestarteten spiels nachholen. wichtig ist für mich, meinen footprint beim täglichen arbeiten klein(er) zu halten.

ich habe heute abend noch des weiteren meine cpu getestet: 1.35V standard Vcore @ load, hatte ich per se schon auf 1,3V gesenkt. jetzt habe ich das mal ausprobiert und der p2 940 ist bei 1,225V immer noch absolut stabil. wenn sich dass auch noch auf den idle-modus übertragen lässt, schaff ich es noch, den pc beim arbeiten zwischen 120 und 150 statt zwischen 165 und 200 watt zu bewegen. bei gleicher leistung und dann wirklich leise, wohlgemerkt...
Android ist die Rache der Nerds - weil wir sie nie auf unsere Parties eingeladen haben.
0

#15 Mitglied ist offline   ...but alive 

  • Gruppe: aktive Mitglieder
  • Beiträge: 846
  • Beigetreten: 03. Mai 09
  • Reputation: 19
  • Geschlecht:unbekannt

geschrieben 04. August 2009 - 00:19

Achja?
Dann könnte Dich der hier interessieren:
http://www.tomshardware.com/de/undervoltin...e-240357-4.html
0

Thema verteilen:


  • 2 Seiten +
  • 1
  • 2

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0